Beobachtungen zum anzeichenlosen Verdacht: Eine rechtstheoretische Perspektive [1 ed.] 9783428547791, 9783428147793

Die Arbeit setzt sich im Rahmen der juristischen Grundlagenforschung kritisch mit der Praxis systematischer datengetrieb

101 7 19MB

German Pages 603 Year 2016

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Beobachtungen zum anzeichenlosen Verdacht: Eine rechtstheoretische Perspektive [1 ed.]
 9783428547791, 9783428147793

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Schriften zur Rechtstheorie Band 280

Beobachtungen zum anzeichenlosen Verdacht Eine rechtstheoretische Perspektive

Von Norbert Reez

Duncker & Humblot · Berlin

NORBERT REEZ

Beobachtungen zum anzeichenlosen Verdacht

Schriften zur Rechtstheorie Band 280

Beobachtungen zum anzeichenlosen Verdacht Eine rechtstheoretische Perspektive

Von Norbert Reez

Duncker & Humblot · Berlin

Der Fachbereich Rechtswissenschaft der Goethe-Universität Frankfurt am Main hat diese Arbeit im Jahre 2014 als Dissertation angenommen.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte vorbehalten

© 2016 Duncker & Humblot GmbH, Berlin

Fremddatenübernahme: L101 Mediengestaltung, Berlin Druck: buchbücher.de gmbH, Birkach Printed in Germany ISSN 0582-0472 ISBN 978-3-428-14779-3 (Print) ISBN 978-3-428-54779-1 (E-Book) ISBN 978-3-428-84779-2 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 Internet: http://www.duncker-humblot.de

Für Tina

Er glaubte in eine Maschine geraten zu sein, die ihn in unpersönliche, allgemeine Bestandteile zergliederte, ehe von seiner Schuld oder Unschuld auch nur die Rede war. Sein Name, diese zwei vorstellungsärmsten, aber gefühlsreichsten Worte der Sprache, sagte hier nichts. Seine Arbeiten, die ihm in der wissenschaftlichen Welt, die doch sonst für solid gilt, Ehre eingetragen hatten, waren in dieser Welt hier nicht vorhanden; er wurde nicht ein einziges Mal nach ihnen gefragt. Sein Gesicht galt nur als Signalement; er hatte den Eindruck, nie früher bedacht zu haben, dass seine Augen graue Augen waren, eines von den vorhandenen vier, amtlich zugelassenen Augenpaaren, das es in Millionen Stücken gab; seine Haare waren blond, seine Gestalt groß, sein Gesicht oval, und besondere Kennzeichen hatte er keine, obgleich er selbst eine andere Meinung davon besaß. (…) Er besaß darum selbst in diesem Augenblick noch Sinn für die statistische Entzauberung seiner Person, und das von dem Polizeiorgan auf ihn angewandte Maßund Beschreibungsverfahren begeisterte ihn wie ein vom Satan erfundenes Liebesgedicht. Das Wunderbarste daran war, dass die Polizei einen Menschen nicht nur so zergliedern kann, sondern dass sie ihn aus diesen nichtigen Bestandteilen auch wieder unverwechselbar zusammensetzt und an ihnen erkennt. Es ist für diese Leistung nur nötig, dass etwas Unwägbares hinzukommt, das sie Verdacht nennt. Robert Musil, Der Mann ohne Eigenschaften. Roman, Reinbek bei Hamburg 1978, S. 159–160

In der Mühsal des metaphorischen Durchbruchs vom ,Uhrwerk‘ zum ,Sprachwerk‘ steckt der ganze Scharfsinn des Vorgriffs auf theoretische Zukunft. Hans Blumenberg, Die Lesbarkeit der Welt, 3. Aufl., Frankfurt a. M. 1993, S. 396

Vorwort „Aufklärung ist von Anfang an die große Schule des Verdachts, des Durchschauens, auch des Durchschauens selbstgeschaffener Sicherheiten und Utopien, jeden Selbst- und Fremdbetrugs, jeden ,Trugs für Gott‘ (Hiob 13,7). Hiervon spricht auch die chassidische Erzählung des ‚furchtbaren Vielleicht‘.“ Willi Oelmüller, Orientierung, 19941

Verdacht gilt gemeinhin als der Inbegriff des Konkreten und Tatsächlichen. Man stellt sich vor, die Polizei beobachte konkretes verdächtiges Verhalten, erhebe Spuren und verfolge einzelne Verdächtige. Verdachtschöpfung, glaubt man, sei das sorgfältige Zusammentragen tatsächlicher Anhaltspunkte, Minutien und Indizien. Der „anzeichenlose Verdacht“, von dem hier die Rede sein soll, wirkt demgegenüber irritierend – wenn nicht paradox. Die Formulierung widerspricht dem klassischen Bild, das wir vom Tatverdacht haben. Beim anzeichenlosen Verdacht geht es nicht mehr primär um konkrete tatsächliche Fest­stellungen zu bestimmten Tatverdächtigen. Es geht stattdessen um Massendatenverarbeitung im großen Stil, um systematische datengetriebene Verdachtschöpfung, um Störungen, Abweichungen, Irritationen und „Trefferfälle“ in vernetzten Systemen. Letztlich geht es nach vollzogenem Datenabgleich und systematischer Datenanalyse – so der weithin herrschende Intelligence-Ansatz – um „Mustererkennung“. Der Aktionsrahmen ist denkbar weit: „Proaktive“ Verdachtsgewinnung heute ist – kriminalistisch gesprochen – „strategische Auswertung“ und „risikobasierte Sicherheitsvorsorge“. Mit anderen Worten, Polizeiarbeit, insbesondere die IT-gestützte Verdachtschöpfung ist abstrakt und smart geworden. Sie beruft sich auf abstrakte „Indikatoren“ und „Prädiktoren“ statt auf konkrete natürliche Anzeichen oder Indizien. Die neue Form des Verdachts, die sich neben dem traditionellen Tatverdacht etabliert hat, ist im Vorfeld, d. h. jenseits des strafprozessualen Anfangsverdachts, zuhause. Als „Frühwarnsystem“ findet sie in einer High-Tech-Umgebung statt, überdies in hybriden behördenübergreifenden Zentren einer vernetzten Sicherheitsarchitektur.

1  Oelmüller,

S. 248.

10 Vorwort

Das Feld – besser: das Vor-Feld – des anzeichenlosen Verdachts, das wir mit der vorliegenden Arbeit betreten, ist nicht nur unwegsam und bisher wissenschaftlich wenig erkundet. Das Terrain, könnte man sagen, ist buchstäblich gefährlich, d. h. den Fahrnissen und Wagnissen des unsicheren Weges ausgeliefert. Schon das Wort „Vorfeld“ signalisiert im allgemeinen Sprachgebrauch, dass man einen gesicherten Bereich verlässt. Auf Schritt und Tritt droht nunmehr Gefahr: Im Kontext des Luftverkehrs und auf Flughäfen bezeichnet „Vorfeld“ den besonders gefährlichen und für die Öffentlichkeit unzugänglichen Bereich der Start- und Landebahnen. Im militärischen Kontext ist damit der Bereich jenseits der Demarkationslinie gemeint, wo scharf geschossen wird. Im nachrichtendienstlichen Kontext umschreibt „Vorfeldaufklärung“ das riskante Unternehmen operativer Informationsbeschaffung im Umfeld staatlicher Arkanbereiche. Im polizeilichen Kontext, schließlich, hat man sich angewöhnt, vom „Vorfeld“ zu sprechen als dem Bereich, der „vor dem Anfangsverdacht“ liegt. Es ist derjenige Teil des kriminellen Dunkelfeldes, den die Polizei mithilfe von sog. „Vorfeldermittlungen“ systematisch aufhellen will. Das „Vorfeld“ ist schwer zu fassen – Sprachwissenschaftler und Logiker sprechen in solchen Fällen angesichts der Fülle konkurrierender Konnotationen vom diffusen Konnotat. In juristischer Perspektive zählen Aktivitäten „im Vorfeld“ seit geraumer Zeit zum strafprozessualen Prekariat. Umsomehr gilt es, die vergleichsweise neue Praxis der „pro-aktiven Verdachtschöpfung“, die sich im IT-Zeitalter herausgebildet hat, zu beschreiben und im Rahmen der juristischen Grundlagenforschung kritisch zu reflektieren. Erst ein tieferes Verständnis des praktischen Polizeihandelns ermöglicht die Konzeption eines, wie auch immer gearteten „Vorfeld- bzw. Risikorechts“. Das ist das Ziel der vorliegenden Arbeit zum anzeichenlosen Verdacht, zugleich das Erkenntnisinteresse des Verfassers: Es ist die Suche nach einem juristischen bzw. rechtstheoretischen Ansatz, um das neue Verdachtsdispositiv, welches entspechend seiner technizistischen (Kontroll-) Logik zur uferlosen Verdächtigung tendiert, rechtlich nachvollziehbar einzuhegen. Ziel ist es darüber hinaus, die enorme Praxisrelevanz theoretischer Grundpositionen, etwa der Kybernetik und Aussagenlogik, deutlich zu machen. In besonderem Maße gilt das für die hier diskutierte, seit jeher heftig umstrittene Frage der Vorfeldverdachtschöpfung. Dreh- und Angelpunkt der rechtspolitischen Kontroverse, die nach den Anschlägen vom 11. September 2001 beträchtlich an Schärfe zugenommen hat, ist so das Konzept der „Kontrolle“: Kritiker sehen den „Apparat“ angesichts der enormen Streubreite der Informationseingriffe im Vorfeld des Anfangsverdachts, die potenziell jedermann betreffen, „außer Kontrolle“2 und eine „Observosphäre“3 im 2  Aumann,

3  Flessner,

S. 6–17. S. 37–43.

Vorwort11

Anzug. Umgekehrt fordern Sicherheitspolitiker angesichts der anhaltenden terroristischen Bedrohung mehr Kontrollbefugnisse – etwa die sog. „Vorratsdatenspeicherung“ für Sicherheitsbehörden.4 Um wiederum die neuen Formen der strategischen polizeilichen Sozialkontrolle zu beschränken, erscheint eine verstärkte „rechtsstaatliche Kontrolle“ unerlässlich. Mit erheblichen Normsetzungsanstrengungen hat der Gesetzgeber daher auf die Ausweitung der Vorfeldbefugnisse zur „pro-aktiven“ Terrorismusabwehr reagiert. Bei alledem drängt sich die Frage auf: Wie tragfähig ist der kybernetisch begründete Kontroll-Ansatz, dem eine normativistisch-instrumentelle Begriffs-Logik inhärent ist, unter den gegebenen gesellschaftlichen Bedingungen? Ist das Kontroll-Konzept geeignet, Machtausübung im digitalen Zeitalter angemessen zu codieren? Kann es sein, dass der Kontroll-Diskurs – rechtstheoretisch betrachtet – in eine Sackgasse führt? Jedenfalls stößt der Kontroll-Ansatz offenbar bei „pro-aktiven Strategien der Verdachtschöpfung“ an seine Grenzen. Für den Umgang mit dem Problem der Ungewissheit und der Kategorie des Risikos, erscheint „Kontrolle“ kaum als geeignetes Konzept. Der hier verfolgte Ansatz ist daher ein anderer. Er führt in das Vorfeld der Begriffe, d. h. das „Vorbegriffliche“ wird uns zur Richtschnur für eine mögliche Regulierung von Risiken im digitalen Zeitalter. Dem Juristen, der in der Praxis heute Rechtsarbeit leistet, muss das auf den ersten Blick kaum vorstellbar erscheinen. Von der ungenauen natürlichen Sprache, von Metaphern und Vagheit5 in Rechtsangelegenheiten etwas Vernünftiges zu erwarten, erscheint undenkbar – wenn nicht sogar abwegig. Rechtsarbeit hat – so die ganz herrschende Meinung – exakt und präzise zu sein: Mithilfe klarer, eindeutiger Begriffe gilt es den Sachverhalt, den Tatbestand, in den Griff zu bekommen. Von so etwas wie „Vagheit“ Impulse für eine rechtliche Regulierung zu erwarten, muss aus der Sicht eines Praktikers fast wie Traumtänzerei in Wolkenkuckucksheim erscheinen, eine „Logik der Vagheit“ gar an das Absurde grenzen. Und doch wagen wir es, theoretisch in diese Richtung zu denken, um für die Praxis der Zukunft eventuell etwas Brauchbares aus dem Labyrinth des Vorfeldes herauszuholen.6 Ich danke vor allem meiner Familie, meiner Frau und unseren Kindern, für die Geduld mit mir und meinem Schreibprojekt. Meinem Betreuer und 4  Moser-Knierim, Antonie: Vorratsdatenspeicherung. Zwischen Überwachungsstaat und Terrorabwehr, Stuttgart 2014. 5  Zur Vagheitsdiskussion und Vagheitstheorien im Recht Gruschke, S.  119 ff. 6  Zur Begrenztheit herkömmlicher Logik Poundstone, William: Im Labyrinth des Denkens. Wenn Logik nicht weiterkommt: Paradoxien, Zwickmühlen und die Hinfälligkeit unseres Denkens, Reinbek bei Hamburg 1992. – Die Arbeit wurde für die Veröffentlichung überarbeitet und aktualisiert. Die vorliegende Textfassung berücksichtigt Neuerscheinungen bis Ende 2014.

12 Vorwort

akademischen Lehrer in Sachen Rechtstheorie, Herrn Prof. Thomas-Michael Seibert, bin ich ebenfalls zu größtem Dank verpflichtet für die langjährige Unterstützung, kritische Begleitung und Ausdauer. Wichtige Impulse für die Arbeit verdanke ich ihm. Mein herzlicher Dank gilt ferner den Mitgliedern des Arbeitskreises JuraLinguistik (AK Jur. – Ling.) für fruchtbare Diskussionen, Ideen und Hinweise. Meinen Kolleginnen und Kollegen beim Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, dem LÜKEX-Team, danke ich für die wunderbare Zeit des gemeinsamen Übens; sie war zugleich eine Zeit vielfältigster Inspiration. Berlin, im Frühjahr 2015

N. R.

Inhaltsverzeichnis

Vorbemerkungen zum theoretischen Ansatz  19

I. Untersuchungsgegenstand  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 II. Methodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Einleitung  29 I. II. III. IV. V. VI.

„9 / 11“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Anti-Terror-Diskurs und „Vernetzte Sicherheit“ . . . . . . . . . . . . . . . . . . . . . 34 „Vor die Lage kommen …“  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 „Im Vorfeld wird zurückgeschossen …“ . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Von der Prävention zur Vorsorge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Verdachtslose Grundrechtseingriffe  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 1. Kapitel



Anhaltspunkte und Anfangsverdacht 87

I. L’Affaire des Quatorze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 II. Lehre vom Anfangsverdacht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 III. Verdachtschöpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 IV. Anhaltspunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 V. Virtuelle Realität und Krise der Orientierung  . . . . . . . . . . . . . . . . . . . . . . 122 2. Kapitel

Metaphern – verdächtige Wörter? 133

I. Leviathan  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 II. Die Welt als Uhrwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 III. Von verdächtigen Wörtern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 IV. Uhrwerk und Waage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 V. Kritik der Computer-Metapher  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 VI. Epoche der Metapher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 VII. Blickwende  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 VIII. Zwischen Logik und Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

14 Inhaltsverzeichnis 3. Kapitel

Anzeichenloser Verdacht 174

I. Zur Kunstsprache der Kriminalistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 II. Perseveranz-Hypothese und Reform des „KPMD“ . . . . . . . . . . . . . . . . . . . 185 III. Intelligence-led policing  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 IV. „… wie Schießen im Dunkeln“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 V. „Predictive Policing“? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 VI. eLeviathan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

4. Kapitel

Anzeichen eines Verdachts 237

I. „Kultur der Kontrolle“  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 II. Kybernetik  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 III. Mythos „Kontrolle“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 IV. Kritik der „Sozialen Kontrolle“  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 V. Kontext und strategische Sozialkontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . 261 VI. Anzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 VII. Degenerierte Indexikalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284

5. Kapitel

Dialogische Prämissensuche 294

I. Vicos Hinweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294 II. Kritik der Topik  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 III. Juristische Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 IV. Entdeckung der Unschärfe  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 V. Abwägung im Recht  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 VI. Ordnung des Diskurses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 VII. Dekonstruktion und „différance“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 VIII. Sprachpragmatik und Sprachspiel  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 IX. Logik der Vagheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366

Inhaltsverzeichnis15 6. Kapitel

Antizipative Verdachtschöpfung 380

I. Musil – Vision einer relevanten Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . 380 II. Erkenntnisprosa als „Frühwarnsystem“  . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 III. Kafka – Motiv des Verdachts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 IV. Orwell – „Wahr spricht, wer Schatten spricht. …“  . . . . . . . . . . . . . . . . . 396 V. Antizipation  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 VI. Polizei und „pro-aktive“ Verdachtsgewinnung . . . . . . . . . . . . . . . . . . . . . . 408 VII. Sichindiestraßebegeben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415

Ausblick  424 I. II.

Am Vorabend der Big Data-Welt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 Strategie der „Neuen Balance“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433

Epilog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 Personen- und Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549

Abbildungsverzeichnis Abb. 1: GTAZ als Teil der Neuen Sicherheitsarchitektur. . . . . . . . . . . . . . . . . 22 Abb. 2: Haupt- und Nebenstränge der Argumentation. . . . . . . . . . . . . . . . . . . 28 Abb. 3: Anschlag auf das World Trade Center, New York, 11. September . . 31 Abb. 4: ZEIT Magazin, Nr. 51, vom 11.12.2008 . . . . . . . . . . . . . . . . . . . . . . . 40 Abb. 5: Verdachtschöpfung nach Hans-Udo Störzer. . . . . . . . . . . . . . . . . . . . . 105 Abb. 6: Polizei im Verständnis des New Public Management nach ­ Jochen Christe-Zeyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Abb. 7: Logo Netscape Navigator. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Abb. 8: Punktformen nach Wassily Kandinsky . . . . . . . . . . . . . . . . . . . . . . . . . 122 Abb. 9: Datenfluss im Ubiquitous Computing . . . . . . . . . . . . . . . . . . . . . . . . . 132 Abb. 10: Frontispiz Thomas Hobbes Leviathan (1651, Ausschnitt) . . . . . . . . . 135 Abb. 11: Temperantia stellt eine mechanische Uhr (ca. 1450) . . . . . . . . . . . . . 138 Abb. 12: Gesichtsvermessung um 1890 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Abb. 13: Datenerfassung im Rahmen der Bertillonage (1895). . . . . . . . . . . . . . 181 Abb. 14: Vermessung der Iris für die Mustererkennung . . . . . . . . . . . . . . . . . . 184 Abb. 15: Zur Umformung der Perseveranz-Hypothese nach Oevermann et al. . 188 Abb. 16: Lösungsansatz nach Oevermann et al. . . . . . . . . . . . . . . . . . . . . . . . . 189 Abb. 17: Security Solutions nach P. Munday et al. . . . . . . . . . . . . . . . . . . . . . . 197 Abb. 18: Pattern recognition nach J. H. Ratcliffe . . . . . . . . . . . . . . . . . . . . . . . 201 Abb. 19: Exemplarische Ontologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Abb. 20: Intelligence-Arbeit bei Europol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 Abb. 21: Rollen- und Ressourcenmodell im Rahmen der Informationsarchitektur Innere Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Abb. 22: KDD-Prozess nach Fayyad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 Abb. 23: Cartoon Security-Check (aus: Frankfurter Rundschau). . . . . . . . . . . . 227 Abb. 24: Rhizom nach G. Deleuze/F. Guattari . . . . . . . . . . . . . . . . . . . . . . . . 342 Abb. 25: Peircescher Zeichen-Begriff nach Susanne Rohr . . . . . . . . . . . . . . . . 352 Abb. 26: Modell eines semiotischen Zeichenbegriffs nach L. Schneider . . . . . 357 Abb. 27: Borromäischer Knoten nach Jacques Lacan . . . . . . . . . . . . . . . . . . . . 358 Abb. 28: Heribert C. Ottersbach: Das Lachen Kafkas . . . . . . . . . . . . . . . . . . . 395

Vorbemerkungen zum theoretischen Ansatz „Dass zwischen der Theorie und Praxis noch ein Mittelglied der Verknüpfung und des Überganges von der einen zur anderen erfordert werde, die Theorie mag auch so vollständig sein wie sie wolle, fällt in die Augen; denn, zu dem Verstandesbegriffe, welcher die Regel enthält, muss ein Actus der Urteilskraft hinzukommen.“ Immanuel Kant, Über den Gemeinspruch: Das mag in der Theorie richtig sein, taugt aber nicht für die Praxis, 17931 „Schlussfolgerungen sollten keine Kette bilden, denn diese ist nicht stärker als ihr schwächstes Glied, sondern ein Tau, dessen Fasern noch so schwach sein mögen, wenn sie nur zahlreich genug und eng mit­ einander verknüpft sind.“ Charles S. Peirce, Collected Papers 5.265,1, 1868.2

Der vorliegende Text verdankt sich langjähriger teilnehmender Beobachtung. Als Angehöriger des höheren Polizeivollzugsdienstes hatte der Verfasser Gelegenheit, die Entwicklung der Praxis der Sicherheitsbehörden in der Bundesrepublik aus der Nähe zu beobachten. Das Wort „beobachten“ verstehen und verwenden wir dabei freilich nicht im Sinne eines naiven Realismus, wonach der Beobachter, das Subjekt, seinen Gegenstand, das Objekt der Beobachtung, eingehend betrachtet und untersucht.3 „Beobachtung“ steht im vorliegenden Kontext für sprachlich und kulturell vermittelte sowie theoretisch reflektierte Erfahrung. „Praxis“ meint hier vor allem diskursive Praxis. Beobachtet werden demzufolge der diachrone und synchrone Verlauf und die Wirkungsmächtigkeit von sicherheitspolitischen Diskursen. Hierbei wird einerseits Wert gelegt auf eine Art historischer Makroskopie (Longue 1  Kant,

S. 127. nach Riemer, S. 9. 3  Das subjektivistische Verständnis von „Beobachtung“ hält sich gleichwohl hartnäckig. Unter der Überschrift „Rückblick auf die subjektivistische Erkenntnistheorie“ erteilt Karl R. Popper allen „direkten unmittelbaren Beobachtungen“ eine scharfe Absage, siehe Popper (1983), S. 92–93; ferner König, S. 17–47 sowie Baecker, Dirk: Beobachter unter sich. Eine Kulturtheorie, Berlin 2013, der eine Theorie des Beobachters jenseits von klassisch-zweiwertiger Logik und dyadischen Relationen zu entwickeln versucht. – Zur „teilnehmenden Beobachtung“ aus kulturwissenschaftlicher Sicht Geertz 2008, S. 453–487. 2  Zitiert

20

Vorbemerkungen zum theoretischen Ansatz

durée)4, andererseits auf etwas, was man „metapherntheoretische Mikrophilologie“ nennen könnte.5 Hintergrund unserer Untersuchung bildet der untergründig stattfindende Streit zweier Denkkulturen, nämlich die fundamentale Auseinandersetzung zwischen der cartesianischen und der anticartesianischen Theorietradition. Im Streit um die sog. „Postmoderne“ wurde dieser geistesgeschichtliche und epistemologische Grundkonflikt, der nach wie vor schwelt, zuletzt offen ausgetragen. Es ist – wie Hans Blumenberg treffend formuliert6 – eine Art semantischer Kampf zwischen „Uhrwerk“ und „Sprachwerk“: Die Welt des „Uhrwerks“ ist – zugespitzt formuliert – die Welt der Arithmetik, Axio­ matik und Kalkül-Logik. Sie ist die Welt von René Descartes. Die Welt des „Sprachwerks“ hingegen ist eine Welt des Diskurses, der Diskursuniversen bzw. der diskursiven Vernunft. Sie ist die Welt von Michel Foucault, ­Jacques Derrida und anderen, welche man zum Teil auch als „Poststrukturalisten“ bezeichnet. Der Konflikt zwischen der Logik des Uhrwerks und der Logik des Sprachwerks ist auch ein Konflikt zwischen einer Logik des Seins und einer Logik des Werdens. Die traditionelle, vorherrschende Logik ist eine zweiwertige: Es gibt nur Sein oder Nicht-Sein – tertium non datur.7 Zwischen diesen Positionen zu verorten ist Karl R. Popper, der sich sehr deutlich vom Cartesianismus absetzt – aber als kritischer Rationalist und „Realist“ – an der klassischen zweiwertigen Logik festhalten will.8

I. Untersuchungsgegenstand Den engeren, im eigentlichen Sinne „empirischen Gegenstand“ der vorliegenden Studie bildet das Mixtum compositum vom „anzeichenlosen Verdacht“. Unsere Ausgangsthese ist dabei, dass sich die Arbeitspraxis der Sicherheitsbehörden im Zuge der digitalen Revolution grundlegend verändert hat: „Verdachtschöpfung im IT-Zeitalter“ stellt sich so einerseits als in hohem Maße technik-affines Verfahren dar, andererseits als Ergebnis einer neuartigen Zusammenarbeit in übergreifenden vernetzten Arbeitsstrukturen, wie zum Beispiel im Rahmen des Gemeinsamen Terrorismusabwehrzentrums (GTAZ). Heute bestimmt die Nachermittlung von technisch generierten „Verdachtsfällen“ – „Prüffällen“, die sich als Desiderat von Hit / No-Hit-Verfahren, Data Mining oder Datenabgleichen unterschiedlichster Art ergeben, den Alltag der Ermittlungsbeamten in Spezialdienststellen. Im Zuge „pro-aktiver 4  Braudel,

S. 47–85. S. 289–313. 6  Blumenberg (1993), S. 396. 7  Zu Knyphausen, S. 146. 8  Popper (1973a), S. 247–305. 5  Erlinghagen,



I. Untersuchungsgegenstand 21

Intelligence-Arbeit“, wie es im polizeilichen Fachjargon heißt, entstehen invalide Indikatorenbündel, Artefakte aus einer Vielzahl weicher, nicht gerichtsfester Daten, gleichsam virtuelle Avatare, die nichtsdestoweniger als Grundlage für weitergehende „Strukturermittlungen“ und „Vorfeldaktivitäten“ dienen. Verdachtschöpfung mittels automatisierter Datenauswertung in vernetzten IT-Systemen tendiert inzwischen zur conditio sine qua non bei Sicherheitsbehörden. Die Herausforderung für die Ermittler besteht nunmehr darin, sich der Faszination maschineller Verdachtsproduktion zu entziehen. Im Zentrum unseres Interesses steht insoweit die Frage der „Funktionslogik“ der neuen IT-basierten Verdachtschöpfungsstrategien. Welche Arbeitslogik und Theorie (oder Doktrin) steckt hinter der praktischen Erarbeitung von abstrakten Risikoprofilen, die sich als systematische IT-gestützte Intelligenceund Auswertungsarbeit darstellt? Welches Denken, welche Art von „Logik“ überhaupt kommt zur Anwendung, wenn die Polizei ebenso IT- wie risikobasierte Hypothesen und Annahmen über „kriminogene Muster“ entwickelt und nach Verdächtigen und potenziellen Rechtsbrechern im Vorfeld sucht? Eine ganze Reihe von Fragen schließt sich an: Wie arbeitet die Polizei konkret bis zur definitiven Annahme eines strafprozessualen Verdachts? Wie ist die neue Art einer technisch unterstützten Verdachtsgewinnung einerseits erkenntnistheoretisch, andererseits in der praktischen Umsetzung zu beurteilen? Gibt es Alternativen zur vorherrschenden Verfahrensweise, um mit den drängenden Problemen des Rechtsextremismus, Dschihadismus und internationalen Terrorismus umzugehen? Welche Rolle spielen behördenübergreifende Netzwerke (GTAZ, GASIM9, NCAZ10 etc.) heute in der Phase der Vor-Verdachtsgewinnung? Wofür stehen „Vernetzte Sicherheit“, „pro-aktive Polizeiarbeit“, „strategische Auswertung“ und „Intelligence“ im polizei­ lichen Sprachgebrauch und sicherheitsbehördlichen Kontext? Der Ausdruck „anzeichenloser Verdacht“ ist im Übrigen vieldeutig – so vieldeutig, wie das Wort „Vorfeld“. Verschiedene Bedeutungen sind möglich: Zunächst – und das ist die primäre, im vorliegenden Text verwendete Bedeutung – ist damit eine Art wirklichkeitsferne Form der systematischen Verdachtskonstruktion und -produktion gemeint. Es ist damit, wie angedeutet, der prekäre Aspekt einer pro-aktiven Sicherheitsarbeit bezeichnet, die im Wege vorsorgender und IT-basierter Verdachtsgewinnung im Vorfeld des rechtsförmlichen Anfangsverdachts Gefahr läuft, artifizielle, d. h. wirklichkeitsferne „Auswertungsprodukte“ zu schaffen. „Anzeichenlos“ spielt hier auf die Wirklichkeitsnähe an und meint soviel wie ohne konkrete tatsächliche Verankerung in der Wirklichkeit. Über diese Bedeutung und Verwen9  Gemeinsames 10  Nationales

Analyse- und Strategiezentrum illegale Migration. Cyber-Abwehrzentrum.

22

Vorbemerkungen zum theoretischen Ansatz

Abbildung 1: GTAZ als Teil der Neuen Sicherheitsarchitektur11

dung des Ausdrucks hinaus kann „anzeichenloser Verdacht“ auch aus der Perspektive des Betroffenen verstanden werden. Die Formulierung bedeutet dann, dass der Betreffende vom Verdachtsvorwurf vollständig überrascht wird. Es kommt darin das Moment des Plötzlichen und Abgründigen, des Schutzlosen, zum Ausdruck. Verdacht ohne Vorankündigung gleicht einem Abgrund – jäh öffnet sich dieser plötzlich vor dem „Verdächtigen“. Im noch viel weiteren Sinne ist „anzeichenloser Verdacht“ Chiffre für die neue Tatsache einer Jedermann-Betroffenheit. Die Frage ist sehr streitig. Sie wird ganz unterschiedlich beantwortet. Einerseits argumentiert man gegen „grundlose“ Kontrollen: „An die Stelle der Vermutung der Redlichkeit von jedermann, wie sie als Konstitutionsmerkmal der Freiheitsordnung des GG gedacht ist, tritt das Prinzip des Misstrauens, das letztlich jede Mitmenschlichkeit erstickt. Die grundlose Kontrolle tangiert also nicht nur die Persönlichkeit des Betroffenen, sondern auch die Rechtskultur, in der wir leben (wollen).“12

Andererseits hält man derartige Kontrollen für legitim und rechtens: „Kontrollen als Instrument zur Überwindung der Ungewissheit sind nicht illegitim; im Gegenteil: sie zeigen dem Bürger die staatlichen Anstrengungen zum 11  Engelke, 12  Lisken

S. 347. (1998), S. 42.



II. Methodologie23 Erhalt und zur Steigerung von Sicherheit und Lebensqualität und stärken so das Sicherheitsgefühl. Die ‚Delinquenzvermutung‘ existiert nicht; der Mensch wird nicht zum Kontrollobjekt herabgewürdigt. Problematisch wäre eher der Verzicht auf Kontrolle. Kontrolle schützt die Redlichen und Schwachen vor den Unredlichen und Mächtigen.“13

II. Methodologie In methodologischer Hinsicht folgen wir, wie erwähnt, der Argumenta­ tionslinie der sog. „Poststrukturalisten“. Damit ist bereits vieles gesagt: Wir folgen damit einerseits den wegweisenden Einsichten der linguistischen bzw. sprachphilosophischen Wende („linguistic turn“14), andererseits dem neu entstandenen Interesse an der rhetorischen Figur der „Metapher“.15 Was heißt und wofür steht „Poststrukturalismus“? Günter Schiwy beschreibt den von Frankreich ausgehenden Diskurs als breite geisteswissenschaftliche Suchbewegung. Er vermutet, dass davon für die politische Philosophie ein Impuls ausgehe „zu einer neuen, über- und umgreifenden Metawissenschaft für alle Symbolhandlungen des Menschen (…): zur Semiotik“.16 Herbert W. Simons spricht in diesem Zusammenhang von Autoren und Ansätzen, die man zur Denkbewegung der „Rhetorik der Entdeckung“ (engl. The Rhetoric of Inquiry) zählen könne. Zu nennen seien zum Beispiel Vico, Nietzsche, aber auch Freud, Wittgenstein, Heidegger, Arendt, Foucault, Derrida, Hayden White und Kenneth Burke. Sie alle verkörperten eine Art „Gegentradition zum Objektivismus“. Zur Denkbewegung gehörten in diesem Sinne u. a. der Konstruktivismus und Post-Positivismus nach Thomas S. Kuhn, die Critical Legal Studies-Bewegung sowie verschiedene ethnomethodologische und feministische Anätze. Das Bild sei damit nicht komplett; die Vielfalt der Ansätze mache die Formel vom „Poststrukturalismus“ eher zum Prokrustes-Bett.17 Drucilla Cornell sieht dies ähnlich und vermeidet daher eine Definition von „Post-Strukturalismus“. Stattdessen erweitert sie die Liste der schon genannten Autoren, ergänzt sie um Jean-François Lyotard, Georges Bataille und andere. Es gebe aber eine Reihe von Grundüberzeugungen der sog. 13  Heckmann,

S. 193. Richard (Hrsg.), The Linguistic Turn. Recent Essays in Philosophical Method, Chicago 1967; Apel, Karl-Otto: Transformation der Philosophie, Bd. 2: Die Apriori der Kommunikationsgemeinschaft, Frankfurt a. M. 1993; Apel, Karl-Otto: Transformation der Philosophie, Bd. 1: Sprachanalytik, Semiotik, Hermeneutik, 5. Aufl., Frankfurt a. M. 1994. 15  Ricœur (1986), S. 547–560. 16  Schiwy, S. 10. 17  Simons, S. 7. 14  Rorty,

24

Vorbemerkungen zum theoretischen Ansatz

„Poststrukturalisten“. Hierzu gehöre zum Beispiel die Unbestimmtheit der sprachlichen Bedeutung (engl. indeterminacy of linguistic meaning), ferner die Kritik der „Logik der Identität“ im Sinne einer Entmystifizierung des cartesianischen Subjekts und schließlich die Auseinandersetzung mit der traditionellen Metaphysik, insbesondere der Konzeption von „Rationalität“ im Sinne von Rationalisierung.18 Bernhard H. F. Taureck sieht den gemeinsamen Nenner poststrukturalistischer Überlegungen darin, dass bestritten wird, die Sprache besitze den Charakter eines geschlossenen Systems. Der linguistische Strukturalismus Ferdinand De Saussures sei noch von einer derartigen Vorstellung, einer strikten Isomorphie von Bezeichnendem und Bezeichnetem, ausgegangen. Demgegenüber gelte die Sprache den sog. „Post-Strukturalisten“ als „Diskurs“, d. h. die Bedeutungen innerhalb einer Sprache seien fließend und hätten keinen prinzipiellen Bezugspunkt.19 Kein Wunder, dass diese theoretische Grundüberzeugung, die „neu gewonnene Einsicht in die Unkontrollierbarkeit des Sinns“20, in Wissenschaft und Praxis großenteils Befremden ausgelöst hat und immer noch auslöst. An Kritik – und Polemik – gegenüber dem Grundsansatz der poststrukturalistischen Sprachphilosophie, ihrer grundlegend verschiedenen Sicht auf die Sprache, hat es daher bis heute nicht gefehlt.21 Den sog. „Poststrukturalisten“ wurde pauschal der Verzicht auf rationale Argumentationsverfahren vorgeworfen, ebenso wie eine bewusste Ambiguität in ihren Texten. Von „elegantem Unsinn“ war die Rede.22 Dennoch – trotz teils unsachlicher Kritik – ist der Poststrukturalismus „in den deutschen Sozialwissenschaften angekommen“, wie Stephan Möbius und Andreas Recknitz formulieren.23 Die Texte der verschiedenen „Poststrukturalisten“, welche sich selbst kaum als solche einordnen würden24, haben die Theoriebildung, zum Beispiel die Politische Theorie, Medientheorie, Kunsttheorie, Literaturtheorie und Rechtstheorie in den zurückliegenden Jahrzehnten enorm beeinflusst. Catherine Belsey umschreibt den Kerngedanken dieser bedeutenden theoretischen Strömung und Denkbewegung so: „ ,Poststrukturalismus‘ bezeichnet eine Theorie oder eine Gruppe von Theorien über die Beziehung zwischen Menschen, der Welt und der Praxis der Erzeugung und der Reproduktion von Bedeutungen. (…) Der Poststrukturalismus bietet eine 18  Cornell,

S. 1587. (1997), S. 84. 20  Münker/Roesler, S. 171. 21  Überblick bei Münker/Roesler, S.  155 ff. 22  Münker/Roesler, S. 155 unter Verweis auf die Polemik von Luc Ferry und Alain Renauts. 23  Moebius/Recknitz, Vorwort. 24  Münker/Roesler, S. 171: „Den Poststrukturalismus (…) gibt es nicht. Der Begriff ist eine Erfindung seiner Leser (bzw. derer, die über ihn schreiben).“ 19  Taureck



II. Methodologie25 kontroverse Darstellung unserer Stellung in der Welt, die mit herkömmlichen Erklärungen konkurriert.“25

Gleichwohl handelt es sich beim sog. „Poststrukturalismus“ um „kein System“ und um „keine einheitliche Theorie“26, so dass Fehlinterpretationen und falsch verstandener „Poststrukturalismus“ keineswegs selten sind. Hier tut Aufklärung und die intensive Auseinandersetzung mit den Texten der „Poststrukturalisten“ Not.27 Ziel unserer Untersuchung ist es vor diesem Hintergrund zum besseren Theorieverständnis beizutragen. Es ist damit ausdrücklich nicht Absicht, zur Begriffsbildung im Sinne einer rechtswissenschaftlichen Verdachtsdogmatik beizutragen, etwa den „Anfangsverdacht“ als unbestimmten Rechtsbegriff einer justiziellen Kontrolle – einer Art „Verdachts-Kontrolle“ – unterwerfen zu wollen.28 Eingeschlagen wird gerade der umgekehrte Weg, in Richtung auf das vage (metaphorische und genealogische) Vorfeld „werdender Begriffe“. Die Arbeit tastet sich weit hinein in den Vorbereich metaphorischer Unschärfe – dort, wo Annahmen, Mutmaßungen, Hypothesen, kurz: (noch begriffslose) Verdachtsmomente, entstehen. Ausgangspunkt der Argumentation ist hierbei die Überzeugung, dass „Verdacht“ eine Art Schwellenbegriff und Brückenmetapher ist, der sowohl in der Welt des Normativen wie in der Welt der Wirklichkeit verortet ist. Entziehen sich Metapher und Begriff einer eindeutigen semantischen Fixierung, so erlaubt die verbleibende Vagheit des „Verdacht“-Konzepts andererseits Einblicke in das Vorfeld der Begriffe und die Genese iterativer Verdachts-Konstruktionen. Mit anderen Worten: Die Pointe unseres theoretischen Ansatzes besteht darin, dass wir nicht vor dem scheinbar unzugänglichen „Vorfeld“ zurückschrecken, sondern – im Gegenteil – noch sehr viel weiter in dieses „Vorge­ birge des Denkens“29 vordringen wollen. Das „Vorfeld“ ist, bei Licht besehen, nämlich nicht nur das bedrohlich wirkende und rechtlich prekäre Exer­ zierfeld offiziöser „operativer Informationserhebung“. Es ist – oder kann sein – Bühne und Denkraum für kreative Hypothesenbildung und konjekturale Erkenntnisgewinnung.30 25  Belsey,

S. 13. S. 84. 27  Klaus Lüderssen weist daraufhin, dass selbst ernannte „Dekonstruktivisten“ den methodischen Ansatz von Jacques Derrida teilweise zum Ausgangspunkt machten für eine „totale Rechtskritik“ – ganz im Gegensatz zu Derrida, der doch die ethische Motivation des Rechts stets anerkannt habe, siehe Lüderssen (2002c), S. 111. 28  Siehe dazu Schulz, Lorenz: Normiertes Misstrauen. Der Verdacht im Strafverfahren, Frankfurt a. M. 2001, sowie Müller-Dietz (2002), S. 58–62. 29  Heidegger (1954), S. 1. 30  Hoffmann, Michael H. G.: Erkenntnisentwicklung. Ein semiotisch-pragmatischer Ansatz, Frankfurt a. M. 2005. 26  Belsey,

26

Vorbemerkungen zum theoretischen Ansatz

Genau hier also, im „Vorfeld der Begriffsbildung“31 ist auch der theoretische Anknüpfungspunkt der vorliegenden Untersuchung im Bereich der juristischen Grundlagenforschung. Sie sucht Anschluss an eine Theorie des „Vorbegrifflichen“, wie sie Hans Blumenberg32 und Michel Foucault33 in ihren Überlegungen zur Begründung einer Metaphorologie bzw. Diskursarchäologie in Grundzügen entworfen haben. Wir betreten damit neben der Begriffsgeschichte und der Historischen Semantik34 unter anderem auch das Feld der Logik. Hier wiederum interessiert uns das erkenntnistheoretische „Vorfeld der Deduktion“, d. h. die Vorstufe der Prämissensuche, bevor das „kontrollierte“ Ableiten und Schlussfolgern beginnt. Zurecht schreibt Jan M. Broekman zur Bedeutung des Vor-Begrifflichen: „Für einen post-strukturalistischen Ansatz ist nicht die Adäquatheit des Ausdrucks von Werten und Normen im juristischen Diskurs an erster Stelle wichtig, sondern die komplizierte Vorgeschichte, die vorgängigen und unterschwelligen Arbeitsprozesse, die eben einen solchen Ausdruck hervorbrachten. Denn alle Phänomene der jeweiligen Sprachoberflächen sind das Ergebnis von komplizierten Arbeits- und Produktionsvorgängen.“35

Wir folgen an diesem Punkt dem Denkweg von Charles S. Peirce, seinem erweiterten semiotisch-pragmatischen Logik-Konzept, das die traditionelle Logik um eine abduktive, d. h. Hypothesen generierende Schlussform (sog. Abduktion bzw. Retroduktion) zu ergänzen versucht.36 Dafür – für dieses kühne, aus der Sicht des Mainstream37 sicher waghalsige Unternehmen – hat er die Bezeichnung „Logik der Vagheit“38 kreiert. Er spricht auch von „diskursiver Vernunft“, was dem – wie wir sehen werden – sehr nahe kommt. In kriminologischer Hinsicht knüpft die Untersuchung zugleich an die soziologische Denktradition der Ethnomethodologie39 und des Symboli31  Blumenberg

(1993b), S. 75–93. Hans: Paradigmen zu einer Metaphorologie, Bonn 1960. 33  Foucault, Michel: Archäologie des Wissens, 6. Aufl., Frankfurt a. M. 1994. 34  Koselleck, Reinhart (Hrsg.), Historische Semantik und Begriffsgeschichte, Stuttgart 1979; Koselleck, Reinhart: Begriffsgeschichten: Studien zur Semantik und Pragmatik der politischen und sozialen Sprache, Frankfurt a. M. 2006 sowie Knobloch (1992), S. 7–24. 35  Broekman, S. 108. 36  Peirce (1986), S. 393–394. – Dazu ferner Apel (1993), S. 157–177 und Wirth, Ulrich (Hrsg.), Die Welt als Zeichen und Hypothese. Perspektiven des semiotischen Pragmatismus von Charles S. Peirce, Frankfurt a. M. 2000. 37  Knapp/Kobusch, S. 9: „Tatsächlich kann mit Blick auf die Geschichte des menschlichen Denkens die Existenz solcher mainstreams gar nicht geleugnet werden. Es sind etablierte Paradigmata, eingefahrene Bahnen, in denen das Denken größtenteils verläuft. Sie sind nicht naturgegeben, sondern vom Menschen gemacht.“ 38  Williamson, Timothy: Vagueness, London 1994. 32  Blumenberg,



II. Methodologie27

schem Interaktionismus40 an, die das Kriminaljustizsystem seit jeher unter dem Aspekt der Sprachvergessenheit kritisch reflektieren – in rechtstheoretischer Hinsicht überdies an die Denkrichtung der Critical Legal Studies41, die Law and Literature-Bewegung, den Dekonstruktivismus (sog. différance) nach Jacques Derrida42 sowie neuere sprach- und kulturwissenschaftliche Ansätze.43 Eine Art Fluchtpunkt der Argumentation bildet – in spezifisch deutscher rechtstheoretischer Perspektive – die Topik, die seit den 60er Jahren die Aktualität der Rhetorik und die Vorteile des topischen Verfahrens als argumentatives, kontextsensitives „Vorschaltverfahren“44 in Erinnerung zu bringen sucht. 39

Auf der Suche nach einem tragfähigen Ansatz zum Umgang mit strategischer Verdachtschöpfung im digitalen Zeitalter treffen wir auf eine Vielzahl von Theorieangeboten. Wir finden uns gleichsam in einem Labyrinth wieder, woraus sich der mitunter tentativ-suchende Duktus unseres Gedankengangs erklärt. Wir untersuchen im Verlauf unserer Argumentation auch feste Termini, sog. „tote Metaphern“, auf mögliche neue Wortbedeutungen hin. Gehört es doch zur Argumentation am Leitfaden des linguistic turn – erst recht in metaphorologischer Zuspitzung –, auch selbstverständlich „gewordene Begriffe“, eingefahrene Denkwege und Denkgewohnheiten, zu „entselbstverständlichen“. Das hat an verschiedenen Stellen einen bisweilen ungewohnten und eigentümlichen (idiosynkratischen) Sprachgebrauch zur Folge. Als Beobachter einer „diskursiven Praxis“ auf der Suche nach einem neuen Ansatz erscheint es dem Verfasser notwendig und angemessen, so zu verfahren. Willard V. O. Quine formuliert einen durchaus ähnlichen Ge­ danken: „Die philosophischen Grenzen der Wissenschaft entlang können wir auf Gründe stoßen, grundlegende Bgriffsstrukturen in Frage zu stellen und tastend nach Möglichkeiten ihrer Umgestaltung zu suchen. Alte Ausdrucksweisen können uns dabei nicht helfen, und zunächst kann nur die Metapher die neue Ordnung umreißen. Wenn das Wagnis gelingt, kann die alte Metapher absterben und einbalsamiert werden in eine von neuem buchstäblich zu nehmende Ausdrucksweise, die der veränderten Betrachtungsweise Raum gewährt.“45

39  Glaser/Strauss: The Discovery of Grounded Theory. Strategies for Qualitative Research, Chicago 1967. 40  Blumer, S. 80–101. 41  Frankenberg, S. 97–116. 42  Derrida (2004), S. 171–195. 43  Bisanz (2004), S. 159–193 sowie Posner (1991), S. 37–74. 44  Viehweg, Theodor: Topik und Jurisprudenz. Ein Beitrag zur rechtswissenschaftlichen Grundlagenforschung, 5. Aufl., München 1974. 45  Quine (1985), S. 227.

28

Vorbemerkungen zum theoretischen Ansatz

Nicht nur die Wurzeln von Wörtern und (Schlüssel-)Begriffen freizulegen, sondern auch auf Zusammenhänge hinzuweisen – auf intertextuelle Verweisungszusammenhänge, rhizomhafte Verästelungen und performative Wirkungsweisen im öffentlichen Diskurs, darum wird es im Folgenden gehen. Es ist der Versuch, zumindest ansatzweise argumentativ und theoretisch das nachzuvollziehen, was in der multimedial-konnektivistischen Welt des Web 2.0 tatsächlich tagtäglich geschieht. Versucht man, sich unsere methodologische Argumentation bildlich vorzustellen, so gleicht unser Ansatz einer Art Tau, in dem verschiedene Argumentationsstränge fest miteinander verbunden und ineinander verflochten sind.

Abbildung 2: Haupt- und Nebenstränge der Argumentation (eigene Darstellung)

Einleitung „TSA spokesman Robert Johnson pointedly said: ,We are critisized a lot for screening grannies and babies: ,Why are they checking this? My two-year-old isn’t a terrorist.‘ This underscores the need to screen everyone and everything.‘ Johnson concluded, ,We can’t allow terrorists any opportunity‘.“ Donald F. Kettl, System under Stress, 2007.1 „Prävention gibt es nicht erst seit dem Terrorismus. (…) Angesichts der neuartigen Bedrohungen ist die Prävention aber immer weiter nach vorn verschoben worden. Es geht heute nicht mehr darum, einen Verdächtigen zu observieren, sondern überhaupt erst Anhaltspunkte für einen Verdacht oder einen künftigen Gefahrenherd zu finden. (…) Die Vorteile der vorverlagerten Prävention sind allerdings nicht kostenlos zu haben. Wo erst Verdachtsmomente gesammelt werden sollen, trifft sie potentiell jeden und alles, weil bei der Verdachtssuche nichts unverdächtig ist, nicht das Buch aus der Bibliothek, nicht der Wecker auf dem Nachttisch, nicht der Ort, an dem man seine Freunde trifft. Deswegen darf man auch nicht der Beschwichtigung trauen, wer sich nichts vorzuwerfen habe, habe auch nichts zu befürchten. Jeder muss befürchten, dass seine Kommunikation überwacht wird. Niemand kann sicher sein, dass ihm daraus keine unangenehmen Folgen erwachsen. Ist man einmal im Verdachtsraster hängen geblieben, sind Beschattung und Ausforschung der Nachbarn, Beförderungsverweigerungen im Flugzeug, der Verlust des Arbeitsplatzes wegen Sicherheitsbedenken nicht mehr völlig fern.“ Dieter Grimm, Aus der Balance, 20072

I. „9 / 11“ Die spektakuläre Zerstörung der Zwillingstürme, der von den Medien weltweit übertragene Einsturz des World Trade Centers (WTC), repräsentierte in seiner Theatralität einen unerhörten Bildakt für die Weltkommunika­ tionsgemeinschaft.3 Der „11. September“ hat sich tief in das kollektive Bewusstsein der Weltbevölkerung eingebrannt und die diskursive Ordnung anhaltend erschüttert. „Die kollabierenden Türme des WTC haben“, notiert 1  Kettl,

S. 118. (2007), S. 14. 3  Bredekamp (2009), S. 6. 2  Grimm

30 Einleitung

Otto Depenheuer „dem neuen Jahrhundert seine unauslöschliche politische Ikonographie eingeprägt.“4 Das Besondere daran: Die Katastrophe präsentierte sich den Zuschauern überall auf der Welt in einer regelrechten Filmdramaturgie.5 Die Anschläge, der Massenmord mittels entführter Passagiermaschinen, wurden wieder und wieder in zahllosen Fernsehausstrahlungen gesendet – „in Großaufnahmen und Totalen, aus vielen verschiedenen Perspektiven, mit Kameraschwenks über die brennenden Türme des World Trade Centers und Zoomaufnahmen auf die Explosionen und die berstenden Fassaden der Gebäude, Bilder, die in grauenvoller Chronologie die Katastrophe vom ersten Flugzeugeinschlag bis zum Zusammensturz beider Türme lückenlos dokumentieren – alles in einer Weise zusammengeschnitten, wie wir das aus Spielfilmen kennen.“6

Hier wurde der Terror in seiner desaströsen Wirkung sichtbar und fühlbar gemacht. Augenzeugen fühlten sich an fiktionale Hollywood-Filme erinnert, in denen „die Skyline New Yorks in der Vergangenheit bereits häufiger auf genüssliche Weise zertrümmert worden war“, wie Sven Beckstette feststellt. Die außerordentliche Wirkung der Terrorakte habe daher nicht nur auf der reinen Zerstörungswut der Täter basiert, sondern ebenfalls auf der Wirkung der Bilder, einer „Ästhetik der Bilder“, durch die sich der Anschlag von einem rücksichtslosen Akt in ein globales Medienereignis verwandelte habe.7 Christer Petersen spricht in Anlehnung an Paul Virilio sogar von (medialen) „Informationsbomben“ in den Köpfen der Fernsehzuschauer: „Vor diesem Hintergrund scheint es auch keine allzu kühne Metapher, mit Paul Virilio im Kontext der Anschläge von ‚Informationsbomben‘ zu sprechen, Informationsbomben, die von den Medien blind transportiert in den Köpfen der Fernsehzuschauer explodierten.“8

Der Soziologe Wolf R. Dombrowsky sieht in der medialen Inszenierung der Katastrophe eine Krise der Wirklichkeitswahrnehmung. Die Wirklichkeit sei durch die Art der Berichterstattung für den Zuschauer quasi verloren gegangen: „Die Medien haben die Ereignisse des 11. September 2001 dem besonnenen Nachdenken entrissen und in seine symbolische Inszenierung transformiert. Durch die Endloschleife einschlagender Flugzeuge und brennender Türme verkam die Wirklichkeit zu einem Hollywood-Film voller Pyrotechnik, Gigantismus und Heroisierung.“9 4  Depenheuer,

S. 10. ikonologischen Analyse Mitchell, William J. T.: Das Klonen und der Terror. Der Krieg der Bilder seit 9/11, Berlin 2011. – Ferner Irsigler/Jürgensen (Hrsg.), Nine Eleven. Ästhetische Verarbeitungen des 11. September 2001, Heidelberg 2008. 6  Hurst, S. 62. 7  Beckstette, S. 416–417. 8  Petersen, S. 204. 9  Dombrowsky, S. 36. 5  Zur



I. „9 / 11“31

Abbildung 3: Anschlag auf das World Trade Center, New York, 11. September10

Nach Horst Bredekamp sind Bilder im Rahmen der asymmetrischen und hybriden Kriegsführung zu einer Art „Primärwaffen“ geworden. Propaganda und Desinformation mithilfe von Bildern seien daher ein Grundzug der Konfliktaustragung im digitalen Zeitalter: „Bilder gehören als Siegeszeichen, als Mittel der Aufklärung und als Propaganda seit jeher zum Arsenal der kulturellen Umrüstung von Waffengängen. Unter den Bedingungen des asymmetrischen Krieges haben sich Bilder jedoch zu Primärwaffen entwickelt. Über die Massenmedien und das Internet eingesetzt, dienen sie dazu, Konflikte über die Augen zu entgrenzen und mentale Prozesse in Gang zu setzen, die auf unmittelbarere Weise als zuvor den Waffengang selbst zu steuern oder gar zu ersetzen vermögen.“11

Die Terroranschläge von „9 / 11“ haben in den westlichen Demokratien – insbesondere aber in den USA – die Bedrohungswahrnehmung nachhaltig verändert. Für die offenen Gesellschaften des Westens war „9 / 11“ eine Art Kulturschock. Die spektakuläre Tat hat nach Ansicht von Karl-Ludwig Kunz 10  Beckstette, S. 416 (unbekannter Kameramann, Fernsehbild, reproduziert als Pressefotografie). 11  Bredekamp (2010), S. 14.

32 Einleitung

der gesamten westlichen Welt trotz aller Sicherheitsanstrengungen die eigene Verwundbarkeit sehr deutlich vor Augen geführt. Das Empfinden der Vulnerabilität sei schlagartig Teil der westlichen Kultur geworden. Er spricht von einem Klima der Angst, ja von „Angstkultur“.12 Ähnlich argumentiert Wolfgang Sofsky in seinem Essay Das Prinzip Sicherheit.13 Er weist zusätzlich auf die fatalen gesellschaftlichen Folgen einer „Kultur der Ängstlichkeit“14 für den Bestand von sozialen Normen und Institutionen hin. Ein Teufelskreis: Angst steigere die Unsicherheit und Unsicherheit erzeuge wiederum Angst. Angst habe viele Gesichter. Grauen und Entsetzen, wie es 9 / 11 vor Augen geführt habe, gesteigert zur „Ängstlichkeit“, münde in eine Art „Alarmstimmung“, die allem und jedem misstraue und überall Risiken wittere. Sofsky beschreibt diesen Zusammenhang so: „Ängstlichkeit ist kein Affekt, sondern eine Stimmung. (…) Fürchterliches Unheil malt sich der Furchtsame aus. Überall sieht er Alarmzeichen. Seine Phantasien heften sich an jede ungewohnte Wendung des Alltags. Ängstlichkeit ist ein Zustand, welcher die gesamte Person durchdringt. (…) Am Ende verfestigt sie sich zu einer persönlichen Haltung: Verzagtheit und Schreckhaftigkeit werden zum Charakter. (…) Die Zahl der eingebildeten Gefahren ist unendlich. Die Entzauberung der Welt hat nicht nur Gefahren in Risiken verwandelt, sie hat auch das Ausmaß der Unsicherheiten dramatisch erhöht.“15

Er spricht von „Phantomrisiken“ und „Phantasmagorien“16, die so entstünden und sich durch eine vollständigen Mangel an gesicherten Informationen auszeichneten. Ungewissheit werde durch Unheilsgewissheit ersetzt. Das sei fatal, weil dadurch eine Misstrauens- und Verdachtskultur entstehe, die „wie ein soziales Gift“ den „Pragmatismus des Vertrauens“17, der gewöhnlich das soziale Miteinander bestimme, förmlich zersetze: „Misstrauen wirkt wie ein soziales Gift. Die Zerstörung des Vertrauens ist irreversibel. Die Arbeit des Verdachts ist eine Sisyphosaufgabe. Keine Nachricht erscheint glaubhaft, kein Beweis wasserdicht. Geradewegs führt Misstrauen in eine Laufrad endloser Kontrollen.“18

Außer Kraft gesetzt werde dadurch Vertrauen als sozialer Kredit und komplexer Mechanismus zur Reduktion von Komplexität in zwischenmenschlichen Beziehungen. An seine Stelle trete eine neue Welt des Misstrauens und der Kontrolle. Diese Welt sei voller Verdächtigungen. Soziale und politische Institutionen gerieten unter Druck, weil beständig neuer 12  Kunz,

Karl-Ludwig (2004), S. 360 f. Wolfgang: Das Prinzip Sicherheit, Frankfurt a. M. 2005. 14  Sofsky, S. 36. 15  Sofsky, S. 32. 16  Sofsky, S. 34–35. 17  Sofsky, S. 54–55. 18  Sofsky, S. 61. 13  Sofsky,



I. „9 / 11“33

Verdacht geschöpft werde, so dass letztlich die „Sicherheit des Alltags“ dahin sei.19 Nach Laura V. Strauss und Klaus Röckerrath hat der plötzliche und unerwartete Anschlag tatsächlich den Glauben an die „Zuverlässigkeit des Alltags“ zerstört: „Da gerade die Twin Towers für die westliche Welt das Symbol für den sicheren Alltag waren, traf diese Aktion in den Kern der Illusion. Sie am helllichten Tag, zu einer Zeit, da die Normalität des Arbeitstages vorherrscht, getroffen und einstürzen zu sehen, zerstörte die Vorstellung von der Zuverlässigkeit des Alltags.“20

Auch Jacques Derrida und Jürgen Habermas unterstreichen in einer Auseinandersetzung mit den Ereignissen die Beispiellosigkeit des 11. September – nicht im Wesen des Ereignisses selbst, sondern in der neuartigen Form der medialen Vermittlung und der traumatisierenden Wiederholung der Schreckensbilder.21 Lee Clarke bringt den Gefühlszustand, die andauernde gefühlte Krise, so zum Ausdruck: „Things will never be the same, some say, because of 9.11. We feel more vulnerable, more threatened, more at risk.“22

Jean Baudrillard, der die Wirkung von Massenmedien – die viel zitierte „Medienrevolution“ – intensiv studiert hat, spricht vom „Neuen Terrorismus“. Im „Zeitalter der instantanen und planetarischen Kommunikation“ beklagt er allerdings eine inadäquate Medientheorie, die durch den kybernetischen Grundsansatz nicht in der Lage sei, die mediale Wirklichkeit, das Verschwimmen von Realität und simulierten Welten, angemessen zu beschreiben.23 Noch unter dem unmittelbaren Eindruck der Ereignisse beschreibt Baudrillard selbst eindrucksvoll die veränderte phänomenologische Ausgangslage und zugleich das neue Bedrohungsgefühl: Die neuen Terroristen beherrschten das Spiel der „klandestinen Existenz“ ebenso perfekt, sagt er, wie die Spielregeln der Propaganda und medialen Inszenierung.24 Dies sei beinahe ebenso terroristisch, wie der spektakuläre Akt vom 11. September, da die mediale Inszenierung zu einer ubiqitären Verdachtskultur führe: „Denn sie lenkt den Verdacht auf jedes x-beliebige Individuum: Ist nicht jedes beliebige harmlose Wesen ein potenzieller Terrorist?“25 19  Sofsky,

S. 62.

20  Strauss/Röckerrath,

S. 114, 129. unterstreicht die Einzigartigkeit („singularity“) des Ereignisses, Habermas nennt es das „erste historische Weltereignis im strengsten Sinne“, siehe Borradori, S. 28, 88. 22  Clarke, S. 1. 23  Baudrillard (1999), S. 291. 24  Junge, S. 223–246. 25  Baudrillard (2001), S. 13. 21  Derrida

34 Einleitung

II. Anti-Terror-Diskurs und „Vernetzte Sicherheit“ Die Politik reagiert prompt. In offiziellen Verlautbarungen dokumentieren die betroffenen Regierungen – von nationalen Eigenheiten abgesehen – Einmütigkeit und Entschlossenheit: Es soll der Eindruck vermieden werden, die sonst so „wehrhaften Demokratien“ seien wehrlos.26 Mithilfe öffentlicher Symbolik der Entschiedenheit soll gleichsam die soziale Psyche stabilisiert werden. Es gilt, den Schock, das kollektive Trauma, ausgelöst durch die unerhörte Tat, die sich symbolisch eine Art „Enthauptung“ der Hegemonialmacht darstellt, zu überwinden. Angst und Verunsicherung der Bevölkerung sollen bekämpft werden. Für die demokratischen Staaten des Westens repräsentiert der „Neue Terrorismus“, der gezielte „asymmetrische Angriff“27, eine existentielle Herausforderung. Aus den Diskursen zur Bekämpfung des „Neuen Terrorismus“ spricht daher ein leidenschaftliches Aufbegehren gegen „das Böse“, zum Teil völkerrechtlich gerechtfertigt, medial inszeniert und überhöht als „Krieg“, als „Krieg gegen den Terror“ („War on Terror“). Auf dem Spiel stehen nicht nur Menschenleben und Sachwerte, sondern der Staat als Institution selbst. Gefährdet ist mit der neuen Bedrohung sein genuiner Staatszweck, die Gewährleistung der Sicherheit der Bevölkerung. Es droht der Verlust der Legitimität des Staates, wenn der fundamentale Schutzauftrag, quasi Geschäftsgrundlage für Gesellschaftsvertrag und Gewaltmonopol gleichermaßen, nicht erfüllt werden kann. Mit Macht stemmen sich daher die betroffenen Staaten dem neuen politisch motivierten „SuperExtremismus“ entgegen. Das alte Sicherheitsversprechen, mit dem die Konzeption der ex post-Straftatenverfolgung korrespondierte, sei angesichts des neuartigen Phänomens potenzieller Suizidattentate – so die Argumentation – nicht mehr ausreichend. Im Anti-Terror-Diskurs spiegelt sich der Kampf um die „Selbstbehauptung“28 des Staates, nicht nur des Rechtsstaates, sondern des Staates überhaupt. Ein eigenartiges paradoxes Pathos begleitet und spricht aus den staatlichen Pressemitteilungen. Entsprechend kämpferisch gibt sich am zweiten Jahrestag des „11. September“ der amtierende Innenminister: „In Deutschland treten wir dem Terrorismus energisch und frühzeitig entgegen, indem wir dem Extremismus bereits im Vorfeld den Boden entziehen. (…) Wenn wir heute, am zweiten Jahrestag der Terroranschläge in den USA, eine Zwischenbilanz ziehen, können wir feststellen, dass wir auf dem langen Weg zur Bekämpfung des internationalen Terrorismus ein gutes Stück vorangekommen sind. Mit den Sicherheitspaketen I und II wurde die Ermittlungs- und Aufklärungsarbeit im 26  Albrecht,

S. 46–76. dazu Freudenberg, Dirk: Theorie des Irregulären. Partisane, Guerillas und Terroristen im modernen Kleinkrieg, Wiesbaden 2008. 28  Depenheuer, Otto: Selbstbehauptung des Rechtsstaates, Paderborn 2007. 27  Siehe



II. Anti-Terror-Diskurs und „Vernetzte Sicherheit“35 Vorfeld terroristischer Aktivitäten erheblich verbessert. (…) Wir dürfen in unserer Wachsamkeit nicht nachlassen. Die deutschen Sicherheitsbehörden werden den Verfolgungsdruck aufrechterhalten und – wo erforderlich – erhöhen. Unsere umfassende Präventionsstrategie werden wir durch internationale Kooperation verstärken.“29

Es ist die leidenschaftliche Kampfansage des Staates an den unsichtbaren Feind, die Gesamtheit potenzieller Suizidattentäter, verkörpert in dem gleichfalls unsichtbaren, asymmetrischen Netzwerk, mit Namen „al-Qaeda“. Der heftige politische Streit um die richtige und angemessene Reaktion auf die Herausforderung des „Neuen Terrorismus“ ist so gesehen auch ein Streit um die Grenzen des Grundkonzepts „Staat“ als Regelungs-, Schutz- und Ordnungsmacht. Die symbolische Politik der Terrorismusbekämpfung richtet sich nicht nur an das diffuse Gegenüber, den ominösen, aber omnipräsenten und dennoch nicht greifbaren potenziellen Suizidattentäter. Adressat ist vor allem auch die eigene Bevölkerung. Die Terrorismusbekämpfung und die sie begleitende offizielle Risikokommunikation sind gleichsam der Versuch der selbstvergewissernden Erneuerung des Sicherheitsversprechens des Staates. Effektive landesweite Verdachtschöpfung wird in allen betroffenen Staaten zum zentralen Anliegen: In den Vereinigten Staaten geben die zuständigen Bundesbehörden für Bevölkerungsschutz und Kriminalprävention im Jahre 2002 ein Vademecum zur Terrorismusprävention für Bürger heraus („Citizens’ Preparedness Guide“). Ziel ist es, den Bürgern Grundregeln der Terrorismusprävention zu vermitteln. Gegenüber allen „verdächtigen Personen und Sachen“, insbesondere möglichen explosiven Stoffen, wird eine besondere Achtsamkeit empfohlen. Die Bürger werden aufgefordert, die Gewohnheiten ihrer Nachbarn zu beobachten und alles Ungewöhnliche („anything out of place“) zu notieren.30 Im Verteidigungsministerium richtet man etwa zeitgleich eine Agentur mit dem Namen „Total Information Awareness“ (später umbenannt in „Terrorist Information Awareness“) ein, um alle verfügbaren Daten über US-Bürger in einer Datenbank zusammenzuführen und mithilfe leistungsfähiger Suchmaschinen nach potenziell Verdächtigen zu durchforsten. Das Vorhaben wird nach heftiger öffentlicher Kritik schließlich im Jahre 2003 wieder eingestellt.31 In Deutschland erhöhen Veröffentlichungen zu mutmaßlichen Terror-Netzwerken und „Schläfern“ in der unmittelbaren Folge zu den Ereignissen den Druck auf Politik und Sicherheitsbehörden.32 Klärend greift der amtierende Generalbundesan29  Bundesministerium

des Innern (2004), S. 164–166. S. 27. 31  Hempel/Krasmann/Bröckling, S. 7. – Siehe auch Sarasin, Philipp: „Anthrax“. Bioterror als Phantasma, Frankfurt a. M. 2004. 32  Theveßen, Elmar: Schläfer mitten unter uns. Das Netzwerk des Terrors in Deutschland, München 2002. 30  Larabee,

36 Einleitung

walt in die Debatte um die Figur des sog. „Schläfers“ ein: Nach dem Jargon des Spionagegeschäfts seien „Schläfer“ Personen, die ausgewählt, ausgebildet und im gegnerischen Lager unauffällig platziert würden, um erst in einem bestimmten Fall nachrichtendienstlich tätig zu werden. Das treffe auf den „11. September“ gerade nicht zu.33 Anlässlich der 50. Herbsttagung des Bundeskriminalamtes im Oktober 2004 in Wiesbaden formuliert der amtierende Innenminister vor hochrangigen Sicherheitsexperten und Führungskräften Grundsätze der neuen AntiTerror-Strategie. Integraler Bestandteil ist die informationelle Vernetzung aller Sicherheitsbehörden: Alle, Nachrichtendienste, Verfassungsschutz und Polizei von Bund und Ländern müssten ein sog. „Information Board“, eine Art behördenübergreifenden Informations- und Datenverbund, bilden, um so frühzeitig terroristische Anschlagspläne erkennen und effektiv bekämpfen zu können: „Wir müssen die Netzwerke des Terrors mit unseren eigenen Netzwerken bekämpfen. Unsere Netzwerke müssen jedoch eine andere Struktur haben als die der Terroristen. Terror-Netzwerke können offenbar auch dann funktionieren, wenn sie nur lose koordiniert sind und nur sporadisch miteinander in Kontakt stehen. Gerade das macht ihre Aufdeckung und Bekämpfung so schwierig. Wir hingegen brauchen dichte Netzwerke mit engen Maschen und starken Verknüpfungen. Anders als die Terroristen können wir uns keine Lücken leisten. (…) Entscheidend ist also die frühzeitige Aufdeckung von Anschlagsvorbereitungen. Gefahrenabwehr funktioniert nur bei rechtzeitiger Information. Die Vorfeldaufklärung, die Frühaufklärung kann nur erfolgreich sein, wenn alle relevanten Informationen frühzeitig gewonnen, rasch ausgetauscht und ebenso rasch wie effektiv ausgewertet werden. Information ist die entscheidende Ressource in der Bekämpfung des internationalen Terrorismus, wenn wir dem Netzwerk des Terrors ein Sicherheitsnetzwerk entgegenstellen wollen.“34

Effektive Verdachtschöpfung im Vorfeld einer Tat stellt sich allerdings als ein schier unmögliches Unterfangen heraus, wie politisch Verantwortliche außerhalb der offiziellen Risikokommunikation einräumen: Dieter Wiefelspütz, Mitglied des Innenausschusses im Bundestag, stellt fest, dass es beim polizeilichen Gegenüber an „einer klaren Organisationsstruktur (fehle), mit einer Befehlszentrale, mit Geldbewegungen, mit sichtbaren Spuren“. Mit normalen Instrumentarien komme man daher nicht sehr weit, um Tatverdächtige zu ermitteln. Die potenziellen Attentäter könnten in der Nachbarschaft wohnen und sich möglicherweise dort radikalisieren. Diese Menschen habe man „nicht auf dem Schirm“ – und die Frage sei, ob die Sicherheitsbehörden sie jemals auf den Schirm bekommen könnten.35 Ähnlich ratlos 33  Nehm,

S. 2670. S. 7–8. 35  Wiefelspütz, S. 29. 34  Schily,



II. Anti-Terror-Diskurs und „Vernetzte Sicherheit“37

äußert sich Rüdiger Freiherr von Fritsch, Vizepräsident beim Bundesnachrichtendienst. Unverhüllt benennt er die praktischen Probleme einer Vorfeldaufklärung: Attentäter seien häufig im Vorhinein kaum oder überhaupt nicht auffällig. Ein in jeder Hinsicht interessantes Beispiel seien die versuchten Bombenanschläge vom 31. Juli 2006 auf deutsche Eisenbahnzüge. Die späteren Attentäter seien vor der Tat praktisch unauffällig gewesen: „Was hätten wir über sie vorher wissen können? Wir wissen, dass der Eine auf einem Video auftaucht, bei einer Demonstration gegen die Mohammed-Karikaturen. Was soll man damit machen als Sicherheitsbehörde? Jeden, der an einer Demonstration teilnimmt, ins Visier nehmen und verfolgen? Wir wissen inzwischen, dass die Familie des Einen in seinem Heimatland einen etwas radikaleren Hintergrund hat. Was machen Sicherheitsbehörden damit? Gehen sie dem fami­ liären Hintergrund jedes Ausländers nach, der nach Deutschland einreist?“36

Wie akut die Terrorgefahr andererseits auf politischer Ebene eingeschätzt wird, zeigt ein Blick in das Weißbuch zur Sicherheitspolitik vom 25. Oktober 2006. Dort heißt es: „Infolge der neuartigen Qualität des internationalen Terrorismus sowie des gewachsenen und territorial weitgehend unbeschränkten Gewaltpotentials nichtstaatlicher Akteure sind heute auch in Deutschland Angriffe vorstellbar, die aufgrund ihrer Zielsetzung sowie ihrer Auswirkungen den bestehenden tatsächlichen und rechtlichen Rahmen der klassischen Gefahrenabwehr überschreiten.“37

Man erwägt daher selbst den Einsatz der Streitkräfte im Innern. Um der terroristischen Bedrohung zu begegnen, hält man insoweit sogar eine Verfassungsänderung für erforderlich. Von einem notwendigen grundlegenden „Umbau der Sicherheitsarchitektur“ ist angesichts der neuen Herausforderungen die Rede. Man fordert einen „Neuen Sicherheits-Begriff“, diagnostiziert das „Verschwimmen der Grenzen zwischen innerer und äußerer Sicherheit“. Angesichts der neuartigen Bedrohung sei der Aufbau von Sicherheitsstrukturen unverzichtbar, die einem „gesamtstaatlichen Ansatz durch informationelle Vernetzung aller relevanten Behörden folge.“38 Der Anti-Terror-Diskurs im Gefolge des 11. September verläuft internatio­ nal erstaunlich abgestimmt.39 Maßnahmen mit hoher Symbolkraft zeichnen weltweit die Post-9 / 11-Sicherheitspolitik aus. Im Einzelnen zählen dazu die verstärkte Berücksichtigung des öffentlichen Sicherheitsgefühls, die Einbeziehung der Bevölkerung in den Sicherheitsdiskurs, das Bemühen um Vertrauensbildung und Bürgernähe durch Vorfeldarbeit im Rahmen kommunaler Kriminalprävention. Nicht zuletzt auch die mediengerechte Inszenierung 36  Freiherr

von Fritsch, S. 15–16. der Verteidigung, S. 76. 38  Werthebach, S. 13. 39  Bernold, S. 249–269. 37  Bundesministerium

38 Einleitung

von Ermittlungserfolgen und die Durchführung öffentlichkeitswirksamer Fahndungsaktionen. Überall auf der Welt – besonders auch in Deutschland – werden in rasender Eile und „mit einem beispiellosen Kraftakt“40 Gesetze zur Bekämpfung des „Neuen Terrorismus“ verabschiedet. Damit sind zum Teil beträchtliche Befugniserweiterungen für die Sicherheitsbehörden verbunden. Der Deutsche Bundestag verabschiedet in kurzer Folge zwei sog. „Sicherheitspakete“.41 Der Wissenschaftliche Dienst des Parlaments registriert bis zum September 2007 etwa zwanzig Gesetzesvorhaben zur Änderung von Bundesgesetzen; mit Zustimmung der Länder werden zusätzlich ungefähr 100 weitere Gesetzesänderungen durch Artikelgesetze auf den Weg gebracht.42 Die maßgeblichen Ziele im Anti-Terror-Diskurs lauten „ganzheitlicher Bekämpfungsansatz“, „Vernetzung“ und „Vorfeldaufklä­

40  Huster/Rudolph,

S. 9–22. Matthias: Pfade des Sicherheitsrechts. Begriffe von Sicherheit und Autonomie im Spiegel der sicherheitsrechtlichen Debatte der Bundesrepublik Deutschland, Baden-Baden 2008. 42  Gesetz zur Bekämpfung des internationalen Terrorismus (Terrorismusbekämpfungsgesetz/TerrrorBekämpfG) vom 09.01.2002 (BGBl I, 361, ber. S. 3142); Terrorismusbekämpfungsergänzungsgesetz (TBEG) vom 05.01.2007 (BGBl I, S. 2), zuletzt geändert durch Gesetz vom 06.06.2009 (BGBl I, S. 1226); Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttaten GVVG vom 04.08.2009 (BGBl I, S. 2437; Gesetz zur Umsetzung des Rahmenbeschlusses des rates der EU vom 13.06.2002 zur Terrorismusbekämpfung (Abl EG Nr. L 164, S. 3) und zur Änderung anderer Gesetze vom 22.12.2003; Gesetz zur Neuregelung der Telekommunikationsüberwachung (TKG) und anderer verdeckter Ermittlungsmaßnahmen (StPO) sowie zur Umsetzung der Richtlinie 2006/24/EG (Mindestspeicherfristen für Telekommunikationsverkehrsdaten) vom 01.01.2008; Gesetz zur Abwehr von Gefahren des internationalen Terrorismus durch das Bundeskriminalamt vom 25.12.2008 (BGBl I, S. 3083); Gesetz zur Errichtung gemeinsamer Dateien von Polizeibehörden und Nachrichtendiensten des Bundes und der Länder (Gemeinsame-Dateien-Gesetz – Art. 1: Gesetz zur Errichtung einer standardisierten zentralen Antiterrordatei von Polizeibehörden und Nachrichtendiensten von Bund und Ländern Antiterrordateigesetz – ATDG) vom 22.12.2006 (BGBl I, S. 3409); Gesetz über das Aufspüren von Gewinnen aus schweren Straftaten (Geldwäschegesetz – GwG) vom 13.08.2008 (BGBl I, S. 1690) zuletzt geändert durch Art. 7 vom 01.03.2011 (BGBl I, S. 288); Gesetz zur Ergänzung der Bekämpfung der Geldwäsche und der Terrorismusfinanzierung (Geldwäschebekämpfungsergänzungsgesetz – GwBekErgG) vom 13.08.2008 (BGBl I, 1690); Änderungen Kreditwesengesetz (KWG) vom 01.03.2011 (BGBl I, 288); Neubekanntmachung Außenwirtschaftsgesetz (AWG) vom 27.05.2009 (BGBl I, S. 1150); Gesetz über den Zugang von Polizei- und Strafverfolgungsbehörden sowie Nachrichtendiensten zum Visa-Informationssystem (VIS-Zugangsgesetz – VISZG) vom 06.05.2009 (BGBl I, S. 1034); Abkommen zwischen der Bundesrepublik Deutschland und der Regierung der Vereinigten Staaten von Amerika über die Vertiefung der Zusammenarbeit bei der Verhinderung und Bekämpfung schwerwiegender Kriminalität (Zustimmungs- und Umsetzungsgesetz vom 04.07.2009). 41  Kötter,



II. Anti-Terror-Diskurs und „Vernetzte Sicherheit“39

rung“.43 „Vernetzte Sicherheit“ – auf diese strategische Formel einigt sich die neue ausgerichtete Sicherheitspolitik. Bei allen Gelegenheiten, auf allen Ebenen und in allen sicherheitspolitischen Zusammenhängen wird sie als die neue „Leitidee“ propagiert. International ist die Bezeichnung „Comprehensive Approach“ („Umfassender Ansatz“) üblich.44 Die zentrale Herausforderung für die neu justierte Sicherheitspolitik besteht in nichts Geringerem, als terroristische Netzwerke und extremistische Gruppierungen „im Vorfeld“ zu erkennen und potenzielle Selbstmordattentäter zu enttarnen. Explizit fordern die Innenminister des Bundes und der Länder in der Fortschreibung des Programms Innere Sicherheit „intensive Vorfeldermitt­ lungen“.45 Die Antwort auf die diffuse, Angst verbreitende „asymmetrische Bedrohung“, manifest in Form von beständigen Audio- und Videobotschaften der „Dschihadisten“46 im Internet, fällt bemerkenswert kühl und systematisch aus. Der kriminalstrategische Ansatz der Sicherheitsbehörden präsentiert sich als schlüssige Doppelstrategie: täterorientierte Vorfeldaufklärung (engl. Proactive Targeting) einerseits und informationelle Vernetzung (engl. Intelligence sharing) andererseits. Das Konzept der „Vorfeldaufklärung“ ist, beim näheren Hinsehen, durchaus nicht neu. Im Gegenteil, es entspricht konsequent kriminalistischer Denktradition: In verallgemeinerter Form ist es jene Idee der systematischen „Aufhellung des Dunkelfeldes“, welche Jahre zuvor zur zentralen Forderung der Kriminalistik avanciert war.47 Die juristische Auseinandersetzung über die Einordnung des Geschehens, ob als kriegerischer Akt oder als monströses Verbrechen, der Streit über die angemessene Bekämpfungsstrategie und die richtige rechts- bzw. kriminalpolitische Reaktion hält bis heute an.48 43  Der Spiegel vom 9. Juli 2007, Nr. 28: Der Preis der Angst. Wie der Terrorismus den Rechtsstaat in Bedrängnis bringt. – Darin Darnstädt, S. 18–23; Aust/Rosenbach/Stark, S. 31–33. 44  Borchert, Heiko (Hrsg.), Vernetzte Sicherheit: Leitidee der Sicherheitspolitik im 21. Jahrhundert; Hamburg 2004 sowie Schäuble, S. 67–78 (www.vernetzte-sicher heit.net). – Kritisch Krüger, S. 499–503 und Jaberg, Sabine: Vernetzte Sicherheit? Phänomenologische Rekonstruktion und kritische Reflexion eines Zentralbegriffs im Weißbuch 2006, Hamburg 2009. 45  Ständige Konferenz der Innenminister und -senatoren der Länder, S. 44–47. 46  Bundesministerium des Innern, S.  232 ff. 47  Störzer, S. 413–458. 48  Tomuschat, Christian: Der 11. September und seine rechtlichen Konsequenzen, Rechtspolitisches Forum/Legal Policy Forum 5, Trier 2001; Lettre International (Hrsg.), Der Schock des 11. September und das Geheimnis des Anderen. Eine Dokumentation – The Shock of September 11 and the Mystery of the Other. A Documentation, Haus am Lützowplatz, 2002; Talbott/Chanda: Das Zeitalter des Terrors. Amerika und die Welt nach dem 11. September, München 2002; Hoffmann/Schoeller

40 Einleitung

Abbildung 4: ZEIT Magazin, Nr. 51, vom 11.12.2008 (Deckblatt)



III. „Vor die Lage kommen …“ 41

Angesichts der Kriegsrhetorik, der Proklamation des Krieges gegen den Terror („War on Terror“) und der Anwendung von kriegsrechtlichen Regeln gegen sog. „Unlawful Combattants“ fragt man besorgt, ob nach dem 11. September „nichts mehr sein (wird), wie es war“.49 Zehn Jahre nach dem „9 / 11“ fällt das Resümee von Thomas Jäger aus politikwissenschaftlicher Perspektive eigenartig zwiespältig aus: „Am 12. Sep­tember war die Welt eine völlig andere und doch die gleiche: sie war andersgleich.“50

III. „Vor die Lage kommen  …“ Unter einem „Lagebild“ versteht man im polizeilichen Sprachgebrauch „zu einem bestimmten Zeitpunkt zusammengeführte polizeilich bedeutsame Erkenntnisse“.51 Mithilfe von Lagebildern und mittels ständiger Lagebeurteilung wird zielgerichtetes polizeiliches Handeln möglich. Vor allem dienen Lagebilder dazu, fühzeitig sog. „Brennpunkte“ zu erkennen. Im Falle des „Neuen Terrorismus“ stoßen diese Grundprinzipien polizeilicher Einsatzplanung an eine objektive Grenze, da „polizeilich bedeutsame Erkenntnisse“ über drohende Anschläge von möglichen Anschlagstätern regelmäßig nicht vorliegen. Dieser Umstand ist nicht nur misslich – er stürzt die Polizei in ein tiefes Dilemma. Es ist eine Art Zwickmühle, in der sie sich wiederfindet: Einerseits ist sie bestellter Garant für Schutz und Sicherheit der Bürger, andererseits kann sie diese Rolle aufgrund der objektiv nicht vorhandenen Erkenntnisse de facto aber kaum ausfüllen. Nichthandeln wäre in den Augen der Öffentlichkeit untätiges Versagen, Handeln hingegen trägt ihr den Vorwurf der Verletzung von Bürgerrechten wegen umstrittener Vorfeldaktivitäten ein. Andererseits ist die Bedrohung real. Extremistische politisch motivierte Gewalttäter und religiös verblendete Fundamentalisten sind zu barbarischen Taten fähig und bereit.52 Im Zeichen des sog. „Neuen Terrorismus“ erscheint (Hrsg.), Wendepunkt 11. September 2001. Terror, Islam und Demokratie, 2. Aufl., Köln 2002; Calhoun/Price/Timmer (Hrsg.), Understanding September 11, New York 2002; Daase, Christian (2002), S. 113–142; Palm/Rötzer (Hrsg.), MedienTerrorKrieg. Zum Neuen Kriegsparadigma des 21. Jahrhunderts, Hannover 2002; Kümmel/ Collmer: Asymmetrische Konflikte und Terrorismusbekämpfung. Prototypen zukünftiger Kriege? Baden-Baden 2003; Wächter (2007), S. 61–68; Hetzer, S. 277–303. 49  Prittwitz (2002a), S. 499–514. 50  Jäger, T., S. 11. 51  Strobl, S. 44. 52  Nach dem Anschlag auf Mitarbeiter der Satire-Zeitschrift Charlie Hebdo vom 7. Januar 2015 in Paris empfiehlt Wolfgang Bonß, die „irrationale Angst vor Terro-

42 Einleitung

vieles, wenn nicht alles, möglich. Denkbar sind bioterroristische Anschläge ebenso wie die Verwendung von Sprengsätzen mit radioaktiver Beiladung (sog. „Schmutzige Bomben“). Für den Staat und seine Sicherheitsorgane ergibt sich im Zuge der in allen gesellschaftlichen Bereichen geführten Risikodiskurse aus dem Gesichtspunkt der staatlichen Schutzgarantie ein kontinuierlicher Handlungszwang. Rechtlich betrachtet gleicht die Sicherheitsgarantie unter den Bedingungen des „Neuen Terrorismus“ in gewisser Weise dem Auftrag für ein permanentes Notfallmanagement, für das es allerdings noch keine zufriedenstellenden rechtlichen Regeln gibt.53 Der Präsident des Bundeskriminalamtes, Jörg Ziercke, sieht einen Ausweg aus dem Dilemma, in dem die Polizei steckt, in der Vorverlagerung der Erkenntnisgewinnung. Reine Straftatenverfolgung im klassischen Sinne sei nicht mehr ausreichend. Man müsse sozusagen „vor die Lage“ kommen und frühzeitig Anschlagsvorbereitungen aufdecken. Ziercke umschreibt damit zugleich den Kern der Neuausrichtung der Sicherheitspolitik nach dem 11. September: „Eine allein reaktive Herangehensweise, die nur auf die Aufklärung bereits begangener Straftaten gerichtet ist, würde nicht abschätzbare Folgen für die Menschen in unserem Land haben. Das oberste Ziel der Terrorismusbekämpfung muss daher immer Gefahrenabwehr sein: Es gilt, Anschläge unter Aufbietung aller Kräfte zu verhindern. Dieses Ziel vor Augen fragen wir uns: ‚Wie können wir unsere Früherkennung stärken? Wie können wir unsere Prognosen sicherer machen?‘ Kurz gesagt: ‚Wie können wir vor die Lage kommen?‘, um es mit den Worten eines Polizisten auszudrücken.“54

Die Polizei hat in der Praxis einen Weg beschritten, der einer Form von „Risikoanalyse“ und „Risikomanagement“ ähnelt. Unter dem Aspekt einer möglichen Mitgliedschaft in einer terroristischen Vereinigung werden auf der Grundlage präventivpolizeilicher und nachrichtendienstlicher Erkenntnisse bestimmte „Risikopersonen“ überwacht. Die Polizei spricht von „Risikopersonenpotenzial“. Die besondere Herausforderung für die Sicherheitsbehörden besteht in der Praxis darin, über Relevanzkriterien („Indikatoren“) den Kreis derer klein zu halten, die von polizeilichen Maßnahmen im Rahmen der Vorfeldüberwachung als sog. „Gefährder“ oder „Relevante Person“ betroffen sind. Der wunde Punkt des Verfahrens ist die Erkenntnisgewinnung vor Einleitung der Vorfeldüberwachungsmaßnahmen, d. h. wie das „Risikopersonenpotenzial“ analytisch bestimmt werden soll. Das Verfahren ist nicht nur bei der Polizei, sondern auch bei der Justiz schwer einzuordnen: Der Generalbundesanwalt führt in solchen Fällen kein rismus“ zu überwinden und den Umgang mit Risiken in einer offenen und globalisierten Gesellschaft zu lernen, da „entgegen aller Kontrollphantasien (…) Sicherheit unberechenbar“ bleibe, Bonß (2015) ZEIT online vom 18. Februar 2015. 53  Wolter (1993), S. 1–15. 54  Ziercke (2006), S. V.



III. „Vor die Lage kommen …“ 43

Verfahren gegen einen „Beschuldigten“ (BJs-Akten), sondern legt „Gefährder“-Sachen im Allgemeinen Register (sog. „ARP-Akten“) ab. Unter dem Gesichtspunkt des Rechtsschutzes ist dies u. a. deshalb problematisch, da dadurch Beschuldigtenrechte, insbesondere das Belehrungsrecht, umgangen werden können.55 In der Praxis haben sich allerdings ähnliche informelle Formen entwickelt. So macht die Polizei – je nach Lagebeurteilung – von sog. „Gefährderansprachen“ Gebrauch, in denen die betroffene Person über durchgeführte Überwachungsmaßnahmen in Kenntnis gesetzt wird. Einerseits Quasi-Prozessbeteiligter und Prozessrechts-Subjekt verkörpert der „Gefährder“ andererseits den neuen Typus des „potenziellen Störers“ und „Vorfeld-Verdächtigen“, der hinsichtlich des Prozessrechtsverhältnisses mehr „Objekt“ einer Vor-Untersuchung ist, die wesentlich nichtöffentlich abläuft.56 Die Identifikation von „Risikopersonen“ hat im Rahmen der internationalen Zusammenarbeit zu sog. „Terrorlisten“ geführt – das sind Listen von erkannten „Gefährdern“. Auch hier kehrt die Rechtsschutzproblematik für Betroffene in anderer Form wieder.57 Es wäre zu einfach, diese Praxis, den Umgang mit „Gefährdern“, wegen fehlender Rechtsgrundlage rundweg als verfassungswidrig zu verurteilen. Charles von Denkowski zieht diesen Schluss. Er erkennt in der Praxis gefährliche Tendenzen in Richtung auf „eine pro-aktiv Anlass unabhängig Gesinnungen auf Konformität überprüfende politische Polizei“. Er will daher zurück zum klassischen Polizeirecht: „Ein präventiver Schutz neuer Art entsteht, gestützt auf den Gefährderbegriff. Jener verkörpert dabei den Schlüssel zum Verständnis jenes tiefgreifenden Wandels des deutschen Polizeirechts. Auf strafprozessuale Strukturermittlungen und den Gewinn von ‚Intelligence‘ abzielende Verfolgungsvorsorge wird in nur fünf Jahren zur täglichen Routine der eigens für Vorfeldarbeit geschaffenen Islamismusdienststellen des Staatsschutzes. Die Verfassungswidrigkeit des Gefährderbegriffs stellt neben einer daraus folgenden rechtswidrigen Erfassung von Personen in der Antiterrordatei die offiziell auf Polizeirecht gestützte Vorfeldarbeit fundamental in Frage. Polizeiliche Akteure innerhalb der deutschen Sicherheitsarchitektur müssen daher im Jahr sechs nach dem 11. September einen Schritt zurück, hin zum störerbezogenen begrenzten ‚alten Polizeirecht‘, treten.“58 55  Senge, S. 701–718. – Siehe auch Diemer, S. 666–669, der „Vorerhebungen“ durch das Bundeskriminalamt bis zur Grenze des Willkürverbots zur Begründung eines Anfangsverdachts für ein Staatsschutzdelikt für zulässig hält. 56  Siehe dazu die Falldarstellung bei Richter (2009), S. 24–30. 57  Schulte, Dominik: Der Schutz individueller Rechte gegen Terrorlisten. Internationale, europäische und nationale Menschenrechtsstandards im Spannungsverhältnis zwischen effektiver Terrorismusbekämpfung und notwendigem Individualrechtsschutz, Baden-Baden 2010. 58  von Denkowski (2007a), S. 332. – Dazu auch Daun, S. 69, die eine „relativ starke Verschränkung (nachrichtendienstlicher Tätigkeit, N. R.) mit der Strafverfolgung“ feststellt und Singer, Jens Peter, S. 289, der in der gegenläufigen Tendenz,

44 Einleitung

So zutreffend die Problembeschreibung ist, so verfehlt ist die Argumentation im Ergebnis. Verfehlt wäre es, in eine Entweder-Oder-Logik und Subjekt / Objekt-Dichotomie zu verfallen – „Gefährder“ sind offenbar, prozessrechtlich betrachtet beides – und darin liegt das in rechtlicher Hinsicht noch ungelöste (dogmatische) Problem. Ob es einen Weg zurück zum alten Polizeirecht gibt, ist überdies höchst fraglich. Die Probleme wurzeln tiefer: Grob gesprochen, stößt die nationale Rechtsordnung, der Rechtsstaat, hier an neue Grenzen, die mit der gesamtgesellschaftlichen Entwicklung, dem Potenzial neuer Technologien und der besonderen „Verwundbarkeit“ hoch entwickelter postindustrieller Gesellschaften zusammenhängt. Diesen cultural lag59 zu verstehen und die Rechtspraxis verfassungskonform fortzuentwickeln, darin besteht die neue und eigentliche Herausforderung. Insofern ist eine Art „nachholende Verrechtlichung“ auf der Grundlage einer verstehenden Analyse der sicherheitsbehördlichen Praxis gefordert. Der Weg zurück zum „alten Polizeirecht“ ist indessen aufgrund der tatsächlichen Verhältnisse – auch der zunehmenden Transnationalisierung und Vernetzung der Sicherheitsarchitekturen – versperrt. Nach Johannes Saurer verdankt sich die kriminalpolitische Entwicklung überhaupt einer veränderten Störerwahrnehmung. Er hält es für erwiesen, dass der Rechtsstaat für den Umgang mit rational handelnden „Störern“ und „Straftätern“ konzipiert sei, aber über kein Instrumentarium für den Umgang mit Selbstmord-Attentätern verfüge. In dem beschrittenen Weg sieht er eine nicht wünschenswerte „Ausweitung und Verselbständigung“ polizeilicher Informationsvorsorge: „Beruhte das Gefahrenabwehrrecht wie auch das Strafrecht ehedem auf der Zubilligung einer Mindestrationalität an den (terroristischen) Polizeistörer oder Straftäter, die diesem wenigstens insoweit rationale Motive unterstellen konnte, als dieser nach körperlicher Unversehrheit und personaler Freiheit strebt, so wird etwa gegenüber der Bedrohung durch Selbstmord-Attentate die Wirksamkeit eines rationalen Rechtsregimes weithin in Frage gestellt. Jenseits der tradierten Strategien präventiver Gefahrenabwehr und repressiver Strafverfolgung wird der Ausweg in einer Ausweitung und Verselbständigung der Informationsvorsorge gesucht.“60

Wenn es richtig ist, dass Selbstmordattentate eine Form „sakralisierter Gewalt“61 sind, die den Opfertod des Attentäters einschließt, dann ist fraglich, ob Taten eines derartigen modus operandi überhaupt präventabel, d. h. durch polizeiliches Handeln vermeidbar sind? Daran schließt sich die Frage an, ob der Ruf „Vor die Lage kommen“ eine angemessene Handlungsmaxinämlich der „Vernachrichtendienstlichung der Polizei“ und der „Verpolizeilichung der Geheimdienste“ die Tendenz zu einer „zu einer geheimen Polizei“ erkennt. 59  Ogburn, S. 134–145. 60  Saurer, S. 276. 61  Burkert, S. 16.



III. „Vor die Lage kommen …“ 45

me zur Bekämpfung des „Neuen Terrorismus“ ist. Oder handelt es sich dabei auch um eine Art Selbstvergewisserung, ja suggestive Erneuerung des Sicherheitsversprechens der Polizei gegenüber der Gesellschaft?62 Die Formel suggeriert Handlungsfähigkeit in einer bestimmten Situation („die Lage“), wo aber in Wirklichkeit der Umgang mit Ungewissheit, Unbestimmtheit und Nichtwissen gefordert ist. Selbstbeschränkung, Abwarten und Nichthandeln ist nach dieser Formel, die „(an)kommen“ will, keine Option. Man kann darin den etwas hilflosen Versuch der Polizei sehen, auf das neue Problem der „Gefährder“ mit den erprobten Mitteln der erkenntnisbasierten „Einsatz-Planung“ zu reagieren, obwohl die Übertragung traditioneller Planungsgrundsätze dem neuen Problem unangemessen ist. Konrad Freiberg und Karsten Rudolph sehen dieses Problem und das Dilemma der staatlichen Reaktion im Umgang mit dem „Neuen Terrorismus“. Trotz aller Sicherheitsanstrengungen nach dem 11. September diagnostizieren sie eine umsichgreifende „Verunsicherung“: „Wer meint, wir würden in einem Überwachungsstaat leben, übertreibt wider besseren Wissens. Wer allerdings die zutage getretenen Tendenzen leugnet, in das Vorfeld des Vorfeldes einer unbestimmten, vielleicht möglichen terroristischen Gefahr zu gelangen und in allen Bürgern Risiko- und Gefahrenträger zu sehen, leugnet wider besseres Wissen die Gefahren, denen der Rechtsstaat ausgesetzt ist.“63

Dem Dilemma der Polizei entspricht ein Dilemma des Staates insgesamt. Offenbar ist eine neue Reaktionsweise, eine komplexere Handlungstheorie im Umgang mit dem „Neuen Terrorismus“ gefordert, um eine Balance zwischen der Gewährleistung von Sicherheit gegenüber Terrorattacken einerseits und der Rechtssicherheit in Bezug auf bürgerliche Freiheitsrechte andererseits zu erreichen. Cynthia C. Combs, die sich mit der Natur des sog. „Neuen Terrorismus“ auseinandergesetzt hat, stellt klar, dass der Terrorismus nicht neu sei. Allerdings habe er sich derart verändert, dass auf beiden Seiten des Kampfes neue Optionen entstanden seien: Terroristen könnten in zunehmendem Maße Schäden anrichten, Gebäude und Infrastruktur zerstören und wenig geschützte Ziele (soft targets) angreifen. Umgekehrt sei die Fähigkeit, Terrorattacken vorherzusagen64 im Gefolge der Globalisierung, der Datenexplosion im Internet und neuer Technologien enorm gewachsen. Sicherheitsbehörden seien daher in der Versuchung, im Bemühen Sicherheit zu gewährleisten, beständig Grundfreiheiten zu opfern („to sacrifice liberties to provide security“). Die Balance in diesem Kampf sei ständig im 62  Wolfgang Sofsky sieht im „Schutzversprechen“ des Staates eine Selbstüberforderung, wodurch insbesondere die Polizei zum „Zentralorgan des modernen Sicherheitsstaates“ geworden sei, siehe Sofsky, S. 84. 63  Freiberg/Rudolph, S. 61. 64  Scheerer (2006), S. 57–64.

46 Einleitung

Fluss – jede Entscheidung von einer Gruppe, eine Waffe einzusetzen, und einer Regierung, wesentliche Grundrechte einzuschränken, könnten zur Zerstörung führen – in einem unvorstellbaren Ausmaß.65 Ähnlich argumentiert der niederländische Terrorismusforscher Alex P. Schmid. Er hat insgesamt 109 (!) verschiedene Definitionen von „Terrorismus“ zusammengetragen und überprüft. Sein Fazit zum Stand der Theoriebildung fällt bescheiden aus. Trotz einiger Theorieansätze, existiere keine allgemeine Theorie des Terrorismus. Wenn es eine solche gäbe, schreibt er, müsste es eine „SubTheorie zur allgemeinen Theorie von Gewalt und Konflikt“ sein. Viele Terrorismus-Theorien scheiterten aber bereits daran, diese Verbindung herzustellen. Vor allem werde oft der offensichtliche Zusammenhang zwischen nichtstaatlichem Terrorismus und staatlichen Gegenmaßnahmen ausgeblendet.66 Wie evident der von Schmid benannte Zusammenhang sein kann, zeigen Fehlentwicklungen staatlicher Reaktion, wie etwa das mehrjährige Festhalten von Häftlingen auf der Grundlage einer Verdachts- bzw. Gefährdungseinstufung ohne Anklage und Gerichtsverfahren.67

IV. „Im Vorfeld wird zurückgeschossen  …“ Was ist und was heißt „Vorfeld? Wie konnte dieses Wort gleichsam zum Vorhof des Kriminaljustizsystems avancieren? Gegen Ende der 70er Jahre des 20. Jahrhunderts nehmen die Diskurse um „Innere Sicherheit“, „Organisierte Kriminalität (OK)“, „Prävention“, und „strategische Kontrolle“ in Deutschland eine außerordentliche Intensität und Aktivität an. Im Kampf gegen „OK“ und im Verlauf der Debatte um den sog. „Großen Lauschangriff“ ist das „Vorfeld“ zum Fahnenwort der kriminalpolitischen Debatte geworden.68 Die Diskurse schwellen derart an, dass eine Fülle von Veröffentlichungen die Fachzeitschriften überschwemmt.69 Die „Vorfeld“-Meta65  Combs,

S. 368.

66  McAllister/Schmid,

S. 261 – zitiert nach Frank/Mahlke, S. 9. – Kritisch zum Anti-Terror-Kampf der Vereinigten Staaten nach dem 11. September Richardson, Louise: What Terrorists want: Understanding the Enemy, Containing the Threat, New York 2006. 67  Jost, S. 431–453. 68  Panagl, Oswald. (Hrsg.), Fahnenwörter der Politik. Kontinuitäten und Brüche, Wien 1998 sowie Hermanns (2007), S. 459–478. 69  Kutscha/Paech (Hrsg.), Im Staat der „Inneren Sicherheit“. Polizei, Verfassungsschutz, Geheimdienste, Datenkontrolle im Betrieb. Beiträge und Dokumente, Frankfurt a. M. 1981; Bull (1984), S. 155–175; Bull (Hrsg.), Sicherheit durch Gesetze?, Baden-Baden 1987; Rupprecht/Hellenthal: Innere Sicherheit im Europäischen Binnenmarkt. Eine Veröffentlichung der Bertelsmann Stiftung innerhalb der Reihe „Strategien und Optionen für die Zukunft Europas“, Gütersloh 1992; Hassemer (1993), S. 664–670; Kreissl, S. 129–139; Denninger (1988), S. 1–5; Keller/Gries-



IV. „Im Vorfeld wird zurückgeschossen …“47

pher beherrscht den polarisierten Meinungsstreit vollends. Karl-Heinz Pruys hat die erhitzte Debatte aus jounalistischer Perspektive kommentiert und dokumentiert. Unter dem Titel „Im Vorfeld wird zurückgeschossen …“ beschreibt er die erhitzte und unversöhnlich geführte Debatte.70 Eine genauere Analyse der Diskurse ergibt, dass sich bereits seit Mitte der 80er Jahre eine Vorfeldorientierung, nicht nur innerhalb der Polizei, sondern in der gesamten Staatspraxis durchgesetzt hat. Bereits 1976 hatte der damalige Präsident des Bundeskriminalamtes Horst Herold im Zuge der Anschläge der Roten Armee Fraktion (RAF) gefordert, Begriff und Aufgabenstellung der Polizei um eine sozialgestalterische Komponente, konkret eine „Prävention im Vorfeld“, zu erweitern.71 In kriminalpolizeilicher Diktion entwickelt sich daraus die Zielbestimmung der „systematischen Aufhellung des Dunkelfeldes“ bzw. der „pro-aktiven Verdachtsgewinnung“.72 Durch Vorfeld-Maßnahmen sollen hiernach Anhaltspunkte zur gezielten „Verfahrensinitiierung“, d. h. die Begründung eines Anfangsverdachts, identifiziert werden. Dadurch gerät das gesetzlich definierte Verdacht-Konzept unter Druck. Bestätigt und rechtstatsächlich intensiv belegt findet sich dieser Befund in einer breit angelegten Untersuchung zur Polizeientwicklung in Deutschland von Norbert Pütter aus dem Jahre 1998.73 Aus Experteninterviews mit polizeilichen Führungskräften präpariert Pütter das Bild einer „qualitativ anderen Polizei“ heraus. Pütter spricht von „OK-Polizei“. Entgegen dem bürgerlich-liberalen Polizeimodell, welches noch enge Zuständigkeitsgrenzen, die Abwehr konkreter Gefahren und die Tataufklärung begangener Delikte vorsieht, lege die Polizei im Hinblick auf die Bekämpfung der baum, S. 416–420; Lisken, Hans: Rechtsstaat – Was sonst? Ausgewählte Schriften, Baden-Baden 1996; Kauss, Udo: Der suspendierte Datenschutz bei Polizei und Geheimdiensten, Frankfurt a. M. 1989; Hund, S. 463–468; Kniesel, S. 164–167; Pitschas (1991), S. 774–778; Hassemer/Starzacher: Organisierte Kriminalität – Geschützt vom Datenschutz?, Baden-Baden 1993; Di Fabio (1996), S. 566–574; Keller (1984), S. 521–527; Merten/Merten, S. 213–220; Gusy (1993), S. 269–277; Prümm (1990), S. 201–211; Deutscher Bundestag (1996) Drucksache 13/4942, S. 1–77; Seifert, S. 355–363; Busch (1992), S. 374–395; Manns, S. 6–10; Hess (1992), S. 315– 336; Gropp, Walter (Hrsg.), Besondere Ermittlungsmaßnahmen zur Bekämpfung der Organisierten Kriminalität: ein rechtsvergleichendes Gutachten im Auftrag des Bundesministeriums der Justiz und des Bayerischen Staatsministeriums der Justiz, Freiburg i. Br. 1994; Böttger/Pfeiffer, S. 7–17; Müller-Heidelberg, Till (Hrsg.), „Innere Sicherheit“ Ja – aber wie? Plädoyer für eine rationale Kriminalpolitik, München 1994; Sieber, S. 758–768; Müller, S. 602–606; Jäger, W., S. 189–192. 70  Pruys, Karl-Heinz: „Im Vorfeld wird zurückgeschossen …“ Wie Politiker und Medien die deutsche Sprache verhunzen, Berlin 1994. 71  Lamnek, S. 223–224. 72  Kube/Aprill, S. 17. 73  Pütter, Norbert: Organisierte Kriminalität und ihre Folgen für die Polizei in Deutschland, Münster 1998.

48 Einleitung

organisierten Kriminalität einen strategischen, „pro-aktiven Bekämpfungsansatz“ zugrunde.74 Hiernach soll die Polizei vorsorglich aktiv werden, nicht abwarten, bis Taten geschehen, sondern eigenständig nach Verdachtsmomenten für zukünftig zu erwartende Taten suchen. Das „Wunschmodell einer OK-Polizei“, das aus den Expertengesprächen spricht, stellt sich – nach Pütters Untersuchungen – so dar: „Eine derartige Kriminalstrategie ist begleitet von Vorstellungen über eine veränderte Organisation und ein verändertes Recht für die Polizei. Im Hinblick auf den organisatorischen Aspekt werden Spezialdienststellen gefordert, die dem täterorientierten Ermittlungsansatz folgen. Ebenfalls sei die ‚Schaffung von Auswertungsund Informationsstellen‘ notwendig. Wegen der Gefahr von Indiskretionen müsse der OK-Bereich räumlich von anderen Polizeieinrichtungen getrennt werden. Insgesamt sei die Polizeiorganisation derart zu ändern, dass Dienststellen errichtet bzw. umgegliedert werden, die selbständig und unter völliger Handlungsfreiheit im Rahmen des gesamtpolizeilichen Auftrags im Bereich der OK ermitteln können.‘ Die OK-Bekämpfung brauche neues und reformiertes Recht: Sie verlange eine dem konkreten Verdacht vorgelagerte Zuständigkeit, sie verlange die Legalisierung verdeckter Ermittlungsmethoden und sie verlange Strafarten, die auf die Lebensfähigkeit von Organisationen zielten.“75

Anhand einer Analyse polizeinaher Fachzeitschriften hat Hartmut Aden nachgewiesen, dass die Forderung nach einer polizeilichen „Vorfeld-Ermittlungskompetenz“ sogar bereits auf Forderungen der Polizei aus den frühen 70er Jahre zurückgeht.76 Über institutionelle Einflusswege, die Arbeitstrukturen der Innenministerkonferenz (IMK) und der AG Kripo77, habe diese zentrale Forderung der Polizei in der Folge Eingang in politische Entscheidungsprozesse gefunden und die Gesetzgebung zur effektiven Bekämpfung der „Organisierten Kriminalität“ maßgeblich beeinflusst. Die Argumentation der Polizei liest sich, kurz gefasst, so: Die Verbrechenswirklichkeit habe sich verändert, die Unterscheidung in Repression und Prävention sei überholt. Die Rechtslage sei nicht nur unrealistisch, sondern aus polizeilicher Sicht auch unpraktisch: Die polizeiliche Strafverfolgung dürfe de iure regelmäßig erst dann einsetzen, wenn das Kind bereits in den Brunnen gefallen, also ein Straftatbestand verwirklicht worden sei.78 Beharrlich reklamierten Polizeipraktiker und Sicherheitspolitiker daher die „Verbrechensverhütung im Vorfeld“ neben der Straftatenverfolgung als originäre kriminalpolizeiliche Aufgabe für sich. In der Kriminalistik als Lehre der Verbrechensbekämpfung entwickelte sich etwa um dieselbe Zeit sukzessive das Teilgebiet 74  Pütter,

S. 17–18. S. 14. 76  Aden, S. 538–541. 77  Arbeitsgemeinschaft der Kriminalpolizeien Deutschland (Tagungen der Leiter der Landeskriminalämter unter Vorsitz des Präsidenten des Bundeskriminalamtes). 78  Aden, S. 368. 75  Pütter,



IV. „Im Vorfeld wird zurückgeschossen …“49

„Kriminalstrategie“, das dieser Forderung eine systematische und theoretische Grundlage verschaffte.79 Die allmähliche Transformation zu „OK-Polizei“, eine Art Loslösung vom strafprozessualen Postulat des Anfangsverdachts auf dem Umweg der polizeirechtlichen Gefahrenvorsorge und im Namen einer effektiven Straftatenverhütung, ist im Verlauf der Entwicklung immer wieder von verschiedener Seite kritisch begleitet und kommentiert worden. Bereits sehr früh spricht Dieter Grimm von einer „präventiven Wende“ in der gesamten Staatspraxis.80 Die Ursache für die Strategie der Vorverlagerung sieht er im technischen Fortschritt und den neuen Risiken, die es dadurch zu bewältigen gelte. Da die technischen Gefahrenquellen selber schwer beherrschbar seien, weiche der Staat zunehmend auf Sekundärstrategien aus und versuche die Humanrisiken, die sich aus der Verwendung oder Ablehnung der neuen Techniken ergäben, zu minimieren. Dabei beschränke er sich aber angesichts der potenziellen Schadensdimension nicht mehr auf manifeste Gefahren, sondern erstrecke seine Aufmerksamkeit auch auf sogenannte „dispositionelle Gefahren“. Im Unterschied zu der schon immer geübten Prävention des Ordnungsstaates richte sich die neue Vorsorge aber nicht mehr auf die Verhinderung eines konkret bevorstehenden rechtswidrigen Verhaltens, sondern ziele auf die Früherkennung möglicher Störungsherde und Gefahrenquellen. Der staatliche Informationsbedarf wachse dadurch außerordentlich an, weil die Zahl potenzieller Gefahrenquellen stets ungleich größer sei als die der akuten Gefahren. Die Präven­tion löse sich auf diese Weise aus dem Anwendungskontext des gesetzlich definierten Unrechts und werde zur Vermeidung unerwünschten Verhaltens aller Art eingesetzt. Grimm formuliert weitsichtig: „Der Einzelne kann den Staat nicht mehr durch legales Betragen auf Distanz halten.“81

Die „präventive Wende“ führte in der Folge zur verstärkten Aufnahme abstrakter Gefährdungstatbestände82 in das Strafgesetzbuch. Das Strafrecht wird durch die zunehmende Kriminalisierung deliktischer Vorbereitungshandlungen strukturell zum sog. „Gefährdungstrafrecht“.83 Felix Herzog hat 79  Reez, Norbert: Das Wort „Kriminalstrategie“. Studien zur Geschichte und Karriere eines kriminalistischen Begriffs, Universität Hamburg (unveröffentlichte Diplomarbeit) 1995. 80  Grimm (1990), S. 17. 81  Grimm (1990), S. 17. 82  Sog. „Unternehmensdelikte“ bzw. „Organisationsdelikte“. 83  Jescheck, Hans-Heinrich (Hrsg.), Die Vorverlegung des Strafrechtsschutzes durch Gefährdungs- und Unternehmensdelikte. Referate und Diskussionsberichte der Arbeitssitzung der Fachgruppe für Strafrechtsvergleichung anlässlich der Tagung der Gesellschaft für Rechtsvergleichung am 20. September 1985 in Göttingen, Berlin 1987.

50 Einleitung

hierin Parallelen zur Praxis mittelalterlicher Reichspolizeiordnungen gesehen, mit deren Hilfe der Staat durch umfassende Kriminalisierung die soziale Ordnungskrise in den Griff bekommen wollte. Dies habe aber umgekehrt zu einer Schwächung gesellschaftlicher Selbstregulation geführt.84 Günther Jakobs warnt frühzeitig vor einem, wie er es nennt, „Feindstrafrecht“.85 Durch die grenzenlose Vorverlagerung des Rechtsgutsschutzes im Strafrecht werde der Bürger zum potenziellen „Feind“ des Rechtsguts. Ohne Rücksicht auf „nicht-sozialrelevantes Verhalten“ zeitige dies eine extreme Ausweitung des staatlichen Strafanspruchs. Die Orientierung am „Vorfeld“ und an „frühesten Gefahrenanzeichen“, argumentiert er, führe ins Uferlose, da „materiell ungesichert (sei), was überhaupt Vorfeld ist“.86 Jakobs stellt fest, dass der Stand der Dogmatik zu dieser Frage „überwiegend unbekümmert positivistisch“ sei.87 Überaus besorgt und überhaupt nicht unbekümmert ist angesichts dieser Entwicklung Erhard Blankenburg. Bereits im Jahre 1980 spricht er von einer „Tendenzwende“ in der Kriminalpolitik als Folge des umfassenden Präventionsansatzes. Mit Blick auf die sich verändernde Polizeipraxis in verschiedenen Ländern und den technologischen Fortschritt diagnostiziert er eine veränderte „Sozialpsychologie der Überwachung“ durch einen „umfassenderen, stärker präventiven Kontroll­anspruch“.88 Resigniert stellt er am Ende seiner Untersuchung fest, dass die siebziger Jahre – ähnlich wie die Restauration in Deutschland nach 1850 – als eine Periode des „Ausbaus ideologischer Kontrolle“ gelten müssten – trotz aller Versuche, dies mit Protest und rechtsstaatlichen Mitteln einzudämmen.89 Eckhart Riehle erkennt in der gesamten Entwicklung eine „epochale Wende in der Strafverfolgungspraxis“. Seine zugespitzte Kritik aus dem Jahr 1983 liest sich heute als treffliche Umschreibung der Rechtsproblematik „pro-aktiver“ Verdachtschöpfung: „So stellen sich Präventionisten die gegenwärtig verfügbaren Eingriffsbefugnisse als reaktive dar, gegenüber denen ‚proaktive‘ erforderlich seien. Proaktiv im Gegensatz zu reaktiv heißt hier schlicht, dass es nicht mehr vom Handeln des Individuums abhängt, ob es zum Gegenstand polizeilicher Praxis wird, sondern einzig von polizeilichen Zielvorgaben. Die Grundstruktur solcher Eingriffsbefugnisse 84  Herzog,

S. 74–108. S. 751, 753. – Zur kritischen Diskussion Uwer, Thomas (Hrsg.), Bitte bewahren Sie Ruhe. Leben im Feindrechtsstaat, Berlin 2006; Vormbaum, Thomas (Hrsg.), Kritik des Feindstrafrechts, Berlin 2009; Sack (2007), S. 5–26. 86  Jakobs, S. 751. 87  Jakobs, S. 751. 88  Blankenburg, S. 14–15. 89  Blankenburg, S. 15. 85  Jakobs,



IV. „Im Vorfeld wird zurückgeschossen …“51 ließe sich folgendermaßen formulieren: der Eingriff ist gegenüber Jedermann gestattet, wenn dies aus Gründen der Sicherheit geboten ist. (…) Sollen für solche Aufgaben zugleich spezielle Zuständigkeiten geschaffen werden, dann liefe das auf die Etablierung einer im Vorfeld des Verdachts tätigen Polizei hinaus, also einer Polizei im Vorfeld des Rechts, deren Kontrolltätigkeit auf die Überwachung der Legalität und der Normtreue des Bürgers bezogen wäre. (…) Sicherheit im Bereich der Kriminalitätsbekämpfung wird damit zu einem gewissermaßen zweistufigen Produkt. Rechtsstaatlicher Verbrechensbekämpfung ist – bildhaft gesprochen – eine polizeistaatliche vorgelagert, die freilich zugleich die Kautelen bestimmen könnte, unter denen rechtsstaatliche Verfahrensweisen noch Anwendung finden können.“90

In Bezug auf die explizite Befugnis zur „strategischen Kontrolle“, die dem Bundesnachrichtendienst im Verbrechensbekämpfungsgesetz91 eingeräumt werden soll, spricht Michael Köhler in dieser Phase des erhitzten öffentlichen Meinungsstreits zugespitzt sogar von einem „Verfassungsumsturz auf dem Gebiet des Strafprozess- und Polizeirechts“. Er formuliert: „Nach dem vom Bundestag am 20.5.1994 beschlossenen ,Verbrechensbekämpfungsgesetz‘ soll der Bundesnachrichtendienst die ausgedehnte, justizförmig nicht kontrollierte, nicht dem Legalitätsprinzip verpflichtete Befugnis erhalten, den gesamten internationalen ,nicht leitungsgebundenen‘ Fernmeldeverkehr (einschließlich Inland-Ausland) ohne konkreten Verdacht auf allgemeine Kriminalitätsgefahren (,Vorfeld‘) hin zu überwachen. Dies würde für weiteste Bereiche der Fernkommunikation die Persönlichkeitsgrundrechte unzähliger und unverdächtiger Personen beseitigen, käme zudem einem Verfassungsumsturz auf dem Gebiete des Strafprozess- und Polizeirechts gleich.“92

Aus Sicht der Staatsanwaltschaft beklagt Hans Lilie den faktischen Informationsvorsprung der Polizei gegenüber der Staatsanwaltschaft, der aus der Informationsvorsorge folge. Pointiert spricht er vom „faktischen Auschluss der Staatsanwaltschaft aus dem Ermittlungsverfahren“. Dies gelte insbesondere in Hinsicht auf die Daten, die das „Vorfeld des Verdachts“ beträfen: „Berücksichtigt man, dass die Daten im Vorfeld eines Ermittlungsverfahrens der Verdachtsgewinnung dienen sollen und das folgende Ermittlungsverfahren in der Regel entscheidend beeinflussen, so wird deutlich, welches Ausmaß der faktische Ausschluss der Staatsanwaltschaft aus dem Ermittlungsverfahren angenommen hat. Fahndungs- und Verbrechensbekämpfungsstrategien kann im Vorfeld eines Verdachts nur entwickeln, wer selbst auf die Daten zugreifen kann und so deren Verknüpfungs- und Kombinationspotentiale erkennt. Gegenwärtig kann die Staatsanwaltschaft oft weder die Initiative zur Verdachtsgewinnung ergreifen, noch kann 90  Riehle,

S. 281–282.

91  Bundesministerium

der Justiz (Hrsg.), Gesetz zur Änderung des Strafgesetzbuches, der Strafprozessordnung und anderer Gesetze (Verbrechensbekämpfungsgesetz) – Materialien –, Bonn 1995. 92  Köhler, S. 386–387.

52 Einleitung sie Alternativen zur Fahndungstätigkeit der Polizei erkennen und diese entsprechend anweisen.“93

Aus strafprozessrechtlicher Sicht grundlegend aufgearbeitet hat Edda Wesslau den Komplex der sog. „Vorfeldermittlungen“.94 Sie kommt zum Ergebnis, dass die neue „pro-aktive Polizeiarbeit“ weder der traditionellen polizeilichen Gefahrenabwehr unterfalle, noch durch den Strafverfolgungsauftrag gedeckt sei. Vorfeldermittlungen beträfen vielmehr eine dritte – noch ungeregelte – Dimension der Kriminalitätsbekämpfung, die sich insbesondere verdeckter Methoden bediene. Die Arbeitsweise der Polizei habe sich in den zurückliegenden Jahren deutlich verändert. Sie arbeite zunehmend mit verdeckten Methoden der Kriminalitätsbekämpfung wie V-Leuten und verdeckten Ermittlern. Durch Observation, Polizeiliche Beobachtung, Rasterfahndung und Anlegung umfangreicher Dateien spüre sie bereits im Vorfeld eines konkreten Tatverdachts Anhaltspunkte auf, um auf diese Weise ermittlungsfähige Einzelspuren zu gewinnen.95 Diese neue Form der Polizeiarbeit beschreibt sie als eine Art „operativer Strategie“. Sie spricht auch von „antizipierter Strafverfolgung“: „Die Polizei will nicht mehr bloß auf bereits begangene Straftaten bzw. bereits eingetretene Gefahrenlagen reagieren, sondern bereits im Vorfeld der konkreten Gefahr und des Tatverdachts ‚operativ‘ vorgehen. Mit dieser operativen Strategie soll – so die Konzeption der Polizei – die ‚Kriminalität als solche‘ und nicht mehr bloß der Einzeltäter und die Einzeltat bekämpft werden. Kriminelle Ausgangsund Operationsbasen sollen frühzeitig erkannt und ‚zerschlagen‘ werden. Beim ‚operativen Erfolg‘ sollen somit präventive und repressive Verbrechensbekämpfung ‚auf einer höheren Ebene‘ zusammenfallen.“96

Nach Wesslau bewirkt die Entfaltung der „operativen Strategie“ im Rahmen des neuen Bezugsrahmens der „Pro-aktivität“ die Aufhebung der Schutzfunktion des strafprozessualen Tatverdachts. Der Bürger werde, wie bei einer Massenfahndung, einem „generellen Verdacht“97 unterworfen. Für 93  Lilie, S. 625–643. – Ähnlich Zimmermann, Hans Peter: Freiheit und Gebundenheit der Staatsanwaltschaft bei der Anklagerhebung. Zugleich ein Beitrag zu den historischen und rechtsphilosophischen Grundlagen des reformierten Strafprozesses, Dissertation Universität Hamburg 1988, der die „Inkompatibilität“ der sog. „operativen Verbrechensbekämpfung“ mit dem geltenden Verfahrensrecht vor dem Hintergrund der Motivgeschichte der Strafprozessordnung feststellt und gleichzeitig „fehlende Kontrollmöglichkeiten“ der Staatsanwaltschaft beklagt. 94  Wesslau, Edda: Vorfeldermittlungen. Probleme der Legalisierung „vorbeugender Verbrechensbekämpfung“ aus strafprozessrechtlicher Sicht, Berlin 1989; Hoppe, Corinne: Vorfeldermittlungen im Spannungsverhältnis von Rechtsstaat und der Bekämpfung Organisierter Kriminalität, Frankfurt a. M. 1999; Senge, S. 701–718. 95  Wesslau, S. 338. – Mit empirischen Nachweisen zur amerikanischen Polizeipraxis Marx, Gary T.: Undercover. Police Surveillance in America, Berkeley 1988. 96  Wesslau, S. 338. 97  Wesslau, S. 338.



IV. „Im Vorfeld wird zurückgeschossen …“53

ambivalent und rechtsstaatlich besonders brisant hält sie den „prä-reaktiven“ strategischen Bekämpfungsansatz, da dieser bei genauerer Analyse keinen „präventiven, sondern einen repressiven Charakter“ habe: „Bei genauerer Analyse des operativen Konzepts zeigt sich jedoch, dass es in der Vorfeldarbeit nicht um die Verfolgung präventiver Ziele geht. Prä-reaktive Maßnahmen können nicht mit Prävention im Sinne von Straftatenverhütung gleichgesetzt werden. Die operative Strategie hat vielmehr die Funktion, im Rahmen einer bewussten kriminal- bzw. sicherheitspolitischen Schwerpunktsetzung eine gezielte Verdachtsgewinnung zu betreiben. Mit operativen Methoden kann gezielt nach ‚Risikopersonen‘ gefahndet werden. Die gewonnenen Erkenntnisse sollen es ermöglichen, diese ‚Risikopersonen‘ sodann strafrechtlich zu ‚bekämpfen‘. Die Vorfeldarbeit setzt somit zwar im Vorfeld des Verdachts an, hat jedoch keinen präventiven, sondern einen repressiven Charakter.“98

Die Praxis bleibt auch in den eigenen Reihen der Polizei nicht unumstritten. So kritisiert beispielsweise der Polizeipräsident in Düsseldorf Hans Lisken die Verletzung prozessrechtlicher Grundsätze in der konsequenten Vorfeldorientierung: „Angesichts der Wahrheitsermittlungsfunktion der StPO fragt es sich auch, welche Rolle Ermittlungen im sog. Vorfeld eines konkreten Tatverdachts im Sinne von § 152 II StPO überhaupt spielen können. Der Begriff des ‚Vorfeldes‘ ist nirgends definiert. Er wird im Sprachgebrauch der Praktiker und Politiker bislang dort benutzt, wo es um die Verschaffung von hinreichenden Anhaltspunkten für einen konkreten Verdacht in einem für kriminogen gehaltenen Umfeld geht.“99

Sucht man für die Bundesrepublik Deutschland nach einem signifikanten Datum, einem strategischen „Bruchpunkt“ im Sinne der Diskursarchäologie nach Michel Foucault100, so kann man das Jahr 1994 als Schlüsseldatum der strategischen Neuausrichtung der Kriminalpolitik und Kriminalpraxis bezeichnen: Im Jahre 1994 tritt das sog. „Verbrechensbekämpfungsgesetz“ in Kraft; gleichzeitig verabschiedet die Innenministerkonferenz das Programm „Innere Sicherheit“, das die kriminalstrategischen Forderungen der Polizei zur OK-Bekämpfung politisch manifestiert. Hierin kann man den entscheidenden Durchbruch der Vorfeld- und Vorverlagerungsstrategie in der Kriminalpolitik sehen. Damit hat sich die endgültige Trendwende in der Sicherheitspolitik – trotz teils vehementer Kritik in Wissenschaft und Praxis – im Sinne einer strategischen Sozialkontrolle verfestigt. In den Sicherheitsbehörden hat sich derweil die strategische Neuausrichtung in Richtung auch eine 98  Wesslau,

S. 334. (1994), S. 95–96, 102. – Ähnlich aus rechtsgeschichtlicher Sicht Pauls, Stephan: Begründung und Begrenzung der Polizeipflicht. Zur Entwicklung der Tatbestandsmerkmale ‚Störer‘ und ‚Nichtstörer‘ vornehmlich vor dem Erlass des Preußischen Polizeiverwaltungsgesetzes (1931), Hamburg 2009. 100  Foucault (1994), S. 96. 99  Lisken

54 Einleitung

„pro-aktive“ Bekämpfung der organisierten Kriminalität auf der Grundlage von Vorfeldermittlungen auch organisatorisch und institutionell manifestiert. Besondere Auswertungsdienststellen zur Gewinnung von Verdachtsmomenten im Vorfeld eines Anfangsverdachts werden aufgebaut. Der Bericht zur Inneren Sicherheit in Niedersachsen 2001 zeichnet die Entwicklung hin zur Intelligence-Arbeit nach: „Nachdem 1994 im Programm ‚innere Sicherheit‘ die OK-Bekämpfung erneut als Schwerpunktaufgabe betont und die Bedeutung von Struktur- und Vorfeldermittlungen hervorgehoben worden war, hat die Innenministerkonferenz mit dem Ak­ tionsprogramm zur Bekämpfung der Organisierten Kriminalität vom 06. Juni 1997 eine weitere Intensivierung beschlossen (…) Vor diesem Hintergrund wurden im Rahmen einer Konzeption zur Intensivierung der OK-Bekämpfung bei allen OKDienststellen Auswerte- und Analyseeinheiten eingerichtet und damit materiell und personell die Voraussetzungen zur verstärkten systematischen und fallübergreifenden Analysearbeit geschaffen. Durch diese Intensivierung der IntelligenceArbeit sollen in Niedersachsen auf Basis einer systematischen Verdachtsgewinnung und mittels pro-aktiver analytischer Arbeit die Schwerpunkte in der OK-Bekämpfung selbst gesetzt und nicht ausschließlich durch das Informationsverhalten Dritter fremdgesteuert werden. Durch ein konzeptionell noch zielgerichteres Vorgehen soll Effizienz und Effektivität der OK-Bekämpfung weiter gesteigert werden, um insbesondere Kernstrukturen und hohe Hierarchieebenen Organisierter Kriminalität nachhaltig zerschlagen zu können. Zudem wird die Intelligence-Arbeit die Möglichkeit eröffnen, in der OK-Bekämpfung langfristig nicht mehr nur auf Phänomene zu reagieren, sondern frühzeitig erkennen zu können, wo sich OKrelevante Strukturen entwickeln.“101

V. Von der Prävention zur Vorsorge Nach Auffassung des Soziologen Ulrich Beck ist die „Vorfeld-Orientierung“ im Bereich der Sicherheitsbehörden Teil eines viel größeren, grundlegenden Trends in den Gesellschaften der Spätmoderne. Es handle sich gleichsam um die „Auflösung von Gewissheiten“ im Prozess der Globalisierung. Beck spricht von „(Welt-)Risikogesellschaft“102 und rückt damit die Kategorie des „Risikos“ ins Zentrum der weltweiten gesellschaftstheoretischen Debatte. Vor-Denken, Antizipieren des Kommenden, die gedankliche Vorwegnahme der Zukunft und Vorsorge sind Kernbotschaften dieser Risikodiskurse. Die entscheidende Herausforderung an der Schwelle zum neuen Jahrtausend bestehe im Umgang mit Ungewissheit, so Beck: 101  Niedersächsisches Innenministerium/Niedersächsisches Justizministerium, S. 284–285. 102  Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt a. M. 1986; Beck, Ulrich: Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit, Frankfurt a. M. 2007.



V. Von der Prävention zur Vorsorge55 „Die Kategorie des Risikos eröffnet eine Welt dies- und jenseits der klaren Unterscheidung von Wissen und Nichtwissen, wahr und falsch, gut und böse. Die einzige Wahrheit ist in Hunderte von Relativwahrheiten zersprungen, die sich durch die Nähe zum und Betroffenheit durch das Risiko ergeben. Das bedeutet nicht, das Risiko hebe jede Form des Wissens auf. Es verschmilzt vielmehr im Sinnhorizont der Wahrscheinlichkeit von Wissen und Nichtwissen. In der Kategorie des Risikos drückt sich also der Umgang mit Ungewissheit aus, die heute oft nicht durch ein Mehr an Wissen überwunden werden kann, sondern aus einem Mehr an Wissen hervorgeht.“103

Jenseits der konkreten Gefahren, der bekannten Gefahrenherde, öffne sich so ein weites Feld, das unbestimmte und unendliche Vorfeld potenzieller Sicherheitsrisiken, welches man nach Wahrscheinlichkeitsindikatoren zu berechnen suche. „Risiko“ meint, wie Beck ausführt, so etwas wie die „Antizipation der Katastrophe“.104 Inhaltlich gehe es dabei um die systematische Auseinandersetzung mit der „Möglichkeit des Schadenseintritts“, dem möglichen Amoklauf, der Möglichkeit des terroristischen Anschlags, dem potenziellen Atomunfall und so weiter und so fort. Es gelte, den Schadenseintritt aufgrund der unabsehbaren Folgen für die hochinterdependente Gesellschaft unter allen Umständen zu vermeiden. Präventionsperspektive, Risikowahrnehmung und ein neues antizipatorisches Bewusstsein105, das die Früherkennung von Risiken zur zentralen Aufgabe hat, würden so zu Schlüsselbereichen eines Vorsorgestaates, für den gleichsam ein umfassender „Präventionsimperativ“106 gelte. Staat und Gesellschaft würden dadurch als in hohem Maße „verwundbar“ (engl. vulnerable) begriffen. Vorwarnung, die Entwicklung von Frühwarnsystemen, werde sicherheitspolitisch in allen gesellschaftlichen Bereichen mehr und mehr von der faktischen Notwendigkeit zur verordneten Rechtspflicht. Das „Strategisch-Werden“, ganz allgemein: die Entfaltung strategischen Denkens und Handelns in Staat und Gesellschaft, scheint tatsächlich ein Grundzug des sozialen Wandels am Beginn des 21. Jahrhunderts zu sein. Die weltweite Debatte um nachhaltige Entwicklung (engl. sustainable devel­ opment) und vorausschauendes Regieren (Anticipatory Governance) ist Ausdruck eines solchen neuen antizipativen Bewusstseins.107 Die Diskurse 103  Beck

(2007), S. 22. (2007), S. 29. – Siehe ferner Horn, Eva: Zukunft als Katastrophe, Frankfurt a. M. 2014. 105  Zur Theorie des „antizipatorischen Bewusstseins“ bei Ernst Bloch, siehe Kornbiebel, S.  15 ff. 106  Beck (2010), S. 31. 107  Fuerth/Faber: Anticipatory Governance Practical Upgrades. Equipping the Executive Branch to Cope with Increasing Speed and Complexity of Major Chalen104  Beck

56 Einleitung

um Früherkennung, Risikoanalyse, Prognose, Gefahren- und Risikovorsorge sind Ausdruck einer verallgemeinerten Strategie der „Pro-aktivität“.108 In einem viel weiteren Sinne könnte man von einer Art „Strategifizierung des Staatshandelns“ sprechen, erscheint es doch geradezu als Signum der soziokulturellen Lage am Beginn des 21. Jahrhunderts, sich permanent auf Ungewissheit, überraschende und neue Situationen vorzubereiten. Das Wort „Strategie“ nämlich impliziert, in seiner ursprünglichen Bedeutung, eine Art kreative handlungs- und entscheidungstheoretische Unschärferelation im Sinne eines allgemeinen Orientierunggebens, Richtunganzeigens, Wegweisens und Führens aufgrund ständigen Nachdenkens über das weitere Vorgehen.109 In ihrem Standardwerk zum Krisenmanagement mit dem Titel Managing the Unexpected fordern Karl I. Weick und Kathleen M. Sutcliffe auch tatsächlich eine umfassende „Neuorientierung“. Notwendig sei die „Einübung in den Umgang mit Ungewissheit“.110 Das Denken des Undenkbaren, das Erwarten von Unerwartetem, sei unverzichtbar – so hässlich es auch sei, sich Flugzeuge als „fliegende Bomben“ und Hochhäuser als „vertikale Särge“ vorzustellen.111 Um mit neuen unvorhersehbaren Gefahren, der Kumulation von Risiken, monströser terroristischer Gewaltkriminalität (sog. „Manmade Disasters“)112 und kaum vorstellbaren Domino- und Kaskadeneffekten umzugehen, bedürfe es im Einzelfall neuer Lösungswege und ges, Washington 2012; – Ferner das aktuelle Regierungsprogramm CDU/CSU/SPD (2013), S. 105: „Wir stärken die Kompetenzen und Kapazitäten der strategischen Vorausschau in den Ministerien, um Chancen, Risiken und Gefahren mittel- und langfristiger Entwicklungen besser erkennen zu können.“ 108  Blanke, S. 134–143. – Siehe ferner Luhmann, Niklas: Soziologie des Risikos, Berlin 2003. 109  Oldfather, S. 183–252. – Ferner Dixit/Nalebuff: Thinking strategically. The Competitive Edge in Business, Politics, and Everyday Life, London 1991. 110  Böhle/Busch (Hrsg.): Management von Ungewissheit. Neue Ansätze jenseits von Kontrolle und Ohnmacht, Bielefeld 2011. 111  Mitroff, Ian: Crisis Leadership. Planning for the Unthinkable, Hoboken 2004, S. 101: „As ugly as such thoughts may be, thinking about unthinkable means literally jumping out of the mental blinders and confines that we have placed around our minds. It means seeing tall buildings as ,vertical coffins‘. It means envisioning airplanes as ,flying bombs‘. The issue is not whether we can think the unthinkable. Rather, it is whether we have the courage and the will to do so.“ – Ferner Weick/ Sutcliffe: Managing the Unexpected. Resilient Performance in an Age of Uncertainty. Second Edition, San Francisco 2007. 112  Zum Doppelanschlag vom 22. Juli 2011 im Regierungsviertel von Oslo und auf der Insel Utǿya Emcke in: DIE ZEIT, No. 31 vom 28.07.2011, S. 2: „Die erschütternde Erfahrung von Oslo bietet auch die Chance, manche der Fehler, die nach dem 11. September begangen wurden, nicht zu wiederholen. Die Einschränkungen der Freiheit im Namen der Sicherheit, die Hermeneutik des Verdachts, mit der Religiosität mit Demokratiefeindlichkeit verwechselt wurde – all das sollte nach Oslo nicht noch einmal passieren.“



V. Von der Prävention zur Vorsorge57

kreativer Einfälle. Nach Überzeugung der Autoren seien „Richtlinien für die Orientierung in der Zukunft“ aber nicht innerhalb des Mainstream, sondern abseits zu suchen. Die Recherchen des Journalisten Ulrich Schnabel weisen in eine ähnliche Richtung: Risikoforscher diagnostizierten, schreibt er, zunehmend einen „neuen Typus von Desastern“. Diese gewönnen ihre Wucht aus im Einzelfall höchst unglaublichen, aber dennoch möglichen Kettenreaktionen. In der eng vernetzten Welt ergäben sich daraus postwendend globale Wirkungen. Jede dieser möglichen Krisen stelle eine vorher nie dagewesene Situation dar, für deren Bewältigung es keine Bedienungsanleitung gebe.113 Mit dem französischen Krisenforscher Patrick Lagadec empfiehlt er jene Geisteshaltung, mit der Ferdinand Magellan im Jahre 1519 zur ersten Weltumsegelung der Geschichte aufgebrochen sei: „Es geht nicht mehr darum, sich zu versichern, dass das Meer ruhig bleibt, sondern sich darauf einzustellen, in stürmische, unbekannte Gewässer zu segeln.“114

Mit zunehmender Vorfeldorientierung hat sich so ein tiefgreifender Wandel in der sozialen Kontrollpraxis vollzogen. Jüngster Ausfluss der Vorfeldorientierung ist der explizit auf „Sicherheitsvorsorge“ und „Vorbereitet-Sein“ (engl. „Preparedness“) ausgerichtete Diskurs um strategisches Krisenmanagement.115 Strategisches Denken, Strategieentwicklung und strategische Risikovorsorge wird auf diese Weise zum Credo von Sicherheitseinrichtungen jeglicher Art.116 Die Ereignisse von 9 / 11 haben der Gesamtentwicklung zusätzlichen Schub verliehen und zu einem beträchtlichen Ausbau der technologisch-instrumentellen Vorfeldstrategie zur Gewährleistung objektiver Sicherheit geführt. In der Sicherheitsarchitektur setzt sich dieser Trend fort: Zentrale Analyse- und Strategiestellen fungieren als „Frühwarnsysteme“, neue Netzwerkorganisationen als „Knotenpunkte“ und „Fusion Centers“ innerhalb einer integrierten Informationsarchitektur.117 Diese reagieren 113  Schnabel,

S. 33. S. 34. 115  Zur Frage des „strategischen Krisenmanagements“ Reez (2013), S. 25–39. – Ferner Bundesministerium des Innern (Hrsg.), Schutz Kritischer Infrastrukturen – Risiko- und Krisenmanagement. Leitfaden für Unternehmen und Behörden, 2. Aufl., Berlin 2011 sowie Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (Hrsg.), Nationales Krisenmanagement im Bevölkerungsschutz, Bonn 2008. 116  NATO/OTAN, S. 19–21: „The best way to manage conflicts is to prevent them from happening. NATO will continually monitor and analyse the international environment to anticipate crisis and, where appropriate, take active steps to prevent them from becoming larger conflicts. (…) To be effective across the crisis management spectrum, we will: enhance intelligence sharing within NATO, to better predict when crisis might occur, and how they can best be prevented.“ 117  Kommission „Evaluierung Sicherheitsbehörden“ (Hrsg.), Signale für eine neue Sicherheitsarchitektur. Die Sonderpolizeien des Bundes im föderalen Staat. 114  Schnabel,

58 Einleitung

auf früheste Signale der Abweichung und Störung mithilfe von Trendradars und prognostischen Lagebildern. Damit geht gleichzeitig aber auch ein gewaltiger Abstraktionsschub einher. Die neue Art der Vorfeld-Kontrolle in der Risikogesellschaft zerrt am überkommenen Verständnis von „Verdacht“: In dem Maße, wie es den Sicherheitsbehörden erlaubt ist, „anlasslos“ und „verdachtsunabhängig“ zu kontrollieren, hat sich der Verdacht vom konkreten Tatsachen- und Wirklichkeitsbezug der traditionellen Verdachtsdogmatik gelöst. Dadurch öffnet sich zugleich ein Zwiespalt zwischen dem normativ Geltung beanspruchenden und dem tatsächlich gültigen Interventionszeitpunkt. Die neuen Möglichkeiten der Sicherheitsbehörden zur Fahndung und Ermittlung, umgekehrt die Streubreite sicherheitsbehördlicher Informationseingriffe, die jedermann betreffen, sind ohne Beispiel. An die Stelle des „Anfangsverdachts“ tritt in der Praxis vielfach die Vorverdachts-Annahme, an die Stelle der konkreten Gefahr tritt die Gefahrenprognose, extrapoliert zum Risikoprofil. Schon ist die Rede vom „Neuen Rechtsstaat“, einem präventiv-polizeilich – nicht mehr an „Gefahr“ sondern am „Risiko“ – ausgerichteten „Neuen Polizeirecht“.118 In der Rechtspraxis eröffnen sich hier Abgrenzungsprobleme besonderer Art zwischen der „Gefahrenvorsorge“ und dem „Gefahrenverdacht“ einerseits bzw. der „Strafverfolgungsvorsorge“ und dem „Straftatverdacht“ andererseits.119 Das „Neue Polizeirecht“, das den „Gefahrenverdacht“ kennt, umfasst besondere Vorfeldbefugnisse, die rechtsdogmatisch der („pro-aktiven“) „Gefahrenvorsorge“ zugeordnet sind.120 Neben der traBericht und Empfehlungen der Kommission „Evaluierung Sicherheitsbehörden. Berlin 2010 mit einem Überblick zum Gemeinsamen Terrorismusabwehrzentrum (GTAZ) und dem Gemeinsamen Analyse- und Strategiezentrum Illegale Migration (GASIM)), S. 124–128. 118  Prümm (1997), S. 253–257. 119  Dazu nunmehr der Kommentar zum „Sicherheitsrecht des Bundes“, welches die Autoren als „rechtspolitisch virulente Landschaft“ betrachten, Schenke/Graulich/ Ruthig (Hrsg.), Sicherheitsrecht des Bundes. BPolG, BKAG, BVerfSchG, BNDG, VereinsG, München 2014, S. IX Vorwort. – Bemüht um Transparenz und Konsistenz innerhalb der unübersichtlichen und überbordenden Rechtsmaterie, setzen sich die Autoren naturgemäß primär mit dogmatischen Fragen auseinander. Nicht behandelt werden kriminologische Vorfragen, etwa zum Phänomen „Terrorismus“ und zur Praxis der Verdachtschöpfung und Indikatorbildung im Rahmen der Gefahren- oder Straftatenvorsorge. – Siehe etwa Arzt zu § 29 BPolG, Rdnr. 34: „Festzuhalten bleibt dennoch, dass die Regelung repressiv-polizeilicher Maßnahmen im Polizeirecht systemwidrig ist und der Bundesgesetzgeber hier zu einer umfassenden Regelung der Maßnahmen zur Verfolgungsvorsorge im Rahmen der Strafprozessordnung aufgerufen ist, insbesondere um dem Gebot der Normenklarheit auch im Recht der polizeilichen Datenverarbeitung Geltung zu verschaffen.“ 120  Graulich zu § 1 BPolG, Rdnr. 18: „Zu der Gefahrenabwehr gehört auch die Gefahrenvorsorge, bei der bereits im Vorfeld konkreter Gefahren staatliche Aktivi-



V. Von der Prävention zur Vorsorge59

ditionellen Verdachts-Dogmatik nach den Regeln der Strafprozessordnung ist so eine neue polizeirechtliche Verdachts-Dogmatik entstanden: Neben die herkömmlichen „zureichenden tatsächlichen Anhaltspunkte“ (Anfangsverdacht) ist die Formulierung „Tatsachen, die die Annahme rechtfertigen“ getreten.121 Das Bundeskriminalamt, dem auch die Aufgabe der „Gefahrenvorsorge“ (als Sonderfall der Gefahrenabwehr) im Hinblick auf den internationalen Terrorismus übertragen wurde (vgl. § 4a BKAG)122, kann so künftig auch ohne Beteiligung der Staatsanwaltschaft „im Vorfeld“ von anzunehmenden Straftaten tätig werden.123 Rasant beschleunigt hat sich damit der kriminal- und polizeipolitische Kurs in Richtung auf einen Staat, den man in Abänderung zum geläufigen Begriff des „Präventions-Staats“124, den Erhard Denninger geprägt hat, einen „vorsorgenden Proaktivitäts-Staat“ nennen könnte.125 Leitbild des Staates ist damit nicht mehr die (traditionelle) „Prävention“, sondern die weit vorausliegende „Vorsorge“. Der bekannte Gedanke der Prävention wird hier verknüpft mit der neuen Idee des „pro-aktiven“ (engl. „proactive“; „preemptive“) Vorsorgens. Es ist dies eine vorverlagerte Prävention, eine Strategie des ex ante. Taktgeber der tiefgreifenden Transformation ist die rasante IT-technische Entwicklung. Das Rechtssystem, ausgerichtet am neuen „Vorsorgeprinzip“, scheint überfordert – unfähig einerseits, den wachsenden Regulierungsanforderungen und den selbst gesetzten rechtsstaatlichen Standards zu entsprechen, andererseits die Risiken der technischen Welt und die neuen Bedrohungen, etwa durch den internationalen Terrorismus, nachhaltig zu beseitigen. Die Forschungsergebnisse des französischen Rechtssoziologen François Ewald stützen diese Überlegungen. Ewald beschreibt die allmähliche Herausbildung eines „Vorsorgestaates“ im 20. Jahrhundert. Er unterscheidet in historischer Perspektive verschiedene Stufen der gesellschaftlichen Gefahtäten entfaltet werden, um deren Entstehung zu verhindern bzw. eine wirksame Bekämpfung sich später realisierender, momentan aber noch nicht konkret drohender Gefahren zu ermöglichen. Die Gefahrenvorsorge umfasst auch die noch nicht konkret drohenden Straftaten.“ 121  Arzt zu § 31 BPolG, Rdnr. 1: „Es handelt sich um ein klassisches Vorfeldinstrument (…) Ziel soll die Erstellung von Bewegungs- und Kontaktprofilen der betroffenen Person zu Zwecken der Verhütung von Straftaten sein.“ 122  Gesetz zur Abwehr von Gefahren des internationalen Terrorismus durch das Bundeskriminalamt/BKATerrAbwG vom 25.12.2008 (BGBl. I 2008, S. 3088). 123  Graulich zu § 4a BKAG, Rdnr. 2: „Soweit und solange das BKA gegen Erscheinungsformen des internationalen Terrorismus operiert und sein Vorgehen als Gefahrenabwehr i. S. v. § 4a BKAG begreift, verfährt es hingegen unabhängig von StA oder GBA.“ 124  Denninger (1990), S. 33–49. 125  Erhard Denninger selbst schlägt vor, von „Prävention II“ zu sprechen; sie sei die eigentliche Domäne des Präventionsstaates, siehe Denninger (2008), S. 95.

60 Einleitung

renwahrnehmung. Diese reiche von der „Vorsicht“ (engl. „Providence“) über die „Prävention“ (engl. Prevention) bis hin zur „Vorsorge“ (engl. „Precaution“). Nach Ewald ist in der Vergangenheit das Zuvorkommen, die Prävention, gegenüber einer spezifischen drohenden Gefahr das zentrale Anliegen von Staat und Gesellschaft gewesen. Heute nun sehe man sich unsichtbaren und unabsehbaren Risiken gegenüber. Für Staat und Gesellschaft stünde heute daher der „Umgang mit Ungewissheit“ im Vordergrund. Die besondere Herausforderung bestehe darin, dass für den Umgang mit unspezifischen Risiken keine konkreten Anhaltspunkte in zeitlicher und räumlicher Hinsicht existierten. Ziel sei es nun, von einer vorverlagerten strategischen Warte aus Risiken „pro-aktiv“ einzuschätzen, sich aktiv „im Vorfeld“ auf die ungewisse Zukunft vorzubereiten (sog. Preparedness), also bereits frühzeitig mögliche Maßnahmen der „Vorsorge“ einzuleiten.126 Das ist ein qualitativer Sprung, dem in semantischer Hinsicht die Kluft zwischen „Gefahr“ (bzw. Gefahrenabwehr) einerseits und „Risiko“ (bzw. Risikovorsorge) andererseits entspricht. François Ewald sieht in der Orientierung am „Vorsorgeprinzip“ (engl. Precautionary Principle) einen völlig neuen Ra­ tionalitätstypus.127 Die Vorherrschaft des allgegenwärtigen Vorsorgeprinzips verordne der Menschheit gewissermaßen einen neuen Level der Abstraktion, um das gesellschaftliche Ziel der Sicherheit erreichen zu können.128 Mit der Umstellung auf die Kategorie des „Risikos“129 sei allerdings, unterstreicht Ewald, ein enormer Zuwachs an Abstraktion und gleichzeitiger Verlust von Orientierung verbunden. „Risiko“ betrachtet er als eine „philosophische Kategorie (…) von universeller Kompetenz“.130 Aus seiner Sicht handelt es sich beim von ihm so bezeichneten „Vorsorgestaat“ aufgrund des grundverschiedenen Rationalitätstypus im Vergleich zum liberalen Staat um eine „völlig neue politische Figur“. Deren spezifische Handlungslogik und inhärente Gefahren für die Freiheit gelte es zu verstehen. Sehr plastisch benennt Ewald das, worum es sich in rechtstheoretischer Hinsicht handelt, so: „Die gesamte juristische Landschaft wurde sozusagen einer geologischen Faltung der Rationalität unterworfen.“131

Heute, mehr als zwei Jahrzehnte nach der „pro-aktiven Wende“ im Sicherheitsbereich, häufen sich die kritischen Stimmen. Im öffentlichen Meidazu die ausgezeichnete Analyse bei Anderson, Ben, S. 777–798. (2002), S. 273–301. 128  Ewald (2002), S. 297–298: „Precaution condemns neither providence nor prevention. It only introduces another level of preoccupation in the conduct of humans in certain situations of uncertainty.“ 129  Bechmann, S. 212–240. 130  Ewald (1986), S. 483. 131  Ewald (1986), S. 11. 126  Siehe

127  Ewald



V. Von der Prävention zur Vorsorge61

nungsstreit wird der Ton schärfer. Wissenschaft und Lehre verfolgen die Entwicklung mit wachsendem Unbehagen. Nach Wolfgang Sofsky ergeben sich durch die Umstellung von der Gefahrenabwehr auf Gefahren- bzw. Risikovorsorge neue Risiken und Gefahren für das Rechtssystem. Unter der Überschrift „Gefahren der Vorsorge“ hält er fest: „In der Regel ist der Notstand befristet und räumlich begrenzt. Er dauert so lange, bis der Sturm vorüber, die Gefahr gebannt und die Toten begraben sind. Dies ändert sich, sobald das Prinzip der Prävention die Oberhand gewinnt. Riskanter als die zeitweilige Freiheitsbeschränkung ist eine langfristige Politik der Vorsorge. Sie schreitet nicht erst ein, wenn der Terror zuschlägt oder unmittelbar bevorsteht, sondern wenn er für möglich gehalten wird. Um von vornherein jeden Notfall zu verhindern, werden die Freiheiten eingeschränkt, bevor sie bedroht sind.“132

Das „Prinzip der Vorsorge“ habe eine „Daseinsfürsorge“ zum Ziel. Leitprinzip heutiger Ordnungspolitik sei daher nicht mehr die Abwehr von Freiheitsgefahren, wie dies noch im liberalen Bürgerstaat der Fall gewesen sei, sondern der umfassende Schutz gegen wahrscheinliche Risiken.133 Die Vorverlagerung der staatlichen Sozialkontrolle, zugleich verbunden mit einer massiven Ausweitung staatlicher informationeller Eingriffe, führt nach Thomas Singelnstein und Peer Stolle unmittelbar hinein in eine „Sicherheitsgesellschaft“. Die neue Form der Sozialkontrolle habe einen grundlegenden Wechsel „von der tatsächlichen Bedrohung zu einer abstrakten statistischen Bedrohungsannahme“ zu Folge. Nicht das einzelne Individuum werde mehr als Problem angesehen, sondern „Strukturen, Lagen oder Zugehörigkeiten zu einer bestimmten Risikogruppe“.134 Dadurch würden konkrete soziale Konflikte in einen kalkulierbaren, technisch zu regulierenden Sachverhalt überführt. Für eine bestimmte Population ergebe sich anhand der festgestellten und errechneten Wahrscheinlichkeit eine gewisse Häufigkeit des tatsächlichen Schadenseintritts (Risiko). Ziel sei es nicht mehr, den Menschen, sondern solche Strukturen, Tatgelegenheitsstrukturen und kriminogene Situationen zu ändern, die Gelegenheit zur Delinquenz böten. Exemplarisch für die neue Vorfeldstrategie seien Formen der Generalüberwachung, die jedermann beträfen, z. B. der Einsatz von Überwachungskameras im öffentlichen Raum, verdachts- und anlasslose Kontrollen an Bahnhöfen und Grenzen, die Vorratsdatenspeicherung im Telekommunikationsverkehr oder die Nutzung biometrischer Daten und RFID-Chips in Ausweisen. Polizeiliches Handeln sei damit nicht mehr an einen konkreten Lebenssachverhalt gebunden, sondern die Polizei könne anlassunabhängig in Grundrechte 132  Sofsky,

S. 154. S. 94–95. 134  Singelnstein/Stolle: Die Sicherheitsgesellschaft. Soziale Kontrolle im 21. Jahrhundert, 2. Aufl., Wiesbaden 2008. 133  Sofsky,

62 Einleitung

der Bürger eingreifen, um Anhaltspunkte für konkrete Anlässe zu ermitteln. Auf diese Weise werde die gesamte Gesellschaft zum Gegenstand polizeilicher Erfassung. Strafverfolgung, Gefahrenabwehr und „Neue Prävention“ vermischten sich zu einem Konzept operativer Polizeitätigkeit, das rechtlich immer weniger eingrenzbar sei.135 Der Kriminologe Karl-Ludwig Kunz sieht die westlichen fortgeschrittenen Industriestaaten gesellschaftspolitisch ebenfalls auf dem Weg zu einer „von Verwundbarkeitsgefühlen geprägten Sicherheitsgesellschaft“.136 Grundlegend dafür sei die Umorientierung der sozialen Kontrollpraktiken, der Übergang von der Gefahr zum Risiko. Die neue Kriminalpolitik folge gleichsam einer „Versicherungslogik gegen Kriminalität“: Das staatliche und gesellschaftliche Risikomanagement verwende die bei Versicherungen übliche Strategie der Definition von Risiken, der statistischen Bestimmung ihrer Schadensgeneigtheit und der prävenierenden Vorkehrung gegen Schadensfolgen. So würden soziale Räume und Rechtsbrecher eingestuft nach einer an Gefährlichkeitsindikatoren profilierten Skala von Hochrisikogebieten bis zu Niedrigrisikogebieten bzw. vom High Risk Offender bis zum Low Risk Offender. Aus dem Verständnis von Kriminalität als Risiko folge ein spezifischer Bearbeitungsmodus, der nicht mehr auf die Repression des Phänomens ziele, sondern auf das Identifizieren, Klassifizieren und Kontrollieren von Risiken.137 Unter dem Aspekt des Grundrechtsschutzes schätzen auch Justizvertreter den gegenwärtigen Rechtszustand, insbesondere die Verdachtschöpfung im Vorfeld und den immer weiter voranschreitenden Vorfeldkriminalisierung inzwischen als prekär ein. Wolfgang Hoffmann-Riem, Richter am Bundesverfassungsgericht, stellt fest, dass das überkommene rechtsstaatliche Instrumentarium gegenüber einer informationellen Verdachtschöpfung im Verdachtsvorfeld zu kurz greife. Insbesondere bei der Rasterfahndung, die als Fahndungsmaßnahme im Gefolge der RAF-Bedrohung eingeführt worden sei, sei die zu bekämpfende Gefahr jedenfalls prinzipiell bekannt. Ganz anders verhalte es sich aber bei einer Risikosuche weit im Vorfeld eines konkreten Verdachts. Es gehe auch bei Informationseingriffen im Verdachtsvorfeld in Wahrheit nicht um Risikoabwehrmaßnahmen, sondern um Eingriffe zur Verdachtsgewinnung. Die Rasterfahndung sei zum Auffinden von sog. „Schläfern“ ungeeignet, da konkrete Anhaltspunkte der Gefährlichkeit fehlten. Demgegenüber richte sich die Fahndung nach „Schläfern“ gegen Personen, deren Existenz man nur vermute.138 Hoffmann-Riem lässt keinen 135  Singelnstein/Stolle,

S. 63–64. Karl-Ludwig (2004), S. V (Vorwort). 137  Kunz, Karl-Ludwig (2004) S. 364 f. 138  Hoffmann-Riem (2002), S. 499–500. 136  Kunz,



V. Von der Prävention zur Vorsorge63

Zweifel daran, dass eine derartige Strategie die herkömmlichen Grenzen und Beschränkungen der Polizeiarbeit auflöst. Nüchtern stellt er fest: „Die Verlagerung der Suche in das Vorfeld des Verdachts und damit in das VorVorfeld der Gefahr bedeutet eine Abkehr von der im traditionellen Polizeirecht gefundenen und an den rechtsstaatlichen Konturen des Übermaßverbots verankerten Balance von Sicherheit und Freiheit.“139

Der Vorsitzende Richter am Bundesgerichtshof Jörg-Peter Becker weist darauf hin, dass das am 31. Juli 2009 in Kraft getretene Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttaten (GVVG)140 nunmehr bereits im Namen explizit Vorbereitungshandlungen pönalisiere. Nach der überkommenen Systematik seien diese im Regelfall straflos. Nach dem neuen Gesetz würden nun etwa die Schulung in einem Terrorcamp oder das Durchlaufen einer Pilotenausbildung unter Strafe gestellt, sofern dies der Begehung einer schweren staatsgefährdenden Gewalttat diene. Gleiches gelte für das Sichverschaffen, Überlassen und Verwahren von Tatmitteln sowie Handlungen, die zur Finanzierung einer solchen Gewalttat bestimmt seien. Hierin sieht er eine problematische Ausdehnung des staatlichen Strafanspruchs: „Durch diese Vorfeldkriminalisierung befasst sich die Strafverfolgung zunehmend mit Sachverhalten, die traditionell dem Gebiet der Gefahrenabwehr zuzurechnen sind. (…) Die zunehmende Vorfeldkriminalisierung führt an Grenzen der Legitimität staatlichen Strafens.“141

Aufgrund der Komplexität der angesprochenen Fragen ist der fachliche Diskurs weit verzweigt. Die Kritik, die aus den verschiedensten Blickrichtungen vorgetragen wird, lässt sich grob wie folgt zusammenfassen: Der Übergang vom reaktiven zum „pro-aktiven“ Modus des Polizeihandelns sei Symptom einer grundlegenden Transformation staatlicher Sozialkontrolle. Die Vorfeldorientierung zehre an den normativen Errungenschaften des Rechtsstaates. Das Risiko der Erodierung von Grundsätzen des liberalen Rechtsstaates, d. h. der Rezession des freiheitlichen Wertesystems, durch die Verabschiedung immer repressiverer Gesetze als Antwort auf die aktuelle terroristische Bedrohung sei real. Schnell sei im Zuge systematischer polizeilicher „Verdachtschöpfung“ die Grenze zum Generalverdacht, zur Verdächtigung aller, zu „Ermittlungen ins Blaue hinein“ überschritten. Kriminalpolitik gerate auf diese Weise zur gefährlichen Irrfahrt zwischen Scylla und Charybdis. Vielen erscheint die rechtliche und tatsächliche Situation verwirrend und unübersichtlich. Michael Soiné spricht schon früh expressis verbis von einer 139  Hoffmann-Riem

(2002), S. 500. vom 31. Juli 2009 BGBl. I 2009, 2437. 141  Becker (2010), S. 568. 140  GVVG

64 Einleitung

„ziemlich verworrenen Situation“. Unter „proaktiven Strategien“ fasse man in der Praxis zwar polizeiliche „Initiativermittlungen“ zusammen, die meist auf sogenannte Intelligence-Projekte oder zentrale Auswertung zurückgingen. Diese umfassten neben „Vor- und Strukturermittlungen“ zu Organisationen oder Personen auch „Kontakt- und Bewegungsbilder“ und ermöglichten regelmäßig das Feststellen von (zureichenden tatsächlichen) Anhaltspunkten für das Vorliegen einer strafbaren Handlung. Zweifelhaft aber sei, ob das von den verfügbaren Rechtsgrundlagen abgedeckt sei: „Proaktive Strategien zur Bekämpfung krimineller Strukturen leben davon, dass die Gesamtheit aller verfügbaren Informationen zeitnah und vollständig für eine fallübergreifende Auswertung herangezogen wird. Ob für eine derartige Intelligence-Arbeit das rechtliche Instrumentarium zur Verfügung steht, kann angesichts der ziemlich verworrenen Situation und der entsprechend kontrovers geführten Diskussion durchaus zweifelhaft sein.“142

In seiner breit angelegten Untersuchung zum Gesamtkomplex der informationellen Vorfeldarbeit räumt Mark Alexander Zöller ein, dass es selbst für Experten schwer ist, den Überblick zu behalten. Die Praxis sei „vielgestaltig“. In der IT-Technologie sieht er den Dreh- und Angelpunkt für die Umsetzung der Vorverlagerungsstrategie und zugleich den Ansatzpunkt für notwendige Klärungen in dem gesamten Aufgabenfeld. Plastisch formuliert er: „Moderne Kriminalitätsbekämpfung ist folglich durch eine ‚Doppelstrategie‘ gekennzeichnet, die sich bei vereinfachter Sichtweise mit der Formel ‚Kriminalitätsbekämpfung = Informationstechnologie + Vorfeldmaßnahmen‘ umschreiben lässt. Obwohl diese Kurzbeschreibung vergleichsweise einfach klingt, sind ihre Ausprägungen in der Praxis vielgestaltig und mittlerweile in ihrer Gesamtheit selbst für den Experten kaum noch zu überblicken. Hier ist die Rede von ‚Vorfeldermittlungen‘, ‚vorbeugender Verbrechensbekämpfung‘, ‚Verhütung von Straftaten‘, ‚Vorsorge für die künftige Strafverfolgung‘, ‚Vorbereitung auf die Gefahrenabwehr‘, ‚Schleierfahndung‘ oder ‚strategischer Kontrolle‘, um nur einige der aktuellen Schlagworte für neue Aufgabenkategorien zu nennen.“143

Kritisch merkt Nicole Castillon in einer materialreichen Untersuchung zur Figur der „verdachts- und anlassunabhängigen Polizeikontrollen“ an: „Schlagwortartig werden die neuen Befugnisse in nahezu jeder Auseinandersetzung mit dem Begriff der ‚Schleierfahndung‘ verbunden. Dieser Begriff ist jedoch kein terminus technicus, sondern nur eine bildhafte Umschreibung der neuen Kontrollformen. (…) Teilweise wird auch von ‚lage(bild)abhängigen Kontrollen‘ gesprochen. In aller Regel ist jedoch von verdachts- und anlassunabhängigen Polizeikontrollen die Rede.“144 142  Soiné

(1997), S. 252. (2002), S. 1–2. 144  Castillon, S. 2, 211–212. 143  Zöller



V. Von der Prävention zur Vorsorge65

Sie ist der Auffassung, dass die Befugnisse zu verdachts- und anlassunabhängigen Polizeikontrollen gegen das Grundrecht auf informationelle Selbstbestimmung verstoßen. Keines der von ihr untersuchten Modelle genüge den Anforderungen des Bestimmtheitsgrundsatzes. Soweit die Befugnisse zur Identitätsfeststellung Folgemaßnahmen zuließen, genügten sie nur dann den Anforderungen des Bestimmtheitsgrundsatzes, soweit für diese weitere Eingriffsschwellen vorgesehen seien. Christoph Gusy spricht in seiner Analyse der neuen Sicherheitsgesetzgebung von einer kaum mehr zu überblickenden „Flut von Gesetzen präventiven Inhalts“.145 Der Akzent der Anti-Terror-Gesetzgebung liege auf der Gewinnung von Vorfelderkenntnissen durch die Sicherheitsbehörden. Ziel sei es vor allem, „Verdachtsgewinnungseingriffe“ bzw. „Anhaltspunktsgewinnungseingriffe“ zu ermöglichen.146 Zum Rechtsrahmen grenzüberschreitender Polizeiarbeit weist Manfred Baldus darauf hin, dass im grenzüberschreitenden Polizeirecht verschiedene Rechtsordnungen ineinander verwoben seien. Dieses grenzüberschreitende Recht sei außerordentlich facettenreich und daher nur unzureichend mit Umschreibungen wie „Internationales Polizeirecht“ oder „Internationales Verwaltungsrechts“ bezeichnet, da es sich darin nicht erschöpfe. Stattdessen solle man besser von „Transnationalem Polizeirecht“ sprechen. Diese Bezeichnung bringe die für das grenzüberschreitende Polizeirecht charakteristische Verflochtenheit verschiedener Rechtsordnungen zum Ausdruck.147 Vor diesem Hintergrund hat Inti Schubert kritisch die Praxis der „Kriminalanalyse“ durch Europol auf der Grundlage transnationaler Datenströme in Europa analysiert. Er kommt zum Ergebnis, dass die transnationale polizeiliche „Risikovorsorge“ sehr viel stärker verrechtlicht und rechtsstaatlich neu konzipiert werden müsse.148 Dazu müsse die Polizei „entnachrichtendienstlicht“ werden. An die Stelle des geheimen „Intelligence Policing“ müsse ein Verfahren treten, das die relevanten Indikatoren für die Konstitution eines „virtuellen Verdachts“ offen legten. Es gelte, das Recht auf informationelle Selbstbestimmung, das als Schlüsselgrundrecht angesichts der Gefahren der neuen Informations- und Kommunikationstechnologien entwickelt worden sei, angemessen zu schützen. Die Hinwendung zu statistischen Korrelationen und die Abkehr vom Kausalprinzip bei der Verdachtskonst145  Gusy (2007), S. 273–294. – Einen Überblick geben Deutscher Bundestag – Wissenschaftliche Dienste Nr. 63/07 vom 12.  Dezember 2007). – Ferner Knelangen, S. 183–197. 146  Gusy (2007), S. 276–277. 147  Baldus (2000), S. 359. – Siehe ferner Baldus (2008), S. 107–119. 148  Schubert, S. 233.

66 Einleitung

ruktion im Risikorecht berge die ernst zu nehmende Gefahr des Verfalls der Rechtssicherheit. Wenn die Voraussetzungen eines staatlichen Eingriffs von der handelnden Behörde selbst festgelegt werden könnten, sei der Schritt zur Willkür nicht weit. Schubert fordert mit Nachdruck die „Risiken des Risikorechts“ selbst in Betracht zu ziehen und Abschied zu nehmen vom „Paradigma der Sicherheit“. Für die notwendige Verrechtlichung hält er den Begriff des „Virtualität“149 für hilfreich. Soweit an Vorsorgekompetenzen festgehalten werde, müssten klare und bestimmte Tatbestandsvoraussetzungen geschaffen und die Betroffenenrechte ausgebaut werden. Als tatbestandliche Merkmale einer Eingriffsnorm im Vorsorgebereich kämen grundsätzlich „kriminalistische Indikatoren“ in Betracht, die tatsächlich auf eine künftige Straftatenbegehung schließen ließen. Auf diese Weise könne ein normativer Kausalnexus, wenn auch in die Zukunft gerichtet, hergestellt werden. Die Entscheidung aber, bestimmte Umstände oder Verhaltensformen, die zum Zeitpunkt ihrer Wahrnehmung nicht erkennbar schädlich oder gefährlich seien, zu sanktionieren, sei ein schwerer Eingriff in die Grundrechte. Die Bestimmung derartiger „Indikatoren“ dürfe daher nicht, wie bei Europol, geheim, sondern nur auf parlamentarischem Wege und damit transparent erfolgen. Welche spezifischen Indikatoren dabei konkret in Betracht kämen, sei vorrangig eine kriminologische Frage und bedürfe weiterer Nachforschung.150 Nach Jens Puschke, der die Gefahr von Eingriffen in den Menschenwürdegehalt von Grundrechten unter dem Aspekt der kumulativen Nutzung von Überwachungsregelungen untersucht hat, ist ein grundsätzliches Umdenken notwendig: Die immer stärkere Forcierung der Überwachung könne in einem Rechtsstaat sowohl unter dem Gesichtspunkt der individuellen Rechte Betroffener als auch der strukturellen Auswirkungen einer solchen rechtlichen und rechtstatsächlichen Entwicklung nicht hingenommen werden.151 Er weist darauf hin, dass sich in der mehr als 125-jährigen Geschichte der Strafprozessordnung besonders für das letzte Drittel eine intensive Konzentration auf die Erweiterung von Befugnissen zur Erlangung von personenbezogenen Informationen im Strafprozess konstatieren lasse. Von „Totalausforschung“ bzw. „Kernbereichsverletzung“ könne heute schon dann gesprochen werden, wenn durch einzelne Informationsermittlungsvorgänge Daten erlangt würden, die aufgrund der besonderen Lebenssituation trotz ihres begrenzten Umfangs ein Abbild der gesamten Lebensführung darstellten. Gerade eine Gesamtschau unter Einbeziehung aller Maßnahmen und insbesondere auch der sich daraus ergebenden Verknüpfungsmöglichkeiten sei erforderlich, um das Vor149  Schubert,

S. 23. S. 233. 151  Puschke, S. 193. 150  Schubert,



V. Von der Prävention zur Vorsorge67

liegen einer „Totalausforschung“ bestimmen zu können. Die Kumulation gleichartiger Maßnahmen führe aber nach Art und Umfang der erlangten Daten beim Stand der heutigen Technik zu einem „qualitativen Sprung der Eingriffsintensität“ (z. B. GPS-Empfänger am PKW des Betroffenen; Nutzung Mobiltelefon als Peilsender; akustische Überwachung der Telekommunikation in und außerhalb von Wohnungen; Nutzung sog. IMSI-Catcher152 zur Vorbereitung einer Überwachung der Telekommuni­kation).153 Für besonders prekär hält Jürgen Vahle die staatliche Informa­tionsvorsorge, da die Informationserhebung weitestgehend abgeschottet ablaufe. Er stellt fest, dass hier „das Fehlen einer Dogmatik heimlicher Eingriffe schmerzlich spürbar werde.“154 Walter Leisner beklagt den Rückzug der Polizei aus der Öffentlichkeit und sieht darin eine Art „Verunsichtbarmachung der Staatsgewalt“ und „Kryptogewalt“. Tiefgreifende Wandlungen hätten sich im Polizeirecht vollzogen, mehr noch in der kriminalistischen Wirklichkeit. In der technisch perfektionierten Beobachtung sieht er Vorstufen der Verunsichtbarmachung.155 Nach Jürgen Wolter besteht „heute zumindest das Potenzial zur Totalüberwachung und dann auch zur Schaffung umfassender Persönlichkeits­ bilder“.156 Die Strafprozessordnung und die Polizeigesetze, formuliert Wolter, sähen „geradezu flächendeckend“ weitreichende Eingriffsgrundlagen gegenüber Verdächtigen und vor allem auch „Nichtverdächtigen“ vor. Empfindliche Eingriffe in die Grundrechte von Nichtverdächtigen seien bei einzelnen Befugnisregelungen zwar nicht das Ziel, aber die in Kauf genommene Hauptkonsequenz. Zwar sei festzustellen, dass die Sicherheits- und Strafverfolgungsbehörden ihre Befugnisse und faktischen Möglichkeiten nicht eigentlich missbrauchten und die Gerichte zusammen mit der Wissenschaft strikt am Verbot der Totalausforschung festhielten, unter veränderten politischen Vorzeichen sei das Missbrauchsrisiko aber durchaus real.157 Die Gesamtentwicklung intensiv beobachtet und detailliert beschrieben hat auch Ulrich Sieber, Direktor des Max-Planck-Instituts für Ausländisches 152  Das technische Mittel des IMSI-Catchers (§ 100i I Nr. 2 StPO) funktioniert so, dass mit Hilfe einer simulierten und verkleinerten Funkzelle, dem IMSI-Catcher (engl. International Mobile Subscriber Identity) alle aktiv (oder Stand-by) geschalteten Mobilfunkendgeräte in einer Funkzelle ca. 5–10 Minuten außer Kommunikationsbetrieb gesetzt werden, um den Standort eines gesuchten Mobilfunkgerätes zu ermitteln. Alle Personen, die sich zufällig in der Funkzelle befinden, merken von der Überwachungsmaßnahme außer dem zeitweiligen Ausfall ihres Mobiltelefons nichts. 153  Puschke, S. 96. 154  Vahle (2006), S. 641–646. – Ferner Gärditz, S. 7. 155  Leisner (1994), S. 215–218. 156  Wolter (2004), S. 734–735. 157  Wolter (2004), S. 745.

68 Einleitung

und Internationales Strafrecht in Freiburg. Angesichts der realen Entwicklung transnationaler Kriminalität in der plakativ so bezeichneten „Weltrisikogesellschaft“ konvergierten bisher konkurrierende Rechtsgebiete (Polizeirecht, Recht der Geheimdienste, Kriegsrecht) in einem neuen „Sicherheitsrecht“. An die Stelle des individualisierten Tatverdachts sei in der Praxis der Sicherheitsbehörden eine Art „abstraktes Sicherheitsrisiko“ getreten. Sieber formuliert: „Das Verschwimmen von innerer und äußerer Sicherheit sowie von Verbrechen und Krieg stellt damit zusammen mit dem zunehmenden Bedürfnis nach Gefahrenabwehr und Prävention die bestehenden Rechtssysteme vor neue kategoriale Herausforderungen, bei denen die klassischen Rechtsgebiete des Strafrechts, des Polizeirechts und in einzelnen Staaten auch des Kriegsrechts ein neues ‚Sicherheitsrecht‘ schaffen. (…) Die gesteigerten Risiken sowie die Aufklärungs- und Nachweisschwierigkeiten der neuen komplexen Kriminalität haben jedoch vor allem Folgen für das Prozessrecht. Hier finden sich zunächst verstärkt auch präventiv wirkende Maßnahmen im Vorfeld des Tatverdachts, insbesondere heimliche informationstechnische Eingriffs- und Überwachungsmaßnahmen, die Gespräche, Telefonate, Computerdaten, Aufenthaltsorte und Konten der Bürger ermitteln und zahlreiche über sich gespeicherte Daten zusammenführen. Aus diesen Eingriffsmaßnahmen können sich in der Zukunft auf der Grundlage von Risikoprofilen neue globale Systeme der Überwachung von ‚verdächtigen‘ oder ‚gefährlichen‘ Personen entwickeln. Damit verstärkt sich die Tendenz zu einem unmittelbaren präventiven Einsatz des Strafrechts, die bereits zuvor in präventiven Haftgründen sowie dem Ausbau des Maßregelrechts und insbesondere der Sicherungsverwahrung deutlich wurde.“158

Unter Rechtsschutzaspekten bewertet Sieber die Rechtsentwicklung sehr kritisch: Die für das kontinentaleuropäische Strafrecht zentrale Unterscheidung von strafrechtlicher Reaktion und polizeilicher Gefahrenabwehr werde relativiert. Die Orientierung an einer weit verstandenen Prävention habe dabei zur Folge, dass neue Eingriffsmaßnahmen gegen den Terrorismus nicht mehr nur im Strafprozessrecht geregelt würden, sondern insbesondere auch im Polizeirecht und im Recht der Geheimdienste. Durch die Auflösung politischer und rechtlicher Unterscheidungen (Innerer und Äußerer Sicherheit, Verbrechen und Krieg, Prävention und Repression, Polizei und Geheimdienste) entstehe die Gefahr, dass durch die Aufgabenverschiebung in andere Regelungsgebiete außerhalb des Strafrechts (Polizeirecht, Geheimdienstrecht, Ausländerrecht und Kriegsrecht) kein dem Strafrecht vergleichbares Schutzniveau für Betroffene garantiert werde.159 Erhard Denninger hat sich eingehend mit den grundverschiedenen „Funktionslogiken“ des liberalen Rechtsstaates und des von ihm so genannten 158  Sieber 159  Sieber

(2007), S. 23, 28. (2007), S. 33, 35.



V. Von der Prävention zur Vorsorge69

„Präventionsstaates“ beschäftigt.160 Der Verlust rechtsstaatlicher Grundsätze sei deshalb ernsthaft zu besorgen, da die Logik der Prävention, die „Funktionslogik des Präventionsstaates“, und der damit einhergehende unstillbare „Informationshunger des Staates“ mit der Logik des Rechtsstaates nicht kompatibel seien.161 Die „Logik des Präventionsstaates“ warte nicht ab, bis ein konkreter Schaden wahrscheinlich oder „Anzeichen für eine geschehene Straftat“ sichtbar würden; sie wolle der Realisierung von allen Risiken zuvorkommen, sie ziele auf Aktion nicht auf bloße Reaktion, sie fordere „proaktives“ Polizeihandeln. Anders das rechtsstaatliche Eingriffshandeln: Dieses setze das Vorliegen einer konkreten Gefahr im Einzelfall, einen „Störer“ oder den „Anfangsverdacht“ für eine begangene Straftat voraus, und ziele auf eine bemessene und angemessene Re-Aktion, weshalb Bestimmtheit des Gesetzes, Grundsatz der Verhältnismäßigkeit und das Übermaßverbot tragende Säulen des rechtsstaatlichen Polizeirechts bildeten. Durch die „Versicherheitlichung“ (engl. „Securitization“162) im Zuge des Ausbaus des Präventionsstaates sei die Balance zwischen Sicherheitsvorsorge und Individualrechtsschutz in Schieflage geraten; die Imperative der Prävention sprengten förmlich die Umzäunungen rechtsstaatlicher Begriffe. Dies liege nicht, wie eine minutiöse Analyse der Artikelgesetze zeige, an der politischen Unfähigkeit oder Unwilligkeit des Gesetzgebers, zum Beispiel die Grundsätze der Normbestimmtheit einzuhalten, sondern an der strukturellen Inkompatibilität der beiden Funktionslogiken, der Schwierigkeit, „ein sicherheitspolitisches Präventivprogramm mit transnationalen Bezügen“ in das rechtsstaatlich entwickelte Rechtssystem einzubauen.163 Die an Freiheit und Autonomie des Einzelnen orientierte Funktionslogik des liberalen Rechtsstaates und die an Sicherheit und Effizienz orientierte Logik des Präventionsstaates schlössen einander tendenziell aus. Eine beiden Logiken gerecht werdende kohärente Sicherheitspolitik, die den Maßstäben der Verfassung genüge, erfordere „neue Rechtsbegriffe des Sicherheitsrechts“. Die Kennzeichnung des „Neuen Polizeirechts“ als „Risikoverwaltungsrecht“ könne zunächst nur beschreibenden Charakter beanspruchen.164 Unbeantwortet bleibe indes die Frage, wie der Informationsbedarf des Staates für das Vorhaben einer umfassenden Risikosteuerung sinnvoll begrenzt werden könne. Der Sicherheitsund Präventionsstaat, der sich der Staatsaufgabe „Sicherheit“ verschrieben habe, setze nämlich eine unbegrenzte „Informationsvorsorge“ zur fortlaufen160  Denninger

(2004), S. 113–125. (2004), S. 113–125. 162  Die Bezeichnung geht auf Ole Wæver der konstruktivistischen Copenhagen School zurück, siehe Buzan/Wæver/De Wilde: Security: A New Framework for Analysis, Boulder 1998. 163  Denninger (2004), S. 123 f. 164  Denninger (2004), S. 116. 161  Denninger

70 Einleitung

den Gefahren- und Risikovorsorge voraus. Mit dem sog. „Grundrecht auf Sicherheit“, gleichsam „Befugnisgeneralklausel“, sei theoretisch der Boden bereitet für eine tendenziell grenzenlose staatliche Informationsvorsorge.165 Zur Logik des Präventionsstaates gehöre die „Maßlosigkeit, weil Grenzenlosigkeit der Verfolgung eines nie erreichbaren Ideals“. Denninger sieht hierin die ebenso faktische Entgrenzung wie idealistische Selbstüberforderung des Staates. Sein Urteil zu den Perspektiven des „Präventionsstaates“ fällt insgesamt skeptisch aus: „Der Staat, der ‚Sicherheit‘ als Staatsaufgabe setzt, gibt ein Versprechen ab, das er nie voll befriedigend wird einlösen können, das ihn aber ständig zu neuer Aktivität anstachelt. Sicherheit bedeutet nicht mehr in erster Linie, wie nach der berühmten Formel Wilhelm von Humboldts, die ‚Gewissheit der gesetzmäßigen Freiheit‘, sondern Sicherheit meint jetzt die ‚Zusage einer prinzipiell unbegrenzten, nie endenden staatlichen Aktivität zum Schutze des Bürgers vor sozialen, technik- und umweltbedingten oder auch kriminellen Risiken und Gefahren‘. (…) ‚Sicherheit‘ wird dabei als ein paradiesischer Zustand gedacht, in welchem die Blindheit der faustischen ‚Sorge‘ durch die vielleicht hellsichtige, aber maß- und grenzenlose ‚Vor-Sorge‘ beseitigt werden könnte.“166

Andere befürchten, dass – ganz im Sinne der Logik der Vorsorge – die Gefahr groß sei, dass jedermann als „Vorverdächtiger“ ins Visier der Sicherheitsbehörden gerate.167 Zum Teil weist man die systematische verdachtsunabhängige Sammlung von Daten als „Zumutung permanenter Verdächtigkeit“ zurück. Da die Logik der Sicherheitsvorsorge keine immanenten Schranken kenne, fordert man die Rückkehr zu einer „rechtsstaatlichen Prinzipienorientierung“. Dazu gehöre im Sinne einer strikt rechtsstaatlichen Beschränkung der Instrumente des Staates die Absage an ein sog. „Feindstrafrecht“, die Beibehaltung formalisierter Konfliktverarbeitung im Strafprozessrecht und etwa die Einhaltung des Bestimmtheitsgrundsatzes bei der Schaffung neuer Tatbestände.168 Gibt es angesichts dieser düsteren Bilanz Lichtblicke und tragfähige Lösungsansätze? Erwogen und diskutiert werden ein „Risikorecht“ bzw. „Risikoverwaltungsrecht“, das allerdings noch zu schaffen sei.169 Hansjörg Seiler ist insoweit zurückhaltend, da es eine berechtigte Skepsis gegenüber weiterer „Verrechtlichung“170 gebe. Er notiert zur Frage des noch zu konzipierenden „Risikorechts“: 165  Denninger

(2004), S. 122. (2004, S. 120. 167  Bommarius (2004), S. 188. 168  Vec (2007), S. 965 f. 169  Pitschas, Rainer (Hrsg.), Kriminalprävention und „Neues Polizeirecht“: Zum Strukturwandel des Verwaltungsrechts in der Risikogesellschaft, Berlin 2002. 166  Denninger



V. Von der Prävention zur Vorsorge71 „Wer Stimmen zum Risikorecht sammelt, hört Paradoxes, denn es werden gleichzeitig Verrechtlichung und Entrechtlichung des Risikorechts beklagt: Verrechtlichung durch Normenflut, Rechtsmittelstaat, Herrschaft der Juristen, Expansion von Sicherheitsvorschriften und Haftpflichtansprüchen; Entrechtlichung durch Verlust der Steuerungsfähigkeit des Rechts, der Antiquiertheit des Rechts in der Risikogesellschaft, Technisierung und Ökonomisierung des Rechts, Überhandnehmen technokratischer Tendenzen über die Autonomie der Rechtsordnung. Die unterschiedliche Perzeption beruht zum Teil darauf, dass unterschiedliche Phänomene beschrieben werden, teilweise aber auch auf unterschiedlichen Konzeptionen und Verständnissen von Recht.“171 170

Andere fordern die Konzeption eines neuen sog. „informationellen Vorfeldrechts“172 in Ergänzung zum klassischen rechtsstaatlichen Gefahrenabwehrrecht. Nach Ansicht von Markus Möstl ist die „informationelle Vorfeldarbeit unverzichtbarer Modus polizeilicher Aufgabenerledigung“. Ihre Bedeutung sei – im Wandel – von Gesellschaft und Kriminalitätsformen – gerade in jüngerer Zeit stetig gewachsen. Man könne darin einen Paradigmenwechsel von der „Gefahrenabwehr“ zu „neuartiger Risikovorsorge“ erblicken. Auf der anderen Seite ergehe der Ruf nach rechtsstaatlicher Begrenzung dieser Entwicklung angesichts der weit verbreiteten Sorge vor den negativen Folgen eines faktisch grenzenlos agierenden Staates. Beide Stoßrichtungen seien im Kern berechtigt und schössen doch über das Ziel hinaus. Informationsvorsorge im Gefahrenvorfeld sei daher „nicht Erosion und Ablösung, sondern Vorbereitung und Ergänzung klassischer Gefahrenabwehr“, sondern Beleg für die Notwendigkeit eines speziellen „Vorfeldrechts“ in der Zukunft: „Richtig ist, dass dem Vorfeldrecht ein Platz gebührt, der seiner Praxisbedeutung gerecht wird, und dass es andererseits verlässliche dogmatische Strukturen braucht, die es noch nicht immer gefunden hat.“173

Sehr intensiv hat sich Lorenz Schulz mit der Gesamtproblematik expandierender Vorfeldaktivitäten aus Sicht der strafprozessualen Verdachtsdogmatik auseinandergesetzt. In seiner fundierten historisch-kritischen und rechtstheoretisch breit angelegten Untersuchung verfolgt er einen durchaus klassisch-dogmatischen Lösungsansatz.174 „Verdacht“ versteht er noch ganz 170  Teubner (1984), S. 289–344. – Siehe auch Scholz (1996), S. 404–408, der eine „Notwendigkeitskontrolle“ und „qualifizierte Vorschriftenkontrolle“ empfiehlt. 171  Seiler, S. 145. 172  Möstl, S. 581–589. 173  Möstl, S. 588–589. 174  Bedauerlicherweise setzt sich Markus Löffelmann: Die normativen Grenzen der Wahrheitserforschung im Strafverfahren. Ideen zu einer Kritik der Funktionsfähigkeit der Strafrechtspflege, Berlin 2008, Vorwort, S. VII nicht mit Arbeit von Lorenz Schulz (2001) auseinander. Sie wird mit keinem Wort erwähnt.

72 Einleitung

im Sinne der ursprünglichen gesetzlichen Konzeption als „individualisierten Verdacht“.175 Verdacht, schreibt Schulz, sei ein „immer wieder zu fixierenden Punkt im Zwischenraum zwischen Normativität und Empirie“.176 Dieser Punkt bleibe utopisch, wenn er nicht historisch verortet werde. Überhaupt verfüge der Verdacht prinzipiell über eine utopische Qualität, eine Ortlosigkeit, die unter dem Druck der Risikodiskurse in der Risikogesellschaft extrem zugenommen habe. Die zu beobachtende „Vorfeldverlagerung“ im Strafverfahren und damit das Untergraben des konkreten (individualisierten) Tatverdachts beurteilt er als „herrschaftsfunktional zu begreifendes Abweichen von der regulären Prozessform“ – oder, wie er sich ausdrückt, als „Phänomen eines gesellschaftsinternen ‚Kreuzzugs‘ “.177 Es gälte daher, insbesondere den sog. „Anfangsverdacht“ neu zu konzipieren, zu formalisieren, ihn nicht resignativ als „nicht formalisierbares Ergebnis kriminalistischer Intuition zu betrachten“.178 Tat und Täter müssten demzufolge individualisiert, der Verdacht im Verfahren substantiiert bzw. kontrolliert sein. Konsequenterweise müsse der „Anfangsverdacht“ in das dogmatische System der Verdachtsgrade der Strafprozessordnung eingeordnet werden – jener „topischen Verdachtshierarchie“, dessen Basis er recht eigentlich bilde. Als unbestimmter Rechtsbegriff sei er dann gerichtlich voll nachprüfbar. Der Verdacht „auf den Begriff gebracht“ könne so gleichsam innerhalb der Risikogesellschaft als „Leuchtturm (fungieren), der suchenden Schiffen Orientierung gibt.“179 Schulz ist insgesamt optimistisch, dass sein Versuch der Dogmatisierung des polizeilich dominierten Prozesses der Verdachtschöpfung gelingen kann. Soweit er erkenntnistheoretische Grundlagen der Hypothesenentwicklung im Verlauf der Verdachtsgenese diskutiert, rekurriert er auch auf Überlegungen des amerikanischen Semiotikers Charles S. Peirce.180 Kritisch anzumerken ist, dass sich Schulz dem zentralen Topos des „Anhaltspunkt“ nicht näher zuwendet. Den Aspekt des Vor-Begrifflichen, die Genealogie der Begriffe, untersucht er daher nicht.181 Trotz seiner theoretisch anvancierten Begründungsstrategie, seiner Zuversicht, das Problem der transparenten 175  Schulz

(2001), S. 6. (2001), S. 3: „Wie für viele andere Begriffe gilt für den Verdacht, dass er ein immer wieder zu fixierender Punkt im Zwischenraum von Normativität und Empirie ist. Dieser Punkt bleibt utopisch, wenn er nicht historisch verortet wird.“ 177  Schulz (1994), S. 193–204. 178  Schulz (2001), S. 9: „Den Verdacht, insbesondere den Anfangsverdacht, resignativ als nicht formalisierbares Ergebnis kriminalistischer Intuition zu betrachten, greift zu kurz. Er lässt sich auf den Begriff bringen.“ 179  Schulz (2001), S. 9. 180  Schulz (1994), S. 193–204. 181  Das Wort „Anhaltspunkte“ findet sich folglich nicht im Sachregister. 176  Schulz



V. Von der Prävention zur Vorsorge73

Verdachtschöpfung gelöst zu haben182, bleibt daher fraglich, ob der Weg der Dogmatik und Begriffsbildung, den Lorenz Schulz beschreitet, geeignet ist, um die Gesamtproblematik zu entschärfen. Im öffentlichen Diskurs ist die Sorge um „Freiheit“ und „Sicherheit“ zum Dauerbrenner geworden. Die öffentliche Debatte, befeuert von der anhaltenden terroristischen Bedrohung und Krisenberichterstattung in Echtzeit, trägt zum Teil alarmistische, bisweilen hysterische Züge.183 Etwa, wenn es um den Einsatz von sog. „Körperscannern“ an Flughäfen, die sog. „Vorratsdatenspeiche­ rung“184 oder die Diskussion um die Zulässigkeit von sog. „Online-Durchsuchungen“ geht.185 Der Vorwurf reicht von der Aushöhlung der Bürger- und Freiheitsrechte im Sinne eines friendly fascism bis hin zum drohenden „Verlust an humaner Orientierung“.186 Eine von der Regierung eingesetzte Kommission (Regierungskommission zur Überprüfung der Sicherheitsgesetzgebung in Deutschland) zeigt in ihrem Bericht aus dem Jahre 2013 Defizite der Rechtsgrundlagen im Bereich der Terrorbekämpfung auf. Nach der Auffassung eines Teils der Mitglieder der Kommission bewältige das geltende Recht das Verhältnis von präventivpolizeilicher und strafrechtlicher Terrorismusbekämpfung „nicht überzeugend“. Durch die flächendeckende Vorfeldkriminalisierung im Strafrecht entstehe eine „strukturelle Gemengelage von präventivpolizeilicher und strafrechtlicher Terrorismusbekämpfung“.187 Hieraus er182  Schulz (2001), S. 665: „Der Verdacht ist ein voll nachprüfbarer, unbestimmter Rechtsbegriff (…) Die tragenden Elemente des Gebäudes transparenter Verdachtschöpfung können ausgefüllt, das Gebäude eingerichtet werden.“ 183  Der Spiegel (2007a) Der Preis der Angst. Wie der Terrorismus den Rechtsstaat in Bedrängnis bringt. Bundesinnenminister Wolfgang Schäuble über die Gefährdung Deutschlands durch islamische Terroristen und seinen Plan, den Rechtsstaat umzubauen, Nr. 28, S. 31–33. 184  Frankfurter Rundschau vom 6. April 2011, 67. Jg., Ein anderes Etikett. Innenminister Friedrich will Vorratsdatenspeicherung umbenennen – und erntet Häme S. 6: „Bei Twitter reagierten die Kritiker der Vorratsdatenspeicherung vor allem mit Häme und weiteren Namenvorschlägen wie ‚Freiheitsdatenspeicherung‘, ‚Premiumdatenspeicherung‘ – oder gleich ‚Datenschutz‘. Bei Netzpolitik.org, dem meist verlinkten Blog des Landes, wurden Befürchtungen laut, dass der Begriff ‚Mindestdatenspeicherung‘ andeute, dass die Frist von 6 Monaten ausgeweitet werden könnte.“ 185  von Denkowski (2007), S. 292–298. – Differenzierter Zöller, Mark A.: Informationssysteme und Vorfeldmaßnahmen von Polizei, Staatsanwaltschaft und Nachrichtendiensten. Zur Vernetzung von Strafverfolgung und Kriminalitätsverhütung im Zeitalter von multimedialer Kommunikation und Persönlichkeitsschutz, Heidelberg 2002. 186  Giordano, S. 17. – Gössner, Rolf: „Big Brother & Co.“ Der moderne Überwachungsstaat in der Informationsgesellschaft, Hamburg 2000. 187  Bundesministerium des Innern/Bundesministerium der Justiz (Hrsg.), Bericht der Regierungskommission zur Überprüfung der Sicherheitsgesetzgebung in Deutschland, Berlin 2013, S. 265.

74 Einleitung

gäben sich – so die Kommission – u. a. Risiken für die staatsanwaltschaftliche Verfahrensherrschaft.188 Offenbar erfordert der Umgang mit der Kategorie des „Risikos“, allgemein: der „Umgang mit Ungewissheit“, rechtstheoretisch und rechtspraktisch einen breiteren Ansatz, eine komplexere Handlungstheorie. Alexander Roßnagel denkt in diese Richtung und deutet das in seiner Auseinandersetzung mit der Gesamtthematik an. Er hält das etablierte „System der Machtkontrolle“ gegenüber den neuen Anforderungen der sog. „Informationsgesellschaft“ für nicht mehr angemessen. Die neuen „Techno-Logien“ erforderten buchstäblich eine „neue Logik“. Roßnagel führt dazu aus: „Wichtigste rechtliche Errungenschaften demokratischer Machtkontrolle und sozialen Machtausgleichs stammen aus der Zeit der ersten industriellen Revolution und sind auf sie zugeschnitten. Durch die veränderten Verwirklichungsbedingungen in einer ,Informationsgesellschaft‘ könnten deren Mechanismen der Freiheitsgewährleistung und Machtbegrenzung ins Wanken geraten. Möglicherweise erfordert neue Techno-Logie auch eine neue Logik menschlicher Persönlichkeit und sozialer Verhältnisse. Vielleicht ist in einer ,Informationsgesellschaft‘ die ganze Konstruktion individueller Grundrechte überholt.“189

In eine ähnliche Richtung geht die Einschätzung des Rechtssoziologen Niklas Luhmann. Er glaubt eine Art „Hintergrundsorge“ in der Gesellschaft ausmachen zu können, die an der Risikosemantik der Diskurse abzulesen sei. Es gebe zahlreiche Anhaltspunkte dafür, dass die moderne Gesellschaft ihre Zukunft tatsächlich in der Form eines gegenwärtigen Risikos perzipiere. Man müsse nur an die Möglichkeit denken, sich gegen zahlreiche Unglücksfälle zu versichern. Versicherungen schafften keine Sicherheit dafür, dass das Unglück nicht passiere. Sie garantierten aber, dass sich die Vermögensverhältnisse des Betroffenen im Falle eines Unglücksfalls nicht änderten. In dem Maße, wie die Wirtschaft die Möglichkeit eröffne, sich zu versichern, entscheide der Bürger darüber, sich zu versichern. Dadurch aber würden alle Gefahren, gegen die man sich versichern könnte, in Risiken verwandelt.190 Mit dem Begriff des „Risikos“ sei aber ein mehrdimensionales, in logischer Hinsicht komplexes Problem bezeichnet, das mit den einfachen Mitteln der „klassischen zweiwertigen Logik nicht adäquat behandelt werden könne. Der Umgang mit Risiken erfordere daher „strukturreichere Logiken“.191

188  Bundesministerium

des Innern/Bundesministerium der Justiz, S. 265. S. 253. 190  Luhmann (1992), S. 145. 191  Luhmann (1992), S. 144. 189  Roßnagel/Wedde/Hammer/Pordesch,



VI. Verdachtslose Grundrechtseingriffe 75

VI. Verdachtslose Grundrechtseingriffe Wie ist die Haltung des Bundesverfassungsgerichts? Orientiert sich das Gericht, wie Lorenz Schulz vorschlägt, am Leuchtturm „Verdacht“, dem Anfangsverdacht – einmal ausgebaut zum unbestimmten Rechtsbegriff? Oder präferiert es die Maxime Magellans, d. h. eine eher nicht-positivistische Strategie der freien Rechtsschöpfung. Es ist eher ein Mittelweg zwischen diesen beiden Lösungsansätzen: In mehreren – auch unter den beteiligten Verfassungsrichtern heftig umstrittenen – Entscheidungen hat es weitergehenden Präventivbefugnissen der Polizei zunächst eine Absage erteilt. Das Gericht hat sich damit scheinbar eine klassische rechtsstaatliche Haltung zu Eigen gemacht. Beim näheren Hinsehen aber zeigt sich, dass das Gericht es nicht nur schlicht bei dem Hinweis auf das Rechtsstaatsprinzip und den Bestimmtheitsgrundsatz belässt. Das Gericht lehnt es zwar ab, Vorfeldaktivitäten zum faktisch geltenden Rechtsmaßstab zu erklären, räumt aber gleichzeitig ein, dass auch der Status der „Verdachtlosigkeit“ eine geeignete und zum Teil notwendige Eingriffsmaxime sein könne. Das ist neu und eröffnet Freiraum für unkonventionelle Denk- und Lösungsansätze. Das Gericht nutzt bei seinen Entscheidungen – das scheint auf eine grundsätzliche rechtstheoretische Akzentverschiebung hinzudeuten192 – die dem Verhältnismäßigkeitsgrundsatz zugrundeliegende Abwägungsmaxime, um zu einer methodisch nachvollziehbaren Entscheidung zu gelangen.193 In einem Verfahren hatte das Gericht über die Verfassungsbeschwerde gegen die gerichtliche Anordnung einer präventiven polizeilichen Rasterfahndung auf der Grundlage des § 31 Nordrhein-Westfälisches Polizeigesetz (PolG NW) zu entscheiden.194 Aus grundsätzlichen Erwägungen hat das Gericht eine Rasterfahndung im „Vorfeld der Gefahrenabwehr“ abgelehnt und in seiner Entscheidung die Verfassungswidrigkeit des § 31 PolG NW fesgestellt. Insbesondere – so das Gericht – reiche eine „allgemeine BedroKirchberg, S. 10–14. einer ähnlichen Einschätzung gelangt auch Hartmut Rensen nach der Analyse einer Reihe vorliegender Entscheidungen zur Wohnraumüberwachung (BverfGE 109, 279 – Großer Lauschangriff), zur Rasterfahndung (BverfGE 115, 320), zum Luftsicherheitsgesetz (BverfGE 115, 118), zur Online-Durchsuchung (BverfGE 120, 274). Zur Vorratsdatenspeicherung (BVerfG NJW 2010, S. 833)), siehe Rensen, S. 635–654. – Anders Moser-Knierim, S. 207 ff., die sich durch eine Art „Überwachungs-Index“ (sog. „Überwachungs-Gesamtrechnung“, S. 236 ff.) und eine spezifische Angemessenheitsprüfung (sog. „Verhältnismäßigkeit Plus“, 257 ff.) einen vertretbaren Interessenausgleich zwischen Sicherheits- und Freiheitsinteressen verspricht. Umfangreiche Online-Dokumentation des Diskurses: www.vorratsdatenspei cherung.de. 194  Bundesverfassungsgericht Urteil vom 04.04.2006 (1BvR 518/02): Absätze 1–184. 192  Anders 193  Zu

76 Einleitung

hungslage“ für eine präventive Rasterfahndung nicht aus. Diese erfordere vielmehr „das Vorliegen weiterer Tatsachen, aus denen sich eine konkrete Gefahr, etwa für die Vorbereitung oder Durchführung terroristischer Anschläge ergibt“.195 In den Entscheidungsgründen setzt sich der zuständige Senat intensiv mit der präventiven Rasterfahndung unter dem Gesichtspunkt des Verdachts und der Praxis einer bundesweit koordinierten Fahndung mittels übergreifendem Datenabgleich auseinander. Es stellt zunächst fest, dass alle Bundesländer das Instrument der Rasterfahndung geregelt, einige aber sowohl die Anforderungen an die Gefahrenschwelle als auch diejenigen an das gefährdete Schutzgut abgesenkt hätten. Verschiedene Regelungen verzichteten dabei auf das Erfordernis der „Gegenwärtigkeit der Gefahr“, andere hätten das Merkmal des Vorliegens einer „Gefahr“ insgesamt fallengelassen. Die Ermächtigung zur Rasterfahndung sei auf diese Weise „zu einer polizeilichen Vorfeldbefugnis“ umgestaltet worden. Im konkreten Fall hatten die Landeskriminalämter nach dem 11. September 2001 unter Mitwirkung des Bundeskriminalamtes eine bundesweite Rasterfahndung nach islamistischen Terroristen zur Enttarnung von sog. „Schläfern“ durchgeführt. Daten, die die Landesbehörden von Universitäten, Einwohnermeldeämtern und Ausländerzentralregister nach bestimmten Kriterien (Alter 18–40 Jahre, männlich, Student oder ehemaliger Student, islamische Religionszugehörigkeit, etc.) erhoben hatten, waren in eine bundesweite Verbunddatei eingestellt und mit Daten des Bundeskriminalamtes abgeglichen worden. Als „Treffer“ – so das Gericht – sei es beim Abgleich angesehen worden, wenn ein Datensatz aus der Verbunddatei mit einem Abgleichsdatensatz in jeweils zwei Bestandteilen eine Übereinstimmung gegeben habe, etwa Name und Geburtsdatum. Die Rasterfahndung führte nach den Festtellungen des Gerichts in keinem Fall dazu, dass „Schläfer“ aufgedeckt oder gar aufgrund der gewonnenen Erkenntnisse eine Anklage – etwa wegen Mitgliedschaft in einer terroristischen Vereinigung oder wegen Unterstützung einer solchen (vgl. §§ 129a, 129b StGB) – gegen eine der davon erfassten Personen erhoben worden wäre. Andererseits aber habe der Fall gezeigt, dass die die in Rede stehende Norm (§ 31 Abs. 1 PolG NW 1990) „verdachtslose Grundrechtseingriffe mit großer Streubreite“ zur Folge habe. Dadurch seien zahlreiche Personen – obwohl Nichtstörer – in den Wirkungsbereich einer Maßnahme einbezogen worden, die von den Betreffenden weder durch ein konkretes Fehlverhalten noch überhaupt durch irgendein Verhalten veranlasst worden sei. Der Einzelne sei aber in seiner grundrechtlichen Freiheit grundsätzlich umso intensiver betroffen, je weni195  Bundesverfassungsgericht Urteil vom 04.04.2006 (1BvR 518/02) Leitsätze 1 und 2.



VI. Verdachtslose Grundrechtseingriffe 77

ger er selbst für einen staatlichen Eingriff Anlass gegeben habe. Das Gericht stellt ferner fest, dass „verdachtlose Eingriffe“ dieser Art zu Einschüchterungseffekten gegenüber dem Bürger und damit zu Beeinträchtigungen bei der Ausübung von Grundrechten führen können. Die beabsichtigte präventive Rasterfahndung sei ihrem Charakter nach ein „ ‚Verdachts- oder ‚Verdächtigengewinnungseingriff‘ “, da sie zur Aufdeckung von sog. „Schläfern“ habe führen sollen. Da solche „Schläfer“ sich aber gerade durch ihr völlig angepasstes und damit unauffälliges Vorgehen auszeichneten, fehle es bei ihnen definitionsgemäß an konkreten Anhaltspunkten für ein Verhalten, das auf eine potenzielle Störereigenschaft hindeuten könnte. Die Suche werde so weit in das Vorfeld eines konkreten Störerverdachts verlagert. Annahmen über Täterprofile und entsprechend unspezifische Suchkriterien hätten zudem eine vollständige Abkehr von traditionellen polizeirechtlichen Strukturen zur Folge.196 Das Bundesverfassungsgericht – jedenfalls die Senatsmehrheit197 – bewertet damit eine „verdachtslose Rasterfahndung für Zwecke der personenbezogenen Risikoabwehr“ als unverhältnismäßig. Es bestätigt damit in Teilen seine frühere Rechtsprechung zur sog. „strategischen Kontrolle“ des Fernmeldeverkehrs aus den Jahren 1984 und 1999.198 Auch in der Entscheidung vom 2. März 2010199 zur sog. „Vorratsdaten­ speicherung“200 stützt sich das Gericht auf eine differenzierte Abwägung: Das Gericht stellt zwar erneut die Verfassungswidrigkeit der betroffenen Normen fest und fordert für den Abruf und die unmittelbare Nutzung von gespeicherten Telekommunikationsdaten durch Polizei und Nachrichtendienste „einen durch bestimmte Tatsachen begründeten Verdacht einer schweren Straftat“.201 Das Gericht – wiederum die Senatsmehrheit202 – ver196  Bundesverfassungsgericht Urteil vom 04.04.2006 (1BvR 518/02) Absätze 116–119. 197  Zur abweichenden Meinung der Richterin Haas, siehe Bundesverfassungsgericht Urteil vom 04.04.2006 (1BvR 518/02) Absätze 167–184, die aufgrund der veränderten Bedrohungslage beim Gesetzgeber eine „Pflicht zur Risikovorsorge“ sieht. Dies impliziere „die Einschreitschwelle und die Voraussetzungen für gering invasive so genannte Gefahrerforschungseingriffe zum Zwecke der Risikosteuerung neu zu bestimmen und zu definieren“ (Absatz 183). 198  Bundesverfassungsgericht Beschluss v. 20.06.21984 – 1BvR 1494/78; Bundesverfassungsgericht Urteil v. 14.07.1999 – 1 BvR 2226/94. 199  Bundesverfassungsgericht Urteil vom 02.03.2010 (1 BvR 256/08): Absätze 1–345. 200  Beschwerdeverfahren gegen §§ 113a, 113b Telekommunikationsgesetz in der Fassung des Gesetzes zur Neuregelung der Telekommunikationsüberwachung und anderer verdeckter Ermittlungsmaßnahmen sowie der Umsetzung der Richtlinie 2006/24/EG vom 21.  Dezember 2007 (BGBl I S. 3198). 201  Bundesverfassungsgericht Urteil vom 02.03.2010 (1 BvR 256/08): Leitsatz 5 – Gegenstand des Verfahrens waren Verfassungsbeschwerden von rund 34.000 Be-

78 Einleitung

neint aber nicht schlechthin die Zulässigkeit einer „vorsorglich anlasslosen Speicherung von Telekommunikationsverkehrsdaten“. Derart anlasslose und vorsorgliche Datensammlungen müssten vielmehr die Ausnahme bleiben, zwängen den Gesetzgeber künftig zu noch größerer Zurückhaltung. Um die Freiheitswahrnehmung der Bürger nicht total zu erfassen und zu registrieren, verlangten solche vorsorglichen Datensammlungen aufgrund der besonderen Eingriffsqualität eine noch striktere Anwendung des Verhältnismäßigkeitsgrundsatzes. Andererseits hält das Gericht auch eine sechsmonatige Speicherung von Telekommunikationsverkehrsdaten in einem wie in § 113a TKG vorgesehenen Umfang nicht per se und von vornherein für unverhältnismäßig im engeren Sinne. Es betont ausdrücklich, dass es hier rechtliches Neuland betrete. Unzweideutig stellt es fest, dass die Bedrohung durch neue Kriminalitätsformen ebenso real sei wie die Bedrohung für die Grundfreiheiten durch eingriffsintensive Vorfeldaktivitäten der Sicherheitsbehörden. Die Entscheidung folgt letztlich einer Art Abwägungsmaxime, die inzidenter auch neue Formen der Ausbalancierung von effektiver Strafrechtspflege und effektivem Rechtsschutz zwischen allen an der Abwägungsentscheidung Beteiligten einfordert. 202

Das Gericht unterstreicht sehr deutlich, dass es sich bei einer Speicherung von Telekommunikationsdaten im verlangten Umfang um einen derart schweren Eingriff und mit einer derartigen „Streubreite“ handelt, „wie sie die Rechtsordnung bisher nicht kennt“. Erfasst würden über den gesamten Zeitraum von sechs Monaten praktisch sämtliche Telekommunikationsverkehrsdaten „aller Bürger ohne Anknüpfung an ein zurechenbar, vorwerfbares Verhalten“203, eine – auch nur abstrakte – Gefährlichkeit oder sonst eine qualifizierte Situation. Die Speicherung beziehe sich dabei auf Alltagshandeln, das im täglichen Miteinander elementar und für die Teilnahme am sozialen Leben in der modernen Welt nicht mehr verzichtbar sei. Grundsätzlich seien zudem bei der sog. „Vorratsdatenspeicherung“ prinzipiell alle Telekommunikationsarten von der Speicherung betroffen. Bei der schwierigen Abwägungsentscheidung sei überdies besonders zu berücksichtigen, schwerdeführern gegen Vorschriften des Telekommunikationsgesetzes (TKG) und der Strafprozessordnung (StPO), die eine vorsorgliche Speicherung von Telekommunikationsverkehrsdaten seitens der Anbieter öffentlich zugänglicher Telekommunikationsdienste für sechs Monate sowie die Verwendung dieser Daten regeln. 202  Zu den abweichenden Voten der Richter Schluckebier und Eichberger, die angesichts einer veränderten Bedrohungslage auf die „unabweisbaren Bedürfnisse einer wirksamen, rechtsstaatlichen Strafrechtspflege“ verweisen, siehe Bundesverfassungsgericht Urteil vom 02.03.2010 (1 BvR 256/08): Absätze 310–345. 203  So bereits Middel, Stefan: Innere Sicherheit und präventive Terrorismusbekämpfung, Baden-Baden 2007, der darauf hinweist, dass durch die wissentliche Inkaufnahme der Jedermann-Betroffenheit auf das „Erfordernis des Zurechnungszusammenhangs“ (S. 338) verzichtet werde.



VI. Verdachtslose Grundrechtseingriffe 79

dass die Aussagekraft der Verbindungsdaten sehr weitreichend sei: Je nach Nutzung von Telekommunikationsdiensten durch die Betroffenen ließen sich schon aus den Daten selbst – und erst recht, wenn diese als Anknüpfungspunkt für weitere Ermittlungen dienten – tiefe Einblicke in das soziale Umfeld und die individuellen Aktivitäten eines jeden Bürgers gewinnen. Zwar würden nur die Verbindungsdaten (Zeitpunkt, Dauer, beteiligte Anschlüsse sowie – bei der Mobiltelefonie – der Standort) festgehalten, nicht der Inhalt der Kommunikation. Aber auch aus diesen Daten ließen sich bei umfassender und automatisierter Auswertung bis in die Intimsphäre hineinreichende inhaltliche Rückschlüsse ziehen. Je nach Nutzung der Telekommunikation, was künftig in noch viel größerem Umfang zu erwarten sei, könne eine solche Speicherung von Verbindungsdaten die Erstellung aussagekräftiger Persönlichkeits- und Bewegungsprofile praktisch eines jeden Bürgers ermöglichen. Von Gewicht sei insbesondere auch, dass sich – unabhängig von einer wie auch immer geregelten Datenverwendung – das Risiko für den Bürger erheblich erhöhe, weiteren Ermittlungen ausgesetzt zu werden, ohne selbst Anlass dazu gegeben zu haben. Es reiche bereits aus, zu einem ungünstigen Zeitpunkt in einer bestimmten Funkzelle gewesen oder von einer bestimmten Person kontaktiert worden zu sein, um unter Erklärungsdruck zu geraten.204 In Hinsicht auf den grenzüberschreitenden Datenverkehr innerhalb der Europäischen Union stellt das Gericht in seiner Entscheidung kritisch heraus, dass damit „der Spielraum für weitere anlasslose Datensammlungen auch über den Weg der Europäischen Union erheblich geringer“205 zu beurteilen sei, da die grundgesetzlich verbürgte Freiheitswahrnehmung zur „verfassungsrechtlichen Identität der Bundesrepublik Deutschland“ gehöre. Das Gericht spielt hier auf weitere europäische Initiativen zur Erleichterung des grenzüberschreitenden Informationstauschs an206, insbesondere den Vorschlag für einen Rahmenbeschluss des Rates über die Verwendung von Fluggastdatensätzen (PNR-Daten) zu Strafverfolgungszwecken207, bei dem es explizit um die Aktualisierung von „Risikoindikatoren“ im Sinne 204  Bundesverfassungsgericht Urteil vom 02.03.2010 (1 BvR 256/08): Absätze 209–212. 205  Bundesverfassungsgericht Urteil vom 02.03.2010 (1 BvR 256/08): Absatz 218 unter Verweis auf die Rechtsprechung des Bundesverfassungsgerichts (BVerfG) zum grundgesetzlichen Identitätsvorbehalt, vgl. BVerfG Urteil v. 30. Juni 2009 – 2 BvE2/08. 206  Deutscher Bundestag, Drucksache 16/6750 (22.10.2007). 207  „Abkommen zwischen der Europäischen Union und den Vereinigten Staaten von Amerika über die Verarbeitung von Fluggastdatensätzen (Passenger Name Records – PNR) und deren Übermittlung durch die Fluggesellschaften an das United States Department of Homeland Security (DHS) (PNR-Abkommen 2007)/Agreement between the European Union and the United States of America on the processing

80 Einleitung

der Anforderungen der Intelligence-Gesetzgebung in den Vereinigten Staaten geht.208 Insbesondere in seiner jüngsten Entscheidung vom 24. April 2013209 zur Verfassungsmäßigkeit der Antiterrordatei210 stützt das Bundesverfassungsgericht seine Argumentation in methodischer Hinsicht wiederum wesentlich auf die Abwägungsmaxime. Diese entnimmt es den geltenden Grundsätzen zum Übermaßverbot im Verfassungsrecht. Wie ein roter Faden durchzieht der Gedanke der Abwägung in der Form des Verhälnismäßigkeitsgrundsatzes i. e. S.  (Übermaßverbot) die Urteilsbegründung. Für den hier diskutierten Fragenkreis der Verdachtschöpfung im Vorfeld des strafprozessualen Anfangsverdachts unter Einsatz IT-technischer Mittel und automatisierter Verfahren setzt die Entscheidung Maßstäbe. In ihrer Tragweite jedenfalls geht sie weit über die Frage der Ausgestaltung und notwendigen Nachbesserung der Antiterrordatei als Verbunddatei hinaus: Impulse sind von der Entscheidung zu erwarten sowohl für die Diskussion über Art und Umfang der Verrechtlichung des Vorfeldbereichs wie auch für den Umgang mit Fragen der Offenheit und Geheimhaltung bei der Terrorismusbekämpfung. Das Gericht sieht insbesondere in der Berichtspflicht und der Offenlegung der Erfahrungen mit der Datei eine notwendige Voraussetzung für den „demokratischen Diskurs“. In der Entscheidung heißt es: „Transparenz der Datenverarbeitung soll dazu beitragen, dass Vertrauen und Rechtssicherheit entstehen können und der Umgang mit Daten in einen demokratischen Diskurs eingebunden bleibt. Zugleich ermöglicht sie den Bürgerinnen und Bürgern, sich entsprechend zu verhalten. Gegenüber den Betroffenen bildet sie überdies die Voraussetzung für einen wirksamen Rechtsschutz. (…) Da sich die Speicherung und Nutzung der Daten nach dem Antiterrordateigesetz der Wahrnehmung der Betroffenen und der Öffentlichkeit weitgehend entzieht, dem auch die Auskunftsrechte nur begrenzt entgegenwirken und weil eine effektive gerichtliche Kontrolle nicht ausreichend möglich ist, sind hinsichtlich Datenbestand und Nutand transfer of passenger name record (PNR) data by air carriers to the United States Department of Homeland Security (DHS) (2007 PNR-Agreement). 208  U. S. Intelligence Reform and Terrorism Prevention Act (2004). 209  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absätze 1–233. 210  Gesetz zur Errichtung gemeinsamer Dateien von Polizeibehörden und Nachrichtendiensten des Bundes und der Länder (Gemeinsame-Dateien-Gesetz vom Dezember) vom 22.12.2006 (BGBl I, S. 3409), § 1 (1): „Das Bundeskriminalamt, die Bundespolizeidirektion, die Landeskriminalämter, die Verfassungsschutzbehörden des Bundes und der Länder, der Militärische Abschirmdienst, der Bundesnachrichtendienst und das Zollkriminalamt (beteiligte Behörden) führen beim Bundeskriminalamt zur Erfüllung ihrer jeweiligen gesetzlichen Aufgaben zur Aufklärung oder Bekämpfung des internationalen Terrorismus mit Bezug zur Bundesrepublik Deutschland eine gemeinsame standardisierte zentrale Antiterrordatei (Antiterror­ datei).“



VI. Verdachtslose Grundrechtseingriffe 81 zung der Antiterrordatei regelmäßige Berichte des Bundeskriminalamts gegenüber Parlament und Öffentlichkeit gesetzlich sicherzustellen. Sie sind erforderlich und müssen hinreichend gehaltvoll sein, um eine öffentliche Diskussion über den mit der Antiterrordatei ins Werk gesetzten Datenaustausch zu ermöglichen und diesen einer demokratischen Kontrolle und Überprüfung zu unterwerfen.“211

Auswirkungen grundlegender Art dürfte die Entscheidung auch für die Rolle der Datenschutzbeauftragten und ihre Befugnisse haben, um – wie das Gericht fordert – ein gesamtstaatliches Gegengewicht der „aufsichtlichen Kontrolle“ zur effektiven Organisation der Sicherheitsbehörden und Nachrichtendienste im Wege der IT-technischen Vernetzung zu etablieren: „Wenn der Gesetzgeber eine informationelle Kooperation der Sicherheitsbehörden vorsieht, muss er auch die kontrollierende Kooperation zugunsten des Datenschutzes ermöglichen. Angesichts der Kompensationsfunktion der aufsichtlichen Kontrolle für den schwach ausgestalteten Individualrechtsschutz kommt deren regelmäßiger Durchführung besondere Bedeutung zu und sind solche Kontrollen in angemessenen Abständen – deren Dauer ein gewisses Höchstmaß, etwa zwei Jahre, nicht überschreiten darf – durchzuführen.“212

Für die vorliegende Argumentation sind insbesondere folgende weiteren Aspekte, die die Frage der IT-basierten Verdachtschöpfung berühren, bedeutsam: Das Gericht erklärt die Antiterrordatei in ihren Grundstrukturen, wie sie im Jahre 2006 als sog. „standardisierte Index-Datenbank“ eingerichtet worden war, zunächst als verfassungsgemäß. Gleichzeitig unterstreicht das Gericht die Bedeutung des informationellen Trennungsprinzips, das für Polizeibehörden und Nachrichtendienste gilt; eine Durchbrechung dieses Prinzips sei nur ganz ausnahmsweise und unter strengen Voraussetzungen gerechtfertigt. Soweit sog. „Kontaktpersonen“ in der Datei erfasst werden, die im Vorfeld und ohne Wissen von einem Terrorismusbezug eine in ihren Augen unverdächtige Vereinigung unterstützen, stellt das Gericht einen Verfassungsverstoß durch die betreffende Rechtsnorm (vgl. § 2 Satz 1 Nr. 1 ATDG) fest. Ferner sieht das Gericht in der uneingeschränkten Einbeziehung von Daten aus Maßnahmen der Wohnraum- oder Telekommunika­ tionsüberwachung in die Antiterrordatei eine Verletzung der Grundrechte nach Art. 10 Abs. 1 GG (Brief- und Fermeldegeheimnis) und Art. 13 Abs. 1 GG (Recht auf Unverletzlichkeit der Wohnung).213 Im Einzelnen führt das Gericht in seiner Urteilsbegründung aus, dass die Antiterrordatei grundsätz211  Bundesverfassungsgericht

222.

Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 206,

212  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 216–217. 213  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Leitsätze 1–4.

82 Einleitung

lich auf ein legitimes Ziel gerichtet sei. Mithilfe dieser Datei wollten sich Sicherheitsbehörden legitimerweise in erster Linie schnell und einfach darüber Kenntnis verschaffen, ob bei anderen Sicherheitsbehörden relevante Informationen zu bestimmten Personen aus dem Umfeld des internationalen Terrorismus vorlägen. Ziel sei es daher, „Vorinformationen“ zu vermitteln, um so eine erste handlungsleitende Gefahreneinschätzung zu ermöglichen. Die Antiterrordatei schaffe hierfür eine „begrenzte Erleichterung des Informationsaustauschs“. Die geltenden Bestimmungen für die Datenübermittlung im Einzelfall blieben davon unberührt.214 Der Schwerpunkt der Antiterrordatei liege als Verbunddatei daber bei der „Informationsanbahnung“. Ziel und Zweck der Antiterrordatei sei es, die Arbeit der Sicherheitsbehörden bei der „Aufklärung“ (durch Nachrichtendienste) und „Bekämpfung“ (durch Polizeien) des internationalen Terrorismus zu unterstützen.215 Das Antiterrordateigesetz, einschließlich seines Instrumentariums, sei daher „in seinen Grundstrukturen“ mit dem Grundsatz der Verhältnismäßigkeit vereinbar.216 Trotz des erheblichen Eingriffsgewichts sei die Einrichtung der Antiterrordatei wegen des überragenden öffentlichen Interesses – auch unter dem Aspekt des Übermaßverbots – zulässig, da der Gesetzgeber eine „koordinierende Verbunddatei zur Informationsanbahnung“ schaffen dürfe, wenn er den Informationsaustausch auf der Grundlage der Einzelübermittlungsvorschriften zur Aufklärung und Bekämpfung des internationalen Terrorismus für unzureichend halte. Denn schon angesichts der Zahl der mit diesen Aufgaben befassten Behörden – zurzeit nähmen nach der Errichtungsanordnung mehr als 60 Behörden und Polizeidienststellen an der Antiterrordatei teil – sei die Gewährleistung eines zielführenden Austauschs der Erkenntnisse in einem föderativen Staatsgefüge von besonderer Bedeutung.217 Im Hinblick auf die zu treffende Abwägungsentscheidung hebt das Gericht die besondere Bedrohung hervor, die von dem internationalen Terrorismus ausgehe: Terroristische Anschläge zielten durch rücksichtslose Angriffe auf Leib und Leben beliebiger Dritter auf „eine Destabilisierung des Gemeinwesens“ in seiner Gesamtheit. Nach Ansicht des Gerichts handelt es sich dabei um eine existenzielle Herausforderung für offene Gesellschaften. Dennoch ruft das Gericht rechtsstaatliche Grundsätze, insbesondere die Bedeutung des Grundsatzes der Verhältnismäßigkeit in Erinnerung. Im Urteil heißt es ausdrücklich: 214  Bundesverfassungsgericht

Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 106. Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 35. 216  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 108, 111. 217  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 130–132. 215  Bundesverfassungsgericht



VI. Verdachtslose Grundrechtseingriffe 83 „Es ist Gebot unserer verfassungsrechtlichen Ordnung, solche Angriffe nicht als Krieg oder als Ausnahmezustand aufzufassen, die von der Beachtung rechtsstaatlicher Anforderungen dispensieren, sondern sie als Straftaten mit den Mitteln des Rechtsstaats zu bekämpfen. Dem entspricht umgekehrt, dass der Terrorismusbekämpfung im rechtsstaatlichen Rahmen der Verhältnismäßigkeitsabwägung ein erhebliches Gewicht beizumessen ist.“218

Sehr deutlich betont das Gericht bei dieser Gelegenheit nochmals den Unterschied zwischen Polizei und Nachrichtendiensten: Die Rechtsordnung unterscheide zwischen einer grundsätzlich offen arbeitenden Polizei, die im Rahmen detaillierter Rechtsgrundlagen auf eine operative Aufgabenwahrnehmung hin ausgerichtet sei. Eine „Geheimpolizei“ – so das Gericht ausdrücklich – sei „nicht vorgesehen.“ Dagegen arbeiteten Nachrichtendienste grundsätzlich verdeckt; sie seien auf die „Beobachtung und Aufklärung im Vorfeld“ mit dem Ziel der politischen Information und Beratung beschränkt. Die Rechtsgrundlagen für Nachrichtendienste seien daher insoweit weniger ausdifferenziert.219 Vor diesem Hintergrund überprüft das Gericht sodann die einzelnen Bestimmungen des Antiterrordateigesetzes. Für die Regelungen, die den erfassten Personenkreis betreffen, ergibt sich für das Gericht aus dem Gesagten ein besonders strenger Maßstab. Rechtsstaatlich noch hinreichend bestimmt sei die Bestimmung des § 2 Satz 1 Nr. 1 a ATDG, die mögliche „Unterstützer“ einer terroristischen Vereinigung betrifft. Zwar reichten hierfür bereits Unterstützungshandlungen im Vorfeld von Rechtsgutverletzungen als „tatsächliche Anhaltspunkte“ und die Vorschrift lasse beträchtlichen Raum für subjektive Einschätzungen der Behörden, aber die Regelung sei im Rahmen der Zielsetzung der Antiterrordatei als Instrument der Informationsanbahnung bei ungesicherten Einschätzungen von Verdachts- und Gefahrenlagen insgesamt „noch hinnehmbar“. Bei sachgerechter Auslegung stellten die Tatbestandsmerkmale immerhin hinreichend sicher, dass eine Speicherung nicht auf bloßen Spekulationen beruhen dürfe. Insbesondere bedürften „tatsächliche Anhaltspunkte einer Rückbindung an konkrete Erkenntnisse“.220 Anders verhalte es sich aber mit § 2 Satz 1 Nr. 1 b ATDG. Die Bestimmung erweitere den Kreis der erfassten Personen („Kontaktpersonen“) unter dem Gesichtspunkt der Unterstützung terroristischer Vereinigungen derart, dass sie mit dem Übermaßverbot nicht vereinbar und daher verfassungswidrig sei: Das Erfordernis eines subjektiven Bezugs zum Terrorismus sei der Vorschrift nicht zu entnehmen. In der Antiterrordatei könnten daher auf der 218  Bundesverfassungsgericht 219  Bundesverfassungsgericht

Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 133. Urteil vom 24.04.2013 (1BvR 1215/07) Absatz

115–122. 220  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 146 (Hervorhebung N. R.).

84 Einleitung

Grundlage dieser Bestimmung auch solche Personen erfasst werden, die möglicherweise ohne Wissen von einem Terrorismusbezug eine in ihren Augen „unverdächtige Vereinigung“ unterstützen, „wie zum Beispiel den Kindergarten eines Moscheevereins“. Eine solche Öffnung der Norm für die Einbeziehung schon des weitesten Umfelds terroristischer Vereinigungen verstoße gegen den Grundsatz der Normenklarheit und sei daher mit dem Übermaßverbot unvereinbar.221 In formeller Hinsicht leitet das Gericht aus dem Zielkonflikt zwischen dem Rechtsschutz des Einzelnen und dem öffentlichen Interesse an einer effektiven Aufklärung und Bekämpfung des internationalen Terrorismus besondere Anforderungen für die Bestimmtheit und Transparenz der Bestimmungen des Antiterrordateigesetzes ab: Nicht vereinbar mit rechtsstaatlichen Grundsätzen sei die Tatsache, dass unbestimmte Rechtsbegriffe im Antiterrordateigesetz nicht ohne weiteres präzisiert werden könnten. Die konkreten Nutzungsbestimmungen für die Datei etwa, die Errichtungsanordnung und das sog. „Katalog-Manual“, seien nicht öffentlich und als Verschlussache („VS – Nur für den Dienstgebrauch“) eingestuft. Die für die Anwendung der Datei letztlich maßgebenden Festlegungen seien zudem in einem „Katalog-Manual“ festgehalten, das weder Teil des Gesetzes noch Teil der Errichtungsanordnung sei. Nach dem Verständnis der Praxis sei das Manual vielmehr „in das Computerprogramm (selbst) eingebunden“ als hinterlegter Katalog der zu speichernden Merkmale.222 Insoweit rekurriert das Gericht in seiner Urteilsbegründung auf auffallend praxisnahe Aspekte, die Struktur der Antiterrordatei und den Betrieb der Datenbank. Grob dargestellt wird z. B. das kriminalistische Konzept der standardisierten Datenerfassung über sog. „geschlossene“ und „lernende Kataloge“, einschließlich der Rolle der sog. „Katalogredaktion des Bundeskriminalamtes“. Erläutert wird die Art und Weise der Befüllung der Antiterrordatei durch Quelldateien der teilnehmenden Behörden, z. B. mithilfe sog. „Exportdateien“, das sind markierte Datenbestände, die automatisch aus anderen Dateien in die Verbunddatei überführt werden, wenn sie die Anforderungen der Antiterrordatei erfüllen. Das ist neu: In dieser Tiefe hat sich das Verfassungsgericht – soweit ersichtlich – noch nicht mit der konkreten Praxis der Datenerfassung und -verarbeitung in Verbundsystemen der Sicherheitsbehörden befasst.223 Das „Katalog-Manual“, bisher interne Arbeitsunterlage für die kriminalistische 221  Bundesverfassungsgericht

222  Bundesverfassungsgericht

185.

Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 149. T Urteil vom 24.04.2013 (1BvR 1215/07) Absatz

223  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 38–39.



VI. Verdachtslose Grundrechtseingriffe 85

Praxis, wird hier durch Entscheidung des Verfassungsgerichts zum relevanten Rechtstext. Seiner Natur nach ist das „Katalog-Manual“ gewissermaßen das Desiderat der kriminalistischen Erfahrung und konkreter Ausdruck einer kriminaltaktischen Taxonomie, welches sich der Zusammenarbeit kriminalpolizeilicher Praktiker (sog. Katalog-Redaktion) und der IT-technischen Programmierer verdankt. Plausibilität und Nachvollziehbarkeit der Erfassungskriterien, d. h. die empirische (kriminalphänomenologische) Verifizierbarkeit der standardisierten Erfassungsmasken, wird dadurch zur materiellen Rechtsfrage.224 Das Gericht argumentiert indessen rein formal: Es kritisiert, dass sich die Grundsätze der Standardisierung und Datenerfassung nur über die Materialen des Gesetzes erschließen ließen, nicht aber aus dem Gesetz selbst: „Die Bundesregierung hat dem Senat diesbezüglich ein ‚Katalog-Manual‘ vorgelegt, in dem die für die Anwendung des § 3 Abs. 1 Nr. 1 b ATDG im Einzelfall maßgeblichen Vorgaben und Kriterien dokumentiert sind. Die gesetzlichen Tatbestandsmerkmale werden in ihm durch vorgegebene Eingabealternativen – deren Beurteilung im Einzelnen nicht Gegenstand des vorliegenden Verfahrens ist – einengend präzisiert sowie die Anwendung und Bedeutung der Bestimmungen in der Praxis nachvollziehbar offengelegt. Verfassungsrechtliche Bedenken bestehen jedoch in formeller Hinsicht. Das Antiterrordateigesetz macht zu einer Dokumentations- und Veröffentlichungspflicht für die Konkretisierung der in § 3 Abs. 1 Nr. 1 b ATDG enthaltenen unbestimmten Rechtsbegriffe keine hinreichend klaren Vorgaben. Schon dass eine Konkretisierung der zu erfassenden Daten in Form eines informationstechnisch aufgearbeiteten standardisierten Katalogs realisiert werden soll, lässt sich dem Gesetz nicht unmittelbar, sondern erst im Rückgriff auf die Materialien entnehmen.“225

Weil die Anwendung der Datei in der Regel aber von den davon Betroffenen gar nicht wahrgenommen werden könne, zusätzlich die verwaltungsgerichtliche Kontrolle als zentraler Mechanismus zur Begrenzung unbestimmter Befugnisnormen weitgehend ausfalle, ergäben sich in dieser Hinsicht besondere Konkretisierungs- und Transparenzanforderungen sowohl für den Gesetzgeber wie auch für die Verwaltung. Die besondere Unbestimmtheit der Vorschriften im Antiterrorgesetz erfordere gewissermaßen einen Ausgleich, eine Art „Kompensation“. Der Gesetzgeber habe zu gewährleisten, dass die für die Anwendung der Antiterrordatei im Einzelfall „maßgeblichen Vorgaben und Kriterien in abstrakt-genereller Form“ festgelegt, verlässlich dokumentiert und – in einer vom Gesetzgeber näher zu bestimmenden Weise – veröffentlicht würden. Eine solche zusätzliche 224  Zur Frage „selbstlernender Katalogfelder“ auch Deutscher Bundestag: Unterrichtung durch die Bundesregierung. Bericht zur Evaluierung des Antiterrordateigesetzes, in: Drucksache 17/12665 (neu) 07.03.2013, S. 54. 225  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 185–186.

86 Einleitung

Festlegung, Dokumentation und Offenlegung diene zum einen der „Einhegung der der Verwaltung eingeräumten Befugnisse“, zum anderen solle so „einer uferlosen oder missbräuchlichen Anwendung der Vorschrift“ vorgebaut werden.226

226  Bundesverfassungsgericht Urteil vom 24.04.2013 (1BvR 1215/07) Absatz 184. – Nach Denninger ist der Rechtsprechung des Bundesverfassungsgerichts im Wesentlichen folgendes zu entnehmen: „Dieser Judikatur, der zu Recht Grundlagencharakter zuzuerkennen ist, sind für unsere Fragestellung jedenfalls vier elementare Leitgedanken zu entnehmen. Sie betreffen (1) das Gebot der Normenbestimmtheit und Normenklarheit, (2) den als Kriterium der ‚Angemessenheit‘ bekannten Grundsatz der Verhältnismäßigkeit im engeren Sinne, (3) den absolut zu schützenden ‚Kernbereich privater Lebensgestaltung‘ sowie zugleich als Brücke zum klassischen Gefahrenabwehrrecht (4) den Schutzanspruch des Lebens und der Menschenwürde. Diese vier Grundsätze beschreiben die unverzichtbaren Bausteine einer freiheitlichen rechtsstaatlichen Ordnung; würden sie missachtet, könnte von ‚Rechtsstaat‘ und übrigens auch von ‚Demokratie‘ nicht mehr die Rede sein“, siehe Denninger (2008), S. 100–101.

1. Kapitel

Anhaltspunkte und Anfangsverdacht „Es gibt eine geometrische Bezeichnung des Punktes durch o=‚origo‘, d. h. ‚Anfang‘ oder Ursprung. Der geometrische und der malerische Standpunkt decken sich. Auch symbolisch wird der Punkt als ‚Urelement‘ bezeichnet.“ Wassily Kandinsky, Punkt und Linie zu Fläche, 19951 „Anhäufung. Wirrwarr, Durcheinander … zu viel, zu viel, zu viel, Gedränge, Bewegung, Türmung, Vorstürzen, Stoßen, ein allgemeines Kuddelmuddel, riesige, ausfüllende Mastodonte, die augenblicks zerfielen in tausend Einzelheiten, Gruppen, Blöcke, Abenteuer, in ungefügem Chaos, und plötzlich häuften sich all diese Einzelheiten wieder zusammen zu übermächtiger Gestalt! (…) hier war der brüllende Sturm von Materie. Und ich war schon zu einem solchen Leser von Stilleben geworden, dass ich unwillkürlich forschte, suchte, und erwägte, als wäre hier etwas herauszulesen, und griff zu immer wieder neuen Kombinationen.“ Witold Gombrowicz, Indizien, 19662

I. L’Affaire des Quatorze Im Frühjahr 1749 erhielt der Polizeidirektor von Paris von höchster Stelle den Auftrag, den Autor eines Gedichts gefangen zu nehmen. Die Polizei hatte zunächst „keine weiteren Anhaltspunkte außer der Tatsache, dass die Ode den Titel L’Exil de M. Maurepas trug“ und der Tatsache, dass der Text mit „Monstre dont la noire furie …“ begann.3 In dem Gedicht hatte offensichtlich ein Anhänger Maurepas’ seinem Zorn Luft gemacht und den König Ludwig der XV. höchstpersönlich angegriffen, weil dieser am 24. April 1749 den amtierenden Minister der Kriegsmarine und königlichen Hofhaltung Comte de Maurepas aus allen Diensten entlassen und verbannt hatte. Die Polizei leitete eine umfassende Untersuchung ein, um den Autor des Gedichts und das verdächtige Dokument selbst zu ermitteln. Mittels eines Polizeispitzels stieß man im Juni 1749 auf den Medizinstudenten Bonis. Der 1  Kandinsky,

S. 31. S. 107. 3  Darnton, S. 13: „Monster, dessen düstre Wut …“ 2  Gombrowicz,

88

1. Kap.: Anhaltspunkte und Anfangsverdacht

ließ sich nach seiner Festnahme dahin ein, dass er das Gedicht von einem Priester erhalten habe, Jean Edouard von der Gemeinde St. Nicolas des Champs. Dieser wurde umgehend inhaftiert und in die Bastille verbracht. Im Verhör sagte Edouard, er habe das Gedicht von einem anderen Priester erhalten, nämlich von Inguimbert de Montagne. Auch dieser wurde daraufhin von der Polizei verhaftet und gab an, er habe es von einem dritten Priester erhalten, nämlich von Alexis Dujast. Der wiederum gab beim Verhör zu Protokoll, er habe das Gedicht von einem Studenten der Rechtswissenschaften erhalten, nämlich Jacques Marie Hallaire. Auch dieser wurde verhaftet und gab an, das Gedicht von einem Philosophiestudenten namens Lucien Francois Du Chaufour erhalten zu haben. Die Polizei nahm auch ihn in Haft. Du Chaufour gab an, das Gedicht von einem Mitstudenten erhalten zu haben. Dieser, Varmont, wurde gewarnt und konnte zunächst untertauchen, stellte sich dann aber freiwillig der Polizei und gab an, das verdächtige Gedicht von einem anderen Studenten mit Namen Maubert de Freneneuse bekommen zu haben. Dieser wurde jedoch nie gefunden. Die Fahndung nach dem inkriminierten Gedicht und die Suche nach dem eigentlichen Urheber gestalteten sich für die Pariser Polizei, wie das Gesamtdossier zeigt, komplizierter als ursprünglich angenommen. Als sich die Untersuchung ausweitete, stellte sich heraus, dass das Gedicht die Wege fünf anderer Gedichte kreuzte, von denen jedes (zumindest aus der Sicht der Polizei) umstürzlerisch war und sein eigenes Verbreitungsmuster besaß. Sie wurden auf Papierfetzen abgeschrieben und gegen ähnliche Fetzen eingetauscht. Sie wurden unerlaubt kopiert und im Verborgenen gedruckt, in einigen Fällen sogar volkstümlichen Liedern angepasst und gesungen. Zusätzlich zu der ersten, in die Bastille geschickten Gruppe von Verdächtigen verhaftete die Polizei weitere sieben. Diese zogen fünf weitere Verdächtige in die Sache hinein, die allerdings entkamen. Eine Verhaftungswelle im Schneeballsystem nahm ihren Lauf. Zu guter Letzt steckte die Polizei 14 Gedichtlieferanten in die Bastille, was letztlich auch den Namen für den Vorgang in den Dossiers abgab: L’Affaire des Quatorze. Am Ende seiner Analyse notiert Robert Darnton: „Nachdem wir die Polizei dabei beobachtet haben, wie sie die Dichtung nach allen Richtungen hin verfolgt, gewinnt man leicht den Eindruck, dass ihre Ermittlungen in einer Reihe von Verhaftungen versiegt sind, die endlos hätten fortgesetzt werden können, ohne dass man dabei jemals zum eigentlichen Autor vorgedrungen wäre. Ganz egal, wo sie sich umsah, überall griff sie jemanden auf, der unanständige Verse über den Hof sang oder rezitierte.“4

Das „Verbreitungsmuster“ des Gedichts, der Abschriften und Neudichtungen war derart abstrakt und ausgedehnt, dass es letztlich in die unterschied4  Darnton, S. 31–32. – Siehe dazu das Interview mit Joseph Vogl zu Schillers Fragment „Die Policey“ von Vogl: Eine Welt von Raubtieren. Über Schillers Fragment „Die Polizei“, 2014 (www.youtube.com). – Ferner Schunicht, 196–206.



I. L’Affaire des Quatorze89

lichsten Milieus führte: Studenten, Anwaltsekretäre, weltlich orientierte Abbés – kurzum: Schöngeister, die Spaß daran hatten, politischen Klatsch in Reimform auszutauschen – gerieten plötzlich in den Furor polizeilicher Verfolgung. Die tatsächliche Spur des inkriminierten Originals hatte sich indessen verloren. Die Polizei reagierte drakonisch auf das Spiel der jungen Intellektuellen. Entdeckte sie am Ende, wie Darnton vermutet, viel eher „vielleicht einen Anflug ideologischer Fäulnis im Herzen des Ancien Régime“ als die tatsächliche Spur eines Verdachts? Verdacht gleicht in seiner initialen Phase dem Versuch, Ordnung in ein Chaos zu bringen.5 Der polizeiliche Sprachgebrauch kennt hierfür den Ausdruck des „Ersten Angriffs“.6 Es umschreibt die Situation der Beurteilung der Spurenlage am Tatort eines Verbrechens. Plastisch umschreibt Witold Gombrowicz in seinem Roman Kosmos – in deutscher Fassung erschienen unter dem Titel Indizien – die Phase der universellen Verdächtigkeit als Folge der Indexikalität und Zeichenhaftigkeit von Realität: „Ich bin nicht imstande, das zu erzählen … diese Geschichte … weil ich sie ex post erzähle. Der Pfeil, zum Beispiel … Dieser Pfeil zum Beispiel … Dieser Pfeil, damals, beim Abendessen war gar nicht wichtiger als das Schachspiel Leons, die Zeitung, der Tee, alles – gleichrangig, alles – sich im gegebenen Augenblick zusammensetzend, eine Art von Gleichklang, Summen eines Schwarms. Aber heute, ex post, weiß ich, dass der Pfeil das Wichtigste war, also, erzählend, bringe ich ihn an erster Stelle, aus der indifferenzierten Masse der Tatsachen hole ich eine Konfiguration der Zukunft heraus.“7

Verloren inmitten unzähliger, potenziell wichtiger, ebenso gut aber auch unwichtiger, harmloser oder zufälliger Umstände stellt der Ermittler fest: „Es gibt keine unmöglichen Kombinationen. Jede Kombination ist möglich.“8

Soweit es an richtungsweisenden Anhaltspunkten9 fehlt, muss – wie es üblicherweise in Pressemitteilungen zu spektakulären Kriminalfällen heißt – „in alle Richtungen ermittelt werden …“ Wie aber gelangt man von An5  Gombrowicz: Cosmos, Paris 1966, S. 9: „Qu’est-ce qu’un roman policier? Un essai d’organiser le chaos. C’est pourquoi mon Cosmos, que j’aime appeler ,un roman sur la formation de la realité‘, sera une sorte de récit policier.“ 6  Guth, Reiner: Checklisten für den Ersten Angriff. Ein praxisorientiertes Handbuch für die Schutz- und Kriminalpolizei, 2. Aufl., Stuttgart 2005. – Ferner Huelke, Hans-Heinrich: Spurenkunde. Sicherung und Verwertung von Tatortspuren, 4. Aufl., Heidelberg 1977. 7  Gombrowicz, S. 29. 8  Gombrowicz, S. 175. 9  Dürrenmatt, S. 149–150: „Hier ist der erste Punkt erreicht, bei dem wir zu verweilen haben. Es ist die erste Tatsache, die in unserer Spekulation, in diesem Gewirr von Möglichem und Wahrscheinlichem, auftaucht. Untersuchen wir diese Tatsache.“

90

1. Kap.: Anhaltspunkte und Anfangsverdacht

haltspunkten zu Spuren? Gibt es dafür eine zeitgemäße Theorie? Was steckt hinter der Praxis des „Spurenlesens“? Fragen über Fragen türmen sich auf, wenn man daran geht, das zu ergründen, was „Spur“ heißt. Sybille Krämer findet sich in einem Labyrinth grundsätzlicher Fragestellungen wieder: „Kann es sein, dass das Spurenlesen nicht nur archaischer Restbestand eines ‚wilden Wissens‘, Kinderstube der Metaphysik, textloses Stadium einer Hermeneutik und instinkthafte Form symbolischer Grammatiken ist, sondern sich in allen entfalteten Zeichen-, Erkenntnis- und Interpretationspraktiken aufspüren lässt? Ist das Spurenlesen eine Wissenskunst, die nicht nur in den Geistes-, sondern auch in den Naturwissenschaften wirksam wird und überdies ein Beispiel ist, wie Alltagspraktiken und wissenschaftliche Verfahren ineinandergreifen? Wie aber kann das Lesen einer Spur unterschieden werden vom Lesen eines Textes? Wie grenzt es sich ab vom Interpretieren sprachlicher und bildlicher Zeichen? Können wir Spuren zur Klasse der Anzeichen, Indices oder Symptome zählen oder gibt es etwas, das die Asche als Spur des Feuers vom Rauch als Anzeichen unterscheidet? (…) Aber bilden konventionelle Zeichen und unwillkürliche Spuren überhaupt verschiedene Klassen von Gegenständen oder akzentuieren diese nicht eher zwei unterschiedliche Perspektiven, in denen jedes semiotische Vorkommnis zu betrachten ist?“10

Das Labyrinth entpuppt sich als eine Art Spiegelsaal aus Zerrspiegeln, in dem alles irgendwie undeutlich aufeinander verweist, ohne indessen eine Richtung anzuzeigen. Eines indessen lässt sich, so Sybille Krämer, mit Sicherheit sagen: „Spurenlesen“ finde prinzipiell unter den Bedingungen von Ungewissheit und Unsicherheit statt. Stets habe es Orientierung zum Ziel. Spurenlesen gehöre insoweit zur „Vorgeschichte des Textlesens“.11 Damals – vor dem Aufkommen der Schriftkultur – habe das Wort „lesen“ noch „aufsammeln, zusammenlesen, heraussuchen, ordnen und zurechtlegen“ impliziert. Die Semantik der „Spur“ entfalte sich so stets innerhalb einer „ ,Logik‘ der Narration“.12 Die Spur bekomme im Verlauf der Spurensuche gewissermaßen ihren „erzählten Ort“, d. h. ihre „Position im Netzwerk der Anhaltspunkte“. Die Ordnung, die im Einzelfall auf der Grundlage narrativierbarer Spuren rekonstruiert und als mögliche Erzählung erzeugt werde, präsentiere sich als netzwerkartiges kohärentes Gebilde von „Punkten“. Dieses wiederum deute dann auf einen konkreten Verdacht hin.13 „Spurenlesen“ – ganz zu schweigen von der „Spurensicherung“ – sei demzufolge ein mehr als mühevoller und komplizierter Vorgang. Immer werde, so Krämer, von einem Zeichen auf einen Zeichenkomplex geschlossen. Eine „Spur“ sei hierbei niemals 10  Krämer

(2007), S. 33. (2007), S. 18. 12  Krämer (2007), S. 17. 13  Reichertz (2007), S. 309–332. 11  Krämer



I. L’Affaire des Quatorze91

eindeutig einem einzigen Narrativ zuzuordnen, sondern seiner Natur nach vieldeutig: „Doch es gibt stets eine Vielzahl solcher Erzählungen. Daher sind Spuren polysemisch: Diese Vieldeutigkeit der Spur ist konstitutiv, also unhintergehbar. Etwas, das nur eine (Be-)Deutung hat oder haben kann, ist keine Spur, vielmehr ein Anzeichen.“14

Doch was ist in dieser verschlungenen Deutungs- und Hinweiskette überhaupt ein „Zeichen“ im Sinne einer Spur? Gibt es einen Unterschied zum „Anzeichen“, „Hinweiszeichen“ bzw. „Vorzeichen“? Wie ist demgegenüber das „Muster“ als abstraktes Zeichenkonvolut einzuordnen? Offenbar gibt es unterschiedliche Komplexitätsstufen von Spuren, Indexikalitätsklassen von Zeichen. Der „Spur“ im kriminaltaktischen Sinne entspricht so – im Gegensatz zum „Muster“ – noch eine empirisch nachvollziehbare Referenz, z. B. der Fußabdruck, der auf einen bestimmten Schuh verweist. Bisher führte diese Art von Index-Zeichen als Vermittler von Anhaltspunkten über einen spezifischen Kontext und das dazugehörige plausible Narrativ zum sog. „Anfangsverdacht“. Wie ist es aber, wenn es an einem einem solchen (Ersten Angriffs-)Punkt fehlt? Wenn ausgehend von abstrakten (standardisierten) „Indikatoren“ zunächst ein „kriminogenes Muster“ erstellt wird, um auf diese Weise „Anhaltspunkte“ zu ermitteln? Aus der Sicht einer allgemeinen Theorie der „Zeichen“15 ist dies sicher kein triviales Vorhaben: Eine (noch zu formulierende) „kriminologische Mustertheorie“ und, davon abgeleitet, eine praxisbezogene Musterkunde (analog der existierenden Spurenkunde) hätten es mit einer inkommensurablen Menge von möglichen und denkbaren Verweisungszusammenhängen zu tun.16 Roland Barthes dämpft die Erwartungen. Er spricht von „Machenschaften des Sinns“, die es beim Lesen von Spuren zu berücksichtigen gelte: „Die Zeichen der Welt entziffern heißt immer auch mit einer gewissen Unschuld der Gegenstände ringen. (…) Genauso bedarf es einer ständigen Erschütterung der Beobachtung, wenn man nicht den Inhalt der Mitteilung ins Auge fassen will, sondern ihre Machart: kurz, der Semiologe wie auch der Linguist muss den ‚Machenschaften des Sinns‘ nachspüren. Das ist ein gewaltiges Unterfangen. Warum? Weil sich ein Sinn nie isoliert analysieren lässt. Lege ich fest, dass Bluejeans das Zeichen eines gewissen jugendlichen Dandytums ist und der in einer Luxuszeitschrift photographierte Eintopf das Zeichen einer ziemlich theatralischen Rustika14  Krämer

(2007), S. 17. eigenwilligen Versuch, eine metaphysische Zeichen-Philosophie in Abgrenzung zur Semiotik zu konzipieren, siehe Simon, Josef: Philosophie des Zeichens, Berlin 1989. 16  Dewey, S. 462–463: „Das Reich der Möglichkeit ist unendlich viel weiter als das Reich der Wirklichkeit, und da das, was wirklich ist, zunächst möglich sein muss, liefert es den letzten logisch einschränkenden Grund für alles Wirkliche.“ 15  Zum

92

1. Kap.: Anhaltspunkte und Anfangsverdacht

lität, ja selbst wenn ich diese Evidenzen sammle und Zeichenlisten ähnlich den Spalten eines Wörterbuchs anlege, so habe ich nicht das Geringste entdeckt. Zeichen entstehen durch Unterschiede.“17

Die Frage, wie eine praktikable Theorie des „kriminogenen Musters“ aussehen könnte, wie der zugrunde liegende „Zeichen“-Begriff gefasst sein müsste, ist derzeit ungeklärt. Trotz angewandter „Mustererkennung“ in der polizeilichen Praxis bleiben vielfältige Fragen der Deutung, Hermeneutik und Semiotik des Musters unbeantwortet. Seit der Affäre der Vierzehn hat sich die Situation der Polizei, was die Zielgerichtetheit von Maßnahmen bei gleichzeitigem Fehlen von konkreten Anhaltspunkten angeht, nicht wesentlich verbessert. Das strukturelle Problem der Abwesenheit von konkreten Orientierungspunkten ist geblieben. Es ist das ewige Dilemma der primären Orientierungslosigkeit: Um keinen Verdacht zu erregen, wurde so etwa den Anwohnern in Mainz im Februar 2005 – im Vorfeld des Besuchs des amerikanischen Präsidenten in Deutschland – empfohlen, die Balkone nicht zu benutzen. Pendlern und Passanten wurde im Rahmen der Sicherheitsvorsorge empfohlen, zuhause zu bleiben und ihre Arbeitsschicht zu einem späteren Zeitpunkt nachzuholen. Vorsorglich waren in der Stadt hunderte von Gullydeckeln verschweißt, der Flugverkehr im nahen internationalen Flughafen während des Besuchs zeitweise gesperrt worden.18 Ähnliches spielte sich im August des Jahres in Hamburg ab, als ein Passant mit seinem Hinweis einen der größten Polizeieinsätze in der Hansestadt auslöste. Zufällig hatte der Zeuge, ein Ägypter, an einer Bushaltestelle in der Nähe des S-Bahnhofs Holstenstraße das Gespräch von drei scheinbaren „Islamisten“, die einen Rucksack bei sich führten, mitangehört. Dem Gesprächsinhalt zufolge planten sie bereits am folgenden Tag einen Selbstmordanschlag in der Stadt. Spezialisten des polizeilichen Staatsschutzes überprüften die Aussage des Zeugen und stuften sie aufgrund der Gesamtumstände, der Bedrohungslage nach den Ereignissen vom „11. September“ in New York und Washington und den Anschlägen in London nur wenige Wochen zuvor, als ernstzunehmend ein. Ein Großaufgebot fahndete sodann systematisch nach verdächtigen Personen: „In großen Konvois rollten die Einsatzfahrzeuge vom Präsidium in die Hamburger City. Sie teilten sich auf, bezogen an zwölf verschiedenen Kreuzungen und Knotenpunkten Stellung. Mehr als 900 Beamte stoppten dort jeden Autofahrer, der die Straße passieren wollte, Arabisch aussehende Personen wurden aus den Fahrzeugen gebeten, befragt und kontrolliert.“19 17  Barthes

(1988d) S. 165–166. S. 145–146. 19  Hamburger Abendblatt vom 26.08.2005: Terroralarm ausgelöst – 1000 Polizisten im Großeinsatz. Fahndung: Überall Verkehrskontrolle. 18  Sofsky,



II. Lehre vom Anfangsverdacht93

An den Kontrollstellen wurden, wie später zu lesen sein wird, über zweihundertfünfzig Personen überprüft.20 Der Großeinsatz zur Terrorfahndung stellte sich endlich als Missverständnis heraus.21 In der Vor-Phase des „Verdachts“ können Verdächtige von Unverdächtigen nicht getrennt werden Ein „logisches“ Narrativ ist nicht vernehmbar; die Herausforderung besteht im Umgang mit einer Unzahl von denkbaren Varianten. Wir befinden uns jenseits des „leisesten Verdachts“.22

II. Lehre vom Anfangsverdacht Woran nun soll sich die Polizei bei ihren Ermittlungen angesichts des kaum vernehmbaren Zeichenwirrwarrs im Vorfeld des „eigentlichen“ Verdachts orientieren? In seinem Standardwerk für Kriminalisten rät Hans Walder: „Alles kriminalistische Denken beginnt grundsätzlich mit einem Verdacht. Zwar gehen jedem Verdacht gewisse Wahrnehmungen und Arbeiten voraus. Diese liegen aber solange außerhalb des eigentlichen kriminalistischen Arbeitens, als kein Verdacht besteht oder wach wird. Verdacht hegen heißt, mehr oder anderes vermuten als sich zeigt. Wenn der Kriminalist Verdacht schöpft, so bedeutet das, er vermutet, ein Ereignis könnte ein Verbrechen, eine bestimmte Person ein Verbrecher sein.“23

Der „Verdacht ganz zu Beginn der Ermittlungen“, der sog. „Anfangsverdacht“, der ein polizeiliches Eingreifen rechtfertigen und veranlassen könne, erfordere – ganz der Linie der Rechtsprechung entsprechend – mehr als nur vage Vermutungen. Ausreichend sei aber bereits ein „einfacher Verdacht“, die Wahrscheinlichkeit nämlich, dass eine Straftat begangen worden sei. Je nach Intensität des Verdachts spreche man auch von „einem nahen, entfernten, leisen oder dringenden Verdacht, einem Verdacht, der auf der Hand liegt, von haltlosen Verdächtigungen usw.“ Der gute Kriminalist solle eher „eine Dosis zuviel Verdacht“ hegen, empfiehlt Walder. Gleichzeitig aber stellt er klar, dass eine „Verdachtsgewinnung“ im Sinne einer aktiven Verdachtsermittlung, nicht zulässig ist: 20  Süddeutsche Zeitung vom 27.08.2005: Verdächtige wieder frei. Der Terrorverdacht hat sich nicht bestätigt. 21  Denso, S. 12: „Die Polizisten in der Hansestadt durchsuchten Bahnhöfe, Züge und Busse, sie errichteten Straßensperren und kontrollierten Autos überall in der Stadt, mit Maschinenpistolen im Anschlag. Jeden, der verdächtig erschien, zwangen die Beamten zur Durchsuchung auf den Boden.“ 22  Brink, Helena: Der leiseste Verdacht. Roman Aus dem Schwedischen von Knut Krüger, München 2004. 23  Walder, S. 59.

94

1. Kap.: Anhaltspunkte und Anfangsverdacht

„Man darf und soll zwar leicht Verdacht fassen und diesen u. U. aufgrund weiterer, zurückhaltender Feststellungen zu einem Anfangsverdacht verdichten. Es ist aber nicht erlaubt, Verdächte zu ermitteln. (…) So sehr es also erwünscht ist, durch raschen Verdacht, Straftaten aufzudecken, darf man doch nicht ohne konkrete Anhaltspunkte ermitteln. Man darf nicht Verdachtsermittlung betreiben. Mitunter ist unklar von ‚Verdachtsgewinnung‘ die Rede.“24

Das sei aus Sicht der Sicherheitsbehörden zwar misslich, besonders bei zwielichtigen Finanztransaktionen über Banken durch mutmaßliche Geldwäscher, aber nicht zu ändern. Es gebe aus grundsätzlichen rechtlichen Erwägungen ein „Verbot des Erschnüffelns von Verdächten“.25 Man müsse daher auf konkrete Anhaltspunkte warten – so etwa auf Hinweise von Bankiers, zu denen diese je nach Rechtsordnung ermächtigt oder sogar verpflichtet sein könnten.26 Das Wort „Verdacht“ ist im Deutschen seit dem 16. Jahrhundert bekannt. Es leitet sich her von „verdenken“.27 Ursprünglich hatte es die Bedeutung von „übelnehmen, schlecht von jemandem denken“. Etymologisch betrachtet, handelt es sich um eine Art verloren gegangenen Vertrauens. Dadurch entsteht umgekehrt so etwas wie ein „Misstrauens-Vorurteil“ im sozialen Miteinander. In logischer Hinsicht ist Verdacht wesentlich „Vorgriff“ – hypothetisch-spekulative Vorwegnahme und Annahme eines vorgestellten Sachzusammenhangs auf unsicherer Tatsachengrundlage. In der Praxis handelt es sich um den indefiniten Zwischenraum zwischen Behauptung und Beweis. Von der ratio legis her ist „Verdacht“ im engeren strafprozessualen Sinne konzipiert als dogmatische Grenzmarke hin zum privaten und individuellen – unantastbaren – bürgerlichen Rückzugsraum. Es ist die alte Frage nach dem „Ob und Bis-wohin überhaupt des Staates“28, die Wilhelm von Humboldt mit Nachdruck bereits im 19. Jahrhundert gestellt hat. „Alles was der Staat tun darf und mit Erfolg für seinen Endzweck und ohne Nachteil für die Freiheit der Bürger tun kann, beschränkt sich daher auf das Erstere, auf die strengste Aufsicht auf jede, entweder wirklich schon begangene oder erst beschlossene Uebertretung der Gesetze; und da dies nur uneigentlich den Verbrechen zuvorkommen genannt werden kann, so glaube ich behaupten zu dürfen, dass ein solches Zuvorkommen gänzlich außerhalb der Schranken der Wirksamkeit des Staates liegt. (…) 24  Walder,

S. 60–61. S. 61. 26  Walder, S. 61. 27  Legros, S. 115: „Es ist nicht auszudenken, was passieren würde, wenn vom schöpferischen menschlichen ‚Denken‘ nur mehr der traurigste seiner Verwandten übrigbliebe: der Verdacht. Das heißt die Angst, diese denkenden Maschinen könnten uns wahrhaftig eines Tages zu den Handlangern ihrer Intelligenz machen, könnten uns beherrschen, und wenn es ihnen passt, sogar zerstören.“ 28  von Humboldt, S. 7 Einführung. 25  Walder,



II. Lehre vom Anfangsverdacht95 Eigene Veranstaltungen, noch nicht begangene Verbrechen zu verhüten, darf sich der Staat nicht anders erlauben, als insofern dieselben die unmittelbare Begehung derselben verhindern. Alle übrigen aber, sie mögen nun den Ursachen zu Verbrechen entgegenarbeiten oder an sich unschädliche, aber leicht zu Verbrechen führende Handlungen verhüten wollen, liegen außerhalb der Grenzen seiner Wirksamkeit.“29

Unter Rekurs auf den Rechtsstaatsgedanken beschreibt von Humboldt gerade den Zustand, der die Einhaltung der Rechtsschranken sicherstellt, als „Rechtssicherheit“: „Sicher nenne ich die Bürger in einem Staat, wenn sie in der Ausübung der ihnen zustehenden Rechte, dieselben mögen nun ihre Person oder ihr Eigentum betreffen, nicht durch fremde Eingriffe gestört werden; Sicherheit folglich – wenn der Ausdruck nicht zu kurz und vielleicht dadurch undeutlich scheint, Gewissheit der gesetzmäßigen Freiheit.“30

In dieser Tradition bewegt sich heute die höchstrichterliche Rechtsprechung zum strafprozessualen Verdacht: Nach ständiger Rechtsprechung bedarf es für Grundrechtseingriffe im Rahmen von Ermittlungsmaßnahmen grundsätzlich „bestimmter Verdachtsgründe“.31 Das sind „bestimmte Tatsachen“. Darunter versteht die sog. „Lehre vom Anfangsverdacht“ „konkrete Vorgänge oder Zustände der Vergangenheit oder Gegenwart, die sinnlich wahrnehmbar und einem Beweis zugänglich sind.“32 Sie müssen über vereinzelte, allzu vage Anhaltspunkte und bloße Vermutungen und Hypothesen hinausreichen. „Tatsachen“ sollen hierbei strikt von „Vermutungen“ unterschieden werden. Umstritten ist, ob schon dürftige oder noch ungeprüfte Angaben, Gerüchte oder einseitige Behauptungen für die Annahme eines Anfangsverdachts ausreichen. Die Rechtsprechung verneint dies, wenn die behaupteten verdachtsbegründenden Umstände „offensichtlich haltlos“ sind.33 In einem Standardkommentar zur Strafprozessordnung kann man lesen: „Die Formulierung ‚zureichende tatsächliche Anhaltspunkte‘ umschreibt den Anfangsverdacht, der die Verfolgungspflicht auslöst, zugleich aber Voraussetzung für die Befugnis zu Ermittlungen ist. Für den Anfangsverdacht genügt eine geringere Intensität des Tatverdachts als etwa in § 203 oder gar in § 112, jedoch muss es sich um mehr als eine bloße Hypothese oder Vermutung handeln. Es muss sich 29  von

Humboldt, S. 188, 192. Humboldt, S. 131–132. – Zum Verhältnis der frühen Staatstheorie Humboldts zu seiner späteren Sprachtheorie Roussos, S. 47–53. 31  Ständige Rechtsprechung des Bundesverfassungsgerichts und des Bundesgerichtshofs, siehe BVerfG NJW 2005, 2603, 2610; BGHSt 41, 30, 33; BGHSt 47, 362, 365 f.; BGHSt 48, 240, 248. 32  BVerfG NJW 2007, 2749, 2751. 33  Haas, Günter (2003), S. 13 ff. – Ferner Lohner, S.  38 ff. 30  von

96

1. Kap.: Anhaltspunkte und Anfangsverdacht

um Anhaltspunkte handeln, die es nach kriminalistischen Erfahrungen als möglich erscheinen lassen, dass eine Straftat begangen wurde.“34

Aus dieser gesetzlichen Formulierung ist in der tatsächlichen Anwendungspraxis der sog. „Anfangsverdacht“ geworden. „Anfangsverdacht“ bedeutet, so formuliert ein Praxishandbuch für Staatsanwälte, die „ ,Möglichkeit einer Straftat‘, d. h. das in Erfahrung gebrachte Tatsachenmaterial muss eine verfolgbare Straftat als möglich erscheinen lassen.“35 Nach Rechtsprechung und Lehre muss das Tatsachenmaterial „bestimmt“ sein, d. h. es muss den Wahrscheinlichkeitsschluss erlauben, dass eine strafbare Handlung begangen wurde. Die Wahrscheinlichkeitsprognose könne zwar noch gering sein, Zweifel an der Richtigkeit des Verdachts dürften durchaus noch überwiegen, aber sie muss über eine allgemeine theoretische Möglichkeit des Vorliegens einer Straftat hinausgehen. Eine kriminalistische Hypothese als solche, so heißt es, verkörpere noch keinen „Tatverdacht“ im Sinne des Gesetzes. Vielmehr müssten konkrete Tatsachen erst den angenommenen Verdacht rechtfertigen. Der Verdacht einer Straftat ergebe sich dann aus „bestimmten Tatsachen“, wenn sich aus kriminalistischen, kriminologischen und allgemeinen Erkenntnissen die „Annahme“36 begründen lasse, eine Straftat sei begangen worden. Formuliert wird auch: Der initiale Verdacht müsse sich, um legitime hoheitliche Eingriffsgrundlage im Sinne des Gesetzes sein zu können, auf eine „hinreichende Tatsachenbasis“ gründen. Das wiederum heißt, es müssen solche, mehr als nur unerhebliche Umstände vorliegen, die nach der Lebenserfahrung (auch der polizeilichen Erfahrung) in erheblichem Maße darauf hindeuten, dass jemand als Täter oder Teilnehmer rechtswidrig gehandelt hat. Erforderlich sei, dass der Verdacht durch „schlüssiges Tatsachenmaterial bereits ein gewisses Maß an Konkretisierung und Verdichtung“ erreicht habe. Denjenigen Stellen, die Maßnahmen aufgrund einer Verdachtsannahme anordneten, stehe aber bei der Prüfung des Tatverdachts ein gewisser Beurteilungsspielraum zu. In wissenssoziologischer Perspektive lässt sich „Verdacht“ in der Form des strafprozessualen Tatverdachts als ein soziales Konstrukt beschreiben.37 Es handelt sich dabei um das verwickelte Produkt eines gedanklichen und 34  Meyer-Gossner,

S. 651–652. S. 17. 36  Meinong, Alexius: Über Annahmen, 2. Aufl., Leipzig 1910, der bei seinen umfangreichen erkenntnis- und gegenstandstheoretischen Studien zu diesem Begriff ein „Zwischenreich zwischen Erfassen und Erfasstem“ entdeckt. – Dazu Dölling, S. 129–158. 37  „Wissen“ wird hier als doppelte Übereinkunft (objektive Faktizität und subjektiv gemeinter Sinn) als Ausfluss einer sozialen Interaktion verstanden, vgl. Berger/Luckmann, S. 20. 35  Hellebrand,



II. Lehre vom Anfangsverdacht97

tatsächlichen Schöpfungsprozesses, dessen Anfang und Ende wesentlich, wie frühe soziologische Studien herausgefunden haben, der „variablen Definitionsmacht der Polizei“38 unterliegen. Jo Reichertz hat im Verlauf seiner teilnehmenden Beobachtungen klassischer kriminalpolizeilicher Ermittlungsarbeit festgestellt, dass sich der Ermittlungsprozess nicht planmäßig und linear vollzieht. Die Arbeitsergebnisse resultierten im Einzelnen aus einer Fülle sozialer, praktischer und kognitiver Tätigkeiten (z. B. Vernehmung Berichtschreiben Typisieren). Verschiedene Arten des logischen Schließens (Abduktionen, Induktionen, Deduktionen) spielten dabei eine Rolle. Er tut sich schwer damit, die Vorgehensweise angemessen sprachlich zu umschreiben: „Will man abschließend den Herstellungsprozess von kriminalpolizeilicher Aufklärung mit einem treffenden Begriff kennzeichnen, dann fällt die Bestimmung nicht leicht. Der Begriff ‚Herstellung‘ scheint mir zu unscharf: er stellt mehr das Ergebnis des Prozesses in den Vordergrund, während der Vollzug recht blass bleibt. Auch der Begriff ‚Konstruktion von Aufklärung‘ trifft nicht den Kern der kriminalpolizeilichen Variante von Aufklärung: hinter einer ‚Konstruktion‘ steht noch zu sehr ein einzelner Prometheus der Aufklärung (‚Hier sitz ich, forme Typen nach meinem Bilde …‘) (…) Sucht man nun nach Begriffen für die ‚Herstellung von Objekten‘, die all den bisher ermittelten Gesichtspunkten Rechnung tragen, kommt man auch auf einen, der (leider nur) fast passt: auf die ‚Produktion von Aufklärung‘.“39

Am Ende des Prozesses der Fallaufklärung, also der Aufdeckung von Tatsachen, der Ermittlung von Zusammenhängen, der Verknüpfung von Erkenntnissen und Hinweisen, steht regelmäßig ein neuer, teils beweisbarer, teils spekulativer und konstruierter hypothetischer Zusammenhang.40 Waren die Begründungsanforderungen für einen Verdacht – in logischer Hinsicht – nie hoch, so kommt es im Zuge IT-basierter Verdachtsgewinnung erst recht zu einer, wie Jo Reichertz formuliert, „reichen Ausblüte von Verdächti­gungen“.41 Durch die objektiv niedrigen Begründungsanforderungen ergebe sich die Chance, dass viele unterschiedliche Lesarten eines aufzuklärenden Tatgeschehens überprüft werden könnten. Die niedrigen Standards für die Annahme eines Verdachts sei strukturell der Garant dafür, dass laufend „neue Lesarten“ entstehen könnten. Wenn „Anfangsverdacht“ in der Praxis für „zureichende tatsächliche Anhaltspunkte“ steht, was bedeutet in diesem Zusammenhang „zureichend“? Das Wort ist ein zentraler Topos der Logik und Beweislehre sowie der 38  Feest

(1971), S. 89. (1991), S. 304–305, 317. 40  Dölling, S. 95–124. 41  Reichertz (1994), S. 124. 39  Reichertz

98

1. Kap.: Anhaltspunkte und Anfangsverdacht

Wissenschafts- und Erkenntnistheorie seit Leibniz („raison suffisante“), nach Heidegger gar ein geistesgeschichtlicher „Abgrund“.42 Die Tradition der intensiven Auseinandersetzung mit diesem Topos geht über Descartes, Kant, Schopenhauer und Husserl zu Heidegger.43 Besonders ausführlich hat sich Schopenhauer mit der Frage des „zureichenden Grundes“ befasst.44 Dabei weist er der Sprache eine Schlüsselrolle für die Erkenntnisgewinnung zu. Er schreibt: „Alles Denken im weiteren Sinne des Worts, also alle innere Geistestätigkeit überhaupt bedarf der Worte oder der Phantasiebilder: ohne eines von beiden hat es keinen Anhalt.“45

Die Sprache ist damit nach Schopenhauer gewissermaßen Zwischeninstanz und Brücke zwischen wirklicher Welt („Vorstellung“) und der abstrakten Begriffswelt („Vorstellung der Vorstellungen“). Ein „zureichender“ Erkenntnisgrund (lat. principium rationis sufficientis cognoscendi) ist dann gegeben, wenn er Aussagen über die Wirklichkeit ermöglicht. Für Martin Heidegger ist die Frage des „zureichenden Grundes“ die Grundfrage nach dem „Sein“ überhaupt. „Zureichend“ sei ein Grund, wenn er ausreiche, um die Folge zu begründen, also Grund notwendiger Urteile sei. Das „Zureichende“ im Sinne eines „Zurückzugebenden“ entspreche „dem schon Gesagten (principium rationis reddendae sufficientis)“.46 Bemerkenswert ist, dass das Wort „Anfangsverdacht“ nicht im Gesetz auftaucht. Die Begriffsgeschichte liegt im Dunkeln.47 Und dennoch wird der Begriff überall als Quasi-Rechtsbegriff im Sinne eines „gesicherten Ausgangspunktes“48, eines „Wendepunkt(es) zum Ermittlungsverfahren“49 ohne weiteres zugrunde gelegt. Damit charakterisiert eine Art Anfangslosigkeit das Konzept „Anfangsverdacht“. Ernst Bloch hat eine ähnliche Beob42  Heidegger

(1974), S. 71–110. S. 51–58. 44  Holl, S. 203–233. 45  Holl, S. 220 (Hervorhebung N. R.). 46  Heidegger (1974), S. 72. 47  Der „Anefang“ bezeichnete im Mittelalter das rechtsförmliche Anfassen einer abhanden gekommenen und wieder gefundenen Sache unter der Behauptung des Eigentums. Der Eigentümer konnte dadurch außergerichtlich ein Verfahren wegen Diebstahls in Gang setzen, hatte das Recht der Spurenfolge, bei ununterbrochener Spur zum Haus des Diebes auch der Hausdurchsuchung, um sich die gestohlene oder geraubte Sache selbst wiederzubeschaffen. Dieses Sonderverfahren mit zivil- und strafrechtlichen Elementen war im Mittelalter weit verbreitet. Mag sein, dass das sog. „Anefangverfahren“ – zumindest sprachlich – bei der Entstehung der Formel vom „Anfangsverdacht“ gewirkt hat, siehe zum „Anefang“ Werkmüller, S. 159–163. 48  Schulz (2001), S. 527. 49  Kammann, S. 6. 43  Titze,



II. Lehre vom Anfangsverdacht99

achtung in seiner Theorie des Kriminalromans gemacht – das Problem des ausgesparten Anfangs sei ein Charakteristikum der Detektivarbeit. Er schreibt: „Ein dunkler Punkt ist also noch unerkannter da, von dem her und zu dem hin sich die ganze Wagenladung der folgenden Ereignisse in Bewegung setzt, eine Untat, meist eine mörderische, steht vor Anfang. (…) Das Problem des ausgesparten Anfangs wirkt durchs ganze Detektorische hindurch, macht seine Form.“50

Wie dem auch sei, die Bezeichnung „Anfangsverdacht“ ist eine von der Praxis gewählte Kurzform für die gesetzliche Formulierung „zureichende tatsächliche Anhaltspunkte“. Alle Kommentierungen der juristischen Praxis51 zu den genannten Bestimmungen, Monographien52 oder einzelne Beiträge hierzu53 erläutern ausführlich die Lehre vom Anfangsverdacht und die geltende Rechtsprechung, verzichten aber – soweit ersichtlich – auf eine Definition des Begriffsmerkmals „Anhaltspunkte“.54 In einschlägigen Lehrbüchern heißt es in mustergültig zweiwertiger Logik: „Der Begriff ‚Tatverdacht‘ setzt sich aus zwei Komponenten zusammen. ‚Tat‘ gibt als objektiver Teil einen Hinweis auf ein bestimmtes strafrechtliches zunächst irrelevantes Verhalten. Mit dem subjektiv determinierten Begriff ‚Verdacht‘ erhalten wir schließlich die Verbindung zu einem verfolgbaren Geschehen, das der Beobachter auf der Grundlage einer laienhaften Bewertung als strafrechtlich bedeutsam einordnet. (…) Das objektiv feststehende menschliche Verhalten ist eindeutig zu bestimmen: Unfall, schwankender Gang bzw. Klettern in ein Fenster eines Wohnhauses zur Nachtzeit. (…) Verdächtig ist jemand, sobald eine retrospektive Prognoseentscheidung tatsächliche Anhaltspunkte dafür liefert, dass eine bestimmbare Person eine Straftat begangen hat.“55

Der regelmäßig positivistisch behaupteten Eindeutigkeit und Klarheit des Konzepts widersprechen also die tatsächliche Unbestimmtheit und Anfangslosigkeit in der Praxis. Hans-Heiner Kühne sieht das ähnlich. Seines Erachtens ist der „Verdacht“ ein „juristisches Vakuum an rechtspolitisch exponierter Stelle“.56 50  Bloch

(1971), S. 336, 343. § 152 Randnummern 4 ff.; Kommentar zur Strafprozessordnung, § 152 Randnummern 10 ff.; Pfeiffer, § 152 Randnummern 1a ff.; Heidelberger Kommentar zur stopp, 3. Aufl., Heidelberg, § 152 Randnummer 7 ff.; KMR Kommentar zur Strafprozessordnung und zum Gerichtsverfassungs- und Ordnungswidrigkeitengesetz, S. 516. 52  Kammann, S.  5 ff. 53  Schewe, S. 561–577. 54  Ebert, S. 103. – Es entspricht ganz herrschender Meinung in Rechtsprechung und Lehre, dass § 152 II StPO mit § 160 I StPO korreliert, weil beide Bestimmungen der Staatsanwaltschaft Ermittlungspflichten auferlegen. Eine nähere begriffliche Differenzierung findet nicht statt. 55  Benfer/Bialon, S. 24. 56  Kühne, S. 622. 51  Meyer-Gossner,

100

1. Kap.: Anhaltspunkte und Anfangsverdacht

Ulrich Eisenberg räumt ein, dass eine „klare und objektivierende Umschreibung“ des Begriffs noch nicht gelungen sei und plädiert für eine gerichtliche Überprüfung der Einleitung und Aufrechterhaltung eines Ermittlungsverfahrens.57 Auch Nicola Kammann zeigt sich erstaunt darüber, dass der Begriff des „Anfangsverdachts“ trotz weitreichender und eingriffsintensiver Folgen „in unserer Rechtsordnung weitgehend ungeklärt bzw. nicht definiert ist.“58 Eine „Kontrolle der Anfangsverdachtsbildung“ durch die Strafverfolgungsbehörden hält sie nicht für möglich, weil die Feststellung des „Anfangsverdachts“ einen umfassenden individuellen Beurteilungsspielraum einräume.59 Als Befugnisnorm für „Verdachtserforschungseingriffe“ bzw. die „Anfangsverdachtsbestimmung“ schlägt Kammann einen neu einzufügenden § 159a StPO („Vorermittlungsverfahren“) vor.60 Da das Wort „Anhaltspunkte“ ein weiteres Mal in § 159 I StPO (Leichenfund; unnatürlicher Todesfall) vorkommt, wird das Anzeigeverfahren in § 159 StPO zum Teil als gesetzlich geregelter Fall eines Vor-Vorverfahrens interpretiert. Die Existenz dieser Rechtsnorm sei ferner ein Argument dafür, dass es ein Ermittlungshandeln auch jenseits des sog. „Anfangsverdachts“ in anderen begründeten Fällen (z. B. „Vorermittlungen“ gegenüber Immunität genießenden Abgeordneten) geben dürfe.61 Gestützt wird diese Argumentation zusätzlich durch eine historische Betrachtungsweise.62 Die Gesetzesmaterialien belegen durch die Verwendung des Wortes „Anzeichen“ anstelle von „Verdacht“, dass ein separates vorgelagertes Verfahren, ein aliud zum Verdachtsverfahren, in Rede stand. Im Streit um die Vor- bzw. Vorfeldermittlungen wird heute zum Teil zusätzlich darauf verwiesen, dass die Strafprozessordnung der DDR bereits ein dem Ermittlungsverfahren vorgelagertes förmliches „Anzeigeprüfungsverfahren“ (§ 95 DDR-StPO) kannte.63 In diesem Sinne hat auch der Arbeitskreis Alternativentwürfe (AE) bereits 57  Eisenberg, S. 2248. – Kritisch zum Anfangsverdacht bei Geldwäscheermittlungen im Sinne von § 261 StGB Carl/Klos, S. 32–33. 58  Kammann, S. 1 (Einleitung). 59  Kammann, S. 192. 60  Kammann, S. 172–173. – Ähnlich Artzt, S. 147 ff., der von „Vorermittlungsverfahren“ bzw. „Sondierungsverfahren“ spricht. 61  Lange, S. 264–273. 62  In den Beratungen zum damaligen § 138 StPO (heute § 159 StPO) wurde ausweislich der Kommissionsprotokolle zu den Reichsjustizgesetzen von 1877 über die Verfahrensweise beim Auffinden eines unbekannten Leichnams bzw. bei unnatürlichen Todesfällen gestritten. Dieser Fall, so heißt es in den Protokollen, schreibe „gewisse Sicherheitsmaßregeln“ vor, da davon ausgegangen werden könne, dass „möglicherweise ein Verbrechen vorliegen könne“ und daher eine „Prüfung fordere, ob die Anzeichen einer strafbaren That sich am Leichname wahrnehmen ließen“, siehe Hahn, S. 717 (Hervorhebung N. R.). 63  Senge, S. 714.



II. Lehre vom Anfangsverdacht101

1998 einen Gesetzesvorschlag für sog. „Verdachtserforschungseingriffe“ vor dem Anfangsverdacht erarbeitet. Die neue Bestimmung, § 159a StPO („Verdachtserforschung und Vorermittlungsverfahren“) sollte nach dem Willen der Autoren Strafverfolgungsmaßnahmen unter dem Aspekt der „Verdachtserforschung“ unter bestimmten Voraussetzungen zulassen; der Begriff „Anhaltspunkte“ allerdings wurde auch hierbei nicht geklärt.64 Aufgrund der offensichtlichen dogmatischen Zuordnungsprobleme ist vieles im Zusammenhang mit Vorfeldermittlungen in Theorie und Praxis umstritten.65 Zum Teil wird inzwischen durch Novellierung der Polizeigesetze ein anderer Weg der Verrechtlichung beschritten, wobei der Regelungsstandort (Strafprozessordnung oder Landespolizeigesetz) streitig bleibt. Das geänderte Thüringische Polizeiaufgabengesetz vom 20. Juni 2002 enthält mit der neuen Bestimmung § 34 III S. 2, 3 Thüringisches Polizeiaufgabengesetz („Besondere Mittel der Datenerhebung“) erstmals eine Legaldefinition auf dem Gebiet der „pro-aktiven Verdachtschöpfung“ (sog. „Strukturermittlungen“). Derartige Vorfeldermittlungen sollen demnach dann zulässig sein, wenn „tatsächliche Anhaltspunkte für die Begehung künftiger Straftaten von erheblicher Bedeutung und in organisierter Form vorliegen, ohne dass diese bereits bestimmten Personen zuzurechnen sind“.66 Corinne Hoppe schlägt vor, neben „Gefahrenabwehr“ und „Strafverfolgung“ eine dritte Kategorie einzuführen, den „Verdacht einer abstrakten Gefahr“. Sie rückt mit dieser Kombination in die Nähe der Kategorie des „Risikos“: „Für die Strafprozessordnung muss gelten, dass die durch den Anfangsverdacht gezogene Eingriffsschwelle nicht überschritten werden kann. Das aber hat zur Folge, dass Vorfeldbefugnisse, die der Vorsorge für die Verfolgung künftiger Straf64  Wolter, S. 501–532 (Entwurf § 159a StPO abgedruckt S. 512–513). – Ferner Wohlers, S. 11–35. 65  Wegen offenbarer Überdehnung des Beurteilungsspielraums und damit rechtswidriger Verdachtsannahme seitens der Ermittlungsbehörden findet der Bundesgerichtshof im März 2010 in einem Ermittlungsverfahren wegen Gründung einer kriminellen Vereinigung (§ 129 a StGB) deutliche Worte. Das Gericht stellt fest, dass in dem betreffenden Verfahren über die Dauer von sieben Jahren rechtswidrig Ermittlungsmaßnahmen gegen drei Beschuldigte durchgeführt wurden, ohne dass nach objektiven Maßstäben ein „einfacher Tatverdacht“ vorgelegen habe. Es seien Lauschangriff, Telefonüberwachungen und Observationen veranlasst worden. In ungewöhnlich scharfer Form ruft der Senat die allgemeinen Grundsätze des Strafprozessrechts in Erinnerung, siehe Bundesgerichtshof, Beschluss vom 11. März 2010 in dem Ermittlungsverfahren gegen (…) wegen Verdachts des Gründens einer kriminellen Vereinigung u. a. (StB 16/09), S. 17 (Randnummer 25). 66  Gesetz- und Verordnungsblatt für den Freistaat Thüringen, den 27. Juni 2002, Nr. 7, S. 249.

102

1. Kap.: Anhaltspunkte und Anfangsverdacht

taten dienen, nicht in das geltende System von Gefahrenabwehr und Strafverfolgung einzupassen sind. (…) Als Lösung bietet sich an, diesen zwei herkömmlichen Kategorien eine weitere zur Seite zu stellen. Der ‚Verdacht einer abstrakten Gefahr‘ könnte neben dem herkömmlichen Gefahrenverdacht, der auf eine konkrete Gefahr bezogen ist, in der Weise stehen, wie die abstrakte Gefahr neben der konkreten Gefahr.“67

Anders Günter Haas. Am Ende seiner gründlichen Untersuchung zu „Vorermittlungen und Anfangsverdacht“ stellt er etwas resigniert fest, dass die Beschreibungen des Anfangsverdachts in den erwähnten Bestimmungen „unscharf“ blieben. Ausführungen wie „der Verdacht müsse begründet sein“ oder „Anhaltspunkte“ oder „bestimmte Tatsachen“ müssten vorliegen, seien „unpräzise“. Einzuräumen sei daher, dass es nicht möglich sei, die Voraussetzungen des Anfangsverdachts genau zu bestimmen. Ein hohes Maß an Unsicherheit bei der Beschreibung des Anfangsverdachts werde daher immer bleiben.68 Eine Differenzierung zwischen „Anhaltspunkten“ und „zureichenden tatsächlichen Anhaltspunkten“ grenzt nach Ansicht von Günter Haas an „Haarspalterei“.69

III. Verdachtschöpfung Wie beschreibt die Polizei selbst den Anfang der „Produktion von Aufklärung“, wie Reichertz formuliert? Was konkret ist mit „Verdachtschöpfung“ im (kriminal-)polizeilichen Sinne gemeint? Sehr anschaulich umschreibt dies Hans-Udo Störzer, Regierungsdirektor im Bundeskriminalamt. Er widmet der Thematik ein eigenes Kapitel im Standardwerk der bundesdeutschen Kriminalistik. Mit der „Verdachtschöpfung“, betont er, beginne recht eigentlich die „Straftaten-‚Aufdeckung‘ “. Seinen Überlegungen schickt er folgende Definition von „Verdachtschöpfung“ voraus: „Zu verstehen ist darunter die Wertung einer Wahrnehmung als Anzeichen für das Vorliegen eines strafrechtlich relevanten Sachverhalts.“70

Es gehe dabei nicht nur darum, das Vorliegen einer strafbaren Handlung oder die Täterschaft einer bestimmten Person zu erkennen, sondern zum Beispiel auch darum weitere Hintergründe festzustellen. Ob sich hinter einem scheinbar leichten Delikt in Wirklichkeit ein schweres Verbrechen verberge, ob eine Straftat zu einer Serie gehöre oder ob ein Zusammenhang mit der Organisierten Kriminalität gegeben sei. Wahrnehmungen könnten nicht nur einzelne Fakten sein (z. B. Wegtragen eines abgeschlossenen Fahr67  Hoppe,

S. 211–213. Günter (2003), S. 32. 69  Haas, Günter (2003), S. 16. 70  Störzer, S. 427–428 (Hervorhebung N. R.). – Ebenso Schneider/Lang, S. 243. 68  Haas,



III. Verdachtschöpfung103

rads), sondern auch „Tatsachenbündel“ (z. B. eine Sammlung von Daten, insbesondere Meldedienstdaten). Im Wege der Auswertung würden die vorliegenden Daten sodann, von Hand oder mittels EDV, zu „Kriminalindikatoren“ (z. B. „OK-Indikatoren“) verdichtet, bis sie die Qualität „zureichender tatsächlicher Anhaltspunkte“ hätten. Meist seien die gewonnenen Vorstellungen aber noch nicht so eindeutig, sie müssten erst noch überprüft werden. Die dazu notwendigen Informationen suche die Polizei mit Maßnahmen von sog. „informatorischen Befragungen“ bis zu „verdeckten Ermittlungen“ zu erlangen. Diese Maßnahmen, die auf eigene Veranlassung der Polizei erfolgten, nenne man „Initiativermittlungen“. Durch sie sollten nach der Entstehung von Verdachtsmomenten die Voraussetzungen für die Einleitung eines Ermittlungsverfahrens geschaffen werden. Sie dienten mithin nicht mehr der „Verdachtschöpfung“, sondern der „Verdachtsverdichtung“. Es handle sich dabei auch nicht mehr um Verdachtsgewinnung, sondern um „Informationsgewinnung“. Zur Terminologie führt er aus: „Der Vollständigkeit halber sei angefügt, dass sich gelegentlich der ganze hier aufgegliederte Komplex einschließlich der Maßnahmen der Verdichtung zu einem auf konkreten Tatsachen beruhenden Anfangsverdacht mit dem Begriff ‚konkrete Verdachtsgewinnung‘ zusammengefasst findet.“71

Hinsichtlich der „Verdachtschöpfung“ im engeren Sinne unterscheidet Störzer drei verschiedene Arten: − Intuitive Verdachtschöpfung − Empirischer Ansatz − Statistische Verfahren Für die beiden letzten Arten habe sich in der polizeilichen Literatur auch die Bezeichnung „Verdachts(gewinnungs)strategien“ durchgesetzt. Im Wesentlichen gehe es um Verfahren und Techniken mit dem Ziel der „Erlangung von Anhaltspunkten, aus denen eine auf einen Einzelfall bezogene unbekannte Tatsache logisch abgeleitet werden kann.“72 Die intuitive Verdachtschöpfungsform entziehe sich indessen der begrifflichen Erfassung und Beschreibung, könne „nicht wissenschaftlich exakt umrissen werden“.73 Hier sei in der Regel nur von „Phantasie“, „Instinkt“, „Spürsinn“ bzw. „Sechstem Sinn“, „Geistesblitz“ oder „Eingebung“ und der „hohen kriminalistischen Kunst des Verdachtschöpfens“ nach dem Vorbild von Roman- und Filmdetektiven die Rede. Der intuitiven Verdachtschöpfung stehe, so Störzer, „die exakte, systematische Vorgehensweise gegenüber. Diese kann entweder in der gezielten Verwendung einschlägiger wis71  Störzer,

S. 428. S. 428. 73  Störzer, S. 431. 72  Störzer,

104

1. Kap.: Anhaltspunkte und Anfangsverdacht

senschaftlicher sowie aus der Erfahrung gewonnener Erkenntnisse oder in einer planmäßigen Auswertung vorhandener Informationen liegen.“74 Das umfängliche Material aus Wissenschaft und Praxis müsse allerdings geordnet, nach Deliktsarten differenziert und systematisch erschlossen werden. In der Praxis hätten sich „Verdacht(schöpfung)skalender“ und „Checklisten zur Verdachtsgewinnung“ bewährt.75 Die Treffsicherheit der Verdachtschöpfung lasse sich steigern, wenn mehrere Verdachtsmerkmale zu „Verdachtsrastern“76 verknüpft und mehrdimensional ausgewertet würden. Von besonderer Bedeutung sei bei diesen statistischen Verdachtschöpfungsverfahren die EDV. In der Praxis sei der sog. „Kriminalpolizeiliche Meldedienst“ die wichtigste polizeiliche Nachrichtensammlung für die Verdachtsgewinnung – Anhalte- und Beobachtungsmeldungen der Schutzpolizei seien wertvoll, um Gruppenzugehörigkeiten und Täterverbindungen sowie Vorbereitungshandlungen frühzeitig zu erkennen.77 Störzers Beschreibung der Verdachtschöpfung ist noch eng an der kriminalpolizeilichen Praxis der konkreten Fallaufklärung, der Kriminaltaktik, ausgerichtet. Anders Wolfgang Heinz, Strafrechtslehrer an der Universität Konstanz, und Karl-Friedrich Koch, Mitarbeiter im Kriminalistischen Institut des Bundeskriminalamtes. Sie betrachten die Frage der Verdachtschöpfung von einem weitaus höheren theoretischen Niveau aus. In ihrer „Methodendarstellung“78 zur kriminalistischen Diagnose, Prognose und Strategie auf Makro- und Mikroebene wird deutlich, dass Verdachtschöpfung im kriminalistischen Sinne nicht mehr nur „Straftaten-Aufdeckung“ im Einzelfall ist. Nein, Kriminalistik soll auch der Schaffung von leistungsfähigen Frühwarnsystemen für die gesamte Gesellschaft im Hinblick auf Trends abweichenden Verhaltens dienen. Unter der Kapitelüberschrift Von der Strategie als Reaktion zur Übernahme der Handlungsinitiative entwickeln Heinz und Koch das Konzept einer strategischen Sozialkontrolle auf der Grundlage messbarer „Indikatoren“ bzw. sog. „Prädiktoren“. Entgegen der derzeitigen polizeilichen Praxis, die nur auf Täterstrategien reagiere, sei es „wünschenswert, polizeiliches Agieren und die Übernahme der Initiative auf dem Gebiet der Verbrechensbekämpfung an die Stelle der Reaktion treten zu lassen.“79 Gefordert sei damit eine verstärkt „antizipatorische Denkweise“ auch im Bereich der Verantwortlichen und Entscheidungsträger für die Strafverfol74  Störzer,

S. 437. S. 440–441. 76  Störzer, S. 448. 77  Störzer, S. 441. 78  Heinz/Koch, S. 81–165. 79  Heinz/Koch, S. 146–147. 75  Störzer,



III. Verdachtschöpfung105

Abbildung 5: Verdachtschöpfung nach Hans-Udo Störzer (1992)80

gungsorgane. Denkansätze und Überlegungen dieser Art gebe es bereits in der Wirtschaft, der Verwaltung und im militärischen Bereich. Es ließen sich so zum Beispiel Modelle entwickeln, die auf der „Beobachtung von Indikatoren und Prädiktoren“ aufbauten. Wegen der Schwierigkeit, „Ursachen“ für ein abweichendes Verhalten des Menschen zu suchen, zu finden und zu katalogisieren, erscheine es sinnvoller, „Indikatoren“ aufzuzeigen, welche bereits eingetretene Zustände markierten und bevorstehende Entwicklungen kennzeichneten. Die Indikatoren signalisierten Entwicklungstendenzen und erlaubten so Rückschlüsse auf mittel- und kurzfristig bevorstehende Ereignisse. Indikatoren sollten dabei auch aus dem nichtpolizeilichen Bereich hinzugezogen werden, so etwa „Indikatoren für latente Zustände in der 80  Störzer,

S. 429.

106

1. Kap.: Anhaltspunkte und Anfangsverdacht

Gesellschaft und anderweitig kaum bemerkbare Entwicklungen, die in (un-) mittelbarem Zusammenhang mit Kriminalität stehen.“81 Indikatoren dieser Art müssten „statistisch untermauert – operationalisiert – werden können, um sie planerisch berücksichtigen zu können.“82 Was Heinz und Koch vorschwebt, ist ein umfassendes Frühwarnsystem auf Indikatorenbasis. Durch systematische statistische Auswertung soll dieses zu „Prädiktoren“ gelangen, die – wie der Name sage – „hauptsächlich prognostischen und antizipatorischen Zwecken“ dienen und Aussagen über die quantitative und qualitative Kriminalitätsentwicklung in der Zukunft machen sollen. Ein derartiges System – so die Autoren – ermögliche es, längerfristig wirksam werdende Aspekte (etwa strukturelle, technologische, sozialpolitische, demographische Trends) „einzufangen“. Gleichzeitig erfolge dadurch eine Schwerpunktverlagerung vom kurzfristigen Reagieren zum strategischen Agieren, da man von einem gezielten Einrichten auf den Empfang „schwacher Signale („weak signals“) ausgehe. Erfasst werden könne so die plötzliche Häufung gleichartiger Ereignisse, die in irgendeiner Form für das „System Polizei“ relevant sei oder werden könne. Dazu würden Meinungen, Verlautbarungen, Stellungnahmen von Schlüsselpersonen, -institutionen oder -organisationen, die sich mit polizeirelevanten Themen befassten, eingefangen.83 Über die Vorstellungen von Störzer zur Verdachtschöpfung gehen diese Gedanken weit hinaus. Man könnte – Störzer folgend – an eine Art „makrosozialer Initiativermittlung“ denken. Für Heinz und Koch geht es im Wesentlichen um die konsequente Übertragung der Ansätze der strategischen Planung, des New Public Management und der Grundsätze der Risikosteuerung in Unternehmen auf die Kriminalistik.84 Schlüsselwörter dieses Denkens sind „Frühanalyse“, „Früherkennung“ und „Frühwarnsystem“. Ablesbar und konkret nachvollziehbar wird dies am Beispiel des betriebswirtschaftlichen Konzepts der sog. „strategischen Kontrolle“.85 Die Formel repräsentiert in den Wirtschaftswissenschaften einen Schlüsselbegriff. Kerninhalt ist die Kontrolle strategischer Risiken für ein Unternehmen. Integrale Bestandteile sind 81  Heinz/Koch,

S. 147. S. 147. 83  Heinz/Koch, S. 147. 84  Ansoff, Harry I.: Die Bewältigung von Überraschungen und Diskontinuitäten durch die Unternehmensführung. Strategische Reaktionen auf schwache Signale, in: Horst Steinmann, unter Mitarbeit von Rainer Achenbach (Hrsg.) Planung und Kontrolle – Probleme der strategischen Unternehmensführung, München 1981, S. 233– 264 [Original: Managing Strategic Surprise by Response to Weak Signals, in: California Management Review, vol. XVIII, no. 2, S. 21–32]. 85  Schreyögg/Steinmann, S. 391–410. 82  Heinz/Koch,



III. Verdachtschöpfung107

− Früherkennung, − Erfassen schwacher Signale, − aktive Informationsgewinnung und − konsequenter Aufbau von unternehmensinternen Frühwarnsystemen.86 Der Begriff der „strategischen Kontrolle“, der im Sicherheitskontext die gesetzliche Aufgaben der Nachrichtendienste umschreibt87, konnte sich im Zuge der Vorfeldorientierung der Polizei und der kriminalstrategischen Ausrichtung der Kriminalistik mit zusätzlichen planungstheoretischen Inhalten aufladen. Effektive Straftatenverfolgung wird so bei Heinz und Koch zur Straftatenvermeidung mittels „pro-aktiver“ systematischer Dunkelfeldaufhellung. Sie unterstreichen, dass ein derartiges strategisches Frühwarnsystem auf „messbaren Größen“ und „statistischen Korrelationen“ beobachteter Indikatoren fußen müsse. Der Einsatz der elektronischen Datenverarbeitung – so die Autoren – sei für die Umsetzung des vorgeschlagenen Modells für ein Frühwarnsystem unerlässlich: „Ausgangspunkt ist die Überlegung, dass Gefährdungen / Risiken, die zwar im Verborgenen bereits vorhanden, aber noch nicht sichtbar eingetreten sind, sich vielfach aber schon in Form durchaus wahrnehmbarer Veränderungen an anderen Erscheinungen ankündigen (Frühwarnindikatoren). Auf der Grundlage einer individuellen Bestimmung relevanter interner und externer Beobachtungsfelder ist für jeden interessierenden Bereich mindestens ein spezifischer Frühwarnindikator zu entwickeln. Als brauchbare Indikatoren interessieren in erster Linie messbare Größen, bei denen eine zeitverschobene Korrelation zwischen ihrer eigenen Veränderung und der Änderung der interessierenden Erscheinung vorliegt.“88

Es zeigt sich, dass Heinz und Koch ganz der Planungseuphorie und der Aussagekraft probabilistischer Trendforschung der 70er und 80er Jahre des letzten Jahrhunderts erlegen sind. Entsprechend systematisch fällt ihr Modell eines polizeilichen Frühwarnsystems auf Indikatorenbasis aus. Folgende Entwicklungsstufen seien zu berücksichtigen: − Zieldefinition; − Ermittlung von Beobachtungsbereichen zur Erkennung von Gefährdungen und Chancen; − Definition bzw. Bestimmung von Frühwarnindikatoren je Beobachtungsbereich; 86  Kraus, Sascha: Strategische Planung und Erfolg junger Unternehmen, Wiesbaden 2006. 87  Arndt, S. 107–111. – Ferner Daun, S. 56–77; Gröpl, Christoph: Die Nachrichtendienste im Regelwerk der deutschen Sicherheitsverwaltung. Legitimation, Organisation und Abgrenzungsfragen, Berlin 1993. 88  Heinz/Koch, S. 149.

108

1. Kap.: Anhaltspunkte und Anfangsverdacht

− Suche nach und Auswahl von geeigneten Indikatoren; − Feststellung von Sollwerten und Toleranzen je Indikator; − Vorgabe eines einzuhaltenden Messfeldes; − Festlegung von Aufgaben zu bildender Informationsverarbeitungsstellen; − Ausgestaltung der internen und externen Informationskanäle. In der „Methodendarstellung“ von Heinz und Koch kommt etwas zum Ausdruck, das man die „strategische Wende in der Kriminalistik“ nennen könnte. Im wahrsten Sinne des Wortes: Eine Wende zur „Kriminalstrategie“. Im kriminalistischen Diskurs hatte sich etwa zur selben Zeit die „Kriminalstrategie“ als weitgehend unumstrittene „dritte Säule der Kriminalistik“ neben „Kriminaltaktik“ und „Kriminaltechnik“ etabliert.89 Edwin Kube defi­ niert „Kriminalstrategie“ als „das rationale Zusammenwirken der polizeilichen Kräfte zur Verwirklichung der Ziele der Kriminalpolitik, also die Ausrichtung der Gesamtorganisation auf die Bekämpfung der Kriminalität.“90 Je nach Planungsinhalt könne man zwischen „theoretischer und operativer Strategie“ unterscheiden, schreibt Kube. Er betreibt damit mit anderen führenden Kriminalisten die Verwissenschaftlichung der Kriminalistik und spricht daher auch konsequent – in Abänderung zu früheren Bezeichnungen („Moderne bzw. Naturwissenschaftliche Kriminalistik“) nach der vollzogenen kriminalstrategischen Wende von „Wissenschaftliche(r) Kriminalistik“.91 Das neue Aufgabenfeld der Kriminalistik, die „Kriminalstrategie“, ist, wie eine genauere Analyse des Diskurses ergibt, außerordentlich stark geprägt von verwaltungswissenschaftlichem Denken, insbesondere modernen systemtheoretisch fundierten Managementtheorien und dem Paradigma der Planung, Evaluation und Erfolgskontrolle.92 Mehr und mehr setzt sich mit 89  Zimmermann, S. 643: „Diese Form der planenden Kriminalitätskontrolle erweitert die klassische Definition der Kriminalistik (Kriminaltaktik und -technik) um eine dritte Säule, die Kriminalstrategie.“ – Anderer Ansicht ist Gerhard Schmelz, der eine Einordnung der „Kriminalstrategie“ als Teildisziplin oder Wissensbereich der Kriminalistik aufgrund der Weiterentwicklung gesellschaftlicher und wirtschaftlicher Randbedingungen und fehlender gesamtgesellschaftlicher Prognosen für problematisch hält, siehe Schmelz, S. 204. 90  Kube/Schreiber, S. 3. 91  Kube/Störzer/Eyrich, S. 141–163. 92  Reez, Norbert: Das Wort „Kriminalstrategie“. Studien zur Geschichte und Karriere eines kriminalistischen Begriffs, Universität Hamburg (Unveröffentlichte Diplomarbeit) 1995. – Zur Entwicklung des Planungsparadigmas Van Laak (2008), S. 325: „Als vorläufige Hypothesen für den ‚Bruch‘ des Planungsdenkens seit den siebziger Jahren könnte formuliert werden: Während man in der klassischen Phase der Planung oft glaubte, alle für eine erfolgreiche Planung relevanten Informationen im Griff zu haben, führte die fortlaufende Komplexitätserweiterung der Planung



III. Verdachtschöpfung109

der kriminalstrategischen Ausrichtung der Kriminalistik auch der Begriff der „Kriminalitätskontrolle“ durch. Man spricht von „Planung der Verbrechensbekämpfung“ und „strategischer Kriminalitätskontrolle“.93 Ganz in diesem Sinne strebt Heinz Büchler, Mitarbeiter im Bundeskriminalamt, einen „ganzheitlichen Ansatz“ der Verbrechensbekämpfung und Kriminalitätskontrolle an. Maßstab des „strategischen Managements der Verbrechensbekämpfung“ müsse daher die Aufrechterhaltung der öffentlichen Sicherheit und Ordnung als Ganzes sein. Die strategische Ausrichtung der Verbrechensbekämpfung müsse schließlich auch richtungsweisend für die operative Verbrechensbekämpfung sein.94 In einem so verstandenen ganzheitlichen Modell von Planung und Erfolgskontrolle ist Output des Polizeihandelns gewissermaßen die polizeiliche Aufklärungsquote im Hinblick auf begangene oder verhinderte Straftaten. Um diesen Gesamterfolg zu erhöhen, ist es nach der quantitativen Logik des Planungsparadigmas notwendig, das Verdacht-Vorfeld zu kontrollieren bzw. intensiv „Informa­ tionsvorsorge“ zu betreiben.95 Die Vorfelddaten formieren gleichsam den Obersatz, von dem die Ableitung auf den Verdacht erleichtert und so die Aufklärungs- bzw. Verhinderungsquote erhöht werden kann. So gesehen, kann „strategische Kontrolle“ des Vorfeldes im kriminalstrategischen Sinne als Versuch verstanden werden, den Möglichkeitsraum im Vorfeld, den Risikobereich vor der Gefahr, in den Griff zu bekommen. Die Polizei begreift Verbrechensbekämpfung danach als „Planung“, d. h. als Regelkreis, in dem relevante Daten zur „Inneren Sicherheit“ verarbeitet werden.96 Folgerichtig spielt der Aspekt der „Prämissenkontrolle“ eine Schlüsselrolle für jede strategische Planung im Unternehmen. Lothar R. Ohland erläutert den Zusammenhang so: „Da strategische Pläne gegenüber operativen Plänen eine (Vor-)Steuerungsfunktion erfüllen (sollen) und derartige interne, autorisierte Vorsteuerungsgrößen für die strategische Planung nicht existieren, genügt es nicht, Vergleichsinformationen nur über den Realisierungsgrad der strategischen Planung zu erstellen, da die hieraus gewonnenen Informationen nur unzureichende Erkenntnisse über den Qualitätsgrad der strategischen Planung selbst und zudem meist zu spät ergeben. Frühzeitigere Hinweise resultieren dagegen aus einer Kontrolle der Prämissen, die den Inhalt der getroffenen Planungsentscheidungen wesentlich beeinflussen und seither zu methodischen Verfeinerungen, aber auch zur Reduzierung der zeitlichen Horizonte.“ 93  Klink/Kordus: Kriminalstrategie. Grundlagen polizeilicher Verbrechensbekämpfung, Stuttgart 1986. – Ferner Stein, S. 23–30; Zimmermann, S. 637–663. 94  Büchler (1995), S. 46. 95  Schäfer (Hrsg.), Im Vorfeld des Terrorismus, Bd. 1: Gruppe und Masse; Bd. 2: Angst und Gewalt; Bd. 3: Militante Gewalt, Bremen 1986. 96  Kube/Aprill (Hrsg.), Planung der Verbrechensbekämpfung, Heidelberg 1980.

110

1. Kap.: Anhaltspunkte und Anfangsverdacht

garantiert

Abbildung 6: Polizei im Verständnis des New Public Management nach Jochen Christe-Zeyse (2005) deren Änderung eine (präventive) Anpassung der strategischen Planung erfordern kann. Über die expliziten Prämissen hinaus sind, soweit als möglich, auch implizite Prämissen zu rekonstruieren und zu kontrollieren.“97

„Prämissenkontrolle“ hat zum Ziel, das Risiko von Fehlplanungen dadurch zu minimieren, dass man ungewisse Randbedingungen der strategischen Unternehmensplanung „kontrolliert“ berücksichtigt. Mit den strategischen Planprämissen ergeben sich neben dem Plan weitere „Kontrollobjekte“, die in kontrollfähiger Form im Planungsprozess berücksichtigt werden. Prämissenkontrolle vollzieht sich regelmäßig in folgenden Schritten: − 1. Schritt:  Suche nach Einflussfaktoren der strategischen Planung, die als potentielle Kontrollobjekte in Betracht kommen. − 2. Schritt: Analyse ihrer Beziehung zur strategischen Planung des Unternehmens. − 3. Schritt: Definition von kritischen Einflussfaktoren („kritische Prämissen“, „basic assumptions“, „Schlüsselfaktoren“, „key factors of success“). Die Generierung strategischer Planprämissen sei – so wird mit Nachdruck betont – in erster Linie eine Frage der „Informationsgewinnung“. Frühwahr97  Ohland, S. 105, 315–319. – Ferner Reiners, Hans Peter: Strategische Kontrolle. Eine mehrdimensionale vernetzte Betrachtung der Kontrollaufgabe der Unternehmensleitung mit Schwerpunkt auf dem instrumentellen Aspekt, Frankfurt a. M. 1995.



III. Verdachtschöpfung111

nehmung von Veränderungen im Bereich kritischer Erfolgsfaktoren, d. h. die Wahrnehmung schwacher Signale erfordere jeweils eine umfassende und aktuelle Informationsbasis. Es lässt sich hier eine enge Affinität zwischen dem Prinzip der „Prämissenkontrolle“ innerhalb der abstrakten Planungsdiskussion und der Praxis polizeilicher Vorfeldstrategien auf der Basis von „Indikatoren“ bzw. „Prädiktoren“ ausmachen.98 Aus der „Prämissenkontrolle“ im Rahmen strategischer Unternehmensplanung ist im Konzept von Heinz und Koch der „Prädiktor“ für das kriminalstrategische Management von öffentlicher Sicherheit geworden. Verdachtschöpfung verwandelt sich auf diese Weise von einer intuitiv-tastenden Suche nach „Anzeichen“ und „tatsächlichen Anhaltspunkten“ für eine Verdachtsannahme (Hypothese) in einen systematisierten, planerischen Datenverarbeitungsprozess. Die Bezeichnungen für IT-gestützte Verfahren der „pro-aktiven“ Verdachtschöpfung sind vielfältig: Zum Teil ist die Rede von „Verfahrensiniti­ ierung“99, zum Teil von „Verdachtsgewinnung“100, „Initiativermittlung“101, „strategischer Auswertung“ oder „Intelligence-Arbeit“.102 Ferner von „strategischer Kontrolle“, „Vorfeld- bzw. Strukturermittlungen“, „pro-aktiver (Vor-) Verdachtsgewinnung“, „Früherkennung“, „operativer Vorfeld-Informationserhebung“ oder einfach „Verdachtschöpfung“.103 Der Zweck des dem förmlichen Ermittlungsverfahren vorgelagerten „Verfahrensinitiierungsprozesses“ bestehe im Wesentlichen darin, ein „Hypothesengerüst“ zu entwickeln, das den Anforderungen eines Anfangsverdachts entspreche. Mittel sei ein systematischer und strukturierter kriminalstrategischer Auswertungsprozess: 98  Christe-Zeyse, Joachim: Modernes Management in der deutschen Polizei: Erfahrungsberichte aus der Praxis, Frankfurt a. M. 2005a. – Ferner Promberberger/ Koschar/Koler, S. 3–13. 99  Weigand/Büchler/Wenke, S. 12–18. 100  Forstenhäusler, S. 33–38. 101  Nach Schneider/Lang, S. 133, ist „Initiativermittlung“ eine „Ermittlung auf eigene Veranlassung der Polizei zum Zweck der Verdachtsverdichtung, ein gewisses Potenzial an Ausgangsinformationen zum Vorliegen eines Anfangsverdachts muss vorliegen, besondere Bedeutung bei der Bekämpfung der Korruption und Organisierter Kriminalität“. 102  Ingo Wirth betrachtet „Initiativermittlungen“ und „Vorfeldermittlungen“ als Synonyme; es handle sich dabei um „polizeiliche Maßnahmen mit dem Ziel der vorbeugenden Verbrechensbekämpfung“, vgl. Wirth, Ingo, S. 300. 103  Landeskriminalamt Nordrhein-Westfalen (Hrsg.), Verdachtsschöpfung und Sachbearbeitung bei Fällen des Menschenhandels. Konzeption der Arbeitsgruppe „Menschenhandel“, Düsseldorf 2006. – Forstenhäusler, S. 33–38; Fischer, S. 216– 235. – Zur Praxis der Finanzermittlungen auf der Grundlage von sog. „Verdachtsmeldungen“ im Bankensektor Pütter (2003), S. 50–55.

112

1. Kap.: Anhaltspunkte und Anfangsverdacht

„Die Bedeutung der Auswertung für den Verfahrensinitiierungsprozess wird darin deutlich, dass erste Anhaltspunkte für einen Anfangsverdacht in Form eines Hypothesengerüsts durch die Auswertung erstellt werden. Eine Bestätigung oder Verwerfung dieser Annahmen erfolgt durch weitere Ermittlungen, die das Ziel haben, einen Anfangsverdacht im Sinne des § 152 (2) StPO zu generieren. Auf der Grundlage von gegenseitiger Akzeptanz und ‚Mehrwerterfahrung‘ zwischen Auswertung und Ermittlungen wird der Verfahrensinitiierungsprozess als gemeinsames Vorgehen in einem ‚Informationskreislauf‘ (Informationen – Hypothesen – Anfangsverdacht – Verfahren – Informationen) verstanden. Ziel des Prozesses ist, eine geeignete und gesicherte Basis für die Einleitung eines strafprozessualen Ermittlungsverfahrens zu schaffen.“104

Der informelle „Verfahrensinitiierungsprozess“ in der polizeilichen Praxis ist damit der vorläufige konzeptionelle Schlusspunkt einer rechtspolitisch gewollten Vorverlagerungsstrategie im Strafrecht. Unklar und umstritten ist, wie diese Praxis der „pro-aktiven“ Generierung von „tatsächlichen Anhaltspunkten“ im Hinblick auf die Begründung eines „Anfangsverdachts“ (im Sinne des Strafprozessrechts) oder eines „Gefahrenverdachts“ (im Sinne des Bundes- bzw. Landespolizeirechts) rechtssystematisch überzeugend eingeordnet werden kann. Die Praxis läuft – trotz einer Vielzahl von normativen Abgrenzungsversuchen105 – Gefahr, die verschiedenen, mit unterschiedlichen Rechtsgarantien ausgestatteten Rechtsgebiete einzuebenen. Sehr deutlich wird dies bei der Figur des sog. „Verdachtsstörers“106, bei dem die polizeiliche Verantwortlichkeit (Polizeipflichtigkeit) eines „Nichtstöreres“ allein auf eine Verdachtsannahme gestützt werden soll. Teilweise wird hier bereits mit Blick auf das im Polizeirecht geltende Effektivitätsprinzip der vollständige Verzicht auf Verdacht, d. h. die „verdachtslose Informationsvorsorge“ propagiert.107 Der „pro-aktive“ Bekämpfungsansatz, d. h. die planmäßige (strategische) Kriminalitätskontrolle ist in der bundesdeutschen Polizeipraxis inzwischen ganz herrschend. So heißt es im Standardwerk der Kriminalistik: „Die Erkenntnisgewinnung und -vertiefung durch offensive und systematische Informationsbeschaffung sowie die vorzuverlagernde Verdachtsgewinnung bei 104  Weigand/Büchler/Wenke,

S. 14. werden in verschiedenen Gesetzestexten teilweise „tatsächliche Anhaltspunkte“, teilweise „Tatsachen, die die Annahme rechtfertigen“ zur Eingriffsvoraussetzung von Vorfeldbefugnissen, siehe Schenke/Graulich/Ruthig (Hrsg.), Sicherheitsrecht des Bundes. BPolG, BKAG, BVerfSchG, BNDG, VereinsG, München 2014. 106  Schenke zu § 17 BPolG, Rdnr. 33. 107  Lorenz, S. 1008–1010: „Um ein wirklich effektives Einsatzmittel darzustellen, muss die operative Informationserhebung (präventive Telefonüberwachung, Datensicherung etc.) ohne Anknüpfung an einen konkreten Straftatverdacht erfolgen. (…). Die Anknüpfung an den konkreten Straftatverdacht als ,heilige Kuh‘ des Rechtsstaats stammt aus der Zeit der Reichsjustizgesetze, die noch durch die beschriebene Antinomie von Strafverfolgung und Individualität gekennzeichnet war.“ 105  So



III. Verdachtschöpfung113 gleichzeitiger Professionalisierung der Beweisführung auch bei verdeckten Maßnahmen müssen strategische Leitlinien werden.“108

Nach Einschätzung von Experten der Landeskriminalämter und des Bundeskriminalamtes trägt die „derzeit praktizierte Strategie der Kriminalitätsbekämpfung der Forderung nach systematischer Verdachtsgewinnung bereits weitgehend Rechnung“. Dennoch betont man die Notwendigkeit einer Generierung von Verdachtsmomenten „im Vorfeld“ zur gezielten Aufhellung des Dunkelfeldes: „Die zielgerichtete und systematische Aufklärung und Sammlung relevanter Informationen, die einen Anfangsverdacht begründen könnten, führen insbesondere bei beständiger Anwendung zu einer Informationslage, die geeignet erscheint, in den jeweiligen Kriminalitätssegmenten Tat-, Täterstrukturen zu erkennen. Dieser proaktive Bekämpfungsansatz führt zur Aufdeckung von Strukturen, die nicht oder zu spät erkannt worden wären. Damit dürfte auch eine verbesserte Einschätzung der Gefahrenlage einhergehen. Die damit verbundene Aufhellung des Dunkelfeldes würde letztendlich auch eine Verbesserung der Sicherheitslage bewirken.“109

Pointiert fassen jüngere Kriminalisten in einem „Orientierungsrahmen“ das weithin geltende Verständnis von „kriminalstrategischer Problemlösung“ zusammen: „Kriminalstrategie und die Anwendung der hier vorzustellenden Planungsmethodik und Planungsinhalte ist nicht an bestimmte Führungsebenen gebunden. Vielmehr ist Strategie ebenenspezifisch auszulegen und im Hinblick auf die Realisierbarkeit eng mit Fragen operativ taktischer Führungsleistung und -umsetzung verknüpft. Im Kern der Kriminalstrategie steht dabei die planerische Leistung. ‚Gute‘ Kriminalstrategie ist daher nicht die Summe spontaner Geistesblitze von Eingebung oder Berufserfahrung, sondern das Ergebnis professioneller Analyse und der Fähigkeit, methodisch sauber zu arbeiten. Der Planungsprozess steht dabei nicht synonym für ‚Kriminalstrategie‘, sondern ist das handwerkliche Rüstzeug, mit dem strategische Überlegungen verwertbar konkretisiert werden können.“110

Hier tritt die überragende Dominanz des Planungsparadigmas im Rahmen der Verdachtschöpfung vollständig zu Tage: Verdachtschöpfung im Vorfeld wird so methodisch als kriminalstrategisches Problem begriffen, das sich mit Hilfe des strukturierten kriminalstrategischen Problemlösungsprozesses systematisch lösen lasse. Der Problemlösungsprozess stelle sich in der Praxis „in erster Linie“ als „Informationsmanagementprozess“ dar.111 Damit alle Planungselemente „wie ein Räderwerk ineinander“112 greifen könnten, 108  Ziercke/Jansen/Finkel,

S. 497, 518. S. 13. 110  Berthel/Pezolt/Spang/Westphal/Zott: Der kriminalstrategische Problemlösungsprozess, Stuttgart 2006, S. 29. 111  Berthel/Pezolt/Spang/Westphal/Zott, S. 26. 112  Berthel/Pezolt/Spang/Westphal/Zott, S. 172. 109  Weigand/Büchler/Wenke,

114

1. Kap.: Anhaltspunkte und Anfangsverdacht

so die Autoren, sei ein geeignetes „Controlling“, d. h. die Definition von Messgrößen zur Operationalisierung der formulierten Ziele, erforderlich. Verdachtschöpfung im Vorfeld ist – legt man die Differenzierung von Störzer zugrunde – heute in der Hauptsache „statistische Verdachtschöpfung“ mit Hilfe der EDV im Sinne einer strategischen Sozialkontrolle.

IV. Anhaltspunkte Leuchttürme sind ein Paradebeispiel für orientierungsstiftende Anhaltspunkte. Hochaufragend, weithin sichtbar, Tag und Nacht bei Wind und Wetter Lichtsignale aussendend, dienten sie für Jahrhunderte Seefahrern zur Orientierung. In der Antike war Seefahrt vornehmlich Küstenfahrt am Tage. Man orientierte sich an einprägsamen Punkten der Küstenlinie (Tages- bzw. Landmarken). Etwa im 13. Jahrhundert beginnt mit der Entdeckung und Nutzbarmachung des Kompasses die eigentliche Seefahrt, auch nachts. Mönche und Einsiedler betrachteten es zu dieser Zeit als gottgefälliges Werk, Leuchtfeuer zu unterhalten. Dazu wurden, besonders auf Klippen, offene Feuer angezündet oder Fackeln an möglichst hohen Stangen angebunden. Nach und nach wurden diese Feuer dann Orientierungszeichen für Seeleute.113 Sichtbare Zeichen, die der Schifffahrt dienen, heißen heute Seezeichen. Man unterscheidet feste, zum Beispiel Leuchttürme und Baken, und schwimmende, etwa Tonnen und Bojen. Leuchttürme sind heute Kulturdenkmäler, Zeugen des revolutionären technischen Fortschritts. Als Seezeichen sind sie überflüssig geworden: Seit 1995 ist weltweit das satellitengestützte Ortungs- und Navigationssystem GPS (Global Positioning System) in Betrieb. Punkte auf dem Radarschirm ersetzen nunmehr feste Seezeichen.114 Angesichts der revolutionären Dynamik des sozialen Wandels am Beginn des 21. Jahrhunderts scheint nichts dringlicher als Orientierung. „Revolu­ tion“ ist die bevorzugte Metapher vieler Beobachter, um die Veränderungen zu umschreiben; von „industrieller, „technologischer“ und „digitaler Revolution“ ist die Rede.115 Immer schneller, stürmischer, verändern sich Staat 113  Jacoby,

S. 7. Basis dieses weltweiten Navigationssystems bilden 24 Navigationssatelliten, welche die Erde in 20.000 km Höhe umkreisen. Die ausgesendeten hochpräzisen Signale können mit Satellitenempfängern in einem Fahrzeug empfangen werden. Aus der Laufzeitverschiebung der Signale von mindestens 3 Satelliten errechnet ein kleiner Prozessor im Empfangsgerät den eigenen Standort in Längen- und Breitengraden bis auf 100 m Genauigkeit, in einer Präzisionsvariante (Differential-GPS) sogar bis auf 1 m; vgl. Bach, S. 657–672. 115  Vallée, Jacques: The Network Revolution. Confessions of A Computer Scientist, Berkeley 1982; Harris, S. 31–44; Kreibig, Rolf: Die Wissenschaftsgesellschaft. 114  Die



IV. Anhaltspunkte115

und Gesellschaft unter dem Einfluss der neuen Technologien in den Bereichen Informatik, Nanotechnik, Robotik, Optronik, Sensorik oder etwa der Biogenetik. Überall setzt sich Digitalisierung als Megatrend durch, bestimmen informationsverarbeitende Systeme, integrierte Netzwerke mit idealerweise interoperabler Informationsarchitektur und Verbundanwendungen das Bild. Eine Art kultureller Metamorphose im Zeitraffer vollzieht sich förmlich vor unseren Augen. Deutlichstes und für alle sichtbares Zeichen der revolutionären Veränderungen ist der Wandel des Internets zum interaktiven Medium: Im Verlauf der letzten zwei Jahrzehnte sind Web 2.0, Social Web oder Cyberspace116 zu Synonymen einer neuen Informationsinfrastruktur und Kommunikationskultur geworden. Das World Wide Web hat sich vom anfänglichen Präsentations- und Archivmedium zu einer interaktiven Plattform entwickelt, was nicht nur eine „radikale Demokratisierung“117 sondern auch eine Datenflut zur Folge hat. Eines der Hauptprobleme der Datenflut ist nach Auffassung des Medienwissenschaftlers Norbert Bolz zu wissen, was man überhaupt wisse. „Informationsüberlastung“ sei zum „Normalfall der Weltwahrnehmung“ geworden. Visuelle Kommunikation löse die Epoche der bilderlosen Textualität ab, da durch Bilder Informationen höher verdichtet werden könnten.118 Wolfgang Coy sieht in der Vernetzung und Medienintegration Vorzeichen einer kommenden globalen medialen Gesellschaft, die Prozesse in Gang setze, deren Wirkungen mit denen der Literarisierung vergleichbar seien: „Die Ablösung der Schriftkultur durch eine Computerkultur hat gerade begonnen. Die Gutenberg-Galaxis erweitert sich zur Turing-Galaxis.“119

Soweit es um Orientierung im weltweiten Datenmeer geht, dominieren nautische Metaphern; man „navigiert“ und „surft“. Die maritime Metaphorik in Sozialen Netzwerken (z. B. „streams“, „life stream“) unterstreicht die Von Galilei zur High-Tech-Revolution, Frankfurt a. M. 1986; Anders, Günter: Die Antiquiertheit des Menschen, Bd. 2: Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution, München 1988; Gerbner/Gross/Melody: Communications Technology and Social Policy. Understanding the New „Cultural Revolution“, New York 1989; Bell, S. 28–47; Flusser, Vilem: Die Revolution der Bilder. Der Flusser-Reader zu Kommunikation, Medien und Design, Mannheim 1995. 116  Schmidt, Jan-Hinrik: Das neue Netz. Merkmale, Praktiken und Konsequenzen des Web 2.0, Konstanz 2009; ARD/ZDF-Medienkommission (Hrsg.), Internet zwischen Hype, Ernüchterung und Aufbruch. 10 Jahre ARD/ZDF-Onlinestudie 2009; Busemann/Gescheidle, S. 359–368. 117  Scheurer/Spiller, S. 9. 118  Bolz (1995), S. 228. 119  Coy, S.  XVII. – Dazu Meckel/Stanoevska-Slabeva (Hrsg.), Web 2.0. Die nächste Generation Internet, Baden-Baden 2008 sowie Haupter (Hrsg.), Der digitale Dämon. Informations- und Kommunikationstechnologien zwischen Alltag und Ängsten, München 2013.

116

1. Kap.: Anhaltspunkte und Anfangsverdacht

Abbildung 7: Logo Netscape Navigator120

Tendenz der Datenschwemme biblischen Ausmaßes.121 „Leuchtturm-Projekte“ wetteifern um Aufmerksamkeit und versuchen die Orientierung zu erleichtern. Die Internet-Suchmaschine Netscape Navigator brachte dies symbolisch deutlich durch einen Leuchtturm im Firmen-Logo zum Ausdruck. Was geschieht, wenn wir uns an „Punkten“, gleichviel ob auf dem Radarschirm, an Leuchtfeuern oder Leuchttürmen orientieren?122 Darauf hat bereits Immanuel Kant eine Antwort zu geben versucht. In einer kleinen Schrift mit dem Titel Was heißt: Sich im Denken zu orientieren? führt er aus: „Sich orientieren heißt, in der eigentlichen Bedeutung des Wortes: aus einer gegebenen Weltgegend (in deren vier wir den Horizont einteilen) die übrigen, namentlich den Aufgang zu finden. Sehe ich nun die Sonne am Himmel, und weiß, dass es nun die Mittagszeit ist, so weiß ich Süden, Westen, Norden und Osten zu finden. Zu diesem Behuf bedarf ich aber durchaus das Gefühl eines Unterschiedes an meinem eigenen Subjekt, nämlich der rechten und der linken Hand. Ich nenne es ein Gefühl; weil diese zwei Seiten äußerlich in der Anschauung keinen merklichen Unterschied zeigen.“123

120  Netscape Navigator war bis etwa 1996 die führende Suchmaschine (Web­ browser). Ende 1998 verlor Netscape Navigator den sogenannten „Browserkrieg“ gegen den Internet Explorer; seine Weiterentwicklung wurde zum 1. März 2008 eingestellt. 121  Junge/Berzina/ScheiffeleWesterveld/Zwick (Hrsg.), The Digital Turn. Design in the Era of Interactive Technologies, Berlin 2012, die bereits im Buch-Design eine maritime Metaphorik zugrundelegen. 122  Simon, Josef (Hrsg.), Orientierung in Zeichen. Zeichen und Interpretation III, Frankfurt a. M. 1997. 123  Kant (1979), S. 291.



IV. Anhaltspunkte117

Noch undeutlich spricht Kant hier von einem „Gefühl“, einem zusätzlichen „subjektiven Prinzip“. Die rein objektive Orientierungsmethode hält er für unzulänglich. Jeder rationalen Orientierung scheine vielmehr eine Art subjektiv-objektiver Vor-Orientierung vorauszugehen. Kant formuliert: „Sich im Denken überhaupt orientieren heißt also: sich bei der Unzulänglichkeit der objektiven Prinzipien der Vernunft, im Führwahrhalten nach einem subjektiven Prinzip derselben bestimmen.“124

Werner Stegmaier hat diesen Gedanken aufgegriffen und in seiner Philosophie der Orientierung weiterverfolgt und vertieft. Er spricht anstelle von einem „subjektiven“ von einem „selbstbezüglichen Prinzip“. Da jeder Orien­ tierung stets eine Orientierung vorausgehe, sei Orientierung selbst „unbegreiflicher Ursprung oder Anfang allen Begreifens.“125 Orientierung selbst liege allem „definitiven Feststellen voraus“, sei daher seinerseits „nicht begrifflich“, d.  h. definitorisch festzustellen. Orientierung sei wesentlich „Umgang mit Ungewissheit“, gleiche – metaphorisch gesprochen – einem Fluss, dessen Ufer ebenfalls im Fluss seien.126 Nach Stegmaier gelingt es nur, mit Hilfe von Metaphern jenen Bereich des „Vor-Begrifflichen“ zu fassen. Um Fließendes zu beobachten, benötige man allerdings „Standpunkte“ und „Anhaltspunkte“, von denen aus das Auge das Fließen auf Zeit anhalte. Er schreibt: „Anhaltspunkte verhelfen dazu, etwas durch Begriffe festzuhalten und festzustellen, und auch das ‚Begreifen‘ durch ‚Begriffe‘ ist wieder eine fast verblasste Metapher.“127

Das Wort „Anhaltspunkt“ bzw. „Anhalte-Punkt“ entstammt der Landvermessungskunst. Es ist, so heißt es im Grimmschen Wörterbuch, der „Punkt, von welchem bei der Vermessung ausgegangen wird“.128 Das Wort war früher auch gebräuchlich im Zusammenhang mit Eisenbahnstationen als „halt bietende stelle“, wurde daneben aber im abstrakten Sinne verstanden als „orientierungspunkt“129 bzw. „bezugspunkt“.130 Das Wort „Anhalt“ (mhd. „anehalt“) bedeutet soviel wie „fester halt, stütze zum festhalten“; vielfach wird es, so heißt es im Grimmschen Wörterbuch, bildlich gebraucht im Sinne 124  Kant

(1979), S. 293. (2008), S. 6. 126  Stegmaier (2008), S. 6. 127  Stegmaier (2007), S. 104. 128  Berlin-Brandenburgische Akademie der Wissenschaften/Akademie der Wissenschaften zu Göttingen, S. 1023. 129  Dreier (2008), S. 323–324. 130  Berlin-Brandenburgische Akademie der Wissenschaften/Akademie der Wissenschaften zu Göttingen, S. 1023. 125  Stegmaier

118

1. Kap.: Anhaltspunkte und Anfangsverdacht

von „orientierungs-, anhaltspunkt, beistand“.131 Sie verweisen weiter auf Jacob Böhme, von dem überliefert ist (Theosophia, 1730) „auch ich kenne die lage, wo der mensch, wenn der boden unter ihm zu sinken scheint, sich nach einem anhalt umsieht.“132 Auch der „Punkt“ ist in vielfältiger Weise Gegenstand der geistigen Auseinandersetzung gewesen: In seinem Hauptwerk Der logische Aufbau der Welt (1924) hat Rudolf Carnap die zentrale Bedeutung von „Punkten“ zur eindeutigen Kennzeichnung von Strukturen bzw. die Darstellung von „Beziehungsstrukturen“ hervorgehoben – neben „Knotenpunkten“ und „Nachbarknotenpunkten“ sprach er von gleichartig vernetzten sog. „ ,homotopen‘ Punkten“.133 Ganz ähnlich spricht Heinrich Rickert in seiner Rechtstheorie von Rechtsbegriffen als eine Art „Knotenpunkte“, die netzartig in einer Rechtsdogmatik miteinander verbunden seien: „Wir wissen nun, dass das logische Ideal unserer Erkenntnis im vollständigen System von Urteilen besteht, deren Subjekte und Prädikate konstante, also definierte Begriffe sind. Denken wir uns einmal die Systematisierung unseres Wissens nach jeder Richtung hin vollzogen. Wir können dann den Inhalt unserer Erkenntnis mit einem Netz von Fäden vergleichen, in welchem die festen Knotenpunkte die Begriffe darstellen, die Fäden dagegen, die von einem Knoten zum anderen gehen, die Beziehungen zwischen den Begriffen, d. h. die Urtheile bezeichnen sollen.“134

Ralf Dreier hat die geläufige Vorstellung und übliche Argumentationsfigur des „Standpunkt-Einnehmens“ aus rechtstheoretischer Perspektive näher untersucht. Er kommt zum Ergebnis, dass die Einnahme eines „Standpunkts“ Positionierung bedeute. Gleichzeitig sei damit die Reduktion auf eine bestimmte Perspektive verbunden – aus einer Vielzahl von möglichen: „Mit dem Begriff des Standpunkts verbindet sich das Merkmal der Pluralität, d. h. die Vorstellung, dass es stets mehr als einen Standpunkt gibt oder, anders ausgedrückt: dass alle Phänomene und Probleme von verschiedenen Seiten und Punkten aus betrachtet werden können.“135

Einen Standpunkt einzunehmen und innezuhaben bedeute daher stets eine Festlegung, die aber als solche stets auch eine Orientierung biete. Standpunkte seien ihrer Funktion nach „Orientierungspunkte“. Nach Ernst Cassirer ist ein „Punkt“ ein „Inbegriff von Relationen“ – der „erste Anfangs131  Berlin-Brandenburgische Akademie der Wissenschaften/Akademie der Wissenschaften zu Göttingen, S. 1017–1018. 132  Berlin-Brandenburgische Akademie der Wissenschaften/Akademie der Wissenschaften zu Göttingen, S. 1018. 133  Carnap, S. 17–18. 134  Rickert, S. 49–50, VII. 135  Dreier (2008), S. 323–324.



IV. Anhaltspunkte119

punkt“ der philosophischen Spekulation sei dabei durch „durch den Begriff des ‚Seins‘ “ bezeichnet.136 Im Licht der Quantenmechanik, so Cassirer, könne der sog. „materielle Punkt“ nicht mehr explizit, sondern nur noch implizit, d. h. unter Einschluss der (nachträglichen) Möglichkeit des Seins definiert werden: „Der ‚materielle Punkt‘ unterscheidet sich in dieser Beziehung nicht vom ‚ideellen‘, vom mathematischen Punkt. Auch ihm lässt sich ‚kein Sein für sich‘ beilegen; auch er wird durch eine bestimmten Inbegriff von Relationen konstituiert und geht in diesem Inbegriff auf.137

Cassirer sieht hier – über die Physik hinaus – Anwendungsgebiete einer verallgemeinerten relationentheoretischen Punkt-Konzeption, „fast ebensosehr auf logischem, wie auf rein methodischem Gebiet.“138 Ebenfalls ausgehend von den Erkenntnissen der Quantenmechanik stellt Hans-Peter Dürr fest, dass in der abendländischen Kultur immer noch die exakte, „objekthafte“ Punkt-Vorstellung im Vordergrund stehe: „Das Teilchen ist als Vorstellung bei den Physikern beliebter. Schon in unserer Sprechweise über die Welt hat es eine viel größere Bedeutung. Dies zeugt davon, dass unsere Sprache objekthaft ist, dass wir es lieben, Dinge lokalisiert zu haben. Eine Welle ist für uns dagegen das Vage, das wir nicht mögen. Aber dieses Vage hat nun die Eigenschaft der Interferenz, des Überlagerns mit anderem ähnlich Vagen.“139

Gesellschaftliche Umbrüche und Katastrophen begreift Dürr als Häufung von „Instabilitätspunkten“ in vernetzten biologischen und gesellschaftlichen Systemen, weshalb er empfiehlt, den Trend zur Kopplung von Systemen zu bremsen.140 In ähnlichem Sinne betrachtet der amerikanische Pragmatist John Dewey den „Punkt“ – aus logikwissenschaftlicher Perspektive – als „relationalen“ Begriff: „Er ist ein strikt relationaler (nicht relativer) Terminus. (…) Punkt bezeichnet eine Beziehung [relationship].“141

Der Gedanke des Relationalen gelte insbesondere auch für die Bedeutung von Wörtern. Dewey bestreitet damit die Existenz eines exakten, quasi punktförmigen Bedeutungskerns.142 Wortbedeutungen seien universale hy136  Cassirer,

S. 1. S. 234–235. 138  Cassirer, S. 235. 139  Dürr, S. 60. 140  Dürr, S. 72. 141  Dewey, S. 479. 142  Aus literaturwissenschaftlicher Perspektive Hamburger, Käthe: Die Logik der Dichtung, 3. Aufl., Stuttgart 1977, die die Begriffs-Logik kritisiert. Der „rein grammatische Gesichtspunkt“ reiche nicht aus, um die eigentümlichen grammatischen 137  Cassirer,

120

1. Kap.: Anhaltspunkte und Anfangsverdacht

pothetische Aussagen mit relationalem Charakter. Jedes Wort oder jede Redewendung habe die Bedeutung, die es habe, nur als Element einer Konstellation verwandter Bedeutungen. Wörter, die für irgendetwas stünden, seien Teil eines umfassenden Codes. Der Code könne öffentlich oder privat sein. Ein öffentlicher Code offenbare sich in der jeweiligen Sprache, die in einer gegebenen kulturellen Gruppe geläufig sei. Ein Code sei privat, wenn sich die Mitglieder einer besonderen Gruppe auf ihn geeinigt hätten, damit er denen, die nicht eingeweiht sind, unverständlich sei. Dazwischen existierten noch weitere Formen von konventionellen Zeichensystemen: „Zwischen diesen liegen die argots spezieller Gruppen in einer Gemeinschaft und die technischen Codes, die für einen beschränkten speziellen Zweck erfunden worden sind, wie der, der von Schiffen auf See benutzt wird.“143

Das führt zu einer Abkehr von einer substantialistischen Punkt-Vorstellung; die Punkt-Metapher selbst steht für einen Prozess und umschreibt eine Relation.144 Nach Michel Serres sind „Punkte“, wie untergründige etymologische Zusammenhänge zeigten, so etwas wie „distinkte Formen der Erkenntnis“: „ ,Distinkt‘ kommt vom lateinischen stinguere, es stammt aus dem semantischen Feld von stimulus und stylus, Stachel, Nadel, Ahle, Stift, etwas Spitzes, dass einen Punkt aussticht; instigare heißt gestochen werden, von einem Dorn oder Stachel, daher der ,Instinkt‘ oder das französische instigation (Anstiftung). Das griechische stigma, Punktierung, und das gleichfalls griechische sticho, tätowieren, fügen einen weiteren Gehalt hinzu. Das ganze Feld zielt auf den Punkt oder die Punkt für Punkt aufgenommene Zeichnung oder den punktförmigen, stachelartigen Ursprung einer Bewegung.“145

Nach Serres ist die Semiotik in erster Linie eine „Theorie über die Relation von Punkten“, eine abstrakte „Topologie“ im Sinne einer Logik der Topoi. Umgekehrt sei jede Topologie ein guter Weg zur Semiotik.146 In der bewussten Nachfolge von Immanuel Kant hat schließlich auch der Semiotiker Charles S. Peirce den Punkt als relationalen Zusammenhang Verhältnisse beim fiktionalen Erzählen zu umschreiben. Kein Gebiet der Sprache zeige deutlicher als die Dichtung, dass das „System der Syntax“ ein viel zu eng bemessenes Kleid für das schöpferische Leben der Sprache sei (S. 62). 143  Dewey, S. 539. 144  Dewey, S. 462–463: „Ein Anfang mag damit gemacht werden, dass man die Mehrdeutigkeit des Worts Relation bemerkt. Es steht nicht nur für reale Verbindungen, für logische Relationen zwischen den Termini einer Aussage und für die Beziehung oder Anwendbarkeit der Aussage auf die Wirklichkeit – sondern auch für Verwandtschaftsbeziehung [relationship].“ 145  Serres (1994), S. 49–50. 146  Serres (1994), S. 50.



IV. Anhaltspunkte121

beschrieben. In seiner Theorie des „Kontinuums“ entwickelt er eine Vorstellung vom „potenziellen Punkt“ als unendliches Intervall.147 „Punkte“ implizierten somit über das Erschließen impliziter Beziehungsrelationen mögliche pluriperspektivische Prozesse. Inbesondere Metaphern komme für das „Aufschließen“ der Prozessualität von Punkten nach der Überzeugung von Peirce eine Schlüsselrolle zu. Auf diese Weise entfalte sich Kreativität – feststehende „Standpunkt-Perspektiven“ geraten gewissermaßen durch sich überlagernde Vagheits-Vorstellungen, wie Dürr formulierte, zu innovativen Interferenzen.148 Willard Van Orman Quine hat aus erkenntnistheoretischer Sicht buchstäblich das auf den Punkt gebracht, was sich hier wie ein roter Faden durch die unterschiedlichen Auffassungen zieht: Terminologisierung und Referenzfixierung führen zu einem phänomenalistischen Begriffsschema. Einmal festgestellte wissenschaftliche Begrifflichkeiten gründeten sich, so Quine, auf Mythen, wenn sie auf diese Weise Aporien des eigenen Erklärungssystems ausblendeten. Derlei Widersprüche in Begriffssystemen durchzögen alle Grundlagendisziplinen, die Physik ebenso wie die Mathematik. So habe Russels Paradox zum Beispiel um die Jahrhundertwende die erste große Krise in den Grundlagen der Mathematik ausgelöst. Die zweite große Krise gehe auf Gödels Beweis unentscheidbarer Aussagen in der Arithmetik zurück und habe in Heisenbergs Unschärferelation ihr physikalisches Gegenstück. Vom epistemologischen Standpunkt aus betrachtet seien die Ontologien der definierten physikalischen und mathematischen „Objekte“ Mythen. Die Qualität des Mythos jedoch sei relativ – relativ zum epistemologischen Standpunkt.149 Um sich im gegenwärtigen gesellschaftlichen Umfeld zurechtzufinden, empfiehlt Werner Stegmaier daher ein grundlegend verändertes, ja gewissermaßen „fließendes Verständnis von Orientierung“.150 Werde gegenwärtig nach Orientierung gefragt, so sei aber immer schon an eine bestimmte Orientierung gedacht, Standards und Normen, die Halt und Bestand geben sollen. In einer Welt aber, die Orientierungsverluste, ja Orientierungslosigkeit aufweise, müsse Orientierung imstande sein, sich ständig auf unvorher147  Zink, S. XV: „Peirce löst das Problem in seiner kantianischen Periode durch sogenannte ‚potentielle Punkte‘. Diese Punkte, die keine bestimmte Identität haben, lassen sich in gewissem Sinn sogar teilen. Man kann Peirce’ Punkte als infinitesimale Intervalle auffassen.“ 148  Strub (1994), S. 217: „Die Metapher ist ein Prozess, der den Zeichenprozess in seiner Prozessualität selbst darstellt; der metaphorische Zeichenprozess ist die Explizierung des Zeichenprozesses in allen seinen Stadien.“ 149  Quine (1979), S. 24–25. 150  Stegmaier (2008), S. VI-VII.

122

1. Kap.: Anhaltspunkte und Anfangsverdacht

sehbare und überraschende Situationen einzustellen. Orientierung begreift Stegmaier demzufolge als „die Fähigkeit sich in einer neuen Situation zurechtzufinden und Handlungsmöglichkeiten in ihr zu erschließen“.151 Die nächstliegende sei die geographische Orientierung: Man suche sich in einem unbekannten Gelände, in unübersichtlichen Städten oder auf hoher See so zurechtzufinden, dass man Wege bzw. einen Kurs einschlagen könne, die zu Zielen führen, die man schon hat oder erst wählt. Das Ziel der Orientierung sei, „ ‚Übersicht‘ über die Situation zu gewinnen, in der man sich befindet und die nötigt, etwas zu tun.“152 Anhaltspunkten komme dabei eine Schlüsselrolle zu: Man finde Orientierung über Anhaltspunkte, an denen man sich orientiere. Anhaltspunkte seien unverzichtbar, um sich in einer gegebenen Situation, also im „Daseienden“, Gegenwärtigen, zurechtzufinden.153

Abbildung 8: Punktformen nach Wassily Kandinsky154

V. Virtuelle Realität und Krise der Orientierung In Staat, Wirtschaft und Gesellschaft diagnostiziert man unterdessen überall Anzeichen einer „Krise“. Der inflationäre Gebrauch des Wortes kann als Indiz für eine Krise der Orientierung gelesen werden. Im ursprünglichen Sinne beschreibt das Wort den „Zeitpunkt“, die entscheidende Phase, bevor sich eine Entwicklung unabwendbar zur Katastrophe hin wendet. Die ältes151  Stegmaier

(2007a), S. 82. (2007a), S. 82. 153  Stegmaier (2007a), S. 82. 154  Kandinsky, S. 29. 152  Stegmaier



V. Virtuelle Realität und Krise der Orientierung 123

te Darstellung einer „krisis“ in diesem Sinne findet sich bei Homer im 14. Gesang des Ilias. Homer vergleicht darin das Schwanken bei der Entscheidung mit dem Hin- und Herwogen des Meeres.155 „Krise“ hat aktuell in vielerlei Zusammenhängen Konjunktur: Es ist die Rede von der „Krise des Nationalstaates“, „Krise des Staates“, „Krise der Institutionen“ und „Krise der Medien“ etc.156 Beinahe alles erscheint gegenwärtig als „Krise“. Zu Recht ist darauf hingewiesen worden, dass eine „Krise“ kein Geschehen an sich ist, sondern ein „beobachtetes, narrativ bzw. medial vermitteltes Deutungsmuster, mit dem politische, soziale und kulturelle Wandlungsprozesse beschrieben werden.“157 Krisen-Diskurse, Krisendiagnostik und Krisenszenarien können allerdings, wenn sie zum Alarmismus neigen, – darauf hat Gerhard Schulze mit Nachdruck hingewiesen – ausgesprochen negative und kontraproduktive Folgen zeitigen. Er argumentiert daher für eine erkenntniskritische Krisendiagnostik und verantwortliche Krisenkommunikation.158 Die „Neue Flut“, eine Datenflut ohne Beispiel als Folge der neuen Kommunikationsverhältnisse, birgt daher ihre eigenen Risiken. Sie droht zur Sintflut für die politische Kultur zu werden. Die größte Gefahr für die freiheitliche Demokratie sehen viele im Verfall der öffentlichen Sprachkultur. Niklas Luhmann weist auf die herausragende Bedeutung des Institutionen-Begriffs für die juristische Dogmatik hin. Seit Maurice Hauriou werde er dort verwendet als „eine Art Kontaktbegriff zur sozialen Realität“.159 Karl-Heinz Ladeur fordert angesichts der Medienentwicklung und dem „grundlegenden Prozess der kulturellen Transformation“ eine ebenso grundlegende Reform der öffentlichen Institutionen.160 Michel Foucault erinnert an die Rolle der Sprache in der antiken polis – im „gemeinsamen logos“ sieht er den Inbegriff des „Öffentlichen“: „Die Hauptgefahr der Freiheit und Redefreiheit in einer Demokratie ist das, was entsteht, wenn jeder seine eigene Lebensweise hat, seinen eigenen Lebensstil (…). 155  Vonessen,

S. 244. Spörri vermutet sogar, dass es ein existenzielles Grundbedürfnis für derartige Krisendiskurse gibt, siehe Spörri, S. 831–840. – Ferner Adolf-Arndt-Kreis (Hrsg.), Staat in der Krise – Krise des Staates? Die Wiederentdeckung des Staates, Berlin 2010. 157  Belghaus, Viola: Die Krise: Versuch der Profilierung eines begrifflichen Passepartouts – Interdisziplinäre Tagung, Dresden, 23.–24. Januar 2009. 158  Schulze, Gerhard: Krisen. Das Alarmdilemma, Frankfurt a. M. 2011. – Aus kulturwissenschaftlicher Sicht Fenske/Hülk/Schuhen (Hrsg,), Die Krise der Erzählung. Transdisziplinäre Perspektiven auf ein Narrativ der Moderne, Bielefeld 2013. – Ferner Reez (2013a), S. 16–21. 159  Luhmann (1986), S. 12, Fn. 14. 160  Ladeur (1996), S. 621. 156  Hansruedi

124

1. Kap.: Anhaltspunkte und Anfangsverdacht

Denn dann kann es keinen gemeinsamen logos, keine mögliche Einheit für die Stadt geben.“161

Der Verfall des öffentlichen Diskurses und damit auch der Zerfall öffentlicher Institutionen könnten im schlimmsten Fall zum Verlust des gesellschaftlichen Zusammenhalts führen. Er fordert daher eine Kultur des „Wahrsprechens“ („parrhesia“) nach antikem Vorbild. In der Praxis der „parrhesia“ sieht er die Wurzel dessen, „was wir die ,kritische‘ Tradition im Westen nennen könnten“.162 Die Umwälzungen im Zuge der digitalen Revolution – der „Strukturwandel der Öffentlichkeit“, wie Jürgen Habermas formuliert hatte163 – sind indessen so fundamental, dass der Sprach- und Institutionenzerfall164 kaum aufzuhalten zu sein scheint. In der diskursiven Praxis verschwimmen derweil die Konturen zwischen rationalem Sprachspiel, suggestiver Polit-Schau, Klamauk und infotainment.165 Politischer Meinungsstreit findet nicht nur statt als semantischer Kampf166, sondern tendiert zum Spektakel.167 Der Informationsexplosion168 auf der einen Seite steht kultureller Verfall, „Quatschexplosion“169 und Sprachverfall auf der anderen Seite gegenüber. Ivan Illich und Barry Sanders machen deutlich, was mit Verfall der öffentlichen Sprachkultur gemeint ist: „Wenn man gute, aussagekräftige Wörter in fachspezifischer Weise in der Alltagssprache ersetzt, erzeugen diese ,Termini‘ eine Schar von Amöben-Wörtern, die bald so geformt sind, dass sie alles bedeuten können – wie das ,E‘ eines Mathe161  Foucault

(1996), S. 87. (2013), S. 9. 163  Habermas, Jürgen: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, Frankfurt a. M. 1993, der schon früh angesichts „radikaler Demokratisierung“ (S. 36) der „Erprobung neuer institutioneller Arrangements“ (S. 42) das Wort redet. 164  Lipp, S. 459: „Institutionen – sind sie wohlbegründet und ‚funktionieren‘ sie – ‚stabilisieren Spannungen‘; sie nehmen den Menschen ‚in Zucht‘; sie geben ihm Kultur.“ 165  Busse (1996), S. 347–358. 166  Klein (1991), S.  44–69. – Ferner Felder, Eckehard (Hrsg.), Semantische Kämpfe. Macht und Sprache in den Wissenschaften, Berlin 2006; Christensen/Sokolowski (2006), S. 353–372. 167  Debord, Guy: Die Gesellschaft des Spektakels. Kommentare zur Gesellschaft des Spektakels, Berlin 1996. 168  Kuhlen, Rainer: Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen, 2. Aufl., Konstanz 1996. – International Telecommunication Union: Measuring the Information Society Report, Geneva 2014. 169  Wersig, S. 32–35, 44–48; Postman, S. 56: „Mit der viel gepriesenen Informationsexplosion geht demnach eine Desinformationsexplosion weit größeren Ausmaßes einher.“ 162  Franken



V. Virtuelle Realität und Krise der Orientierung 125 matikers. Und dieser Fallout fördert dann die Bereitschaft zu einer Sprache, die wir Neusprech genannt haben. Diese Abfallprodukte aus fachspezifischen WortFabriken kann man mit der Umweltverschmutzung vergleichen.“170

Prägten in der Vergangenheit noch an der erfahrbaren Realität orientierte Wirklichkeitskonstruktionen, ausgedrückt in empirischen Fachdiskursen, die kulturelle Selbstreproduktion einer Gesellschaft, so geraten Wert- und Normvorstellungen als akzeptierte „Weltdeutungen“ durch die Fülle der künstlich erzeugten Alternativ-Konzeptionen unter beständigen Legitima­ tionszwang. Das Bild der Gesellschaft von sich selbst und ihrem „Wissen“ über die Welt, ausgedrückt in Sprache und Mythen gerät ins Wanken. Das Problem: Auch abwegigste Welterzeugung und „phantasmatische“ Modellierungen171 wirken – alternative Weltentwürfe, so abstrus sie auch sein mögen, sie wirken sich potenziell (kontraproduktiv) auf die Standards des sozialen Verhaltens und Handelns ebenso wie auf langfristige Einstellungen und Mentalitäten aus.172 Während „Reproduktion“ noch auf eine möglichst authentische Nachbildung und Gestaltgebung der Wirklichkeit abzielt, sind hybride Objektivationen nicht mehr der wahrnehmbaren Realität verpflichtet. „Hybridisierung“ kann daher geradezu als Steigerungsform der Reproduktion verstanden werden. Hybride Objekte operieren nichts desto weniger mit existenten Begrifflichkeiten. Es sind indes Namensvertauschungen, Umbenennungen, Falschbezeichnungen, so dass der öffentliche Diskurs in der metonymischen Masse des Irrationalen unterzugehen droht. Nach Beat Wyss ächzt der öffentliche Diskurs förmlich unter dem „entstellend(en)“ Charakter metonymischen Sprachgebrauchs. Fatal sei eine Art der „Metonymie der Präsenz“173 – das sei eine Form von Hybridität in der Sprache. Im Unterschied zur Metapher verfüge das durch Metonymie (Namensvertauschung) gebildete „hybride Objekt“ Ähnlichkeiten mit dem, was von ihm ersetzt werde. Diese Ähnlichkeit wirke zugleich „entstellt“ und „entstellend“. Die merkwürdige Metonymie der Präsenz besitze die Macht, die Konstruktion anerkannter, aber abweichender Kenntnisse derart zu stören, dass das Kulturelle so gut wie nicht mehr wiederzuerkennen sei.174 Sabine Doering-Manteuffel geht noch weiter. Sie hält das Projekt der Aufklärung für gescheitert, da das Internet als Folge der anonymen und universellen Kommunikation der Nutzer einen „Medienmarkt des Magischen“ hervorgebracht habe. Das Medium selbst habe eine Art „Okkult170  Illich/Sanders,

S. 133–134. Stanislaw: Summa technologiae, übersetzt von Friedrich Griese, Frankfurt a. M. 1976. 172  Krah/Ort, S. 5 (Vorwort). 173  Bhabbha, Homi K.: Die Verortung der Kultur, Tübingen 2000. 174  Wyss (2009), S. 20, 21. 171  Lem,

126

1. Kap.: Anhaltspunkte und Anfangsverdacht

struktur“ angenommen. Keine philosophischen oder theologischen Appelle an die Selbstbeschränkung, keine Medienkritiken und keine Spötter würden dieser Okkultstruktur etwas entgegenhalten können.175 Durch die neuen Möglichkeiten der technischen Simulation, die zum wichtigen Wirtschaftsfaktor geworden seien, hat sich diese Problematik extrem verschärft. Simulation führt, wie Martina Merz feststellt, über Modellbildungen zur Verdoppelung bzw. Vervielfachung „der (realen) Welt“. Simulation sei insofern eine Art „Zukunftsgenerator“: „Als Zukunftsgenerator erzeugt Simulation verschiedene mögliche Zukünfte. Zukunft verweist hier zum einen auf das geplante Experiment mit seinen noch zu entwickelnden und konstruierenden ‚realen‘ Apparaturen. (…) Simulation generiert mögliche Zukünfte. Eine Garantie, dass die eine Zukunft dabei ist, gibt es nicht.“176

Simulierte Welten ähneln der Wirklichkeit derart, dass es zu Auswahlentscheidungen kommen muss, welche denn der realen Welt am nächsten kommt.177 Hier aber begint das Problem: Wo durch technische Vermittlung ein Verlust der Nähe zur Realität eintritt, tritt die Simulation nicht nur als Hilfsmittel, sondern als „Ersatz für die Wirklichkeit“ ein.178 Nach Franz Schneider ist Simulation dem Wesen nach der „Prozess einer Indifferenzbildung von Realität und ihren Gegeninstanzen“.179 In der Literaturwissenschaft habe man dafür traditionell die Bezeichnung „Fiktion“. Heute hingegen könnten Realität und Fiktion aufgrund der fortgeschrittenen Technik zum Teil nicht mehr unterschieden werden. Normalerweise sei Simulation ohne Wirklichkeit nicht denkbar. Nur etwas, was der Wirklichkeit entnommen sei, könne simuliert werden. Dies gelte auch dann, wenn das „Nachgeahmte“ so perfekt ausgeführt ist, dass es das Wirkliche ersetzen könne. Baudrillard hat in diesem Zusammenhang an eine Fabel von Borges erinnert. Darin fertigen Kartographen auf Geheiß des Herrschers eine so detaillierte Karte an, dass Karte und Territorium exakt zu Deckung kommen. Eine solche Verdoppelung der Wirklichkeit ist nach Baudrillards Ansicht heute überholt: Simulation sei heute Herstellung eines vermeintlich Realen ohne Ursprung aus der Realität. In diesem Sinne formuliert Franz Schneider, dass keine vorgelagerte Wirklichkeit mehr existiere, auf die die Simulation referiere: 175  Doering-Manteuffel,

S. 292–293. S. 104–105. – Gramelsberger, S. 30–52. 177  Zum Stand der Forschung und Entwicklung Waldenfels, S. 236–241 sowie Barth/Göpfert, S. 42–46. 178  Davis, S. 192. 179  Schneider, F. (1993), S. 87–88. 176  Merz,



V. Virtuelle Realität und Krise der Orientierung 127 „Das Verhältnis von Wirklichkeit und Simulation scheint eher umgekehrt zu sein, am Beispiel der Fabel formuliert: ‚Die Karte ist dem Territorium vorgelagert, ja sie bringt es hervor.‘ “180

Simulation ist demnach mehr als die artifizielle, technische Reproduktion und Re-präsentation der Wirklichkeit, sondern zudem die Erschaffung und Neu-Schöpfung von multiplen erfundenen, virtuellen „Wirklichkeiten“ – ohne Geschichte bzw. Vorgeschichte. Nelson Goodman beschreibt in seiner „Theorie der Welterzeugung“ die sprachlich-symbolischen Prozesse, die ­damit einhergehen. Das „Welterzeugen“ bestehe im „Erschaffen“ und „Umschaffen“ von vorhandenen Welten, in der „Zerlegung und Zusammenfügung“ von Merkmalen und Komplexen und dem „Herstellen von Verbindungen“. Dies geschehe unter Verwendung von „Ettiketten“ (Namen, Prädikaten, Gesten, Bildern usw.), die zum Teil willkürlich rekombiniert würden.181 „Virtuelle Realität“ hat demzufolge nach Ansicht von Klaus Wiegerling ontologisch einen zweideutigen Status: Sie sei und sei zugleich nicht. Einerseits handle es sich um eine reine Möglichkeit, andererseits um „etwas“, auf das wir so einwirken könnten, als wenn es tatsächlich real vorhanden wäre.182 „Virtuelle Realität“ sei daher mehr als eine Fiktion; sie stehe in einem besonderen Verhältnis zur raumzeitlichen Realität und zu unserem Sinnesvermögen. Die Bezeichnung bringe diese Ambivalenz und Zwitterstellung zum Ausdruck: „Der Terminus verbindet zwei alte philosophische Problemtitel, die Virtualität (von lat. virtus = Kraft, Vermögen) und die Realität (von mlat. realis = sachlich, dinglich, wesentlich).“183

Wiegerling betont die neue Rolle, die der medialen Technologie bei den gegenwärtigen künstlichen Welterzeugungen zukomme. Künstliche Welterzeugungen würden heute von weitgehend anonym bzw. unsichtbar bleibenden medialen Maschinerien vorgenommen. Die Steuerungsvorgänge im Hintergrund blieben dem Nutzer weitgehend unbekannt. Sinnbezirke seien also zu einem erheblichen Teil von einem letztlich undurchschaubaren System erzeugt – undurchschaubar, weil der Nutzer nie die Maschinerie als Ganzes in den Blick nehmen könne. Sichtbar für ihn sei nur die jeweilige „Oberflächenkodierung“, d. h. das, was die Apparatur als Zeichen präsentiere, oder die informatische Disposition dieser Codierung. Das Besondere „moderner Weltordnungen“ bestehe darin, dass „mediale Zwischenschaltungen“ eine gewisse Autonomie erlangt hätten; sie „interagierten“ sozusagen 180  Schneider,

F. (1993), S. 87. (1984), S. 19–20. 182  Zur sog. „augmented reality“, einer durch virtuelle Komponenten überlagerten Realität, vgl. Bente/Krämer/Petersen (Hrsg.), Virtuelle Realitäten, Göttingen 2002. 183  Wiegerling, S. 99. 181  Goodman

128

1. Kap.: Anhaltspunkte und Anfangsverdacht

untereinander. Nicht nur Sprache, Mythos und Religion, Kunst und Wissenschaft ordneten daher heute die Welt, sondern vor allem auch „sich in technischen Apparaturen objektivierende mediale Trägersysteme“.184 Anschaulich wird dies vor dem Hintergrund der sog. „Next Generation Media“. Pseudonyme der absehbaren umfassenden Vernetzung der Lebensverhältnisse in der Zukunft sind „Umgebungsintelligenz“ („Ambient Intelligence“) und „Rechnerallgegenwart“ („Ubiquitous Computung). Woran es angesichts der Informations- und Bilderflut des digitalen Zeitalters fehlt, sind offenbar verlässliche Anhaltspunkte, um – wie Stegmaier sagt – die „Übersicht über die Situation“ zu gewinnen. Die „Krise“, die in aller Munde ist und alle hochindustrialisierten Nationalstaaten, Branchen und Lebensbereiche betrifft, ist so gesehen Symptom einer sozialen Ordnungskrise. Der Kern des Problems scheint im Überangebot von Informationen (Information Overload) in der Institutionen zu bestehen. Mit anderen Worten, erforderlich ist Orientierung. Es fehlen gewissermaßen Leuchttürme – im Ozean der Daten. Was fehle, sagt Norbert Bolz, sei eine „Sicherheit des Zusammenhangs“. Er sieht das Grundproblem tatsächlich nicht im fehlenden Wissen, sondern in der fehlenden Orientierung. „Unsere großen Probleme resultieren nicht aus einem Mangel an Wissen, sondern an Orientierung; wir sind konfus, nicht ignorant. Aber genau das wird durch den Enthusiasmus des ‚Informationszeitalters‘ und seiner Fakten, Fakten, Fakten verdeckt. Unter dem Druck der neuen Informationstechnologien neigt man dazu, alle Probleme als Probleme des Nichtwissens zu deuten. Aber Sinnfragen lassen sich nicht mit Informationen beantworten. Wer verstehen will, muss Informationen vernichten. Und so kommen wir zu dem paradoxen Resultat. In der Datenflut der Multimedia-Gesellschaft kann ‚Mehrwert‘ nur heißen: weniger Information.“185

Vittorio Hösle spricht angesichts der weltweiten ökologischen Krise sogar von einer „geistigen Orientierungslosigkeit“ und einer nachhaltigen „Krise der Institutionen“.186 Wie er, beklagt auch Jürgen Mittelstraß, dass sich unser Wissen in „wuchernde Bilder- und Informationswelten“ auflöse. In dieser Situation sei vor allem Urteilskraft als der sichere Instinkt für das Wesentliche erforderlich. Urteilskraft lasse sich nicht lehren oder lernen, schon gar nicht in den üblichen Informationsformen. Sie wolle herausgelockt werden, sich selbst gewahr werden. Urteilskraft stelle sich ein, nicht als Eingebung oder Gnade, also gewissermaßen auf der Rückseite unserer Rationalitäten, sondern als ein selbst erworbenes produktives Können.187 184  Wiegerling,

S. 101. (2000), S. 130 f. 186  Hösle (1994), S. 42. 187  Mittelstraß (1991), S. 15–16. 185  Bolz



V. Virtuelle Realität und Krise der Orientierung 129

Vor allem der Staat, seine Institutionen und Sicherheitsorgane, sehen sich durch die neuen Formen der Öffentlichkeit einem enormen anomischen Druck ausgesetzt. Wie soll der Staat als Ordnungsmacht in dieser weltweit stattfindenden sozialen Ordnungskrise eine „Ordnung des (öffentlichen) Diskurses“ herbeiführen? Dieser entwickelt aufgrund der neuen Rahmenbedingungen eine bisher so nicht gekannte Eigendynamik und Produktivkraft. Die Ereignisse um das Großprojekt „Stuttgart 21“ haben exemplarisch die Bedeutung der sogenannten „Blogosphäre“ für die öffentliche Meinungsbildung verdeutlicht. Kurznachrichtendienste wie Twitter, Online-Petitionen und die Möglichkeit instantaner Massenmobilisierung (sog. flash mobs) schaffen völlig neue Rahmenbedingungen für das Öffentlichwerden von Sachverhalten. Nach diversen „Datenskandalen“ repräsentieren Whistle blower-Portale, etwa Wikileaks, eine neue Qualität des investigativen Enthüllungsjournalismus. Dieser ist zunehmend in der Lage, Staaten durch Offenlegung von Staatsgeheimnissen in Bedrängnis zu bringen.188 Gesellschaftstheoretisch und ordnungspolitisch hat die skizzierte Entwicklung gravierende Folgen. Wie kann in dieser von Unordnung geprägten Welt soziale Ordnung erreicht werden? Axel Honneth ist skeptisch. Er sieht die nationalen Grenzen der öffentlichen Kommunikation mithilfe digitaler Technik so spielerisch überwindbar, dass der globale Informationsaustausch seiner Ansicht nach vollends „unkontrollierbar“ geworden sei. Die Folgen für die Rekonfiguration des Verhältnisses von nationalstaatlich eingehegter Öffentlichkeit und transnationalen Öffentlichkeiten sei vollkommen unabsehbar.189 Ulrich Beck pflichtet dem bei. Er spricht von „Weltinnenpolitik“ und meint damit, dass Politik nicht mehr nur in den dafür eingerichteten Institutionen (Parlamente, Regierungen usw.) stattfinde, sondern auch zugleich in lokalen und globalen („glokalen“) zivilgesellschaftlichen Netzwerken. Eine Vielzahl zivilgesellschaftlicher Akteure bildeten „Regenbogen­ koalitionen“, agierten als Anwälte, Schöpfer und Richter kosmopolitischer Werte, indem sie die Empörung der Weltöffentlichkeit über eklatante Normenverletzungen anhand konkreter Vorfälle (Umweltskandale, Biographien von Gefolterten usw.) inszenierten. Mit „Weltinnenpolitik“, stellt Ulrich Beck klar, meine er kein normatives Konzept der Philosophie oder der politischen Theorie, sondern es bezeichne „eine wuchernde, wilde Wirklichkeit oberhalb, unterhalb und zwischen den nationalen Grenzen, die in den Köpfen und Institutionen immer noch dominieren. Eine solche neue weltinnenpolitische Wildnis lässt sich nicht deduktiv (als Ableitung 188  Clarke/Morell/Stone/Sunstein/Swire: The NSA Report. Liberty and Security in a Changing World. The President’s Review Group on Intelligence and Communications Technologies, Princeton 2014. – Zur Zukunft der Datensicherheit Lovink/Riemens, S. 32–33. 189  Honneth (2011), S. 560.

130

1. Kap.: Anhaltspunkte und Anfangsverdacht

aus einer normativen Philosophie) gewinnen, sie muss vielmehr von unten, im Maulwurfverfahren, entdeckt und erschlossen werden.“190

Der Gedanke an die wuchernde, wilde Wirklichkeit, von der Beck hier spricht, muss jedem Normativisten den Schrecken in die Glieder jagen. Die sozio-kulturelle Situation am Beginn des 21. Jahrhunderts wirft gerade für Juristen mehr Fragen auf, als derzeit Antworten verfügbar sind. Zum „Cyberspace“ notiert von Franz C. Mayer daher: „Viele Probleme, die sich im Zusammenhang mit Cyberspace ergeben, erscheinen beim näheren Hinsehen als Probleme der Jurisdiktion: Wo ist Cyberspace? Welches Recht gilt? Wer entscheidet? Wer verfolgt?“191

Dass man dieser Situation nicht ausschließlich „deduktiv“, d. h. mithilfe von Begrifflichkeiten und kontrollierten Ableitungen Herr werden kann, zeigt sich insbesondere im Datenschutz. Die digitale Revolution hat hier ihre deutlichsten Spuren hinterlassen.192 In seinem Tätigkeitsbericht verweist der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit auf das Internet und neue Technologien (digitale Videotechnik, Muster­ erkennung, RFID, Ortungssysteme), die in rasender Geschwindigkeit Eingang in den Alltag fänden.193 Sukzessive würden „smarte“ Technologien eingeführt, etwa zur Messung und Steuerung der Energieversorgung. Nicht entschieden sei aber, ob dies letztlich zu mehr individueller Freiheit oder zu mehr Überwachung führe: „Wie ambivalent die neuen Techniken sind, wird weltweit auch an der Nutzung elektronischer Kommunikationsmittel und sozialer Netzwerke in den politischen Debatten und Auseinandersetzungen deutlich: Zum einen gestatten sie eine leichte Kontaktaufnahme, freie Diskussionen und Verabredungen. Zum anderen werden sie von autoritären Regierungen zur Kontrolle und Verfolgung der Teilnehmenden genutzt.“194

Wie das informationelle Selbstbestimmungsrecht von Bürgern gegenüber der systematischen Analyse großer Datenmengen („Big Data“) mithilfe von Supercomputern und daraus erstellten Prognosen effektiv geschützt werden soll, ist derzeit ungeklärt.195 190  Beck

(2010), S. 99, 127. F. C. (1996), S. 1782–1790. 192  Simitis (1986), S. 21–41. 193  Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, S. 15. 194  Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, S. 15. 195  Mayer-Schönberger/Cukier: Big Data. A Revolution That Will Transform How We Live, Work, And Think, Houghton Mifflin 2013. 191  Mayer,



V. Virtuelle Realität und Krise der Orientierung 131

Die extrem wachsende Komplexität der Lebensverhältnisse, die „Verschränkung“ (engl. entanglement) unterschiedlichster Kulturen einer sich konstituierenden Weltgesellschaft, aber auch die gewachsene Sensibilität gegenüber Krisen, Krisenführung und kritischen Entscheidungsprozessen kann aber auch als Ausdruck eines sich verändernden Orientierungsverständnisses gewertet werden.196 Nicht immer sind es feste Standpunkte, Fixpunkte, die sachgerechte Entscheidungen bei Problemlagen verheißen. In der unternehmerischen Entscheidungspraxis, im Risiko- und Krisenmanagement, wendet man sich vermehrt interdisziplinären und multiperspektivischen Problemlösungs- und Entscheidungsstrategien zu, um mögliche Risiken und Krisen frühzeitig zu erkennen und denkbare Katastrophenlagen mithilfe szenarienbasierter Methoden zu antizipieren. Statt mit Begriffsdefinitionen arbeitet man mit Metaphern. In seinem verbreiteten Handbuch für die Praxis der strategischen Krisenführung heißt es bei Laurent F. Carrel: „Um die Frage, was strategische Krisenführung sei, zu beantworten, bedienen wir uns nicht einer der vielen Begriffsdefinitionen von Strategie, sondern einer maritimen Metapher, welche die wesentlichsten Inhalte und Tätigkeiten der strategischen Führung wie folgt zusammenfasst: Bei rauer See und schlechter Sicht braucht man fünf Dinge: 1. Die Kenntnis des eigenen Standortes, 2. eine klare Bestimmung des anzusteuernden Ziels, 3. einen funktionstüchtigen Kompass, 4. stetigen Antrieb und 5. natürlich erstklassige Kapitäne und Lotsen.“197

Sich gewissermaßen „fließend“ im Sinne der Empfehlung Stegmaiers zu orientieren, d. h. heißt ohne feste Standpunkte und Orientierungsmarken, ist so unvorstellbar nicht. Der Schweizer Künstler Florian Graf hat genau diese Vorstellung mit seinem Projekt „Ghost Light Light House“ im Jahre 2012 auf dem Bodensee künstlerisch umgesetzt. Dazu hat der Künstler einen Leuchtturm auf einem selbstgebauten Floß befestigt. In dem beweglichen Leuchtturm sieht er ein „performatives Monument“ – in dem Sinne, dass der paradoxerweise irrlichterne Leuchtturm einen beständigen Perspektivenwechsel symbolisieren soll. Der Standpunkt des Betrachters ist buchstäblich „im Fluss“, ebenso wie der betrachtete „Gegenstand“. Der Künstler spricht im Rahmen seines Projekts auch von einem „Irr-Turm“, weil der Turm in der Nacht auf dem See herumgeistere, gezogen von einem Rettungsboot des Technischen Hilfswerks.198 196  Mit dem Konzept der „Verschränkung“, das auf Erwin Schrödinger zurückgeht, wird gegenwärtig in den Kulturwissenschaften der Versuch unternommen, sich von der überkommenen technizistischen Terminologie, dem Paradigma der „Komplexität“ und dem „Komplexitätsmanagement“, abzusetzen. Siehe dazu Shelley: Dirty Entanglements. Corruption, Crime and Terrorism, Cambridge 2014. 197  Carrel, S. 106. 198  Lenz/Michel (Hrsg.), Florian Graf – ghost light light house: anlässlich der Ausstellung Ghost Light Light House von Florian Graf, 27. September bis 4. November 2012, Friedrichshafen 2012.

132

1. Kap.: Anhaltspunkte und Anfangsverdacht

Abbildung 9: Datenfluss im Ubiquitous Computing199

199  Bundesministerium

für Wissenschaft und Bildung, S. 40.

2. Kapitel

Metaphern – verdächtige Wörter? „Die Metapher ist dem wachen Leben, was das Symbol dem Traum ist. Aber ihr Gehalt ist anderer Natur. Das Traumsymbol objektiviert das Empfindungsvermögen, die Metapher den gesamten Aufbruch des Denkens.“ Zdenko Reich, Vorwort zu einer Studie über die Metapher (Fragment), 19331

I. Leviathan In der Einleitung zu seinem berühmten Werk Leviathan entwickelt Thomas Hobbes eine mustergültig maschinenhafte Vorstellung vom Staat und vom Recht insgesamt. Er ist damit ganz Kind seiner Zeit. Die MaschinenMetaphorik war zu seiner Zeit weit verbreitet. Die Begeisterung für Uhren, die Mechanik des Räderwerks, das exakt vorausberechnete Ineinandergreifen der Zahnräder, ist förmlich zwischen den Zeilen zu lesen: „Denn da Leben doch nichts anders ist als eine Bewegung der Glieder, die sich innerlich auf irgendeinen vorzüglichen Teil im Körper gründet – warum sollte man nicht sagen können, dass alle Automaten oder Maschinen, welche wie z. B. die Uhren durch Federn oder durch ein im Innern angebrachtes Räderwerk in Bewegung gesetzt werden, gleichfalls ein künstliches Leben haben? Ist das Herz nicht als Springfeder anzusehen? Sind nicht die Nerven ein Netzwerk und der Gliederbau eine Menge von Rädern, die im Körper diejenigen Bewegungen hervorbringen, welche der Künstler beabsichtigte? (…) Der große Leviathan (so nennen wir den Staat) ist ein Kunstwerk oder ein künstlicher Mensch – obgleich an Umfang und Kraft weit größer als der natürliche Mensch, welcher dadurch geschützt und glücklich gemacht werden soll.“2

Mit diesen einleitenden Sätzen umreißt Hobbes seine Vorstellung vom Staat als „Automat“ bzw. „Apparat“. In logischer Hinsicht repräsentiert das anthropomorphe Staatsbild gewissermaßen den Obersatz für seine nachfolgende Argumentation. Der Staat ist danach, kurz gesagt, eine künstliches machtvolles Konstrukt, ein nach dem Vorbild des Menschen konstruiertes maschinenähnliches (Gemein-)Wesen, dessen Hauptaufgabe darin bestehen 1  Reich,

Z., S. 128. (1970), S. 5–6.

2  Hobbes

134

2. Kap.: Metaphern – verdächtige Wörter?

soll, den Frieden unter den Menschen zu sichern. Als Bildspender für seine Beschreibung dient Hobbes einerseits die Maschine, insbesondere die Uhr, andererseits der menschliche Körper, der, wie er behauptet, wie eine Uhr konstruiert sei. Das Frontispiz der Erstveröffentlichung von Leviathan zeigt das riesenhafte Wesen, zusammengesetzt aus vielen menschlichen Leibern, die sich in ihrer Gesamtheit aus der Entfernung ausnehmen wie eine Rüstung.3 Den Namen „Leviathan“ hatte Hobbes der Bibel entnommen. Höchst anschaulich und in poetischen Wendungen wird dort die unvergleichliche Macht und Kraft des Meeresungeheuers Leviathan geschildert: „Eisen achtet es wie Stroh, Bronze wie morsch gewordenes Holz. Kein Bogenpfeil wird es verjagen, in Stoppeln verwandeln sich ihm die Steine der Schleuder. Wie Stoppeln dünkt ihm die Keule, es lacht nur über Schwertergerassel. Sein Unteres sind Scherbenspitzen; ein Dreschbrett breitet es über den Schlamm. Die Tiefe lässt es brodeln wie den Kessel, macht das Meer zu einem Salbentopf. Es hinterlässt eine leuchtende Spur; man meint, die Flut sei Greisenhaar. Auf Erden gibt es seinesgleichen nicht, dazu geschaffen, um sich nie zu fürchten. Alles Hohe blickt es an, König ist es über alle stolzen Tiere.“ Hiob 41, 19–26

Hobbes’ metaphorische Umschreibung des Staates, im Kern ebenso anthropomorphistisch wie mechanistisch, war richtungsweisend für die Rechtsund Staatslehre und wirkt bis heute nach.4 Wie selbstverständlich, reden wir heute noch von „Gebiets-Körperschaften“, „Staats-Organen“, „Juristischen Personen“ usw. Man kann mit Stefan Smid von einer „Karriere der ,Maschinenmetapher‘ in der Rechts- und Staatsphilosophie“ sprechen. Der Staat als „Apparat“ und „Automat“ verbürgt Sicherheit, damit auch Rechtssicherheit, ohne Ansehen der Person und jenseits nur schwer fassbarer ethischer Pos3  Hobbes: Leviathan Or The Matter, Forme And Power Of A Commonwealth Ecclesiasticall And Civil, Oxford 1957 (Erstausgabe 1651). 4  Willms, S. 240–241: „Die Hobbes-Forschung erlebte seit den sechziger Jahren eine faszinierende Entwicklung, deren Bedeutung innerhalb des Universitätsbetriebs zuerst in Deutschland erkannt wurde (…) Die gelehrte Befassung mit dem Denken und der Zeit Hobbes’ nimmt weiter zu. Seit den späten sechziger Jahren erscheint praktisch jede Woche irgendwo auf der Welt ein mehr oder weniger bedeutender Beitrag – Buch oder Aufsatz – über Hobbes.“



I. Leviathan 135

Abbildung 10: Frontispiz Thomas Hobbes Leviathan (1651, Ausschnitt)5

tulate. Smid stellt heraus, dass die Karriere der „Maschinenmetapher“ in der Rechts- und Staatsphilosophie nicht losgelöst von der Karriere der neuzeitlichen Freiheitskonzeption als Denken der Freiheit zur Selbstorganisation des Menschen verstanden werden könne. Hobbes habe mit seiner Staatskonzeption den Zugang zu einem instrumentellen Verständnis des Rechts eröffnet – gegen naturrechtliche Ordo-Vorstellungen. Hobbes habe dadurch auch radikal mit dem aristotelischen Verständnis von Politik gebrochen als das wohlgeordnete, dem Guten entsprechende Leben. Recht und Staat seien nach Hobbes ein technisch-instrumenteller Zusammenhang. Die Maschine stelle mechanisch-gleichförmige, durch ihren Mechanismus regulierte Bewegungsabläufe dar. Im Zusammenhang mit der Beschreibung des Rechts gewinne die Maschinen-Metapher dadurch ihre Ausdruckskraft, weil sie 5  Bredekamp

(2010), S. 15.

136

2. Kap.: Metaphern – verdächtige Wörter?

schlicht für die Regelmäßigkeit von Funktionsweisen stehe.6 Wirkungsgeschichtlich war die Hobbessche Vorstellung vom Staat als Maschine für moderne Staatstheorien überragend. Die Idee des „Rechtsstaates“ verdankt sich nach Ansicht von Carl Schmitt letztlich der Verbreitung und dem bahnbrechenden Erfolg der metaphorischen Vorstellung vom Staat als gleichförmig arbeitender „Apparat“ bzw. „Mechanismus“. Habe Descartes noch das Bild eines Gebäudes für den Staat als die politische Einheit gewählt, das von einem Architekten kunstvoll errichtet werde, so sei Hobbes bereits ganz Kind der rationalistisch-revolutionären Ära: Der Staat werde hier zur riesenhaften Maschine – zum Uhrwerk und Horologium. Der Staat sei als Ganzes, mit Leib und Seele, ein homo artificialis und als solcher „wie eine Maschine“. Schmitt schreibt: „Weder die vordergründige Drapierung mit dem phantastischen Bild des Leviathan, noch die zeitgeschichtlich gebundene Beseelung durch eine souverän-repräsentative Person vermögen etwas daran zu ändern, dass der Staat durch Hobbes zur großen Maschine geworden ist. (…) Aber diese Vergesetzlichung führt auch, wie jede Technisierung, zugleich neue Berechenbarkeiten ein, infolgedessen auch neue Möglichkeiten der Beherrschung dieser Maschine, der Sicherheit und Freiheit, so dass sich schließlich ein neuer spezifischer Begriff des ,Rechtsstaates‘ im Sinne des durch Gesetze berechenbar gemachten staatlichen Funktionierens durchsetzt.“7

II. Die Welt als Uhrwerk Mit der Erfindung und der Verbreitung der Uhr kam in der frühen Neuzeit auch ein neues Gefühl auf für die Zeit. Zeit und Zeitablauf wurden mithilfe der Uhr sehr viel exakter einteilbar und räumlich darstellbar. Erst dadurch wurde die Zeit – sprichwörtlich „zu jeder Zeit“ – wahrnehmbar und sichtbar.8 Über die Jahrhunderte veränderte sich gleichzeitig die Vorstellung von sozialer Ordnung. Die Uhr ist nach Lewis Mumford die „entscheidende Maschine des modernen Industriezeitalters“9 – entscheidender noch als die Dampfmaschine, mit der man üblicherweise das moderne Industriezeitalter beginnen lasse. Mit der Erfindung der Uhr als Zeitmessmaschine sei alles an das Regime der Zahl gekoppelt. Verbunden sei damit ein tiefgreifender Wandel im gesamten Denken. Jegliche Vorstellung von „Ordnung“ werde auf diese Weise zur Frage exakter Zahlenrelationen. Mumford 6  Smid,

S. 329. C. (1936/37), S. 629–631. 8  Zur allmählichen Herausbildung einer Dominanz des Sehsinns ausgangs des Mittelalters Klauss, Henning: Zur Genealogie des wissenschaftlichen Blicks, Oldenburg 1986. 9  Mumford (1963), S. 42. 7  Schmitt,



II. Die Welt als Uhrwerk137

schildert, wie die neue Erfindung, das Horologium, zuerst zu Beginn des 13. Jahrhunderts in den mittelalterlichen Klöstern Verwendung fand. Die Uhr eignete sich besonders gut dafür, das an strikte Ordnung und Disziplin gewöhnte mönchische Leben zu regeln. Im Kloster vollzog sich fortan die geregelte Lebensführung im gleichmäßigen kollektiven Rhythmus der Maschine. Ab dem 14. Jahrhundert wurden Glockentürme für die neuen Uhren gebaut. Von dort wurde durch das Schlagen der Glocke die Zeit angezeigt. Wolken, die die Sonnenuhr in der Vergangenheit lahmgelegt hatten, waren nun kein Hindernis mehr für die Zeitmessung. Im Sommer wie im Winter, bei Tag wie bei Nacht war nun der gemessene Schlag der Glocke zu hören. Das Instrument verbreitete sich, wie Mumford beschreibt, schnell auch außerhalb der Klöster. Die Glocken des Uhrturms bestimmten fortan das Leben in den Städten, brachten eine neue Regelmäßigkeit in das Leben von Handwerkern und Kaufleuten. Aus dem Messen der Zeit wurde – so Mumford – mit der Zeit eine „Regelung der alltäglichen Verrichtungen, die zeitliche Kontrolle der Arbeitstätigkeit und die Rationierung der Zeit“.10 Spätestens seit dem 17. Jahrhundert avanciert diese mechanistische Vorstellung zum bevorzugten Erklärungsmodell vieler Philosophen und Denker.11 Die Welt ist zu einer Maschine geworden. Alles weist eine innere Regelhaftigkeit auf. Zum Bedeutungsumfang des Wortes „Uhrwerk“ notieren Jakob und Wilhelm Grimm: „stundenmesser, in bildlichem gebrauch sind meist regelmäszigkeit oder unregelmäszigkeit des ganges der uhr, ihr stehenbleiben, bzw. ablaufen, aber auch ihr mechanismus, die künstlichkeit des ineinandergreifenden räderwerkes die tertia comparationis (…) ,uhr / werk‘: 1) stundenmesser, synonym mit uhr, doch nur von automatischen räderuhren, nicht von sonnen-, sanduhren u. ä. 2) in weiterer verwendung für automat, automatum (…) das mechanisch-philosphische system behauptet, dasz das ganze weltall nach unveränderlichen gesetzen so wie ein u. regiert werde.“12

Ziel der Wissenschaft und der menschlichen Erkenntnis ist es, den vermuteten geheimen Uhrwerks-Mechanismus des Universums zu enträtseln. Ziel ist es, die Zukunft, das Kommende, vorwegnehmen und vorauszuberechnen. Christian Wolff führt aus, wie das zu verstehen ist: „Weil die Welt eine Maschine ist, so hat sie insoweit mit einer Uhr eine Ähnlichkeit: Und wir können uns daher zur Erläuterung hier im Kleinen dasjenige deutlicher vorstellen, was dort im Großen stattfindet. (…) Wie ferner in einer richtiggehenden Uhr alle künftigen Veränderungen ihrer Räder und alle Stellungen ihres Zeigers, noch ehe sie kommen, ihre Gewissheit und Wahrheit haben, weil nämlich alles durch die vergangenen und gegenwärtigen Veränderungen bestimmt wird, so 10  Mumford

(1963), S. 15 – zitiert nach Weizenbaum (1978), S. 43. S. 128–199. 12  Grimm/Grimm (1936), S. 731, 735, 746–747. 11  Meyer,

138

2. Kap.: Metaphern – verdächtige Wörter?

Abbildung 11: Temperantia stellt eine mechanische Uhr (ca. 1450, Oxford, Bodleian Library)13 dass es möglich ist, alle Veränderungen derselben auf alle Augenblicke vorherzusagen: eben so haben auch alle Begebenheiten in der Welt ihre bestimmte Wahrheit und Gewissheit, ehe sie noch geschehen, und derjenige der ihren Bau vollkommen einsieht, kann aus ihrer vergangenen und gegenwärtigen Einrichtung alles Künftige vorhersehen.“14

Wie Mumford sieht auch Hans Blumenberg im Wandel des Zeit-Begriffs das wesentliche Merkmal für den Übergang vom Mittelalter zur Neuzeit. Der tiefgreifende Umbruch im Verständnis von „Zeit“ gegenüber dem antiken Denken sei, noch wesentlicher gewesen für den Epochenwechsel als die Veränderungen des Raum-Begriffs als Folge der Erfindung des Fernrohrs. Blumenberg erläutert den Zusammenhang so: Erst durch das Aufkommen der Räderuhr sei im späten Mittelalter ein Gefühl von säkularer Immanenz 13  Mayr, S. 54: „Nachdem Temperantia als die höchste Tugend anerkannt und von der zeitgenössischen Theologie sanktioniert worden war, spielte Sapientia in der Ikonographie keine Rolle mehr. Die Ikonographie der Temperantia nahm schließlich eine eigenständige Entwicklung, die weitere Stimulierung durch die Literatur bedurfte. Im späten 15. Jahrhundert zeigten Darstellungen der sieben Tugenden Temperantia üblicherweise in der Mitte. Die Uhr war weiterhin ihr wichtigstes Attribut.“ 14  Wolff, Christian: Vernünftige Gedanken von Gott der Welt und der Seele des Menschen, auch allen Dingen überhaupt, Halle 1719 – zit. nach Maurice, S. 14.



II. Die Welt als Uhrwerk139

entstanden. Fasziniert sei die Uhr als „Verbindung von Genauigkeit und innerem Antrieb“ wahrgenommen worden, wodurch die physische Realität und Außenwelt als „Erzeugungspunkt der Phänomene“, „als Konfiguration von Verhältnissen“, in den Blick genommen worden sei. Dies drücke sich auch in der Weltuhrwerks-Metapher aus, die in gewissem Sinne die Vorwegnahme des Kopernikanismus gewesen sei. Die elementare Realitätsvorstellung der Antike, wonach die Wirklichkeit „sich zeige“, sei abgelöst worden von der neuen Vorstellung der systematischen Herstellbarkeit der Erkenntnis: „Wirklichkeit zeigt sich nicht, sie wird zur Erscheinung gebracht: der Stern unter unseren Füßen produziert die stellaren Phänomene über unseren Köpfen.“15

Waren anfangs noch die Klöster die Verstärker für den neuen Umgang mit der Zeit, so übernahmen die Städte bald diese Funktion. Ablesbar war der Geist der neuen Epoche an imposanten Uhrentürmen und riesigen Räderuhren, welche die öffentlichen Plätze und fürstlichen Prachtbauten schmückten. Der Faszination für das Räderwerk der Uhr folgte der Triumph der Mechanik, notiert Klaus Maurice: „Die Uhr und der Automat werden Paradigmata für den vorbestimmten Ablauf der Welt. Newton und Leibniz diskutierten, ob Gott nach dem einmaligen In-GangSetzen der Weltenuhr sich zurückgezogen habe oder manchmal regulierend in ihren Ablauf eingreife. Als Erklärungsprinzipien der determinierten Bewegung im Kosmos verkörperten nun Räderwerke, Uhr wie Automat, ,entmythologisiert‘ den Triumph der Mechanik.“16

Automatik und die Gleichmäßigkeit des Uhrenlaufwerks waren weithin Vorbild und Modell für die Wirklichkeit. Es ist daher kein Zufall, dass die Uhr sich zum zentralen Symbol des neuen Zeitalters und zur vorherrschenden Metapher in Literatur und Architektur entwickelte. Über die mathematische Erfassung der Wirklichkeit wird die Uhr zugleich zum Modell des Denkens. Klaus Maurice’ erkennt im Verlauf seiner Untersuchungen zur Geschichte der Räderuhr eine neue Logik, eine „Logik der mechanischen Konstruktion“, die in der Hauptsache mathematisch begründet und der heutigen Programm-Logik des Computers vergleichbar sei.17 Entstanden ist dadurch, ausgedrückt im Uhrenmechanismus, so etwas wie ein „Schau-Bild“ für die Welt. Mithilfe der Uhr hatte man im wahrsten Sinne des Wortes den Mikro- und Makrokosmos der Welt modelliert: Die Uhr ist „Modell für das Sein“ und zugleich „Modell des Seins“. Zum ersten Mal überhaupt entsteht 15  Blumenberg

(1996) S. 505, 509, 525–526. S. 5. 17  Maurice, S. 59: „Die Metaphorik geht also stets vom Funktionieren des einmal eingerichteten und nun nach Plan ablaufenden Werks aus, nie von dem durch die Uhr anschaulich gemachten Ablauf der Zeit.“ 16  Maurice,

140

2. Kap.: Metaphern – verdächtige Wörter?

in der Vorstellungswelt der Menschen ein Abbild der gesamten Wirklichkeit, ein „Bild der Welt“ bzw. ein „Weltbild“, wie Martin Heidegger feststellt. Die zentrale Vorstellung des sogenannten „neuzeitlichen Weltbildes“ ist die, dass die Welt einem Uhrwerk ähnelt. „Die Redewendungen ,Weltbild der Neuzeit‘ und ‚neuzeitliches Weltbild sagen zweimal dasselbe und unterstellen etwas, was es nie zuvor geben konnte, nämlich ein mittelalterliches und antikes Weltbild. Das Weltbild wird nicht von einem vormals mittelalterlichen zu einem neuzeitlichen, sondern dies, dass überhaupt die Welt zum Bild wird, zeichnet das Wesen der Neuzeit aus. (…) Der Grundvorgang der Neuzeit ist die Eroberung der Welt als Bild. (…) Wo die Welt zum Bild wird, kommt das System, und zwar nicht nur im Denken, zur Herrschaft. Wo aber das System leitend ist, besteht auch immer die Möglichkeit der Entartung in die Äußerlichkeit des nur gemachten und zusammengestückten Systems.“18

Das allgegenwärtige „Bild“ des in seiner mechanischen Regelmäßigkeit faszinierenden Automaten muss sich den zeitgenössischen Staatstheoretikern – auch Hobbes – förmlich aufgedrängt haben.

III. Von verdächtigen Wörtern Thomas Hobbes meinte, auf „Metaphern und andere bildliche Worte“ im Leviathan verzichten zu müssen. Er war sich seiner Sache in dieser Hinsicht ganz sicher. Wer nach Wahrheit strebe, könne sich „dergleichen Ausdrücke eigentlich nicht erlauben“, schreibt er.19 Ja, er warnt den Leser sogar vor derlei „verdächtigen“ Wörtern ob ihrer schwankenden Bedeutung: „Metaphern müssen übrigens ganz vermieden werden, denn diese sind allemal verdächtig und wer sie daher bei eigentlichen Beratungen und Schlussfolgerungen gebraucht, handelt offenbar töricht.“20

Beseelt von dem Ideal der exakten Logik nach dem Vorbild der Mathematik überträgt Hobbes diese Vorstellung auf die Sprache. Ihm kommt es darauf an, in seiner rationalen Argumentation, der vernünftigen und geordneten Rede, „sichere Schlüsse“ ziehen zu können – zwei- oder mehrdeutige Wörter sind daher zwingend zu vermeiden: „Was für den einen Vorsicht ist, nennt der andere Furcht; was bei dem einen Grausamkeit heißt, heißt bei dem andern Gerechtigkeit; was diesem Verschwendung ist, ist jenem Pracht; was uns Würde dünkt, dünkt jenem Stolz usw. Deswegen lässt sich aus solchen Benennungen nicht immer ein sicherer Schluss ziehen, sowenig wie aus Metaphern und anderen bildlichen Worten. Jedoch ist hier nicht so viel zu befürchten, weil ihre schwankende Bedeutung zu offenbar ist.“21 18  Heidegger

(1950), S. 81–83, 87, 93. (1970), S. 38, 43. 20  Hobbes (1970), S. 66. 21  Hobbes (1970), S. 37–40, 43, 66. 19  Hobbes



III. Von verdächtigen Wörtern141

Metaphern führen seiner Meinung nach sogar in die Irre. Er charakterisiert sie als „Irrlichter“: „Metaphern aber und nichtssagende und zweideutige Worte sind Irrlichter, bei deren Schimmer man von einem Unsinn zum anderen übergeht und endlich, zu Streitsucht und Aufruhr verleitet, in Verachtung gerät.“22

Offenbar hat Hobbes hier die Situation eines Schiffes auf See vor Augen. Ein Schiff, das sich an Lichtern und Leuchtpunkten bei Nebel und in der Nacht orientiert, um riskante Küstengewässer zu durchfahren. Metaphern verstanden als „Irrlichter“ führen auf Abwege. Eine logische Argumentation und Gedankenführung kann, so Hobbes’ Überzeugung, auf diese Weise nur Schiffbruch erleiden. Wieweit Hobbes im Leviathan, von der nautischen Hintergrundvorstellung beeinflusst war, wäre im Einzelnen näher zu untersuchen. Sein Grundmotiv allerdings, die Anspielung an den biblischen Chaosdrachen, das Seeungeheuer namens „Leviathan“ aus dem Buch Hiob dem sein Werk den Titel verdankt, deutet darauf hin. Mit seiner schlechten Meinung über Metaphern stand Hobbes nicht allein. René Descartes war insoweit noch konsequenter: Das Wort „Metapher“ taucht in seiner Abhandlung über die Methode des richtigen Vernunftgebrauchs nicht an einer einzigen Stelle auf. Descartes seinerseits war fasziniert von der Exaktheit der mathematischen Aussagenlogik, den langen Ableitungen und Schlussketten, „jene langen Ketten ganz einfacher und leichter Folgerungen, wie sie die Geometer zu brauchen pflegen, um die schwierigsten Beweisführungen zustande zu bringen“.23 Andererseits aber konnte auch Descartes bei seinen Überlegungen Metaphern nicht vermeiden. Das Gehirn stellte er sich als Bestandteil eine hochkomplizierten hydraulischen „Maschine“ vor. Es ähnele, sagt er, den „Springbrunnen in den königlichen Gärten“.24 Hans Blumenberg hat nachgewiesen, dass es für die Vorstellung des Meeres als Erscheinungsort des Bösen, die sich Hobbes zu eigen gemacht hat, in der Geistesgeschichte vielfältige Beispiele gibt. Die Seefahrt-Metaphorik sei, wie er feststellt, in Literatur und Geistesgeschichte sehr verbreitet. Oft werde das Leben, ja das Dasein selbst, als riskante Seefahrt beschrieben, das Meer gewissermaßen als Bildspender und Quelle der Gefahr, der Hafen hingegen als Hort der Sicherheit gesehen: 22  Hobbes

(1970), S. 45–46. (1993), S. 32. – Näher dazu Rudel, Friedwart M: Video et cogito. Die Philosophie der Wahrnehmung und die kinematographische Technik, Essen 1985; Kleinspehn, Thomas: Der flüchtige Blick. Sehen und Identität in der Kultur der Neuzeit, Reinbek bei Hamburg 1989. 24  Carr, S. 69. 23  Descartes

142

2. Kap.: Metaphern – verdächtige Wörter?

„Der Mensch führt sein Leben und errichtet seine Institutionen auf festem Lande. Die Bewegung seines Daseins im Ganzen jedoch bevorzugt er unter der Metaphorik der gewagten Seefahrt zu begreifen. Es gibt Küsten und Inseln, Hafen und hohes Meer, Riffe und Stürme, Untiefen und Windstillen, Segel und Steuerruder, Steuermänner und Ankergründe, Kompass und astronomische Navigation, Leuchttürme und Lotsen. Oft dient die Vorstellung der Gefährdungen auf der hohen See nur dazu, die Behaglichkeit und Ruhe, die Sicherheit und Heiterkeit des Hafens vorzustellen, in dem die Seefahrt ihr Ende finden soll.“25

Werde das Meer auf diese Weise gleichsam dämonisiert und zur Sphäre der Unberechenbarkeit, Gesetzlosigkeit und Orientierungslosigkeit, so entspreche der Ort, an dem kein Meer mehr existiere, gleichsam einem messia­ nischen Zustand. Die nautische „Hintergrundmetaphorik“ lasse sich bis in die christliche Ikonographie hinein verfolgen, betont Blumenberg, da es nach den Verheißungen der Apokalypse im Jenseits kein Meer mehr gebe.26 Zur Erläuterung seiner methodologischen Überlegungen führt Blumenberg an anderer Stelle aus, was er unter „Hintergrundmetaphorik“ versteht. Die Sprache eilt hiernach dem Denken gewissermaßen voraus. Bildern und Vorstellungen präfigurieren Wahrnehmungen. Er schreibt: „Nicht nur die Sprache denkt uns vor und steht uns bei unserer Weltsicht gleichsam ‚im Rücken‘; noch zwingender sind wir durch Bildervorrat und Bilderwahl bestimmt, ‚kanalisiert‘ in dem, was überhaupt sich uns zu zeigen vermag und was wir in Erfahrung bringen können.“27

Etwas kryptisch spricht Blumenberg so in Bezug auf Metaphern von „Leitfossilien einer archaischen Schicht des Prozesses der theoretischen Neugierde“.28 Damit ist immerhin soviel gemeint, dass Einstellungen und Denkgewohnheiten wie lieferliegende Sedimente das aktuelle Wahrnehmungsgeschehen an der Oberfäche mitbestimmen. Dieser Gedanke ist zentral für seine Konzeption seiner „Metaphorologie“.29 Diese begreift er zunächst als „Zweig der Begriffsgeschichte“, ein Zweig, der sich insbesondere der Vorgeschichte von Begriffen bzw. dem „Vorfeld der Begriffsbildung“ zuwendet. Begriffsbildung ist hiernach ein diskursiver Prozess der Entwicklung von Allgemeinsinn (common sense). Hobbes’ Meinung über Metaphern wirkt bis heute nach: Wie tief sich das Exaktheitsideal und mechanistische Vorstellungen in das kollektive Bewusstsein eingegraben haben, wie selbstverständlich technizistische Analogien in 25  Blumenberg

(1993a), S. 9. (1993a), S. 10. 27  Blumenberg (1998), S. 91–92. 28  Blumenberg (1993b), S. 77. 29  Blumenberg: Paradigmen zu einer Metaphorologie, Bonn 1960; Blumenberg: Die Lesbarkeit der Welt, 3. Aufl., Frankfurt a. M. 1993. – Siehe ferner Haverkamp/ Mende (Hrsg.), Metaphorologie. Zur Praxis von Theorie, Frankfurt a. M. 2009. 26  Blumenberg



III. Von verdächtigen Wörtern143

aktuellen sozialen Zusammenhängen verwendet werden, zeigt eine Untersuchung zum heutigen Sprachgebrauch: In seiner breit angelegten linguistischen Studie zur „Maschinen-Metapher“ bzw. dem „mentalen Modell Maschine“ geht Karlheinz Jakobs dem Erfolg der Metapher in der Alltags-, Fach- und Wissenschaftssprache auf den Grund. Sein methodologisch origineller Versuch, Technik-, Text- und Begriffsgeschichte zu verbinden, bestätigt die fundamentale geistesgeschichtliche Bedeutung des maschinellen bzw. mechanischen Getriebes als „Deutungsschema“.30 Von ganz besonderer Bedeutung ist hierbei, wie Jakobs klar herausstellt, das „Uhrwerk“. Die Uhr bzw. die Uhren-Metapher sei unter den vielen Automaten, die im Verlauf der Jahrhunderte zur mechanistischen Analogiebildung eingeladen hätten, derjenige Funktionsmechanismus, der wissenschaftlichen und konzeptionellen Entwürfen zuallererst als Vorbild gedient habe. Er schreibt: „Die entscheidenden Paradigmenwechsel hin zu einer Mechanisierung und ,Maschinisierung‘ des Weltbildes liegen bei Kepler im Übergang von ,anima‘ zu ,vis‘ und beim Austauschen von ,instar divini animalis‘ durch ,instar horologii‘. (…) Die Uhr ist das leitende Modell und die technische und empirische Grundlage allen mechanischen Denkens seit dem Spätmittelalter. Die Merkmale, die für den heutigen Maschinenbegriff im Vordergrund stehen, sind noch gar nicht ausgebildet: Insofern könnte man behaupten, wenn im 17. Jahrhundert von Maschine die Rede ist, ist das Konzept MASCHINEN-GLEICH WIE EINE UHR gemeint. Das gesamte politische und wissenschaftliche Denken des 17. Jahrhunderts, dessen umfassendes Deutungsschema ,sub specie machinae‘ hieß, müsste vom heutigen Verständnis ausgehend dann vielleicht konsequenter mit der Etikettierung ,sub specie horologii‘ versehen werden.“31

Für die Rechtswissenschaften hat Arno Baruzzi die kulturanthropologischen und mentalitätsgeschichtlichen Zusammenhänge32 im Hinblick auf die Verwendung der Maschinen-Metapher intensiver untersucht. Baruzzis Arbeiten kreisen um die Maschine als geschichtliches, insbesondere geistesgeschichtliches Motiv im abendländischen Denken. Sehr deutlich arbeitet er die Wirkungsgeschichte Descartes‘ heraus und stellt den klassischen Rationalismus strukturalistischen und „poststrukturalistischen“ Denkansätzen gegenüber. Er zeigt dabei zugleich die Problematik der Mechanisierung des Denkens in ihrer historischen Perspektive wie auch in ihrer aktuellen Bedeutung auf. Er spricht vom „Denken sub specie machinae“. Daraus leitet er den Gedanken einer Art „Maschinalisierung des Rechts“ ab – ein Phänomen, das sich von der juristischen Methodenlehre bis in die tatsächliche 30  Hermanns

(2002), S. 291–297. (1991), S. 121, 128–129. 32  Hermanns (1995), S. 71: „Einzeltexte können individuelles Denken, Fühlen, Wollen zeigen; Sprachgebrauch zeigt kollektives Denken, Fühlen, Wollen einer Sprachgemeinschaft. Daher ist Beobachtung von Sprachgebrauch ein Königsweg der wissenschaftlichen Erkenntnis von Mentalitäten.“ 31  Jakobs

144

2. Kap.: Metaphern – verdächtige Wörter?

Entscheidungspraxis hinein verfolgen lasse. Im Zeitalter des Computers oder „kybernetischer Maschinen“, wie er sagt, und im Zuge der umfassenden Verrechtlichung bzw. Positivierung des Rechts werde diese Denkweise und Rechtstradition indessen mehr und mehr zum Problem. Auf diese Weise nämlich stellten sich eine Art „Maschinalität im Denken und Handeln“ und der Glaube an die Machbarkeit insgesamt ein: „Die Maschine wird zum Schaubild des Machens bzw., wie ich es nennen will, der Machbarkeit. In der Maschine zeigt sich, wie und was der Mensch aus sich selbst und aus der Welt machen kann. Er kann Maschinen – zunächst mechanische, dann kybernetische Maschinen – machen und demonstriert hier Machbarkeit, welche die neue Form von Macht ist. (…) Wir nennen das neuzeitliche Denken in Philosophie, Wissenschaft, Technik, Wirtschaft usw. ein Denken sub specie machinae, weil in allen Bereichen die Machbarkeit triumphiert, weil von der Philosophie her angefangen, der Mensch sein Denken unter das Prinzip der Machbarkeit stellt.“33

Nach Baruzzi entsprechen Machbarkeit, d. h. die Macht des Herstellens, und Exaktheit, d. h. das Ideal der präzisen Regelbarkeit, einander. Er weist, wie auch Günter Ropohl, auf den engen etymologischen Zusammenhang zwischen den Wörtern „Mechanik“, „Maschine“ und „Macht“ hin. Daraus leitet er die überragende Bedeutung der Machbarkeitsvorstellung her: „Mechana oder dorisch machana heißt Mittel, Hilfsmittel, Erfindung, Apparat, Kunstgriff, List. Wir haben hier eine breite Fülle der Bedeutung, und mechana liegt vor bei der List des Zeus oder des Odysseus mit seinem Trojanischen Pferd. Wir haben im ersten griechischen Verständnis die Grundbedeutung des Mittels. Maschinen sind Mittel, Hilfsmittel. Nicht so sehr drängt hervor der Gesichtspunkt der Macht, der im Wort bereits steckt und früher ist, nämlich auf das Altindische zurückgeht, auf magha, Macht, Kraft, Reichtum, Gabe, im gotischen mag sich ausdrückt und welches bedeutet: Können, Vermögen, Helfen. Mahts heißt Kraft, Macht; magus ist der Magier, Zauberer. Wenn wir von Maschinenmacht oder Macht der Maschine sprechen geraten wir fast in einen Pleonasmus. Maschine ist eine Form von Macht, bedeutet Macht des Menschen und ist die neue, eben neuzeitliche Macht überhaupt.“34

Baruzzi erkennt in der Verbindung, die das geistige Erbe des Cartesianismus mit der Strategie der Verrechtlichung in der modernen Rechtspolitik eingegangen sei, die geistige Grundlage für die geregelte „Rechtsmaschine“, wie er sagt, unserer Tage. Verrechtlichung sei ganz allgemein Positivierung von Recht; im Wege der „Verrechtlichung“ werde das Recht präzisiert. Allerdings beinhalte Positivierung „eine immer weitergehende, ja in der Differenzierung nie haltmachende Bewegung“. Immer handele es sich darum, dass die Normierung weitergehe, exakter und perfekter werde. Verrecht­ 33  Baruzzi 34  Baruzzi

(1990), S. 186–189. (1990), S. 188.



IV. Uhrwerk und Waage145

lichung ziele so auf perfekte Normung des Rechts, d. h. eine Art „Automation“, wie man es von Automaten als perfekt normierten Maschinen kenne. Recht gelte auf diese Weise als herstellbar, machbar. Rechtspraxis erscheint aus dieser Perspektive als einmal in Gang gesetzte unaufhörlich produzierende „Rechtsmaschine“: „Die Maschine des Rechts in diesem umfassenden und weiten Sinne produziert immer mehr Rechte. So kann der Rechtslauf auch kaum unterbrochen werden. Er verselbständigt sich. Es zeigt sich im Rechtsbereich genau dasselbe Problem, von dem wir längst in der Technik und Wirtschaft sprechen, wenn dort beispielsweise von einer Superstruktur gesprochen wird, der wir unterliegen. Die Maschinen laufen und wir laufen mit. Es scheint unmöglich zu werden, eine laufende Produktion um-, geschweige denn abzustellen.“35

Baruzzi betont dabei ausdrücklich, dass er „Maschine“ als Metapher verstehe. Eine „Metapher“ sei für ihn, wie er unterstreicht, nicht nur ein Stilmittel bzw. eine Art semantischer Vergleich, um das eigentlich Gemeinte zu umschreiben, sondern eine Form der „Übertragung der Realität“. Wenn die Metapher, wie Baruzzi zu Recht feststellt, „Wirklichkeit in einem übertragenen Sinn (…) figurieren“ soll36, ist dann das Maschinenhafte die ganze Realität des Rechtsstaats? So richtig die Feststellungen Baruzzis im Grundsatz sind, so einseitig liest sich seine Analyse im Ergebnis. Das sich aufdrängende Ähnliche scheint hier das tiefer liegende Tatsächliche usurpiert zu haben. Analogie und Metapher, würde man Baruzzi entgegenhalten, sind zwar verwandt, aber dennoch höchst ungleiche Schwestern.

IV. Uhrwerk und Waage Kulturwissenschaftliche Studien bestätigen und ergänzen den bis hierhin skizzierten Zusammenhang um weitere Aspekte: Mechanisierung und Mathematisierung waren im Verlauf der geistesgeschichtlichen Entwicklung zwei gleichlaufende, sich wechselseitig überkreuzende und verstärkende Prozesse, wie Eduard J. Dijksterhuis feststellt. Er tut sich schwer damit, wie er sagt, den Gesamtprozess adäquat zu bezeichnen. Er spricht von „Mechanizismus“ und meint damit die Herausbildung des „mechanistischen Weltbildes“ entlang mathematischer Denkmodelle. „Es ist schwer, eine in jeder Hinsicht befriedigende Terminologie festzulegen. ,Mechanisch‘ ruft eine zu starke Assoziation mit ,automatisch‘ im Sinne von ,gedankenlos‘ hervor. Gegen ,mechanistisch‘ gibt es an sich keinen Einwand, es erfordert aber als zugehöriges Substantiv ,Mechanismus‘, und dieses Wort ist auch wieder für die innere Zusammensetzung eines Werkzeuges in Gebrauch. Wir zie35  Baruzzi 36  Baruzzi

(1990), S. 204–205. (1973), S. 209–210.

146

2. Kap.: Metaphern – verdächtige Wörter?

hen deshalb das Substantiv Mechanizismus zur Benennung der Denkrichtung vor und sind so inkonsequent, daneben das Adjektiv mechanistisch zu gebrauchen und von der Mechanisierung des Weltbildes zu sprechen.“37

Die Mechanisierung im Übergang von antiker zu klassischer Naturwissenschaft bestehe in der Einführung einer Naturbeschreibung more geometrico, d. h. mittels der mathematischen Begriffe der klassischen Mechanik. Nach Dijksterhuis beginnt hier die Mathematisierung der Naturwissenschaft, die in der Physik des zwanzigsten Jahrhunderts ihre Vollendung findet. Günter Frey hat den Aspekt der „Mathematisierung der Erkenntnistheorie“ noch eingehender untersucht. Ganz allgemein stellt er hierbei eine Tendenz zur zunehmenden Idealisierung und „Konstruktivierung“ des Tatsächlichen fest. „Mathematisierung der Wahrnehmung“, sagt Frey, bedeute „eine Art Brille, durch die wir die Welt sehen, oder um einen anderen Vergleich zu benützen, indem wir die Welt konstruktiv machen, werfen wir ein Netz über sie.“38 Unter den kulturwissenschaftlichen Arbeiten zum vorliegenden Themenkomplex, inbesondere der Technik- und Geistesgeschichte Europas, sticht die Arbeit des Mediävisten Otto Mayr hervor – im Deutschen erschienen unter dem Titel Uhrwerk und Waage.39 Zu Recht spricht Gerald Sammet in Bezug auf Mayrs Untersuchung von einem „monumentalen Exkurs“ auf dem Gebiet der Technikhistorie.40 Mayr unternimmt ausgedehnte metapherngeschichtliche Streifzüge durch die Literatur- und Technikgeschichte Englands und Kontinentaleuropas seit der frühen Neuzeit. Die Metaphern, deren Gebrauch er im Verlauf der Jahrhunderte in den beiden Kulturkreisen beobachtet und beschreibt, sind „Uhrwerk“ und „Waage“. Regelrecht beweisen will er den geistesgeschichtlichen Zusammenhang und die reale Affinität zwischen dem häufigen Gebrauch der Uhren-Metaphorik und der Herausbildung autoritärer Staatsvorstellungen und entsprechender Regime auf dem Kontinent und – umgekehrt – der bewussten Abkehr vom UhrwerksModell und die Verwendung der „Waage“ als Sinnbild und Metapher für liberale Gesellschaftsordnungen im angelsächsischen Rechtskreis. Er stellt bei seiner Untersuchung fest, dass die Metapher der Waage so alt ist wie die Literatur selbst. Man fände sie in ägyptischen Schriften der Pharaonenzeit, in Homers Ilias, im Alten Testament und bei Herodot. Da man mit Hilfe einer Waage feststellen könne, welches von zwei Gewichten das schwerere sei, habe sie in der frühen Literatur als Metapher der Unterschei37  Dijksterhuis (1956), S. 1, 557. – Sie ferner Giedion, Sigfried: Die Herrschaft der Mechanisierung. Ein Beitrag zur anonymen Geschichte, 2. Aufl., Hamburg 1994. 38  Frey, S. 149. 39  Mayr, Otto: Uhrwerk und Waage. Autorität, Freiheit und technische Systeme in der frühen Neuzeit, München 1987. 40  Sammet, S. 66.



IV. Uhrwerk und Waage147

dung und Entscheidung gedient. Zusätzlich habe die Waage im klassischen Altertum als ein Modell des Gleichgewichts gegolten, zum Beispiel zur Veranschaulichung verschiedener Kräfte und Gegengewichte innerhalb politischer Systeme.41 Der zu Recht so bezeichnete „monumentale Exkurs“ Otto Mayrs besteht nun darin, diese vielfältigen überlieferten Primärquellen, literarischen Texte und zeitgenössischen Dokumente zu den unterschiedlichen von ihm sogenannten „Denkmustern Uhrwerk und Waage“ gesammelt, gesichtet und einander gegenübergestellt zu haben. Sein ursprünglicher Beitrag zur Technikgeschichte gerät so unter anderem zur „Geistesgeschichte der Uhr“, wie er sagt, und damit zur Geistes- und Philosophiegeschichte. Letztlich will er durch diese Art „archäologischer Rekonstruktion des Werdegangs der Uhrenmetapher“42 mit geisteswissenschaftlichen Mitteln Beweis führen über den engen tatsächlichen Zusammenhang zwischen technischer Innovation und der Entwicklung eines spezifischen Denkstils. Ihm geht es um das Herauspräparieren von „Denkmustern“ und „kollektiven Mentalitäten“, die sich an der Häufigkeit des Gebrauchs von Metaphern, damit auch der Uhren-Metapher ablesen“ ließen. „Unsere Aufgabe besteht demnach darin, eine Wechselwirkung zwischen der praktischen Technik und der intellektuellen und geistigen Kultur einer Gesellschaft zu rekonstruieren. Konkret werden wir zu klären haben: Welche Wertvorstellungen und Denkmuster waren es, die diese Wechselwirkung prägten und von ihr geprägt wurden?“43

So erkundet er eine Vielzahl von metaphorischen Bezugnahmen auf Uhren und Automaten in der europäischen Literatur der beginnenden Neuzeit die Einstellungen zur Technik. Dadurch ergeben sich empirische Belege für Differenzen in den Einstellungen und Wertvorstellungen zwischen dem Kontinent und Großbritannien. Mayr stellt fest: „(…) der Kontinent fühlt sich zunehmend dem Leitbegriff der Autorität verpflichtet, England seiner Antithese, der Freiheit. Das reinste Symbol der Autorität war natürlich die Uhr.“44

Er weist anhand seiner Studien nach, dass die führenden Metaphern des Liberalismus, Begriffe wie „Gleichgewicht“ und „Waage“, „Balance“, „Aus­ gleich“, parallel zum Aufstieg des Liberalismus in der praktischen Politik in der englischen Literatur an Bedeutung gewannen. In den Literaturen des Kontinents hingegen sei dies nicht annähernd der Fall gewesen. Otto Mayr hält, was er eingangs verspricht: Als Beitrag zur Technik-, Text-, Begriffsund Mentalitätsgeschichte Kontinentaleuropas und Großbritanniens konzi41  Mayr,

S. 170–171. S. 141. 43  Mayr, Einleitung S. 13–14. 44  Mayr, Einleitung S. 14–15. 42  Mayr,

148

2. Kap.: Metaphern – verdächtige Wörter?

piert, verdichtet er einer Fülle von Fundstellen in der Dichtung und im wissenschaftsgeschichtlichem Schrifttum zu einem Vergleich zweier unterschiedlicher Kulturen. Wie verschieden die Denkweisen und in der Folge auch die Rechtskulturen sind, ist konkret ablesbar an der bevorzugten Metaphorik. Die Metaphern „Uhrwerk“ und „Waage“ durchziehen wie rote Fäden die jeweiligen gesellschafts- und staatstheoretischen Diskurse. Breiten Raum räumt Mayr der Darstellung der geistigen Bewegung der später sogenannten „mechanischen Philosophie“ ein, die mit dem 13. Jahrhundert einsetzt und im 17. Jahrhundert ihren Höhepunkt erreicht. Er spricht insoweit von einer „wissenschaftlichen Revolution“: „Es wäre zwar nicht falsch, würde man sagen, dass die Uhrenmetapher nach der Zeit des Hochbarock nur in der Literatur gewisser Spezialgebiete bedeutsam blieb, aber es würde ihrer geschichtlichen Realität kaum gerecht. Die Auseinandersetzung um das Wesen der Welt und das Verhältnis des Menschen zu ihr, die Kopernikus, Bacon, Galilei, Kepler, Descartes, Boyle, Leibniz, Newton und zahllose andere beschäftigte, beschränkte sich nicht auf ein Spezialgebiet, sondern sie war gleichbedeutend mit einer außerordentlichen geistigen Bewegung, die wir heute als die Wissenschaftliche Revolution bezeichnen und die nicht nur das Naturverständnis des Menschen veränderte, sondern in einem intensiven Wechselverhältnis mit allen bedeutenden Faktoren der europäischen Zivilisation stand, sei es nun die Theologie, die Technik oder die Politik.“45

Konkret besteht die wissenschaftliche Revolution in der Herausbildung eines Denkmusters, welches er wegen der zugrundeliegenden positivistischen (d. h. präzise zwischen positiv / negativ unterscheidende) Erkenntnislehre auch das „Paradigma positiven Wissens“ nennt.46 Eine besondere Rolle spielt in dieser Entwicklung nach Mayr die mechanische Philosophie des René Descartes. Er ist für ihn der „mechanische Philosoph“ schlechthin: „René Descartes war der Inbegriff des mechanischen Philosophen. Die Mechanik war für ihn der Schlüssel zum Geheimnis der Natur; ,mechanisch‘ bedeutete für ihn ,maschinenartig‘. Sein grundlegendes Programm bestand darin, ,die Erde und die ganze sichtbare Welt nach Art einer Maschine‘ zu beschreiben und dabei ,nur Gestalt und Bewegung‘ zu berücksichtigen. Frühere Lehren hatten nach seiner Meinung versagt, weil sie nicht die mechanische Betrachtungsweise gewählt hatten.“47

Mayr erkennt im Denken Descartes sogar eine Affinität zur späteren Kybernetik: „Man könnte Descartes’ Interesse an dem Gesamtsystem (der menschlichen Physiologie, N. R.) sogar als ,kybernetisch‘ bezeichnen, wenn man sich erinnert, dass 45  Mayr,

S. 74. S. 108, 111. 47  Mayr, S. 82–83. 46  Mayr,



IV. Uhrwerk und Waage149 es die ,Steuerung und Kommunikation in Tier und Maschine‘ war, was Norbert Wiener 1948 mit dem Namen ,Kybernetik‘ versah.“48

Das Werk Descartes’ habe, wie sich zeigen lasse, aufgrund seiner ungeheuren Breitenwirkung wie ein Katalysator für den Aufstieg der UhrenMetapher gewirkt und sei zum zentralen Bezugspunkt im neuzeitlichen Denken geworden. Auch der „System“-Begriff verdanke sich letztlich der Karriere der Uhrwerks-Metapher: Das Uhrwerk als Metapher für das einwandfreie Zusammenwirken einer komplizierten Verknüpfung von Teilen sei zum Primärbeispiel für die neue Abstraktionstufe in Form des „Systems“ geworden. Der Artikel „System“ in Diderots Encyclopédie führte konsequenterweise die Räderuhr als physikalisches Beispiel für ein wohlintegriertes Ganzes an.49 Mayr weist nach, dass die Uhrwerks-Metapher als latent wirksame Idealvorstellung von überragender Bedeutung war für die Entwicklung und Ausprägung einer spezifisch kontinentaleuropäischen Rechtskultur, auch für die Herausbildung autoritärer politischer Systeme auf dem Festland. Die Uhr demonstriere „auf eine beeindruckend konkrete Weise eine bestimmte Art von Rationalität und Logik und eine spezifische Verfahrensweise zur Erreichung erwünschter Resultate.“50

Dieses Bild, diese Logik, sei deshalb sehr rasch zum Vorbild und Modell eines rationalen, zielgerichteten Handelns geworden.51 Ganz anders – betont Mayr – sei demgegenüber die Haltung der englischen Dichter, Staatstheoretiker und Philosophen gewesen. Sei man der mechanischen Philosophie als Denklehre und der Räderuhr als konkretem Bildspender anfänglich noch aufgeschlossen begegnet, so habe sich dieses Verhältnis mit der Zeit um, bis hin zur ausdrücklichen Ablehnung umgekehrt. Mayr führt dazu aus: „Im 16. Jahrhundert waren die englischen Uhrenmetaphern ambivalent; diese Einstellung hielt sich bis in die Zeit Shakespeares und darüber hinaus. Charakteristische Eigenschaften, die man mit der Uhr assoziierte, waren einerseits Ruhe, Zuverlässigkeit, Pünktlichkeit und Gesundheit, andererseits Kälte, Düsterkeit und Unberechenbarkeit. Skakespeare empfand gegenüber Uhren vor allem Ekel (,Uhren die Zungen von Kupplerinnen‘); seine Ablehnung richtete sich gegen ihre Macht, die weiträumigen Rhythmen unseres Gemütslebens in starre, mechanische Strukturen zu pressen. Shakespeare und andere Dramatiker des frühen 17. Jahrhunderts stellten Räderuhren als Symbole der Umständlichkeit, der sinnlosen Kompliziertheit und der Unzuverlässigkeit hin und identifizierten – in der Gewiss48  Mayr,

S. 86–87. S. 141–143. 50  Mayr, S. 147. 51  Mayr, S. 145. 49  Mayr,

150

2. Kap.: Metaphern – verdächtige Wörter?

heit, dass solche Eigenschaften dem englischen Charakter fremd seien – solche Uhren als deutsch. Selbst bei Naturphilosophen der damaligen Zeit wie Bacon und Gilbert kann man eine gewisse Zurückhaltung gegenüber dem Mechanischen bemerken.“52

Besonders deutlich wird die Reserviertheit bzw. Aversion gegenüber der Uhren-Metapher auf der britischen Insel an den Konnotationen des Wortes „mechanical“. Dieses entwickelte sich gleichsam zum Kontrast-Begriff von „liberal“ und unterstreicht, warum in Großbritannien – und von hier aus im gesamten angelsächsischen Rechtskreis – schließlich jegliche mechanistische Staats- und Gesellschaftskonzeption als prinzipiell illiberal strikt abgelehnt wurde. Dies gilt, wie Mathias Reimann überzeugend nachgewiesen hat, auch für die amerikanische Rechtsschule,53 die sich nach einem bewussten Richtungsstreit, gegen den klassischen Rechtspositivismus deutscher Prägung entschieden hat.54 Mayr entdeckt vielfältige Belege für die subkutanen Mentalitätsunterschiede auf der britischen Insel und dem Festland: „Für die verächtliche Verwendung von mechanical im Sinne von ,vulgär‘, ,niedrig‘ und ,gemein‘ liefert die englische Literatur des 16., 17. und 18. Jahrhunderts zahllose Beispiele. Für die höheren Stände bezeichnete mechanical die Mängel an Höflichkeit, Bildung, Kleidung usw. der unteren Klasse, die von körperlicher Arbeit lebte. Das Wort fungierte dementsprechend als wirksames Schimpfwort für Feinde aller Art und wurde beispielsweise angewandt auf Anhänger der kopernikanischen Theorie, Mitglieder der Royal Society, Oliver Cromwell und Sir Isaac Newton. Die Wörter mechanic und mechanical hatten außerdem eine andere, allerdings verwandte pejorative Bedeutung.55 In diesem Sinne beschreibt mechanical eine Eigenschaft, die Maschinen und Menschen von niederem Stand in einem gewissen Sinne miteinander verband, nämlich ihren Mangel an Freiheit.“56

Wurde demnach das Uhrwerk seit der frühen Neuzeit auf dem Kontinent zum Inbegriff einer idealisierten und zugleich universalen Ordnungsvorstellung, mustergültig zum Ausdruck gebracht in der Blütezeit der mechanischen Philosophie durch Julien Offray De La Mettries L’Homme Machine aus dem 52  Mayr,

S. 150–151. S. 605–623 – zitiert aus Reprint ohne Seitenabgaben: „Legal systems have their periods in which science degenerates, in which system decays into technicality in which a scientific jurisprudence becomes a mechanical jurisprudence. (…) We have to rid ourselves of this sort of legality and to attain a pragmatic, a sociological legal science.“ 54  Reimann, Mathias: Historische Schule und Common Law: die deutsche Rechtswissenschaft des 19. Jahrhunderts im amerikanischen Rechtsdenken, Berlin 1993. 55  Im Englischen bedeutet der Ausdruck „Clockwork Orange“ heute noch soviel wie „gemeiner Kerl“, vgl. Burgess, Anthony: A Clockwork Orange. A new American edition with an explanatory introduction by the author, London 1987. – Siehe auch Zacharias, S. 107–113. 56  Mayr, S. 152. 53  Pound,



IV. Uhrwerk und Waage151

Jahre 174857, so lässt sich im gleichen Zeitraum in England eine gegenläufige Tendenz beobachten: Die mechanistische Vorstellung wird verworfen; an die Stelle des Uhrwerks als Sinnbild für soziale und politische Ordnung tritt die „Waage“ (engl. balance).58 Zwar beurteilt Mayr die Bedeutung der Metapher der „Waage“ für die Entstehung des britischen liberalen Ordnungsmodells in England als weit aus geringer als die Wirkungsgeschichte der Uhrwerks-Metapher auf dem Kontinent59, aber als Folge des Abwägungsgedankens habe sich auf der britischen Insel das Prinzip der Selbstregulierung entwickeln können. Die von Mayr ausführlich beschriebene sogenannte „Horologische Revolution“60 auf dem europäischen Kontinent fand demnach in dieser Form auf der Insel nicht statt. Stattdessen sei die Statik und Mechanik der Regierungs- und Wirtschaftssysteme dort durch die Entdeckung der Selbstregulierung theoretisch und praktisch überwunden worden. Die Entdeckung habe in der Einsicht bestanden, dass dynamische Systeme unter bestimmten Bedingungen imstande sind, sich ohne den Eingriff einer höheren Autorität, im Gleichgewicht zu erhalten. Der auf die unterschiedlichsten Bereiche anwendbare Begriff des „selbstregulierenden Systems“ habe vollkommen den Erfordernissen des liberalen Ordnungskonzepts entsprochen und sei so um die Mitte des 18. Jahrhunderts in Großbritannien zu breiter allgemeiner Anerkennung gelangt.61 „Uhrwerk“ und „Waage“ werden so in der Untersuchung Otto Mayrs zu empirisch verdichteten theoretischen Abstraktionen, in denen sich die unterschiedlichen Weltsichten, Mentalitäten und Denkmuster in Großbritannien und Kontinentaleuropa widerspiegeln. Mayr will diese Gegenüberstellung der Metaphern „Uhrwerk“ und „Waage“ aber keineswegs als „einfache dichotomische Formel“, etwa im Sinne mechanistisch / nicht-mechanistisch, verstanden wissen. Seine Ausführungen zur „Theorie der Metapher“ sind dürftig. Sie beschränken sich dem Grunde nach auf einen weitgehend deklaratorischen Hinweis auf den Metaphern-Begriff der praktischen Rhetorik. Danach ist die Metapher ein sprachliches Stilmittel, eine Art bildlicher Vergleich. Anders als Lewis Mumford, der auf den fundamentalen Zusammenhang zwischen Sprache, Mythos, Metapher und Sein anspielt oder auch Arno Baruzzi, der in der Metapher die Realität selbst aufgehoben sieht, 57  De Lamettrie, Julien Offray: Der Mensch als Maschine. Mit einem Essay von Bernd A. Laska (Erstausgabe 1748), Nürnberg 1985. 58  Mayr, S. 153–154. 59  Mayr, S. 170. 60  Macey, Samuel L.: Clocks and Cosmos: Time in Western Life and Thought, Hamden, Conn. 1980. – Siehe dazu auch den Katalog zur Ausstellung „Die Welt als Uhrwerk“, Maurice/Mayr: Die Welt als Uhr. Uhren und Automaten 1550–1650, München 1980. 61  Mayr, S. 170.

152

2. Kap.: Metaphern – verdächtige Wörter?

vollzieht Mayr nicht den Schritt zur theoretischen Rhetorik. Eine erkenntnistheoretische Reflektion des von der praktischen Rhetoriklehre geprägten Metaphern-Begriffs findet nicht statt. „Der Einfachheit halber“, schreibt Mayr, „wird hier das Wort Metapher als generelle Bezeichnung für all die vielfältigen literarischen Vergleiche und bildlichen Ausdrücke wie Gleichnis, Parabel, Analogie, Allegorie usw. verwendet.“62

So wertvoll die Forschungsergebnisse von Otto Mayr insgesamt sind, um bestimmte historische und gegenwärtige Phänomene in ihrer historischen Bedingtheit besser zu verstehen, so verkürzt und in methodologischer Hinsicht unbefriedigend sind Mayrs Schlussfolgerungen. Einen Bezug zur Gegenwart stellt er nicht her; an einer konstruktivistischen Lesart seiner eigenen diskursarchäologischen und genealogischen Befunde fehlt es. Er wolle, so Mayr, letztlich nicht mehr als „eine Art idealtypischer Erklärungsansatz“ anbieten.63

V. Kritik der Computer-Metapher Folgt man dem Informatiker und Mathematiker Joseph Weizenbaum verläuft der in der Neuzeit eingeleitete Prozess der Mechanisierung des Denkens bis heute weiter. Nach Weizenbaum hat der Prozess seine vorläufige Vollendung im Computer gefunden. Der „Triumph der Mechanik“, bekannt aus der Zeit der Horologischen Revolution, finde heute im Zuge der digitalen Revolution seine Entsprechung in der Faszination für exakt arbeitende kybernetische Rechenmaschinen. Weizenbaum sieht durch die Digitalisierung eine „phantastische Transformation der Welt“ betrachtet die Maschine im Allgemeinen und den Computer im Besonderen, wie er zu Beginn seiner Ausführungen klarmacht, als „Metapher“.64 Weizenbaum bezieht sich hierbei, ohne das näher zu erläutern, auf Vorarbeiten der sprachwissenschaftlichen Grundlagenforschung. Konkret verweist er zur Rolle von Metaphern innerhalb der Sprache auf Ivor Armstrong Richards und dessen Philosophie der Rhetorik65: „In den Worten I. A. Richards’ ist eine Metapher ,im Grunde ein gegenseitiges Borgen und Verkehren zwischen Gedanken, eine Transaktion zwischen verschiedenen Kontexten‘.“66 62  Mayr,

S. 48, 141, 240 Anm. 1. S. 224. 64  Weizenbaum (1978), Vorwort. 65  Richards, Ivor A.: The Philosophy of Rhetorics, Oxford 1936. 66  Weizenbaum (1978), S. 208. 63  Mayr,



V. Kritik der Computer-Metapher153

In der Tat betrachtet Richards die Metapher als „das allgegenwärtige Prinzip der Sprache“.67 Bedeutungen von Wörtern innerhalb einer Sprache erscheinen hiernach als Problem des Kontextes. Beim Gebrauch einer Metapher werden nach Richards „zwei Vorstellungen in einen gegenseitigen aktiven Zusammenhang“ gebracht, so dass sich verschiedene Kontexte und Bedeutungserwartungen überschneiden.68 Ungeachtet solcher theoretischer Vorüberlegungen argumentiert Weizenbaum sehr praxisnah: Er charakterisiert den Computer als eine „autonome elektronische Maschine“, die zu Recht als ungemein leistungsfähiges System für die Verarbeitung von Informationen gefeiert werde. Mit „Computer-Metapher“ bezeichnet er diejenige Leitvorstellung im öffentlichen Bewusstsein, in der das mechanistische Weltbild, das seines Erachtens auch heute noch vorherrscht, am deutlichsten zum Ausdruck komme: Selbst den Menschen betrachte man hiernach als ein „informationsverarbeitendes System“ (IPS – Information Processing System), d. h. als Maschine.69 Und wie man den Computer auf diese Weise anthropomorphisiere, so Weizenbaum, mathematisiere und mechanisiere, ja enthumanisiere man im Gegenzug das Denken und den Menschen als Ganzes.70 Dem Computer und der Computer-Logik spricht Weizenbaum insbesondere die Fähigkeit des Denkens in Metaphern und innerhalb eines „kontextuellen Rahmens“ ab. Er begründet das wie folgt: „Wir können im Vorgriff sagen, dass die Stärke einer Metapher, neue Einsichten zu erbringen, weitgehend vom Gehalt des kontextuellen Rahmens abhängt, mit dem sie sich verbindet, von ihrer potentiellen gegenseitigen Resonanz. Wie weit dieses Potential umgesetzt wird, hängt natürlich davon ab, wie umfassend die Teilnehmer am schöpferischen metaphorischen Akt beide Kontexte beherrschen.“71

Mit Nachdruck kritisiert Weizenbaum demgegenüber die sog. „ComputerLogik“. Diese korrumpiere regelrecht die Gemüter: Zunächst werde alles als machbar, jedes Problem als technisch lösbar definiert, und sodann der Rechner zum universalen Problemlösungsinstrument. Der ungeheure Erfolg, ja die Blendwirkung, die der Computer inzwischen auf die Allgemeinheit in der Gegenwart ausübe, sei ein Musterbeispiel für die verheerende Wirkung „instrumenteller bzw. rechenhafter Vernunft“. Diese Gesamtentwicklung verdanke sich, so Weizenbaum, 67  Richards

(1996), S. 33. (1996), S. 41. 69  Weizenbaum (1978), S. 212, 239. 70  Weizenbaum (1978), S. 210. 71  Weizenbaum (1978), S. 214–215. 68  Richards

154

2. Kap.: Metaphern – verdächtige Wörter?

„der Durchschlagskraft der mechanistischen Metapher sowie der Tiefe, mit der sie das Unbewusste unserer ganzen Kultur über die Jahrhunderte durchdrungen hat.“72

Für Joseph Weizenbaum ist der Computer Sinnbild für eine verhängnisvolle Unvernunft, die im Kostüm rechnerischer Rationalität auftrete.73 Mit scharfer Kritik wendet er sich vor allem gegen ein mechanistisches Sprachverständnis. Allen „Programmiersprachen“ eigen, infiziere und bestimme dieses von dort aus das Verständnis von „Sprache“ allgemein. Weizenbaum spricht mehrmals von der „Korruption der Sprache“ und wendet sich hierbei entschieden gegen das kontextlose Pseudowissen maschineller Expertensysteme sowie den Mythos des Expertentums: „Die Sprache der ,künstlichen Intelligentsia‘, der Verhaltensmodifizierer und der Systemanalytiker ist mystifizierend. Menschen, Dinge, Ereignisse werden ,programmiert‘, man spricht von ,inputs‘ und ,outputs‘, von Rückkopplungsschleifen, Variablen, Parametern, Prozessen usw., bis schließlich jede Verbindung mit konkreten Situationen zur Abstraktion verdampft ist. Was übrig bleibt, sind Schaubilder, Datenmengen und Ausdrucke.“74

Der autonome Charakter des Computers bestehe darin, dass die Maschine durch die Verknüpfung von dekontextualisierten Daten neue Realitäten schaffe, buchstäblich die Realität „kreiere“, „mitkonstituiere“ bzw. „-konstruiere“. Entscheidend sei, dass mit der Entwicklung des Computers und der systematischen Verrichtung geistiger Arbeit der Begriff der „Maschine“ wie auch der der „Mechanik“ ein anderer geworden sei. Zum Wandel des Maschinen-Begriffs, aber der bleibenden Faszination des Mechanischen führt er aus: „Die Maschinen, die unsere Welt bevölkern, sind nicht mehr ausschließlich, auch nicht mehr in der Überzahl stampfende Monster, die durch die geräuschvolle Bewegung ihrer Teile als Maschinen gekennzeichnet sind. Es gibt heute Uhren, deren Mechanismen aus einem Muster bestehen, das auf dünne Plastikplättchen eingeätzt ist und in denen sich keinerlei bewegliche Teile befinden. Selbst ihre Zeiger sind verschwunden. Sie sagen uns die Zeit nur nach Aufruf und lassen uns dazu auf ihrem Ziffernblatt Leuchtziffern aufleuchten. (…) Auch diese und tausend andere Apparate bezeichnen wir als Maschinen. (…) Das Aufkommen aller Arten elektronischer Maschinen, insbesondere des elektronischen Computers, hat unsere Vorstellung von einer Maschine als Medium der Umwandlung und Übertragung von Kraft ersetzt durch das Bild eines Umwandlers von Informationen.“75

Weizenbaum spricht daher auch von „Informationsmaschinen“, um deutlich herauszustellen, dass der Computer frühere geistige Leistungen, gewissermaßen programmierte Gedanken, zu jederzeit und autonom – und unab72  Weizenbaum

(1978), (1978), 74  Weizenbaum (1978), 75  Weizenbaum (1978), 73  Weizenbaum

S. 306–307. S. 29, 33. S. 331. S. 65, 67–68.



V. Kritik der Computer-Metapher155

hängig von dem jeweiligen Kontext – wiederholen kann. Weizenbaums Plädoyer wider die instrumentelle Vernunft ist zugleich ein Aufruf zum ganzheitlichen Denken, einem Denken, das den Gegensatz zwischen Input / Output, Subjekt / Objekt, Innen / Außen, Rationalität / Intuition usw. überwindet und vordringt zu einem Verständnis von „Verstehen“ und „Bedeutung“, bei dem beide Realitätskomplexe zugleich, innere und äußere, bedeutsam werden. Energisch zeigt Weizenbaum die Grenzen des Computers als „Denkmaschine“ auf. Gewiss, als „mächtige neue Metapher“ mache er viele Aspekte der Welt leichter verständlich, andererseits aber bestehe die Gefahr der Versklavung des Denkens, wenn nicht auf andere Metaphern zurückgeriffen werde.76 Weizenbaum hat – wie Lewis Mumford77 – er einen wichtigen Beitrag zur Entmystifizierung der Technik geleistet. Weizenbaum hat früh die weitere Entwicklung des Computerzeitalters in Umrissen gesehen. Die Entwicklung sei weder rückgängig zu machen, stellt er fest, noch sei sie in der existierenden Form „geplant“ worden. Sie sei daher in ihrer Gesamtkomplexität nicht mehr „verständlich“.78 Zusätzliche Risiken entstünden durch die Vernetzung einzelner Computer, da dies zu mehr und mehr autonom arbeitenden vernetzten Computer-Systemen führe. Dadurch seien neuartige „Informationskatastrophen“ denkbar. Zum Beispiel hält er schon 1984 eine weltweite Finanzkrise, mit „unabsehbaren Folgen (…) für das gesamte Weltwirtschaftsystem“ für möglich.79 Heute, mehr als drei Jahrzehnte nach der vehementen Kritik der Computer-Metapher durch Joseph Weizenbaum, gibt man dem Pionier der Technikkritik in vielem Recht. Künstliche Intelligenz-Forscher beantworten die Frage, ob das Gehirn einem Computer vergleichbar sei, durchweg mit „Nein“. Ohne Umschweife stellt der Physiker Michio Kaku fest, dass die früher so beliebte Analogie von Computer und Geist heute unhaltbar sei: „Die ganzen letzten 50 Jahre hindurch haben KI-Forscher versucht, ein Modell des Gehirns zu schaffen, das sich an einer Analogie zum digitalen Computer orientiert. Aber vielleicht war dieser Ansatz allzu simpel. (…) Wenn man einen einzigen Transistor von einem Pentium-Chip entfernt, ist der Chip sofort unbrauchbar. Das menschliche Gehirn funktioniert sogar dann noch recht gut, wenn eine ganze Hirnhälfte fehlt. Das ist so, weil das Gehirn eben kein digitaler Computer ist, sondern gewissermaßen ein höchst raffiniertes neuronales Netzwerk. Anders als ein digitaler Computer, der einen festen Aufbau hat (Input, Output und Prozessor), sind neuronale Netze Ansammlungen von Neuronen, die sich nach dem erlernen einer neuen Aufgabe ständig neu verdrahten und verstärken. Das 76  Weizenbaum 77  Mumford

(1978), S. 361–362, 366. Lewis: Mythos der Maschine. Kultur Technik und Macht, Wien

1974. 78  Weizenbaum (1984), S. 133, 134. 79  Weizenbaum (1984), S. 128–129.

156

2. Kap.: Metaphern – verdächtige Wörter?

Gehirn hat keine Programmierung, kein Betriebssystem, kein Windows, keinen Zentralprozessor. Vielmehr zeigen neuronale Netze eine massive Parallelverarbeitung, bei der 100 Milliarden Neuronen gleichzeitig feuern, um ein einziges Ziel zu erreichen: Lernen.“80

Die Kritik der Computer-Metapher hat seither, trotz furioser Erfolge des Computers, aufsehenerregender Brain Mapping-Projekte und nie dagewesener Präzision von Hirnscans auf breiter Front zugenommen.81 Insbesondere durch sprachwissenschaftliche Argumente hat der Diskurs an Tiefe und Breite gewonnen und die Ideologie vom Computer als „Denkinstrument“ unter Experten nachhaltig erschüttert. Zu nennen ist hier vor allem das Gedankenexperiment vom „Chinesischen Zimmer“ des Linguisten John R. Searle.82 Searle war es ein Anliegen auf die Verschiedenheit von „Programm“ und „Sprache“ bzw. „Informationsaustausch“ und „Kommunikation“ hinzuweisen: In Searls Gedankenexperiment korrespondiert jemand, der in einem Zimmer eingeschlossen ist und kein einziges Wort Chinesisch spricht, auf Chinesisch mit der Außenwelt. Mithilfe eines Programm-Handbuchs zur Dechiffrierung der Zeichen, das er in dem Zimmer vorfindet, reagiert er auf chinesische Botschaften, die jemand von außen auf Kassibern unter der Tür hindurchschiebt. Searle hat damit eine fruchtbare Grundlagendebatte über die Beschränktheit digitaler Technologie und Künstlicher Intelligenz initiiert.83 Im Übrigen und im Alltag indessen hält sich die ComputerMetapher hartnäckig. Ivan Illich spricht vom „Übergewicht an Virtualität“. Dadurch veränderten sich Seh- und Denkgewohnheiten in vielen Lebensbereichen grundlegend. Er bemühe sich deswegen leidenschaftlich, seine Studenten zum Nachdenken anzuregen. Ähnlich der antiken Optik, der es darum gegangen sei, sich die Fallen bewusst zu machen, in die der Sehstrahl hineingeraten könne, müsse man seinen Blick heute schärfen. Man müsse sich das verführerische Unwesen des Virtuellen vergegenwärtigen, wie die Hintergründe des abknickenden Ruders im Wasser. Nüchtern bilanziert er: „Und das ist eine besonders ernste Sache, weil viele der Jüngeren, mit denen ich in den letzten sieben oder acht Jahren zu tun hatte, wirklich glauben, sie hätten eine zweiäugige Videokamera im Schädel, sodass sie sich das Training der Augen nicht anders vorstellen können denn in Form einer technischen Steigerung der Geschwindigkeit ihrer digitalen Verarbeitung.“84 80  Kaku,

S. 317.

81  Carello/Turvey/Kugler/Shaw,

S. 229–248; MacCormac, Earl, S. 47–62; Berman (1990), S. 7–42; Künzel/Bexte: Maschinendenken/Denkmaschinen. An den Schaltstellen zweier Kulturen, Frankfurt a. M. 1996. 82  Searle (1980), S. 417–457; Searle (1990), S. 40–47. 83  Zur Diskussion Cole: The Chinese Room Argument, in: Stanford Encyclopedia of Philosophy 2014. 84  Illich (2005), S. 146.



VI. Epoche der Metapher157

VI. Epoche der Metapher Läuft damit die Gesamtentwicklung auf ein dystopisches Katastrophenszenario hinaus? Halten wir Kurs auf einen Eisberg, in dem autonome Systeme über Schnittstellen beständig Informationen austauschen mit unabsehbaren Folgen für eine freiheitlich verfasste Gesellschaft?85 Löst sich „Kommunikation“ auf im Miasma der Überproduktion von technisch generierten Signalen? Oder befinden wir uns gar im allmählichen Übergang von der Schriftkultur in eine hypertextuelle nicht-literale Weltgesellschaft?86 Die Fragen müssen hier nicht entschieden werden. Die Frage im vorliegenden Kontext ist vielmehr, wie kann Orientierung gelingen? Wie in diesem gesellschaftlichen Umfeld angemessene Straftatenverfolgung und Verdachtschöpfung praktisch ins Werk setzen? Folgt man Stegmaier, muss „Orientierung“ selbst grundlegend verschieden, gewissermaßen „fließend“ – in gewissem Sinne „metaphorisch“ verstanden werden. Ist Orientierung auf derart schwankender Grundlage, ohne fixe Standpunkte, einem Fluss gleich, dessen Ufer sich ebenfalls im Fluss befinden, überhaupt denkbar? Wie soll das gehen? Hinter diesem Bild und dieser Vorstellung steckt offenbar eine völlig andere Vorstellung von Denken und „Logik“ – ein Denken, das sich nicht a priori an definitiven Feststellungen und eindeutigen Definitionen ausrichtet und eine „Logik“, die mit „Logik der Vagheit“ vor dem Hintergrund unseres überkommenen ­Logik-Verständnis mehr als kühn bezeichnet ist. Die Empfehlung Werner Stegmaiers, so paradox sie auf den ersten Blick erscheinen mag, stößt dieser Tage auf immer größere Resonanz. Das Interesse an der Metapher nämlich wächst auf breiter Front, abzulesen an einer schier unübersehbaren Literaturfülle zur „Theorie der Metapher“. Die zuletzt erschienenen Bibliographien zur Metapher verzeichnen eine regelrechte Explosion im Hinblick auf einschlägige Buchtitel.87 Umberto Eco notiert hierzu: 85  Enzensberger (1978), S. 8–9: „Das ist der Anfang. Hört ihr? Hört ihr es nicht? Haltet euch fest. (…) Das war der Anfang. Der Anfang vom Ende ist immer diskret.“ 86  Eindrucksvoll dazu Goody/Watt (1981), S. 47, 97: „Es könnte sogar sein, dass diese neuen Kommunikationsmodi, die Bild und Ton ohne jede räumliche und zeitliche Beschränkung übermitteln, zu einer neuen Kultur führen, einer Kultur, die weniger nach innen gewandt und weniger individualistisch sein dürfte als die literale Kultur und die etwas von der relativen Homogenität der nicht-literalen Gesellschaft haben dürfte.“ 87  Shibles, Warren A.: Metaphor: An Annotated Bibliography and History, Whitewater 1971; Van Noppen/De Knop/Jongen: Metaphor. A Bibliography of post-1970 Publications, Amsterdam/Philadelphia 1985; Van Noppen/Hols: (Hrsg.), Metaphor II. A Classified Bibliography of Publication 1985 to 1990, Amsterdam/Philadelphia 1990.

158

2. Kap.: Metaphern – verdächtige Wörter?

„Die Metapher trotzt jeder enzyklopädischen Eintragung. (…) Shibles‘ (1971) Bibliographie zur Metapher verzeichnet ungefähr 3000 Titel, und doch übersieht sie Autoren wie Fontainier, fast alles von Heidegger und Greimas – und natürlich kann sie die der komponentensemantischen Forschung folgenden Studien über die Logik natürlicher Sprachen nicht erwähnen, die Arbeiten Henrys, der Lütticher Gruppe µ, Ricoeurs, Samuel Levins und die neuesten Textlinguistiken und -pragmatiken.“88

Und Jacques Derrida zeigt sich einigermaßen verblüfft über die Renaissance der „Metapher“ als Forschungsthema. Er ist erstaunt darüber, dass „ein offensichtlich so altes Thema „die abendländische Szene (…) auf eine (…) ziemlich neue Weise wieder okkupiert“.89 Die erstaunliche Jugend dieses alten Themas dürfe nicht unterschätzt werden. Nach Derrida hat das aktuelle Forschungsinteresse geradezu epochalen Charakter – er kennzeichnet die Denkbewegung daher kurzerhand auch als „die weltweite Epoche der Metapher“.90 Die Metapher ist zum zentralen Forschungsgegenstand in den Natur- und Geisteswissenschaften geworden.91 In der empirischen Neurophysiologie, der Kognitionspsychologie ebenso wie in der sogenannten Künstliche Intelligenz-Forschung betrachtet man die Metapher als „Probierstein“ kritischen Denkens. Daniel Dennett umschreibt den Aspekt der Metaphorizität der Sprache und des Denkens folgendermaßen: „Meine Erklärung des Bewusstseins ist alles andere als vollständig. Man könnte sogar sagen, dass sie bloß ein Anfang ist, aber sie ist ein Anfang, wenn sie den Zauber jener reizvollen Ideen bricht, die das Bewusstsein unerklärbar machen. Ich habe eine metaphorische Theorie, das cartesianische Theater, nicht durch eine nicht-metaphorische, wissenschaftliche Theorie ersetzt. Alles, was ich getan habe, war, eine Familie metaphorischer Theorien und Bilder durch eine andere zu ersetzen (…). Es ist bloß ein Krieg der Metaphern, mögen sie daher sagen – aber Metaphern sind nicht nur Metaphern, sie sind Instrumente des Denkens.“92 88  Eco (1985), S. 133. – Siehe ferner Eco (1983) S. 254–255: „No algorithm exists for metaphor, nor can a metaphor be produced by means of a computer’s precise instructions, no matter what the volume of organized information to be fed in. The success of a metaphor is a function of the sociocultural format of the interpreting subject’s encyclopedia.“ 89  Derrida (1987), S. 320 -321. 90  Derrida (1987), S. 322. 91  Blumenberg: Paradigmen zu einer Metaphorologie, Bonn 1960 – abgedruckt bei Haverkamp (1983), S. 285–315. – Köller, Wilhelm: Semiotik und Metapher. Untersuchungen zur grammatischen Struktur und kommunikativen Funktion von Metaphern, Stuttgart 1975; Knorr-Cetina (1991), S. 92–125; Wu, Kuang-Ming: On Metaphoring. A Cultural Hermeneutic, Köln 2001. 92  Arbib, Michael A.: The Metaphorical Brain 2. Neural Networks and Beyond, New York 1989; Damasio, Antonio, R.: Descartes’ Irrtum. Fühlen Denken und das



VI. Epoche der Metapher159

Entsprechend zahlreich sind die wissenschaftlichen Beiträge zur Metaphern-Theorie. Auffallend ist dabei der Versuch, die gemeinsame Anstrengung, vieler Geisteswissenschaftler, die so oft als „vage“ gescholtene Metapher erkenntnistheoretisch zu rehabilitieren.93 Auch die Praxis ist inzwischen von dem Sog dieser Denkbewegung betroffen: Zur sachgerechten Entscheidungsfindung und „Komplexitätsreduktion“ empfiehlt man in gängiger Managementliteratur „metaphorisches Denken“, ja sogar die systematische Entwicklung einer „Metaphernkultur“.94 So kann man in einem praxisorientierten Handbuch zum „Komplexitätsmanagement“ lesen: „Die Metapher übernimmt dort Funktionen der Weltorientierung, wo der Begriff oder das logische Denken nicht hinreicht; vor allem in undurchschaubaren komplexen Welten ist dies in aller Regel der Normalfall. Komplexitätsfähig kann nur sein, wer metaphorisches Denken mit all seinen kognitiven, emotionalen und bildhaft-symbolischen Dimensionen entfaltet und kultiviert. Wer im Wirtschaftalltag Komplexität managen, komplexe Zusammenhänge verstehen und in komplexen, ‚unüberschaubaren‘ Kontexten handeln möchte, muss metaphorisch denken. Denn erst metaphorisch geschaffene Bedeutungsfelder eröffnen umfassende Einsichten und neue Horizonte. Das gilt für alle Beteiligten: ob Manager oder Wirtschaftswissenschaftler, ob Wissensarbeiter, Selbständige oder Dienstleister, Unternehmensberater, Personalentwickler oder Trainer und alle anderen Akteure, die an neuen Entwicklungen in Management, Weiterbildung und an lebenslangem Lernen interessiert sind.“95

Wir haben es hier, wenn nicht alles täuscht, mit einer paradigmatischen Wende zu tun. Das breite Interesse an der Metapher ist gleichzeitig die kritische Revision der Exaktheitspostulate und Präzisionsideale cartesianischen Denkens. Ein „Paradigma“ ist, wie der Wissenschaftshistoriker Thomas S. Kuhn herausgefunden hat, „das, was den Mitgliedern einer wissenschaftlichen Gemeinschaft gemeinsam ist, und umgekehrt besteht eine wissenschaftliche Gemeinschaft aus Menschen, die ein Paradigma teilen.“96

Das Wort „Metapher“ wird gleichsam zur Chiffre für ein neues Paradigma. Nach Hans Blumenberg ist zu verstehen als ein menschliche Gehirn, München 1994. – Sie dazu auch die brilliante Studie im medizinischen Umfeld zur Problematik maschineller (radiologischer) Modellbildung und sprachlichen Interpretation von „Tomogrammen“, Schmidt, Karl-Heinz: Texte und Bilder in maschinellen Modellbildungen, Tübingen 1992. 93  Dennett, S. 572. – Zum Zusammenhang zwischen Paradigmenwechsel und Metaphernwechsel Boyd, S. 356–408; dazu Kuhn, Thomas S. (1979), S. 409–419. 94  Fuchs/Huber: Metaphoring. Komplexität erfolgreich managen, Offenbach 2002, S.  11 f. 95  Fuchs/Huber (2002), S. 11. 96  Kuhn, Thomas S. (1988), S. 187.

160

2. Kap.: Metaphern – verdächtige Wörter?

„latenter Komplex von Prämissen, die als Implikationen der wissenschaftlichen Praxis gar nicht ausdrücklich formuliert werden müssen, sondern in die Methoden und Fragestellungen bereits eingegangen sind.“97

Anselm Haverkamp sieht begriffsgeschichtlich Verbindungen von Kuhns Paradigma-Begriff zu Wittgensteins Spätphilosophie98, in denen wiederum Lichtenberg eine untergründige Rolle spiele. In der „Grammatik“ von Sprachspielen fungiere ein Paradigma als „exemplarische Instanz für einen Wortgebrauch, der an ihm gelernt werde.“99 Derart habe die moderne Wissenschaft nach Auffassung von Lichtenberg von der koperikanischen Revolution gelernt – „das kopernikanische System“, so heißt es in dessen Vorlesungen, sei „gleichsam das Paradigma, nach welchem man alle übrigen Entdeckungen deklinieren sollte.“100

VII. Blickwende Ihren schlechten Ruf hatte die Metapher bis in das 20. Jahrhundert hinein. Mit Verve wurde die sog. „Res-Verba-Lehre“ bzw. die „Substitutionstheorie der Metapher“, die auf das aristotelisch-rhetorische Erklärungsmodell zurückgeht, vorgetragen.101 Nach der traditionellen Metapherntheorie muss eine Metapher durch das jeweils „richtige“ Wort ersetzt werden, um Missverständnisse zu vermeiden. Ja, man fürchtete sogar eine Art „Etikettenschwindel“, wurde statt eines Begriffs eine Metapher gebraucht. Gerhard Kurz erläutert das früher vorherrschende Metaphernverständnis so: „Nach dieser Kritik ist die Metapher keine authentische Bezeichnung, sie ist deplaziert, unernst und, weil nicht mehr eindeutig, ungenau und zweideutig. Im Namen einer rationalen Sprachtheorie wurde die Metapher als etwas Überflüssiges verworfen.“102 97  Blumenberg (1971), S. 198 (Auszug veröffentlicht als „Paradigma, grammatisch“ in: Blumenberg (1993), S. 158). 98  Wittgenstein (1984), S. 225–580. 99  Wittgenstein (1984), S. 241: „Wir können uns auch denken, dass der ganze Vorgang des Gebrauchs der Worte in (2) eines jener Spiele ist, mittels welcher Kinder ihre Muttersprache erlernen. Ich will diese Spiele ,Sprachspiele‘ nennen, und von einer primitiven Sprache manchmal als einem Sprachspiel reden. Und man könnte die Vorgänge des Benennens der Steine und des Nachsprechens des vorhergesagten Wortes auch Sprachspiele nennen. Denke an manchen Gebrauch, der von Worten in Reigenspielen gemacht wird. Ich werde auch das Ganze: der Sprache und der Tätigkeiten, mit denen sie verwoben ist, das ,Sprachspiel‘ nennen.“ 100  Haverkamp (1987), S. 551. 101  Aristoteles: Rhetorik, München 1993; Göttert Karl-Heinz: Einführung in die Rhetorik. Grundbegriffe – Geschichte – Rezeption, München 1991. 102  Kurz, S. 9–10.



VII. Blickwende 161

Neuere sprachwissenschaftliche Forschungen haben belegt, dass diese Theorie unhaltbar ist. Metaphern sind schlichtweg unvermeidbar, der Sprache immanent.103 Das herkömmliche Metaphernverständnis beruht auf einer „Wortsemantik“, d. h. der Konstruktion eines fixen und unveränderlichen Bedeutungskerns. Aus Sicht der Sprachforschung ist das eine realitätsferne Abstraktion, die die Tatsache der Kontextabhängigkeit von Wortbedeutungen unterschlägt. Die Bedeutung eines Wortes aber lasse sich – schreibt Kurz – ohne seinen Kontext ebensowenig bestimmen „wie man eine Hand schütteln kann, ohne einen Körper zu berühren.“104 Nach allem irrte Hobbes. Ihm erschien die Metapher, entsprechend seinem engen Verständnis von Rhetorik, bloß als schmückendes Beiwerk und Ornament der Rede. Als präzise denkender Wissenschaftler der Neuzeit erschien ihm der Gebrauch von Metaphern ungenau und irreführend. Beseelt von dem mathematischen Exaktheitsideal, musste er sich energisch gegen den Gebrauch von Metaphern aussprechen. Seine Meinung über Metaphern war aber deshalb irrig, weil er sie gar nicht vermeiden konnte. Es war Friedrich Nietzsche, der als erster mit aller Deutlichkeit auf diesen Zusammenhang hingewiesen hat. In wissenschaftsgeschichtlicher Hinsicht hat er damit eine rasante Kehrtwendung und Abkehr vom cartesianischen Rationalismus vollzogen.105 Nietzsche kritisiert das Sprachverständnis und die Logik Descartes‘. Vor allem die angeblich voraussetzungslose und zweifelsfreie Anfangsgewissheit, die Descartes postuliert. Mit Blick auf die Genese und den Bedeutungswandel der Wörter und die feststellbaren Bedeutungsunterschiede im Sprachenvergleich beurteilt der Philologe Nietzsche den Sachverhalt in seinen erkenntnistheoretischen Bezügen völlig anders. Vor allem entdeckt er die zentrale Rolle von Metaphern im Prozess der kommunikativen Verständigung. Nietzsche schreibt: „Wir glauben etwas von den Dingen selbst zu wissen, wenn wir von Bäumen, Farben, Schnee und Blumen reden und besitzen doch nichts als Metaphern der Dinge, die den ursprünglichen Wesenheiten ganz und gar nicht entsprechen. (…) Was also ist Wahrheit? Ein bewegliches Heer von Metaphern, Metonymien, Anthropomorphismen – kurz eine Summe von menschlichen Relationen, die, poetisch und rhetorisch gesteigert, übertragen, geschmückt wurden, und die nach langem Gebrauche einem Volke fest, canonisch und verbindlich dünken: die Wahrheiten sind Illusionen, von denen man vergessen hat, dass sie welche sind, Metaphern, die abgenutzt und sinnlich kraftlos geworden sind, Münzen, die ihr Bild verloren haben und nun als Metall, nicht mehr als Münzen in Betracht kommen.“106 103  Göttert

(1991), S. 209–218. S. 10. 105  Röd, Wolfgang: Descartes. Die Genese des Cartesianischen Rationalismus, 2. Aufl., München 1982. 106  Nietzsche (1973), S. 374–375. 104  Kurz,

162

2. Kap.: Metaphern – verdächtige Wörter?

Nach Manfred Frank ist das ein gedanklicher Sprung, der eine völlig andere Perspektive erlaubt. Er spricht von einer „Verdrehungs“-Bewegung, bei der die Blickrichtung umgekehrt werde: Der Blick gehe nicht mehr durch den Begriff auf die Anschauung, sondern umgekehrt von der Anschauung zum Begriff. Damit aber wird jedes Wort notwendig zur Metapher, zum topos möglicher Bedeutungen. Frank umschreibt den Gedankenschritt als epistemologischen „Wendepunkt“: „Nietzsche verkehrt – in einer einfachen ,Verdrehungs‘-Bewegung – den Richtungssinn der Relation zwischen Anschauung und Begriff, indem er den Begriff in Abhängigkeit von der vollen Anschauung bringt. Die Metapher ist nun nicht mehr jener kleine Umweg, den der Begriff über die Anschauung nimmt, um sich vorstellig zu werden, also auch nicht die uneigentliche (und von einer Axiologie des Ähnlichen gebändigte) Repräsentanz des Nicht-Sinnlichen, sondern dessen ursprüngliche und erst im Gebrauch, als post festum intersubjektiv schematisierte Seinsweise. In ihr gründend bleibt jeder Term einer konstituierten Grammatik prinzipiell umwittert von Sinnpotentialitäten, die den maßgeblichen oder usuellen Gebrauch von Syntax und Semantik metonymisch untergraben.“107

Man muss sich diesen Schritt der metaphorischen Wende durch Nietzsche in Über Wahrheit und Lüge im außermoralischen Sinne ganz klar machen – muss sich im Klaren darüber sein, was es heißt, das Abbildungsaxiom bzw. Repräsentationsprinzip im Verhältnis Sprache und Welt aufzugeben. Ihm entspricht in erkenntnistheoretischer Hinsicht ein Wechsel vom apriorischen Wissen zum Nichtwissen: Da die Wörter prinzipiell vage sind, ist es auch der Obersatz. Das Abbildungsaxiom korrespondiert aber mit einer Art apod(e)iktischen108 Logik, d. h. die im Obersatz vorausgesetzten Prämissen gelten als wahr. Das ist das mathematische Moment des Kontrolldenkens. Erst dadurch, durch die Voraussetzung eines primum verum, wird die Deduktion, das Kettenschlussverfahren und die Operationalisierung der termini technici ermöglicht. Gibt man das Abbildungsaxiom auf, so ist die gedankliche Ausgangsposition zunächst die eines Nichtwissens um Wahrheit und Falschheit. Der Obersatz ist offen, unentschieden; was wahr bzw. falsch ist, muss sich zunächst erweisen. Man könnte hier von operativ-deiktischer Logik109 sprechen, weil die den Obersatz formulierenden Metaphern nunmehr die Teilnehmer eines Gesprächs gewissermaßen zur eigenen Anschauung auffordern. Die Wörter sind topoi, Orte des Denkens, denen zunächst kein fester Ausschnitt im Zeigefeld entspricht. Die genaue Bedeutung der 107  Frank

(1993b), S. 222–223. (1989), S. 35: „apodiktisch Adj. ,unumstößlich, nicht zu widerlegen‘, fachsprachl. Im 18. Jh. entlehnt aus gr. apodeiktikos ,beweisend (wörtlich: fertig zum Vorzeigen)‘. 109  Duden, S. 160: „deiktisch (…) 1. Hinweisend (als Eigenschaft bestimmter sprachl. Einheiten, z. B. von Demonstrativpronomen; Sprachw.). 2. (veraltet) von der Anschauung ausgehend (als Lehrverfahren).“ 108  Kluge



VII. Blickwende 163

Wörter wird vielmehr, orientiert an früheren Bedeutungen, entsprechend der jeweiligen Umstände dialogisch und ethisch bestimmt. Der Schritt, von dem wir sprechen, die einfache „ ,Verdrehungs‘-Bewegung“ von Begriff und Anschauung, eröffnet der Vernunft überhaupt erst einen Spielraum, durchaus im wörtlichen Sinne, nämlich den nötigen Raum für kreative und kontextsensitive Sprachspiele.110 Der Streit um die Metapher, die ungezählten Veröffentlichungen zur Metapher im Rahmen der Metaphernforschung, hat hier seinen Ursprung. Viele sind sich inzwischen in der Neubewertung der Metapher einig. Georges Lakoff und Mark Johnson haben im Verlauf ihren Forschungen eine Fülle von Belegen für das neue Paradigma der Metapher gefunden. Zwar verbänden sehr viele bis heute mit Metaphern eher einen außerordentlichen Sprachgebrauch, die Ausschmückung einer Rede oder poetische Imagina­ tion. Viele glaubten – wie Hobbes – auf Metaphern verzichten zu können. In der Realität sei das aber ganz anders: Die Metapher durchdringe tatsächlich den Alltag vollständig, nicht nur die Sprache, sondern auch das Denken und das Handeln.111 Die im Metaphern-Diskurs oft und immer wieder aufgeworfene Frage, was denn nun Metaphern bedeuteten, beantwortet Donald Davidson lapidar, „dass Metaphern eben das bedeuten, was die betreffenden Wörter in ihrer buchstäblichsten Interpretation bedeuten, und sonst nichts.“112 Ernesto Grassi sieht gerade darin, dem „Ausdruck des Ursprünglichen und Abgründigen“ und in der jeweiligen Suche nach dem „erlesenen“ und erhabenen“ Wort das Unerhörte der Metapher im Prozess der Wahrheitsfindung.113 Durchaus in diesem Sinne hat Pierre Bourdieu auf die zentrale 110  Franken (2013), S. 21–22: „In seinem frühen Text Über Wahrheit und Lüge im außermoralischen Sinne, der im Umfelds einer Basler Vorlesungen zur antiken Sophistik und Rhetorik entstanden ist, hatte Nietzsche sich schon gegen Platons Grundannahme gewandt, die von letzten, reinen und substanziellen Bedeutungen ausgeht. Nietzsche legte in diesem Text bezüglich der ‚Entstehung der Sprache‘ dar, dass sie ‚nicht aus dem Wesen der Dinge‘ stammt. (…) Sprache war für Nietzsche gesprochene Sprache und er machte auf ihr historisches Gewordensein aufmerksam. Nietzsche verstand die Sprache als eine Form, die durch die Handlungsweisen der Menschen gebildet worden ist. Darauf weist insbesondere die von ihm verwendete Kategorie `Gebrauch´ hin. Es ist somit vor allem die Stillegung von Praxis durch Platon, gegen die Nietzsche sich wandte. Sprachliche Bedeutung entstand für Nietzsche – entgegen der platonischen Annahme – im handlungsförmigen Vollzug der Rede.“ 111  Lakatoff/Johnson, S. 3: „(…) most people think they can get along perfectly well without metaphor. We found out, on the contrary, that metaphor is pervasive in everyday life, not just in language but in thought and action. Our ordinary conceptual system, in terms of which we both think and act, is fundamentally metaphorical in nature.“ 112  Davidson (1986), S. 343. 113  Grassi (1992), S. 14.

164

2. Kap.: Metaphern – verdächtige Wörter?

Rolle des Dichtens in archaischen Gesellschaften hingewiesen: Durch die schöpferische Benennung von Phänomenen mittels Metaphern verfügten Dichter über die magische Macht, „etwas existent werden zu lassen“. Den Dichtern komme so aufgrund ihrer Ausdrucksmächtigkeit und ihrer Rolle als Schöpfer des Symbolischen – zumal in Krisenzeiten, in denen der Sinn der Welt sich verflüchtige – eine eminent politische Funktion zu, etwa als Botschafter oder als Anführer bei kriegerischen Auseinandersetzungen.114 Paul Ricœur sieht im metaphorischen Sprachgebrauch eine eminente Erkenntnisfunktion: Der statische Wortschatz fixer Bedeutungen ähnele einem „Friedhof ausgelöschter, aufgehobener, ‚toter‘ Metaphern.“115 Eine „lebendige Metapher“ hingegen führe „in einem Akt unerhörter Prädizierung“ dazu, dass ein „Funke“ entstehe, „der beim Zusammenstoß zweier bisher voneinander entfernter semantischer Felder aufblitzt.“116 Ricœur unterstreicht und bestätigt damit den ästhetisch-sinnaufschließenden Charakter der Metapher. In diesem Sinne sei in gewissem Sinne, sagt er, „jede Metapher ein Miniaturgedicht“.117 Ganz ähnlich beschreibt auch Carl R. Hausmann die Wirkungsweise und das innovative Potenzial von Metaphern. Insbesondere bei der Bildung einer neuen kreativen Hypothese komme Metaphern eine herausragende Bedeutung und Rolle zu. Seiner Ansicht nach findet „zwischen den Termini des metaphorischen Ausdrucks eine Interaktion“ – gewissermaßen eine „Interaktion in Metaphern“ – statt, die eine „kreative Spannung“ erzeuge. Darin liege das innovierende Element des Metapherngebrauchs.118 In seiner Philosophie des Zeichens fasst Josef Simon die Metapher als eine Art vorbegriffliches Stadium der Semiose auf. Im Zwischenraum etablierter Begriffe sei gewissermaßen die noch begriffslose Metapher zuhause. Sehr anschaulich beschreibt er die Metapher als „werdenden Begriff“, der begrifflich noch nicht festgelegt („leer“) und so in der Lage sei, sich mit anderen zu verbinden: „Für unseren Zusammenhang genügt es, die Metapher als Ort des selbst noch begriffslosen Übergangs von einem Zeichen zu einem anderen zu verstehen. Dieser Übergang ist frei und noch nicht festgelegt. (…) Die Metapher ist der noch leere Ort eines werdenden Begriffs zwischen einem Art- und einem Gattungsbegriff. Sie ist der Geburtsort eines noch zu findenden Mittelbegriffs.“119 114  Bourdieu

(1985), S. 19. (1986), Einleitung S. II. 116  Ricœur (1986), Einleitung S. VI. 117  Ricœur (1986), Einleitung S. VII (Im Original: Deutsch). 118  Hausman (1994), S. 198. 119  Simon (1989), S. 265. 115  Ricœur



VII. Blickwende 165

Die Metapher erzeuge – argumentiert Eberhard Döring in Anlehnung an Johann Georg Hamann – über die „metaphorische Wirklichkeit“ eine Art „poetische Wahrheit“.120 Wirklichkeit könne hiernach am ehesten mit Hilfe metaphorischer Umschreibungen im Sinne einer „freien begriffslosen Synthesis“ erkannt werden. Die „Kunst der Erkenntnis“ besteht seines Erachtens in dem „Versuch einer metaphorischen Um-Deutung des zu interpretierenden ‚Daten-Materials‘ “.121 Dem entspricht ein Verfahren des sprachlichnarrativen Um- und Einkreisens des Phänomens, der ästhetischen Anstrengung, die in der Suche nach angemessenen kontextsensitiven Verknüpfungen bestehe. Das Verfahren lässt sich – so Döring – umschreiben als „den Versuch wagen, eine kreativ regelsetzende Regelverletzung zur Koinzidenz zu bringen“.122 Döring sieht damit in der „elastische(n) Stringenz einer Metapher“ eine „dynamische Lebendigkeit zur Erzeugung einer neuen Weltdeutung“.123 Die Leistung der Metapher um-schreibt er selbst so: „Die lebendige Metapher segelt sozusagen zwischen der Scylla der Bedeutungsidentität und der Charybdis chaotischer Beliebigkeit hindurch und erweist sich im Gelingen dieser Kunst als die zweckmäßige, d. h. problemspezifische Relativität, die das Gegenteil sowohl von Beliebigkeit als auch von Widersprüchlichkeit ausmacht.“124

„Phantasie“, so Döring, könne dabei verstanden werden als „die individuelle Einbildungskraft zum denkvorgängigen Verdichten der unterschiedlichen semantischen Felder.“125 Döring verweist in diesem Zusammenhang auch auf die Überlegungen zu einer „Logik der Vagheit“ nach Charles S. Peirce, die als Entdeckungslogik (ars inveniendi bzw. context of discovery) die Metaphorizität der Sprache bewusst zur Grundlage habe.126 Die Metapher, einst „verdächtiges Wort“ und weithin gemieden, erfreut sich so heute gerade unter dem Aspekt der Entfaltung kreativer Potenziale 120  Döring,

S.  99 ff. S. 105–106. – Ferner Barceló (1982), S. 135–145. 122  Döring, S. 106. – Siehe dazu auch die Bekenntnisse des durch spektakuläre Seiltanz-Auftritte weltberühmt gewordenen Philippe Petit, S. 3: „The creator must be an outlaw. Not a criminal outlaw, but rather a poet who cultivates intellectual rebellion“ sowie die bemerkenswerte Theoriebildung bei Koestler, Arthur: The Act of Creation, London 1989, der in bewusster Absetzung vom (assoziativen) Denken in geregelten Bahnen eine Theorie der „Bisoziation“ entwickelt hat. Dabei geht es um das Erfassen einer Situation oder Idee in zwei in sich geschlossenen, aber gewöhnlich nicht miteinander vereinbaren Bezugssystemen (sog. Heureka-Vor­ gänge). 123  Döring, S. 166. 124  Döring, S. 167. 125  Döring, S. 168. 126  Peirce (1986a), S. 202. 121  Döring,

166

2. Kap.: Metaphern – verdächtige Wörter?

eines besonderen Interesses. Im freien und bedeutungskonstitutiven Bezeichnungsvermögen sieht Döring die eigentlich kreative Leistung des Menschen. Die Kunst der Erkenntnis stecke im Schöpferischen, d. h. der Formulierung von „Welterzeugungen“ und neuen „Lesarten der Natur“ (z. B. durch Metaphern mit regelsprengender und zugleich neu regulierender Dimension).127 In diesem intrikaten Zusammenhang von Wort- und Weltschöpfung komme – in den Worten Hamanns – eine „poetische Wahrheit“ zum Vorschein.

VIII. Zwischen Logik und Literatur Jacques Derrida hat die spezifische Erkenntnisfunktion der Metapher noch näher untersucht. Er treibt damit Überlegungen zu einer Epistemologie der Metapher auf die Spitze. In seiner Auseinandersetzung mit den Vorarbeiten Paul Ricœurs und mehreren verstreuten Textstellen von Martin Heidegger zur Metapher entwickelt er in der Abhandlung Le retrait de la métaphore (dt. Der Entzug der Metapher) ein genuin metapherntheoretisches Konzept der Erkenntnisgewinnung. Das ist im vorliegenden Kontext von besonderer Wichtigkeit. Derrida trifft damit nämlich den Nerv pro-aktiver polizeilicher Erkenntnisgewinnung. Es geht bei seiner Erörterung um nichts weniger als das „Tatsächliche“ in dem, was in der Gesetzessprache an vielen verschiedenen Stellen „tatsächliche Anhaltspunkte“ heißt.128 Derrida stellt sich das Verhältnis von Sprache und Sein – in Anlehnung an Heidegger – als eine Art „Nachbarschaft“ vor. Die Sprache als das „Haus des Seins“ existiere dabei gleichsam in unmittelbarer Nachbarschaft des „Seins“, wobei beide nach Art eines „Geflechts“ miteinander verwoben seien. Andererseits gebe es eine „Nachbarschaft von Dichten und Denken“ (im Original: Deutsch)129 – „Parallelen“ seien hierbei denkbar, die sich lediglich im Unendlichen schnitten.130 Als Ausdrucksmittel (Trope), Sprach127  Döring,

S. 107. § 3 Abs. 1 Artikel 10-Gesetz (vom 26. Juni 2001, BGBl. I S. 1254, ber. 2298): „Beschränkungen nach § 1 Abs. 1 Nr. 1 dürfen unter den dort bezeichneten Voraussetzungen angeordnet werden, wenn tatsächliche Anhaltspunkte für den Verdacht bestehen, dass jemand (…).“; § 2 ATDG S. 1 (vom 22. Dezember 2006, BGBl. I S. 3409): „Die beteiligten Behörden sind verpflichtet, bereits erhobene Daten nach § 3 Abs. 1 in der Antiterrordatei zu speichern, wenn sie gemäß den für sie geltenden Rechtsvorschriften über polizeiliche oder nachrichtendienstliche Erkenntnisse (Erkenntnisse) verfügen, aus denen sich tatsächliche Anhaltspunkte dafür ergeben, dass die Daten sich beziehen auf 1. Personen (…)“. 129  Derrida (1987), S. 346 ff. [im Original: Derrida, J.: Le retrait de la métaphore, in: Poésie 1978, no. 7, S. 104]. 130  Derrida (1987), S. 348. 128  Etwa



VIII. Zwischen Logik und Literatur167

und Denkinstrument, sei die Metapher allgegenwärtig und unvermeidbar, d. h. der Sprache vollständig immanent. Das Metaphorische denotiere insoweit einen „Grundzug des / im Sein(s)“. Die Wirklichkeit „ent-ziehe“ sich aber grundsätzlich der Erkenntnis. Gleichzeitig zeige sich das Wahre, Reale und Tatsächliche als „Zug“ in Gestalt von „Aufrissen“, „Furchen“ und „Spuren“. Derrida spielt hier mit dem doppelten Sinn von „Ent-zug“ und „doppelter Zug“ (frz. „re-trait“). Folge des Sich-Selbst-Zurückziehens der Erkenntnis sei eine „ontologische Differenz“ zwischen der metaphorischen Umschreibung und dem Tatsächlichen.131 Zentral, weil – nach dem bisherigen Stand der Forschung – irreduktibel, ist für ihn in dieser Hinsicht die Bezeichnung bzw. das Wort „Spur“ („Gramma“ oder „Graphem“), da darin für ihn jenes ontologische Vorfeld der Sprache am besten zum Ausdruck kommt.132 Eine Chance, der Realität „Spuren der Erkenntnis“ bzw. das Wahre und Reale zu „entziehen“, sieht Derrida in der intensiven und selbstreflexiven Auseinandersetzung mit der Rhetorizität bzw. Metaphorizität von Sprache und Sein. Er schreibt: „Die Rhetorik wird sich selbst und ihre Möglichkeit nur dadurch artikulieren können, dass sie sich durch den supplementären Zug einer Rhetorik der Rhetorik, einer Metapher der Metapher fortziehen lässt. Wenn man von Zug oder Entzug in einem Kontext spricht, in dem es um die Wahrheit geht, ist ‚Zug‘ keine Metapher mehr, keine Metapher in dem Sinne, den wir gewöhnlich dem Wort geben.“133

Ihrem Ursprung nach sei die Metapher „Übertragung“ (im Original: Deutsch) und „Übersetzung“ (im Original: Deutsch) – im übertragenen Sinne ganz allgemein „Transportmittel“ (gr. metaphorikos).134 Im Spiel von Metapher und Metonymie135, der unendlichen Semiose, drohe der Metapher indessen stets der Verlust der „Fahrkontrolle“; in den Fluten der Rede, im Miasma der Kommunikation, gerate sie auf Abwege. Das „Abdriften und Wegrutschen“ [frz. dérapage], eines Diskurses sei nie ganz zu meistern. Ähnlich dem „Ankerspiel“, das man in der Seemannssprache bei der Verankerung kenne. Derrida macht deutlich, dass man über die Metapher nur metaphorisch reden könne, so beschreibt er bildhaft die Unkontrollierbarkeit des Diskurses mit folgenden Worten: 131  Derrida

(1987), S. 354. spricht in Bezug auf „Spur“ von „nicht weiter ableitbar“ bzw. „unreduzierbar“, siehe Derrida (1974), S. 122–123. – Eine differenzierte Kritik des Derridaschen „Spur“-Verständnisses bei Wirth (2007), S. 55–81. 133  Derrida (1987), S. 353. 134  Derrida (1987), S. 317. 135  Kluge (1989), S. 476: Metonymie f. ,Ersetzung des eigentlichen Ausdrucks durch einen anderen‘. 132  Derrida

168

2. Kap.: Metaphern – verdächtige Wörter?

„Ich kann das Fahrzeug nicht mehr anhalten, das Schiff nicht mehr verankern, Ich kann allenfalls die Maschinen dieses flottierenden Fahrzeugs, das hier mein Diskurs ist, anhalten. Dies wäre noch das beste Mittel, ihn seinem gänzlich unvorhersehbaren Abdriften zu überlassen.“136

Philip Sarasin hat diesen Sachverhalt, das unaufhaltsame Spiel zwischen Metapher und Metonymie, im Zusammenhang mit den sog. „Anthrax“Briefen in den USA unmittelbar nach dem 11. September analysiert. Im öffentlichen Diskurs um „Bioterror“ weist er semiotische Prozesse des Entgleitens und Abdriftens von Bedeutungen nach. Er spricht unter Verweis auf die Sprachtheorie Ferdinand De Saussures in der Weiterentwicklung von Jacques Lacan von einem „Gleiten“ bzw. „Austauschen“ der Signifikanten. „Wenn Jacques Lacan sagt, dass die metaphorische Operation, ‚etwas zu sagen, indem man etwas anderes sagt‘, auf den ‚Kern‘ der Sprache verweist, weil sie darin ihre größte Leistungsfähigkeit erreiche, bezieht er sich auf die Sprachtheorie von Ferdinand de Saussure, wie sie vom Strukturalismus aufgegriffen und insbesondere von Lacan und von Jacques Derrida formuliert worden ist. Es ist in unserem Zusammenhang nicht unnütz, sich an die grundlegende Überlegung de Saussures zu erinnern, dass die Sprachzeichen nicht nur arbiträr sind, sondern ihren ‚Wert‘ primär vom Verweis auf und in Abgrenzung gegen alle anderen Zeichen eines Sprachsystems erhalten. Seit Lacan die bei de Saussure noch im Begriff des ‚Zeichens‘ fest miteinander verbundenen Terme signifiant und signifié durch den ‚Balken‘ getrennt hat – in der Lacanschen Schreibweise S  s3– können die Bedeutungseffekte, die die rhetorischen Figuren der Metapher und der Metonymie in einem Text erzeugen, als Verschiebungen und als ‚Gleiten‘ der Signifikanten oberhalb bzw. der Signifikate unterhalb des ‚Balkens‘ vorgestellt werden: Die Metapher wird so lesbar als ein ‚Bild für ein anderes‘, d. h. ein Gleiten von Signifikaten unter dem Signifikanten, und die Metonymie als ‚ein Wort für ein anderes‘, das heißt als Austauschen von Signifikanten für ähnliche / gleiche Signifikate. Sprache sagt, anders formuliert, die Dinge nie ganz ein-eindeutig, sondern umschreibt, vergleicht und erfindet Bilder; den endgültigen, den genauen Ausdruck für eine Sache hingegen gibt es nur in der Mathematik.“137

Manfred Frank hat in seiner Auseinandersetzung mit dem „Post-Strukturalismus“ die Gedanken Derridas zur Metapher aufgegriffen und vertieft. Bemerkenswert findet er, dass Derrida in seinen Studien über die Metapher die Metaphorik der Schifffahrt auch in der Rhetorik der wissenschaftlichen Rede nachgewiesen habe. „Metapher“ heiße ja, wörtlich übersetzt, „Übertragung“. Die Figur der Übertragung, des Hinübersetzens von einem Ausdruck zu einem anderen, appelliere an das Sprachspiel der Seefahrt. Sobald das Spiel der Metapher autonom werde, gebe es aber keine Möglichkeit 136  Derrida (1987), S. 318. – [im Original: Derrida 1978, S. 104: „Je ne peux plus arreter le véhicule ou ancrer le navire, maitriser sans reste le dérive ou le dérapage.“]. 137  Sarasin, S. 48–49.



VIII. Zwischen Logik und Literatur169

mehr, das Geschehen der Übertragung durch das Gesetz der Analogie zu kontrollieren. Das ziellos treibende Schiff beginne seine Irrfahrt auf den Fluten der Rede selbst. Die poetische Rede habe diesen Prozess schon immer gekannt und sich bewusst gemacht. Einer alten metaphorischen Tradition entsprechend werde die Dichtung tatsächlich als Schifffahrt begriffen, „als Ausfahrt der ingenii barca, die sich in unerforschtes Gebiet der Innerlichkeit des Sinn-Findens hinauswagt.“138 In der maritimen Metaphorik vom Über-setzen eines Schiffes von einem Ufer zum anderen entdeckt Frank ein „Zentralmotiv der Moderne“: Im Bateau ivre habe Arthur Rimbaud dieses Motiv moderner Ziellosigkeit unter den Bedingungen entfesselter Modernität mit seltener Eindringlichkeit symbolisch verdichtet.139 Gegen die „vagabundierende“ Rede hatte sich schon Platon im Phaidros gewendet: „Jede Rede aber, wenn sie nur einmal geschrieben, treibt sich allerorts umher, gleicherweise bei denen, die sie verstehen, wie bei denen, für die sie nicht passt, und sie selber weiß nicht, zu wem sie reden soll, zu wem nicht.“140

Und Katharina Reiss erinnert daran, dass bereits Jakob Grimm die nautische Metaphorik zur Umschreibung des Übersetzens verwendet hat: „Die Charakterisierung des Dialogs als Seefahrt auf stürmischem Meer erinnert den in der Übersetzungsliteratur bewanderten Leser unmittelbar an die Metapher, die Jakob Grimm (1847, 111) für das Übersetzen gefunden hat: ‚übersétzen ist úebersetzen, traducere navem. Wer nun, zur seefahrt aufgelegt, ein schiff bemannen und mit vollem segel an das gestade jenseits führen kann, musz dennoch landen, wo andrer boden ist und andre luft streicht.‘ “141

Willard V. O. Quine schließlich hat in seiner Kritik des logischen Empirismus das Problem der „Übersetzung“ aufgeworfen. Seine zentrale These der „Übersetzungsunbestimmtheit“ erläutert er mithilfe eines maritimen Gleichnisses, das er von Otto Neurath entlehnt: „Wie Schiffer sind wir, die ihr Schiff auf offener See umbauen müssen, ohne es jemals in einem Dock zerlegen und aus besten Bauteilen neu errichten zu können.“142

Das unterstreicht die zentrale These Derridas, dass das Metaphorische auch die wissenschaftlichen Diskurse durchzieht – und nicht nur ein Cha138  Frank

(1985), S. 88. (1985), S. 88. 140  Platon: Phaidros oder Vom Schönen, 274b-277a., 1957, S. 85–90 – zitiert nach Platon, Medienkonkurrenz: Schrift und dialogische Rede, in: Helmes/Köster (2002), S. 28. 141  Reiss, S. 65. 142  Quine (1975), S. 219 ff. 139  Frank

170

2. Kap.: Metaphern – verdächtige Wörter?

rakteristikum von Dichtung und Literatur ist. Gleichwohl werde – so Frank – um das ursprüngliche Erkenntnisideal aufrechtzuerhalten, die Sprache aufgespalten in einen nichtmetaphorischen Teil, das ist das Ressort der begrifflichen Fachsprache, und in einen metaphorischen Teil, das ist das Refugium der Poesie. Er schreibt: „In der Tat scheint mir, dass diese Seele seit dem Beginn der Neuzeit gleichsam mit gespaltener Zunge spricht: in der wissenschaftlichen Rede affirmiert sie, was sie in der poetischen dementiert. Die Gespaltenheit ist auch in der Philosophie nachweisbar.“143

In dem rigorosen Trennungsversuch von terminologisierter Fachsprache auf der einen Seite und poetischer Rede auf der anderen Seite kommt eine Ur-Dichotomie zwischen Logik und Literatur zum Vorschein. Gottfried Gabriel beschreibt die geistesgeschichtlichen Hintergründe für die rigorose Trennung von Logik und Literatur folgendermaßen: „Der Gegensatz von Logik und Literatur hat eine lange Geschichte, die bis auf den Begründer der formalen Logik, Aristoteles, zurückgeht. Dieser bestimmte im Anschluss an seinen Lehrer Platon, die Aussage als Ort der Wahrheit und verbannte Sätze, die keinen Aussagecharakter haben, mit der Begründung, dass sie nicht wahrheitsfähig sind, aus der Logik in die Rhetorik oder Poetik. Die gesamte Logiktradition ist ihm hierin bis in das 20. Jahrhundert fast ausnahmslos gefolgt.“144

Vor diesem Hintergrund wird deutlich, wie eingefahren die Denkwege sind und wie hartnäckig sich Vorurteile gegenüber der „Metapher“ halten. Gabriel stellt den behaupteten Gattungsunterschied von „Logik“ einerseits und „Literatur“ andererseits in Frage und billigt neben der „Logik“ im traditionellen Sinne auch der Literatur und Dichtung die Möglichkeit der Erkenntnis zu. Er spricht hier von einer „vorpropositionalen Erkenntnis“. Er redet damit einem „Kontinuum von Erkenntnisformen“ das Wort, dem in einer reformierten Logik die Möglichkeit eines Dritten, d. h. von etwas dazwischen, entspricht. Gabriels überzeugende und breit angelegte Argumentation, die über eine Auseinandersetzung mit dem Denken Wittgensteins, Freges und Goodmans bis zum Dekonstruktivismus Derridas führt, kommt – wie Derrida – zum Ergebnis, dass Metaphern eine wichtige „erkenntnisvermittelnde Funktion“ haben. Er schreibt: „Gerade neue grundlegende Einsichten und Unterscheidungen bedürfen besonderer erläuternder Darlegungen, die sich häufig literarischer Mittel, wie z. B. Metaphern, bedienen. Und diese Mittel werden nicht nur von den Dichtern unter den Denkern, sondern auch von sogenannten wissenschaftlichen Philosophen angewandt. (…) Als Ausdrucksform, die Unterscheidungen allererst ermöglicht, hat die Metapher eine wichtige erkenntnisvermittelnde Funktion bis in die Naturwissen143  Frank

(1985), S. 88. (1991), S. IX.

144  Gabriel



VIII. Zwischen Logik und Literatur171 schaften hinein. Umgekehrt lässt sich aber auch nicht aus dem Zugeständnis der Unverzichtbarkeit von Metaphern der rhetorische Charakter der Philosophie ableiten, um so den Gattungsunterschied zwischen Philosophie und Literatur überhaupt aufzuheben, wie dies in Teilen eines postmodernen Dekonstruktivismus der Fall zu sein scheint. Richtig ist, dass es keine absoluten Grenzen gibt; aber auch ein Kontinuum von Erkenntnisformen ist noch reich an Verschiedenheiten, die es gerade nicht zuzudecken, sondern herauszuarbeiten gilt.“145

Nach Gabriel geht es darum, das Denken in Dichotomien zu überwinden, gewissermaßen von einer „Antonymik“ (Denken in Gegensatzpaaren, Oppositionen) zu einer „Homonymik“ (Denken in Mehrdeutigkeiten) zu gelangen. Unterdessen herrscht allerdings noch die Dichotomie der Two Cultures vor: Das Verhältnis zwischen Dichtern / Denkern, Poesie / Philosophie, das bis heute gestört ist. Willy Hochkeppel beschreibt das paradoxe Gefühl der Nähe und Entfernung, das Logiker und Literaten trennt und zugleich verbindet: „Man war sich der Kluft zwischen Ratio und Gefühl, Erfindung und Realität, Illu­ sion und Faktischem, eben zwischen Dichtung und Wahrheit stets quälend bewusst. Hinter diesem scheinbar unverfänglichen Titel übrigens, den Goethe seinen Lebenserinnerungen gab, verbirgt und entbirgt sich zugleich das Verschachtelte der zwei Regionen. Einmal derart, dass Dichtung als das Entgegengesetzte von Wahrheit zu verstehen ist, als bloßes Luftgebäu, womöglich als Erlogenes; dann aber auch so, als stünden Dichtung und Wahrheit, Dichtung und Wirklichkeit in einem dialektischen Spannungsverhältnis zueinander; und schließlich so, dass beide eins sind, Dichtung vielleicht die höchste Wahrheit ausspricht, oder Wahrheit bloß Dichtung ist. ‚An den ältesten Männern und Schulen‘, heißt es bei Goethe, ‚gefiel mir am besten, dass Poesie, Religion und Philosophie ganz in eins zusammenfielen.‘ Das späterhin Angespannte des Verhältnisses entlud sich schon vorher häufig genug in gegenseitiger Polemik und Spott und erschlaffte in Verständnislosigkeit.“146

Nach Hannelore Schlaffer handelt es sich tatsächlich um ein „ein Paradox der europäischen Kultur“, dass künstlerische Produkte unter empirischem Aspekt als ungültig, unter ästhetischem Aspekt jedoch als gültig gelten.147 Beat Wyss beurteilt den Prozess der Moderne als fortgesetzten Trennungsund Zerfallsprozess von Dichtung und Wissenschaft.148 Luiz Costa Lima geht noch weiter und betrachtet den europäischen Rationalismus als „(sozia­ len) Kontrollversuch gegenüber dem Fiktiven und Fiktionalen (Imaginä­ ren)“.149 145  Gabriel

(1991), S. 220–221. (2002), S. 105. 147  Schlaffer (2005), S. 97. 148  Wyss (2009), S. 12–13. 149  Lima, S. 351. 146  Hochkeppel

172

2. Kap.: Metaphern – verdächtige Wörter?

Man könne den westlichen Empirismus in seinen vielfältigen Formen – mal idealistisch, mal positivistisch –, argumentiert er, tatsächlich als Versuch der „Realitätskontrolle“ verstehen.150 Vor diesem Hintergrund wird verständlich, wie wenig eine durchrationalisierte und operationalisierte Sprache mit Metaphern anfangen kann und wie angespannt das Verhältnis zwischen Begriffs-Logikern und Rhetorikern sein muss. Stephen Toulmin, der sich gegen die Verleumdung der Rhetorik wehrt, sieht das blanke Anti-Rhetorische verbündet mit der Barbarei – umgekehrt neige sich aber gerade das Rhetorische dem Inhalt zu „als dem Offenen, nicht vom Gerüst Vorentschiedenen.“151 Unter der Herrschaft des Kontroll-Ansatzes bleibt neben der Denunziation der Rhetorik und der Diskreditierung der Metapher, im Übrigen aber nur Polemik und Spott, bestenfalls – wie Willy Hochkeppel formuliert – „Verständnislosigkeit“ übrig.152 An dieser Stelle wollen „Poststrukturalisten“ eine Brücke bauen: Sie versuchen das Schisma zwischen Fachsprache und tropenreicher natürlicher Sprache zu überwinden, unternehmen den Versuch, die Gespaltenheit von Dichtung und Denken, den angeblichen Gegensatz von Poesie und Philosophie bzw. die Unvereinbarkeit von Dichtersprache und Wissenschaftssprache zugunsten eines einheitlichen sprachlichen Kontinuums aufzuheben.153 Hinzuweisen ist hier auf den Versuch Alain Badious, der eine Abwendung von der Mathematik („mathem“) und stärkere Hinwendung zur Dichtung ­(„poem“) für die Philosophie fordert.154 Es bedarf kaum der Erwähnung, wie festgefahren die Positionen in beiden Lagern sind. Der Mühsal des metaphorischen Durchbruchs von der Logik des „Uhrwerks“ zur Logik des „Sprachwerks“ wollen sich – nüchtern betrachtet – nur wenige unterziehen. Selbst Jürgen Habermas erteilt einem rhetorischen Kontinuum eine deutliche Absage, sieht unüberwindbare Gattungsunterschiede zwischen Literatur und Philosophie.155 Dieses „Zwischen“ indessen genauer zu bestimmen – Form und Architektur der zu konstruierenden Brücke zwischen Literatur 150  Lima,

S. 351. S. 68. 152  Wie schwierig die Verständigung zwischen beiden Seiten ist, zeigt „Der Aufruf der Schriftsteller“ gegen Massenüberwachung vom 10. Dezember 2013. Der Appell für „Demokratie im digitalen Zeitalter“, den mehr als 1000 Schriftsteller aus 82 Ländern – darunter fünf Nobelpreisträger – unterzeichnet haben, blieb praktisch folgenlos; ein grundsätzlicher Dialog mit politisch Verantwortlichen blieb aus, vgl. Frankfurter Allgemeine Zeitung vom 10. Dezember 2013, S. 27. 153  Frank, Manfred: Stil in der Philosophie, Stuttgart 1992. 154  Badiou, S. 93–107. 155  Habermas (1993b), S. 219–247. 151  Toulmin,



VIII. Zwischen Logik und Literatur173

und Logik zu ersinnen, genau das scheint die Herausforderung zu sein, um die Sprach- und Verständnislosigkeit beider Lager zu überwinden. Letztlich könnten in diesem „Zwischenraum“ Möglichkeiten zur Regulierung entfesselter Diskurse und Kontrollmaschinerien liegen.156

156  Lüderssen

(2002b), S. 47–57.

3. Kapitel

Anzeichenloser Verdacht „Wenn ich durch exzessives Planen und Informationssammeln jeden direkten Kontakt mit der Realität vermeide, so hat die Realität auch keine Gelegenheit, mir mitzuteilen, dass das, was ich mir da so ausgedacht habe, nicht funktioniert oder grundfalsch ist.“ Dietrich Dörner, Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, 20091 „Man muss nicht im Gefängnis sitzen, um von Leviathan betroffen zu sein; und Leviathan muss kein Polizeistaat sein, um einen Schatten auf seine Untertanen zu werfen.“ David Matza, Abweichendes Verhalten. Untersuchungen zur Genese abweichender Identität, 19732

I. Zur Kunstsprache der Kriminalistik Phantasie, Instinkt, Spürsinn – Chiffren jener hohen „kriminalistischen Kunst des Verdachtschöpfens“ waren Störzer, wie auch den Anhängern der kriminalstrategischen Planungslehre, zu wenig exakt – und daher als Methode der Verdachtsgewinnung eher suspekt. Sie bevorzugen, wie sie sehr deutlich zum Ausdruck bringen, eine systematische Vorgehensweise mit präzisen Messgrößen. Woher kommt diese auffällige Nähe zum Exaktheitsideal? Um das herauszufinden, ist es erforderlich, tiefer liegende Schichten des kriminalistischen Diskurses zu untersuchen: Der genaue Zeitpunkt, wann die „Kriminalistik“ als Wissenschaft gegründet wurde, liegt allerdings im Dunkeln. Manche sehen ihn im Jahr 1838, dem Erscheinungsjahr des Handbuch zur gerichtlichen Untersuchungskunde von Jagemann; andere datieren ihn erst auf das Jahr 1893, dem Erscheinen des Handbuch für Untersuchungsrichter von Hanns Gross.3 Wie dem auch sei, die junge Wissenschaft, die für sich „die unmittelbare Bekämpfung des Verbrechens“ 1  Dörner,

S. 311. S. 157. 3  Geerds, S. 118. 2  Matza,



I. Zur Kunstsprache der Kriminalistik175

als Aufgabe entdeckte4, erlebt in der zweiten Hälfte des 19. Jahrhunderts einen kometenhaften Aufschwung. Eine Fülle von Publikationen befasste sich mit einem Mal mit dem Thema der Verfolgung von Verbrechen. Die Bezeichnungen variierten zwischen „Kriminal-Anthropologie“, „Kriminalistik“ und „Kriminologie“.5 Veranlasst war dieses enorme Anschwellen des kriminalistischen Diskurses durch das Inkraftreten der Strafprozessordnung und die radikale Umstellung des Strafprozesses in den 80er Jahren des 19. Jahrhunderts. Mit den Reichsjustizgesetzen waren die starren Regeln des gemeinrechtlichen Prozesses abgeschafft und das Prinzip der freien Beweiswürdigung eingeführt worden. Aus den festen Beweisregeln (rigor iuris) entlassen, musste das Gericht nun umfänglich eigene Wertungen zur Beweiswürdigung vornehmen. Der Ermessensspielraum des Richters war damit wesentlich erweitert worden, der Wahrheitsermittlung neue Möglichkeiten eröffnet, denen man mit den bisherigen Beweisgesetzen und ihren formalen Kriterien nicht mehr beikommen konnte. Die Abschaffung der Beweisregeln führte zu einer wahren Explosion neuer Verfahren. Rebecca Habermas unterstreicht die – technisch bedingte – radikale Veränderung der strafprozessualen Praxis. In der sog. „Voruntersuchung“ wurden immer neue BeweisVerfahren und immer ausgeklügeltere Techniken erfunden, um die Validität der mühsam erstellten Beweise zu überprüfen.6 Die neuen Techniken zur Erforschung von Täterschaft und Tathergang habe man indessen „nicht in wohlformulierten neuen Paragraphen der Strafprozessordnung nachlesen“ können.7 Eine Debatte über die Rechtsstaatlichkeit der Voruntersuchung, die fehlende Öffentlichkeit oder äußerst schwache Position des Verteidigers habe erst um die Jahrhundertwende eingesetzt.8 Es waren die Kriminalisten und die junge Disziplin der „Kriminalistik“, die in dieser Situation versuchten, die neuen Aufgaben durch eine Verwissenschaftlichung ihrer Methoden zu lösen. Für die Polizei, zwischenzeitlich verstaatlicht und institutionell unabhängig, waren die Gesamtumstände günstig: Das Sicherheitsbedürfnis von Bevölkerung und Obrigkeit war nach sozialen Unruhen gestiegen; der Wunsch nach verstärkter Bekämpfung des „Gaunertums“ und des „Verbrecherunwesens“ wurde lauter. Vor diesem Hintergrund entwickelten die Kriminalisten neue Praktiken der Beweisproduktion (z. B. „Tatortskizze“ und „Augenscheinsprotokolle“) und insbeson4  Geerds, S. 118: „Bei der Kriminalistik ist anders als in der Kriminologie auf die unmittelbare Bekämpfung der Kriminalität abzustellen, die sowohl mit Mitteln des Strafrechts als auch auf andere Weise erfolgen kann.“ 5  Archiv für Kriminal-Anthropologie und Kriminalistik, hrsg. seit 899 von Hanns Gross und Robert Heindel, ab 1916 Archiv für Kriminologie. 6  Habermas, R., S. 98. 7  Habermas, R., S. 94. 8  Habermas, R., 159–160.

176

3. Kap.: Anzeichenloser Verdacht

dere neue Methoden der „Personenidentifizierung“. Sämtliche Verfahren, etwa zur Beweismittelbeurteilung (Zeugen, Urkunden, Sachverständige etc.), wurden am Exaktheitsideal der Naturwissenschaften und der Mathematik ausgerichtet. Die polizeiliche Praxis lief auf den schwierigen Versuch hinaus, über „rudimentäre Tatsachen“ (sog. „Indizien“) auf das Vorhandensein anderer, zu beweisender Tatsachen („Sachbeweis“) schließen zu können, um so Gewissheiten herzustellen. Die Vertreter der Naturwissenschaftlichen Kriminalistik selbst waren in hohem Maße euphorisch und von einem unzweifelhaften Wahrheitsethos erfüllt. Allein „Fakten“, unscheinbare „Details“, minutiöse „Indizien“ sollten das Sagen bei der Verdachtsermittlung haben. Als Idealtyp kriminalistischen Denkens und Handelns priesen die Kriminalisten die vorurteilsfreie Interpretation vorliegender data. Diese sollten in logischer Schlussfolge zu Hypothesen und damit zur Fallaufklärung führen. Der Stellenwert der exakten Logik nach dem Vorbild der mathematischen Aussagenlogik war herausragend. Theodor Reik führt dazu aus: „Es ist die logische Denkarbeit, so scheint es, der die Kriminalisten ihre großen Erfolge zu verdanken haben; es ist diese intellektuelle Leistung, die wir manchmal bewundern. Die Handbücher für Richter und Kriminalbeamte weisen mit Nachdruck auf die Notwendigkeit des logischen Denkens und auf die Gefährlichkeit falscher Schlüsse in der kriminalistischen Arbeit hin, und diese Betonung logischer Reinheit und Folgerichtigkeit ist sehr verständlich. Wer eine einzige falsche Schlussfolgerung zieht, kann wirklich sehr weit vom Wege abkommen und immer tiefer in die Irre gehen. Das gilt bereits bei der Erfassung des Zusammenhangs zwischen Spur und Täter. Eine Fußspur, eine Schartenspur, ein Zigarrenstummel, diese Spuren in ursächlichen Zusammenhang mit dem Handeln des Täters zu setzen – hier beginnt die logische Arbeit.“9

Nach ihrem eigenen Verständnis lasen Kriminalisten „Fährten“ bzw. „Spuren“, sichteten, systematisierten und interpretierten „Zeichen“. Erich Anuschat, einer der Pioniere der „Naturwissenschaftlichen Kriminalistik“, schwärmt in seinem Standardwerk zur Gedankenarbeit der Kriminalisten von literarischen Vorbildern wie sie EdgarAllan Poe oder Arthur Conan Doyle in ihren Romanen und Erzählungen entworfen hatten. Aus Mangel an wissenschaftlichen Vorbildern erkor die Kriminalistik „geniale Detektive“ zu einer Art Ahnherren der Kriminalistik der ersten Stunde. Erich Anuschat, Koryphäe der Kriminalistik, beschreibt die Rolle der literarischen Vorbilder und der Logik für die junge Wissenschaft der Kriminalistik so: „Meine Forderungen, dass die Kriminalität die Gesetze der Logik beachten, dass er folgerichtig denken lernen müsse, ist nicht neu, nein uralt ist sie; in den ältesten kriminalistischen Schriften kann man sie schon finden, aber niemals kümmer9  Reik

(1983a), S. 26–27.



I. Zur Kunstsprache der Kriminalistik177 te man sich groß um sie. Auf einmal wurde die Sache ‚aktuell‘, als der Anstoß von einer anderen Seite ausging, nämlich von den Herren Romanschriftstellern. Das erste Aufsehen erregten die Detektivromane des Amerikaners Edgar Allan Poe (1809–1849), in denen der Detektiv (‚Dupin‘) vermöge einer besonderen ‚analytischen‘ (auflösenden) Methode‚ den meisten Menschen bis ins Innerste zu schauen vermag, als trügen sie Fenster in der Brust‘, mit wunderbarer Genauigkeit und Schärfe die Beweggründe des menschlichen Handelns zu erforschen sucht und mit mathematischer Sicherheit Schlüsse zu ziehen weiß. Dann kam der Franzose Gaboriau (1836–1873) mit seinem ‚Herrn Lecoq‘; auch dieser weiß aus den winzigsten Spuren, aus den geringfügigsten Nebenumständen die scharfsinnigsten Schlüsse zu ziehen, seine Schlüsse und Schlussketten miteinander zu kunstvollen Geweben zu verknüpfen und in diesen die Anhaltspunkte für die Aufklärung der seltsamsten Fälle wie für die Ermittlung der schlauesten Verbrecher zu finden. Die ganze Welt in Staunen aber setzte in den neunziger Jahren der Engländer Conan Doyle mit dem Detektiv ‚Sherlock Holmes‘ – es gibt wohl keinen Erbenwinkel, wo man nicht von diesem ‚genialen Detektiv‘ spricht, obwohl er nur auf dem Papier gelebt hat.“10

Die Ansätze, Techniken und Methoden der „Naturwissenschaftlichen Kriminalistik“, wie sie sich selbst zwischen 1880 und 1930 nannte, lesen sich aus heutiger Sicht nach Miloš Vec „teilweise wie ein Thesaurus untergegangener Geheimwissenschaften“.11 Zu den Methoden gehörten so zum Beispiel: (a) „Signalement“: Personenbeschreibung zum Zwecke der Wiedererkennung; (b) „Bertillonage“ / „Anthropometrie“: Verfahren, die die äußeren Körpermaße zum Ausgangspunkt nehmen; (c) „Röntgenfotografie“: Fotografie des Skeletts, um Ungenauigkeiten bei der Messung der Endpunkte der Gliedmaßen auszuschließen; (d) „Ostelogie“, „Skeletographie“, „Osteoskopie“: Nutzung des Knochenbaus für erkennungsdienstliche Zwecke; (e) „Photogrammetrie“: Verfahren zur exakten Bildmessung bei Tatortfotografie; (f) „Graphologie“, „Graphonomie“, „Graphometrie“: Auswertung der Handschrift zur Wiedererkennung;

10  Anuschat,

S. 7–8. (2002), S. 19 unter Verweis auf Heindl, Robert: System und Praxis der Daktyloskopie und der sonstigen technischen Methoden der Kriminalpolizei, Berlin 1922. 11  Vec

178

3. Kap.: Anzeichenloser Verdacht

(g) „Daktyloskopie“ (Galtonismus), „Jodogramme“: Verfahren der Fingerabdrucknahme; (h) „Cheiroskopie“: Handabdruckverfahren, d. h. Papillarlinien der ganzen Handfläche; (i) „Dermatypie“: Abdrücke von kranken Hautpartien mittels Druckerschwärze; (j) „Venoskopie“: Venenmuster auf dem Handrücken wird als Identifizierungsmerkmal gesammelt; (k) „Retinoskopie“: Auge als Identifizierungsmittel; (l) „Odentometrie“: Identitätsermittlung über das Gebiß einer Person; (m) „portrait parlé“ („Portrait in Worten“): Komplizierte Nomenklatur für die einzelnen Körperteile und ihre Eigenschaften. Den kuriosen Höhepunkt dieser Methoden bildete, schreibt Vec, das „funktionelle und psychische Signalement“ des Chefs der römischen Polizeischule Salvatore Ottolenghi. Es habe versucht, willkürliche, automatische und unwillkürliche Bewegungen sowie Seh-, Riech-, Geschmacks- und Gehörfunktionen, Gedächtnis, Perzeptionsfähigkeit und Einbildungskraft mittels „Dynamometer“, „Dynamograph“ und „Ergograph“ zu klassifizieren. Diese komplizierte Klassifizierung sollten nach Ottolenghi in detaillierte Vordrucke eingetragen werden. Das Vorhaben scheiterte, da für einen einzelnen Verdächtigen Formulare vom Umfang einer ganzen Broschüre benötigt wurden.12 Insbesondere die Einführung biometrischer Methoden revolutionierte im späten 19. Jahrhundert die junge Wissenschaft.13 Die „anthropometrische Bertillonage“ nach Alphonse Bertillon, seit 1882 Chef des Identifizierungsinstituts an der Polizeipräfektur in Paris, machte sich den Grundsatz des belgischen Statistikers Adolphe Quetelet zunutze, wonach sich die Knochenlängen des Menschen nach einem gewissen Alter nicht mehr ändern. Verdächtige Personen wurden mit Spezialinstrumenten daher exakt vermessen und die Daten in Karteikarten übertragen. Dazu gehörten 11 Körpermerkmale (sog. „anthropometrisches Signalement“): − Körpergröße − Sitzhöhe − Armspannweite − Kopflänge 12  Vec

(2002), S. 23. S. 114–121.

13  Messner,



I. Zur Kunstsprache der Kriminalistik179

− Kopfbreite − Jochbeinbreite − Länge des rechten Ohres − Länge des linken Unterarmes − Länge des rechten Mittelfingers − Länge des linken Kleinfingers − Länge des linken Fußes sowie die Augenklasse14 Was nicht in Längen- und Raummaßen erfasst werden konnte, z. B. die Farben der Augen wurden in bestimmten Klassen eingeteilt (z. B. „Seegrün“=75; Maigrün=83“). Bertillon war davon überzeugt, dass die „Ziffernsprache“ – ein fachsprachlicher Indexierungscode – „auch dem vollkommensten Wörterverzeichnis vorzuziehen“ sei. Denn die gewöhnliche Sprache orientiere sich (etwa bei den Nasenprofilen und Kopfformen), so Bertillon, bloß an den extremen Fällen und habe keinen Sinn für die Masse der unscheinbaren „Zwischenstufen“. Hinzu kamen Verzeichnisse mit Abkürzungen im Bertillonschen Körpermessverfahren: − A=Auge − a=außen, äußere − Aa=Augapfel − Ab=Augenbrauen So entstand eine Kunstsprache mit einer Unzahl von Abkürzungen und Verschlüsselungen. Manche der Zeitgenossen feierten den Erfolg und das erste Auftreten der Bertillonage im Jahr 1879 daher auch als das Geburtsjahr der „Modernen Kriminalistik“. Das Verfahren der Körpermessung erwies sich in der Praxis als erheblich zuverlässiger als die erst wenige Jahrzehnte alte Polizeifotographie. Wenige Jahre später indessen, als das Fingerabdruckverfahren (Daktyloskopie) als neues Verfahren zur Personen­ identifikation auftauchte, verlor das Körpermessverfahren zusehends an Bedeutung. Etwa um 1900 setzte sich das Fingerabdruckverfahren als primäre Identifikationsmethode endgültig durch.15 Die Analyse der Diskurse „Moderne Kriminalistik“ und „Naturwissenschaftliche Kriminalistik“ ergibt, dass der Bezugsrahmen stets das Exaktheitspostulat der Mathematik und der Naturwissenschaften war. Die Kriminalistik blieb damit ein durchweg technischer Wissenschafts- und Praxisbereich. Aus der abstrakten Vorstellung von der Perfektion der Technik leitete 14  Bertillon,

Alphonse: Das anthropometrische Signalement, Bern 1895. S. 283–298.

15  Lindenberg,

180

3. Kap.: Anzeichenloser Verdacht

Abbildung 12: Gesichtsvermessung um 189016

sich für die Kriminalisten die Unfehlbarkeit der naturwissenschaftlichen Beweistechniken, z. B. der Daktyloskopie ab. Theodor Reik gibt einen Gesamtüberblick zur kriminalistischen Methodik des Indizienbeweises, gleichzeitig warnt er vor einer „Hypertrophie rationalistischen Eifers“.17 In methodischer Hinsicht bewertet Rebecca Habermas die Verfahren und die Techniken der Kriminalisten um die Jahrhundertwende kritisch. Die von den ambitionierten Kriminalisten entwickelten „Techniken des Sachbeweises“ hätten primär den Zwängen einer reduktionistischen juristischen Logik entsprochen. Mit Hilfe dieser Methoden hätten sie aber – das sei maßgeblich für die Akzeptanz gewesen – den Rechtsstaat in die Lage versetzt, „ ‚wahr‘ von ‚unwahr‘ “ zu unterscheiden.18 Gemeinsames Kennzeichen dieser Verfahren seien „Methoden der De-kontextualisierung, Entsubjektivierung und Quantifizierung“ gewesen, die dadurch einen hohen Grad an Objektivität erreicht hätten. Diese Verfahren der Entkontextualisierung wiederum, so Habermas, seien indessen nicht in den einschlägigen Prozessordnungen geregelt gewesen. Im Gegenteil, diese hätten beharrlich darüber geschwiegen, wie Beweise – konkret – gesammelt und Tatsachen geschaffen werden sollten. Hinweise darauf, wie genau hier vorzugehen sei und mittels 16  Vec,

S. 4. (1983), S. 232. 18  Habermas, R., S. 245. 17  Reik



I. Zur Kunstsprache der Kriminalistik181

Abbildung 13: Datenerfassung im Rahmen der Bertillonage (aus: Alphonse Bertillon, Das anthropometrische Signalement, 1895)19 19  Belting,

S. 238.

182

3. Kap.: Anzeichenloser Verdacht

welcher Techniken die Beweise bewertet werden könnten, hätten erst im Laufe der Zeit eine ganze Reihe von Wissenschaften, angefangen von der Jurisprudenz über die Statistik bis zur Kriminologie, entwickelt.20 Spezifisch juristische Aspekte – so Miloš Vec – wurden systematisch ausgeblendet. Er spricht in Hinsicht auf das strafprozessuale Vorverfahren von dem bemerkenswerten Phänomen einer „ausbleibenden Verrechtlichung“. Der technische Diskurs habe das Recht dominiert. In den Diskursen der Kriminalisten mit ihrem „selbstsicheren Wahrheitsethos“ sei selbst der beweiswürdigende Richter ausgeblendet worden.21 Eine gesetzliche Normierung der kriminalistischen Praxis der strafprozessualen Voruntersuchung habe in Deutschland – das sei besonders bemerkenswert – erst im November 1933 durch das Gesetz gegen gefährliche Gewohnheitsverbrecher stattgefunden. Die neue Bestimmung des § 81b StPO habe der daktyloskopischen Erfassung von Verdächtigen zu Zwecken des Strafverfahrens oder für die Zwecke des Erkennungsdienstes erstmals eine Rechtsgrundlage verschafft. Die Vorschrift lautet: „Soweit es für die Zwecke der Durchführung des Strafverfahrens oder für die Zwecke des Erkennungsdienstes notwendig ist, dürfen Lichtbilder und Fingerabdrücke des Beschuldigten auch gegen seinen Willen aufgenommen und Messungen oder ähnliche Maßnahmen an ihm vorgenommen werden.“22

Bis dahin seien stets neue Kriminaltechniken (Kriminalfotografie, Körpermessung, Fingerabdruckverfahren etc.) in einem „juristisch kaum regulierten Raum“ angewandt worden.23 Gleichzeitig hätten sich diese Techniken zu einem immer effektiveren Instrument sozialer Kontrolle entwickelt. Gründe hierfür seien die anhaltende Technikeuphorie und die Dominanz der Kriminalisten gewesen. Die Justiz habe den Kriminaltechnikern und ihren optimistischen Sicherheitsversprechungen das Feld vollständig überlassen.24 Überhaupt sei dem polizeilich dominierten Vorverfahren wenig wissenschaftliche Aufmerksamkeit seitens der Juristen zuteil geworden. Bemühungen um ein rechtsstaatliches Strafverfahren hätten im 19. Jahrhundert im Wesentlichen nur das Hauptverfahren betroffen. Das habe für das Körpervermessungsverfahren zur Identitätsfeststellung ebenso gegolten, wie für die Abnahme von Fingerabdrücken. So habe das Reichsgericht im Jahre 1899 entschieden, dass sich die Bertillonage schlicht auf die allgemeine polizeiliche Generalklausel stützen könne. Der Polizei sei danach erlaubt, die „nötigen Anstalten zur Erhaltung der öffentlichen Sicherheit zu 20  Habermas,

R., S. 245. (2002), S. 3, 101. 22  Reichsgesetzblatt 1933, Teil I, 995–1010 (1000), eingefügt wurde § 81b stopp. 23  Vec (2002), S. 3. 24  Vec (2002), S. 121. 21  Vec



I. Zur Kunstsprache der Kriminalistik183

treffen“ (ALR II Tit. 17 § 10). Dies schließe die Aufnahme des Signalements von Personen, die der Begehung einer strafbaren Handlung verdächtig seien, ein.25 Der Kriminalistik-Diskurs speist sich bis heute aus Stimmen, die das althergebrachte kriminalistische Denken, „Latenzaufdeckung“, „Indizienketten“, „logische Denkgesetze“ und die Kunst der „kriminalistischen Kombination“ ins Zentrum ihrer Überlegungen stellen.26 Oft haben sie die tradi­ tionelle „Kriminaltaktik“, d. h. die Aufklärung einzelner begangener Straf­ taten, im Auge. Die neuen technischen Möglichkeiten der systematischen Informationsverarbeitung und Simulation, der sog. „elektronische PC-Ermittler“, werden indessen auch hier geschätzt. Weitsichtig formuliert Rolf Ackermann zur Zukunft der Kriminalistik und Polizeiarbeit: „Der Trend zur Informationsgesellschaft hat für die Kriminalistik eine besonders große Bedeutung. Neben traditioneller kriminalistisch-ermittelnder Kleinarbeit gewinnt die Entwicklung von Daten- und Informationssystemen zur Straftatenaufklärung sprunghaft an Bedeutung. Insbesondere solche, die in der Lage sind, Zusammenhänge zwischen einzelnen Informationen zu erkennen und die Simulation zu Sachverhalten zu unterstützen. Die Beherrschung der Informations- und Kommunikationstechnik wird zukünftig zu einer Schlüsselfrage der Taktik der Aufklärung. Der ‚elektronische PC-Ermittler‘, der mehr als nur latente Straftaten im Internet aufdecken soll, wird das künftige Entwicklungsprofil der Kriminalistik wesentlich verändern.“27

So zeigt er sich – unter dem Aspekt der Kriminaltaktik – neueren technischen Verfahren und Methoden aufgeschlossen. Für hochsensible Detek­ tionstechnologien, wie etwa einen Lügendetektor neuen Typs, bei dem eine Wärmebildkamera das Gesicht abtastet und dabei emotionale Veränderungen sichtbar macht, sieht er kriminalistische Anwendungsmöglichkeiten.28 Wolfgang Bach, Leiter der Gruppe „Technologien“ im Bundeskriminalamt, ist sich des kriminalistischen Potenzials der neuen Technologien zur Verdachtsgewinnung ebenfalls voll und ganz bewusst. Er spricht von einer „beträchtlichen Erhöhung der Nachweisgrenzen in der Kriminaltechnik – in einzelnen Bereichen sogar um mehrere Zehnerpotenzen“: „Die Kriminaltechnik hat in den letzten Jahrzehnten die Nachweismethoden bis in extreme Empfindlichkeiten vorangetrieben. Neue Auswertungsverfahren wurden entwickelt und erfolgreich eingesetzt. Hierüber gibt es vielfältige Fachliteratur und Beiträge in den Medien. Demgegenüber eröffnet sich uns eine relativ unbekannte 25  Schulz (2001), S. 205–206, der darauf verweist, dass im 19. Jahrhundert noch das Rechtsverständnis früherer Jahrhunderte nachwirkte, wonach der Verdächtige ein Beweismittel ohne eigene Rechte war. 26  Getto, S. 647–651, 707–712, 795–798. 27  Ackermann, S. 148. 28  Ackermann, S. 150.

184

3. Kap.: Anzeichenloser Verdacht

Abbildung 14: Vermessung der Iris für die Mustererkennung29 aber kriminalistisch hochinteressante Zukunftsperspektive: Bei den kriminal-technischen und gerichtsmedizinischen Fragestellungen geht es darum, tatrelevante Abläufe zu rekonstruieren. Dies erfolgt sehr häufig mithilfe mathematisch-physikalischer Modelle. Diese Modelle werden durch experimentelle Untersuchungen untermauert und verfeinert. Die rasante Entwicklung der Hard- und Softwaretechnologien während der letzten Jahre hat es ermöglicht, computerunterstützte Simulationsmodelle für kriminaltechnische Fragestellungen zu entwickeln und einzusetzen.“30

Bach befürwortet vor diesem Hintergrund einen „nach vorne gerichteten kriminalstrategischen Charakter der Technologienutzung bei der Kriminali­ tätsbekämpfung“.31 Er sieht die „Chance einer ‚proaktiven‘ technischen Prävention im Sinne der Schaffung einer systeminhärenten Sicherheit gegenüber zukünftigem kriminellem Missbrauch“ und erwägt eine „technologiebezogene Neuorientierung des kriminalstrategischen Denkens“.32 Bach spricht hier nur aus, was weithin sichtbar ist: Feststeht, dass die technologische Revolution auch zu einer Revolutionierung der polizeilichen Sozialkontrolle geführt hat.33 29  Bach

(1999a), S. 194. (1999), S. 657, 661. 31  Bach (1999), S. 669. 32  Bach (1999), S. 671. 33  Manwaring-White, Sarah: The Policing Revolution. Police Technology, Democracy and Liberty in Britain, Brighton, Sussex 1983; Hoogenboom, S. 163–179; 30  Bach



II. Perseveranz-Hypothese und Reform des „KPMD“185

II. Perseveranz-Hypothese und Reform des „KPMD“ Trotz ihrer Euphorie für Klassifikation und die Gesetze der Logik hat die kriminalpolizeiliche Praxis auch die Kehrseite reduktionistischen Kategorisierens und Klassifizierens sehr deutlich gesehen. Im Hinblick auf eine „Reform des Kriminalpolizeilichen Meldedienstes (KPMD)“ bzw. die Kritik der sog. „Perseveranz-Hypothese“ hat die Kriminalpolizei in der Bundesrepublik Anfang der 1990er Jahre die Gesamtproblematik umfassend und unter wissenschaftlicher Begleitung mit der der Kriminalistik eigenen Sorgfalt aufgearbeitet. Der Kriminalistik-Diskurs enthüllt hier mit besonderer Tiefenschärfe einerseits ein beträchtliches Problembewusstsein auf Seiten der Polizeipraktiker, andererseits aber auch enorme Widerstände gegenüber einer avancierten Methodologie und Handlungstheorie34 innerhalb der polizeilichen und justiziellen Bürokratie. Der Diskurs zur „Reform des KPMD“ lässt sich kurz so beschreiben: Der „KPMD“, die Meldeverpflichtung für kriminalpolizeiliche Dienststellen in Form einer Dienstanweisung, ordnete traditionell Straftäter bestimmten Deliktsgruppen bzw. Klassen zu, z. B.: − Klasse II – Diebstähle −  Geldschrankknacker −  Fassadenkletterer etc. − Klasse III – Betrug und verwandte Erscheinungsformen −  Hochstapler −  falsche Beamte −  Zechpreller −  Bauernfänger −  Nepper etc. − Klasse VI – Triebverbrechen und sonstige Vergehen aus sexuellen Motiven −  Zopfabschneider −  Tierstecher etc.35 Diese Taxonomie diente kriminalpolizeilichen Zentralstellen als Grundlage für die Führung von Straftäterkarteien. Ziel war es, auf überörtlicher Bundeskriminalamt (Hrsg.), Technik im Dienste der Straftatenbekämpfung. Arbeitstagung des Bundeskriminalamtes Wiesbaden vom 7. – 10. November 1989, Wiesbaden 1990; Kube/Bach/Erhardt/Glaser, S. 129–140; Kube/Kuckuck, S. 100–108. 34  Brisach (1992), S. 175. 35  Dienstanweisung für den kriminalpolizeilichen Melde- und Erkennungsdienst vom 20.09.1936 – auszugsweise abgedruckt bei Schuster (1985), S. 45–54.

186

3. Kap.: Anzeichenloser Verdacht

Ebene im Wege der Auswertung von sog. „KPMD-Meldungen“, d. h. ausgefüllten KP-Vordrucken der Basisdienststellen mit Tat- und Tätermerkmalen, reisende Täter zu identifizieren und ganz generell Fahndung und Ermittlung durch gezielte Verdachtschöpfung zu unterstützen. „Perseveranz“, also die äußere Ähnlichkeit in der Deliktsrichtung bzw. im modus operandi, war hierbei traditionell das Kriterium für die Einordnung in die jeweilige Straftäterklasse. Das deliktstyporientierte Klassifikationssystem und die sog. Perseveranz-Hypothese im Sinne von „Deliktstreue“ (sog. „Handschrift des Täters“) wurde jedoch zunehmend in der Praxis als fragwürdig empfunden, da sowohl deliktsunspezifisches Täterverhalten als auch innere, motivationale Bedingungsstrukturen des Täters nicht abgebildet wurden.36 Vor diesem Hintergrund gab das Bundeskriminalamt Anfang der 80er Jahre ein wissenschaftliches Gutachten zur „Reform des Kriminalpolizeilichen Meldedienstes“ bei dem Soziologen Ulrich Oevermann in Auftrag. Der Forschungsauftrag umfasste auch den Aspekt der Auswertung mithilfe von elektronischen Dateien, da man sich von der zunehmenden Informatisierung auch eine verbesserte Verdachtschöpfung im Wege der kriminalistischen Auswertung versprach. Das Gutachten37 und der Ansatz der „Objektiven Hermeneutik“ haben – wie Harald Dern im Nachhinein feststellt – „viel Staub aufgewirbelt.“38 Oevermann habe im Rahmen der Untersuchung zum Kriminalpolizeilichen Meldedienst (KPMD) nämlich zeigen können, dass herkömmliche polizeiliche Fallmeldungen das Falltypische kaum noch erfassten. Die Bemühungen um Standardisierung der Fallerfassung, die Tendenz EDV-gestützter Systeme und die zugrundeliegende Subsumtionslogik hätten dazu geführt, dass Auswertungserfolge (Fallzusammenführungen und das Erkennen von Se­ rien) kaum erfolgten. Im Zentrum dieser Erkenntnis stehe das sogenannte „Vertextungsproblem“. Es sei nämlich nicht gelungen, die oft „gestaltsicheren Wahrnehmungen der Polizeibeamten vor Ort“ in entsprechende Fallbeschreibungen zu überführen.39 Oevermann lässt in seinem Gutachten keinen 36  Schuster

(1983), S. 321–352. zum Forschungsprojekt „Empirische Untersuchung der tatsächlichen Abläufe im kriminalpolizeilichen Meldedienst und der an der Zusammenführung beteiligten Schlussprozesse – unter Berücksichtigung des Stellenwertes der EDV“ (Oevermann/Leidinger/Tykwer.unter Mitarbeit von Simm/Störmer) abgedruckt in: Oevermann/Leidinger/Tykwer/Simm/Störmer: Kriminalistische Datenerschließung. Zur Reform des Kriminalpolizeilichen Meldedienstes mit einem Beitrag von Harald Dern und dem Abschlussbericht der Fachkommission Kriminalpolizeilicher Meldedienst, Wiesbaden 1994, S. 121–266. – Siehe ferner Oevermann/Simm (1985), S. 129–437. 38  Dern (1998), S. 76. 39  Dern (1998), S. 76. 37  Abschlussbericht



II. Perseveranz-Hypothese und Reform des „KPMD“187

Zweifel daran, dass die Perseveranz-Hypothese wissenschaftlich unhaltbar ist. Er schreibt: „Der Streit um das Für und Wider in der Perseveranzlehre beruht auf einer falschen Problemstellung und sollte daher zugunsten einer neuen Problemsicht aufgegeben werden: Sofern unter Perseveranz die schematische Wiederholung äußerer Merkmale in der Deliktwahl und in der Begehungsweise (modus operandi) verstanden und dieses Verständnis zur Grundlage der Organisation kriminalistischer Arbeit gemacht wird, muss diese Lehre sowohl theoretisch wie empirisch als unhaltbar gelten.“40

Gleichzeitig wendet er sich scharf gegen die Verwendung „standardisierter, operationaler Indikatoren“ zur Verdachtschöpfung, warnt vor den „Standardisierungszwängen der EDV“. Sehr deutlich bezieht er eine Gegenposition zu der inzwischen ganz herrschenden Doktrin der Verdachtsgewinnung auf Indikatorenbasis. In dem Gutachten heißt es: „Was mit ‚Handschrift‘ des Täters zutreffend gemeint ist, erschließt sich jedoch nicht auf der Ebene standardisierter, operationaler Indikatoren oder Merkmale von Straftaten, sondern erst auf der Ebene der ‚latenten Sinnstruktur‘ einer Straftat, jener Ebene, die den konkreten kontext-spezifischen Sinn einer Strafhandlung als Einzelgestalt freigibt. Dazu ist es erforderlich, den Tathergang als ‚Spurentext‘ in seiner Eigenart der Lückenhaftigkeit anzuerkennen und zur Basis geregelter sinnauslegender, d. h. hermeneutischer Schlussfolgerungen zu machen.“41

Die Aufgabe des kriminalistischen Ermittlungsbeamten bestehe folglich darin, systematisch lückenhafte oder verzerrte „Texte“ mit Hilfe hermeneutischer Schlussverfahren zu vervollständigen. Der den „Spurentext“ lesende Kriminalist sei in ähnlicher Rolle wie der Arzt, der diagnostisch den „Symptomtext“ einer Erkrankung lese, oder der Kunsthistoriker, der ein unsigniertes oder gefälschtes Kunstwerk lesend zuordnen wolle.42 Das Hauptproblem, das „eigentliche Nadelöhr des KPMD“, wie er sich ausdrückt, sieht Oevermann in der „Übersetzung der gestaltfehlerlosen Wahrnehmung des ‚Spurentextes‘ am Tatort in einen sinnhomologen sprachlichen Text“.43 Mit der prägnanten „Versprachlichung des Spurentextes“, der „sprachlichen Umsetzung“, „Übersetzung“ und „Transformation durch Vertextung“ stehe und falle seiner Ansicht nach der Kriminalpolizeiliche Meldedienst.44 In ihrem Gutachten betonen Oevermann und seine Mitarbeiter mehrfach, dass durch die Zunahme der modernen Labortechniken und der ComputerTechnologie der eigentliche Kern der kriminalistischen Berufsarbeit an den 40  Oevermann/Leidinger/Tykwer/Simm/Störmer,

S. 128. S. 128–129. 42  Oevermann/Leidinger/Tykwer/Simm/Störmer, S. 128–129. 43  Oevermann/Leidinger/Tykwer/Simm/Störmer, S. 132. 44  Oevermann/Leidinger/Tykwer/Simm/Störmer, passim. 41  Oevermann/Leidinger/Tykwer/Simm/Störmer,

188

3. Kap.: Anzeichenloser Verdacht

Abbildung 15: Zur Umformung der Perseveranz-Hypothese nach Oevermann et al.45

Rand gedrückt zu werden drohe. Unmissverständlich geißelt Oevermann das, was er den „subsumtionslogischen Ansatz“ nennt, da dadurch im Verbund mit der sog. „Datenbank-Logik“46 eine Art „Taylorisierung von quali45  Oevermann/Leidinger/Tykwer/Simm/Störmer, 46  Oevermann/Leidinger/Tykwer/Simm/Störmer,

S. 95. S. 218.



II. Perseveranz-Hypothese und Reform des „KPMD“189

Abbildung 16: Lösungsansatz nach Oevermann et al.47

tativ verschiedenen ‚Ganzheiten‘ “ stattfinde. Datenbevorratung in riesigen Datenbanken allein sei letztlich kontraproduktiv, wenn wegen mangelnder Qualität der Vertextung nur zeitraubende, unergiebige und unstrukturierte Recherchen nach dem Schrotflintenprinzip möglich seien. Die berufspraktische Umsetzung der „Vertextung“ durch „logische Verschlagwortung“, also die Definition von „Katalogbegriffen“ und die routinemäßige EDV-Eingabe mithilfe eines Systems standardisierter Deskriptoren48, hält er unter dem Aspekt der „Gestaltprägnanz“ der Spurenvertextung für hochproblematisch, da dadurch die Meldetexte gewissermaßen „abmagerten“, systematisch Fehlschlüsse verursachten und dadurch die Ermittlungen fehllenkten. In regelmäßigen Sitzungen der sog. „Katalogredaktion“ schreiben Vertreter von kriminalpolizeilichen Dienststellen aus Bund und Ländern unter Vorsitz des Bundeskriminalamtes die Liste der „Katalogbegriffe“ zur Straf47  Oevermann/Leidinger/Tykwer/Simm/Störmer,

S. 97. in der Informatik für die inhaltliche Beschreibung eines (repräsentierten bzw. modellierten) Objekts; zum Teil auch „Verschlagwortung“ bzw. „Indexierung“ genannt. 48  Bezeichnung

190

3. Kap.: Anzeichenloser Verdacht

tatenerfassung fort. Die Praxis wird als „lernende Kataloge“ bezeichnet. Er empfiehlt sog. „Freitextfelder“ in den Datenerfassungsmasken, um so die Defizite und Deformationen des Spurentextes infolge standardisierter Fallerfassung und Vorgangsbearbeitung über ein Verfahren der kumulativen Thesaurierung von Suchbegriffen, also ergänzt durch „naturwüchsige“, „nicht mechanische“ Freitexte zumindest teilweise zu kompensieren.49 Insgesamt gibt er sich skeptisch ob der Wucht des Trends zur automatisierten Datenverarbeitung und der Informatisierung in den Polizeibehörden: „Die ursprüngliche Vermutung, dass durch die in sich außerordentlich zukunftsträchtige und für die Kriminalisten große Möglichkeiten der Informationsvernetzung bietende EDV die Gefahr sich verschärft, dass sich die Logik einer EDVgerechten standardisierten Sachverhaltserfassung und -bearbeitung verselbständigt und zur dominanten Handlungslogik in der kriminalistischen Berufsarbeit, und demgegenüber die ganz andere Möglichkeit, dass die technischen Möglichkeiten primär der Entlastung des denkenden Kriminalisten von mechanisierbarer Routine dienen, und die EDV zum Instrument in der Hand des prinzipiell selbständig Zusammenhänge erschließenden Beamten wird, hat sich leider insgesamt gesehen bestätigt.“50

Gerade erfahrenen Kriminalbeamten bereite die EDV-gerechte Verschlagwortungspraxis ein diffus bleibendes Unbehagen, da dadurch die grundsätzlich nicht substituierbare hermeneutische Komponente des Fallverstehens zunehmend in den Hintergrund trete. Der Kriminalist werde förmlich zum Zulieferer des EDV-Systems. Bei dieser Entwicklung komme zusätzlich eine Tendenz zum Tragen, die man verkürzt als „Metaphysik des Sachbeweises“ bezeichnen könne. Dahinter verberge sich ein Denken, das Objektivität der Erkenntnis nur den Naturwissenschaften zubillige und eigentlich ermittlungsrelevante Elemente von „Spurentexten“ nur in naturwissenschaftlich gesicherten, labortechnisch untermauerten Befunden sehe. Die Beurteilung einer Straftat auf der Grundlage „weicher“ Faktoren (subjektiver Sinn, Bedeutung, Motivierung) werde tunlichst solange vermieden, wie noch Hoffnung auf „harte“ Sachbeweise bestehe. Für eine derartige Sichtweise sei aber eine EDV-mäßige Informationserfassung und -verwaltung der natürliche Gegenpart.51 Dem Oevermann-Gutachten, so aktuell es in vieler Hinsicht bis heute sein mag, blieb eine nachhaltige Wirkung in der Praxis versagt. Die Gründe sind vielfältig: Rezeption des kybernetischen informationstheoretischen Intelligence-Ansatzes, Faszination der IT-Technik und Dynamik der Informati­ sierung, Dominanz der positivistischen bürokratischen Handlungs- und Subsumtionslogik und mangelnde Theorieakzeptanz – schließlich: schlichte 49  Oevermann/Leidinger/Tykwer/Simm/Störmer,

S. 221. S. 140–141. 51  Oevermann/Leidinger/Tykwer/Simm/Störmer, S. 141. 50  Oevermann/Leidinger/Tykwer/Simm/Störmer,



II. Perseveranz-Hypothese und Reform des „KPMD“191

Verständnisprobleme. Von letzteren blieben sogar theoriebewusstere Kriminalisten, die sich abstrakten Überlegungen grundsätzlich aufgeschlossen zeigten, nicht verschont. Am Ende blieb die Gesamtmaterie in der Praxis genauso ungeliebt wie die sperrigen Titel der einschlägigen Publikationen. So beklagt H. Walter Schmitz „terminologische Unklarheiten“ hinsichtlich des Begriffs der „Abduktion“ nach Charles S. Peirce, auf den Oevermann mehrfach verweist, und in Bezug auf den zentralen Begriff des „Spurentexts“: „Gewiß, die Vorstellungen, die kriminalistische Handlungslehre Oevermanns hierzu (Hypothesenbildung, Verdachtserzeugung, N. R.) enthält, dürften gemessen an den Anforderungen für große Bereiche unrealistisch, impraktikabel und sogar etwas sachfremd sein. Die wahren Probleme der Anwendbarkeit dieser Handlungslehre werden im Übrigen durch große terminologische Unklarheiten verdeckt. So wird an keiner Stelle hinreichend erklärt, was unter ‚Abduktion‘ verstanden werden soll und wie sich Schlüsse dieser Art zu den in der polizeilichen Praxis ohnehin verbreiteten Formen des Schlussfolgerns verhalten. Besonders verwirrend ist der uneinheitliche Gebrauch des ganz zentralen Ausdrucks ‚Spurentext‘.“52

Die Missverständnisse in Hinsicht auf das Verfahren des abduktiven Schlussfolgerns bestehen bis heute fort: So heißt es etwa im „KriminalistikLexikon“: „Abduktion, logischer Schluss in Form eines Syllogismus, bei dem von einem gesicherten Obersatz und einem wahrscheinlichen Untersatz auf eine wahrscheinliche Konklusion gefolgert wird“.53

Das Gegenteil ist der Fall. Mit „Abduktion“ meint Peirce gerade keinen Syllogismus mit gesichertem Obersatz – eine „spezifische Unsicherheit“ beherrscht den Obersatz. Daher hatte er das gesamte Unternehmen zunächst „Hypothese“ genannt. Ansgar Richter hat die Entwicklung des AbduktionsBegriffs bei Peirce ausführlich dargelegt: „Während Peirce in seinen Frühschriften den Begriff der Hypothesis, der später durch die Begriffe Retroduktion bzw. Abduktion ersetzt wird, noch unsystematisch, d. h. ohne feste Bindung an einen bestimmten Themenkomplex verwendet, führt er in den Lowell Lectures von 1865 / 66 unter diesem Namen ein eigenständiges, neben Deduktion und Induktion stehendes Schlusskonzept ein. (…) In den semiotischen Schriften gelangt Peirce zu einer Klassifikation der Abduktion als ein Argument, das selbst wiederum als Zeichen aufgefasst wird, und gegenüber den beiden anderen Argumenten Induktion und Deduktion durch seine spezifische Unsicherheit gekennzeichnet ist; trotzdem billigt er der Abduktion eine hohe ‚innovative Schlusskraft‘ zu, die er mit der Ikonizität zwischen Prämissen und Konklusion begründet.“54 52  Schmitz,

W., S. 70–71. I., S. 2. 54  Richter (1995), S. 167–169. 53  Wirth,

192

3. Kap.: Anzeichenloser Verdacht

Letztlich scheint es in der Tat jene „Metaphysik des Sachbeweises“ zu sein, von der Oevermann spricht, die dafür verantwortlich ist, dass die Impulse der objektiven Hermeneutik55 zur Erneuerung des polizeilichen Meldedienstes und des kriminalistischen Denkens, insbesondere hinsichtlich der Methodik der Verdachtschöpfung verpufften. Immer wieder werden in den kriminalistischen Lehrbüchern, Leitfäden und Grundrissen – bis heute – die „logischen Denkgesetze“56 beschworen. „Tatsachen“ werden hierbei als feste Entitäten im Sinne von facts & figures verstanden. Diese Überzeugung bestimmt seit den Anfängen der Kriminalistik das kriminalistische Denken und Handeln. Am konsequentesten hat der frühere Präsident des Bundeskriminalamtes Horst Herold die „Metaphysik des Sachbeweises“ vertreten und zugleich verkörpert. Sein Diktum zum künftigen IT-basierten Strafprozess hat Kriminalistik-Geschichte geschrieben: „Ich strebe einen Strafprozess, der – lassen Sie es mich so formulieren – frei ist von Zeugen und Sachverständigen. Der sich ausschließlich gründet auf dem wissenschaftlich nachprüfbaren, messbaren Sachbeweis. Nach meiner Theorie wäre, so schrecklich das klingt, auch der Richter entbehrlich.“57

Zu Recht erkennt Lea Hartung in dieser Äußerung des BKA-Präsidenten eine tiefsitzende sozialkybernetische Überzeugung, die bis heute nachwirkt und der methodologischen Aufarbeitung bedarf. Treffend umschreibt Hartung das kybernetische Projekt des ehemaligen BKA-Präsidenten: „Das ist der entscheidende, ja radikale, Punkt des Heroldschen Projekts: Die ‚mutative Neuartigkeit‘ der EDV voraussetzend, fordert Herold das Primat der Technik, die Angleichung der Polizei-Organisation an die Maschinen. Der tiefe Umbruch, der mit der EDV einhergeht, soll sich innerhalb der Polizei in drei Bereichen vollziehen: Von Grund auf verändert werden sollen erstens die Organisations-, zweitens die Arbeits- und drittens die Erkenntnisweisen. Auf der Ebene der Organisation ist Herold ganz auf der Höhe der damaligen Management-Theorie und fordert die Abkehr von der hierarchisch-linearen, einkanaligen Kommunikation und die Hinwendung zu ‚Aufgaben-Dezentralisierung und Autonomie im Sinne der Verantwortungsdelegation nach unten. Dies lässt sich für Herold nur unter kybernetischen Bedingungen der Informationsverarbeitung realisieren.“58

Lea Hartung stellt fest, dass die Bezeichnung „Kommissar Computer“ in der Öffentlichkeit sowohl für den Menschen Horst Herold, Präsident des 55  „Arbeitsgemeinschaft Objektive Hermeneutik e. V.“ (www.agoh.de; www.objek tivehermeneutik.de). 56  Berthel (2007), S. 736 unter Verweis (S. 737, FN 35) auf das „Gesetz vom zureichenden Grunde (lat. Lex rationis determinantis sive sufficientis): „Nach Leibniz sagt der Satz oder das Gesetz vom zureichenden Grunde, ,dass keine Tatsache als wahr oder existierend und keine Aussage als wahr betrachtet werden kann, ohne dass ein zureichender Grund vorhanden wäre, warum es so ist und nicht anders‘.“ 57  Herold (1980), S. 30. 58  Hartung, S. 26.



II. Perseveranz-Hypothese und Reform des „KPMD“193

Bundeskriminalamtes und Prototyp eines teilweise sozialkybernetisch argumentierenden Kriminalisten, als auch für seine Maschinen, die EDV-Anlagen, gebraucht wurde.59 Das „kybernetische Projekt“, von dem hier die Rede ist, ist bis heute eines des kriminalpolizeilichen Mainstream geblieben. Eine kritische Auseinandersetzung mit den Grundsätzen der Kybernetik steht bis heute aus. Auch Herold wird mehr als Modernisierer und Vordenker betrachtet, denn als Führungspersönlichkeit, deren Technikbegeisterung zumindest ambivalent war.60 Dass „Tatsachen“ eine diskursiv-kommunikative Substruktur besitzen, dass sie als „Fakten“ tatsächlich gemacht sind, passt nicht in das von Exaktheitspostulaten bestimmte Weltbild.61 Anders formuliert: Der diskursive Prozess des „Machens“, Fabrizierens und Konstruierens von Realität wird von der rationalistischen Methodenvorstellung nicht erfasst.62 Wir haben es hier mit dem Kontroll-Denken zu tun, das als rationalistischer Essentialismus bis zu Descartes zurückreicht.63 Descartes und alle, die ihm methodisch folgten und noch folgen, verfahren in der Begriffsbildung durchweg „dichotomisch“. Das Wort ist in der Pflanzenkunde geläufig und bedeutet, dass sich ein Pflanzenspross gabelt, die Hauptachse sich aufteilt in zwei gleich starke Nebenachsen. Ähnlich muss man sich die Verfahrensweise der cartesischen Methode64 vorstellen. Alles, was ist, wird exakt in zwei Teile zerteilt: res cogitans / res extensa, Innenwelt / Außenwelt, Subjekt / Objekt, gut / böse, innen / außen, klar / unklar, real / irreal. Die Dichotomisierung hat zum Ziel, präzise definierte Begriffe zu schaffen, um so eine begriffliche Logik zu ermöglichen – clare et distincte sollen die Begriffe sein, damit das Denken und die logischen Operationen nicht ge59  Hartung, S. 16: „Daraus erklärt sich das in der Presse wohl beliebteste Synonym Herolds: ‚Kommissar Computer‘. Bei Durchsicht der entsprechenden Artikel wird eine merkwürdige Ambivalenz sichtbar: Mal bezieht sich ‚Kommissar Computer‘ auf die von Herold eingeführte Technologie – mal bezeichnet er Horst Herold als Person.“ 60  Stephan/Baumann (2011), S. 81: „Seine mit Verve vorgetragenen Ansichten über Kriminalgeografie, Kybernetik, Polizeireformen und -ausrüstung, insbesondere aber über die elektronische Datenverarbeitung modernisierten nicht nur die Nürnberger Polizei, sondern führten Horst Herold auch zu einem neuen kriminalpolitischen Konzept, welches er selbst mit den Kernbegriffen ‚Fahnden und Forschen‘ umriss.“ 61  Geertz (1997), S. 76: „Oder vielleicht ist es nur so, dass einen die Anerkennung des Faktums, dass Fakten gemacht werden (wie uns schon die Etymologie – factum, factus, facere – lehren sollte), in die Art von mühseligem, gewundenem und nervös bewusstem Nachvollziehen stürzt“. 62  Berger/Luckmann: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M. 1993. – Für die Praxis der Strafrechtspflege Seibert (1991), S. 73–86. 63  Descartes: Abhandlung über die Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Wahrheitserforschung, Stuttgart 1993. 64  Blumenberg (1952), S. 133–142.

194

3. Kap.: Anzeichenloser Verdacht

stört werden. Entweder ist etwas das eine, oder es ist das andere. Aus der Inklusion im Wege der Definition folgt logisch die Exklusion des anderen – tertium non datur. Hans Blumenberg vermerkt hierzu: „Die cartesische Methode ist das Organon, mit dessen Hilfe sich das wissenschaftliche Denken der menschlichen Endlichkeit und der Befangenheit im Raum geschichtlich-faktischer Situationen zu entheben trachtet. Das historisch neue Pathos des Descartes liegt in dem Aufstand gegen die Geschichte als das immer schon Begonnene, allem Erkennen und Handeln Zuvorkommende (prévention) und dem dagegen gesetzten Anspruch auf einen unbedingten Anfang, einen reinen Ansatz. Nur dadurch wird der Mensch Herr seines Weges, dass er sich die Bedingungen seines Ausgangspunktes selbst bestimmt bzw. eindeutig rational verfügbar macht.“65

Die „Metaphysik des Sachbeweises“ kann tatsächlich als nachhaltiges Erbe rationalistischen dichotomischen Denkens begriffen werden. Das Ideal der exakten Denkgesetze, das in Kriminalistik-Kreisen beinahe selbst zum Denkgesetz erkoren wurde, erzwingt förmlich die exakte Definition von Begriffen. Nach dem Vorbild eines Kettenschlussverfahrens soll die Indi­ zienkette in sich schlüssig und geschlossen sein. Rolf Ackermann erteilt jeglichem spekulativen Denken eine klare Absage: „Kriminalistisches Denken ist ein intellektueller Prozess von vor allem logischkonsequentem Denken, der kriminalistischem Handeln vorausgehen und es ständig begleiten sollte, und dessen Maxime die Wahrheitsfindung ist. Logisch denken bedeutet dabei, folgerichtig, geschlossen und vernünftig denken. Die Fähigkeit zum logischen Denken ist eine der wesentlichsten Voraussetzungen, einen Sachverhalt kriminalistisch zu beurteilen. Also ein Denken nach den Gesetzen der Logik aus Vernunftgründen und damit eine Abwendung von Wunschdenken und Spekulationen.“66

Die Huldigung des „Sachbeweises“ ist, so gesehen, nicht nur ein Relikt eines überholten Evidenzglaubens, dass etwas so ist und nicht anders sein kann; es ist zugleich die Absolutsetzung eines auf die Aussagenlogik verengten „Logik“-Begriffs. Vorbild dieser Logik ist das Kettenschlussverfahren (lat. sorites), die schlüssige Verkettung von vordefinierten Aussagen. Diese Art des Denkens impliziert systematisch im Verlauf der Argumenta­ tionskette den Ausschluss der Möglichkeit des Andersseins, da dieses per se als unlogisch und daher unmöglich stets bereits ausgeschlossen ist. Letztlich haben die Widerstände und Vorbehalte gegen die theoretische Neuorientierung die Oberhand behalten: Das Schicksal des kritischen „Oevermann-Gutachtens“, das den Ansatz der methodologisch avancierten 65  Blumenberg 66  Ackermann,

Magulski, S. 2.

(1952), S. 139. S. 145, 148. – Siehe ferner das Standardwerk für Kriminalisten



III. Intelligence-led policing 195

Objektiven Hermeneutik67 zugrunde gelegt hatte, wirft auch ein Licht auf das hartnäckige Beharrungsvermögen bürokratischer Handlungsroutinen und die Begrenztheit der Reformfähigkeit polizeilicher Arbeitspraxis. Man kann den heftigen Meinungsstreit um die Reform des sog. KPMD – mit weitreichenden Folgen für die Methodik der Verdachtschöpfung – auch als Symptom für den untergründig stattfindenen Kampf verschiedener Denklogiken lesen: Auf der einen Seite das rationalistische Repräsentations- bzw. Kontrollparadigma, auf der anderen eine davon grundverschiedene Denkweise, die ohne exakte Begriffsdefinitionen auskommt und Unbestimmtheit, Vagheit und Mehrdeutigkeit zur Grundlage hat. In der Divergenz zwischen dem strukturalistisch-hermeutischen Denkansatz Ulrich Oevermanns und der hergebrachten kriminalistischen Denkweise spiegelt sich etwas von einem logischen Kulturkampf. Der Ansatz der „Objektiven Hermeneutik“, der heute noch vereinzelt in der Ausbildung zur Anwendung gebracht wird68, ist angesichts der überragenden Dominanz des heute vorherrschenden Ansatzes der systematischen Informationsverarbeitung aber im Übrigen praktisch bedeutungslos. Vereinzelt stechen theoriegeleitete Ansätze zur Hypothesenbildung auf der Grundlage der strukturalen Hermeneutik, der Gestaltheorie oder der Semiotik aus der Masse der kriminalistischen Mainstream-Darstellungen zur Intelligence-Doktrin heraus.69 Für die vorliegende Fragestellung, die Frage der Verdachtschöpfung ist dieser, inzwischen weitgehend zum Stillstand gekommene Seitenarm des Kriminalistik-Diskurses indessen von besonderer Bedeutung. Genau hier nämlich ergibt sich ein möglicher Übergang zu einer theoretischen Neuorientierung der sicherheitbehördlichen Verdachtschöpfungspraxis. Hier bestehen Anschlussmöglichkeiten zur „poststrukturalistischen“ Theorie-Diskussion.

III. Intelligence-led policing Wiederholt haben wir bis hierhin auf den überragenden Stellenwert des Intelligence-Ansatzes70 für die polizeiliche Auswertungspraxis hingewiesen. Der Ansatz ist in Deutschland, innerhalb der Europäischen Union – und 67  Oevermann/Allert/Konau/Krambeck (1979), S. 352–434. – Ferner Garz/Kraimer (Hrsg.), Die Welt als Text. Theorie, Kritik und Praxis der objektiven Hermeneutik, Frankfurt a. M. 1994; Oevermann (1993), S. 106–189. 68  Ley, S. 163–198. 69  Haas, H. (2003), S. 93–100. 70  Zum begriffsgeschichtlichen Zusammenhang mit der Praxis kriminalistischer „Intelligenz-Blätter“, Schilling (2000), S. 427: „Fahndungslisten, zunehmend differenzierte Steckbriefe und Beschreibungen der ‚aus dem Lande verwiesenen Vaganten und Verbrecher‘ wurden hier abgedruckt, aber auch Belohnungen für die Denunziation von Delinquenten und die Einbringung von Vaganten ausgeschrieben. Selbst

196

3. Kap.: Anzeichenloser Verdacht

darüber hinaus – inzwischen ganz herrschend. Grundlegend für die Etablierung des Ansatzes innerhalb der EU war auch das sog. Haager Programm vom 5. November 2004, das die Methodik des sog. „Intelligence-led policing“71 zum Standard für Ermittlungsbehörden auf EU-Ebene erhoben hat. In der Folge hat sich der Intelligence-Ansatz reflexartig im EU-Rahmen verbreitet und ist heute Grundlage einer Vielzahl von Konzeptionen der Kriminalitätsbekämpfung.72 Nachhaltig beeinflusst wurde die Entwicklung zudem durch die internationale polizeiliche Zusammenarbeit im Verlauf des Aufbaus von Europol als europäische Auswertungszentrale der Polizeien. Nach Ansicht des amerikanische Polizeiforschers Jerry H. Ratcliffe ist „Intelligence-led policing“ gewissermaßen die „letzte Welle“ einer breiten Bewegung zur Modernisierung der Polizeiarbeit im 21. Jahrhundert. Dadurch sei die Polizei smarter geworden: Sie könne ihre Fähigkeiten und ihre einzigartige Rolle als Ordnungsmacht besser zum Ausdruck bringen. „Intelligence-led policing“ umfasse als analytisches Modell auch Aspekte des sog. „Problem-oriented bzw. Pro-active policing“. Als zukunftsorientierter, explizit strategischer Ansatz versinnbildliche Intelligence-led policing am besten den grundlegenden Wandel des Polizeihandelns im Bereich der Kriminalitätskontrolle. In Großbritannien sei der Ansatz als National Intelligence Model seit 2004 gesetzlich verankert. Er werde zugrundegelegt in den USA, Australien und Neuseeland. Bereits 2002 habe sich die Internationale Vereinigung der Chefs der Polizeien (International Association of Chiefs of Police) dafür ausgesprochen.73 Die Meldungen über erfolgreiche Festnahmen fanden sich gelegentlich in Intelligenzblättern.“ 71  Tilley, Nick: Problem-oriented policing, Intelligence Policing, and the National Intelligence Model, London 2003; Sheptycki (2004), S. 307–332; Peterson, Marilyn: Intelligence-led policing: the new intelligence architecture, Washington D. C. 2005; Macvean/Grieve/Phillips (Hrsg.), The Handbook of Intelligent Policing. Consilience, Crime Control, and Community Safety, Oxford 2008; Maguire/John, S. 67–95. 72  Rat der Europäischen Union: Haager Programm zur Stärkung von Freiheit, Sicherheit und Recht in der Europäischen Union, Dokument vom 13. Dezember 2004, 16054/04 JAI 559, Brüssel 2004. Es existieren so inzwischen EU-Dokumente mit (Muster-) Konzeptionen zu „Crime Control“, „Crowd Control“, „Border Control“, „Riot Control“ etc. – Ferner für das zivile Krisenmanagement Lauffer/Hamacher: In Control. A Practical Guide for Civilian Experts working in Crisis Management Missions. 2nd Edition, Berlin 2014. 73  Ratcliffe (2008), S. 4: „Most recently, intelligence-led policing has become the latest wave in modern policing: ‚intelligence-led policing does not re-imagine the police role so much as it re-imagines how the police can be ,smarter‘ in the exercise of their unique authority and capacities. (…) As one of the latest analysis-driven models, intelligence-led policing has commonalities with problem-oriented policing and targeted, proactive policing. These strategies attempt to be ,strategic, future-



III. Intelligence-led policing 197

Abbildung 17: Security Solutions nach P. Munday et al.74

strategische Wende in der bundesdeutschen Polizei ist daher nicht nur das Ergebnis der Rezeption kybernetisch fundierter Managementtheorien, sondern sie geht ebenso auf den nachhaltigen Einfluss des europaweit und international weit verbreiteten Intelligence-Diskurses zurück.75 Was heißt Intelligence? Das Wort ist – besonders wegen der Bedeutungsvielfalt im Englischen – nur schwer ins Deutsche zu übertragen. Man könnte es im vorliegenden Kontext mit „Erkenntnis“ übersetzen. So wäre von „erkenntnisgeleiteter Polizeiarbeit“ zu sprechen, wenn von „Intelligence-led policing“ die Rede ist. Dafür spricht, dass der Ausdruck „polizeiliche Eroriented and targeted‘ in their approach to crime control and are more than just catchy phrases; they are representative of a significant and widespread change in the business of policing. Intelligence-led policing has become a significant movement in policing in the twenty-first century.“ 74  Munday/Pakenham/Nicoll/Haine/Rinkineva/Jaarva/Johnson/Waller, S. 25. 75  Daun (2005), S. 136–149.

198

3. Kap.: Anzeichenloser Verdacht

kenntnis“ im polizeilichen Sprachgebrauch geläufig ist. Andererseits ist die Praxis der „pro-aktiven“ Verdachtschöpfung heute vor allem durch massiven Einsatz IT-technischer Mittel charakterisiert. Zum Teil wird daher auch von „wissensbasierter bzw. IT-gestützter Polizeiarbeit“ gesprochen, wodurch deutlicher die Technikbasierung zum Ausdruck kommt.76 Aus sozialwissenschaftlicher Sicht wird kritisiert, dass der Gesamtansatz – gleichviel ob man von „Intelligence-led policing“ oder „Knowledge-based policing“ spricht – die Induktionslogik und Grundsätze des Wissensmanagements der Informatik zugrundelegt.77 Das Wort „Intelligence“ ist ein bemerkenswertes kulturelles Wanderwort. Seit Mitte des 20. Jahrhunderts hat es seinen Siegeszug rund um den Globus angetreten. Als Vater der Intelligence-Methodik gilt der amerikanische CIA-Mitarbeiter Sherman Kent, dessen Werk Strategic Intelligence for American World Policy aus dem Jahre 1949 Maßstäbe im Intelligence-Diskurs gesetzt hat.78 Der von Kent propagierte Ansatz, der einer systematischen Informationssammlung und -verarbeitung das Wort redet, ist im Grunde bis heute wirksam und vorherrschend.79 Sein Buch wurde zum Klassiker der Intelligence-Literatur; mehrere Auflagen und Übersetzungen in andere Sprachen sorgten für eine außerordentliche Verbreitung und Wirkungsmacht des Intelligence-Konzepts. Hatte Kent damit ursprünglich die Aufgabe von Nachrichtendiensten beschrieben, so wurde daraus bald ein übergreifendes, universelles Konzept. Jegliche Auswertungsaufgabe in Staat, Wissenschaft und Wirtschaft wurde fortan als „Intelligence“ bezeichnet. Eine untergründige Rolle spielte dabei offenbar, die Mitte des 20. Jahrhunderts Furore machende und sich als Universalwissenschaft anbietende Kybernetik.80 Aus „Intelligence“ im nachrichtendienstlichen Sinne wurde so Criminal Intelligence in der Kriminalistik, Artificial Intelligence in den Ingenieurwissenschaften und Business Intelligence81 in 76  Williamson, Tom (Hrsg.), Handbook of Knowledge Based Policing, Current Conceptions und Future Directions, Chichester 2008. 77  Davis, S. 28: „The scholarship is unable to provide a widely accepted definition for intelligence-led policing. Managerial doctrines, de-emphasising rehabilita­ tion and preferring incapacitation, may increase the coercion-related intelligence hypothesis. These hypotheses may be the outcomes of the weaker types of inductive reasoning, since intelligence-led policing uses only actual, rather than hypothesized, events for profilings. There are also issues of public police thics, and of undue political interference, possibly affecting intelligence hypotheses.“ 78  Kent, Sherman: Strategic Intelligence for American World Policy, Princeton, NJ 1949. 79  Olcott, S.  21–31. – Zur aktuellen Intelligence-Diskussion Andrew/Aldrich/ Wark (Hrsg.), Secret Intelligence. A Reader, London 2009. 80  Blash, S. 55–68. 81  Kritisch zur Praxis sog. Private Intelligence Companies und zunehmenden Privatisierungsdynamiken in der Sicherheitsproduktion von Boemcken, S. 41–46.



III. Intelligence-led policing 199

der Managementlehre.82 Die Rezeption des Intelligence-Ansatzes durch die Polizei geht auf die 1990er Jahre zurück. Carsten Meywirth, Mitarbeiter im Bundeskriminalamt, weist in seinem Beitrag in der Fachzeitschrift Kriminalistik aus dem Jahre 1998 darauf hin, dass Deutschland seit 1996 ebenfalls über ein Intelligence-Konzept, verfüge.83 Das Konzept, dessen Ursprünge in den Vereinigten Staaten lägen, sei eine Art „Auswertephilosophie, die sich an der Informationsverarbeitungstheorie orientiert“.84 Die am häufigsten gebrauchte Definition in den USA, so Meywirth, stamme aus einer Veröffentlichung des Jahres 1971. Danach sei Intelligence das Endprodukt eines komplexen Prozesses, der in bestimmtem Umfang physikalischer, immer aber intellektueller Art sei. Das Intelligence-Produkt sei sehr oft eine Art „informiertes Votum“. Der Prozess, der dieses Votum, Beschreibungen oder Fakten hervorbringe, werde „Intelligence-Prozess“ („Intelligence Cycle“) genannt. Der Prozess umfasse die Sammlung, Ordnung und Speicherung von Daten sowie die Verteilung entsprechend erarbeiteter Auswertungsprodukte.85 Man unterscheide 10 verschiedene Phasen im Verlauf des Informationsverarbeitungsprozesses:  (1) Zielbildung   (2) Informationssuche und Informationssammlung  (3) Informationsaufnahme  (4) Informationsordnung  (5) Informationsspeicherung   (6) Informationsanalyse (Auswertung im e. S.)   (7) Informationsbewertung / Schlussfolgerungen / Prognose  (8) Ergebnisdarstellung  (9) Ergebnisweitergabe (10) Evaluation und Rückkopplung 82  Tunnell, James E.: Latest Intelligence. An International Directory of Codes Used by Government, Law Enforcement, Military, and Surveillance Agencies, Blue Ridge Summit 1990. – Zur angelsächsischen Intelligence-Forschung Clark, Ransom J.: The Literature of Intelligence. A Bibliography of Materials, with Essays, Reviews, and Comments, New Concord 2009. 83  Harfield/Ratcliffe (Hrsg.), Strategic Thinking in Criminal Intelligence. 2nd Edition, Sydney 2009. 84  Meywirth, S. 343. 85  Meywirth, S. 343: „Intelligence is the end product of a complex process, some­ thing physical and always intellectual. The end product is most often an informed judgement. The process which generates these judgements, descriptions, facts, near facts is called the intelligence process. The process includes the collection of data, the collation (or combining and storage) of data, the evaluation and analysis of the collected or stored data, and the dissemination of the analyses and evaluated material.“

200

3. Kap.: Anzeichenloser Verdacht

Heinz Büchler, mitverantwortlich für die theoretische Neukonzeption einer „kriminalstrategischen Auswertung“ im Bundeskriminalamt, definiert diese bündig als „die zielorientierte Sammlung / Erhebung, Ordnung und Speicherung, Analyse und Bewertung sowie die Ergebnisdarstellung, -weitergabe und -umsetzung“.86 Davon zu unterscheiden sei die „Auswertung i. e. S.“, auch „Informationsanalyse“ genannt. Dabei handele es sich um einen Teilprozess, der sich in den Formen der „Abstraktion, Verdichtung, Abgleichung, Aggregation, Selektion, Zusammenführung“ vollziehe.87 Unterstrichen wird, dass der Schritt „Evaluation und Rückkopplung“ hinsichtlich der erzielten Wirkungen zwingend erforderlich sei, um eine „Erfolgskontrolle“ zu ermöglichen.88 Für die Erstellung „bestimmter standardisierter Auswertungsprodukte“ und die „kriminalistisch exakte Deutung der (zumindest i. Z. m. komplexen) Ermittlungsverfahren anfallenden Masseninformationen“ werden feste „aufgabenbezogene Verantwortlichkeiten“ für sinnvoll gehalten, um so dem Ziel einen entscheidenden Schritt näher zu kommen, nämlich „der Auswertung ein Initiativrecht in dem komplexen Prozess der Kriminalitätskontrolle einzuräumen“.89 In den Spezialdienststellen zur Bekämpfung von Organisierter Kriminalität hatte man sich schon seit Beginn der 1990er Jahre die bei Europol und im Ausland übliche Intelligence-Terminologie zu Eigen gemacht. Robert Mischkowitz umreißt den Ansatz als „strukturierte EDV-gestützte Informationsverarbeitung als Grundlage für eine kriminalpolizeiliche Auswertung“. Den kriminalistischen Mehrwert und die verschiedenen Varianten dieser Methodik beschreibt er so: „Erfolgreiche OK-Bekämpfung setzt eine qualifizierte und proaktive Informationsbeschaffung und Auswertung voraus (…) für die mittlerweile auch im Deutschen der Begriff der intelligence beziehungsweise intelligence-Arbeit verwandt wird. (…) Während die taktische intelligence-Arbeit als diejenige intelligence-Arbeit definiert wird, die direkt zur Erreichung eines Strafverfolgungszieles führt, existieren bezüglich der Definition der strategischen intelligence-Arbeit unterschied­ liche Vorstellungen. Gleichwohl besteht ein gewisser Konsens dahingehend, dass unter strategischer intelligence-Arbeit die Sammlung, Aufbereitung und Analyse von allgemeinen Hintergrundinformationen zur Darstellung von Kriminalitätsmustern, -trends, -vorhersagen verstanden wird. Strategische intelligence-Arbeit trägt

86  Büchler/Meywirth/Kalscher/Vogt: Kriminalpolizeiliche Auswertung. Bestandsaufnahme und konzeptionelle Überlegungen zur kriminalpolizeilichen Auswertung, Bundeskriminalamt Wiesbaden 1996; Büchler/Meywirth/Vogt (1997), S. 242–246; Büchler/Schneider (1999), S. 463–469. 87  Büchler/Meywirth/Vogt (1997), S. 244. 88  Meywirth, S. 343–344. 89  Meywirth, S. 348.



III. Intelligence-led policing 201 demzufolge dazu bei, ein sachlich begründetes Urteil über die längerfristigen Ziele der Strafverfolgung zu gewinnen.“90

Jerry H. Ratcliffe sieht in der sog. „Mustererkennung“ (engl. „pattern recognition“)91 das primäre Ziel des Ansatzes. Zur Anwendung des Konzepts sei es zunächst erforderlich, die Risiken einer Organisation oder eines Gemeinwesens zu bestimmen. Hierbei müsse besonderer Wert auf eine „präemptive“ („preemptive“) bzw. „pro-aktive“ („proactive“) Risikoidentifikation gelegt werden. Pro-aktivität erfordere die Antizipation von Verbrechen. Daher bräuchten Strafverfolgungsbehörden notwendig die Fähigkeit zur Vorhersagbarkeit („predictability“) von kriminellem Verhalten. Diese Vorhersagbarkeit wiederum sei nur erreichbar über die Identifikation von „Mustern“ („pattern“). „Mustererkennung“ sei daher das Hauptziel des Intelligence-Prozesses. Die Aufgabe von operativen Einsatzdienststellen und solchen, die für Kriminalprävention verantwortlich seien, sei es, die Anzahl der festgestellen „Muster“ zu reduzieren. Darüber hinaus könnten „Muster“ auch genutzt werden als Grundlage für die Definition von Prioritäten und für die weitere Intelligence- und Präventions-Arbeit. „Muster“ seien insofern ein Synonym für weitergehende Aktivitäten.92

Abbildung 18: Pattern recognition nach J. H. Ratcliffe (2009)93 90  Mischkowitz,

S. 15–16. leitet sich offenbar der in der deutschen Kriminalistik geläufige Ausdruck der „Struktur-Ermittlungen“ ab. 92  Ratcliffe (2009), S. 2: „Pattern recognition is therefore the aim of the intelligence process, while reduction in observable patterns is the aim of operational units and crime prevention agencies. Patterns can be used as a foundation for dictating priorities for enforcement, further intelligence gathering, and prevention and are synonymous with action.“ 93  Ratcliffe (2009), S. 2. 91  Daher

202

3. Kap.: Anzeichenloser Verdacht

Die Beschreibung der Vorgehensweise durch Ratcliffe ist mustergültig: Intelligence-Arbeit funktioniert hiernach über einen strukturierten Informationsverarbeitungsprozess, der die („pro-aktive“) Prognose von kriminellem Verhalten zum Ziel hat. Die aus den Datenanalysen herausgefilterten abstrakten Fahndungsraster und Kriminalitätsmuster („patterns“) sollen als Indikatoren bei der frühzeitigen Erkennung von Straftaten helfen. Intellektuelle Gedankenarbeit, Hypothesenbildung und kriminalistische Hermeneutik sollen so maschinell unterstützt werden; Ziel ist es, ein umfassendes Lagebild von Kriminalitätsbrennpunkten („Hot spots“) zu bekommen, ein „größeres Bild“ („bigger picture“), wie es in der Praxis heißt.94 Dies ist indessen nur die Oberfläche des Diskurses – die grobe Beschreibung des schrittweisen Vorgehens der Polizei bei der IT-gestützten Informationsverarbeitung mit dem Ziel der kriminalstrategischen Auswertung. Wesentlich ist, dass die polizeiliche Auswertung und Analyse in der Praxis heute in Form einer „Mensch-Maschine-Interaktion“ abläuft. Neben der unverzichtbaren, vernetzten IT-Infrastruktur (Hardware) spielt der spezifische Programmcode (Software), welcher jeweils bei der Verarbeitung großer Datenmengen zur Anwendung kommt, eine Hauptrolle. Der viel beschworene „kriminalistische Spürsinn“ ist hierbei auf eine eigentümlich abstrakte Art und Weise als eine Art „geronnener Geist“ (Max Weber) bereits vorher im Wege der software-technischen Modellierung in den Programmcode einer Intelligence-Software überführt worden. Zur Unterstützung der IT-gestützen polizeilichen Auswertung haben Programmierer – zusammen mit Polizeiexperten – spezielle IT-Lösungen bzw. Software-Tools (sog. „Intelligence Services“) entwickelt. Es handelt sich dabei um Algorithmen bzw. Anwendungen, die eine gezielte Massendatenverarbeitung, Visualisierung und Datenanalyse unterstützen. Das expandierende Forschungsgebiet, das sich die Entwicklung von IT-Werkzeugen zur Datenvisualisierung und Datenanalyse zum Ziel gesetzt hat, heißt „Predictive Visual Analytics“.95 Es ist wichtig sich diesen Zusammenhang, das Zusammenspiel zwischen Maschine und Mensch, die Auslagerung bzw. (Vor-)Verlagerung polizeilichen Denkens in die vernetzte IT-Infrastruktur, zu vergegenwärtigen. Erst dann wird sichtbar, in welchem Umfang sich die polizeiliche Verdachtschöpfungspraxis durch Mitwirkung von „Kommissar Computer“ tatsächlich verwandelt hat. Aus verfügbaren Datenbeständen unterschiedlichster Art wird so „Wissen“ (im IT-technischen Sinne) generiert, das dem polizeilichen Praktiker als Entscheidungshilfe dienen soll.96 Die Polizei setzt solche 94  Ratcliffe

(2009), S. 3.

95  El-Assady/Jentner/Stein/Fischer/Schreck/Keim,

S. 1–4. IT-technischen Jargon heißen semi- und vollautomatische Analysesysteme „KDD-Systeme“ („Knowledge Discovery and Data Mining“). 96  Im



III. Intelligence-led policing 203

Abbildung 19: Exemplarische Ontologie97

Anwendungen, insbesondere zum Beispiel zur Verfolgung der Kinderpornografie erfolgreich ein. Da auch potenzielle Attentäter von den neuen technischen Möglichkeiten, insbesondere dem Internet, Gebrauch machen, um unentdeckt kriminelle Operationen zu planen und vorzubereiten, wird die Nutzung solcher Software-Instrumente auch zur Terrorismusabwehr für unverzichtbar gehalten. Ohne den Einsatz von intelligenten Analyse- und Fremdsprachen-Werkzeugen (beispielsweise zur crosslingualen Informa­ tionsaufdeckung), Musteranalyse-Werkzeuge zur Aufdeckung und Abbildung von verdächtigen Tätersignaturen aus Textquellen sowie vorausschauende Modellierungswerkzeuge blieben die gesetzlichen Grundlagen – wird argumentiert – ohne die gewünschte Wirkung.98 Durch den Einsatz von Intelligence Services wird eine Früherkennung verdächtiger Muster angestrebt. Es ist aufschlussreich, sich den „Systembau“ bzw. das Design und die Entwicklung solcher Expertensysteme näher zu vergegenwärtigen: Melanie Kwiatkowski, Stefanie Höhfeld und Ina Kradepohl haben den Einsatz der IRSoftware „Convera RetrievalWare“ exemplarisch auf die Eignung zur Terrorismusabwehr untersucht. Die Herausforderung bestehe – so die Autorinnen – insbesondere im Umgang mit der stetig wachsenden Informationsflut. Sie weisen darauf hin, dass die Informationswissenschaften grundsätzlich zwischen „Informationsmanagement“ und „Wissensmanagement“ unterscheiden. Das „Informationsmanagement“ umfasse im Einzelnen

nach Kwiatkowski/Höhfeld/Kradepohl, S. 253. S. 247 unter Verweis auf Popp/Armour/Senator/Numrych, S. 36–43. 97  Zitiert

98  Kwiatkowski/Höhfeld/Kradepohl,

204

3. Kap.: Anzeichenloser Verdacht

„das Sammeln, Aufnehmen, Indexieren, Speichern, Durchsuchen, Extrahieren Integrieren, Analysieren, Aggregieren, Ausgeben und Distributieren von Informationen aus einem breiten Spektrum an Informationsquellen.“99

Im Unterschied dazu verstehe man unter „Wissensmanagement“ (im informationswissenschaftlichen Sinne) die spezifische Modellierung von bestimmten Wissensbereichen (sog. „Wissensdomänen“). Im Hinblick auf die Konzeption und Nutzung von IR-Softwarelösungen im Bereich der Terrorismusabwehr sei daher die Wissensdomäne „Terrorismus“ mithilfe einer entsprechenden „Ontologie“ abzubilden.100 „Ontologien“ im informationswissenschaftlichen Sinne sind formal definierte Systeme von „Konzepten“ und „Beziehungen“ (mit sog. „Inferenz- und Integritätsregeln“) als Mittel zur Wirklichkeitsmodellierung. Mithilfe einer „Ontologie“ wird ein bestimmter Wissensbereich strukturiert. Hierbei geht es darum, bestimmte kontextuelle Zusammenhänge in einer Wissensdomäne sprachlich „nachzubauen“. Eine „Ontologie“ besteht daher aus eindeutigen Benennungen und Begriffsbeziehungen, um die Maschinenlesbarkeit zu gewährleisten. Entwickelt werden „Taxonomien“, „Thesauri“ und sog. „Semantische Netze“.101 Diese sind semantisch konsistent, d. h. widerspruchsfrei, konstruiert, um Mehrdeutigkeiten zu verhindern. Ein „Thesaurus“ dient als eine Art „Dokumentationssprache“ zur systematischen Sacherschließung und Recherchehilfe. In der DIN-Norm 1463 / 1 wird er definiert als „eine geordnete Zusammenstellung von Begriffen und ihren (vorwiegend natürlichsprachigen) Bezeichnungen, die in einem Dokumentationsgebiet zum Indexieren, Speichern und Wiederauffinden dient.“102

Ein Thesaurus ist – anders als Taxonomien – nicht streng hierarchisch konstruiert, sondern ermöglicht die Abbildung vielfältiger „assoziativer Beziehungen“ zwischen Begriffen, einschließlich sog. „Äquivalenzrelationen“ (Abkürzungen, Quasi-Synonyme, Übersetzungen etc.). Innerhalb eines so konstruierten Begriffsnetzes heißen die verwendeten eindeutigen Bezeichnungen „Deskriptoren“. Über „Deskriptoren“, die einem Dokument bzw. Datenbestand im Wege der Indexierung eindeutig zugewiesen sind, kann der Inhalt von Datenbeständen durch Suchanfragen erschlossen werden. Fortgeschrittene IR-Systeme verfügen über verschiedene Komponenten und Hilfswerkzeuge, um das Informations- und Wissensmanagement auch im Wirkbetrieb zu optimieren. Mithilfe eines integrierten Editors können so neue 99  Kwiatkowski/Höhfeld/Kradepohl,

S. 248. S. 249. 101  In der Programmierungspraxis werden zur Erstellung von „Ontologien“, „Thesauri“ und „Semantischen Netzen“ besondere Programmiersprachen, sog. „Wissensrepräsentationssprachen“ (z. B. RDF, DAML + OIL, OWL), eingesetzt, siehe Mika/ Akkermans, S. 317–345. 102  Kwiatkowski/Höhfeld/Kradepohl, S. 253. 100  Kwiatkowski/Höhfeld/Kradepohl,



III. Intelligence-led policing 205

Thesauri kreiert und ausgewählte Datensätze in ihren Beziehungen visualisiert werden. Dabei wird die Stärke einer Beziehungsrelation zwischen bestimmten Objekten standardmäßig in drei Relationen abgebildet: − „Related Term“ (RT, d. h. Synonym; ähnlicher, verwandter Begriff); − „Broader Term“ (BT, d. h. Oberbegriff; weiter o. entfernter Begriff) und − „Narrower Term“ (NT, d. h. Unterbegriff; enger o. naher Begriff).103 Zur Verwaltung der indexierten Daten und ihrer Relationen nutzen IRSysteme leistungsfähige Datenbanken (z. B. Oracle, MS SQL). Die Systeme ermöglichen inzwischen auch den problemlosen Import, d. h. die Integration von standardisiert entwickelten „fremden“ Thesauri, um eine abgebildete Wissensdomäne zu kombinieren bzw. individuell zu gestalten. Hierfür gilt ein „Standard Thesaurus Wirtschaft (STW)“, der allerdings nicht mehr als 1000 Deskriptoren auf der obersten Hierarchieebene eines Thesaurus zulässt.104 Kwiatkowski, Höhfeld und Kradepohl betonen die Mächtigkeit von Intelligence Services, gerade auch im Hinblick auf künftige Anwendungen der Internetfilterung: „Schnell werden bei näherer Betrachtung der semantischen Ansätze deren immenses Potenzial für den Einsatz bei der thematischen E-Mail- und Webseiten-Überwachung sichtbar. Der Einsatz solcher Modelle wird in Zukunft in den Bereichen, in denen Information Retrieval auf höherem Niveau betrieben werden soll, unerlässlich sein. Die einzelnen semantischen Ansätze unterscheiden sich hauptsächlich in der Komplexität der in ihnen erfassbaren Beziehungsgeflechte.“105

Insbesondere zur Terrorismusabwehr wird neuerdings daher versucht, sog. „unscharfe Ontologien“ auf der Grundlage der Fuzzy-Logik zu entwickeln, um unstrukturierte Daten besser verarbeiten zu können.106 Zu diesem Zweck hat die Universität Berkeley eine Forschungsprojekt initiiert, in dem ungenaue Wörter in präzise Wörter „übersetzt“ und mehrdeutige Konzepte Stück für Stück durch die Integration präziser Begriffe ausdifferenziert und voneinander abgegrenzt werden. Das geplante Computersystem, welches insbe103  Kwiatkowski/Höhfeld/Kradepohl, 104  Kwiatkowski/Höhfeld/Kradepohl,

S. 256. S. 254–255 unter Hinweis auf ISO 5964,

1985 und ISO 2788, 1986. 105  Kwiatkowski/Höhfeld/Kradepohl, S. 254. – In der polizeilichen Praxis sind z. B. folgende Intelligence-Anwendungen: The Analyst’s Notebook der Fa. i2 (www. i2group.com); COPS (Communication Profiling System) der Fa. Plath (www.plath. de); MapInfo Crime Profiler der Fa. Pitney Bowes (www.pbinsight.com); rsCase der Fa. Rola (www.rola.de); GIS for Intelligence-led policing der Fa. ESRI (www.esri. com). 106  Zadeh: Web Intelligence, World Knowledge and Fuzzy Logic – The Concept of Web IQ (WIQ), Knowledge-Based Intelligent Information and Engineering Systems: Proceedings oft he 8th International Conference (Part I), New Zealand (September 2004). Lecture Notes in Computer Science 2004, Vol. 3213, S. 1–5.

206

3. Kap.: Anzeichenloser Verdacht

sondere zur Terrorismusprävention konzipiert wird und dem eine dezentrale IT-Infrastruktur mit Text-, Stimmen- und Bilddatenbank angeschlossen ist, soll Internetseiten, E-Mails, Chats und autorisierte (multilinguale) Abhörinformationen verarbeiten können, um verdächtige Verhaltensmuster identifizieren und potenzielle terroristische Aktivitäten, die nach Art und Schwere gerankt werden, frühzeitig zu erkennen und sodann Alarm zu geben.107 In der Bundesrepublik wurde die IT-Infrastruktur der Sicherheitsbehörden in den zurückliegenden Jahren gezielt ausgebaut. Die polizeilichen IT-Systeme wurden kontinuierlich an den zu erwartenden hohen Datendurchsatz und die Anforderungen der Massendatenverarbeitung angepasst. Heute sind alle relevanten polizeilichen und nachrichtendienstlichen Datenbanken technisch vernetzt. Augenfällig wird dies in Deutschland am Beispiel der Antiterrordateien zur Bekämpfung des islamistischen Terrorismus und des Rechtsterrorismus.108 Die Schaffung einer gemeinsamen und technisch interoperablen „Informationsarchitektur“ im Sicherheitsbereich ist in Reichweite gerückt.109 Innerhalb der Polizei haben automatisierte Verfahren der „intelligenten Datenrecherche“ inzwischen weithin Konjunktur. In Form von Open SourceSuchmaschinen, IT-Auswertungstools oder spezieller Intelligence-Software finden sie mehr und mehr Eingang in die Praxis. Private Sicherheitsanbieter haben ihre Marketingstrategien angepasst und bieten praxisnahe Tools, zum Beispiel spezifische Software für das Monitoring von Online-Kommunika­ tion oder das Screening von sog. „Risikopopulationen“, an.110

IV. „… wie Schießen im Dunkeln“ Objektive Hermeneutik und die – versuchte – KPMD-Reform waren im Rückblick nur ein kurzes Intermezzo. In gewissem Sinne ist das Fachgutachten Ulrich Oevermanns zur Reform des Kriminalpolizeilichen Melde107  Kwiatkowski/Höhfeld/Kradepohl,

S. 250. „Gesetz zur Errichtung einer standardisierten zentralen Datei von Polizeibehörden und Nachrichtendiensten von Bund und Ländern zur Bekämpfung gewaltbezogenenn Rechtsterrorismus (Rechtsextremismus-Datei-Gesetz – RED-G)“ vom 20. August 2012 (BGBl I. S. 1798), kritisch Arzt, Clemens (2014) zu § 1 REDG, Vorbemerkungen: „Das Gesetz ist im Wesentlichen dem Gesetz zur Errichtung einer standardisierten zentralen Antiterrordatei von Polizeibehörden und Nachrichtendiensten von Bund und Ländern (Antiterrordateigesetz – ATDG) nachgebildet. Dies geht so weit, dass selbst die Gesetzgebungsbegründung es bei einem Austausch der Zielrichtung belässt, ansonsten aber regelmäßig wortidentisch mit der der zum ATDG ist; wobei sogar inhaltliche Fehler aus dessen Begründung an mehreren Stellen ohne Korrektur übernommen wurden. Gesetzgebungskunst sieht anders aus.“ 109  Lange, H.-J. (2000), S. 29–49. 110  Etwa „Open Source Intelligence OSINT 3.0. Das innovative System für Sicherheitsbehörden zur Risikofrüherkennung“ (www.riskworkers.de). 108  Zum



IV. „… wie Schießen im Dunkeln“207

dienstes mit Lyotards Streitschrift zum „Postmodernen Wissen“ vergleichbar: Beide haben „Staub aufgewirbelt“, blieben aber in weiten, sehr wesentlichen Teilen unverstanden und daher großenteils folgenlos. Was das Oevermann-Gutachten betrifft, so war es offenbar auch inakzeptabel angesichts der Funktionslogik einer mehr und mehr EDV-gestützten polizeilichen Arbeitspraxis. Die Logik und Methodik der pro-aktiven Verdachtschöpfung ist heute in weiten Teilen eine Art „angewandte Informatik der strategischen Kontrolle und Frühwarnsysteme“. Mithilfe von Hochleistungsrechnern innerhalb vernetzter IT-Infrastrukturen und zentraler Datenhaltungen (Data Warehouses)111 können innerhalb kürzester Zeit relevante Daten abgeglichen und auf Muster untersucht werden. Verdachtsgewinnung stellt sich damit beim näheren Hinsehen – zumindest teilweise – als hochindustrielles Verfahren dar, eine Art sukzessive Raffination von Rohdaten. Genau darin – in der sukzessiven Verdachtsanreicherung, der „Quasi-Veredelung“ von Daten – besteht nach Ansicht des Direktors von Europol auch die genuine Aufgabe des Europäischen Polizeiamtes. Er zeigt sich überzeugt, dass hierin künftig die Hauptaufgabe polizeilicher Zentralstellen bestehe. Hierfür aber bedürfe es einer umfassenden „Informationsbasis“: „Information ist der Rohstoff polizeilicher Arbeit. Ohne die richtige und zeitgerechte Information kann der Polizeibeamte nicht die öffentliche Sicherheit und Ordnung aufrechterhalten, Straftaten verhüten und Kriminalität erfolgreich bekämpfen. (…) Ziel und Zweck internationaler polizeilicher Zentralstellen wie Europol muss es also sein, Informationen und Intelligence zeitnah, auf sicherem Weg und umfassend für Ermittlungen nationaler Dienststellen zur Verfügung zu stellen.“112

Die Hauptaufgabe von Europol bestehe daher darin, „Informationsgewinnung, -übermittlung, -veredelung und -umsetzung“ als optimale Leistungen anzubieten. Dafür sei die Leistungsfähigkeit des Nachrichtensystems ein wesentliches Kriterium. Europol stelle den ermittlungsführenden Dienststellen der Mitgliedstaaten daher heute Informationen aus allen rechtlich zulässigen Quellen zur Verfügung. Verbindungsbeamte aus den verschiedenen EU-Mitgliedstaaten recherchierten online in den polizeilichen, zollrecht­ lichen und teilweise sogar verwaltungstechnischen Dateien. Informationsgewinnung finde zusätzlich zu staatlichen Dateien in offen zugänglichen Informationsquellen wie elektronische Register, Pressedienste und Internet statt. Multiperspektivität und behördenübergreifendes Agieren stellt er als besondere Vorteile im Hinblick auf den Intelligence-Prozess heraus: „Mit den unterschiedlichen Betrachtungsweisen von Zoll, Kriminalpolizei, Finanzpolizei und so weiter werden diese Informationen bei Europol bewertet und dann 111  Steria

Mummert Consulting, S. 16. (2000), S. 93–94.

112  Storbeck

208

3. Kap.: Anzeichenloser Verdacht

quasi ‚veredelt‘ den sachbearbeitenden nationalen Dienststellen zur Verfügung gestellt.“113

Dementsprechend stellt Europol in seiner veröffentlichten Methodendarstellung114 das Konzept des „Informationsmanagements“ als allgemeinen Rahmen seiner Tätigkeit („general framework for Europol“) heraus. Seit der Inkraftsetzung des sog. „European Criminal Intelligence Model (ECIM)“ im Haager Programm erstelle Europol seine Produkte nach den Grundsätzen des Intelligence-led policing-Konzepts.115 Garant für die Qualitätskontrolle der Auswertungsprodukte seien – so die Eigendarstellung – standardisierte Verfahren und ein konsequentes „Information handling“. Die Informationsverarbeitung sei nach Art eines Informationskreislaufs („information management cycle“) organisiert. Dieser Prozess umfasse Sammlung, Bewertung, Ordnung, Analyse und die anschließende Weitergabe der verbesserten Informationsprodukte („enhanced (information) product“) an die Ermittlungsdienststellen der Mitgliedstaaten. Informationsmanagement sei ein Prozess, der auf „Rohinformationen“ („raw information“) über Verbrechen, Ereignisse, Täter, verdächtige Personen usw. beruhe. Ziel sei es, vorliegende Basisinformationen für die Zwecke zu verbessern, um so Ermittlungsdienststellen und Ermittler mit bisher „unbekanntem Wissen“ auszustatten. Das Informationsmanagement führe so zu einer Art „anwendungsorientiertem Informationsdesign“.116 Insofern sei „Informationsaustausch“ das Kerngeschäft von Europol und Hauptwerkzeug zur Verfolgung und „Ausmerzung organisierter Kriminalität“.117 Die Darstellung enthüllt, dass die Intelligence-Arbeit sehr stark von der informationswissenschaftlichen Terminologie dominiert wird. Kriminologische, sozio-kulturelle, sprachwissenschaftliche und erkenntnistheoretische Aspekte spielen im Verarbeitungsprozess von Informationen zu konkreten Kriminalitätsphänomenen so gut wie keine Rolle. Der Ansatz des „Informationsdesigns“, auf den hier rekurriert wird, geht auf Arbeiten des US-amerikanischen Forschers Robert E. Horn zurück. Auch er betrifft vornehmlich 113  Storbeck

(2000), S. 94. (2005), S. 4–5. 115  Zur Bedrohungsanalyse („OCTA-Organized Crime Threat Assessment“) Europol (2007), S. 5: „The OCTA is a core product of the intelligence-led policing concept and its drafting is one of Europol’s top priorities. (…) The OCTA marks a new approach to the way in which Europol and the Member States will think and operate in the future and its first step to change of paradigm in policing.“ 116  Europol (2005), S. 5: „Information management provides a clear picture that is normally unknown to the investigating authorities and is intended to be used to enhance the efforts of law-enforcement investigatiors: it is ,information designed for action‘.“ 117  Europol (2005), S. 5: „The exchange of enhanced information is the core business of Europol; it provides support to law-enforcement efforts and is a fundamental tool in the investigation and eradication of organized criminality.“ 114  Europol



IV. „… wie Schießen im Dunkeln“209

Abbildung 20: Intelligence-Arbeit bei Europol (Auszug aus dem Jahresbericht 2006)118

technische Aspekte, Fragen des Grafikdesigns und die effektive Präsentation von Informationen. Im Vordergrund stehen Benutzerfreundlichkeit (engl. usability), Verständlichkeit und Zweckmäßigkeit von Darstellungsformen. Als Begründer der Information-Mapping-Technik hat sich Horn schwerpunktmäßig mit visuellen, piktographischen Elementen von Informationsarbeit im weitesten Sinne befasst. Informationsdesign ist mithin eine Form der „technischen Kommunikation“.119 Über die groben Ausführungen zum Informationsmanagment und Informationsdesign hinaus ist die Methodendarstellung von Europol wenig ergiebig. Sie gelangt kaum über die Beschreibung des Informationskreislaufs hinaus. In konzeptioneller Hinsicht ist die Auswertungspraxis von Europol damit wenig transparent. Blinder Fleck des Informa­ tionsverarbeitungsprozesses ist die „Inhaltsanalyse“ im engeren Sinne. Das ist derjenige Teilprozess, den Heinz Büchler mit „Abstraktion, Verdichtung, Abgleichung, Aggregation, Selektion, Zusammenführung“ umschrieben hatte. Doch, was ist damit gemeint? Insbesondere in der Aufbauphase hat der australische Intelligence-Experte Don McDowell Europols Analyse-Konzept maßgeblich mitbestimmt.120 Seine systematische Darstel118  Europol

(2007a), S. 18. Robert E.: Mapping Hypertext: Analysis, Linkage and Display of Knowledge for the next Generation of On-Line Text and Graphics, Lexington 1989. 120  McDowell, Don: Strategic Intelligence. A Handbook for Practioners, Managers, and Users. Revised Edition, Lanham, Maryland 2009. 119  Horn,

210

3. Kap.: Anzeichenloser Verdacht

lung des Intelligence-Prozesses ist betont praxisorientiert, beschränkt sich dabei aber über weite Strecken auf die ermüdende Darstellung der guten Praxis eines strukturierten Information handling.121 Problematisch ist hierbei zweierlei: Einmal impliziert „Informationsdesign“ eine Fokussierung und Reduktion auf das Syntaktische, d. h. semantisch-kontextuelle und pragmatische Aspekte der Datenanalyse werden, wenn überhaupt, nur beiläufig berücksichtigt – oder, was schlimmer ist, gehen im Verlauf der Standardisierungsarbeit verloren. Für eine inhaltliche Auseinandersetzung mit Kriminalitätsphänomenen und abweichendem Verhalten im weitesten Sinne bedarf es aber eines erweiterten Bezugsrahmens, um abweichende soziale Verhaltensmuster – bis hin zur organisierten Kriminalität, „verstehen“ zu können. Gefordert ist hier ein angemesseneres Modell der menschlichen Kommunikation und Interaktion.122 Mit anderen Worten: Erforderlich ist eine „Kriminalistische Handlungslehre“123 bzw. „Polizeiliche Handlungstheorie“124, die nicht nur Teilaspekte betrachtet, sondern das Polizeihandeln als Symbolhandeln in demokratischen Gesellschaften in seiner Gesamtheit reflektiert. Dieses teilweise von der Polizei selbst geforderte und forcierte Projekt einer Verwissenschaftlichung praktischen Polizeihandelns ist nach wie vor unvollendet.125 Innerhalb des bis dato existierenden verengten informationstheoretischen Bezugsystems, das „Informationsmanagement“ zum primären Handlungsziel und die strikte Einhaltung von sog. Handling Codes zur conditio sine qua non erfolgreicher Auswertung erklärt, ist ein „Verstehen“, eine ganzheitliche Analyse vorliegender polizeilicher Erkenntnisse im Sinne einer Betrachtung der Genese von Daten und Fakten sowie deren mögliche Wirkungen, kaum möglich. Zum Zweiten – darauf hatte bereits Ulrich Oevermann hingewiesen – entwertet der Intelligence-Ansatz in seiner derzeitigen theoretischen und praktischen Ausgestaltung systematisch die kriminalistische und polizeiliche (Gedanken-)Arbeit. Die Rolle des qualifizierten Kriminalisten und Polizeibeamten beschränkt sich in wachsendem Maße auf die geschickte Anwendung eines oder mehrerer IT-Systeme, wobei zu den Handlungsroutinen zum Teil auch Datenerfassung und IT-Support gehören. Unter dem Druck der Datenflut gerät Sicherheitspersonal mehr und mehr zum Garanten der 121  McDowell (2009), Vorwort: „This textbook is extremely easy to read, with short chapters and including many diagrams and charts. This allows the reader to follow the intelligence cycle from how information becomes intelligence and what is done with it once it is received.“ 122  Matza, David: Abweichendes Verhalten. Untersuchungen zur Genese abweichender Identität, Heidelberg 1973. 123  Brisach (1992), S. 167–197. 124  Kniesel (1989/90), S. 88–96. 125  Lange, H.-J. (2003), S. 427–453.



IV. „… wie Schießen im Dunkeln“211

Funktionsfähigkeit teilautonom arbeitender IT-Systeme.126 Die negativen Auswirkungen auf die Profession des Kriminalisten scheinen vielen nicht bewusst, die in den Auswertungsdienststellen der Faszination und Blendwirkung der neuen IT-technischen Möglichkeiten zur Datenaufbereitung erliegen. Die Überbetonung der Standardisierung von Informationen, um so Maschinenlesbarkeit und damit den Einsatz von Analyse-Tools, letztlich eine „automatisierte Erkenntnisgewinnung“ zu ermöglichen, hat in der Praxis eine enorme Personal- und Ressourcenbindung zur Folge. Hinzukommt, dass Formalisierung und Codierung zugleich Kreativitätsverlust, ja so etwas wie „Innovationsunlust“ erzeugen. Der französische Sozialforscher Pierre Bourdieu zeigt unzweideutig die Schwächen einer solchen Strategie auf: „Kodifizieren heißt, mit dem Verschwommenen, Vagen, mit den unzulänglich gezogenen Grenzen und unscharfen Trennlinien Schluss zu machen und eindeutige Klassen zu schaffen, klare Schnitte zu vollziehen, um unzweideutige Grenzen zu ziehen – auf die Gefahr hin, jene Person auszustoßen, die weder Fisch noch Fleisch. (…) Kodifiziert werden die Dinge klarer, einfacher, mitteilbarer; Kodifizierung macht einen kontrollierten Konsens über den Sinn, einen homologein, möglich: man ist sicher, dass den Wörtern derselbe Sinn beigelegt wird. Nach Saussure ist der sprachliche Kode das, was Sender und Empfänger erlaubt, denselben Sinn mit demselben Laut zu verbinden. (…) Eine der Stärken (und zugleich Schwächen) der Formalisierung liegt darin, dass sie – wie jede Rationalisierung – einem erspart, sich Neues ausdenken, improvisieren, schöpferisch tätig sein zu müssen.“127

Genau dieses aber – „sich Neues ausdenken, improvisieren, schöpferisch tätig sein“ – ist offenbar Mangelware, glaubt man dem stellvertretenden Europol-Direktor. Zur neuen Rolle Europols bei der Bekämpfung des internationalen Terrorismus nach Inkrafttreten des Lissabon-Vertrages128 bemerkt dieser: „Es ist ein bisschen wie Schießen im Dunkeln“.129 Man verfüge nicht über zu wenig, sondern über zu viele Informationen. Das Problem 126  Europol (2007a), S. 15–16, 18: „Europol employs 100 intelligence analysts. Almost all of them were involved in analytical support to investigations within the Member States by analysis work files (AWFs). (…) In 2006 a new innovative tool for analysis, Overall Analysis System for Intelligence and Support (OASIS), was developed. Certain elements were successfully implemented in 2006 and other parts will be implemented during the first part of 2007. OASIS is an information repository that incudes text and data mining facilities, workflow management, and interface possibilities. It will further enhance Europol’s support to Member States.“ 127  Bourdieu (1987a), S. 106–107. 128  Vertrag von Lissabon 1. Dezember 2009 (Abl. 2007/C 306/01, zuletzt bekannt gemacht durch Abdruck der konsolidierten Textfassungen in ABL. 2010/C 83/01 und ABl. 2010/C 84/01). 129  Driessen, Thomas: The new Competences of Europol for the Internal Security in Europe, in: Proceedings 13th European Police Congress February 02–03, 2010, Berlin 2010: „… it is a little bit like shooting in the dark.“

212

3. Kap.: Anzeichenloser Verdacht

Abbildung 21: Rollen- und Ressourcenmodell im Rahmen der Informationsarchitektur Innere Sicherheit130

seien nicht Ermittlung und Fallaufklärung nach spektakulären Anschlägen, sondern das Fehlen einer Strategie, um vorhandene Datenmengen im Vorfeld sinnvoll durchdringen und so Attentate antizipieren und verhindern zu können. Der stellvertretende Direktor von Europol steht nicht allein mit seinem Vergleich. Andere Stimmen aus der Praxis der Sicherheitsbehörden sprechen vom „Stochern im Nebel“, von der sprichwörtlichen Suche nach einer Stecknadel im Heuhaufen. Vielen scheint sich das Gesetz vom Grenznutzen zu bestätigen: Statt die Suche nach „Gefährdern“, „Schläfern“ und „international agierenden gewaltbereiten Störern“ zu erleichtern, vergrößere man mit der ständig wachsenden, zu verarbeitenden Datenmenge gleichsam nur den Heuhaufen. Experten für analytische Vorfeldarbeit, Ermittlungvorbereitung, Aktenführung, Auswertung, Lagebilderstellung und Berichtswesen sind indes nicht unbegrenzt verfügbar. Im Gegenteil: Qualifizierte Kräfte bei Polizei und Nachrichtendiensten sind knapp. Datensammeln, -ordnen und -bevorraten, zum Beispiel das längerfristige Speichern zu prä130  Bundesministerium des Innern in Zusammenarbeit mit dem Kompetenzzentrum Vorgangsbearbeitung, Prozesse und Organisation (CCVBPO) des Bundesverwaltungsamtes (2005), S. 17.



IV. „… wie Schießen im Dunkeln“213

ventiven Zwecken, wird für die Beschäftigten im Sicherheitsbereich zum Dauerstress.131 Für die Zukunft sieht die sog. „Zukunftsgruppe“ („Future Group), eine hochrangige Expertengruppe der Europäischen Union, eine Verschlimmerung der Situation voraus. Der rasante soziale Wandel, die Wucht der Informatisierung, verändere Polizei- bzw. Sicherheitsarbeit, die mehr und mehr auf IT-gestützte Arbeit umstelle, grundlegend. In ihrem Abschlussbericht zur Zukunft der öffentlichen Sicherheit in der EU aus dem Jahre 2008 spricht die Gruppe von einem „Daten-Tsunami“, der auf die Mitgliedsstaaten der EU zurolle. „Information“ indes, davon zeigt sich die Expertengruppe überzeugt, sei der Schlüssel, so, um die Öffentlichkeit in der mehr und mehr vernetzten Welt zu schützen, In dieser Welt hätten die für die öffentliche Sicherheit verantwortlichen Behörden fast grenzenlosen Zugang zu poten­ ziell nützlichen Informationen. Die Herausforderung bestehe nun darin, dass die verantwortlichen Stellen Art und Weise ihrer Arbeit so umstellten („transform the way they work“), dass sie in der Lage seien, den „DatenTsunami“ zu bewältigen. Information müsse in Erkenntnis umgewandelt werden, um sichere, offene und resiliente Gemeinwesen zu schaffen.132 Eine Untersuchung zur absehbaren IT-Entwicklung innerhalb von Polizeibehörden in EU-Mitgliedstaaten (sog. COMPOSITE-Studie) aus dem Jahre 2011 bestätigt das Bild. Die Studie stützt sich auf Ergebnisse einer Dokumentenanalyse und Experteninterviews zu laufenden und geplanten Projekten in der Informations- und Kommunikationstechnik (IKT) von 10 europäi­ schen Staaten. Gleichzeitig wurden Technologieanbieter im Bereich IKT interviewed. Für die europäische Polizeiarbeit benennt der Bericht Haupttrends im Bereich IKT („major trends in ICT for European policing“): − Integration von Datensystemen für die Intelligence-Arbeit („integration of intelligence data systems“) 131  Aus praxisnaher Perspektive Storbeck (2009), S. 161–62: „Wir stehen also vor dem Problem, dass einerseits mit großem personellem, technischem und finanziellem Aufwand Informationen gesammelt und zu Intelligence verarbeitet werden, um sie einer Vielzahl von nationalen und internationalen ‚Kunden‘ für Entscheidungen und Maßnahmen zur Verfügung zu stellen, dass andererseits aber klare Intelligencestrukturen fehlen und mangels eines regelmäßigen, zeitgerechten Informationsaustauschs die notwendigen Daten nur sehr unvollständig den nationalen Nachrichtendiensten und ihren internationalen gemeinsamen Einrichtungen und Arbeitsgruppen vorliegen. Dass sich daraus Doppelarbeit und damit eine Vergeudung von Ressourcen ergibt, ist wohl noch das geringere Problem. Schwerer wiegt, dass sich aus dem gänzlichen oder partiellen Fehlen von Informationen Fehleinschätzungen ergeben und es so im weiteren Verlauf zu falschen Entscheidungen sowie mit erheblichen Mängeln behafteten Strategien, Konzepten und Maßnahmen kommt.“ 132  Future Group, S. 43: „turn it into intelligence that produces safe, open and resilient communities“.

214

3. Kap.: Anzeichenloser Verdacht

− Einführung mobiler IT-Geräte („adoption of mobile computing“) − Einsatz von Videoüberwachung („use of video suveillance technologies“) − Anwendung biometrischer Verfahren („application of digital biometrics“) Die Studie wendet sich ferner den übergreifenden Fragen zu, insbesondere der Frage der Benutzerakzeptanz und der Herausforderung, die mit der Nutzung von Sozialen Netzwerken verbunden ist.133 Die rasante Entwicklung im IKT-Bereich habe – wie es in der Studie heißt – einen sehr wesentlichen Einfluss auf die künftige Polizeiarbeit. Die technologischen Innovationen hätten das organisatorische Umfeld schlagartig verändert. Für die Polizei sei die Informations- und Kommunikationstechnologie in doppelter Hinsicht bedeutsam: Einerseits könnten neue Technologien die Arbeit der Polizei unterstützen; andererseits aber würden dadurch neue Gelegenheiten für Übeltäter geschaffen, um Straftaten zu begehen. Der revolutionäre so­ ziale Wandel habe daher ambitionierte Modernisierungssprogramme für die Polizeiorganisationen in Europa in Gang gesetzt. Ziel sei es, die herkömmliche Polizeiarbeit zu rationalisieren („triggered ambitious change programmes aiming at modernising and rationalising the way police work is conducted“). Das Gesicht der Polizei werde sich dadurch fundamental ändern. Der extensive Gebrauch von IKT-Anwendungen führe in der Konsequenz nicht nur zu einer technischen Innovation, um die Arbeit der Polizei einfacher und effizienter zu machen. Die technologischen Innovationen verwandelten die Polizeiorganisationen und ihr Umfeld insgesamt, heißt es in der Studie. Der Einsatz von IKT-Anwendungen durch die Polizei unterliege engen gesetzlichen Regelungen. Und doch könne sie weit über das hinausgehen, was dem „Normalbürger“ erlaubt sei. Entwicklung und Gebrauch von IKT würden so zu delikaten Problemfeldern.134 Auf internationaler und supranationaler Ebene ist die Entwicklung zum „Daten-Tsunami“ schon heute sichtbar. Die Vernetzung nationaler und internationaler Datenbanken ist ein stabiler Trend. Ziel ist es, den Datenverkehr auf der Grundlage standardisierter Schnittstellen und logischer bzw. semantischer Interoperabilität reibungslos zu gestalten, um den „Informationsaustausch“ zwischen allen relevanten Sicherheitsbehörden – auch grenzüberschreitend – vereinfachen und beschleunigen zu können. So fordert eine 133  Zu den Ergebnissen des Projekts „COMPOSITE – Comparative Police Studies in the EU“), siehe COMPOSITE Project (2011), S. 2. 134  COMPOSITE Project (2011), S. 4–6: „The face of the police slowly changes in a fundamental manner. (…) The extended use of ICT turns out to be more than just a technical innovation to make police work easier and more efficient. Technological innovations change the organisation and its environment in various ways. ICT in the police is closely regulated by laws, yet may go way beyond what is allowed for the ,normal citizen‘. ICT use and design thus become delicate issues.“



IV. „… wie Schießen im Dunkeln“215

EU-weite Bestandsaufnahme zum Forschungsbedarf im Sicherheitsbereich den Ausbau der informationellen Zusammenarbeit im Bereich der Forensik und Kriminaltechnik. Forensik nehme bei der Informationsbeschaffung durch Europol eine Schlüsselstellung ein. Nach der Ausweitung des Mandats von Europol im Januar 2002 auf sämtliche Formen schwerer internatio­ naler Kriminalität sei daher konsequenterweise eine „Forensik ohne Grenzen“ erforderlich.135 Martin H. W. Möllers hat darauf hingewiesen, dass eine Fülle von Verfahren für die automatische Datenübertragung an Europol entwickelt und eingerichtet worden sind. Ermöglichten bisher bereits das Schengener-Informations-System (SIS) und die Fingerabdruckdatenbank für Asylbewerber (EURODAC) einen intensiven Datenaustausch, so seien mit dem sog. „Stockholmer Programm“ weitere Vernetzungsvorhaben geplant. Gleichzeitig werde die Zusammenarbeit mit Transitländern ausgebaut und der Datenverkehr mit Drittstaaten erweitert, wie etwa beim sog. SWIFTAbkommen.136 Bedenklich sei hierbei die Überlagerung der Aufgabenfelder von Militär, Polizei, Grenzschutz und Geheimdiensten. Grundsätzlich bestehe die Gefahr, dass zunehmend schnelle Lösungen gesucht würden, die dazu führten, immer mehr Zugeständnisse hinsichtlich des Datenschutzes und der persönlichen Freiheit zu machen.137 Auch nach Einschätzung von Kurt Graulich wird sich der grenzüberschreitende Datenverkehr mit Europol erheblich ausweiten und beschleunigen. Eine Ursache sieht er in der neuen „interoperablen Kommunikationsplattform SIENA“, die für den Datenverkehr zwischen Europol und den Mitgliedstaaten genutzt werden könne.138 Graulich weist darauf hin, dass auf der Grundlage des sog. „Prümer Vertrags“ aus dem Jahre 2005 bereits ein automatisierter Datenaustausch von DNA-Daten, Fingerabdruckdaten und Daten aus Kraftfahrzeugregistern zwischen allen Mitgliedstaaten der EU möglich ist. Während im Falle der Kfz-Registerdaten der volle Online-Zugriff im „Lesen“-Modus ermöglicht 135  Europäische Kommission: Europäische Forschung in Aktion. Forensische Wissenschaft. Bekämpfung von Betrug und Verbrechen, Brüssel 2004, S. 5. 136  Möllers, R. (2011), S. 205: „Neben EUROPOL und Eurojust kooperiert Frontex eng mit weiteren Gemeinschafts- und EU-Partnereinrichtungen, die für die innere Sicherheit zuständig sind, wie die Europäische Polizeiakademie (EPA) und OLAF. Über EUROPOL will die EU-Kommission eine ‚strukturierte Zusammenarbeit zwischen den nationalen Einwanderungsdiensten, dem Grenzschutz, der Polizei und anderen Strafverfolgungsbehörden‘ einführen, die auch ‚den Austausch nachrichtendienstlicher Daten einschließen soll‘. Erwünscht ist die verbesserte Koordinierung für die Behörden bzw. Agenturen EUROPOL, Eurojust, Frontex, die EPA, die Lissabonner Drogenbeobachtungsstelle (EBDD), das Europäische Unterstützungsbüro für Asylfragen und die Agentur für Grundrechte (FRA). Es werden Verfahren für die automatische Datenübertragung an EUROPOL entwickelt und eingerichtet.“ 137  Möllers, R. (2011), S. 207. 138  Graulich (2014) zu § 2 BKAG, Rdnr. 15.

216

3. Kap.: Anzeichenloser Verdacht

werde, erfolge bei DNA- und Fingerabdruckdaten der Zugriff auf anonymisierte Index-Datenbanken im so genannten Hit / No-Hit-Verfahren.139 Im Trefferfall werde so zunächst eine Kennziffer für weitere Anfragen übermittelt. Der Vertrag enthalte zusätzlich Regelungen über den Austausch von Informationen über „terroristische Gefährder“ in Eilfällen.140 Nicht nur Europol selbst, sondern auch das Bundeskriminalamt als „Nationale Stelle“ von Europol hat einen grundlegenden Wandlungsprozess hinter sich. Die ehemals „zentrale Kriminalpolizeibehörde“141 in Deutschland habe sich im Verlauf der technologischen Transformation zur „multifunktionellen Intelligence-Behörde“142 gewandelt, wie Anicee Abbühl nach einer Untersuchung zum veränderten Aufgabenprofil des Amtes feststellt. Als Zentralstelle obliegt ihr primär die pro-aktive IT-basierte Verdachtschöpfung.143 Nur zentrale Polizeibehörden verfügen regelmäßig zum ganz überwiegenden Teil über die erforderlichen Mittel (IT-Infrastruktur, Datenbestände, Spezial-Software, Analysepersonal) und können so – zum Teil gemeinsam mit anderen – besondere Auswertungsbereiche betreiben, in denen systematisch Intelligence-Produkte erstellt werden. Die zwischenzeitlich eingerichteten behördenübergreifenden Netzwerkorganisationen, wie etwa GTAZ und GETZ, fungieren gewissermaßen als „Außenposten“ der verschiedenen Zentralstellen. In Bezug auf Europol und das Bundeskriminalamt spricht Kurt Graulich von einer Art „Mischamt“, wo sog. „Mischdateien“144 verwaltet würden. Diese Konstruktion sei nicht unproblematisch, da bei jedem vorgenommenem Datenabgleich der datenschutzrechtliche Grundsatz der Zweckbindung betroffen sei. Um als zentrale Drehscheibe und Netzknoten für den internationalen Datenverkehr agieren zu können, sei eine einzigartige IT-Infrastruktur aufgebaut worden. Eindrucksvoll umschreibt ein IT-Dienstleister den Umfang des Informationsaustauschs und die Fülle der Datenbeziehungen, die das Bundeskriminalamt unterhält: „Schon jetzt ist das BKA Anlaufstelle für die Polizei und Behörden anderer Länder. Allein als deutsche Interpol- und Europol-Zentralstelle ist das BKA für die 139  Zum Datenaustausch mit den USA, insbesondere des Hit-/No Hit-Zugriffs auf Fingerabdruck- und DNA-Datenbank auf der Grundlage des deutsch-amerikanischen Regierungsabkommens über die Vertiefung der Zusammenarbeit bei der Verhinderung und Bekämpfung schwerwiegender Kriminalität vom 1. Oktober 2008 (BGBl 2009 I, Nr. 59), siehe Stentzel, S. 137–148. 140  Graulich (2014) zu § 64 BPolG, Rdnr. 2. 141  Klink, S. 553. 142  Abbühl, S.  353 ff. 143  Europol, Bundeskriminalamt, Zollkriminalamt, Landeskriminalämter bzw. GTAZ, GASIM, NCAZ. – Dazu Storbeck (1997), S. 93–105. 144  Graulich zu § 7 BKAG, Rdnr. 28 (unter Verweis auf Zöller (2002), S. 158 ff.).



V. „Predictive Policing“?217 Kommunikation mit weltweit rund 5000 Kontaktstellen zuständig; im Rahmen des Schengener Abkommens tauscht es Daten mit etwa 400 Behörden und Polizeidienststellen aus. Mit der Einführung des neuen Schengener-Informationssystems (SIS II) und des Vertrags von Prüm, der die internationale Zusammenarbeit bei der Verfolgung von Straftaten verbessern soll, rollt eine neue Welle von Daten und IT-Aufgaben heran.“145

Die Übertragung der genuinen (Vorfeld-)Aufgabe der „Gefahrenvorsorge“ im Rahmen der Anti-Terror-Gesetzgebung (§ 4a BKAG) im Jahre 2008 hat zudem en passant nicht unwesentlich zur Spartenintegration von Kriminalund Schutzpolizei beigetragen. Aus der „kriminalstrategischen Wende“ im Kriminalistik-Diskurs, die lange um Fragen der kriminalistischen Vorfeldaufklärung und Früherkennung kreiste146, ist so unversehens eine polizeistrategische geworden. Polizeistrategisch stellt sich die Frage des Umgangs mit dem anrollenden „Daten-Tsunami“ – nichtzuletzt aus Ressourcengründen – mit aller Schärfe. So rügt selbst das Bundeskriminalamt „den mit der Datenrecherche verbundenden erheblichen materiellen und personellen Aufwand“147 im Zusammenhang mit der Anwendung des sog. SWIFT-Abkommens.148

V. „Predictive Policing“? Ein erfolgreicher Intelligence-Prozess setze, hatte Jerry H. Ratcliffe betont, Mustererkennung (pattern recognition) und Vorhersagbarkeit (predictability) von kriminellem Verhalten voraus. Beide bedingen einander: Ohne im Vorfeld identifizierte Muster, die in Form von Suchalgorithmen („Prädiktoren“) 145  Eriksdotter,

S. 33. (2007), S. 732–737, der „proaktives und prognostisch-strategisches Handeln als Grundvoraussetzung für eine erfolgreiche Kriminalitätsbekämpfung“ fordert (S. 734). 147  SPIEGEL Online vom 02. Januar 2010: Umstrittenes Swift-Abkommen. BKA hält Bankdaten-Transfer in die USA für unsinnig. 148  In dem SWIFT-Abkommen sichert die Europäische Union den Vereinigten Staaten von Amerika zu, Bankdaten auf Anfrage zu übermitteln, um mutmaßlichen Terroristen auf die Spur zu kommen, vgl. EU-US Joint Statement on „Enhancing transatlantic cooperation in the area of Justice, Freedom and Security“ vom November 2009 (www.se2009.eu). SWIFT (Society for Worldwide Interbank Financial Telecommunication) bezeichnet ein Nachrichten- und Transaktionsnetz für den internationalen Zahlungsverkehr. Das gleichnamige Unternehmen mit Sitz in Belgien vertritt über 8000 Banken, Zentralbanken, Finanzunternehmen, Börsenhändler und Investment-Manager in 207 Ländern. Über sein Rechenzentrum werden täglich mehr als 15 Millionen Transaktionen in einem geschätzten Wert von sechs Billionen Dollar abgewickelt (www.swift.com). – Aus Datenschutzgründen hat die EU Rechenzentren zwischenzeitlich aus dem Ausland nach Europa (Holland, Schweiz) verlegt, um den unberechtigten Zugriff auf innereuropäische Daten zu erschweren, dazu Hempel (2011), S. 213–234. 146  Berthel

218

3. Kap.: Anzeichenloser Verdacht

Abbildung 22: KDD-Prozess nach Fayyad149

gewissermaßen den „kriminalistischen Spürsinn“ im System verkörpern, können keine Treffer produziert werden. In gewissem Sinne kehrt in Gestalt der „Prädiktoren“ die Signalement-Lehre wieder, diesmal als perfektionierter Programm-Code, der maschinenlesbar ist. „Treffer“ im Sinne dieser neuen Kunstsprache sind je nach Anlage und Komplexitätsgrad des informationswissenschaftlichen KDD-Prozesses150 entweder einfache „Trefferfälle“ (engl. „hit“) im Sinne eines Bestandsnachweises nach durchgeführter Suchanfrage oder „erkannte Muster“. Letztere sind Entsprechungen oder Abweichungen, Analogien oder Anomalien zum im Vorhinein modellierten bzw. codierten Muster. Die maschinell innerhalb einer Datenbasis so „erkannten Muster“ repräsentieren „Wissen“ im informationstechnischen Sinne. Die Anzeige eines Musters kann unterschiedlich komplex gestaltet sein; die Darstellungsformen reichen von einfachen Diagrammen (Charts) und „Punktwolken“ (Scatter Plots) über differenzierte Cluster-Darstellungen bis hin zu sog. Chernoff-„Gesichtern“.151 Erkannte Muster „indizieren“ so einen möglichen inhaltlichen Zusammenhang zwischen Datensätzen. Die angezeigte Korrelation lässt sich als „Vorhersage“ (Prediction) interpretieren. 149  Chamoni,

S. 1. für „Kowledge Discovery in Databases“. 151  Das Verfahren der Visualisierung und graphischen Repräsentation von Daten in Form von verschiedenen menschlichen „Gesichtern“ geht auf den amerikanischen Statistiker und Informationsdesigner Herman Chernoff zurück. Nach Chernoff lassen sich dadurch komplexe statistische Datenbeziehungen veranschaulichen, da Menschen daran gewöhnt sind, bereits kleinste Unterschiede in der Physiognomie von Menschen zu erkennen. 150  Kurzformel



V. „Predictive Policing“?219

Peter Chamoni macht deutlich, dass es sich bei derartigen IT-gestützten Rechercheverfahren um Data Mining handelt. Teilweise werde darunter der gesamte „Prozess der Wissensentdeckung in großen Datenbeständen“ verstanden. Zum Teil stehe die Bezeichnung aber auch als Sammelbegriff für bestimmte explorative Suchoperationen oder einzelne rechnergestützte Analyseverfahren. Im Gegensatz zu traditionellen statistischen Verfahren, die zur Überprüfung vorgegebener Hypothesen herangezogen würden, böte Data Mining die Möglichkeit „der automatischen Generierung neuer Hypothesen.“152 Ein KDD-Prozess sei dann als erfolgreich anzusehen, wenn das aus großen Datenbeständen „extrahierte Muster“ verschiedenen Kriterien entspreche. So müsse das Muster − gültig („valid“), − bislang unbekannt („novel“), − potenziell nützlich („potentially useful“) und − leicht verständlich („ultimately understandable“) sein.153 Die Technik ist – insbesondere im Business Intelligence-Bereich – weit verbreitet und in der praktischen Umsetzung fortgeschritten, in ihrem Funktionszusammenhang allerdings wenig transparent. Noch weniger bekannt ist der Technologiestandard bei Sicherheitsbehörden. Sogar in Fachkreisen fehlt es bisweilen am nötigen Hintergrundwissen, wie eine Kleine Anfrage im Deutschen Bundestag aus dem Jahre 2011 zum Data Mining zeigt. Auslöser war ein Fachartikel in der Zeitschrift Kriminalistik, der die Vorzüge des Data Mining, insbesondere die Nutzung von Daten aus Sozialen Netzwerken des Internets zu polizeilichen Ermittlungs- und Fahndungszwecken gepriesen hatte.154 Die Abgeordneten forderten danach insgesamt mehr öffentliche Aufklärung über neue Ermittlungsmethoden der Polizei. Insbesondere aber müsse ausgeschlossen werden, dass Verfolgungsbehörden ein sogenanntes Data Mining betreiben, indem Daten sozialer Netzwerke mit anderen Datensätzen (Open Intelligence oder Polizeidatenbanken) verknüpft werden.“155

Die Forderung verwundert, hat doch eine Vielzahl von Forschungsprojekten im deutschen Sicherheitsforschungsprogramm genau dieses zum Ziel, nämlich Data Mining-Technologien im Sicherheitsbereich verstärkt zur 152  Chamoni,

S. 1. S. 1. 154  Deutscher Bundestag (2011), S. 1–4. 155  Deutscher Bundestag (2011), S. 2. 153  Chamoni,

220

3. Kap.: Anzeichenloser Verdacht

Anwendung zu bringen.156 Ähnliches gilt für Zukunftsprojekte, die sich die Nutzung personenbezogener Massendatenbestände (z. B. Telekommunika­ tionsdaten, Online-Foren) zur Weiterentwicklung der Kriminalprognostik zur Aufgabe gemacht haben (sog. „Reality Mining“).157 Gerade im AntiTerror-Kampf finden fortgeschrittene Analyseverfahren, wie Mareile Kaufmann in ihrer kriminologischen Studie nachweist, in verschiedenen europäi­ schen Staaten Anwendung. Sie stellt fest, dass es sich bei Data MiningAnwendungen um eine spezifische Version von Artificial Intelligence ­handele. Mithilfe von sog. „genetischen Algorithmen“ könnten so Datenbestände durchsucht werden, um Muster zu finden, die wiederum dazu dienten, tatsächliches Verhalten zu modellieren und Vorhersage-Instrumente zu entwerfen. Problematisch sei dabei allerdings, dass die genetischen Algorithmen auf „standardisierten Berechnungen“ basierten. Sie legten damit das evolutionäre Prinzip des Survival-of-the-fittest zugrunde, was aber die Rechtswirklichkeit naturgemäß vielfach verfehle.158 Data Mining und Intelligence-Ansatz sind auf breiter Front auf dem Vormarsch.159 Im Bereich der Polizei zeigt sich dies insbesondere an dem Trend zum sog. „Predictive Policing“. Kritisch beäugt und kommentiert von Medien und Bürgerrechtsforen160, macht die eingängige Alliteration inzwischen bei fast allen Polizeien die Runde. Mehrere Pilotprojekte mit dem Ziel, die „Möglichkeiten einer musterbasierten Kriminalprognostik“ zu überprüfen, wurden angestoßen. Kommerzielle Software-Vertreiber bieten hierbei hybride wissenschaftlich-geschäftliche Beratungsdienste an.161 Der neue Trend, ein Ableger der Predictive Analytics-Bewegung, erscheint auf den ersten Blick verheißungsvoll. Lassen sich dadurch einige Probleme der Kriminalprognose in der Praxis lösen? Oder werden die Hoffnungen ebenso vergebens sein wie jene, die polizeiliche Praktiker seinerzeit in die Bertillonage gesetzt hatten? Ist Predictive Policing gar alter Wein in neuen Schläuchen? Steckt hinter allem die Wiederkehr der Perseveranz-Hypothese? Ja und nein – der Ansatz der sog. „Vorhersagenden Polizeiarbeit“ ist eine konsequente Fortsetzung des Intelligence-Ansatzes. Alle erwähnten erkennt156  Keim/Kohlhammer/Ellis/Mansmann: Mastering the Information Age – Solving Problems with Visual Analytics, Eurographics 2010. 157  Eagle/Pentland (2006), S. 255–268; Toole/Eagle/Plotkin, S. 1–22. 158  Kaufmann, S. 34. 159  Westphal Chris: Data Mining for Intelligence, Fraud & Criminal Detection. Advanced Analytics & Information Sharing Technologies, Maryland 2008. 160  Borchers, Detlef: Minority Report auf bayrisch: Musterbasierte Verbrecherjagd mit Precobs angeblich erfolgreich, vom 27. November 2014 (www.heise.de); Monroy, Matthias: LKA-Studie erklärt Für und Wider von „Predictive Policing“ – Auch BKA liebäugelt jetzt mit Vorhersagesoftware vom 9. Januar 2015 (https://netzpolitik.org). 161  „Institut für musterbasierte Prognosetechnik, GbR“ (www.ifmpt.de).



V. „Predictive Policing“?221

nistheoretischen Probleme der Kategorisierung, Katalogisierung, Modellierung, Kodifizierung und Standardisierung von tatsächlichem Wissen („polizeilichen Erkenntnissen“) bei der Überführung in maschinenlesbare „Informationen“ werden daher akut. Andererseits kehrt hier die Perseveranz-Hypothese in veränderter, kaum mehr sichtbarer Form wieder: Die These von der „Täterhandschrift“, nunmehr „kriminogenes Muster“, verbirgt sich gewissermaßen unter einer Tarnkappe. Die eigentliche gedankliche Operation, die Hypothesengenerierung, findet – nicht sichtbar – im Inneren des IT-Systems statt. Im Jargon der Programmiersprache bezeichnen die sog. „Hidden Layers“, die zwischen Inputs und Outputs innerhalb eines Neuronalen Netzes geschaltet sind, das jeweils angenommene Beziehungsdiagramm einer ­modellierten Wissensdomäne. Recht eigentlich entspricht die neue Perseveranz-Hypothese, die dem Predictive Policing zugrundeliegt, diesem HiddenLayer-Format. „Anzeichenloser Verdacht“ wäre in dieser Perspektive das Ergebnis eines weitgehend automatisierten Datenauswertungs- und Informationserschließungsprozesses, der – dominiert von autonom arbeitenden Ma­ schi­nen – eigenartig wirklichkeitsfern abläuft. Die maßgeblichen „Entscheidungen“ über bestehende Zusammenhänge trifft die Informationsmaschine. Die rätselhafte Formulierung des Medientheoretikers Herbert Marshall McLuhan „The medium is the message162“ würde vor diesem Hintergrund visionäre Kraft entfalten. Sie wäre so zu verstehen, dass die Entscheidung über den jeweiligen Inhalt einer Botschaft im Maschineninneren fällt. (Mit-) Designer beim Informationsdesign ist letztlich die Maschine.163 Angesichts der Mächtigkeit und Potenziale der Technik, würde man annehmen, findet eine umfassende gesellschaftliche Auseinandersetzung mit den Chancen und Risiken der neuen Technologie statt. Das ist indessen kaum der Fall. Bislang findet eine Diskussion hauptsächlich im engen Rahmen statt, auf Messen, Polizeikonferenzen und in Fachzeitschriften. Dies hat zur Folge, dass sich in den Medien teilweise eine alarmistische Stimmung verbreiten kann. Diffuse Ängste vor der „Allmacht der Algorithmen“ 162  McLuhan

(1992), S. 17. (1996), S. 241–242: „Wenn Spengler [Spengler, Oswald: Der Untergang des Abendlandes. Umrisse einer Morphologie der Weltgeschichte, Bd. II, München 1922, S. 630, N. R.] prognostizierte, dass alles, was entscheidend ist, sich ins Innere der Maschine zurückzieht, dann beschreibt er damit auch den blinden Fleck der Medientheorie und ihres zugrundegelegten Informationsbegriffs. Die berühmte These Marshall McLuhans, the medium is the message, bedeutet nämlich im Klartext, die Entscheidung über die Botschaft als Information fällt im Innern der Informationsmaschine selbst.“ – Ähnlich Grosswiler (1998), S. 174: „Baudrillard circles back to McLuhan’s notion that ,the medium is the message‘, and transforms it again to conclude that the medium controls the process of meaning through its styles and techniques.“ 163  Künzel/Bexte

222

3. Kap.: Anzeichenloser Verdacht

werden geschürt.164 Die Polizei selbst gerät durch fehlende aktive (oder missglückte) Öffentlichkeitsarbeit in Verdacht, ein „schmutziges Geheimnis“ zu hüten.165 Der öffentliche Diskurs trägt damit zum wachsenden Misstrauen, zum Vertrauensverlust gegenüber der Institution „Polizei“ bei. Polizeiinterne Pilotprojekte zu Predictive Policing allein sind nicht geeignet, das grundsätzliche Unbehagen und das wachsende Misstrauen der Öffentlichkeit gegenüber scheinbar unbegrenzter automatisierter Massendatenverarbeitung, wie es im Verlauf der „NSA-Affäre“ in breiten Bevölkerungsschichten zum Vorschein gekommen ist, zu beseitigen.166 Weitsichtig hat Kay Waechter bereits früh diesen sozialen Quasi-Kippeffekt zwischen Vertrauen und Misstrauen im Verhältnis von Polizei und Bevölkerung beschrieben. Dabei unterscheidet er zwischen dem Vertrauensverhältnis der Bürger zu den Beschäftigten der Sicherheitsbehörden einerseits und dem wachsenden Misstrauen gegenüber dem technisch aufgerüsteten Potenzial des Polizeiapparats. Unter der Überschrift „Sicherheitsrecht in der Krise“ führt er aus: „Der ,Verrat der Polizei‘ ist ein doppelter: An ihr begangen bezeichnet er das Gefühl, das viele Polizisten angesichts der ihnen entgegengebrachten Empfindungen und über sie gehegten Meinungen befällt: Verraten zu sein von einer Gesellschaft, die sie braucht, aber ihnen länger nicht traut und sie nicht schätzt; das Unglück dessen, der ungeliebt ist, weil – oder obwohl – er seine Aufgabe erfüllt, spiegelt diesen Verrat. (…) Von ihr verübt – so könnte man die Haltung des um seine menschlichen und bürgerlichen Freiheiten besorgten Individuums markieren, das in der Polizei obskure Mächte vermutet, die ihm gewalttätig entgegentreten oder spionenhaft ihn belauern. Danach hätte die Polizei den Pakt verraten, der sie eingesetzt hatte, als Wächterin der Sicherheit, aber auch darauf beschränkte. Die Pflichtübung der Politiker, der Polizei das Vertrauen in deren politische Unbedenklichkeit und fachliche Vorbildlichkeit auszusprechen, trägt dem subjektiven Unglück der Polizei Rechnung, betrügt aber entweder die Polizisten oder die Politik selbst: denn Misstrauen ist angebracht. Entscheidend ist, zu sehen, dass es nicht den Personen sondern dem Apparat gilt. (…) Es scheint wichtig, dass sie (Menschen, die den Polizeidienst tun, N. R.) sich der prekären Lage dieser Institution bewusst sind, um der Verführung in ihr angelegter Tendenzen begegnen und die Reaktion der Umwelt verstehen zu können. In diesem Sinne sind die Personen, die die Polizei ausmachen, mehr Subjekt der Hoffnung, als Objekt des Misstrauens.“167

Die Frage ist: Warum gibt es – neben vergleichsweise oberflächlicher medialer Begleitung – überdies keinen breit angelegten fachlichen interdisziplinären Diskurs? Warum findet innerhalb der Polizei keine kritische, 164  Schindler/Wiedmann-Schmidt,

S. 50–54. Roland: Datenanalyse der Dinge in Echtzeit. Das „schmutzige Geheimnis“ der Polizei vom 25. Februar 2015. 166  Dickow, S. 1–4. 167  Waechter (1988), S. 393–420 und den Essay Waechter (1989), S. 440, 447– 448. 165  Peters,



V. „Predictive Policing“?223

theoriegeleitete Auseinandersetzung über Vor- und Nachteile eines Ausbaus der Intelligence-Kapazitäten und die fälschlicherweise „Vorhersage“ versprechende Technik des Predictive Policing statt? Die Fragestellung ist facettenreich. Verschiedene Aspekte sind von Bedeutung. Organisationskultur, Technik-Affinität und eine Art „Ingenieurs-Mentalität“ spielen ebenso eine Rolle wie wissenschaftpolitische Zusammenhänge, etwa die „strukturbedingte Auszehrung“ der interdisziplinären Kriminologie in Deutschland.168 Es scheint, dass ein strukturelles Theoriedefizit ursächlich ist für das Fehlen einer kritischen Diskussion innerhalb der Polizei. Indiz für diese These ist der Verlauf des öffentlichen Diskurses um die heftig umstrittene Frage der sog. „Vorratsdatenspeicherung“. Von Seiten der Polizei wird insoweit stereotyp die Forderung nach „mehr Daten“ wiederholt. Dies, obwohl sich Berichte über die lähmende Datenflut in Polizeiorganisationen häufen169 und der Nutzen von „mehr Daten“ – ausweislich einer Reihe wissenschaftlicher Untersuchungen und mathematischer Simulationen – nicht erwiesen ist.170 Hier ist eine genauere Analyse des Diskurses erforderlich. Erforder168  Albrecht/Quensel/Sessar (Hrsg.), Freiburger Memorandum. Zur Lage der Kriminologie in Deutschland, Freiburg i. Br. 2012, S. 10. – Es muss aus kriminologischer Sicht als Skandal bewertet werden, dass nicht unabhängige Wissenschaftler und Kriminologen mit der Evaluierung der Antiterrordatei betraut waren, sondern ein privates Consulting-Unternehmen, das in inhaltlicher Hinsicht jegliche Verantwortung für die Ergebnisse von sich gewiesen hat, vgl. Deutscher Bundestag (2013), S. 7–9: „Ausgehend von dem Grobkonzept des BMI für die Evaluierung unternahm Rambøll Management Consulting zunächst grundlegende Schritte zur Strukturierung der Evaluation (Mai bis Juni 2011). Damit verbunden war es, die Wirkungslogik des ATDG zu analysieren und darauf basierend die Evaluierungsfragestellungen zu konkretisieren, Bewertungsdimensionen (Evaluationskriterien) festzulegen sowie Indikatoren/Deskriptoren und Maßstäbe zur Beantwortung der spezifischen Evaluierungsfragen zu definieren. (…) Unbenommen davon werden Rahmen und Zielsetzung der Evaluation sowie deren Ergebnisse vom BMI verantwortet. Die Bewertung und die aus der Evaluation gezogenen Schlussfolgerungen erfolgten in ausschließlicher Verantwortung des BMI und unterliegen nicht dem Beratungsauftrag des externen Sachverständigen.“ 169  Gamillscheg, S. 10: „Seit fünf Jahren wird in Dänemark das strengste europäische Gesetz zur Überwachung des Datenverkehrs angewendet. Die Erfahrungen sind ernüchternd: Die Polizei ertrinkt in einem ‚Tsunami von Nutzerdaten‘, die man nicht sortieren und daher nicht benützen kann. Das ergibt sich aus einem Rapport des dänischen Justizministeriums. Darin heißt es: ,Die Registrierung der Internetaktivitäten (Session logging) stoße auf ernsthafte praktische Probleme‘ und habe sich als ‚unbrauchbar für die Polizei‘ erwiesen, als diese versuchte, die Daten für Fahndungszwecke zu verwenden.“ – Siehe ferner Soldt in: Frankfurter Allgemeine Zeitung vom 11. Februar 2015: Daten lähmen Ermittler. 170  Hamacher/Katzenbeisser: Vorratsdatenspeicherung wohl nicht zur Prävention geeignet, Darmstadt 2012. – Ferner Becher, Johannes: Die praktischen Auswirkungen der Vorratsdatenspeicherung auf die Entwicklung der Aufklärungsquoten in den EU-Mitgliedsstaaten, Berlin 2011.

224

3. Kap.: Anzeichenloser Verdacht

lich wäre auch eine interdisziplinäre Auseinandersetzung mit der Frage, ob Vorratsdatenhaltung bzw. die anlasslose Speicherung von „Metadaten“171 überhaupt sinnvoll ist – in welchem Umfang, über welchen Zeitraum und für welche Phänomenbereiche. Das ist hier nicht möglich, aber auch nicht erforderlich. Festgestellt werden kann – und darauf kommt es uns an –, dass offenbar eine grundsätzliche Haltung innerhalb der Polizei existiert, die die Frage nach „mehr Daten“ regelmäßig positiv beantwortet. Diese professionsspezifische „Mehr-Daten-Haltung“ kommt, so darf vermutet werden, nicht von ungefähr. Sie scheint Ausfluss einer bestimmten (technizistischen) Einstellung innerhalb der Polizei zu sein. Die Frage nach der Qualität von Daten, den Grenzen der Theorie der Informationsverarbeitung, der kategorialen Verschiedenheit von (automatisiertem) „Informationsaustausch“ und (menschlicher) „Kommunikation“ sowie der Ambivalenz der fortschreitenden Digitalisierung werden jedenfalls, soweit ersichtlich, kaum angemessen reflektiert. Eine interdisziplinäre Theorie des Polizeihandelns steht bis heute aus, unbeschadet der Versuche, eine „Polizeiwissenschaft“ zu etablieren und diese zur Grundlage zu machen für einen neu konzipierten Masterstudiengang für den höheren Polizeivollzugsdienst. Das ist gerade jetzt – am Vorabend einer Big Data-Revolution172 – besonders misslich. Der Name „Big Data“ geht auf eine Artikelserie in der Zeitschrift Nature im Jahre 2008 zurück. Er repräsentiert heute so etwas wie den archimedischen Punkt der digitalen Ära, mit dem man die Welt aus den Angeln heben zu können glaubt. In ihrem Auftaktartikel zum Thema „Big Data“ schildert Cory Doctorow eindrucksvoll den Besuch eines Serverparks der Firma Google: „(…) the story I’m here for: the relentless march from kilo to mega to giga to tera to peta to exa to zetta to yotta. The mad inconceivable growth of computer performance and data storage in changing science, knowledge, surveillance, freedom, literacy, arts – everything that can be represented as data, or built on those representations.“173

Nach Ansicht der Apologeten des neuen Zeitalters macht die Datenschwemme jegliche Theoriebildung überflüssig. Die Erfolge des number crunching sprächen für sich, so die Wortführer der neuen Welt des Big Data. Selbstbewusst führt Chris Anderson dazu aus: „Wir leben in einer Welt, in der riesige Mengen von Daten und angewandte Mathematik alle anderen Werkzeuge ersetzen, die man sonst noch so anwenden 171  Baecker

(2013a), S. 156–186. Big Data: Die Revolution, die unser Leben verändern wird, 2. Aufl., München 2013. 173  Doctorow, S. 16. 172  Mayer-Schönberger/Cukier:



V. „Predictive Policing“?225 könnte. Ob in der Linguistik oder in der Soziologie: raus mit all den Theorien des menschlichen Verhaltens! Vergessen Sie Taxonomien, die Ontologie und die Psychologie! Wer weiß schon, warum Menschen sich so verhalten, wie sie sich gerade verhalten? Der springende Punkt ist, dass sie sich so verhalten und dass wir ihr Verhalten mit einer nie gekannten Genauigkeit nachverfolgen und messen können. Hat man erst einmal genug Daten, sprechen die Zahlen für sich selbst.“174

Mit Blick auf diese Entwicklung – so ist zu befürchten – hat die Polizei kaum mehr Veranlassung, eine (selbst-)kritische polizeiliche Handlungstheorie zu entwickeln. Offensichtlich bricht sich hier eine Art „Anti-TheorieTrend“ Bahn. Die neuerdings rein technisch machbare, systematische Analyse riesiger Datenbestände, die nicht mehr Kausalzusammenhänge sondern Korrelationen als ausreichend erachtet (sog. „Good enough“)175, benötigt keine theoretische Vorbildung. Binnen weniger Stunden können polizeiliche Sachbearbeiter in das Precobs-Programm eingewiesen werden.176 Das 21. Jahrhundert wird, soviel wird man ohne Übertreibung sagen können, datengetrieben (data driven) sein. Diskurse wie „Predictive Analytics“, „Predictice Policing“ und „Pre-crime“177 sind Vorboten einer sozialen Revolution, die über die derzeitigen Anfänge weit hinausgehen werden.178 Viktor Mayer-Schönberger und Kenneth Cukier zeichnen ein drastisches Zukunftsbild. Sie halten eine „Diktatur der Daten“ (engl. „dictatorship of data“) für nicht ausgeschlossen, wenn nicht eine grundlegende Neuorientierung im Umgang mit den neuen Technologien der Massendatenverarbeitung stattfinde.179 Sie sprechen von „datafication“ – zu Deutsch etwa „Data­fizierung“ –, da es für das, was zu beobachten sei, noch kein 174  Anderson,

Chris, S. 126.

175  Mayer-Schönberer/Cukier,

S.  12 ff. der Fa. „Institut für musterbasierte Prognosetechnik, GbR“ (www.if mpt.de). – Die Intelligence-Produktion zunhmend wird dabei teilweise als besondere Herausforderung begriffen, vgl. Carter/Farmer/Siegel: Actionable intelligence: A Guide to Delivering Business Results with Big Data Fast!, New York 2014. 177  Zedner (2007), S. 261–281. 178  Sheptycki (2009), S. 371–372: „It is not implausible to suggest that there has been a revolution in intelligence affaires, brought by a variety of causes: the rise of ,postmodern society‘, the crosscurrents of economic, social, cultural and political ,globalization‘, and the ,information revolution‘. (…) The irony is that the undeniable increase in surveillance and security practices is only congruent with the multiplication of insecurity and fear. This is the paradox of the security control society and it lies at the heart of the politics of policing surveillance. The almost endless possibilities for disassembly and reassembly of information into intelligence – via techniques of data-mining – intensify this paradox.“ 179  Mayer-Schönberger/Cukier, S. 17: „(…) the age of big data will require new rules to safeguard the sanctity oft he individual. In many ways we control and handle data will have to change. We’re entering a world of constant data-driven predictions where we may not be able to explain the reasons behind our decisions.“ 176  Produkt

226

3. Kap.: Anzeichenloser Verdacht

adäquates Wort gebe. Gemeint ist mit „Datafizierung“ die Tatsache, dass künftig alles und jedes als Datenlieferant betrachtet werde. Alles, „was es unter der Sonne gebe“, werde in der Zukunft ins Datenformat überführt, gesammelt und ausgewertet. Das gelte für Wörter, und Texte, menschliche Bewegungen und Interaktionen ebenso wie etwa die Vibrationen einer Maschine, die Belastungen einer Brücke und so fort. „Datafizierung“ sei ein Grundzug der Big Data-Revolution. Immer gehe es darum, Vorhersagen aus Datenanalysen abzuleiten.180 Es bestehe die Gefahr, so Mayer-Schönberger und Cukier, dass sich auch innerhalb staatlicher Stellen „das neue Denken“ ausbreite, welches ausschließlich „die Daten sprechen“ lassen wolle.181 Menschen würden auf diese Weise – ganz im Sinne der Marktstrategien der Internet-Giganten Google und facebook – auf die Summe von Sozialkontakten, Online-Interaktionen und Suchpräferenzen reduziert. Um ein Individuum vollständig auszuforschen, müsse ein Analyst heute nur noch den „weitesten Umkreis eines Datenschattens einer Person“ durchmustern. Das sei in der Vergangenheit schwierig gewesen, heute dagegen ein Kinderspiel. So seien Regierungsstellen dazu übergegangen, Daten im großen Stil zu sammeln und zu speichern, um im denkbaren Verdachtsfall auf Informationen zu einer Person zurückgreifen zu können. So müsse man nicht erst aufwändig Informationen erheben, sondern könne, wenn der Fall eintrete, sofort mit den Ermittlungen beginnen.182 Bedenklich stimme, dass Ermittlungsbehörden sehr ernsthaft den Einsatz von Predictive Policing-Anwendungen betrieben – so etwa in den USA, wo man über das Monitoring von „Lebenszeichen“ („vital signs“), Körpersprache und andere psychologische Muster künftige Terroristen zu identifizieren beabsichtige.183 Es stehe zudem zu befürchten, dass die Idee des Profiling im Big Data-Zeitalter eine völlig neue Qualität erhalte. Wenn non-kausale, prädiktorengesteuerte Wahrscheinlichkeiten zur Grundlage von pro-aktiven polizeilichen Maßnahmen würden, also noch bevor überhaupt jemand normwidrig gehandelt habe, könnten Risikoprofile bzw. statistisch als ris180  Mayer-Schönberger/Cukier, S. 15 zum Forschungsprojekt FAST (Future Attribute Screening Technology) der US-Heimatschutzbehörde (U. S. Department of Homeland Security). 181  Mayer-Schönberger/Cukier, S. 19. 182  Mayer-Schönberger/Cukier, S. 157. 183  Mayer-Schönberger/Cukier, S. 159. – Aus kriminologischer Sicht dazu bereits Herren (1973), S. 236: „Psychologische Indizien, die aus Testuntersuchungen (Szondi-, Rorschach-, Wartegg-Test, TAT, etc.) oder tiefenpsychologische Explorationen gewonnen werden, dürfen generell nicht Belastungs- oder Entlastungsindizien in foro verwendet werden. (…) Es ist das Gebot des sozialen Rechtsstaates und die Pflicht jedes Strafjuristen, wissenschaftlich zu wenig erprobte Methoden rigoros über Bord zu werfen. Nur so können wir dazu beitragen, Justizirrtümer zu ver­ meiden.“



V. „Predictive Policing“?227

Abbildung 23: Cartoon Security Check (aus: Frankfurter Rundschau)184

kant bewertete Verhaltensmuster justizförmige Verfahren unterlaufen und eine de facto-Vorverurteilung zur Folge haben.185 Nach Mayer-Schönberger und Cukier erfordern die Risiken der Big DataTechnologien einen völlig neuen Typus von aufgeklärten Intelligence-Experten – sie sprechen von „Algorithmikern“ (engl. „algorithmists“), die Big Data-Operationen auf allen Ebenen mit der nötigen Skepsis begleiteten. Das sei keineswegs selbstverständlich, da „Big Data“ inzwischen auch zum 184  Frankfurter Rundschau vom 28.12.2010: Bundesregierung gegen „Profiling“ an Flughäfen. Ende des Jahres 2010 sorgte der Vorschlag des Präsidenten des Deutschen Flughafenverbandes (ADV) für Aufsehen, weil er offen für die Einführung des sog. „Flughafen-Profiling“ eintrat, d. h. die differenzierte Abfertigung von Flugpassagieren nach bestimmten Gefährdungsrastern bzw. Risikoprofilen. Beim Profil­ ing werden Passagiere nach Kriterien wie Alter, Geschlecht und ethnischer Herkunft unterteilt und unterschiedlich scharf kontrolliert. Auf diese Weise könnten – so die Ansicht des Verbandes – die installierten Kontrollsysteme auf den Flughäfen zum Wohle aller Beteiligten effektiver eingesetzt werden, siehe DIE ZEIT vom 29.12.2010: Terrorgefahr. Leutheusser gegen Fluggast-Profiling. Die Bundesjustizministerin sieht im Profiling von Passagieren einen Verstoß gegen das Gleichheitsgebot. – Differenzierend, zum präventiven und repressiven Profiling und dem sog. „racial profiling“ Krane, S. 251–255. 185  Mayer-Schönberger/Cukier, S.  160–161: „Consider, for example, research conducted by Richard Berk, a professor of statistics and criminology at the University of Pennsylvania. He claims his method can predict whether a person released on parole will be involved in a homicide (either kill or be killed). (…) Berk suggests that he can forecast a future murder among those on parole with at least a 75 percent probability.“

228

3. Kap.: Anzeichenloser Verdacht

Slogan eines Big Business186 geworden sei, wodurch sich ein spezifisches „big-data mindset“187 verbreite. Geht man davon aus, dass für die Polizei eine technikaffine „Mehr-Daten-Haltung“ bereits vorhanden ist, so trifft die Big Data-Bewegung insoweit auf eine Art kognitiver Anschlussfähigkeit. Geht man ferner davon aus, dass die Big Data-Ära mit dem „Internet der Dinge“ ihren Höhepunkt noch vor sich hat, dann wird klar, dass die laufenden Pilotprojekte zum Predictive Policing nur den Auftakt bilden zu einer grundlegend veränderten Arbeitsweise der Polizei in der Zukunft. Allein die schiere Masse verfügbarer Daten188 wird den Druck auf die Polizei erhöhen, ihrerseits das Rationalisierungspotenzial der Daten zur Aufgabenbewältigung zu nutzen. Ob Big Data zum technischen Theorie-Ersatz werden oder ob es – andererseits – gelingen wird, das Theoriebewusstsein innerhalb der Polizei zu schärfen, ist zurzeit eine offene Frage. Glaubt man dem amerikanischen Statistiker Nate Silver haben wir die Schwelle zur Big Data-Ära bereits überschritten.189 Für ihn stellt sich die Frage de „Ob“, auch die Frage der Anwendung sog. „Predictive Policing“Technologien, nicht mehr ernsthaft. „Information“ sei nicht länger ein knappes Gut; es gebe inzwischen mehr davon als nützlich sei. Silvers Beitrag zum Big Data-Diskurs ist in mehrfacher Hinsicht bemerkenswert: Zunächst stellt er „Signal“ („the signal“) und „Lärm“ („the noise“) gegenüber. „Das Signal“ ist für ihn Metapher für die Wahrheit, „der Lärm“ für unnütze Daten.190 Silver erweist sich als Verfechter des Bayes-Theorems. Dabei handelt 186  Zuboff, Shoshana: A Digital Declaration: „Big Data“ as Surveillance Capitalism (Unsere Zukunft mit „Big Data“. Lasst euch nicht enteignen), in: Frankfurter Allgemeine Zeitung vom 14. September 2014: „Die Analyse riesiger Datensätze begann als eine Methode zur Reduktion von Unsicherheit, indem man die Wahrscheinlichkeiten zukünftiger Muster im Verhalten von Menschen und Systemen untersuchte. Heute hat sich der Schwerpunkt geräuschlos verlagert: sowohl in Richtung auf eine kommerzielle Monetarisierung des Wissens über gegenwärtiges Verhalten als auch hin zu einer Beeinflussung und Umformung entstehenden Verhaltens mit dem Ziel, zukünftige Einahmequellen zu erschließen.“ 187  Mayer-Schönberger/Cukier, S.  129 ff. 188  Zuboff: „Es gibt viele Quellen, aus denen diese neuen Ströme generiert werden: Sensoren, Überwachungskameras, Telefone, Satelliten, ‚Street View‘, Unternehmens- und Staatsdatenbanken (von Banken, Auskunfteien, Kreditkarten und Telekommunikationsunternehmen), um nur einige zu nennen. Die wichtigste Komponente ist das, was manche ‚Datenabgase‘ (data exhaust) nennen. Dabei handelt es sich um nutzergenerierte Daten, die im zufälligen und flüchtigen Alltag abgeschöpft werden können, besonders die winzigsten Details unserer Online-Aktivitäten.“ 189  Silver, Nate: The Signal and the Noise. The Art and Science of Prediction, London 2012. 190  Silver, S. 17: „Information is no longer a scarce commodity; we have more of it than we know what to do with. But relatively little of it is useful. (…) The signal is the truth. The noise is what distracts us from the truth.“



V. „Predictive Policing“?229

es sich um einen mathematischen Satz der Wahrscheinlichkeitsrechnung, der es erlaubt von einem bekannten Wert (sog. „Prävalenz“) auf eine künftige Wahrscheinlichkeit in einer noch unbekannten Menge von Werten zu schließen.191 Der Theorieansatz bildet die Grundlage einer Vielzahl praktischer Anwendungsfelder. Insbesondere im Bereich der Umwelt- und Gesundheitsvorsorge zur Ermittlung von Kontaminations- oder Erkrankungsrisiken und der IT-Wirtschaft zur Detektion von Malware und Spam-Erkennung. Insbesondere im Bereich des Data Mining spielt das Bayes-Theorem eine Schlüsselrolle. Silver betont, dass die praktische Anwendung des Bayes-Theorems auf jeden Fall eine explizite vorherige Einschätzung der Wahrscheinlichkeit eines bestimmten Ereignisses voraussetze (sog. „Bayesian prior“). Erst auf dieser Grundlage könnten dann Berechnungen möglicher künftiger Ereignisse durchgeführt werden. Solche Vorannahmen könnten sogar aus der allgemeinen Überzeugung („Common Sense“) abgeleitet werden – nicht akzeptabel sei indessen die Behauptung, es gebe keine Vorannahmen.192 Silver beklagt gerade hier Schwächen, fehlerhafte Einschätzungen und „Übersimplifizierungen“ („oversimplified reality“).193. In der statistischen Praxis wirke sich dies bei der Erstellung statistischer Modelle in Form des sog. „overfitting“ oder „underfitting“ überaus nachteilig aus. Weil ein Modell nämlich nicht auf die Wirklichkeit passe („fit“), die Beobachtungen der Vergangenheit also nur unzureichend modelliert worden seien, könne keine „wertvolle Information“ (signal), sondern bloß „das Rauschen“ (noise) aus den Datenmassen herausgefiltert werden.194 Insofern sei es auch keine Schwierigkeit, „Muster“ zu finden; das Entscheidende sei die Qualität ­dessen, was zu Tage gefördert werde bzw. vorhergesagt werde.195 Vor diesem Hintergrund fordert Silver eine verstärkte wissenschaftliche Beschäftigung mit Fragen der Wahrscheinlichkeit und Unsicherheit. Vor allem müsse sehr viel sorgfältiger über Vorverständnisse und Annahmen nachgedacht

191  Das Bayes-Theorem ist benannt nach dem englischen Geistlichen Thomas Bayes (1701–1761), siehe Bayes, Thomas: Versuch zur Lösung eines Problems der Wahrscheinlichkeitsrechnung. Leipzig 1908. 192  Silver, S. 451: „Bayes’s theorem requires us to state – explicitely – how likely we believe an event is to occur before we begin to weigh the evidence. It calls this estimate a prior belief. (…) Even common sense can serve as a Bayesian prior, a check against taking the output of a statistical model too credulously. (…) What isn’t acceptable under Bayes’s theorem is to pretend that you don’t have any prior beliefs.“ 193  Silver, S. 452. 194  Silver, S. 163. 195  Silver, S. 240: „Finding patterns is easy in any kind of data-rich environment; that’s what mediocre gamblers do. The key is in determining whether the patterns represent noise or signal.“

230

3. Kap.: Anzeichenloser Verdacht

werden.196 Den Thesen vom „Ende der Theorie“ erteilt er eine klare Absage – nicht die Daten könnten sprechen, sondern wir müssten es an ihrer Stelle tun.197 Im Gegenteil, Massendatenverarbeitung im großen Stil erfordere dringend ein theoretisches Vor-Verständnis (sog. „prior belief“).198 Keinen Zweifel lässt Silver auch daran, dass jegliches Wissen kontextabhängig ist. Ohne Berücksichtigung des Kontexts sei eine Unterscheidung zwischen Wahrheit und Unsinn, „dem Signal“ und „dem Lärm“, unmöglich; die Wahrheit werde förmlich weggeschwennt von falschen Scheinwahrheiten.199 Der Beitrag Silvers zur Big Data-Debatte kann nicht ernst genug genommen werden. Sein Hinweis auf die theoretischen Voraussetzungen einer Anwendung des mathematischen Bayes-Theorems in der Praxis, aber auch sein kompromissloser Verweis auf die Kontextabhängigkeit von Wissen.200 Beides, die notwendige wissenschaftliche Auseinandersetzuung um das „prior belief“ in der Phase der Modellierung, erst recht aber die Auseinandersetzung mit den Intelligence- und Data Mining-Produkten, die auf Predictive Policing-Anwendungen zurückgehen, ist aus Sicht Silvers geboten. Eine ganz andere Frage ist, inwieweit das Bayes-Theorem in sozialen Kontexten überhaupt anwendbar ist. Der induktionslogische Grundansatz des Bayesianismus ist nicht unumstritten.201 Gerade die von Silver zu Recht betonte Kontextabhängigkeit von Wissen stellt das Theorem sehr grundsätzlich selbst in Frage bzw. beschränkt seinen Anwendungsbereich. Das Theorem geht ja von „absoluten Wahrheiten“ – das ist das mathematische Moment – im Stadium der Prävalenz aus.202 Ob solche Wahrheitspostulate auch 196  Silver, S. 15: „(…) we must become more comfortable with probability and uncertainty. We must think more carefully about the assumptions and beliefs that we bring to a problem.“ 197  Silver, S. 9: „This is an emphatically pro-science and pro-technology book, and I think of it as a very optimistic one. But it argues that these views are badly mistaken. The numbers have no way of speaking for themselves. We speak for them.“ 198  Silver, S. 259. 199  Silver, S. 451: „Information becomes knowledge only when it’s placed in context. Without it, we have no way to differentiate the signal from the noise, and our search for the truth might be swamped by false positives.“ 200  Kuhlen (2004), S. 3: „Zur Information werden die Informationen erst, wenn jemand sie in einen bestimmten Kontext aufnimmt, sie verstehen, interpretieren, etwas mit ihnen anfangen kann, sei es direkt, oder verzögert durch Aufnahme der Informationen in den schon vorhandenen eigenen Wissensbestand, mehr oder weniger damit rechnend, dass er/sie später auf sie wird zugreifen und sie dann wird verwenden können.“ 201  Zur Entwicklung des sog. „Induktionsproblems“ von der „einfachen Verallgemeinerungshypothese“ zur „modifizierten Verallgemeinerungshypothese“ der modernen Wahrscheinlichkeitsrechnung Feyerabend, S. 86–90. 202  Kritisch dazu Kuhlen (2004a), S. 161„Information gibt es nicht als Objekt für sich. Information ist eine Referenzfunktion. Information kann nur über eine reprä-



VI. eLeviathan231

für den sozialen Bereich gelten bzw. gelten sollen, ist zweifelhaft. Der springende Punkt ist hier, dass ein kritischer oder wie immer gearteter Bayesianismus – wenn überhaupt – zumindest Beobachtungsaussagen mit hohen „Bewährungsgraden“203 erfordert. Die Zukunft der polizeilichen Auswertung und Analyse wird daher sehr vom Theorie-Praxis-Dialog, der interdisziplinären und diskursiven Auseinandersetzung mit den Chancen und Risiken der neuen Analysetechniken abhängen.204 Eine kriminologische Kritik der Basissätze „pro-aktiver“ polizeilicher Verdachtschöpfung (z. B. die Theorie „lernender Kataloge“ bzw. „selbstlernender Katalogfelder“205) erscheint im Big Data-Zeitalter ebenso unverzichtbar, wie auch – umgekehrt – die kritiklose Etablierung eines sozialen Risikomanagements nach den Regeln eines „industrialisierten Induktionismus“ denkbar ist.206

VI. eLeviathan Am Beginn des 21. Jahrhunderts reagiert das System der strategischen Sozialkontrolle auf feinste Reize. Das „Große Tier“, der „Künstliche Mensch“, wie Hobbes einst formulierte, ist zum eLeviathan geworden. Die künstliche Mensch-Maschine, das anthropomorphe Konstrukt, das wir „Rechtsstaat“ nennen, wird künftig in noch viel größerem Maße überzogen sein mit einem informatisierten Schutzpanzer. Ein Reizleitungssystem, das über feinste Ausläufer und Synapsen im Gesellschaftskörper verfügt, die dazu dienen, Normverstösse zu orten und zu melden. Das künstliche Sensorium und informationelle Reizleitungssystem der Zukunft ist darauf ausgelegt, kleinste Abweichungen von der Norm zu registrieren und Sicherheit zu produzieren. Ähnlich einer technischen Prothese, in der Vorstellungswelt von Hobbes einer elektronifizierten künstlichen Außenhaut, nimmt der vernetzte Apparat technische Signale auf, um sie sodann sekundenschnell digisentierte/kodierte Form von Wissen aufgenommen werden. Dabei müssen wir Wissen nicht, wie es in der klassischen philosophischen Tradition üblich ist, an einen Wahrheitsbegriff der absoluten Gültigkeit koppeln. Wir sehen Wissen eher in einem Kontinuum mit durchaus (auch in der zeitlichen Entwicklungsperspektive variierenden Wahrheitsansprüchen.“ 203  Zu diesem Begriff Popper (1973), S. 11–45. 204  Reez (2007), S. 13–19. 205  Deutscher Bundestag (2013), S. 54. 206  Schon früh hat Detlef Nogala mit Blick auf den zunehmenden Einsatz von Kontrolltechnologien im polizeilichen Umfeld von „Industrialisierung der sozialen Kontrolle“ gesprochen. Ein „beeindruckendes Arsenal von technischen Kontrollmöglichkeiten“, darunter eine Vielzahl neuer sehr leistungsfähiger Detektions-, Informationsverarbeitungs- und Identifikationstechnologien, stellt er fest, schicke sich an, „einige Aspekte des Lebens in modernen Industriegesellschaften zu verändern“, siehe Nogala, S. 69.

232

3. Kap.: Anzeichenloser Verdacht

tal zu verarbeiten. Die Reizschwelle des Gesamtsystems ist niedrig, besonders in den High Risk-Bereichen, wie Flughäfen, Bahnhöfen oder besonders schutzbedürftigen Orten mit Symbolwert, die Fehlalarmrate hoch – besonders nach offiziellen Terrorwarnungen: Gepäckteile wie Laptops, Handys oder Haartrockner, die an Flughäfen irrtümlich Sprengstoffverdacht auslösen, weil das Detektionsgerät beim Abtasten der Gegenstände winzige chemische Partikel, die auf Sprengstoff hindeuten, registriert.207 Herrenlose Koffer oder andere „verdächtige Gegenstände“, die als potenzielle Gefahrenquelle erkannt werden oder nach scheinbar seriösen Bombendrohungen aufwändig delaboriert werden müssen.208 Flughäfen, die gesperrt, Bahnhöfe und Züge, die evakuiert, Sicherheitsbehörden, die alarmiert werden, weil Reisende vermeintlich „verdächtige Personen“ identifiziert haben. Projekte der Sicherheitsforschung209 geben Aufschluss über das, was kommt; sie machen den voranschreitenden Ausbau des eLeviathan anschaulich: Im Projekt „HAMLet“210 verfolgt ein Netzwerk aus hochempfindlichen Geruchssensoren die Spur von Sprengstoffen. Auf den Chips der Sensoren befinden sich Schwingquarze, eine Art „elektronische Nasen“, die chemische Moleküle einfangen können. Dabei verändert sich ihre Schwingfrequenz für jede Substanz in einer charakteristischen Art und Weise. HAMLet verfügt über eine weitere wichtige Komponente: Eine Fusion der Sensordaten sorgt dafür, dass die Spur des Sprengstoffs mit der richtigen Person in Verbindung gebracht wird. Deshalb ist ein zweites Sensornetzwerk notwendig, das den Weg von Personen nachvollzieht. Hierfür werden Laserscanner verwendet, die ermitteln, wann und wo sich eine Person aufgehalten hat. Über die Sen­ sordatenfusion liefert HAMLet so ein genaues Abbild der Personenströme auf Flughäfen, Bahnhöfen und Grenzen und ordnet den Personen ihrem Geruch zu.211 Im Projekt „SCIIMS“212 sollen nach dem Willen des Projekt-Konsortiums Informationen aus vielfältigen Quellen, nationalen, transnationalen, privaten 207  Frankfurter Rundschau vom 10. September 2009, S. 1, 47: Föhn des Terrors. Terroralarm wegen heißer Luft. 208  Frankfurter Rundschau vom 5. Januar 2011, S. 7: Immer wieder Fehlalarm. IC-Zug Berlin-Amsterdam unterwegs evakuiert – so etwas häuft sich seit der Terrorwarnung des Innenministers. 209  Wissenschaftlicher Programmausschuss Sicherheitsforschung: Positionspapier des Wissenschaftlichen Programmausschusses zum Nationalen Sicherheitsforschungsprogramm, Anhang: Zusammenstellung von Forschungsfeldern und Einzeltechnologien Freiburg 2010. 210  „Hazardous Material Localisation and Person Tracking“. 211  Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie-FKIE, S. 13. 212  „Strategic Crime and Immigration Information Management System“.



VI. eLeviathan233

und anderen der Europäischen Union, ausfindig gemacht und zusammengeführt werden. Ziel ist es „Trends und Muster“ zu entdecken, um so ein gemeinsames Lagebild entwickeln zu können. Die technischen Anforderungen an das System sind im Einzelnen: − Data Mining in Massendatenbeständen unter Nutzung eines Datenstromverfahrens („Data Mining in large data sets utilizing a data stream approach“). − Informationsmanagement und „Fusionstechniken“ zur Analyse von Beziehungen zwischen verschiedenen Informationseinheiten („Information Management, and fusion techniques in order to analyze relationships between different pieces of information“). − Recherche-Tools für komplexe semantische Suchen im Netz und in Datenbanken („Web / database semantics tools to provide comprehensive search and retrieval of information“). − Entscheidungsunterstützende Systeme mit selbstlernenden, probalilistischen IT-Werkzeugen („Decision aids based on self learning probalistic tools“).213 Man verspricht sich davon, die lageangemessene Aufmerksamkeit zu steigern. Auf diese Weise soll die Entscheidungsfindung insgesamt wesentlich verbessert und der Kampf gegen organisierte Einschleusung und Menschenschmuggel erleichtert werden. Nichtzuletzt soll dadurch die Sicherheit der geschleusten Personen erhöht werden. Das Projekt „ADABTS“214 beschäftigt sich mit der Weiterentwicklung von existierenden Sensor-Processing-Methoden und Algorithmen, um Menschen in komplexen Umgebungen zu detektieren und zu verfolgen. Darin einbezogen sind Personengruppen und Menschenmengen. Die erhobenen Sensordaten (Bildmaterial, Stimmaufnahmen, körperliche Bewegungsmuster) sollen zu diesem Zweck mit „primitiven“ Verhaltensmustern in Beziehung gesetzt werden. Das Fernziel besteht darin, das System „im dynamischen Modus“ auszubauen und so an den jeweiligen Kontext zu adaptieren.215 213  www.sciims.co.uk: „In the European context how can new capabilities improve the ability to search, mine, and fuse information from national, transnational, private and other resources, to discover trends and patterns for increasing shared situational awareness and improving decision making, within a secure infrastructure to facilitate the combating of organized crime in particular people trafficking to enhance the security of citizens?“ 214  „Automatic detection of abnormal behaviour and therats in crowded spaces“. 215  European Commission, S. 4: „ADABTS will develop new and adapt existing sensor processing methods and algorithms for detecting and tracking people in complex environments, involving groups of people or crowds. Extracted sensor data

234

3. Kap.: Anzeichenloser Verdacht

Das Projekt „INDECT“216 hat zum Ziel, ein Konzept für das „intelligente Monitoring“ von Objekten im urbanen Umfeld zu erarbeiten. Es geht dabei um das automatische Entdecken von Bedrohungen etwa durch Kriminalität, Terrorismus und Gewalttätigkeit. Das INDECT-System verfolgt nach Ansicht der Projektverantwortlichen einen neuen Lösungsansatz. Dieser beruhe auf der Anwendung von Multimedia-Technologien und dem intelligentem Monitoring von Objekten und Räumen. Nach Aufnahme der Daten über eine zentrale Station für automatische Datenaquisition würden die erhobenen Daten, Signale und Bilder zum überwachten Gebiet zunächst „intelligent vor-überprüft“ („to pre-process the data intelligently“) und dann an entfernt stehende Server zur Datenanalyse übermittelt. Das integrierte Gesamtsystem, ausgestattet mit sehr hoher Rechnerkapazität und einem gewaltigen Wissensspeicher, sei zusätzlich mit einem Geodaten-Informationssystem verbunden. Es soll so programmiert werden, dass es automatisch Verhaltensmuster erkennen kann, die eine potenzielle Bedrohung für die Sicherheit darstellen.217 Das Projekt „VASA“218 bezeichnet ein gemeinsames deutsch-amerikanisches Forschungsvorhaben. Ziel ist es, eine Methode zur visuellen Datenexploration (Visualisierung von Mustern) mithilfe von Data Mining-Techniken in riesigen Datensammlungen zu entwickeln. Angeschlossen ist dem Projekt eine Forschungsleitstelle in den USA.219 Auch etwa bei FRONTEX220, der Gemeinschaftseinrichtung der EUMitgliedstaaten zum Schutz der Außengrenzen, achtet schon heute sehr darauf, dass der jeweilige technische Standard, der State of the Art, im Bereich der Technologie verfügbar ist. Auf Technologieerweiterung und -verbesserung in der Zukunft wird daher großer Wert gelegt. Die interne features (e. g. tracks, voice pitches, body articulations) need to be related to the behaviour primitives, and, moreover to be dynamic and adapt to the context.“ 216  „Intelligent Information system supporting observation, searching and detection for security of citizens in urban environment“. 217  European Commission, S. 4: „The automatic data acquisition station will be used to acquire data, signals, and images from the surveyed area, then to pre-process the data intelligently and transmit the gathered information to the remote servers. The distributed data processing system, provided with huge computational power and a vast repository of knowledge connected also to a spatial information system, will be programmed in a way that will allow the automatic detection of behaviours that could pose a potential threat to security and safety.“ 218  „Visual Analytics for Security Applications“. 219  Visual Analytics for Command, Control, and Interoperability Environments Center/VACCINE, West Lafayette, USA. 220  European Agency for the Management opf Operational Cooperation at the External Border, siehe Verordnung (EG) 2007/2004 des Rates vom 26.10.2004.



VI. eLeviathan235

Datenbank „CRATE“221, mit der alle verfügbaren Einsatzmittel zur Sicherung der Außengrenze (Hubschrauber, Tragflächenflugzeuge, Schiffe und Spezialgerät wie Detektoren, Radargeräte, Wärmebildkameras, CO2-Detektoren) verwaltet werden, soll um eine Personendatenbank ergänzt werden. Die Forschungsagenda von FRONTEX weist weit in die Zukunft: Das Projekt „SOBCAH“222 etwa hat zum Ziel, die Überwachung von Küsten mit Radar, Sensoren und weiteren Technologien zum Aufspüren irregulärer Migranten zu verbessern. Das Projekt „BSUAV“223 beschäftigt sich mit dem Einsatz von Drohnen und mit technischen Einsatzkonzeptionen zur Erfassung biometrischer Daten. Das Projekt „BORTEC“ beinhaltet die Vernetzung der nationalen Überwachungstechnologien (Radar und Satelliten) zur Überwachung der Meeresgrenzen und ist Teil von „EUROSUR“ („European Surveillance System“); in der ersten Ausbaustufe ist hier die Herstellung von Kompatibilität und technischer Interoperabilität vorgesehen.224 Das installierte Sensorium wird in Zukunft in allen digitalen Gesellschaften massenhaft und ohne Unterlass Daten produzieren. Scans, Bilder, Videos, Protokolle etc. müssen – zum Teil mehrfach – erfasst, maschinell verarbeitet, abgeglichen und schließlich ausgewertet werden. In der Praxis führt dies zu gewaltigen, unvorstellbar großen Datenbanken.225 Das digitale Wissen wird mehr und mehr in Clouds archiviert werden, privaten, öffentlichen und hybriden. Diese wiederum werden in riesigen Rechenzentren und Serverparks administriert werden. In speziellen Datenfarmen werden Datenbestände systematisch mithilfe eigens entwickelter Suchalgorithmen auf potenzielle Risiken durchmustert. Am Beginn des Sicherheitsproduktionsprozesses stehen Massendatenverarbeitung und maschineller Abgleich – zum Teil grenz- oder bereichsüberschreitend. Allein mit menschlichen Mitteln, behördlichen Stäben und personellen Ressourcen sind die Datenströme nicht mehr zu bewältigen. Sehr viel leistungsfähigere IT-Anwendungen und Intelligence-Tools zur systematischen Durchdringung, Auswertung und Verknüpfung der Datenmassen werden die Arbeit der Analysestellen in den Sicherheitsbehörden in noch größerem Umfang bestimmen, die Arbeit der Polizei damit aufs Neue revolutionieren. Durch die Verschmelzung von Informatik, Nachrichtentechnik und Medienindustrie und die damit einhergehenden gewaltigen ökonomischen Verschiebungen ergeben sich völlig neue Fragestellungen, da die entstehenden Medien- und Computernetze alltägliche Wahrnehmungs- und UmgangsforRecord of Available Technical Equipment“. of Border Coastlines and Harbors“. 223  „Border Security Unmanned Aerial Vehicles“. 224  Walter, S. 74. 225  Losano, S. 117–135. 221  „Centralised

222  „Surveillance

236

3. Kap.: Anzeichenloser Verdacht

men radikal verändern werden. Sensoren, Funkmodule und Computerprozessoren werden – Szenarien zufolge – so vernetzt sein, dass man mit Hilfe mobiler Computer intelligente Systeme (Haus, Autos etc.) von überall her wird bedienen können.226 Zahllose Überwachungsaufgaben würden in der Zukunft von integrierten Sensornetzen übernommen, die gleichzeitig als Frühwarnsysteme fungierten. Man geht davon aus, dass sich autonome und teilautonome Systeme zunehmend adaptiv auf die Bedürfnisse des Nutzers einstellen werden.227 Designexperten und Vordenker des neuen Zeitalters halten die primär sprachlich kommunizierenden sozialen Systeme der Industriegesellschaft für nicht mehr zeitgemäß. Immer stärker bediene man sich daher zusätzlich der neuen visuellen Medien. Menschliche Kommunikation werde in allen Äußerungsformen immer stärker visualisiert, wie bereits die alltäglichste Beobachtung heute zeige. Eine Hauptursache für diesen Vorgang könne man darin sehen, dass die mittlerweile zu kommunizierenden Informationsmengen nur noch visuell weiter „sinnverdichtet“ (wissenschaftlich gesprochen „redundanzsuperisiert“) werden könnten. Die sprachliche Bewältigung reiche zur notwendigen Komplexitätsreduktion bei weitem nicht mehr aus.228

226  Dem amerikanischen Software-Unternehmen CISCO zufolge wird sich das gesamte Datenvolumen weltweit alle zwei Jahre verdoppeln; ungefähr ein Drittel der Daten werden „automatisch generierte Kontrolldaten“ sein, siehe CISCO, S. 1–14. 227  Bundesministerium für Wissenschaft und Bildung (Hrsg.), Technikfolgenabschätzung Ubiqitäres Computing und informationelle Selbstbestimmung (TAUCIS). Studie im Auftrag des Bundesministeriums für Bildung und Forschung, Berlin 2006. – Siehe ferner Encarnação, S. 5–6. 228  Van den Boom, S. 22–23.

4. Kapitel

Anzeichen eines Verdachts „Im Anzeichen und Vorzeichen ‚zeigt sich‘, ‚was kommt‘, aber nicht im Sinne eines nur Vor-kommenden, das zu dem schon Vorhandenen hinzukommt; das‚ ,was kommt‘ ist solches, darauf wir uns gefasst machen, bzw. ‚nicht gefasst waren‘, sofern wir uns mit anderem befassten.“ Martin Heidegger, Sein und Zeit, 19931

I. „Kultur der Kontrolle“ Der britische Kriminologe David Garland hat den weitreichenden Veränderungsprozess der sozialen Kontrollpraktiken in den Bereichen Polizei, Strafrecht und Strafvollzug umfassend untersucht und beschrieben. Insbesondere für die USA und Großbritannien diagnostiziert Garland eine nachhaltige Neugestaltung des „Feldes der Verbrechenskontrolle und der Strafjustiz“ durch zunehmend pro-aktive Strategien der Verbrechensverhütung und -bekämpfung.2 Den tiefgreifenden Wandel bringt er auf die Formel von der „Kultur der Kontrolle“ („culture of control“). Sein Fazit zur Polizeientwicklung fällt kurzgefasst so aus: „Im Polizeibereich gab es eine ganz ähnliche Schwerpunktverschiebung: weg von reaktiven Strategien und vom 911 policing (also Einsätzen nur bei eingehenden Notrufen) hin zu einer proaktiven Polizeiarbeit vor Ort sowie, jüngst, zu einer intensiveren Verfolgung von ungebührlichem Verhalten, Vandalismus und geringfügigen Vergehen. Problemorientierte Polizeiarbeit, bürgernahe Polizeiarbeit, Polizeiarbeit zur Aufrechterhaltung von Ordnung und zur Sicherung der Lebensqualität – diese Strategien bestimmen nunmehr, wie die Polizeikräfte eingesetzt werden und wie sie mit der Öffentlichkeit interagieren. Die Polizeiarbeit ist smarter und zielgerichteter geworden.“3 1  Heidegger

(1993), S. 80. David: Kultur der Kontrolle. Verbrechensbekämpfung und soziale Ordnung in der Gegenwart, Frankfurt a. M. 2008, S. 74. – Ferner Koch, H. (1980) S. 51–85; Field/Pelser (Hrsg.), Invading the Private. State accountability and new investigative methods in Europe, Aldershot 1998; Stephens, S. 32–34. 3  Garland, S. 304. 2  Garland,

238

4. Kap.: Anzeichen eines Verdachts

Garlands Analyse beschränkt sich indessen nicht auf den Polizeibereich. Was er ebenfalls untersucht, ist der Wandel in Bezug auf das Gesamtsystem der sog. „Sozialen Kontrolle“. Sein besonderes Augenmerk gilt dabei den zugrunde liegenden Denkstrukturen, etwa dem ökonomischen Kalkül, dem sich die Entwicklung des Sicherheitsmarktes ebenso verdanke wie die Einführung von Managementkursen in den Sicherheitsbehörden. Garland stellt eine tiefgreifende Transformation der Praktiken sozialer Kontrolle fest, nicht nur in Deutschland, sondern in allen fortgeschrittenen westlichen Gesellschaften. Hinter dem Trend zur expansiven Datenerfassung, -speicherung und -auswertung, dem neuen Modus einer aktiven Verdachtschöpfung, entdeckt er ein „rationalistisches Denkmodell“. Die „Kultur der Kontrolle“ sei Ausfluss dieser gedanklichen Grundüberzeugung. Das neue Sicherheitsparadigma des beginnenden 21. Jahrhunderts hat für ihn die Gestalt einer Triade: „Die neue Kultur der Verbrechenskontrolle hat sich um drei Kernelemente herum ausgebildet: ein neu kodiertes System des wohlfahrtstaatlichen Strafens, eine Kriminologie der Kontrolle und ein ökonomisch bestimmtes Denken.“4

Die von Garland im Einzelnen beschriebene, an verstärkter Punitivität orientierte Entwicklung einer Sicherheitspolitik und Sicherheitspraxis lässt sich auch in Deutschland in den verschiedenen Stadien der Transformation des Systems der Inneren Sicherheit beobachten.5 Garlands Analysen bestätigen den Befund, dass der „11. September“ keineswegs der entscheidende Wendepunkt6 in der Politik der öffentlichen Sicherheit war. Sie machen ferner jene Einstellungsmuster und Denkstrukturen sichtbar, die bereits Hans Blumenberg und Otto Mayr aus begriffs- und mentalitätsgeschichtlicher Perspektive herauspräpariert hatten. Garlands Beitrag zur Praxis und Phänomenologie der sozialen Kontrolle repräsentiert einen Meilenstein auf dem Gebiet der interdisziplinären Gesellschaftsdiagnose, so Klaus Gunther und Axel Honneth.7 Garland sei es gelungen, verschiedene „untergründige“ Entwicklungsvorgänge in eine Gesamtdarstellung zu bringen und so die Herausbildung der „Kultur allgegenwärtiger Kontrolle“ in den fortgeschrittenen Industriestaaten und Informa­ tionsgesellschaften auf besondere Weise transparent zu machen: „Seit den siebziger Jahren des 20. Jahrhunderts hat sich das Verhältnis der westlich-liberalen Gesellschaften zu abweichendem Verhalten und Kriminalität dahingehend gewandelt, dass die Idee der Rehabilitation durch die der Vergeltung, die Praxis der Therapie durch die der Wegsperrung und die Programmatik der Fürsor4  Garland,

S. 314. (1997), S. 247–251; Schulte (2006), S. 677–680. 6  So Hoffmann/Schoeller (Hrsg.): Wendepunkt 11. September 2001. Terror, Islam und Demokratie, 2. Aufl., Köln 2002. 7  Hess/Ostermeyer/Paul, S. 20. 5  Brisach



I. „Kultur der Kontrolle“ 239 ge durch die der Prävention ersetzt worden ist. Das Ergebnis dieses untergründigen, aber höchst effektiven Transformationsprozesses ist jene Kultur allgegenwärtiger Kontrolle, in der wir heute leben, ohne uns ihre absurden und befremdlichen Züge noch angemessen vergegenwärtigen zu können.“8

Garland weist dem Konzept der „Kontrolle“ den zentralen Platz im Denken der Sicherheitspolitiker und Sicherheitspraktiker zu. So zentral, dass man von „Kontroll-Denken“, „Kontroll-Logik“, einem „Kontroll-Paradigma“ und eben „Kontrollkultur“ sprechen kann. Wie ist das gemeint? Das Wort „Kontrolle“ entstammt, wie die Wortgeschichte zeigt, der Mechanik. Das Wort leitet sich ab von dem französischen Wort „contrôle“, dieses von dem älteren französischen „contre-rôle“, was soviel bedeutet wie: Gegenrolle bzw. Gegenregister. Das Wort „contre-rôle“ wurde gebildet aus lateinisch „contra“, d. h. gegen, und mittellateinisch „rotulus“, d. h. Rolle bzw. Rädchen als Diminutiv zu lateinisch „rota“, das Rad. Das Wort „Kontrolle“ ist etymologisch verwandt mit dem Verb „rotieren“ (vgl. „Rotation“, „Rotor“) und dem Wortbildungselement „kontra-“, was soviel heißt wie: gegen und entgegengesetzt (vgl. „konträr“, „Kontrast“, „Kontroverse“ usw.). Während Kluge9 den Zeitpunkt der Entlehnung aus dem Französischen auf das 18. Jahrhundert datiert und auf die Verwandtschaft mit anderen mechanischen Metaphern hindeutet, weist William Jervis Jones10 das Wort „Controlleur“ im Deutschen bereits seit dem letzten Viertel des 16. Jahrhunderts nach als gleichbedeutenden Terminus für die bis dahin geläufige Bezeichnung „Gegenschreiber“ oder „Gegenrolle“. Das Wort „contrôler“ hatte in dieser Zeit im Französischen bereits allgemein die Bedeutung von: „etwas einer verwaltungsmäßigen Prüfung zu unterwerfen“ („soumettre à une vérification administrative“).11 Das Wort „Kontrolle“ verweist demnach auf eine Hintergrundvorstellung von korrespondierenden Rollen oder Rädern. Es ist, so könnte man vor dem Hintergrund der Horologischen Revolution jener Zeit schließen, die Vorstellung eines Räderwerks zur mechanischen Kraftübertragung – wie zwei exakt ineinandergreifende Zahnräder, die in ihrer Gesamtheit, als Rad und Gegenrad, eine Bewegungsenergie übertragen. Am sinnfälligsten wird die Kontroll-Metapher, wenn man sich das präzise Getriebe eines Uhrwerks vor Augen führt. Ob es genau diese Vorstellung war, die der französische Wortschöpfer ursprünglich vor Augen hatte, als er den Ausdruck „contrôle“, abgeleitet von „contre-rotulus“, prägte, lässt sich nicht mit Bestimmtheit sagen. Miriam R. Levin, die den Kontroll-Diskurs bis zum Jahre 1580 zu8  Günther/Honneth,

S. 9. (1989), S. 401, 606. 10  Jones, S. 236–237. 11  Huguet, Article „Contrerôle“. 9  Kluge

240

4. Kap.: Anzeichen eines Verdachts

rückverfolgt hat, bestätigt den begriffsgeschichtlichen Zusammenhang, stellt aber gleichzeitig fest, dass eine „detaillierte Geschichte der Kontrollkultur“ noch geschrieben werden müsse.12 Hier wären tiefer gehende wort- und diskursarchäologische Forschungen nötig. Es spielt auch weiter keine Rolle. Entscheidend ist, dass das Wort zu Beginn der Entstehung des modernen Staates in Frankreich auftaucht und seit der frühen Neuzeit unseren europäi­ schen Sprachschatz bereichert. Seither hat das Konzept, wie Miriam R. Levin anschaulich schildert, eine bemerkenswerte Karriere erlebt, von den Staats- und Sozialwissenschaften, über die Natur- und Technikwissenschaften bis hin zur Mathematik und Logik. Der Kontroll-Diskurs erscheint heute in seiner Gesamtheit wie ein riesiges, unübersehbares Flussdelta, das ganze Wissenschaftsgebiete und Praxisfelder zugleich zerteilt und verbindet. Das Kontroll-Denken beherrscht beinahe unangefochten die Vorstellung von Führung, Management, Lenkung und Leitung in Staat, Wirtschaft und Gesellschaft. Demokratie und Rechtsstaat erscheinen vom Kontroll-Standpunkt aus als institutionelle Formen der Machtkontrolle, und das Prinzip der Gewaltenteilung gerät im Zuge kybernetischer Reformulierungen zum rückkoppelnden System wechselseitiger Kontrollen. Insbesondere in der staatswissenschaftlichen Literatur kommt dem Kontroll-Begriff – bis heute13 – eine Schlüsselrolle zu.14 Staat und Gesellschaft stehen sich hier wie zwei Riesen gegenüber, um sich wechselseitig zu kontrollieren: Die Gesellschaft kontrolliert Staat und Polizei im Wege der sogenannten „demokratischen Kontrolle“; die Polizei als Instanz des Staates kontrolliert die Gesellschaft im Wege der „sozialen Kontrolle“. Dieses Schema ist stark vereinfacht, vielfältige zusätzliche Kontrollen könnten noch angeführt werden, justizielle, politische und öffentliche. Aber – dies ist das Prinzip. Sichtbar wird hier das dualistische Grundschema, der binäre Code des Kontroll-Denkens. Praktisch endet der Kontroll-Ansatz in einer logischen Sackgasse, aus der es keinen Ausweg gibt. Man wird gewissermaßen im Kreis geschickt und gelangt so immer wieder an den Ausgangspunkt: Kontrolle. 12  Levin, S. 14, 21: „The word ,control‘ is an Anglo-French term, a contraction of the word contre-rolle referring to a register kept in duplicate by administrators to serve as a means of verifying accounts by comparing one to the other.“ 13  Albers (2010) S. 1061–1069, die von „Kontrolle“ als einem „konstitutiven Element des Rechtsstaats-Konzepts“ spricht. 14  Thaysen, S. 577–583; Meyn, Karl-Ulrich: Kontrolle als Verfassungsprinzip: Problemstudie zu einer legitimationsorientierten Theorie der politischen Kontrolle in der Verfassungsordnung des Grundgesetzes, Baden-Baden 1982; Busch, Eckart: Parlamentarische Kontrolle. Ausgestaltung und Wirkung, 4. Aufl., Heidelberg 1991; Krebs, Walter: Kontrolle in staatlichen Entscheidungsprozessen. Ein Beitrag zur rechtlichen Analyse von gerichtlichen, parlamentarischen und Rechnungshof-Kontrollen, Heidelberg 1984; Stadler, Peter M.: Die parlamentarische Kontrolle der Bundesregierung, Opladen 1984.



I. „Kultur der Kontrolle“ 241

Die verbreitete, zum Grundbestand der Demokratietheorie gehörende Formel: „Wer kontrolliert die Kontrolleure?“, die man dem römischen Dichter Juvenal zuschreibt, ist in der Art der Übersetzung selbst Ausdruck der Karriere der Kontroll-Metapher im kontinentaleuropäischen Sprachgebrauch.15 Die ironisch gemeinte Textstelle bei Juvenal, die vom Sittenverfall im alten Rom und von „Wächtern“ und dem „Bewachen der Ehefrau“ handelt, wurde kurzum mit „Kontrolle“ übersetzt.16 Die seit dem 15. Jahrhundert auftauchende Kontrollterminologie ist Indiz dafür, dass darin eine spezifische und für die Zeit typische Anschauung aufgehoben ist. Tatsache ist, dass das Wort „Kontrolle“ in der Folge in Kontinentaleuropa auf zahlreiche nichttechnische Gebiete übertragen wurde. Die konkrete Anschauung aus der Welt der Mechanik wurde damit zum Referenten eines universalen Kontroll-Begriffs. Die Metapher „contre-rotulus“ veranschaulicht inhärent eine dualistische Vorstellung. Übertragen auf die Logik und die abstrakte Begriffsbildung folgt daraus Binarität bzw. eine dyadische Kontroll-Logik: Aussagen, Bereiche, Systeme, Teilmengen oder was auch immer müssen hiernach klar und eindeutig voneinander abgrenzbar sein – tertium non datur. Man kann sagen, das contre-rotulus ist das Schulbeispiel, das Paradigma, für ein bis heute in Grundzügen mechanisiertes Weltbild. In der Metapher der „Kontrolle“ spiegelt sich gleichsam die Maxime des Rationalismus cartesianischer Prägung: Seit dem Beginn der Neuzeit versucht der Mensch als rationales Subjekt das Objekt seiner Begierde sowohl intellektuell als auch praktisch zu „kontrollieren“. Das Systemdenken, das Denken in „Regelkreisen“ (frz. système réglé), prägt als Ergebnis einer seit Jahrhunderten gepflegten Tradition das Bild von Logik und Vernunft ebenso wie das Bild von Sprache und Kommunikation. Es ist nicht zuviel gesagt, in der Kontroll-Metapher das heimliche Hintergrundmodell seit dem Beginn der Neuzeit zu sehen – heimlich, weil erst mit der Entfaltung der Kybernetik als Lehre von der Steuerung und Kontrolle17 der Kontroll-Begriff seinen universalistischen Anspruch vollständig zur Geltung gebracht hat.

15  Busch/Funk/Kauss/Werkentin/Narr, S.  406: „Die alte Frage: Quis custodiet ipsos custodes? (Wer kontrolliert die Kontrolleure?) ist deshalb aktueller denn je“. 16  Juvenal, S. 114: Pone seram, cohibe! Sed quis custodiet ipsos custodes? Cauta est et ab illis incipit uxor. Treffender lässt sich die Passage, wie folgt, übersetzen: „ ,Leg den Riegel vor, sperr’ sie ein!‘ Wer aber soll die Wächter selbst bewachen? Schlau ist eine Ehefrau und macht den Anfang bei ihnen.“ 17  Siehe den Überblick bei Törnebohm, S. 283–291.

242

4. Kap.: Anzeichen eines Verdachts

II. Kybernetik Nach Morris Berman war es die Mitte des 20. Jahrhunderts aufkommende Kybernetik, die das Erbe der mechanistischen Philosophie angetreten hat. Er konstatiert eine breite und umfassende „Kybernetisierung“ von Wissenschaft und Praxis. Nicht nur die Sprache in der Grundlagenforschung, sondern auch in davon abgeleiteten praktischen Arbeitsfeldern, denen der Bezugsrahmen der „Kybernetik“ zugrunde liege, sei eine allgemeine Anreicherung mit kybernetischen Fachbegriffen, sowohl der Wissenschaftssprache wie der Alltagssprache, feststellbar: „Historische und Sozialwissenschaften sind nicht die einzigen Disziplinen, die kybernetisiert werden. Zumindest drei andere Bereiche, die mir einfallen – Ökologie, Biologie und klinische Psychologie – werden mittlerweile erheblich bestimmt durch eine systemtheoretische Behandlung. Die vorherrschende Tendenz in der amerikanischen Ökologie seit dem zweiten Weltkrieg ist zunehmend reduktionistisch und an Management-Gesichtspunkten orientiert. Die kybernetische Herangehensweise ist die, Daten aus ihrem organischen Kontext herauszulösen und in Form von Informations-Häppchen (,bits‘) zu abstrahieren. Diese werden dann gemäß einem System von Differentialgleichungen manipuliert, um einen optimalen Verlauf für das Ökosystem zu entwickeln und es demgemäß ,rational‘ zu verwalten. Das Wort ,Ökosystem‘ selbst kommt aus der Systemtheorie. Es wurde ersonnen, um den älteren und organischen Ausdruck Lebensgemeinschaft (biotic community) zu ersetzen.“18

Anhand von vielfältigen Beispielen belegt er die enge Geistesverwandtschaft zwischen der Philosophie des 17. Jahrhunderts und kybernetisch argumentierenden Theorien unserer Tage. An die Stelle des „Uhrwerks“ als Paradigma der Weltbetrachtung, so Berman, sei heute der „Computer bzw. das Chipwerk“ getreten: „Diese Parameter haben ihren Ursprung in der wissenschaftlichen Revolution des 17. Jahrhunderts und werden im Allgemeinen von Wissenschaftshistorikern unter der Bezeichnung ,mechanistische Philosophie‘ zusammengefasst. (…) Das beliebteste Bildnis vom Universum war das einer Uhr, die vom Allmächtigen aufgezogen worden war, um für alle Zeiten zu ticken. Die Natur wurde also als mechanisch betrachtet, und alle Erklärungen ihres Verhaltens hatten materialistisch zu sein. Im Großen und Ganzen ist das immer noch das, was die herrschende Kultur glaubt, wie man bei der Durchsicht praktisch jedes modernen Lehrbuches der Natur- oder Sozialwissenschaften erfahren kann – oder ebensogut der Tageszeitung entnehmen könnte.“19

Der „kybernetische Traum des 21. Jahrhunderts“, wie Berman sich ausdrückt, bestehe nunmehr darin, die Schöpfung vollends zum sogenannten „kybernetischen Raum“ zu machen, zum „Cyberspace“, und damit unter die 18  Berman,

S. 123.

19  Berman,  S. 103–104.



II. Kybernetik243

Kontrolle des Menschen zu zwingen.20 So nah auch die geistesgeschichtlichen Traditionslinien zwischen Uhr- und Chipwerk verliefen, so weit, sagt Berman, seien sie von ihrem eigentlichen und erklärten Ziel entfernt. Der kybernetische Denkansatz führe nicht aus der Welt von Newton und Descartes heraus. Der kybernetische Mechanismus sei zwar ein anspruchsvolleres Modell der Wirklichkeit als das Uhrwerk-Modell, aber es sei schließlich immer noch mechanistisch. Auch die verallgemeinerte Systemtheorie und das abstrakte Regelkreis-Modell, eine Art „Prozess-Mechanismus“, seien mehr eine Fortsetzung des wissenschaftlichen Projekts des 17. Jahrhunderts als die Geburt einer wirklich neuen Denkweise.21 Beim näheren Hinsehen ergibt sich tatsächlich eine Beziehung zwischen der Maschinen-Metaphorik und der Logik kybernetischer Programme und elektronischer Kontrollsysteme, wie sie kaum enger sein könnte. Zwischen beiden hatte ja bereits Otto Mayr nicht nur Parallelen in der Argumentation, sondern sogar eine Art „Geistesverwandtschaft“ entdeckt. Die Kybernetik, die Mensch und Maschine unter dem Oberbegriff „System“ zusammenfasst, folgt hinsichtlich Steuerungsoptimismus und Kontrollanspruch dem Grundthema der mechanistischen Philosophie.22 Es ist daher auch kein Zufall, dass sich der amerikanische Mathematiker Norbert Wiener, der Begründer der sogenannten „Kybernetik“, in der Tradition Gottfried Wilhelm Leibniz’ sah, dessen Traum die Mechanisierung des Denkens war. Wiener führt dazu aus: „Wenn ich nach Betrachtung der Wissenschaftsgeschichte einen Schutzpatron für die Kybernetik zu wählen hätte, so würde ich Leibniz nennen. Die Philosophie Leibniz’ kreist um zwei eng verwandte Begriffe – den einer universellen Symbolik und den eines Kalküls der Vernunft. Von ihnen sind die mathematischen Bezeichnungen und die symbolische Logik der heutigen Zeit hergeleitet. Genau wie der Kalkül der Arithmetik eine fortschreitende Mechanisierung, ausgehend vom Rechenschieber und der Tischrechenmaschine bis zum modernen ultraschnellen Rechenautomaten, durchlaufen hat, enthält der calculus ratiocinator von Leibniz der machina ratiocinatrix, der logischen Maschine. Wie sein Vorgänger Pascal war Leibniz selbst an der Konstruktion von mechanischen Rechenmaschinen interessiert. Es ist deshalb nicht im Mindesten überraschend, dass der geistige Impuls, der zur Entwicklung der mathematischen Logik geführt hat, gleichzeitig die ­ideelle oder tatsächliche Mechanisierung der Denkprozesse in Gang brachte.“23

Bemerkenswert ist, wie Wiener zu dem Namen für die neue Wissenschaft, die ihm vorschwebte, gelangte. In seiner Autobiographie Mathematik – Mein Leben beschreibt er die Suche nach einer geeigneten Bezeichnung für sein 20  Weis,  S. 17–45. 21  Berman,

S. 128–129. Stachowiak, Herbert: Denken und Erkennen im kybernetischen Modell, Wien 1965. 23  Wiener (1961), S. 40. 22  Exemplarisch

244

4. Kap.: Anzeichen eines Verdachts

(kybernetisches) Projekt. Auf der Suche nach einem Titel für ein Buch, das von „Vorhersagetheorie“ und „Reglergeräten“ handeln sollte, habe er zunächst an das griechische Wort „angelos“ im Sinne von „Bote“ gedacht; das Wort sei aber wegen seiner spezifischen Bedeutung „Engel“ nicht zu verwenden gewesen. Danach habe er sich für das griechische Wort für „Steuermann“ (kybernétes) entschieden, so dass die neue Regelungslehre fortan „Kybernetik“ hieß.24 Norbert Wiener betrachtete den von ihm begründeten wissenschaftlichen Ansatz als mathematische Steuerungs- und Regelungstheorie; Verallgemeinerungen, vor allem die Verknüpfung seiner Theorie mit Ideen zu einer umfassenden staatlichen Planung und Kontrolle, sah er sehr kritisch.25 Obwohl für ein rein mathematisch-technisches Anwendungsfeld konzipiert, mutierte die Kybernetik bald zu einer Universalwissenschaft für Planung, Steuerung und Kontrolle. Der Ansatz erlebte nach dem Zweiten Weltkrieg einen kometenhaften Aufstieg. Er hat das Denken und Handeln ganzer Generationen, wie Michael Hagner und Erich Hörl26 in ihrem Sammelband zur Kulturgeschichte der Kybernetik anhand von zahlreichen Teilstudien belegen, nachhaltig beeinflusst. Ausgehend von den Macy-Konferenzen 1951 und 1954 in New York27 hat die Kybernetik bis in die 1980er Jahre einen wissenschaftlichen Höhenflug erlebt, in dessen Verlauf die Anhänger des Ansatzes sich als intellektuelle Avantgarde fühlten, sich für alle theoretischen und praktischen Fragen der „Informationsübertragung, -verarbeitung und -speicherung in natürlichen und künstlichen Systemen“28 im Besitz des Schlüssels zur Erkenntnis wähnten. Die im Kern physikalischmathematische Theorie, eine Kombination aus Regelungstechnik, symbolischer Logik und Symbolverarbeitung, wurde so zum generellen Erklärungsansatz, zur Big Science und Metawissenschaft in allen nur denkbaren Gebieten. Die Radikalisierung des kybernetischen Denkens (Kybernetisierung) betraf in besonderem Maße die Sozialwissenschaften. In der Kriminologie erlebten ältere Thesen von der Kriminalität als „soziale Tatsache“ (Emile Durkheim) und der statistische Ansatz der Physique sociale (Adolphe 24  Lang,

E., S. 13–14. S. 43: „Noch Norbert Wiener meinte, dass die Sozialwissenschaften ‚kein guter Exerzierplatz für die Ideen der Kybernetik‘ seien: ‚Die Kybernetik bedeutet‘ – nach Norbert Wiener – ‚nichts, wenn sie nicht mathematisch ist …‘ Doch wird immer mehr, gerade in den Oststaaten, versucht, die Kybernetik (als Leitungswissenschaft) auch für den sozialen Bereich nutzbar zu machen.“ – Zur herausragenden Bedeutung der Kybernetik als allgemeine System-, Informations- und Regelungstheorie im Sozialismus, siehe Klaus/Buhr, S. 640–646. 26  Hagner/Hörl (Hrsg.), Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik, Frankfurt a. M. 2008. 27  Pias, Claus (Hrsg.), Cybernetics: The Macy-Conferences 1946–1953. 2. Essays and documents, Zürich 2004. 28  Hagner/Hörl (2008a), S. 7. 25  Lang,



II. Kybernetik245

Quetelet) unter dem Einfluss der jungen Kybernetik neuen Aufschwung. Sozialkybernetische Theorien „sozialer Kontrolle“ entstanden. Komplexe soziale Verhaltensmuster wurden in kybernetisch-systemtheoretischer Beschreibung zum Input oder Output einer technischen Herstellung sozialer Ordnung. Das Gesellschaftssystem operiert, so gesehen, auf der Grundlage sich „selbst-regulierender Feedback-Mechanismen“.29 Nicht nur Kriminologie und Sozialwissenschaften, sondern auch die Linguistik und Semiotik waren intensiv betroffen von einer kybernetischen Reformulierung.30 Nachrichtentechnische Begriffe wie „Code“ und „Codierung“ wurden auf die natürliche Sprache übertragen mit dem Ziel, eine „Informationssprache“31 zu konstruieren, die eine systematische Symbolverarbeitung und Erkenntnisgewinnung gewährleisten sollte. Im Zuge der Kybernetisierung der Kommunikationstheorie und der Operationalisierung des eigens geschaffenen Begriffssystems geriet die Grundproblematik der „Formalisierbarkeit“ von Sprache überhaupt vollends aus dem Blick.32 Im Rückblick ist es erstaunlich, mit welcher Breitenwirkung die Kybernetik alle nur denkbaren Wissensgebiete erfassen konnte. Hagner und Hörl vermuten, dass dies zum Teil auch als eine Art Abkehrbewegung verstanden werden kann gegenüber Biologismus und Rassenideologie, die bis zum Ende des Zweiten Weltkrieges die Köpfe (und auch die kriminologischen Lehrbücher) beherrschte. Wissenschaft und Praxis suchten offenbar Zuflucht bei anderen, insoweit unverdächtigen, primär technischen Ansätzen. Wie auch immer, der nachhaltige Einfluss der Kybernetik aud Politik und Praxis des 20. Jahrhunderts sind heute unbestritten und vergleichsweise gut erforscht. „Technokratie“, „Planungs- und Steuerungseuphorie“, „Machbarkeitsglaube“, „Kontrollphantasien“ sind Stichworte einer kritischen Aufarbeitung und Auseinandersetzung mit dem kybernetischen Denken und zugleich Stufen des Niedergangs der Kybernetik als Universalwissenschaft.33 Dennoch – die Sache ist damit nicht erledigt. Im Gegenteil, sehr viel spricht dafür, dass Grundpositionen der Kybernetik, wenn auch nicht mehr unter diesem Namen, bis heute intensiv Wirkungen entfalten in der staatlichen und vor allem der ökonomischen Praxis.34 Das gilt zum Beispiel für das 29  Hagner/Hörl

(2008a), S. 29. S. 229–274. 31  Gerovitch, S. 261. 32  Hagner/Hörl (2008a), S. 27. 33  Habermas/Luhmann: Theorie der Gesellschaft oder Sozialtechnologie? Was leistet die Systemforschung?, Frankfurt a. M. 1971. – Ferner Lenk, Hans (Hrsg.), Technokratie als Ideologie. Sozialphilosophische Beiträge zu einem politischen Dilemma, Stuttgart 1973. 34  Tenbruck, S. 60, 64: „So ist die Planung in Theorie und Praxis vielfältig mit vagen Vorannahmen und Überzeugungen belastet. Im Hintergrund des modernen 30  Gerovitch,

246

4. Kap.: Anzeichen eines Verdachts

Regelkreis-Modell als Instrument zur Überwachung von – vorher – festgelegten Messgrößen. Darüber hinaus aber lebt kybernetisches Gedankengut vor allem fort in der Informationstheorie und der Informatik.35 In Gestalt eines verallgemeinerten „Kontroll-Konzepts“, das zugleich die Grundlage bildet für verbreitete technizistische Kommunikationsmodelle, hat sich die Kontroll-Metapher als erstaunlich wandlungsfähig erwiesen. Max Bense spricht im Hinblick die Wirkungsgeschichte des grundlegenden Werks von Norbert Wiener Cybernetics – or Control and Communcation in The Animal and The Machine (1949) von einer Art „Metatechnik“. Hiermit verbindet er tiefgreifende Wirkungen für das Denken und Handeln in zeitgenössischen Gesellschaften: „Die Einbeziehung der modernen Logik, Mathematik, Physik, Psychologie, Physiologie, Psychiatrie, Anthropologie, Soziologie und Metaphysik machen das Werk zu einem grundlegenden Buch moderner Natur-und Technikphilosophie, zu einem Paradigma dessen, was wir Metatechnik nennen möchten. Technik war bisher im Wesentlichen ein Phänomen der Oberfläche der bewohnten und bewohnbaren Sphäre: was jetzt vor unseren Augen entsteht, ist Tiefentechnik; wir erleben ihr Eindringen in die Feinstrukturen der Welt, in die immateriellen Bestandteile, wo dementsprechend ihre pathologischen Züge verborgener und gefährlicher sind. Die kybernetische Erweiterung der neuzeitlichen Technik bedeutet also ihre Erweiterung unter die Haut der Welt.“36

Die Wirkungsweise des kybernetischen Denkens könnte kaum treffender umschrieben werden. Die Konjunktur des Kontroll-Konzepts, die Ausbildung einer „Kultur der Kontrolle“ – sie verdanken sich offenbar dem untergründig fortwirkenden rationalistischen Wissenschaftsideal. Die Kybernetik als „Erbe“ und konsequente Forsetzung der mechanistischen Philosophie war daher theoretisch anschlussfähig im Hinblick auf die überkommene Denktradition. Dieses Denken wirkt förmlich „unter der Haut“ – subkutan – Bewusstseins schlummert ein Glaube an die Machbarkeit der Dinge, der sich nirgendwo im Grundsatz mehr ausweisen muss. (…) Unsere Fähigkeit zur Kontrolle und Einrichtung der Daseinsumstände ist trotz unserer riesigen Kapazität, sie zu verändern, gering, und noch geringer ist die Möglichkeit, aus solchen Veränderungen Glück zu gewinnen.“ – Siehe auch Schäfer, Günter J., S. 25–31. 35  Hartmut von Hentig umschreibt die Kybernetik so: „Kybernetik, wie ihr Name sagt, ist die Wissenschaft von den Steuerungsvorgängen der Organismen. Sie beruht auf der Entdeckung des Funktionswerts der Information, d. h. neben die beiden Prinzipien, die der Naturwissenschaft des 19. Jahrhunderts zu genügen schienen, um die von ihr beobachteten Veränderungen zu erklären, neben die Materie (für die die Chemie zuständig war) und neben die Kraft oder die Bewegung (für die die Physik zuständig war) trat ein 3. Prinzip, das ebenfalls Veränderungen hervorruft und doch auf keins der beiden anderen Pinzipien zurückzuführen ist, die Informa­ tion, Kybernetik ist eine Informationstheorie, ihre eigentliche Begriffsapparatur hat sie an Maschinen entwickelt.“ – Zitiert nach Meissner, S. 127–128. 36  Bense, S. 473–474.



III. Mythos „Kontrolle“247

fort und beherrscht bis heute, als eine Art „Parakybernetik“37, die verschiedensten Praxisbereiche, so auch den der Polizei.

III. Mythos „Kontrolle“ Schon in den achtziger Jahren des 20. Jahrhunderts hatte James Beniger mit Blick auf die Entwicklung der Mikroprozessortechnik, Computer-Technologie und Telematik eine „Kontrollrevolution“ (Control Revolution) vorhergesagt. Die gesamte Gesellschaft und jegliches soziale Verhalten würden davon betroffen sein, meinte er.38 Die Vorhersage ist – ohne Zweifel – eingetreten. Die technischen Kontrollmöglichkeiten sind ohne Beispiel. Technisch möglich und machbar ist – nach den Enhüllungen im Verlauf der NSA-Affäre – selbst die Kontrolle des Internet. Die Ausleitung und Filterung, das Abschöpfen sämtlicher Daten – gleichviel ob es sich um den leitungsgebundenen oder nicht leitungsgebundenen weltweiten Datenverkehr, handelt –, ist hiernach nur mehr eine Frage der Rechen- und Speicherkapazität. Mit der Kontrollrevolution ist ganz unzweifelhaft auch eine Machtsteigerung der Exekutive, die die Systeme verwaltet und einsetzt, verbunden. Günter Ropohl verweist auf Forschungsergebnisse, die einen inneren Zusammenhang zwischen dem Kontroll-Begriff und der MaschinenMetapher bestätigen; beiden sei die Möglichkeit, Macht zu steigern, inhärent: Unter dem Begriff „Macht“ werde üblicherweise die Möglichkeit des Menschen subsumiert, erwünschte Effekte im Verhältnis zu seiner Umwelt zu erzielen bzw. darüber zu verfügen. Die Maschinen-Metapher enthülle dies durch dispositionelle Umschreibungen wie Regelmäßigkeit, Eindeutigkeit, Vorhersehbarkeit und Beeinflussbarkeit – kurz: das „Maschinenhafte“ im Verhältnis zur Umwelt. Ähnlich verhalte es sich mit dem Begriff der „Kontrolle“ (engl. control), der soviel bedeute wie Beherrschung bzw. die Tendenz, einen Zusammenhang zwischen eigenen Intentionen und umweltbezogenen Konsequenzen des eigenen Handelns herzustellen. Ropohl führt dazu aus: „Diesbezügliche Forschungsergebnisse lassen sich dahingehend zusammenfassen, dass die ,Maximierung‘ von ‚Kontrollmöglichkeiten (…) nach Auffassung vieler Umweltpsychologen ein wesentliches Prinzip der Mensch-Umwelt-Interaktion ist. Offenkundig sind es nun gerade auch die technischen Artefakte, die dem menschlichen Streben nach Weltbemächtigung in hervorragender Weise entgegenkommen – und das gleich in mehrfacher Hinsicht. (…) So ist es zu verstehen, dass 37  Tanner,

S. 398. S. 435–436: „The rise of the Information Society itself, more than even the parallel development of formal information theory, has exposed the centrality of information processing, communication and control to all aspects of human society and social behavior.“ 38  Beniger,

248

4. Kap.: Anzeichen eines Verdachts

die ,Maschine‘, als umgangssprachliches Pars pro toto der technischen Hervorbringungen, zur Metapher für das zielstrebig Machbare und zuverlässig Verfügbare werden konnte. (…) Die etymologische und metaphorische Affinität von ,Maschine‘ und ,Macht‘ hat also auch faktische Hintergründe. Maschinen können aus Machtstreben hervorgehen und Macht steigern.“39

Der Zusammenhang liegt auf der Hand. Es fragt sich, ob das hergebrachte Konzept der Kontrolle – einer „Machtkontrolle“ – gegeignet ist, die verschobene Machtbalance wieder herzustellen. Ist „Kontrolle“ bei objektiver Betrachtungsweise ein taugliches Konzept, um die Herausforderungen der digitalen Revolution, insbesondere einer pro-aktiven IT-gestützten Verdachtsgewinnung anzunehmen? Neueren medienwissenschaftlichen Befunden zufolge muss das klar verneint werden: Angesichts der Entwicklung der Medienwirklichkeit, der Etablierung von Instant Messenger-Systemen, Online-Foren und Sozialen Netzwerke, über die in Echtzeit Datenmassen unvorstellbaren Ausmaßes verteilt werden, ist immer öfter von „Kontrollverlust“ die Rede.40 Bernhard Pörksen und Hanne Detel, die die zeitgenössische Medienpraxis, den öffentlichen Diskurs und insbesondere Fälle öffentlicher Skandalisierung untersucht haben, sehen gar im „Kontrollverlust“ so etwas wie ein „MetaMuster“41 des digitalen Zeitalters: „In die falschen Kanäle geratenen Mails und Fotos, Interviewsequenzen, Passwörter und Handyvideos, SMS-Botschaften und Twitter-Meldungen beenden, so zeigt sich, Karrieren und besiegeln ein Schicksal. Sie werden zu global zirkulierenden Beweisen eines Vergehens, die sich nicht mehr aus der Welt schaffen lassen. Immer mehr Daten lassen sich immer leichter durchsuchen, verknüpfen, rekonstruieren, dauerhaft speichern – und eines Tages in öffentliche Dokumente der Diskreditierung verwandeln, die sich nicht allein gegen Mächtige und Prominente, sondern auch gegen Ohnmächtige und gänzlich Unbekannte richten. (…) Und wer dennoch ansetzt, den Kontrollverlust durch eigene Kontrollanstrengungen oder durch die Hilfe mehr oder minder qualifizierter Experten in den Griff zu bekommen, der erreicht wömöglich das Gegenteil des Gewünschten.“42

Wie ist das zu verstehen? „Kontrollverlust“ auf dem Gipfel der Kontrollrevolution? Untersucht man die Diskurse „Datenschutz“ und „Datensicherheit“ näher, findet sich der paradoxe Eindruck bestätigt. In einer rechtsvergleichenden 39  Ropohl,

S. 11–12. Kevin: Das Ende der Kontrolle. Die biologische Wende in Wirtschaft, Technik und Gesellschaft, Köln 1998. 41  Pörksen/Detel, S. 232, 233. – Der Versuch Barbara Streisands, eine Foto ihres privaten Anwesens aus dem Internet zu entfernen, hatte den gegenteiligen Effekt, nämlich die noch viel weitere Verbreitung. Seither wird dieses Phänomen in der Medienwissenschaft „Barbara Streisand-Effekt“ genannt. 42  Pörksen/Detel, S. 232–233. 40  Kelly,



III. Mythos „Kontrolle“249

Studie zur Entwicklung des Datenschutzes kommt Evangelia Mitrou zu einer ernüchternden Bilanz. Im Hinblick auf aktuelle und künftige datenschutzrechtliche Kontrollansprüche stellt sie fest: „War der Ablauf der Informationsverarbeitung in Rechnerzentren schon schwierig genug zu durchschauen und zu kontrollieren, wird die Datenschutzkontrolle wegen der Miniaturisierung und Dezentralisierung bei gleichzeitiger Vernetzung und Erleichterung ,mehr und mehr zur Fiktion‘. Die exponentielle Verbreitung der leicht bedienbaren Personal Computer im Rahmen der öffentlichen Verwaltung hat, schon unter quantitativen Aspekten betrachtet, eine solche Ausweitung des Kontrollbereichs zur Folge, dass es eines omnipräsenten Kontrollapparates bedürfte, um nur annähernd einen Über- und Durchblick zu behalten.“43

Der traditionelle Lösungsansatz der Einrichtung einer „Kontrollinstanz“ zur Gewährleistung der Ordnungsmäßigkeit der Datenverarbeitung, die klassische Vorstellung der wirksamen, nachträglichen Rechtmäßigkeitskontrolle biete nicht länger einen überzeugenden Anhaltspunkt, argumentiert Mitrou. Angesichts der technologischen Revolution habe das technische und verfahrensrechtliche Instrumentarium schon längst versagt. „Kontrolle des Datenschutzes“ sei daher eine „illusionäre Vorstellung“. Der Gesetzgeber, der die – illusionäre – Vorstellung hätte, durch die vorhandenen Normen, Prozeduren und Kontrollmechanismen mit den technischen Prozessen Schritt halten zu können, leiste nichts anderes als Sysiphusarbeit. Bereits im Jahre 1989 war Timothy Flaherty zu einem ähnlich ernüchternden Ergebnis gekommen. In seiner international vergleichenden Untersuchung zur Entwicklung des Datenschutzes hatte er deutlich wahrnehmbare negative Folgen für den Schutz der Bürgerrechte festgestellt. Der Aufbau von Datenbanken im öffentlichen und privaten Sektor führe mehr und mehr zur Herausbildung sog. „Surveillance Societies“. Es bestehe begründeter Anlass, so Flaherty, dass existierende Datenschutzgesetze nur die „Illusion des Datenschutzes“ geschaffen hätten.44 Ganz in diesem Sinne sehen neuere Beiträge zur Diskussion den Datenschutzbeauftragten inzwischen als „zahnlosen Papiertiger“.45 Datenschutz im digitalen Zeitalter gleicht offenbar einem Pudding, den man erfolglos an die Wand zu nageln sucht. Die drastische Umschreibung „Kontrollverlust“, wie im Medien-Diskurs, findet sich indessen im Datenschutz-Diskurs kaum. Vielmehr wird – entsprechend dem expliziten Kontroll­ auftrag – versucht, die verloren gegangene Kontrolle zurückzugewinnen.46 43  Mitrou,

S. 179–181, 276. S. 1: „Moreover, despite the advent of privacy and data protection laws in response to such concerns, there is some evidence that we have created only the illusion of data protection.“ 45  Pahlen-Brandt, S. 24–28. 46  Neisser, S. 327–340. – Die neuer Datenschutzdiskussion versucht sich angesichts vernetzter europäischer Verbunddateien (z. B. VISA-Warndatei, Gewalttäterda44  Flaherty,

250

4. Kap.: Anzeichen eines Verdachts

Der Datenschutz-Diskurs ist in diesem Sinne eine Art „paradigmatischer Kontroll-Diskurs“. „Datenschutz“ ist damit zunächst als (zusätzliche) Kontrollstrategie konzipiert. Nach dem Gesetz ist Datenschutz primär Kontrolle, „Datenschutzkontrolle“. Ein Blick in das Bundesdatenschutzgesetz (§ 24 Abs. 1 Satz 1 BDSG) unterstreicht, was damit gemeint ist: „Der Bundesbeauftragte kontrolliert bei den öffentlichen Stellen des Bundes die Einhaltung der Vorschriften dieses Gesetzes.“47

Dass der Begriff der „Kontrolle“ wiederum ein durch und durch technisches Konzept ist, enthüllt insbesondere § 9 BDSG i. V. m. der Anlage zu 9 Satz 1 Nr. 1–10 BDSG, wo technische und organisatorische Maßnahmen zum Schutz personenbezogener Daten geregelt sind. Im Einzelnen sind dort genannt: − Zugangskontrolle, − Datenträgerkontrolle, − Speicherkontrolle, − Benutzerkontrolle, − Zugriffskontrolle, − Übermittlungskontrolle, − Eingabekontrolle, − Auftragskontrolle, − Transportkontrolle und − Organisationskontrolle. Das Bundesdatenschutzgesetz spricht, was den Kontroll-Ansatz angeht, eine deutliche Sprache. So auch Wilhelm Steinmüller. Er ist bestens vertraut mit der bundesdeutschen Situation des Datenschutzes. In seiner umfassenden und breit angelegten Analyse macht er auf die gesellschaftlichen Risiken eines funktionsunfähigen Datenschutzes aufmerksam. In theoretischer Hinsicht bleibt er dabei allerdings dem Kontrollparadigma, dem System der „Kontrolle des Datenschutzes“, verhaftet. Nach Steinmüller degenerieren „unkontrollierte zweckrationale Systeme“, tendieren zu abweichendem Verhalten und Machtmissbrauch. Es bedürfe daher „zusätzlicher kompensatorischer Kontrolle“, um die „neue Undurchschaubarkeit“ der Informationssystei) unter den Schlagwörtern „Privacy by design“ und „Privacy 3.0“ neue Datenschutzziele zu setzen (z. B. „contextual integrity (unlinkability)“ und „intervenability“), vgl. Borcea-Pfitzmann/Pfitzmann/Berg,  S. 34–40. 47  Gesetz zum Schutz vor Mißbrauch personenbezogener Daten bei der Datenverarbeitung (Bundesdatenschutzgesetz – BDSG) vom 20. Dezember 1990 (BGBl. I S. 2954) geändert durch das Gesetz vom 14. September 1994 (BGBl. I. S. 2325).



III. Mythos „Kontrolle“251

teme für die Gesellschaft auszugleichen. Eine derartige „Fremdkontrolle“ solle bei künftigen Informationstechnik-Anwendungen für „Kontrollfreundlichkeit“ sorgen und bei bestehenden die Einhaltung des Informationsschutzes überwachen. Der Datenschutz müsse „Ohr und Auge“ der Volksvertretung sein und auf entstehende Gefahren hinweisen bzw. Missbräuche rügen. Er solle auch die durch Informationssysteme veränderten Machtverteilungen beobachten und ggf. Alarm schlagen. Steinmüller skizziert hier den klassischen Auftrag der Datenschutzbehörden, räumt aber gleichzeitig ein, dass „Datenschutzkontrolle“ im klassischen Sinne nicht mehr funktioniere. Er schreibt: „Die traditionellen bisherigen Formen der Daten-Selbstkontrolle von Staat und Wirtschaft erfüllen diese Anforderungen nicht oder nur teilweise. Sie sind ohnedies im Interesse des Benutzers installiert, damit er den notwendigen Überblick behält. Hinzukommen muss im Interesse des Betroffenen die Institutionalisierung einer begleitenden Fremdkontrolle. Nachfolgende Kontrolle durch die Gerichte kommt zu spät, da der Schaden meist bereits irreparabel ist; zudem wird die zunehmend unsichtbare Informationsorganisation für den Bürger immer weniger greifbar, so dass er häufig gar nicht die Möglichkeit einer Kontrolle oder gar Abwehr hat.“48

Überraschenderweise ist auch der Diskurs um „Datensicherheit“49 mehr und mehr vom faktischen Verlust der Kontrolle geprägt – das, obwohl gerade hier „Kontrolle“ im Zentrum des Denkens und Handelns der IT-Industrie und der verantwortlichen Ingenieure steht. Die Frage der Datensicherheit ist nach spektakulären Datenlecks in sensiblen Datenbanken weltweit zum herausragenden sicherheitspolitischen Thema geworden. Insbesondere die Cyber-Attacke auf die Regierung von Estland im August 2008 hat die Gefährdung der Integrität von Datenbankinhalten ins Blickfeld der Weltöffentlichkeit gerückt.50 Der starke Anstieg der registrierten Cyber-Kriminalität, die Existenz einer sog. „Underground Economy“51, die Fernsteuerung von gekaperten IT-Systemen (sog. „Bot-Netzen“52), die wachsende Bedeutung 48  Steinmüller,

S. 693–695. Terminologie ist in der Praxis uneinheitlich – zum Teil ist von „Datensicherheit“, zum Teil von „Informations- bzw. IT-Sicherheit“, zum Teil von „Cybersicherheit“ die Rede. Wir verwenden hier „Datensicherheit“ in weitesten Sinne, der nicht nur technisch-organisatorische Aspekte sondern auch konzeptionell-kontextuelle Aspekte umfasst. 50  Mcaffee, S. 2. 51  Globaler, virtueller Markt, über den kriminelle Anbieter und Käufer ihre Geschäfte abwickeln (z. B. Verkauf gestohlener digitaler Identitäten). 52  Die Bezeichnung leitet sich vom englischen „ro-bot“ her; es handelt sich dabei um gekaperte IT-Systeme (zum Teil sind das Hunderte von Personal Computern), die von Control & Command-Servern ferngesteuert werden, siehe European Network and Information Security Agency: Botnets: Detection, measurement, Disinfection & Defence, Heraklion 2011. 49  Die

252

4. Kap.: Anzeichen eines Verdachts

von Cyber-Spionage und die wachsende Anzahl gezielter DDoS-Attacken53 mittels Schadprogrammen (Viren, Würmer, Trojaner etc.) wird allgemein als völlig neue Sicherheitsherausforderung in allen Bereichen betrachtet.54 Die Situation droht sich durch die rasche Verbreitung von Smartphones, Netbooks und Tablet-PCs, aber das künftig in großem Stil zu erwartende Cloud Computing zu verschärfen.55 Nicht zuletzt deshalb, weil zu erwarten ist, dass Ausbau und Vernetzung der IKT-Infrastrukturen im Rahmen umfassender e-Government-Strategien rasant voranschreiten.56 Von offizieller Seite wird die Frage der Datensicherheit, die Sicherheit des „Cyber-Raums“57, als „existentiell“ eingeschätzt: „Staat, Kritische Infrastrukturen, Wirtschaft und Bevölkerung in Deutschland sind als Teil einer zunehmend vernetzten Welt auf das verlässliche Funktionieren der Informations- und Kommunikationstechnik sowie des Internets angewiesen. Fehlerhafte IT-Produkte und Komponenten, der Ausfall von Informationsinfrastrukturen oder schwerwiegende Angriffe im Cyber-Raum können zu erheblichen Beeinträchtigungen der technischen, wirtschaftlichen und administrativen Leistungsfähigkeit und damit der gesellschaftlichen Lebensgrundlagen Deutschlands führen. Die Verfügbarkeit des Cyber-Raums und die Integrität, Authentizität und Vertraulichkeit der darin vorhandenen Daten sind zu einer existentiellen Frage des 21. Jahrhunderts geworden. Die Gewährleistung von Cyber-Sicherheit wird damit zur zentralen gemeinsamen Herausforderung für Staat, Wirtschaft und Gesellschaft im nationalen und internationalen Kontext.“58

Für den militärischen Sicherheitsbereich wird zum Teil aufgrund teilweise übersteigerter Automatisierungstendenzen und massenhaften auftretender Schadcodes ein fundamentaler Strategiewechsel empfohlen.59 Statt fort53  Distributed Denial of Service – es handelt sich dabei um gezielte Angriffe, zum Beispiel ferngesteuerte Spam-Angriffe, auf die Verfügbarkeit von IT-Systemen, vgl. Bundeskriminalamt (2011b), S. 7. 54  Elsberg, Marc: Blackout. Morgen ist es zu spät. Roman, 2. Aufl., München 2012. 55  Bundesamt für die Sicherheit der Informationstechnik, S. 6. 56  Alcatel-Lucent Stiftung für Kommunikationsforschung/Gemeindetag Baden Würrtemberg/Innenministerium Baden-Würtemberg/Stiftung der Württembergische Gemeinde-Versicherung a. G. (Hrsg.), Praxis des E-Government in Baden Württemberg, Stuttgart 2010. 57  Bundesministerium des Innern (2010), S. 8: „Der Cyber-Raum ist der virtuelle Raum aller auf Datenebene vernetzten IT-Systeme im globalen Maßstab. Dem Cyber-Raum liegt als universelles und öffentlich zugängliches Verbindungs- und Transportnetz das Internet zugrunde, welches durch beliebige andere Datennetze ergänzt und erweitert werden kann. IT-Systeme in einem isolierten virtuellen Raum sind kein Teil des Cyber-Raums.“ 58  Bundesministerium des Innern (2011), S. 1. 59  Zur Kritik der sog. „Vernetzten Operationsführung“ (Network-Centric War­ fare), insbesondere dem sog. „C4ISR-Konzept“ („Command, Control, Computer, Communication, Intelligence, Surveillance, Reconnaissance“) Gaycken, S. 40–41.



III. Mythos „Kontrolle“253

schreitender Vernetzung von Sicherheitsarchitekturen und der Intensivierung der Voll- und Teilautomatisierung wird die Notwendigkeit für eine „umfassende Revision aller informationstechnisch basierten Technostrategien“ gesehen, an dessen Ende die „Entnetzung“ sensibler IKT-Infrastrukturen stehen müsse.60 Eigenartig abstrakt und kontrafaktisch klingt vor diesem tatsäch­ lichen Hintergrund das Plädoyer des Präsidenten des Bundeskriminalamtes zur Strafverfolgung im Internet: „Das Internet darf kein verfolgungsfreier Raum sein! Die Polizei ist gefordert, den Schutzauftrag des Staates für alle Bürger zu erfüllen und Kriminalität zu bekämpfen – unabhängig davon, in welcher Form und an welchem Ort sie verübt wird. Dies kann und muss heute selbstverständlich auch der virtuelle Raum sein. Wir müssen sicherstellen, dass die Nutzung des Internets für jedermann möglich ist, ohne das damit schwerwiegende Gefahren verbunden sind. Wer diesen Anspruch aufgibt, weil er meint, dies sei der Preis der Freiheit, denn hundertprozentige Sicherheit könne es ohnehin nicht geben, der kündigt das Sicherheitsversprechen des Staates gegenüber seinen Bürgern auf – zugleich eine wesentliche Rechtfertigung des staatlichen Gewaltmonopols.“61

Kein Zweifel – die Herausforderung, öffentliche Sicherheit unter den gegebenen Bedingungen zu gewährleisten, ist für die Sicherheitsbehörden riesig. Im Herbst 1998 hat die Innenministerkonferenz daher auch das Bundeskriminalamt mit der zentralen Wahrnehmung anlassunabhängiger Recherchen in Datennetzen beauftragt. Die daraufhin eingerichtete Zentralstelle für anlass­ unabhängige Recherchen in Datennetzen (ZaRD) durchsucht, wie sie sagt, „ständig, systematisch und deliktsübergreifend“ das Internet und OnlineDienste (World Wide Web, Usenet, File Transfer Protocol, FileSharing und Internet-Relay-Chat) nach strafbaren Inhalten. Die anlassunabhängigen Recherchen – Vorfeldaktivitäten ganz anderer Art – ergeben regelmäßig auch einen hohen Anteil an Verdachtsfällen. Diese werfen vor dem Hintergrund des Geltungsbereichs der nationalen Rechtsordnung zusätzliche völkerrechtliche Rechtsfragen auf. Die Mitarbeiterinnen und Mitarbeiter der ZaRD sind sich der Begrenztheit der anlassunabhängigen Netzpatrouillen bewusst: „Über drei Milliarden Websiten im WWW, über 150.000 verschiedene Newsgroups und ca. 25.000 verschiedene Chatkanäle im Internet Relay Chat (IRC) machen deutlich, dass nur eine begrenzte Überwachung des Internets und der Dienste zur Feststellung von Staftaten möglich ist. Obwohl die Verbreitung der Kinderpornografie nach wie vor das auffälligste Delikt im Internet ist, versucht die ZaRD den Blick auf andere Kriminalitätsphänomene nicht zu verlieren und recherchiert regelmäßig auch in anderen Deliktsbereichen.“62 60  Gaycken,

S. 45–46. (2008), S. 79. 62  Zentralstelle für anlassunabhängige Recherchen in Datennetzen (ZaRD), www. bka.de. 61  Ziercke

254

4. Kap.: Anzeichen eines Verdachts

Die Wucht, mit der das Netz und damit die Kommunikationsbeziehungen im globalen Maßstab wachsen, lassen befürchten, dass die ZaRD kaum den Überblick über Kriminalitätsphänomene im Internet behalten wird. Das Beispiel zeigt, wie groß die Herausforderung tatsächlich ist. Weder normativistische Appelle noch eine anlasslose und unmotivierte Verdachtschöpfung im Netz – auch nicht eine Vollkontrolle – sind hier offenbar problem­ angemessen. Auf dem Höhepunkt der Kontrollrevolution zeigt sich, dass gerade die fortgeschrittenen Kontrolltechnologien, software und genetic engineering etwa, aufgrund ihres hohen Komplexitätsgrades schlechterdings nicht mehr kontrollierbar sind. Das Denken in Kontrollkategorien ist offenbar angesichts der Eigendynamik der Forschungs- und Programmierungspraxis mehr Wunsch als Wirklichkeit.63 In einem frühen Bericht an den Club of Rome64 bringt Donald N. Michael diesen Zusammenhang bereits auf den Punkt: „Das Vorhaben des westlichen Menschen, die gesellschaftlichen Umstände (im Gegensatz zu den technischen), die seiner Verantwortung unterliegen, unter Kontrolle zu bekommen, scheint mehr und mehr zum Scheitern verurteilt zu sein. (…) Es ist eine gewaltige Ironie unserer Kultur, dass sich eine ihrer wichtigsten Grundannahmen, ein Mehr an Information führe zu mehr Erkenntnissen, die ihrerseits unsere Fähigkeit zur Kontrolle erhöhen, als falsch herausgestellt hat. Ganz im Gegenteil: Je mehr Informationen wir bekommen, desto deutlicher wird uns bewusst, dass wir die Kontrolle über die Situation verlieren.“65

Gleichviel, fährt er fort, ob es sich um Informationen über die Zerstörung unserer Umwelt, die in Unordnung geratenen wirtschaftlichen Verhältnisse, über Giftrückstände in Nahrungsmitteln oder die nationale Sicherheit handele, sie alle belegten letztlich dasselbe: nämlich dass wir sind nicht in der Lage sind, die Gesellschaft so zu „kontrollieren“, wie wir es gerne hätten. Die neue Herausforderung mache vor allem klar, dass Kontrollierbarkeit ein Mythos sei. Die Strategie der Verbreiterung der Datenbasis, ebenso wie der Ansatz vernetzter Kontrolltechnologien, gilt offenbar nicht uneingeschränkt, sondern unterliegt ebenfalls dem ökonomischen Gesetz des Grenznutzens. Just Unter63  Third World Network (1995) The Need for Greater Regulation and Control of Genetic Engineering. A Statement by Scientists Concerned about Current Trends in the New Biotechnology, Penang, Malaysia. 64  Der Club of Rome wurde im Jahre 1968 von Aurelio Peccei gegründet. Peccei lud dreißig Wissenschaftler und Politiker nach Rom ein, um mit ihnen über weltweite Probleme zu diskutieren. Es wurde beschlossen, dass der Club weder politische noch wirtschaftliche Sonderinteressen vertreten dürfe – seine Aufgabe sollte sein, globale Krisensituationen zu analysieren sowie Informationen und Alternativen auszuarbeiten, die den Verantwortlichen in allen Ländern Entscheidungshilfe sein ­ könnten. 65  Michael, S. 230–231.



III. Mythos „Kontrolle“255

suchungen zur „Kontrolle der Polizei“66 bestätigen den Gesamtbefund bis hierhin. Sie entlarven die Vorstellung von der „Kontrolle der Polizei“ als Mythos67 – ja verwerfen die Vorstellung von „Kontrolle“ („control“) als ungeeignet zugunsten alternativer Konzepte, wie „Überprüfung“, „Aufsicht“, „Verantwortlichkeit“ („Police Review“, „Civilian Oversight on Policing“ und „Police Accountability“).68 Ganz allmählich beginnt die Absicht des Kontroll-Ansatzes, einen sozialen Sachverhalt analog zur technischen Vorgehensweise kontrollieren zu wollen, der nüchternen Einsicht Platz zu machen, dass Kontrolle in Wahrheit das ist, was es immer war, nämlich Illusion.69 Die Frage ist: Gibt es einen anderen Weg? Wie soll mit der wuchernden Wildnis, der Pluralität und Performanz der „virtuellen Realität“, dem potenziell kriminogenen Halb-Realen und Fiktionalen, dem Mimikry obskurer und okkulter Parallelwelten und Ersatzwirklichkeiten, umgangen werden? Ist die Vorfeldüberwachung und „strategische Kontrolle“ zur Identifizierung von potenziellen Sicherheitsrisiken der richtige Weg? Ist nicht das Internet de facto tatsächlich „unkontrollierbar“, wie Axel Honneth und andere feststellen?70 Der springende Punkt: Gesucht wird ein Ausweg aus der Krise des Kontroll-Konzepts. Was fehlt, ist eine Strategie im Sinne einer plausiblen Handlungstheorie zum Umgang mit Risiken und Ungewissheit. Vieles spricht dafür, dass sich der Kontroll-Ansatz angesichts des grundlegenden sozialen Wandels als unzureichend erwiesen hat, um Fragen der Machtbalance, der politischen Steuerung und der rechtlichen Regulierung im 21. Jahrhundert befriedigend zu beantworten. 66  Zur Diskussion Punch, Maurice: Control in Police Organizations, London 1983; Weisburd/Uchida: Police Innovation and Control of the Police. Problems of Law, Order, and Community, New York 1993; Goldsmith, Andrew J. (Hrsg.) Complaints against the Police. The Trend to External Review, Oxford 1991; Perez, Douglas W.: Common Sense about Police Review, Philadelphia 1994. 67  Sykes, S. 286–297; Wachtel, S. 137–158. 68  Simey, S. 118: „The unexpected outcome of our search for control was thus what amounted to a completely new understanding of what we meant by accountability. (…) Accountability is not about control but about responsibility for the way in which control is exercised. The distinction is a fine but it is of fundamental importance. In other words, accountability is not an administrative tool but a moral principle. Of those to whom responsibility is given, an account of their stewardship shall be required. It is a principle whose purpose is to govern the relationship be­ tween those who delegate authority and those who exercise it.“ – Ähnlich Lambert, John L.: Police Powers And Accountability, London 1986. 69  Langer, E. J., S. 311–328. 70  Setz, Clemens: Die Tiefe. Es gibt ein Internet, vor dem selbst Geheimdienste kapitulieren. Man nennt es Deep Net, Tor oder Onionland. Ein Reich unheimlicher Freiheit, in dem man Drogen, Waffen, Killerdienste und Kinderpornographie kaufen kann – und vollkommen anonym bleibt, in: DIE ZEIT, No. 28, vom 4. Juli 2013, S. 39–40.

256

4. Kap.: Anzeichen eines Verdachts

IV. Kritik der „Sozialen Kontrolle“ Noch deutlicher als bei den Diskursen „Datenschutz“ und „Datensicherheit“ zeigen sich im kriminologischen Diskurs der „Sozialen Kontrolle“ (engl. Social Control) die Unzulänglichkeiten und Defizite des Kontroll-Konzepts. Festzustellen ist eine Art Crescendo der Kontrollverdrossenheit. Der Begriff der „Sozialen Kontrolle“ ist in den Augen vieler Kriminologen inzwischen mehr als verdächtig, das, was er zu leisten vorgibt, nämlich sozial abweichendes Verhalten zu erklären, in Wahrheit nicht leisten kann. Zum Teil tritt man daher zwar noch dafür ein, das simplifizierende Konzept der „Sozialkontrolle“ um eine ethische Komponente zu ergänzen.71 Es gehe dabei aber um nichts weniger als „die Rettung des Begriffes der Sozialen Kontrolle aus seinem augenblicklichen Verfallszustand“.72 Dennoch, das Kontroll-Konzept – das, was David Garland „Kriminologie der Kontrolle“ nannte, ist im kriminologischen Diskurs ganz herrschend. Kriminologie ist hiernach die „geordnete Gesamtheit des Erfahrungswissens über das Verbrechen, den Rechtsbrecher, die negativ soziale Auffälligkeit und über die Kontrolle dieses Verhaltens“ bzw. „die Kontrolle der sozialen Auffällig­keit“.73 Immer deutlicher aber werden die theoretischen Schwächen des Konzepts, immer schärfer die Kritik. Der britische Kriminologe Stanley Cohen spricht gar von einer Art „Mickey Mouse concept“, das nicht annähernd die Problematik der sozialen Ordnung in komplexen Gesellschaften beschreibe.74 Gerade am Beginn des 21. Jahrhunderts habe sich die formale Sozialkontrolle in der Praxis in professionelle managementbezogene Strategien der „Inklusion / Exlusion“ aufgespalten. Er spricht insoweit von einer sehr „bedeutsamen, sich vertiefenden Zweispurigkeit“ („decisive and deepening bifurcation“).75 Noch bedeutsamer aber sei die Tatsache, dass die formale Sozialkontrolle einen proaktiven Modus angenommen habe. „Soziale Kontrolle“, so schreibt er, „entwickelt sich von dem bislang üblichen reaktiven Modus – indem sie nur aktiviert wird, wenn Regeln verletzt werden – in den proaktiven: Antizipation, Vorhersage, Kalkulation im Voraus.“76 71  Nadel, S. 270: „Even societies relying on machineries of control, then, must rely on values simply held.“ 72  Hess (1983), S. 3–24. 73  Kaiser, S. 1; Schwind, S. 7. 74  Cohen (1989), S. 356: „(…) it is rather to recognise that to hammer reality with the concept ,social control‘ will produce neither the coherent social essence nor the unambiguous political messages that were once promised. It will reveal fragments – shifting strategies and alliances, unconnected zones of power, changing vocabularies of intervention – which cannot be reassembled by conventional m ­ eans.“ 75  Cohen (1985), S. 232. 76  Cohen (1993), S. 220.



IV. Kritik der „Sozialen Kontrolle“ 257

Diese Entwicklung werde hingegen in Standard-Lehrbüchern zur Kriminologie kaum nachvollzogen.77 Entschieden wendet sich Cohen daher gegen den zunehmend simplifizierenden Kontroll-Diskurs, das, was er „control-talk“ und „technobabble“ nennt: „Controltalk ressembles Newspeak (1984, G. Orwell, N. R.), though there are some important differences. Newspeak tried to shrink the language by eliminating words which were too complex and ambigous. Controltalk, however, increases than decreases the vocabulary, or substitutes elaborated-code for restricted-code words. (…) technobabble (…) Jargon to make simple matters sound very complicated.“78

Schon früh hatte sich Jason Ditton gegen einen Vereinnahmung durch die Kontrollterminologie verwahrt. Kriminologie als interdisziplinäre Sozialwissenschaft wollte er von einer Art „Kontrollwissenschaft“ („Controlology“) deutlich abgesetzt sehen.79 Auch Morris Janowitz kritisiert in seiner wissenschaftsgeschichtlichen Studie zum Begriff der „Sozialen Kontrolle“ eine unangemessene „Übersimplifizierung“. In der Kontrastierung der Kategorien „Gemeinschaft“ und „Gesellschaft“ erkennt er eine „dichotomische Grundstruktur“ der Argumentation.80 Eine ähnliche Beobachtung macht Susanne Krasmann: Das „zentrale Problem des Kontroll-Konzepts“ bestehe darin, dass es von „isolierten Entitäten“, wie Staat, Herrschaft, Institutionen oder Individuen, als singuläre Akteure ausgehe. Durch die Brille der „Sozialen Kontrolle“ betrachtet, erschienen Beziehungen zwischen diesen Akteuren daher stets „dichotomisch“. Kontrolle werde zudem immer als vermittelt gesehen durch Normen und Werte, Bedeutungen und Symbole. Diese würden seinerseits als „Entitäten“ betrachtet. Soweit das Konzept der „Sozialen Kontrolle“ schließlich voraussetze, dass Kontrolle „sozial“ sei, blende es tendenziell die Historizität des Sozialen aus. Es könne deshalb weder reflektieren, inwiefern das Soziale selbst das Ergebnis politischer Prozesse sei, noch wie sich seine Konstitution, etwa durch Formen der Ökonomisierung des Sozialen, verändere.81 77  Unergiebig die Darstellung zur „Sozialen Kontrolle“ bei Friday/Kirchhoff, die im Wesentlichen den Mainstream der amerikanischen Kriminologie (Hirschi/Reckless/Schwartz/Tangri) wiedergeben, dabei zwischen „interner und externer Kontrolle“ unterscheiden wollen, vgl. Friday/Kirchhoff, S. 77–104. 78  Cohen (1985), S. 275 ff.: Appendix: On Constructing a Glossary of Controltalk. 79  Ditton, S. 107: „Controlology is not an institutional claim for a new discipline; it is only a plea that control might be considered an authenically separable topic for study (…). Nevertheless it is clear that controlology directly opposes criminology (which crew up arm-in-arm with social control and is organised to study the conditions of the criminal impulse) in that it could well be used as an arm against social control, through its study of the control impulse.“ 80  Janowitz, S. 500. – Pitts, S. 381–396. 81  Krasmann (2003), S. 304–305.

258

4. Kap.: Anzeichen eines Verdachts

Unterdessen wächst das Unbehagen gegenüber dem undifferenzierten Einsatz neuer, überaus effektiver neuer Kontrolltechnologien.82 Auf breiter Front wachsen Zweifel gegenüber einem Konzept, das wesentlich auf einem binären Kontroll-Denken beruht. Sebastian Scheerer spricht deutlich aus, worin das Kernproblem besteht. Das Konzept der „Sozialen Kontrolle“ funktioniere, stellt er fest, „vor allem präventiv, veräußerlicht und maschinisiert.“83 Diese Kritik des Konzepts der „Sozialen Kontrolle“ bewegt sich indessen nicht nur auf der Ebene der Sprachkritik. Es geht nicht nur um die Vermeidung der Vokabel „Kontrolle“, das vordergründige Wording, den Austausch und die Suche nach einem passenden Synonym. In der Kontroll-Metapher kommt ja – ganz im Sinne des Blumenbergschen Ansatzes – ein spezifisch mechanisches Denkmuster, die besondere Geisteshaltung und Ordnungsvorstellung nach dem Vor-Bild der Maschine, zum Vorschein.84 „Kontrolle“ ist, so betrachtet, eine Art „metaphorischer Transmissionsriemen“, der außerordentlich widerständig und wirkmächtig einen erkenntnistheoretischen Dualismus ebenso wie einen substanzontologischen Rationalismus in die Gegenwart überträgt. Verbunden ist damit eine in bestimmtem Sinne „mechanische“ Weltsicht85, die den „Seins“-Begriff substanzontologisch (in Form von Entitäten) fasst. Martin Heidegger hat sich Zeit seines Lebens mit diesem Zusammenhang befasst: Im Subjektivismus bzw. Individualismus als Folge der Befreiung des Menschen von den mittelalterlichen Bindungen und im Objektivismus der Weltbetrachtung sieht er das „Wesen der Neuzeit“.86 Mit Nachdruck hat er daher gegen das kybernetische Bild des Denkens – 82  Kattau (1993) sieht in der Verbindung von „Technisierung der Kontrolle“, pro-aktive Bekämpfungsstrategien und einer ökonomischen Logik den Weg beschritten in Richtung auf einen „europäische(n) ‚Polizeistaat‘ “ (S. 170). – Umstritten ist der Einsatz sogenannter thinking oder smart cameras, eine technische Weiterentwicklung der herkömmlichen Videoüberwachung, bei der Videodaten automatisiert ausgewertet werden, so dass auffällige Bewegungsmuster identifiziert oder Personen gezielt verfolgt werden können (sog. „tracking“), vgl. Schenke, R. P. (2014) zu § 27 BPolG, Rdnr. 18. 83  Scheerer (1996), S. 327. 84  Zur Kritik ferner Breuer, S. 87–126. 85  Ernst Mach, Verfasser einer Geschichte der Mechanik und renommierter Vertreter des Wissenschaftszweiges, hat sich indessen nie eine substanzontologische Sicht zu eigen gemacht, sondern zum Beispiel das Atom-Modell rundweg abgelehnt. Er gilt heute als Wegbereiter der Relativitätstheorie und Quantenmechanik, siehe Mach, Ernst: Die Mechanik in ihrer Entwicklung: historisch-kritisch dargestellt, Darmstadt 1988. 86  Heidegger (1950a), S. 81: „Gewiss hat die Neuzeit im Gefolge der Befreiung des Menschen einen Subjektivismus und Individualismus heraufgeführt. Aber ebenso gewiss bleibt, dass das Nichtindividuelle in der Gestalt des Kollektiven zur Geltung kam. Das Wesentliche ist hier das notwendige Wechselspiel zwischen Subjektivis-



IV. Kritik der „Sozialen Kontrolle“ 259

nach Heidegger „rechnendes Denken“87 – argumentiert. Die Berechenbarmachung des Mentalen, die logische Modellierung durch Inferenzregeln und Logik-Kalküle – alles, was heute im weiten Bereich des Artificial Intelligence selbstverständlich geworden ist – hatte aus seiner Sicht eine technische Verkürzung und zugleich Verfremdung des Realen zur Folge. Das kybernetische Regelkreis-Modell, das behauptete „Sein im Regelkreis“, sah er als Höhepunkt einer neuzeitlichen Subjekt-Objekt-Beziehung.88 Das abendländische Denken ist offenbar bis heute vom dichotomischen Denken außerordentlich stark beeinflusst. Im „Systemdenken“ und in der „Kybernetik“, die in der Staatspraxis und der staatlichen Planung große Wirkung entfaltet haben, hat jene dualistische Denktradition ihren prägnantesten Ausdruck gefunden.89 Den frühen Arbeiten des Protagonisten der Systemtheorie Niklas Luhmann90 etwa liegt letztlich – wenn auch theoretisch weiterentwickelt – ein dichotomisches Grundmodell zugrunde.91 So unterscheidet die „Kybernetik erster Ordnung“92 konsequenterweise, aber auch die davon abgeleitete sogenannte „Kybernetik zweiter Ordnung (Sec­ ond Order Cybernetics)“, stets zwischen „System“ und „Umwelt“, zwischen Innen und Außen, und – soweit es um Steuerungsimpulse bzw. den Informationsfluss zwischen zwei auf diese Weise autonom gedachten bzw. konstruierten Systemen geht – zwischen Input und Output. Luhmann führt dazu aus: „Von Beobachtung zweiter Ordnung, second order cybernetics, second semiotics usw. spricht man seit geraumer Zeit, aber offensichtlich im Hinblick auf eine sehr verschieden verstandene basale Operation, etwa im Hinblick auf einen Rechenvorgang (Heinz von Foerster), im Hinblick auf einen sehr allgemeinen, biologisch fundierten Begriff von Kognition (Humberto Maturana) oder im Hinblick auf Zeichenverwendung (Dean und Juliet MacCannell). Gotthard Günther fragt nach mus und Objektivismus. Doch eben dieses wechselseitige Sichbedingen weist auf tiefere Vorgänge zurück.“ 87  Hörl, S. 163–228. 88  Hörl, S. 175. 89  Parsons, Talcott: Zur Theorie sozialer Systeme, Opladen 1976; Luhmann, N.: Soziale Systeme, Frankfurt a. M. 1984; Willke, Helmut: Systemtheorie I: Eine Einführung in die Grundprobleme, 6. Aufl., Stuttgart 2000. 90  Luhmann, N.: Grundrechte als Institution. Ein Beitrag zur politischen Soziologie, Berlin 1986; Luhmann, N.: Legitimation durch Verfahren, 3. Aufl., Frankfurt a. M. 1993; Bendel, S. 261–278. 91  In späteren Arbeiten wendet sich Luhmann verstärkt nicht-systemischen Denkansätzen, z. B. Metaphorologie und paradoxer Logik, zu, siehe Luhmann, N.: Beobachtungen der Moderne, Opladen 1992; Luhmann (1993a), S. 287–310. 92  Steinbuch, Klaus: Automat und Mensch. Kybernetische Tatsachen und Hypothesen, 3. Aufl., Berlin 1965; Keidel, Wolf-Dieter: Biokybernetik des Menschen, Darmstadt 1989.

260

4. Kap.: Anzeichen eines Verdachts

den logischen Strukturen, die geeignet sind, zu erfassen und zu beschreiben, was vor sich geht, wenn ein Subjekt ein anderes Subjekt nicht nur als Objekt, sondern eben als Subjekt, das heißt als Beobachter beobachtet. Andere sehen das Problem als ein Problem der Zurechnung von Beobachtungen auf Beobachter. In den Sozialwissenschaften werden ähnliche Fragen mit Hilfe einer nicht weiter explizierten (wohl psychologisch zu verstehenden) Begriffs der Beobachtung behandelt und primär als Methodenproblem gesehen. Die Kybernetik zweiter Ordnung denkt selbstverständlich an Operationen der Regelung und Kontrolle.“93

Hier wird deutlich, in welchem Maße nicht nur der Wissenschaftsbetrieb, die Praxis von Staat und Wirtschaft, sondern auch das Denken, Logik und Methodik, von der systemischen Dichotomisierungstechnik erfasst sind. Nach Gotthard Günther, den Luhmann hier hervorhebt und der als Protagonist der Kybernetik Mitte des 20. Jahrhunderts zu Ansehen gelangte, muss die Logik „radikal zweiwertig“94 sein. „Zwischenwerte“ existierten nicht in der Logik, behauptete er; sie seien „metaphysisch wertlos“. Mathematisch gesprochen, ist dies die grundlegende, in vielen mathematischen Subdisziplinen wiederkehrende Dichotomie wahr / unwahr bzw. richtig / falsch bzw. plus / minus bzw. 0 / 1. Hier wirken die Schriften von René Descartes95 nach; bis heute bilden sie die Grundlage für dualistische Erkenntnistheorien. Wir haben es mit einer Form von „Kontroll-Logik“ zu tun, die „Rationalität“ ausschließlich als „kontrollierten“ Denkprozess versteht. Allein richtig und „wahr“ sind Resultate, die den Prinzipien der Konsistenz (Widerspruchs­ freiheit)96 und dem Prinzip des ausgeschlossenen Dritten (tertium non datur) entsprechen. „Prämissenkontrolle“ wird zum selbstverwissernden Motiv und Imperativ rationaler Begründung. Die „Kontroll-Logik“ geht davon aus, dass die Welt mit Worten „abbildbar“ und dadurch beherrschbar („kontrollierbar“) ist. Dieses Abbildungstheorem97 ist aber, wie die Wissenschafts­ 93  Luhmann

(2003), S. 238–239. S. 183. 95  Specht, Rainer: René Descartes mit Selbstzeugnissen und Bilddokumenten, 7. Aufl., Reinbek bei Hamburg 1995. 96  Bernhard Taureck sieht im lernunfähigen Beharren auf der einmal fixierten Überzeugung eine Entäußerung der Vernunft und verweist auf Charles S. Peirce’ The Fixation of Belief (Die Festlegung einer Überzeugung, 1877). In der Verabsolutierung der Widerspruchsfreiheit als formale Bedingung für Richtigkeit sah dieser ein vollends unpragmatisches Verhalten – ironisch sprach er von „method of tenacity“ („Methode der Beharrlichkeit“), siehe Taureck (1992), S. 228 ff. 97  Klaus, S. 1: „Abbildtheorie: Erkenntnistheorie, die davon ausgeht, dass unsere Begriffe, Aussagen, Theorien, usw. Abbilder von Dingen, Beziehungen, Sachverhalten sind, die unabhängig von der Abbildung und vom Abbildenden existieren. Die einzige Form der Abbildtheorie, die mit den Ergebnissen der Wissenschaft übereinstimmt, ist die materialistische Abbildtheorie. Die mathematischen Begriffe des Bildes (bzw. Abbildes) und der Abbildung müssen als Paradigma für jeden einzelwissenschaftlichen und letztlich auch erkenntnistheoretischen Abbildbegriff aufge94  Hörl,



V. Kontext und strategische Sozialkontrolle261

theorie hinlänglich erwiesen hat, verhängnisvoll, führt sie doch im Ergebnis zum sog. naturalistischen Fehlschluss.98 Mit anderen Worten, man meint, ein Sachverhalt sei so, wie man ihn zuvor technisch konstruiert hat; in Wahrheit aber „ist“ – verhält sich – die Sache im (zwischenzeitlich) veränderten Kontext völlig anders.99

V. Kontext und strategische Sozialkontrolle Die aktuelle Verdachtschöpfungspraxis speist sich aus derselben geistesgeschichtlichen Quelle wie die Subsumtionslogik in der Rechtsanwendungspraxis: Schematisches Verdachtschöpfen ähnelt im Ansatz den Savignyschen Auslegungskanones – wie die polizeiliche Auswertung über das Informationsmanagement schrittweise dem added value zustrebt, so fördert die Auslegung systematisch die ratio legis zu Tage. Juristische Methodenlehre und automatisierte Verdachtschöpfung haben denselben Ursprung, nämlich die Vorstellung einer Kontrolle der „Außenwelt“100 mittels exakter Begriffe. Kritik haben das Kontroll-Konzept und die kybernetische Theoriebildung von verschiedener Seite erfahren. Aus rechtstheoretischer Sicht stellt Katharina Sobota das metonymische Moment der systemtheoretischen Terminologie heraus: „In der Begrifflichkeit dieser Disziplinen heißt es freilich statt Glück und Autarkie ‚Systemstabilität‘, ‚Selbststeuerung‘ und ‚Fließgleichgewicht‘, statt tugendhaftem Ethos ‚Programm‘ und statt Handeln ‚Operieren‘. Lässt man sich auf diese Diktion ein, lautet das Resultat aristotelischer Ethik: Am stabilsten ist ein sich-selbststabilisierendes System, das gemäß einem intelligenten, durch rückkoppelnde Interaktionen lernenden Programm so operieren kann, dass es sich – in seinem Verhältnis zur Umwelt und im Systeminneren – in einem dynamischen Gleichgewicht hält. Diese Aussage gilt als eine der großen Einsichten unserer Zeit.“101

Arthur C. Caplan hat die zugrundeliegende „Handlungstheorie“ untersucht und unter dem Aspekt einer angewandten Ethik beschrieben.102 Er spricht von einem „Ingenieur-Modell“ („engineering model“) des Handelns. Das fasst werden. Abbildtheoretisch besteht zwischen der objektiv-realen Außenwelt und dem Bereich der Gedanken, der die Welt widerspiegelt, eine Homomorphierelation.“ 98  Der Ausdruck geht zurück auf George Edward Moore (Principia Ethica, 1970). Zur Diskurssion vgl. Frankena, S. 83–99; Höffe, S. 24–55. 99  Aulehner, S. 551: „Mit der polizeilichen Informationsvorsorge geht die Gefahr einher, dass die vorgehaltenen (nur syntaktischen) Daten ihres ursprünglichen pragmatischen, semantischen und sigmatischen Bezugs entkleidet und in einen neuen Zusammenhang gestellt werden.“ 100  Wein, S. 537–542. 101  Sobota, S. 290. 102  Caplan, S. 1–17.

262

4. Kap.: Anzeichen eines Verdachts

Modell sei dadurch charakterisiert, dass Wissen in Form relevant geglaubter empirischer Fakten durch mechanische Deduktion möglichst unparteiisch und wertfrei angewandt werde.103 Typische und passende Metapher für diese Handlungspraxis, so Bernhard H. F. Taureck, ist das Computer-Modell.104 Das Problematische eines derartigen Ingenieur-Modells des Handelns ist nach Taureck aber folgendes: „Es übersimplifiziert die Aufgabe ethischer Analyse durch eine Gleichung mit der mechanischen Anwendung von theoriebegründeten axiomatischen Prinzipien auf vorgepackte Fälle.“105

Im digitalen Zeitalter scheint genau dieses zum Hauptproblem zu werden: Das überwunden geglaubte Abbildungstheorem lebt auf dem Umweg über Big Data-Technologien gewissermaßen wieder auf. Dadurch, dass Datenspuren in unbegrenzter Anzahl „abgebildet“, d. h. gespeichert, zudem automatisiert zu aussagefähigen „Mustern“ weiterverarbeitet werden können, erlebt das Abbildungstheorem eine Renaissance. Noch anders: Die Abbildungsdoktrin erfährt in der Alltagspraxis inzwischen eine massenhafte Bestätigung durch plausible Musteraussagen, so dass Modell und Realität sich quasi stetig annähern. Das Abbildungstheorem ist damit im IT-Zeitalter zur Approximationstheorem im Sinne eines „Good enough“ geworden. Dadurch – darin besteht das Kernproblem – ist die Kritik dieser simplifizierenden Praxis, zum Beispiel der Verweis auf den naturalistischen Fehlschluss schwieriger geworden. Dennoch bleibt der Grundeinwand, der dem Abbildungstheorem und allen objektivistischen Erkenntnistheorien entgegengehalten werden muss, erhalten. Es ist der Verlust des Kontextes, wie Michel Serres zu Recht und mit aller Deutlichkeit herausstellt: „Die Informatik bringt uns endlich die Datenbank. Das ist weniger ein Fortschritt als eine schlichte Enthüllung der Wahrheit unseres Systems. Was da entdeckt und konstruiert wird, ist nichts als der Vorrat der Vorräte, d. h. der Vorrat, der allem gemeinsam war, was einstmals Bibliothek, Kataster, Liste hieß. Und es erscheint die Gruppe der Gruppen, der Jupiter, der aller Zirkulation von Zeichen gemein ist. Seltsamerweise ist die Welt von übermorgen aufgrund einer fürchterlichen Verfälschung bereits als primitiv erkennbar, lesbar. Das beweist ohne jeden Zweifel, dass wir stets nur von dem sprechen, was unser ist. Nichts Neues, nichts Neues unter der Sonne, unter der Sonne der Zeichen.“106

Alles „Wissen“ in Datenbanken begegnet ja dem beständigen (historizistischen) Einwand, dass sich – seit dem Zeitpunkt der Abbildung – der Kontext verändert haben könnte.107 Das gilt selbst, wie Friedrich Kittler 103  Taureck

(1992), S. 158 ff. (1992), S. 159. 105  Taureck (1992), S. 159. 106  Serres (1981), S. 263. 107  Popper, Karl R.: Das Elend des Historizismus, 5. Aufl., Tübingen 1979. 104  Taureck



V. Kontext und strategische Sozialkontrolle263

betont, für die Zeit, die als reine Rechenzeit benötigt wird, zum Beispiel um Bilder zu verarbeiten, variable Bildpunkte auf eine Fläche zu projizieren. Die Zahl der numerischen und logischen Operationen steige exponentiell: „Mandelbrotmännchen mit ihren tausenden von Pixels sind langsame Geburten. Pro Sekunde müssen Recheneinheiten und Graphik-Display-Prozessor nicht bloß 25 Schnitte wie der Spielfilm verarbeiten, sondern sechs bis sieben Millionen Quantifizierungen. Erst dann verschwindet der Mensch wie am Ufer des Meeres ein Gesicht im Sand. (…) Die Übertretung des Gebots, sich kein Bildnis zu machen, kostet Rechenzeit – nicht nur den Untertanen eines toten Gottes, sondern dem Realen selber.“108

Im vorliegenden Kontext repräsentiert die Tatsache des Kontextverlusts bzw. der Kontextlosigkeit von Datenbankwissen ein fundamentales Risiko, welches sich als Risiko des falschen Verdachts jederzeit im Zuge (ausschließlich) IT-basierter Verdachtschöpfung realisieren kann. Dieses Grunddefizit von „Wissen“ im informationswissenschaftlichen Sinne ist Informatikern längst bewusst. Unter Hochdruck wird daher daran gearbeitet, auch den „Kontext“ zu simulieren bzw. zu modellieren. Die Kontrollforschung sieht gerade in der Entwicklung „kontextsensitiver“ Programmcodes die größte Herausforderung.109 Hier haben künftige polizeiliche Einsatzmittel, „elektronische Augen“ („smart cameras“), „elektronische Nasen“ wie „HAMLet“ und taktile sensorbestückte Apparaturen, ihren Platz. Intelligente Kontrollsysteme der Zukunft sollen über eine Vielzahl von Sensoren möglichst umfassend das Umfeld eines dynamischen Objekts erfassen und für die Erledigung einer Steuerungsaufgabe berücksichtigen. Das Ziel besteht darin, dynamische Verläufe über Monitoring- und Scanning-Technologien kontextsensitiv zu gestalten. Die Logik der mathematischen Modellierung der Realität erfordert indes, um kontextlose Artefakte systematisch auszuschließen, permanent weitere Daten, „Kontext-Daten“. Es wäre deshalb verfehlt, von „Kontextvergessenheit“ innerhalb der polizeilichen Praxis zu sprechen, eher das Gegenteil ist der Fall: Man ist sich des verlorenen Kontextes beim Datenbank-Wissen sehr bewusst, sieht aber und formuliert daher – innerhalb des Kontrollparadigmas konsequent – den Bedarf für weitere Daten, um mithilfe solcher „Kontextdaten“ kontextsensitive Kontrollsysteme aufzubauen. Susanne Krasmann verweist auf den technischen Ursprung einer so verstandenen strategischen Sozialkontrolle, die sich als angewandte Risikokontrolle versteht.110 Treffend werde diese Methodik auch als „Monitoring“ 108  Kittler,

S. 57–79. Handbook of Intelligent Control. Neural, Fuzzy, And Adaptive Approaches, New York 1992. 110  So bereits Ericson/Haggerty: Policing the Risk Society, Toronto 1997. 109  White/Sorge:

264

4. Kap.: Anzeichen eines Verdachts

bzw. „Social Monitoring“111 bezeichnet. Das Wort „Monitoring“, das auch im Deutschen mehr und mehr Verwendung finde, sei passend gewählt. Die Begriffsgeschichte gehe nämlich auf Kassandra, die „Mahnerin“ in der griechischen Mythologie, zurück, die vor dem Untergang Trojas gewarnt (lat. monitor) habe. Das Wort „monitor“ taucht – wie Krasmann ausführt – zuerst in England in den 30er Jahren auf, in den 40er Jahren dann in Deutschland, in der technischen Bedeutung als „Bildschirm“, „Monitor“. Seine Etymologie verbindet den warnenden Blick in die Zukunft mit dem „Monieren“, dem „Bemängeln“, und verweist über das griech. menos auf eine Maschine, die sich selbst bewegt: den Automaten. Die neue soziale Kontrollmethode operiere nach dem „Prinzip der informationsgestützten Rückkopplung“, ähnlich dem im militärischen Bereich entwickelten ersten technischen Frühwarnsystem, dem Radar: Um die jeweilige Position und die künftige Bahn von U-Booten, Flugkörpern oder anderen potentiell gefährlichen Objekten zu berechnen, bilde das Radar in Echtzeit die eingescannten elektromagnetischen Strahlen jener Objekte als Signale auf dem „Monitor“ eines angeschlossenen Computersystems ab. Analog handle es sich bei der präventiven Überwachung sozialer Räume, etwa im Wege der Videoüberwachung, um Sozialkontrolle nach dem Prinzip informationsgestützter Rückkopplung. Ziel sei es, frühestmöglich auf Störungen reagieren und intervenieren zu können – jeweils in Abhängigkeit zu den ablesbaren oder errechneten Entwicklungsverläufen im sozialen Raum. Theorie- und wirkungsgeschichtlich, so Krasmann, gehe dieser Kontrollansatz einerseits auf die Kybernetik andererseits auf die frühe Sozialstatistik und Wahrscheinlichkeitsrechnung des 19. Jahrhunderts zurück.112 Susanne Krasmann erkennt im Social Monitoring die treibende Kraft der Entwicklung. Die Technologie fuße auf dem gedachten Mechanismus der sozialen Selbststeuerung durch permanente Rückkopplung. Dies habe einen beständig steigenden Informationsbedarf auf Seiten der Kontrollagenturen zur Folge. Monitoring impliziere eine Tendenz zu immer mehr Kontrolle. Daraus ergebe sich ein unaufhörlicher Regulierungsbedarf. Monitoring schaffe überdies keine Ordnung, sondern versuche Unordnung zu steuern. Das System sei auf Abweichung fixiert, die es zu erkennen und zu beherrschen gelte. Monitoring konzentriere sich deshalb gerade nicht auf die Frage, wie gesellschaftliche Probleme entstünden, sondern immer schon auf die erkannte Gefahr. Sie verweise so gewissermaßen notwendig auf sich 111  Krasmann

(2004), S. 167–173. ist – durchaus ähnlich wie Intelligence – ein überaus weit verbreitetes Wanderwort, das in vielerlei Kontexten für „Beobachtung“, „Protokollierung“ und „Überwachung“ steht. Terminologisch ist es engstens mit dem Planungsparadigma verbunden. Der Begriff steht für die im Evaluations-Diskurs übliche Gesamtevaluation („Makroimplementation“) eines Planungszyklus. 112  „Monitoring“



V. Kontext und strategische Sozialkontrolle265

selbst: Die Realität werde überprüft im Rekurs auf eben jene Indikatoren, die zuvor definiert worden seien, um die Gefahr anzuzeigen. Jede Früherkennung einer Fehlentwicklung sei daher immer auch ein „Wiedererkennen“, eine „Bestätigung der Antizipation“.113 Verdachtschöpfung im Vorfeld des justiziellen Anfangsverdachts durch systematische Intelligence-Arbeit läuft damit nicht nur Gefahr, wirklichkeitsferne und kontextlose Artefakte zu konstruieren, sondern – mehr noch – „antizipierte Verdachtsfälle“ in der Zukunft wiederzuentdecken. Daraus leitet sich eine Art Selbstevidenz und Selbstlegitimation – wie Krasmann folgert – für weitere Vorfeldmaßnahmen ab. Sie sieht in dieser Entwicklung, dem Wechsel von der Abwehr einer konkreten Gefahr zur Kontrolle eines antizipierten Risikos, einen grundlegenden, rechtlich nur schwer fassbaren „Perspektivenwechsel“. Diesen Gedanken führt sie, wie folgt, näher aus: „Es handelt sich demnach um einen qualitativen Perspektivenwechsel, der auch verfassungsrechtlich nur begrenzt in Schach zu halten ist. Die Orientierung von einer konkreten auf eine abstrakte Gefahr bringt eine neue, nicht mehr auf ‚Verdachtsklärung‘ beschränkte Handlungslogik hervor. Die ‚Verdachtschöpfung‘, die neue polizeirelevante Gegenstände erzeugt, heftet sich weniger an vergangene Taten oder gegenwärtige Anhaltspunkte, vielmehr speist sie sich aus zukunftsbezogenen Erwartungen. Die Bedrohung wird auf diese Weise unbestimmt und prinzipiell ubiquitär. Scheinbar paradox ist es aber gerade deshalb möglich, sie zum indiskutablen Faktum zu erklären. Denn als Beweis gelten jetzt Anhaltspunkte, die ihrerseits mit dem auserkorenen Risikoschema variieren – und sich insofern stets wie von selbst erklären. Sicherheit entzieht sich damit der Interpretationsbedürftigkeit und ordnet sich einem Realismus unter, der ‚alle[r] Wirklichkeit und alle[r] Wahrheit in der Kategorie des einzig Möglichen‘ absorbiert. In der juristischen Terminologie verwandelt Sicherheit sich von einem Rechtsgut und einer normativen Größe, die der Konkretisierung und Abwägung, etwa gegenüber der individuellen Freiheit, bedarf, zu einer vorausgesetzten und selbstevidenten Notwendigkeit staatlicher Intervention.“114

Ganz ähnlich beurteilen Stephan Heinrich und Hans-Jürgen Lange aus politikwissenschaftlicher Sicht die Lage. Sie sehen in der Vorverlagerung des Rechtsgüterschutzes, der Versicherheitlichung des Vorfeldes durch proaktive Risikokontrolle, einen „Systemwechsel“.115 Die Konzentration auf die Vorfelder der Kriminalität rücke zunehmend den „ ‚Vorlauf‘ von Kriminalität“ in den Fokus der Sicherheitsbehörden. In diesem Sinn ergäben sich neue Schwerpunkte und Zielsetzungen der Sicherheitsgesetzgebung. Die primäre Zielsetzung sei „nicht mehr mit der Aufklärung begangener Straftaten oder der Verhinderung einzelner krimineller Handlungen“ verbunden, 113  Krasmann

(2004), S. 171–172. (2007), S. 75–96. 115  Heinrich/Lange (2009), S. 262. 114  Krasmann

266

4. Kap.: Anzeichen eines Verdachts

sondern vielmehr die „Etablierung eines Frühwarnsystems“. Dieses solle es ermöglichen, kriminelle und terroristische Risiken im Vorfeld der Realisierung zu erkennen und anschließend zu bekämpfen. Damit würden aber zunehmend Methoden und Mittel angewandt, deren Einsatz zuvor im Strafrecht „nur gegen Verdächtige“ möglich gewesen seien. Auf theoretischsystematisierender Ebene werde auf diese Weise der freiheitliche Rechtsstaat in einen „fürsorglichen Präventionsstaat“ umgewandelt. Mit dem Einzug von Risikoanalysen würden abstrakte Wahrscheinlichkeiten eines Ereigniseintritts betont, nicht mehr der tatsächliche Eintritt. Ihr Vorbild hätten diese Risikoanalysen vor allem im Bereich der Versicherungswirtschaft, aber auch – unter anderem Vorzeichen – in modernen Marketing-Methoden. Heinrich und Lange machen deutlich, dass das System, dass für konkrete – tatsächliche – „Gefahren“ und individuellen „Tatverdacht“, nicht aber für abstrakte „Risiken“ und potenzielle „Gefährder“ ausgelegt und konzipiert sei. Die Orientierung am sog. „Vorfeld“ und die Umstellung auf „Risiken“ hätten gravierende Folgen für das Gesamtsystem: „Die Betonung der Wahrscheinlichkeiten des Ereigniseintritts – des Risikos – führt zu zweierlei: Erstens erhält der Staat als Schutzgarant der individuellen Sicherheit eine Ermächtigungsgrundlage und umfassende Legitimation dazu, dort vorbeugend zu werden, wo durch individuelle Handlungen oder Veränderungen der Systemumwelt potenzielle Gefahren drohen. Damit eröffnet sich ein Kontinuum möglicher Tätigkeitsfelder für die Sicherheitsbehörden und der entsprechenden Gesetzgebung, in dem in bisherige gesellschaftliche Freiräume eingegriffen werden kann und die gesellschaftlichen, vielfältigen Handlungsoptionen einer vom Individuum gelösten Risikobeurteilung zugeführt und möglicherweise beschränkt werden. Die Antizipation von Risiken unterliegt dann primär einer staatlichen und sicherheitspolitischen Perspektive, die in ihrer Tendenz auf Stabilität und Statik ausgerichtet ist. (…) Zweitens führt die Betonung von Risiken und Eintrittswahrscheinlichkeiten auf der individuellen Ebene zu einer Aufhebung des Nichtverdachts. Jeder Bürger wird ‚potentiell verdächtig, also noch nicht verdächtig betrachtet. Jeder Einzelne gilt als Risikofaktor‘. (…) Die Folge hierbei liegt in der Generalisierung des Verdachts und der Kontrolle.“116

Die hier so bezeichnete „Aufhebung des Nichtverdachts“, der eine „Generalisierung des Verdachts“ entspricht, stellt die bisher geltenden polizeirechtlichen Grundsätze geradezu auf den Kopf, da der sog. „Nichtstörer“ nach den überkommenen Grundsätzen nur ganz ausnahmsweise polizeilich in Anspruch genommen werden durfte. Susanne Krasmann sieht hierin eine sehr grundlegende Veränderung des „Verdacht“-Konzepts: Für die Annahme eines Verdachts seien nicht mehr komplexe soziale Umstände, sondern „maschinelle Indikatoren“ maßgebend. Die Entwicklung sei deshalb problematisch, weil automatisierte Kontrolltechniken, die einen „Verdacht“ anzeigten, 116  Heinrich/Lange

(2009), S. 263.



V. Kontext und strategische Sozialkontrolle267

auf „die Sprache des Sozialen“ verzichteten. Die kalte Gleichgültigkeit der technisch induzierten Verdachtschöpfung habe einen verhängnisvollen Drehtür-Effekt: Zum einen führe die Fülle der automatischen Verdachtsanzeigen zu einer verstärkten Wahrnehmung von Unsicherheit, dies wiederum zum vermehrten Einsatz von Kontrolleinrichtungen. In Anlehnung an Mi­ cha­lis Lianos und Mary Douglas erkennt sie in der zunehmenden Automatisierung der Verdachtschöpfung einen Prozess der „Gefährdungsausweitung“ (sog. „Dangerisierung“). Krasmann formuliert: „Automatisierte Kontrollanlagen, die soziale Kategorien und Bedeutungen nicht kennen, operieren mit einem ‚Verdachts‘-Konzept, das egalitär und gleichgültig (…) ist. Das Gros der Maschinen, die Räume überwachen und Zugänge kontrollieren, sondiert erstens nicht nach sozialen Indikatoren wie Schichtzugehörigkeit, Beruf oder Familienstand. (…) Zweitens macht sich die automatisierte Risikoprofilierung geradezu demokratisch aus, denn sie nimmt alle und jeden unabhängig von sozialen Unterschieden ins Visier. Allerdings gelten zugleich auch alle möglichen Nutzer oder Passanten als potenzielle Täter oder Störer. Verdacht wird daher gleichermaßen ‚trivialisiert‘ wie ‚generalisiert‘: ‚erveryone is watched, and no one is trusted.‘ “117

„Dangerisierung“, so Krasmann, bezeichne eine Verdachtsausweitung beziehungsweise die Ausweitung des Feldes der Wahrnehmung von Gefährlichkeit. Innerhalb dieses Feldes schwinde die Bedeutung von Kriminalität im Verhältnis zur Abweichung. Ausreichender Anlass für einen „Verdachtsfall“ ist nun bereits die „Anomalie“ bzw. die „Irritation“ im (vernetzten) System. Es sind Ungereimtheiten, technische Reize und Signale, die systemseitig vom erwarteten technischen Normalverlauf als „Störung“ erkannt werden, auf die reagiert wird. Verdachtsmomente entstehen durch „Treffer“, das sind Dopplungen, unerklärliche Abweichungen und Ko-Inzidenzen. Hier zeigt sich, dass systematische risikobasierte Verdachtschöpfung ein in hohem Maße technik-affines Verfahren ist. Joseph Aulehner stellt bei seiner Untersuchung der polizeilichen Gefahren- und Informationsvorsorge fest, dass bereits jede „uncodierte Information“ die Qualität einer „Störung“ habe: „Informationen sind hiernach kein Input in ein System, sondern Umweltirritationen, die das System in seine kognitiven Strukturen umsetzen muss. Codierte Ereignisse erscheinen dabei als Information, uncodierte hingegen als Störung.“118

Der Unterschied zur klassischen Art der Verdachtschöpfung liegt auf der Hand: Durch die umfassende Verknüpfbarkeit von zum großen Teil „anlasslos“ und „verdachtsunabhängig“ gewonnenen oder einfach verfügbaren Daten werden raumgreifende Vorfeld-Ermittlungsmaßnahmen möglich. Zwar findet über vordefinierte Indikatoren-Kataloge wieder eine grundsätzliche 117  Krasmann 118  Aulehner

(2007, S. 75–96. (1996), S. 551.

268

4. Kap.: Anzeichen eines Verdachts

Beschränkung auf erkannte Risikopopulationen, gewissermaßen ein Zurückdrehen des Suchkegels, statt, aber über soziale Kontakte von identifizierten „Risikopersonen“ und wuchernde Soziale Netzwerke erweitert sich der Suchraum zwangsläufig wieder, richtet sich über „Kontaktpersonen“ wieder auf den gesamten gesellschaftlichen Raum. So ist jedermann prinzipiell und potenziell von inkriminierenden Datenrecherchen betroffen. Die Sozialkontrolle neuen Typs, die „pro-aktive Sicherheitsvorsorge“, die bereits aus Irritationen im System, informationellen Vorfällen und Vorkommnissen, ein Handlungsmotiv ableitet, ähnelt einem sozialen Incident Management, wie man es von dem IT-Support und den Administratorendienststellen der IT-Abteilungen kennt. Aufgrund seiner Abstraktheit ist der verallgemeinerte Kontroll-Ansatz in hohem Maße ambivalent. Der „Ruf nach mehr Kontrolle“ ertönt daher – paradoxerweise – von ganz verschiedenen Seiten. Im Streitfall nimmt jede Streitpartei das Konzept für die jeweils eigene Lösung in Anspruch. Kontrolle als Problemlösungsinstrument scheint universell verwendbar. Ein in jeder Hinsicht instruktives Beispiel ist die Frage der „Kontrolle der Polizei“: Einerseits wird eine unzureichende Kontrolle der Sicherheitsbehörden behauptet119, andererseits beklagt man eine unangemessene Kontrolle durch die Polizei. Dann wieder spricht man von überbordender „Kontrollitis“.120 Denken in Kontroll-Kategorien erzeugt, wie Susanne Krasmann zu Recht festgestellt hat, immer mehr Kontrollbedarf: Wie zwei Räder, die durch eine gemeinsame Achse verbunden sind, die aber dennoch versuchen, angetrieben vom Tempo des technischen Fortschritts, sich gegenseitig zu überholen. Aus der Gedankenspirale, dem infiniten Regress der Kontroll-Logik, gibt es mit den Mitteln des Kontrolldenkens selbst keinen Ausweg. Je mehr die tatsächlichen Kontrollaussichten in der Praxis schwinden, desto lauter ertönt der Ruf nach Kontrolle: „Kontrolle des Internet“, „Kontrolle der Gentechnik“, „Kontrolle der Geheimdienste“, „Kontrolle der Polizei“, „Kontrolle von Korruption und Kriminalität“ usw. Der artikulierte Kontrollbedarf nimmt bisweilen groteske Züge an. So beschreibt Gerhard Wittkämper etwa die Probleme der sog. „Ressourcenkontrolle“: 119  Gössner/Ness: Polizei im Zwielicht. Gerät der Apparat außer Kontrolle? Frankfurt a. M. 1996; Myrell, Günter (Hrsg.), 1984. Daten-Schatten. Wie die Computer dein Leben kontrollieren, Reinbek bei Hamburg 1984; Schwenger, Hannes: Im Jahr des Großen Bruders. Orwells deutsche Wirklichkeit, 3. Aufl., München 1984; Müllert, S. 109–121; Bertrand, S. 72–84 Schwan, S. 276–312; Waechter, S. 167–169; Busch, S. 57–61. 120  Jacobs, J.: Eifrige Kontrollitis im Innenministerium …, in: Telepolis vom 26. August 2010; Bergmann, R.: (ST)EINWURF: Kontrollitis, in: Badische Zeitung vom 14. Juni 2014.



V. Kontext und strategische Sozialkontrolle269 „Um die politische Attraktivität der Ressourcenkontrolle zu erhöhen, müssten die vorausschauende Ressourcenkontrolle, die begleitende Ressourcenkontrolle und die nachschreitende Ressourcenkontrolle parlamentarisch verselbständigt werden. Dies ist lediglich bei der begleitenden Finanzkontrolle im Haushaltsausschuss heute der Fall. Für die vorausschauende Kontrolle fehlt im parlamentarischen Bereich jedes praktikable Modell (…) Was die nachschreitende Kontrolle der Ressourcen angeht, so müsste auf jeden Fall die nachschreitende Ressourcenprüfung verselbständigt werden. Es ist darauf hinzuweisen, dass solche institutionellen Verselbständigungen auch Fragen nach der Ausstattung mit im Bereich der vorausschauenden, begleitenden und nachschreitenden Ressoucenkontrolle kompetenten Mitarbeitern aufwerfen.“121

Der Ruf nach immer mehr Kontrolle scheint in gewissem Sinne zum Quellcode unserer westlichen Gesellschaften zu gehören. Die im öffentlichen Diskurs artikulierten Kontrollansprüche, das permanente „Kontrollwollen“ von allen Seiten, ist nur vor dem geschilderten geistesgeschichtlichen Hintergrund verständlich. Die Konjunktur des Kontroll-Denkens ist ungebrochen – unerschütterlich offenbar auch der Glaube an die Modellierbarkeit von „Kontext“122, d. h. durch immer mehr Daten auch immer mehr Kontrolle über den Kontext zu gewinnen.123 Die Frage ist, ob und inwieweit die Kontrollstrategie als Risikobewältigungsstrategie, also im Hinblick auf den Umgang mit Unsicherheit und Ungewissheit im 21. Jahrhundert, eine geeignete Problemlösungsstrategie ist. Eine „kontrolltheoretische Debatte“124, die hierüber Aufschluss geben könnte, wird nur in Ansätzen geführt. Nach Jean-François Lyotard steht zu befürchten, dass dem Stadium der Entwicklung „kontextsensitiver Kontrollformen“ das Stadium der Entwicklung einer systematischen „KontextKontrolle“125 folgen wird.126 Gilles Deleuze spricht im Hinblick auf die absehbare technische Entwicklung von einem neuen Typus von „Kontrollgesellschaften“ mit neuen Dispositiven der Macht, bei denen nicht mehr das 121  Wittkämper,

S. 202. S. 22–47; Schmitt, R. (1993), S. 326–354; Johnston, S. 193–203; Bonss/ HohlfeldKolllek, S. 171–191. 123  Stäheli (2008), S. 299–325, der vom kybernetischen Traum der Kontrollwissenschaften berichtet, aus „noise“, dem unverstandenen „Rauschen“ von Kontroll­ signalen, so etwas etwa wie eine „voice“ zu machen. 124  Beste, S. 183–202, der eine „kontrolltheoretische Debatte“ (S. 197) fordert. 125  Diesen Ausdruck verwendet Lyotard (1994), S. 138. 126  Stäheli (2008), S. 307, 313–314, der in Bezug auf den Umgang mit der Bevölkerung als emergenter Masse einen Unterschied in der Argumentation bei Michel Foucault und Gilles Deleuze feststellen will: Bei Foucault habe die Analyse der Ordnungsherstellung noch auf die Disziplinierung des Individuums („Disziplinargesellschaft“) gezielt, bei Deleuze löse sich die Kontrolle von der Erziehung des Einzelnen und betreffe nunmehr die Regulierung der affektiven Kräfte der Masse („Kontrollgesellschaft“). 122  Auer,

270

4. Kap.: Anzeichen eines Verdachts

Individuum, sondern die Kontrolle sozialer Räume und Milieus im Vordergrund stünden: „Wir befinden uns in einer allgemeinen Krise aller Einschließungsmilieus, Gefängnis, Krankenhaus, Fabrik, Schule, Familie. (…) Die Kontrollgesellschaften sind dabei die Disziplinargesellschaften abzulösen. ,Kontrolle‘ ist der Name, den Burroughs vorschlägt, um das neue Monster zu bezeichnen, in dem Foucault unsere nahe Zukunft erkennt. Auch Paul Virilio analysiert permanent die ultraschnellen Kontrollformen mit freiheitlichem Aussehen, die die alten – noch innerhalb der Dauer eines geschlossenen Systems operierenden – Disziplinierungen ersetzen.“127

Die Formulierung ist mit Blick auf die Möglichkeiten der globalen technischen Überwachung, beispielsweise durch das System ECHOLON128 und die Spähprogramme „PRISM“ und „TEMPORA“, die den internationalen Kommunikationsverkehr systematisch vorausschauend nach möglichen verdächtigen Mustern durchsuchen, kaum übertrieben.129 Der Strukturwandel der staatlichen Sicherheitsgewährleistung, konkret: die Logik und Methodik der systematischen IT-gestützten Verdachtschöpfung, hat zur Folge, dass Informationseingriffe, die zur Ermittlung von Anhaltspunkten vorgenommen werden, prinzipiell jeden treffen können, ohne dass der oder die Betreffende etwas davon weiß. Die entstehende Informationsinfrastruktur der Sicherheitsbehörden repräsentiert, so könnte man formulieren, eine Art neues „Informationsarkanum“: Jenseits konkreter Tatumstände und personenbezogener Fakten können dort – allein auf der Grundlage kontextloser Datenbestände und ohne externe, etwa anwaltliche Einflussmöglichkeit der von den Informationseingriffen Betroffenen – im Weg des Informations127  Deleuze

(1993), S. 255. S. 453–454: „The ECHELON system is widely accepted to be the most pervasive and powerful electronic intelligence system in the world. It was developed and is operated on behalf of the United States and its partners (the United Kingdom, Australia, Canada, and New Zealand) in an intelligence alliance known as UKUSA. The system involves the automatic selection of intercepted electronic messages from target lists using a computer-based system known as DICTIONARY. (…) Microwave signals can also be intercepted in space using specially designed satellites positioned to pick up signals which overshoot receivers and continue in a straight line into space. The satellites then downlink the intercepted signals to ground-based receivers in a number of geographical locations to enable a global coverage.“ – Ferner Keefe, S. 24–31; Zittrain/Palfrey, S. 29–56. 129  Zur öffentlichen Diskussion über die Grenzen der Internet-Überwachung, insbesondere des sog. crowd sourcing in Online-Medien durch Sicherheitsbehörden nach Offenlegung des Programms „PRISM“ durch den ehemaligen NSA-Mitarbeiter und Whistle Blower Edward Snowden, siehe Randow, Gero. Von: Im Schatten der Macht. Amerika hört ab – und deutsche Sicherheitsbehörden sind neidisch, in: DIE ZEIT, No. 25, vom 13. Juni 2013, S. 7. 128  Webb,



V. Kontext und strategische Sozialkontrolle271

designs abstrakte Verdachtsdispositionen konstruiert werden. In diskursanalytischer Perspektive kann hier von einem neuen „Dispositiv“ der Verdachtschöpfung gesprochen werden. Es ist nicht leicht zu verstehen, was mit „Dispositiv“ gemeint ist. Zum Teil wird darunter eine „Diskursformation“130 verstanden, in der Macht, Recht und Wahrheit verknüpft und Praktiken institutionalisiert sind. Andere sehen darin eine spezifische „Rechtsmacht“131, die sich dem Ensemble von Redeweisen, Techniken, Strategien und Institu­ tionen verdanke. Jean-Louis Baudry beschreibt das „Dispositiv“ als eine „Topik“ im Sinne einer „metaphorische(n) Beziehung zwischen Orten, oder um eine Beziehung zwischen metaphorischen Orten“.132 Michel Foucault betont, dass es sich beim „Dispositiv“ um ein Netz handele, dass zwischen einzelnen Elementen des Dispositivs geknüpft sei: „Was ich unter diesem Titel festzumachen versuche ist erstens ein entschieden heterogenes Ensemble, das Diskurse, Institutionen, architekturale Einrichtungen, reglementierende Entscheidungen, Gesetze, administrative Maßnahmen, wissenschaftliche Aussagen, philosophische, moralische oder philantropische Lehrsätze, kurz: Gesagtes ebenso wohl wie Ungesagtes umfasst. Soweit die Elemente des Dispositivs. Das Dispositiv selbst ist das Netz, das zwischen diesen Elementen geknüpft werden kann.“133

Das neue Verdachtsdispositiv hat also faktisch eine Machtausweitung der Exekutive zur Folge. Bietet aber eine möglichst breite Datenbasis – nach Bernoulli ja durchaus ein probates Mittel, um „wahre statistische Aussagen“ zu erzielen – die Gewähr für eine vernünftige, richtige und situationsangemessene Entscheidung in einem spezifischen sozialen Kontext? Ist – in logischer Diktion – der Obersatz in einer aktuellen Entscheidungssituation damit gewisser? Offenbar kaum, je breiter die Datenbasis desto größer die Versuchung, historisches Wissen in die Zukunft zu extrapolieren und so dem historizistischen Trugschluss zu erliegen. Die Dynamik der sozialen Entwicklung birgt zusätzlich die Gefahr, dass selektives Archivwissen allein durch den Ablauf der Zeit wertlos wird. Zu Recht hat man kontextlose, pseudowissenschaftliche Datensammlungen „Datenfriedhöfe“134 genannt. Man denke etwa an die kriminalistischen Sammlungen für den sogenannten 130  Seibert,

S. 2862. S. 13. 132  Baudry, S. 382 (Hervorhebung N. R.). 133  Foucault (1978a), S. 119–120. – Dazu Deleuze (1991), S. 153–162. – Siehe ferner Krasmann (2003), S. 163: „Ein Dispositiv ist, ‚keine zugrundeliegende Realität, die nur schwer zu erfassen ist, sondern ein großes Oberflächennetz, auf dem sich […] die Anreizung zum Diskurs, die Formierung der Erkenntnisse, die Verstärkung der Kontrollen und der Widerstände in einigen großen Wissens- und Machtstrategien miteinander verketten.‘ “ 134  Kaiser, S. 21–27. 131  Vismann,

272

4. Kap.: Anzeichen eines Verdachts

„Kriminalbiologischen Dienst“135 in den 20er und 30er Jahren des 20. Jahrhunderts. Der scheinbare Triumph des Quantitativen, der mit den neuen computergestützten Expertensystemen136 seinen Einzug hält, wird auf diese Weise teuer erkauft durch eine Vielzahl kontextloser Entscheidungen. Hinter der vorausschauenden Sicherheitspolitik, Gefahrenvorsorge, Sicherheitsvorsorge, Informationsvorsorge der beständigen Orientierung am „Vorfeld“ steckt mithin – in methodischer Hinsicht – der Versuch der Kontrolle des Möglichkeitsraums mit den Mitteln der Wahrscheinlichkeitsrechnung. Auf diese Weise wird – in logischer Hinsicht – die Deduktion zur primären logischen Schlussform. Den Obersatz aber offen zu halten für neue Sichtweisen im Zuge veränderter Verhältnisse, aktuelle Erwägungen, situationsbezogene Argumente, phantasievolle Einfälle, unkonventionelle, aber treffende Wortschöpfungen usw., das u. a. ist das Prägende diskursiver Vernunft.137 Einiges spricht dafür, dass sich das Kontext-Problem nicht – auch nicht durch noch so aufwändige Modellierungsversuche mithilfe von Sensorikund Optronik-Technologien zur Gewinnung von Kontextdaten in Echtzeit – wird lösen lassen: − Zunächst ist da das semiotische Grundproblem der Arbitrarität von Zeichen. Zeichen können – je nach Kontext – alles bedeuten (aliquid pro aliquo). − In der praktischen (Alltags-)Kommunikation wird daraus das linguistische Grundproblem der Polysemie.138 Die Mehrdeutigkeit von sprachlichen Zeichen, das semantische Differenzial zwischen Sagen und Meinen, ist unhintergehbar. Gesagtes und Gemeintes sind jeweils abhängig vom Kontext. − Hinzu kommt das ontologische Grundproblem der Emergenz, d. h. der Dynamik und ständigen Veränderung von „Objekten“ und Kontexten. Eine Kontroll-Logik kann mit dieser prinzipiellen Nicht-Abbildbarkeit 135  Kailer, Thomas: Vermessung des Verbrechers. Die Kriminalbiologische Untersuchung in Bayern, 1923–1945, Bielefeld 2010. 136  Kritisch Reichertz (1997), S. 169: „Digitale Rechner (…) sind erst einmal lediglich Datenbanken: sie fixieren, ordnen und verwalten Wissen und erlauben einen schnellen und punktgenauen Zugriff. Datenbanken sind also Mittel zur ortsunabhängigen Lagerung, Verwaltung und Verteilung von Wissen. Mehr nicht. Sie schlussfolgern nicht, entwickeln auch keine Hypothesen und raten auch zu nichts.“ 137  Houser/Roberts/Van Evra (Hrsg.), Studies in the Logic of Charles Sanders Peirce, Bloomington, Indiana 1997. 138  In der Linguistik wird im Hinblick auf das Phänomen Mehrdeutigkeit zum Teil zwischen Homonymie und Polysemie unterschieden. Beide Aspekte fasst man unter dem Begriff „Äquivokation“ zusammen. Die Informationstheorie versucht demgegenüber einen eigenen Begriff von „Äquivokation“ im Rahmen der Disambiguierung der natürlichen Sprache zu entwickeln, vgl. Wahlster, S 1–5.



VI. Anzeichen273

und „Undeduzierbarkeit“139 von hochdynamischen, schlechterdings nicht prognostizierbaren Prozessen nur schwer umgehen. Zwar hat die Informationswissenschaft über die sog. „Ontologien“ eine zusammengesetzte (künstliche) Ersatz-Ontologie geschaffen und das ontologische Grundproblem mit dem Approximationstheorem in die Zukunft verschoben, damit aber das Grundproblem nicht eigentlich gelöst. − Daraus ergibt sich schließlich das historizistische Grundproblem, hinter dem das bisher ungelöste Induktionsproblem steckt: Wie kann von Einzelfällen der Vergangenheit auf künftige Fälle geschlossen werden? In der Praxis ist dies die Frage nach der Erstellung von „Kriminalprognosen“, der Analyse von „kriminogenen Mustern“ und dem Umgang mit „Risikopersonenpotenzial.“140

VI. Anzeichen Die amerikanische Untersuchungskommission zum „11. September“ stellt klar, dass die Terroranschläge eine Schockwelle hervorgerufen hätten, die das ganze Land ergriffen habe. Die Anschläge seien aber keineswegs eine Überraschung gewesen.141 Die zunehmende Bedrohung durch den radikalen Islamismus habe sich vielmehr bereits durch eine Fülle von „Warnungen“ und „Bedrohungssignale im Vorfeld“ abgezeichnet. So sei die islamistische Bedrohung über den Zeitraum einer ganzen Dekade erkennbar gestiegen – nur der Grad der Bedrohung sei nicht richtig und vor allem nicht rechtzeitig erkannt worden. Grund dafür sei auch die fehlende Vorstellungskraft von Entscheidungsträgern gewesen; diese hätten die Gefahr der sich ankündigenden „Operation Flugzeug“ („Planes Operation“) für nicht ausreichend erwiesen gehalten. Eine umfassende Analyse der vorliegenden nachrichtendienstlichen, polizeilichen und sonstigen Erkenntnisse sei daher vor dem „11. September“ zu keiner Zeit erstellt worden. Und das, obwohl, wie es im 139  Stäheli

(2008), S. 307. systematischen Erfassung von auffälligen Kindern in Kindergärten, sog. „Hoch-Risiko-Kinder“, siehe Scheithauer/Mayer, S. 221: „In verschiedenen Längsschnittstudien konnte ermittelt werden, dass ein abweichendes, störendes Verhalten im Kindergarten einen Prädiktor für später auftretende, sehr viel schwerwiegendere Verhaltensprobleme darstellt: Als sicherster Prädiktor ernster und anhaltender Formen von Verhaltensproblemen erweist sich bereits im Vorschulalter auftretendes, stark ausgeprägtes und stabiles oppositionelles und aggressives Verhalten sowie Hyperaktivität/Impulsivität. Im weiteren Entwicklungsverlauf weisen diese HochRisiko-Kinder ein erhöhtes Risiko für delinquentes Verhalten, Substanzmissbrauch und Schulabsentismus auf.“ – Siehe ferner die Datenbank zur Erfassung von „Risikoeltern“ unterhalb der Schwelle der Anzeigepflicht Jacoby (2009), S. 22–25. 141  The 9/11 Commission Report. Final Report of the National Commission Upon the United States, 2004, Executive Summary. 140  Zur

274

4. Kap.: Anzeichen eines Verdachts

Bericht heißt, „viele engagierte Beamte Tag und Nacht über Jahre arbeiteten, um die wachsende Zahl von Beweisstücken durch al Qaeda zu verstehen.“142 Die Anzeichen für eine „Operation Flugzeug“ konnten offenbar trotz aller Anstrengungen im Vorfeld, eine systematische Intelligence-Arbeit, nicht zutreffend gedeutet werden? Wie ist das zu erklären? Was sind „Anzeichen“? Im ersten Ansatz umschreibt Jürgen Knobloch sie als „sinnlich wahrnehmbare Erscheinungen, die auf das Vorhandensein von anderen damit in (ursächlichem) Zusammenhang stehenden Erscheinungen schließen (ließen).“143 So sei aufsteigender Rauch das Anzeichen für Feuer, Erröten das Anzeichen für Gefühle der Scham oder des Zornes. Stöhnen sei Anzeichen für Schmerzen und zugleich deren Ausdruck, wobei, betont Knobloch, die Absicht einer Mitteilung dabei nicht bestehen müsse. Christian Thiel vertritt die Auffassung, dass es sich bei „Anzeichen“ um eine bestimmte Sorte von Zeichen handele. Charakteristisch dafür sei, dass Anzeichen weder über eine Ausdrucksfunktion verfügten noch – im strengen Sinne – über eine Bezeichnungsfunktion, d. h. sie bezeichneten nicht etwas konkret. Vielmehr handele es sich um „Kennzeichen“, „Merkzeichen“ bzw. „Vorzeichen“, die lediglich „irgendetwas anzeigten“.144 Damit allerdings ein angenommener Gegenstand A als Anzeichen eines Gegenstandes B dienen könne, müsse ein Bedingungsverhältnis vorliegen, so dass von dem Vorkommen von A auf das Vorkommen von B geschlossen werden könne. Zeichen mit dieser Funktion seien in der Scholastik den sog. „natürlichen Zeichen“ (signa naturalia) zugeordnet worden. Beispiele hierfür seinen etwa der Atem als das Anzeichen für Leben, die Morgenröte als das Anzeichen für den Sonnenaufgang und – klassisches Beispiel – der Rauch als Anzeichen für Feuer. Die Semiotik – vor allem diejenige sprach- oder kommunikationswissenschaftlicher Provenienz – hat sich von je her schwer getan mit der begrifflichen Bestimmung und Einordnung von „Anzeichen“. Zum Diskussionsstand hält Winfried Nöth fest: Zum Teil begreife man Anzeichen (oder den Index) als eigene Kategorie, gewissermaßen als „Gegenbegriff“ zur Kategorie der Zeichen. Andere wiederum sähen im Anzeichen eine Art „Unterklasse“ innerhalb der Gesamtkategorie der Zeichen. Wieder andere erachteten den Unterschied zwischen Zeichen und Anzeichen für so fundamental, dass sie die Anzeichen nicht als Klasse der Zeichen, sondern als „semiotische Phänomene“ sui generis auffassten. Auf diese Weise würden Anzeichen in 142  The

9/11 Commission Report. 2004, Executive Summary. (1998), S. 142. 144  Thiel, S. 172. 143  Knobloch



VI. Anzeichen275

Gegenposition zu sprachlichen Zeichen gebracht, bestehe doch – so die Argumentation – ein grundlegender Unterschied zwischen „Prozessen der Indikation“, bei denen Anzeichen, und „Prozessen der Signifikation“ (oder Repräsentation), bei denen (sprachliche) Zeichen verwendet würden. Ungeachtet der essentiellen Differenz zwischen Zeichen und Anzeichen, betrachte man aber „Indexikalität“ als das „Fundament aller Zeichen überhaupt“.145 Der Streit um die Natur von „Anzeichen“ bzw. „Indizien“ hält bis heute an. Zum Teil will man strikt unterscheiden zwischen „darstellenden (Ordnungs-)Zeichen“ und „phänomenologischen Anzeichen“.146 Anzeichen sollen daher einmal „natürliche Zeichen“ sein, dann wieder „nicht-intentionale Zeichen“. Solchen Unterscheidungen und Oppositionen erteilt Derrida allesamt eine Absage. Er hält sie für abgeleitet, „deriviert“, und reklamiert einen einheitlichen mehrdimensionalen Zeichen-Begriff. In Anlehnung an Peirce spricht er vom „Unmotiviert-Werden des Symbols“.147 Edmund Husserl hebt in seiner Phänomenologie den Anzeige-Charakter des Anzeichens hervor, will aber nur dann im eigentlichen Sinne von „Anzeichen“ sprechen, wenn das jeweilige Anzeichen für jemanden tatsächlich etwas bedeute, ihm „für irgendetwas“ diene. Husserl notiert dazu: „Von den beiden dem Worte Zeichen anhängenden Begriffen betrachten wir vorerst den des Anzeichens. Das hier obwaltende Verhältnis nennen wir die Anzeige. In diesem Sinne ist das Stigma Zeichen für den Sklaven, die Flagge Zeichen der Nation. Hierher gehören überhaupt die ‚Merkmale‘ im ursprünglichen Wortsinn als ‚charakteristische‘ Beschaffenheiten, geschickt die Objekte, denen sie anhaften, kenntlich zu machen. Der Begriff des Anzeichens reicht aber weiter als der des Merkmals. Wir nennen die Marskanäle Zeichen für die Existenz intelligenter Marsbewohner, fossile Knochen für die Existenz vorsintflutlicher Tiere usw. Auch Erinnerungszeichen, wie der beliebte Knopf im Taschentuch, wie Denkmäler u. dgl., gehören hierher. Werden hierzu geeignete Dinge und Vorgänge, oder Bestimmtheiten von solchen, in der Absicht erzeugt, um als Anzeichen zu fungieren, so heißen sie dann Zeichen, gleichgültig, ob sie gerade ihre Funktion üben oder nicht. (…) Im eigentlichen Sinn ist etwas nur Anzeichen zu nennen, wenn es und wo es einem denkenden Wesen tatsächlich als Anzeige für irgendetwas dient.“148

Die Unsicherheit, „Anzeichen“ theoretisch zufriedenstellend einzuordnen, findet auch in der gemeinrechtlichen Beweislehre ihren Niederschlag. Mathias Schmoeckel weist darauf hin, dass hier die terminologischen Schwierigkeiten und Abgrenzungsprobleme in der Peinlichen Halsgerichtsordnung Kaiser Karls V. (Constitutio Criminalis Carolina) aus dem Jahre 1532 zu einer Vielzahl von Ausdrücken geführt hätten. So kenne die Carolina noch grundsätzlichen Kontroverse Nöth (2000), S. 142–143. S. 62. 147  Rolf, S. 245. 148  Husserl (1993), S. 24–25. 145  Zur

146  Bühler,

276

4. Kap.: Anzeichen eines Verdachts

verschiedene Indiz-Arten, denen jeweils ein unterschiedlicher Beweiswert zugekommen sei. Im Einzelnen: − Voll-Indiz („indicia plena“) − Semi-Indiz („indicia semiplena“) − Anhalt („adminicula“)149 − Argument („argumentum“) − Anzeichen („signa“) − Vermutung („coniecturae“) − Annahme („praesumptio“) − Verdacht („suspito“) Schmoeckel beklagt die verwirrende Vielfalt der Varianten und Ausdrücke. Die Begriffsverwirrung sei bis zum Ende des 18. Jahrhunderts erhalten geblieben; daran könne man sehen, dass selbst bei den großen Autoren des Ius Commune nicht immer eine nach heutiger Auffassung klare Systematisierung und Begriffsbildung zu finden gewesen sei. Anstelle einer allgemeinen dogmatischen Erfassung habe man kasuistisch versucht, die außerordentlich große Zahl der Indizien und ihre mögliche Beweiskraft je nach den Umständen zu beschreiben. Auch diese Vorgehensweise habe aber nicht zur Klarheit der Rechtsfolgen geführt – zu groß sei die Vielfalt möglicher Situationen gewesen. Letztlich sei man den Schwierigkeiten dadurch ausgewichen, dass man den Bereich dem richterlichen Ermessen überlassen habe. Schmoeckel entdeckt in der gemeinrechtlichen Auffächerung der Indiz-Arten eine eigenartige „Zwitterstellung“ zwischen (vollgültigem) „Beweismittel“ und (unsicherem) „Beweismoment“: „Damit nahm das Indiz eine merkwürdige Zwitterstellung ein. Einerseits war es kein richtiges Beweismittel, diente aber zur Sachaufklärung. Aus dem Indiz konnte nur eine dubitatio, suspicatio oder allenfalls opinio des Richters entstehen, nicht aber die perfecta credulitas und damit grundsätzlich keine probatio plena. Andererseits konnte ein Indiz doch die credulitas des Richters bewirken. Jedoch führte nie ein Indiz allein zur Annahme eines indicium indubitatem, sondern bildete entweder als adminiculum anderer gewichtigerer Beweismittel oder durch Zusammensetzung verschiedener Indizien nur einen Beweismoment, das allerdings zum vollen Beweis führen konnte. Hier stellt sich erneut das Problem der Verbindung von Beweismomenten. Die Kumulation von Indizien war eine besonders umstrittene Frage des gemeinrechtlichen Strafprozesses.“150 149  Der Verwendungskontext von „adminicula“ ist im Mittelalter der Bohnenund Hopfenanbau, wo das Wort für Abstützung bzw. Stützvorrichtungen mithilfe von Stangen stand (dt. „Bestängelung“), siehe Grimmsches Wörterbuch, Bd. 17, Sp. 810– 811 „Stängeln“ bis „Stangenbake“. – Gut möglich, dass hier der Ursprung des Wortes „Anhaltspunkt“ liegt. 150  Schmoeckel, S. 220–222.



VI. Anzeichen277

Aus heutiger Sicht ist das gemeinrechtliche Indiz-Kontinuum bemerkenswert. Mit Blick auf die Abgrenzungsprobleme zwischen „Straftatverdacht“ und „Gefahrenverdacht“ im neuen Vorfeldrecht erscheint das differenzierte Konzept der verschiedenen Indiz-Arten als Mittel zum Umgang mit Ungewissheit so unangemessen nicht. Die „merkwürdige Zwitterstellung“, die Schmoeckel auffällt, erklärt sich offenbar aus der stets verbleibenden Ungewissheit, die die Aufklärung des „Tatsächlichen“ und die Suche nach dem „Richtigen“ umgibt. Die Frage ist: Was ist angesichts der Fülle möglicher Beweismomente ein „richtiges“ Beweismittel? Was ist der Unterschied zwischen einer „Annahme“ und einer „Vermutung“, zwischen einem „Anzeichen“ und einem „Indiz“? Die umkreisende und einkreisende Beschreibung der Tatumstände bzw. des jeweiligen situativen Kontextes, eine ganz andere Art der „Systematisierung“ der Ermittlungsarbeit, mag aus heutiger Sicht als „kasuistisch“ empfunden werden; im gemeinrechtlichen Strafprozess drückte sich hier das sprachliche und gedankliche Tasten im Ungewissen aus. Die heutige forensische Lehre vom Indizienbeweis hat mit derlei Nuancierungen keine Schwierigkeiten. Sie gehorcht einer streng zweiwertigen Logik. Exemplarisch ist in dieser Hinsicht der nachfolgende Auszug aus dem Standardwerk der Kriminalistik: „Für den Indizienbeweis sind zwei Begriffe prägend: Haupttatsache und Indiztatsache. Haupttatsachen sind solche Tatsachen, die Merkmale des gesetzlichen Tatbestands sind, also z. B. die ‚Wegnahme‘ beim Diebstahl, ‚mit Gewalt‘ beim Raub, der Vorsatz und insbesondere die Täterschaft (‚wer … wegnimmt“) des Beschuldigten. Indiztatsachen sind solche Tatsachen, die die Hauptsache, wörtlich übersetzt, ‚anzeigen‘, also solche Tatsachen, die für den Beweis der Haupttatsache erheblich sind. Daneben wird auch der Begriff der Hilfstatsache – teilweise uneinheitlich – verwendet. Indiztatsache (oder Hilfstatsache) ist z. B. der Umstand, dass der Erpresserbrief aus der Hand des Beschuldigten stammt; sie lässt den Schluss zu, dass der Beschuldigte irgendwie an der Entführung beteiligt gewesen ist. (…) Ein Indiz ist eine Tatsache, die dann, wenn sie vorliegt, die Wahrscheinlichkeit des Vorliegens der Haupttatsache beeinflusst (Indizschluss). Ein Indiz ist folglich belastend, wenn es die Wahrscheinlichkeit des Vorliegens der Haupttatsache erhöht. Es ist entlastend, wenn es die Wahrscheinlichkeit des Vorliegens der Haupttatsache vermindert.“151

Hier ist die grobe dyadische Subsumtionslogik mit Händen zu greifen. Die Klarheit der Begriffslogik ist offenbar nur um den Preis einer extremen Vereinfachung, einer Simplifizierung, ja Zurichtung der Zusammenhänge, zu haben. Die als störend empfundene Wortfülle ist gänzlich verschwunden, ersetzt durch das Entweder-Oder von Dichotomien: Haupttatsache / Indiztatsache, Erhöhung / Verminderung, Belastung / Entlastung. 151  Nack,

S. 196–197.

278

4. Kap.: Anzeichen eines Verdachts

In der Antike war mit Anzeichen und Indizien längst nicht eine derart präzise Vorstellung und Bestimmbarkeit verbunden. Theodor Reik weist daraufhin, dass Anzeichen ursprünglich einen magischen, abergläubigen Hintergrund hatten; sie leiteten sich von „Zauberzeichen“ her: „Das Ursprungsgebiet der Indizien ist die Zauberei. Die prähistorischen Indizien waren von ähnlicher Art, wie die Indizien unserer Kriminalistik, konnten auch wie diese zur Verbrechensaufklärung herangezogen werden; sie wurden freilich anders gewertet und gedeutet. Der Zusammenhang jener magischen Anzeichen mit den modernen Indizien ist trotz aller Kulturdifferenzen unverkennbar. (…) Die Indi­ zien werden aus magisch wirkenden Objekten zu rational betrachteten Zeichen. Die Bedeutung, die ihnen eignet, verschiebt sich von der Sphäre der psychischen zur materiellen Realität. Einst wurden sie vom Zauberer untersucht, jetzt vom Gerichtschemiker.“152

Ganz anders auch das „Anzeichen“-Verständnis in theologischer Denktradition. Anzeichen betrachtete man hier als komplexe Beziehungsgeflechte, die in Form von mythologischen Verwandschaftsbeziehungen zwischen göttlichen und menschlichen Wesen sowie Halbgöttern Gestalt annahmen und so vorstellbar gemacht wurden.153 Noch heute stehen „Anzeichen“ im theologischen Kontext für geheimnisvolle, göttliche Vor-Zeichen: Menetekel sind Anzeichen und düstere Prophezeiungen eines drohenden Unheils154; Prodigia sind wunderbare Zeichen göttlichen Zorns, denen man nach altrömischem Glauben durch kultische Sühnemaßnahmen zu begegnen suchte. Franz Spirago führt dazu aus: „Die Überzeugung, dass es Anzeichen gibt, ist uralt. Schon die heidnischen Schriftsteller des Altertums reden wiederholt von Anzeichen. Z. B. Cicero schreibt, dass der allmächtige Baumeister der Welt den Sterblichen durch äußere Zeichen die Zukunft kundgibt. Auch Titus Livius spricht von wunderbaren Zeichen (prodigia). Am meisten interessierte sich unter den römischen Kaisern Julian Postata um die sogenannten Anzeichen; er hatte ein ganzes Heer von Deutern in seinem Kriegsrat.“155

„Anzeichen“ ist offenbar eine Art deiktische Metapher, die Orientierung stiftet oder stiften will im Hinblick auf das „Verstehen“ des Kommenden, die Entschlüsselung und Enträtselung des Ungewissen. Anzeichen fungieren dabei als Wegweiser und Anzeiger im Hinblick auf „etwas“, das einen möglicherweise plausiblen Zusammenhang ausmacht – ganz so wie etwa sog. 152  Reik

(1983), S. 179–180. Klaus: Tertium datur. Eine religionsphilosophische Einführung in die Logik, Frankfurt a. M. 1981, der auf den Ursprung der Terminologie der Logik, insbesondere der Definitionslehre („genus proximum et differentiam specificam“), in der griechischen Mythologie hinweist. 154  aramäisch, nach der Geisterschrift für den babylonischen König Belsazar (Daniel 5,25). 155  Spirago, S. 10–11. 153  Heinrich,



VI. Anzeichen279

„Zeigerpflanzen“ Botanikern die chemische Zusammensetzung des Bodens anzeigen. Was indessen im Einzelfall wofür steht, ist so einfach nicht.156 Thomas Sebeok betont die Vielfalt der Ausdrucksformen und Deutungsmöglichkeiten von „Indexikalität“. Sprachlich habe dies zu einer Menge von Synonymen und „Quasi-Synonymen“ geführt, um indexikalische Zusammenhänge und Beziehungsrelationen im Prozess der Erkenntnisgewinnung zu beschreiben: „Unter der großen Zahl von Quasi-Synonymen für ‚Index‘ finden sich Wörter wie ‚Symptom‘, ‚Anhaltspunkt‘, ‚Hinweis‘, ‚Spur‘, ‚Fährte‘ usw. Peirce vielsagendes Beispiel zur Zweitheit – ,dass der Fußabdruck, den Robinson im Sand fand, und welcher in den Granit des Ruhmes gestampft worden ist, … für ihn ein Index dafür war, dass irgendeine Kreatur auf seiner Insel war‘ (CP 4.531) – lässt anhand dieses typischen Falles eine Schlüsseleigenschaft der Indexikalität erkennen, nämlich, dass das Verfahren, welches Jakobson renvoi oder Bezugnahme nannte, Robinson Crusoe auf irgendeinen Tag – vermutlich vor Freitag – in die Vergangenheit zurückführte. Der Index kehrt sozusagen die Kausalität um. In Freitags Fall verweist der Vektor des Index auf einen vergangenen Tag, indem ein Signans, der Abdruck eines Fußes im Sand, zeitlich auf ein Signatum, die sehr wahrscheinliche Anwesenheit eines anderen Wesens auf der Insel, zurückzielt.“157

Die Passage macht deutlich, dass es nicht damit getan ist, die verschiedenen, eng verwandten Begriffe „Anzeichen“, „Anhaltspunkt“, „Fährte“, „Hinweis“, „Index“, „Spur“, „Symptom“ und „Zeichen“ – hinzuzufügen wären zusätzlich etwa „Indikator“, „Prädiktor“, „Signal“, „Symbol“ usw. – präzise zu definieren. Mit der Operationalisierung des Begriffsapparats wäre kaum etwas gewonnen. Das Verfahren der Referenzfixierung, die Definition, hilft nur bedingt weiter. Erkenntnisgewinnung mittels Sprache, ist – dessen waren sich Scholastiker und gemeinrechtliche Rechtstheoretiker offenbar noch stärker bewusst – ein außerordentlich schwieriges Unterfangen. In Hinsicht auf das Wort „Anzeichen“ handelt sich um eine besonders riskante, sprichwörtlich gewordene Fahrt zwischen Scylla und Charybdis, zwischen rohem Sensualismus und resignativer Sprachskepsis.158 Nach Michel Serres treibt der Beobachter das Objekt der Bobachtung in die Flucht, weil 156  Sofsky, S. 28: „Vorzeichen sind nicht die Tatsachen selbst. Man kann künftige Ereignisse voraussagen, prophezeien oder mit guten Gründen erwarten, aber niemals wahrnehmen. Gefahren und Risiken sind mögliche Ereignisse, die man nicht feststellen, sondern sich nur vorstellen kann. Die Imagination ist anfällig für Lug und Selbstbetrug.“ 157  Sebeok (2000), S. 99–100. 158  Mauthner, Fritz:. Die Sprache, Frankfurt/M. 1906, S. 19 – zitiert nach Kleinschmidt, S. 75: „In drei starken Bänden bin ich nicht fertig geworden mit der Ausführung, dass die Sprache, gerade wegen der Unsicherheit der Wortkonturen, ein ausgezeichnetes Werkzeug der Wortkunst oder Poesie ist; dass aber Wissenschaft als Welterkenntnis immer unmöglich ist, eben weil die feine Wirklichkeit mit den groben Zangen der Sprache nicht zu fassen ist.“

280

4. Kap.: Anzeichen eines Verdachts

er Schellen mit sich herumtrage, die Sprache. Den Aspekt der Sprachvermitteltheit von Erkenntnis, damit auch die Folgen fehlender sprachlicher Sensibilität, umschreibt er folgendermaßen: „Gelegentlich hört man Sprachen, die mit ihrem Lärm die Dinge in die Flucht schlagen, von denen sie sprechen. Schellen, Glocken, Klingeln. Das Signal ihres Signifikanten treibt ihren Referenten in die Flucht.“159

Hier taucht die ganze Dramatik der „naturwüchsigen Vertextung“, von der Oevermann gesprochen hatte, zugleich die Problematik der Relationalität und Vieldeutigkeit (Polysemie) der Wörter wieder auf. „Verdachtschöpfung“ im Sinne des polizeilichen Fachjargons ist, so gesehen, eine treffende Metapher. Besteht doch die Aufgabe, die damit umschrieben werden soll, in der Schwierigkeit der sprachlichen und metaphorischen Übertragung der tatbestandlich relevanten Realität, der die „Schöpfung“ des Tatsächlichen aus der amorphen Mannigfaltigkeit des Seins entspricht.160 „Verdachtschöpfung“ wäre somit das sublime, approximative Verfahren der Enträtselung von Sachzusammenhängen. Im Sinne einer semiotischen Analytik des Vor-Begrifflichen muss so das gesamte syntaktische, semantische und pragmatische Feld innerhalb festgestellter Beziehungsstrukturen untersucht werden. Eine Definition von „Anzeichen“ muss daher nach allem ausbleiben – als Gestaltvariable im Erkenntnisprozess entzieht sich der topos einer präzisen Bestimmung und – einer reibungslosen Subsumtion. Anstelle der Definition soll daher hier Deskription treten.161 Wir folgen der Beschreibung und Annäherung an die Metapher des „Anzeichens“, wie sie Susanne K. Langer gegeben hat. Sie spricht von „Sinngewebe“162 und meint damit das Reich 159  Serres

(1981), S. 363–364. Zusammenhang zwischen Sprache und Schöpfung, d. h. der Konstitu­tion von Realität vgl. Barthes (2005), S. 76–77: „Das Zartgefühl ist konsubstantiell an das Vermögen der Metaphernbildung gebunden, das heißt der Ablösung eines Merkmals, das man in der Sprache in leidenschaftlichem Überschwang wuchern lässt. (…) ‚Alles geschieht durch die Sprache‘ heißt: die Sprache erschafft alles: Die Metapher erschafft das Zartgefühl; im humanistischen Diskurs hätte man gesagt: Die Metapher schafft die Zivilisation (…) Ich werde so weit gehen, zu sagen: Die Sprache erschafft das Reale“. 161  Garfinkel, Harold: Studies in Ethnomethodology, Englewood Cliffs, N. J. 1967; Bergmann, S. 86–102. 162  Ähnlich Levy, S. 525–528: „In der Vokabel ‚Text‘ klingt, etymologisch gesehen, die sehr alte Technik des Webens an. Und vielleicht ist es kein Zufall, wenn das Gewebe der Verben und Nomen, durch das wir versuchen den Sinn zu behalten, auf einen Terminus aus dem Textilbereich zurückgreift.“ – Siehe ferner Barthes (1988a), S. 296: „Die eben verwendete Textilmetapher ist nicht zufällig. Die Textanalyse erfordert, dass man sich den Text als Gewebe vorstellt (was übrigens der etymologische Sinn ist), als ein Geflecht verschiedener Stimmen, mannigfaltiger, gleichzeitig verschlungener und unvollendeter Codes.“ – Sowie Martens, S. 103: „Die Vernunft starrer Denk- und Handlungsmuster stößt gegenwärtig zunehmend an 160  Zum



VI. Anzeichen281

des Realen, das sich für den Einzelnen als Ensemble möglicher „Anzeichen“ darstelle. Der menschliche Intellekt, betont Langer, sei ein unglaublich komplexes Gebilde von Eindrücken und Umwandlungen – so komplex, dass „ein Gewebe von Bedeutungen“ entstehe, welches den kunstvollsten Traum des eifrigsten Teppichwebers wie eine einfache Matte erscheinen ließen.163 Das Gewebe bestehe zum einen aus dem, was wir als „Daten“ bezeichneten, zum anderen aus der Erfahrung, die uns gelehrt habe, auf bestimmte Datenkomplexe zu achten. „Anzeichen“ seien solche, die wir zum Anlass nähmen zu handeln, oft ohne uns dessen bewusst zu sein. Aus Anzeichen und Symbolen, schreibt sie, webten wir „unser Gewebe der ‚Wirklichkeit‘ “. Der „Einschlag“ (in Anspielung auf den Einschlagsfaden in der Textil- und Webetechnik) bestehe aus Symbolen. Die Anzeichen selber seien dabei oft sehr kompliziert, bildeten verwickelte Ketten, oftmals „namenlos“, aber dennoch so untereinander verknüpft, dass wir nicht nur in bestimmten Situationen, sondern mit stetigem, intelligentem Verhalten darauf reagierten. Das Autofahren, beispielsweise, sei eine solche Kette von Reaktionen auf Anzeichen. Es sei keine gewohnheitsmäßige Handlung, obgleich jede Einzelheit gewissermaßen eine durch Übung erleichterte Reaktion auf eine bestimmte Art von Anzeichen sei. „Anzeichen“ seien dabei derart miteinander verknüpft, dass ein Anzeichen nach dem Erkennen sogleich zum Kontext des nächsten Anzeichens werde. Anzeichen und Kontext sind offenbar, folgt man Langer, auf das Engste mit eineinander verknüpft und in beständigem Wandel begriffen. Langer unterstreicht, dass es sich dabei nicht um eine Art Gewohnheit handele, nämlich gewohnheitsmäßig, „ständig Anzeichen zu gehorchen“. Unaufmerksamkeit oder Zerstreutheit in nur einem einzigen Augenblick führe, zum Beispiel im Falle des Autofahrens, zur Zertrümmerung des Wagens.164 Im Verhältnis von Sprache und Wirklichkeit sieht Langer einen ebenso engen Zusammenhang, wie – umgekehrt – im Verhältnis von Wirklichkeit und ihre Grenzen, in der Ökologie, Wirtschaft, Technik, Kultur, Gesellschaft und im Privatleben. Stattdessen ist die Forderung nach einem ‚flexiblen‘, ‚vernetzten‘ Denken und einem ‚dynamischen‘ Handeln Gemeinplatz geworden. ‚Querdenker‘ sind gefragt, ‚Spinner‘ verliert seinen negativen Beiklang. Weniger selbstverständlich dagegen ist, was mit dem kreativen Weiterspinnen eigentlich gemeint ist. In der Tat äußert sich Vernunft nicht im Abspulen vorgefertigter Gedankenfäden, sondern in ihrem kreativen Weiterspinnen. Denken und Handeln ist nur dann vernünftig, wenn es Wirklichkeit zu vernehmen vermag.“ 163  Peirce (1990), S. 340: „Man hat über die Metaphysik verächtlich gesagt, dass sie ein Gewebe von Metaphern sei. Doch nicht nur in der Metaphysik, sondern auch logische und phaneroskopische Begriffe müssen so eingekleidet werden. Denn eine reine Idee ohne Metapher oder andere aussagefähige Ausstattung ist eine Zwiebel ohne Schale.“ 164  Langer (2004), S. 170–171.

282

4. Kap.: Anzeichen eines Verdachts

Anzeichen. Ein „Sinnesdatum“ habe gewissermaßen eine zweifache Wirkung: Einmal werde dadurch im Denken ein symbolisch (begrifflich) organisiertes Vorstellungsbild wachgerufen, andererseits werde dadurch eine Reaktion durch das jeweilige Anzeichen ausgelöst. Eine wörtliche Vorstellung von einem „Haus“ sei daher nicht nur ein „sensorisches Anzeichen“, das zum praktischen Handeln anreize, sondern zugleich Vorstellungsbild, mit dem wir denken. Anzeichen seien damit Mittel des Erfahrens, Begreifens und Verstehens des „sich jeweils Zeigenden“. Dieses zweifache Wirken eines Sinnesdatums als „Anzeichen“ und als „Symbol“ zugleich sei der Schlüssel zum realistischen Denken: die „Veranschaulichung einer Tatsache“. Hier, in der „praktischen Anschauung“, die aus Anzeichen für das Verhalten Symbole für das Denken mache, hätten wir die Wurzeln „praktischer Intelligenz“ vor uns. Sie sei mehr als spezialisierte Reaktion und freie Imagination; es handle sich dabei um „in der Wirklichkeit verankertes Begreifen.“165 In „Tatsachen“ schließlich sieht Langer das „Bindeglied“ zwischen der „wirklichen“ Welt und der Welt der Semiose, also den Diskursuniversen des Zeichengebrauchs. Man könnte im vorliegenden Kontext hinzufügen: Das Beobachten der Genese von Tatsachen ist es auch, was aus dem „Verdacht“ einen Schwellenbegriff, eine Art Brückenmetapher macht über hypothetischem Untergrund. Langer formuliert: „ ‚Tatsache‘ ist kein einfacher Begriff. Sie ist das, was wir als Quelle und Kontext von Anzeichen, auf die wir erfolgreich reagieren, begreifen; es ist dies zwar eine etwas vage Definition, doch ist ‚Tatsache‘ letzten Endes auch ein ziemlich vager Terminus. (…) Eine Tatsache ist ein Ereignis, so wie wir es sehen, oder wie wir es sehen würden, wenn es uns begegnete. Sie ist etwas, worauf eine Aussage anwendbar ist; und eine Aussage, die sich auf keinerlei Ereignis oder Ereignisse anwenden lässt, ist falsch. (…) Nur ‚unwirkliche Tatsachen‘ scheinen mir reine Hypostasierungen von Aussageinhalt zu sein und widersetzen sich dem Zweck des Begriffs ‚Tatsache‘, nämlich als Bindeglied zwischen dem symbolischen Prozess und der anzeichenhaften Antwort, zwischen Imagination und sensorischer Erfahrung, zu erkennen.“166

Die exakte Logik der Naturwissenschaften sei, so Langer, nicht ausreichend, um ein „Ereignis“ in seiner Gesamtheit und kontextuellen Einzigartigkeit zu erfassen und zu verstehen. Die Reibungslosigkeit der Argumentation werde hier um den Preis des „dogmatischen Einfrierens des Kontextes“ erkauft und führe auf diese Weise zu deformierenden Realitätsverlusten. Die exakte Naturwissenschaft sei ein geistiges Schema für die Behandlung von

165  Langer 166  Langer

(2004), S. 159–160 (Hervorhebung N. R.). (2004), S. 160–161.



VI. Anzeichen283

Tatsachen, bei dem ein verhältnismäßig stabiler Kontext angenommen werde. So könnten sich ganze „Klassen von Tatsachen“ verstehen lassen. Ähnlich argumentiert Martin Heidegger. Er beurteilt Verfahren der schematischen und standardisierten Abbildung von Realität als problematisch und – im Hinblick auf den damit verbundenen Kontext- und Realitätsverlust als riskant. Im „Ereignis“167 sieht er die Möglichkeit der authentischen Erfahrung und Anschauung. Anders als das bloße „Vorkommnis“ und „Geschehnis“ erfordere „Ereignis“ in einem weiten erkenntnistheoretischen Sinne eine Art der Verwobenheit des Beobachters mit dem jeweils Beobachteten: „Es gilt, dieses Eignen, worin Mensch und Sein einander geeignet sind, schlicht zu erfahren, d. h. einzukehren in das, was wir das Ereignis nennen. Das Wort ist der gewachsenen Sprache entnommen. Er-eignen heißt ursprünglich: er-äugen, d. h. erblicken, im Blicken zu sich rufen, an-eignen. Das Wort Ereignis soll jetzt, aus der gewiesenen Sache her gedacht, als Leitwort im Dienst des Denkens sprechen. Als so gedachtes Leitwort lässt es sich sowenig übersetzen wie das griechische Leitwort λόγoς und das chinesische Tao. Das Wort Ereignis meint hier nicht mehr das, was wir sonst irgendein Geschehnis, ein Vorkommnis nennen. Das Wort ist jetzt als Singulare tantum gebraucht. Was es nennt, ereignet sich nur in der Einzahl, nein, nicht einmal mehr in einer Zahl, sondern einzig.“168

Die substanzontologische Form des Denkens, d. h. das Verknüpfen als feststehend gedachter Entitäten, sei keineswegs der entschiedendste Ausdruck realistischen Denkens, folgert Susanne Langer. Das sei vielmehr der neue „historische Sinn“. Es gehe dabei nicht um Fakten der Geschichte oder die leidenschaftliche Jagd nach vorurteilsfreier, objektiver Evidenz, sondern um eine Art „höhere Kritik“. Das aber impliziere die „Untersuchung des diskursiven Werdegangs von Wissen“. Insofern sei das Historische – nicht das Mathematische – der realistischere Maßstab für die jeweils aktuell zu beurteilende Tatsache.169 Die Frage der „Vertextung“ spricht Langer nicht ausdrücklich an, umschreibt aber, wie sich Anzeichen und Symbol im Verlauf der Realitätskonstitution in einem komplexen Wechselspiel von Anschauung und diskursiver Benennung gegenseitig bedingen und beeinflussen. Sie schreibt: „Anzeichen und Symbol sind miteinander verknüpft bei der Hervorbringung jener festen Realitäten, die wie ‚Tatsachen‘ nennen (…). Aber zwischen den Tatsachen laufen die Fäden der unregistrierten Wirklichkeit, die wir in unserer stillschweigenden Anpassung an Anzeichen, wo immer sie an die Oberfläche kommen, für den Augenblick erkennen; und auch die glänzenden, gewundenen Fäden symbolischer Veranschaulichung, der Einbildungskraft, des Denkens – Erinnerung und 167  Heidegger

(2007), S. 318–319. (2007), S. 318–319. 169  Langer (2004), S. 166–168. 168  Heidegger

284

4. Kap.: Anzeichen eines Verdachts

rekonstruierte Erinnerung, Überzeugung über Erfahrung hinaus, Traum, Vorspiegelung, Hypothese, Philosophie – der ganze schöpferische Prozess der Ideenbildung, der Metapher, der Abstraktion, der das Menschenleben zu einem Abenteuer des Verstehens macht. Der Einschlagfaden ist es, der das Muster eines Gewebes wirkt, wenn die Kette auch hier und da, um es zu variieren, mitbenutzt werden kann.“170

Nach Langer überkreuzen sich zwei Tätigkeiten in einer konkreten Wahrnehmungssituation, in der sich die Frage der „Vertextung“ stellt: Einerseits eine Art „diskursiver Symbolismus“, der immer wissend und allgemein sei, und andererseits der „nicht-diskursive Symbolismus“, der die Anwendung bekannter Symbole auf die konkrete Gegebenheit verlange. Die Herausforderung bestehe darin, aus dem spezifisch „Gegebenen“ (data) die allgemeine Bedeutung „herauszulesen“. Die Konstruktion der „intelligiblen Welt“ stelle sich so als das „Spiel mit Worten“, Konnotationen und Assoziationen, „das erregende Hin und Her“ der Identifikation von Anzeichen mit Symbolen dar. Angesichts der „viele(n) Stufen der künstlichen Erfindung, des Hergestellten und Veränderten“, die sich zwischen den Menschen und die übrige Natur „eingeschoben“ hätten, zeigt sich Langer besorgt. Die technische Entwicklung habe teilweise zu einer „Tyrannei der Maschine“ geführt.171 In der Verkürzung des Logik-Verständnisses auf Induktion und Deduktion, der Aufspaltung in ratio und emotio und der Lahmlegung „einer wohl geordneten diskursiven Vernunft“172 erkennt sie Ursachen für den Verlust an Einbildungskraft und symbolischer Orientierung.

VII. Degenerierte Indexikalität Über 1000 akademisch gebildete Geheimdienstmitarbeiter seien seit 1993 in vier westlichen Nationen mit der Analyse von Bin Ladens al-Qaeda befasst gewesen, schreibt Georg Elwert in einer Nachbetrachtung zum ­ „11. September“. Sie hätten große Datenmengen von Verhörprotokollen, transkribierten Telefongesprächen und Bewegungskarten verarbeitet. Die Ergebnisse seien nicht beeindruckend. Die Bilanz der Sozialwissenschaften sei besser: Das Gewaltpotenzial des islamistischen Fundamentalismus, die Organisationspotenziale, die aus „Gewaltmärkten“173 erwachsen seien, und die kommunikative, technische und organisatorische Modernisierung des Terrorismus seien von ihnen schon 2001 präzise beschrieben worden. Dies könnte daran liegen, schreibt er, „dass sie die Datenmengen theoriegeleitet 170  Langer

(2004), S. 172, 176. (2004). S. 169, 181. 172  Langer (2004), S. 182–183. 173  Elwert (1997), S. 86–101. 171  Langer



VII. Degenerierte Indexikalität285

analysierten und Empirie nutzten, die lieb gewordenen Theorien durch zu kämmen und Unbrauchbares zu verwerfen.“174 Das leidenschaftliche und zugleich selbstbewusste Plädoyer für eine theoriegeleitete wissenschaftliche Auseinandersetzung mit der Terrorbedrohung erinnert an ein Wort von John Locke, der in seinem klassischen Werk An Essay Concerning Human Understanding bereits einen ähnlichen Gedanken mit Nachdruck formuliert hatte. Es gehe nicht darum, hatte Locke betont, alles zu wissen, sondern nur das, was für das soziale Miteinander handlungsrelevant sei. Wenn es aber gelänge, das hierfür wesentliche Denken und Handeln festzustellen, dann könne man unbesorgt sein, wenn einige andere Dinge unserem Wissen entgingen.175 Dem Intelligence-Ansatz täte in dieser Hinsicht ein neuer Blick auf das Wesentliche gut. Ihm fehlt, könnte man sagen, ein qualitativer Ansatz, eine Art sozialwissenschaftlich angeleitete „Wesentlichkeitstheorie“, die mit der Doktrin von der notwendigen „Verbreiterung der Informationsbasis“ brechen, die „Mehr-Daten-Haltung“ innerhalb der Polizei zur Diskussion stellen würde. Verdachtschöpfung wäre demnach hypothesengeleitete Suche, das gezielte Eintauchen der Schöpfkelle, nicht „Abschöpfen“ möglichst vieler Daten. Demgegenüber birgt die Tendenz zur „Virtualisierung“ des Verdachts letztlich die Gefahr eines ubiquitären net widening-Effekts, da der Intelligence-Ansatz die beständige Ausweitung der Datenbasis zur logischen Voraussetzung hat.176 Die allgegenwärtige Risikoorientierung führt zur Ausweitung des Verdachts, verstärkte (automatisierte) Verdachtschöpfung zur Perzeption neuer „Risiken“, diese wiederum zu verstärkten Anstrengungen eines „pro-aktiven“ Risikomanagements mittels (parametrischer) Risikoanalyse, worauf der Kreislauf von 174  Elwert

(2003), S. 95. John: An Essay Concerning Human Understanding, Book I, Ch. 1, § 6, Oxford 1975, p. 46 – zitiert nach Bjarup, S. 342: „Our Business here is not to know all things, but those which concern our Conduct. If we can find out those Measures, whereby a rational creature put in that State, which Man is in, in this World, may and ought to govern his Opinions, and Actions depending thereon, we need not be troubled, that some other things escape our Knowledge.“ 176  So empfiehlt beispielsweise die praxisnahe Kommission zur Evaluierung der Sicherheitsarchitektur (sog. „Werthebach-Kommission“) ganz im Sinne der Vorfeldstrategie eine noch intensivere informationelle Zusammenarbeit im Vorfeld des Verdachts, vgl. Kommission „Evaluierung Sicherheitsbehörden“, S. 109: „Auch wenn kein Zweifel besteht, dass die Finanzkontrolle Schwarzarbeit Verdachtsgründe auf andere Rechtsverstöße als sogenannte Zufallsfunde an die jeweils zuständigen Strafverfolgungsbehörden weiterleitet, könnte nach dem Eindruck der Kommission die Grauzone einer Vorverdachtsituation noch intensiver beleuchtet werden. Dies betrifft beispielsweise Überlegungen, ob die vorgelegten Papiere per se oder nach übereinstimmenden Merkmalen bei diesen oder bei anderen kontrollierten Personen Besonderheiten aufweisen oder ob Auffälligkeiten anderer Art ein näheres Hinsehen zum Zwecke einschlägiger Verdachtsgewinnung geraten erscheinen lassen.“ 175  Locke,

286

4. Kap.: Anzeichen eines Verdachts

Neuem beginnt – diesmal auf höherem Niveau. Unter den Bedingungen der Digitalisierung und Informatisierung kann der Verdacht im herkömmlichen Sinne als das täterlose Übelnehmen systematisch perpetuiert werden; es wird in dem Maße perfektioniert, wie die Speicherung in vernetzten Systemen das Vergessen oder das Übersehen überwindet. Datensätze in Informationssammlungen erzeugen in ihrer Kombination als die Summe unvergessener Vorwürfe neue – solche, die als neue „Verdachtsgründe“ von den Sicherheitsbehörden bei Bedarf ins Feld geführt werden können. War Verdachtsgewinnung in der Vergangenheit wesentlich ein soziales (symbolisch vermitteltes) Interaktionsereignis, motiviert durch tatsächliche konkrete Wahrnehmungen der Sicherheitsorgane, der Bürger oder Zeugen, so ist heute eine „Phänomenologie“, besser: eine technifizierte Seismographie und signalgestützte Verdachtssensorik hinzugekommen, die sich formal als abstrakter IT-basierter Informationsverarbeitungsprozess, in materieller Hinsicht als pro-aktiver Risikobewertungsprozess darstellt. An die Stelle der früher für die Verdachtschöpfung primären Rolle der unmittelbaren sozialen Interaktion tritt zunehmend die Mensch-Maschine-Schnittstelle, das syntaktischgebundene Interface. Der „virtuelle Verdacht“, gestützt auf technische Trefferfälle und raumgreifende, überindividuelle sog. „Vorfelderkenntnisse“, repräsentiert ein aliud gegenüber dem herkömmlichen strafprozessualen Tatverdacht. Die Metapher „Verdachtschöpfung“ beschreibt den Zusammenhang treffend: Es handelt sich um das „Schöpfen“ von Zusammenhängen und Beziehungsrelationen aus dem unendlichen, inkommensurablen Möglichkeitsraum. Durch das Ausmessen des „Vorfeldes“ zum – vergleichsweise konkreten und orientierten – Anfangsverdacht ist der normative VerdachtBegriff als Anzeiger für die Grenzen der Wirksamkeit des Staates erodiert177; anstelle „punktueller“, konkretisierbarer Verdachtskriterien ist das weite Feld, das Vor-Feld getreten. Der Wandel der Verdachtschöpfungspraxis ist am Wechsel des Sprachgebrauchs sehr gut ablesbar. Sprache ist insoweit verräterisch: Unter dem Regime der Informationsverarbeitungstheorie ist aus dem „Indiz“, dem vagen, kontextuell in der Wirklichkeit verankerten Anzeichen, der „Indikator“ geworden. Beim „Indikator“ handelt es sich um eine codierte bzw. indexierte (IT-technisch gesprochen, auch „fokussierte“ und „aggregierte“) „Information“, die das Reale über exakte Messgrößen, Kennzahlen und Indizes bestimmen will. Die Frage der „Lesbarkeit der Welt“, die Hans Blumenberg noch als hermeneutische und metapherologische Herausforderung der Wissenschaftsgemeinde beschrieben hatte, wird damit zur Frage der Leistungsfähigkeit eines IT-Systems im weitesten Sinne. Mit Ivan Illich lässt sich sagen: Die Welt, die „Wirklichkeit“, das „Sein“, alles wird heute gewisser177  Trute,

S. 403–428.



VII. Degenerierte Indexikalität287

maßen als „kodierte Information“, perzipiert.178 Die Tatsache der Maschinenlesbarkeit hat – darin besteht wesentlich der cultural lag – die Balance vom indexikalischen Lesen zum Lesen maschineller Indikatoren verschoben. Lesen als Scanning und Monitoring, das Berechnen von Risiken und Gefahren über „Indikatoren“ und „Prädiktoren“, überwiegt in der aktuellen Erkenntnispraxis gegenüber dem intersubjektiven und theoriegeleiteten „Verstehen“. Es fällt auf, dass eine eine zeitgemäße „Indizienlehre“, die Aspekte einer Theorie polizeilicher Indikatorbildung und kriminogener Musteranalyse beinhalten müsste, nicht gibt. Die kriminalistische Spurenkunde, die primär das Handwerk der kriminalpolizeilichen Tatort- und Ermittlungsarbeit beschreibt, kann dieses nicht leisten. Das ist umso überraschender als sich ausgangs des 19. Jahrhunderts, im Übergang zur sog. „Moderne“, ein Perspektivenwechsel formiert hat, der das „Indiz“ ins Zentrum der gesamten wissenschaftlichen Überlegungen gestellt hatte. Carlo Ginzburg spricht insoweit von einem neuen „epistemologischen Modell“, einem „Paradigma“, das in diesem Zeitraum im Bereich der Humanwissenschaften auftauche und die Wissenschaften tiefgreifend umgeformt habe.179 Das von ihm explizit so genannte „Indizienparadigma“ besteht in der Einsicht, dass die Realität zwar „undurchsichtig“ sei, aber mittelbar über „Symptome“, „Spuren“ und „Indizien“ entschlüsselt werden könne. Das Modell dafür lieferte nach Ginzburg die medizinische Semiotik: Von jeher seien hier Krankheiten über Oberflächensymptome diagnostiziert worden. Ginzburg verweist auf eine Analogie zwischen dem Ansatz der Psychoanalyse Sigmund Freuds, der Methodik des Kunsthistorikers Giovanni Morelli zur Identifizierung von Autoren antiker Bilder und den akribischen und detailversessenen Nachforschungen der Detektivfigur Sherlock Holmes in den Kriminalromanen von Arthur Conan Doyle. Ginzburg schreibt: „In allen drei Fällen erlauben es unendlich feine Spuren, eine tiefere, sonst nicht erreichbare Realität einzufangen. Spuren, genauer gesagt: Symptome (bei Freud), Indizien (bei Sherlock Holmes) und malerische Details (bei Morelli).“180

„Realität“, in ihrer Mannigfaltigkeit nicht unmittelbar beobachtbar, wird auf diese Weise gleichsam indiziert wahrgenommen, damit entschlüsselbar, entdeckbar und – als zusammenhängender Gesamttext – lesbar. Die Welt ist dadurch gleichzeitig aber als Ganzes zum Rätsel geworden. So kann Stanis178  Illich (1991), S. 124: „Exegese und Hermeneutik wurden zu Eingriffen am Text statt an der Welt. Erst jetzt, da die Welt als kodierte Information verstanden wird, kann die Geschichte der ‚Lesbarkeit der Welt‘ zu einem Gegenstand der Forschung werden.“ 179  Ginzburg (2002), S. 7, 47. 180  Ginzburg (2002), S. 17.

288

4. Kap.: Anzeichen eines Verdachts

law Lem 1968 feststellen, dass sich die Wissenschaft – ganz ähnlich wie ein strafrechtliches Ermittlungsverfahren – mit der „Ermittlung von Indizien“ befasse, „nur dass nicht von der Polizei vorgeführte Personen ins Kreuzfeuer des Verhörs genommen werden, sondern die ‚unter einem bestimmten Verdacht stehende‘ menschliche oder außermenschliche Welt.“181

Umberto Eco kommt aus anderer Perspektive zu einem ähnlichen Ergebnis. Er erkennt einen gemeinsamen Grundzug in der Arbeit von Detektiven, Kriminalisten, Ärzten und Forschern. Für alle gelte gleichermaßen, dass sie Hypothesen und Mutmaßungen (sog. „Konjekturen“) anstellten. Der Kriminalroman, von Kriminalpraktikern oft als Vorbild gepriesen, repräsentiere gewissermaßen „eine Konjektur-Geschichte im Reinzustand“. Eco formuliert: „Eine Geschichte, in der es um das Vermuten geht, das Abenteuer der Mutmaßung, um das Wagnis der Aufstellung von Hypothesen angesichts eines scheinbar unerklärlichen Tatbestandes, eines dunklen Sachverhalts oder mysteriösen Befundes – wie in einer ärztlichen Diagnose, einer wissenschaftlichen Forschung oder auch einer metaphysischen Fragestellung. Denn wie der ermittelnde Detektiv geht auch der Arzt, der Forscher, der Physiker und der Metaphysiker durch Konjekturen vor, das heißt durch Mutmaßungen und Vermutungen über den Grund der Sache, durch mehr oder minder kühne Annahmen, die sie dann schrittweise prüfen.“182

Eine genauere Analyse des Indizienparadigmas und des tiefgreifenden Epochenübergangs zur Moderne ergibt, dass die Erforschung der Sprache in der Moderne durch philologische, literarhistorische und archäologische Studien einen völlig neuen Stellenwert erlangt hat. Zur Moderne gehöre, notiert Hans-Martin Gauger, „insgesamt ein spezifisches und ganz neues, bisher nicht zu verzeichnendes Verhältnis zur Sprache“.183 Das bestätigen auch Beobachtungen Michel Foucaults. In der Hinwendung zur detektivischen Kleinarbeit in der Forschung im 19. Jahrhundert sieht er eine grundsätzliche erkenntnistheoretische Wende: „Das 19. Jahrhundert hat eine Region der Einbildungskraft entdeckt, deren Kraft frühere Zeitalter sicher nicht einmal geahnt haben. Diese Phantasmen haben ihren Sitz nicht mehr in der Nacht, dem Schlaf der Vernunft, der ungewissen Leere, die sich vor der Sehnsucht auftut, sondern im Wachzustand, in der unermüdlichen Aufmerksamkeit, im gelehrten Fleiß, im wachsamen Ausspähen. Das Chimärische entsteht jetzt auf der schwarzen und weißen Oberfläche der gedruckten Schriftzeichen, aus dem geschlossenen staubigen Band, der, geöffnet, eine Schwarm vergessener Wörter entlässt; es entfaltet sich säuberlich in der lautlosen Bibliothek mit 181  Lem

(1985), S. 102. (1986), S. 63–64. 183  Gauger, S. 195. 182  Eco



VII. Degenerierte Indexikalität289 ihren Buchkolonnen, aufgereihten Titeln und Regalen, die es nach außen ringsum abschließt, sich nach innen aber den unmöglichsten Welten öffnet. Das Imaginäre haust zwischen dem Buch und der Lampe. Man trägt das Phantastische nicht mehr im Herzen, man erwartet es auch nicht mehr von den Ungereimtheiten der Natur; man schöpft es aus der Genauigkeit des Wissens.“184

Charakteristisch für die Moderne ist nach Foucault, dass sich ein neuer universalistischer „Text“-Begriff durchgesetzt habe, wonach alles mit allem verknüpft und in seiner zeichenförmigen Struktur lesbar sei.185 Das Hypothetische, das Imaginäre, wird nach Foucault im 19. Jahrhundert zum Ansporn eines Forschergeistes und einer praktischen Wahrheitssuche, die auch die „Massen an winzigen Informationen, Parzellen von Monumenten, Reproduktionen von Reproduktionen“ für wichtig hält. Foucault schreibt: „Das Imaginäre konstituiert sich nicht mehr im Gegensatz zum Realen, um es abzuleugnen oder zu kompensieren; es dehnt sich von Buch zu Buch zwischen den Schriftzeichen aus, im Spielraum des Noch-einmal-Gesagten und der Kommentare; es entsteht und bildet sich heraus im Zwischenraum der Texte.“186

An anderer Stelle präzisiert Foucault, was er damit meint. Der „Text“ in seiner Gesamtheit, den es nunmehr zu entschlüsseln gelte, umfasse das Ensemble geschriebener Texte – einschließlich der jeweiligen Kontexte: „Zwischen den Zeichen und Wörtern gibt es den Unterschied der Beobachtung und der akzeptierten Autorität oder des Verifizierbaren und der Tradition nicht. Es gibt überall nur ein und dasselbe Spiel, das des Zeichens und des Ähnlichen, und deshalb können die Natur und das Verb sich unendlich kreuzen und für jedermann, der lesen kann, gewissermaßen einen großen und einzigen Text bilden.“187

„Text“ bedeute und umfasse nunmehr auch den – nicht kodifizierten – „Zwischenraum“ zwischen den überlieferten und gültigen Texten, dem archivierten und kanonisierten Wissen in Form von Dokumenten. Es habe sich die Grundüberzeugung herausgebildet, dass es Unbewusstes und Ungesagtes im Text bzw. „zwischen“ jenen Texten gebe. Dieses unbekannte und unbestimmte Wissen rufe zur Entdeckung, Aufdeckung, ja Dechiffrierung auf, so Foucault. Betrachtet man den Sprachgebrauch in Physik, Biologie, Chemie und den jeweils transdisziplinären Sparten der naturwissenschaft­ lichen Grundlagenforschung, so wird die Konsequenz des Indizienparadigmas, dass alles „ein Text“ ist, augenfällig: In der Forschungspraxis ist die Rede vom „genetischen Programm“, dem „Text von Nukleinsäuren“, der 184  Foucault

(1988), S. 160. Hinblick auf das „Text“-Verständnis gehen poststrukturalistische Theoretiker über die Grundannahmen der philosophischen Hermeneutik hinaus, vgl. dazu die Kontroverse bei Forget, S. 24–55; Derrida (1984), S. 56–58; Gadamer (1984), S. 59–61; Derrida (1984a), S. 62–77. 186  Foucault (1988), S. 160. 187  Foucault (1995), S. 65–66. 185  Im

290

4. Kap.: Anzeichen eines Verdachts

„Grammatik von DNA“, der „Botschafterqualität von RNA“; es herrscht die Metaphorik des „Codes“ vor. Hans Blumenberg hat, wie erwähnt, den Wandel des Sprachgebrauchs unter der Überschrift Die Lesbarkeit der Welt intensiv untersucht und die Beobachtungen von Ginzburg und anderen umfassend und detailreich bestätigt.188 Der Hinweis Foucaults auf den „Zwischenraum“ zwischen Wörtern und Zeichen, auf das unaufhörliche „Spiel“ des Zeichengebrauchs, ist engstens verwandt mit der Darstellung der „Anzeichen“, wie Susanne Langer sie gegeben hat. Auch sie hatte ja im beständigen Wechselspiel zwischen Anzeichen und Kontext die Grundlage von Realitätssinn und symbolischer Orientierung gesehen. Roland Barthes spricht von „Translinguistik“ und spielt damit auf den Erzählbereich einer Fallgeschichte an, der „zwischen zwei Codes“ liege, was wiederum an die Überlegungen Sybille Krämers zur narrativen Struktur von „Spuren“ erinnert.189 Unbeschadet methodologischer Divergenzen bei Barthes, Blumenberg, Foucault, Ginzburg, Eco, Illich, Krämer und Langer im Einzelnen wird hier deutlich, dass durchaus hinreichend Ansatzpunkte für eine zeitgemäße, nicht essentialistische polizeiliche Indizientheorie vorhanden sind. Der Versuch Ulrich Oevermanns, die Grundüberzeugungen des Indizienparadigmas für die Kriminalistik und eine polizeiliche Handlungstheorie fruchtbar zu machen, ist indessen, wie gesehen, gescheitert. Die Praxis hat einseitig den Weg in Richtung auf eine EDV-gestützte Verdachtschöpfung eingeschlagen. Abstrakte Verdachtsgewinnung im Stadium des „Vor-(Anfangs)Verdachts“, die wesentlich auf der Basis des Bayes-Theorems operiert, ist damit durch eine eigenartige „Anzeichenlosigkeit“ charakterisiert. Man kann im Wechsel vom „Indiz“ zum „Indikator“, ganz allgemein in der Umstellung von einer kriminalistischen Indizienlehre zur „Indikatorbasierung“ polizeilicher Expertensysteme eine Bewegung zu degenerierter Indexikalität sehen. Zur Verdeutlichung des künstlichen Charakters technisch generierter Hinweise schlägt Lambert Wiesing vor, von „simulierten Indices“, „Pseudo-Indices oder „Als-ob-Indices“ zu sprechen. Artifizielle Spuren erlaubten keinerlei Aussagen über „tatsächliche Anhaltspunkte“, seien vielmehr „degenerierte Indices“, folgert Wiesing. Er verweist dabei auf eine ähnliche Unterscheidung, die Peirce bereits vorgeschlagen hatte: „Dass Peirce zwischen genuinen und degenerierten Indices unterscheidet, ist zumindest auf den ersten Blick eine ungünstige Terminologie (…). Der degenerierte Index hingegen ist überhaupt kein Index – zumindest kein Index im strengen Sinne der Definition. Aus diesem Grund wären die Überlegungen von Peirce verständlicher, wenn er anstatt von degeneriertem Index treffender von simuliertem Index, von Pseudo-Index oder auch von einem Index-als-ob sprechen würde. 188  Blumenberg 189  Barthes

(1993c), S. 372–409. (1988b), S. 135.



VII. Degenerierte Indexikalität291 Diese Begriffe würden jedenfalls den springenden Punkt in seiner Unterscheidung deutlicher herausstellen.“190

Warum können – die Frage ist erlaubt – technisch generierte Hinweise keine „Anzeichen“, sondern nur „Pseudo-Indices“ sein? Das Problem besteht darin, dass Codierung – nachweislich – zum Kontextverlust, damit zum Verlust an tatsächlicher Indexikalität führt. Objekt-orientierte Modellierung hat ja gerade die Bildung von abstrakten „Indikatoren“ und „Prädiktoren“ zum Ziel. Indikatorbildung ist wesentlich Abstraktion auf der Grundlage vergangener Vorfälle und Reduktion der komplexen realen Welt auf das (bis dahin) Typische. Verschiedene empirische Fälle „indexieren“ gewissermaßen die abstrakte Beschreibung eines für die Zukunft als möglicherweise riskant erkannten Musters. Der so konstruierte „Indikator“ wird zum „Prädiktor“ als technisch konstruiertes „Vorzeichen“. Hier wird auch deutlich, was Heinz Büchler mit der hochabstrakten Umschreibung der „Auswertung i. e. S.“, auch „Informationsanalyse“ genannt, meinte. Dieser Teilprozess im Informationsverarbeitungszyklus erforderte ja die − „Abstraktion“, − „Verdichtung“, − „Abgleichung“, − „Aggregation“, − „Selektion“ und − „Zusammenführung“. Es handelt sich dabei – wie ein Blick in die Fachliteratur zur softwaretechnischen Modellierung und Simulation zeigt191 – um Grundbegriffe des Informationsmanagements und Informationsdesigns, der Wissensmodellierung, Parametrisierung und IT-technischen Ontologiebildung.192 Was folgt nun daraus? Für die Frage der Verdachtschöpfung, d. h. der Gewinnung von Verdachtsmomenten? Für die Frage der „Vertextung von Anzeichen“ bzw. „Spurentexten“, von denen Oevermann spricht? Oevermann hatte die Gefahren einer Reduktion der Wirklichkeit auf den „Code“ sehr deutlich gesehen: 190  Wiesing,

S. 218. S. 378: „Die Informatik kann man als Disziplin der Modellbildung schlechthin bezeichnen, denn jede Form der Verarbeitung von Wissen und Information erfolgt über Modelle.“ 192  Zum engen etymologischen Zusammenhang zwischen Modell- und MusterBegriff Hesse/Mayr, S. 377: „Ursprünglich leitet sich der Modellbegriff vom Lateinischen bzw. Italienischen ab: modulus (lat.): Maß, Regel, Muster, Vorbild; ‚[…] modello (ital.) = Muster, Entwurf zu lat. Modulus […]‘.“ 191  Hesse/Mayr,

292

4. Kap.: Anzeichen eines Verdachts

„Auch das Protokoll, mit dem der Kriminalist einen Handlungsablauf schildert, bildet nur noch die tatsächlich ausgewählte Handlungsmöglichkeit als Element der Tathandlung ab. Damit wird jedoch immer nur ein oberflächlicher Eindruck der Realität der Handlung vermittelt, weil ‚solche Datenerhebungs- und Auswertungsmethoden … selbst nichts anderes als Anzeichen der Realität produzieren, diese aber nicht erschließen‘.“193

Indexikalität degeneriert in dem Maße, wie „Indikatorisierung“ umsichgreift. Dies führt – um mit Susanne Langer zu sprechen – zu mangelndem Realitätssinn und Verlust an symbolischer Orientierung. Das „Anzeichen“ ist immer eingebunden in einen sich beständig wandelnden Kontext – irreduzibel ist die Masse seiner Beziehungszusammenhänge (Relationen). Der Vieldeutigkeit von Anzeichen bzw. Vorzeichen entspricht unter dem Aspekt der Verdachtschöpfung eine Vielzahl möglicher Hypothesen und Lesarten.194 Das Dilemma der degenerierten Indexikalität ist ein Zweifaches: Einmal besteht es im systematisch beschränkten Erkenntnisvermögen als Folge des modelltheoretisch und systembedingten Reduktionismus. Ein Verdachtschöpfungssystem, das ausschließlich oder schwerpunktmäßig mithilfe von „Pseudo-Indices“ operiert, kann mangels (tatsächlicher) Kontextsensitivität weder „Anzeichen“ erkennen noch solche oder entsprechende Kontextänderungen angemessen beurteilen.195 Künstliche Systeme zur Erfassung von Kontextdaten (Stichwort: „Kontextkontrolle“) sind nicht geeignet, die Kontexttaubheit, die sich im Zuge des information handling von Massendaten (Informationserfassung, -bereinigung, -spiegelung, -verarbeitung etc.) notwendig einstellt, zu beseitigen. Das zweite Dilemma besteht darin, dass das System nicht nur Zusammenhänge nicht erkennt, sondern falsche Zusammenhänge konstruiert. Kriminalistisch gesprochen, handelt es sich um 193  Oevermann

zitiert nach Brisach (1992), S. 185. der Londoner U-Bahn überträgt ein „intelligentes Kamerasystem“ Bilder von eingefärbten Personen in die Einsatzleitzentrale. Auf den Bildschirmen der Kontrollmonitore erscheinen die allermeisten U-Bahn-Reisenden in grüner Farbe. Dann ist alles normal. Färben sie sich rot, wird automatisch Alarm ausgelöst. Der Alarm zeigt an, dass die betreffende Person zu lange an einem Ort verharrt hat, statt in eine der nächsten Bahnen einzusteigen. Die Technik soll zu erkennen helfen, ob jemand selbstmordgefährdet ist, ob zum Beispiel jemand noch zögert, sich vor den nächsten Zug zu werfen, siehe Krasmann (2003), S. 320. 195  Zu praktischen Erkenntnisproblemen am Beispiel der NSU-Mordserie, Arzt, C. (2014) zu § 1 RED-G, in:, Rdnr. 1: „Nach dem Bekanntwerden der Mordserie durch den so genannten Nationalsozialistischen Untergrund (NSU) im November 2011 sahen sich die Sicherheitsbehörden in der Bundesrepublik Deutschland massiver Kritik ausgesetzt, die im Kern dahin ging, dass Polizei- und Sicherheitsbehörden nicht in der Lage waren, den Zusammenhang mehrerer Morde und anderer Straftaten mit einem rechtsextremistischen Hintergrund in den Jahren 2000 bis 2007 an verschiedenen Orten der Bundesrepublik zu erkennen und die mutmaßlichen Täter aufzuspüren.“ 194  In



VII. Degenerierte Indexikalität293

technisch generierte „Fehlspuren“. In der Masse von „Trefferfällen“ finden sich so auch Fälle „falschen Verdachts“. Tatsächlich birgt ein derartiges Verdachtschöpfungssystem ein erhebliches Risiko falscher Verdächtigungen. Das System „indiziert“ dann einen Zusammenhang, der technisch vorhanden ist, sich aber tatsächlich als Artefakt herausstellt – mit allen denkbaren Folgen für die davon Betroffenen.

5. Kapitel

Dialogische Prämissensuche „So ist die juristische Auslegung nicht Nachdenken eines Vorgedachten, sondern Zuendedenken eines Gedachten. Sie geht von der philologischen Interpretation des Gesetzes aus, um bald über sie hinauszugehen – wie ein Schiff bei der Ausfahrt vom Lotsen auf vorgeschriebenem Wege durch die Hafengewässer gesteuert wird, dann aber unter der Führung des Kapitäns auf freier See den eigenen Kurs sucht. (…) Wenn aber der Ursprung der Logik in dem rhetorischen Unterricht der Sophisten lag, dann ist wissenschaftliche Logik ursprünglich vor allem Advokatenlogik; denn Rhetorik ist die Kunst des Beweisens und Widerlegens in der Wechselrede, vor allem in der Gerichtsrede. Solche logische Kunst des Beweisens und Widerlegens aus dem Gesetze aber fragt nicht: was hat der Gesetzgeber sich gedacht?, sondern: Was lässt sich für diese Sache aus dem Wortlaut des Gesetzes herausholen? Sie sucht nicht den von dem Gesetzgeber wirklich gedachten, sondern einen ihm ansinnbaren Sinn, einen Sinn also, der dem Gesetze entnommen wird, obgleich er nicht hineingelegt wurde.“ Gustav Radbruch, Die Logik der Rechtswissenschaft, 19931

I. Vicos Hinweis Einer der ersten, der in der Art des rationalistischen Denkens nach dem Vorbild der Mathematik und der Maschine gravierende Nachteile erkannte, war der napolitanische Rechtsgelehrte Gian Battista Vico. In seiner Streitschrift De Nostri Temporis Studiorum Ratione aus dem Jahre 1708 setzt er sich kritisch mit der der Methodenlehre Descartes’ auseinander. Er vergleicht diese sog. „Moderne (kritische) Logik“ mit antiken Verfahren der Erkenntnisgewinnung. Im Ergebnis attestiert er der neuen Methodik krasse Defizite. Gerade bei der Entdeckung von neuem Wissen weist er dem cartesianischen syllogistischen Ansatz einen systematischen Ausschluss der Phantasie nach. Vico schreibt: „Denn wie der, der mit dem Syllogismus arbeitet, nichts Neues beibringt, weil im Ober- und Untersatz der Schlusssatz mitenthalten ist, so bringt der Beweis mit den 1  Radbruch

(1993), S. 345, 349.



I. Vicos Hinweis295 Sorites nur die zweite Wahrheit ans Licht, die in der ersten versteckt und eingeschlossen war.“2

Vico macht damit auf die Kontextvergessenheit des primär deduktiven Schließens und des systematischen Ableitens aufmerksam: Die Automatik des Syllogismus und die Mechanik der Subsumtion verhinderten, dass neue Ideen in Form neuer Prämissen beim logischen Schließen Berücksichtigung fänden. Ernesto Grassi hebt hervor, dass sich Vico – über die Kritik des logischen Schlussverfahrens hinaus – energisch gegen den Dualismus von Logos und Pathos in der rationalistischen Tradition wandte. Darin habe er den sinnlosen Versuch gesehen, rationale Begriffe mit Bildern zu „verkleiden“, um sie „pathetisch“ bzw. „wirksam“ zu gestalten. Stattdessen sei Vico von der Ursprünglichkeit des „phantastischen“, poetischen Wortes überzeugt gewesen. Allein im Bereich der weisenden (deiktischen), ursprünglich sakralen Zeichen, im Bereich des poetischen Wortes begegneten sich die Menschen mit ihren Bemühungen, das Geheimnis des Realen zu entschlüsseln. In dieser Überzeugung sei Vico Begründer einer humanistischen Tradition, der jede rein apod(e)iktische Formulierung fernliege.3 Theodor Viehweg hat versucht die Gedanken Vicos für die juristische Methodendiskussion fruchtbar zu machen.4 Er spricht von „Vicos Hinweis“. Den Wink des napolitanischen Geschichts- und Rechtsphilosophen fasst er wie folgt zusammen: Im Grunde gehe es um den Vergleich zweier wissenschaftlicher Methoden (scientiarum instrumenta), die neue kritische Methode (critica) nach Descartes und die antike rhetorisch-topische (topica), die sich vor allem Cicero verdanke. Den Ausgangspunkt der neuen Methode kennzeichnet Vico als primum verum. Er stellt aber sogleich fest, dass sich dieses auch durch Zweifel nicht vernichten lasse. Die weitere Entfaltung erfolge nach der Art der Geometrie, d. h. also nach Maßgabe der ersten beweisenden Wissenschaft, und zwar in möglichst langen Kettenschlüssen (sorites). Dagegen gehe die alte Methode vom sog. „eingespielten Allgemeinsinn“ (lat. sensus communis, engl. common sense) aus, der im Wahrscheinlichen (verisimilia) taste und nach Maßgabe der rhetorischen Topik ständig die Gesichtspunkte wechsele. Zu den Vor- und Nachteilen der cartesianischen Methodik notiert Viehweg schließlich: „Die Vorteile der neuen Studienart liegen nach Vico in Schärfe und Genauigkeit (falls das primum verum ein verum ist); die Nachteile scheinen aber zu überwiegen, nämlich Verlust an kluger Einsicht, Verkümmerung der Phantasie und des Gedächtnisses, Dürftigkeit der Sprache, Unreife des Urteils, kurz: Depravierung des Menschlichen. Das alles aber verhindert nach Vico die alte rhetorische Me2  Vico

(1947), S. 55. (1992a), S. 260–261. 4  Viehweg (1974, S. 17. 3  Grassi

296

5. Kap.: Dialogische Prämissensuche

thode und insbesondere ihr Kernstück die rhetorische Topik. Sie vermittelt humane Klugheit, schult Phantasie und Gedächtnis und lehrt, einen Sachverhalt von sehr verschiedenen Seiten zu betrachten. Man muss, meint Vico, die alte topische Denkart der neuen vorschalten, denn diese kommt in Wirklichkeit ohne jene gar nicht durch (diss. III, Abs. 2 u. 3).“5

„Vicos Hinweis“ ist richtungsweisend. In methodologischer Hinsicht ein Meilenstein. Die Argumentation markiert gewissermaßen einen Weg zu einer (Rechts-)Theorie, die es ermöglichen kann, Fehlschlüsse – oder: ganz konkret im Hinblick auf die hier diskutierte Frage, falsche Verdächtigungen zu vermeiden. Es ist, recht betrachtet, ein schmaler Pfad, der unmittelbar ins Vorfeld der Deduktion führt. Aus dem Rekurs auf Vico hat Viehweg seinerseits einen differenzierten Hinweis für den aktuellen Methodendiskurs gemacht, den er „Rhetorische Rechtstheorie“6 genannt hat. Es ist, bei Licht besehen, die Wiederaufnahme des früheren juristischen Methodenstreits, der bis heute andauert. Viele, die sich in der Folge kritisch mit der Rhetorik und der Topik7 innerhalb der rechtswissenschaftlichen Methodendiskussion auseinandergesetzt haben, haben den Hinweis Vicos kaum wahrgenommen. Es ist nicht die Logik des Entweder-Oder, die hier spricht. Sondern Vico will das alte topische Problemlösungsverfahren der neuen „vorschalten“8. Was Vico sich vorstellt, ist ein Kontinuum der Problemlösung, dem ein Kontinuum der Begriffsbildung – unter Einschluss des Vor-Begrifflichen – entspricht. Recht verstanden, heißt dies nicht, auf Ableitung, Deduktion und Syllogismus zu verzichten. Ohne diese kann „Logik“ in einem spezifischen Sinne selbstverständlich nicht auskommen. Nur die Dominanz der Deduk­ tion tritt zurück. Der Pfad, auf den Vico und Viehweg hinweisen, führt aber unmittelbar hinauf zum Obersatz, mitten hinein in die Problematik der Richtigkeit, Angemessenheit und Plausibilität von Prämissen, der Frage der Authentizität von Rechtsbegriffen ebenso wie der Validität von „Indikatoren“ und „Prädiktoren“. Es geht um nichts weniger – aber auch um nicht mehr – als das primum verum. Es geht darum, jenen Gedanken einer Selbstvergewisserung des Obersatzes, methodisch zu begreifen und methodologisch zu institutionali5  Viehweg

(1974), S. 17. Rhetorische Rechtstheorie: Zum 75. Geburtstag von Theodor Viehweg, Freiburg i. Br. 1982; Ballweg (1989), S. 229–247. 7  Emrich, S. 210–251; Bornscheuer, Lothar: Topik. Zur Struktur der gesellschaftlichen Einbildungskraft, Frankfurt a. M. 1976; Bornscheuer (1977), S. 204– 212; Horn, S. 57–69; Bornscheuer (1987), S. 2–27; Haug (1992), S. 47–56. 8  Vico (1947), S. 28 im Original: „Deinde sola hodie critica celebratur; topica nedum non praemissa, sed omnino posthabita.“ 6  Ballweg/Seibert:



I. Vicos Hinweis297

sieren. Vicos Vorschlag lautet nicht, die deduktive-axiomatisch Methode gegen die diskursiv-topische auszuspielen. Es ist kein Ersatz, keine Alternative oder Surrogat zur Axiomatik, die er im Auge hat. Ihm geht es darum, die Vorteile der unbefangenen rhetorischen Denkweise der Deduktion voranzustellen, um die Nachteile des „kontrollierten“ Denkens, die er unmissverständlich aufzählt, möglichst zu vermeiden. Kritiker der Topik, wie etwa Ota Weinberger, übersehen diesen wesent­ lichen Aspekt. So versteht Weinberger den Ansatz der Rhetorischen Rechtstheorie als Gegenmodell zur herrschenden Logik. Den Gesamtansatz hält er daher für verfehlt und nicht brauchbar: „Viehweg stellt das topische Denken dem logisch-deduktiven gegenüber; die juristische Analyse fasst er als topisches, d. h. problemerörterndes Denken auf. In diesem Kontext bedeutet der Terminus ‚Problem‘ offenbar den Rechtsfall, die Frage, wie ein bestimmter Fall rechtlich beurteilt werden soll. (…) Es ist natürlich richtig, dass in jeder originellen Denkarbeit ein geistiger Funke sein muss und dass dies vielleicht sogar das Entscheidende großer denkerischer Leistungen bedeutet. Die Logik lehrt nun sicher nicht, wie man treffende und geistreiche Lösungen findet; doch leistet auch die Topik – als ars inveniendi – dies nicht. Die Argumente werden in der Topik nicht als axiomatische Ausgangspunkte, sondern als wahrscheinliche, meinungsmäßig akzeptable Voraussetzungen angesehen. Kataloge möglicher Topoi (Argumentationsformen) sollen hierbei hilfreich sein. Da Viehweg und seine Schüler den Begriff des Topos sehr ausweiten (so dass manchmal auch das eine Entscheidung bestimmende Gesetz als Topos bezeichnet wird) und da keine brauchbare Auswahl und Gewichtung der Topoi gegeben wird, lässt sich m.  E. auf diese Lehre keine brauchbare juristische Begründungstheorie stützen.“9

Es handelt sich – wie ein Blick in die Schriften Vicos und Viehwegs zeigt – nicht um ein Ersatzprogramm für die etablierte deduktiv-axiomatische Rechtslogik, sondern vielmehr um eine Art „Kreativitäts- und Kontextualitätskur“ für das, was juristische Methodenlehre heißt.10 Die Kritik Weinbergers geht daher schon im Ansatz fehl. Das wäre nicht weiter schlimm und könnte als Missverständnis verbucht werden, wenn nicht in der Argumentation und im Begründungsstil von Weinberger eine tiefe Besorgnis, ja Angst, zum Ausdruck käme. Tatsächlich sieht Weinberger, durchaus als Exponent des Mainstream11, im diskursiven Denken eine Gefahr für 9  Weinberger

(1988), S. 204. (1982), S. 181: „Vielleicht ist das Hauptergebnis der Topik-Diskussion dieses Missverständnis: dass die Topik die Systematik ausschließt, dass – etwas anders gesagt – Ableitungen im topischen Denken nicht vorkämen.“ 11  Larenz, Karl: Methodenlehre der Rechtswissenschaft, 6. Aufl., Berlin 1991; Larenz/Canaris: Methodenlehre der Rechtswissenschaft, 3. Aufl., Berlin 1995; Bydlinski, Franz: Juristische Methodenlehre und Rechtsbegriff, 2. Aufl., Wien 1991; Bydlinski, F.: Über prinzipiell-systematische Rechtsfindung im Privatrecht: Vortrag, 10  Rodingen

298

5. Kap.: Dialogische Prämissensuche

das „System“, das Rechtssystem als Ganzes wie die systematische Rechts­ praxis. Untergründig kommt hier ein Dezisionismus-Verdacht12 zum Vorschein, der „Rhetorik“ mit Sophisterei und nicht-neutraler Überredungskunst assoziiert. Harsch wendet sich Weinberger daher gegen jede Art von „Diskursrationalität“: „Die Organisation des wissenschaftlichen und praktischen Meinungsstreits ist eine wichtige Frage, der schon die Denker der griechischen Antike ihre Aufmerksamkeit geschenkt haben. Vorauszusetzen, dass Bedingungen und Formen von Diskursen – seien es reale oder idealisierte – die Wahrheit oder das praktisch richtige Definieren und dass sie den Weg zur Wahrheit und zur praktischen Erkenntnis garantieren, ist m. E. eine grundfalsche und in gefährlicher Weise schädliche Auffassung. (…) Meiner Ansicht nach ist die Theorie der Diskursrationalität prinzipiell verfehlt. Der Diskurs kann das nicht leisten, was diese Theorie von ihm erwartet. Er verschiebt das rational-analytische und empirisch-forschende wissenschaftliche Denken und Suchen in die Ebene sozialer Meinungsbildungsprozesse und stellt oft solche Diskursregeln auf, die dem Inhalt der diskutierten Thesen gegenüber nicht neutral sind; er täuscht also durch metatheoretische Festsetzung vor, dass er Begründungen liefert, wo er in Wirklichkeit bloß seine Auffassung festlegt. (…) der Diskurs ist Methode des Suchens, aber nicht Gewähr der Wahrheit oder Richtigkeit.“13

Weinberger erweist sich hier als Anhänger eines wissenschaftlichen Wahrheitsideals, für das er auch im Rechtskontext nach wie vor Geltung beansprucht. Seine Argumentation liegt damit ganz auf der Linie neuzeitlicher Denker. Worüber Weinberger elegant hinweg geht, ist indessen der Kern des Problems: Es ist die Funktionsweise und Logik der von ihm so genannten „sozialen Meinungsbildungsprozesse“. Es ist die Frage nach dem „Sozialen“ und dem „Politischen“14 und damit die Frage nach dem Zustand sowie der möglichen Regulierung des öffentlichen Diskurses am Beginn des 21. Jahrhunderts. Weinberger erscheint hier bloß in der Rolle des Zuschauers, der die Ereignisse auf der Bühne der Meinungsbildung von der Tribüne aus verfolgt. gehalten vor der Juristischen Gesellschaft zu Berlin am 17. Mai 1995, Berlin 1995; Schmalz, Dieter: Methodenlehre für das juristische Studium, Baden-Baden 1990; Hamann, W. Juristische Methodik, 8. Aufl., Essen 1994; Schwacke, Peter: Juristische Methodik mit Technik der Fallbearbeitung, 3. Aufl., Köln 1995. 12  Als historisches Schreckgespenst lauert hier die Idee der „konkreten Ordnung“, siehe Schmitt, Carl: Über die drei Arten des rechtswissenschaftlichen Denkens, Hamburg 1934. 13  Weinberger (1988a), S. 256–259. 14  Kritisch zum Diskurs des „Politischen“ Mouffe, S. 24–25: „Die Leugnung des ‚Politischen‘ in seiner Dimension (…) ist das, was der liberalen Theorie verunmöglicht, ein adäquates politisches Modell zu entwickeln. (…) Das Hauptproblem des liberalen Rationalismus ist dabei seine gesellschaftliche Logik, die auf der essentialistischen Vorstellung des ‚Seins als Präsenz‘ beruht, sowie seine Auffassung, Objektivität sei etwas den Dingen wesenhaft Eingeschriebenes.“



I. Vicos Hinweis299

Die Argumentationsweise Weinbergers ist exemplarisch. Ganz konsequent erteilt er daher auch den sog. „Diskurstheorien des Rechts“15 in Gänze eine Absage: „Zwei mit der Diskursrationalität (der prozeduralen Konzeption der Rationalität) verbundene Thesen müssen jedoch auf das Entschiedenste abgelehnt werden: (a) die These, dass Wahrheit im Bereich der Erkenntnis und Richtigkeit im Bereich des Handelns, Wertens und Sollens durch Konsens bestimmt ist, oder vorsichtiger ausgedrückt, durch Konsensfähigkeit im idealen Diskurs; (b) die Behauptung, dass der durch Diskursregeln bestimmte ideale Diskurs den Weg zur wahren Erkenntnis absteckt und im Feld der Praxis objektiv richtiges Werten und Sollen definiert, also zur praktischen Erkenntnis führt.“16

Die Arbeiten von Robert Alexy und Jürgen Habermas, auf die Weinberger hier Bezug nimmt, unterscheiden sich in Einzelheiten sehr. Sie lassen sich hier nicht annähernd würdigen. Es genügt festzustellen, dass beide den Gedanken eines vorgezogenen Rechtsschutzes, jene programmatische Formel eines Grundrechtsschutzes durch Organisation und Verfahren, mithilfe von kommunikations- bzw. diskursheoretischen Überlegungen spezifizieren. Sie leiten daraus den Schluss ab, Grundrechtsschutz könne im digitalen Zeitalter letztlich nur durch kommunikative Verfahren, d. h. durch vernünftige Diskurse und rationale Argumentationen gewährleistet werden. Sie kommen insoweit zu einem ähnlichen Ergebnis wie systemtheoretische Ausdeutungen des Verfahrens-Konzepts (sog. Procedural Justice-Ansätze) in der Rechtssoziologie.17 Die Begründung, die Alexy und Habermas für 15  Habermas, Jürgen: Faktizität und Geltung. Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats, 4. Aufl., Frankfurt a. M. 1994. – Ferner Alexy, Robert: Theorie der rationalen Argumentation. Die Theorie des rationalen Diskurses als Theorie der rationalen Begründung, Frankfurt a. M. 1993; Alexy, Robert: Theorie der Grundrechte, 2. Aufl., Frankfurt a. M. 1994; Braun (1988), ­ S. 238–261. 16  Weinberger (1988a), S. 256. 17  Teubner (1982), S. 13–59; Teubner, Gunter: Recht als autopoietisches System, Frankfurt a. M. 1989; Teubner (1996), S. 231–263; Teubner (1989a), S. 727– 757; Willke (1987), S. 285–308; Blecher, M. (1991) Zu einer Ethik der Selbstreferenz oder: Theorie als Compassion. Möglichkeiten einer Kritischen Theorie der Selbstreferenz von Gesellschaft und Recht, Berlin 1991; Willke (1995), S. 94–106; Röhl, K. F. (1993), S. 1–34; Wiethölter (1986), S. 221–249; Massing (1987), S. 85–109; Wiethölter (1989), S. 501–510. Teilweise anders Luhmann/Fuchs: Reden und Schweigen, Frankfurt a. M. 1989; Luhmann (1993), S. 287–310, wo sich eine Abkehr vom kybernetischen Denkmodell andeutet; dazu Wagner, G., S. 275–291. – Siehe dazu auch die überzeugende Argumentation bei Goerlich, Helmut: Grundrechte als Verfahrensgarantien. Ein Beitrag zum Verständnis des Grundgesetzes für die Bundesrepublik Deutschland, Baden-Baden 1981, S. 29: „Die zum Scheitern verurteilte materiellrechtliche Verlegung des Rechtsschutzes in die Vision einer dergestalt vollendeten, materiellen Rechtsordnung ist zurückzunehmen und zu ersetzen durch pragmatische Verfahrensgarantien.“

300

5. Kap.: Dialogische Prämissensuche

eine prozedurale Grundrechtstheorie geben, ist jedoch eine andere – und darin besteht nach unserem Dafürhalten der theoretische Fortschritt. Grob skizziert, lässt sich ihr Gedankengang so zusammenfassen: Ausgangspunkt ist eine Revision des vorherrschenden Kommunikationsmodells, das in der Sprache hauptsächlich ein Übertragungsmedium, d. h. ein Verfahren zur Vermittlung von Informationen, sieht. Gerade der Übertragungs-Aspekt wird kritisiert und theoretisch präzisiert. Auf der Grundlage sprachwissenschaftlicher Befunde verwirft man insbesondere die räumliche Vorstellung, Wörter seien invariante informationelle Bedeutungseinheiten, gewissermaßen scharf konturierte bzw. konturierbare Lautkörper mit einem bestimmten Inhalt, die unabhängig vom jeweiligen Kontext immer dasselbe bedeuten. So, als wäre das Verstehen eines Wortes nicht mehr als die Aufnahme eines phonetischen Signals, die Sprache also nicht mehr als das Austauschen von semantischen Signalen. Betrachtet man den Übertragungsaspekt und damit die Verstehenssituation genauer, wie Alexy und Habermas dies tun, so ergibt sich neben der semantischen Dimension, die mehr theoretisch und statisch ist, eine pragmatische Dimension der Sprache; diese mehr praktische und prozesshafte Seite der menschlichen Sprache macht aus ihr selbst ein Verfahren. Alexy und Habermas sehen, auf der Grundlage einer so verstandenen Theorie der Sprache, in der Organisation von sogenannten sprachlichen ­ „Diskursen“ folgerichtig ein Verfahren der intellektuellen Problemlösung. In normtheoretischer Perspektive ergibt sich daraus, dass gesetzliche Normen als sprachliche Texte nur im Rahmen von praktischen Diskursen erstens verstanden werden können und zweitens auch nur so tatsächlich gelten, d. h. den ihnen vom Gesetzgeber intendierten Sinn entfalten können. Legt man den Akzent vom statisch-semantischen Aspekt der Sprache auf den dynamisch-pragmatischen, so gerät die gesamte sprachliche Ordnung in Bewegung, d. h. die taxonomischen Einteilungen und die definitiven Begrifflichkeiten beginnen gleichsam zu schwimmen. Ein Wort hat dann ja nicht mehr die Bedeutung, die ihm ein für allemal zugewiesen wurde, sondern die Bedeutung eines Wortes ist situationsabhängig, das Wort selbst gewissermaßen Durchzugsort für wechselnde Bedeutungen, ähnlich dem palimpsestartigen, überschreibbaren Wunderblock, mit dem Freud bekanntlich die Funktionsweise des sprachähnlich strukturierten Bewusstseins illustrierte.18 In der praktischen Kommunikation, und darauf rekurrieren die Konzeptionen Alexys und Habermas’, zeigt sich dies im Übrigen daran, dass dasselbe Wort in unterschiedlichen Situationen verschieden verstanden wird. Eröffnet man nun dem Denken durch die Akzentverschiebung einerseits Schleusen und neue Chancen, so ergibt sich andererseits daraus die ernste Gefahr, dass – in der Theorie – kein Wort mehr gilt, d. h. jegliche Bedeutung der jewei18  Freud

(1999), S. 377–380.



I. Vicos Hinweis301

ligen Situation und der beliebigen situativen Bedeutungsfeststellung überantwortet wird. Der positive kritische Impuls für das Denken und die Vernünftigkeit situationsbezogener Argumentation, um die es Alexy und Habermas zu tun ist, würde erstickt durch ein endloses Bedeutungsgefeilsche, semantische Tricksereien, relativistische Rechthaberei und eine alles politisierende Agitation. Alexy und Habermas sehen dieses Problem. Die Auswege, die aus diesem Dilemma herausführen sollen, der Damm, der die ins Schwimmen geratene sprachliche Ordnung regulieren soll, heißt bei Habermas in Anlehnung an Apel „Diskursethik“19; Alexy spricht insoweit von „Diskursregeln“.20 Offenbar sind die Befürchtungen Weinbergers, die Angst vor dem (entfesselten) Diskurs, nicht unbegründet – nur die Lösungsstrategien in der Rechtstheorie sind verschieden: Während Weinberger gleichsam auf der Tribüne verweilt und sich als Gralshüter der herrschenden Methodenlehre dem Mitspielen verweigert, wollen Diskurstheoretiker ein „freies Spiel“, indem sie die Grenzen zwischen Tribüne und Bühne aufkündigen. Alle sind Mitspieler in Diskursen, sollen aber Diskursregeln und diskursethischen Grundsätzen unterworfen werden. Etwas unentschlossen und unentschieden wirkt innerhalb einer solchen Choreographie die Konzeption der sog. „Strukturierenden Rechtslehre“, die Friedrich Müller begründet hat.21 Sie nimmt weitreichende Gedanken des klassischen linguistischen Strukturalismus auf, bleibt aber einem Normativismus mit Rücksicht auf das Prinzip der Gesetzesbindung letztlich doch verpflichtet. Friedrich Müller schreibt: „Was ,Bindung des Richters an das Gesetz‘ heißt und wieweit diese Bindung aktualisierbar und kontrollierbar ist, hängt von der Funktion wie von der Struktur der in Frage stehenden Rechtsvorschriften ab. (…) Dass juristische Arbeit im Sinn gesetzespositivistisch behaupteter ,rein logischer Systematik‘ nicht funktioniert, ist seit langem offenkundig und nicht mehr das Problem. Das Problem liegt im praktischen Verhältnis topischer Arbeitsweisen zur verfassungsmäßig angeordneten Normtextbindung aller juristischer Funktionen. Es liegt somit in der Notwendigkeit einer nach-positivistischen Gesamtkonzeption rechtswissenschaftlicher und rechtspraktischer Methodik. So gesehen, ist die Form von Topik nicht haltbar, die geltendes Recht im Konfliktsfall zugunsten problemangemessener Falllösung übergehen will.“22

Topik erscheint so nicht als logische Ergänzung und Fortführung des Rechtsdenkens, sondern vielmehr bloßes Hilfsmittel zur Beschaffung und 19  Habermas (1992), S. 53–125; Habermas, Jürgen: Erläuterungen zur Diskurs­ ethik, Frankfurt a. M. 1991. 20  Alexy (1993). S. 225 ff. 21  Müller, Friedrich. (Hrsg.), Untersuchungen zur Rechtslinguistik. Interdisziplinäre Studien zur praktischen Semantik und Strukturierenden Rechtslehre in Grundfragen der juristischen Methodik, Berlin 1989. 22  Müller, F. (1995), S. 93–94, 97, 98–99.

302

5. Kap.: Dialogische Prämissensuche

Verarbeitung entscheidungserheblicher Gesichtspunkte. Konstruiert wird auf diese Weise theoretisch ein Gegensatz statt einer Einheit zwischen der Topik (als „Problemdenken“) und dem (eigentlichen) normkonkretisierenden Rechtsdenken, welches der „normgemäßen“ Falllösung und der Orientierung am „geltenden Recht“ aus Rechtssicherheitsgründen den Vorzug vor topischer Problemlösung gibt. Topik, die richtig verstanden das Prinzip der Mehrdeutigkeit zugrundelegt, muss dann als Bedrohung erscheinen für das „Primat der Normtextbindung“.23 Aus rechtstheoretischer Perspektive ergibt sich insgesamt ein differenziertes Bild: Neben dem Mainstream der Juristischen Methodenlehre, der geprägt ist von syllogistischer Logik24, Subsumtionsansatz und Technik der Gesetzesauslegung, und sich regelmäßig einer Fundamentalkritik ausgesetzt sieht25, existieren eine Reihe acancierter Theorieansätze.26 Die Methodendiskussion ist unter den Druck der Verhältnisse auf breiter Linie in Bewegung geraten. Sie repräsentieren Vorboten einer theoretischen Neuorientierung innerhalb der juristischen Methodologie.27 Die regelmäßige Kritik

23  Kritisch dazu Maus, S. 164: „An die Stelle der inkriminierten ‚Lebenslüge des formalistischen Rechtsstaatsverständnisses‘, es sei das Normprogramm im Normtext vorgegeben, tritt die Illusion, der Jurist gewinne seine subjektiven Wertungen aus den Sachstrukturen.“ – Ferner Frohn, S. 175: „Zudem zeigt das Problem der ,Rechtserkenntnistheorie‘, dass auch die klassische juristische Methodenlehre den Richter nicht allein an das Gesetz zu binden vermag; sie vermag allenfalls den Kontext eines Gesetzestextes in der Weise bewusst zu machen, dass sie die Aufmerksamkeit auf diejenigen Kontextelemente lenkt, mit denen er soll argumentieren dürfen. Ob die vom Richter in dem je zu entscheidenden Fall gewählte Argumentationskette ‚richtig‘ ist, lässt sich nicht mehr anhand des Bindungspostulats entscheiden, sondern nur noch anhand des Maßes der Akzeptanz, die eine richterliche Entscheidung zunächst einmal in dem durch das juristische Fachpublikum konstituierten Verwertungszusammenhang erfährt.“ 24  Schneider, Egon: Logik für Juristen. Die Grundlagen der Denklehre und der Rechtsanwendung, 4. Aufl., München 1995. 25  Sehr kritisch zu Karl Larenz’ Standardwerk Adomeit, S. 154–155: „Eine zeitgenössische Methodenlehre hätte der dogmatischen Literatur voraus zu sein, um einen höheren Grad der Bewusstheit, durch ständige kritische Selbstprüfung, durch Einbeziehung gesellschaftspolitischer und wissenschaftstheoretischer Reflexion. Nichts dergleichen findet hier statt. (…) Wer postuliert, das Recht Ausdruck ,apriorischer Sinneinheit‘ sei, (dem dann als methodologisches Postulat, der Interpret nachzuspüren habe), muss die Taten des politisch realen Gesetzgebers als Zufallsprodukte verachten.“ 26  Ladeur, Karl-Heinz: Postmoderne Rechtstheorie. Selbstreferenz – Selbstorganisation – Prozeduralisierung, 2. Aufl., Berlin 1995. 27  Menne, Albert: Einführung in die Methodologie. Elementare allgemeine wissenschaftliche Denkmethoden im Überblick, 3. Aufl., Darmstadt 1992, der zwischen „allgemeiner Methodologie“ und „speziellen Methodologien“ differenziert.



II. Kritik der Topik 303

wird heftiger – selbstbewusster gegenüber dem Schematismus der Subsumtion und der Verbreitungsautomatik dickleibiger Standardwerke.28 Vicos Hinweis zu folgen, erscheint vielen indessen zu gewagt. Das Vertrauen auf „Diskursethik“ und „Diskursregeln“ ist wenig ausgeprägt, die Sorge vor der Aufgabe stabiler Rechtsgrundsätze und der systemstabilisierenden Subsumtionslogik – die Angst vor dem Diskurs also – umso größer. Offenbar ist zusätzlicher Begründungsaufwand erforderlich.29 Wie lässt sich die spezifische „Logik“ des rhetorisch-topischen Denkens plausibel machen, um die Furcht vor Dezisionismus und gewillkürten Topoi-Katalogen zu beseitigen?

II. Kritik der Topik Eine Rechtstheorie30, die die vorherrschende Theorie erneuern will, muss sich mit den Einwänden der etablierten Theorie auseinandersetzen. Sie muss nachweisen, inwieweit der ältere Ansatz, auf den man sich beruft, dem aktuellen überlegen ist. Weinbergers Kritik an der Topik und an Diskurs­ theorien allgemein ist exemplarisch. Sein doppelter Einwand gegen die von ihm so genannte „Diskursrationalität“, die er als „gefährlich“ einordnet, betrifft dem Grunde nach zwei Gefahren: Einmal die Gefahr der willkür­ lichen Auswahl entscheidungserheblicher Gesichtspunkte (Dezisionismus). Zum Zweiten die Gefahr des Orientierungsverlusts, weil Rechtsbegriffe, der verbindliche Normtext, gewissermaßen ins Schwimmen geraten. Was die Auswahl und Gewichtung der Topoi angeht, so verhält sich die Topik als rhetorische Rechts- und Argumentationstheorie tatsächlich erstaunlich einsilbig. Die Frage, die sich die rhetorische Topik stellen muss, und die Weinberger zu Recht stellt, lautet: Wann ist ein Allgemeinsinn so eingespielt, dass er zur rationalen Grundlage der Argumentation taugt? Anders ausgedrückt: Gibt es eine Erklärung für die Entstehung des Common Sense? Was ist und wie entsteht ein Topoi-Katalog? In dem Wort „einge28  Rüthers (1996), S. 1249–1253, der in Bezug auf Larenz’ Standardwerk von einer „überholten Gesamtkonzeption“ spricht (S. 1253). – Siehe ferner Grasnick (2008), S. 73–89, der die herrschende Meinung als „Subsumtionsideologie“ (S. 74) brandmarkt. 29  Weinberger (1976), S. 80–104; Engisch, Karl: Einführung in das juristische Denken, 8. Aufl., Stuttgart 1983; Heusinger, S. 5–28; Brandenburg, Hans-Friedrich: Die teleologische Reduktion. Grundlagen und Erscheinungsformen der auslegungsunterschreitenden Gesetzeseinschränkung im Privatrecht, Göttingen 1983. 30  Vesting, Thomas: Rechtstheorie: Ein Studienbuch, 2. Aufl., München 2010; Mastronardi, Philippe: Angewandte Rechtstheorie, Göttingen 2009. – Ferner Dreier, Ralf: Was ist und wozu Allgemeine Rechtstheorie? Tübingen 1977, der Rechtstheorie als übergreifende „Grenzpostendisziplin“ (S. 21) begreift.

304

5. Kap.: Dialogische Prämissensuche

spielt“ kommt bereits zum Ausdruck, dass dem Ganzen eine Entwicklung vorausgeht. Diese verläuft zwar spielerisch, aber gleichwohl nicht willkürlich – also offenbar in einer beschreibbaren Weise regelhaft. Unsere Fragen bekommen damit notwendig eine historische Dimension. Folgt man dem, so wird klar, dass jener „eingespielte Allgemeinsinn“ nur in seiner historischen Entstehung verständlich, nur durch terminologische sowie wort- und begriffsgeschichtliche Studien eruiert und kritisch reflektiert werden kann.31 Diese Perspektive allerdings ist überaus ambivalent. Eine Topik, die historisch argumentiert, führt sich leicht selbst ad absurdum: Der Vorteil des unbefangenen, topischen Denkens besteht ja gerade darin, unvoreingenommen einem Problem, die eine spezifische aktuelle Situation mit sich bringt, gegenüberzutreten, gerade nicht die so wandlungsfähige Realität in historische Schablonen und in ein begriffliches Korsett, das anderen, früheren Situationen entstammt, zu zwängen. Dies ist es, was die topische problemlösende Methode gegenüber der deduktiv-axiomatischen auszeichnet. Wenn der „Ausgangspunkt“ der topischen Argumentation der sensus communis ist, was heißt dann „eingespielter Allgemeinsinn“ konkret? Welche Beziehung besteht zwischen diesem und dem Wahrscheinlichen? Wesentlich dafür dürfte sein, dass der konkrete Kontext hier im Vordergrund steht. Topisches Denken ist ja im besten Sinne kontextsensitives Denken, weil die Bedeutung sprachlicher Zeichen gerade in Abhängigkeit zum jeweiligen Kontext gesehen wird – und gesehen werden muss. In theoretischer Hinsicht müsste daher die Topik um eine historisch-kritische Dimension ergänzt werden. Was der Topik in der Viehwegschen Lesart und verwandten Argumenta­ tionstheorien fehlt, ist eine theoretische Erklärung des sogenannten „eingespielten Allgemeinsinns“: Was zählt vernünftigerweise dazu? Warum kann ein Modewort32 als solches kein vernünftiger Topos sein? Damit ist eine Leerstelle in der theoretischen Begründung der Rhetorischen Rechtstheorie nach Viehweg benannt. Sie lässt sich auch nicht vorschnell mit dem Einwand schließen, Topik sei eine Kunst, eine ars inveniendi. Die Vernünftigkeit der Argumentation erfordert rational nachvollziehbare Kriterien, anhand derer das modische Schlagwort vom passenden Topos geschieden werden kann. Common Sense im Sinne eines situativen sozialen Konsenses orientiert an der Umgangssprache ist insoweit also ebenfalls kaum ausreichend, so unverzichtbar und erstrebenswert er andererseits in jeder Situation auch ist. Argumentationstheorien verweisen auf sogenannte „Topoi-Kataloge“ 31  Apel (1955), S. 142–199; Meier, H. G. (1971), S. 788–808; Brunner/Conze/ Koselleck (Hrsg.), Geschichtliche Grundbegriffe: historisches Lexikon zur politischsozialen Sprache in Deutschland, 4. Aufl., Stuttgart 1992; Koselleck, Reinhart (Hrsg.), Historische Semantik und Begriffsgeschichte, Stuttgart 1979; Busse, Dietrich: Historische Semantik: Analyse eines Programms, Stuttgart 1987. 32  von Langewende (1957), S. 169–174.



II. Kritik der Topik 305

und „Diskurs-Regeln“, die die diskursive Problemlösung erleichtern bzw. erst ermöglichen sollen. Sollen kurzlebige Begriffsmoden, die eine geraume Zeit den Common Sense beeinflussen, in dem gleichen Maße Grundlage der Argumentation sein können wie kulturell und historisch gewachsene dogmatische Terminologien? Aber Vorsicht – auf keinen Fall sollte die Fragestellung dem derben dualistischen Schema „brauchbar / unbrauchbar“ zugeordnet werden. Es geht nicht darum, die Topik in Gänze wieder in Frage zu stellen. Vor allen Dingen nicht den Umstand, dass die Topik auf vager, d. h. wahrscheinlicher Grundlage argumentiert. Das gerade wurde ja als Gewinn und Bereicherung bzw. theoretischer Fortschritt herausgestellt. Nur der allzu pauschale Verweis auf das „Meinungsmäßige“, damit weitgehend beliebige Topoi-Kataloge und Diskurs-Regeln, erscheint fragwürdig. Gewiss, die Frage, was begriffliche Mode und was terminologische Errungenschaft ist, ist im Einzelfall nicht leicht zu beantworten, aber trotzdem – der Unterschied ist existent und begründbar.33 Es fällt in diesem Zusammenhang auf, dass der Topik, so wie Theodor Viehweg sie entsprechend dem Hinweis Vicos in die Rechtswissenschaft eingebracht hat, eine explizit ausgearbeitete historische Dimension fehlt. Das ist zu Recht als problematisch erkannt worden. Fritz Schalk hat darauf hingewiesen, dass der Fortschritt des topischen Verfahrens nach Vico ja gerade darin bestehe, dass er den Schwerpunkt „von der Geometrie in die Geschichte verschoben“ habe. Gewissheit bei der Ermittlung maßgeblicher Gesichtspunkte (Topoi) verspricht danach im Grundsatz allein eine historische „Rückbindung“ der im jeweiligen Diskurs verwendeten Stichpunkte, Stichworte, Kriterien und Topoi. Schalk führt dazu aus: „Vicos Methode baut nicht mehr auf dem Verum Descartes’ auf, sondern auf dem certum, auf dem senso commune der Menschen, der auf Instinkt, Gewohnheit, Überlieferung beruht und jetzt den Eigenwert beansprucht, der allem zukommt, was der Mensch selbst geschaffen hat. Dieses muss als das wichtigste Thema die eigentliche Aufgabe der Erkenntnis bilden. So wird der Schwerpunkt von der Geometrie in die Geschichte verschoben, die als Selbstschöpfung des Menschen das Gesamtgebiet seelischer und geistiger Kräfte umfasst. Man erkennt nur, was man selbst geschaffen hat, – diese Ausgangsthese ist der feste Archimedische Punkt der Gewissheit, um den die Welt der Erkenntnis gedreht wird.“34

Auch Thomas-Michael Seibert sieht hier Innovationsbedarf angesichts des Verfalls des gültigen Wissens, des „juristischen Archivs“, wie er es nennt, in 33  Klaus Oehler weist darauf hin, dass die „Ethik der Terminologie“ für Charles S. Peirce eine herausragende Bedeutung hatte. Der Begriffsbildung mussten jeweils tiefschürfende besgriffsgeschichtliche Studien vorausgehen, um geeignete Anknüpfungspunkte und Argumente für die Begriffswahl bzw. einen notwendigen Neologismus zu finden; siehe Oehler (1981), S. 384–357. 34  Schalk, S. 173,174.

306

5. Kap.: Dialogische Prämissensuche

der heutigen Welt. Auf was soll im Katalog des Anerkannten zurückgegriffen werden, wenn Gewissheitsverluste an der Tagesordnung sind? Er fordert eine stärkere Berücksichtigung der Pragmatik im Meinungskampf und betont die Notwendigkeit der „Rückführung“ der Topik, d. h. der Neutralisierung von einseitigen Gesichtspunkten durch die Ausdehnung von Beteiligungsrechten bei der Suche nach entscheidungserheblichen Prämissen: „In der Moderne verlieren sich die archivierten Inhalte im Ungefähren, während der Gang des Verfahrens eine überragende Bedeutung gewinnt. Das Archiv zerfällt. (…) Wir befinden uns wie man längst erkannt hat – auf dem Felde der inhaltlichen Topik, und in diesem Bereich kann man keinen Erfolg haben, wenn man alle Gesichtspunkte als gleichgültig abtut. Auch wenn sie als Gesichtspunkte möglichen Entscheidens eine lediglich dienende Rolle haben, darf man nicht übersehen, dass jede einzelne Konkretisierung in eine zwingende Entscheidung umschlagen kann. Das Partikulare, das nur einem bestimmten Antragsteller nützt, wird mit der Topik zurückgeführt ‚auf etwas Nichtpartikulares, das allgemein zugänglich ist‘. Diese Rückführung betont Bubner in seiner lebensweltlichen Interpretation der Topik als Dialektik ‚kann von jedermann hergestellt werden, der beteiligt ist‘. In dieser sprachpragmatischen Dimension liegt der moderne Sinn des alten prämissensuchenden Verfahrens.“35

Bemerkenswert sind in dieser Hinsicht die Gedanken des Literaturwissenschaftlers Ernst Robert Curtius. Er nennt seine Idee explizit „Historische Topik“.36 Curtius will, wie er sagt, an dem antiken Topik-Begriff festhalten, da dieser heuristischen Wert habe. Gleichzeitig will er mit seiner Konzeption aber über jene systematisierte Topik hinausgehen. Er will eine Methode zur Analyse von Texten entwerfen, die es zudem erlauben soll, „das Werden neuer topoi (zu) beobachten.“. Curtius formuliert: „Nun gibt es auch topoi, die dem ganzen Altertum bis zur augusteiischen Zeit fehlen. Sie tauchen zu Beginn der Spätantike auf und sind dann plötzlich überall da. Dieser Klasse gehören der ,greise Knabe‘ und die ,jugendliche Greisin‘ an, die wir analysieren werden. Sie bieten ein doppeltes Interesse. Zunächst ein literaturbiologisches: wir können an ihnen das Werden neuer topoi beobachten. So erweitert sich unsere genetische Erkenntnis literarischer Form-Elemente. (…) Während aber die antike Topik Teil eines Lehrgebäudes, also systematisch und normativ ist, versuchen wir den Grund zu einer historischen Topik zu legen. Sie ist vielfacher Anwendung fähig. Bewähren muss sie sich an der Analyse der Texte.“37

Durchmustert man die Studien Theodor Viehwegs nach einem Hinweis auf eine so verstandene historisierende Topik, so ergibt sich, dass die juris35  Seibert

(1996c), S. 85, 91. S. 92 – Näher Emrich, S. 211 „Indem Curtius Schifffahrts-, Personal-, Speise-, Körperteil- und Schauspielmetaphern untersuchte, ergänzte er die historische Topik durch eine historische Metaphorik.“ 37  Curtius, S. 92. 36  Curtius,



II. Kritik der Topik 307

tische Topik der systematischen Topik folgt. Aus dieser Perspektive wird auch erklärbar, wieso das ansonsten so unorthodoxe Rechtsfindungsverfahren der Topik mit sogenannten „Topoi-Katalogen“ operiert. Die weiterführenden Gedanken des Ernst Robert Curtius, der die topoi selbst – nicht nur das System – noch einmal genealogisch dynamisiert, sind ihm entgangen.38 Curtius zielt mit der von ihm in Angriff genommenen Projekt einer „Phänomenologie der Literatur“ genau auf jenen Punkt, der die theoretische Schwachstelle der juristischen Topik ausmacht, nämlich die Entstehungsgeschichte des „eingespielten Allgemeinsinns“. Einen Eindruck von Curtius’ methodologischer Intention, der sich als Literatur-Archäologe versteht, vermittelt sehr deutlich das Vorwort zur zweiten Auflage des Werkes Europäische Literatur und Lateinisches Mittelalter: „Die heutige Archäologie hat überraschende Entdeckungen gemacht durch Luftphotographien aus großer Höhe. Durch diese Technik ist es zum Beispiel gelungen, das spätrömische Verteidigungssystem in Nordafrika erstmalig zu erkennen. Wer auf dem Boden vor einem Trümmerhaufen steht, kann die Ganzheit nicht sehen, die die Fliegeraufnahme sichtbar macht. Aber diese Aufnahme muss dann vergrößert und mit der Generalstabskarte verglichen werden. Eine gewisse Analogie zu diesem Verfahren bietet die hier angewendete Technik der Literaturforschung. Wenn man den Versuch macht, zwei oder zweieinhalb Jahrtausende der westlichen Literatur in den Blick zu bekommen, kann man Entdeckungen machen, die von einer Kirchturmspitze unmöglich sind. (…) Was aber die Ganzheitsbetrachtung auf dem Felde der Literatur betrifft, so gilt das Axiom von Saintsbury: Ancient without Modern is a stumbling-block, Modern without Ancient is foolishness utter and irremediable.“39

Curtius beobachtet und beschreibt das „Werden neuer Topoi“, wobei er das griechische Wort „topos“ im urspünglichen Sinne versteht als „Ort des Denkens“.40 Er setzt sich dabei ganz bewusst von einer Rhetorik in der Antike ab, die zuletzt über ein ausgefeiltes rhetorisches System von TopoiKatalogen, vorgeformten Redefiguren und vielfach verwendbaren Klischees zur Überredung verfügte. Roland Barthes hat dieses sophistische Stadium der Rhetorik, das bis heute ihren schlechten Ruf mitprägt, glänzend beschrieben. Er vergleicht jenes Zerrbild einer „Rhetorik“, die ausschließlich 38  Viehweg (1974), S. 30: Fußnoten 18, 19, 20, S. 67, Fn.  19 – Viehweg verwendete für seine Urfassung von Topik und Jurisprudenz die erste Auflage von Europäische Literatur und Lateinisches Mittelalter aus dem Jahre 1948. In späteren Auflagen nimmt Viehweg nicht wieder Bezug auf Ernst Robert Curtius. 39  Curtius, S. 10. 40  Curtius, S. 79–80: „Griechisch heißen sie (…); lateinisch loci communes, im älteren deutsch ,Gemeinörter‘. So sagen noch Lessing und Kant. Nach dem englischen commonplace wurde dann um 1770 ,Gemeinplatz‘ gebildet. Wir können das Wort nicht verwenden, da es seine urprüngliche Verwendung verloren hat. Deshalb behalten wir das griechische topos bei.“

308

5. Kap.: Dialogische Prämissensuche

angebliches Wissen speichert und Stereotypen zur künstlichen Überredung sammelt, mit der Strumpfmaschine Diderots: „Sie (die Rhetorik, N. R.) ist ein glanzvolles Objekt der Intelligenz und des Scharfsinns, ein grandioses System, das eine ganze Zivilisation in ihrem vollen Umfang entwickelte, um ihre Sprache einzuteilen und also zu denken, ein Machtinstrument, ein Schauplatz historischer Konflikte, deren Lektüre fesselnd ist, wenn man dieses Objekt in seine mannigfaltige Entstehungsgeschichte einbettet; aber auch ein ideologisches Objekt dieses ‚anderen‘, das seine Stelle einnahm, der Ideologie verfällt und heute unbedingt kritische Distanz erfordert. (…) Man denkt an die Strumpfmaschine von Diderot: ‚Man kann sie als einen einzigen Gedankengang ansehen, dessen Konklusion die Herstellung der Ware ist …‘ Bei der Maschine von Diderot werden vorn Textilien eingespeist und am Ende kommen Strümpfe heraus. Der rhetorischen ‚Maschine‘ werden einer angeborenen Aphasie kaum entwachsene Gedankengänge im Rohzustand eingegeben, Tatsachen, ein ‚Gegenstand‘; am Ende findet man einen kompletten, strukturierten, für die Überredung gerüsteten Diskurs.“41

Erst mit der aristotelischen Poetik, die der französischen Klassik eine Theorie des „Wahrscheinlichen“ geliefert habe, führt Barthes aus, sei die rhetorische Maschine der Alten Rhetorik, die aus der Topik einen „Gemeinplatz-Speicher“ gemacht habe, kritisch erneuert worden. Mit seinem Verständnis von topos geht Curtius, bildlich gesprochen, hinter die systematisierte Topik, an die Viehweg anknüpfte, zurück. Auf diese Weise gelingt es ihm, jene „Topoi-Kataloge“, die den Sensus communis in der jeweiligen rechtlichen Argumentationssituation repräsentieren sollen, ihrerseits nochmals auf ihre Grundlagen hin zu befragen und zu einer Art historisch verorteten „Kriteriologie“ weiterzuentwickeln. Der Name „Historische Topik“ bezeichnet sehr treffend den gedanklichen Rückschritt, den Curtius unternimmt, dem aber in methodologischer Hinsicht ein theoretischer Fortschritt entspricht. Die zweite Gefahr, die Weinberger sieht, ist der Verlust an Orientierung, d. h. der „Kontrollverlust“ durch die Diskursivierung von definiten Rechtsbegriffen. Schaut man auf die Rechtspraxis, ist die Angst vor dem Diskurs unbegründet. Die Rechtspraxis arbeitet bereits diskursiv und „pragmatisch“, aber eben unbewusst pragmatisch. Es herrscht – wie viele, die die Arbeit von Juristen empirisch untersucht haben – eine Art Kluft zwischen der Theorie der Methodenlehre und der Praxis der Rechtsanwendung. Martin Kriele notiert dazu: „Nicht, dass in unseren Methodenlehrbüchern nicht viel Vernunft enthalten wäre, aber es ist nur die halbe und nicht die ganze Vernunft. Über die eine Hälfte der Wahrheit, über ,Verstehen‘, Hermeneutik, inneres System, canones der Auslegung, Konkretisierungselemente, juristische Logik usw. hat die traditionelle Methodolo41  Barthes

(1988c), S. 45, 49, 52.



II. Kritik der Topik 309 gie bis in die jüngste Gegenwart hinein das Wesentliche gesagt. Wenn sich nunmehr der Schwerpunkt des Interesses auf die andere Hälfte der Wahrheit verlagert, so bedeutet das nicht, wie einige Verfechter der traditionellen Methodologie angenommen haben, eine Abwertung, sondern im Gegenteil eine Anerkennung des Erreichten. Man muss allerdings den Anspruch der traditionellen Methodologie zurückweisen, sie habe auch zu der neuen Fragestellung schon alles Nötige gesagt, weitergehende Bemühungen seien überflüssig oder ohnehin nicht erfolgversprechend. Die Schlüsselfrage ist die nach der Heranziehung oder Nichtheranziehung dieses oder jenes Auslegungskriteriums und nach den Verhältnissen der Auslegungskriterien zueinander im konkreten Akt der Rechtsgewinnung. Mit dieser Frage haben es die Juristen in der Praxis zu tun und auch die Theoretiker der Methodenlehre selbst, sobald sie praktisch, also als Dogmatiker, Anwalt, Richter, Beamter oder Ausbilder tätig sind. Sobald sie aber wieder Methodenlehre treiben, lassen sie unreflektiert, was sie als Praktiker wirklich tun.“42

Eine Fülle empirischer Studien zur justiziellen Rechtsanwendungspraxis und praktischen Rechtsschöpfung durch die Gerichte geben Kriele Recht.43 Die tieferliegende Rechtsanwendungsrealität, etwa die praktische Konsensherstellung vor Gericht, die richterliche Rechtsfortbildung, der Mikrokosmos richterlicher Intuition, kasuistischer Gerechtigkeitserwägungen und rechtspolitischer Überlegungen ist mit der traditionellen juristischen Methodenlehre nicht erklärbar.44 Josef Esser resümiert am Ende einer umfangreichen Untersuchung zur richterlichen Spruchpraxis: „Insgesamt ergab sich, dass unsere akademische Methodenlehre dem Richter weder Hilfe noch Kontrolle bedeutet. Die Praxis – und das gilt für die Tatsacheninstanzen noch deutlicher – geht nicht von doktrinären ,Methoden‘ der Rechtsfindung aus, sondern sie benutzt sie nur, um die nach ihrem Rechts- und Sachverständnis angemessenste Entscheidung lege artis zu begründen. Den gleichen Dienst kann aber die Berufung auf Präjudizien, eine ständige Rechtsprechung oder andere anerkannte Autoritätsquellen leisten. Der Begründungsstil hat offenbar sekundäre Bedeutung gegenüber gewissen primären Überlegungen darüber, was im Konfliktsfall die gerechte und doch auch als gesetzeskonform legitimierbare Entscheidung ist.“45

Rechtsanwendung gliche, wollte man das Auslegungskonzept ernstnehmen, wesentlich einem Algorithmus, wonach es im Grunde nur ja / nein, falsch / richtig, alles / nichts etc. geben kann. Die gerichtliche und rechtliche Realität sieht tatsächlich ganz anders aus. Vor allem, weil vielfältige Wertentscheidungen und Abwägungen dem realitätsfernen Schematismus der 42  Kriele

(1976), S. 313–314. Thomas-Michael: Gerichtsrede. Wirklichkeit und Möglichkeit im forensischen Diskurs, Berlin 2004. – Ferner Hoffmann, Ludger: Rechtsdiskurse. Untersuchungen zur Kommunikation in Gerichtsverfahren, Tübingen 1989, einschließlich Bibliographie S. 24–38. 44  Kronenberger, Matthias: Der Parasit der Überzeugungsbildung, Berlin 2010. 45  Esser, S. 6. 43  Seibert,

310

5. Kap.: Dialogische Prämissensuche

Dichotomien entgegenwirken.46 Besonders deutlich wird die theoretische Unzulänglichkeit des Auslegungs-Konzepts, die Rechtswirklichkeit zu erfassen und zu beschreiben, bei den informellen Aushandlungsprozessen47 und Absprachen im Strafprozess.48 Nach Günter Stratenwerth ist das Arsenal der Argumente im Streit um die „Auslegungstheorien“ erschöpft. Die seit Ausgang des 18. Jahrhunderts beständig fortgeführte Kontroverse hänge eng mit dem neuzeitlichen Gesetzesstaat zusammen und sei daher im Dualismus von „subjektiv-historischer und objektiv-,zeitgemäßer‘ Auslegung“ gefangen.49 Ein Ausweg aus diesem Dilemma eröffne sich nur in einer Überwindung dieser Dichotomie. Dem entspräche auch die Überwindung der Kluft zwischen der rechtswissenschaftlichen Theorie und der juristischen Praxis. Die ausweglose Alternative „wahr / falsch“ bezeichnet in Bezug auf die soziale Wirklichkeit ein Scheinproblem. Die Ideologie der „Aus-Legung“, prägnanter Ausdruck und wirkungsgeschichtliche Folge des in der Neuzeit entstandenen erkenntnistheoretischen Dualismus, beschreibt nämlich bei aller Plausibilität auf den ersten Blick in Wahrheit doch nur die Oberfläche. Das tatsächliche Geschehen des Verhandelns einer Streitsache50, des Treffens von richterlichen Prognoseentscheidungen51, der einvernehmlichen Erledigung von Verfahren durch Vergleiche, der Planung durch die Verwaltung usw. ist mit dem Verfahren der sog. „Gesetzesauslegung“ nur höchst ungenau und vordergründig beschrieben. Die Untersuchungen Dietrich Busses zur empirischen Rechtswirklichkeit bestätigen dies. Er weist auf die besondere Bedeutung von Abwägungsentscheidungen in der Praxis hin: „Juristische Tätigkeit kann daher viel eher als textgestützte Integration eines Sachverhaltes in Schemata der juristischen Wirklichkeitsverarbeitung aufgefasst werden, denn als ,Textverstehen‘ und ,Textanwendung‘ im engeren (v. a. linguistisch beschreibbaren) Sinne. Das ,Verstehen‘ eines Normtextes muss schon stattgefunden haben, damit er seine Funktion innerhalb des Algorithmus der rechtlichen Prüfungschritte überhaupt bekommen kann. Das viel zitierte ,Hin-und-Herwandern des Blicks zwischen Normtext und Sachverhalt‘ hat nicht so sehr die Funktion zu einem vertieften ,Verständnis‘ eines einzigen Normtextes zu verhelfen, sondern durch ständige Prüfung der ausgehend von einem Fall in Frage kommenden Normtexte sowohl die weitere rechtliche Konstitution des Sachverhaltselements 46  Vollmer,

Dietrich: Auslegung und „Auslegungsregeln“, Berlin 1990. S. 169–196. 48  Schumann, Karl F.: Der Handel mit Gerechtigkeit. Funktionsprobleme der Strafjustiz und ihre Lösungen – am Beispiel des amerikanischen plea bargaining, Frankfurt a. M. 1977; Bussmann/Lüdemann, S. 81–92. 49  Stratenwerth, S. 258. 50  Seibert (2004), S. 7: „Der forensische Diskurs findet vor dem Plädoyer statt, und was wichtig erscheint, ist entschieden, bevor plädiert wird.“ 51  Rotter, Frank (Hrsg.), Psychiatrie, Psychotherapie und Recht. Diskurse und vergleichende Perspektiven, Frankfurt a. M. 1994. 47  Dieckmann/Ingwer,



II. Kritik der Topik 311 durchzuführen, als auch, ausgehend von Nuancen der jeweiligen Fallgestaltung, den schließlich herzustellenden ,Entscheidungstext‘ zu verändern und abzurunden. (…) Wenn dabei an irgendeinem Punkt der vielen Knoten dieses Prozesses ,Neues‘ eingeführt wird (etwa eine neue ,Auslegung‘ eines Normterminus), dann nicht aus einem ,besser verstehen wollen‘ heraus, sondern aus dem Bedürfnis nach einer insgesamt ,abgewogenen‘, jedenfalls unanfechtbaren Entscheidung.“52

So gesehen, sind die Befürchtungen Weinbergers und anderer Kritiker kaum stichhaltig. Umgekehrt wäre seine These, dass „Diskursrationalität“ zum einem furiosen Orientierungs- und Kontrollverlust führen würde, aufgrund der gegenteiligen Erfahrungen in der Praxis eine zu beweisende Tatsache. Gegen die traditionelle Juristische Methodenlehre spricht vor allem, dass sie auf einer essentialistisch-verkürzten, primär semantischen Sprachauffassung fußt. Sprachpragmatik, d. h. der Wirkungsaspekt von Sprache, die konstruktiv-politische Dimension wird bewusst ausgeblendet. Dem entspricht auch die legalistische Normenkonzeption. Diese Form des Normativismus, welche den „Norm“-Begriff53 mit dem positiven Rechtssatz, d. h. Rechtsnormen, identifiziert, widerspricht dem Realen und ist in Anbetracht der Vielfalt sichtbarer und erfahrbarer anderer sozialer Normen (Sprache, Religion, Bräuche, Sitten etc.) extrem reduktionistisch.54 Die unpolitische Ausrichtung der traditionellen juristischen Methodenlehre kommt nicht von ungefähr, sondern ist – wie Görg Haverkate herausgefunden hat – das Ergebnis eines „justizpolitischen Konzepts“, das der geistige Urheber der Auslegungsmethodik Friedrich Carl von Savigny bewusst verfolgte. Die deduktiv-axiomatische Methodik sollte nach Savigny das politische Element im Recht – auch das mikro­ politische – weitestgehend neutralisieren zugunsten einer rein technischen Anwendung in den Händen professioneller Juristen. Sicherheit in der Rechtsanwendung versprach dabei das Ideal der Mathematik, die formale Aussagenlogik. Hier zeigt sich eine Geistesverwandtschaft mit dem Geometer Descartes, der ja von der Automatik der Beweisführung und den langen Schlussketten so begeistert war. Haverkate beschreibt die Entstehungsgeschichte der bis heute vorherrschenden Auslegungslehre so: „Der ,unpolitische‘ Charakter des Rechts erfährt seine Bestätigung in dem ,rein logischen‘ Weg der Rechtserkenntnis, in der ,Sicherheit einer streng wissenschaftlichen Methode‘. Savigny projiziert dieses dem Vernunftrecht entnommene metho52  Busse

(1993), S. 298. Heinrich: Die normative Konstruktion von Gesellschaft, Tübingen

53  Popitz,

1980. 54  Exemplarisch Berkemann (1989), S. 451–491. – Zur Diskussion Koch, HansJoachim (Hrsg.), Seminar: „Die juristische Methode im Staatsrecht“: über Grenzen von Verfassungs- und Gesetzesbindung, Frankfurt a. M. 1977: Suhrkamp Verlag (stw 198); Christensen (1988), S. 95–126.

312

5. Kap.: Dialogische Prämissensuche

dische Ideal nach rückwärts, ins römische Recht. In ihm sieht er das ,Muster juristischer Methode‘. Für die römischen Juristen seien ,die Begriffe und Sätze ihrer Wissenschaft … wirkliche Wesen, deren Daseyn und deren Genealogie ihnen durch langen vertrauten Umgang bekannt geworden ist. Darum eben hat ihr ganzes Verfahren eine Sicherheit, wie sie sich sonst außer der Mathematik nicht findet, und man kann ohne Übertreibung sagen, dass sie mit ihren Begriffen rechnen.‘ “55

Kann man aber die Wechselbeziehungen zwischen den geltenden Rechtsnormen und der sozialen Interaktion, dem politischen Betrieb und dem öffentlichen Diskurs aus der juristischen Methodik heraushalten? Zumal in einer Welt, der mit „Web 3.0“ die nächste Stufe des Strukturwandels des Öffentlichen wie des Privaten bevorsteht? Ob den regulatorischen Herausforderungen im Hinblick auf den öffentlichen Diskurs auf der transnationalen Bühne des 21. Jahrhunderts mit einer Mentalität des Nicht-MitspielensWollens, die Weinberger mustergültig an den Tag legt, begegnet werden kann, ist zweifelhaft. Werner Krawietz hält das für unmöglich. Der beschrittene Weg der Stilllegung des politischen und diskursiven Elements in der „bloß analytisch-hermeneutischen Jurisprudenz“ hält er daher für einen Irrweg. Er ist der Überzeugung, dass die Pragmatik zum Ausgangspunkt und zur Grundlage aller weiteren Überlegungen gemacht werden müsse. Er hält daher die Ausarbeitung einer juristischen Argumentationstheorie für erforderlich, „nicht einer erkenntnistheoretisch differenzierten Semantik, sondern vor allem in einer rechtssoziologisch differenzierten Pragmatik“.56 Zuversichtlich stimmt vor diesem Hintergrund die Tatsache, dass der Rechtstheorie-Diskurs inzwischen enorm angeschwollen ist. Der Weg von der Hermeneutik in Richtung auf eine rechtspolitisch und rechtssoziologisch inspirierte Pragmatik, der auch einen Ausweg aus dem Subjekt / Objekt-Dilemma sucht, ist damit in Teilen vorgezeichnet.57 55  Haverkate,

S. 71. (1979), S. 152. 57  Hegenbarth, Rainer: Juristische Hermeneutik und linguistische Pragmatik. Dargestellt am Beispiel der Lehre vom Wortlaut als Grenze der Auslegung, Königstein/Ts. 1982; Schlapp, Thomas: Theoriestrukturen und Rechtsdogmatik. Ansätze zu einer strukturalistischen Sicht juristischer Theoriebildung, Berlin 1989; Jeand’heur, Bernd: Sprachliches Referenzverhalten bei der juristischen Entscheidungstätigkeit, Berlin 1989; Christensen, Ralph: Was heißt Gesetzesbindung? Eine rechtslinguistische Untersuchung, Berlin 1989; Wolter, Thomas: Die juristische Subsumtion als institutioneller Zeichenprozess: eine interdisziplinäre Untersuchung der richterlichen Rechtsanwendung und der forensischen Kommunikation, Berlin 1994; Neumann, Ulfried: Juristische Argumentationslehre, Darmstadt 1986; Suhr (1989), S. 343–371; Alexy, Robert: Recht, Vernunft, Diskurs: Studien zur Rechtsphilosophie, Frankfurt a. M. 1995; Paroussis, M.: Theorie des juristischen Diskurses: eine institutionelle Epistemologie des Rechts, Berlin 1995. 56  Krawietz



III. Juristische Logik313

III. Juristische Logik Logik war in der Antike und im Mittelalter noch Teil des sogenannten „trivium“. Der „Dreiweg“ umfasste als Bildungskanon die Gebiete Logik, Rhetorik und Grammatik. Heute ist dieser Zusammenhang verloren gegangen. Lediglich das Wort „trivial“ ist übrig, allerdings in einer pejorativen Bedeutung.58 Zu Beginn der Neuzeit wurde, wie die Begriffsgeschichte zeigt, das überkommene Logik-Konzept um seine rhetorischen und grammatischen Elemente radikal bereinigt.59 Es wurde daraus ein mathematisiertes Konzept, das dem neuen Ideal von Wissenschaft, das ausgangs des Mittelalters entstanden war, entsprach. „Logik“ wurde fortan als exakte Lehre des Denkens verstanden. So stellt Albert Menne zum gegenwärtigen Logik-Diskurs nüchtern fest: „Die moderne Logik ist dabei, vorwiegend eine Logik von Mathematikern für Mathematiker zu werden. Und die Philosophen haben den Mathematikern inzwischen weitgehend die Logik überlassen: es werden allenthalben neue Lehrstühle für Logik und Wissenschaftstheorie eingerichtet, die wiederum hauptsächlich besetzt werden mit Fachleuten, die Mathematik oder Naturwissenschaft entstammen. Daneben werden für manche speziellen Wissenschaften eigene Lehrstühle für Methodenlehre eingerichtet. So hat die spezielle Methodologie vieler Fachwissenschaften in den letzten Jahren Fortschritte gemacht, doch meist wird dabei die allgemeine Methodologie ignoriert. Diese umfasst solche Methoden, die nicht fachspezifisch, sondern auf wissenschaftliches Arbeiten ganz allgemein ausgerichtet sind. Einiges davon hatte bereits in der Scholastik eine Differenzierung von hohem Niveau erreicht. Doch es wurde weitgehend ebenso vergessen wie die Aussagenlogik, da seit der Renaissance immer mehr der polemischen Aufforderung folgten: ,Scholastica sunt – non leguntur!‘ “60

Das neue Verständnis der Logik, blieb – bis heute – untrennbar verknüpft mit dem Ideal der Präzision. Das deutsche Adjektiv „präzise“ ist ein Lehnwort, das im 17. Jahrhundert aus dem Französischen („précis“) in die deutsche Sprache übernommen wurde. Aus dem Wort spreche der Geist Descartes’, stellt Wolfgang Janke fest, der die Karriere dieses Wortes in der ­Moderne untersucht hat.61 Heute sei es geläufig in Wendungen wie „Präzisionsarbeit“, „Präzisionsgewicht“, „Präzisionsapparate“, „Präzisionsuhr“, „Prä­ zisionswaage“, „Präzisionswaffe“. Die Wendung „Drücke dich präzise aus!“ fordere unzweideutig dazu auf, eine vage und vieldeutige Redeweise zu 58  Geldsetzer, Lutz:Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen. Bibliographische Hilfsmittel. Gattungen philosophischer Publikationen, Freiburg 1971. 59  Elster, Jon: Logik und Gesellschaft. Widersprüche und mögliche Welten, Frankfurt a. M. 1981. 60  Menne, Vorwort zur ersten Auflage. 61  Janke, Wolfgang: Kritik der präzisierten Welt, München 1999.

314

5. Kap.: Dialogische Prämissensuche

vermeiden, die Sache vielmehr knapp und genau „auf den Punkt zu bringen“. Die verwissenschaftliche Welt erfordere als „präzisierte Welt“ eine wissenschaftlich genaue Sprache mit verlässlich verifizierbaren bzw. falsifizierbaren Aussagen, Protokoll- und Basissätzen, die wiederum über einen jeweils metasprachlich gesicherten Sinn verfügen müssten. Was sich nicht dem Postulat des Präzisen füge, sei abzuschneiden. Darin liege auch der ursprüngliche Wortsinn. Mit Präzision sei soviel wie „vorne abschneiden“ (lat. „praecidere“) gemeint. Das deute, kommentiert er kritisch, auf eine „Lädierung, Verkürzung, Verstümmelung menschlichen Existierens“ in der Moderne hin.62 Auch Peirce hat die Begriffsgeschichte des Wortes „präzise“ untersucht. Für den Sprachgebrauch der Logik stellt er fest, dass das Wort im Französischen gewöhnlich nur in Bezug auf Zahlen verwendet worden sei. Er schlägt daher vor, ein abgeleitetes, nicht-mathematisches Wort im Englischen einzuführen. Mithilfe des neuen Wortes „to prescide“ könne der allgemeine Sinn von „präzisieren“ (engl. render precise) im Kontext der Logik besser ausgedrückt werden.63 Michel Foucault hat die Hintergründe des grundlegend veränderten Logik-Verständnisses an der Wende zur Neuzeit genauer untersucht. Dabei hat er festgestellt, dass sich das epistemische Modell, also das zugrundeliegende „kognitive Ordnungs­schema“64, geändert hat: Hatte das Erkenntnisprinzip der Renaissance noch eine dreigliedrige Struktur (Zeichen, Bezeichnetes und vermittelndes Drittes), so sei daraus in der Neuzeit ein zweigliedriges, dualistisches System von Zeichen und Bezeichnetem geworden. Über die wirkungsgeschichtlich außerordentlich bedeutsame sog. „Logik von Port-Royal“ (1662), die in weiten Teilen die Gedanken Descartes wiedergibt, habe sich die Idee der „Repräsentation“ (lat. repraesentatio) der Realität in Form sprachlicher Abbildungen und Taxonomien bis in das 20. Jahrhundert hinein fortpflanzen können. Sehr anschaulich erläutert Foucault den zeichentheoretischen Zusammenhang: „Die Logik von Port Royal formuliert: ‚Das Zeichen schließt zwei Vorstellungen (idées) ein, die eine von dem Ding, das repräsentiert, die andere von dem repräsentierten Ding; seine Natur besteht darin, die zweite durch die erste hervorzurufen.‘ Das ist eine dualistische Theorie des Zeichens, die sich unzweideutig der komplexeren Organisation der Renaissance gegenüberstellt. Die Zeichentheorie implizierte damals drei völlig voneinander getrennte Elemente: das, was markiert wurde, das, was markierend war, und das, was gestattete, in einem die Markierung des Anderen zu sehen. Dieses letzte Element war die Ähnlichkeit: das Zeichen markierte inso62  Janke, S. 12–13. – René König spricht sogar von einem „Exaktheitskomplex“. Die Präzision eines Samples im mathematischen Sinne sage noch lange nichts über seine sachliche Richtigkeit, siehe König, R., S. 24: „Es gibt in der Tat einen ‚Exaktheitskomplex‘, den man nicht scharf genug brandmarken kann, um dafür die sachlich sinnvolle Sozialforschung umso stärker zur Geltung zu bringen.“ 63  Peirce (1990), S. 343. 64  Fink-Eitel,  S.  38 ff.



III. Juristische Logik315 weit, als ‚es fast die gleiche Sache‘ war wie das, was es bezeichnete. Dieses einheitliche und dreifältige System verschwindet gleichzeitig mit ‚dem Denken durch Ähnlichkeit‘ und wird durch eine strikt binäre Organisation ersetzt.“65

Repräsentation bedeutet soviel wie gedankliche „Vor-Stellung“ bzw. „Wieder-Vergegenwärtigung“.66 Nicht die natürliche Ordnung selbst wird sprachlich reproduziert, sondern die begrifflich und taxonomisch quasi „(vor-)verinnerlichte“ Ordnung. Sprache wird so primär als autonomer (Wissens-)Speicher verstanden und künstliches Zeichensystem, dem – losgelöst von dem aktuellen Kontext – eine Ordnungsfunktion zukommt. Hinrich Fink-Eitel beschreibt die dramatische und folgenreiche Verschiebung in Bezug auf Weltwahrnehmung und Sprachverständnis folgendermaßen: „An die Stelle der natürlichen Verbindung von Zeichen und Bezeichnetem tritt ein selbst geregeltes Zeichensystem, das in seiner Künstlichkeit dennoch maßstabsgerechter Spiegel der Natur ist. An die Stelle der unendlichen Interpretation von Ähnlichkeiten tritt die geschlossene Ordnung cartesianischer ‚Mathesis‘, die mit trennscharf klassifizierenden Identitäten und Differenzen arbeitet.“67

Hier liegt offenbar der Ursprung des bis heute vorherrschenden erkenntnistheoretischen Dualismus, nicht nur der Dichotomien Dichtung / Wissenschaft bzw. Literatur / Philosophie68, sondern auch der dichotomisch argumentierenden juristischen Logik. Theodor Viehweg hat die geistesgeschichtlichen Zusammenhänge sehr deutlich gesehen. In seiner Kritik der juristischen Methodenlehre vermutet er darin sogar eine Art „Bequemlichkeitsfaktor“, da das „nichtsituative Denken“, wie er formuliert, störungsfreier arbeiten könne. Das Verfahren des Heraushaltens des Dritten, also des jeweiligen situativen Kontextes, nennt er „isolierende Syntaktisierung“: „Man kann zunächst bemerken, dass die nichtsituative Denkweise wohl deshalb bevorzugt wird, weil sie als intellektuelle Tätigkeit offenbar weniger Schwierigkeiten macht als die situative, obgleich gerade diese in der Lebenspraxis den Ausschlag gibt. Die nichtsituative Denkweise bietet jedenfalls intellektuelle Bequemlichkeiten. Denn hat man einmal ein Denkgefüge von den Störungen der pragmatischen Ausgangssituation, soweit wie irgend möglich, befreit, kann man über dessen isolierten syntaktischen Aufbau weitgehend störungsfrei verfügen. Auf diese Weise führte im Anfang der Neuzeit die Betonung der Syntax zu den großen und beliebten Zeichenhierarchien der Vernunftrechtssyteme, deren Isolierung schon Montesquieu kritisierte. Die isolierende Syntaktisierung betonte das deduktive System und war offenbar dazu geeignet die Axiomatisierung zu fördern, sodass die scheinbar situationslose Mathematik als imponierendes Vorbild vorgewiesen werden konnte.“69 65  Foucault

(1995), S. 98–99. S. 39. 67  Fink-Eitel, S. 40. 68  Nirenberg, S. 175–184. 69  Viehweg (1974), S. 113. 66  Fink-Eitel,

316

5. Kap.: Dialogische Prämissensuche

Viehweg selbst hatte die rhetorisch-topische Argumentation zunächst als eine Art „Deduktionsstörung“ beschrieben, die „für das logische Verständnis eine ärgerliche Angelegenheit“ darstelle. Viehweg schreibt: „Das ganze Verfahren ist für das logische Verständnis eine ärgerliche Angelegenheit, denn es ist eine Deduktionsstörung, vor der man in keinem Augenblick sicher ist. Wer daher nicht über eine hinreichende juristische Prämissenkunde verfügt, das heißt, wer nicht gelernt hat, wo im Hinblick auf das Grundproblem im Rahmen eines bestimmten Rechtsverständnisses neue Prämissen eingeschaltet werden müssen und können, sondern sich berechtigt und womöglich gehalten fühlt, der einmal eingeschlagenen Ableitung unbeirrt zu folgen, wird in unserer Disziplin kaum Gehör finden. Die gleiche Operation, die für das logische Verständnis höchst störend ist, ist aber das Grundelement der Topik.“70

Der Ausdruck „Deduktionsstörung“ beschreibt treffend die Gesamtproblematik: Er weist der Deduktion nach den Grundsätzen des modus barbara71 den Status der Normalität zu und unterstreicht deren Vorherrschaft in der Logik. Exakte Logik tritt damit im Modus des Reibungslosen auf. Rhetorik bzw. Topik wirken demgegenüber störend. Der bloße Streit um Worte wird im Allgemeinen – aufgrund eines hartnäckigen Vorurteils – als lästig empfunden. Übersehen wird dabei vielfach, dass die Topik dem juristischen Denken die Möglichkeit eröffnet, Anschluss zu finden an den logikwissenschaftlichen Diskurs. Als „Technik des Problemdenkens“ bzw. als „prämissensuchendes Verfahren“ wird die Topik oft unter Hinweis auf antike Vorbilder beschrieben, ohne aber einen expliziten theoretischen Zusammenhang herzustellen zur Logik, weder zur transzendentalen Logik Kants noch zu Peirce’ Semiotik. Nach Waldemar Schreckenberger haben die Logikwissenschaften bislang einen Zugang zur Rechtsdogmatik noch nicht vorgelegt. Die formale Logik setze ein Maß an „situativer Unabhängigkeit“ voraus, die beim Umgang mit Rechtssätzen meist nicht gegeben sei.72 Eine besondere Rechts-Logik, gleichviel ob eine „deontische Logik“ oder „Normenlogik“, hält er auf der Grundlage eines pragmatischen Wahrheitsbegriffs prinzipiell für möglich.73 Allerdings sei hier Anschluss zu suchen an eine „allgemeine Logik“, womit man das Feld der Semiotik betreten müsse.74 70  Viehweg

(1974), S. 105. Schlussverfahren der formalen Aussagen-Logik, das Aristoteles beschrieben hat, erfordert mindestens zwei wahre Aussagen (Propositionen, Prämissen, Prädikatoren), die den Obersatz bilden. Im Wege eines syllogistischen Schlusses (Ableitung, Untersatz) kann dann auf eine neue wahre Aussage (Schlusssatz, Konklu­ sion) geschlossen werden. Grundtyp der Schlusslehre ist der modus barbara, der im alten Beispiel lautet: Alle Menschen sind sterblich. Sokrates ist ein Mensch. Also ist Sokrates sterblich. 72  Schreckenberger (1982), S. 178, 179. 73  Schreckenberger (1982), S. 175. 71  Das



III. Juristische Logik317

Theodor Viehweg hat auf die Bezüge zur allgemeinen Logik aufmerksam gemacht. In den Versuchen, eine praktische sogenannte „operative Logik“75 von Redehandlungen zu begründen, sah er die Wiederentdeckung einer älteren Konzeption „dialogischer Logik“.76 Er vermutete, dass so die formale zweiwertige Logik fortentwickelt werden könnte, „neue logische Techniken“ und „neue Logikkalküle“, die dann den Fachwissenschaften wieder zugute kommen könnten. So schwebte ihm vor, die formale Logik durch die Hereinnahme kommunikativer Elemente präziser zu formulieren. Der Dialog könne gleichsam dann als ein „geregeltes Spiel“ zwischen zwei Spielern oder Parteien aufgefasst werden.77 Allerdings wollte er nicht von einer grundlegenden Reform der Logik reden. Klar müsse sein, sagt er, dass nicht etwa von einer „neuen Logik“ die Rede sei, sondern lediglich von „neuen unkonventionellen Logikgestalten“.78 74

Dialogik und dialogische Logik sind in der juristischen Grundlagenforschung verschiedentlich, auch unter Rückgriff auf das Denken Martin Bubers diskutiert worden.79 Wilhelm Henke lässt keinen Zweifel an der Praxisrelevanz dialogischen Denkens. Er stellt heraus, dass diese Art des Denkens insbesondere auf das „Zwischen“ gerichtet sei, das was Buber das „Reich des Zwischen“ nennt. Im Gegensatz zum heute herrschenden Denken, inmitten von zur Doktrin erstarrten Dichotomien, lasse sich hier durch einen Dialog etwas Drittes, das „Intermediäre“, entdecken und diskursiv entfalten. Martin Buber führt dazu aus: „ ,Jenseits des Subjektiven, diesseits des Objektiven, auf dem schmalen Grat, auf dem Ich und Du sich begegnen, ist das Reich des Zwischen‘. ,Die den Begriff des Zwischen begründende Anschauung ist zu gewinnen, indem man eine Beziehung zwischen menschlichen Personen nicht mehr, wie man gewohnt ist, entweder in den Innerlichkeiten der einzelnen oder in einer sie umfassenden und bestimmen74  Schreckenberger (1982), S. 169. – Ferner Schreckenberger, Waldemar: Rhetorische Semiotik. Analyse von Texten des Grundgesetzes und von rhetorischen Grundstrukturen der Argumentation des Bundesverfassungsgerichts, Freiburg 1978. 75  Lorenzen, Paul: Einführung in die operative Logik und Mathematik, 2. Aufl., Berlin 1969. 76  Goldschmidt, S. 137–160; Schlipp/Friedmann (Hrsg.), Die Philosophie Martin Bubers, Stuttgart 1968; Lorenzen (1968), S. 32–55, 73–100; Lorenz, K., S. 352– 369; Lorenzen/Lorenz: Dialogische Logik, Darmstadt 1978; Todorov, Tzvetan: Mikhail Bakhtin. The Dialogical Principle, Mineapolis 1984; Schrey Heinz-Horst: ­Dialogisches Denken, 3. Aufl., Darmstadt 1991; Blau, S. 353–380; Hundsnurcher/ Hundsnurcher (Hrsg.), Handbuch der Dialoganalyse, Tübingen 1994. 77  Viehweg (1991), S. 316. 78  Viehweg (1991, S. 316. 79  Gröschner, R.: Dialogik und Jurisprudenz. Die Philosophie des Dialogs als Philosophie der Rechtspraxis, Tübingen 1982; Inhetveen, S. 233–238; Peczenik, S. 293–310; Philipps, S. 223–229.

318

5. Kap.: Dialogische Prämissensuche

den Allgemeinwelt lokalisiert, sondern faktisch zwischen ihnen. Das Zwischen ist nicht eine Hilfskonstruktion, sondern wirklicher Ort und Träger zwischenmenschlichen Geschehens.‘ “80

Davon unbeeindruckt, hält die juristische Logik mehrheitlich nach wie vor an der Denktradition des Logizismus als exakter Denklehre fest.81 Da die mathematische Aussagenlogik für eine Rechtslogik allerdings unstreitig nicht hinreicht, hält man eine spezifisch rechtlich-teleologische Komponente für erforderlich.82 Hilfe verspricht hier die Bildung von teleologischen Logik-Kalkülen, d. h. einer noch viel weitergehenden Axiomatisierung der Rechtssprache.83 Den in der Rechtspraxis vorherrschenden Logik-Begriff kann man beschreiben als eine Art „intuitionistische Teleologik“. Damit ist zum Ausdruck gebracht, dass die formale Logik entsprechend der juristischen Anforderungen modifiziert ist, da das Grundprinzip der formalen Logik, die Exaktheit, in seiner Reinheit bereits legislatorisch nicht, erst recht aber nicht in der Verwaltung und Rechtsprechungspraxis zu verwirklichen ist und überdies dort zu unvernünftigem Schematismus führen würde. In der praktischen Entscheidungstätigkeit stützen sich Justiz und Verwaltung weitgehend auf teleologische und intuitive Überlegungen (Bsp. Planung und Ermessensausübung in der Verwaltung, Kriminalprognostik bei der Strafzumessung, Strafvollstreckung und im Strafvollzug). Diese Praxis, die praktische vernünftige Entscheidungstätigkeit, theoretisch schärfer zu erfassen, überhaupt erst bewusst zu machen und nachvollziehbar zu beschreiben, ist der Kern der aktuellen methodologischen Herausforderung. Die bisherige Konzeption der intuitionistischen Teleologik ist aber – das ist die zugrundeliegende These – in Bezug auf die Phänomene der vernünftigen Praxis in nach Henke, S. 72–73. Jan C.: Logik im Recht. Grundlagen und Anwendungsbeispiele, 2. Aufl., Berlin 2010, dessen Darstellung sich in weiten Teilen auf Aussagen- und Klassenlogik bzw. Kombinatorik beschränkt. Relationen- und Abduktions-Logik sowie die Logik der Paradoxie werden erwähnt, stehen aber scheinbar zusammenhanglos ohne Praxisrelevanz nebeneinander (S. 245 ff., 339, 379). Die überaus praxisrelevante Frage des „Risikos“ wird trotz Auseinandersetzung mit dem Begriff der „Gefahr“ im Recht (S. 282) nicht angesprochen. 82  Weinberger (1976), S. 80–104; Klug, Ulrich: Juristische Logik, Berlin 1951; Heusinger (1975), S. 5–28. 83  Kritisch gegen den Teleologismus Hartmann, S.  125, 127–128: „Wie die Zweckkategorie überall, wo sie angewandt wird, eine Vereinfachung der Sache bedeutet, mit der man es zu tun hat, so auch hier. Es ist viel leichter, ein Widerfahrnis mit einer Bedeutung, und sei es auch nur der Vermutung eines Zweckes, abzutun, als sein Zustandekommen auf Ursachen hin zu untersuchen. Im schnellen Wechsel der Ereignisse ist das Untersuchen meist gar nicht möglich. Der Zweck entbindet uns gleichsam von der schwierigen Aufgabe des Ausschauens nach Ursachen. Praktisch ist ja auch das Bedürfnis, mit der Sache ,fertig zu werden‘, um vieles stärker als das Interesse, sie zu begreifen.“ 80  Zitiert

81  Joerden,



III. Juristische Logik319

der Wirklichkeit unzureichend. In den Blick zu nehmen gilt es zu diesem Zweck die minutiöse kommunikative Substruktur von Begriffen und Theorien, Taktiken und Strategien der Implementierung von Standards und Rechtssätzen. Wir meinen damit so etwas wie das logische Vorfeld bzw. den hypothetischen Vorbereich der Begriffs- und Theoriebildung in Wissenschaft und Praxis, dort, wo die Deduktion, die eigentliche Ableitung, gedanklich (sog. Context of Discovery) vorbereitet wird. Kurzum, der Übergang vom Kontrolldenken zu einer diskursiven Ethik und Vernunft erfordert eine erweiterte, übergreifende Vorstellung von Logik, in der die formale Logik um eine vorbegriffliche nicht-axiomatische Komponente ergänzt wird. Über das allgemeine Abwägungsschema mithilfe der Zweckkategorie hinaus geht es um eine subtilere, minutiöse, ja mikrophilologische Betrachtungsweise auf das Rechtsgeschehen im weitesten Sinne. Das grobe Güterabwägungsschema der Teleologik erweist sich vor allem auch deshalb als problematisch, weil bei der vorzunehmenden Abwägung im Einzelfall Nützlichkeitserwägungen den Ausschlag geben. Die utilitaristische Grundtendenz, d. h. die Orientierung am größtmöglichen Nutzen für eine größtmögliche Zahl, gibt auch die der Teleologik zugedachte Vermittlerrolle zwischen formellen und materiellen Argumenten auf. Vom Stadium des sogenannten „freien Ermessens“ bzw. der „freien Zweckfestsetzung“ bis zum Regime der teleologistischen Beliebigkeit, wo der Zweck alleine herrscht und so die Mittel heiligt, ist es im Einzelfall nicht weit.84 Ota Weinberger spricht insoweit von einem „offenen Problem“, da es bisher nicht gelungen sei, die Bildung von Logik-Kalkülen in der Rechtssprache telelogisch zu binden. Problematisch sei das vor allem, da auch am Normzweck ausgerichtete Logik-Kalküle ihrerseits wiederum teleologisch gebunden sein müssten. Weinberger sieht hier den eventuellen Bedarf, Aspekte der allgemeinen „reinen Logikforschung“ zu berücksichtigen. Weinberger beschreibt das Problem der unendlichen teleologischen Bindung in der juristischen Logik so: „Abschließend sei noch angemerkt, dass sich aus der Tatsache, dass die rechtsphilosophische Forschung zugleich an der logischen und teleologischen Fragestellung interessiert ist, gewisse rückwirkende Anregungen auch für die reine Logikforschung ergeben können. Zu derartigen Anregungen würde etwa der Hinweis darauf gehören, dass auch die Festsetzung von Logikkalkülen teleologisch gebunden ist. Die in logischer Hinsicht weitgehend freien Bestimmungen der Axiome und Definitionen sind, insofern sie beanspruchen, zweckmäßig und sinnvoll zu sein, in teleologischer Hinsicht nur in Grenzen frei. Fragt man nun, was es besagt, es liege eine teleologische Bindung vor, so wird man antworten müssen, dass damit 84  Rüthers, Bernd: Die unbegrenzte Auslegung. Zum Wandel der Privatrechtsordnung im Nationalsozialismus, Tübingen 1968; Schreiber, S. 178–179; Frommel, S. 47–64.

320

5. Kap.: Dialogische Prämissensuche

zum Ausdruck gebracht ist, dass ein teleologisches Axiomensystem vorausgesetzt ist, aus dem sich die Zweckmäßigkeit oder Zweckwidrigkeit von Kalkülen ableiten lässt. Dies teleologische Axiomensystem muss aber seinerseits nach den Regeln der Logik aufgebaut sein, wenn ein diese Ableitungen regulierender Logikkalkül zur Verfügung steht. Dieser muss nun aber wiederum zweckmäßig sein und setzt damit teleologische Axiome voraus, u. s. w. ad infinitum. Es erweist sich somit, dass ein funktionaler Zusammenhang zwischen der Logik und der Teleologik besteht, dessen exakte Analyse ein noch offenes Problem darstellt.“85

Der dualistische Grundansatz der exakten Aussagenlogik führt offenbar in einen infiniten Regress. Die Argumentation Weinbergers belegt – wiederum paradigmatisch – mit aller Deutlichkeit die Absurdität und Weltabgewandtheit einer derartig teleologisch fortentwickelten zweiwertigen Logik. Wie man vom Innern eines Kreisels die Umwelt nur noch in Umrissen erkennen kann, so muss die Kalkülisierung der Rechtsbegriffe mit zunehmender Abstraktheit zu einer unvertretbaren, ja gefährlichen Verzerrung des Realen führen. Der Fetisch der Exaktheit ist hier offenbar zur Triebfeder eines imaginierten Rechtssystems geworden, das in paradiesischer Störungsfreiheit wie eine Maschine operieren können soll. Derweil wächst das Unbehagen gegenüber dem vorherrschenden LogikVerständnis. Es ist nicht nur die Unzufriedenheit mit der Dominanz der Deduktion86, sondern ein ein teils weltfremder, verstörender Binarismus, der sich der Allgegenwart des Computers und der digitalen Revolution verdankt.87 Das hat Zygmunt Bauman im Blick, als er die „Logik des Entweder-Oder“ als unzureichende Handlungsmaxime im 21. Jahrhundert geißelt. Lapidar schreibt er: „Das moderne Leben – und das trifft genau den Punkt – hält sich einfach nicht an die Logik des Entweder-Oder.“88

Karl-Heinz Ladeur sieht in der neueren juristischen Methodendiskussion sogar die Tendenz des Rückgängigmachens der Verselbständigung des klas85  Weinberger, Ota: Rechtslogik, 2. Aufl., Berlin 1989 (Vorwort zur ersten Auflage). 86  Ewald (2002), S. 289: „Although we have scarcely recognized the change, certainty today is not procured so much by conventional method of deduction as, rather like the Cartesian credo, by the logic of double negation: all that can be excluded is that anything should be excluded.“ 87  Law, S. 154: „Euro-American method assemblages are dualist in effect, removing independent agency from the world of the real. The questions here are: should this dualist-inspired production of the real be weakened or abandoned? Are ,natural‘ realities possible agents? In this book I have argued that it is time to undo that dualism.“ 88  Bauman (1995), S.  15. – Ähnlich, heftig die die „Schwarz-Weiß-Technik rechtlicher Normierungen“ im Polizeirecht kritisierend, Denninger (1973), S. 268– 273. – Siehe ferner Denninger (1995), S. 9–29.



III. Juristische Logik321

sischen Rechtssystems als eines geschlossenen Systems von Rechtssätzen. Dieses werde partiell ersetzt durch ein horizontales, prozedural-integriertes System einzelner Rechtshandlungen von Staat und jeweils betroffenen Gruppen. Den Dynamiken und Gewissheitsverlusten des sozialen Wandels könne nicht mehr nur mit „stabilen Regeln“ begegnet werden.89 Den entscheidenden Einschnitt in der rechtstheoretischen Neuorientierung sieht er in der Aufgabe des Subjekt / Objekt-Dualismus, d. h. der Auflösung einer einheitlichen objektiven „Realität“, die sich das Subjekt über die sprach­ liche Referenz erschlossen habe.90 Noch einen Schritt weiter geht der Rechtssoziologe Niklas Luhmann. Aus seinen Beobachtungen der Rechtswirklichkeit leitet er den Schluss ab, dass es an den „logischen und theoretischen Mitteln“ fehlt, um ein selbstreflexives Rationalitäts-Konzept zu entwickeln, das geeignet wäre, die Rechtspraxis zu beschreiben. Einer erst zu entwickelnden teleologischen Rechtslogik spricht er die Praxistauglichkeit ab. Sein Resümee ist ebenso einfach wie weitreichend: „Für solche reflexiven Schleifen fehlen heute jedoch die logischen und theoretischen Mittel – ganz zu schweigen von der Frage, wie sie im Alltag gehandhabt werden sollen. Jedenfalls reicht für einen darauf reagierenden, anspruchsvolleren Begriff der Rationalität die klassische zweiwertige Logik nicht aus.“91

Offenbar ist so etwas wie eine „Reform der Logik“92 erforderlich, jedenfalls „neue unkonventionelle Logikgestalten“, wie Viehweg formulierte. Ein derartiges Logik-Verständnis müsste den bisherigen Ansatz, der auschließlich Exaktheit zum Dreh- und Angelpunkt der Überlegungen gemacht hat, hinter sich lassen. Willard Van Orman Quine hält das für möglich und stellt der exakten „orthodoxen Logik“ abweichende Logiken (sog. „deviant logics“) gegenüber. Insbesondere die dreiwertige Logik („three-valued logic“), die nicht nur die Dichotomie Wahrheit / Falschheit kenne, sondern etwas dazwischen („something intermediate“), biete eine Alternative zur orthodoxen Logik.93

89  Ladeur

(1988), S. 219. (1995), S. 80. 91  Luhmann (1997), S. 177. 92  Dewey, S. 123. 93  Quine (1986), S. 84: „It is like the logic of truth functions except that it recognizes three or more so-called truth values instead of truth and falsity. (…) Sometimes, however, three-valued logic is envisaged as an improved logic. Its three values are called truth, falsity, and something intermediate.“ 90  Ladeur

322

5. Kap.: Dialogische Prämissensuche

IV. Entdeckung der Unschärfe Die hergebrachte Logik, die ungeachtet empirischer Gegenbeweise dem logizistischen Präzisionsideal anhängt und nach wie vor dem Exaktheitspostulat verpflichtet bleiben will, gerät unterdessen immer mehr unter Rechtfertigungsdruck. Man mag darin eine Ironie der Geschichte sehen, eine Ironie der Geistesgeschichte, dass die Technik der Dichotomisierung nach Descartes heute gerade von jenen als unzureichend angesehen wird, die sie auf höchstem Niveau anwenden. Das Pathos der „reinen Wahrheit“ und der unbezweifelbaren „Evidenz“ ist der nüchtern-praktischen Suche nach Wahrscheinlichkeit gewichen. Näherungswerte, Grade des Wahrscheinlichen, auf einer unendlichen Skala des Ungewissen sind es, die am ehesten Orientierung in der hyperkomplexen Welt verheißen. Es ist das Approximative, das sich zwischen die harten Daten und Parameter der „präzisierten Welt“ drängt. Unbeschadet des jahrhundertealten Ideals der Präzision lässt sich ein wachsendes Interesse am „Ungefähren“, an „Unschärfe“, „Unbestimmtheit“, „fuzziness“ und „Vagheit“ feststellen. Es sind Mathematiker und Ingenieure, die zur Bewältigung der ungeheueren Komplexität der technischen Welt, inzwischen eine „Logik der unscharfen Mengen“ bzw. „Logik der Unschärfe“ ersonnen haben. Der Fachterminus „Fuzzy-Logik“, der sich von dem englischen Wort „fuzzy“ (dt. unscharf; verschwommen)94 ableitet, wird zum Teil auch als „unscharf begrenzte, fusselige Logik“ übersetzt.95 Gert Böhme betont, dass man sich bei der Begründung der sog. „Fuzzy-Logik“ als mathematischer Forschungszweig stark davon habe leiten lassen, wie die natürliche Sprache mit Komplexität umgehe. Der Sprache weist er eine Art „Fuzzy-Charakter“ zu und führt dazu aus: „Unsere Welt ist weitgehend ,fuzzy‘! Aus dem täglichen Leben wissen wir, dass die meisten Begriffe nicht scharf abgegrenzt sind. Wir sprechen von ,schönem Wetter‘, einem ,attraktiven Angebot‘ oder einer ,großen Zahl von Interessenten‘ – Formulierungen, die alle mehr oder weniger unscharf, vage, verschwommen sind. In der englischen Sprache sagt man dazu ,fuzzy‘.“96

Der Fuzzy-Charakter der Sprache sei nicht einfach die Folge eines nachlässigen Sprachgebrauchs, sondern unvermeidbar. Eine Verständigung mit exakt definierten Begriffsbildungen, hätte eine unübersehbare Vielfalt von Differenzierungen und Abstufungen zu berücksichtigen, um bei jeder Redewendung genau zu wissen, welche Variante in der betreffenden Situation gerade richtig sei. Zwischenmenschliche Kommunikation sei auf diese Wei94  Der Ausdruck geht auf Arbeiten des amerikanischen Mathematikers Lofti A. Zadeh aus dem Jahr 1965 zurück, die aber zunächst wenig Beachtung fanden, vgl. Bothe, S. VII. 95  Bothe, S. 3. 96  Böhme, G., S. 1.



IV. Entdeckung der Unschärfe 323

se überhaupt nicht mehr möglich. Das Fuzzy-Konzept der Sprache sei offenbar gerade die Voraussetzung für eine praktikable Bewältigung der Komplexität unserer Welt. Deshalb habe man es zum Namensgeber des theoretischen Ansatzes der „Fuzzy-Logik“ gewählt. Ziel sei es, mithilfe dieser Art unscharfen Logik Bereiche des menschlichen Denkens und Schließens zu beschreiben, um so formale Methoden zu entwickeln, die man für die Implantierung von technischen Expertensysteme benötige. In diesem Feld lasse sich mit klassischen Logik-Kalkülen nicht mehr viel ausrichten. Die Fuzzy-Logik stehe insoweit in Konkurrenz zur Theorie der Neuronalen Netze, der Evidenztheorie sowie der Wahrscheinlichkeitstheorie.97 Bart Kosko spricht in Bezug auf das Problem der Unschärfe von sog. „grauen Problemen“, die zwischen schwarz und weiß lägen und insbesondere im digitalen Zeitalter aufträten. Der Terminus „unscharf“ bezeichne Grauschattierungen zwischen 0 und 100 Prozent. Die meisten Begriffe seien unscharf, weil sie keine exakt definierten Grenzen hätten. Es gebe keine scharfe Trennlinie zwischen „warmem und nicht warmem Wasser“ oder „zwischen Sonnenuntergängen, die orangerot, und solchen, die nicht orangerot“ seien, oder „zwischen schiefen und nicht schiefen Vorderzähnen“. Die Bedeutungen dieser Begriffe und ihrer Gegenteile gingen „fließend“ ineinander über. Das digitale Zeitalter habe insofern seine eigene Unschärferelation: Sachverhalte würden in dem Maß unschärfer, wie ihre Teile präziser würden; eine Vielzahl kleiner schwarzer und weißer Elemente verschmelze zu einem grauen Gesamtbild. Die Vagheit bleibe aber insgesamt gleich oder nehme sogar zu. Digitale Präzision jedenfalls beseitige diese Vagheit nicht.98 Eine ähnliche Entwicklung hat nach Darstellung von Arno Bammé, Wilhelm Berger und Ernst Kotzmann auch in der Naturwissenschaften, insbesondere der Physik, stattgefunden. Sog. „fraktale und chaotische Systeme“ hätten sich vom monströsen Gegenbeispiel zum Normalfall gewandelt. Die Aufspaltung in binäre Formen, etwa glatt / rauh, schaffe völlig unzulängliche Abbilder der Realität, wie die Fraktalgeometrie gezeigt habe. Aus entsprechender Entfernung könne man zum Beispiel ein Wollknäuel als nulldimensionalen Punkt betrachten; bei kontinuierlicher Annäherung werde aus diesem Punkt eine dreidimensionale Kugel, dann ein kugelförmiges Fraktal gebrochener Dimension, schließlich ein Wirrwarr eindimensionaler Fäden, die sich im weiteren Verlauf als dreidimensionale Schläuche und sich dann wieder als Fraktale entpuppten. Das Beispiel zeige, welche wichtige Rolle der Skalenabhängigkeit bei der Wahl von Modellen zukomme und welche vielfältigen Fragen der Heuristik mit der Entdeckung der sog. „Fraktale“ aufgeworfen worden seien. Vor allem sei dadurch 97  Böhme,

98  Kosko,

G., S. 1. S. 11, 15.

324

5. Kap.: Dialogische Prämissensuche

der Mesokosmos wiederentdeckt worden, jener Größen- und Gestaltbereich, der unserer Anschauung zugänglich sei. Die selbstähnlichen Fraktale bildeten so gesehen eine bildliche Metapher zur Gesamtherausforderung. Auch der winzigste Teil eines Fraktals sei um nichts einfacher als die fraktale Gesamtheit; er sei bis auf einen Ähnlichkeitsfaktor mit dem Ursprungsfraktal identisch.99 Michel Serres erkennt in diesen Um- und Neuorientierungen insgesamt einen Wechsel des Erkenntnisinteresses. Euphorisch feiert er das Interesse am Unscharfen als die „neue Strenge“ der Mathematik. Das Denken in dyadischen Zuständen würde jetzt abgelöst durch ein Denken im Kontinuum: „Gott oder Teufel? Ausschluss, Einschluss? These oder Antithese? Die Antwort ist ein Spektrum, ein Band, ein Kontinuum. Wir werden niemals mehr mit Ja oder Nein auf Fragen der Zugehörigkeit antworten. Drinnen oder draußen? Zwischen Ja und Nein, zwischen Null und Eins erscheinen unendlich viele Werte und damit unendlich viele Antworten. Die Mathematiker nennen diese neue Strenge unscharf: unscharfe Untermengen, unscharfe Topologie. Den Mathematikern sei Dank: Wir hatten dieses unscharf schon seit Jahrtausenden nötig.“100

Alle Erkenntnis sei unscharf, argumentiert er: Gegenstände hätten verfließende Ränder. Das gelte auch für Festkörper, alle hätten einen „Hof“ und seien von zahllosen Beugungsringen umgeben. Jedes Ding der Welt sei auf seine Art eine Wolke, sei Wirbel und Spiegelung. Organismen zum Beispiel seien offene Systeme, und es sei schon mehr als Kunst, nämlich Wissenschaft, sie mit unscharfen, verfließenden Umrissen zu zeichnen. Evidenz sei nicht von dieser Welt, sie erfordere eine unendliche Negentropie. Vor diesem Hintergrund plädiert er dafür, „rigoros unscharf“ zu argumentieren. Bei der starren Logik und den grobschlächtigen Begriffen habe man ansonsten den Eindruck, man spiele mit Boxhandschuhen Klavier.101 Nicht nur auf Seiten der Naturwissenschaften sondern vor allem in den Geisteswissenschaften ist im Zuge der digitalen Revolution eine metho­ dologische Neuorientierung zu beobachten. Die Hinwendung zur intensiven Erforschung der Sprache, dem linguistic turn, kann als Indiz gewertet für den grundlegenden Perspektivenwechsel.102 Hans-Otto Apel spricht von einer „immense(n) Kraftanstrengung“103, mit der die Philosophie des 20. Jahrhunderts das Bedeutungsproblem der Sprache analysiert habe. Im Zeitalter des Institutionenzerfalls und der freigesetzten Subjektivität – betont er – habe die Philosophie damit ihre dringlichste Aufgabe erkannt. Das Problem 99  Bammé/Berger/Kotzmann

(1990)), S. 276–277. (1981), S. 89. 101  Serres (1981), S. 61, 89. 102  Mit beachtlichen Argumenten auch neuere interdisziplinäre Ansätze der Rechtsinformatik und Computerlinguistik, vgl. Kaser/Wallmannberger, S. 1–14. 103  Apel (1994), S. 220. 100  Serres



IV. Entdeckung der Unschärfe 325

der „Bedeutung“ hätten zunächst Carnap und Tarski in ihrer „logischen Semantik“ analysiert, dann die Wittgenstein-Schüler104 in Oxford und Cambridge in Form der Hinwendung zum common sense der Umgangssprache; schließlich hätten Heidegger, Hans Lipps und Gadamer105 in der „philosophischen Hermeneutik“ das menschliche Dasein selbst als Gespräch begriffen. In der gesamten westlichen Welt sei zu bemerken eine „Abwendung der Philosophie von der reinen (transzendentalen oder empirischen) Bewusstseinsanalyse und ihre Zuwendung zu einer verantwortlichen Verwaltung der Sprache als der Institution der Institutionen.“106

Auch Dietrich Böhler sieht eine „tiefgreifende Neuorientierung der Philosophie und der Wissenschaftstheorie“, die er „pragmatische Wende“ nennt.107 Die Ausdrücke „Pragmatische Wende“ bzw. und „pragmatisch hermeneutische Wende“ seien fast schon termini technici, wiesen sie doch auf das veränderte Selbst- und Methodenverständnis der Wissenschaften vom Menschen und seines Naturverhältnisses hin. Die Suche nach einem neuen Ansatz habe Impulse erhalten von der Kritik der Moderne und dem „postmodernen Geist“. Der Ausdruck „Pragmatische Wende“ beziehe sich auf eine Umwälzung, die nicht minder einschneidend sei, wie die cartesianische, deren philosophische Kritik und Überwindung er anzeige. Descartes’ bewusstseinphilosophische „Wende zum Subjekt“ habe zur Etablierung des Subjekt / Objekt-Schemas als Rahmen der Vernunft und der Welterkenntnis geführt. Dies habe Verzerrungen und Verkürzungen des Vernunft-, Erfahrungs- und des Welt-Begriffs zur Folge gehabt. Heute werde dies als verhängnisvoll wahrgenommen.108 Das, was Böhler den „postmodernen Geist“ nannte, durchzieht alle Bereiche der Gesellschaft – Kultur, Kunst und Literatur ebenso wie Wissenschaft und Praxis. Unbestimmtheit und Unschärfe bestimmen so inzwischen auch die neuere Kunsttheorie. Die Überdeutlichkeit, die durch die digitalen Aufnahme- und Wiedergabetechnik möglich sei, habe in der Kunst, so Hubertus Gassner, zu einer Gegenbewegung geführt.109 In der Malerei und der künstlerischen Fotografie spreche man daher von der sog. „Neuen Unschärfe“: Statt klar erkennbarer Motive werde der Betrachter mit verschwommenen, mehrdeutigen Bildern konfrontiert. Diese vermittelten nur vage Eindrücke und ließen Gegenständliches nur erahnen. Obwohl sich die Künstler der 104  Meineke,

S. 1–64; Thiele, S. 120–126; Beckmann, S. 115–122. Hans-Georg: Wahrheit und Methode. Grundzüge einer philosophischen Hermeutik, 6. Aufl., Tübingen 1990. 106  Apel (1994), S. 220. 107  Böhler/Nordenstam/Skirrbek, S. 5. 108  Böhler/Nordenstam/Skirrbek, S. 5. 109  Gassner, S. 11. 105  Gadamer,

326

5. Kap.: Dialogische Prämissensuche

avanciertesten Reproduktionsverfahren bedienten, verwandelten sie die technisch fortgeschrittensten Bildaufzeichnungen durch Bildbearbeitungen förmlich „zurück“, um auf diese Weise Fragen aufwerfen und den Betrachter nach Erklärungen suchen zu lassen. Die Bewegung der „Neuen Unschärfe“ in der Kunst verstehe sich als Gegenbewegung zur technologisch und ökonomisch verursachten Beschleunigung der Bildproduktion und Distribution medialer Bilder. Künstler antworteten darauf, so Gassner, mit einer Entschleunigung der Belichtungszeit und der Wahrnehmungsdauer beim Betrachter. Er ist Ausdruck des wachsenden Unbehagens und zugleich Zeichen für den „Kampf um die Zukunft“, wie Peter Kemper formuliert. Das Wort „Postmoderne“ ist zum Reizwort geworden, in dem sich die Kritik am Cartesianismus, aber auch Polemik, Hoffnungen und die wildesten Erwartungen und Befürchtungen an die Zukunft spiegeln. Kemper beschreibt den „Zeitgeist“ und die Atmosphäre der Auseinandersetzung so: „Wäre die Metapher der ,betäubenden Rummelplatzatmosphäre‘ nicht hoffnungslos veraltet in Bezug auf den Zeichen-Wirrwarr hochtechnisierter Zivilisation, sie könnte das neue ,postmoderne‘ Lebensgefühl veranschaulichen. Dabei meint die Rede von der ,Postmoderne‘ nicht allein eine Epoche nach der Moderne, sie ist vor allem ein diagnostischer Reflex auf das offenkundige Scheitern der ,großen Erzählungen‘ (Lyotard) von Aufklärung und Emanzipation, auf die ,Vertrauenskrise gegenüber Technik und Wissenschaft‘ (Eco).“110

Der Technologieschub Anfang der achtziger Jahre des 20. Jahrhunderts, die fortschreitende Informatisierung und Telematisierung der Lebenswelt durch elektronische Kommunikationsmedien und Datenverarbeitungsprozesse habe die Zukunft zunächst im milden Licht neuer Pluralität erstrahlen lassen; ein Zeitalter der Autonomie und neuer Chancen habe sich angekündigt. Auf der anderen Seite schilderten Apologeten der Zukunft neue Risiken in apokalyptischen Tönen. Die erhitzte Debatte um die sog. „Postmoderne“111 laufe daher Gefahr sich vom Kern der Auseinandersetzung zu entfernen und sich zum intellektuellen Chic zu verflüchtigen.112 Den Diskurs um die „Postmoderne“ – darauf spielt Kemper hier an – hatte der französische Soziologe Jean-François Lyotard mitangestoßen. Für den Universitätsrat der Regierung von Québec in Kanada hatte er im Jahre 110  Kemper,

Vorwort S. 7–8. Peter: Postmoderne und Dekonstruktion. Texte französischer Philosophen der Gegenwart, Stuttgart 1993; Frank, Manfred: Was ist Neostrukturalismus? Frankfurt a. M. 1984; Frank, Manfred (1993) Das Sagbare und das Unsagbare. Studien zur deutsch-französischen Hermeneutik und Texttheorie, 3. Aufl., Frankfurt a. M. 1993; Habermas, Jürgen: Der philosophische Diskurs der Moderne. Zwölf Vorlesungen, Frankfurt a. M. 1993a; Welsch, Wolfgang: Vernunft. Die zeitgenössische Vernunftkritik und das Konzept der transversalen Vernunft, Frankfurt a. M. 1996. 112  Kemper, S. 8. 111  Engelmann,



IV. Entdeckung der Unschärfe 327

1994 ein Gutachten vorgelegt zu Herausforderungen und Handlungsoptionen um die Jahrtausendwende. Die Auftragsarbeit mit dem Titel Das Postmoderne Wissen (frz. La condition postmoderne) war in der Folge zur Schlüsselschrift der weltweiten Diskussion um die „Postmoderne“ geworden.113 In seinem Gutachten wendet sich Lyotard explizit gegen „eine bestimmte Logik“114, die unter der Hegemonie der Informatik Präskriptionen darüber mache, welche Aussagen zum Wissen gehörten und welche nicht. Er nennt diese Art der Logik auch „Axiomatik“.115 Heftig wendet er sich gegen Fehlannahmen der „Ideologie der Kontrolle“, wie er sagt. Den Kontroll-Ansatz, angewandt auf die Gesellschaft, hält er für verfehlt, da die notwendige Definition des Ausgangszustandes in dem zu kontrollierenden „System“ nicht zu leisten sei. Es sei daher auch nicht wahr, dass durch zunehmende Kontrolle im gesellschaftlichen System die Ungewissheit verschwinde, d. h. Sicherheit produziert werde. Im Gegenteil, durch wachsende Kontrolle wachse auch Unsicherheit. In seiner Argumentation findet sich Lyotard in engster Gesellschaft der Fuzzy-Logiker wieder. Er schreibt: „Nimmt man an, die Gesellschaft sei ein System, so kann ihre Kontrolle, die die präzise Definition ihres Ausgangszustandes impliziert, nicht verwirklicht werden, weil diese Definition nicht umgesetzt werden kann. (…) Die Quantentheorie und die Mikrophysik verpflichten zu einer sehr viel radikaleren Revision der Idee einer kontinuierlichen und vorhersehbaren Bahn. Die Suche nach der Präzision stößt auf eine Grenze, die nicht von Kosten, sondern von der Natur der Materie abhängt. Es ist nicht wahr, dass die Ungewissheit, das heißt das Fehlen von Kontrolle, sich in dem Maße verringert, wie die Exaktheit wächst: Sie wächst auch.“116

Andreas Huyssen und Klaus R. Scherpe, die die europäische und amerikanische Diskussion um die „Postmoderne“ aufgearbeitet haben, haben Gemeinsamkeiten, aber auch gravierende Unterschiede in der Diskussionskultur festgestellt. Die deutschen Diskussion beispielsweise scheine sehr viel stärker von traditionellen Dichotomien bestimmt zu sein, etwa links / rechts, Fortschritt / Rückschritt, Vernunft / Mythos, Verstand / Sinne etc. Daraus ergebe sich eine absolute Gegenüberstellung von „Moderne“ und „Postmoderne“. In den USA sei demgegenüber eher spürbar, dass „postmodern“ ein Relationsbegriff sei, d. h. sowohl als Bruch wie auch als Kontinuität im Verhältnis zur klassischen Moderne aufgefasst werden könne. Bezeichnend sei, dass dort – anders als in Europa – im Hinblick auf die Vernunftkritik Lyotards und anderer nicht vom „Ende der Aufklärung“ oder dem „Tod der Vernunft“ die Rede sei. Wenn überhaupt, sehe die amerikanische Rezeption im „Poststrukturalis113  Lyotard,

1994.

114  Lyotard

Jean-François: Das postmoderne Wissen. Ein Bericht, 3. Aufl., Wien

(1994), S. 24. (1994), S. 124. 116  Lyotard (1994), S. 162–163. 115  Lyotard

328

5. Kap.: Dialogische Prämissensuche

mus“ eine Weiterführung aufklärerisch-kritischer Impulse, auch und gerade als Entmystifizierung versteinerter rationalistischer Traditionen im Denken über Sprache, Kunst und Literatur.117 Der inzwischen wieder abgeebte Diskurs um die sog. „Postmoderne“ hat jedenfalls eines sehr deutlich gemacht, einerseits den latent stattfindenen methodischen und epistemologischen Fundamentalstreit118, anderereits die bizarre, teils ohrenbetäubende Polarisierung im öffentlichen Diskurs. Nach Albrecht Wellmer ist der Streit um die „Postmoderne“ am ehesten als Ausdruck einer geistigen „Suchbewegung“ zu verstehen. Nüchtern kommentiert er: „Die Postmoderne, richtig verstanden, wäre ein Projekt. Der Postmodernismus aber, soweit er wirklich mehr ist als eine bloße Mode, ein Ausdruck der Regression oder eine neue Ideologie, ließe sich am ehesten noch verstehen als eine Suchbewegung, als ein Versuch, Spuren der Veränderung zu registrieren und die Konturen jenes Projekts schärfer hervortreten zu lassen.“119

Umberto Eco verbindet mit dem Wort „postmodern“ keine zeitlich begrenzbare Strömung, sondern eine Geisteshaltung – „genauer gesagt, eine Vorgehensweise, ein Kunstwollen (im Original deutsch).“120 Der ideale postmoderne Roman müsse den Streit zwischen Realismus und Irrealismus, Formalismus und „Inhaltismus“, reiner und engagierter Literatur, Elitenund Massenprosa überwinden.121 Die breite, interdisziplinäre Beschäftigung mit den Phänomenen „Unbestimmtheit“, „Unschärfe“ und „Vagheit“ zeigt aber auch, dass die zweiwertige Logik ihren Zenit offenbar bereits überschritten hat. Nur die Konsequenz, mit der dies hier gedacht wird, mag ungewohnt und prima facie irritierend sein, da er dem überkommenen Denkmodell der Exaktheit widerspricht und damit allen verbreiteten Denkgewohnheiten, die damit zusammenhängen. Aus größerer Entfernung betrachtet, ist die Entdeckung der Unschärfe wesentlich eine Wiederentdeckung. Wie anders wäre Vicos Formulierung vom „Tasten im Wahrscheinlichen“ zu verstehen? Und schon Johann Gottfried von Herder, einer der Pioniere der Sprachforschung, hatte sich skeptisch gezeigt gegenüber allem systematisierten Vorgehen bei der Suche nach Erkenntnis. Überall habe man es auf disem Gebiet mit dem „Gott des Ungefährs“ zu tun: 117  Huyssen/Scherpe,

S. 9–10. Andreas: Macht und Ethos. Eine Analyse von Foucaults Suchbewegung nach Kritikformen. Dissertation Freie Universität Berlin 2013, der unter Verweis auf Foucault eine Hegemonie des „philosophisch-juridischen Diskurses“ sieht gegenüber dem aus der Sophistik hervorgegangen „historisch-politischen Diskurs“ (S. 9). 119  Wellmer (1985), S. 109. 120  Eco (1986), S. 77. 121  Eco (1986), S. 81. 118  Franken,



V. Abwägung im Recht 329 „Die meisten Dinge in der Welt werden durch ein Ungefähr und nicht durch abgezweckte Versuche hervor-, weiter-, herauf- und heruntergebracht: und wo will ich nun mit meinen Vermutungen hin, in einem Zauberlande des Zufalls, wo nichts nach Grundsätzen geschieht, wo alles auf das sprödeste sich den Gesetzen der Willkür und des Zweckmäßigen entzieht, wo alles, das Meiste und Kostbarste dem Gott des Ungefährs in die Hände fällt.“122

V. Abwägung im Recht Auf dem Weg zu einer zeitgemäßen Theorie der Rechtspraxis hat sich auch die juristische Grundlagenforschung verstärkt den Phänomenen der „Unbestimmtheit“123, „Ungewissheit“124, „Abwägung“125 und „Vagheit“126 im Recht zugewandt. In der Rechtstheorie haben sich inzwischen Ansätze herausgebildet, die die Viel- bzw. Mehrdeutigkeit127 sprachlicher Zeichen zum Ausgangspunkt ihrer Überlegungen machen. Theorieentwicklung und Verlauf des rechtstheoretischen Diskurses sind indessen nicht linear. Festzustellen ist, dass das Interesse an Literatur128 und damit an Literatur- und Kulturwissenschaften129 zunimmt, ebenso der Trend zur Interdisziplinarität. Da das Problem der Bedeutung an die Grundfesten des Rechtsstaatsprinzips, insbesondere Gesetzesvorbehalt und Gesetzesbindung rührt, wird die „poststrukturalistische“ Kritik zum Teil als Bedrohung für das dogmatische Gebäude gesehen, das diesem buchstäblich die Fundamente abgräbt. Kritik am 122  Johann

Gottlieb Herder (1772) – zitiert nach Helmes/Köster, S. 62–63. S. 1066–1075; Ladeur (1989), S. 567–590; Günther (1989), S. 435–

123  Seelmann,

460.

124  Gast (1980), S. 169: „Ungewissheit, rational verfasst, ist Präsentation von Möglichkeiten; Unentschiedenheit dessen, was gilt; reflektierte Offenheit. Aber sie darf nicht bloß eilig als etwas Unerwünschtes liquidiert werden; Zweifel lässt sich aufheben nach dem Verfahren, das ihn betreibt.“ 125  Leisner, Walter: Der Abwägungsstaat. Verhältnismäßigkeit als Gerechtigkeit? Berlin 1997. 126  Nussbaumer, S. 49–71. 127  Stegmüller, S. 67: „Dies zeigt, dass der Ausdruck ,mehrdeutig‘ selbst grundsätzlich mehrdeutig ist. Bereits im deskriptiven Bereich unterscheiden die Grammatiker zwischen der lexikalischen und der strukturellen Mehrdeutigkeit. Das Wort ,Star‘ ist lexikalisch mehrdeutig, da man darunter einen Vogel, eine Augenkrankheit und ein Filmgröße verstehen kann. Der Satz: ,X ist mit dem Freund von Y, den er vorige Woche kennengelernt hat, ins Theater gegangen‘ ist strukturell mehrdeutig, da sich das Relativpronomen ,den‘ entweder auf ,Y‘ oder auf ,Freund‘ beziehen kann.“ 128  Müller-Dietz, Heinz: Grenzüberschreitungen. Beiträge zur Beziehung zwischen Literatur und Recht, Baden-Baden 1990. 129  Senn/Puskas (Hrsg.), Rechtswissenschaft als Kulturwissenschaft? Stuttgart 2007.

330

5. Kap.: Dialogische Prämissensuche

Begriffssystem wird daher als Fundamentalkritik am „Bauwerk“130 des Rechts verstanden. Das ist der Grund, warum die Mehrheit eine Auseinandersetzung mit dem Problem scheut.131 Man beharrt weiter auf der semantischen, inzwischen unhaltbar gewordenen Vorstellung des „eindeutig“132 bestimmbaren Sinngehaltes von Wörtern. Für die Rechtslogik beharrt Ota Weinberger weiter zum Beispiel auf dem Grundprinzip der Exaktheit in der Definitionslehre. Diese löse zwar die Frage der zweckmäßigen Begriffsbildung nicht, aber Definitionen seien notwendiges Hilfsmittel für den Aufbau der Begriffsapparatur. Darin liege eine Bedingung der Exaktheit und der Intersubjektivität der Wissenschaft.133 Durch Definitionen würden neue Termini in ein Sprachsystem eingeführt bzw. die Bedeutung sprachlicher Ausdrücke bestimmt. Der Umstand, dass Definitionen in unterschiedlicher Rolle aufträten, erschwere es, eine exakte Begriffsbestimmung des Terminus „Defini­tion“ zu geben. Unter „Definition“ werde er „– annähernd gesagt – die Bestimmung der Bedeutung oder / und Anwendungsweise eines sprachlichen Ausdrucks mittels anderer sprachlicher Ausdrücke verstehen“.134 Albert Menne hingegen macht klar, dass das Wort „Definition“ (lat. definitio oder auch diffinitio) nicht eindeutig sei. Im Laufe der Geschichte seien verschiedene Techniken der Definition entwickelt worden. Im Deutschen würden teils gleiche, teils ähnliche, teils nur entfernt verwandte Deutungen verbunden mit den Worten „Bestimmung“, insbesondere „Wesens- oder Begriffsbestimmung“, „Erklärung“, insbesondere auch „Worterklärung“, „Begriffserklärung“, „Sacherklärung“, „Namenerklärung“ oder „Erörterung“, „Beschreibung“, „Schilderung“, „Begriffsanalyse“ und „Begriffssynthese“.135 John Dewey erläutert, warum selbst der Begriff „Terminus“ nicht abschlie130  Buckel/Christensen/Fischer-Lescano, S. XI: „Das Recht wird im ‚alteuropäischen Denken‘ als Hierarchie von Normen oder Rechtsquellen begriffen. (…) Daraus ergibt sich ein mehrstöckiges Gebäude, worin im obersten Stockwerk die Rechtsphilosophie residiert, welche die Frage beantwortet: ‚Was ist Recht?‘. Im Stockwerk darunter sagt die juristische Methodik, wie das Recht angewendet wird, während im Erdgeschoss die Dogmatiker vorgegebene Rechtsinhalte am Fall erkennen. Das ist das Bauwerk des ‚alteuropäischen Rechtsdenkens‘. Die Fundamente dieses Bauwerks sind brüchig geworden.“ 131  Hunt, S. 507–540. – Dazu unter Rezeption der deutschsprachigen Diskussion Stamatis, S. 265–284. 132  Clauss/Clauss, S. 116: „Es ist sehr wichtig, sich dessen zu vergewissern, dass die natürliche Sprache keineswegs ein exaktes Instrument ist, wie man von einem zuverlässigen Informationsvermittler verlangen könnte. Bis heute sind alle Versuche, die Semantik der natürlichen Sprache ganz zu formalisieren, ohne Erfolg geblieben. Wie bekannt, sind viele Wörter unserer Sprache nicht nur mehrdeutig, sondern sie haben auch eine relative Bedeutung.“ 133  Weinberger (1989a), S. 372. 134  Weinberger (1989), S. 358. 135  Menne, S. 12.



V. Abwägung im Recht 331

ßend definierbar ist. Der lateinische Ausdruck „terminus“ bedeute nämlich sowohl „Begrenzungslinie“ (engl. boundary) wie abschließender „Grenzpunkt“ (engl. limit). Er habe daher sowohl begrenzenden als auch verbindenden Charakter. Wie andere Grenzen auch, zum Beispiel politische Grenzen oder Grenzen von Grundeigentum, grenzten Termini nicht nur ab, sondern verbänden auch. Deshalb habe ein Terminus nur eine logische Bedeutung im Unterschied und im Verhältnis zu anderen Termini.136 Im vermehrten Rückgriff der Rechtsprechung und Rechtspraxis auf sog. Güterabwägungen“ und die Abwägungsmaxime allgemein erkennt KarlHeinz Ladeur Anzeichen eines neuen Rechtsparadigmas.137 Die stabilen Ein- und Ausgrenzungen („binäre Schematismen“) des traditionellen Rechtsdiskurses hätten für die planende Verwaltung an Bedeutung verloren. Der Topos der „Güterabwägung“ sei eine spezifische Ausprägung der zu beobachtenden Tendenz zur Entformalisierung des Rechts. Die Figur sei vor allem von der Rechtsprechung des Bundesverfassungsgerichts entwickelt worden. Sie stelle das Rechtsverständnis weitgehend von der „Interpretation“, d. h. der Ableitung von konkreten Entscheidungen aus dem Willen des Gesetzes oder einer vorfindlichen Rechtssystematik auf das situative Arrangement von „Werten“ um. Werte seien in diesem Verständnis offene Topoi, die nicht mehr durch eine universelle Sprache auf eine universelle Ordnung verwiesen. Es handle sich dabei vielmehr um Selektionskriterien für neue Problemlösungen. Die „Werte“ enthielten lediglich zu optimierende und situativ anzupassende Anschlussmöglichkeiten an die bisherigen normativen und faktischen Systembestände. Ladeur umschreibt diese Form der Abwägung wie folgt: „Güterabwägung ist eine dogmatische Figur, die Rechte nicht mehr auf immanente oder explizite Grenzen, d. h. stabile Präferenzregeln (z. B. zugunsten des öffentlichen Interesses) bezieht, sondern situativ-strategisch einen komplexen, nur beschränkt generalisierbaren Interessenzusammenhang vor allem durch die Formulierung von flexiblen Standards oder Werten zu bearbeiten sucht.“138

Das Abwägungs-Paradigma habe das klassische universelle Rechtsdenken durch die temporalisierte Bewegung von offenen Diskurs-Topoi abgelöst, schreibt er. Dadurch sei der Alternativenreichtum des Rechtssystems gesteigert worden. Eine Rechtstheorie der Abwägung ermögliche ein dynamisches Modell, das Komplexität im Zeitablauf reflektiere. Demgegenüber habe das klassische Modell Stabilität und Konsistenz des Universellen institutionali136  Dewey,

S. 406. (1983), S. 463–483. Ferner Ladeur, Karl-Heinz: „Abwägung“ – Ein neues Paradigma des Verwaltungsrechts. Von der Einheit der Rechtsordnung zum Rechtspluralismus, Frankfurt a. M. 1984. 138  Ladeur (1983), S. 216. 137  Ladeur

332

5. Kap.: Dialogische Prämissensuche

siert gegen das Fließen des Mannigfaltigen, das Besondere der Erfahrung. Der universelle „Ausgangspunkt“ des klassischen Modells werde gewissermaßen im Abwägungsparadigma durch variable Optimierungsmodelle untergraben.139 Ladeur sieht hierin Potenzial und Chancen für die Rechtsentwicklung140: Der heutige Mensch, das „multiple Subjekt“, entspreche nicht mehr dem vorfindlichen, stabilen, ewigen Sein der metaphysischen Tradition. Das „gespaltene Subjekt“, das „schwache Sein“, müsse aber kein Verlust sein. Der „Möglichkeitssinn“, wie Robert Musil formuliert habe, das Akzeptieren der Multiplizität der Erscheinungen, erlaube vielleicht kein „Sein“ mehr, aber dafür ein „Werden“, formuliert Ladeur.141 Betrachtet man die Wörter „Vagheit“ und „Abwägung“ in etymologischer Hinsicht, so ergibt sich eine enge Verwandtschaft mit der gemeinsamen Grundmetapher „Wa(a)ge“; beiden ist ein dynamisches und gleichzeitig vermittelndes Moment inhärent. Der Gedanke der Vagheit ist dem Recht daher keineswegs fremd. Ganz im Gegenteil, näheres Hinsehen ergibt, dass der Gedanke der Abwägung sogar zentral ist für die Frage des Rechts und der Gerechtigkeit. So zentral, wie kaum ein anderer. Die Waage nämlich ist seit frühester Zeit Symbol für gerechtes Entscheiden. Die Kulturgeschichte der Waage als Instrument des Abwägens weist einen engen Zusammenhang nach zwischen dem Wort „Waage“ und dem abstrakten Ziel der Gerechtigkeit: Bereits in dem sogenannten altägyptischen „Totenbuch“, einer Papyrussammlung von ca. 1400 v. Chr., ist eine Waage dargestellt: Die eine Waagschale enthält eine herzförmige Vase, die alle Taten der toten Person symbolisieren soll, die andere eine Feder, Symbol für Recht und Wahrheit. Die Affinität zwischen der Waage als Symbol und der Gerechtigkeit als Motiv lässt sich heute kultursoziologisch bis in die Architektur von Justizgebäuden hinein verfolgen.142 In einer Auseinandersetzung mit dem von Henry Sidgewick geprägten Konzept des „reflexiven Gleichgewichts“ (reflective equilibrium143) hat der amerikanische Rechtstheoretiker John Rawls einen Begriff von „abwägen139  Ladeur

(1983), S. 218–219. Leisner, Walter: Der Abwägungsstaat. Verhältnismäßigkeit als Gerechtigkeit?, Berlin 1997, der den Verlust an rechtsstaatlicher Vorhersehbarkeit fürchtet. 141  Ladeur (1983), S. 212. 142  Kissel, S. 92–103; Kretzenbacher, Leopold: Die Seelenwaage. Zur religiösen Idee auf der Schicksalswaage in Hochreligion, Bildkunst und Volksglaube, Klagenfurt 1958; Boissard, Jean Jacques: Emblematum liber, Hildesheim 1977; Vieweg, Richard: Aus der Kulturgeschichte der Waage, Balingen 1982; Kocher, Gernot: Zeichen und Symbole des Rechts: eine historische Ikonographie, München 1992; Gephart, S. 401–431; Curtis/Resnik, S. 1727–1771. 143  Singer, S. 490–517; Daniels, S. 256–282; De Paul, S. 59–69. 140  Kritisch



V. Abwägung im Recht 333

der Vernunft“ entwickelt. Er folgt dabei dem Gedankenexperiment Sidgewicks, um den bestmöglichen Plan für den Umgang mit der Zukunft zu entwickeln: Angenommen er könne jetzt die Folgen der verschiedenen möglichen Handlungsweisen genau voraussehen und sie sich lebhaft vorstellen, dann könne das zukünftige Gesamtwohl der Menschen am besten durch die hypothetische Gesamtheit abwägenden Überlegens aller angestrebt werden. Rawls hält den Begriff der „abwägenden Vernunft“ einerseits für sehr kompliziert, da er viele Elemente verbinde. Andererseits sei das vernünftige Abwägen aber eine Tätigkeit wie jede andere. In welchem Umfang man sie ausübe, unterliege wiederum einer vernünftigen Entscheidung.144 Franz Wieacker hat die Bedeutung des Grundsatzes der Verhältnismäßigkeit, in dem die Abwägungsmaxime ihren stärksten Ausdruck gefunden habe, aus rechtshistorischer Perspektive näher untersucht.145 Er kommt zum Ergebnis, das sich bei dem Verhältnismäßigkeitsgebot nicht um einen positivierten Rechtssatz handle. Auch sei kein spezielles Rechtsinstitut damit verbunden. Vielmehr repräsentiere es eine allgemeine Maxime, die das gesamte Rechtsgebiet in sehr verschiedenem Verdichtungsgrad durchziehe. Von altüberkommenden Positivierungen des bürgerlichen Rechts (wie in den §§ 138 Abs. 2, 226, 343, 904 BGB) über die bewährte Praxis der Eingriffsverwaltung im Zeichen des § 10 II 17 ALR bis hin zu Gerechtigkeitserwägungen der Rechtsprechung zur Strafzumessung im Strafverfahren und grundrechtlichen Entscheidungen des Bundesverfassungsgerichts. Dieselbe Vielfalt zeige die lange Vorgeschichte der Maxime bis in die Antike. Auch in den geschichtlichen Rechtsordnungen gebe es kein wohldefiniertes Kapitel „Verhältnismäßigkeit“, das sich in einschlägigen Handbüchern gleichsam aufschlagen und nachlesen lasse. Sitz und „Stellenwert“ des Prinzips müssten vielmehr aus einer überwältigenden Masse von Rechtstexten vergangener Rechtsordnungen und der gesamten rechtsphilosophischen Tradition herausgeschält werden. Der Begriff der „Verhältnismäßigkeit“ sei per se vage, auf Ausgleich angelegt. Im ursprünglichen lateinischen Wortsinn entdeckt Wieacker sogar eine maritime Hintergrundmetaphorik, die Wellenbewegung des Meeres: „Schon per definitionem ist ,Verhältnismäßigkeit‘ allererst ein Relationsbegriff, der Tatbestand und Rechtsfolge, Aktion und Reaktion (wie Angriff und Abwehr, Gefahr und Abhilfe) und endlich auch Leistungen und Entgelte in eine proportionale Beziehung setzt. Geschichtlich kommt dieses Element zur sinnfälligen Anschauung ebenso in den alten Sinnbildern der Waage oder des Richtsmaßes (…) wie im ursprünglichen Wortsinn des lateinischen aequum (,Glätte, Ebenheit‘; dazu noch aequor ,Meeresfläche‘).“146 144  Rawls,

S. 455, 456. S. 867–881. 146  Wieacker, S. 871. 145  Wieacker,

334

5. Kap.: Dialogische Prämissensuche

Erhard Denninger betont die herausragende Bedeutung des Grundsatzes der Verhältnismäßigkeit gerade im Polizeirecht. Er lobt dessen Unschärfe und Unbestimmtheit. Die mildernde equity-Unbestimmtheit dieses Prinzips breche dem rigor iuris, d. h. dem an archaischen oder technokratischen Vorbildern orientierten Rechtsformalismus, förmlich die Spitze ab. Der Verhältnismäßigkeitsgrundsatz sei so einerseits Ausdruck der Krise des rechtsstaatlichen Rechts, andererseits Mittel zur Wahrung von Recht und Gerechtigkeit. So gesehen, sei das Gebot der Verhältnismäßigkeit ein wichtiges „rechtsbegriffliches Vehikel“, mit dessen Hilfe sich wandelnde Ordnungsund Gerechtigkeitsvorstellungen in die Festung traditioneller Rechtsdogmatik einziehen könnten.147 Der französische Soziologe Pierre Bourdieu schließlich sieht im praktischen Handeln allgemein und schlechthin ein abwägendes Verhalten, ja eine „Logik des Unscharfen“ am Werk. Bestimmte Praktiken und Verhaltensweisen in bestimmten Kontexten seien bei unterschiedlichen Akteuren von bestechender Regelmäßigkeit. Es gebe daher so etwas wie „ein System von Dispositionen zu praktischem Handeln“, so dass sich Akteure in bestimmten Situationen auf eine ganz bestimmte Weise verhalten. Er nennt das „Habitus“. Er betont, dass der Habitus aufs engste mit dem Unscharfen und Verschwommenen verbunden sei: „Als eine schöpferische Spontaneität, die sich in der unvorhergesehenen Konfrontation mit unaufhörlich neuen Situationen gelten macht, gehorcht er einer Logik des Unscharfen, Ungefähren, die das normale Verhältnis zur Welt bestimmt.“148

Sollte eine spezifische Logik auf vager Grundlage, d. h. ohne eindeutig definierte Begriffe, die kontrollierte Ableitungen erlauben, möglich sein? Auf dem Weg in Richtung auf eine „Logik der Vagheit“ käme dann der Abwägungsmaxime im Recht die Rolle eines Zwischenschritts zu.

VI. Ordnung des Diskurses Der französische Historiker Michel Foucault ist – wie Jacques Derrida149 – über die „metonymische Gewalt“ des Diskurses in der zeitgenössischen Gesellschaft beunruhigt. Jene „entfesselte Metonymisierung ohne Rand und Band“, die den Sprachverfall und den Zerfall der Institutionen betreibt.150 Was er sucht, ist ein neuer Weg zur „Ordnung des Diskurses“.151 Er sucht eine Methodologie zur bewussten Regulierung der „diskursiven Praxis“, wie 147  Denninger,

S. 161–162. (1987), S. 100–101. 149  D’Amico, S. 164–182. 150  Derrida (1984), S. 76–77. 151  Foucault (1977), S. 34–35. 148  Bourdieu



VI. Ordnung des Diskurses335

er sagt. Dabei ist er davon überzeugt, dass das heute praktizierte System der Begriffs-Logik, das sich erst zu Beginn der Neuzeit durchgesetzt hatte, aufgrund der veränderten gesellschaftlichen Bedingungen unzulänglich ist. Es erscheint ihm ungeeignet, um Macht zu begrenzen und Freiheitsrechte des Einzelnen zu sichern. Foucault schreibt: „Seit einigen Jahrhunderten sind wir in einen Typ von Gesellschaft eingetreten, in dem das Juridische immer weniger die Macht codieren oder ihr als Repräsenta­ tionssystem dienen kann.“152

Die Ausgangsthese Foucaults, dass der juristische Code unter dem Aspekt seiner sozialen Ordnungsfunktion an Einfluss verliert, ist nicht neu. Die sinkende Steuerungsfähigkeit des Rechts ist oft beschrieben worden.153 Gerade in Hinsicht auf die hier diskutierte Fragestellung, die Frage der rechtlichen Einhegung polizeilicher Vorfeldaktivitäten, stellt sich das Problem der Machtbegrenzung sehr konkret aufs Neue.154 Hier setzt Foucault an. Er stellt die Leistungsfähigkeit des Rechtssystems, das sich seit der Neuzeit herausgebildet hat, unter den gegebenen gesellschaftlichen Bedingungen in Frage.155 Vor allem kritisiert er das Sprachverständnis, welches über Normierung und Kodifizierung von sprachlichen Zeichen soziale Ordnung schaffen will. Bei dieser Regulierungsstrategie handelt es sich – sprachwissenschaftlich betrachtet – um eine „Referenzfixierung“ („fixing of reference“). Foucault hält die Methode der strikten Bezeichnungskonvention, die eine Terminologisierung und Ableitung mittels „Referenzketten“ erlaubt156, für unzureichend, um eine zeitgemäße Regulierung ins Werk zu setzen bzw. das durch technischen Fortschritt entstandene Machtdispositiv angemessen zu „codieren“. Die Bindung eines Signifikanten an einen bestimmten Signifikaten hält er aus ganz grundsätzlichen (sprach- und zeichentheoretischen) Erwägungen für unmöglich und spricht daher von „Diskurs“.157 Der Statik der schlüssig konstruierten Begriffsgebäude und systematischen Kodizes stellt er das „Hin-und-her-Laufen“ (lat. 152  Foucault

(1977a), S. 111. Gerd-Klaus (Hrsg.), Der überforderte schwache Staat. Sind wir noch regierbar? Freiburg 1975; Hennis/Kielmannsegg/Matz (Hrsg.), Regierbarkeit. Studien zu ihrer Problematisierung, Bd. I und II, Stuttgart 1977; Grimm, Dieter (Hrsg.), Wachsende Staatsaufgaben und sinkende Steuerungsfähigkeit des Rechts, Baden-Baden 1990; Schuppert/Merkel/Nolte/Zürn (Hrsg.) (2010) Der Rechtsstaat unter Bewährungsdruck, Baden-Baden 2010; Adolf-Arndt-Kreis (2010) (Hrsg.), Staat in der Krise – Krise des Staates? Die Wiederentdeckung des Staates, Berlin 2010. 154  Albers, Marion: Die Determination polizeilicher Tätigkeit in den Bereichen Straftatenverhütung und der Verfolgungsvorsorge, Berlin 2001. 155  Gehring, S. 157–179, die die These vertritt, Foucaults explizite Aussagen zur „Rechtstheorie“ seien dürftig. 156  Wimmer, S. 8–23. 157  Böhler/Gronke, S. 764–819. 153  Kaltenbrunner,

336

5. Kap.: Dialogische Prämissensuche

discurrere), das „Fließende“ des Diskursiven, gegenüber. Es ist nicht leicht zu verstehen, was Foucault mit der Metapher des „Diskurses“ meint – vor allem, weil er in seinen Arbeiten nicht definitorisch-deduktiv vorgeht, sondern tastend, umschreibend, einkreisend, arrondierend, revidierend – im Gesamten reichlich essayistisch. Foucault versteht sich selbst als Suchender und „Experimentator“.158 Um die diskursive Praxis zu verstehen, nimmt er immer wieder unterschiedliche Perspektiven ein und entwickelt verschiedene Kritikformen.159 Diese scheinbare Verunklarung, barockhafte Verspieltheit und Vagheit wird seinen Schriften auch und gerade von Kritikern, die sich logische Strenge und rationales Kalkül zu gute halten, zum Vorwurf gemacht. Die Foucault-Rezeption in Deutschland habe sich daher vor einer inhaltlichen Auseinandersetzung zunächst an den Eigenheiten seines Schreibstils gestoßen, stellt Helmut Becker fest. Das habe ihm zum Teil nicht nur den Vorwurf der argumentativen Schwäche, sondern sogar den Verdacht des narzisstischen Sprachspiels, ja des Irrationalismus eingetragen. Becker formuliert: „Wo sie (die Kritiker, N. R.) keine Methode erkennen, gibt es auch keine; wo die Begriffe verschwimmen, gibt es für sie keine Termini; wo die Objekte zerfließen, existieren sie in ihren Augen nicht. Drängt sich ihnen nicht das Bekannte auf, sondern das Gegenteil, ist es schon das Unmögliche und somit disqualifiziert.“160

Dennoch blieb den Schriften Foucaults die nachhaltige Wirkung nicht versagt. Die Literatur zum seinem Werk ist inzwischen fast unübersehbar.161 Insbesondere für die Kriminologie hat er außerordentlich inspirierend gewirkt.162 Wurde Foucault anfangs, notiert Axel Honneth, nur in den Randzonen des 158  Zitiert nach Taureck (1997), S. 80: „Ich bin ein Experimentator und kein ­ heoretiker. Theoretiker nenne ich denjenigen, der ein allgemeines System, sei es T eine Deduktion, sei es eine Analyse, konstruiert und es gleichförmig auf verschiedene Bereiche anwendet. Das ist nicht mein Fall. Ich bin ein Experimentator in dem Sinn, dass ich schreibe, um mich zu verändern und nicht dasselbe wie zuvor zu denken.“ 159  Franken, S. 9. 160  Becker, H., S. 7–8. 161  Clark, Michael: Michel Foucault: An Annotated Bibliography. Tool Kit for a New Age, ohne Ortsangabe, 1983; Megill, 117–141; Roth, Michael S., S. 70–80; Marti, Urs: Michel Foucault, München 1988; Dauk, Elke: Denken als Ethos und Methode. Foucault lesen, Berlin 1989; McCarthy, Thomas, S. 437–469; Burchell/ Dreyfus/Rabinow: Michel Foucault. Jenseits von Strukturalismus und Hermeneutik, 2. Aufl., Weinheim 1994; Gordon/Miller (Hrsg.) The Foucault Effect. Studies in Governmentality with two Lectures by and an Interview with Michel Foucault, Chicago 1991; Schmidt, Wilhelm (Hrsg.), Denken und Existenz bei Michel Foucault, Frankfurt a. M. 1991; Armstrong, Timothy J. (Hrsg.), Michel Foucault Philosopher, New York 1992. 162  Garland (1992), S. 403–422; Althoff/Leppelt: „Kriminalität“ – eine diskursive Praxis. Foucaults Anstösse für eine Kritische Kriminologie, Münster 1995; Kras-



VI. Ordnung des Diskurses337

akademischen Betriebs zur Kenntnis genommen, so habe er inzwischen Eingang in den Kernbereich gefunden. Im Hinblick auf internationale Resonanz, geistige Vitalität und flächenübergreifende Ausstrahlungskraft stehe die Debatte um das Werk Foucaults heute beinahe konkurrenzlos da.163 Foucault ist im Ganzen beunruhigt über den Gang der Dinge und sucht mit seinen Überlegungen einen Ausweg aus der Sackgasse des neuzeitlichen, aber bis heute vorherrschenden axiomatisch-deduktiven Denkens, das die Grundlage ist für die Entstehung der modernen gesellschaftlichen und staatlichen Kontrollpraktiken: „Fürchterliche Maschinen gibt es in unserer Gesellschaft: sie sieben die Menschen, mustern die Geisteskranken aus, tragen sie zusammen und schließen sie ein; angeblich stellen sie deren Normalität wieder her. (…) Die Sortiermaschine ist blind gegenüber dem, was sie sortiert; die Umwandlungsmaschine kennt nicht das Ziel der Umwandlung. Kurz gesagt, die psychiatrische Maschine, die bipolar funktioniert (normal / anormal), macht zwischen den beiden Polen keinen Unterschied.“164

Am Beispiel der Geschichte des Gefängnisses und der Irrenhäuser zeigt er die binäre Mechanik des Kontrolldenkens, welches analog seiner erkenntnistheoretischen Prämisse klar zwischen Subjekt / Objekt, normal / unnormal, richtig / falsch usw. unterscheidet. Im Verlauf seiner Suche nach einer alternativen Regulierungsstrategie stößt Foucault auf etwas, was er die „Angst“ vor dem Diskurs bzw. „Logophobie“ nennt. Diese Angst ist nach seiner Aufassung der eigentliche Grund für den groß angelegten Normierungsversuch in Bezug auf die Sprache in der Neuzeit.165 Foucault prägt in diesem Zusammenhang den Ausdruck „Diskurs-‚Polizei‘ “ (frz. „ ,police‘ discursive“). Darunter versteht er Reglementierungen und Regulationen, um die Macht des Diskurses bzw. die Angst vor dessen Unkontrollierbarkeit zu beschränken. Foucault schreibt: „Welche Zivilisation hat denn, allem Anschein nach, mehr als die unsrige Respekt vor dem Diskurs gehabt? Wo hat man ihn besser geehrt und hochgehalten? Wo mann. Susanne: Die Kriminalität der Gesellschaft. Zur Gouvernementalität der Gegenwart, Konstanz 2003. 163  Honneth (1990), S. 11–32. 164  Foucault (1976), S. 131. 165  Exemplarisch Beccaria, S. 63–64: „Auslegung der Gesetze. (…) Bei jedem Verbrechen hat der Richter einen vollkommenen Syllogismus zu vollziehen: den Obersatz bildet das allgemeine Gesetz, den Untersatz die mit dem Gesetz übereinstimmende oder nicht übereinstimmende Handlung; die Schlussfolgerung muss in Freispruch oder Strafe bestehen. Zieht der Richter gezwungen oder freiwillig nur einen Schluss mehr, so wird der Ungewissheit Tür und Tor geöffnet. Es gibt nichts Gefährlicheres als eines verbreitete Axiom, dass man den Geist des Gesetzes zu Rate ziehen müsse. Das stellt einen Damm dar, der unter der Strömung bloßer Meinungen bricht.“

338

5. Kap.: Dialogische Prämissensuche

hat man ihn denn radikaler von seinen Einschränkungen befreit und ihn verallgemeinert? Nun, mir scheint, dass sich unter dieser offensichtlichen Verehrung des Diskurses, unter dieser offenkundigen Logophilie, eine Angst verbirgt. Es hat den Anschein, dass die Verbote, Schranken, Schwellen und Grenzen die Aufgabe haben, das große Wuchern des Diskurses zumindest teilweise zu bändigen, seinen Reichtum seiner größten Gefahren zu entkleiden und seine Unordnung so zu organisieren, dass das Unkontrollierbarste vermieden wird; es sieht so aus, als hätte man auch noch die Spuren seines Einbruchs in das Denken und in die Sprache verwischen wollen. Es herrscht zweifellos in unserer Gesellschaft – und wahrscheinlich auch in allen anderen, wenn auch dort anders profiliert und skandiert – eine tiefe Logophobie, eine stumme Angst vor jenen Ereignissen, vor jener Masse von Gesagtem.“166

Wenn Foucault hier vom „großen Wuchern des Diskurses“ spricht, dann gewinnt die Metaphorik vor dem Hintergrund der wuchernden Sozialen Netzwerke im Internet, das er nicht kannte, antizipatorische Ausdruckskraft. Wie kann in ein solches „wucherndes Etwas“, das Foucault metaphorisch „Diskurs“ nennt, Ordnung gebracht werden? Foucault ist davon überzeugt, dass das möglich ist. Allerdings sei – anstelle der hergebrachten exakten Logik, die mit termini technici operiere – einer anderen Logik der Vorrang einzuräumen, die aus vagen Taktiken und Strategien bestehe. Dies zeige sich erst, wenn man in der diskursiven Praxis, die er minutiös analysiert, neben den offiziellen Dokumenten und Zeugnissen die Masse bewusst nicht dokumentierter Ereignisse und Vorkommnisse hinzuziehe. Foucault entdeckt im Verlauf seiner Studien eine Art „Logik der Strategie“. „Abseits von diesen geheiligten Texten lässt sich eine völlig bewusste, organisierte, reflektierte Strategie aus einer Masse von unbekannten Dokumenten ganz klar ablesen, die den wirklichen Diskurs einer politischen Aktion darstellt. Die Logik des Unbewussten muss durch eine Logik der Strategie ersetzt werden. Anstelle der Bedeutung und der Verkettung ihrer Träger muss den Taktiken mit ihren Ordnungen und Gliederungen der Vorrang eingeräumt werden.“167

Die Logik der Strategie, die Foucault in der diskursiven Praxis am Werk sieht, deckt sich mit soziologischen Forschungsergebnissen und Beobachtungen zur dem Phänomen einer sog. „Mikro- bzw. Subpolitik“.168 Mithilfe seiner „diskursarchäologischen“ Methodologie unternimmt Foucault den Versuch, die Regeln des gesellschaftlichen Sprachspiels, also die Vor- und Verlaufsgeschichte von Begrifflichkeiten, wie sie an der Oberfläche des Diskurses zum Ausdruck kommen, zu entziffern. Gleichzeitig will er aber 166  Foucault

(1977), S. 34–35. nach Becker, Helmut (1981), S. 181. 168  Burns, S. 257–281; Mintzburg/McHugh, S. 160–197; Ortmann/Windeler/Becker/Schulz: Computer und Macht in Organisationen. Mikropolitische Analysen, Opladen 1990; Beck, Ulrich, S. 11–26. 167  Zitiert



VI. Ordnung des Diskurses339

auch ein neues, „diskursives“ Sprachverständnis169 begründen. Er will darauf aufmerksam machen, dass der Diskurs etwas beständig „Fließendes“ ist. Der Diskurs sperrt sich nach Überzeugung von Foucault gegen eine Fixierung. Die Reduktion der Sprache auf ein Steuerungsmedium, das starre, kontrollierte Ableitungen in Form logischer Schlussketten ermöglichen soll, sei der Sprache wesensfremd. Foucaults Sprachverständnis impliziert die Uneindeutigkeit und Vagheit von sprachlichen Zeichen, ja macht sie bewusst zur Voraussetzung. Eine rationale Argumentation auf einer solch vagen Grundlage hält Foucault nicht nur für möglich, sondern für real. Die überkommene gesellschaftliche Strategie zur Ordnung und Bändigung des entfesselten Diskurses hingegen, betrachtet er als buchstäblich un-logisch, da sie dem Wesen des logos, der Sprache, fremd und daher letztlich nicht mit Erfolg durchsetzbar ist. Wie die diskursive Praxis zeigt, lässt sich die normative Ordnung durch Taktiken und Strategien politisch unterlaufen bzw. geschmeidig „umfließen“. Foucault argumentiert daher für eine Art genealogischer Kritik, d. h. die Politisierung des Sprachgebrauchs. Nichts anderes meint er mit der Formulierung, „die Wörter, die wir sprechen, in Unruhe zu versetzen.“ Der Erkenntnis- und Wissenschaftstheoretiker Foucault ist daher nicht von dem Gesellschafts- und Machtkritiker Foucault zu trennen.170 Hier wird auch verständlich, was Foucault mit jenen „stummen Monumenten“ meint, die er durch einen Diskurs wiederbeleben bzw. sich selbst artikulieren lassen will. Es ist der Kontext der Texte und Dokumente, auf den jede Exegese und Interpretation zur Bedeutungskonstitution sprachlicher Zeichen ja zurückgreifen muss. Daraus folgt aber zwingend, dass eine ganzheitliche Analyse Text und Kontext zugleich analysieren muss.171 Das Etikett „Politisierung“ bzw. „Re-Politisierung“ bezeichnet Foucaults Denkansatz daher nur sehr unvollkommen. Es ist nicht mehr als eine Tendenz. Das politische Moment 169  Goodman (1997), S. 170, der die „natürliche Sprache“ als „diskursive Sprache“ in Absetzung zu anderen Symbolsystemen behandelt. 170  Foucault (1991), S. 73–74: „My work takes place between unfinished abutments and anticipatory strings of dots. I like to open up a space of research, try it out, and then if it doesn’t work, try again somewhere else. On many points – I am thinking especially on the relations between dialectics, genealogy and strategy – I am still working and don’t yet know whether I am going to get anywhere. What I say ought to be taken as ,propositions‘, ,game openings‘ where those who may be interested are invited to join in; they are not meant as dogmatic assertions that have to be taken or left en bloc. My books aren’t treatises in philosophy or studies of history: at most, they are philosophical fragments put to work in a historical field of problems.“ 171  Wyss (2009), S. 41: „Krux des Positivismus: (…) Eine empirische Wende kann nicht nur auf dokumentarische Spuren vertrauen; sie muss auch die Erzählungen kennen, die beim Spurenlegen die Hand leiten.“

340

5. Kap.: Dialogische Prämissensuche

in der Argumentation ist bei ihm durch eine geschichtliche Rückbindung172 beschränkt. Der Beitrag, den Foucault zu einer rationalen Argumentationstheorie, zu einer Theorie diskursiver Vernunft, mit seinen Arbeiten geleistet hat, geht weit darüber hinaus. Die diskursanalytische Konzeption Foucaults, die Analyse des Vor-Begrifflichen in seinen sozialen Bezügen, trifft sich hier mit den Überlegungen von Hans Blumenberg zu einer „Metaphorologie“, die dieser ursprünglich ausdrücklich im „Vorfeld der Begriffsbildung“173 angesiedelt hatte. Das Stadium der Metapher und des Vor-Begrifflichen betrifft indessen nicht eine Form von Begriffslosigkeit, sondern den status nascendi des kommenden Begriffs, den minutiösen Prozess des „BegriffsWerdens“, der selbst wiederum vielfältigen Taktiken und Strategien der Kommunikationsgemeinschaft innerhalb des jeweiligen Diskursuniversums unterliegt. Es hat viele Versuche gegeben, das „wuchernde Etwas“, den „Diskurs“ im Sinne Foucaults, inhaltlich genauer zu bestimmen. Manfred Frank erläutert Herkunft, Gebrauch und Beziehungsreichtum des Wortes so: „ ,Diskurs‘ leitet sich her vom lateinischen ,discursus‘. Das zugehörige Verb ,discurrere‘ meint ,hierhin und dorthin laufen‘ (courir ça et là). Ein discours ist ein Gespräch oder eine Rede von einer gewissen (unbestimmten) Ausdehnung, die nicht schon vorab durch eine zu rigide Intention in seiner Entfaltung und spontanen Entwicklung gehemmt sind. Wer einen ,discours‘ hält, gibt keine ,conférence‘. In vielen französischen Kontexten ist der Term eng benachbart solchen wie ,bavardage‘, ,palabre‘, ,conversation libre‘, ,causerie‘, ,improvisation‘, ,exposé‘, ,narration‘, ,pero raison‘, ,langage‘, ,parole‘.“174

Er weist darauf hin, dass „Diskurs“ im poststrukturalistischen Sinne weit entfernt ist von der Definition, die Jürgen Habermas dem Wort gegeben habe. Danach sollen ja Diskurse Veranstaltungen heißen, in denen Geltungsansprüche begründet werden.175 Foucault hingegen grenzt sich deutlich von 172  Lorenzen/Schwemmer

(1973), S. 148–160; Knobloch (1987), S. 55–70. (1993b), S. 77: „Als Erich Rothacker 1960 die ‚Paradigmen einer Metaphorologie‘‚ in sein ‚Archiv für Begriffsgeschichte‘ aufnahm, dachte er wie der Verfasser an eine subsidiäre Methodik für die gerade ausholende Begriffsgeschichte. Seither hat sich an der Funktion der Metaphorologie nichts, an ihrer Referenz einiges geändert; vor allem dadurch, dass Metaphorik nur als schmaler Spezialfall von Unbegrifflichkeit zu nehmen ist. Nicht mehr vorzugsweise als Leitsphäre abtastender theoretischer Konzeptionen, als Vorfeld der Begriffsbildung, als Behelf in der noch nicht konsolidierten Situation von Fachsprachen wird die Metaphorik gesehen, sondern als eine authentische Leistungsart der Erfassung von Zusammenhängen, die nicht auf den engen Kern der ‚absoluten Metapher‘ einzugrenzen ist.“ 174  Frank (1993c), S. 408–409. 175  Kritisch dazu Bayer, S. 209: „Doch erlägen wir einer Fiktion enthusiastischer Moralität, wenn wir wie Habermas postuliert, ,im Vollzug der Sprechakte kontrafak173  Blumenberg



VI. Ordnung des Diskurses341

Reglementierungen dieser Art ab. Foucault vertritt auf der Grundlage minutiöser historischer Studien gerade die Gegenthese: Er spricht von „Mikromacht“ bzw. „Mikrophysik der Macht“176 und weist nach, dass jede Diskurssituation unausweichlich von unterschiedlichen und ungleichgewichtigen Machtverhältnissen geprägt ist.177 Konzediert man dieses, dann hat die Theorie des „Diskurses“, die Foucault entwirft, den Vorzug größerer analytischer Schärfe und Realitätsnähe. Nach Manfred Frank ist „Diskurs“ im Foucaultschen Sinne zu verorten „in einer vagen Mitte zwischen normiertem Sprachsystem und bloß individueller Sprachverwendung“.178 Der Diskurs über den „Diskurs“ ist inzwischen weit verzweigt. Autoren referieren regelmäßig wechselnde Verwendungsweisen des Wortes durch andere Autoren, wieder andere entwickeln neue Varianten und so fort.179 Zu diesen vielfältigen polysemischen Verzweigungen im Diskursuniversum des „Diskurses“ passen die Feststellungen Wolfgang Welschs zur Metaphorik von Rationalität. Ihm ist aufgefallen, dass das Denken früher mithilfe territorialer Metaphern als abgrenzbare „Bereiche“, „Regionen“, „Felder“ dargestellt wurde. Heute zerlege man Rationalität nicht mehr in eindeutig separierbare Bereiche. Es gebe vielmehr eine „widerspruchsvolle Gemenge- und Geschiebelage“ im Diskurs, insgesamt ein recht „ ‚unordentliches‘ Design der rationalen Welt“: „Unterschiedliche Rationalitäten überlagern und kreuzen sich, ergänzen oder bestreiten einander, gehen durcheinander, ohne sich noch einmal zu einer Gesamttisch so tun, als sei die ideale Sprechsituation nicht bloß fiktiv, sondern wirklich‘ “. – Ferner Winkler, S. 825, wonach Jürgen Habermas als „Diskursoptimist“ argumentiert. 176  Foucault (1976a), S. 32–33: „Jedermann kennt die großen institutionellen Umwälzungen, die zu der Veränderung der Delegierung von Macht an der Spitze des Staates und damit zum politischen Systemwechsel geführt haben. Aber wenn ich von Mechanik der Macht spreche, denke ich an die feinsten Verzweigungen der Macht bis dorthin, wo sie an die Individuen rührt, ihre Körper ergreift, in ihre Gesten, ihre Einstellungen, ihre Diskurse, ihr Lernen, ihr alltägliches Leben eindringt.“ 177  Foucault (1978), S. 83–109; Foucault (1986), S. 103–110. – Dazu Fink-Eitel (1980),  S. 38–78; Plumpe/Kammler, S. 185–218; Frank (1984), insb. 7. und 11. Vorlesung. 178  Frank (1993c), S. 409. 179  Kremer-Marinetti (1974), S. 47–83; Bialas, S. 122–134; Stehr/Meja (Hrsg.), Wissenssoziologie, Opladen 1981; Lottes, S. 27 45; Löhrer, S. 293–310; Fink-Eitel, S. 63 ff. – Zur aktuellen diskursorientierten Forschung Bering, S. 602: „In jüngster Zeit ist auch mit deutlichen Erfolgen um eine Systematik bei der Analyse der zugrundegelegten Quellen gerungen worden. Sie sind in der Kategorie ‚frame‘ (‚Rahmen‘) zentriert. In ihm ist das ganze ‚Evokationspotential‘ anders: die gesamten ‚Potentiale für erwartbare [!] Assoziationen‘ des Begriffs angesiedelt. Das geht über die alte reduktionistisch gefasste ‚Bedeutung‘ hinaus. Diskurse bestehen also ‚aus einer Menge an Frames mit kommunikativ prästabilisierten Standardwerten‘.“

342

5. Kap.: Dialogische Prämissensuche

Abbildung 24: Rhizom nach G. Deleuze / F. G. Guattari (Berlin 1977, S. 2)



VI. Ordnung des Diskurses343 ordnung zu fügen. Dieses ‚unordentliche‘ Design der rationalen Welt ist die unabweisbare Konsequenz der Pluralisierungsprozesse. Die herkömmlichen Suggestionen räumlicher Einteilung passen nicht mehr auf die Struktur heutiger Rationalität. (…) Entsprechend hat sich auch das rationalitätseinschlägige Metaphernfeld verschoben: von territorialen Metaphern zu solchen des Gewebes, des Netzes, des Rhizoms.“180

Man hat daher nicht zu Unrecht den „Diskurs“ im Sinne Foucaults mit einem wild wuchernden, verzweigten Wurzelstock verglichen, wofür man in der Sprache der Botanik den Ausdruck „Rhizom“ kennt.181 Foucault selbst hat immer wieder versucht, den zentralen Begriff des „Diskurses“ näher zu umreißen, zu konturieren, konkreter zu fassen. Entsprechend seiner Grundüberzeugung aber bleibt der Ausdruck polysem und bis zuletzt unbestimmt: „Hinsichtlich des Terminus Diskurs, den wir hier mit verschiedenen Bedeutungen benutzt und abgenutzt haben, kann man jetzt den Grund seiner Uneindeutigkeit verstehen: auf die allgemeinste und unentschiedenste Weise bezeichnete er eine Menge von sprachlichen Performanzen. Wir verstanden unter Diskurs einmal, was (eventuell sogar alles, was) an Zeichenmengen produziert worden war. Aber wir verstanden darunter auch eine Menge von Formulierungsakten, eine Folge von Sätzen und Propositionen. Schließlich – und diese Bedeutung hat schließlich überwogen (zusammen mit der ersten, die ihr als Horizont dient) – wird der Diskurs durch eine Menge von Zeichenfolgen konstituiert, insoweit sie Aussagen sind, das heißt insoweit ihnen besondere Existenzmodalitäten zuweisen kann.“182

Diese Passage ist symptomatisch für Foucaults experimentellen Denkund Schreibstil. Eine ableitbare, „operationalisierbare“ Begriffsbestimmung des „Diskurses“ ist damit noch nicht gegeben. Dessen ist sich Foucault sehr bewusst. Gleichzeitig hält er eine noch nähere Eingrenzung für möglich. Er sucht nach weiteren Möglichkeiten der Bestimmbarkeit, hält damit aber auch den Diskurs offen, diskursiv anschlussfähig und möglicher Kritik unterworfen. Einschränkend und höchst vorbehaltlich erklärt er: Eine noch pointiertere Begriffsbestimmung könne gelingen, wenn es gelänge, sog. „diskursive Formationen“ aus dem (Gesamt-)Diskurs herauszupräparieren, denen man die Qualität von zusammenhängenden „Aussagen“ (bestehend aus Wörtern, Sätzen und Propositionen) zuweisen könne. Dann könne man den „Diskurs“ begreifen als eine „Menge von Aussagen, die einem gleichen Formationssystem zugehören“.183 So könne man dann vom „klinischen Dis180  Welsch,

W. (1996) a. a. O., S. 942–943. Rhizom, Berlin 1977; Eco (1986), S. 64–65, der den Kriminalroman mit einem „Rhizom“ vergleicht, einem Labyrinth von Vermutungen. 182  Foucault (1994), S. 156. 183  Foucault (1994), S. 156. 181  Deleuze/Guattari:

344

5. Kap.: Dialogische Prämissensuche

kurs“, vom „ökonomischen Diskurs“, vom „Diskurs der Naturgeschichte“ und zum Beispiel vom „psychiatrischen Diskurs“ sprechen. Die vage Umschreibung des Diskurses wird besser verständlich im Licht der von Foucault entwickelten methodologischen Überlegungen zur Analyse desselben. Foucault spricht von „Diskursarchäologie“184 und verbindet damit ein Verfahren zur minutiösen Erforschung von diskursiven Formationen.185 Foucault versucht mit dieser Art der archäologischen Beschreibung nicht eine historische Phänomenologie zu begründen, sondern gerade die Geschichtswissenschaft aus der, wie er sagt, „phänomenologischen Umarmung“ zu befreien.186 Nicht nur Dokumente, Texte im engeren Sinne also, möchte er analysieren, sondern ebenso „Spuren“, Gegenstände jeglicher Art, buchstäblich sprachlose Monumente: „Es gab eine Zeit, in der die Archäologie als Disziplin der stummen Monumente, der bewegungslosen Spuren, der kontextlosen Gegenstände und der von der Vergangenheit hinterlassenen Dinge nur durch die Wiederherstellung eines historischen Diskurses zur Geschichte tendierte und Sinn erhielt; man könnte, wenn man etwas mit den Worten spielte, sagen, dass die Geschichte heutzutage zur Archäologie tendiert – zur immanenten Beschreibung des Monuments.“187

Foucault spielt hier „etwas mit den Worten“, wie er sagt. An anderer Stelle spricht er sogar vom „feierlichen Spiel“ der Namenstaufe, als er den Ausdruck „Archäologie“ für sein diskursanalytisches Verfahren gewählt hat: „Man kann jetzt das Vorgehen umkehren; man kann talwärts schreiten und, wenn das Gebiet der diskursiven Formationen und der Aussagen durchlaufen, ihre allgemeine Theorie einmal skizziert ist, hin zu den möglichen Anwendungsgebieten gelangen. Einmal hinschauen, wozu diese Analyse verwendet werden kann, die ich in einem vielleicht etwas feierlichen Spiel ,Archäologie‘ getauft habe. Man muss es sogar tun: denn um offen zu sein, die Dinge sind im Augenblick ziemlich beunruhigend.“188

Sehr weit geht er damit über die Historische Semantik und Begriffsgeschichte hinaus. Ihn interessiert der chronologische Werdegang einzelner 184  Foucault, Michel: Archäologie des Wissens, 6. Aufl., Frankfurt a. M. 1994; Foucault, Michel: Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften, 13. Aufl., Frankfurt a. M. 1995. 185  Zu neueren medientheoretisch bzw. „soziosemiotisch“ fundierten Ansätzen einer „Kritischen Diskursanalyse“ Jäger, Siegfried: Kritische Diskursanalyse. Eine Einführung, 3. Aufl., Duisburg 2001; Reisigl, S. 43–78. 186  Foucault (1994), S. 289–290: „Die Archäologie als eine Suche nach dem Ursprung, nach formalen Apriori, Gründungsakten, kurz als eine Art historischer Phänomenologie zu behandeln (während es sich für sie dagegen darum handelt, die Geschichte aus der phänomenologischen Umarmung zu befreien).“ 187  Foucault (1994), S. 15. 188  Foucault (1994), S. 193.



VI. Ordnung des Diskurses345

Wörter, Begriffe und Theorien, erst in zweiter Hinsicht. Seine Aufmerksamkeit gilt primär den „Regeln“, wonach jene Wörter, Begriffe, Theorien ihren jeweiligen semantischen Gehalt in einer spezifischen Situation erhalten.189 Für Foucault markiert der linguistic turn – darin besteht die Pointe – nur einen Zwischenschritt: Er setzt linguistische und semiotische Forschungsergebnisse voraus, verliert sich aber nicht in abstrakten sprachtheoretischen Überlegungen, sondern gelangt über sein Diskurs-Konzept zur realen Handlungsmacht der diskursiven Praxis zurück, erblickt, erforscht und beurteilt die Realität also stets sprachvermittelt, d. h. diskursiv konstituiert, ohne diese allerdings – auch nicht den Diskurs – mit sprachlichen Texten zu identifizieren. Was er zu beschreiben sucht, ist die „ ,vorbegriffliche‘ Ebene“ bzw. das „Vorbegriffliche“.190 Foucault ist davon überzeugt, dass solche „Regeln“ des Diskurses, was man den diskursiven Prozess des Einspielens einer gesellschaftlichen Überzeugung (Common Sense) nennen könnte, existieren. Dieser Weg, der keineswegs linear, sondern spielerisch und diskontinuierlich verläuft, zu jenem eingespielten Allgemeinsinn, der schon in der Topik eine Schlüsselstellung einnahm und der letztlich einen Ausdruck findet in definiten Begrifflichkeiten. Dieses diskursive Vorfeld des Begriffs stelle sich, so Foucault, dar wie ein komplexes Beziehungsgeflecht. Es gelte, ebensolche „Beziehungen“ zu identifizieren: Beziehungen zwischen der allgemeinen Grammatik und der Mathematik (dem Idealtypus einer allgemeinen Ordnungswissenschaft) zum Beispiel, der Theorie der Zeichen und dem Paradigma der Repräsentation, schließlich zwischen Taxonomien von Naturphänomenen und arbiträren Zeichen von Maß und Tausch. Wenn es gelänge, solche Beziehungen zu finden, so könne kann man den Weg der Übertragung, Modifikation und Zirkulation von Begriffen bestimmen und – den Wechsel von einem Anwendungsgebiet zu einem anderen. Foucault formuliert: „Die ,vor-begriffliche‘ Ebene (…) verweist nicht auf einen Horizont der Idealität oder auf eine empirische Genese der Abstraktionen. (…) Die Organisation einer Menge von Regeln in der Praxis des Diskurses, auch wenn sie kein ebenso leicht einzuordnendes Ereignis wie eine Formulierung oder eine Entdeckung darstellt, kann doch im Element der Geschichte determiniert werden; und wenn diese Menge von Regeln unausschöpfbar ist, legt das vollkommen beschreibbare System, das sie bildet, Rechenschaft ab von einem sehr beachtlichen Spiel von Begriffen und einer sehr bedeutenden Anzahl von Transformationen, die gleichzeitig diese Begriffe und ihre Beziehungen betreffen. Das so beschriebene ,Vorbegriffliche‘ ist, statt einen Horizont zu zeichnen, der aus der Tiefe der Geschichte käme und sich durch sie hindurch aufrecht erhielte, im Gegenteil auf der ,oberflächlichsten‘ 189  Foucault 190  Foucault

(1995), S. 14–15. (1994), S. 90.

346

5. Kap.: Dialogische Prämissensuche

Ebene (auf der Ebene der Diskurse) die Menge der Regeln, die darin effektiv angewandt werden.“191

Wieder spricht Foucault von einem „sehr beachtlichen Spiel von Begriffen“, dass es zu verstehen gelte. Er betont, dass es sich bei dieser Form der Analyse nicht um Bewusstseinsanalyse oder die Ermittlung von Mentalitäten handele. Vielmehr hätten die „Formationsregeln“ von Begrifflichkeiten ihren Platz „im Diskurs selbst“. Im jeweiligen diskursiven (Vor-)Feld entwickelten sich solche Regeln als eine Art uniformer Anonymität aller am Diskurs beteiligten Individuen. Die Formationsregeln der Begriffe ergäben sich weder aus historischen Notwendigkeiten, noch aus kollektiven Gewohnheiten oder völlig rätselhaften Zufällen. Das „vorbegriffliche Feld“ lasse stattdessen Regelmäßigkeiten und diskursive Zwänge erkennen, aus denen sich die heterogene Multiplizität der Begriffe herleite. Um die Formationsregeln der Gegenstände zu analysieren, dürfe man nicht „in den Dingen“ selbst oder nur „auf das Gebiet der Wörter“ suchen, sondern in dem „Zwischenraum der Beziehungen“.192 Das Beziehungsgeflecht, jenes Gewebe des Textes, verfüge quasi über ein interaktionistisches und dialogisches Vorfeld. An anderer Stelle spricht Foucault auch vom „Prädiskursiven“. Dieser „prädiskursive“ Bereich sei ebenfalls Teil des Diskurses und innerhalb der diskursiven Praxis für den Verlauf des Diskurses und die jeweilige Referenzfixierung in einem bestimmten Kontext bestimmend. „Diskursive Praxis“ meint demzufolge nach Foucault eine Art Sprachspiel, das trotz vordergründig chaotisch wirkender Ungezügeltheit, unbeschadet wilder Wucherungen und semantischer Umdeutungsund Transformationsprozesse, eine innere Regelmäßigkeit aufweist. Selbst vor dem eigentlichen Spiel – das ist das Prädiskursive – sind multiple Beziehungen, Taktiken und Strategien, der Spieler untereinander zu beobachten, schreibt er: „Hinter dem abgeschlossenen System entdeckt die Analyse der Formationen nicht das schäumende Leben selbst, nicht das noch nicht eingefangene Leben; sondern es ist eine immense Mächtigkeit von Systematizitäten, eine gedrängte Menge multipler Beziehungen. Und obendrein sind diese Beziehungen nicht umsonst das Gewebe des Textes selbst. Sie sind nicht von Natur aus dem Diskurs fremd. Man kann sie als ,prädiskursive‘ qualifizieren, unter der Bedingung jedoch, dass man zugibt, dass dieses Prädiskursive noch zum Diskursiven gehört, das heißt dass sie nicht einen Gedanken spezifizieren oder ein Bewusstsein oder eine Menge von Repräsentationen, die letztlich und auf nie ganz notwendige Weise in einen Diskurs umgeschrieben würden, sondern dass sie bestimmte Ebenen des Diskurses charakterisieren, dass sie Regeln definieren, die er als singuläre Praxis aktualisiert. Man sucht also nicht danach, vom Text zum Denken, vom Geschwätz zum 191  Foucault 192  Foucault

(1994), S. 91. (1994), S. 92.



VI. Ordnung des Diskurses347 Schweigen, vom Äußeren zum Inneren, von der oberflächlichen Vielfalt zur tiefen Einheit überzugehen. Man bleibt in der Dimension des Diskurses.“193

Nach Foucault besteht daher die Notwendigkeit, von den Begriffen bis zu den Wörtern in das „vorbegriffliche Feld“ zurückzuschreiten, „und darüber hinaus bis zu einem Denken, dessen Lebendigkeit noch nicht im Netz der Grammatiken verfangen ist.“194 Die intensive Beschäftigung mit der Sprache, die Erneuerung aller Techniken der Exegese in der beginnenden Moderne im 19. Jahrhundert, erscheint ihm als ein Schritt in die richtige Richtung, gehe es doch darum, „die Wörter, die wir sprechen, in Unruhe zu versetzen und jene grammatische Faltung unserer Vorstellung zu denunzieren, die Mythen aufzulösen, die unsere Wörter beleben, den Teil des Schweigens erneut hörbar und laut zu machen, den jeder Diskurs mit sich trägt, wenn er ausgesagt wird.“195

Unter dem Eindruck der Macht versteinerter Denksysteme und des bizarren Binarismus des mechanistischen Kontrolldenkens und seiner sozialen Folgen, erscheint ihm dieses notwendig. Er empfiehlt, sich um der „Wahrheit des Diskurses“ willen ein in der beschriebenen Weise dynamisiertes (diskursives) Sprachverständnis zu Eigen zu machen. Dieser „Wahrheit des Diskurses“ werde durch die überkommenen Begriffssysteme und „von der Philologie eine Falle gestellt“. Diskurs-Kontrolle bzw. „Diskurs-,Polizei‘ “ im Wege der Begriffs-Logik führe notwendig zu einem Verlust an Authentizität und Realität: „Der Diskurs verliert so seine Realität, indem er sich der Ordnung des Signifikanten unterwirft.“196

Foucault betont daher die Notwendigkeit einer „Metaphernbildung“. Jedes Begriffsystem aber, das Metaphern ausschließe, verhindere auch eine Möglichkeit der sprachlichen Weltaneignung. „Metaphernbildung bedeute“, führt Foucault aus: „sich die Welt anzueignen, gleichsam als bestehe die Metapher zwischen dem schreibenden Subjekt und der Welt – während die Metapher eine innere Struktur der Sprache darstellt.“197

193  Foucault

(1994), S. 111–112. (1995), S. 364. 195  Foucault (1995), S. 364. 196  Foucault (1977), S. 35. 197  Zitiert nach Taureck (1997), S. 80. 194  Foucault

348

5. Kap.: Dialogische Prämissensuche

VII. Dekonstruktion und „différance“ Genausowenig wie bei Foucault findet sich auch bei Jacques Derrida eine ausgearbeitete Rechtstheorie.198 Dennoch bezieht Derrida an verschiedenen Stellen Stellung zur Logik und Methodik der Rechtswissenschaft bzw. Fragen der juristischen Grundlagenforschung. In einer Auseinandersetzung mit dem Text Zur Kritik der Gewalt von Walter Benjamin macht Derrida deutlich, dass die Semiose, der Zeichenprozess, der im Zuge unzähliger Sprechakte zu einem beständigen Bedeutungswandel führt, selbst das Ergebnis vielfältiger „Gewalt-Akte“ im Sinne einer perfomativen Kraft ist. Der Diskurs sei durchsetzt mit Gewalt in Form von kommunikativen, d. h. sprachförmigen Handlungen: „Es geht mir um die Beziehung zwischen der Kraft (Gewalt) und der Form, der Kraft (Gewalt) und der Bedeutung; es geht mir um die ‚performative‘ Kraft (Gewalt), die illokutionäre oder perlokutionäre Kraft (Gewalt), um die persuasive und rhetorische Kraft (Gewalt), um die Kraft (Gewalt) der Bejahung und Behauptung einer Signatur, aber auch vor allem um all jene paradoxen Situationen, in denen die größte Kraft (Gewalt) und die größte Schwäche sich seltsam kreuzen und in einem denkwürdigen gegenseitigen Austausch stehen. Darum geht es. Das ist die ganze Geschichte.“199

Es ist das „Performative“200, was Derrida interessiert, jene Produktivkraft der Rede, die letztlich Realität konstituiert – geeignet, Unverdächtige zu Verdächtigen zu machen und, im Wege der ungeschlachten Macht der Massenmedien, Verdächtige zu Vor-Verurteilten. Das ist keineswegs eine praxisferne Position eines etwas weltabgewandt arbeitenden Philosophen, die Derrida hier einnimmt. Neuere Veröffentlichungen von Strafverteidigern zur sog. „strategischen Rechtskommunikation“ (engl. litigation) zeigen, wie praxisrelevant die Feststellungen zur performativen Gewalt der Sprache sind. Um die öffentliche Vorverurteilung von Mandanten zu vermeiden, fordern Strafverteidiger mehr Sensibilität im Umgang mit prozessrelevanten Informationen. Uwe Wolff macht klar, welchen Stellenwert prozessbegleitende Öffentlichkeitsarbeit (sog. „Litigation-PR“) in Strafverfahren inzwischen hat: „Wenn wir wirklich erreichen wollen, dass Staatsanwälte angesichts eines großen Medieninteresses nicht über die Stränge schlagen, müssen ihnen in Zukunft Grenzen gesetzt werden können, die jenseits der StPO liegen. Den übereifrigen Staatsanwälten muss klar gemacht werden, das sich die Beschuldigten und deren Anwälte eine ungehemmte Informationspolitik so nicht bieten lassen und eine eigene 198  Boyne,

Roy: Foucault and Derrida. The other side of reason, London 1994. (1996), S. 15. 200  Wirth, Uwe (Hrsg.), Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften, Frankfurt a. M. 2002. 199  Derrida



VII. Dekonstruktion und „différance“349 Informationsinitiative ergreifen könen, welche durchaus zum Schaden des übereifrigen Staatsanwalts gereichen könnte (…) Litigation-PR, also strategische Rechtskommunikation, ist in Europa, zumindest Kontinentaleuropa noch eine sehr junge Kommunikationsdisziplin. Allerdings wächst das Bewusstsein bei den Anwälten, dass eine fallbezogene Rechtskommunikation in Zukunft durchaus zum Instrumentatrium dazugehören wird. (…) Es muss in diesem Zusammenhang auch gefragt werden, ob man angesichts der medialisierten Gesellschaft der Rechtskommunikation nicht eine besondere Stellung einräumen sollte, so wie wohl auch allen anderen Teilen eines wachsenden litigation support systems. Vor allem müssen wir darüber diskutieren, inwiefern sich die professionellen Rechtskommunikatoren einem Ethik-Kodex unterwerfen, in dem das Wohl des Mandanten an vorderster Stelle festgeschrieben wird.“201

Sehr deutlich hat Anselm Haverkamp die Wirkungsweise subtiler sprachlicher „Gewalt-Akte“ im justiziellen Kontext gesehen. Jeder Rechtsstreit „falte“, so drückt er sich aus, gewissermaßen „die Gewalt eines Konflikts in die Sprache“. Die direkte physische Auseinandersetzung werde suspendiert und in eine sprachliche Auseinandersetzung überführt. In einem zweiten Schritt werde dann die Gewalt zur Entscheidung des Konflikts den Parteien genommen und dem Richter als neutralem Dritten übertragen. Aber trotz dieser doppelten Faltung bleibe die ursprüngliche Gewalt des Konflikts im Innern der Sprache enthalten. Wenn der Richter aus den Akten und dem Gesamteindruck der mündlichen Verhandlung den Sachverhalt herausfiltere, den er im Urteil zugrunde legen wolle, ersetze er nicht die subjektive Sicht der Beteiligten durch die objektive Wahrheit. Er entscheide vielmehr zwischen verschiedenen Erzählungen. Die Auslegung des Gesetzes sei kein unschuldiger Vorgang, der im Wege der Erkenntnis die reine Bedeutung an die Stelle der Zeichenkette setze. Die Auslegung setze vielmehr eine Zeichenkette an die Stelle einer anderen und müsse genau wie die Sachverhaltserzählung zwischen divergierenden Möglichkeiten entscheiden. Allein die Faltung in die Sprache nehme der richterlichen Entscheidung daher nicht das Moment von Gewalt.202 Doch zurück zu Walter Benjamin – seinem Schlüsseltext über die Gewalt, den Derrida, wie es seine Eigenart ist, intensiv analysiert. Er sucht nach winzigen verborgenen Botschaften, eingeschlossenen Inhalten, Anspielungen zwischen den Zeilen, Andeutungen und kontextuelle Verweisungen im Text. Sein Verfahren der in dieser Weise intensivierten Interpretation nennt er „Dekonstruktion“. Thomas-Michael Seibert beschreibt diesen eigenwilli201  Wolff, Uwe, S. 127. Siehe ferner Neuling, Christian-Alexander: Inquisition durch Information: Medienöffentliche Strafrechtspflege im nichtöffentlichen Ermittlungsverfahren, Berlin 2005. 202  Haverkamp, Anselm (Hrsg.) Gewalt und Gerechtigkeit Derrida – Benjamin, Frankfurt a. M. 1994.

350

5. Kap.: Dialogische Prämissensuche

gen Stil einer translinguistischen Dekomposition bzw. Demontage von Texten so: „Markenzeichen für Derrida-Dekonstruktionen sind lange Textlektüren, die das Augenmerk auf sprachliche Feinheiten richten, Worte, Wortklänge, Assoziationen, die der schlichte Leser nicht entdecken wird, mit denen aber dem gelesenen Text etwas neues ‚aufgepfropft‘ werden kann.“203

Es ist nicht leicht zu verstehen, was Derrida mit „Dekonstruktion“ meint: Manfred Frank ist der Auffassung, dass es ihm darum gehe, „klassische(r) Gegensatzpaare wie Ausdruck und Bedeutung, Oberflächen- und Tiefenstruktur, Innerlichkeit und Äußerlichkeit, Wunsch und Vorstellung im ,Diskurs‘ der abendländischen und besonders der neuzeitlichen Philosophie“ zu hinterfragen.“204 Uwe Wirth versteht das Verfahren der „Dekonstruktion“ als „analytische Zerlegung“. Der „interpretativen Aufpfropfung“ komme die Funktion zu, den „Wechsel des Deutungsrahmens“ zu initiieren. Zugleich etablierten solche interpretativen Aufpfropfungen „jenen symbolischen Rahmen, in dem die Interferenz von motivierten Spuren und ,unmotiviert-werdenden‘ Spuren zur Darstellung kommt.“205 Wie auch immer, Derrida will im Wege der Dekonstruktion offenbar feste Termini und dogmatische Konstrukte in gewisser Weise wiederbeleben – sie durch „Aufpfropfung“ nach Art der Kunst der Baumveredelung in der Botanik erneut in den Diskurs einführen und im veränderten Kontext zur Diskussion stellen. Mit „dekonstruktivem Fragen“ bzw. „Dekonstruktivismus“, wie sein Verfahren auch bezeichnet wird, meint Derrida eine Art der diskursiven Deutungsverzögerung, so etwas wie eine „Zwischen-Lektüre“, die er gewissermaßen zwischen die Dichotomien schiebt. Das keineswegs geläufige Verfahren umschreibt er auch mit dem Kunstwort „différance“ (etwa „Differänz“ aus frz. „Aufschiebung“ und „Unterscheidung“). Die différance, schreibt er, sei eine „aufgeschobene-verzögerte-abweichende-aufschiebende-sich-unterscheidende Kraft oder Gewalt [force différé-différante] (…) die différance verschiebt, verlagert, verlegt diese oppositionelle Logik“.206 Der in dieser Weise „dekonstruierte“ Text Zur Kritik der Gewalt von Walter Benjamin erhellt nach Derrida Zusammenhänge über die Gewalt in und durch die Sprache, die in dieser Deutlichkeit an keiner anderen Stelle beschrieben seien. Derrida betrachtet den Text deshalb als Schlüsseltext der Moderne und führt dazu aus: 203  Seibert

(2006), S. 32. (1993a), S. 562. 205  Wirth, Uwe (2007, S. 79. 206  Derrida (1996), S. 15, 17; Derrida (1983), S. 44. – Ferner Derrida (1972), S. 422–442, S. 409–428); Derrida (1999), S. 171–195; Derrida, Jacques: Die différance. Ausgewählte Texte, Stuttgart 2004. 204  Frank



VII. Dekonstruktion und „différance“351 „Folgt man der tiefgreifenden Logik dieses Aufsatzes, die eine bestimmte Deutung der Sprache (des Ursprungs und der Erfahrung der Sprache) ansetzt, so fällt das Böse – eine tödliche Kraft – in die Sprache ein, und zwar durch die Repräsentation, durch eine re-präsentative, vermittelnde, technische, semiotische, informative, am Gebrauch ausgerichtete Dimension: die Kräfte dieser Dimension sind Kräfte, die die Sprache von ihrer ursprünglichen Bestimmung (von der Benennung, vom Beim-Namen-Rufen, von der Gabe oder dem Ruf der Anwesenheit im Namen) fortreißen, die sie zu Fall, die sie in große Ferne zu ihrer Bestimmung bringen oder gar außerhalb dieser Bestimmung in Verfall geraten lassen.“207

Benjamin habe damit bereits 1921 – so Derrida – die binäre Logik des Repräsentationsparadigmas als Gift in der Sprache identifiziert. Er selbst beurteilt das ähnlich und sieht darin ein Verhängnis. Die Logik des Entweder-Oder, die zu einer Vergewaltigung der Sprache führe, erscheint ihm selbst wie ein inquisitorisches Folterinstrument. Derrida wendet sich dabei ausdrücklich gegen das traditionelle verkürzte Verständnis der „Schrift“ als Ausdrucks- und Repräsentationsmittel der Sprache. Die geläufige (linguistische) Dichotomie signifiant / signifié und der damit zusammenhängende Zeichen-Begriff erscheinen ihm sprachzentriert („logozentristisch“) und damit letztlich unvertretbar reduktionistisch, weil noch nicht versprachlichte, vor-gelagerte (unmotivierte) Zeichen („Prä-senz“) auf diese Weise einer zeichentheoretischen Betrachtung entzogen würden. Derrida schreibt: „So sieht die Wahl aus, dies ist das ‚Entweder ….Oder‘, das ‚Ja oder Nein‘, von dem ich argwöhne, dass es dem Titel (Deconstruction and the Possibility of Justice, N. R.) innewohnt. Betrachtet man ihn aus solcher Sicht, trägt er eher gewaltsame, polemische, inquisitorische Züge. Man kann darin irgendein Folterinstrument vermuten und sich davor fürchten – ein Folterinstrument, also eine Art und Weise, Frage zu stellen, die nicht die angemessenste und auch nicht die gerechteste ist. Ich muss nicht eigens hervorheben, dass ich auf Fragen, die diese Gestalt annehmen (‚entweder … oder, ‚ja … nein‘), keine Antwort geben kann, die eine der beiden Parteien beruhigt oder eine der beiden Erwartungshaltungen ent­ gegenkommt.“208

Er spricht von „Quasi-Logik“, die an die Stelle der „ontologischen Logik der Anwesenheit“ eine „Logik der Abwesenheit und der Re-präsentation“ setze. In Anspielung auf die Metaphorizität der Sprache ruft er den Charakter der Muttersprache als „Namensprache“ in Erinnerung, „einer Sprache oder einer Poetik des Beim-Namen-Rufens, die sich der Sprache der Zeichen, der informativen oder kommunikativen Repräsentation widersetzt“.209 Verhängnisvoll nämlich wirke sich jene Ersatz-Logik auf das Erkennen des Tatsächlichen aus – Derrida spricht vom „gefährlichen Supplement“ und 207  Derrida

(1996), S. 61. (1996), S. 9. 209  Derrida (1996), S. 60, 63. 208  Derrida

352

5. Kap.: Dialogische Prämissensuche

Abbildung 25: Peircescher Zeichen-Begriff nach Susanne Rohr210

meint damit offensichtlich auch die Gefahr einer degenerierten Indexikalität.211 Dies führt er insbesondere im Hinblick auf die Rolle der Polizei aus: Das (sprachlich repräsentierte) Abwesende, das „Supplement“, bewirkt nach Derrida, dass dieses unbeschadet seiner reduktionistischen Natur als das Unmittelbare erfahren werde. Es bewirke ferner, dass das tatsächlich Abwesende – die „Wirklichkeit“ – im Modus der sprachlichen Abbildung beherrscht werden könne und auf diese Weise dem so Verfahrenden sogar Schutz biete vor der realen Erfahrung. Jetzt wird klar, was Derrida mit dem von ihm so genannten „dekonstruktiven Fragen“ meint. Er will offenbar die „oppositionelle Logik“ des Repräsentationsparadigmas destabilisieren, um Gegensätze wie etwa nomos / physis oder etwa „positives Recht / Naturrecht“, wie er sagt, „aus dem Gleichgewicht zu bringen und komplizierter zu gestalten“.212 Am klarsten hat nach unserem Verständnis Beat Wyss gesehen, worauf Derrida hinaus will. Derrida setze sich mit seiner Argumentation – so Wyss – bewusst ab von einer zweipoligen linguistisch induzierten Semiotik, wie sie seit Ferdinand de Saussure vorherrsche.213 Stattdessen neige er einem integralen dreigliedrigen Zeichen-Begriff – bestehend aus den Aspekten Ikon, Index und Symbol – im Anschluss an Charles Sanders Peirce zu. 210  Rohr,

S. 99. (1974), S. 342. 212  Derrida (1996), S. 17 f. – Dazu Balkin, S. 743–786. 213  Wyss (2009), S. 124: „Viele Semiotiker haben das nicht erkannt, wenn sie Symbol, Index und Ikon isoliert behandeln im Sinne von: Symbolisch sei der Buchstabe, indexikalisch die Fotografie und ikonisch die Malerei. Wer Peirce auf diese Weise fortschreibt, kommt im Bereich der visuellen Botschaften nicht weiter.“ 211  Derrida



VII. Dekonstruktion und „différance“353

Derrida hat mit seinem Denkansatz, seiner Dekonstruktion der Sprachzentrierung (Logozentrismus)214, einen fundamentalen Perspektivenwechsel im Sinn.215 Es handelt sich, wie Beat Wyss schreibt, um eine „kopernikanische Wende im Denken“ – zugleich, wie er hinzufügt, aus der Sicht des Mainstream um eine Art methodologisches „Scherbengericht“: „In seinem Scherbengericht lässt Derrida nur wenige Denker gelten; Hegel rechnet er immerhin halb dazu: er sei der letzte Philosoph des Buches und der erste Denker der Schrift. (…) So sieht sich Denken von vornherein vor Symbole gestellt, um daran die Arbeit des Begriffs in Gang zu setzen. Mit Hegels Symbolbegriff setzt die Dekonstruktion des logozentrischen Mythos vom Anfang ein. Es gelte, ‚die Spur vor dem Seienden zu denken‘. Dabei zitiert Derrida den Ahnvater Charles Peirce: ‚Symbols grow. (…) So it is only out of symbols that a new symbol can grow. Omne symbolo de symbolo.‘ Das Denken der Spur entspricht dem Prozess der unendlichen Semiose.“216

An dieser Stelle kommt die Rechtstheorie ins Spiel. Derrida ist sich vollständig bewusst, wie radikal und in gewisser Weise wie befremdend diese Art des „Präsenz-Denkens“, das sich der Kontextsensitivität im eigentlichen Sinne verschrieben hat, auf Vertreter der vorherrschenden Meinungsmacht, die dem „Repräsentations-Denken“ anhängen, wirken muss.217 In der Critical Legal Studies-Bewegung sieht er Ansätze für eine Neuorientierung der Rechtspraxis.218 Dort wo sich Literatur, Philosophie, Recht und die politisch-institutionellen Probleme kreuzten und wechselseitig bedingten, habe sich das gegenwärtig fruchtbarste Denken herausgebildet. Es handele sich aufgrund des wachsenden Problemdrucks um eine sehr notwendige Entwicklung. Es genüge aber nicht in rein spekulativen, theoretischen und akademischen Diskursen eingeschlossen zu bleiben, sondern man müsse auch den Anspruch erheben, die Dinge ändern zu wollen – eingreifen zu wollen auf eine Weise, die wirksam und verantwortlich sei. Einzugreifen nicht nur im beruflichen Bereich, sondern ebenfalls in dem, was man den bürgerlichen, städtischen Raum („cité“), die polis und noch allgemeiner die 214  Kritisch zum Konzept der „Dekonstruktion“, gleichzeitig aber am Gedanken der „unendlichen Semiose“ festhaltend Eco, Umberto: Zwischen Autor und Text und Überinterpretation, München 1996. 215  Eine gelungene Einführung bei Culler, Jonathan: Dekonstruktion. Derrida und die poststrukturalistische Literaturtheorie, Reinbek bei Hamburg 1988. 216  Wyss (2009), S. 210, 211–212. 217  Vonessen, S. 13: „Was jeder könnte, jeder sollte, aber in Wahrheit nur wenige wollen und kaum einer tut, heißt mit dem klaren, schönen, aber unendlich missbrauchten Wort – Denken. Die Leute denken nicht, sie rechnen nur immer, aber weil sie rechnen, ohne zu denken, verrechnen sie sich, und sie verrechnen sich vor allem mit den Erwartungen, die das Wichtigste und Größte betreffen: ihre Zukunft, ihr Leben, sie selbst.“ 218  Derrida nennt explizit die Autoren Stanley Fisch, Barbara Herrnstein-Smith, Drucilla Cornell, Sam Weber, siehe Derrida (1996), S. 18–19.

354

5. Kap.: Dialogische Prämissensuche

„Welt“ nenne. Es gehe dabei nicht um eine Veränderung im „naiven Sinne eines berechenbaren, beabsichtigten und strategisch kontrollierten Eingriffs“, sondern vielmehr um eine „Veränderung im Sinn einer maximalen Intensivierung der Verwandlungen“, die gerade geschähen. In einer hyper-technologisierten Industriegesellschaft gleiche der akademische Raum weniger denn je einem monadisch oder klösterlich umfriedeten Ort.219 Die Impulse der Critical Legal Studies-Bewegung haben den rechtstheoretischen Diskurs weltweit und vor allem auch in Deutschland bereichert.220 Günther Frankenberg notiert zum Echo der Critical Legal Studies im Schrifttum: „Die Zahl der den CLS & Post-CLS zuzuschreibenden AutorInnen und Veröffentlichungen hat sich in der letzten Dekade nachgerade explosiv entwickelt und lässt sich kaum noch bibliographisch erfassen.“221

Mehrheitlich jedoch wird eine solche grundsätzliche Kritik als praxisfern und systemgefährdend abgelehnt. Mit Klaus Lüderssen gilt es mit Nachdruck darauf aufmerksam zu machen, dass „Dekonstruktivismus“ auf eine „Radikalität im Denken“ zielt. Es geht dabei um ein gedankliches „Vorschaltverfahren“, das zu angemessenem und kontextsensitivem Sprachhandeln und entsprechend sozialadäquatem Entscheiden anleiten soll. Völlig missverstanden, ja missbraucht würde Derrida, wollte man den Denkansatz der Dekonstruktion als geistigen Ansporn und Legitimation verstehen für eine rechtliche und gesellschaftliche Totalkritik. Dem dialogisch fundierten Ansatz der Deutungsverzögerung („différance“), der sich noch zudem auf Umsicht, Bedächtigkeit und einen minutiösen Gewaltbegriff beruft, liegt – richtig verstanden – eine derartige maschinenstürmerische Missdeutung von selbstradikalisierten Weltverbesserern und Wirrköpfen absolut fern. Indessen, lehrt die Praxis, wie auch Lüderssen einräumen muss, bisweilen auch das Gegenteil.222 Worum es Derrida aber offensichtlich geht, ist eine Wende im Denken als Antwort auf die Verwandlung der Welt in einen Cyberspace.223 Die Allgegenwart von Control-Architekturen in nicht allzu ferner 219  Derrida

(1996), S. 19. Critical Legal Thought: American-German debate, BadenBaden 1989; Janikowski/Milovanovic (Hrsg.) Legality and Illegality. Semiotics, Postmodernism and Law, Frankfurt a.  M. 1995; Christensen/Sokolowski (1999), S. 13–25. 221  Frankenberg (2006), S. 102. 222  Lüderssen (2002b), S. 52: „Es ist nun vielleicht sehr bezeichnend, dass der traditionelle Jurist es von vornherein ablehnt, sich in diese Gefilde zu begeben. Denn für ihn ist nur so lange eine Rechtsordnung gegeben, wie es Regeln gibt. Die Regel aber setzt voraus, dass die juristische Beurteilung einen Fall nicht in seiner unwiederholbaren und unvergleichlichen Einzigartigkeit, sondern nur in bestimmten Hinsichten erfasst.“ 223  Lessig, S. 20: „Avatar space is ‚regulated‘, though the regulation is special. In Avatar space regulation came through code. The rules in Avatar space are imposed, 220  Joerges/Trubek:



VIII. Sprachpragmatik und Sprachspiel 355

Zukunft scheint uns das zu sein, was Derrida mit den „Verwandlungen“ meint. Man kann in seiner Aufforderung zum „dekonstruktiven Fragen“ daher eine Art kulturwissenschaftlicher Ansatz sehen, der aus einem tieferen Verständnis der Meta-Institution Sprache eine Strategie des kulturellen und zivilisatorischen Selbstschutzes, d. h. des Schutzes von sozialen, politischen und rechtlichen Institutionen, ableitet. Die stürmische gesellschaftliche Entwicklung erfordert neues Denken, nicht nur Nachdenken, sondern in einem bestimmten Sinne „Vordenken“ im Sinne eines Voraus-Denkens. Dies gilt in besonderem Maße auch für Sicherheitskreise, wo man im Wust der Daten zu ersticken droht. Das Zeitalter der Kontrolle – so die implizite „poststrukturalistische“ These224 – neigt sich dem Ende zu.

VIII. Sprachpragmatik und Sprachspiel In einem Überblick zur Theorieentwicklung erinnert Karl-Otto Apel an die Versuche, die schon vor Jahrzehnten begonnen hätten, eine Sprach„Pragmatik“ in Ergänzung zur Syntaktik und Semantik der Sprache zu formulieren. Insbesondere Charles Morris und Rudolf Carnap hätten eine solche „Pragmatik“ postuliert, um den praktischen Sprachgebrauch, die Zeicheninterpretation und die Wirkung von Zeichen in der Sprachpraxis angemessen thematisieren zu können. Morris habe dabei schon früh in der Nachfolge der von Charles S. Peirce begründeten „pragmatistischen Semiotik“ an eine universalsemiotische Integration aller drei Disziplinen gedacht. Die Durchführung des Programms habe sich Morris freilich, wie später auch Carnap, vorgestellt im Sinne eines „triadischen Parallelismus von ‚formaler‘ und ‚empirischer‘ Syntaktik, Semantik und Pragmatik“.225 not through sanctions, and not by the state, but by the very architecture of the particular space. A law is defined, not through a statute, but through the code that governs the space. This is the second theme of this book: there is regulation of behavior in cyberspace, but that regulation is imposed primarily through code. What distinguishes different parts of cyberspace are the differences in the regulations affected through code. In some places life is fairly free, in other places controlled, and the difference between them is simply a difference in the architectures of control – that is, a difference in code.“ 224  Frank (1984), S. 35: „Nun ist es genau der Begriff des Unkontrollierbaren, den der Neostrukturalismus an diesem Punkt in die Debatte wirft. ‚Kontrolle‘, so wenden etwa Derrida, Deleuze oder Lyotard ein, ist ein Zug im Sprachspiel der Rationalität, d. h. der Metaphysik. Metaphysik liefert nicht nur eine Daseins-Orientierung für die Menschen; sie garantiert und übt diese Orientierung auch aus in Form von Beherrschung. Im metaphysischen Kosmos herrscht insofern ‚Ordnung‘, als die Gesetze des menschlichen Geistes die Form der Materie – z. B. der Natur – beherrschen: Natur und Materialität kommen nur als Gegenstand oder als Anwendungsbereich rationaler Verfügung in den Blick.“ 225  Apel (1976), S. 7.

356

5. Kap.: Dialogische Prämissensuche

In der Folgezeit hätten Philosophen, Wissenschaftstheoretiker, Linguisten, Semiotiker und Sozialwissenschaftler Konzeptionen entwickelt zur Ergänzung oder sogar Integration der verschiedenen Dimensionen der Sprachbetrachtung. Vielfach sei dabei aber die Terminologie von Morris und Carnap ignoriert worden. So etwa in der „Sprachspiel“-Konzeption des späten Wittgenstein und in der „Sprechakt“-Theorie von Austin, Grice und Searle, bei denen es sich ganz offensichtlich um sprachpragmatische Konzeptionen handele. In den letzten Jahren hätten Linguisten und Sozialwissenschaftler begonnen, so Apel, das Gegenstandsgebiet der „Sprachpragmatik“ genauer zu erschließen, etwa im Rahmen des Programms zur „generativen Syntax und Semantik“ oder in Form von Konzeptionen der „Sozio-, Psycho-, Textund Pragma-Linguistik“.226 Die theoriegeschichtliche Skizze Apels zur Entwicklung der Sprachpragmatik ist im vorliegenden Zusammenhang bedeutsam. Sie stiftet den nötigen Zusammenhang zu dem, was wir hierhin an „poststrukturalistischen“ Ideen und Theorien erörtert haben. Es wird nun klar, dass auch die Anstrengungen Jacques Derridas und Michel Foucaults um Fragen der Sprachpragmatik und Performanz kreisen. Es wird ferner klar, dass das „justizpolitische Konzept“ Savignys bewusst eine Auseinandersetzung mit dieser Frage gemieden hatte, um die juristische Methodenlehre freizuhalten von politischen Einflüssen; die Stilllegung des diskursiven Moments in der Sprache hatte notwendig den Verzicht auf eine Theoretisierung der Sprachpraxis zur Folge. Die Frage ist nur, ob eine solche Position noch haltbar bzw. überhaupt wünschenswert ist. „Poststrukturalisten“ und neuere Rechtstheorien stellen diese Frage nun mit Entschiedenheit neu.227 Klar wird damit auch, dass es bei alledem um das weit größere Projekt einer Theorie der „Praxis“ geht, die auch eine Theorie der Rechtspraxis einschließen müsste. Manfred Frank hat darauf hingewiesen, dass der sog. „Neostrukturalismus“ insbesondere aus der intensiven Auseinandersetzung mit dem klassischen Strukturalismus und seinem ganzen Arsenal der Syntaxanalyse (Graphemen, Lexemen, Phonemen, etc.) hervorgegangen ist.228 Im Gegensatz zur behaupteten Vorherrschaft der Form seien aber – so die „poststrukturalistische“ Gegenthese – 226  Apel

(1976), S. 7. – Siehe Linke/Nussbaumer/Portmann, S. 169–202. Dijk, Teun A.: Text and Context. Explorations in the Semantics and Pragmatics of Discourse, London 1977; Van Dijk, Teun A. (1981) Studies in the Pragmatics of Discourse, The Hague 1981; Van Dijk/Kintsch: Strategies of Discourse Comprehension, New York 1983; Van Dijk, Teun A. (1985) Handbook of Discourse Analysis, Vol. 1–4, London 1985; Van Dijk (1993), S. 249–283; Meier-Hayoz, S. 417–423; Vollrath, S. 53–76. 228  Frank (1984), S. 66: „Ich deutete früher an, dass der Übergang vom klassischen Strukturalismus zum Neostrukturalismus am Leitfaden einer Öffnung des Strukturbegriffs sich vollzogen hat.“ 227  Van



VIII. Sprachpragmatik und Sprachspiel 357

Abbildung 26: Modell eines semiotischen Zeichenbegriffs nach L. Schneider229

alle Kategorien gleichwertig, d. h. gleichermaßen bedeutsam: Form, Inhalt und Zweck – linguistisch gesprochen: Syntaktik, Semantik und Pragmatik. Das Problem des Kontroll-Konzepts besteht offenbar darin, dass es das Tatsächliche an die Form binden will. Das Verfahren der Informatisierung, d. h. des „In-Form-Bringens“ (lat. informare)230, führt so zu einem Primat der Syntax bzw. Syntaktik.231 Das hat einen doppelten Verlust zur Folge, einerseits die Reduzierung der semantischen Dimension auf bestimmte definite Bedeutungen und andererseits die Zurückdrängung des pragmatischkontextuellen Aspekts. Einen ähnlichen Gedanken formuliert Jacques Lacan in seiner harschen Kritik an der Kybernetik: „Wenn es Maschinen gibt, die ganz allein kalkulieren, addieren, totalisieren, all die Wunder tun, die der Mensch bis dahin für das Eigentümliche seines Denkens gehalten hatte, dann deshalb, weil die Fee Elektrizität, wie man sagt, es erlaubt, Stromkreise herzustellen. (…) Man weiß wohl, dass sie nicht denkt, diese Maschine. Wir sind’s, die sie gebaut haben, und sie denkt, was man ihr gesagt hat, dass sie denken soll. Aber, wenn die Maschine nicht denkt, dann ist es klar, dass wir selbst auch nicht denken in dem Moment, wo wir eine Operation ausführen. Wir folgen exakt denselben Mechanismen wie die Maschine. (…) Durch die Kybernetik inkarniert sich das Symbol in einem Apparat – (…). Die Kybernetik ist eine Wissenschaft der Syntax, und sie ist geradezu dazu da, um uns gewahr werden zu lassen, dass die exakten Wissenschaften nichts anderes tun, als das Reale an eine Syntax zu binden.“232 229  Schneider,

L. (2006), S. 16. (1989), S. 331: informare (wörtlich:) bilden, eine Gestalt geben. 231  Richards/von Glasersfeld, S. 192–228. – Ferner Wenzlaff, S. 355–361. 232  Lacan (1999), S. 413, 415, 417. 230  Kluge

358

5. Kap.: Dialogische Prämissensuche

Abbildung 27: Borromäischer Knoten nach Jacques Lacan233

Lacan spricht vom „Ballast der Semantik“234, dessen man sich im Wege der Informatisierung und Digitalisierung entledige. Neben dem Verlust des Kontextes gehe auf diese Weise auch die reale Bedeutungsfülle verloren, werde reduziert und präzisiert. Hier kehrt eine Beobachtung wieder, die Oevermann schon als das „Abmagern“ des tatsächlichen Sachverhalts im Zuge der Verschlagwortung polizeilicher Erkenntnisse umschrieben hatte. Die Frage, ob Computer auf syntaktische Symbolmanipulation festgelegt sind oder in Zukunft auch „Semantik“ (durch Verfahren der Disambi­ guierung)235 und „Pragmatik“ (im Wege der Kontextkontrolle) werden simulieren können, ist derzeit die Kernfrage der Artificial Intelligence-Forschung.236 Ausgehend von seinen psychoanalytischen Studien fordert Lacan daher eine „Verdreiheitlichung“237 des theoretischen Diskurses auf der Grundlage einer triadischen Logik. Der borromäische Knoten erscheint ihm als geeignetes Bild, um sich die Dreiheit von Syntaktik, Semantik und Pragmatik, deren untrennbaren Zusammenhang, zu veranschaulichen. Der Borromäische Knoten besteht per definitionem aus mindestens drei Elementen bzw. „Konsistenzen“, die derart zusammenhängen, dass beim Öffnen oder Zerreißen eines Elementes alle anderen freigesetzt werden. Die borromäische Verknotung macht die Notwendigkeit eines Dritten offenkundig. Sie eröffnet damit die Möglichkeit einer nicht-zweiwertigen Logik. Aus der Perspektive eines Logik-Verständnisses, das unvermittelte Kontextsensitivität zum Gütekriterium erhebt, ist aber die Kontroll-Logik in 233  Kleiner,

S. 292. (1999), S. 419. 235  Navigli/Crisafulli, S. 116–126. 236  Zur Kontroverse Searle (1990), S. 40–47. 237  Kleiner, S. 292–293. 234  Lacan



VIII. Sprachpragmatik und Sprachspiel 359

einer weiteren Hinsicht problematisch. Neben der „Syntaxbindung“, wie Lacan formuliert, ist dies eine Art Privilegierung der Deduktion als primäre Schlussform. Das wirkt sich nachteilig aus im Hinblick auf den Umgang mit Unbekanntem und Neuem. Karl Hans Bläsius und Hans-Jürgen Bürckert sprechen daher in Bezug auf Computer auch folgerichtig von „Deduktionssystemen“. Charakteristisch für solche Systeme sei, dass sie aus feststehenden, vor-formulierten Prämissen Schlüsse zögen: „Die Entwicklung der heutigen Deduktionssysteme hatte zwei analoge Voraussetzungen: Die Realisierung sehr schneller elektronischer Rechner einerseits und die Kalkülisierung der Logik, das heißt die Kalkülisierung einer wichtigen Fähigkeit des menschlichen Denkens, andererseits. Das Zusammenführen dieser beiden historischen Entwicklungen hatte eine fundamentale Bedeutung, deren Folgen wir heute in der Künstlichen Intelligenz (KI), für die das Gebiet der Deduktionssysteme zu einer Grundlagendisziplin geworden ist, aber auch in der traditionellen Informatik beobachten können: Programmieren und Rechnen auf dem Computer beziehen sich nicht nur auf die Logik als Grundlagenwissenschaft – wie von J. McCarthy in den 60er Jahren antizipiert – sondern sie sind logische Deduktion. In Anlehnung an R. Kowalskis berühmte Gleichung ausgedrückt: COMPUTATION = DEDUCTION + CONTROL. Diese Einsicht hat unsere Vorstellung vom Computer und von Berechnungen, die man für diese oder jene Anwendung darauf anstellen mag, tiefgreifend verändert und wird von vielen – wegen ihrer weitreichenden wissenschaftlichen und technischen Auswirkungen – als eine der großen Entdeckungen dieses ausgehenden Jahrhunderts angesehen.“238

Die Kontroll-Logik als rigoros zweiwertige Logik konnte – wie Bläsius und Bürckert betonen – erst mit der Entwicklung des Computers so richtig zur Blüte gelangen. Andererseits erweist sich diese Logik aber als zu starr und auf die Verarbeitung schon bekannten Wissens beschränkt. Der sog. „Kritische Rationalismus“ ist sich dessen zwar bewusst, will aber auf den genuinen Zugang über die Sprache bei der Lösung logischer Probleme verzichten und im Grundsatz an der Zweiwertigkeit der Logik festhalten.239 Man redet einer Art „Stückwerkstechnik“ (piecemeal dealing) das Wort: Die Gültigkeit einer Hypothese soll sich nach vordefinierten Kriterien richten, die es sukzessive zu verifizieren oder zu falsifizieren gelte – ein Schema, das die Schwächen der Begriffs-Logik nur in Ansätzen, aber nicht im Grundsatz beseitigt.240 Die Frage des Erkenntnisfortschritts, um die es tat238  Bläsius/Bürckert,

S. 5–6. S. 180–210; siehe ferner Popper (1973), S. 7–8 (Vorwort zur vierten Auflage), der sich für eine „sachliche, rationale Kritik“ ausspricht, gleichzeitig aber einer „Logik des Werdens“ nicht aufgeschlossen ist – die „relativistische ‚Soziologie des Wissens‘ “ betrachtet er als Modeerscheinung. 240  Kritisch dazu Feyerabend (1976), S. 54, der ein „Kontrainduktions-Verfahren“ empfiehlt: „Die Kontrainduktion ist also sowohl eine Tatsache – die Wissenschaft könnte nicht ohne sie bestehen – als auch ein berechtigter und sehr notwen239  Albert,

360

5. Kap.: Dialogische Prämissensuche

sächlich geht, ist, wie die Wissenschaftstheorie nachgewiesen hat, nicht eine Frage der einfachen Verifikation, allenfalls der sukzessiven Falsifizierung von Theorien.241 Die Frage nach dem Fortschritt in der Erkenntnis lässt sich also nicht beantworten mithilfe eines binären Entweder-Oder-Schemas. Sie hängt ab von den jeweiligen Inhalten und ist zu verorten in einem Kontinuum von Wissen und Nichtwissen. Jeder intersubjektiv gültigen wissenschaftlichen Aussage liegt schließlich ein kommunikativer Konsens von Wissenschaftlern zugrunde. Das ist es, was mit jener „Konsensustheorie der Wahrheit“ gemeint ist, und dieses lässt sich schlechterdings nicht bestreiten.242 Das heißt nun nicht, dass man gar nichts weiß. Hinter diesem Gedankenschritt den Abgrund des Skeptizismus zu vermuten, ist ebenso verfehlt wie es irreführend ist, in diesem Zusammenhang von einer „Konsensustheorie der Wahrheit“ zu reden. Es handelt sich bei dem beschriebenen Denkschritt nicht darum, über Wahrheit oder Falschheit zu disponieren. Die Wahrheit wird in methodologischer Hinsicht als prinzipiell noch ungewiss gedacht. Das ist entscheidend. Man könnte mit Peirce sagen, „nicht eine Philosophie, ein metaphysisches System oder eine Theorie der Wahrheit“ steht in Rede, sondern eine „Methode des Denkens“. Ob die Wahrheit in dem einen oder anderen praktischen Fall tatsächlich ungewiss ist bzw. welcher Grad von Wahrscheinlichkeit bei einer Aussage erreicht wird, ist eine ganz andere Frage und im Einzelnen im Wege rationaler Argumentation von Fall zu Fall zu entscheiden. Die Frage nach „der“ Wahrheit ist daher ebenso wie die Frage nach dem Wissen von der rationalistischen Illusion zu befreien, wonach Wahrheit und Unwahrheit, Wissen und Nichtwissen, immer zweifelsfrei voneinander geschieden werden können. Die einfache Alternative wahr / falsch bezeichnet ein wissenschaftliches, um nicht zu sagen mathematisches Artefakt, das aus der Not des Exaktheitsideals geboren ist. In Wirklichkeit ist eine Aussage regelmäßig in der einen Hinsicht wahr, in anderer aber falsch. Wahrheit ist so ein relationales Problem. Maßgeblich ist daher zunächst die Gewinnung richtiger Prämissen für den Obersatz (primum verum), also die Genealogie der Erkenntnisbemühung im Vorfeld der Deduktion. Der Ansatz des Kritischen Rationalismus bleibt damit gewissermaßen auf halbem Weg stehen. Die Praxis, die sich diesen Ansatz zu Eigen gemacht hat, kann sich bestenfalls in einer Art systematisierten „Durchwurschtelns“ („muddling through“) bewähren.243 Eine nach den Grundsätzen diger Zug im Wissenschaftsspiel.“ (S. 107) – „Die Kontrainduktion ist ein wesent­ licher Bestandteil eines (…) Entdeckungsvorgangs.“ (S. 119). 241  Lakatos, S. 91–196; Popper, Karl R.: Logik der Forschung, 6. Aufl., Tübingen 1976. 242  Knorr-Cetina, Karin: Die Fabrikation der Erkenntnis. Zur Anthropologie der Naturwissenschaft., Frankfurt a. M. 1991. 243  Lindblom, S. 62–78.



VIII. Sprachpragmatik und Sprachspiel 361

der Prämissenkontrolle verfahrende parametrische Zweckrationalität hat in der Praxis starre Klassifikationssysteme und eine entsprechend kalkülisierende Entscheidungstechnik zur Folge. In sozialen Kontexten führt die formale Logik als Sozialtechnologie zu teils beliebigen Entscheidungen und damit unvernünftigen Ergebnissen.244 An dieser Stelle scheiden sich gewissermaßen die Geister; hier kommt die schon erwähnte „poststrukturalistische“ Grundüberzeugung des linguistic turn zum Tragen. Nach Auffassung „poststrukturalistischer“ Theoretiker gibt es keinen unmittelbaren Zugang zur Wirklichkeit. Der Weg der Erkenntnis führt notwendig über die Sprache: Die klassische Semantik („Wortsemantik“245), die im Wege der Referenzfixierung eine „logisch“ arbeitende Praxis gewährleisten wollte, müsse jedenfalls in dem Sinne als gescheitert angesehen werden als sprachliche Zeichen, so die „Poststrukturalisten“, über keinen exklusiven oder fixen Referenten verfügten. Das gelte selbst für das Wort „Semiotik“, wie die neuere Semiotik („second semiotic“) weiß: Das Wort verfügt über keine festen, zeitlich und intersubjektiv beständige Beziehungen zwischen Zeichen und Referenten, Signifikat und Signifikant. Das heißt nicht, dass man eine Beliebigkeit des rhetorischen Umgangs mit referenzlosen Zeichen akzeptieren müsste, nur das Eingeständnis, dass selbst der semiotische Denkansatz und jeglicher Zeichen-Begriff selbstkritisch und selbstdekonstruktiv zu fassen ist.246 Andererseits gibt es deutliche Anzeichen für eine wirkungsvolle Abkehr vom klassischen Rationalismus. Dieser macht die Rechnung buchstäblich ohne die Sprache. Bevor sich aber logisch über die Welt reden lässt, ist gleichsam vorher die sprachtheoretische Bringschuld zu erfüllen.247 An Versuchen, die Welt logisch im Sinne des exakt mathematischen Ideals zu erklären, hat es 244  Gäfgen,

S. 249–302. Konzept einer „Wortsemantik“ lässt sich etwa wie folgt beschreiben: Das Wort ist Bedeutungsträger und Auslegungsgegenstand. Der Bedeutungsgehalt, vorstellbar als geometrisches Modell von Sinnbezirken bzw. semantischen Sphären, wird nach außen abgeschlossen durch die Wort(laut)grenze. Eröffnet sind zwei Wege zu „der“ Bedeutung des Wortes. Entweder ein Wort ist seinem Wortlaut und Sinngehalt nach bestimmt, dann ist es eindeutig. Mithilfe von ebenfalls eindeutigen Definitionen kann man unmittelbar zur Bedeutung gelangen, so dass sich weitere Auslegungsschritte in diesem Fall erübrigen. Oder aber das Wort ist „unbestimmt“. Dann ist davon auszugehen, dass es im Wege der Auslegung bestimmbar ist, d. h. es kann sein Gehalt, bis hin zu dem innersten Kernbereich der Bedeutung („Substanz“, „Begriffskern“), durch schrittweises Vorgehen ermittelt werden, wobei letztlich das teleologische Argument entscheidet, welche von mehreren möglichen Bedeutungen „die“ (eindeutige) Bedeutung ist, die es zu ermitteln galt. 246  Luhmann (1992), S. 31, 69–70. 247  Kamlah/Lorenzen: Logische Propädeutik oder Vorschule des vernünftigen Redens, revidierte Ausgabe, Mannheim 1967. 245  Das

362

5. Kap.: Dialogische Prämissensuche

nicht gefehlt, aber die Kontextabhängigkeit von Bedeutung, die Arbitrarität von Zeichen, ist unhintergehbar.248 Sinnstrukturen entwickeln sich erst aus der symbolisch vermittelten Interaktion.249 Der linguistic turn250 in allen seinen Ausprägungen ist Ausdruck dieser Überzeugung und gleichzeitig in jeder Hinsicht anticartesianisch: Die Metapher der „Sprachvergessenheit“ (Gadamer) umschreibt treffend den neuralgischen Punkt des rationalistischen Erkenntnismodells; die Abbild-Ideologie wurde am konsequentesten bekämpft von den kritischen Theoretikern der sog. Frankfurter Schule.251 Offenbar braucht es zur Lösung des Kontext-Problems ein anderes Verständnis von „Logik“. Eine Logik, die nicht primär nach den Grundsätzen dualistischer Strenge verfährt und alles Dritte prinzipiell ausschließt. Es müsste eine „Logik“-Konzeption sein, die nicht den Code und die Prämissenkontrolle in den Vordergrund rückt und auch mit der Tatsache der Metaphorik und Mehrdeutigkeit umzugehen weiß, offen ist für Un-Kodifiziertes, ungewöhnliche Einfälle und neue Perspektiven. Dodo Zu Knyphausen sieht in der „paradoxen Logik“ Ansätze für eine nicht-zweiwertige Logik: „Wenn es so ist, dass Entstehung des Neuen etwas mit Zeit und Paradoxie zu tun hat, dann kann man sehen, warum die traditionelle Theorie überall dort, wo es um die Entstehung des Neuen geht, nicht allzu viel beitragen kann. Die traditionelle Theorie baut auf einer Logik des Seins, nicht aber auf einer Logik des Werdens auf. Die Logik, auf der sie aufbaut, ist eine zweiwertige: es gibt nur Sein oder Nicht-Sein: Tertium non datur. Das zeigt sich am deutlichsten in der (mikro-) ökonomischen Theorie, die sich so ausgedehnt eines mathematischen Sprachspiels bedient, das seinerseits nur vor dem Hintergrund einer zweiwertig-formalen Logik zu denken ist.“252

Der Hinweis Dodo Zu Knyphausens ist in doppelter Hinsicht bemerkenswert: Einerseits spielt sie mit den Umschreibungen „paradoxe Logik“ bzw. „Logik des Werdens“ auf die im Wortsinn „widersprechende“, d. h. dialogi248  Bergmann,

S. 27–60; Jeffrey, S. 343–353; Gipper, S. 259–274. S. 80–101. 250  Die Metapher vom „semantischen Aufstieg“ erscheint uns geeignet, um den Übergang zu einer komplexeren semiotisch-pragmatischen Sprachauffassung zu veranschaulichen, siehe Quine (1967), S. 168–171. 251  Horkheimer/Adorno, S. 33: „In der Reduktion des Denkens auf mathematische Apparatur ist die Sanktion der Welt als ihres eigenen Maßes beschlossen. Was als Triumph subjektiver Rationalität erscheint, die Unterwerfung alles Seienden unter den logischen Formalismus, wird mit der gehorsamen Unterordnung der Vernunft unters unmittelbar Vorfindliche erkauft. Das Vorfindliche als solches zu begreifen, den Gegebenheiten nicht bloß ihre abstrakten raumzeitlichen Beziehungen abzumerken, bei denen man sie dann packen kann, sondern sie im Gegenteil als die Oberfläche, als vermittelte Begriffsmomente zu denken, die sich erst in der Entfaltung ihres gesellschaftlichen, historischen, menschlichen Sinnes erfüllen – der ganze Anspruch der Erkenntnis wird preisgegeben.“ 252  Zu Knyphausen, S. 146. 249  Blumer,



VIII. Sprachpragmatik und Sprachspiel 363

sche und diskursive Grundstruktur einer solchen Logik an, andererseits steckt darin der Verweis auf das „Werdende“, das Vor-Begriffliche und Metaphorische. Angesichts der offenkundigen Schwächen und Unzulänglichkeiten kodifizierter Kunstsprachen erscheint es notwendig, viel stärker die Problemlösungspotenziale der natürlichen Sprache zu nutzen. Das ist es auch, was Jean-François Lyotard vorschwebt. Im „experimentelle(n) Spiel mit der Sprache“253 sieht er Chancen, dem Rigorismus des Systemdenkens zu entkommen. Er sieht dabei den engen Zusammenhang zur Poetik. An anderer Stelle spricht er von einer Art „poetischer ‚Ontologie‘ “ als Gegenbewegung zum logischen Positivismus: „Anscheinend wird heute vom Denken verlangt, am Rationalisierungsprozess teilzunehmen. Jede andere Denkweise wird als irrational verurteilt, isoliert und abgelehnt. Seit der Renaissance und der Klassik – sagen wir seit Galilei und Descartes – schwelt ein latenter Konflikt zwischen der Rationalität und den anderen Denk- und Schreibweisen, insbesondere der Metaphysik und der Literatur. Mit dem Wiener Kreis wird der Krieg offen erklärt. Unter dem gleichen Motto, im Namen der ‚Überwindung der Metaphysik‘, spalten Carnap einerseits und Heideg­ ger andererseits die abendländische Philosophie in logischen Positivismus und in poetische ‚Ontologie‘. Dieser Bruch trifft essentiell die Natur der Sprache. Ist die Sprache ein Instrument, das par exellence dazu bestimmt ist, den Geist mit der exaktesten Erkenntnis der Realität auszustatten und deren Veränderung so weit wie möglich zu kontrollieren? (…) Oder muss die Sprache im Gegenteil als eine Art Wahrnehmungsfeld gedacht werden, das in der Lage ist, von sich aus – unabhängig von jeder Bedeutungsabsicht – ‚Sinn zu machen‘?“254

Die Herausforderung besteht darin, den überkommenen Subjekt / ObjektDualismus, d. h. auch die Kluft zwischen Logik und Literatur, zu überwinden zugunsten einer Art von sprachlich aufgeklärtem „Inter-Subjektivismus“. Das ist es, was im Verlauf der Debatte um die „Postmoderne“ mit „Dezentrierung des Subjekts“ bezeichnet, aber zum Teil polemisch als anti-humanistisch abqualifiziert worden war. Das Kontroll-Denken und die KontrollLogik überwinden würde heißen einen Übergang suchen zu einem pro­ blemangemesseren Denk- und Bezugsrahmen. Die gesellschaftliche Gesamtsituation erfordert offenbar eine grundlegende methodologische und epistemologische Neuorientierung, ein anderes Verständnis von „Logik“, ja so etwas wie eine Reform der Logik. Nach Ansicht von Paul Veyne ist gerade hier das Werk Michel Foucaults einzuordnen. Die Art und Weise, wie Foucault das „Vorbegriffliche“ bzw. den „prädiskursiven Referenten“ untersucht habe, sei insgesamt neu; Veyne erkennt darin die Entwicklung einer „neuen historisch-kritischen, pragmatistischen Methodologie“.255 253  Lyotard

(1994), S. 61. (1990), S. 165–166. 255  Veyne, Paul: Foucault: Die Revolutionierung der Geschichte. Aus dem Französischen von Gustav Roßler, Frankfurt a. M. 1992. 254  Lyotard

364

5. Kap.: Dialogische Prämissensuche

Veyne selbst spricht von „Praktik“, um zu betonen, dass es sich hier um den Beitrag zu einer Theorie der Praxis handelt. Axel Honneth sieht das ähnlich. Er betont, dass Foucault die „ ,vorrationale‘ Sphäre“, von der die Begriffs-Logik als Form instrumenteller Rationalität gewaltsam abstrahiere, wieder ins Blickfeld gerückt habe.256 Das Entscheidende scheint uns in der Tat zu sein, dass Foucault den Diskurs als „Spiel“ begreift und auch als solches benennt. Der Diskurs ist für Foucault – vor allem auch in seiner prädiskursiven taktisch-strategischen Ausprägung – zunächst ein gesellschaftliches Sprachspiel. Sehr deutlich bringt er dies an folgender Stelle zum Ausdruck: „Ob es sich nun um eine Philosophie des begründenden Subjekts handelt oder um eine Philosophie der ursprünglichen Erfahrung oder um eine Philosophie der universellen Vermittlung – der Diskurs ist immer nur ein Spiel: ein Spiel des Schreibens im ersten Fall, des Lesens im zweiten oder des Tauschs im dritten. Und dieses Tauschen, dieses Lesen, dieses Schreiben spielen immer nur mit den Zeichen.“257

Im Spiel erkennt er den allgemeinen Wirkungsmodus gesellschaftlicher Veränderungen. Die Zeichenprozesse in diesem fundamentalen „Gesellschafts-Spiel“ verfügen über eine unerhörte Produktivkraft – aber auch Zerstörungsmacht. Die Zähmung dieser performativen Gewalt erfordert nach Foucault wiederum einen spielerischen Umgang. Hinter der Kategorie des „Spiels“ steckt offenbar mehr als der regelmäßige Verweis auf das Sprachspiel-Konzept von Ludwig Wittgenstein.258 Das Spiel gilt mit Johann Huizingas Homo Ludens als eine Art Ursprung aller Kulturformen. Georges Bataille hat in einer Auseinandersetzung mit den Gedanken Huizingas einen Zusammenhang hergestellt zwischen „Spiel“ und „Risiko“, da jeder Spieler sich gewissermaßen selbst „aufs Spiel setze“. Das Spiel erfordere Souveranität – Spiel und Souveranität seien untrennbar. Lähmend für jedes Spiel wirke Angst: „Allein das Spiel ist souverän, und das Spiel, das nicht mehr souverän ist, ist nur die Komödie eines Spiels.“259 256  Honneth

(1988), S. 135. (1977), S. 35. 258  Wittgenstein (1984), S. 241, 260. – Kritisch dazu Apel (1994a), S. 376: „Das dualistische Schema der transzendentalen Differenz zwischen logischer Form und möglichem Inhalt der Welt, das den ,Tractatus‘ beherrscht, ist in dem Begriff ,Sprachspiel‘ nicht eigentlich überwunden worden, sondern nur differenziert. Deshalb kann Wittgenstein das eigentlich Geschichtliche des Verstehens, die Vermittlung zwischen den zerfallenden und entstehenden Sprachspielen (das normale Phänomen der Traditionsvermittlung) und wiederum die Vermittlung über die Zeiten hinweg, die Wiederbelebung und Aneignung der Vergangenheit in die gegenwärtige Lebensform hinein, mit seinem Denkmodell nicht eigentlich erfassen, sondern allenfalls von ihm her konzedieren.“ 259  Bataille, S. 102. 257  Foucault



VIII. Sprachpragmatik und Sprachspiel 365

Jedes tatsächliche Spiel, argumentiert Bataille, sei eine „begrenzte Unordnung“. Systematische, zweckrationale Vernunft aber sei das Gegenteil von Spiel.260 „Spielvergessenheit“ wäre der Zustand einer Kultur, die sich nicht auf ihre spielerischen Ressourcen verlasse, sie sei „ins Arbeitsame, Ängstliche und Betriebsame gekippt“.261 Es ist an dieser Stelle hervorzuheben, dass die mathematische Spieltheorie und das vielzitierte Gefangenendilemma (Prisoner’s Dilemma) kein „Spiel“ in dem hier gemeinten Sinne ist. Bei der mathematischen Spiel­ theorie bestehe, wie Klaus Lintemeier herausgefunden hat, keine echte Entscheidungssituation, da die notwendige Bedingung der wechselseitigen strategischen Abhängigkeit der Handlungen nicht erfüllt sei. „Spiele“, in denen die beteiligten Spieler über „dominante Strategien“ verfügten, seien keine Spiele, sondern repräsentierten „parametrische Entscheidungssituationen (unter Sicherheit)“. Im Fokus spieltheoretischer Entscheidungsanalysen stehe vielmehr die von der jeweiligen Entscheidungssituation abhängige Auszahlung nutzenmaximierender Spieler-Strategien. Die metaphorische Beschreibung der strategischen Entscheidungssituation als „Spiel“ sei aufgrund der ausschließlich spielerorientierten Analyseperspektive sowohl theoretisch als auch empirisch unbegründet.262 Mit dem mathematisierten Strategie-Begriff hat sich auch Pierre Bourdieu kritisch auseinandergesetzt. Auf der Suche nach einem theoretischen Ansatz für das, was „Praxis“ heißt, betont er die herausragende Bedeutung strategischen Denkens und Handelns für kontextsensitive Problemlösungen. In dem Wort „Strategie“ komme eine selbstreflexive Einheit von Denken und Handeln zum Ausdruck, die mehr sei als das Produkt eines unbewussten Programms bzw. der Ausfluss eines bewussten rationalen Kalküls. Im Gegenteil, es handele sich beim „strategischen Handeln“ um eine Art „soziales Spiel“. Die Strategie sei, so Bourdieu, das Produkt des „Spiel-Sinns“. Die „immanente Logik“ dieses Spiels bestehe im Eingespieltsein sozialer Regeln im Sinne einer situativen Logik des jeweils angemessenen Handelns. Dieser praktische Sinn für ein historisch bestimmtes, soziales Spiel werde in frühester Kindheit durch die Teilnahme an sozialen Aktivitäten, nicht zuletzt an Kinderspielen, erworben. Der gute Spieler tue in jedem Augenblick das, was zu tun sei, was das Spiel verlange und erfordere. Das setze voraus, dass man fortwährend neue Varianten erfinde, um sich den unendlich variablen, niemals ganz gleichen Situationen anzupassen. Das lasse sich durch die mechanische Befolgung einer expliziten und – so sie existiere – kodifizierten Regel nicht erreichen. Bourdieu schreibt: 260  Bataille,

S. 89, 93. S. 118. 262  Lintemeier, S. 11, 15. 261  Ebeling,

366

5. Kap.: Dialogische Prämissensuche

„ ,Spiel‘ ist der Ort, an dem sich eine immanente Notwendigkeit vollzieht, die zugleich eine immanente Logik ist. In einem Spiel darf man nicht einfach irgendetwas tun. Der ,Spiel-Sinn‘, der zu jener Notwendigkeit und Logik beiträgt, stellt eine Art Kenntnis dieser Notwendigkeit und Logik dar.“263

Zur Umschreibung des sozialen Spielsinns von Individuen führt Bourdieu den Begriff des „Habitus“ ein. Der „Habitus“ als „Spiel-Sinn“ sei das zur zweiten Natur gewordene, inkorporierte soziale Spiel. Nichts sei zugleich freier und zwanghafter als das Handeln des guten Spielers. Als im Körper, im biologischen Einzelwesen eingelagertes Soziales ermögliche der Habitus, die im Spiel als Möglichkeiten und objektiven Anforderungen angelegten vielfältigen Züge und Akte auszuführen. Obwohl in keinem Regelkanon fixiert, setzten sich die Zwänge und Anforderungen gegenüber denjenigen durch, die mit dem „Spiel-Sinn“, dass heißt mit dem Sinn für die immanente Notwendigkeit des Spiels, ausgestattet bzw. präpariert seien.

IX. Logik der Vagheit Der amerikanische Wissenschaftstheoretiker und Semiotiker Charles S. Peirce gilt heute als Vordenker eines Logik-Konzepts, das in vieler Hinsicht der Idee des „sozialen Spiels“, wie Bourdieu sie aus soziologischer Sicht formuliert hat, verwandt ist. Auf dem Weg zu einer Theorie der Praxis ist er, wie uns scheint, damit ein gutes Stück weiter vorangeschritten. Peirce nennt seine Überlegungen zu einer nicht-zweiwertigen Logik selbst „Logik der Vagheit“.264 An anderer Stelle spricht er von „diskursiver Vernunft“. Die Wortwahl ist nicht zufällig. Für Peirce hatte die von ihm sog. „Ethik der Terminologie“ eine herausragende Bedeutung. Jeder Begriffsbildung mussten jeweils tiefschürfende besgriffsgeschichtliche Studien vorausgehen, um geeignete Anknüpfungspunkte und Argumente für die Begriffswahl bzw. einen notwendigen Neologismus zu finden.265 Blickt man in Herkunfts­ wörterbücher finden sich zu den Wörtern „vage“ bzw. „Vagheit“ folgende Einträge: „vage Adj. ,unbestimmt‘, sondersprachl. Im 18. Jh. entlehnt aus frz. vage ,umherstreifend, unstet‘, dieses aus l. vagus (dass.). Aus der konkreten Bedeutung ,ohne festen Standort‘ dann die übertragene Bedeutung ,ohne feste Position, im Status nicht festgelegt‘.“266 263  Bourdieu

(1987), S. 83–85. Jarrett. E.: C. S. Peirce’s logic of vagueness, University of Illinois, Urbana 1969 (Microfilm). – Siehe ferner Quine (1995), S. 23–31. 265  Oehler (1981), S. 384–357 sowie Oehler, Klaus: Sachen und Zeichen. Zur Philosophie des Pragmatismus, Frankfurt a. M. 1995. 266  Kluge (1989), S. 755. 264  Brock,



IX. Logik der Vagheit367 „vagari umherschweifen, -streifen, -ziehen, kreuzen, wandern, sich verbreiten, freien Spielraum haben, abschweifen; vagus umherschweifend, -streifend, unstet, schwankend, unbeständig, regellos, ungebunden, unbestimmt, ungenau, allgemein, ziel-, planlos, fahrender Schüler, Spielmann, vagant.“267

Etymologisch verweist das Wort nicht nur auf den Status der Unbestimmtheit, sondern – was die teilweise negative Konnotation des Wortes erklären mag268 – auch auf eine Form der Ziel- und Planlosigkeit. Martin Heidegger hat auf den etymologischen Zusammenhang mit dem Wort „Wa(a)ge“269 hingewiesen: Das Wort „Wage“ habe im Mittelalter noch so viel wie „Gefahr“ bedeutet. Später sei das Gerät, das sich in der Weise bewege, dass es so oder so sich neige, sich einspiele, „die Wa(a)ge“, so bezeichnet worden. Das Wort „Wa(a)ge“ in der Bedeutung von Gefahr und als Name des Gerätes komme von „wägen“ im Sinne von „wegen“, „sich einen Weg machen“, d. h. „gehen“, „im Gang sein“. Heidegger umschreibt den bemerkenswerten etymologischen Zusammenhang so: „Be-wägen heißt auf den Weg und so in Gang bringen: wiegen. Was wiegt, heißt so, weil es vermag, die Wage so oder so ins Spiel der Bewegung zu bringen. Was wiegt, hat Gewicht. Wagen heißt: in den Gang des Spieles bringen, auf die Wage legen, in die Gefahr loslassen. Damit ist das Gewagte zwar ungeschützt, aber, weil es auf der Wage liegt, ist es vom Wagnis einbehalten. Es ist getragen. Es bleibt von seinem Grund her in diesem geborgen. Das Gewagte ist als Seiendes ein Gewilltes: es bleibt, in den Willen einbehalten, selbst in der Weise des Willens und wagt sich. Dergestalt ist das Gewagte sorg-los, sine cura, securum, d. h. sicher. Nur insofern das Gewagte sicher im Wagnis beruht, kann es dem Wagnis folgen, nämlich in das Ungeschützte des Gewagten. Das Ungeschütztsein des Gewagten schließt ein Sichersein in seinem Grunde nicht nur nicht aus, sondern notwendig ein. Das Gewagte geht mit dem Wagnis mit. Das Sein, das alles Seiende in der Wage hält, zieht so das Seiende stets an sich und auf sich zu, auf sich als die Mitte.“270

Heidegger deutet hier einen sublimen Zusammenhang zwischen „Wagnis“ (bzw. Risiko) und „Sicherheit“ an, der aus der Sicht von Sicherheitsexperten 267  Hau, S. 1085. – Dazu bereits Lichtenberg: „Durch das planlose Umherstreifen, durch die planlosen Streifzüge der Phantasie wird nicht selten das Wild aufgejagt, das die planvolle Philosophie in ihrer wohlgeordneten Haushaltung gebrauchen kann.“ – Zitiert nach Bloch (1974a), S. 73. 268  Sutherland, S. 177: „The etymological root of ,vague‘ is the latin vag-us, which means ,wandering‘, ,inconstant‘, or ,uncertain‘. Vagueness is the (sometimes negative) loss of fixety, whether in a physical landscape too hostile or too beautiful to allow us to sit still or in a cognitive occurrence with some preferred certain outcome.“ 269  Kluge (1989), S. 771: „Waage f. Mhd. wage, ahd. as. waga aus gr. wægo f. Waage, auch in anord. vag, ae. wæg(e), Abstraktum zu g. *weg-a-stV. ,bewegen‘, auch ,wiegen, wägen‘ (s. bewegen). Die Schreibung mit Doppel-a seit 1927 zur Unterscheidung von Wagen“. 270  Heidegger (1950), S. 259.

368

5. Kap.: Dialogische Prämissensuche

und Risikomanagern unserer Tage gewiss paradox klingen muss, aber die Quintessenz Peircescher Logik bestens unterstreicht: „Das Gewagte geht (spielerisch) mit dem Wagnis mit.“271 In der Formulierung „Logik der Vagheit“, die Peirce – davon ist auszugehen – ganz bewusst gewählt hat, schwingt der Aspekt des „sozialen Spiels“, des intellektuellen Vagabundierens, der spielerischen Suche nach möglichen logischen Verknüpfungen mit. Edmund Husserl hat zurecht darauf hingewiesen, dass „Phantasie“ das „Reich der Zwecklosigkeit, des Spieles“ sei.272 Auf die Sicherheitsherausforderungen der modernen Gesellschaft übertragen ergibt sich etwas, was man mit Blick auf die Theoriebildung der Informatik die notwendige „Wende zur Phantasie“ genannt hat.273 Offenbar ist eine Art „neue Balance“ erforderlich zwischen Begriffs-Logik und unkodierten Sprachspielen.274 Um nichts anderes geht es im Kern bei der „Logik der Vagheit“. Noch deutlicher wird dies, wenn man die Formulierung „diskursive Vernunft“ hinzunimmt. Die Etymologie von „discurrere“ (lat. hin und her laufen) und „vagari“ (lat. umherstreifen) verweisen auf einem ähnlichen Ursprung. Wieder ist es Karl-Otto Apel, der den Zusammenhang herstellt und die Peircesche Logik-Konzeption theoriegeschichtlich einzuordnen weiß – vor allem, weil er sich schon früh intensiv um die Rezeption des amerikanischen Pragmatismus bemüht hat.275 Apel vergleicht Peirce unmittelbar mit Kant: Der methodologische Unterschied zwischen der Wissenschaftstheorie Kants in seinem Werk Kritik der reinen Vernunft und der Wissenschaftslogik bei Peirce bestehe vor allem im unterschiedlichen Bezugspunkt, einerseits nämlich der Bewusstseinsanalyse, andererseits der Sprachanalyse. Kant gehe es darum, die objektive Geltung der Wissenschaft für jedes Bewusst271  Treffend insofern der Buchtitel „Embracing risk“ bei Baker/Simon (Hrsg.), Embracing risk. The Changing Culture of Insurance and Responsibility, Chicago 2002. 272  Husserl (2006), S. XLVI. 273  Siefkes, S. 343: „(…) aber der Druck der Verhältnisse und die Folgerichtigkeit der Theorie führen noch nicht zu Neuerungen. Unsere Phantasie wird erst fruchtbar, wenn wir sie spielen lassen. Wenn wir Werte und Wünsche, Kultur und Ethik ausklammern, klammern wir den Menschen aus“. – Siehe ferner Schneider, Hans Julius: Phantasie und Kalkül. Über die Polarität von Handlung und Struktur in der Sprache, Frankfurt a. M. 1992. 274  Hoffmann, Michael H. G.: Erkenntnisentwicklung. Ein semiotisch-pragmatischer Ansatz, Frankfurt a. M. 2005, der auf die Differenzierung von Johann Van Heijenoort (1967) zwischen „Logic of calculus“ und „Logic of language“ verweist. – Ferner Hoffmann/Roth, S. 105–142. 275  Apel, Karl-Otto: Der Denkweg von Charles S. Peirce. Eine Einführung in den amerikanischen Pragmatismus, Frankfurt a. M. 1975. – Siehe ferner Reilly, Francis E.: Charles Peirce’s Theory of Scientific Method, New York 1970; Kevelson, Roberta: Charles S. Peirce’s Method of Methods, Amsterdam 1987.



IX. Logik der Vagheit369

sein überhaupt verständlich zu machen. Zu diesem Zweck ersetze er die empiristische Erkenntnis-Psychologie von Locke und Hume durch eine „transzendentale“ Erkenntnis-Logik. Seine Untersuchungsmethode bleibe jedoch auf den, von ihm selbst so genannten „höchsten Punkt“ der Einheit des Bewusstseins in der „transzendentalen Synthesis der Apperzeption“ bezogen. An die Stelle der psychologischen Assoziationsgesetze Humes setze Kant so „Regeln a priori“, zu denen auch Regeln des psychischen Vermögens gehören, wie „Anschauung“, „Einbildungskraft“, „Verstand“, „Vernunft“. Demgegenüber habe Peirce die moderne dreidimensionale Semiotik eingeführt und so eine Logic of Science bzw. Logic of Inquiry auf triadischer Grundlage inauguriert. Von Anfang an habe Peirce – seit der semiotischen Herleitung einer New List of Categories im Jahre 1867 – sein Semiotik-Konzept als eine kritische Rekonstruktion der Kritik der reinen Vernunft verstanden.276 Die ultimate opinion der indefinite Community of investigators sei der „höchste Punkt“ der Peirceschen Transformation der „transzendentalen Logik“ Kants. In ihm konvergiere das semiotische Postulat einer überindividuellen Einheit der Interpretation und das forschungslogische Postulat einer experimentellen Bewährung der Erfahrung in the long run. Das quasi-transzendentale Subjekt dieser postulierten Einheit sei die unbegrenzte Experimentier-Gemeinschaft, die zugleich eine unbegrenzte Interpretationsgemeinschaft sei.277 Bezugspunkt der „Logik“ ist damit nicht mehr das einzelne Subjekt, sondern die überindividuelle Gesamtheit aller denkenden, forschenden und Zeichen verwendenden Subjekte. An die Stelle der dualistischen Subjekt / Objekt-Perspektive ist eine intersubjektive Multiperspektivität und Interdisziplinarität getreten.278 Zur Begründung seiner 276  Peirce hat den Versuch unternommen, den Kategorischen Imperativ Kants semiotisch zu reformulieren. Durch seinen Rekurs auf die Sprachpragmatik erweitert er Kants Handlungstheorie um Sprachhandlungen. Darin, in der sog. „Pragmatischen Maxime“, ist eine Art vorbereitender linguistic turn zu sehen: „Consider what effects might conceivably have practical bearings you conceive the objects of your conception to have. Then, your conception of those effects is the whole of your conception of the object“ – [„Überlege, welche Wirkungen, die denkbarerweise praktische Bedeutung haben können, du dem Gegenstand deines Begriffes zuschreibst. Dann ist dein Begriff dieser Wirkungen der ganze Umfang deines Begriffs des Gegenstandes.“], siehe Peirce (2009b), S. 245. 277  Apel (1993), S. 157,164,173. 278  Bisanz (2009), S. 13–14: „Einen zentralen Platz seiner Arbeit widmet Peirce den Schwerpunktthemen Pragmatizismus, Semeiotic, und dem Diagrammatischen Denken; diese Schwerpunktbildung reflektiert, wie er wiederholt erklärt, das Resultat seiner langjährigen Logik-Forschung. (…) All diese Gedankenstränge zeigen neben einer pulsierenden Aktualität des Peirceschen Pragmatizismus und seiner wissenschaftlichen Relevanz in der bildwissenschaftlichen, der kulturwissenschaftlichen Forschung, der Forschung der Kognition und der Logik auch eine hohe Aktualität für die Verbindung von natur- und geisteswissenschaftlicher Forschung.“ –

370

5. Kap.: Dialogische Prämissensuche

Konzeption wendet sich Peirce explizit gegen die überkommenen Denkgesetze der traditionellen Logik, insbesondere das Gesetz vom ausgeschlossenen Dritten (tertium non datur) und das Gesetz des Nicht-Widerspruchs. Anstelle von „Inkonsistenz“ spricht er von „Vagheit“ („vagueness“) und „Allgemeinheit“ („generality“).279 Peirce nennt alles, was „vage“ und „generell“ in diesem Sinne ist, ein „Zeichen“ (engl. „sign“).280 Er behauptet, dass alle Ideen eine derartige Zeichen-Struktur haben, letztlich sogar der Mensch und das Leben selbst. Er ebnet damit den Unterschied zwischen „real“ und „ideal“ ein. Nach Rescher und Brandom281, die sich intensiv mit dem Peirceschen Ansatz auseinandergesetzt haben, konvergieren so „Standard-Welten“ mit (möglichen) „Nicht-Standard-Welten“. Sie sprechen von „Vagues“ und „Generals“ als „Quasi-Objekten“, die Peirce in einen gemeinsamen Bezugsrahmen mit der realen Welt einordne. Diesen Rahmen nenne er „Scholastischen Realismus“ (engl. „Scholastic Realism“).282 Eine solche Betrachtungsweise erlaube es, auch inkonsistente und unvollständige Objekte – methodisch gesehen – als „real“ zu betrachten.283 Peirce entwickelt hier auf der Grundlage seiner Kategorienlehre ein (monistisches) Kontinuum von Denken und Sein, das es ihm ermöglichen soll, auch mögliche und denkbare „Quasi-Objekte“ in seiner „Logik“ zu berücksichtigen.284 Er hat damit Siehe auch Engel/Queisner/Viola (Hrsg.), Das bildnerische Denken: Charles S. Peirce, Berlin 2012. 279  Peirce, in: Collected Papers 5.448: „Perhaps a more scientific pair of definitions would be that anything is general in so far as the principle of excluded middle does not apply to it and is vague in so far as the principle of contradiction does not apply to it“ – zitiert nach Rescher/Brandom, S. 124. 280  Wyss (2009), S. 123–124: „Der pragmatische Zeichenbegriff von Peirce lässt sich unabhängig von der Sprachwissenschaft auf Phänomene der Kunst und der visuellen Kommunikation übertragen. (…) Nach Peirce bezieht sich das Zeichen auf das bezeichnete Objekt in dreifacher Weise: als Ikon, als Index und als Symbol. Das Symbol ist dabei das ‚sprachlichste‘ der drei Aspekte: es handelt sich um den arbiträren, konventionellen Charakter der Zeichen, so sie lesbar sind im Rahmen kultureller Übereinkünfte und Gewohnheiten. (…) Ein Zeichen kann nur als Zeichen wirken, wenn der symbolische Aspekt wenigstens andeutungsweise erkannt ist. Symbol und Index sind ineinander verschränkt. Ab wann ist der rote Fleck am Hals ein Zeichen? Erst wenn ein Wissen hinzutritt; ein Kenner kann feststellen, dass der rote Fleck am Hals weder ein Muttermal noch ein Ekzem, sondern ein prangender Liebesbeweis ist, der Einsame neidisch, Gatten misstrauisch und Konkurrenten vorsichtig machen sollte.“ 281  Rescher/Brandom: The Logic of Inconsistency. A Study in Non-Standard Possible-World Semantics and Ontology, Oxford 1980. 282  Rescher/Brandom, S. 125. 283  Rescher/Brandom, S. 125: „It is the view that inconsistent and incomplete objects are methodologically real“. 284  Dazu die gelungene Darstellung bei Zink, Julia: Kontinuum und Konstitution der Wirklichkeit. Analyse und Rekonstruktion des Peirce’schen Kontinuum-Gedankens, Dissertation München 2004.



IX. Logik der Vagheit371

gleichzeitig den Versuch unternommen, das einseitig an Axiomen ausgerichtete Logik-Verständnis um eine dialogisch begründete Schlussform, genannt „Dialogismus“, zu ergänzen. Peirce beschreibt den „Dialogismus“ in expliziter Gegenüberstellung zum Syllogismus so: „Dialogismus. Eine Form des Schließens, in der aus einer einzelnen Prämisse eine disjunktive oder alternative Proposition gefolgert wird, indem man einen zusätzlichen Terminus einführt – im Gegensatz zum Syllogismus, in dem aus einer zusammengesetzten Proposition eine Proposition geschlossen wird, aus der ein Terminus elimiert wurde. Syllogismus. Alle Menschen sind Lebewesen, und alle Lebewesen sind sterblich. (…) Alle Menschen sind sterblich. Dialogismus. Einige Menschen sind sterblich. (…) Entweder sind einige Menschen keine Lebewesen, oder einige Lebewesen sind nicht sterblich.“285

Vor diesem Hintergrund wird nun auch klar, was es mit der von Peirce entwickelten dritten Schlussform „Abduktion“286 neben Deduktion und Induktion auf sich hat. Eberhard Döring sieht darin eine Art „logische Metapher“287, um die „Wegführung“ von schon bekanntem Wissen im Rahmen der Hypothesenbildung zu umschreiben. Peirce interpretiert Hypothesen als innovierendes Moment des Schlussfolgerns. Eine Hypothese – in der Terminologie von Peirce ein „Hypo-Ikon“288 – setze eine neue Metapher, „einen einzigen Begriff“, „an Stelle eines komplizierten Durcheinanders von Prädikaten, die sich auf ein Subjekt beziehen“.289 285  Peirce

(1986b), S. 343. (1986), S. 393–394: „Das Argument umfasst drei Arten, Deduktion, Induktion und Abduktion (gewöhnlich als die Annahme einer Hypothese bezeichnet). (…) Die Deduktion ist darin obsistent, dass sie die einzige zwingende Argumentationsweise ist. Ein originäres Argument oder eine Abduktion präsentiert in seiner Prämisse Tatsachen, die eine Ähnlichkeit zu der in der Konklusion behaupteten Tatsache darstellen, die jedoch ebensogut wahr sein könnten, ohne dass die Konklusion es wäre, um so mehr, ohne dass sie akzeptiert würde. Wir haben also keine Veranlassung, die Konklusion positiv zu behaupten, sondern werden nur dazu neigen, sie zuzulassen, insofern sie eine Tatsache wiedergibt, für die die Tatsachen der Prämisse ein Ikon bilden.“ – Sebeok/Umiker-Sebeok, S. 96: „An anderer Stelle (Collected Papers 7.219; vgl. Ms. 692) schrieb er: ,[…] Abduktion ist letzten Endes nichts anderes als eine Annahme.‘ “ – Zur Diskusson Fann, Kuang. T.: Peirce’s Theory of Abduction, The Hague 1970; Wirth, Uwe (1995), S. 405–424. 287  Döring, S. 170: „Die Erfindung – oder Bildung von geeigneten Hypothesen oder Metaphern zur Lösung von Problemen wird von Peirce mit der logischen Metapher der ‚Abduktion‘ bezeichnet, die sozusagen als ‚tertium datur‘ zur Dichotomie von Induktion und Deduktion hinzutritt“. 288  Peirce hat dabei schon früh die Frage der „degenerierten Indexikalität“ aufgeworfen, siehe Brunning, S. 114–125. 289  Peirce (1967), S. 170. – Siehe ferner Anderson, Douglas R.: Creativity and the Philosophy of C. S. Peirce, Dordrecht 1987. 286  Peirce

372

5. Kap.: Dialogische Prämissensuche

Peirce’ Neigung, sich im Verlauf seiner Logik-Studien auch intensiv mit der Metaphorizität der Sprache auseinanderzusetzen, trug ihm jedoch schon zu Lebzeiten den Vorwurf der Sprachverwirrung (sog. „Peircean disease“) ein.290 Ines Riemer betont, dass Peirce das synthetische Schließen aufgespalten habe in Induktion einerseits und die neu begründete Schlussform „Abduktion“ andererseits, um sich durch diese Differenzierung von der Auffassung abzusetzen, wonach jeder nicht-deduktive Schluss automatisch auch eine Induktion darstelle. Wesentlich sei an dieser Konzeption, dass es Peirce dadurch gelinge, den traditionellen Dualismus, der sich in den Begriffspaaren „deduktiv / induktiv“ bzw. „analytisch / synthetisch“ bzw. „wahrheitskonservierend / gehalterweiternd“ ausdrücke, zu relativieren. Dieser traditionelle Dualismus zwischen Deduktion und Induktion werde bei Peirce durch eine Trichotomie von Deduktion, Induktion und Abduktion abgelöst.291 Charakteristisch für die Logik-Konzeption Peirce‘ ist nach Susanne Rohr, dass er das „unsichere, anarchische, kreative Moment“ in das Zentrum seiner Erkenntnistheorie stelle. Die Potenz der Peirceschen semiotischen Erkenntnistheorie liege darin begründet, dass sie die Unberechenbarkeit, die immer auch mit abduktiven, kreativen Leistungen verbunden sei, nicht als Störfaktor ausblende, sondern ganz im Gegenteil zu ihrem ebenso dynamischen wie fruchtbaren Ausgangspunkt wähle. Im Verlauf seiner Arbeit habe Peirce auch gegenläufige Tendenzen reflektiert, um das überbordende abduktive Moment zu kanalisieren. Der wichtigste Aspekt insoweit sei der Fallibilitätsvorbehalt, der jede Erkenntnis unter den Vorbehalt des Vorläufigen stelle. Ferner wirke die Einbettung individueller Erkenntnisprozesse in soziale Prozesse als Regulativ. Im Kommunikationszusammenhang einer unbegrenzten Interpretationsgemeinschaft bilde sich ja der jeweilige Wahrheits-Konsens der Erkennenden approximativ, nähere sich so dem idealen Grenzwert der „final opinion“. Die anarchische Potenz, die in jeder Abduktionsleistung individuell frei werde, werde durch das nachfolgende deduk­ tive und induktive Prüfungsverfahren in intersubjektiv nachvollziehbare Bahnen gebracht. Rohr beschreibt die paradoxen, in sich widersstreitenden Effekte innerhalb des Peirceschen Ansatzes sehr anschaulich wie folgt: „Was diese semiotische Erkenntnistheorie mit ihrem vitalen Zentrum der Abduktion leistet, ist somit eine gleichzeitige Befreiung und Zähmung der Kreativität. Befreit ist sie, weil ihr als einzigem Mittel der Weltaneignung von Peirce der zentrale Platz in allen Erkenntnisvorgängen zugewiesen wird. ‚Abduction is nothing but guessing‘, sagt er, und damit ist festgestellt, dass die Welt grundsätzlich er-raten werden will, geleitet von der Hoffnung, dass ‚although the possible 290  Döring, 291  Riemer,

S. 165. S. 15.



IX. Logik der Vagheit373 explanations of our facts may be strictly innumberable, yet our mind will be able, in some finite number of guesses, to guess the sole true explanation of them‘.“292

Umgang mit Ungewissheit als eine Art „gesellschaftliches Ratespiel“? Für Vertreter des Mainstreams mag dies Beleg genug sein für die Unseriosität des gesamten „poststrukturalistischen“ Unternehmens. „Eleganter Unsinn“ wäre, angesichts der diametral verschiedenen Praxis systematischer Risikoberechnung und Intelligence-Arbeit, eine ebenso despektierliche wie treffende Umschreibung. Dennoch, der Ansatz erfreut sich zunehmend seriöser Beurteilung. Gerade in der strategischen Risikobewertung, wenn es um das Antizipieren von sog. „Schwarzen Schwänen“ geht, rekurriert man auf das Prinzip der Serendipität.293 Statt schematischem Ableiten gilt unter erfahrenen Risikomanagern vermehrt die Maxime der „Narration statt Deduktion“.294 Eberhard Döring hatte vom „Zufall der Forschung“ gesprochen und damit den Stellenwert einer Strategie des „vagari“, Metapher für rast- und ruheloses vagabundierendes Denken, bei der Entdeckung von Neuem unterstrichen. Es geht dabei auch um mehr als ein „Stochern im Nebel“ oder „Schießen im Dunkeln“, wie der stellvertretende Leiter von Europol die eigene „Informationsarbeit“ und Datenanalyse eindrucksvoll umschrieben hatte, sondern um ein „kritisches Raten“ bzw. „Guessing“295 unter Experten, eine gekonnte Antizipation nach Art der docta ignorantia, des wissenden Nichtwissens, und der coniectura, der Kunst der Vermutung und „MutMaßung“, welche auf Nikolaus von Kues zurückgeht.296 Peirce‘ revolutionärer Gedankenschritt besteht darin, sich nicht nur die Unbestimmtheit und Vieldeutigkeit von Wörtern einzugestehen, sondern 292  Rohr,

S. 166. S. 209, 388. 294  Hampe, Michael: Macht des Zufalls. Vom Umgang mit dem Risiko, Berlin 2006. 295  Peirce (1929), S. 271–282. 296  Casper, S. 91–92: „Nikolaus von Kues (+1464) z. B. hat mit dem Grundsatz seines wissenschaftsgeschichtlich gesehen vermutlich wichtigsten Werkes De conjecturis (1442) darauf aufmerksam gemacht, dass alles menschliche Wissen seinem Wesen nach Mut-maßung (conjectura) sei. Um das, was eigentlich in den Wissenschaften geschieht, zur Sprache zu bringen, erfindet Cusanus ein eigenes Verbum: conjecturari, welches heutige Übersetzer wie Leo Gabriel und Kurt Flasch mit mutmaßen wiedergeben. Mut, – mittelhochdeutsch muot – steht dabei für das Ganze der menschlichen Existenz, die mit den Kräften der Vernunft an die Wirklichkeit als eine zu erforschende herangeht und sie zu vermessen sucht. Derart besteht die Praxis der Wissenschaft ihrem Wesen nach in Mut-maßung. Die Eingangsthese von De conjecturis lautet dementsprechned: ‚Jede positive menschliche Behauptung von etwas Wahrem ist Mut-maßung. Denn nicht ausschöpfbar ist das Vermehren der Kenntnis des Wahren‘ (omnem humanam veri positivam assertionem esse conjecturam; non enim exhauribilis est adauctio apprehensionis veri).“ 293  Taleb,

374

5. Kap.: Dialogische Prämissensuche

darüber hinaus einzusehen, dass diese Tatsache durchaus im Sinne der Vernunft, d.  h. eines kontextsensitiven Denkens ist.297 In ähnlichem Sinne sprechen Martin Heidegger und andere von der „Vor-läufigkeit des Denkens“, welches ständig in Bewegung, d. h. unterwegs sei.298 Vernunft und vernünftige Entscheidungen beanspruchen offenbar um ihrer selbst willen ein dynamisches, kontextsensitives, ja „diskursives Moment“.299 Der Kontroll-Ansatz erweist sich insoweit als zu technisch, maschinenähnlich. Im Verhältnis zur Welt und innerhalb von sozialen Kontexten war „Kontrolle“ nie eine geeignete Übertragung. Erst jetzt, unter den gegebenen Bedingungen der hochtechnisierten Kontrolle zeigt sich, dass die Kontroll-Metapher – sowohl im Verhältnis zur realen Welt als auch in Bezug auf die komplexe Symbolik der menschlichen Interaktion – zu abstrakt, zu grob, d. h. unterkomplex, ist. Um die Gewalt des Diskurses (in einer hochvernetzten auf ubiquitären Datentransfer ausgelegten) Weltmediengesellschaft den Diskurs „ordnen“, „regulieren“ bzw. in der Balance halten zu können, bedarf es einer sublimeren, flexibleren Methodik.300 Einer Methodologie, die geeignet ist, die Zwischenräume zwischen den Gegensatzpaaren, Dichotomien, zu restrukturieren. Im Grunde geht es darum, die Banalität – und Inhumanität – des formalen Binärschemas zu entschärfen. In einer Ubiquitous Computing-Gesellschaft dominiert das technische input / output-Modell vollkommen. Die tatsächlich existierenden Zwischenräume, Schnittstellen, zwischen den Termini werden im Wege der parametrisierenden Dateneingabe, der Maschinenlesbarmachung, gleichsam unterschlagen. Erst die (Re-)Diskursivierung der Dichotomien, das dekonstruktive Hinterfragen der „oppositionellen Logik“, wie Derrida formuliert, erhöht die Chancen, das Tatsächliche wieder erkennbar zu machen, quasi den Zwischenraum, das throughput, innerhalb der input / output-Mechanik zu rekontextualisieren. In semiotischer 297  Siegel/Carey: Critical Thinking: A Semiotic Perspective, Bloomington, Indiana 1989. 298  Heidegger, S. 164: „Das Antworten auf die Frage ,Was heißt Denken?‘ ist selbst immer nur das Fragen als ein Unterwegsbleiben. Dies scheint leichter zu sein als das Vorhaben, einen Standort zu beziehen. Man schweift nach der Art eines Abenteurers ins Unbestimmte weg. Doch um unterwegs zu bleiben, müssen wir je zuvor und ständig den Weg beachten. Die Bewegung, Schritt vor Schritt, ist hier das Wesentliche.“ – Ähnlich Quine, Willard V. O.: Unterwegs zur Wahrheit: konzise Einleitung in die theoretische Philosophie., Paderborn 1995. 299  Rickert, S. VII-X (Vorwort zur dritten Auflage): „Wir gehen jedenfalls in die Irre, falls wir glauben, wir kämen mit der empirischen Anschauung allein oder mit dem rationalen Denken allein beim Erfassen irgendeiner theoretischen Wahrheit aus. (…) Ich begnüge mich hier mit dem Hinweis auf die Unentbehrlichkeit des diskursiven Momentes.“ 300  Schmid/Meckel, S. 339–367, die auf der Grundlage eines dreigliedrigen Zeichenbegriffs nach Peirce für die Etablierung eines zeitgemäßen Kommunikationsmanagements im digitalen Zeitalter plädieren.



IX. Logik der Vagheit375

Hinsicht steckt hinter diesen Überlegungen der Übergang von einer dyadischen (kybernetischen) zu einer triadischen (pragmatizistischen) Semiotik. Die Ironie der Geschichte besteht darin, dass man gewissermaßen hinter Descartes zurückgehen und Anschluss suchen muss an das vorcartesische mittelalterliche Denken, das noch sehr viel stärker mit den Mitteln des Diskurses um das veri simile, das „Wahr-Scheinliche“, kreiste. Peirce‘ Logik-Konzept stellt bei der Frage der Wahrscheinlichkeit jeweils auf den aktuellen, d. h. spätesten Zeitpunkt ab, wohingegen eine „Indikatorbasierung“ die Reduktion der Wirklichkeit zum frühest möglichen Zeitpunkt bewirkt. „Vagheit“ steht damit auch für die reale Unsicherheit der Wahrnehmung des Einzelnen, der sich aber trotzdem wagt, einen Gedanken „unscharf“ zu formulieren. Erst im anschließenden Dialog stellt sich das „Wirkliche“ heraus – entweder die Richtigkeit der metaphorischen „Übertragung“, d. h. der sprachlichen Deutung des in Rede stehenden Ereignisses im Sinne einer intersubjektiven Akzeptanz, oder aber die vorgetragene Hypothese, das Argument, die Beobachtung, wird nicht geteilt. Dann geht die Suche nach treffenden Übertragungen – die Suche nach Erkenntnis – weiter. „Wahrheit“ und „Wirklichkeit“ stellen sich im Verlauf des Diskurses als plausibel oder unplausibel oder als etwas dazwischen dar. Dieser Konsens über die „Wahrheit“ aber betrifft das Ende eines Denkvorgangs, den Abschluss eines Experiments, das zu einer validen und reliablen Aussage führt, dort, wo der Denkzwang der Deduktion aufgrund eines evidenten Erfahrungssatzes beginnt. Die Pointe des Peirceschen Denkansatzes besteht darin, dass er selbst auf der Suche nach einer „exakten Logik“ ist, diese aber nur auf der Grundlage einer „Logik der Vagheit“, die sich des Common sense und plausibler Argumente versichern will, für erreichbar hält.301 Keineswegs besteht das Ziel seines Logik-Ansatzes darin, alles Logische zu vernebeln, unscharf und vage zu gestalten. Ihm ist daran gelegen, die dyadische, in gewissem Sinne „vorschnelle“ Logik weiterzuentwickeln, dabei das auf einem Binarismus302 beruhende Präzisionsideal zu überwinden. 301  Peirce (2009a), S. 184: „It is now more than thirty years since my first pub­ lished contribution to ,exact‘ logic. Among other serious studies, this has received a part of my attention ever since. (…). My confidence that the key of philosophy is here, is stronger than ever.“ 302  Dazu Barthes (1983), S. 67–69: „Was den ersten Punkt betrifft, so steht fest, dass der Binarismus eine sehr weit verbreitete Tatsache ist; seit Jahrhunderten ist es ein anerkanntes Prinzip, dass sich die Information mit Hilfe eines binären Codes befördern lässt, und die meisten künstlichen Codes, die ganz unterschiedliche Gesellschaften erfunden haben, sind binär gewesen, vom ‚Buschtelegraph‘ (insbesondere dem talking drum der kongolesischen Stämme mit zwei Tönen) bis hin zum Morsealphabet und den heutigen Entwicklungen des ‚Digitalismus‘, oder alternativen Codes mit ‚digits‘, in der Mechanographie und der Kybernetik. Wenn wir jedoch die Ebene der ‚Logotechniken‘ verlassen und uns den nicht-künstlichen Syste-

376

5. Kap.: Dialogische Prämissensuche

Die Erforschung der Peirceschen pragmatizistischen Semiotik303, wie auch die Peirce-Forschung304 insgesamt, steht erst am Anfang. Sehr unterschiedlich ist daher der Ansatz interpretiert worden. Man hat ihn schlicht als „Lehre von den Zeichen“ bezeichnet. Andere haben darin eine Art „Metatheorie der Linguistik“ bzw. eine „spieltheoretische Semantik“ gesehen.305 Wieder andere erkennen darin mit Blick auf die spezifische Kontextorientiertheit eine Form von „Situationslogik“. Teilweise hat man im Peirceschen Ansatz als eine „verallgemeinerte Version des universalen spätmittelalter­ lichen Logik-Begriffs“ betrachtet.306 Es ist ferner die Rede von „Spekulativer Rhetorik“, „triadischer und abduktiver Logik“ und – wie gesehen – „dialogischer Logik“ bzw. „Logik der Interdisziplinarität“. Robert Brandom und Nicholas Rescher sprechen von „Logik der Inkonsistenz“ bzw. „Inkonsistenz-toleranter Logik“.307 Sie stellen fest, dass der Mainstream in der Logik-Forschung seit Aristoteles eine Phobie gegenüber men zuwenden, die uns hier interessieren, so erscheint die Universalität des Binarismus weitaus ungewisser. (…) die Universalität des Binarismus ist noch nicht begründet. Auch nicht sein ‚Naturell‘ (…) auch der Binarismus könnte eine Metasprache sein, eine besondere Taxonomie, dazu bestimmt, von der Geschichte verweht zu werden, von der sie ein richtiger Moment gewesen ist.“ 303  Sebeok/Umiker-Sebeok (1982), S.  96. – Eco (1985), S. 66–73; Reichertz (1993), S. 258–282; Ayim, S. 1–2; Biere, S. 155–175; Wirth, Uwe (2000) (Hrsg.) Die Welt als Zeichen und Hypothese. Perspektiven des semiotischen Pragmatismus von Charles S. Peirce, Frankfurt a. M. 2000. – Außerdem die ausgezeichnete, anschauliche Einführung Cobley/Jansz: Introducing Semiotics, Boston 1997. 304  Fisch (1977), S. 21–37; Fisch (1986), S. 376–400; Pape, Helmut (Hrsg.), Charles S. Peirce. Naturordnung und Zeichenprozess. Schriften über Semiotik und Naturphilosophie, Aachen 1988. 305  Pape (1986), S. 9–11: „Insofern Zeichen gegenüber den von ihnen dargestellten Objekten unbestimmt sind, lassen sie durch diese Vagheit ein unbestimmtes Feld für Interpretationen zu, das im weiteren Interpretationsprozess vom Interpreten des Zeichens (oder demjenigen, der es äußert) zur Bestimmung des Objekts genutzt werden kann. Peirce’ Logik der Vagheit kann deshalb als eine Vorform dessen dargestellt werden, was man heute spieltheoretische Semantik oder dialogische Logik nennt.“ 306  Blumenberg (1952), S. 134: „Der Grundzug des mittelalterlichen Denkens ist das metaphysisch tief verwurzelte Vertrauen, dass die Wahrheit sich ‚herausstellt‘, von sich selbst her sich durchsetzt. Diesem Vertrauen entspringt der dialektische Charakter der mittelalterlichen Erkenntnispraxis mit ihrem Prinzip der Disputation im weitesten Sinne, in der das ‚Kräftespiel‘ der Thesen und Argumente gleichsam ‚von selbst‘ zur Kristallisation des Wahrheitskernes führt, so dass es für den Denkenden primär darauf ankommt, die möglichen ‚Meinungen‘ gegeneinander ins Treffen zu führen. Von solchem Vertrauen in die Selbstbekundung der Wahrheit hat natürlich schon das Wahrscheinliche ein starkes Recht, ja es wird als solches gar nicht mit voller Schärfe gegen die Evidenz abgesetzt.“ 307  Rescher/Brandom: The Logic of Inconsistency. A Study in Non-Standard Possible-World Semantics and Ontology, Oxford 1980.



IX. Logik der Vagheit377

Inkonsistenz habe.308 Unter allen Umständen habe man den logischen Denkgesetzen, dem Gesetz vom ausgeschlossenen Dritten (tertium non datur) und dem Gesetz des Nicht-Widerspruchs, Geltung verschaffen wollen, da anderenfalls von „Logik“ nicht mehr die Rede sein könne. Rescher und Brandom behaupten demgegenüber unter Verweis auf die Argumentation Peirce‘, dass auch die Realität nicht konsistent sei. Es könne daher auch eine „Logik möglicher inkonsistenter Welten“ (sog. „non-standard possible worlds“) geben, ohne dass ein logisches Chaos ausbreche.309 Die dadurch entstehende ontologische Dissonanz sei lediglich ungewohnt und bizarr, aber keineswegs ein epistemisches Desaster.310 Inkonsistenz sei nicht nur vorteilhaft, sondern unter bestimmten Bedingungen sogar unvermeidbar, um sog. „Nicht-Standard-Welten“ verstehen zu können.311 Probabilismus und Induktionismus griffen zu gerne auf ein Standard-Welt-Konzept zurück. Die Realität zeige aber, dass es ein reales „Risiko von Inkonsistenz“ gebe, d. h. der Existenz von Nicht-Standard-Welten. Die Diskussion über induktive Logik habe zudem das Wahrscheinlichkeitskriterium als unbrauchbar zurückgewiesen: Das „Lotterie-Paradox“ zeige, dass ein einziger Fall genüge, um die Annahme von Standard-Welten als unzutreffend zu entlarven.312 Inkonsistenz systematisch auszuschließen berge aber die Gefahr der Ignoranz gegenüber dem realen Risiko. Logik müsse daher in gewissem Sinne die Beimischung von Inkonsistenz verdauen („to swallow some admixture of inconsistency“), wobei – wie Brandom und Rescher betonen – (konsistente) Standard-Welten und (nicht-konsistente) Nicht-Standard-Welten ontologisch gleichwertig seien.313 In der Logik-Forschung in der zweiten Hälfte des 20. Jahrhunderts habe es zudem eine Reihe von Ansätzen gegeben, u. a. die sog. „Dialektische Logik“, die „Symbolische Logik“, die „Unorthodoxe 308  Rescher/Brandom,

S. 1. S. 3–4. 310  Rescher/Brandom, S. 44: „It is often held that inconsistency is an indispensable requisite of cognitive rationality – that the toleration of any inconsistency, no matter how minor or local it may appear to be, is simply irrational. This contention is misguided. (…) Consistency, important though it be, is but one desideratum among others: it is not a be-all and end-all.“ 311  Rescher/Brandom, S. 27, 137: „The toleration of inconsistencies within the sphere of rational systematization is not only permissible, but in suitable circum­ stances it may be advantageous and perhaps even unavoidable.“ 312  Rescher/Brandom, S. 45–46: „The risk of inconsistency is an ineliminable fact of epistemic life. Its shadow dogs every step of the quest for ,a true picture of reality‘. Every theoretical extrapolation from the data runs the risk of clashing headon with some other. The data themselves may conflict and cry out for theoretical reconciliation. (…) But the removal of inconsistency may – in certain circumstances – exact an unacceptable price in terms of residual ignorance. The very aims and objectives of our cognitive enterprice constrain the risk of inconsistency upon us.“ 313  Rescher/Brandom, S. 47, 99. 309  Rescher/Brandom,

378

5. Kap.: Dialogische Prämissensuche

Quantentheorie“, Meinongs „Gegenstandstheorie“, Kripkes „Modal-Logik“, die eine Inkonsistenz-Toleranz zugrundelegten: „Logicians have looked inconsistency in the eye and are not totally horrified by what they see. Many oft them no longer believe that rationality will necessarily fly out of the window when inconsistency comes in the door. (…) The indications are that a new spirit is abroad nowadays. Logicians and philosophers are coming to take a new and more tolerant view of inconsistency.“314

Auch Ludwig Wittgenstein hatte das logische Gesetz von der Widerspruchsfreiheit bereits scharf attackiert: „Der Widerspruch. Warum grad dieses eine Gespenst. Das ist doch sehr verdächtig. (…) Mein Ziel ist, die Einstellung zum Widerspruch und zum Beweis der Widerspruchsfreiheit zu ändern.“315

Inzwischen hat auch der Diskurs des „Triadischen“316 breiten Zulauf – von einem „neuen Paradigma der Kulturwissenschaften“ ist die Rede. Was noch vor wenigen Jahren als seitliche Arabeske einer, so schien es, abstrakten und abgehobenen Wissenschaft galt, rückt heute in den Mittelpunkt der Forschung. Alexander Koschorke schildert anschaulich die Neuorientierung im Bereich der kulturwissenschaftlichen Theoriebildung: „Auf der Bühne der Epistemologie ist es im 20. Jahrhundert zu einer signifikanten Umbesetzung gekommen. Ins Rampenlicht der Theoriebildung tritt eine Gestalt, die bis dahin weitgehend zu einer Existenz off stage verurteilt war. Wenn überhaupt, dann durfte sie nur kurze Gastspiele geben, die meist mit einem Eklat endeten. Das hat sich geändert, seit neue Theorien den Spielplan bestimmen. Aus dem einstigen Spukwesen ist eine Schlüsselfigur geworden, die zwar ihren Mitspielern nicht ganz geheuer ist, aber von ihnen nichtsdestoweniger auf fast ehrerbietige Weise anerkannt wird. Es handelt sich um die Figur des Dritten.“317

Die klassische abendländische Episteme sei binär organisiert gewesen, dualistische Semantiken vom Typ wahr / falsch, Geist / Materie, Gott / Welt, gut / böse, Kultur / Natur, innen / außen, eigen / fremd hätten das Bild beherrscht. Demgegenüber räumten alle neueren Theorien, die sich mit Fragen der kulturellen Semiosis befassten, der „Instanz des Dritten“ eine entscheidende Rolle ein, um auf diese Weise in Erweiterung der aristotelischen Logik die Möglichkeit eines „tertium datur“ zu eröffnen und so einen neuen Umgang mit „systemischen ‚Fehlermeldungen‘ “ zu konzeptualisieren.318 314  Rescher/Brandom,

S. 60, 61. nach Rescher/Brandom., S. 61. 316  Breger/Döring (Hrsg.), Figuren der/des Dritten. Erkundungen kultureller Zwischenräume, Amsterdam 1998; Bhabha, Homi K.: Die Verortung der Kultur, Tübingen 2000; Fischer, S. 121–130; Weber, S. (1980), S. 204–221. 317  Koschorke, S. 9. 318  Grünes, S. 55–71. 315  Zitiert



IX. Logik der Vagheit379

Die Neuorientierung betrifft auch die juristische Grundlagenforschung und Rechtstheorie.319 Gerade die Verdachtsforschung hat sich verstärkt der semiotischen Erkenntnistheorie nach Peirce zugewandt.320 In der allgemeinen Logik, verstanden als Semiotik, sieht Arthur Kaufmann Ansätze für eine Fortentwicklung der juristischen Logik.321 Mit Nachdruck betont er, dass jede juristische Entscheidung als eine Art „Kompass“ so etwas wie eine „Abduktion“ im Peirceschen Sinne erfordere. Ohne ein „Vorverständnis“, ohne Hypothese, müsse man plan- und ziellos in Gesetzbüchern und Kommentaren blättern, ob man zufällig etwas Passendes finde. Das Vorverständnis sei ein ganz unverzichtbares Element des Rechtsgewinnungsverfahrens. Man habe sich dessen schon immer bedient, nur nicht gewusst, was hier logisch vor sich gehe. Eine laienhafte Form des Vorverständnisses sei das Rechtsgefühl, das auch – wie man heute wisse – die Struktur der Abduk­tion habe.322

319  Lege, Joachim: Pragmatismus und Jurisprudenz. Über die Philosophie des Charles Sanders Peirce und über das Verhältnis von Logik, Wertung und Kreativität im Recht, Tübingen: 1999; Klein, J., S. 81–110. – Ferner Winkler, S. 821–829, der von Peirce als „Stammvater aller Pragmatisten“ spricht (S. 823). 320  Schulz, Lorenz (1994), S. 193–204. – Ferner Reichertz (1993), S. 258–282. 321  Kaufmann, Arthur (2002), S. 83–95. 322  Kaufmann, Arthur (2002), S. 92. – Ferner Dickstein, M. (Hrsg.), The Revival of Pragmatism. New Essays on Social Thought, Law, and Culture, Durham 1998; Rorty, Richard: Philosophy and the Mirror of Nature, Oxford 1980; Putnam, Hilary: Repräsentation und Realität, Frankfurt a. M. 1991; Putnam, Hilary: Die Bedeutung von „Bedeutung“, 3. Aufl., Frankfurt a. M. 2004; Grey, S. 9–27. – Zur aktuellen rechtstheoretischen Diskussion Haack, S. 311–349; Schulz, Lorenz (2008), S. 286– 314. – Mit Verweis auf Robert Brandom Christensen/Sokolowski (2006a), S. 243: „Wir müssen das ‚Spiel des Gebens und Forderns von Gründen‘ analysieren, auf dem soziale Praxis beruht. (…) Damit der ins Auge gefasste Ansatz überhaupt Sinn macht, ist von der Besonderheit und Einzigartigkeit des Menschen als einem Begriffe verwendenden ‚diskursiven Wesen‘ auszugehen. Nur so kann das ‚Spezifische des Begrifflichen‘ angemessen erfasst und zugleich ein genuines Selbstbild des Menschen entworfen werden.“

6. Kapitel

Antizipative Verdachtschöpfung „Während sie die geschäftigen, gelb erleuchteten Reihen von Büros entlanggingen, sagte Anderton: „Die Theorie von Prä-Verbrechen ist Ihnen selbstverständlich geläufig. Ich nehme doch an, das dürfen wir voraussetzen.“ „Ich habe auch nur die Informationen, die der Öffentlichkeit zugänglich sind“, erwiderte Witwer. „Mithilfe Ihrer Präkog-Mutanten und dank Ihrer Courage ist es Ihnen gelungen, das System der Post-Verbrechensbekämpfung mit seinen Gefängnissen und Geldbußen endgültig abzuschaffen. Wir sind uns doch alle darüber im Klaren, dass Strafe nie ein sonderlich geeignetes Mittel zur Abschreckung war und einem Opfer, das bereits tot ist, wohl kaum ein großer Trost gewesen sein kann.“ Sie waren beim Fahrstuhl angekommen. Während der sie rasch nach unten brachte, sagte Anderton: „Was die strikte Einhaltung des Gesetzes angeht, haben Sie das grundlegende Hindernis bei der Umsetzung der Methodologie von Prä-Verbrechen vermutlich erkannt. Wir erfassen Individuen, die gegen keinerlei Gesetz verstoßen haben.“ Philip K. Dick, Der Minderheiten-Bericht, 20021

I. Musil – Vision einer relevanten Literatur In seinem Roman Der Mann ohne Eigenschaften2 schildert Robert Musil den formalen Prozess der Verdächtigung als sublimes symbolisches Ereignis aus der Erlebnisperspektive eines Betroffenen. Moosbrugger, ein des Mordes verdächtiger Zimmermann, „ein großer breitschultriger Mensch ohne überflüssiges Fett, mit einem Kopfhaar wie braunes Lammsfell und gutmütig starken Pranken“3, erfährt den Prozess der Verdächtigung als Beschuldigter ganz konkret als sprachliche Zuschreibung, als Folge fachsprachlicher Definitionsmacht.4 1  Dick,

S. 15. Robert: Der Mann ohne Eigenschaften. Roman, Bd. 1, Reinbek bei Hamburg 1992. 3  Musil, S. 67 – Die Geschichte des Sexualmörders Moosbrugger beruhte auf einem zeitgenössischen Kriminalfall, der im Wien des Jahres 1910 großes Aufsehen in der Öffentlichkeit erregte, siehe Müller-Dietz (2007), S. 210. 2  Musil,



I. Musil – Vision einer relevanten Literatur381

Musil beschreibt minutiös, wie Moosbrugger die Verdächtigung als zugleich schicksalhaft und rätselhaft empfindet und wie er darüber nachsinnt, was mit ihm im Strafverfahren geschieht. Indem Musil zeigt, wie Moosbrugger in seiner Gefängniszelle auf ganz naive, aber gerade darum wirkungsvolle Weise die Sprachproblematik umkreist, gelingt es ihm, das Denken Moosbruggers selbst darzustellen.5 Die Darstellung der Sprachproblematik, einerseits aus der Sicht des Betroffenen, andererseits aus der Sicht der Fachleute, die um Moosbruggers Zurechnungsfähigkeit streiten, macht so den sprachlichen Aspekt der Verdächtigung sichtbar. Zunächst nämlich bekommt Moosbrugger heraus, dass es der Besitz der Fachsprache, des juristischen, medizinischen und psychologischen Jargons, war, was den Herrschenden das Recht gab, über sein Schicksal zu befinden. Moosbrugger bemerkt, dass es auch von einem Jargon abhängen wird, wie mit ihm künftig verfahren wird – ob man ihn als „unzurechnungsfähig“ bezeichnen wird oder nicht. Die rechtliche Einordnung erscheint ihm letztlich als eine sprachliche, als eine Frage des Besitzes der Rechtssprache. 4

Musil geht es indessen nicht nur um die Rolle der Sprache als Mittel der Stigmatisierung und Konstitution von Realität. Er macht vielmehr die Frage des Zusammenhangs zwischen Wirklichkeit und Möglichkeit zum zentralen Thema und Ausgangspunkt seines Werks: „Wenn man gut durch geöffnete Türen kommen will, muss man die Tatsache achten, dass sie einen festen Rahmen haben: dieser Grundsatz, nach dem der alte Professor immer gelebt hatte, ist einfach eine Forderung des Wirklichkeitssinns. Wenn es aber einen Wirklichkeitssinn gibt, und niemand wird bezweifeln, dass es seine Daseinsberechtigung hat, dann muss es auch etwas geben, was man Möglichkeitssinn nennen kann. Wer ihn besitzt, sagt beispielsweise nicht: Hier ist dies oder das geschehen; sondern er erfindet: Hier könnte, sollte oder müsste geschehen; und wenn man ihm von irgendetwas erklärt, dass es so sei, wie es sei, dann denkt er: Nun, es könnte wahrscheinlich auch anders sein. So ließe sich der Möglichkeitssinn geradezu als die Fähigkeit definieren, alles, was ebensogut sein könnte, zu denken und das, was ist, nicht wichtiger zu nehmen, als das, was nicht ist.“6 4  Sehr anschaulich bereits Anatole France, dessen Hauptfigur Crainquebille, der wegen angeblicher Beleidigung eines Schutzmannes angeklagt ist, überwältigt wird von der Sprache und den Formen der Justiz, siehe France, S. 19: „Als Crainque­bille ins Gefängnis zurückgeführt worden war, setzte er sich auf den angeschmiedeten Stuhl und verharrte in stummem Staunen und stiller Bewunderung. (…) Denn da er weder in die Messe noch ins Theater ging, hatte er in seinem Leben nie etwas so Pompöses gesehen wie die Verhandlung im Gerichtssaal. Er wusste wohl, dass er nicht ‚verfluchter Polyp‘ gerufen hatte und dass man ihn zu vierzehn Tagen Gefängnis und fünfzig Franc Geldstrafe verurteilt hatte, weil er es gerufen haben sollte. Allmählich wurde diese Idee zu einem erhabenen Mysterium für ihn, zu einem dieser Glaubensartikel, dem die Frommen anhängen, ohne sie zu verstehen.“ 5  Arntzen (1983), S. 273. 6  Musil, S. 16.

382

6. Kap.: Antizipative Verdachtschöpfung

Das Mögliche, sagt Musil, umfasse nicht nur die Träume von Idealisten, Träumern und Phantasten, sondern auch „bewussten Utopismus“ und „noch nicht geborene Wirklichkeiten“.7 Musil, Mathematiker und Ingenieur, geht es hierbei um mehr als ein gefälliges Sprachspiel. Ihm ist es um die Auflösung der Dichotomie „Wirklichkeit“ / „Möglichkeit“ zu tun: Er stellt mit seinen Überlegungen zum Verhältnis von Wirklichkeits- und Möglichkeitssinn die Frage nach Funktion und Leistung von Literatur in der Gesellschaft neu. Er hat gleichsam die „Vision einer relevanten Literatur“8, d. h. einer Literatur, die mithilft, die geistigen Probleme der Zeit zu bewältigen. Er wehrt sich gegen das Bild von der funktionslosen, autonomen Kunst und plädiert für eine in intellektueller Hinsicht ernstzunehmende Literatur. Seine These: Die literarische Erkenntnisform ist der herkömmlich wissenschaft­ lichen gleichrangig: „Denn die wissenschaftliche Beurteilung neigt begreiflicherweise gern dazu, das Affektiv-Spielende im künstlerischen Schaffen auf Kosten des intellektuellen Anteils zu überschätzen, so dass der Geist des Meinens, Glaubens, Ahnens, Fühlens, der der Geist der Literatur ist, leicht als eine Unterstufe der wissenschaftlichen Sicherheit erscheint, während in Wahrheit diese beiden Arten von Geist zwei autonome Gegenstandsgebiete des Erlebens und Erkennens zugrunde liegen, deren Logik nicht ganz die gleiche ist.“9

Musil geht es um das Projekt einer „dichterischen Erkenntnis“, die sich ausdrückt in „Erkenntnisprosa“10 und einer „Utopie des Essayismus“.11 Ein derartiger Essayismus ist nach seiner Vorstellung engstens verwandt mit dem, was man im rationalistischen Kontext auch „Hypothesenbildung“ nennt: „In Ulrich war später, bei gemehrtem geistigen Vermögen, daraus eine Vorstellung geworden, die er nun nicht mehr mit dem unsicheren Wort Hypothese, sondern aus bestimmten Gründen mit dem eigentümlichen Begriff eines Essays verband. Ungefähr wie ein Essay in der Folge seiner Abschnitte ein Ding von vielen Seiten 7  Musil,

S. 16, 17. S. 451. – Ähnlich bereits die Selbstbeschreibung als „aufklärerischer Bote“ bei Matthias Claudius: „Ich kann doch nicht so ins Blaue schießen, muss doch jemand haben, nach dem ich ziele. Ich mag auch von keiner Distinktion zwischen Schriftsteller und Menschen Proben ablegen und meine Schriftstellerei ist Realität bei mir und sollt‘ es wenigstens sein, sonst hol’s der Teufel.“ – Zitiert nach Meissner, S. 29. 9  Zitiert nach Bolterauer, S. 456. 10  Bolterauer, S. 468  f. – Siehe Puknus, S. 747: „Also auch ‚Erkennen‘ wird gefordert, das bloße ‚Nebeln und Schwebeln‘ war Hoffmann schon im ‚Sandmann‘ verhasst.“ 11  Schönert, Jörg (Hrsg.), Erzählte Kriminalität: Zur Typologie und Funktion von narrativen Darstellungen in Strafrechtspflege, Publizistik und Literatur zwischen 1770 und 1920, Tübingen 1991. 8  Bolterauer,



I. Musil – Vision einer relevanten Literatur383 nimmt, ohne es ganz zu erfassen, – denn ein ganz erfasstes Ding verliert mit einem Male seinen Umfang und schmilzt zu einem Begriff ein – glaubte er, Welt und eigenes Leben am richtigsten ansehen und behandeln zu können.“12

Die Frage „Wozu Kunst?“ beantwortet Musil demzufolge konsequent: „Weil es Dinge gibt, die sich nicht wissenschaftlich erledigen lassen.“ Alice Bolterauer beschreibt dieses Grundmotiv so: „Die Existenz von Dingen, die sich gegen die zersetzende Analyse einer positivistischen Wissenschaftlichkeit sperren, ist für Musil kein Grund, dass Dichtung ihren Rückzug von jedem Anspruch auf Intellektualität anzutreten habe. Ein solcher Rückzug in ‚Reich der Poesie‘ käme nämlich einer Flucht gleich. Gerade dies möchte Musil vermeiden.“13

Die „neue, einer Vermittlung von Rationalität und Irrationalität adäquate Methode“ findet Musil in einer utopisch-essayistischen Schreibweise.14 Ingeborg Bachmann hat die Person Robert Musil, seinen Denkansatz, der zwischen festen definitiven Punkten zu verorten ist, und das Lebenswerk Musils Der Mann ohne Eigenschaften in einem Essay sehr feinsinnig interpretiert. In einem erfundenen Dialog mit dem Dichter spricht sie von einem „geistigen Kampf“, der „vor den Linien der Wirklichkeit für eine neu zu schaffende ausgefochten“ werde: „2. SPRECHER Es wird Zeit, dass wir endlich zu definieren versuchen, was ein Mann ohne Eigenschaften ist. Der Ausdruck verführt zu den verschiedenartigsten Assoziationen – vom Menschen aus der Retorte bis zum Menschen ohne Charakter. 1. SPRECHER Ulrich ist weder das eine noch das andre, er hat nur, kurz gesagt, mehr Möglichkeitssinn, und diese Eigenschaft – nein, nicht Eigenschaft, sonst hätte er doch eine – macht ihn zu einem Mann ohne Eigenschaften. Als Mann ohne Eigenschaften steht er unter einer doppelten Kontrolle: der seines disziplinierten Denkens und der seiner Sensibilität in den Dingen des Gefühls. Natürlich hat er auch Wirklichkeitssinn, denn er ist weder ein Phantast, noch ein Idealist, der zur Flucht aus der Wirklichkeit neigt. Aber sein Sinn für die noch nicht geborene Wirklichkeit, also die Möglichkeit, treibt ihn zu einem geistigen Kampf, der vor den Linien der Wirklichkeit für eine neu zu erschaffende ausgefochten wird. Er ist, man wird es sagen müssen, auf die Gefahr hin, ihn einem Missverständnis auszusetzen, ein Utopist.“15

Ingeborg Bachmann bringt dadurch anschaulich zum Ausdruck, dass sich das Denken Musils gewissermaßen im Vorfeld des Begriffs, im „Prä-Diskursiven“ bewegt – dort, wo das historische Geschehen, der Prozess der Rea12  Musil,

S. 250. S. 438. 14  Bolterauer, S. 437. 15  Bachmann (1993), S. 14–15. 13  Bolterauer,

384

6. Kap.: Antizipative Verdachtschöpfung

litätskonstitition, noch beeinflusst werden kann. Das Schöpferische macht den „Utopisten“ aus im Sinne der U-topoi, jener Nicht-Orte, die für ein Phänomen stehen, für die es aber noch keinen eingeschliffenen Begriff, und damit noch keine Denkgewohnheit gibt. Musils Denken ist ein Denken wider das Schema, das den Dingen und Phänomenen feste Eigenschaften zuordnet und bereits alles weiß, noch ehe die „Wirklichkeit“ selbst gewissermaßen tatsächlich zu Wort kommen konnte. Nach Klaus Lüderssen ist der Frage nach der Erkenntnisfunktion von Literatur16, der Streit also, ob Literatur „Fiktion“ oder „Erkenntnis“ sei, ähnlich schwierig zu entscheiden, wie die Übergänge zwischen Venen- und Arterienblut im Kapillarsystem. Was damit gemeint sei, könne die „ ‚exakte‘ Wissenschaft“ in letzter Konsequenz nie zeigen. Die Literatur aber könne es, vielleicht. Sie reiche der Wissenschaft damit eine Hand, die diese ruhig ergreifen sollte.17 Ähnlich argumentiert auch Alexander Honneth, der Kunst und Literatur metaphorisch als „zeitdiagnostische Sonden“ auffasst.18 Die Überzeugung Musils, dass Literatur eine eigene Erkenntnisform mit gesellschaftlicher Funktion ausmacht, findet sich in vielerlei Hinsicht bestätigt: Literarische Kriminalfälle sind bisweilen so sprachlich sensibel und realitätsnah „vertextet“, dass sie wertvolle Einsichten für die tatsächliche psychiatrische Praxis bieten. In Schuld und Sühne etwa hat Fjodor M. Dostojewski, mit 27 Jahren wegen politischer Verschwörung verhaftet, zum Tode verurteilt und erst auf dem Richtplatz zu fünf Jahren Festungshaft in Omsk in Sibirien begnadigt, eine eindrucksvolle Schilderung der inneren Tatseite eines Mordfalls gegeben. Hans-Ludwig Kröber, der sich aus der Sicht der forensischen Praxis im Rahmen seiner psychiatrischen Gutachtertätigkeit einer ähnlichen Herausforderung gegenübersieht, notiert hierzu: „Es gibt im Text des Romans keine Deutungen, keine Interpretationen, sondern nur Beschreibungen der Abläufe sowie der inneren Befindlichkeit der Hauptperson. Dostojewskij ist immer in Nahaufnahme am Geschehen; er will den Leser in Atem halten. Stets wird nicht alles gesagt, sondern es wird noch etwas Wesentliches zurückgehalten, es wartet noch eine Pointe, die zur Umdeutung des vermeintlich Verstandenen zwingt.“19

Wie bei Dostojewski, so Kröber, schildern wirkliche Täter eigentümliche Fremdheitsgefühle vor der Tat. Sie schildern später, sie hätten die Tat „wie im Film“ erlebt, sie hätten das Gefühl gehabt, 16  Bohrer (1981), S. 23 f. der eine Theorie der Narration als „Entdeckungsstrategie“ auffasst. 17  Lüderssen (2002d), S. 83, 85. 18  Honneth (2011), S. 271. 19  Kröber, S. 210.



I. Musil – Vision einer relevanten Literatur385 „neben sich zu stehen – wie Raskolnikov beim Blick über die Newa, so etwas wie ein emotionale Anästhesie: Die Schönheit des Bildes wird kognitiv verstanden, aber nicht erlebt. In der Zeit nach der Tat mag dies an der schwarzgalligen Perspektivlosigkeit liegen, an einem Welt- und Zukunftsverlust infolge des Kapital­ verbrechens.“20

In der sog. „literarischen Hermeneutik“ hat man versucht, eine derartige Erkenntnisfunktion der Literatur systematisch zu reflektieren. Peter Szondi sieht literarische Hermeneutik tatsächlich als eine Art Über-Setzung von dem noch gestaltlosen Phänomen, dem „Vorbegrifflichen“, in die Sprachwelt an: „Der Hermeneut ist ein Dolmetscher, ein Vermittler, der aufgrund seiner Sprachkenntnis das Unverstandene, das nicht mehr Verständliche, verständlich macht.“21

Er spricht insoweit von der „Präfiguration des Neuen“ – etwas, das Theodor Adorno als „Wortefinden für das, was sonst wortlos ist“ bezeichnet hat.22 Nach Szondi ist in dem Begriff „Prä-figuration“ zwar einerseits das zeitliche Gefälle, die „Differenz von Verheißung und Erfüllung“ festgehalten, andererseits sei diese aber auch zugleich eingeebnet.23 Literatur bilde als sensus grammaticus gleichsam das Vorfeld der Begriffsbildung und nehme als sensus litteralis zugleich das Kommende vorweg. Hier hat die Utopie ihren Platz. Man kann insoweit geradezu von einem präfigurativen Effekt von Utopien sprechen. In sprachpragmatisch, performativer Perspektive, d. h. in Bezug auf die diachrone und synchrone Wirkungsmacht der Sprache, wird so die für die Utopie behauptete Einheit von Fiktionalität und Faktizität verständlich. Mit anderen Worten, das paradoxe Phänomen der Gleichzeitigkeit des Ungleichzeitigen, die „Verstrickung von Altem und Neuem“24, gewinnt gerade in einem solchen erweiterten Wirklichkeitskontinuum Kontur. Neuere literaturwissenschaftliche Untersuchungen zur Kriminalliteratur bestätigen einen solchen Zusammenhang. Zu Dürrenmatts Der Verdacht schreibt Christoph Vratz: „Dürrenmatt zeigt in seinen auf gezielter Kontrapunktik basierenden Kriminalromanen, dass sich die Strukturen von ‚Welt‘ in fiktionalen Texten sowohl auf abstrakter Ebene als auch auf mathematisch-konkrete, spiegelbildliche Weise abbilden lassen, und, daraus folgernd, dass dieses Spannungsverhältnis im Text mit der realen Welt korrespondiert. Die dadurch neu erzeugten ‚möglichen Welten‘ wollen nicht allein die Realität kopieren, sondern sie verständlich machen.“25 20  Kröber,

S. 214 (Hervorhebung N. R.). S. 15. 22  Zitiert nach Wyss (2009), S. 53 [Adorno, Theodor: Ästhetische Theorie, Frankfurt a. M. 1970, S. 189]. 23  Szondi, S.  17 f. 24  Walter-Schneider, S. 15. 25  Vratz, S. 373. 21  Szondi,

386

6. Kap.: Antizipative Verdachtschöpfung

Möglichkeit und Wirklichkeit sind nicht mehr antagonistisch zu trennen, sondern ihre Unterscheidung hebt sich in einer neuen Sprachwirklichkeit auf.26 Zugleich verändern sich mit der gewandelten, literarisch erweiterten Wirklichkeitsvorstellung aber auch dramatisch die Chancen der Erkennbarkeit der Wirklichkeit. „Utopie“27 von der „Wirklichkeit“ rigide scheiden zu wollen, erscheint aus dieser Sicht fragwürdig. Utopie, verstanden als eine vorgestellte mögliche Welt, ist offenbar Teil der Wirklichkeit.28 Mit der Einschränkung indessen, wie der Duden sagt, „noch nicht“29 vollends als Wirklichkeit erkennbar zu sein. Die Dichotomie Wirklichkeit / Möglichkeit verliert aus der Perspektive des vorhandenen – möglichen – zeitlichen Zusammenhangs an Plausibilität. Verortet man das Utopische in der Welt des Möglichen, so ist es gleichzeitig Teil der Wirklichkeit und nicht per se exkludiert, d. h. un-realistisch. Dieser Gedanke ist grundlegend und richtungsweisend. Er betrifft bei Licht besehen das Verständnis von „Wirklichkeit im weiteren Sinne“. Die Möglichkeit wird bei einer solchen Betrachtungsweise gewissermaßen zum „Vorfeld der Wirklichkeit“. Zur Wirklichkeit gehört das Potenzial der möglichen Entwicklung; es trägt, wenn man so will, das Mögliche in sich. Einen ähnlichen Gedanken hatte bereits Friedrich Hölderlin in seinen „Theoretischen Versuchen“ formuliert: „Wirklichkeit und Möglichkeit ist unterschieden, wie mittelbares und unmittelbares Bewusstsein. Wenn ich einen Gegenstand als möglich denke, so wiederhol ich nur das vorhergegangene Bewusstsein, kraft dessen er wirklich ist. Es gibt für uns keine denkbare Möglichkeit, die nicht Wirklichkeit war.“30

Entscheidend ist aber, dass auch die utopische Ideenwelt und fiktionale Szenarien Teil der Wirklichkeit sind, solange und soweit sie Wirkungen für die sich herausbildende Wirklichkeit entfalten.31 Die Vorstellung eines derartigen monistischen Wirklichkeitskontinuums entspricht keineswegs dem 26  Kleinschmidt,

S. 72–84. (2001), S. 1025 f. „utopisch“ „nur in der Vorstellung, Fantasie möglich, mit der Wirklichkeit (noch) nicht vereinbar, nicht durchführbar“. 28  Watzlawick, Paul: Wie wirklich ist die Wirklichkeit? Wahn. Täuschung. Verstehen, 21. Aufl., München 1996. 29  Zur Ontologie des „Noch-Nicht-Seins“ und zum Begriff des „Noch-nicht“, Bloch (1974b), S. 28–44. 30  Hölderlin, S. 597. – Vergleichbar die Argumentation bei Peirce (1993), S. 96: „Denn auch Möglichkeiten können real sein, wie wir sehen werden. Selbst die subjektivste aller Möglichkeitsarten, die darin besteht, dass wir nicht wissen, dass das mögliche Objekt nicht existiert, besitzt soviel Realität, dass die Frage, ob irgend etwas möglich ist oder nicht, die Frage ist, ob ich wirklich (really) seiner Nicht­ existenz gegenüber in einem relevanten Sinn unwissend bin oder nicht.“ 31  Mit Beispielen Kuzmics/Mozetiĉ: Literatur als Soziologie. Zum Verhältnis von literarischer und gesellschaftlicher Wirklichkeit, Konstanz 2003. 27  Duden



II. Erkenntnisprosa als „Frühwarnsystem“ 387

Mainstream.32 Im Gegenteil, wer so denkt, sitzt „zwischen zwei Stühlen“ und setzt sich schnell dem Verdacht der Vernunftlosigkeit aus.33 Das gilt selbst heute noch für weite Kreise der Wissenschaft, insbesondere aber – von Ausnahmen abgesehen – auch für die Rechtswissenschaften.34 Gegenüber den Exaktheitspostulaten des überkommenen und weithin praktizierten positivistischen Tatsachendenkens wirkt vages utopisches Denken störend – „deduk­ tionsstörend“.35 „Utopismus“ lautet ohne Umschweife die verunglimpfende Bezeichnung für ein befremdendes Denken, dem man ebensoviel Realitätsferne und Weltfremdheit attestiert wie verdächtige Nähe zum Gefühl.

II. Erkenntnisprosa als „Frühwarnsystem“ Was bedeutet dies im vorliegenden Kontext? Wie sind Utopien, wie etwa Philip K. Dicks Erzählung Minority Report, vor diesem Hintergrund zu deuten? Das perfektionierte System der Verbrechensprophylaxe, das Dick in Minority Report entwickelt, ist dem beschriebenen realen System „pro-aktiver“ Verdachtschöpfung im Ansatz jedenfalls sehr ähnlich. Das vorgestellte Dicksche Früherkennungssystem fußt auf „präkognitiven“36, das System der 32  Zur amerikanischen Rechtstheorie-Diskussion Kevelson (2000), S. 22–23: „In this sense, new modes of reasoning are called for which are appropriate to new concepts of wholeness. The law of the 21st century ought not be reactionary to that of ancient life. The idea of law is a continuum. The idea of the people is a continuum. The idea of reason is a continuum. The more things change the less they remain the same; the old adage is a good example of bad commonsense.“ 33  Casper (2006), S. 90: „Zwischen zwei Stühlen zu sitzen scheint heute mehr denn je für einen Wissenschaftler tödlich zu sein. Denn die Befähigung zu Wissenschaft muss darin gesehen werden, etwas eindeutig darlegen und beweisen zu können – clare et distincte. Wissenschaft muss sich, wenn sie denn exakt sein will, als Fachwissenschaft verstehen, als das Sichauskennen in einem begrenzten Ganzen von Sachzusammenhängen, in deren durch eine jeweilige Methode konstituiertem Netz allerdings – vorerst zumindest – immer auch noch Zusätzliches entdeckt werden kann. Für ein anderes Fachgebiet aber ist ein anderer Fachwissenschaftler zuständig. (…) Es verwundert deshalb nicht, dass eine vor zehn Jahren erschienene ‚Enzyklopädie und Wissenschaftstheorie‘, die sich selbst als das ‚größte allgemeine philosophische Lexikon in deutscher Sprache – von internationalem Rang‘ nennt, auf die Stichworte ‚interdisziplinär‘ und ‚Interdisziplinarität‘ verzichten konnte.“ 34  Müller-Dietz (2007), S. 215: „Die traditionelle – und gerade von Laien leicht nachvollziehbare – Betrachtung fußt auf der strikten Entgegensetzung von Realität und Fiktion. Gewiss lassen sich diese Trennung und Unterscheidung auch heute wenigstens in heuristischer Absicht – vielleicht auch als Arbeitshypothese – festhalten. Doch ist diese dichotomische Sichtweise im Zuge der neuern literaturwissenschaftlichen und historischen Forschung zunehmend problematisiert worden – und auch problematisch geworden.“ 35  Viehweg (1974), S. 105. 36  Dick, S. 69.

388

6. Kap.: Antizipative Verdachtschöpfung

„pro-aktiven“ strategischen Sozialkontrolle auf „prognostischen“ Informa­ tionen. Bei Dick werden Menschen nicht wegen begangener Verbrechen angeklagt, sondern „wegen eines Verbrechens, das sie begehen werden“37. Das präventivpolizeiliche System verspricht vermeintlich absolute Sicherheit. Sein Erfinder, der Polizeichef John Anderton, glaubt fest daran – solange, bis plötzlich sein eigener Name auf der Verbrecherliste auftaucht. Damit beginnt ein Wettlauf gegen das System. Die negative Prognose, ein möglicher Mörder zu sein, setzt eine verhängnisvolle Eigendynamik in Gang. Für Anderton wird die Vorhersage auf der Grundlage „präkognitiven Materials“ zum unausweichlichen Schicksal. Am Ende tötet er kaltblütig. Das Stigma des möglichen Mörders realisiert sich in einer – scheinbar – unhintergehbaren self-fulfilling prophecy.38 In Dicks negativer Utopie haben sich Polizei und Politik kompromisslos einer Art „prä-aktiver Strafverfolgung“ verschrieben und damit blind, ja letztlich fatalistisch, dem Präventionsgedanken unterworfen. Unterworfen hat sich das System damit aber auch einer rein quantitativen Logik. In Minority Report nämlich unterliegt der Minderheitenbericht eines der drei Präkog-Mutanten, der letztlich keine Tatbegehung vorhersagte, dem Mehrheits-Votum der beiden anderen. Minority Report ist so eine düstere Parabel auf die Unerbittlichkeit der rechnenden Rationalität, der automatisierten kontextlosen Kalkül-Logik. Die Tatsache, dass einer der Mutanten es für möglich hielt, dass der Protagonist Anderton seine Mordpläne würde aufgeben, fiel nicht ins Gewicht. Minority Report ist so gesehen eine Warnung vor dem Risiko quantifizierender Risikoanalysen. Diese Warnung kann nicht ernst genug genommen werden: In der Praxis – das gilt für den privaten wie den öffentlichen Bereich gleichermaßen – haben sich quantitative Konzepte der Risikoberechnung39 weitestgehend durchgesetzt.40 Ist damit Dicks Minority Report auch ein fiktiver Ausblick auf die Zukunft des Kriminaljus­ 37  Dick (2002) ebenda. – Irritierend wirkt vor diesem Hintergrund die Namensgebung für die „Precobs“-Anwendung im Bereich des „Predictive Policing“, die zurzeit in Bayern erprobt wird, siehe „Institut für musterbasierte Prognosetechnik, GbR“ (www.ifmpt.de). 38  Merton, S. 144–160. 39  Kaplan/Garrick, S. 91–124. 40  Deutscher Bundestag (2010), S. 6: „Die in diesem Bericht beschriebene Risikoanalyse ist auf allen Verwaltungsebenen umsetzbar. Mit überschaubarem Aufwand können rasch gute Ergebnisse erzielt werden. Allerdings setzt die Erstellung von direkt vergleichbaren Ergebnissen der Risikoanalyse für unterschiedliche Gefahren die Verwendung von einheitlichen Szenarien, Schadensparametern und Schwellenwerten für die Klassifizierung der Eintrittswahrscheinlichkeit und des Schadens­ ausmaßes voraus.“ – Siehe ferner International Organization for Standardization (2009) Risk Management: principles and guidelines, Genf 2009.



II. Erkenntnisprosa als „Frühwarnsystem“ 389

tizsystems?41 Nicht unbedingt: Es kommt darauf an, die (noch) fiktiven Optionen der Weiterentwicklung des Systems der „pro-aktiven“ Verdachtschöpfung – gleichsam im embryonalen Stadium einer gedachten Tatsachen­ evolution – gezielt durch den „geistigen Kampf vor den Linien der Wirklichkeit“ zu beeinflussen.42 Zum Beispiel durch gesetzliche, administrative und institutionelle Initiativen. Robert K. Merton hält die Durchbrechung des Teufelskreises der Sich-selbst-erfüllenden-Prophezeiung jederzeit für möglich: „Es gibt zahlreiche Anzeichen dafür, dass der Mechanismus der ‚self-fulfilling prophecy‘ und des sozialen Teufelskreises bewusst und geplant zum Stillstand gebracht werden kann. (…) Die ‚self-fulfilling prophecy‘, durch welche die Befürchtungen in die Wirklichkeit umgesetzt werden, wirkt sich nur aus, wenn geplante institutionelle Kontrollen fehlen. Und nur nach Ablehnung des sozialen Fatalismus, den die Vorstellung von der unveränderlichen menschlichen Natur impliziert, kann der tragische Kreislauf aus Furcht, sozialer Katastrophe und verstärkter Furcht gebrochen werden.“43

In ähnlichem Sinne spricht Michael T. Greven von Utopien auch als „institutionentheoretischem Material“. Dieses Material gelte es zu nutzen, um notwendige institutionelle Verfahren zu entwerfen zur Gesellschaftsveränderung, zur Korrektur sozialer Fehlentwicklungen wie zur Abwendung drohender Krisen: „Utopien sind in der Verwirklichung der utopischen Intention nicht nur Kritik des Bestehenden, sondern Reflexion von Möglichem. (…) Utopien sind in aller Regel gerade dadurch gekennzeichnet, dass sie eine solche Theorie als Vermittlung zwischen kritisierter Wirklichkeit und gewünschtem Zustand aussparen. Es hieße freilich, die utopische Intention zu verkennen, wenn man deshalb der Utopie im Sinne des pejorativen Gebrauchs des Wortes jeglichen Wirklichkeitssinn und jeglichen gesellschaftliche Wollen absprechen würde; Kritik der Wirklichkeit und 41  Skeptisch Sofsky. der ein dystopisches „hyperpersonalisiertes“ Zukunftsszenario entwickelt (S. 159): „Jedes Subjekt besitzt eine biometrische Sicherheitskarte, die ein Foto des Eigentümers, Fingerabdrücke, Iris-Erkennung, Gesundheitsdaten und Identitätsnummer enthält. (…) Wer auf den alten Freiheiten beharrt, macht sich verdächtig.“ – In der drastischen negativen Utopie von Jewgeni Samjatin (Wir. Roman, Leipzig 1991) beherrscht der Staat als Maschine die Menschen; der Syllogismus ist zur Staatsdoktrin, die Phantasie zur Volkskrankheit geworden, die operativ entfernt („extirpiert“) werden muss. – Siehe ferner Schuhmacher, S. 230: „Was die ‚Väter der Absurden‘ auf burlesk-groteske Weise ausgedrückt hatten, wurde blutigste Wirklichkeit.“ 42  Bourdieu (1985), S. 57–58): „Zudem sind die Emanzipationsbewegungen der schlagende Beweis dafür, dass eine Portion Utopismus, diese magische Verneinung des Realen, die unter anderen Umständen als neurotisch bezeichnet würde, gerade beitragen kann zur Schaffung politischer Voraussetzungen für eine praktische Negation des Realitätsbefundes.“ 43  Merton, S. 158–159 (Hervorhebung im Original).

390

6. Kap.: Antizipative Verdachtschöpfung

Antizipation des Möglichen stellen vielmehr unerlässliche Voraussetzungen von gesellschaftsverändernder Praxis dar.“44

Gerade das Kriminaljustizsystem kennt Formen und Mechanismen der Definition und Um-Definition von verdächtigen Individuen. Kriminologisch ist der Prozess der Beschuldigung und Schuldfeststellung als kommunikative „Statusdegradierungs-Zeremonie“ beschrieben worden.45 Im traditionellen Strafprozess werden konsequent „Verdächtige“ zu „Beschuldigten“, aus diesen wiederum – je nach Verfahrensabschnitt – „Angeschuldigte“ und „Angeklagte“, schließlich „Verurteilte“ und „Abgeurteilte“.46 Unter Rechtsschutzgesichtspunkten erinnert der „Gefährder“ an die hilflose Person in Kafkas Parabel Vor dem Gesetz: Ihm steht die Tür zum Gesetz zwar prinzipiell offen; er kommt aber an dem Türhüter nicht vorbei.47 In Minority Report spitzt Philip K. Dick dieses Dilemma ganz bewusst zu, vertauscht die Rollen: Der Jäger, der ebenfalls unter die Kategorie „Jedermann“ fällt, wird selbst zum Gejagten. Die Ironie des Schicksals: Ein unvorhersehbarer Zufall führt dazu, dass sich die hochentwickelte Maschinerie der Verbrechensprophylaxe gegen ihren überzeugten Erfinder und Urheber wendet. In der utopischen Erzählung In der Strafkolonie verfährt Franz Kafka ganz ähnlich: Ein Offizier, der eine bizarre und mörderische Foltermaschine beaufsichtigt und von dem Verfahren der Folter zutiefst überzeugt ist, wird letztlich selbst zum Selbstmord mithilfe der Maschine gedrängt.48 Max Frisch wiederum behandelt das Motiv in der Form des Fischers, der seine Netze so dicht knüpft, dass er sich zuletzt selbst darin verfängt und – verhungert.49 Dick, Frisch und Kafka verdeutlichen damit die prekäre Gren44  Greven,

S. 397. S. 33–34: „Der Prozess der Beschuldigung bewirkt die Umgestaltung des objektiven Charakters des wahrgenommenen Anderen: Der Andere wird in den Augen seiner Beschuldiger buchstäblich eine von ihm verschiedene andere Person. Es ist nicht so, dass neue Attribute dem alten ‚Kern‘ hinzugefügt würden. Die Person wird nicht verändert, sie wird neu gebildet. Die frühere Identität erhält bestenfalls den Stellenwert des Scheins. In der sozialen Einschätzung dessen, was Wirklichkeit darstellt, erscheint die frühere Identität als Zufall; die neue Identität ist die ‚Basiswirklichkeit‘. Was jemand jetzt ist, nach allem, was geschehen ist, ist er immer schon gewesen.“ 46  Siehe § 157 StPO: „Im Sinne dieses Gesetzes ist Angeschuldigter der Beschuldigte, gegen den die öffentliche Klage erhoben ist, Angeklagter der Beschuldigte oder Angeschuldigte, gegen den die Eröffnung des Hauptverfahrens beschlossen ist.“ 47  Kafka (2005), S. 1349–1350. 48  Kafka, Franz: In der Strafkolonie. Eine Geschichte aus dem Jahre 1914, Berlin 1975. 49  Frisch, S. 67: „Als Märchen von einem Fischer, der sein Netz einzieht und zieht mit aller Kraft, bis es an Land ist, das Netz, und er ist selber drin, nur er. Er verhungert.“ – Näher dazu Müller-Michaels (1997), S. 400–410. 45  Garfinkel,



II. Erkenntnisprosa als „Frühwarnsystem“ 391

ze zwischen Verfolger und Verfolgtem, die durch einen bestimmten Zufall oder Planungsfehler zur bizarren Verkehrung der Verhältnisse führen kann.50 Aus der Perspektive einer literarischen Erkenntnisprosa kommt in diesen Erzählungen eine Art Grenznutzen infinitesimaler Vorfeldüberwachung zum Ausdruck, letztlich kulminierend in der Selbstkriminalisierung von Strafverfolgungsorganen. Oft hat Literatur, in dem sie mögliche Geschehnisse beschreibt, die Wirklichkeit vorweggenommen.51 Das gilt selbst für den „11. September“: In einer Reihe von Katastrophenfilmen hatte die Filmindustrie in Hollywood nach literarischen Vorlagen die späteren Ereignisse vom 11. September 2001 mit größter Realitätsnähe bildnerisch ex ante inszeniert und auf diese Weise buchstäblich den kriminellen modus operandi antizipiert.52 Hier tut sich ein Forschungsfeld für eine interdisziplinäre Kriminologie auf.53 In der juristischen Grundlagenforschung – international unter der Bezeichiung „Law and Literature-Bewegung“54 – setzt man sich inzwischen mit diesen Zusammenhängen vermehrt auseinander. Die tiefe Kluft zwischen Dogmatik und Dichtung55 verliert zusehends ihren Schrecken, scheint nicht mehr prinzipiell unüberwindbar. Dem anfänglichen „Erstaunen“ über die offenbaren Zusam50  Nicht ganz randseitig und unbedeutend ist in diesem Zusammenhang die Nachricht über die Eröffnung eines Strafverfahrens wegen Beihilfe zum Mord gegen den Präsidenten des Bundeskriminalamts, die Anfang 2010 durch die Medien ging. Hintergrund ist eine angeblich unerlaubte Datenweitergabe des Bundeskriminalamts betreffend sog. „Gefährder“ an amerikanische Sicherheitsbehörden. „Gefährder“ mit deutscher Staatsangehörigkeit kamen später im afghanisch-pakistanischen Grenzraum nachweislich durch unbemannte Drohnenangriffe der amerikanischen Streitkräfte zu Tode, vgl. Frankfurter Rundschau vom 10. Januar 2011, 67. Jahrgang, Nr. 7, S. 4: Anzeige gegen Ziercke wegen Drohnenangriff. BKA könnte den USA Daten übergeben haben, die zur Tötung mutmaßlicher Extremisten führten. Das Ermittlungsverfahren wurde später eingestellt. 51  Müller-Dietz (2009), S. 622: „Gerade die literarische Moderne kennt zahlreiche Beispiele dafür, auf welche Weise Autoren die Schilderung neuer Kriminalitätsphänomene nutzen, um an ihnen den gesellschaftlichen Wandel zu demonstrieren. Das gilt nicht zuletzt für Texte, die an bestimmten Erscheinungsformen und Auswüchsen der heutigen Mediengesellschaft ansetzen.“ 52  McDonald, S. 67: „Hollywood’s special effects have become almost indistinguishable from the real thing.“ 53  Eckert, Martin: Literatur und Kriminologie. Literatur als Objekt kriminologischer Analysen unter Berücksichtigung des „Formwillens“ als hervorstechende Eigenschaft literarischer Texte, Herbolzheim 2002; Schulz, Lorenz (2002), S. 931–941. 54  Binder/Weisberg, S. 9: „Literary theory nowadays is a macédoine of overlapping theories that go by such names as deconstruction, structuralism, poststructuralism, multiculturalism, hermeneutics, queer theory, postcolonialist theory, cultural materialism, and the new historicism.“ 55  Herberger, Maximilian: Dogmatik. Zur Geschichte von Begriff und Methode in Medizin und Jurisprudenz, Frankfurt a. M. 1981; Cappellini, S. 13–23.

392

6. Kap.: Antizipative Verdachtschöpfung

menhänge zwischen Sprache, Literatur und Recht56 ist eine konkrete Forschungstätigkeit zu Argumentations- und Diskurstheorien in den Rechtswissenschaften gefolgt. Klaus Lüderssen notiert dazu: „(…) und so zeigt sich für mich am Ende, dass sich das dünne, von Jacob Grimm bei der Germanistenversammlung wiederbelebte Rinnsal eines literarisierten Denkens und Sprechens im Recht am Ende doch noch verbreitern könnte und jenes – wenn überhaupt, wenn überhaupt, so mit Erstaunen zur Kenntnis genommene – ‚Law-as-Literature‘ oder ‚Law-as-Law-Movement‘, das schon zu Lehrstühlen, auf denen gleichzeitig Recht und Literatur gelehrt wird, geführt hat und übrigens auch mit den Augen des Dekonstruktivismus gesehen wird, dass also dieses ‚Law-andLiterature-Movement‘ somit auf dem richtigen Weg sein könnte.“57

Die gespurten Loipen der wesentlich dichotomisch operierenden Juristischen Methodenlehre zu verlassen, heißt Denkgewohnheiten in Frage stellen und sich auf – scheinbare – Abwege zu begeben. Heinz Müller-Dietz ist sich dessen vollends bewusst. „Grenzüberschreitung“ von der Rechtswissenschaft hin zu Literaturwissenschaft und Dichtung bedeutet für ihn „sich in die unübersehbare, ungesicherte Fremde dichterischer Imagination, Phantasie und Inspiration zu begeben“.58 Die Zahl der Abweichler, der kühnen Wanderer zwischen den Welten, wächst zusehends. Ihr Weg, so abwegig er erschien, gleicht inzwischen einem deutlich erkennbaren und immer häufiger genutzten Pfad, einem Pfad, der unmittelbar ins Vorfeld der Deduktion führt. Vereinzelt machen bereits Monographien, die mit „Grenzgänge“59 überschrieben sind, dies bereits im Titel deutlich.

56  Grossfeld, S. 1: „Mich haben immer wieder in Erstaunen versetzt die Beziehungen der Poesie und dem Recht. Das beginnt damit, dass unser Paragraphenzeichen aus der griechischen Tragödie stammt, setzt sich fort über Jacob Grimms ‚Von der Poesie im Recht‘ zu Erik Wolffs ‚Vom Wesen des Rechts in deutscher Dichtung‘ und leitet über zu Wohlhaupters ‚Dichterjuristen‘. Der Kreis schließt sich mit den Wirkungen, die Hölderlins ‚Hyperion‘ und allgemein die deutsche Romantik und Klassik auf von Savigny gehabt haben. Auch die Verbindung zwischen Märchen und Recht – wir z. B. in ‚Tischlein deck dich, Goldesel und Knüppel aus dem Sack‘ – gehören hierher. Alles nur Zufall – oder mehr?“ 57  Lüderssen (2002a), S. 18. 58  Müller-Dietz Grenzüberschreitungen. Beiträge zur Beziehung zwischen Literatur und Recht, Baden-Baden 1990, S. 9. auf die „Grenzüberschreitungen“ Franz von Liszts verweisend [Die Zukunft des Strafrechts (1892), in: Strafrechtliche Aufsätze und Vorträge, 2. Bd. (1905), S. 1–24], – Siehe ferner Müller-Dietz (1985), S. 67. 59  Seibert, Thomas-Michael: Zeichen, Prozesse. Grenzgänge zur Semiotik des Rechts, Berlin 1996.



III. Kafka – Motiv des Verdachts393

III. Kafka – Motiv des Verdachts In seinen Überlegungen Zur Zukunft der Strafrechtspflege hatte Theodor Reik vor einer „Hypertrophie rationalistischen Eifers“ gewarnt. Er war aber zuversichtlich, dass die Institutionen der veränderten Wirklichkeit angepasst werden könnten.60 Im Rückblick könnte man diese Warnung auch auf die Praxis der „pro-aktiven strategischen Kriminalitätskontrolle“, die Reik nicht kannte, beziehen. Die Betriebsamkeit und Geschäftigkeit, mit der strategische Auswerter in den vernetzten Datenbanken nach Verdachtsmomenten suchen, erscheint ebenso aussichtslos wie – aus normativ-ethischer Sicht – unerwünscht. Das scharfe Schwert „Verdacht“ soll nach der gesetzlichen Konzeption erst nach dem Vorliegen hinlänglicher tatsächlicher Verdachtsmomente gezückt werden dürfen. Niemand hat mit größerer Deutlichkeit – in essayistischer Form – auf die Gefahren systemischer Verdachtschöpfung hingewiesen als Franz Kafka.61 Kafka, der offenbar sehr vertraut war mit dem damaligen Standardwerk der Kriminalistik (Hanns Gross, Handbuch des Untersuchungsrichters)62, hat dabei die Betroffenenperspektive des plötzlich Verdächtigten zum Ausgangspunkt seines Romans Der Prozess gemacht. Offenbar vorausahnend, auf welch’ rätselhafte – wie wir heute sagen „kafkaeske“ – Weise jemand in der Zukunft zum Verdächtigen werden würde.63 Seinem Protagonisten Josef K. ist es unerklärlich, wie er in Verdacht geraten konnte. Herr K. erlebt alles ohne Vorwarnung, eben anzeichenlos; der Verdacht trifft ihn wie ein Blitzschlag aus heiterem Himmel:

60  Reik (1983b), S. 232–233: „Die Zukunft ist uns verborgen, aber die Vergangenheit, von der wir immerhin einen Schimmer haben, zeigt, dass es mehrere radikale Veränderungen in der Strafrechtspflege gegeben hat. Der Wechsel menschlicher Anschauungen wird auch die Auffassung von Schuld und Strafe nicht unberührt lassen. Gerade die Geschichte des Strafrechtes zeigt, dass jahrhunderte alte gesetzliche Institutionen gleichsam über Nacht verschwinden.“ 61  Posner (2009), S. 170: „No author of imaginative literature has seemed to have more to say about law than Kafka, himself a lawyer, whose great novel The Trial opens with the arrest of the protagonist, Joseph K., and ends with K.’s execution one year later, and whose short stories and fragments frequently take law for their theme.“ 62  Lüderssen (2007a), S. 145. 63  Aus rechtshistorischer Perspektive Koppenhöfer, S.  10–11: „Den Zwängen und Mechanismen der Prozessführung konnten sich weder Ankläger noch Richter entziehen, die Beklagten aber waren orientierungslos einem kafkaesken Prozessmodell ausgeliefert. Sehr oft waren die Opfer unbeliebte Individuen, aber gelegentlich wurden durch die Besagungen auch völlig Unbescholtene in den Tod gerissen. So scheint es keine allgemein gültigen Regeln für das Zustandekommen eines Hexenprozesses oder einer Prozesswelle zu geben, sondern jeder einzelne Prozess entstand aus ganz spezifischen Ursachen.“

394

6. Kap.: Antizipative Verdachtschöpfung

Eines Morgens, ohne dass er etwas Böses getan hätte, wird er verhaftet.64 Es müsse „Anzeichen“ dafür gegeben haben, glaubt sein Onkel: „ ,Wie ist es aber geschehen?‘ fragte endlich der Onkel, so plötzlich stehen bleibend, dass die hinter ihm gehenden Leute erschreckt auswichen. ‚Solche Dinge kommen doch nicht plötzlich, sie bereiten sich seit langem vor, es müssen Anzeichen dessen gewesen sein, warum hast du mir nicht geschrieben? Du weißt, dass ich für dich alles tue, in bin ja gewissermaßen noch dein Vormund und war bis heute stolz darauf. Ich werde dir natürlich auch jetzt noch helfen, nur ist es jetzt, wenn der Prozess schon im Gange ist, sehr schwer.‘ “65

Es ist damit der Onkel, der Kafkas Schlüsselfrage des künftigen Systems der Strafrechtspflege formuliert: Wieviel „Anzeichenhaftigkeit“ (im Sinne einer tatsächlich verifizierten „Wirklichkeits-“Verankerung der Verdachtsmomente) erfordert und, umgekehrt, wieviel Anzeichenlosigkeit kann eine rechtsstaatliche Verdachtskonzeption und -konstitition aushalten?66 An anderer Stelle entwickelt Kafka eine negative, unerträgliche Utopie eines Verdachtskonzepts, das wesentlich in der Exklusion alles Wirklichen67 besteht: In der Erzählung Der Bau entwirft Kafka das Zerrbild eines unterirdischen, absolut gesicherten und autopoietisch geschlossenen Systems. Der Bau ist eine Allegorie und zugleich eine verallgemeinerte Form des Benthamschen Panoptikums68; das System bei Kafka sieht nicht nur alles, sondern es kann auch feinste Geräusche und Erschütterungen „aufzeichnen“. Die Vorstellung von perfekter Sozialkontrolle nimmt hier die Form von Sekurität im Sinne einer technischen Störungsfreiheit an – soweit, dass sich der Erbauer des Systems sogar dafür interessiert, „wohin ein Sandkorn, das eine Wand herabfällt, rollen wird.“ Nicht mehr die „Wirklichkeit“ ist der Prüfungsmaßstab, die Überprüfung aus Anlass einer Störung hat vielmehr 64  Kafka (2005a), S. 242: „Jemand musste Josef K. verleumdet haben, denn ohne dass er etwas Böses getan hätte, wurde er eines Morgens verhaftet.“ – Sehr eindrucksvoll die autobiographische Aufarbeitung eigener Erfahrungen, siehe Solschenizyn, S. 15: „ ‚SIE SIND VERHAFTET!‘ Wenn schon Sie verhaftet werden – wie soll dann etwas anderes vor diesem Erdbeben verschont bleiben? (…) ‚Ich?? Warum denn??‘ – Eine Frage, die schon zu Millionen und Abermillionen gestellt wurde und niemals eine Antwort fand. Die Verhaftung ist eine jähe, mit voller Wucht uns treffende Versetzung, Verlegung, Vertreibung aus einem Zustand in einen anderen.“ 65  Kafka (2005a), S. 318. 66  Eine spezifische Ausprägung tatsächlicher Anhaltspunkte sind in der Praxis der Operativen Fallanalyse sog. „Ankerpunkte“, siehe Horn, S. 71: „(…) Ankerpunkt? So nennen wir Orte, an denen er (der mutmaßliche Täter, N. R.) sich oft aufhalten oder auch wohnen könnte – wie ein Schiff, das immer wieder in denselben Hafen vor Anker geht und einen Heimathafen hat.“ 67  Strowick (2005a), S. 649–669, die ebenfalls auf die Franz Kafkas Der Bau verweist. 68  Cohen (1985), S. 209.



III. Kafka – Motiv des Verdachts395

zum Ziel, festzustellen, „ob die Wirklichkeit dem [technischen System, N. R.] entspricht“. „Viel Zeit, viel Zeit, die besser verwendet werden könnte, kostet mich das kleine Volk. Bei solchen Gelegenheiten ist gewöhnlich das technische Problem, das mich lockt, ich stelle mir zum Beispiel nach dem Geräusch, das mein Ohr in allen seinen Feinheiten zu unterscheiden die Eignung hat, ganz genau aufzeichenbar, die Veranlassung vor, und nun drängt es mich nachzuprüfen, ob die Wirklichkeit dem entspricht. Mit gutem Grund, denn solange hier eine Feststellung nicht erfolgt ist, kann ich mich auch nicht sicher fühlen, selbst wenn es sich nur darum handeln würde, zu wissen, wohin ein Sandkorn, das eine Wand herabfällt, rollen wird.“69

Abbildung 28: Heribert C. Ottersbach, Das Lachen Kafkas70

Sogar in seinen Tagebüchern hat Kafka das Motiv des „Verdachts“, das zu einem paranoiden Sicherheitsfetischismus führen kann, sehr ausführlich behandelt. Er schildert darin die für ihn seltsame Begegnung mit einem Mann, namens Reichmann. Der Mann ist von Beruf Rezitator und bittet ihn um Hilfe, weil er den „Verdacht“ hat, ein von ihm verfasster Artikel sei unter fremdem Namen in einer Tageszeitung veröffentlicht worden. Kafka notiert: „Gestern Abend zehn Uhr ging ich in meinem traurigen Schritt die Zeltnergasse hinab. In der Gegend des Hutgeschäftes Heß bleibt ein junger Mann drei Schritte schief vor mir stehen, bringt mich dadurch auch zum Stehn, zieht den Hut und läuft dann auf mich zu. Ich trete im ersten Schrecken zurück, denke zuerst, je69  Kafka

(2005b), S. 1116. (2011), S. 42.

70  Hüppauf

396

6. Kap.: Antizipative Verdachtschöpfung

mand will den Weg zur Bahn wissen, aber warum in dieser Weise? – glaube dann, da er vertraulich nahe an mich herankommt und mir von unten her ins Gesicht sieht, weil ich größer bin: vielleicht will er Geld oder noch Ärgeres. Mein verwirrtes Zuhören und sein verwirrtes Reden vermischen sich. ‚Sie sind Jurist, nicht wahr? Doktor? Bitte, könnten Sie mir da nicht einen Rat geben? Ich habe da eine Sache, zu der ich einen Advokaten brauche.‘ “ (27.  Februar 1912)71

Der Begegnung mit Reichmann und der Frage der Verdachtschöpfung im scheinbaren Plagiatsfall widmet Kafka in seinem Tagebuch einen zehnseitigen Bericht; weder über die Familie noch über Freunde oder andere ihm nahestehende Personen finden sich dort derart umfangreiche Einträge. Reichmann erlebt – so stellt sich im Gespräch heraus – alles, was sich ereignet, ausschließlich als Bestätigung seines vorgefassten Verdachts.72 Ihm genügt, wie er sagt, das Überfliegen der ersten Zeilen und er wisse sofort alles. Alle, die er um Hilfe bittet, schleudert er sein „J’accuse“73 entgegen. Statt die „Wirklichkeit“, das Tatsächliche, zur Kenntnis zu nehmen, zu beobachten, was ihn umgibt, sagt er: „Ich weiß genug“74 und kehrt dem Faktischen den Rücken, glaubt, sich „den Weg ersparen und dennoch alles erfahren“ zu können. Die Phantasie hat bei Reichmann die Form des Verdachts angenommen. Der „Wirklichkeit“ verschließt er sich; die Nähe der „Wirklichkeit“ stört vielmehr das Denken über die „Wirklichkeit“.75 Vierzehn Tage später, am 11. März 1912, notiert Kafka lakonisch in seinem Tagebuch: „Der Rezitator Reichmann ist am Tag nach unserem Gespräch ins Irrenhaus gekommen.“76

IV. Orwell – „Wahr spricht, wer Schatten spricht. …“ George Orwell war, als er seinen Roman „1984“ in absoluter Einsamkeit auf der Hebrideninsel Jura vollendete, hochgradig an Tuberkulose erkrankt. Der Roman müsse daher, so Hans-Jürgen Lang, mit besonderer Ehrfurcht – als eine Art Testament, gelesen werden. Es sei nicht unstatthaft, Orwells Roman als sehr ernstgemeinte Warnung zu lesen, wenngleich hier die Gefahr der Trivialisierung bestehe.77 Nach Horst Komuth liegt die eigentliche Bedeutung des soziologischen Beitrags von Orwell in seiner dichterischen 71  Kafka

(1951), S. 254–263. (1951), S. 258: „Ich lese laut einige auffallenden Stellen aus der Zeitung. Kommt das im Aufsatz vor? Nein. Das? Nein. Das? Nein. Das? Nein. Ja, aber das sind eben die aufgesetzten Stellen. Im Innern ist alles, alles abgeschrieben.“ 73  Kafka (1951), S. 259, 260, 261. 74  Kafka (1951), S. 261. 75  Walter-Schneider, S. 32. 76  Kafka (1951), S. 268. 77  Lange, H.-J., S. 101, 104. 72  Kafka



IV. Orwell – „Wahr spricht, wer Schatten spricht. …“ 397

Stellung als Mahner und Warner vor den Konsequenzen, die sich aus den gewonnenen Erfahrungen über den Totalitarismus in seiner geistigen Fortführung im Sinne einer totalen Herrschaftsperfektionierung für ihn eröffnet hätten.78 Richard A. Posner weist darauf hin, dass die Inquisition, das pathologische Extrem einer christlichen Sorge, engstens verwandt sei mit dem, was Orwell „verbrecherisches Denken“ (engl. „crimethink“) genannt habe. Im Gefolge der Anschläge vom 11. September 2001 habe die Überwachung in Städten und Straßen, das technische Monitoring, in einem Maße zugenommen, wie Orwell es nicht habe voraussehen können. Dennoch entfalte der Roman heute eine „neue kulturelle Resonanz“ („a new cultural resonance“) gegen Totalitarismus und privatheit-zerstörende Überwachung.79 Orwell, selbst fünf Jahre im Dienst der britischen Kolonialpolizei in Birma, sah insbesondere in der Entwicklung einer technisierten und kodifizierten Sprache, einer um den Kontext entkleideten Fachsprache nicht nur eine Verarmung der natürlichen Sprache, sondern ein genuines autoritatives Herrschaftsinstrument. Nach Auffassung von Horst Komuth war der Fokus in dem Roman 1984 insbesondere auf die Rolle der Sprache gerichtet – genau hierin bestehe der Beitrag Orwells zu einer Art sozialer Frühaufklärung. Für Orwell sei der Verlust der Sprache unmittelbar verbunden gewesen mit dem Verlust eines eigenständigen Gewissens. Der Verlust der Sprache verhindere nämlich bereits im Ansatz die Ausbildung einer eigenen Meinung, ganz zu schweigen davon, dass diese in Gegensatz zur Auffassung des Herrschaftssystems geraten könne.80 Kaum zufällig spricht Orwell daher auch von „Realitätskontrolle“ („reality control“) mittels einer durchreglementierten Kunstsprache, genannt „Neusprech“ („Newspeak“): „Und wenn alle anderen die von der Partei oktroyierte Lüge akzeptierten – wenn alle Berichte gleich lauteten –, dann ging die Lüge in die Geschichte ein und wurde Wahrheit. ‚Wer die Vergangenheit kontrolliert‘, lautete die Parteiparole, ‚kontrolliert die Zukunft, wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit.‘ Und doch war die Vergangenheit, so veränderbar sie ihrer Natur nach war, nie verändert worden. Was jetzt wahr war, blieb wahr für alle Zeiten. Es war ganz einfach. Es erforderte nichts weiter als eine nicht abreißende Siegesserie über die eigene Erinnerung. ‚Realitätskontrolle‘ nannte man das, in Neusprech: ‚Doppeldenk‘.“81

Die „Neue Sprechweise“ ist ihm ein um den „Ballast der Semantik“, wie Jacques Lacan formulierte, bereinigtes Sprachsurrogat. Orwells utopische Vorstellung trifft sich hier mit der wissenschaftlichen Beobachtung zum control-talk des Kriminologen Stanley Cohen. Explizit setzt sich das Re78  Komuth,

S. 120. (2009), S. 404–405. 80  Komuth, S. 121. 81  Orwell, S. 39. 79  Posner

398

6. Kap.: Antizipative Verdachtschöpfung

gime in Orwells utopischem Roman von der „Vagheit“ und den Bedeutungsnuancen der natürlichen ab. Im Roman heißt es: „ ‚Dir fehlt das echte Verständnis für Neusprech, Winston‘, sagte er beinahe traurig. ‚Sogar wenn du in Neusprech schreibst, denkst du noch in Altsprech. Ich habe ein paar von den Sachen gelesen, die du ab und zu in der Times schreibst. Sie sind recht gut, aber doch nur Übersetzungen. Dein Herz hängt immer noch am Altsprech, mit all seiner Vagheit und seinen unnützen Bedeutungsschattierungen. Du erfasst die Schönheit einfach nicht, die in der Vernichtung von Wörtern liegt. Ist dir überhaupt klar, dass Neusprech die einzige Sprache der Welt ist, deren Vokabular von Jahr zu Jahr schrumpft?‘ ,(…) Zu guter Letzt werden wir Gedankendelikte buchstäblich unmöglich machen, weil es keine Wörter mehr geben wird, um sie auszudrücken. Jeder Begriff, der jemals benötigt werden könnte, wird durch exakt ein Wort ausgedrückt sein, dessen Bedeutung streng definiert ist und dessen sämtliche Nebenbedeutungen eliminiert und vergessen sind. (…) Natürlich gibt es auch heute schon keinerlei Grund oder Entschuldigung für ein begangenes Gedankendelikt. Das ist lediglich eine Frage der Selbstdisziplin, der Realitätskontrolle. Aber schließlich wird auch das nicht mehr nötig sein. Die Revolution wird vollendet sein, wenn die Sprache perfekt ist.‘ “82

Der Kontext ist es, der bei Orwell in der durchrationalisierten und perfektionierten Kalkülsprache „Neusprech“ ausgeschlossen werden soll. Der Exklusion des Kontextes in der Sprache entspricht die Entfernung von Bedeutungsschattierungen aus den Wörtern. Hier klingt in zugespitzter Form die kriminalistische Methodik der „Katalogredaktion“, die illusionäre Vorstellung „lernender Kataloge“ an. Ist aber der Kontext, der Bedeutungsschatten in den Wörtern, überhaupt verzichtbar? Wolfgang Welsch verneint dies unzweideutig und verweist auf ein Gedicht von Paul Celan: „Sprich – doch scheide das Nein nicht vom Ja. Gib deinem Spruch auch den Sinn: gib ihm den Schatten. Gib ihm Schatten genug, gib ihm so viel, als du um dich verteilt weißt zwischen Mittnacht und Mittag und Mittnacht. Blicke umher: sieh, wie’s lebendig wird rings – Beim Tode! Lebendig! Wahr spricht, wer Schatten spricht.“83

82  Orwell, 83  Welsch

S. 56 (Hervorhebung N. R.). (1996), S. 940.



IV. Orwell – „Wahr spricht, wer Schatten spricht. …“ 399

„Wahr spricht, wer Schatten spricht“, denn – schreibt Wolfgang Welsch – Sinn liege nicht einfach in der Erscheinung als solcher, sondern Sinn ergebe sich aus deren Zusammensein mit dem Schatten, dem Umfeld, dem Kontext, dem weiten Raum der Verknüpfungen.84 Noch deutlicher bringt dies Michel Serres auf den Punkt: „Die Abweichung gehört zur Sache selbst, und vielleicht bringt sie diese erst hervor. Vielleicht ist der Wurzelgrund der Dinge gerade das, was der klassische Rationalismus in die Hölle verbannte. Am Anfang ist das Rauschen.“85

Orwell umreißt mit seiner Anspielung auf die „unnützen Bedeutungsschattierungen“ und die vom rationalistischen Standpunkt aus ärgerliche „Vagheit“ in der Sprache in gewissem Sinne auch das Kernproblem der aktuellen rechtswissenschaftlichen und rechtspolitischen Herausforderung: Es geht darum, ein neues – verändertes – Verhältnis zur Sprache und zur Kommunikation zu entwickeln; damit aber gleichzeitig auch zu dem Phänomen der „Vagheit“, dem umgekehrt die Polysemie entspricht. Nicht die perfekte Abbildung und Verdatung der Welt, wie sie in Orwells „Neusprech“ vorgedacht und antizipiert wird, bringt uns dem Ziel der öffentlichen Sicherheit näher, sondern – paradoxerweise – die Rückbesinnung auf die ­natürliche Sprache mit all ihrer Vagheit. Nicht das exakte Rechnen und Hochrechnen, lineare Extrapolieren von Trends, sondern die diskursive Auseinandersetzung mit möglichen Szenarien wird zur Kernfrage der Sicherheitsvorsorge. Theoretische und praktische Ansätze, die eine derartige szenarienbasierte und diskursive Risikoanalyse zum Ziel haben, gilt es weiterzuentwickeln.86 Dazu zählen auch scheinbar völlig undenkbare Szenarien, sog. „Wildcards“ und „Schwarze Schwäne“87 im Sprachjargon der SzenarioMethodik. Unbekanntes, Kommendes, Plötzliches, so eine der Kernthesen 84  Welsch

(1996), S. 940. (1981), S. 28. 86  von Oech, Roger: Expect the Unexpected or you won’t find it. A Creativity Tool Based on the Ancient Wisdom of Heraclitus. Illustrated by George Willett, San Francisco 2002; Pherson/Heuer: Structured Analytic Techniques for Intelligence Analysis., 2nd Edition, London 2015. – In der Praxis existiert in Deutschland mit der nationalen Übungsserie „Länder Übergreifende Krisenmanagement-Übung/EXercise (LÜKEX) ein Konzept der Sicherheitsvorsorge, das für die komplexe Szenarioentwicklung einen diskursiven Ansatz zugrundelegt, siehe Bundesamt für Bevölkerungsschutz und Katstrophenhilfe (Hrsg.) Leitfaden für strategische KrisenmanagementÜbungen, Bonn 2011. 87  Taleb, S. 1–2: „Was wir hier einen Schwarzen Schwan nennen (mit einem Großbuchstaben am Anfang), ist ein Ereignis mit den drei folgenden Attributen: Es ist erstens ein Ausreißer – es liegt außerhalb des Bereichs der regulären Erwartungen, da nichts in der Vergangenheit überzeugend auf seine Möglichkeit verweisen kann. Es hat zweitens enorme Auswirkungen. Drittens bringt die menschliche Natur uns trotz seines Status als Ausreißer dazu, im Nachhinein Erklärungen für sein Eintreten zu konstruieren, um es erklärbar und vorhersagbar zu machen.“ 85  Serres

400

6. Kap.: Antizipative Verdachtschöpfung

neuerer Theorien des Rechts, lässt sich weniger durch eine exakte Erfassung der Welt erkennen und entdecken als durch kontextsensitive, interdisziplinäre diskursive Verfahren. Hochreduktionistische, quantitative Verfahren der Risikoberechnung erkaufen ihre Praktikabilität und Simplizität in der Anwendung mit unerhörtem Kontextverlust. Das wird umso problematischer je weiter die Risikoberechnung künftige Entwicklungen prognostizieren, mithilfe von parametrisch konzipierten Risikoanalysen „Risikovorsorge“ betreiben will.88 Das gilt selbstverständlich auch für das Durchsuchen von Datenbeständen zu Risikopopulationen auf der Suche nach „Risikopersonenpotenzial“, kurzum: potenziell Verdächtigen.

V. Antizipation Im Verlauf einer Untersuchung zum Phänomen der „Plötzlichkeit“ als Motiv einer Poetik der Moderne stößt der Literaturwissenschaftler KarlHeinz Bohrer auf das Konzept der „Antizipation“. Er findet heraus, dass dieses Konzept im erkenntnistheoretischen Diskurs seit der Frühromantik bis heute eine herausragende Rolle spielt – bei Kant als „Resultat transzendentaler Analytik“, bei Heidegger als „Vor“ bzw. „Vorgriff“, „Vorauslaufen“ und „vorgängiges Erschließen“. Insbesondere aber Ernst Bloch hat die Auseinandersetzung mit der Frage des Antizipatorischen, den sog. „Vor-Schein“ bzw. das sog. „Noch-nicht“ ins Zentrum seines „utopischen Realismus“ gestellt.89 Blochs Kunsttheorie ist in ihrer Bedeutung für eine strategische Sicherheitsvorsorge, den konkreten Umgang mit Ungewissheit nicht annähernd erschlossen: Blochs Denken kreist um Fragen des „objektiv-real Möglichen“, das „Kannsein“ – also genau das, was heute im sicherheitspolitischen Diskurs „Risiko“ heißt.90 Er 88  Beck, S. 63–65: „Es gibt daher auch das Risiko der Risikoberechnung: War es doch gerade der unerschütterliche Glaube der mathematischen Ökonomen, das Nichtwissen in bezug auf Risiken ein für alle mal gebändigt zu haben, der die Finanzkatastrophe wesentlich mitverursacht hat. (…) Da gibt es zunächst die Differenz zwischen Modellplatonismus und Wirklichkeit. Die Modellannahmen der Wirtschaftswissenschaften sind Setzungen, die mit den tatsächlichen Entscheidungen, ihren Folgen und Nebenfolgen in der ökonomischen, politischen und sozialen Realität keineswegs übereinstimmen müssen. Keynes zog daraus den Schluss, die herrschenden wirtschaftwissenschaftlichen Lehren seien irreführend und mündeten möglicherweise in Katastrophen, wenn man sie auf die Welt der Tatsachen an­ wende. (…) ‚Es gibt bei solchen Dingen keine wissenschaftliche Grundlage, auf die sich irgendeine kalkulierte Wirklichkeit aufbauen ließe. Wir wissen es einfach nicht!‘ (1937).“ 89  Bloch (1974), S. 232. 90  Bloch (1974), S. 37.



V. Antizipation 401

spricht von „Symptomdeutung“91, „Tendenz-Analyse“92 und der Notwendigkeit des „Vorwärtsschauens“, um „Tendenz-Verflechtungen“ und „LatenzGehalte“, das sind objektive Tendenzinhalte im Wirklichen, aufzudecken.93 Chiffren der Wirklichkeit – „Real-Chiffern“ oder „Real-Symbole“, wie Bloch sagt, gelte es zu dechiffrieren bzw. zu enträtseln, um auf diese Weise das Kommende zu antizipieren. Die Wirklichkeit und die Welt begreift Bloch als beständigen Veränderungsprozess. „Realchiffern“ sind eine Art „Spannungsfiguren“, „tendenziöse Prozessgestalten“ des noch nicht Gewordenen, die aber als „reeller Vor-Schein“ erkennbar seien. Bloch befasst sich eingehend mit der Struktur des „Werdens“. Das Werden umschreibt er, wie folgt: „Werden bedeutet immer, dass ein Etwas wird, gestaltet wird. Und gestalten: es bedeutet schon sprachlich das Zeitwort von Gestalt, sachgemäß ihr formendes Geschehen. Unaufhörlich vermitteln sich so bauende Genese, erbaute Struktur, und in dieser fasst sich Werdendes, schließt sich nicht. Denn genau das eigentliche Organon des Werdens: der Widerspruch zum unzulänglich gewordenen Erreichten, betreibt seinen Widerspruch schlechthin an, in, gegen das Erreichte als Gestalt – hin zur neuen, inhaltlich adäquateren Gestalt.“94

Bloch setzt sich mit seiner Konzeption der „Antizipation“ bewusst von individueller Kontemplation und Intuition ab. Diese seien zu wenig konkret, mehr oder minder impressionistisch, wenngleich auch sie sich beständig mit dem Approximativen befassten.95 Antizipation, wie er sie beschreibt, ist der Versuch, die Tendenz- und Latenz-Struktur des Realen objektiv zu bestimmen. Blochs Begriff von „Antizipation“ umfasst die grundlegenden Teilaspekte „Inkubation“, „Inspiration“ und „Explikation“.96 Antizipation versteht er als Ausdruck von „utopischer Vernunft“97 bzw. als „Problem einer qualitativen Mathematik“.98 Ja, er spricht davon, dass hier ein „neuer Teil der Logik“ eröffnet werden müsse – mit einer „Kategorientafel der Phantasie.“99 Offenbar geht es ihm um nichts weniger, als eine Konzeptualisierung dessen, was im allgemeinen Sprachgebrauch „Ahnung“, „Vorgefühl“, „Witterung“ und „Vorwegnahme“ usw. heißt. Nicht anders ist es zu verstehen, dass er vom

91  Bloch

(1974a), S. 26. (1974a), S. 185. 93  Bloch (1974), S. 284. 94  Bloch (1974a), S. 123. – Zentral ist dieser Gedanke auch bei Maurice Merleau-Ponty: „Der rote Faden der Geschichte ist ein Werden von Bedeutungen, die zu Mächten und Institutionen wurden.“ – zitiert nach Bering, S. 20. 95  Bloch (1974a), S. 109. 96  Bloch (1974a), S. 89 ff. 97  Bloch (1974a), S. 69. 98  Bloch (1974), S. 287. 99  Bloch (1974), S. 284. 92  Bloch

402

6. Kap.: Antizipative Verdachtschöpfung

„Instinkt der Vorsorge“ spricht.100 Das Heraufkommende, Bevorstehende, das ihn interessiert, umschreibt er metaphorisch als „Raum des Prozesses“ – dieser sei gefüllt mit fortbedeutender Vergangenheit, mit „bewusstseinsfähiger und gewusstseinsfähiger Lebendigkeit eines Noch-Nicht-Seins“.101 Nach Bohrer handelt es sich beim Konzept der „Antizipation“ um einen Schlüsselbegriff des neueren utopistischen Essayismus. Das Neue daran: An die Stelle der klassischen Utopie des frühen 19. Jahrhunderts und seiner optimistischen Konstruktionen sei eine Gattung getreten, die man als „pessimistische Utopie“ bzw. „Anti-Utopie“ bezeichnen könne. Auch George Orwells 1984 und Kafkas In der Strafkolonie zählten hierzu. Charakteristisch für den Typus der Anti-Utopie als Form eines neuen zivilisationskritischen Essayismus sei, dass er die utopischen Inhalte der traditionellen Zeit-Raum-Utopie umkehre, mehr noch: er löse sie auf. Mit Heidegger verzichte der neue Typus auf eine explizite Vorstellung von „Zukunft“102, setze sich von dem gängigen Zeitstrahlmodell (Vergangenheit, Gegenwart, Zukunft) und dem Futurismus klassischer Utopien ab. Die objektive Realität werde so nicht mehr als eine utopisch veränderbare gedacht, stellt Bohrer fest: Die futuristische Antizipation entfalle zugunsten einer „utopischen Phantasie“, die sich in das Innere des Subjekts verlagert habe.103 Ausgehend von diesem Befund verweist Bohrer auf die „antizipatorische Kraft des Augenblicks“ und das „Plötzliche“ der Antizipation als Ausdrucksform individueller Phantasie. Bohrer fordert demzufolge eine Ästhetik des Augenblicks, so etwas wie eine Achtsamkeit für das „Jetzt“. Darin, nicht in der Reflexion über die „Zukunft“, spiegelten sich Utopie und Intentionalität.104 Konkret beschreibt Bohrer „Antizipation“ als ein „Ereignis zwischen Subjekt und Objekt“, das sich unmittelbar aus der Beobachtung ableite. Es lasse sich beschreiben als „intuitiv-imaginative Handlung“, gleichsam als 100  Bloch

(1974), S. 262. (1974a), S. 111. 102  Heidegger (1993), S. 422: „Zur Jetztstruktur gehört die Bedeutsamkeit. Daher nannten wir die besorgte Zeit Weltzeit. In der vulgären Auslegung der Zeit als Jetztfolge fehlt sowohl die Datierbarkeit als auch die Bedeutsamkeit. Die Charakteristik der Zeit als pures Nacheinander lässt beide Strukturen nicht >zum Vorschein kommen