Computational Linguistics / Computerlinguistik: An International Handbook on Computer Oriented Language Research and Applications /Ein internationales Handbuch zur computergestützten Sprachforschung und ihrer Anwendungen [Reprint 2010 ed.] 9783110203325

It was the late co-editor of the series “Handbücher zur Sprach- und Kommunikationswissenschaft”, Gerold Ungeheuer, who w

234 105 148MB

German Pages 966 [972] Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Contents/Inhalt
Preface
Vorwort
List of Maps/Verzeichnis der Karten
List of Figures/Verzeichnis der Abbildungen
I. Computational Linguistics I: Development
1. Die allgemeine Entwicklung der Computerlinguistik
1. Die Betrachtungsebenen derComputerlinguistik
2. Die CL, ihre Benennung undAbgrenzung
3. Die Geschichte der Computer-linguistik
4. CL — Teildisziplin oderMetadisziplin?
5. Literatur (in Auswahl)
2. Überblick über die Wissenschaftsorganisation undForschungseinrichtungen der Computerlinguistik in den westlichenLändern
1. Betrachtungsbereich undDarstellungsmethode
2. Fachinstanzen derComputerlinguistik: Von derinternationalen zur nationalenOrganisationsebene
3. Forschungseinrichtungen derComputerlinguistik in denwestlichen Ländern
3. The Research in Computational Linguistics in the Countriesof Eastern (and Central) Europe* It should be noted that this chapter was written in early 1985 and reflects the state of the art at that time.
1. Introductory Remarks
2. Computational Linguistics in theSoviet Union
3. Computational Linguistics inCzechoslovakia
4. Computational Linguistics in theGerman Democratic Republic
5. Computational Linguistics inPoland
6. Computational Linguisticsin Roumania
7. Computational Linguisticin Bulgaria
8. Computational Linguisticsin Hungary
9. Computational Linguisticsin Yugoslavia
10. Literature (selected)
II. Computational Linguistics II: Theoretical and Methodical Foundations
4. Theoretical Framework, Aims and Concepts of Computational Linguistics
1. Introduction
2. Theoretical Framework
3. Computational Linguistics Practice
4. Final Conclusion
5. Literature (selected)
5. Problembereiche der Computerlinguistik: Positionierungs- und Abgrenzungsaspekte
1. Einleitung
2. Zur Spezifik der Computerlinguistik
3. Problemspezifikationen der Computerlinguistik
4. Problemstellungen und Aufgabenfelder
5. Resumée
6. Literatur (in Auswahl)
6. Computerlinguistik und die Theorie der formalen Sprachen
1. Einleitung
2. Linguistik, Theorie der formalen Sprachen und Computerlinguistik
3. Natürliche Sprachen und formale Sprachen
4. Lösbarkeit und Komplexität
5. Literatur (in Auswahl)
7. Abbildungsproblematik in der Computerlinguistik: Linguistische Elemente und Operationen vs. Daten- und Programmstrukturen
1. Einleitung
2. Zur Darstellung von Zeichenketten
3. Zur Abbildung von Baumstrukturen
4. Syntaktische Analyseverfahren
5. Ausblick
6. Literatur (in Auswahl)
8. Application and Research — Mutual Side Effects
1. Research, Application and Honesty
2. Apply What?
3. Apply How?
4. Apply to What?
5. Literature (selected)
III. Computational Linguistics III: Special Methodical Problems
9. Status und Funktion quantitativer Verfahren in der Computerlinguistik
1. Einführung
2. Taxonomie
3. Statistik
4. Literatur (in Auswahl)
10. Evaluierung komplexer Systeme in der Computerlinguistik: Verfahren und Anwendung
1. Umfeld und Abgrenzung
2. Evaluierung von FAS
3. Fazit
4. Literatur (in Auswahl)
IV. Computer-Aided Description of Language Systems I: Basic Problems
11. Theoretical Aspects of Computer-Aided Description of Language Systems
1. Introduction
2. Towards a Classification of the Applications in Linguistics
3. Corpora
4. Lexical Databases
5. Syntax, Meaning, and Discourse Structure
6. Conclusions
7. Literature (selected)
12. Korpusproblematik in der Computerlinguistik: Konstruktionsprinzipien und Repräsentativität
1. Korpusdefinitionen
2. Zur Leistung von Korpora
3. Zielsetzungen
4. Technische Voraussetzungen
5. Datenaufbereitung
6. Repräsentativität
7. Festlegung der Grundgesamtheit
8. Auswahl der Stichprobe
9. Größe der Stichprobe
10. Ausblick
11. Literatur (in Auswahl)
13. Survey of Natural Language Corpora in Computational Linguistics
1. Introduction
2. General Language Archives
3. Psycholinguistic Database: Child Language Data Exchange System (CHILDES)
4. Individual Languages
5. Literature (selected)
14. Segmentierung in der Computerlinguistik
1. Problemstellung
2. Physikalische Verfahren der Segmentierung
3. Linguistisch-klassifikatorische Verfahren der Segmentierung
4. Klassifikation von Segmenten
5. Literatur (in Auswahl)
V. Computer-Aided Description of Language Systems II: Discovery of Rule-Systems
15. Computergestützte Verfahren zur graphematischen Beschreibung von Sprache
1. Gesprochene und geschriebene Sprache
2. Graphemdefinitionen
3. Computerunterstützte graphematische Untersuchungen
4. Verfahren für das Einsetzen des Computers für Graphemuntersuchungen
5. Automatische phonologische Transkription geschriebener und gedruckter Texte
6. Rechtschreibung
7. Resümee
8. Literatur (in Auswahl)
16. Computergestützte Verfahren zur phonologischen Beschreibung
1. Einleitung
2. Verfahren zur Ermittlung und Beschreibung der phonologischen Struktur einer Sprache
3. Verfahren zur Phonetisierung orthographischer Texte
4. Verfahren zur maschinellen Erlernung von Phonetisierungsregeln
5.Literatur (in Auswahl)
17. Computergestützte Verfahren morphologischer Beschreibung
1. Anwendungsbereiche und Ziele maschineller Verfahren morphologischer Analyse und Synthese
2. Gegenstand und Gegenstandsbereich morphologischer Beschreibung
3. Beschreibung vorhandener Verfahren
4. Literatur (in Auswahl)
18. Computer-Aided Syntactic Description of Language Systems
1. What Is Syntax?
2. Simple Phrase Structure Rules
3. Syntactic Theories
4. Conclusions
5. Literature (selected)
19. Computer-Aided Textual Description of Language Systems
1. Preliminary Remarks
2. The Basic Notions of a Semiotic Text-Theoretical Framework
3. Computer-Aided Description of theText Constitution
4. Problems and Perspectives
5. Literature (selected)
20. Computergestützte Verfahren zur semantischen Beschreibung von Sprache
1. Abgrenzung des Themas
2. Formen der Repräsentation von Wortbedeutungen für die maschinelle Verarbeitung
3. Maschinelle Verfahrensemantischer Beschreibung
4. Deskriptive vs. prozedurale Satz- und Textsemantik
5. Literatur (in Auswahl)
VI. Computer-Aided Description of Language Systems III: Testing of Rule Systems
21. Computational Testing of Linguistic Models in Morphology
1. Introduction
2. Kay’s Morphosyntactic Chart Parser
3. Kaplan and Kay’s Morphographemic Transducer
4. Koskenniemi’s Two-Level Model
5. Hellberg’s Paradigm Model
6. Literature (selected)
22. Computational Testing of Linguistic Models in Syntax and Semantics
1. Introduction
2. Yngve’s Random Generation Program
3. Transformational Grammar Programs
4. Functional Generative Description Models
5. Programs for Montague Grammar
6. Programs for Unification Grammars
7. Conclusions
8. Literature (selected)
VII. Computer Simulation of Language I: Basic Problems
23. Übersicht über die Verstehensproblematik hinsichtlich der Computersimulation von Sprache
1. Einleitung
2. Typologie des Verstehensbegriffs
3. Der operationale Verstehensbegriff der Computerlinguistik
4. Grenzen und Möglichkeiten der Computersimulation von Verstehen
5. Ausblicke
6. Literatur (in Auswahl)
24. Psycholinguistic Implications in Computer Simulation of Natural Language Processing
1. Computational Linguistics and Psycholinguistics — The Scope of Discussion
2. Structure Based Resolution of Local Syntactic Ambiguities
3. Context Oriented Resolution of Local Syntactic Ambiquities
4. Conclusions
5. Literature (selected)
25. Language Understanding and Problem Solving: On the Relation Between Computational Linguistics and Artificial Intelligence
1. Language and Artificial Intelligence
2. Story Understanding in AI
3. Dialogue Modelling in AI
4. Concluding Remarks
5. Literature (selected)
26. Representational Language in Language Understanding Systems
1. General Outline
2. The Lexical Representation Level
3. The Clausal Representation Level
4. The Micro-Structural Representation Level
5. The Macro-Structural Level of Representation
6. Literature (selected)
27. Rolle und Funktion von Netzwerken in der Computersimulation von Sprache
1. Repräsentation und Repräsentationsschemata
2. Objektorientierte Programmierung
3. Die deklarative Komponente von Netzwerk-Repräsentationen
4. Die prozedurale Komponente von Netzwerk-Repräsentationen
5. Assoziative Netzwerke
6. Netzwerke, Monotonie und Konsistenz
7. Verwendung von Netzwerken für die Verarbeitung natürlicher Sprache
8. Verwendung von Netzwerken: Übergangsnetzwerke
9. Konnektionistische Netzwerke
10. Literatur (in Auswahl)
VIII. Computer Simulation of Language II: SystemsComponents
28. Systemarchitektur der Sprachverstehenssysteme
1. Was ist Systemarchitektur?
2. Komplexitätsdimensionen derArchitektur
3. Architekturtypen derSprachverarbeitungssysteme
4. Architektur und Verarbeitungs-strategie
5. Literatur (in Auswahl)
29. Wissensrepräsentation: Typen und Modelle
1. Allgemeine Darstellung
2. Formalismen und Modelle
3. Probleme der Forschungen überWissensrepräsentationen
4. Literatur (in Auswahl)
30. Simulation of Language Understanding: Lexical Recognition
1. Introduction
2. Information Stored in Lexiconsfor Natural Language ProcessingSystems
3. General Storage Issues
4. The Form of Lexicons and LexicalEntries
5. Physical Storage Considerations
6. Literature (selected)
31. Parsing natürlicher Sprachen: Grundlagen
1. Vorbemerkung
2. Grundlagen
3. Parameter für die Grammatik
4. Parameter für den Parser
32. Parsing natürlicher Sprachen: Realisierungen
1. AbleitungsorientiertePhrasenstrukturparser
2. Phrasenstruktur-Parser mitTeilergebnistabellen (chart parser)
3. Parsing mit Mustern undÜbergangsnetzwerken
4. Lexikonbasierte Parser
5. Literatur (in Auswahl)
33. Simulation sprachlichen Verstehens: Generelle Probleme bei dersemantischen Interpretation der natürlichen Sprache
1. Wissenssysteme,Künstliche Intelligenz und dieSimulation sprachlichenVerstehens
2. Notwendige Voraussetzungenfür die semantische Interpretationnatürlicher Sprache
3. Semantische Interpretationzeitlichen Wissens
4. Semantische Interpretationräumlichen Wissens
5. Semantische Interpretation und’neue’ Bedeutungen
6. Semantische Interpretationvon Referenzbeziehungen
7. Semantische Interpretationder Satzverknüpfung
8. Weitere Probleme undZusammenfassung
9. Literatur (in Auswahl)
34. Simulation of Language Understanding: Semantic Models andSemantic Interpretation
1. The Organization of the Chapter
2. Communication Patterns
3. Deep Case
4. Semantic Markers
5. Conceptual Dependency Theory
6. Semantic ATN’s
7. Semantic Nets
8. Word Experts
9. Scripts and Frames
10. Semantic Interpretation ofSyntactic Structures
11. Formal Logic
12. Conclusion
13. Literature (selected)
35. Inferenzen in sprachverstehenden Systemen
1. Einleitung
2. Inferenz
3. Inferenzen in Frage-Antwort-Systemen
4. Inferenzen in Textverstehens-Systemen
5. Simulation von Inferenzprozessen
6. Literatur (in Auswahl)
36. Language Generation Systems
1. Goals and Applications
2. Projects and Capabilities
3. Knowledge Sources
4. Architectures
5. Prospects and Priorities
6. Output Samples
7. Literature (selected)
IX. Application Fields of Computational Linguistics I: Basic Problems
37. Grundprobleme der Anwendungen in der Computerlinguistik
1. Wissenschaft und Anwendungen
2. Machbarkeit
3. Wissenschaftliche Grundlagen der CL
4. Technologische Entwicklung, Nutzung, Anwendung und Marketing
5. Anwendungsfelder und Grundlagen der CL
6. Entwicklungsperspektiven
7. Literatur (in Auswahl)
X. Application Fields of Computational Linguistics II: State of the Art and Perspectives of Computer-Aided Description of Natural Language
38. Computer-Aided Lexicography: Indexes and Concordances
1. Introduction
2. Indexes and Concordances in Research
3. The Making of a Concordance
4. Auxiliary Information
5. Using Concordances
6. Concordance Software
7. Interactive Concordances
8. Conclusion
9. Literature (selected)
39. Computer-Aided Lexicography: Dictionaries and Word Data Bases
1. Introduction
2. Classification and Characterization of Machine
3. Machine Readable DictionariesTowards Lexical Data Bases
4. Bilingual Computerized Dictionaries
5. Lexical Data Bases and a New Lexicography
6. Literature (selected)
40. Computergestützte Grammatikographie. Eine Fallstudie
1. Vorbemerkung
2. Traditionelle und computergestützte Grammatikographie
3. Ansätze computergestützter Grammatikographie
4. Fallstudie: Grammatik des Frühneuhochdeutschen
5. Literatur (in Auswahl)
41. Computergestützte Philologie: Bestimmung der Echtheit und Datierung von Texten
1. Einführung
2. Das Echtheitsproblem
3. Das Datierungsproblem
4. Notorischer Datenmangel
5. Literatur (in Auswahl)
42. Computer-Assisted Reconstruction of Texts
1. Traditional Approaches
2. Historical Remarks on Algorithmic Approaches to Stemma Construction
3. The Data Used
4. A Method Based on an Intermediacy Relation
5. Methods Based on Manuscript Groups
6. Methods Based on Dissimilarity Measures
7. Three Possible Criteria: Compatibility, Parsimony and Maximum Likelihood
8. Special Probabilistic Approaches
9. Reliability Studies
10. Computer Assisted Editions
11. The Environment of Stemma Construction: Automatic Collation, Text Reconstruction and Layout
12. Further Reading
13. Literature (selected)
43. Computer-Aided Stylistic Analysis. A Case Study of French Texts
1. Introduction
2. Brief History
3. Stylo-Statistics
4. Conclusion
5. Literature (selected)
44. Computergestützte Dialektologie
1. Dialektologie und Computerlinguistik
2. Automatische Sprachkartographie
3. Dialektometrie als computergestütztes Analyseinstrument
4. Struktur dialektaler Daten als Basis einer computativ-dialektologischen Systematik
5. Literatur (in Auswahl)
45. Computer-Aided Research in Comparative and Historical Linguistics
1. Comparative and Historical Linguistics
2. Upstream and Downstream Algorithms
3. Historical Linguistics
4. Lexicostatistics
5. Comparative Reconstruction
6. Conclusion
7. Literature (selected)
46. Computergestützte Inhaltsanalyse: Überblick über die linguistischen Leistungen
1. Überblick
2. Ansätze der computergestützten Inhaltsanalyse
3. Verfahrenstechnische Einzelheiten
4. Verknüpfung von computergestützter Inhaltsanalyse und Computerlinguistik
5. Literatur (in Auswahl)
XI. Application Fields of Computational Linguistics III: State of the Art and Perspectives in Computer-Aided Simulation of Natural Language in Man-Machine Communication
47. Automatic Speech Recognition
1. Introduction
2. Knowledge Sources for Speech Recognition
3. Signal Processing and Acoustic-Phonetic Analysis
4. Pattern Recognition and Decision Making in Context
5. Isolated Word Recognition
6. Connected Word Recognition
7. Continuous Speech Recognition
8. Conclusions
9. Literature (selected)
48. Automatische Sprachsynthese
1. Grundproblem
2. Verschiedene Konzepte und Methoden der Sprachsynthese
3. Hardware- und Softwarekomponenten von Sprachsynthesesystemen
4. Übersicht über verfügbare Geräte (Auswahl)
5. Probleme der heute verfügbaren Geräte
6. Softwareprobleme
7. Qualitätstests, Akzeptanz
8. Heutige Anwendungen
9. Künftige Anwendungen
10. Stand der Synthese von verschiedenen Sprachen
11. Forschungsthemen
12. Zur geschichtlichen Entwicklung der automatischen Sprachsynthese
13. Literatur (in Auswahl)
49. Machine Translation: General Development
1. Components Needed in Models
2. A Framework for Evaluating Models
3. Common Features: Constituent Structure and Dependence Structure in MT
4. Models Used in Particular MT Projects
5. Conclusion
6. Literature (selected)
50. Machine Translation: A Survey of Active Systems
1. Introduction
2. Western Europe
3. North America
4. The Far East
5. The State of the Art
6. Literature (selected)
51. Machine Translation: Active Systems. East-European Countries
1. The Present State of Machine Translation in East-Europe
2. Active Production Systems of Machine Translation
3. Current Research
4. An Overview of the Current MT Systems in East Europe
5. Literature (selected)
52. Machine Translation: Research and Trends
1. Introduction
2. Translation Between Japanese and Indo-European Languages
3. Basic Approaches
4. Translation and Understanding
5. Words and Concepts
6. Implicit Information
7. Layers of Understanding — Knowledge and Translation
8. Problems in the Future
9. Conclusions
10. Literature (selected)
53. Software and Lingware Engineering in Modern M(A)T Systems
1. Introduction
2. General Principles of Modern Second-Generation M(A)T Systems
3. Analogy and Difference With Compiler-Compiler Systems
4. Software Engineering
5. Lingware Engineering
6. Future Directions
7. Literature (selected)
54. Machine-Aided Translation: A Survey of Current Systems
1. Routine and Creative Parts in Translation
2. Translation Market
3. Terminological Dictionaries
4. Special Technology
5. Special Problems of Machine Dictionaries
6. A Powerful Instrument for Human Brain
7. Basic Trends
8. Microtranslators
9. Literature (selected)
55. Information Retrieval: Verfahren des Abstracting
1. Die informationsmethodische Funktion von Abstracts
2. Methoden des automatischen Abstracting
3. Graphische Alternativen
4. Literatur (in Auswahl)
56. Information Retrieval: Überblick über aktive Systeme und Entwicklungstendenzen
1. Definition und Abgrenzung
2. Funktionen des linguistischen Information Retrieval, Anwendungsrahmen
3. Computerlinguistische Lösungen
4. Laborsysteme
5. Entwicklungstendenzen
6. Literatur (in Auswahl)
57. Frage-Antwort-Systeme: Übersicht über Konzeptionen, Leistungsumfang und Entwicklungsperspektiven
1. Einleitung
2. Das Spektrum von Fragen und Antworten
3. Die Frage-Antwort-Relation
4. Stand der Forschung und Desiderata
5. Literatur (in Auswahl)
58. Question Answering Systems: A Survey of Major Accomplishments
1. The Basic Notions of Question Answering Systems
2. Major Systems Realizations
3. Summary
4. Literature (selected)
59. Computer-Aided Office Automation: A Survey of Linguistic Contributions
1. Introduction
2. Document Preparation
3. Message Processing
4. Medical Applications
5. Miscellaneous Office Tasks
6. Related Topics
7. Literature (selected)
60. Computer-Assisted Instruction: Problems and Perspectives From the Point of View of Computational Linguistics
1. Historical Background
2. Categories of CAI Programs
3. Future Direction of CAI
4. Literature (selected)
XII. Operating Environment of Computational Linguistics
61. A Survey of Practical Aspects of Computer-Aided Maintenance and Processing of Natural Language Data
1. Introduction
2. Text Coding
3. Text Input and Editing
4. Data Storage
5. Impact of Networking on the Current Situation
6. Literature (selected)
62. Arbeitspraktische Probleme des Datenaustauschs: Normungstendenzen und Kompatibilität im Bereichlinguistischer Daten
1. Was sind linguistische Daten?
2. Wie und wo zu entstehen Normen?
3. Der häufigste Fall: Austausch von Texten
4. Der zweithäufigste Fall: Austausch von Wörterbüchern
5. Normen für Texte mit Spezialfunktionen
6. Terminologie für die CL?
7. Zeichensätze
8. Textstrukturcodierung nach SGML
9. Verzeichnis einschlägiger Normen
10. Literatur (in Auswahl)
63. Eignung von Programmiersprachen zur Lösung linguistischer Problemstellungen: Entwicklung und Perspektiven
1. Übersicht
2. Eignungskriterien
3. Historische Entwicklung
4. Einflußnahme der CL auf die Programmiersprachenentwicklung
5. Literatur (in Auswahl)
64. Special Hardware and Future Development in Computer Architecture in View of Computational Linguistics
1. Introduction
2. Traditional Computer Systems
3. The LISP Machines
4. The LISP Machine Software
5. Symbolic Input/Output Requirements
6. New Programming Paradigms
7. New Machine Concepts
8. Literature (selected)
65. Graphikumgebung als arbeitspraktisches Ausstattungsbeispiel
1. Einleitung
2. Graphikbedarf in der Linguistik und computergestützte Lösungsversuche
3. Arbeitspraktische Situationlinguistisch orientierter Computergraphik: Stand und Perspektiven
4. Literatur (in Auswahl)
XIII. Bibliography
XIV. Indexes
Recommend Papers

Computational Linguistics / Computerlinguistik: An International Handbook on Computer Oriented Language Research and Applications /Ein internationales Handbuch zur computergestützten Sprachforschung und ihrer Anwendungen [Reprint 2010 ed.]
 9783110203325

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Computational Linguistics Computerlinguistik HSK 4

Handbücher zur Sprach- und Kommunikationswissenschaft Handbooks of Linguistics and Communication Science Manuels de linguistique et des sciences de communication Mitbegründet von Gerold Ungeheuer

Herausgegeben von / Edited by / Edités par Hugo Steger Herbert Ernst Wiegand

Band 4

Walter de Gruyter · Berlin · New York 1989

Computational Linguistics Computerlinguistik An International Handbook on Computer Oriented Language Research and Applications Ein internationales Handbuch zur computergestützten Sprachforschung und ihrer Anwendungen Edited by / Herausgegeben von István S. Bátori · Winfried Lenders Wolfgang Putschke

Walter de Gruyter · Berlin · New York 1989

CIP-Titelaufnahme der Deutschen Bibliothek Handbücher zur Sprach- und Kommunikationswissenschaft / mitbegr. von Gerold Ungeheuer. Hrsg. von Hugo Steger; Herbert Ernst Wiegand. — Berlin; New York: de Gruyter. Teil w . mit Parallelt.: Handbooks of linguistics and communication science. — Früher hrsg. von Gerold Ungeheuer und Herbert Ernst Wiegand NE: Ungeheuer, Gerold [Begr.]; Steger, Hugo [Hrsg.]; PT Bd. 4. Computational linguistics. — 1989 Computational linguistics: an international handbook on computer oriented language research and applications = Computerlinguistik / ed. by István S. Bátori ... — Berlin; New York: de Gruyter, 1989 (Handbücher zur Sprach- und Kommunikationswissenschaft; Bd. 4) ISBN 3-11-009792-3 NE: Bátori, István [Hrsg.]; PT

© Copyright 1989 by Walter de Gruyter & Co., Berlin 30. Printed in Germany Alle Rechte des Nachdrucks, der photomechanischen Wiedergabe, der Herstellung von Photokopien — auch auszugsweise — vorbehalten. Satz und Druck: H. Heenemann GmbH & Co, Berlin Bindearbeiten: Lüderitz & Bauer, Berlin

In memoriam Gerold Ungeheuer

1

Contents/Inhalt

Preface................................................................................................................................ Vorwort ............................................................................................................................. List of Maps/Verzeichnis der Karten ................................................................................ List of Figures/Verzeichnis der Abbildungen ...................................................................

I.

Computational Linguistics I : Development Computerlinguistik I : Entwicklungslinien

1.

István S. Bátori, Die allgemeine Entwicklung der Computerlinguistik (The General Development of Computational Linguistics)................................ Brigitte Endres-Niggemeyer, Überblick über die Wissenschaftsorganisation und Forschungseinrichtungen der Computerlinguistik in den westlichen L ändern (A Survey of the Scientific Organization and R esearch Facilities of Computational Linguistics in the Western Countries) ....................... Eva Hajičová, The Research in Computational L inguistics in the Countries of Eastern (and Central) Europe (Forschungen zur Computerlinguistik in Ost-[und Mittel-]Europa)........................................................................

2.

3.

II.

Computational Linguistics II: Theoretical and Methodical Foundations Computerlinguistik II: Theoretisch-methodische Grundlagen

4.

Willy Martin, Theoretical Framework, Aims and Concepts of Computational L inguistics (Wissenschaftstheoretische Grundlagen, Ziele und Konzeptionen der Computerlinguistik)..................................................................... Dieter Krallmann, Problembereiche der Computerlinguistik: Positionierungs- und Abgrenzungsaspekte (Problems of Computational Linguistics: Its Relation to Other Fields of Research)........................................................... Ursula Klenk, Computerlinguistik und die Theorie der formalen Sprachen (Computational Linguistics and the Theory of Formal Languages).......... Eberhard Bertsch, Abbildungsproblematik in der Computerlinguistik: L inguistische Elemente und Operationen vs. Daten- und Programmstrukturen (The Problem of Mapping in Computational Linguistics: Linguistic Elements and Operations vs. Data- and Program Structures)........................... Hans Karlgren, Application and Research — Mutual Side Effects (Anwendung und Forschung — Wechselseitige Nebeneffekte).................................

5. 6. 7.

8.

III.

Computational Linguistics III: Special Methodical Problems Computerlinguistik III: Besondere methodische Probleme

9.

Reinhard Köhler/Gabriel Altmann, Status und Funktion quantitativer Verfahren in der Computerlinguistik (Status and Function of Quantitative Methods in Computational Linguistics).............................................................

XIII XXI XXIX XXX

1

14 59

73 79 87

94 101

113

2

10.

Jürgen Krause, Evaluierung komplexer Systeme in der Computerlinguistik: Verfahren und Anwendung (The Evaluation of Complex Systems in Computational Linguistics: Methods and Applications)....................................

IV.

Computer-Aided Description of Language Systems I: Basic Problems Computergestützte Beschreibung von Sprache I: Grundprobleme

11.

Petr Sgall, Theoretical Aspects of Computer-Aided Description of L anguage Systems (Theoretisch-methodische Aspekte der computergestützten Beschreibung von Sprache) ......................................................................... Henning Bergenholtz/Joachim Mugdan, Korpusproblematik in der Computerlinguistik: Konstruktionsprinzipien und Repräsentativität (Problems of Natural Language Corpora in Computational Linguistics: Principles of Construction and Representativity).............................................. Robert F. Allen, Survey of Natural L anguage Corpora in Computational Linguistics (Übersicht über Korpora in........... der Computerlinguistik)........... Winfried L enders, Segmentierung in der Computerlinguistik (Segmentation in Computational Linguistics) ....................................................................

12.

13. 14.

V.

Computer-Aided Description of Language Systems II: Discovery of Rule-Systems Computergestützte Beschreibung von Sprache II: Ermittlung von Regelsystemen

15.

Ilpo Tapani Piirainen, Computergestützte Verfahren zur graphematischen Beschreibung von Sprache (Computer-Aided Graphematic Description of Language Systems) ................................................................................. Klaus Wothke, Computergestützte Verfahren zur phonologischen Beschreibung (Computer-Aided Phonological Description).................................. Burkhard Schaeder/Gerd Willée, Computergestützte Verfahren morphologischer Beschreibung (Computer-Aided Morphological Description) .......... Allan Ramsay, Computer-Aided Syntactic Description of L anguage Systems (Computergestützte Verfahren zur syntaktischen Beschreibung von Sprache).............................................................................................................. Hans-Jürgen Eikmeyer/Jörg Kindermann/János Sándor Petöfi, Computer-Aided Textual Description of L anguage Systems (Computergestützte Verfahren zur textualen Beschreibung von Sprache).......................................... Winfried L enders, Computergestützte Verfahren zur semantischen Beschreibung von Sprache (Computer-Aided Semantic Description of Language Systems).............................................................................................

16. 17. 18. 19. 20.

120

127

141 150 159

167 175 188 204 219 231

Handbücher zur Sprach- und Kommunikationswissenschaft

VI.

Computer-Aided Description of Language Systems III: Testing of Rule Systems Computergestützte Beschreibung von Sprache III: Testen von Regelsystemen

21.

Fred Karlsson, Computational Testing of L inguistic Models in Morphology (Computergestützte Testverfahren für Sprachbeschreibungsmodelle im Bereich der Morphologie).................................................................................. Joyce B. Friedman, Computational Testing of L inguistic Models in Syntax and Semantics (Computergestützte Testverfahren für Sprachbeschreibungsmodelle im Bereich der Syntax und Semantik)..........................................

22.

VII.

Computer Simulation of Language I: Basic Problems Computersimulation von Sprache I: Grundprobleme

23.

Winfried L enders, Übersicht über die Verstehensproblematik hinsichtlich der Computersimulation von Sprache (Survey of the Problem of Understanding from the Point of View of Computer Simulation of Language) ...... Gerry T. M. Altmann, Psycholinguistic Implications in Computer Simulation of Natural L anguage Processing (Psycholinguistische Implikationen der Computersimulation von Sprachprozessen)................................................. Haldur Õim, L anguage Understanding and Problem Solving: On the Relation Between Computational L inguistics and Artificial Intelligence (Sprachverstehen und Problemlösen: Zum Verhältnis von Computerlinguistik und Künstlicher Intelligenz) ........................................................................ Geneviève Berry-Rogghe, Representational L anguage in L anguage Understanding Systems (R epräsentationssprache in Sprachverstehenssystemen..................................................................................................................... Dieter Metzing/Günther Görz, Rolle und Funktion von Netzwerken in der Computersimulation von Sprache (The Use of Networks in Computer Simulation of Language)....................................................................................

24. 25.

26. 27.

VIII.

Computer Simulation of Language II: Systems Components Computersimulation von Sprache II: Systemkomponenten

28.

István S. Bátori, Systemarchitektur der Sprachverstehenssysteme (The Architecture of Language Understanding Systems)............................................ Manfred Wettler, Wissenrepräsentation: Typen und Modelle (Knowledge Representation: Types and Models)................................................................... Robert J. P. Ingria, Simulation of L anguage Understanding: L exical Recognition (Simulation sprachlichen Verstehens: Lexikalisches Erkennen) ... Peter Hellwig, Parsing natürlicher Sprachen: Grundlagen (Parsing of Natural Language Systems: Foundations).......................................................... Peter Hellwig, Parsing natürlicher Sprachen: Realisierungen (Parsing of Natural Language Systems: Realisations)..........................................................

29. 30. 31. 32.

3

245 252

260 272

277 283 290

311 317 336 348 378

4

Handbücher zur Sprach- und Kommunikationswissenschaft

33.

34. 35. 36.

Claus-Rainer Rollinger, Simulation sprachlichen Verstehens: Generelle Probleme bei der semantischen Interpretation der natürlichen Sprache (Simulation of Language Understanding: General Problems in Semantic Interpretation of Natural Language).................................................................. Margaret King, Simulation of L anguage Understanding: Semantic Models and Semantic Interpretation (Simulation sprachlichen Verstehens: Semantische Modelle und semantische Interpretation).......................................... Hans Dieter L utz, Inferenzen in sprachverstehenden Systemen (Inferences in Language Understanding Systems)....................................................... Gerard Kempen, L anguage Generation Systems (Spracherzeugungssysteme)..................................................................................................................

IX.

Application Fields of Computational Linguistics I: Basic Problems Anwendungsgebiete der Computerlinguistik I: Grundprobleme

37.

István S. Bátori, Grundprobleme der Anwendungen in der Computerlinguistik (Basic Problems of Applications in Computational Linguistics) ......

X.

Application Fields of Computational Linguistics II: State of the Art and Perspectives of Computer-Aided Description of Natural Language Anwendungsgebiete der Computerlinguistik II: Stand und Perspektiven der computergestützten Beschreibung natürlicher Sprache

38.

Randall L . Jones/Steven P. Sondrup, Computer-Aided L exicography: Indexes and Concordances (Computergestützte Lexikographie: Indices und Konkordanzen)............................................................................................ Nicoletta Calzolari, Computer-Aided L exicography: Dictionaries and Word Data Bases (Computergestützte Lexikographie: Wörterbücher und Wortdatenbanken).............................................................................................. Klaus-Peter Wegera/Eckhard Berg, Computergestützte Grammatikographie. Eine Fallstudie (Computer-Aided Grammaticography: A Case Study) .... Dieter Wickmann, Computergestützte Philologie: Bestimmung der Echtheit und Datierung von Texten (Computer-Aided Philology: Authorshipand Chronological Determination).................................................................... Dietmar Najock, Computer-Assisted Reconstruction of Texts (Computergestützte Rekonstruktion von Texten).................................................................. Robert F. Allen, Computer-Aided Stylistic Analysis. A Case Study of French Texts (Computergestützte Stilanalyse. Eine Fallstudie zu französischen Texten)...................................................................................................... Harald Händler/L utz Hummel/Wolfgang Putschke, Computergestützte Dialektologie (Computer-Aided Dialectology)..................................................

39. 40. 41. 42. 43. 44.

432 440 460 471

481

490 510 519 528 534 544 553

5

45. 46.

John Hewson, Computer-Aided Research in Comparative and Historical L inguistics (Computergestützte Untersuchungen in der vergleichenden und historischen Linguistik)...................................................................................... Peter Ph. Mohler, Computergestützte Inhaltsanalyse: Überblick über die linguistischen L eistungen (Computer-Aided Content-Analysis: A Survey of Linguistic Contributions)...................................................................................

XI.

Application Fields of Computational Linguistics III: State of the Art and Perspectives in Computer-Aided Simulation of Natural Language in Man-Machine-Communication Anwendungsgebiete der Computerlinguistik III: Stand und Perspektiven der Computersimulation natürlicher Sprache in der Mensch-Maschine-Kommunikation

47.

Hermann Ney, Automatic Speech Recognition (Automatische Spracherkennung) ......................................................................................................... Bernd S. Müller, Automatische Sprachsynthese (Automatic Speech Synthesis) ................................................................................................................. Alan Melby, Machine Translation: General Development (Maschinelle Sprachübersetzung: Allgemeine Entwicklung)................................................... Jonathan Slocum, Machine Translation: A Survey of Active Systems (Maschinelle Sprachübersetzung: Überblick über aktive Systeme).................... Károly Fábricz, Machine Translation: Active Systems. East-European Countries (Maschinelle Sprachübersetzung: Aktive Systeme. Osteuropa) .. ..... Jun-ichi Tsujii, Machine Translation: Research and Trends (Maschinelle Sprachübersetzung: Forschungstrends).............................................................. Christian Boitet, Software and L ingware Engineering in Modern M(A)T Systems (Software und Lingware-Technik in modernen M(A)T-Systemen) ....... Yu. M. Marchuk, Machine-Aided Translation: A Survey of Current Systems (Maschinengestützte Sprachübersetzung: Überblick über Systeme) .. ...... Rainer Kuhlen, Information Retrieval: Verfahren des Abstracting (Information Retrieval: Methods in Abstracting)........................................................ Jìri Panyr/Harald H. Zimmermann, Information Retrieval: Überblick über aktive Systeme und Entwicklungstendenzen (Information R etrieval: A Survey of Active Systems and Trends)............................................................. Christopher Habel/Simone Pribbenow, Frage-Antwort-Systeme: Übersicht über Konzeptionen, L eistungsumfang und Entwicklungsperspektiven (Question-Answering-Systems: A Survey of Models, Performance and Trends)................................................................................................................ Arkadiusz L esch, Question-Answering-Systems: A Survey of Major Accomplishments (Frage-Antwort-Systeme: Überblick über die Leistungen)........ Bruce W. Ballard, Computer-Aided Office Automation: A Survey of L inguistic Contributions (Computergestützte Bürokommunikation: Überblick über die linguistischen Leistungen) .......................................................... Arne Zettersten, Computer-Assisted Instruction: Problems and Perspectives from the Point of View of Computational L inguistic (Computergestützter Unterricht: Probleme und Möglichkeiten aus der Sicht der Computerlinguistik) ......................................................................................................

48. 49. 50. 51. 52. 53. 54. 55. 56. 57.

58. 59. 60.

576 580

586 599 622 629 645 652 670 682 688 696

708 722 739

745

6

XII.

Operating Environment of Computational Linguistics Das arbeitspraktische Umfeld der Computerlinguistik

61.

Susan Hockey, A Survey of Practical Aspects of Computer-Aided Maintenance and Processing of Natural L anguage Data (Überblick über arbeitspraktische Aspekte der computergestützten Haltung und Bearbeitung natürlich-sprachlicher Daten)............................................................................ Raimund Drewek, Arbeitspraktische Probleme des Datenaustauschs: Normungstendenzen und Kompatibilität im Bereich linguistischer Daten (Practical Problems of Data Exchange: Standards and Compatibility of Data in Computational Linguistics)................................................................... Jan Messerschmidt/Günter Hotz, Eignung von Programmiersprachen zur L ösung linguistischer Problemstellungen: Entwicklung und Perspektiven (Capacity of Programming Languages for Linguistic Problem Solving: Development and Trends) ......................................................................... Jonko Seppänen, Special Hardware and Future Development in Computer Architecture in View of Computational L inguistics (Spezielle Hardware und Entwicklungen auf dem Gebiet der Computerarchitektur aus der Sicht der Computerlinguistik)............................................................................. Harald Händler, Graphikumgebung als arbeitspraktisches Ausstattungsbeispiel (Operating Graphical Facilities in Computational Linguistic: From a User’s Point of View).......................................................................................

62.

63.

64.

65.

XIII.

Bibliography Bibliographie 799

XIV.

Indexes Register

66. 67.

Index ofNames (Namenregister)......................................................................... SubjectIndex (Sachregister) ..............................................................................

752

760

766

772 790

901 917

XIII

Preface 1. On the Term “Computational Linguistics” During the last four decades, the subject called Computational Linguistics in this handbook has evolved from humblest beginnings. In the practical context of research, tuition, and application, the terms Linguistische Datenverarbeitung, Computative Linguistik, Sprachdatenverarbeitung, Linguistische Informatik, Informationslinguistik, literary and linguistic computing, language data processing, etc., have also been used, referring to a more extensive field that covers those sections of artificial intelligence research that are related to language as well. The various names for the subject reflect the interests of disciplines such as linguistics, philologies, information science, psychology, etc., as well as some areas of application, lik e language translating, information systems, text processing, etc. In spite of all its different names, this subject deals with a clearly defined topic: language and language phenomena, the research of which is carried out with the special aid of electronic data processing. The title of the handbook has been chosen thus because, in the editors’ opinion, the term Computational Linguistics seems to be most suitable to express the intention of bringing together differently accentuated fields of work . Moreover, Computational Linguistics has already been adopted as the name of the largest international association of specialists in this field of work.

2. On the Origin of this Handbook It was the late co-editor of the series “Handbücher zur Sprach- und Kommunikationswissenschaft”, Gerold Ungeheuer, who was first to recognize the need for this handbook , and who committed himself to the all important inclusion in the series. The editors dedicate this volume to his memory. The preliminary talk s took place in 1981. Introductions for the handbook and an outline of its structure were elaborated, distributed and discussed with colleagues in the Computational Linguistics Conferences in Prague (1982) and Palo Alto/Stanford (1984). The editors did not only note a mood of general approval in the talks, but also gained numerous tips which have also indirectly left their mark on the structure of the handbook . The editors would at this point lik e to thank those in particular whose suggestions, opinions or criticisms were indeed noted but are not explicitly ack nowledged, such as Martin Kay, Olga Kulagina, Kathleen McKeown, Igor Melčuk , Roger C. Schank , Wolfgang Wahlster, Donald Walk er, Yorick Wilk s and many others whom we approached with a view to collaboration, but who nevertheless felt they were not in a position to accept the offer. Similary the editors request the understanding of those whose suggestions it was necessary to leave aside. The assignation of tasks to a handbook — as is explained more fully below — leads to the fact that its lay-out mirrors a possible structuring of the subject as a whole. In view of the lack of specialist categorization in the field of Computational Linguistics, the editors were confronted with the task of outlining not only the structure of a volume, but also of a whole subject.

XIV

1.Preface

Establishing a structure was impeded by two factors: firstly by the absence of concentrated preliminary work ; and secondly by constantly rapid development in the research area. So on the one hand it was necessary to find a comprehensive, factually appropriate and firm structure which contains the results of research and development attained so far in Computational Linguistics; on the other hand this structure must adopt a form so flexible that it allows for the classification of ongoing research. Problem areas were not to be omitted, neither were newly-found areas of research to be ignored. In an effort to do justice to both requirements, the editors drew-up a systematic structure for the volume — which will be explained in further detail — along with thematic guidelines for the individual articles, which established the framework. It was left to the specialists invited to help work on the volume to provide the details of the framework. The recruitment of contributors began in 1983. Leading representatives of the field were to present the various branches against the background of the current stage in their development. In order to k eep subjective misjudgments to a minimum, particularly where the evaluation of individual problem areas is concerned, the editors aimed at a wide international co-operation so that the whole field of Computational Linguistics was covered rather than obtaining regional representation. While the allocation and form of individual articles have seen inevitable compromises, it will be maintained in retrospect that it was necessary to only slightly alter the original structure intended for the subject, although, in view of the rapid advances made in Computational Linguistics, a revision of the structure would not have been surprising. The handbook ’s treatment of the particularly concentrated development of language-oriented Artificial Intelligence in recent years is all too inadequate. It is in neither the interest of language-oriented Artificial Intelligence research nor of Computational Linguistics to strive for a clear deviding line between the two. On the contrary, the two fields must in future be considered in closer connection with one another. The editors regret the delay in the publication of the handbook . The original intention was to publish as early as 1986, (COLING ’86 in Bonn), then in 1988 (COLING ’88 in Budapest). Concern for the quality, and efforts to ensure the whole field was covered led to a tense wait for reworks or for surveys which were regarded as imperative for the draft framework of the handbook . The editors were on no account prepared to compromise on the quality of the contributions. The relatively long editing time demands a retard between the individual articles which the user of the handbook notes in particular in the premature break from the quoted literature.

3 The Purpose of the Handbook The handbook is addressed to everyone dealing with the use of data processing in languages as defined in linguistics and communication science (see the preface by Ungeheuer/Wiegand in Vol. 1.1 of this series of Handbooks). Handbooks more or less automatically claim to be complete, and to present relevant or at least still valid k nowledge. Alone the latent claims of this genre mean great demands on the sk ill of both the editors and the collaborators of handbook s which of course also hold for this handbook. In detail, the purpose of the handbook is — to describe the current level of international research in comprehensive surveys,

Preface

XV

— to discuss various conceptional attempts to locate the subject within science in general, to determine its structure, and examine the way it relates to neighboring disciplines, — to present a survey of literature on this subject, which is often difficult to obtain. — to report on the use of Computational Linguistics in fields other than that of basic research, and — to demonstrate perspectives for the further development of the subject. These general requirements that ought to be met by a handbook are supplemented by two further conditions in the case of Computational Linguistics: (1) Computational Linguistics is a relatively young research area, and its autonomy is not yet fully indisputable. The principle question arises whether Computational Linguistics really is necessary as a distinct subject. Couldn’t automatic lemmatizing, automatic syntactic analysis, etc. be included in appropriate chapters (in morphology, syntax, etc.) of language description, i. e., in linguistics? Couldn’t an additional division of applied linguistics or information science be established for machine translation or automatic indexing? What justifies regarding Computational Linguistics as a distinct scientific research field? (2) So far, the field has not been structured; this presents a problem yet to be solved. There have been no comprehensive attempts to integrate the various aspects of Computational Linguistics that could act as guidelines. Attempts at the structure have so far been one-sided, remained restricted to specific areas or were out-dated before they were successful (Hays 1967; Ungeheuers’ Man-Machine-Model, Ungeheuer 1971; Kay in Sparck Jones/Kay 1973; Bátori 1977; Lenders 1980; Tennant 1981; Bátori/Krause/Lutz 1982; Grishman 1986). Nonetheless, these attempts do contain several good approaches that have also been tak en up in this volume, compared with each other, and extended.

Under these circumstances, it is quite feasible, perhaps even probable, that the handbook does not cover all possible interests and topics; however, the editors are aiming at presenting a complete survey of the whole field that would at least enable the classification and further studying of specific problems. The handbook should not be regarded as a textbook introducing the student to the various established methods of, say, machine text processing; however, it contains references to training colleges, and, in the bibliography, a list of publications that would be of use in further studying of specific topics. Finally, it has to be pointed out that this handbook — unlike, for instance, the first two volumes of the handbook series — is not related to a specific language, lik e German. Instead, as in the case of the volumes Semiotics, Philosophy of language, Lex icography, etc., the attempt is made to ensure a presentation of the systems and processing methods dealt with, which is independent of individual languages.

4 On the Legitimation of Computational Linguistics Even if Computational Linguistics is not regarded as a subdiscipline, but, less ambitiously, as a research field, the question remains: what justifies the delimitation of Computational Linguistics within (or separately from) linguistics? The editors see the justification for Computational Linguistics becoming a distinct scientific field above all from a pragmatic point of view: the enormous increase in research and publication activities. Due to the lack of appropriate publication organs

XVI

Preface

and the splitting up of the field, many research results have only been publicized in the immediate vicinity of the respective linguistic research area. The implications of these results were often not appreciated, and above all they were not able to spread beyond traditional scientific fields. The results of the field are scattered about, and they are not in any way compiled. The practical objective of the handbook is to bridge this gap. But even in sectors that enjoy a better infrastructure the extent of specialized literature that has to be dealt with has increased so rapidly that the orientation and classification of one’s own work becomes difficult even in the various subdivisions of Computational Linguistics, like syntax parsing or production of concordances, and cannot be left to the individual philological zeal of a scientist without endangering the innovative handing down of science. In order to guarantee the continuity of scientific research, it is necessary to record the newly created computer-orientated linguistic research comprehensively, thus offering guidelines to individual researchers, tutors, and students of the field. However, this pragmatic justification of Computational Linguistics remains empty as long as one does not succeed in making plausible the coherence of the field. Recognizing the pragmatic necessity does not become superfluous, but merely shifts the quest for a foundation of Computational Linguistics guided by theoretical principles. Justifying Computational Linguistics as a distinct research field ultimately implies examining its inner relations. In what way are the various research branches connected that are commonly (and in this handbook) combined in Computational Linguistics? A theoretically orientated definition of the location of Computational Linguistics as related to linguistics would start out from the important role of data processing in the research field and specify the interdisciplinary link s between language and the computer from a linguistic angle. The autonomy of Computational Linguistics can be justified by innovations that are assigned to four levels of knowledge: (1) The new methods: Computational Linguistics came into being when the new techniques of electronic data processing were also used for dealing with old problems which were known from the separate philologies. These methods are indisputably new and different from the usual philological methods. This is demonstrated in a typical way by the development of the field of lexicography. (2) New insights: Examing old problems with a new research instrument enables new, hitherto inconceivable insights. Precision and the amount of data that can be dealt with by machine processing open up new perspectives and enable qualitatively new statements. An example for this is computer-aided authorship determination. (3) The advent of computer technology has led to several new types of problems. Apart from direct computer application, like machine translation or automatic indexing, secondary processes that have already arisen or are arising from the use or partial use of computers in research and can be dealt with by computers, like lemmatizing, must also be mentioned. (4) Finally, a new structuring of the field has evolved. New methods, insights, and types of problems lead to new affinities that cannot be included in conventional linguistic field structuring, for instance the process problem in man-machine communication. For an adequate description of the field, a complete new field structuring will become necessary (based on the fundamental distinction between description and simulation), and it would clearly describe Computational Linguistics as a field separate from conventional linguistics.

Of course these four levels do not have equal degrees of importance; for instance, methodical innovations alone would certainly not be sufficient, but their argumentative strength increases in the given context.

Preface

XVII

It is often difficult to access in a detailed way how the new (exact) computer-aided research methods have enabled new insights and new problem solutions, or to what extent types of problems and the restructuring of the field are related to each other. However, one can observe that the higher levels of k nowledge are to a greater degree responsible for the constituting of the new linguistic subdiscipline of Computational Linguistics than the lower ones. The fourth level of abstraction, the new structuring of the field, becomes decisive inasmuch as it systematically accumulates the innovations of the lower levels and brings together and relates hitherto isolated phenomena and problems lying far apart. Structuring is not only an inventory but also supplies an explication of the relations and common features within the field; it opens up new perspectives and gives the field the quality of autonomy. In this sense, just how firmly Computational Linguistics is established depends on its structuring. The editors believe that the quality and the number of innovations these four levels comprise justify the autonomy of Computational Linguistics with respect to linguistics in a sufficient way. Nevertheless, in view of the linguistic dominance as far as defining the types of problems is concerned, Computational Linguistics remains closely linked with linguistics. This orientation towards linguistics must be emphasized especially because the inherent interdisciplinary research field can at least partly be defined and structured in the context of other research directions. Two of these alternative ways of structuring Computational Linguistics that have been discussed intensively recently, cognitive science and artificial intelligence, ought to be briefly described. Cognitive science denotes a field of k nowledge in which the more sophisticated human intellectual abilities are examined, including the use of language. The field is especially complicated within the sector of language use and language behavior, and, quite appropriately, several traditional and new (sub-)disciplines lay claim to its research. Cognitive science combines all those disciplines that can contribute to research on more elaborate cognitive abilities since, as far as solving problems is concerned, it is not important who has contributed what to the solution or which discipline is responsible for the research work done. So cognitive science would bring together in an organized way research that has hitherto been hindered by disciplinary boundaries, and it would create new, stimulating connections without having to deal with cumbersome delimitation and competence issues. The promising openness of the concept of an (as yet hardly institutionalized) cognitive science is, however, also accompanied by the necessity of an inner structuring. For, on the one hand, it ought to be appreciated that image processing and language learning are regarded as immediate neighbors, but on the other hand, the topic of language behavior must be dealt with as a unit, so that in the end the autonomy of Computational Linguistics is not affected by cognitive science. So cognitive science and Computational Linguistics are not rivals or mutually exclusive conceptions. The accentuated interdisciplinarity, especially the extending of the horizon towards psychology and the study of volitional aspects of language (ranging, beyond pure information conveying) are also attractive perspectives for Computational Linguistics, especially in the area of language simulation. Artificial intelligence (= AI) deals with problem solving, and the phenomenon of language is an inevitable result of the research methods applied: problems must be formulated in a straightforward way before their solution can be attempted, both in heuristic searching and automatic theorem proving. So language use is a central manifestation of intelligent behavior. Artificial intelligence is primarily orientated towards computer science, and it is inspired directly by the concepts of computer science in synthesizing the problem field (Barr and Feigenbaum 1981, 3).

XVIII

Preface

Whereas cognitive science copes, or hopes to cope, with the problem of surmounting disciplinary boundaries by organizing all disciplines that deal with cognition problems — perhaps tentatively — in a tightly woven communication network , thus perforating disciplinary boundaries, artificial intelligence eliminates them totally by laying claim to relevant k nowledge areas itself and managing with the problem of interdisciplinarity within information science, or at least it hopes to do so. Since Computational Linguistics and artifical intelligence are devoted to separate directions of research, this leads to characteristic differences which constitute distinct aspects of research: (1) Artificial intelligence does not grant a special status to language as one of the human capacities. It is a basic tenet of linguistics (and ipso facto of Computational Linguistics too) that human language is irrevocably allied with thought and is therefore qualitatively different from many other (non-verbal) displays of human intelligence. From a linguistic point of view language difficulties justify scientific research as an end in itself. AI views the discussion of language problems as being justifiable only within a wider context of problem solving (cf. Chomsky, Reflections on Language 1976, 22). (2) Artificial Intelligence requires neither an autonomous level of language analysis nor a Competence-Performance Dichotomy as is usually the case in linguistics. There the directly avaible formulation of language is confronted by an abstract representation of knowledge (cf. Wahlster 1982).

In the field of language behaviour models there are fundamental overlaps between Artificial Intelligence and Computational Linguistics: their relationship is therefore to be regarded as one of vicinal areas with overlaps, in which it is not so much the mutual division which is to be encouraged, but rather the reciprocal exchange of experience and knowledge. (The relationship of Artificial Intelligence and Computational Linguistics is assessed differently: some representatives of Artificial Intelligence are quite prepared to adopt recognitions of linguistic interest as their own (cf. Habel 1982).

5. The Structuring ofthe Handbook 5.1 Structuring Principles In a similar way to justifying the autonomy of Computational Linguistics, in structuring the field, one tak es as a basis the prominent role of data processing in linguistic research. This concept of the role of electronic data processing is expressed in the central chapters of the handbook in the clear distinction between two aspects that have been extracted from various conceptional designs and the practice of Computational Linguistics. For one thing, the computer is regarded as an aid in describing language phenomena which can be employed to prepare the empirical foundations of theories relating to languages, especially linguistic theories. Description means both inductive processes which start out from a given language phenomenon and detect specific regularities in it, and deductive processes applied in examining language phenomena, incorporating a verification of assumed regularities by tests. On the other hand, the computer is not only seen as an aid in describing language, but as a language user itself, i. e., as a unit that can react to the perception of language phenomena and can also produce these phenomena (computer simulation). In this respect, the data processing equipment also acts as an instrument for developing theories, theories on language behavior.

Preface

XIX

So language description and language simulation are the two structuring aspects of Computational Linguistics, which are linked in various ways. This division can also be observed in the different areas of application. The system presented here does not claim to be final, but in the opinion of the editors it reflects the latest developments in the field. The editors hope that the structuring suggested in this volume will prove to be useful and extendable beyond the scope of the handbook.

5.2 The Structure of the Handbook in Detail The two central topics of Computational Linguistics, description and simulation, are presented in chapters IV—VIII of the handbook. They are preceded by some theoretical-methodical chapters I—III, in which the development of the field is described, and they are followed by three chapters (IX—XI) which include the areas of application of Computational Linguistics. Chapter XII on working practice concludes the handbook. The handbook thus consists of the following five main parts: [A] The development, theory, and methods of Computational Linguistics (ch. [B] [C] [D] [E]

I—III) Computer-aided description of language systems (ch. IV—VI) Computer simulation of language (ch. VII—VIII) Application fields of Computational Linguistics (ch. IX—XI) and Operating environment of Computational Linguistics (ch. XII).

It has already been mentioned that in the main part [A] there is an attempt to place the collective study of Computational Linguistics in a wider, historical and epistemological, external framework . The internal classification of the individual main parts is as follows

The varied levels of information in the individual main parts becomes particularly clear when we consider for how long the information gained may be of profitable use. While linguistic description [B] and simulation [C] present relatively constant information, the information in the area of application ages more rapidly. Even more dramatic is the change in the information in the practical working field [E]. The handbook presents a bibliography of some 3 700 titles on Computational Linguistics, compiled from the references of the individual articles. The compilation of the bibliography was done by Friedrich Wetter, to whom the editors want to express their warmest thank s. Although the editors cannot demand complete entirety, the handbook they present contains the largest comprehensive, systematic collection of literature on Computational Linguistics.

XX

Preface

6. Computational Linguistics: Dream and Reality It would certainly be inappropriate to claim that Computational Linguistics is in a position to provide a complete description of the processes of understanding language, which may also serve as a basis for the application of computer programs in natural language. But it has become clear that Computational Linguistics can, and indeed to some extent does, provide a basis, without which it will not be demonstrated that the range of basic research in Computational Linguistics is also understood beyond the narrow limits of its field. With this in mind we must acknowledge the visionary analysis of Gerold Ungeheuer who introduced the new discipline at a time when the connection between language and the computer was still obscured by misconceptions and prejudices. In two respects he was ahead of his time: (1) At a time — and this time is by no means very long ago — when academics ignored or rejected it, he recognized and propagated the computer as a working instrument for language research. (2) At a time — and this time too is by no means very long ago — when scientists still regarded the processing of human information as a precedent to the general processing of symbols, he recognized that machine language processing can only be achieved within a larger communicative framework.

This handbook indicates how the world has undergone radical change since this time, and how appropriate Ungeheuer’s analysis was in 1971. March, 1989 István S. Bátori (Koblenz) Winfried Lenders (Bonn) Wolfgang Putschke (Marburg)

XXI

Vorwort 1. Zur Bezeichnung des Fachgebietes In den vergangenen vier Jahrzehnten hat sich aus kleinsten Anfängen das Fachgebiet entwickelt, für das im vorliegenden Handbuch die Bezeichnung Computerlinguistik bzw. Computational Linguistics (CL) gewählt worden ist, das aber in der Praxis von Forschung, Lehre und Anwendung mit verschiedenen Namen wie Linguistische Datenverarbeitung, Computative Linguistik, Sprachdatenverarbeitung, Linguistische Informatik, Informationslinguistik, Literary and Linguistic Computing, Language Data Processing usw. benannt wird und zu dem auch die sprachbezogenen Teile der KünstlichenIntelligenz-Forschung gehören. In den verschiedenen Namen des Faches spiegeln sich die Interessen so unterschiedlicher Disziplinen wie Linguistik, Informationswissenschaft, Informatik, Psychologie usw., sowie die der verschiedenen Philologien und einiger Anwendungsfelder wie Sprachübersetzung, Informationssysteme, philologische Textverarbeitung u. a. wider. Bei aller Verschiedenheit der Bezeichnung hat dieses Fach jedoch einen einheitlichen Gegenstand: Sprache und sprachliche Phänomene, bei deren Erforschung als besonderes Forschungsinstrument der Computer eingesetzt wird. Mit dem Namen des vorliegenden Handbuches wurde angesichts dieser Vielfalt von Aspekten diejenige Bezeichnung ausgewählt, die den Herausgebern am geeignetsten erschien, um unterschiedlich akzentuierte Arbeitsgebiete zusammenzuführen. Zudem ist die Bezeichnung Computational Linguistics als Name der größten internationalen Fachvereinigung eingeführt und daher international verständlich. Im deutschen Kontext wird zunehmend die Bildung Computerlinguistik verwendet, da diese nicht wie andere Bezeichnungen nur regional gebräuchlich ist.

2. Über das Entstehen dieses Handbuches Es war der früh verstorbene Mitherausgeber der Reihe Handbü cher zur Sprach- und Kommunikationswissenschaft, Gerold Ungeheuer, der die Notwendigkeit dieses Handbuches als erster erkannt und sich für seine vorrangige Aufnahme in die Reihe eingesetzt hat. Seinem Andenken widmen die Herausgeber diesen vorliegenden Band. Die ersten Orientierungsgespräche fanden 1981 statt. Ein Leitfaden für das Handbuch und ein Entwurf für seine Gliederung wurden erarbeitet, auf den Computerlinguistik-Kongressen in Prag (1982) und Palo Alto/Stanford (1984) verteilt und mit Kollegen diskutiert. In den Gesprächen haben die Herausgeber nicht nur eine breite Zustimmung registriert, sondern auch zahlreiche Ratschläge bekommen, die indirekt auch in die Gliederung des Handbuches eingeflossen sind. Die Herausgeber möchten an dieser Stelle insbesonders denen danken, deren Vorschläge, Stellungnahmen oder Kritik zwar beherzigt aber ohne explizite Antwort geblieben sind, wie Martin Kay, Olga Kulagina, Kathleen McKeown, Igor Melčuk, Roger C. Schank, Wolfgang Wahlster, Donald Walker, Yorick Wilks und vielen anderen, die wir wegen Mitwirkung angesprochen haben, die sich jedoch nicht in der Lage sahen, der Einladung zu folgen. Gleichzeitig möchten die Herausgeber bei allen Kolleginnen und Kollegen um Verständnis werben, deren Anregungen zurückgestellt werden mußten.

XXII

Vorwort

Aus der Aufgabenstellung eines Handbuchs folgt, wie unten noch näher erörtert wird, daß seine Gliederung unausweichlich einer möglichen Gliederung des gesamten Faches gleichkommt. Angesichts einer noch fehlenden fachlichen Systematik der Computerlinguistik standen die Herausgeber daher vor der Aufgabe, nicht nur die Gliederung für einen Band, sondern gleichzeitig eine Gliederung für ein ganzes Fach zu entwerfen. Die Aufstellung einer Gliederung war durch zwei Umstände erschwert, erstens durch das Fehlen von konsensfähigen Vorarbeiten und zweitens durch die anhaltende rasche Entwicklung des Forschungsfeldes. Einerseits mußten also eine umfassende, sachlich angemessene und feste Gliederung gefunden werden, die die bisherigen Ergebnisse der Forschungs- und Entwicklungsarbeit in der Computerlinguistik abdeckt, andererseits mußte diese Gliederung so flexibel gestaltet werden, daß sie auch die Einordnung der laufenden Forschung erlaubt. Es durften weder Problemdomänen ausgespart, noch neu entstandene Forschungsrichtungen ignoriert werden. Um beiden Forderungen gerecht zu werden, erstellten die Herausgeber eine systematische Gliederung für den Band, die noch näher erörtert wird, sowie thematische Richtlinien für die einzelnen Artikel, die den Rahmen festlegten. Den zur Mitarbeit eingeladenen Spezialisten wurde es überlassen, diesen Rahmen im einzelnen aufzufüllen. Die Anwerbung der Mitarbeiter begann 1983. Führende Fachvertreter sollten die einzelnen Teilgebiete auf dem aktuellen Entwicklungsstand darstellen. Um subjektive Fehleinschätzungen vor allem in der Gewichtung einzelner Problemdomänen zu minimieren, strebten die Herausgeber eine breite, internationale Kooperation an, wobei regionale Repräsentativität der konsequenten Abdeckung der gesamten Computerlinguistik nachgeordnet wurde. Obwohl Kompromisse bei der Vergabe und Gestaltung der einzelnen Artikel unvermeidlich gewesen sind, ist im Rückblick festzustellen, daß die ursprüngliche Gliederung des Bandes und der ursprünglich vorgesehene thematische Rahmen der einzelnen Artikel nur wenig geändert werden mußten, obwohl, angesichts des stürmischen Vormarsches der Computerlinguistik, eine Revision der Gliederung nicht verwunderlich gewesen wäre. So reflektiert das Handbuch die besonders intensive Entwicklung der sprachorientierten Kü nstlichen Intellligenz der letzten Jahre nur unzulänglich. Es ist weder im Interesse der sprachorientierten Künstlichen Intelligenz, noch der Computerlinguistik, hier eine scharfe Abgrenzung anzustreben. Im Gegenteil, beide Bereiche müssen künftig stärker aufeinander bezogen werden. Die Herausgeber bedauern die Verzögerungen bei der Publikation des Handbuchs. Ursprünglich strebte man die Veröffentlichung bereits für 1986 (COLING ’86 in Bonn), dann 1988 (COLING ’88 in Budapest) an. Die Sorge um die Qualität und das Streben nach Abdeckung des gesamten Gebietes führten zum angespannten Warten auf Überarbeitungen oder auf Übersichtsartikel, die für den konzeptuellen Rahmen des Handbuchs als unerläßlich angesehen wurden. In keinem Fall waren die Herausgeber bereit, Konzessionen bezüglich der Qualität der Beiträge in Kauf zu nehmen. Die relativ lange redaktionelle Bearbeitungsdauer bedingt, daß eine zeitliche Diskrepanz zwischen den einzelnen Artikeln vorhanden ist, die sich für den Benutzer des Handbuchs insbesondere in dem frühen Abbruch der zitierten Literatur manifestiert.

3. Aufgaben des Handbuches Das Handbuch richtet sich an alle, die sich mit Problemen der Anwendung der Datenverarbeitung auf Sprache im Sinne der Sprach- und Kommunikationswissenschaft befassen (vgl. das Geleitwort von Ungeheuer/Wiegand im Bd. 1.1 dieser Reihe).

Vorwort

XXIII

Handbücher erheben Anspruch auf Vollständigkeit und Aktualität. Bereits aus diesen latenten Ansprüchen der Gattung ergeben sich im allgemeinen hohe Anforderungen sowohl an Mitarbeiter als auch an Herausgeber von Handbüchern, die selbstverständlich auch für dieses Handbuch gelten. Im einzelnen besteht die Aufgabe dieses Handbuches darin, — den gegenwärtigen Stand der Forschung in übersichtlicher Form darzustellen, — verschiedene konzeptionelle Entwürfe zum Standort des Faches in der Gesamtheit der Wissenschaften, zu seiner Struktur und solche zu seinen Beziehungen zu Nachbardisziplinen zu erörtern, — die teils schwer zugängliche Literatur des Faches zu erschließen, — über vorhandene Anwendungen außerhalb der wissenschaftlichen Grundlagenforschung zu berichten und — die Perspektiven für die weitere Entwicklung des Faches aufzuzeigen.

Zu den allgemeinen Forderungen an ein Handbuch kommen im Falle des Handbuchs Computerlinguistikzwei weitere Aspekte, die zu berücksichtigen sind. (1) Computerlinguistik ist ein junges Forschungsgebiet, und ihre Eigenständigkeit ist noch nicht selbstverständlich. Man kann die Frage grundsätzlich aufwerfen: Braucht man Computerlinguistik überhaupt? Könnte nicht automatische Lemmatisierung, maschinelle Syntaxanalyse usw. in den jeweils passenden Kapiteln (in der Morphologie, in der Syntax usw.) der Sprachbeschreibung, also innerhalb der Linguistik, aufgenommen werden? Könnte man nicht für Maschinelles Übersetzen oder Automatisches Indexing eine zusätzliche Abteilung in den sog. Angewandten Sprachwissenschaften bzw. der Informationswissenschaft vorsehen? Was berechtigt überhaupt, Computerlinguistik alseigenständiges Forschungsfeld anzusehen? (2) Die Gliederung des Feldes ist noch nicht gegeben, sondern sie sollte erst gefunden werden. Es gibt keine Vorbilder, keine wirklich umfassenden Integrationsversuche in der Computerlinguistik. Die bisherigen Gliederungsversuche waren einseitig, blieben auf Teilbereiche beschränkt oder veralteten, bevor sie sich durchsetzten (Hays 1967; Ungeheuers Mensch-Maschinen-Modell, Ungeheuer 1971; die Ansätze von Kay in Sparck Jones/Kay 1973; Bátori 1977; Lenders 1980; Tenant 1981; Bátori/Krause/Lutz 1982; Grishman 1986.) Nichtsdestoweniger enthalten diese Versuche viele gute Gliederungsansätze, die auch in diesem Band aufgegriffen, untereinander abgeglichen und weiterentwickelt wurden.

Unter diesen Umständen ist es durchaus denkbar, ja wahrscheinlich, daß das Handbuch nicht alle möglichen Interessen und Themen berücksichtigt; die Herausgeber streben jedoch an, erstmalig einen vollständigen Überblick über das gesamte Wissensgebiet anzubieten, der mindestens die Einordnung und weitere Verfolgung der einzelnen Fragen ermöglicht. Das Handbuch ist nicht als Lehrbuch zu verstehen, das den Lernenden in die verschiedenen etablierten Techniken etwa der maschinellen Textverarbeitung einführt; es enthält jedoch weiterführende Hinweise auf Lehrstätten und, in der Bibliographie Hinweise auf Publikationen, über die ggf. die einzelnen Bereiche vertieft werden können. Schließlich ist zu bemerken, daß sich dieses Handbuch — anders als beispielsweise die beiden ersten Bände dieser Handbuchreihe — nicht auf eine Sprache, etwa das Deutsche, bezieht. Vielmehr wird versucht, — ähnlich wie es in den Bänden Semiotik, Sprachphilosophie, Lexikographie der Fall ist oder der Fall sein wird — eine von Einzelsprachen unabhängige Darstellung der behandelten Systeme und Veranstaltungsmethoden zu gewährleisten.

XXIV

1.Vorwort

4. Über die Legitimation der Computerlinguistik Aber selbst wenn die CL nicht als Teildisziplin, sondern etwas weniger anspruchsvoll als Forschungsfeld begriffen wird, bleibt die Frage offen: Was berechtigt die Abgrenzung der Computerlinguistik innerhalb (oder neben) der Linguistik? Die Herausgeber sehen die Berechtigung für die Verselbständigung der Computerlinguistik in erster Linie im pragmatischen Bereich, in den enorm anwachsenden Forschungs- und Publikationsaktivitäten. In Ermangelung von zuständigen Publikationsorganen und infolge der Zersplitterung des Feldes sind nämlich viele Forschungsergebnisse häufig in partikularlinguistischer Umgebung publiziert worden. Diese Ergebnisse konnten dort vielfach in ihrer gesamten Tragweite nicht erfaßt werden, und vor allem vermochten sie oft nicht, die Grenzen der traditionellen Fachgebiete zu überspringen. Die Ergebnisse des Feldes sind zerstreut und nirgends kompiliert. Diese Lücke zu füllen, ist der praktische Anlaß des Handbuchs. Aber selbst in Teilbereichen mit besserer Infrastruktur hat der Umfang der zu bewältigenden Fachliteratur derart zugenommen, daß die Orientierung und die Einordnung der eigenen Arbeit selbst in den einzelnen Teilbereichen (der CL), wie Syntaxparsing oder Konkordanzerstellung, schwerfällt und ohne Gefährdung der innovationsstiftenden Wissenstradierung nicht mehr der individuellen philologischen Beflissenheit der einzelnen Forscher überlassen werden kann. Im Interesse der Kontinuität der wissenschaftlichen Forschung ist es notwendig, die neu entstandene computerorientierte linguistische Forschung ganzheitlich zu erfassen und hierdurch den einzelnen Forschern, Lehrern und Studierenden des Feldes Orientierungshilfe anzubieten. Diese pragmatische Legitimation der Computerlinguistik bleibt jedoch solange leer, als es nicht gelingt, die immanente Kohärenz des Feldes plausibel zu machen. Die Erkennung der pragmatischen Notwendigkeit erübrigt sich nicht, sondern sie macht die Suche nach einer von theoretischen Prinzipien geleiteten Fundierung der CL noch dringender. Die Frage nach der Berechtigung der Computerlinguistik ist letztendlich die Frage nach der Verbindung ihrer inneren Zusammenhänge: Was verbindet die einzelnen Forschungszweige, die üblicherweise (und auch in diesem Handbuch) als Computerlinguistik zusammengefaßt werden? Auch eine theoretisch orientierte Standortbestimmung der Computerlinguistik gegenüber der Linguistik wird von der prominenten Rolle der Datenverarbeitung in dem Forschungsfeld ausgehen und die interdisziplinären Verbindungen zwischen Sprache und Computer von der linguistischen Seite her präzisieren. Die Eigenständigkeit der Computerlinguistik läßt sich durch Neuerungen, die vier Erkenntnisebenen zugeordnet werden können, begründen: (1) Durch die neuen Methoden. CL begann, als die neuen Arbeitsmethoden der elektronischen Datenverarbeitung für die Bewältigung der alten von den Einzelphilologien her bekannten Probleme angewandt wurden. Diese Methoden sind unumstritten neu und anders als die tradierte philologische Arbeitsweise. Mittlerweile gibt es umfangreiche Erfahrungen mit diesen neuen Methoden. Prototypisch hierfür ist die Entwicklung im Bereich der Lexikographie. (2) Durch die neuen Einsichten. Die Untersuchung alter Probleme mit dem neuen Forschungsinstrument eröffnet neue, vorher nicht vorstellbare Einsichten. Die Präzision sowie die durch die maschinelle Verarbeitung erfaßbare Datenmenge eröffnen neue Perspektiven und ermöglichen neue Aussagequalitäten. Ein Beispiel hierfür ist die Autorenschaftsbestimmung mit Computerhilfe. (3) Es gibt eine Reihe von neuen Aufgabenstellungen, die erst durch die neue Computertechnologie aufgekommen sind. Hier ist nicht nur an die unmittelbare Compu-

Vorwort

XXV

teranwendung zu denken, wie Maschinelle Sprachübersetzung oder Automatisches Indexing, sondern auch an die sekundären Aufgabenstellungen, die bereits im Zusammenhang mit Computeranwendungen bzw. mit Computereinsatz in der Forschung entstanden sind und entstehen und ebenfalls mit Hilfe von Computern bewältigt werden, wie z. B. Automatische Lemmatisierung. (4) Schließlich ergibt sich eine Neugliederung des Feldes. Durch neue Methoden, Einsichten und Aufgabenstellungen entstehen neue Affinitäten, die mit Hilfe der traditionellen linguistischen Feldgliederungen nicht erfaßt werden können, wie z. B. die Prozeß-Problematik oder die Mensch-Maschine-Interaktion. Für eine adäquate Feldbeschreibung wird eine neue eigenständige Feldgliederung notwendig sein (mit der grundlegenden Unterscheidung zwischen Deskription und Simulation), die das neue Gebiet von der Linguistik klar unterscheidet.

Diese vier Ebenen sind von unterschiedlicher Bedeutung. So würden die methodischen Neuerungen allein für die Gründung der CL sicherlich nicht ausreichen; sie gewinnen jedoch in ihrem Zusammenhang an argumentativer Kraft. In Einzelheiten ist es oft schwierig zu sagen, wie weit die neuen (exakten) computergestützten Forschungmethoden die neuen Einsichten bzw. Problemlösungen bewirkt haben oder wie Aufgabenstellungen und Neugliederungen des Feldes zusammenhängen. Es läßt sich jedoch behaupten, daß für die Konstituierung der Computerlinguistik die höheren Erkenntnisebenen stärker verantwortlich sind als die niederen. Entscheidend ist die letzte Abstraktionsebene, die neue Feldgliederung, die die Neuerungen der niederen Ebenen systematisch akkumuliert und die bisher isolierte, voneinander entfernte Erscheinungen oder Problembereiche zusammenführt und in Beziehung zueinander setzt. Die Gliederung ist nicht nur ein Inventar, sondern gleichzeitig auch eine Explikation der Zusammenhänge und Gemeinsamkeiten des Feldes, sie eröffnet neue Perspektiven und verschafft dem Feld die Qualität der Eigenständigkeit. Wie fest die Computerlinguistik fundiert ist, steht und fällt in diesem Sinne mit ihrer Gliederung. Die Herausgeber meinen, daß die Qualität und die Menge der Neuerungen auf diesen vier Erkenntnisebenen die Eigenständigkeit der Computerlinguistik gegenüber der Linguistik hinreichend begründen. Nichtsdestoweniger bleibt durch die linguistische Dominanz der Fragestellungen die Computerlinguistik mit der Linguistik eng verbunden. Diese linguistische Zuordnungsrichtung ist deshalb besonders hervorzuheben, weil das inhärent interdisziplinäre Forschungsfeld zumindest partiell auch mit anderen Erkenntnisinteressen abgegrenzt und zugeordnet werden kann. Zu zwei von diesen alternativen Zuordnungsrichtungen soll hier kurz Stellung genommen werden, die in der letzten Zeit besonders intensiv diskutiert werden, nämlich zur Cognitive Science und zur Künstlichen Intelligenz. Unter dem Namen Cognitive Science wird ein Wissensbereich verstanden, in dem die höheren geistigen Fähigkeiten des Menschen, darunter auch die Sprachanwendung, erforscht werden. Das Feld ist insbesondere im Bereich der Sprachanwendung und des Sprachverhaltens so komplex, daß sich für seine Erforschung mit Recht eine Reihe von (traditionellen und neuen) (Teil-)Disziplinen berufen fühlen (Bobrow/Collins 1977). Cognitive Science führt alle Disziplinen zusammen, die bei der Erforschung höherer geistiger Fähigkeiten einen Beitrag leisten können, denn für die Problemlösung an sich ist es irrelevant, wer wieviel zur Lösung beitrug bzw. wie die für die gefundene Lösung verantwortliche Disziplin heißt. Cognitive Science würde also die bisher durch Disziplingrenzen gehemmte Forschung organisatorisch zusammenbringen und neue, anregende Nachbarschaften schaffen, ohne sich um Abgrenzungs- und Kompetenzfragen kümmern zu müssen.

XXVI

Vorwort

Die begrüßenswerte Offenheit des Konzepts der Cognitive Science wird jedoch auch von der Notwendigkeit der inneren Strukturierung begleitet. Denn einerseits ist es positiv, daß Bildverarbeitung oder Sprachlernen als unmittelbare Nachbarn angesehen werden, andererseits aber gehört die Sprachverhaltensproblematik doch enger zusammen, so daß man letztlich die Eigenständigkeit der Computerlinguistik durch Cognitive Science nicht berührt. Cognitive Science und Computerlinguistik sind daher keine Rivalen oder einander wechselseitig ausschließende Konzepte. Die akzentuierte Interdisziplinarität, insbesondere die Horizonterweiterung in Richtung der Psychologie und die Betrachtung der volitionalen Aspekte der Sprache (über die reine Informationsvermittlung hinaus) sind auch für die Computerlinguistik (insbesondere im Sprachsimulationsbereich) attraktive Perspektiven. Kü nstliche Intelligenz (= KI) widmet sich der Problemlösung und kommt dabei vor allem durch methodischen Zwang zu dem Phänomen Sprache: Probleme müssen nämlich unausweichlich formuliert werden, bevor ihre Lösung vorgenommen wird, gleichgültig, ob es sich um heuristisches Suchen oder um automatische Theorembeweise handelt. Daher ist die Verwendung eine zentrale Manifestation von intelligentem Verhalten. Die Zuwendungsrichtung der KI ist primär die Informatik, denn sie versteht sich als einer ihrer Bereiche (Barr, Feigenbaum 1981, 3), und sie wird bei der Synthese des Problemfeldes direkt durch die Konzepte der Informatik inspiriert. Während Cognitive Science das Problem der Überwindung der Disziplingrenzen dadurch bewältigt (bzw. zu bewältigen hofft), daß sie alle an der Kognitionsproblematik arbeitenden Disziplinen, u. U. auch auf Verdacht, nebeneinander in einem engen Kommunikationsnetz verbunden ansiedelt, also die Disziplingrenzen durchlässig macht, eliminiert die Künstliche Intelligenz sie gänzlich, indem sie die relevanten Wissensbereiche für sich hereinholt und die Problematik der Interdisziplinarität innerhalb der Informatik bewältigt (bzw. zu bewältigen hofft). Durch die unterschiedlichen Zuwendungsrichtungen der CL und der KI ergeben sich charakteristische Unterschiede, die als verschiedene Forschungsaspekte verstanden werden: (1) KI räumt der Sprache unter den menschlichen Fähigkeiten keinen Sonderstatus ein. In der Linguistik (und eo ipso auch in der Computerlinguistik) geht man hingegen davon aus, daß die Sprache des Menschen untrennbar mit dem Denken verbunden und daher qualitativ anders ist als sämtliche anderen (nicht verbalen) menschlichen Intelligenzleistungen. Sprachliche Probleme legitimieren ihre wissenschaftliche Erforschung aus der linguistischen Perspektive gesehen bereits von sich aus. Aus der Sicht der KI ergibt sich die Legitimation für die Auseinandersetzung mit der Sprachproblematik erst in einem größeren Problemlösungszusammenhang (vgl. Chomsky, Reflections on Language 1976, S. 22). (2) KI benötigt weder eine autonome sprachliche Analyseebene noch die in der Linguistik übliche Kompetenz-Performanz-Dichotomie: Hier steht die unmittelbar zugängliche sprachliche Formulierung einer abstrakten Wissenspräsentation gegenüber (vgl. Wahlster 1982).

Im Bereich der Sprachverhaltensmodelle gibt es zwischen Künstlicher Intelligenz und Computerlinguistik in der Tat wesentliche Überlappungen: Ihr Verhältnis ist daher als eine Nachbarschaft mit Überdeckungen aufzufassen, wobei nicht so sehr die gegenseitige Abgrenzung, sondern im Gegenteil der wechselseitige Austausch von Erfahrungen und Einsichten zu fördern sind. (Das Verhältnis KI zu CL wird unterschiedlich beurteilt; manche KI-Vertreter sind durchaus bereit, sich auch linguistische Erkenntnisinteressen zu eigen zu machen [vgl. Habel 1982].)

Vorwort

XXVII

5. Gliederung des Handbuches 5.1 Prinzipien der Gliederung Wie bei dem Versuch, die Eigenständigkeit der Computerlinguistik zu begründen, geht man auch bei der Gliederung des Feldes von der prominenten Rolle der Datenverarbeitung für die linguistische Forschung aus: Diese Vorstellung von der Rolle der elektronischen Datenverarbeitung kommt in den zentralen Kapiteln dieses Handbuches in der grundlegenden Unterscheidung von zwei Aspekten zum Ausdruck, die sich als Extrakt aus verschiedenen konzeptionellen Entwürfen und aus der Praxis der Computerlinguistik ergeben. Zum einen wird der Computer als Hilfsmittel bei der Beschreibung sprachlicher Phänomene verstanden, mit welchem die empirische Grundlage sprachbezogener Theorien, besonders linguistischer Theorien, aufbereitet werden kann. Mit Beschreibung ist sowohl das induktive Vorgehen gemeint, bei welchem von vorgefundenen Sprachphänomenen ausgegangen und die darin enthaltenen Regularitäten ermittelt werden sollen, als auch das deduktive Verfahren bei der Untersuchung sprachlicher Phänomene, wobei angenommene Regeln durch Tests verifiziert werden. Zum anderen wird der Computer nicht als Hilfsmittel zur Sprachbeschreibung, sondern selbst als Sprachbenutzer aufgefaßt, d. h. als eine Größe, die auf die „Wahrnehmung“ sprachlicher Erscheinungen reagieren und die sprachliche Erscheinungen hervorbringen kann (Computersimulation). Auch in dieser Hinsicht dient die Datenverarbeitungsanlage als Instrument zur Entwicklung von Theorien, und zwar von Theorien zum Sprachverhalten. Sprachbeschreibung und Sprachsimulation sind daher die zwei konstitutiven Gliederungsbereiche der CL, die unter sich vielfach verbunden sind. Diese Zweiteilung läßt sich auch in den einzelnen Anwendungsbereichen verfolgen. Die vorgelegte Systematik erhebt nicht den Anspruch auf Endgültigkeit; nach Meinung der Herausgeber reflektiert sie jedoch den gegenwärtigen Stand des Feldes zutreffend. Die Herausgeber hoffen, daß die in diesem Band vorgeschlagene Gliederung sich auch über den Rahmen des Handbuches hinaus als brauchbar und erweiterungsfähig erweisen wird.

5.2 Zur Gliederung des Handbuches im einzelnen Die beiden zentralen Themenbereiche der Computerlinguistik, nämlich Beschreibung und Simulation von Sprache, werden in den Kapiteln IV—VIII des Handbuches systematisch dargestellt. Ihnen gehen einige epistemologische und historische Kapitel (I—III) voraus, in denen auch methodische Fragen behandelt werden, und ihnen folgen drei Kapitel, in denen die Anwendungsgebiete der Computerlinguistik vorgestellt werden (IX—XI). Das Handbuch schließt mit einem arbeitspraktischen Kapitel (XII) ab. Diese 12 Kapitel lassen sich demnach in fünf Hauptteile gliedern: [A] Entwicklung, Theorie und Methoden der Computerlinguistik (Kap. I—III) [B] Computergestützte Beschreibung von Sprache (Kap. IV—VI) [C] Computersimulation von Sprache (Kap. VII u. VIII) [D] Anwendungsgebiete der Computerlinguistik (IX—XI) [E] Das arbeitspraktische Umfeld der Computerlinguistik (XII). In dem Hauptteil [A] wird die Einbindung der Computerlingustik — wie bereits gesagt — in einen breiteren, historischen und epistemologischen, externen Rahmen versucht. Die interne Zuordnung der einzelnen Hauptteile kann folgenderweise veranschaulicht werden:

XXVIII

Vorwort

Der unterschiedliche Status des Wissens in den einzelnen Teilen wird besonders deutlich, wenn man die Verwertungsdauer des vermittelten Wissens betrachtet: Während die linguistische Deskription [B] und Simulation [C] relativ stabiles Wissen darstellen, veraltet das Wissen in dem Anwendungsbereich [D] schneller. Noch dramatischer verändert sich das Wissen in dem arbeitspraktischen Umfeld [E]. Das Handbuch präsentiert eine Bibliographie von ca. 3700 Titeln zur Computerlinguistik, kompiliert aus den Literaturangaben der einzelnen Artikel. Sie wurde von Friedrich Wetter zusammengestellt, dem dafür an dieser Stelle herzlich gedankt sei. Obwohl die Herausgeber keine Vollständigkeit beanspruchen können, enthält das vorgelegte Handbuch die größte, umfassende, systematische Literatursammlung zur Computerlinguistik.

6. Computerlinguistik: Vision und Wirklichkeit Es wäre sicherlich verfehlt zu behaupten, daß die Computerlinguistik in der Lage ist, eine komplette Beschreibung der Sprachverstehensprozesse zu liefern, die auch als Grundlage von Anwendungen der natürlichsprachlich orientierten Computeranwendungen dienen kann. Aber es ist klar geworden, daß die CL eine Grundlage liefern kann und teilweise bereits liefert und daß ohne eine Grundlagenforschung, die durch die CL abgedeckt ist, diese Ziele nicht erreichbar sind. Der gegenwärtige Einzug der CL in die akademische Lehre, der weltweit beobachtet werden kann, zeigt, daß die Tragweite der computerlinguistischen Grundlagenforschung auch außerhalb der engeren Fachgrenzen begriffen worden ist. In diesem Zusammenhang ist die visionäre Analyse von Gerold Ungeheuer zu würdigen, der sich in einer Zeit, als der Zusammenhang zwischen Sprache und Computer noch durch Fehlvorstellungen und Vorurteile verdunkelt war, für die neue Disziplin eingesetzt hat. Er ist in zwei Hinsichten seiner Zeit voraus gewesen: Er hat erstens in den Jahren — und diese Zeit ist noch gar nicht so weit von uns entfernt — als Geisteswissenschaftler den Computer noch ignorierten oder ablehnten, diesen Computer als Arbeitsinstrument der Sprachforschung erkannt und propagiert. Er hat zweitens in den Jahren — und diese Zeit ist ebenfalls noch gar nicht so weit von uns entfernt — als Informatiker die Verarbeitung der natürlichsprachlich verschlüsselten Informationen noch als einen Präzedenzfall der allgemeinen Symbolverarbeitung betrachteten, erkannt, daß maschinelle Sprachverarbeitung nur in einem größeren, kommunikativen Rahmen bewältigt werden kann. Das vorgelegte Handbuch zeigt, wie radikal sich die Welt seither geändert hat und wie zutreffend Ungeheuers Analyse von 1970 war. Im März 1989 István S. Bátori (Koblenz) Winfried Lenders (Bonn) Wolfgang Putschke (Marburg)

XXIX

List of Maps/Verzeichnis der Karten Karte 2.1: Forschungseinrichtungen der Computerlinguistik: Amerika nach 18 Karte 2.2: Forschungseinrichtungen der Computerlinguistik: Australien 20 Karte 2.3: Forschungseinrichtungen der Computerlinguistik: Europa mit Israel und Afrika nach 20 Karte 44.1: Beispiel einer Typenkarte (ALE QI, 72 Hafer) nach 556 Karte 44.2: Beispiel einer Kombinationskarte (aus KDSA 1.1, Karte 188) nach 556 Karte 44.3: Beispiel einer Similaritätstypenkarte 560

Karte 44.4: Beispiel einer Lautkarte (Arbeitskarte aus dem KDSA 2, Karte 412: Bauern) nach 560 Karte 44.5: Beispiel einer Wortkarte (aus WSAH, Karte 13) 564 Karte 44.6: Prüfpfadkarte; Prüfbezugspunkt 041065 (Ostfälisch) nach 568 Karte 44.7: Relatives Kohärenzmittel auf der Grundlage des KDSA-Gesamtkorpus nach 568 Karte 44.8: D ialektometrische Kartierung der Belegort-Minima auf der Grundlage des KDSA-Abnach 568 taxenkonsonantismus

XXX

List of Figures/Verzeichnis der Abbildungen Fig. 3.1: Example for a syntactic rule 61 Abb. 5.1: Paradigma Sprachdatenverarbeitung 82 Abb. 7.1: Betrachtete Baumstruktur 96 Abb. 7.2: Speicherung bei einfacher Verkettung 97 Abb. 7.3: Speicherung bei zweifacher Verkettung 97 Abb. 7.4: Analysematrix 99 99 Abb. 7.5: Folge der Aktionen Abb. 7.6: Erzeugte Baumstruktur 100 Abb. 10.1: Evaluierungskonzept FAS 124 Abb. 14.1: Sonagramm 161 Abb. 14.2: Beispiele von Klassen sprachlicher Einheiten 165 Abb. 15.1: Graphketten in Handschriften A. Dürers 170 Abb. 15.2: Die Repräsentation des mhd. < î > bei Krafft 172 Abb. 15.3: Häufigkeitsverteilung der Wortformen mit den Graphketten < ie > und < ieh > 173— 174 Abb. 17.1: Beispiel einer Analyse durch DERIVER 200 Abb. 17.2: Beispiel eines durch LEMMA 2 bearbei203 teten Satzes (Satz 5 aus SFB 100 1980, 20) Fig. 18.1: Information structures in TG (standard model) 206 Fig. 18.2: Information flow in process models 207 Fig. 18.3: Information structures in late TG (after Radford 1981) 208 Fig. 18.4: RTN for a simple sentence 208 209 Fig. 18.5: ATN for a simple sentence Fig. 18.6: ATN for passive sentence 209 Fig. 18.7: DCG sentence rule 211 Fig. 18.8: SLASH categories in a DCG 211 Fig. 18.9: Passive metarule in GPSG 212 Fig. 18.10: Subject verb agreement in FUG 214 Fig. 18.11: Active transitives in FUG 214 Fig. 18.12: Conflated rule in FUG 214 Fig. 18.13: Typical LFG rules 215 Fig. 18.14: LFG parse tree (c-structure) 216 Fig. 18.15: The functional structure in the LFG 216 Fig. 18.16: Information flow in LFG 216 Fig. 19.1: The components of a signum 220 Fig. 19.2: The basic factors in the explicative text interpretation 222 Fig. 19.3: Basic notions of a semiotic text-theoretical framework 223 Abb. 20.1: Natürlich-sprachliche Definitionen in

maschinell erstellten Gebrauchswörterbüchern 233 Abb. 20.2: Hierarchie ‘ontologischer’ Merkmale, nach Schank 1969 (aus Lenders 1975) 235 Abb. 20.3: Semantische Marker (nach Winograd 1972, 128) 235 Abb. 20.4: Sy stem semantischer Merkmale (nach Zelinksy-Wibbelt 1987, 188) 236 Abb. 20.5: Semantisches Netzwerk (aus Lenders 1987) 238 Abb. 20.6: Collocates von house in absteigender Relevanzfolge (nach Berry-Rogghe 1973, 108) 240 Abb. 20.7: Das semantische Feld ‘Gebäude’ (nach Berry-Rogghe 1973, 111) 240 Fig. 21.1: Schematic state of the chart after morphological rewriting (Kay 1977, 141) 246 Fig. 21.2: Letter tree with conflated shared initial parts for a small lexicon (Kay 1977, 162) 246 Fig. 21.3: Transducer for some English morphographemic rules (Kay 1983 b, 100) 247 Abb. 23.1: Verstehenstypologie 262 Abb. 23.2: Ebenen des Verstehens (von Hahn 1978, 12) 266 Abb. 27.1: Assoziative Netzwerke (nach Quillian 1968) ‘Die Schwalbe Sylvia besitzt ein Nest’ 297 Abb. 27.2: Die Vererbungshierarchie IS-A (nach Mylopoulos/Levesque 1983) 297 Abb. 27.3: Semantisches Netzwerk (Norman 1976, 10) 304 Abb. 27.4: Architektur von sy mbolverarbeitenden Systemen 305 Abb. 27.5: Beispiel eines einfachen Kaskadierten Übergangsnetzwerkes mit Rekursion (nach Woods 1980) 307 Abb. 27.6: Verarbeitung der Zeichenkette A B C 307 (aus Christaller 1986, 117) Abb. 28.1: Compiler und Interpreter 313 Abb. 28.2: Die lineare Transfer-Architektur der 313 MÜ Abb. 28.3: Rekursionen 314 Abb. 28.4: Die Blackboard-Architektur: Das Inter314 lingua-Modell der MÜ 314 Abb. 28.5: Netzwerk-Architektur Abb. 28.6: Kaskadierung bei Hauenschild 315 Abb. 28.7: Zweiphasen-Architektur für ein ParserGenerator-System 316 Abb. 29.1: An der Mensch-Maschine-Kommunikation beteiligte Wissensbereiche 321 Abb. 29.2: Semantisches Netzwerk als Struktur von Knoten und Kanten 324 Abb. 29.3: Repräsentation des Satzes: der Hund,

List of Figures/Verzeichnis der Abbildungen

der den Mann gebissen hat, ist tollwütig in einem semantischen Netz 326 Abb. 29.4: Die semantische Beschreibung des Satzes Hans erschießt Maria in der Notation von Schank 328 Abb. 29.5: Repräsentation eines Satzes in 329 MEMOD (nach Norman/Rumelhart 1978, 66) Abb. 29.6: Beschreibung eines Besuches in der Sprache KRL (nach Bobrow/Winograd 1977) 332 Fig. 30.1: One to one relation between a word and its analyses 339 Fig. 30.2: One to many relation between a word and its category analyses 339 Fig. 30.3: One to many relation between a word and its subcategory analyses 339 Fig. 30.4: Many to one relation between word and syntactic analysis 340 Fig. 30.5: One to many relation between a word and its semantic analyses 340 Fig. 30.6: Separate category and subcategory information 343 Fig. 30.7: Category and subcategory informationas 343 features Fig. 30.8: Complement slots in lexical entries 343 Fig. 30.9: Entries from a full entry lexicon 343 Fig. 30.10: Regular and irregular forms in DIAGRAMM 344 Fig. 30.11: Regular and irregular forms in PATR-II 345 Fig. 30.12: Regular and irregular forms in the BBN Context Free Grammar 345 Fig. 30.13: Sharing information among lexical entries for irregular forms 345 Fig. 30.14: Sharing information among entries in a full entry lexicon 346 Fig. 30.15: Collocations entered directly in the lexicon 346 Fig. 30.16: Collocations contained in another lexical entry 347 Fig. 30.17: Collocations dependent on other lexical entries 347 Abb. 31.1: Interpretierender Parser 350 Abb. 31.2: Prozeduraler Parser 350 Abb. 31.3: Compilierter Parser 351 Abb. 31.4: Baumgraph 365 Abb. 31.5: Liste 365 Abb. 31.6: Klammerausdrücke 365 Abb. 31.7: Gesuchter Strukturbaum 371 Abb. 31.8: Top-down Analyse 371 Abb. 31.9: Bottom-up Analyse 371 Abb. 31.10: Tiefe zuerst 372 Abb. 31.11: Breite zuerst 372 Abb. 31.12: Chart 373 Abb. 32.1: Top-down Parser mit Rücksetzen 379 Abb. 32.2: Top-down Parser mit paralleler Abarbeitung 382

XXXI

Abb. 32.3: Prädikative Analyse mit 383 Rücksetzen Abb. 32.4: Top-down Parser mit Vorausschautabelle 385 387 Abb. 32.5: Shift-reduce Parser mit Rücksetzen 389 Abb. 32.6: Bottom-up Parser Breite zuerst Abb. 32.7: Tabellengesteuerter Shift-reduce Parser 391 Abb. 32.8 a: Nicht-deterministische Grammatik und Steuertabelle 393 Abb. 32.8 b: Tabellengesteuerter Shift-reduce Parser für nicht-deterministische Grammatiken 394 Abb. 32.9: Parsing mit dem Algorithmus von Earley 397 Abb. 32.10: Bottom-up Parser nach Cocke, Younger und Kasami 401 Abb. 32.11: Verallgemeinerter Bottom-up Parser mit Teilergebnistabelle 404 Abb. 32.12: Erkenner mit Finitem Übergangsnetzwerk (FTN) 408 Abb. 32.13: Parsing mit rekursiven Übergangsnetzwerken (RTN) 411 Abb. 32.14 a: Erweiterte Übergangsnetzwerke (ATN) 415 Abb. 32.14 b: Ein ATN-Programm 416— 418 Abb. 32.14 c: Das Lexikon zum ATN-Programm 418—419 Abb. 32.14 d: ATN-Abarbeitsungsbeispiel 419—420 423 Abb. 32.15: Parser für Kategorialgrammatiken Abb. 32.16 a: Lexikalisierte Dependenzgrammatik 428 Abb. 32.16 b: Teilergebnistabelle des Parsers für Dependenzgrammatiken 429—430 Fig. 34.1: Case relations in English (from Nagao/ 442—443 Tsujii/Nakamura 1985) Fig. 34.2: Winograd’s blocks world 444 Fig. 34.3: Dictionary definitions for ‘cube’ and ‘contain’ in Winograd (1973) 445 Fig. 34.4: The form of sy ntactic representation in Winograd (1973) 445 446 Fig. 34.5: Word senses in Wilks (1978 b) Fig. 34.6: The template for John shut the door in Wilks (1983 a) 447 Fig. 34.7: The form of CD representation in Schank/Rieger (1974) 448 Fig. 34.8: Parsing of the sentence John gave Mary a 449 beating in Riesbeck (1975) Fig. 34.9: The form of ATN representation in Woods/Bates/Brown et al. (1976) 451 Fig. 34.10: The representation of feature hierarchies by network in Collins/Quillian (1969) 452 Fig. 34.11: The semantic representation in Quillian (1967) 452 Fig. 34.12: Different types of links in networks 453 Fig. 34.13: The representation of ‘smoking’ in the FRAME used by Wilks (1983) 456

XXXII

Fig. 34.14: Issue skeletons used for the description of terrorism by de Jong (1979 a) 456 Fig. 34.15: Sketchy script for ‘nationalize’ 456 Fig. 36.1: Language generation systems 472 Fig. 36.2: Central issues addressed in various language generation projects 473 Fig. 36.3: Knowledge and information sources needed in language generators 475 Abb. 37.1: Das Dreiphasenmodell der Wissenschaft (nach Andersson 1978) 483 Abb. 37.2: Kritizistisches Modell der Wissenschaft 484 (nach Andersson 1978, 66) Fig. 38.1: Word Index to the Gothic Bible (de Tol490 lenaere/Jones 1976) Fig. 38.2: Concordance to Beowulf (hand) (Cook 1911) 491 Fig. 38.3: Concordance to Beowulf (computer) (Bessinger/Smith 1969) 491 Fig. 38.4: Concordance to the Bible Cruden, 17 491 Fig. 38.5: Concordance to Shakespeare (Bartlett 1889) 492 Fig. 38.6: Concordance to Matthew Arnold (Par492 rish 1959) Fig. 38.7: Concordance to Macbeth (HowardHill1971) 493 Fig. 38.8: Concordance to Shakespeare (Spevack 494 1969) Fig. 38.9: Intermediate output for lemmatizing 495 Fig. 38.10: Concordance to Faust I (Chisholm/ Sondrup 1986) 496 Fig. 38.11: Concordance to Cummings’ Poetry (McBride/Parrish 1987) 496 Fig. 38.12: Concordance to Livy (Packard 1968) 498 Fig. 38.13: Concordance to Freud (Guttman/ Jones/Parrish 1980) 499 Fig. 38.14: Frequency List to the Gothic Bible (de Tollenaere/Jones 1976) 500 Fig. 38.15: Reverse Word List to the Gothic Bible (de Tollenaere/Jones 1976) 501 Fig. 38.16: WordCruncher View Reference List, forms of heilig in Goethe’s Faust 507 Fig. 38.17: WordCruncher View Reference List, combination of Gott etc. and Mensch etc. in Goethe’s Faust 508 Abb. 40.1: Aufbau der Belegdaten 522 Abb. 40.2: Ausdruck zur Auswertung der Substantivdaten 523 Abb. 40.3: Ausdruck einer Übersicht über die automatisch ermittelte Belegung in den einzelnen grammatischen Positionen 525 Abb. 40.4: Entscheidungsbaum der automatischen Segmentierung der Substantive (aus Berg/Frauenknecht 1982, 128) 527 Fig. 42.1: Table of reading numbers 536

Fig. 42.2: Table of dissimilarities 536 Fig. 42.3: Four points in a tree 540 Fig. 42.4: Configurations of four points 541 Fig. 43.1: Words evoking the theme of l’incertitude 547 Fig. 43.2: Co-occurrences with travailleurs 548 Fig. 43.3: Frequencies from Le Rouge et le noir 550 Fig. 43.4: Standard deviates and degree of probability 551 Abb. 44.1: Konzeptioneller Entwurf der automatischen Sprachkartographie 554 Abb. 44.2: Logische Form der Datenmatrix 556 Abb. 44.3: Übersicht über die Lautabstände des Distanzverfahrens (aus Naumann 1977, 201—202) 558 Abb. 44.4: Beispiel einer computativen Klassifikation mit Hilfe des Distanzverfahrens (aus Naumann 1977, 166) 558 Abb. 44.5: Beispiel einer computativen Klassifikation mit Hilfe des Substitutions- bzw. Reduktionsverfahrens (ALE QI, 32 Kupfer, germanisches De- 559 partement) Abb. 44.6: Vorschlag für eine sy stematische Sy mbolkonstruktion im Rahmen des Europäischen Sprachatlas 561 Abb. 44.7: Beispiel einer sy stematischen Sy mbolkonstruktion (ALE QI, 496 Papier, Ausschnitt) 562 Abb. 44.8: Beispiele einer sprachkartographischen Flächendarstellung (aus Händler/Naumann 563 1976,Abb. 10—13) Abb. 44.9: Überblick über die konzeptionelle Weiterentwicklung der automatischen Sprachkartographie 565 Abb. 44.10: Dialektrometrische Matrizen (nach Goebl 1982, 24) 567 Abb. 44.11: Nhd. Anteil in den deutschen Dialekten auf der Grundlage des KDSA-Gesamtkonsonantismus in Stereogrammdarstellung (Werte ohne Klasseneinteilung) aus südwestlicher Perspektive 569 Abb. 44.12: Nhd. Anteil in den deutschen Dialekten auf der Grundlage des Gesamtkorpus in Stereogramm-Darstellung (in 6facher Klasseneinteilung) aus südwestlicher Perspektive 569 Fig. 47.1: Processes involved in speech recognition 588 Fig. 47.2: Illustration of a finite state machine 591 (Markov model) Fig. 47.3: Typical structure of a system for 592 isolatedword recognition Fig. 47.4: Illustration of connected word recogni-tion 594 Fig. 47.5: Search procedure continuous speech recognition 596 Fig. 47.6: Example of a finite state network as language model (after Jelinek 1976) 597 Abb. 48.1: Sprachsynthese (Ablaufdiagramm) 601 Abb. 48.2: Detaildiagramm „Methoden der Sprachsynthese“ 602 Abb. 48.3: Beispiel für Sprachsy nthese nach dem

List of Figures/Verzeichnis der Abbildungen

Verfahren Concept-to-speech (nach Young/ Fallside 1969, 688) 605 Abb. 48.4: Komponenten von Sprachsy nthesesystemen 606 Abb. 48.5: Zur Umsetzung schriftsprachlicher und optischer Eigenschaften von Texten in lautsprachliche/akustische Formen 607 Abb. 48.6: Geräte zur Sprachsy nthese (Stand Som610 mer 1985, ergänzt 1986) 608— Abb. 48.7: Kosten heutiger Sprachsy ntheseanwendungen (nach Sclater 1983) 610 Abb. 48.8: Zusammenhang zwischen Wortbetonung und Satzbetonung bei der Sprachsy nthese 613 Abb. 48.9: Sprachausgabeanwendungen 617 Abb. 48.10: Synthetisierte gesprochene Sprachen 619 Fig. 49.1: The most common model for machine translation systems 623 Fig. 50.1: Overview of the operational Japanese MT systems 641 Fig. 51.1: The architecture of English-Russian MT in AMPAR (Marčuk 1983, 93) 646 Fig. 51.2: The architecture of German-Russian MT in NERPA (Marčuk 1983, 93) 647 Fig. 51.3: Scheme of general design of MT with translational equivalents (Marčuk 1982, 106) 648 Fig. 51.4: The architecture of French-to-Russian MT in FRAP (Leont’eva/Nikogosov 1982, 649 144—145) Fig. 51.5: Machine translation sy stems in East Europe 651 Fig. 52.1: A naive schematic view of translation which is often used but quite misleading 654 Fig. 52.2: A schematic view of future MT systems656 Fig. 52.3: A simplified framework of an NLU 657

XXXIII

Fig. 52.4: A naive view of relationships between words and concepts 659 Fig. 52.5: Terminological words and concepts 659 661 Fig. 52.6: Vagueness of word meanings Fig. 52.7: Understanding and surface determination in future MT Systems 663 Abb. 57.1: Grundstruktur eines Frage-Antwort-Sy stems 709 Abb. 57.2: Grundstruktur eines Interface-Systems709 Abb. 57.3: Die zentrale Stellung von Wissensrepräsentationen 710 712 Abb. 57.4: Der Frage-Beantwortungsprozeß Fig. 58.1: The basic components of question answering systems 722 Fig. 58.2: USL — Semantic tree 725 Fig. 58.3: Parsing with transformational grammar after Winograd (1983) 726 733 Fig. 58.4: Scene from the block world Fig. 58.5: Flow charts for noun group — according to Rubin (1973) 735 Fig. 58.6: A summary of the question answering systems reviewed 738 Fig. 60.1: Linear programs (Zettersten 1986, 22—23) 745 Fig. 60.2: Author-initiated branching 746 Fig. 60.3: Student-initiated branching 746 Fig. 60.4: The COMMENTATOR world 747 Fig. 60.5: The text production model of COMMENTATOR 748 Fig. 60.6: BRAINLEARN: A new learning sy stem for English, German, French, etc. by Arne Zettersten and Mats Jacobson 750 Abb. 62.1: ISO 6937, 8-Bitcode, Lateinische Alphabet- und Nichtalphabet-Zeichen 763

1

I.

Computational Linguistics I: Development Computerlinguistik I: Entwicklungslinien

1.

Die allgemeine Entwicklung der Computerlinguistik

1. 2. 2.1. 2.2. 2.3. 2.4. 3. 3.1. 3.2. 3.3. 3.4. 3.5. 3.6. 4. 5.

1.

Die Betrachtungsebenen der Computerlinguistik Die CL, ihre Benennung und Abgrenzung CL und die Mathematische Linguistik CL und Angewandte Linguistik CL und die philologische Sprachforschung CL und die sprachorientierte KI-Forschung Die Geschichte der CL Die Jahre der Vorbereitung Selbstbesinnung: MÜ als der erste Kristallisationskern der CL Die Genese der CL Die Spaltung der CL und ihre engere Auslegung Die breitere Auslegung der CL Die Konsolidierung der CL CL — Teildisziplin, Disziplin oder Metadisziplin? Literatur (in Auswahl)

Die Betrachtungsebenen der Computerlinguistik

Die Entwicklung einer wissenschaftlichen Disziplin kann auf drei Ebenen verfolgt werden: 1. auf der epistemologischen, 2. der organisatorisch-förderungspolitischen und 3. der curricularen Ebene. Die epistemologische Betrachtungsebene ist fundamental; demnach wird unter Computerlinguistik (= CL) ein interdisziplinäres Wissensgebiet zwischen Linguistik und Informatik verstanden, das linguistische Erkenntnisinteressen verfolgt und komplettiert, vor allem im Bereich der Sprachanwendungsprozesse und der maschinellen Simulation dieser Prozesse. Sie strebt eine explizite, (deskriptive oder algorithmisch-prozedurale) Sprachbeschreibung an. Eingebettet in einem umfassenden Wissensgebäude sind linguistische und computerlinguistische Erkenntnisse nicht notwendigerweise distinkt, Unterschiede bestehen im Bereich der Methode, also in der Gewinnung der Erkenntnisse. Im vorliegenden Handbuch wird die epi-

stemologische Betrachtungsweise befolgt. Es erwies sich jedoch als unumgänglich, die Grundrisse der organisatorischen Dimension der CL auch darzustellen (vor allem Art. 2 und z. T. Art. 3), bzw. gelegentlich darauf hinzuweisen. Während eine Grenzziehung zwischen Disziplinen epistemologisch nicht notwendig, u. U. sogar hinderlich ist, kann es aus praktischen, organisatorischen und förderungspolitischen Gründen trotz potentieller Überlagerungen ihrer Erkenntnisse zweckmäßig sein, Linguistik und CL zu trennen, und die besondere Problematik der CL, (Leistungen, Methoden, Probleme usw.) getrennt darzustellen. Es ist möglich, daß eine und dieselbe Sache in der aktuellen Projektumgebung ganz anders exponiert wird als ihre Manifestation auf der epistemologischen Ebene. Die Forderung nach Interdisziplinarität läßt sich beispielsweise auf der epistemologischen Ebene als Doppelkompetenz begreifen, auf der organisatorischen Ebene erweist es sich mehr praktikabel, sie für Projektgruppen zu fordern und nicht von jedem einzelnen Mitarbeiter individuell zwei Diplome zu verlangen. In der Entwicklung der CL ist die curriculare Betrachtung, d. h. die CL aus der Sicht der akademischen Lehre, zeitlich nachgeordnet. Während auf der epistemologischen Ebene Wissenstransport durch die übergeordneten Forschungsinteressen begründet sein muß, steht hier neben der Systematisierung der fachspezifischen Grundlagen eben dieser Aspekt im Mittelpunkt. Die Interdisziplinarität der CL manifestiert sich hier vor allem darin, daß die CL in der Lehre auf die Wissensvermittlung in der Linguistik und in der Informatik mit angewiesen ist, die die genuin computerlinguistischen Lehrinhalte komplettieren und verschieben. Die Interdisziplinarität der CL ist inhärent, sie liegt in der für die CL charakteristischen Verbindung zwischen Sprache (Sprachanwendung) und Computer selbst.

I. Computational Linguistics I: Development

2

Denn entgegen der populären Annahme, daß Computer und Sprachen (natürliche Sprachen) nichts miteinander zu tun haben, besitzen sie grundlegende Gemeinsamkeiten, sie sind beide Einrichtungen für die Symbolmanipulation (vgl. Newell 1980: 136 ; Hellwig 1983; Habel 1986 : 6 —9). Die Wörter der Sprache sind nicht als bloße Folgen von Geräuschsequenzen zu verstehen, sondern sie sind Träger von Inhalten, genau wie auch für den Rechner die dargestellten Inhalte wichtiger sind als die Fluktuation der physikalischen Zustände. Auch wenn in der letzten Zeit (Raskin 1985; Winograd/Flores 1986 ; Schnelle 1987) die Grenzen dieser Gleichschaltung erkannt werden, bleibt die Symbolverarbeitung als Grundlage für die CL erhalten.

in der osteuropäisch-russischen Auslegung der Computerlinguistik als vyčislitel’naja lingvistika an, die die Berechnung oder Errechnung der Ergebnisse hervorhebt und daher die besonders intensive Einbeziehung der mathematischen Linguistik in der UdSSR verständlich macht (und die CL in Osteuropa immer noch prägt, siehe Hajičová in 3.1). Der amerikanische und westeuropäische Gebrauch des Terminus folgt eher der zweiten Interpretationsrichtung, wonach nicht die Berechnung von linguistischen Funktionen, sondern die Rechnerbenutzung bei linguistischen Problemstellungen im Mittelpunkt steht. (Auf die Gefahren in der westlichen Auslegung der CL weist Karlgren in 8.1 hin.)

2.

Ohne eine vorangehende Definition der Mathematischen Linguistik (= ML) bleibt die Zuordnung der CL zu ML leer (vgl. Schnelle 196 6 ; Kiefer 196 8; Altmann 1973). Schwierigkeiten ergeben sich in zwei Hinsichten: 1. Wenn unter ML die formale Erfassung der sprachlichen Strukturen verstanden wird, ist CL offensichtlich mehr, da sie nicht nur algebraische Beschreibungen, sondern auch substantielle Aussagen über die Sprache und Algorithmisierung sowie experimentelle Arbeit mit Computern anstrebt. 2. Nicht alle mathematisch möglichen Beschreibungen werden zur CL gezählt, bzw. sind signifikant. Für die CL sind die algorithmisch-prozessualen Beschreibungen durch fachimmanente Erkenntnisinteressen schon legitimiert, während die intervallarithmetischen und sonstige statistischen Untersuchungen eine zusätzliche (externe) Begründung verlangen, und daher für die CL stets am Rande bleiben. Das osteuropäische Konzept der ML ist autonom und es schließt die CL mit ein (vgl. Gladkij/ Mel’čuk 1973); in Amerika und in Westeuropa redet man lediglich über die mathematischen Grundlagen der Linguistik (vgl. Hall Partėe 1978) neben einer enger ausgelegten ’Quantitativen Linguistik’ (vgl. Art. 9).

Die CL, ihre Benennung und Abgrenzung

Computational Linguistics als Bezeichnung eines neuen Forschungsfeldes wurde am Anfang der 6 0er Jahre von David G. Hays geprägt und mit Substanz gefüllt (Hays 196 7; 196 6 ). Sie fand erstmalig 196 3 öffentliche Verwendung in dem Fachverbandsnamen „Association for Machine Translation and Computational Linguistics“. 196 8, zwei Jahre nach dem Erscheinen des ALPAC-Berichts, wurde der Vereinsname auf seine heutige Gestalt „Association for Computational Linguistics“ (ACL) gekürzt. Als Folge der Entwicklung in den letzten Jahrzehnten wurde die Bezeichnung unterschiedlich breit angelegt, wobei sich der Umfang der Gebietes änderte und seine Inhalte stets präziser geworden sind. Rein philologisch läßt sich das Attribut computational in der englischen Nominalphase Computational Linguistics auf zweierleiweise interpretieren: — die attributive Bestimmung „computational“ wird als eine Ableitung aus dem Verb to compute ’computare’ ausgelegt, und dementsprechend versteht man unter Computational Linguistics eine Art Linguistik, die die Sprache oder die Beschreibung der Sprache als ein System von Rechenoperationen ansieht. Oder: — die attributive Bestimmung wird als eine Ableitung aus dem Substantiv Computer angesehen, und demnach versteht man unter Computational Linguistics eine Art Linguistik, die mit Computern verbunden ist. Die erste Interpretation klingt vor allem

2.1. CL und die Mathematische Linguistik

2.2. CL und Angewandte Linguistik Die CL versteht sich als eine wissenschaftliche Disziplin, aber es ist richtig und auf der förderungspolitischen und organisatorischen Ebene hochgradig relevant, daß die von der CL gelieferten Erkenntnisse eng mit der aktuellen Entwicklung der Sprach- und Wissensverarbeitungstechnologie verbunden sind und davon nur schwer getrennt werden kön-

1.  Allgemeine Entwicklung der Computerlinguistik

nen. Es wäre jedoch verfehlt, die CL als Angewandte Linguistik zu begreifen und sie auf ein Software-Paket oder auf eine Ansammlung von Algorithmen reduzieren zu wollen. Anwendungsrelevanz ist abstufbar, es gibt stärker und weniger stark anwendungsrelevante Bereiche und auch stark und weniger stark verwertbare linguistische Erkenntnisse. Die Anwendungsnähe macht die CL förderungspolitisch interessant (vgl. auch Art. 37). 2.3. CL und die philologische Sprachforschung Insbesondere durch die Verbreitung der PC-s setzte sich die Computernutzung in der Sprachforschung durch. Es gibt eine Reihe von verdienstvollen Einführungen in die DV und Surveys über geeignete Hardware und Software für Philologen und Textwissenschaftler (Ott/Gabler/Sappler 1982; Krause/Niederehe 1984; Gregor/Krifka 1986 ). Die Rechnerunterstützung macht jedoch die Sprachforschung nicht automatisch zur CL, auch wenn diese Unterstützung nützlich und förderungswürdig ist. CL beginnt dort, wo die Forschungsergebnisse nicht nur von den Rechnern erbracht werden, oder sich darauf stützen, sondern dort, wo über die Computernutzung und über die Abhängigkeit der E rgebnisse von den Methoden systematisch reflektiert wird. Sonst liegen die Erkenntnisinteressen und daher auch die Ergebnisse der Forschung außerhalb der CL. Die Prämisse führt zu einer breiteren und zu einer engeren Felddefinition der CL: (1) Nach der breiteren Auslegung genügt die obige Prämisse für die Abgrenzung der CL allein, d. h. keine weiteren Anforderungen sind notwendig. Im Rahmen der CL können also Fragen der Sprachverstehenssysteme, Automatisierung der Lexikologie, Lemmatisierung usw. behandelt werden, aber auch Gesetze des Lautwandels und die der Dialektgeographie, vorausgesetzt daß die Problematik der Verarbeitungsprozesse (mit)untersucht wird. Es ist gleichgültig, ob man sich mit dem Englischen oder beispielsweise mit dem Livischen (einer ostseefinnischen Sprache kurz vor dem Aussterben) befaßt; wesentlich ist die methodische Ausrichtung. (2) Nach der engeren Auslegung befaßt sich die CL lediglich mit der Sprachanwendungsproblematik und nicht mit allen möglichen linguistischen Fragestellungen. Die Sprachverstehenssysteme werfen selbst die Fragen auf, die in der CL untersucht werden.

3

Die engere Festlegung der CL beansprucht Anwendungsrelevanz für sich und grenzt die sprachlichen Forschungsvorhaben aus, die sich nicht aus dem Informationsverarbeitungsmodell (siehe 3.5.2.1.) ableiten lassen. Die erste breitere oder integrative Ausrichtung der CL ermöglicht die Einbeziehung der gesamten computergestützten Sprachforschung und wird auch in diesem Handbuch vertreten. Sie ermöglicht eine einheitliche Feldgliederung (siehe 3.5.2.2.). Die Rechtfertigung einer breiteren, nicht auf die sprachliche Simulation beschränkten CL, stützt sich vor allem auf die grundsätzliche Einsicht, 1. daß die Deskription der Sprache eine fundamentale wissenschaftliche Aufgabe ist und prinzipiell nicht aus der CL ausgeschlossen werden darf, 2. daß die qualitativ bessere, präzisere Deskription der Sprache auch eine qualitativ bessere, anspruchsvollere Simulation erlaubt, und 3. daß man nicht immer voraussagen kann, ob oder wie weit die Erforschung eines sprachlichen Problems aus der Perspektive des sprachlichen Informationsverarbeitungsmodells relevant sein wird oder nicht. 2.4. CL und die sprachorientierte KI-Forschung Die Auseinandersetzung mit der KI verhalf der CL zu einem besseren Verständnis über die eigene Aufgabenstellung in mehreren Hinsichten: Wie bereits eingangs gesagt, versteht sich die CL als ein asymmetrisches interdisziplinäres Forschungsfeld mit linguistischen Erkenntnisinteressen. Denkbar sind natürlich Forschungsvorhaben in dem Überschneidungsgebiet zwischen Linguistik und Informatik auch ohne linguistische Erkenntnisinteressen, wie dies in der KI-Forschung (und möglicherweise auch in der sprachorientierten KI) geschieht. CL und die sprachorientierte KI sind eigentlich keine rivalisierenden Nachbarn, sie sind eher komplementär, sie haben ein gemeinsames Forschungsobjekt, sie verfolgen jedoch unterschiedliche Forschungsziele. In der wissenschaftlichen Forschung ist es nicht selten, daß eine Untersuchung über die engeren Fachgrenzen hinaus Aufmerksamkeit erweckt und gewürdigt wird. Viele Beiträge der sprachorientierten KI und manche der CL gehören zu dieser Kategorie. Die Objektbereiche der (sprachorientierten) KI und der CL sind jedoch nicht völlig identisch.

I. Computational Linguistics I: Development

4

Der Objektbereich der KI reicht über den der Linguistik und der CL hinaus und umfaßt über den sprachlichen Bereich hinaus auch die tieferliegende (kognitive) Problemlösungsebene. Die zwei Repräsentationsebenen (die linearisierte, sprachliche und die mehrdimensionale, begrifflich-kognitive) sind selbstverständlich auch für die Linguistik fundamental. Die Aufgabe der Sprache besteht eben darin, daß sie die nicht-linearisierten, mentalen Strukturen linearisiert, bzw. umgekehrt. Aber die linguistischen Erkenntnisinteressen beziehen sich lediglich auf die sprachliche Abbildung, auf die sprachinternen Abbildungsmechanismen und auf die Oberfläche der kognitiven Repräsentation, und hören da auf. Für die KI ist hingegen die kognitive Problemlösungsproblematik zentral und eine spezielle Sprachkomponente, die der Problemlösungskomponente vorgeschaltet wird, und eine besondere (nämlich die natürlichsprachliche) Repräsentationsebene beinhaltet, ist nebenseitig und unnötig umständlich. Durch die Konfrontation mit den Ergebnissen der KI-Forschung wurde es klar, daß eine latente Isomorphie zwischen Komponenten eines Sprachanwendungssystems weder erforderlich, noch zweckmäßig ist. Die CL systematisiert die Sprachverarbeitung und stellt Grundlagen-Domänen, wie morphologische Analyse, Syntaxparsing, semantische Interpretation usw. auf, aber sie müssen nicht als isolierbare Komponente in den Sprachverstehenssystemen vorhanden sein (vgl. 3.6 .2.). Eben durch die Systematisierung des Vorgehens außerhalb des Verarbeitungsrahmens übersteigt die CL die Grenzen der holistischen KI-Systeme, die eine linguistische Verallgemeinerungsebene nicht kennen. Daher ist es verfehlt wie bei v. Hahn (1987, 57), die CL als eine reine Hilfswissenschaft („only a tool for empirical work“) einzuschätzen.

3.

Die Geschichte der Computerlinguistik

3.1. Die Jahre der Vorbereitung Die Anfänge der CL als eines wissenschaftlichen Unterfangens sind in dem intellektuellen Hochspannungsgebiet an der amerikanischen Ostküste in den Nachkriegsjahren zu suchen. In einer einmaligen offenen Aufbruchstimmung begegneten sich hier Gelehrte und Praktiker, heimkehrende Offiziere

und Immigranten, Philosophen und Ingenieure, die die Tragweite der frisch erfundenen programmierbaren Computer begriffen hatten. Sie haben die ungeheueren Perspektiven gesehen, die durch die neuen Elektronenrechner eröffnet worden sind. Es entstand ein neues Instrument für die wissenschaftliche und geistige Arbeit, das keine unmittelbare Anwendung finden konnte, da sie den aktuellen Bedarf überstieg. Die Herausforderung der Zeit bestand darin, diesem Potential zu voller Entfaltung zu verhelfen und es für den Fortschritt auszuschöpfen. Man suchte Aufgabenstellungen, die die Leistungsfähigkeit der Rechner demonstrierten, wobei über die inhärente Problematik der Aufgabenstellung selbst zunächst nur wenig nachgedacht wurde. Die Pioniere fühlten sich dem Fortschritt und nicht einer Disziplin verpflichtet. Für Claude Shannon und John von Neumann waren die neu geknüpften interdisziplinären Kontakte und die hierdurch erzielten neuen Einsichten und Erkenntnisse wichtiger als die wissenschaftliche Taxonomie, deren Rubriken eben ihre Arbeiten durcheinanderbrachten. Diese Katharsis erbrachte nicht nur individuelle Spitzenleistungen von einzelnen Wissenschaftlern, wie Claude Shannon, John von Neumann, Rudolf Carnap, Warren McCullogh, Norbert Wiener usw., sondern führte zu einer neuen Partitionierung der Wissenschaft mit Informatik, Information Science, Psycholinguistik und auch CL. Diese Neugestaltung betraf letztlich die gesamte moderne Linguistik. Insbesondere Shannons Arbeiten über die Informationstheorie (Shannon/Weaver 1949) sind in diesem Zusammenhang relevant. Er wollte mit Hilfe der Wahrscheinlichkeiten die Sprache präziser erfassen, und seine Entropie-Formel befähigt ihn in der Tat, die Fernmeldenachrichten ’billiger’ zu übermitteln. Seine informationstheoretischnachrichtentechnische Einstellung prägte den Umgang mit natürlichsprachlichen Texten in dem folgenden Jahrzehnt. Unter seinem Einfluß — vermittelt durch Weaver — wurde die Maschinelle Sprachübersetzung (= MÜ) anfangs als eine Dechiffrierungsaufgabe gesehen (Locke/Booth 1957, 24—46 ). Da die traditionelle, philologisch orientierte Sprachwissenschaft keine brauchbare Theorie zur Verfügung stellen konnte, erhofften die MÜ-Pioniere, durch die Berechnung der sprachimmanenten Übergangswahrscheinlichkeiten und sonstigen sprachstatistischen Indikatoren das Übersetzungsproblem zu bewältigen und die Sprachbarrie-

1.  Allgemeine Entwicklung der Computerlinguistik

5

ren zu brechen. Die Unzulänglichkeit des Shannonschen Modells für die sprachliche Informationsverarbeitung, nämlich, daß es sich auf die Signal-Information bezieht, und nicht auf die semantische Information, wurde allerdings nicht sofort erkannt. Überhaupt war das sprachliche Problembewußtsein in der von der MÜ-Problematik einseitig dominierten Vorphase der CL defizitär. Dies erklärte sich z. T. dadurch, daß die linguistische Schulung der Mitarbeiter niedrig war (für ihre praktische Arbeit hatte die Linguistik damals sowieso nicht viel zu bieten) und, daß die MÜ-Mitarbeiter die Problematik, primär bedingt durch den technischen Stand der Maschinen, in der Rechnerbedienung gesehen haben. Die Pioniere der ersten Jahre betrachteten sich als Praktiker, sie standen eindeutig außerhalb der philologisch geprägten akademischen Sprachforschung. Viele der aktiven Mitarbeiter des MÜ-Feldes sind in der Tat nach ihrer Ausbildung Ingenieure, Mathematiker, Philosophen usw. gewesen. Insoweit sie doch ’aus der philologischen Ecke’ kamen, flüchteten sie sich gerade vor den geisteswissenschaftlichen Unverbindlichkeiten der Zeit.

Automatisches Indexing selbst für die Pioniere nicht klar war, was sie hier vermißten. Folglich blieb auch die Existenz einer besonderen allgemeinen sprachlich-linguistischen Teilmenge der Grundlagen innerhalb der spezifischen MÜ-, Indexing- und sonstigen Grundlagen lange Zeit unentdeckt. Es gab Illusionisten, die die Hoffnung gehegt haben, daß es sich vielleicht nur um subjektive Wissenslücken handelt, die durch linguistische Lektüre überwunden werden können. Die dominanten Praktiker wollten die fehlenden Grundlagen nebenbei aufbringen, so wie man etwa die Handhabung eines neues Schnelldruckers oder der neuen Version einer Programmiersprache lernen kann, wobei sie die Aufgabe gewaltig unterschätzt haben. Die (anfänglich wohl seltenen) Realisten erkannten richtig, daß die für die MÜ erforderlichen Grundlagen in der traditionellen Linguistik vergebens gesucht werden und projektintern ’nebenbei’ nicht aufgebracht werden können. Die Leistung der ersten Entwicklungsphase der CL, die mit dem ALPAC-Bericht zu Ende ging, war die Bereitstellung von paradigmatischen Grundlagen, die allerdings erst in der nachfolgenden Forschung mit Substanz gefüllt worden sind.

3.2. Selbstbesinnung: MÜ als der erste Kristallisationskern der CL

3.3. Die Genese der CL

Die erste Phase der Entwicklung der CL ist eindeutig von der MÜ geprägt worden. (Zur Geschichte der MÜ im Allgemeinen vgl. Hutchins 1986 .) Für die MÜ-Pioniere stand eindeutig der Rechner im Mittelpunkt der Aufmerksamkeit, dessen Bedienung in den 50er Jahren noch recht schwerfällig war, und die die eigentlichen sprachimmanenten Anwendungsprobleme überschattete. Die MÜ-Pioniere neigten dazu, die technischen, maschinenbezogenen Aspekte der Übersetzung überzubewerten. Sie sahen sich gerne gegenüber den traditionellen akademischen Schreibtisch-Linguisten in der Rolle der Praktiker, die mit den Tücken der Maschinen fertig werden. Sie waren nicht theoretisch veranlagt und erkannten das Fehlen der (sprachlichen) Grundlagen nur zögernd. Erstens, weil es für viele die Abstraktion CL in der Zeit noch gar nicht gab; es gab lediglich die einzelnen Anwendungsfelder wie MÜ oder Automatisches Indexing, und man suchte entsprechend MÜ-Grundlagen, Automatische Indexing-Grundlagen usw. jeweils getrennt und zweitens, weil es infolge der komplexen Aufgabenstellungen wie MÜ und

Es wäre jedoch eine unzulängliche Vereinfachung, die CL als Zufallsprodukt eines Gutachtens für die US Academy of Sciences aufzufassen. Richtiger ist der Bericht so einzuschätzen, daß darin eine ’kritische Menge’ der Erfahrungen aus der vorangegangenen Forschung zusammengetragen worden ist, und daß hier lediglich die unausgesprochen bereits vorhandenen Erkenntnissen erstmalig explizit artikuliert worden sind. Schließlich haben wichtige Impulse der Linguistik die CL in der Mitte der 6 0er Jahre erreicht. Demnach verdankt die CL als wissenschaftliche Disziplin ihr Entstehen drei Faktoren: 1. dem ALPAC-Bericht, 2. der vorangegangenen Feldarbeit und 3. den Impulsen der Linguistik (vgl. auch Mey 1971, 43—44). Von jetzt ab ging es nicht mehr um die Nutzung der Computer in sprachbezogenen Aufgaben, sondern (anders akzentuiert): um die Bewältigung der Probleme, die sich bei der Nutzung der Computer in sprachbezogenen Aufgaben ergeben haben. Es gab einen allgemeinen Konsens darüber, daß (1) die Verarbeitung natürlichsprachlich formulierter Informationen ein sprachliches Problem ist (vgl. auch Montgomery 196 9, 2)

6

und (2) daß als wissenschaftliche Disziplin die CL der Linguistik zugeordnet wird und sich vorrangig auf linguistische Theorien stützt. Die linguistische Orientierung in den 6 0er Jahren führte fast zwangsläufig zu der Übernahme der Chomskyschen Sprachbetrachtung insbesondere der Generativen Transformationsgrammatik (= TG) als linguistischer Grundlage für die CL. Die TG-Orientierung bedingte dann ihrerseits die besondere Hinwendung zur Syntax. Die Genese der CL war in den USA mit einer linguistischen Rückbesinnung verbunden. Sie war dadurch bedingt, daß die amerikanische CL — im Unterschied zu der europäischen Entwicklung — überwiegend aus Forschungsprojekten entstand und Bindungen zur akademischen Linguistik entbehrte. 3.3.1. Der ALPAC-Report und seine Folgen Für die CL spielte der ALPAC-Bericht eine hervorragende Rolle, da in diesem Dokument erstmalig die Notwendigkeit der linguistischen Grundlagenforschung explizit formuliert worden ist. (Der ALPAC-Bericht, erstellt für die National Academy of Sciences, Washington 196 5, befaßte sich vor allem mit der Notwendigkeit der Maschinellen Sprachübersetzung. Die Sachverständigen-Kommission des berühmt gewordenen Berichts fand die derzeitigen Ergebnisse der öffentlich geförderten MÜ-Projekte nicht überzeugend und sie erklärte die MÜ als schlechthin überflüssig.) Die ALPAC-Experten betrachteten die computerorientierte sprachliche Grundlagenforschung als eine neue Entwicklungsphase der Linguistik, die nicht nur eine Anzahl von neuen (sprachlich fundierten) Computeranwendungen ermöglichen, sondern auch qualitativ neue Einsichten in die Struktur und Arbeitsweise der Sprachen mit sich bringen würde. Es wird in der Literatur mehrfach bedauert (Josselson 1972, 44—49; Henisz-Dostert/ MacDonald/Zarechnak 1979, 47—57), daß die großzügige Förderung des MÜ-Vorhabens mit dem ALPAC-Bericht zu Ende ging. Dabei wird übersehen, daß die Verknappung der Mittel sich generell positiv auf das wissenschaftliche Diskussionsniveau ausgewirkt hat. Erst nach der Beendigung der administrativ gelenkten Förderungskampagne und der Lösung der Maschinellen Übersetzung von direkten markt- oder produktorientierten Projektvorhaben begann hier eine nor-

I. Computational Linguistics I: Development

male, problemgesteuerte Entwicklung, die es ermöglichte, die MÜ als wissenschaftliche Forschung zu betrachten (Mey 1971, 38). 3.3.2. Integration des Anwendungsfeldes Die CL entstand als Ergebnis eines zweistufigen Abstraktionsprozesses, in dem die konstitutiven Impulse von den drei Hauptanwendungstypen 1. MÜ, 2. Anwendungen im Bereich der Automatischen Dokumentation (engl. Information Retrieval = IR) und 3. Frage-Antwort-Systeme (= FA-Systeme) ausgegangen sind. Im ersten Verallgemeinerungsschritt suchte man die Grundlagen für die drei Anwendungstypen jeweils getrennt. Im zweiten Schritt strebte man darüber hinaus nach Schaffung von verallgemeinerten, linguistisch fundierten Grundlagen in einem größeren, abstrakten Raum. Die Integration auf der ersten Abstraktionsstufe erfolgte recht schnell, die Integration auf der zweiten begann erst später, erwies sich als schwieriger und ist vielleicht auch noch heute noch nicht ganz abgeschlossen. Die Schwierigkeiten entstehen dadurch, daß die prototypischen Anwendungen nicht nur auf der Benutzer-Oberfläche, sondern auch auf der abstrakten linguistischen Problemlösungsebene stark divergieren. (Vgl. Art. 37, 5.1.) In der Anwendungsdomäne spielen drei Anwendungstypen: MÜ, IR und FA-Systeme eine maßgebende Rolle (vgl. Grishman 1986 ). Es ist natürlich nicht ganz zufällig, daß es eben diese drei Anwendungsfelder gewesen sind, die zu der Profilierung der CLGrundlagen so intensiv beigetragen haben. Etwas summarisch könnte man sagen, daß die MÜ die fundamentale syntaktische Orientierung mitbrachte, die IR stellte die Sprachinhalte in den Mittelpunkt und FASysteme steuerten die zentralen kommunikativen Perspektiven und insbesondere den Partnerbezug bei (vgl. 5.2.). 3.3.3. Chomsky und die CL: Die Axiomatik des Compilermodells In den 6 0er Jahren konnte sich keiner in der Linguistik Chomskys Einfluß entziehen, verständlicherweise auch die junge CL nicht. Chomskys Theorie, vor allem seine TG, wurde auch in der CL mehrfach und unkritisch übernommen. Dies führte dann dazu, daß nachfolgend dieselben Thesen ebenso leidenschaftlich bekämpft wurden. Die Auseinandersetzungen um die TG führten dazu, daß Chomskys Bedeutung für die CL einseitig und verfehlt eingeschätzt worden ist.

1.  Allgemeine Entwicklung der Computerlinguistik

Es ist ohne Zweifel richtig, daß weder Chomskys Standard Model noch sein E xtended Standard Model sich als Implementierungs-Grundlagen für Frage-Antwort-Systeme besonders geeignet haben, und daß die Transformationsgrammatiken bei der praktischen Parser-Konstruktion unlösbare Probleme aufwerfen. Chomskys prominente Rolle für die CL ist darin zu sehen, daß er exemplarisch für den von ihm favorisierten Syntaxbereich einen Beschreibungsrahmen geschaffen hat, der natürliche Sprachen und Programmiersprachen commensurabel macht, ihre Verarbeitung durch dieselben algorithmischen Verfahren vorsieht und hierdurch den direkten Austausch von Knowhow zwischen Informatik und Linguistik ermöglicht. (Vgl. Johnson 1983 a und Klenk, Art. 6 .) Die Chomsky-Hierarchie der Formalen Sprachen bildet seither die theoretisch-konzeptuelle Grundlage für die Informatiker im Compilerbau (Hopcroft/Ullman 19 6 9, 51—52; Gries 1971, 46 —48; Aho/Ullman3 1979, 144). Chomsky entwickelte ein Sprachbeschreibungsmodell, zentriert um die Syntax, das die Verarbeitung von natürlichsprachlichen Texten analog zu der Kompilierung vorstellt: Es liegt eine natürlichsprachliche Äußerung in der Form einer Zeichenkette (als akustische Signalfolge oder als gleichwertige Schriftzeichenfolge) vor, und die maschinelle Verarbeitung besteht darin, eine andere interne, interpretierbare Repräsentation zu schaffen, eine Zeichenfolge also, die den Informationsgehalt der (ursprünglichen) Eingabekette enthält und dem Empfänger unmittelbar zugänglich (verständlich) ist, wobei das Verstehen natürlichsprachlicher Äußerungen der Ausführung des umgewandelten Codes entspricht (Lenders, Art. 23; Winograd 1983, 15—16 ). Das ’mapping model’ des Verstehens, wonach eine Repräsentation mit Hilfe von Algorithmen in andere Repräsentationen überführt wird, unterliegt auch den noch geltenden Vorstellungen in der KI (vgl. Ramsey, Art. 18 und Habel/Pribbenow, Art. 57). Chomskys generative Grammatik ging jedoch über das Shannonsche Dechiffrierungsmodell an einer Stelle hinaus und änderte das Forschungsparadigma der CL grundsätzlich. Er führte neue Beschreibungsebenen ein, auf welchen er die Sprache — unabhängig von der Abbildung von Ebene zu Ebene — axiomatisch durch die Grammatiken definierte. So wurde der Compiler durch die Grammatik

7

in seinem Modell im Voraus bestimmt. Die Diskussion über die Unzulänglichkeit der TG für die CL und über Chomskys Kompetenzfetischismus überschattete zeitweilig seine grundsätzliche Leistung und führte zu Mißverständnissen. So überwindet z. B. eine pointierte Zuwendung zu den Performanzaspekten der Sprache — als Alternative zu Chomskys Kompetenzlinguistik — das Chomsky-Paradigma nicht, sondern bleibt darin verhaftet: (1) Die beanstandete Dichotomie zwischen Performanz und Kompetenz sowie das grundsätzliche Abbildungskonzept als Modell für die Sprachverarbeitung blieben implizit erhalten. Und (2) jede Theorie muß den Abstraktionsgrad einer Kompetenzbeschreibung anstreben (Hellwig 1983). Die TG-Orientierung in der CL war keineswegs einheitlich, es gab gleichzeitig auch alternative Modelle, abgesehen davon, daß das Chomsky-Paradigma selbst breiten Spielraum für Variationen erlaubte. 3.4. Die Spaltung der CL Nach dem initialen Anstoß blieb die CL jedoch weiter gespalten, oder wenn man die Heterogenität der Projekte betrachtet, sogar aufgesplittert. Eine nur durch Generationswechsel überwindbare Zweiteilung, bedingt durch die Interdisziplinarität, durchzog das ganze Feld. Die Mitarbeiter (die neue Selbstbezeichnung ’Computerlinguist’ setzte sich nur zögernd durch) hatten entweder einen mathematisch-technischen Hintergrund und arbeiteten sich in die sprachlich-linguistische Problematik hinein, oder aber sie waren Sprachwissenschaftler und hatten eine philologische Ausbildung. Sie lernten durch ihre praktische Arbeit die Rechner kennen. Eine ausgeglichene Doppelkompetenz wurde nur in seltenen Fällen erreicht. Die zwei Gruppen blieben auch nach der Konstituierung der Genese der CL weiter erhalten, sie wurden unterschiedlich ettiketiert („Theoretiker und Empiriker“ bei Pendergraft 196 7, „theory oriented und data oriented“, „think-hards und work-hards“ bei anderen) aber es handelte sich stets um dieselbe Gegensätzlichkeit: Auf der einen Seite standen diejenigen, die die sprachwissenschaftliche Problematik von der Seite der philologischen Empirie her kannten. Sie erkannten die Möglichkeiten des Computers von ihrem Wissenschaftsverständnis her als Instrumente, sie wollten sie

8

nutzen. Um ihre Forschungsvorhaben durchführen zu können, lernten sie auch, die Maschinen zu bedienen. Für sie blieben jedoch formale Modelle und grammatische Theorien leere Spekulationen. Konkordanzen, lexikographische Arbeiten, maschinelle Auswertungen von Texten waren für sie durch bereits bestehende übergeordnete Erkenntnisinteressen motiviert, die sie auf der Seite der Sprachverstehensproblematik vermißten. Die mathematisch-technisch Vorgebildeten (später auch die Informatiker) andererseits kannten die Leistungen der Rechner von der technischen Seite her. Sie haben wiederum nichts gegen abstrakte Grammatikmodelle und formale Beschreibungen einzuwenden gehabt, die einen Teil ihrer Fachkompetenz darstellten. Aber ihnen mangelte es an einer profunden Kenntnis sprachlicher und sprachwissenschaftlicher Probleme. Es war eigentlich paradox, daß die linguistische Rückbesinnung, die Zuwendung zu Chomsky und zur Sprachverstehensproblematik überhaupt primär von den ’NichtSprachlern’, d. h. eben von der mathematisch informatischen Seite her gefördert worden ist, während sich die ’Sprachler’ für die neue prozessuale Problematik unempfänglich zeigten. Unvereinbarkeit der Erkenntnisinteressen, gesteigert durch die potentielle Anwendungsrelevanz der Sprachsimulation, führte schließlich zu einer Absonderung des philologisch motivierten Teils der computergestützten Sprachforschung als eigenes, jedoch nur schwach abgegrenztes Forschungsfeld, der durch die Gründung des Fachvereins: Association for Linguistic and Literary Computing (= ALLC 1972) neben Association for Computational Linguistics (= ACL 196 8) — auch auf der Ebene der Wissenschaftsorganisation institutionalisiert wurde. Durch die Ausgrenzung der philologischen Forschungsvorhaben aus ihrem Objektbereich entstand die engere anglo-amerikanische Auslegung der CL, die sich vornehmlich der Simulation der Sprachanwendungsprozesse Natural Language Processing (= NLP) widmet (vgl. noch 3.6.1.). Allerdings blieb diese Trennung sowohl terminologisch als auch sachlich unvollkommen. So wollen Evens und Karttunen (1983) „beinahe alle Kombinationsmöglichkeiten zwischen natürlichen Sprachen und Computern“ unter CL verstehen und andererseits behandelt auch die ALLC auf ihren Tagungen Themen der MÜ oder der FAS-Systeme.

I. Computational Linguistics I: Development

3.5. Die breitere Auslegung der CL Während in der angelsächsischen Welt, vor allem in den USA, die praktische Feldarbeit in der CL überwiegend in den computergestützten anwendungsorientierten Projekten geleistet worden ist, kamen die Vertreter der CL in Europa von den Universitäten, und sie verfolgten vornehmlich akademische Forschungsinteressen. In der europäischen Entwicklung der CL gibt es daher keine ’linguistische Wiederbesinnungsphase’. Die niedrigere Konzentration der Forschungsprojekte (aufgesplittert weiter durch die Sprachgrenzen) führte dazu, daß das gesamte Feld der computergestützten Sprachforschung als eine Einheit empfunden wurde. Dies war auch aus förderungspolitischen Überlegungen vorteilhafter. Die engere, amerikanische Research and Development (= RD)-orientierte Auslegung der CL warf, wie bereits gesagt (2.3.), auch schwierige Abgrenzungsprobleme auf: Es war nicht immer klar ersichtlicht, ob ein computerorientiertes linguistisches Vorhaben einen Anwendungsbezug besitzt oder nicht und daher zur CL gezählt werden kann oder nicht. 3.5.1. Extensionale Felddefinition der CL Daher schien es vielen praktikabler zu sein, die CL etwas neutraler als ein Berührungsfeld zwischen Linguistik und elektronischer Datenverarbeitung aufzufassen und mangels einer feldimmanenten Gliederung die thematischen Bereiche der CL einfach aufzulisten. Die CL wurde danach von zwei Merkmalen bestimmt, nämlich erstens von der sprachlich-linguistischen Natur der behandelten Problematik und zweitens von der Computerbenutzung. Diese extensionale Felddefinition wurde erstmals von Krallmann (196 8) präsentiert. Er unterschied zwei Teilbereiche der CL, die er suggestiv als Linguistik mit Computern und Linguistik für Computer bezeichnete. Linguistik mit Computern umfaßte die linguistischen Forschungsarbeiten, in welchen der Computer als Forschungsinstrument eingesetzt worden ist, und Linguistik für Computer deckte die Vorhaben ab, die im Zusammenhang mit Computeranwendungen vor allem in der sprachorientierten Informationsverarbeitung entstanden sind. Gleichzeitig wurde die Bezeichnung ’Linguistische Datenverarbeitung’ eingeführt. Die polarisierte mit-und-für-Feldaufteilung wurde kritisiert, weil sie einen Erkennt-

1.  Allgemeine Entwicklung der Computerlinguistik

nisgewinn im Bereich der Linguistik für Computer anzweifeln ließ (Bátori 1977a), prägte jedoch trotz ihrer Unzulänglichkeiten lange die Vorstellung über die CL sowohl in Fachkreisen als auch außerhalb (Lenders 1972 a, 3—4; Schulte-Tigges 1974, 15). Die Aufteilung sagte außerdem nichts über das Wesen der CL aus. Weiterhin sind Linguistik und Computer keine kontrastierbaren Gegensätze, und daher war es verfehlt, Linguistik (= eine Wissenschaft) auf der einen Seite und Computer (= eine Maschine) auf der anderen Seite gegenüberzustellen. Die Bezugnahme auf den technischen Aspekt (auf das Werkzeug ’Computer’ und nicht auf die wissenschaftliche Disziplin ’Computer Science/ Informatik’) führte zu Mißverständnissen über das Wesen des neuen Faches (v. Hahn 1987) und hemmte die Akzeptanz der gleichzeitig eingeführten neuen deutschen Bezeichnung Linguistische Datenverarbeitung (= LDV), denn für die Informatiker suggerierte ’Datenverarbeitung’ lediglich eine technische Beschlagenheit und nicht — wie intendiert — eine wissenschaftliche Disziplin. Als im Laufe der Zeit Computer in der linguistischen Forschung zunehmend eingesetzt wurden, boten sich Klassifizierungsmöglichkeiten an, die sich nach der Art der Computernutzung orientierten; so z. B. unterscheidet Montgomery (196 9) vier Tätigkeiten, die in der linguistischen Forschung ausgeführt werden (1. Datensammlung, 2. Datenanalyse, 3. Formulierung der Hypothesen und 4. Testen) und von Computern unterstützt werden könnten. Martin (1975) sieht vier Nutzungsarten von Computern vor: 1. classifying, 2. calculating, 3. control und 4. simulation. Die Felddefinition erschöpfte sich hier in der Aufzählung der möglichen Einsatzgebiete des Rechners oder der Themenbereiche. Präzisierungsversuche der extensionalen Feldbeschreibung der CL führten jedoch zwangsläufig in die entgegengesetzte Richtung: zu einer mehr inhaltlichen, intensionalen Feldbestimmung. 3.5.2. Intensionale Felddefinitionen der CL Die extensionale Felddefinition der CL ist eigentlich leer, da es unausgesprochen bleibt, was die durchgehenden Gemeinsamkeiten der aufgelisteten Einzelvorhaben sind. Außerdem haben die aufgezählten Problemdomänen unterschiedliches Gewicht. Selbst

9

wenn die konstitutiven Merkmale der CL ’gefunden’ werden, kann man den Sinn der CL nicht aus ihrer bloßen Summe ableiten. Man muß erst die Aufgabenstellung der CL bestimmen und die Feldstruktur daraus ableiten. 3.5.2.1. Das Modell der linguistischen Informationsverarbeitung Das Modell der linguistischen Informationsverarbeitung der CL ist implizit an den engeren angelsächsischen NLP-Modellen orientiert, inkorporiert jedoch die ganze computergestützte sprachliche Grundlagenforschung. Das Modell existiert in mehreren Varianten, die unterschiedlich explizit formuliert worden sind. (1) Das Basismodell von Ungeheuer (1971) verbindet einen menschlichen Benutzer(= M) in dem kommunikativen Rahmen eines abstrakten Frage-Antwort-Systems mit einer Maschine (Computer = C). Dem Menschen M liegt ein zu lösendes Problem vor. Er bedient sich dabei der Maschine C und formuliert sein Problem in einer natürlichen Sprache, das auf die Maschine übertragen wird. Die Natürlichsprachlichkeit ist für Ungeheuer eine unabdingbare Voraussetzung eines solchen Systems. Die Maschine C löst (mit Hilfe von internen Analyse- und Interpretationsregeln) das Problem von M und liefert ihm ebenfalls natürlichsprachlich die Lösung. Das oft zitierte Modell (Dietrich/Klein 1974, 15—17; Lenders 1975, 35—39; Bátori 1977a, 1982 b) ist selbst kein (konkretes) Frage-Antwort-System, sondern hat den Status eines Prototyps, der erst in den einzelnen Anwendungen realisiert wird. Die Komponenten des Modells entsprechen den einzelnen Teilbereichen der CL. Entscheidend ist bei dem M-C-Modell die Natürlichsprachlichkeit. Nach Ungeheuers Auffassung wird das Modell in dem Kommunikationsprozeß mit der Problematik der Natürlichsprachlichkeit direkt konfrontiert. Darüber hinaus kann das M-C-Modell (reflexiv) auf das Problem der Beschreibung der natürlichen Sprache gerichtet sein und so kann es sich auch (sekundär oder reflexiv) in der Problemlösungskomponente mit der natürlichsprachlichen Problematik auseinandersetzen. Ungeheuers Modell enthält eine Reihe von vage formulierten Stellen, die vielfach durch den schwachen empirischen Bezug bedingt sind. Daher wirkt das Modell eher programatisch. Es war 1971 aber aktuell und richtungsweisend: Es richtete die For-

10

schungsinteressen auf das Problem der Problemlösung in Sprachverstehenssystemen das in seiner vollen Tragweite erst in der nachfolgenden KI-Forschung thematisiert wurde. (2) Eisenberg (1980) nimmt explizit Bezug auf die anglo-amerikanischen Sprachverstehenssysteme und betrachtet diese als den zentralen Bereich der CL. Er zählt jedoch die linguistischen Forschungsarbeiten vor allem im lexikalischen Bereich und in der maschinellen Syntaxanalyse auch zur CL. (3) Direkter und nicht weniger engagiert als Ungeheuer argumentiert Hellwig (1983) in diesem Zusammenhang für Natürlichsprachlichkeit. Er setzt auch linguistische Erkenntnisinteressen voraus und meint, daß der eigentliche Durchbruch für die computergestützte Informationsverarbeitung einzig durch die formale Erfassung der natürlichen Sprache erbracht werden kann. Hellwig betrachtet den Rechner besonders nüchtern und wehrt sich gegen eine unnötige Anthropomorphisierung der Maschine, indirekt also auch gegen Ungeheurs Modell. Er zweifelt jedoch die Mächtigkeit der Maschine keineswegs an, die ihre Leistungen für die Sprachforschung in vier Gebiete erbringt: 1. als Arbeitsmittel, 2. als Test für formale Modelle, 3. als Zwang zu expliziter Formulierung und 4. als eigener Fall von Sprachanwendung. (4) Thompson (1982) zeichnet ein fein differenziertes Bild über die CL, in dem er oberflächlich ähnlich zu der Aufteilung CLGrundlagen und CL-Anwendungen (vgl. Art. 37) auch eine Unterscheidung zwischen „theory of linguistic computation“ und „applied computational linguistics“ zieht. Die systematische Ausgrenzung der linguistischen Erkenntnisinteressen führt jedoch zu einer Verarmung der CL und reduziert sie zu einer bloßen „applied linguistic theory“, die nicht mehr ist als „formulae of transition from linguistic theories and models to models and descriptions practically digestible for NLP“ (Raskin 1985: 275), oder zu einer Unterabteilung der KI (Halvorsen 1986). 3.5.2.2. Deskription und Simulation Aus der Sicht des Basismodells von Ungeheuer erschien die Sprachbeschreibung als eine in dem M-C-Modell zufällige, weglaßbare Aufgabe. Dies entsprach jedoch nicht der Tragweite der computerorientierten Forschung in der deskriptiven Linguistik. Diese Forschung ist nämlich nicht deshalb interessant geworden, weil sie sich auf die Computer stützte, sondern weil sie auf diese Weise neue, früher

I. Computational Linguistics I: Development

nicht machbare und daher auch nicht erbrachte Leistungen aufwies. Computerunterstützte Sprachforschung ist allein schon deshalb überlegen, argumentierte Lenders bereits 1974, weil dabei die Kompatibilität der Beschreibungsebenen systematisch beachtet werden muß (Lenders 1974). In einem Survey teilte er (Lenders 1980) die CL (nach seiner damaligen Terminologie: LDV) in zwei große Bereiche, Deskription und Simulation auf. Die zwei Bereiche sind unterschiedlich ausgerichtet, aber sie sind beide gleich fundamental. Der Bereich der Deskription beinhaltet die auf die Strukturermittlung gerichtete Forschung, hier werden die Texte auf den verschiedenen Ebenen analysiert und beschrieben. Die mit Computerunterstützung vollzogene Beschreibung der Sprache ist explizit und präzis (differenziert und auch quantifizierbar), vollständig, den Erfordernissen der Massendaten gewachsen und nicht zuletzt nachprüfbar (Lenders 1980, 217). Die Deskription stellt bereits in sich neue linguistische Erkenntnisse dar und ihre Qualität setzt überhaupt neue Maßstäbe für die linguistische Forschung. Darüber hinaus sind sie unerläßlich für die Simulation des Sprachverhaltens. Die Neuigkeit der Erkenntnisse im sprachlichen Simulationsbereich ist noch deutlicher. Die ganze algorithmische Beschreibung der sprachlichen Verstehens- und Formulierungsprozesse entstand erst im Zusammenhang mit computerorientierten Arbeiten. Die maschinelle Simulation der Sprachanwendungsprozesse setzt eine präzise und explizite Deskription der Sprache voraus. Dies gilt auch umgekehrt: die explizite Deskription setzt ebenfalls einen vorangehenden Ermittlungsprozeß voraus. Lenders breite Auslegung der CL und insbesondere seine Gliederung nach Deskription und Simulation wird in diesem Handbuch verfolgt. 3.5.3. CL in Osteuropa In Osteuropa, vor allem in der UdSSR und in der Tchechoslowakei, wurde die CL ebenfalls in einer breiteren Interpretation übernommen. Die Entwicklung verlief ruhiger, ohne spektakuläre Höhen und Tiefen. Auffallend war die andauernde starke Bindung an die mathematische Linguistik (vgl. Kiefer 196 8), die sich bereits in der MÜ-Phase manifestierte und die linguistische Umorientierung erleichtete (vgl. Art. 3).

1.  Allgemeine Entwicklung der Computerlinguistik

Auch die Chomsky-Welle wurde in Osteuropa weniger turbulent erlebt. Vor allem die Prager Schule der CL zeigte sich eigenständiger gegenüber der TG und Chomsky insgesamt. Für die Spitzenvertreter wie Sgall oder Hajičová waren Linguistik und CL niemals Gegensätze, lediglich methodische Aspekte. Die Prager waren die ersten, die die Grenzen der Strukturlinguistik erkannt und eine weiterführende funktionale Alternative angeboten haben (Art. 11). 3.6. Die Konsolidierung der CL In den 70er Jahren erfolgte die Konsolidierung der CL. Die regelmäßig abgehaltenen Fachveranstaltungen, vor allem die internationalen COLINGS-s (Conference on Computational Linguistics seit 196 5 zweijährlich), sowie zahlreiche regionale und nationale Tagungen machten auch äußerlich sichtbar, daß hier ein neues Fachgebiet entstanden war. Nach der linguistischen Rückbesinnung in der Mitte der 6 0er Jahre setzte ein permanenter Informationsfluß von der Linguistik in die Richtung der CL ein. Die Mitarbeiter des CL-Feldes verstanden sich seither als Linguisten und verfolgten die aktuellen Strömungen in der Mutterdisziplin. (Ein Informationsfluß in der entgegengesetzten Richtung, von CL zu Linguistik, gab es jedoch in den 70er Jahre noch nicht, Mey 1971.) 3.6.1. CL als Linguistik der Sprachverstehenssysteme Um 1970 herum vollzog sich weltweit ein thematischer Wandel in der CL, die Zuwendung zu den Frage-Antwort-Systemen. Insoweit Frage-Antwort-Systeme sich unausweichlich mit Informationen und sprachlichen Inhalten auseinandersetzen mußten, erfolgte eine Felderweiterung, die sich gleichzeitig mit der Zuwendung zur Semantik in der Linguistik abspielte und die auch eine Zuwendung zur Semantik in der CL mit sich brachte. Impulse kamen vor allem von Fillmore, Montague und im Allgemeinen von der Merkmalssemantik. Die Modularisierung des sprachlichen Informationsverarbeitungssystems erfolgte nach einer linguistischen Taxonomie mit Lexikon, Syntax, semantischer Interpretation usw., mit weiterer linguistischen Untergliederung, wobei die Sprachverarbeitungsproblematik als Analyseproblematik verstanden worden ist und Synthese ausgespart blieb. Wichtig und neu war, daß es sich dabei nicht nur um die statische Strukturbeschreibung handelte,

11

sondern um Prozesse (bzw. um Prozeßbeschreibungen), die während des Verstehensvorgang ablaufen, deren Beschreibung und Simulation die zentralen Problembereiche der CL bilden (Bátori 1982 b). Insbesondere wurden zwei Prozeßarten auseinandergehalten und weiter problematisiert: 1. die Syntaxparser und 2. die semantischen Interpreter. Die CL präsentiert Lösungen für linguistische Probleme, die bis dahin ungelöst oder unbeachtet blieben, erstmalig in dem Bereich des Parsings. Winograds SHRDLU, Woods LUNAR, Quillians SEMANTISCHE NETZE, das REQUEST System von Plath und Petrick erweckten recht früh Interesse, bereits am Ende der 6 0er Jahre/am Anfang der 70er Jahre auch außerhalb der engeren Fachkreise, vor allem unter Psychologen und Psycholinguisten, als Modelle für die menschlichen Sprachverstehensprozesse. Auch wenn die Sprachverstehensproblematik weiterhin als unbewältigt angesehen werden muß (vgl. Art. 23), ist hier zu registrieren, daß über die Disziplingrenzen hinweg anregende Impulse der CL der psycholinguistischen Forschung gegeben worden sind. Die interdisziplinäre Zusammenarbeit zur Erforschung des Vorgangs der menschlichen Sprachanwendung zwischen Informatikern, Linguisten, Psycholinguisten und Computerlinguisten wurde inzwischen weiter ausgebaut und erstreckt sich auf mehrere sprachliche Beschreibungsdomänen (für die Syntax vgl. Art. 24, für die Semantik Art. 20). Neben dem Modellieren des sprachlichen Verstehensprozesses wird auch die Problematik der Spracherzeugung behandelt (Art. 36 ). Die CL ist heute untrennbar in den neu entstandenen Wissenschaftsverband Cognitive Science eingebunden. Für die Psycholinguisten handelt es sich vor allem um den Aussagewert der Computersimulation für die psychologische Wirklichkeit des Menschen. Wie weit die Regeln eines Simulationsmodells Schlüsse über die Beschaffenheit von kognitiven Strukturen zu ziehen erlauben, ist eine methodologische Frage, die allerdings in der CL nicht beantwortet werden kann. Nichtsdestoweniger bleibt die Simulation von kognitiven und sprachlichen Prozessen auch für die CL eine Herausforderung. 3.6.2. Prozeßbeschreibung und Streben nach Eigenständigkeit Die Prozeßproblematik in den Sprachverstehenssystemen besaß eine größere Wichtig-

12

keit, als dies am Anfang eingeschätzt worden ist. Anfangs neigte man dazu, die eigentliche linguistische Formulierung in der statischdeskriptiven Deskription zu sehen, die noch für die Computer in eine algorithmisch-programmierte Form umgesetzt werden muß. Später begriff man jedoch, daß die algorithmische Form gleichrangig ist und eigene, wichtige Gesetzmäßigkeiten aufweist, die nicht von der (statischen) Strukturbeschreibung abgeleitet werden können. Eine prominente Rolle spielten in diesem Zusammenhang die Netzwerke, die die Repräsentation und die (simulative) Realisierung der sprachlichen Prozesse ermöglichten. So sind die vor allem LISP-basierten ATNImplementierungen in den 70-er Jahren mehr oder weniger zur Standard-Darstellungsform für die Syntax in der CL geworden. Die Beschäftigung mit den Sprachverstehenssystemen zeigte, daß es eine zwingende direkte Korrespondenz zwischen der linguistisch-theoretischen Beschreibung und der Modularisierung der Sprachverstehenssysteme nicht gibt. Vor allem können in einem Sprachverstehenssystem Moduln vorkommen, z. B. Optimierungskomponenten u. ä., die in der linguistischen Deskription gänzlich fehlen. Es stellte sich heraus, daß die Sprachverstehensproblematik zwar die linguistische Deskription voraussetzt, sich aber daraus mechanisch nicht ableiten läßt. Die Modularisierung eines Diskurs-Modells und die linguistische Repräsentation hierfür sind keineswegs isomorph (von Hahn 1986, 522). Die Beschäftigung mit den FA-Systemen führte des weiteren zu der Einsicht, daß sich die Sprachsynthese nicht als einfache Inverse der Analysekomponente begreifen läßt, eine eigenständige Problematik besitzt und als ein autonomes Modul aufgenommen werden muß (vgl. Art. 36 ). Die Sprachverhaltensproblematik warf außerdem auch eine Reihe von Fragen auf, die vorangehend in der Linguistik nicht behandelt worden sind. Ein Teilbereich der Verstehensproblematik, vor allem die Frage des strategischen Vorgehens im Sprachverstehen, berührte die Psycholinguistik (Thompson 1983). Das Problem der satzübergreifenden Zusammenhänge wurde in der jungen Textlinguistik (gleichzeitig mit der CL) in Angriff genommen. Schließlich lagen die unumgänglichen Fragen der Kommunikation und der Dialogsteuerung offen, sie sind in der Linguistik nicht problematisiert worden, man konnte hier am ehesten noch von der Seite der Kommunikationswissen-

I. Computational Linguistics I: Development

schaft Vorleistungen erwarten. Die Nachbarschaft zur Psycholinguistik und der besondere Bezug zur Kommunikationswissenschaft stärkten die Eigenständigkeit der CL gegenüber der Linguistik. 3.6.3. Inkrementelle Modellierung Martin Kays Konzept der Unifikationsgrammatiken und die hierdurch inspirierte Lexikalisch-Funktionale Grammatik (= LFG) ist in ihrer Tragweite für die CL mit Chomskys Compilermodell vergleichbar (für die LFG vgl. Art. 18 und 32). Während aber Chomsky mit einem axiomatischen System arbeitete (siehe 3.4.), bleibt Kays Modell partiell definiert, d. h. die Grammatiken (Sprachbeschreibungen) werden nicht voll im Voraus bestimmt, sondern sie werden, je nach Bedarf, inkrementell erweitert (vgl. auch Kempen/Hoenkamp 1982). Die Verarbeitung von unvollständigem und unsicherem Wissen führte ebenfalls zur inkrementellen Modellierung. Die inferenzielle Erweiterung der Wissensbasis (mit Rückgriff auf die nicht-monotonen Logiken), so daß dabei trotz interner Inkonsistenzen, Inkompatibilitäten und Widersprüche stets ein lauffähiges System erhalten bleibt, ist nur im Rahmen eines offenen, partiell definierten, erweiterbaren Systems vorstellbar. Die Entwicklung der inkrementellen Systeme hängt entscheidend mit den sog. ’KI Programmiersprachen’ wie LISP, PROLOG oder SMALLTALK zusammen, die diese inkrementelle Flexibilität aufbringen. Compiler-Generatoren können programmiert werden, die den formalen Aufbau der Grammatik übernehmen und den Linguisten entlasten. Das Unifikationsprinzip beruht auf der Erweiterbarkeit: Im Prinzip lassen sich neue Elemente dem System stets zufügen, wodurch Änderungen, Korrekturen oder neue Leistungen des Systems bewirkt werden können, die also nicht im voraus definiert (oder vorhergesehen) werden müssen. Das Denken in der CL (das ’Paradigma’ der CL im Sinne von Thomas Kuhn) wird heute durch inkrementelle Systeme geprägt. 3.6.4. Rückbesinnung auf die Informatik: CL und KI Die sprachorientierte KI-Forschung brachte für die CL — über die Klärung allgemeiner Feldabgrenzungsfragen hinaus (siehe 2.4.) — eine Reihe von neuen Impulsen:

1.  Allgemeine Entwicklung der Computerlinguistik

(1) Die KI-Orientierung bedeutet für die CL eine (notwendige) Rückbesinnung auf die Informatikgrundlagen, daß nämlich ihre Interdisziplinarität sie zu einer Doppelkompetenz (in Linguistik und Informatik) verpflichtet. (2) Die KI-Orientierung richtete die Aufmerksamkeit auf die linguistische Problematik der Wissensrepräsentation überhaupt. Wissensverarbeitung liegt zwar außerhalb der Zuständigkeit der Linguistik, sie ist jedoch unerläßlich für die sprachliche Informationsverarbeitung. (3) Textgenerierung (Antwortgenerierung) wurde als eine eigenständige Komponente des Sprachverstehenssystems entwickelt. (4) Während die CL die Modularisierung der Systeme anstrebte und mit einer Reihe von Repräsentationsebenen und autonomen Moduln operierte, bringt die KI integrierte Systeme in den alle Elemente der Problemlösung verbunden sind. Dem generellen holistischen Vorgehen entsprechend erfolgt die Modularisierung der Systeme in der KI ohne explizite Festlegung einer linguistischen Ebene und ohne besondere linguistisch motivierte Systemkomponenten (Wahlster 1982 a). Eine denkbare Herausisolierung der Lexikonkomponente oder des Syntaxparsers in einem KI-System wird durch Streben nach höherer Effizienz begründet und nicht, wie in der CL, durch die linguistischen Problemgliederung.

4.

CL — Teildisziplin oder Metadisziplin?

Die Diskussionen am Anfang der 80-er Jahre, die in Zusammenhang mit dem Einzug der CL in die akademische Lehre geführt worden sind, brachten neue Anstöße für die Präzisierung der Feldbeschreibung der CL und für ihre Verselbständigung generell (Bátori/Krause/Lutz 1982). Die systematische Bestandsaufnahmen der CL erwies sich als wichtig nicht nur für die Nachwuchsausbildung, sondern sie ist auch unerläßlich für den wissenschaftlichen Fortschritt überhaupt. Unter der Bezeichnung Computerlinguistik wird ein inhärent interdisziplinäres, jedoch eigenständiges Forschungsfeld zwischen Linguistik und Informatik zusammengefaßt. Die CL verfolgt linguistische Erkenntnisinteressen: Ihr Objektbereich umfaßt die Sprachanwendungsprozesse, insbesondere die Problematik der Mensch-Ma-

13

schine-Interaktion in informationsverarbeitenden Systemen (Winograd/Flores 1986 ). Die CL strebt über die Erstellung einer expliziten und umfassenden Beschreibung hinaus auch die Simulation dieser Prozesse an. Die Methoden der CL sind formal und algorithmisch und die Erkenntnisse selbst dienen als Grundlage für natürlichsprachlich orientierte Computeranwendungen. Die CL erreicht eine neue Qualitätsstufe vor allem dadurch, daß sie die für Methodenwissenschaften wie die Linguistik unerläßliche Reflexion über den Zusammenhang zwischen Methoden und Ergebnissen in einem einheitlichen Rahmen durchführt, in dem Forschungsziele, -methoden und -ergebnisse rekursiv integriert sind. Die Behauptung der Eigenständigkeit der CL mit Hervorhebung der erbrachten oder erhofften Leistungen ist auch für die förderungspolitische Ebene wichtig, während auf der epistemologischen Ebene die Ausstrahlung des Feldes auf andere Erkenntnisdomänen und ihr Einfluß auf den allgemeinen Fortschritt entscheidend ist. Daher ist es in der jüngsten Phase der CL positiv zu registrieren, daß die Isolation der CL durchbrochen wird und die Kommunikation zwischen CL und den anderen wissenschaftlichen Disziplinen, vor allem mit der Linguistik, nicht mehr einseitig verläuft, wie noch in den 70-er Jahren (Mey 1971; Kanngießer 1976 , 140), sondern in beiden Richtungen. (1) Als erste erweckten die Sprachverstehenssysteme mit ihren explizit und algorithmisch formulierten Regeln fachübergreifendes Interesse, vor allem unter den Psychologen und Psycholinguisten (vgl. 3.6.1.). (2) Die wachsende Komplexität der Grammatikmodelle führte dazu, daß sie mit ’Bleistift und Papier’, also mit herkömmlichen philologischen Arbeitsmitteln, nicht mehr effektiv erprobt (verfiziert und falsifiziert) werden konnten. Dies ergab sich bereits bei der generativen Transformationsgrammatik (vgl. Art. 22). Noch schwieriger erwies sich die Entwicklungsarbeit bei den nachfolgenden Grammatikgenerationen. Die Unifikationsgrammatiken, insbesondere die LFG und die GPSG (Generalised Phrase Structure Grammar), die heute zu den anspruchsvollsten linguistischen Vorhaben zählen, existieren nur in computer-implementierter Form, denn sonst wäre die Konstruktion von interessanten, größeren Grammatikmodellen praktisch undurchführbar (vgl. Art. 32).

I. Computational Linguistics I: Development

14

David G. Hays (so in einem Gespräch auf der COLING 1986 in Bonn) erkennt hier den Beginn einer neuen Phase der Linguistik, symptomatisch für die Entwicklung der Wissenschaft überhaupt, die dadurch charakterisiert wird, daß sich die Forschungsinteressen nicht mehr direkt auf die Objekte richten, sondern um eine Abstraktionsstufe höher, rekursiv auf ihre Beschreibungsmodelle. Die Computerlinguistik sei in unseren Tagen nicht nur ein integrierter Teil der Linguistik geworden, sondern gleichzeitig ihre höchste Manifestation.

2.

1. 1.1. 1.2.

2.

3.

4.

1.

5.

Literatur (in Auswahl)

ALPAC-Report 196 6 a · I. S. Bátori 1977a · I. S. Bátori 1982b · I. S. Bátori/J. Krause/H. D. Lutz 1982 · N. Chomsky 196 3 · R. Dietrich/W. Klein 1974 · P. Eisenberg 1978 · R. Grishman 1986 · W. von Hahn 1986 · D. Hays 196 6 · D. Hays 196 7 · P. Hellwig 1983 · M. Kay 1984 · F. Kiefer 196 8 · D. Krallmann · W. Lenders 1972 a · W. Lenders 1980 · R. Mey 1971 · Thompson 1983 b · G. Ungeheuer 1971 · T. Winograd 1983.

István S. Bátori, Koblenz(Bundesrepublik Deutschland)

Überblick über die Wissenschaftsorganisation und Forschungseinrichtungen der Computerlinguistik in den westlichen Ländern Betrachtungsbereich und Darstellungsmethode Einzugsbereich der Darstellung Informationsbeschaffung, Informationsreduktion und Informationsdarstellung Fachinstanzen der Computerlinguistik: Von der internationalen zur nationalen Organisationsebene Forschungseinrichtungen der Computerlinguistik in den westlichen Ländern Literatur (in Auswahl)

Betrachtungsbereich und Darstellungsmethode

Bei der Aufgabe, in einem Handbuchartikel eine Übersicht über die Wissenschaftsorganisation und die Forschungseinrichtungen der Computerlinguistik in der westlichen Welt zu geben, erscheint allenfalls auf den ersten Blick die Vollständigkeit als Hauptproblem; sie wird sehr bald vom Problem einer sachdienlichen Informationsreduktion überlagert. Machbarkeit und Gebrauchswert der Übersicht ergeben sich aus der Art dieser Informationsreduktion. Darum wird zunächst der Einzugsbereich der Darstellung erläutert. Dann wird die Informationsauswahl beschrieben, die zu dem hier präsentierten Bild der computerlinguistischen Forschungslandschaft geführt hat.

1.1. Einzugsbereich der Darstellung 1.1.1. Definition der Computerlinguistik Was Computerlinguistik ist, ist umstritten. Einen Eindruck von der Verschiedenheit der Auffassungen gewinnt man schon, wenn man beispielsweise Krause 1984 a, Goodwin/ Hein 1982, Dietze et al. 1983 und Lenders 1980 heranzieht, die zudem nicht explizit von Computerlinguistik handeln, sondern das zur Diskussion stehende Gebiet Linguistische Datenverarbeitung nennen bzw. zwischen Linguistik und Künstlicher Intelligenz ansiedeln. Für den Gebrauch in dieser Übersicht wurde die Auffassung von Computerlinguistik, die diesem Handbuch zugrunde liegt, aus der Wissenschaftsorganisation heraus operationalisiert als Aufzählung einschlägiger Kommunikationsmedien (Konferenzen und Zeitschriften), die wichtige Instanzen in der fachlichen Meinungsbildung sind und in den meisten Fällen in Zusammenhang mit Fachverbänden stehen. Computerlinguistik ist für den Gebrauch in dieser Übersicht, was über diese fachlichen Kommunikationsmedien vermittelt wird. Wo Obermengen der Computerlinguistik behandelt werden (etwa Computeranwendungen in den Geisteswissenschaften oder die gesamte Künstliche Intelligenz), werden nur die sprachbezogenen Beiträge berücksichtigt. Damit vertraut man nicht nur den Medien der Fachkommunikation die Definition der

2.  Computerlinguistische Forschungen im Überblick

Computerlinguistik im Detail an, man macht sich auch ihre qualitative Auswahl der Beiträge zunutze. Die Annahme ist dabei, daß sie im weltweiten Maßstab noch am besten die Gewähr für eine relative Homogenität der Daten bieten. 1.1.2. Zeitlicher Bezugsrahmen In einem Handbuch sollen aktuelle, aber nicht ahistorische und kurzlebige Angaben stehen. Darum empfiehlt sich weniger als in der laufenden Berichterstattung über die Forschung eines Faches das aufwendige Verfahren der direkten Datenerhebung. Eine Sekundäranalyse von aktuellen Medien der Fachkommunikation (hier ab 1980) sorgt für ein Minimum an historischer Perspektive. So ist für eine über den Augenblick hinaus brauchbare Dokumentation der Forschungsleistungen und -themen einzelner Institute gesorgt. 1.1.3. Geographischer Einzugsbereich: Die westlichen Länder Westliche Länder sind in der pragmatischen und kulturgeschichtlich orientierten Auffassung dieser Übersicht zunächst die Gebiete Europas, deren Bewohner germanische und romanische Sprachen sprechen. Finnland wurde der westlichen Welt zugeschlagen, die Deutsche Demokratische Republik ebenso, Rumänien wurde zur östlichen Hemisphäre gerechnet. Alle nichteuropäischen Gebiete, die germanische und romanische Amtssprachen haben, werden ohne Rücksicht auf aktuelle politische Verhältnisse als westliche Länder angesehen, also ganz Amerika und Australien. In Afrika und Asien ist die Unterteilung in westliche und östliche Länder kaum sinnvoll durchzuführen. Die Länder Afrikas, aus denen sehr wenig computerlinguistische Forschung zu uns dringt, wurden den westlichen Ländern zugeschlagen, ebenso Israel. Die sehr aktive Computerlinguistik im Fernen Osten, besonders in Japan, macht aber vollends deutlich, daß eine Dichotomie von östlicher und westlicher Hemisphäre der Computerlinguistik-Welt nicht (mehr) angemessen ist. Der Ferne Osten wurde nicht zu den westlichen Ländern gerechnet. 1.1.4. Maßstab der Darstellung Da sich ein sehr großer Teil der computerlinguistischen Forschung in der westlichen Welt abspielt und damit Gegenstand der Beschreibung ist, muß ein flächiges Bild der

15

Forschungslandschaft in der Computerlinguistik gezeichnet werden. Als grobes Maß für die Auswahl der Kommunikationsmedien wird Nordamerika benutzt: Was im Einzugs- bzw. Verbreitungsbereich mindestens den USA entspricht, wird herangezogen. Wenn Angaben aus Sekundärquellen ergänzt werden, wird die internationale Perspektive soweit wie möglich beibehalten. 1.1.5. Wissenschaftsorganisation und Informationsorganisation An der Organisation einer Wissenschaft wirken im wesentlichen vier Typen von Instanzen mit: (1) Forschungseinheiten, Lehreinheiten, Studiengänge etc.; (2) Fachorganisationen, Verbände, Komitees usw., in denen einzelne Wissenschaftler(innen) oder Forschungseinheiten Mitglieder sind; (3) Medien der fachlichen Information und Kommunikation (Zeitschriften, Tagungen, Serien, Newsletter, Monographien usw.); (4) wissenschaftspolitische Einrichtungen, Organisationen der Forschungsförderung etc. Die Computerlinguistik ist unter anderen Wissenschaften ein junges, kleines und noch wenig konsolidiertes Fachgebiet. Wissenschaftspolitisch kommt der Computerlinguistik keine Sonderrolle zu, weder durch großen Forschungsumfang noch durch besondere politische Bedeutung. Computerlinguistik ist in der Forschungsförderung eine Disziplin unter vielen, im Überlappungsbereich verschiedener älterer Disziplinen gelegen. Aus wissenschaftspolitischer Sicht erschwert dieser Zustand den Umgang mit der Computerlinguistik und mindert den Einfluß wissenschaftspolitischer Instanzen. Dementsprechend ist die Rolle von Institutionen der Forschungsförderung und der Wissenschaftspolitik im Selbstverständnis der Computerlinguistik relativ bescheiden. Was Computerlinguistik ist, wird in der Hauptsache in den E inrichtungen der Forschung und Lehre definiert. Die dort tätigen Wissenschaftler(innen) artikulieren sich in den Medien der wissenschaftlichen Kommunikation: Konferenzen, Zeitschriften und anderen Publikationen. Deren Funktionstüchtigkeit und Kontinuität wird oft von Fachverbänden gewährleistet. Damit sind die Prioritäten für die Charakterisierung der Wissenschaftsorganisation der Computerlinguistik gesetzt: vorrangig sind die Forschungseinheiten darzustellen, da-

16

neben sind die Fachorganisationen mit den meist von ihnen getragenen Foren der fachlichen Diskussion (Konferenzen, Zeitschriften etc.) festzuhalten. E inheiten der Forschung und Lehre gibt es in der Computerlinguistik in großer Zahl. Ihre Beschreibung macht den Löwenanteil einer Dokumentation der Wissenschaftsorganisation in der Computerlinguistik aus. Der wesentliche Gesichtspunkt für ihre Charakterisierung ist ihre Forschungsarbeit. Da eine große Zahl von Einheiten unter demselben Gesichtspunkt zu beschreiben ist, ergibt sich als natürliche Form der Informationsdarstellung eine Liste. Diese Liste der Forschungseinrichtungen wird geographisch geordnet, damit ein Überblick über die westlichen Länder zustande kommt. Die Anzahl der Fachorganisationen und fachlichen Kommunikationsmedien ist viel geringer als die der Forschungseinrichtungen. Da die meisten im nationalen Rahmen arbeiten, werden sie am Beginn der Teilliste über einen Staat eingetragen. Interessiert man sich für die Wissenschaftsorganisation der Computerlinguistik im weltweiten Maßstab, dann kommt den internationalen Fachinstanzen besondere Bedeutung zu. Sie existieren naturgemäß in überschaubarer Anzahl, so daß eine Beschreibung möglich ist, die über eine Auflistung hinausgeht. Für nationale Fachorganisationen ist eine solche Beschreibung im hier vorgegebenen Rahmen schon nicht mehr machbar. Um einen Eindruck von der Wissenschaftsorganisation der Computerlinguistik im landesweiten und länderübergreifenden Bereich zu geben, wird darum ein Ausschnitt skizziert, der von den internationalen Fachinstanzen ausgeht und die nationalen Verbände am Beispiel der Bundesrepublik Deutschland erreicht. 1.2. Informationsbeschaffung, Informationsreduktion und Informationsdarstellung 1.2.1. Zentrale Medien computerlinguistischer Fachkommunikation als Instanzen der Informationsselektion Aufgrund vielfacher Beobachtung wird in diesem Artikel pragmatisch angenommen, daß ‚Zentralorgane’ der computerlinguistischen Forschung existieren, in denen die wesentlichen Inhalte computerlinguistischer Forschung zumindest auch erscheinen. Die Einschränkung des Betrachtungsbe-

I. Computational Linguistics I: Development

reiches auf zentrale Kommunikationsorgane des Faches macht einen Überblick über die Forschungseinrichtungen der Computerlinguistik in den westlichen Ländern machbar. Es wird jedoch nur der Teil der in den Forschungseinrichtungen erbrachten Forschungsleistung sichtbar, der in den zentralen Medien der Computerlinguistik publiziert wurde. Weitere Forschungsarbeiten zu gleichen oder anderen, eventuell weniger explizit computerlinguistischen Themen werden in Berichten, bei lokalen oder regionalen Kongressen, in Publikationsorganen mit weniger ausgeprägtem computerlinguistischem Schwerpunkt, anderen Typs (z. B. Monographien) oder auch in Publikationen der östlichen Länder mitgeteilt. Die Basis der Beschreibung ist also nicht vollständig, sondern thematisch-indikativ. Die zentralen Informationsmedien der Computerlinguistik wurden nach folgendem Verfahren ermittelt: Die Informationssuche mit — Bibliographie Linguistischer Literatur — Bulletin signalétique — Computers and Information Systems Abstracts — Current Contents Linguistics — Infodata — Language and Language Behaviour Abstracts — The Years’s Work in Modern Languages Studies erbrachte sehr viele Literaturhinweise. Sie wurden unterschiedlichen Literaturtypen zugeordnet. Die Literaturtypen wurden auf ihre Definitionskraft für das Fachgebiet sowie auf ihre Fähigkeit untersucht, Forschungsergebnisse schnell zu berichten und in großer Breite zu bündeln. Weil Tagungen mit ihren Proceedings und Zeitschriften Forschungsergebnisse in verhältnismäßig großen Umfängen und mit relativ hoher Geschwindigkeit umschlagen, sind sie als Basis für eine Darstellung der in der Computerlinguistik aktiven Forschungseinrichtungen besonders geeignet. Große Konferenzen und eingeführte Zeitschriften des Faches haben auch einen hohen Stellenwert bei der Bestimmung des fachlichen Selbstverständnisses. Nach dem computerlinguistischen Anteil in ihrem Berichtsbereich und Einzugs- bzw. Verbreitungsgebiet wurden folgende ‚zentrale Informationsmedien’ der Computerlinguistik ausgewählt und für die weitere Bearbeitung zugrunde gelegt:

2.  Computerlinguistische Forschungen im Überblick

— American Association for Artificial Intelligence: AAAI-Conference (zitiert als AAAI82, AAAI83, AAAI84) Annual Meeting of the Association for Computational Linguistics (ACLP80, ACLP81, ACLP82, ACLP83) — Association for Computational Linguistics: European Chapter: Conference (ACL/ EC83) — European Conference on Artificial Intelligence (ECAI82, ECAI84) — International Conference on Computers in the Humanities (CHP 81, CHP83) — International Conference on Computational Linguistics (COLING) (COL80, COL82, COL84, COL86) — International Joint Conference on Artificial Intelligence (IJCAI81, IJCAI83, IJCAI85) — American Journal of Computational Linguistics (AJCL) bis 1983 — Computational Linguistics (CL) ab 1984 — Artificial Intelligence (AI) — Association for Literary and Linguistic Computing: Bulletin (ALLCB), bis 1985 — Association for Literary and Linguistic Computing: Journal (ALLCJ), bis 1/1985 — Literary and Linguistic Computing (LLC) ab 1986 — Computers and the Humanities (CHUM) — Hebrew Computational Linguistics (HCL) — Linguistica computazionale (LCPisa) — Multilingua (MUL) — Sprache und Datenverarbeitung (SDV) — t. a. informations (TA) (bis 1/1984) Beschaffungsprobleme machten kleinere Konzessionen bei der Bearbeitung dieser Datengrundmenge erforderlich. Die schwerwiegendste betrifft die internationalen Konferenzen der ALLC. Die Beiträge der ALLCKonferenz von 1981 wurden im ALLC-Bulletin veröffentlicht, die von 1982 in Linguistica Computazionale. Die Proceedings sind für den Zeitraum nach 1982 bibliographisch nicht aufzufinden, sicher teilweise, weil sie mit relativ großem Verzug erscheinen. Aus sonstigen Quellen ergänzt wurden die Angaben über Frankreich, um die relativ schwache Repräsentation der französischen Computerlinguistik-Forschung im internationalen Rahmen auszugleichen. Benutzt wurde: — La recherche française par ordinateur en langue et littérature, Hsg.: Charpentier, C.; David, J., Genève 1985 (ALLCF83). Aus demselben Grund wurde die Zeit-

17

schrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung (ZPSK) ergänzend herangezogen, um zu einem brauchbaren Bild der Computerlinguistik in der Deutschen Demokratischen Republik zu kommen. Auch sonst wurden im Einzelfall sekundäre Datenquellen genutzt, besonders die Berichte der ALLC-Repräsentanten. Sie sind im ALLC-Bulletin abgedruckt. 1.2.2. Informationsdarstellung: Auflistung der Forschungseinrichtungen und Karten der Computerlinguistik-Forschung Die Konferenz- und Zeitschriftenbeiträge aus den genannten Organen wurden der vom Autor angegebenen institutionellen Adresse zugeordnet. Beiträge von mehreren Autoren wurden wenn nötig bei mehreren Forschungseinrichtungen eingetragen. Es wurde darauf geachtet, daß jeweils zumindest der erstgenannte Autor in der Forschungseinrichtung beheimatet ist, bei der der Beitrag genannt wird. Die Forschungsthemen wurden zusammengefaßt, wo dies möglich erschien. So entstand eine Beschreibung der aktiven Forschungseinrichtungen, die sich auf die publizierten Forschungsarbeiten seit 1980 stützt. Die Liste der Forschungseinrichtungen ist geographisch und alphabetisch nach Erdteil, Land, Ort und Namen der Forschungseinheit geordnet. Zu Beginn des Abschnittes über ein Land werden Zeitschriften, regelmäßige Konferenzen und Fachverbände aufgeführt. In der darauf folgenden Liste der Forschungseinrichtungen werden bei Universitäten und ähnlich komplexen wissenschaftlichen Institutionen die vorkommenden Untergliederungen aufgelistet. Für eine systematische Zuordnung von Forschungsleistungen zu einzelnen Instituten, Lehrstühlen etc. reichten die Daten nicht aus. Die Beschreibung der Forschungseinrichtungen konzentriert sich auf deren veröffentlichte Forschungsleistung. Über ihre Lehraktivitäten unterrichtet im weltweiten Maßstab eine Liste computerlinguistischer Studiengänge von Evans/Karttunen 1983. Für die Bundesrepublik Deutschland kann man Lutz-Hensel 1985 heranziehen. Den besten Überblick über die computerlinguistische Forschungslandschaft der westlichen Welt vermitteln die Karten. Sie richten sich nach den Ballungsgebieten der computerlinguistischen Forschung und zeigen Ame-

I. Computational Linguistics I: Development

18

rika, Europa mit Israel und Afrika sowie Australien. Die vorkommenden Forschungsthemen wurden grob klassifiziert und auf dieser Basis codiert (vgl. die Legende zu den Karten). Die Orte computerlinguistischer Forschung wurden mit den Symbolen für die lokalen Forschungsthemen in die Karten eingetragen. Da die Karten auf einer Grobgliederung der wichtigsten vorkommenden Forschungsthemen beruhen, ersetzen sie auch ein thematisches Register zu der geographischen Liste der Forschungseinrichtungen. Man verschafft sich einen Überblick über die aktuelle wissenschaftliche Diskussion zu einem Thema, indem man auf den Karten die Orte feststellt, bei denen das Symbol für das interessierende Thema eingetragen ist. In der Liste der Forschungseinrichtungen finden sich bei den am Ort beheimateten Forschungseinrichtungen die differenzierter benannten Forschungsthemen mit bibliographischen Angaben, die auf eines der in Abschnitt 1.2.1. aufgeführten zentralen Medien der Computerlinguistik verweisen.

2.

Fachinstanzen der Computerlinguistik: Von der internationalen zur nationalen Organisationsebene

Gerade in einem Gebiet, das so viele unterschiedliche wissenschaftliche Auffassungen kennt wie die Computerlinguistik, ist die Orientierungsleistung koordinierender Instanzen der Wissenschaftsorganisation nützlich. Das International Committee on Computational Linguistics (ICCL) übt als internationalste Instanz der Computerlinguistik einen sehr weitreichenden Einfluß aus. Seine derzeitigen Mitglieder sind: D. Hays, E. Hajicova, B. Harris, K. Heggstad, M. Kay, H. Karlgren, O. Kulagina, W. Lenders, M. Nagao, G. Rondeau, H. Schnelle, P. Sgall, H. Wada, D. Walker, Y. Wilcks und A. Zampolli. Die von diesem Komitee alle zwei Jahre organisierte International Conference on Computational Linguistics (COLING) ist ein zentraler Bezugspunkt für das Selbstverständnis der Computerlinguistik. Die Association for Literary and Linguistic Computing (ALLC) steht für eine Computerlinguistik im geisteswissenschaftlichen Umfeld, das sich auf die Philologien (einschließlich Literaturwissenschaften) konzentriert.

Die ALLC erreicht mit ihren Konferenzen, ihren Publikationen (besonders mit Literary and Linguistic Computing und den Vorläuferzeitschriften) und ihrem internationalen Netz von ALLC-Repräsentanten von Großbritannien aus weltweit ihr Publikum. Sie kommt der funktionellen Leistung eines weltweiten Fachverbandes der Computerlinguistik am nächsten. Einen Überblick über die von der ALLC veranstalteten Tagungen und Summer Schools, die eindrucksvolle Liste ihrer Specialist Groups und die gesamte erste Dekade der ALLC vermittelt Smith (ALLCB 12 (1984) 9—17). Die Vorgeschichte der ALLC-Gründung im Jahr 1973 führt vor allem nach Cambridge in das Literary and Linguistic Computing Centre und damit in eine Umgebung, in der die Computerlinguistik aus der philologischen und textwissenschaftlichen Perspektive gesehen wurde. Diese Grundorientierung vertritt die ALLC noch heute. Die amerikanische Association for Computational Linguistics (ACL) versteht sich als ein internationaler Fachverband, der aus praktischen Gründen die überwältigende Mehrzahl seiner Mitglieder in den USA hat und dort arbeitet. Seit der Gründung eines European Chapter 1983 ist die ACL dem Status eines internationalen Verbandes der Computerlinguistik ein großes Stück näher gerückt. Mit über 196 0 persönlichen und 320 institutionellen Mitgliedern (ACL Membership List 1985, CL 11 (1985) 4, 272—298) ist die ACL sicher der größte nationale ComputerlinguistikVerband der westlichen Welt. Die Anfänge der späteren ACL lassen sich zurückverfolgen bis zu den Anfängen der Automatischen Übersetzung. Bar-Hillel organisierte 1952 mit der ‚MIT-Conference on Mechanical Translation’ die erste internationale Computerlinguistik-Konferenz. 18 interessierte Wissenschaftler aus den USA und aus Großbritannien nahmen teil (Ingve, ACLP82, 89—90). 1954 entstand die Zeitschrift ‚Mechanical Translation’. Erste Überlegungen, eine Fachgesellschaft zu gründen, wurden erst 196 2 mit der Gründung der ‚Association for Machine Translation and Computational Linguistics’ realisiert. Die spätere ACL begann gleich mit der Veranstaltung von Jahreskonferenzen in Kooperation mit der Linguistic Society of America (LSA), der Association for Computing Machinery (ACM), der American Society for Information Science (ASIS) und der Cognitive

Karte 2.1: Forschungseinrichtungen der Computerlinguistik: Amerika

2.  Computerlinguistische Forschungen im Überblick

Science Society. Von 196 5—1970 gab die ACL ‚Mechanical Translation’ heraus. 1974 wurde die Zeitschrift durch das American Journal of Computational Linguistics ersetzt, das seit 1984 Computational Linguistics heißt. 196 5 fand anstelle der ACL-Tagung zum ersten Male COLING statt. Die ACL ist nicht nur die größte, sondern auch die traditionsreichste computerlinguistische Fachgesellschaft. Die Association for Computers and the Humanities (ACH) mit ihren Konferenzen und den zu ihr gehörenden Publikationsorganen (Computers in the Humanities, ACHNewsletter) stellt die Computerlinguistik in den weiten Zusammenhang der geisteswissenschaftlichen Forschung mit Bezug zur Informatik. Zahlreiche weitere internationale Fachverbände tragen zur Bestimmung der Computerlinguistik aus ihrem fachlichen Blickwinkel bei: Bei den großen KI-Konferenzen wie der International Joint Conference on Artificial Intelligence (IJCAI) oder den Tagungen der American Association of Artificial Intelligence (AAAI) wird die Computerlinguistik am nachdrücklichsten in die fachliche Umgebung der Informatik, besonders der Künstlichen Intelligenz und auch der Kognitionswissenschaft gestellt. Damit werden die Elemente betont, die die Computerlinguistik mit nicht im klassischen Sinne geisteswissenschaftlichen Disziplinen verbinden. Ein weiteres Beispiel ist die Fédération Internationale de Documentation mit ihrem Komitee ‚Linguistics and Documentation’. Hier werden die informationswissenschaftlichen Aspekte der Computerlinguistik herausgearbeitet. Die meisten wissenschaftlichen Gesellschaften und anderen Gruppen arbeiten schon aus praktischen Gründen in kleineren politisch-geographischen Räumen, die sich oft aus sprachlichen und/oder politischen Einteilungen herleiten. Oft ist der Aktionsradius eines Verbandes mit dem Gebiet eines Staats gleichzusetzen. Die Wissenschaftsorganisation der Computerlinguistik nimmt sich jedoch ihre Freiheiten im Verhältnis zur staatlichen Organisation. Eine systematische Trennung nationaler und internationaler Organisationsstufen kennt sie ebensowenig wie andere Disziplinen: Fachverbände nehmen normaler-

19

weise ausländische Mitglieder auf. Nationale Fachvereinigungen können auch in großen Ländern wie Italien ganz fehlen, ohne daß dadurch ein ersichtlicher Schaden entstünde. Dagegen wird in einem viel kleineren Land wie Dänemark eine landesinterne Diskussion kontinuierlich geführt. Auch in benachbarten Staaten kann der Wunsch nach engerer fachlicher Zusammenarbeit organisierte Formen annehmen: So manifestiert Skandinavien unter anderem sein computerlinguistisches Eigenleben durch die regelmäßige Nordic Conference on Computational Linguistics und die Nordic Summer School in Computational Linguistics. In den einzelnen Ländern gibt es unter Umständen verschiedene Gruppierungen, deren Mitglieder unterschiedliche Sichten auf die Computerlinguistik vertreten. So finden sich in der Bundesrepublik Deutschland neben der Gesellschaft für Linguistische Datenverarbeitung (GLDV) weitere Fachverbände, die an der computerlinguistischen Diskussion unterschiedlich aktiv teilnehmen: — die Gesellschaft für Angewandte Linguistik (GAL) — die Deutsche Gesellschaft für Sprachwissenschaft (DGFS) — die Gesellschaft für Informatik (GI) mit ihrer Fachgruppe ,Natürlichsprachliche Systeme’ Weitere Diskussionsbeiträge kommen aus anderen Fachverbänden z. B. der verschiedenen Philologien, der Informationswissenschaft usw. Wie in internationalen Fachverbänden wird auch hier die Computerlinguistik oft als Teil anderer Fachgebiete aufgefaßt.

3.

Forschungseinrichtungen der Computerlinguistik in den westlichen Ländern

AFRIKA TUNESIEN Faculté des Sciences Economiques et de Gestion, SFAX — Dept. of Computer Science Kompression arabischer Wörterbücher durch Affixanalyse (Ben Hamadou, A.: COL86, 286—288) AMERIKA ARGENTINIEN Univ. de BUENOS AIRES — Dept. of Mathematics

20

I. Computational Linguistics I: Development

Karte 2.2: Forschungseinrichtungen der Computerlinguistik: Australien (Legende vgl. Karte 2.1)

Logische Repräsentation des Spanischen (Dahl, V.: AJCL 7 (1981) 3, 149—164) KANADA E Z ITSCHRIFT E N, N E WSL E TT E R u. ä.: Canadian Journal of Linguistics E V RBÄND , E E G S E LLSCHAFT N, GRUPP N etc.: Canadian Linguistic Association FORSCHUNGSEINRICHTUNGEN: Brandon Univ., BRANDON Man. — Dept. of Psychology and Computer Science Modellierung emotionaler Spannung in Texten (Anderson, C. W.; McMaster, G. E.: CHUM 16 (1982) 1, 1—9) Simon Frazer Univ., BURNABY BC — Computing Science Dept. — Lab. for Computer and Communications Research Datenbasen und Wissensrepräsentation in den Geisteswissenschaften (Cercone, N.; Goebel, R.: CHUM 17 (1983) 121—137)

Wörterbuch-Design (Cercone, N.; Mercer, R.: ALLCJ 1 (1980) 2, 37—54) Behandlung nicht-singulärer Konzepte (Strzalkowski, T.: COL86, 362—364) Logische Grammatiken: Behandlung der Koordination (Dahl, V.; McCord, M. C.: AJCL 9 (1983) 2, 69—91) Unrestricted Gapping Grammars (Popovich, F.: IJCAI85, 765—768) Univ. of Alberta, EDMONTON Alta. — Dept. of Philosophy — Dept. of Linguistics — Dept. of Computing Science Ordnung von Grammatikregeln (Pelletier, F. J.: COL80, 412 ff.) Repräsentation von Massenbegriffen (Pelletier, F. J.; Schubert, L. K.: COL84, 108—111) Informationsverarbeitung beim Verstehen englischer Relativsätze (Prideaux, G. D.: COL80, 60 ff.) Marcus-Parser (Nozohoor-Farshi, R.: COL86, 533—535) Parsing ambiger Sätze (Schubert, L. K.: COL84, 247—250) Parsing als Übersetzung in logischer Reprä-

Karte 2.3: Forschungseinrichtungen der Computerlinguistik: Europa mit Israel und Afrika (Legende vgl. Karte 2.1)

2.  Computerlinguistische Forschungen im Überblick

sentation (Schubert, L. K.; Pelletier, F. J.: AJCL 8 (1982) 1, 26—44) Univ. of Guelph, GUELPH Ont. Mikrocomputerunterstützter Fremdsprachenunterricht (Paramkos, D. M.: CHP83, 469—473) Canadian Wor kplace Automation Resear ch Centre, LAVAL Que. 1575 Comedey Blvd. Modularität beim Transfer (Isabelle, P.; Macklovitch, E.: COL86, 115—117) Univ. of Western Ontario, LONDON Ont. — Modern Language and Literatures

21

AJCL 8 (1982) 2, 79—84) Subsprache Börsenenglisch: Modell der Text-Bedeutungsrelationen (Kittredge, R.; Mel’cuk, I.: IJCAI83, 657—659) Synthese von Wettervorhersagen (Kittredge, R.; Polguère, A.; Goldberg, E.: COL86 , 563—565) TAUM-AVIATION (Isabelle, P.; Bourbeau, L.: CL 11 (1985) 1, 18—27) Univ. du Québec, MONTRÉAL Que. Analyse formaler Logik (Panccio, C.; v. d. Werken, H.) Semantische Textverarbeitung (Meunier, J. G.: COL80, 359 ff.) APLEC: Textbeschreibung (Plante, P.: COL80, 354 ff.)

Textrepräsentation für das Information Retrieval (Belkin, N. J.; Michell, B. G.; Kuehner, D. G.: ACLP80, 147—148) Deterministisches Parsing in PROLOG (Stabler, E. P.: AAAI81, 383 ff.) Computerunterstütztes Schreiben: COMET (Burghardt, W.: CHUM 18 (1984) 165 ff.) Computerunterstütztes Vokabelnlernen: Französisch (Holmes, G.: CHUM 14 (1980) 2, 105—111)

Terminologieforschung (GIRSTERM) MUL 1 (1982) 4, 249—250 Historische Phonologie: Generieren von Altlatein aus Indo-Europäisch (Maniet, A.: CHP83, 401—405)

Concordia Univ., MONTRÉAL, Que. — Dept. of Computer Science

Univ. of Saskatchewan, SASKATOON Sask. — Dept. of Computational Science

Analyse von gesprochenem Mandarin-Chinesisch (Suen, C. Y.: COL82, 371 ff.) Taxonomie in der Spracherkennung (De Mori, R.; Palakal, M.: IJCAI85, 877—879) Planbasierte Erkennung von verbundenen Phonemsequenzen (De Mori, R.; Mong, Y. F.: AAAI84, 92 ff.) Consultants en linguistique computationelle, MONTRÉAL, Que. MÉTÉO (Thouin, B.: MUL 1 (1982) 3, 159—165)

Textzusammenfassen (Kalita, J. K.; Colbourn, M. J.; McCalla, G. I.: COL84, 432—436)

McGill Univ., MONTRÉAL Que. Verarbeitung von Emblemen (Daly, P. M.: CHUM 19 (1985) 3, 159—166) Univ. de MONTRÉAL Que. — Dept. de Linguistique — Inst. d’Etudes Médievales Konkordanzgestützte thematische Analyse französischer Literatur (Bratley, P.; Fortier, P. A.: CHP83, 18—25) Disambiguierung durch kurze Kontexte (Lusignan, S.; Choueka, Y.: CHUM 19 (1985) 3, 145—158) RESEDA: Wissensrepräsentation in der Geschichtswissenschaft (Faribault, M.; Meissonier, V.; Zarri, G. P.: ALLCF83, 123—132) Nominalkomposita (Isabelle, P.: COL84, 509—516) Subsprachen (Kittredge, R.: COL80, 209 ff.;

Univ. Laval, QUÉBEC — Dept. de Langues et Linguistique

Environment Canada, TORONTO — Atmospheric Environment Service Synthese von Wettervorhersagen (Goldberg, E.; Kittredge, R.; Polguère, A.: COL86 , 563—565) Univ. of Toronto, TORONTO — Dept. of Computer Science — Dept. of Mathematics and Linguistics Statistische Datierung von ShakespeareStücken (Brainerd, B.: CHUM 14 (1980) 221—230) The Dictionary of Old English (Di Paolo Healey, A.: CHP83, 248) Type-Token-Relation in Kierkegaards Werken (Brainerd, B.: CHP81, 97—110) Frequenzverteilung in Textblöcken fester Länge (Brainerd, B.: ALLCF83, 109—122) Analyse von Argumentationsstrukturen (Cohen, R.: COL84, 251—258; ACLP81, 71—76 ) Metatheorie syntaktischer Theorien (Perreault, C. R.: ACLP83, 98—105) Syntaktische Disambiguierung durch Semantik (Hirst, G.: AAAI84, 148 ff.) Indirekte Sprechakte (Perreault, C. R.; Allen, J. F.: AJCL 6 (1980) 3—4, 167 ff.)

I. Computational Linguistics I: Development

22

Becerra, J.; Rangel, J.; Lara, L. F.: COL80, 590 ff.) Diccionario del Español de México, Korpus des mexikanischen Spanisch (Lara, L. F.)

York Univ., Downsview, TORONTO — Glendon College — English Literature Inventar des englischen Prosastils (Cluette, R.) Informationsanalyse: Vom Manuskript zur Fahndung nach Mördern (Gilmour-Bryson, A.: CHP83, 206—213) Editionstechnik (Gilmour-Bryson, A.: ALLCB 10 (1982) 2, 40—47) Univ. of Br itish Columbia, VANCOUVER BC — Dept. of Computer Science — Faculty of Art, Centre for Computing and Data Analysis Italienisch der Mailänder Presse (Ciccione, S.: LCPisa 1 (1981) 117—125) Übersetzung Spanisch-Englisch (Sharp, R.: COL86, 124—126) Wortassoziationstests (Flynn, F. R. J.; Tyhurst, C. H.: ALLCJ 5 (1985) 1—2, 53 ff.) Waterloo Univ., WATERLOO Ont. — Computing Science Dept. Datenbasen und Wissensrepräsentation in den Geisteswissenschaften (Goebel, R.; Cercone, N.: CHUM 17 (1983) 121—137) Sematisch-syntaktische Analyse: Kasusgrammatik (Logan, H. M.; Miller, B. W.: CHP83, 384—390) Univ. of Manitoba, WINNIPEG Man. Konkordanzgestützte thematische Analyse französischer Literatur (Bratley, P.; Fortier, P. A.: CHP83, 18—25) Datenbank der Chanson de geste (Allen, J. R.) Acadia Univ., WOLFVILLE NS — School of Computer Science Fehlerkorrektur durch numerische Klassifikation von Strings (Bradford, J.: COL82, 43 ff.) MEXICO FORSCHUNGSEINRICHTUNGEN: Inst. Tecnológico de CHIHUAHUA Graphen bei der Übersetzung von Assemblern (Clemente-Salazar, M. A.: COL84, 61—64) Colegio de México, MÉXICO D. F. Reduktion von Konkordanzen (Pozzi,

M.;

PERU Inst. Linguistico de Verano, LIMA Quechua: Computerunterstützte Dialektanpassung (Weber, D. J.; Mann, W. C.: AJCL 7 (1981) 3, 165—177) USA VERBÄNDE, GESELLSCHAFTEN, GRUPPEN etc.: Association of Computational Linguistics (ACL) Association for Computers and the Humanities (ACH) Northeast Association for Computing in the Humanities (NEACH) American Association for Artificial Intelligence (AAAI) Computer Assisted Language Learning and Instruction Consortium (CALICO) Modern Language Association (MLA), Computer Research Section Philological Association of the Pacific Coast, Computer Research Section American Association for Information Science (ASIS), Special Interest Group on Arts and the Humanities (SIG/AH) Society for Conceptual and Content Analysis by Computer (SCCAC) ZEITSCHRIFTEN, NEWSLETTER u. ä.: American Journal of Computational Linguistics (seit 1984 Computational Linguistics) ACL Newsletter Computers in the Humanities ACH Newsletter Artificial Intelligence Journal of Educational Computing Research REGELMÄSSIGE TAGUNGEN: Association for Computational Linguistics Annual Meeting International Conference on Computing in the Humanities Annual Meeting of the American Association for Artificial Intelligence Modern Language Association Annual Convention Annual Meeting of the American Association for Information Science International Conference on Databases in the Humanities and Social Sciences

2.  Computerlinguistische Forschungen im Überblick

FORSCHUNGSEINRICHTUNGEN: Univ. of Akron, AKRON OH — Dept. of Modern Languages Computerunterstützte Stilistik mit OCP und EYEBALL (Ranson, N.; Knepley, J.: CHP83, 562—563) Computerunterstützter Französischunterricht (Waisbrot, J. W.: CHP83, 730—731) Iowa State Univ., AMES Iowa — Dept. of English BIBOUT: Bibliographische Datenbank (Potter, R. G.: CHP83, 525—532) Charakter-Syntax und Leserreaktion (Potter, R. G.: CHP81, 65—78) Statist. Stilistik und Rhetorik (Potter, R. G.: CHUM 14 (1980) 187—196) Univ. of Massachusetts, AMHERST MA — Dept. of Computer and Information Science — Dept. of Psychology Zusammenfassen von Erzählungen (Cook, M. E.; Lehnert, W. G.; McDonald, D. D.: COL84, 5—7; McDonald D. D.; Pustejovsky, J. D.: IJCAI 85, 799—805) Komplexität von Erzählungen (Lehnert, W. G.: IJCAI83, 713—716) Textorganisation bei der Sprachgenerierung (Conklin, E. J.; McDonald, D. D.: ACLP82, 129—135; AAAI82, 75—78) Wörterbucherstellung für die Sprachgenerierung (McDonald, D. D.: ACLP81, 57—62) Tutorensystem: Dialogplanung (Woolf, B.; McDonald, D. D.: AAAI84, 355 ff.) Verstehen gut geschriebener Texte (McDonald, D. D.; Clippinger, J. H.: IJCAI83, 730—732) Story Grammar: Toynbee’s Christus Patiens (Lehnert, W. C.; Alker, H. R.; Schneider, D.: CHP83, 358—367) Spracherkennung: Fehlerbehandlung (Lavorel, P. M.; Frecon, L.: TA 21 (1980) 38—44) Wissensrepräsentation mit dynamischen Netzwerken (Lavorel, P. M.: TA 24 (1983) 1, 47 ff.) Auflösung von Pronomina (Ehrlich, K.: ACLP81, 89—93) Univ. of Michigan, ANN ARBOR — School of Publish Health, Dept. of Biostatistics — Program in Linguistics — Dept. of Mathematics

23

Standardisierung des Angelsächsischen (Cerasano, S. P.: ALLCB 8 (1980) 2, 111—124) Datenbank für Bibeltexte (Parunak, H. V. D.: CHP81, 149—162) Graphische Darstellung von Konkordanzen (Parunak, H. V. D.: CHUM 15 (1981) 1, 15—36) Graphentheoretische Modelle (Harary, F.; Joyce, J.: ALLCJ 5 (1985) 1—2, 36—39) Prüfen maschinenlesbarer Texte (Parunak, H. V. D.: ALLCJ 2 (1981) 2, 51—54) Parsing mit wenig Phrasenstrukturanalyse (Manaster-Ramer, A.; Kac, M. B.: COL86 , 156—158) Randolph-Macon College, ASHLAND Vir ginia Computerunterstützter Unterricht im Debattieren (Scheckels, T. F.: CHP83, 636—649) Micr oelectr onics and Computer Technology Corp., AUSTIN TX LRC-Übersetzungssystem (Slocum, J.; Bennett, W. S.: CL 11 (1985) 2—3, 111—121) Maschinelle Übersetzung: Überblick (Slocum, J.: CL 11 (1985) 1, 1—17; CHUM 19 (1985) 2, 109—116) KI und Geisteswissenschaften (Rich, E.: CHUM 19 (1985) 2, 117—122) Univ. of Texas, AUSTIN TX — Dept. of Computer Science — Artificial Intelligence Center — Linguistics Research Center — Dept. of Philosophy, Center for Cognitive Science — Siemens Communication Systems Darstellung von Grammatiken (Karttunen, L.: COL84, 28—33) Parsing (Chester, D.: AJCL 6 (1980) 2, 87—96) Vergleich von Parsingstrategien (Slocum, J.: ACLP81, 1—6) Breadth-First Parsing (Bear, J.: IJCAI83, 696—698) Abweichungen von der SVO-Wortstellung: Informationsgehalt (La Polla, M. V.: COL86 , 168—173) BUILDRS: Diskursrepräsentationstheorie (Asher, N.; Wada, H.: COL86, 540—545) Story Grammars (Correira, A.: AJCL 6 (1980) 3—4, 135 ff.) Vererbungshierarchien in Semantischen Netzen (Simmons, R. F.: COL84, 71—74) Maschinelle Übersetzung (Slocum, J.: COL84, 546—561) LRC-Übersetzungssystem (Bennett, W. S.; Slocum, J.: CL 11 (1985) 2—3, 111—121) Test von METAL (Slocum, J.: ACLP80, 163 ff.)

24

Begriffliche Kohärenz im Wörterbuch (Alterman, R.: AI 25 (1985) 153—186) Klassifikation englischer Nomina und Verben (Amsler, R. A.: ACLP81, 133—138) Computerunterstütztes Nahuatl-Wörterbuch (Karttunen, F.; Amsler, R. A.: CHUM 17 (1983) 175—184) Computerunterstützes Schreiben (Danielson, W. A.: CHUM 19 (1985) 2, 85—88) Herstellung von Bibliographien (Hewitt, H.-J.: CHUM 19 (1985) 2, 89—96) Logik und Sprachverarbeitung (Wall, R.: CHUM 19 (1985) 2, 123—130) Computer und menschliche Sprache (Lehmann, W. P.; Bennett, W. S.: CHUM 19 (1985) 2, 77—84) Louisiana State Univ., BATON ROUGE Lemmatisierung im Serbokroatischen (Spraycar, R. S.: ALLCJ 2 (1982) 2, 55—59)

I. Computational Linguistics I: Development

Fuzzy set — Semantik: Implizite vage Quantoren (Zadeh, L. A.: COL84, 312—318) Test score — Semantik (Zadeh, L. A.: COL82, 425 ff.; LCC 1 (1986) 1, 24—35) Lehigh Univ., BETHLEHEM PA — Computer Science and Electrical Engineering Dept., Packard Lab. 19 Register Vector Grammar (Blank, G. D.: IJCAI85, 749—755) National Inst. of Health, BETHESDA MD — Lab. of Statistical and Mathematic Methodology Automatische Textanalyse (Norton, L. M.: AI 20 (1983) 3, 307—344) Univ. of Alabama, BIRMINGHAM — Dept. of Computer and Information Science

MITRE Corp., BEDFORD MA Semantisches Parsing (Pazzani, M. J.: COL84, 486—490) KING KONG: Syntaktisch-semantisches Parsing (Bayer, S.; Joseph, L.; Kalish, C.: IJCAI85, 788—790) SNUKA: Skriptbasiertes Dialogsystem (Pazzani, M. J.: AAAI81, 320 ff.)

Two-Level-Grammar (Bryant, B. R.; Johnson, D.; Edupuganty, B.: COL86 , 527—532) ID-LP-Grammatik: Variationen in der Wortstellung (Dey, P.: COL86, 65—67) Grundprobleme der philologischen Datenverarbeitung (Turner, K.; Marino, M.: CHP83, 717—724)

Univ. of California, BERKELEY CA — Dept. of EECS, Computer Science Div. — Berkeley Artificial Intelligence Research — Dept. of Sociology

Indiana Univ., BLOOMINGTON — Computer Science Dept. — Dept. of Slavonic Languages and Literatures

Mensch-Maschine-Interaktion (Chafe, W. D.: ACLP80, 27—28; Schegoff, E. A.: ACLP80, 81—82) Zweistufige Fragebeantwortung (Luria, M.: AAAI82, 71—74) UNIX Consultant (Chin, D. N.: ACLP83, 159—16 3; Wilensky, R.: AAAI82, 103—106 ) PHRAN und PHRED: Sprachverstehen und -produktion (Spanisch, Chinesisch) (Wilensky, R.: IJCAI81, 25—30; Wilensky, R.; Arens, Y.: ACLP80, 117—121; Jacobs, P. S.: IJCAI83, 610—612) PHRED: Generator für natürlichsprachliche Schnittstellen (Jacobs, P. S.: CL 11 (1985) 4, 219—242) Ace: Integrierte Repräsentation von Sprachund Weltwissen (Jacobs, P. S.; Rau, L. F.: ECAI84, 295—304) Kontext in der Textanalyse (Arens, Y.: IJCAI81, 52—57) Grundprobleme des Verstehens von Geschichten (Norvig, P.: AAAI81, 284 ff.) Inferenzen beim Verstehen von Geschichten (Norvig, P.: IJCAI83, 624—626) Computeranalyse des Hiats (Walton, W.; Joyce, J.: ALLCB 9 (1981) 1, 1—4)

PHONY: Heuristische phonologische Analyse (Becker, L. A.: ACLP81, 23—27) Parsing von nicht wohlgeformtem Input (Kwasny, S. C.; Sondheimer, N. K.: AJCL 7 (1981) 2, 99—108; Kwasny, S.: ACLP82, 164—166) Bedeutungsdarstellung für ein lexikongetriebenes Übersetzungssystem (Schooneveld, C. H. van; Campbell, H. W.; Stuart, D. G.: COL86 o. S.) Zeichentheoretisches Bedeutungsmodell (Schooneveld, C. H. van; COL86 o. S.) Sprache und Computersprache (Huntsman, J. F.: CHP81, 19—26) Sperry Univac, BLUE BALL PA Parsing von nicht wohlgeformten Input (Sondheimer, N. K.; Weischedel, R. M.: COL80, 46 ff.) Boston Univ., BOSTON MA — Rhetoric — Computer Science Dept. Geschichte computerisierter Konkordanzen und Wortindices (Burton, D. M.: CHUM 16

2.  Computerlinguistische Forschungen im Überblick

(1982) 195—218; CHUM 15 (1981) 139—154; CHUM 15 (1981) 83—100; CHUM 15 (1981) 1—14) Kategorialgrammatiken ohne Klammerung (Friedman, J.; Dai, D.; Wang, W.: COL86 , 199—201) Natürlichsprachliches Updating von Datenbanken (Salveter, S.: ECAI84, 257—266) Brattle Research Corp., BOSTON MA 6 Faneuil Hall Market Place Verstehen gut geschriebener Texte (Clippinger, J. H.; McDonald, D. D.: IJCAI83, 730—732) Univ. of Colorado, BOULDER Scott-Strachey denotative Semantik für Frage-Antwort-Systeme (Main, M. G.; Benson, D. B.: AJCL 9 (1983) 1, 11—21) Bowling Gr een State Univ., BOWLING GREEN OH Begriffswörterbuch — Modell für das Information Retrieval in der Medievistik (Schmidt, K. M.: CHP 83, 602—613) State Univ. of New York, BUFFALO NY — Dept. of Computer Science Propositionale Semantische Netze (Rapaport, W. J.; Shapiro, S. C.: COL84, 65—70) Sprachgenerierung mit ATN-Grammatiken (Shapiro, S. C.: AJCL 8 (1982) 1, 12—25) Sprachverstehen mit wissensbasiertem Ansatz (Shapiro, S. C.; Neal, J. G.: ACLP82, 136—144) Arthur D. Little Inc., CAMBRIDGE MA — Artificial Intelligence Center Government-Binding-Theorie: PROLOGImplementierung (Kuhns, R. J.: COL86 , 546—550) Bolt, Ber anek and Newman Inc., CAMBRIDGE MA 10 Moulton Street Kaskadierte ATN-Grammatiken (Woods, W. A.: AJCL 6 (1980) 1, 1—12) Optimal Search beim Verstehen gesprochener Sprache (Woods, W. A.: AI 18 (1982) 3, 295—326) Nicht normative Verstehenssysteme (Bobrow, R. J.; Bates, M.: ACLP82, 153—156) Modelltheoretische Semantik: Ort und Richtung (Hinrichs, E. W.: COL86, 347—349) Semantisches Parsing mit KL-ONE (Bobrow, R. J.; Sondheimer, N. K.; Weischedel, R. M.: COL84, 101 ff.) Klassifikation mit KL-ONE (Schmolze, J.

25

G.; Lipkis, T. A.: IJCAI83, 330—332) Interpretation von Pronomina (Sidner, C. L.: AJCL 7 (1981) 4, 217—231) Diskursmodellierung: Unterbrechungen (Sidner, C. L.; Grosz, B. J.: IJCAI85, 832—839) Referenzierung als geplante Aktion (Cohen, P. R.: IJCAI81, 31—36) Korrektur falscher Referenzierungen in aufgabenorientierten Dialogen (Goodman, B. A.: AAAI81, 134 ff.) Interpretation indirekter Sprechakte (Cohen, P. R.: ACLP80, 29—30) Gesprächsstruktur und Kommunikationsmedium: Telefon/Teletype (Cohen, P. R.; Fertig, S.; Starr, K.: ACLP82, 28—35) Gesprächsanalyse (Reichman, R.: ACLP81, 63—69) Situationssemantik (Israel, D. J.: ACLP83, 28—37) Sprachgenerierung für computerunterstützten Unterricht (Bates, M.; Ingria, R.: ACLP81, 153—158) Harvard Univ., CAMBRIDGE MA Modellierung von Debatten (Reichman, R.: IJCAI81, 19—24) Massachusetts Inst. of Technology (MIT), CAMBRIDGE MA — Artifical Intelligence Lab. — Lab. for Computer Science — Dept. of Linguistics — Dept. of Psychology — Dept. of Political Science Deterministisches Parsing (Berwick, R. C.: IJCAI83, 710—712) Finite-State-Parsing (Church, K. W.: ACLP83, 91—98; ACLP80, 107—111) Parsing mit begrenztem Kontext (Berwick, R. C.: COL84, 20—23) Effizientes Parsing (Berwick, R. C.; Weinberg, A. S.: ACLP83, 119—122) Parsing von Konjunktionen (Berwick, R. C.; Fong, S.: IJCAI85, 870—876) Parsing mit Sets von Behauptungen (Barton, G. E.; Berwick, R. C.: IJCAI85, 769—771) ID-LP-Parsing: Komplexität (Barton, G. E.: CL 11 (1985) 4, 205—218) Minimierung des Referenz-Nondeterminismus beim Parsing (Duffy, G.; Mallery, J. C.: AAAI84, 101 ff.) Grammatiken und neue linguistische Theorien (Berwick, R. C.: CL 10 (1984) 3—4, 189—202) Syntaktische Ambiguität (Church, K.; Partil, R.: AJCL 8 (1982) 3—4, 139—149) LFG und Komplexität (Berwick, R. C.:

I. Computational Linguistics I: Development

26

ACLP81, 7—12; AJCL 8 (1982) 3/4, 97—109) Erkennung gesprochener Sprache: Phonotaktische und lexikalische Constraints (Huttenbecher, D. P.; Zue, V. W.: AAAI81, 172 ff.) Parsing gesprochener Sprache: Phonologische Regeln (Church, K. W.: IJCAI83, 636—638) Induktive Inferenz: Englische Hilfsverben (Berwick, R. C.; Pilato, S. F.: IJCAI85, 880—882) Spracherwerbstheorien (Osherson, D. N.; Stob, M.; Weinstein, S.: IJCAI83, 56 6 —573) Computermodell des Syntaxerwerbs (Berwick, R. C.: ACLP80, 49—53) Zeitmodell der Sprachproduktion (McDonald, D.: ACLP80, 55—57) Satzgenerierung für computerunterstützten Unterricht (Ingria, R.; Bates, M.: ACLP81, 153—158) PAUL: Kohäsion bei der Textgenerierung (Granville, R.: COL84, 381 ff.) Repräsentation der Zeit (Yip, K. M.: IJCAI85, 806—814) Logische Repräsentation von Ausdrücken mit Quantoren (Martin, W. A.: AJCL 7 (1981)3, 137—147) Southeast Missour i State Univ., CAPE GIRARDEAU — Dept. of Biology NT-SYS: Überlieferung von mittelalterlichen Manuskripten (Journet, A. R. P.; O’Brian O’Keeffe, K.: CHP83, 311—317) Univ. of Southern Illinois, CARBONDALE Zeichendarstellung in der komparativen Phonologie (Hartman, S. L.: CHUM 15 (1981) 2, 75—82) Univ. of North Carolina, CHAPEL HILL — Dept. of English Edition von Briefen: Computerunterstützte Textkritik (Avery, L. G.: CHP83, 8—12) Evaluation von Phonemisierungsalgorithmen (Bernstein, J.; Nessly, L.: ACLP81, 19—22) Univ. of North Carolina, CHARLOTTE Computerunterstütztes Schreiben (Hilligoss, S.: CHP83, 273—280) Büroautomation: L’Année Philologique (West, W. C.: CHP83, 754—758) Illinois Inst. of Technology, CHICAGO Studiengänge der Computerlinguistik (Evans, M.; Karttunen, L.: AJCL 9 (1983) suppl. 1—32) Northwestern Univ., Evanston, CHICAGO

— Library Information Retrieval — Auswirkungen auf die geisteswissenschaftliche Forschung (Erdt, T.: CHP83, 145) Univ. of Cincinnati, CINCINNATI OH Cincinnati Studie: Computerunterstütztes Schreiben (Bewertung) (Berlin, J. A.; Singha, R.: CHP83, 13) Delta State Univ., CLEVELAND Miss. Computerunterstützter Unterricht: Spanische Gedichte (Quinn, R. A.: CHP83, 551—555) Univ. of Maryland, COLLEGE PARK — Dept. of Anthropology — Dept. of Computer Science — Computer Center Textstruktur und Struktur des Sachverhalts (Agar, M.; Hobbs, J. R.: IJCAI81, 190 f.) Automatisches Katalogisieren und Publizieren von seltenen Büchern und Manuskripten (Elvove, J.; McCrank, L. J.: CHP83, 415—430) Natürliche und formalisierte Benutzersprachen (Shneiderman, B.: ACLP80, 139—141) Texas A & M Univ., COLLEGE STATION TX NT-SYS: Überlieferung von mittelalterlichen Manuskripten (O’Brian O’Keeffe, K.; Journet, A. R. P.: CHP83, 311—317) Univ. of South Carolina, COLUMBIA Computerunterstütztes Schreiben (Castner, B. A.: CHP83, 79—82) Textedition „The Papers of Henry Laurens“ (Chestnutt, D. R.: CHP83, 94—103) Autorenschaft der mittelenglischen PEARLPoems (McColly, W.; Weier, D.: CHUM 17 (1983) 65—75) Ohio State Univ., COLUMBUS — Computer Based Instruction — Dept. of Romance Languages and Literature Computerunterstützter Unterricht in medizinischer Terminologie (Abate, S. A.; Tebben, J. R.: CHP83, 694—698) LDMS: Linguistisches Datenverwaltungssystem (Farina, L. F.: CHUM 17 (1983) 99—120) Mikrocomputer für die morphologische Analyse von mittelalterlichem Latein und Italienisch (Farina, L. F.: CHP83, 146—163) Oregon State Univ., CORVALLIS — Dept. of Computer Science

2.  Computerlinguistische Forschungen im Überblick

Gesprächsstruktur und Kommunikationsmedium: Telefon/Teletype (Cohen, P. R.; Fertig, S.; Starr, K.: ACLP82, 28—35) Modelltheoretische Pragmatik und Semantik (Moran, D. B.: ACLP81, 107—108; ACLP82, 16—18) Symantec Corp., CUPERTINO CA Q & A (Hendrix, G. G.: COL86, 164—166) Texas Instruments Inc., DALLAS TX — Computer Science Lab. Kontrolle von Systemen zum Sprachverstehen (Phillips, B.; Hendler, J.: COL80, 480 ff.); COL82, 307 ff.) Textverstehen: Objektorientiertes Parsing (Phillips, B.: IJCAI83, 690—692) NLMenue: Menügesteuertes Sprachverstehen (Tennant, H. R.; Ross, K. M.; Saenz, R. M.; Thomson, C. W.; Miller, J. R.: ACLP83, 151—158) Parsing-Algorithmus (Ross, K. M.: COL82, 333 f.) Evaluation von sprachverstehenden Systemen (Tennant, H.: ACLP81, 37—38; COL86 , 167) Univ. of California, DAVIS — History bibliofile: UNIX-Anwendung (Kinmonth, E. H.: CHUM 18 (1984) 71 ff.) Enzyklopädie der Rhetorikgeschichte (Roddy, K. P.: CHP83, 579—587) Texas Women’s Univ., DENTON TX ATNs zur Modellierung von Grammatiken (Kehler, T. P.; Woods, R. C.: ACLP80, 123—126) Lowry Air Force Base, DENVER COL — Human Resources Lab. Computerunterstützter Rhetorikunterricht (Burns, H.: CHUM 18 (1984) 173 f.)

27

finition der Attribute (Ballard, B. W.: COL84, 52—55) LDC-System: Grammatikformalismus (Tinkham, N. L.; Ballard, B. W.: CL 10 (1984) 2, 81—86) Computer in natürlicher Sprache (Biermann, A. W.; Ballard, B. W.: AJCL 6 (1982) 2, 71—86) Univ. of New Hampshire, DURHAM NH — Dept. of Computer Science Computerunterstützte Neurolinguistik (Gigley, H. M.: COL84, 452—456 ; IJCAI 85, 260—266) Formalisierung einfacher Metaphern (Weber Russell, S.: ECAI82, 234—239) Pan American Univ., EDINBURG TX Computerunterstützte Folkloresammlung (Glazer, M.: CHP83, 214) Colorado State Univ., FORT COLLINS — Project Computer-Assisted Writing Writer’s Workbench (Smith, C. R.; Kiefer, K. E.: CHP83, 672—684) Computerunterstütztes Schreiben (Smith, C. R.; Kiefer, K. E.; Gingrich, P.: CHUM 18 (1984) 215 ff.) State Univ. of New York, FREDONIA NY — Dept. of Philosophy Referenz in propositionalen Netzen (Rapaport, W. J.; Shapiro, S. C.: COL84, 65—70) California State Univ., FULLÉRTON Indices und Konkordanzen zum Althochdeutschen (Gilbert, L.; Hirschmann, R.: ALLCB 8 (1980) 249—262) Univ. of Florida, GAINESVILLE — Dept. of Electrical Engineering Simulation der Stimme (Naik, J. M.; Childers, D. G.; Yegnanarayana, B.: COL84, 530—533)

Wayne State Univ., DETROIT MI Auflösung lexikalischer Ambiguität (Seidenberg, M. S.; Tanenhaus, M. K.: ACLP80, 155—157) Information Retrieval für Textanalyse (Siskin, H. J.: CHP83, 662—671)

Rockwell International, GOLDEN CO Autorenschaft: Die mittelenglischen PEARL-Poems (Weier, D.; McColly, W.: CHUM 17 (1983) 65—75)

Duke Univ., DURHAM NC — Dept. of Computer Science

Calvin College, GRAND RAPIDS MI — Dept. of Mathematics

Indices für chinesische Texte (Kunst, R. A.; Nancarrow, P. H.: CHP83, 772—778) EDV-generiertes Videoband für den Französischunterricht (Transformationsgrammatik) (Thomas, J.-J.: CHP83, 708—713) Korrektur gesprochenen Inputs (Biermann, A. W.; Fink, P. K.: CL 12 (1986) 1, 13—36) Layered Domain Class (LDC) System — De-

Spracherwerbstheorien (Stob, M.; Osherson, D. N.; Weinstein, S.: IJCAI83, 566—572) Univ. of North Carolina, GREENSBORO — College of Arts and Sciences Computer Literacy im akademischen Lehrkörper (Brewer, J. P.: CHP83, 31—38)

I. Computational Linguistics I: Development

28

Online-Recherchen in der literaturwissenschaftlichen Forschung (Budd, J.: CHP83, 39—46) East Carolina Univ., GREENVILLE NC The Electronic Newsletter (Brett, G.: CHP83, 28—30) Colgate Univ., HAMILTON NY — Dept. of Computer Science ATNs mit Unterbrechungsmöglichkeit (Nirenburg, S.; Attiya, C.: COL84, 393 ff.) Allgemeine Semantiktheorie für die Sprachverarbeitung (Nirenburg, S.; Raskin, V.: COL86, 338—340) Wissensbasierte Übersetzung (Nirenburg, S.; Tucker, A.; Raskin, V.: COL86, 627—632) Kohäsion in Fachtexten (Tucker, A. B.; Nirenburg, S.; Raskin, V.: COL86, 181—183) Univ. of Souther n Mississippi, HATTIESBURG Statistische Analyse der Canterbury Tales (Moorman, C.: CHP83, 431—445) Stevens Inst. of Technology, HOBOKEN NJ Computergenerierter belebter Druck zu Verstärkung der emotionalen Ausdruckskraft von poetischen Texten (Layzer, A.: CHP83, 346—357) Univ. of Hawai, HONOLULU — Social Science Research Inst. Lexikongetriebenes Parsing (Starosta, Nomura, H.: COL86, 127—132)

S.;

Michigan Technological Univ., HOUGHTON Computer beim Bewerten von Aufsätzen (Jobst, J.: CHP83, 309—310) Computerunterstützter Fremdsprachenunterricht: Curriculum (Otto, S. E. K.; Pusack, J. P.: CHUM 18 (1984) 195 ff.) Digital Equipment Corp., HUDSON MA XCALIBUR: Natürlichsprachlicher Zugang zu Expertensystemen (Anick, P. G.; Carbonell, J. G.; Boges, W. M.; Mauldin, M. L.: IJCAI83, 653—656) Univ. of Iowa, IOWA CITY — Dept. of German Computerunterstützter Fremdsprachenunterricht: Curriculum (Pusack, J. P.; Otto, S. E. K.: CHUM 18 (1984) 195 ff.) Univ. of California, IRVINE — Dept. of Information and Computer Science, Artificial Intelligence Project — Dept. of Psychiatry and Human Behavior

NOMAD: Verstehen von nicht wohlgeformtem Input (Granger, R. H.: AJCL 9 (1983) 3—4, 188—196; ACLP82, 157—160) VOX: Erweiterbarer interaktiver Sprachprozessor (Meyers, A.: IJCAI85, 821—825) Inferenzen beim Textverstehen: MAC ARTHUR (Granger, R. H.: IJCAI81, 354 ff.) ATLAST: Inferenzen beim Textverstehen (Eiselt, K. P.: IJCAI85, 863—869) Kontext- und oberbegriffgesteuertes Lernen von Wörtern (Keirsey, D. M.: AAAI82, 99—102) Inhaltsanalyse (Gottschalk, L. A.: SDV 9 (1985) 2, 29) Cornell Univ., ITHACA NY Relationales Datenmodell und Bedeutungsbeziehungen im Lexikon (Grimes, J. E.: COL84, 38 ff.) Schnelle Eingabe chinesischer Zeichen (King, P.: COL80, 279 ff.) Termassoziation im Information Retrieval (Salton, G.: COL86, 380—386) Mississippi Dept. of Ar chives and Histor y, JACKSON MS Leserorientierte erzähltheoretische Modelle (Galloway, P.: CHUM 17 (1983) 169—174) Univ. of Missouri, KANSAS CITY Briefe und Konkordanzen (Riva, CHP83, 573—576)

R.

T.:

Texas A & I Univ., KINGSVILLE TX Stilistischer Vergleich: Ford und Conrad (Sabol, C. R.: CHP81, 47—58) New Mexico State Univ., LAS CRUCES — Computing Research Lab. Präferenzsemantik: „right attachment rules” (Wilks, Y.; Huang, X.; Fass, D.: IJCAI85, 779—784) Collative Semantics (Fass, D.: COL8 6 , 341—343) Parallelverarbeitung beim Parsing (Huang, X.; Guthrie, L.: COL86, 140—145) Univ. of California, LA JOLLA — Dept. of Electrical Engineering and Computer Science CALCULIT: Programmpaket für Literaturanalyse (Hidley, G. R.: ALLCB 11 (1983) 1, 9) Interface zwischen Person und Maschine (Reichman-Adar, R.: AI 22 (1984) 157—218) Biola Univ., LA MIRADA CA Fieldings Amelia: Analyse der „interpretative community” (Doland, V. M.: CHP83, 121—128)

2.  Computerlinguistische Forschungen im Überblick

Univ. of Kansas, LAWRENCE KS Mikrocomputer-Datenbanksysteme (Henderson, M. M. T.: CHUM 16 (1982) 219—222) Computer-Lexikographie (Sedelow, S. Y.: CHUM 19 (1985) 2, 97—103) Univ. of Kentucky, LEXINGTON — Dept. of Computer Science Slot Grammars (McCord, M.: AJCL 6 (1980) 1, 31 ff.) Logische Grammatiken (McCord, M.: AI 18 (1982) 3, 327—36 7; McCord, M.; Dahl, V.: AJCL 9 (1983) 2, 69—91) IBM Los Angeles Scientific Center, LOS ANGELES CA 11 601 Wilshire Blvd. KIND TYPES: Wissensrepräsentation (Dahlgren, K.; McDowell, J.: COL8 6 , 216—221) Logicon Inc., Woodland Hills, LOS ANGELES Extraktion von Konzepten (Montgomery, C.: AJCL 8 (1982) 70—73) Univ. of California, LOS ANGELES — Computer Science Dept. — Artificial Intelligence Lab. BORIS: Die „Moral“ beim Geschichtenverstehen (Dyer, M.: IJCAI83, 75—77) Analogien in Editorials (Dyer, M. G.; August, S. E.: IJCAI85, 845—847) Disambiguierung und Lernen mit einem Phrasenlexikon (Zernik, U.; Dyer, M. G.: COL86, 247—252) Univ. of Souther n Califor nia, LOS ANGELES — Information Sciences Institute — Dept. of Linguistics Design von HEARSAY III (Erman; L: D; London, P. E.; Fickas, S. F.: IJCAI81, 409 ff.) PENMAN Textgenerierungssystem (Mann, W. C.: AAAI81, 26 1 ff.; Matthiessen, C. M. I. M.: ACLP81, 49—55) Textgenerierung (Mann, W. C.: COL84, 36 7 ff.; AJCL 8 (1982) 2, 6 2—6 9; ACLP81, 43—47; Mann, W. C.; Moore, J. A.: AJCL 7 (1981) 1, 17—29) NIGEL: Systemische Grammatik zur Textgenerierung (Mann, W. C.: ACLP83, 79—84; Matthiessen, C. M. I. M.: ACL/EC83, 155—164) Funktionale Semantik bei der Textgenerierung (Mann, W. C.: ACL/EC83, 16 5—174)

29

Bewertung von Interfaces (Mann, W. C.: ACLP81, 33—34) Parsing von nicht wohlgeformtem Input (Sondheimer, N. K.; Weischedel, R. M.: AJCL 9 (1983) 3—4, 161—177) KL-ONE: Wissensrepräsentation (Sondheimer, N. K.; Weischedel, R. M.; Bobrow, R. J.: COL84, 101 ff.) Klassifikation mit KL-ONE (Lipkis, T. A.; Schmolze, J. G.: IJCAI83, 330—332) KIND TYPES: Wissensrepräsentation (McDowell, J.; Dahlgren, K.: COL8 6 , 216—221) Indices und Konkordanzen zum Althochdeutschen (Hirschmann, R.; Gilbert, L.: ALLCB 8 (1980) 249—262) Univ. of Wisconsin, MADISON — Dictionary of the Old Spanish Language Quantitative stilistische Analyse: J. Conrad und F. M. Ford (Bender, T. K.; Briggum, S. M.: CHP81, 59—64) Dictionary of the Old Spanish Language (Burrus, V. A.: CHUM 17 (1983) 209—213; Lentz, L. T.: LCPisa 1 (1981) 19—42) HISTIPS (History-Teaching Information Processing System) (Dietrich, D. J.: CHP83, 120) Morphologische Beschreibung (Kunst, A. E.: CHP83, 333—338; Kunst, A. E.; Blank, G. D.: CHP81, 123—132) St. Anselm College, MANCHESTER NH — Computer Science Dept. Semantik von Quantoren (Cushing, S.: ACL/ EC83, 1—8) Allegheny College, MEADVILLE PA Generierung von Gedichten (Kern, A.; Sheridan, J. F.: CHP83, 323—328) SRI International, MENLO PARK CA — Natural-Language and Knowledge-Resource Systems — Artificial Intelligence Center Mathematische Eigenschaften von Syntaxtheorien (Perreault, C. R.: CL 10 (1984) 3—4, 165—176) DIALOGIC: Satzverstehen durch logische Repräsentation (Grosz, B.; Haas, N.; Hendrix, G.; Hobbs, J.; Martin, P.; Moore, R.; Robinson, J.; Rosenschein, S.: COL82, 95 ff.; Moore, R. C.: ACLP81, 117—124) Diskursmodellierung: Unterbrechungen (Grosz, B. J.; Sidner, C. L.: IJCAI85, 832—839) Natürlichsprachige Schnittstellen (Hendrix,

30

G. G.: AJCL 8 (1982) 2, 56 —6 1; Hendrix, G. G.; Lewis, W. H.: ACLP81, 159—165) Natürlichsprachige Zugangssysteme (Walker, D. E.: COL82, 397—412; Moore, R. C.: ACLP82, 44—45) TEAM: Transportable English Database Access System (Martin, P.; Appelt, D.; Pereira, F.: IJCAI83, 573—581) CHAT: Natürlichsprachiges Zugangssystem in logischer Programmierung (Warren, D. H. D.: ACLP82, 6 3—6 6 ; Warren, D. H. D.; Pereira, F. C. N.: AJCL 8 (1982) 3—4, 110—122) Planung natürlichsprachiger Äußerungen, bes. Referenz (Appelt, D. E.: ACLP82, 108—112; AI 26 (1985) 1—33; AAAI83, 59— 6 2; ACLP83, 74—78; IJCAI83, 595—599) Referenz (Cohen, P. R.: COL84, 207—211) Textstruktur und Sachverhaltsstruktur (Goguen, J. A.; Linde, C.: ACLP80, 35—37; Hobbs, J. R.; Agar, M.: IJCAI81, 190 ff.) Referenz von Verben im Dialog (Robinson, A. E.: AJCL 7 (1981) 1, 1—16) Lexikalische Wissensbasen (Amsler, R. A.: COL84, 458—459) Wissensbasen für natürlichsprachige Systeme (Hobbs, J. R.: COL84, 283—286) Quantifikation im Englischen (Hobbs, J. R.: ACLP83, 57—63) Interpretation von Metaphern (Hobbs, J. R.: IJCAI81, 85—91) Morphologische Analyse (Bear, J.: COL86 , 272—276) Theorie definiter Nominalphrasen in Texten (Grosz, B.; Joshi, A. K.; Weinstein, S.: ACLP83, 44—49) Semantik von Grammatikformalismen (Pereira, F. C. N.; Shieber, S. M.: COL84, 123 ff.) Kategoriale Unifikationsgrammatiken (Uszkoreit, H.: COL86, 187—194) Constraints bei Metaregeln (Shieber, S. M.; Stucky, S. U.; Uszkoreit, H.; Robinson, J. J.: ACLP83, 22—27) Metaregeln in einer annotierten Phrasenstrukturgrammatik (Konolige, K.: ACLP80, 43—48) Parsing als Deduktion (Pereira, F. C. N.; Warren, D. H. D.: ACLP83, 137—144) Rekonstruktion der GPSG (Shieber, S. M.: COL86, 211—215) GPSG: Behandlung der freien Wortstellung (Uszkoreit, H.: ACLP83, 106—112) Satzdisambiguierung (Shieber, S. M.: ACLP83, 113—118; IJCAI83, 699—703) Parsing: Logische Repräsentation (Rosenschein, S. J.; Shieber, S. M.: ACLP82, 1—7)

I. Computational Linguistics I: Development

D-PATR: Entwicklungsumgebung für Unifikationsgrammatiken (Karttunen, L.: COL86 , 74—80) Programmiersprache für Linguistik (Shieber, S. M.: COL84, 362—366) Zukunft der Computerlinguistik (Hendrix, G. G.: ACLP80, 131—135) Florida International Univ., MIAMI Computerliteratur (Schwartz, R. A.: CHP83, 624—628) Honeywell Inc., MINNEAPOLIS MN — Computer Sciences Center Reconnaissance-Attack-Parsing (Ryan, K. L.; Kac, M. B.; Rindflesch, T.: COL86 , 159—160) Univ. of Minnesota, MINNEAPOLIS — Dept. of English — Dept. of Linguistics Parsing mit wenig Phrasenstrukturanalyse (Kac, M. B.; Manaster-Ramer, A.: COL86 , 156—158) Corepresentational Grammar: Komparativ im Englischen (Ryan, K.: ACLP81, 13—18) Reconnaissance-Attack-Parsing (Kac, M. B.; Rindflesch, T.; Ryan, K. L.: COL8 6 , 156—160) KIT: Programmpaket für Anglistik (Leavitt, J. A.; Mitchell, J. L.; Imman, E.: ALLCB 8 (1980) 1, 1—14) Editionstechnik: Thoreaus Walden (Ross, D.: CHUM 15 (1981) 155—162) Mississippi State Univ., MISSISSIPPI STATE bei Starkville MS — Dept. of Computer Science Bibliographie mit Index (Ellis, E.: CHP83, 131—138) DV-unterstütztes Schreiben (Shillingsburg, M. J.: CHP83, 654—658) AT & T Bell Lab., MURRAY HILL NJ Fokus bei der Satzgenerierung (Derr, M. A.; McKeown, K. R.: COL84, 319 ff.) Wissensbasierter Textgenerator (Kukich, K.: ACLP83, 145—150) TELI: Benutzerschnittstelle zur Pflege von Kasusrahmen (Ballard, B. W.: COL8 6 , 454—460) Erkennung von Intonationsmustern (Pierrehumbert, J. B.: ACLP83, 85—90) Parsing von syntaktisch fehlerhaftem gesprochenem Englisch (Hindle, D.: ACLP83, 123—128) Metatheorie der Grammatik (Marcus, M. P.; Hindle, D.; Fleck, M.: ACLP83, 129—136)

2.  Computerlinguistische Forschungen im Überblick

AYPA: Automatische Suche im Branchenverzeichnis (Gershman, A.: IJCAI81, 423 ff.) LDC-System: Grammatikformalismus (Ballard, B. W.; Tinkham, N. L.: CL 10 (1984) 2, 81—96) Rutgers Univ., NEW BRUNSWICK NJ Retrieval von Manuskriptinformation (Hahn, N. L.: CHP83, 242—247) Edition mit Mikrocomputer (Negus, K. G.: CHP83, 454—455) Alliterationsmuster in altenglischen Gedichten (Bolton, W. F.: CHUM 19 (1985) 3, 167—174) Rutgers Inventory of Machine Readable Texts in the Humanities Cognitive Systems Inc., NEW HAVEN CT 234 Church Street Anwendungsunabhängige Zugangssysteme zu Datenbanken (Shwartz, S. P.: ACLP82, 60—62) Yale Univ., NEW HAVEN CT — Dept. of Computer Science — Artificial Intelligence Project — Cognitive Science Program Lexikalische Disambiguierung (Birnbaum, L.: IJCAI85, 815—820) Frameauswahl beim Parsing (Lytinen, S. L.: AAAI84, 222 ff.) Repräsentation von Argumentationsstrukturen (Birnbaum, L.: AAAI82, 63—64) Opportunistisches Argumentationsmodell (McGuire, R.; Birnbaum, L.; Flowers, M.: IJCAI81, 58—60) AUTHOR: Autorenmodell des Geschichtenerzählens (Dehn, N.: IJCAI81, 16—18) Modellierung der Perspektive beim Geschichtenverstehen (Reiser, B. J.: IJCAI81, 209 ff.) Interessengesteuertes Sprachverstehen (Schank, R. C.; Lebowitz, M.; Birnbaum, L.: AJCL 6 (1980) 1, 13—30) BORIS — Verstehen von Erzählungen (Lehnert, W. G.; Dyer, M. G.; Johnson, P. N.; Yang, C. J.; Harley, S.: AI 20 (1983) 1, 15—62) BORIS: Emotionale Reaktion auf Erzählungen (Dyer, M. G.: AAAI82, 265 ff.) BORIS: Integriertes sprachverstehendes System (Dyer, M. G.: IJCAI81, 37—42) Modelle des Zusammenfassens von Geschichten (Lehnert, W. G.; Black, J. B.; Reiser, B.: IJCAI81, 184 ff.) Textkohärenz und Gedächtnisorganisation bei der englisch-chinesischen Übersetzung (Yang, C. J.: IJCAI81, 47—48)

31

Textgenerierung: Integrierte Planung und Produktion (Hovy, E. H.: IJCAI85, 848—851) City Univ. of New Yor k, Br ooklyn, NEW YORK — Brooklyn College — Dept. of English — Dept. of Computer and Information Science Finite State Parsing (Langendoen, D. T.; Langsam,Y.: COL84, 24—27) Kontextfreie Sprachen (Langendoen, D. T.; Postal, P. M.: CL 10 (1984) 3—4, 177—181) Columbia Univ., NEW YORK — Dept. of Computer Science Interessenbezogenes Textstrukturmodell (Lebowitz, M.: IJCAI81, 13—15) UNIVERSE: Generieren von Erzählungen (Lebowitz, M.: IJCAI83, 63—65) IPP: Generalisierung und Memorieren von Nachrichten (Lebowitz, M.: IJCAI81, 348 ff.) RESEARCHER: Repräsentation von Patentabstracts (Lebowitz, M.: AAAI81, 232 ff.; IJCAI85, 858—862) RESEARCHER: Textverstehen mit Gedächtnis (Lebowitz, M.: ECAI84, 159—16 8) Natürlichsprachliche Zugangssysteme zu Experten- und Datenbanksystemen (McKeown, K. R.: COL84, 190—193) Benutzergerechte Erklärungen (McKeown, K. R.; Matthews, K.; Wish, M.: IJCAI85, 794—798) Paraphrasen im Frage-Antwort-System COOP (McKeown, K. R.: AJCL 9 (1983) 1, 1—10) Rekursion im Text und Sprachgenerierung (McKeown, K. R.: AAAI81, 270 ff.) Fokus und Satzgenerierung (McKeown, K. R.; Derr, M. A.: COL84, 319 ff.) TEXT: Fokusgesteuerte Textgenerierung (McKeown, K. R.: IJCAI83, 582—587) Gesprächsstrategien (McKeown, K. R.: AI 27 (1985) 1—41) New York Univ., NEW YORK — Alternate Media Center — Courant Inst. of Mathematical Sciences, Dept. of Computer Science — Graduate School of Business Administration — Linguistic String Project Paralinguistische Elemente beim Computerconferencing (Carey, J.: ACLP80, 67—69) Konjunktionen beim Parsing (Grishman, R.: COL80, 500 ff.)

32

Zusammenfassen von Meldungen (Grishman, R.; Marsh, E.; Hamburger, H.: AAAI84, 243 ff.) Semantik bei natürlichsprachlichen Schnittstellen (Grishman, R.; Hirschman, L.; Friedman, C.: COL82, 89 ff.) Syntax von Subsprachen (Grishman, R.; Thanh Nhan, N.; Marsh, E.; Hirschman, L.: COL84, 96—100) Repräsentation von Zeitrelationen in Erzählungen (Hirschman, L.; Story, G.: IJCAI81, 289 ff.) QE-III: Abfragesprache für historische Datenbasen (Clifford, J.: AAAI81, 79 ff.) Syracuse Univ., NEW YORK Computerunterstützter Hindi-Unterricht (Bhatia, T. K.: CHUM 14 (1980) 3, 181—185) Univ. of Delaware, NEWARK DE — Dept. of Computer and Information Sciences — Office of Computer-Based Instruction — Dept. of Languages and Literature — Classics Wechselnde Informationsziele von Benutzern (Carberry, S.: AAAI81, 59 ff.) Disparität von Benutzermodellen (Carberry, S.: COL86, 29—34) Verhüten irreführender Systemantworten (Weischedel, R. M.; Joshi, A.; Webber, B.: AAAI84, 169 ff.) Verstehen von pragmatisch fehlerhaftem Input (Carberry, S.: COL84, 200—206) Heuristische Fehlersuche bei natürlichsprachlichen Front-Ends (Ramshaw, L. A.; Weischedel, R. M.: COL84, 139—143) Heuristische Behandlung von Parsingfehlern (Weischedel, R. M.; Black, J. E.; ACLP80, 95) Parsing von nicht wohlgeformtem Input (Weischedel, R. M.; Sondheimer, N. K.: AJCL 9 (1983) 3—4, 16 1—177; COL80, 46 ff.; Weischedel, R. M.; Black, J. E.: AJCL 6 (1980) 2, 97—109) Ellipsenbehandlung (Weischedel, R. M.: ACLP82, 85—88) Semantische Abbildung mit Hornklauseln (Weischedel, R. M.: AAAI81, 424 ff.) Wissensrepräsentation mit KL-ONE (Weischedel, R.; Sondheimer, N. K.; Bobrow, R. J.: COL84, 101 ff.) Computerunterstützter Unterricht im Französisch-Curriculum (Braun, T. E. D.; Mulford, G. W.: CHUM 18 (1984) 47—56) Programmierung für computerunterstützten Unterricht (Culley, G. R.: CHUM 18 (1984) 183 ff.) New Jersey Inst. of Technology, NEWARK NJ

I. Computational Linguistics I: Development

— Dept. of Computer and Information Science Computerconferencing ACLP80, 143—144)

(Turoff,

M.:

Ohio State Univ., NEWARK OH — Classics Computerunterstützter Unterricht in Medizinischer Terminologie (Tebben, J. R.; Abate, S. A.: CHP83, 694—698) Univ. of Notre Dame, NOTRE DAME Ind. Computerunterstütztes Wiederholen im Englischunterricht (Kline, E. A.: CHP83, 329—332) Univ. of Central Florida, ORLANDO — Dept. of Computer Science Verstehen deskriptiver ACLP82, 36—43)

Texte

(Gomez,

F.:

Miami Univ., OXFORD OH — Dept. of German, Russian and East Asian Fehlerdiagnose im computerunterstützten Fremdsprachenunterricht (Philips, R.: CHP83, 484—488) KI und Fremdsprachenlernen (Sanders, R. A.: CHP83, 595—599) Fairchild Corp., PALO ALTO CA — Lab. for Artificial Intelligence Research Mensch-Maschine-Kommunikation: Referenz von Nominalphrasen (Cohen, P. R.: CL 10 (1984) 2, 97—146) Hewlett Packard Comp., PALO ALTO CA — Computer Research Center GPSG-Parsing (Gawron, J. M.; King, J.; Lamping, J.; Loebner, E.; Paulson, E. A.; Pullum, G. K.; Sag, I. A.; Wasow, T.: ACLP82, 74—81) Structural Semantics, PALO ALTO CA PO Box 707 Textstruktur und Sachverhaltsstruktur (Linde, C.; Goguen, J. A.: ACLP80, 35—37) Telesensor y Speech Systems, PALO ALTO CA Evaluation von Phonemisierungsalgorithmen (Bernstein, J.; Nessly, L.: ACLP81, 19—22) Xer ox Palo Alto Resear ch Center , PALO ALTO CA Information Retrieval im Wörterbuch (Kay, M.: COL84, 461) Maschinelle Übersetzung (Kay, M.: AJCL 8 (1982) 2, 74—78)

2.  Computerlinguistische Forschungen im Überblick

Maschinelle Übersetzung: Funktionale Unifikationsgrammatik (Kay, M.: COL84, 75—78) Semantik (Smith, B. C.: ACLP82, 9—16) Lexikalische Semantik in der Mensch-Maschine-Kommunikation (Rosenberg, J.: COL84, 428—431) Modellierung von Mensch-Maschine-Dialogen (Wynn, E.: ACLP80, 87—90) System Development Corp., PAOLI PA — Research and Development Div. Rhetorik und Metapher beim Programmieren (Cole, I. D.: CHP83, 111—117) Syntax von Subsprachen (Hirschman, L.; Grishman, R.; Thanh Nhan, N.; Marsh. E.: COL84, 96—100) Semantik bei natürlichsprachlichen Schnittstellen (Hirschman, L.; Grishman, R.; Friedman, C.: COL82, 89 ff.) Inferenzgesteuerte semantische Analyse (Palmer, M. S.: AAAI81, 310 ff.) California Inst. of Technology, PASADENA Evaluation natürlichsprachlicher Datenbankschnittstellen (Thompson, B. H.: ACLP81, 39—42) Natürlichsprachliche Mensch-MaschineKommunikation (Thompson, B. H.: COL80, 190 ff.) Rolle der Wissensrepräsentation (Thompson, F. B.: ACLP82, 169 ff.) Drexel Univ., PHILADELPHIA PA — Dept. of Humanities — Communications Computerunterstütztes Schreiben (Arms, V. M.: CHP83, 4—7) Temple Univ., PHILADELPHIA PA — Computer and Information Sciences Wissensbasiertes Verstehen von Metaphern (Weiner, E. J.: CL 10 (1984) 1, 1—14) Scientific and Oper ations Analysis Gr oup ANALYTICS Inc., Willow Gr ove, PHILADELPHIA PA 2500 Maryland Rd. Computerunterstützte Übersetzungssysteme (Zachary, W. W.: CHUM 13 (1979) 17—28) Univ. of Pennsylvania, PHILADELPHIA — Moore School, Dept. of Computer and Information Science — Dept. of Linguistics — Dept. of Philosophy — Dept. of Religious Studies Tree Adjoining Grammars (TAGs), GPSGs,

33

Phrase Linking Grammars (PLGs) and LFGs (Joshi, A. K.: ACLP83, 7—15) Tree Adjoining Grammars and Head Grammars (Vijay-Shanker, K.; Weir, D. J.; Joshi, A. K.: COL86, 202—207) Bewertung von Phrasenstrukturbäumen (Joshi, A. K.; Levy, L. S.: AJCL 8 (1982) 1, 1—11) Definite Nominalgruppen im Text (Joshi, A. K.; Grosz, B. J.; Weinstein, S.: ACLP83, 44—49) Modal- und Temporallogik (Mays, E.: ACLP83, 38—43) Redefinition von Ja/Nein-Fragen (Hirschberg, J.: COL84, 48—51) TEAM: Portable natürlichsprachliche Schnittstelle (Grosz, B.: ACLP82, 46—50) Natürlichsprachliche Interaktion mit dynamischen Wissensbasen (Mays, E.; Lanka, S.; Joshi, A. K.; Webber, B. L.: IJCAI81, 61—63) Initiative im Mensch-Maschine-Dialog (Webber, B. L.; Joshi, A. K.: COL82, 413 ff.; Mays, E.; Joshi, A.; Webber, B. L.: ECAI82, 255—256) Falsche Inferenzen (Joshi, A. K.; Webber, B. L.; Weischedel, R. M.: COL84, 134—138) Korrektur falscher Vorstellungen (Webber, B. L.; Mays, E.: IJCAI83, 650—652) Falsche Vorstellungen über Objekte — Reaktion des Systems (McCoy, K. F.: COL84, 444—447; IJCAI85, 791—793) Partnermodellierung: Referenz (Nadathur, G.; Joshi, A. K.: IJCAI83, 603—605) Verhüten irreführender Systemantworten (Joshi, A.; Webber, B.; Weischedel, R. M.: AAAI84, 169 ff.) Wissensrepräsentation bei der Sprachgenerierung (McCoy, K. F.: ACLP82, 121—128) TEXT: Sprachgenerierung (McKeown, K.: ACLP82, 113—120) Regelgesteuertes Sprachverstehen (Palmer, M.: ACLP81, 125—131) Analyse gesprochener englischer Umgangssprache (Kroch, A. S.; Hindle, D.: ACLP82, 161—163) Spracherwerbstheorien (Weinstein, S.; Osherson, D. N.; Stob, M.: IJCAI83, 566—572) CATSS: Tools für Septuaginta-Studien (Kraft, R. A.; Tov, E.: ALLCB 13 (1985) 37—38) Veröffentlichungsreihe: Studies in Natural Language Processing Bell Lab., PISCATAWAY NJ Writer’s Workbench System (Raye, C. L.: CHP83, 569—572)

34

Carnegie-Mellon Univ., PITTSBURGH PA — Computer Science Dept. — Dept. of Psychology — Robotics Inst. Parsing von ungrammatischem Input (Carbonell, J. G.; Hayes, P. J.: COL84, 437—443; AJCL 9 (1983) 3—4, 123—146) Flexibles Parsing (Carbonell, J. C.; Hayes, P. J.: ACLP81, 143—147; IJCAI81, 432 ff.; Hayes, P. J.; Mouradian, G.: ACLP80, 97—103; AJCL 7 (1981) 232—242; Hayes, P. J.: ACLP81, 149—152; Minton, S.; Hayes, P. J.; Fain, J.: IJCAI85, 785—787) Parsing gesprochener Sprache mit Kasusrahmen-Ansatz (Hayes, P. J.; Hauptmann, A. G.; Carbonell, J. G.; Tomita, M.: COL86 , 587—592) Syntaktische Disambiguierung (Tomita, M.: COL84, 476—480) Effizienter Parsing-Algorithmus (Tomita, M.: IJCAI85, 756—764) MLR-Parser (Tomita, M.: COL84, 354 ff.) Semantisches Parsing (Hayes, P. J.: COL84, 212 f.) Metasprachliche Äußerungen in aufgabenorientierten Dialogen (Hayes, P. J.; Carbonell, J. G.: IJCAI83, 668—670) Textpragmatik und Ellipsenauflösung (Carbonell, J. G.: ACLP83, 164 ff.) Metaphern (Carbonell, J. G.: ACLP80, 17—21) Auflösung von Anaphern (Hayes, P. J.: IJCAI81, 416 ff.) Erweiterung der Möglichkeiten natürlichsprachlicher Schnittstellen (Hayes, P. J.: ACLP80, 71—74) LANGUAGE CRAFT und XCALIBUR: Erfahrungen (Carbonell, J. G.: COL8 6 , 162—163) XCALIBUR: Natürlichsprachlicher Zugang zu Expertensystemen (Carbonell, J. G.; Boggs, W. M.; Mauldin, M. C.; Anick, P. G.: IJCAI83, 653—656) Regelbasierter Konversationspartner (Frederking, R. E.: ACLP81, 83—87) Textgenerierung mit semantischen Regeln (Mauldin, M. L.: COL84, 376—380) Modell des Spracherwerbs (Anderson, J. R.: IJCAI81, 97 ff.; Langley, P.: COL80, 183 ff.; ACLP82, 145—151) Leseverhalten (Thibadeau, R.; Just, M.; Carpenter, P.: ACLP80, 159—162) Wissensbasierte Übersetzung (Tomita, M.; Carbonell, J. G.: COL86, 633—638) Clar kson College of Technology, POTSDAM

I. Computational Linguistics I: Development

NY Computerunterstütztes Schreiben (Horn, W. D.: CHP83, 282—286) Brown Univ., PROVIDENCE RI — Dept. of Computer Science Informationsrepräsentation für Problemlösen und Sprachverstehen (Charniak, E.: AI 16 (1981), 3, 225—255) BRUIN: Sprachverstehen eines Problemlösers (Wong, D.: IJCAI81, 7—12) Semantische Interpretation (Hirst, G.: ACLP83, 64—73) Lexikalische und syntaktische Disambiguierung (Hirst, G.; Charniak, E.: AAAI82, 95—98) Textorientierte Auflösung von Anaphern (Hirst, G.: AJCL 7 (1981) 2, 85—98) Prädikation in verschiedenen Texttypen (Brown-Korpus) (Kucera, H.: COL80, 32 ff.) Brigham Young Univ., PROVO, Utah — Linguistics Dept. Mikrocomputer in der linguistischen Forschung (Bush, C.; Robertson, J. S.: CHP81, 27—32) Lexikalischer Transfer (Melby, A. K.: COL86, 104—106) Differenzierte Übersetzungshilfen (Melby, A. K.: COL82, 215—220) Workstation für Übersetzer (Melby, A. K.: MUL 3 (1984) 4, 225—228) ITS: Interaktives Übersetzungssystem (Melby, A. K.; Smith, M. R.; Peterson, J.: COL80, 424 f.) PeriPhrase Lingware (Beesley, K. R.; Hefner, D.: COL86, 390—392) Washington State Univ., PULLMAN — Dept. of Computer Science — English Denotative Semantik für Frage-Antwort-Systeme (Benson, D. B.; Main, M. G.: AJCL 9 (1983) 1, 11—21) Computerunterstützte Textedition (Faulkner, T. C.: CHUM 15 (1981) 163—182) Meredith College, RALEIGH NC Computerunterstützte Textedition: Stemmakonstruktion (Thomas, M. L.: CHP83, 714—716) North Carolina State Univ., RALEIGH APPLE Superpilot Authoring System im computerunterstützten Unterricht (Simonsen, S. E.: CHP83, 659—661)

2.  Computerlinguistische Forschungen im Überblick

TRW Defence Systems, REDONDO BEACH CA One Space Park Behandlung von Tempusinformation (Grover, M. D.: AAAI82, 91—94) Univ. of Rochester, ROCHESTER NY — Computer Science Dept. ARGOT: Das Rochester-Dialogsystem (Allen, J. F.; Frisch, A. M.; Litman, D. J.: AAAI82, 66—70) Plan-basierte Analyse indirekter Sprechakte (Allen, J. F.; Perreault, C. R.: AJCL 6 (1980) 3—4, 167 ff.) Modellierung von Verben des Handelns (Allen, J. F.: ACLP81, 77—81) Erkennen der Intention in Äußerungen (Allen, J. F.; Perreault, C. R.: AI 15 (1980) 3, 143—178) Klärungs-Subdialoge in aufgabenorientierten Dialogen (Litman, D. J.; Allen, J. F.: COL84, 302 ff.) Semantische Netze: Prädikatenlogische Notation (Allen, J. F.; Frisch, A. M.: ACLP82, 19—27) Wortexpertenparsing als linguistische Theorie (Small, S.: IJCAI81, 70 f.) Konnektionistisches Parsing (Small, S.; Cottrell, G.; Shastri, L.: AAAI82, 247—250) Konnektionistisches Modell des Lexikonzugriffs (Cottrell, G. W.: AAAI84, 61 ff.) Winthorp College, ROCK HILL SC — Dept. of English — School of Business Administration Redundanz in natürlicher Sprache und Kunst (Rankin, D. L.; Crook, J. F.: CHP83, 556—561) Southwest Resear ch Inst., SAN ANTONIO TX 6220 Culebra Road Korrektur gesprochener Eingabe (Fink, P. K.; Biermann, A. W.: CL 12 (1986) 1, 13—36) Univ. of California, SAN FRANCISCO — Sect. on Medical Information Science Wort und Objekt bei der Beschreibung von Krankheiten (Blois, M. S.; Sherertz, D. D.; Tuttle, M. S.: ACLP80, 149—152) Califor nia Polytechnic State Univ., SAN LUIS OBISPO Software für computerunterstütztes Schreiben (Brenner, P. A.: CHP83, 26—27) Univ. of California, SANTA BARBARA

35

— Graduate School for Education, South Coast Writing Contest Computerunterstütztes Schreiben von dichten (Marcus, S.: CHP83, 406—409)

Ge-

Univ. of California, SANTA CRUZ — Cowell College, Syntax Research Center Kontextfreie Grammatiken (Pullum, G. K.: ACLP83, 1—6) Syntaktisches und semantisches Parsing (Pullum, G. K.: COL84, 112 ff.) Kontextfreie Sprachen (Pullum, G. K.: CL 10 (1984) 3—4, 182—186) Gener al Electr ic Cor p., SCHENECTADY NY — Research and Development, KnowledgeBased Systems Branch Wissensrepräsentation für die Sprachgenerierung (Jacobs, P. S.: COL86, 554—559) Univ. of Washington, SEATTLE TEX für arabische Schrift (MacKay, P.: CHP83, 391—400) Computer Literacy (Searle, L.: CHP83, 629—635) Wofford College, SPARTANBURG SC Computerunterstützter Fremdsprachenunterricht (Griswold, S. C.: CHP83, 239—241) Stanford Univ., STANFORD CA — Computer Science Dept. — Center for the Study of Language and Information — Dept. of Philosophy — Linguistics Dept. Metatheorie der Grammatik (Shieber, S. M.; Pereira, F. C. N.: COL84, 123 ff.) Bestimmung der Ausdruckskraft von Sprachen (Mackinlay, J.; Genesereth, M. R.: AAAI84, 226 ff.) Parsing ohne vollständiges Lexikon (Davidson, J.; Kaplan, S. J.: ACLP80, 105—106) Natürlichsprachliches Updating von Datenbanken (Davidson, J.; Kaplan S. J.: ACLP81, 139—141; AJCL 9 (1983) 2, 57—68) Präpositionen des Ortes (Herskovits, A.: ACLP80, 1—5) Deklarative Formulierung der Diskursrepräsentationstheorie (Johnson, M.; Klein, E.: COL86, 669—675) Situationssemantik (Barwise, J.: ACLP81, 109—111) Situationssemantische Analyse von Sprechakten (Evans, D. A.: ACLP81, 113—116) Problemlösen bei der Sprachgenerierung (Appelt, D. E.: ACLP80, 59—66)

36

Pennsylvania State Univ., Univer sity Par k, STATE COLLEGE Erzählstruktur von Zusammenfassungen eines Films (Frautschi, R. L.: CHP83, 178—183) Computer und Literaturtheorie (Smith, J. B.: ALLCB 9 (1981) 3, 1—5) Indices und Konkordanzen zur modernen deutschen Literatur (Victor-Rood, J.: ALLCB 9 (1981) 2, 1—8) Oklahoma State Univ., STILLWATER The Computer Connection: Schnittstelle zwischen Natur- und Geisteswissenschaften (Choike, J.; Darcy, R.; Folk, M.; Gelder, J.; Rohrs, R.; Southard, B.: CHP83, 104—110) State Univ. of New York, STONY BROOK — Computer Science Dept. Do it Yourself — computerunterstützter Unterricht (Russell, J. R.: CHP83, 588—594) Updating natürlichsprachlicher Datenbasen (Salveter, S. C.; Maier, D.: ACLP82, 6 7—73; COL82, 345 ff.; ECAI82, 244—249) Lambda-Kalkül: Logische Grammatiken (Warren, D. S.: ACLP83, 51—56) Semantisches Parsing: Montague-Grammatik (Warren, D. S.; Friedman, J.: AJCL 8 (1982) 3—4, 128—138) Conceptual Dependency und MontagueGrammatik (Jones, M. A.; Warren, D. S.: AAAI82, 79—83) Aktivierungsbasiertes Parsing (Jones, M. A.: IJCAI83, 678—682) Semantische Primitive (Salveter, S. C.: ACLP80, 13—15) Univ. of Connecticut, STORRS — Dept. of Electrical Engineering and Computer Science CHILD: Computermodell des Spracherwerbs (Selfridge, M.: IJCAI81, 92—96 ; AAAI82, 251 ff.; AI 29 (1986) 171—216) AT & T Bell Lab., SUMMIT NJ — UNIX Systems Engineering Computerunterstütztes Schreiben (Gingerich, P.; Smith, C. R.; Kiefer, K.: CHUM 18 (1984) 215 ff.) Machine Intelligence Cor p., SUNNYVALE CA DIALOGIC: Satzverstehen in logischer Repräsentation (Haas, N.; Hendrix. G.; Grosz, B.; Martin, P.; Hobbs, J.; Moore, R.; Robinson, J.; Rosenschein, S.: COL82, 95—100) Arizona State Univ., TEMPE — Library

I. Computational Linguistics I: Development

Evaluation von bibliographischen Datenbasen in den Geisteswissenschaften (Leibold, A.: CHP83, 368—382) Indiana State Univ., TERRE HAUTE — Cunningham Memorial Library Computerunterstütztes Katalogisieren und Publizieren seltener Bücher und Manuskripte (McCrank, L. J.; Elvove, J.: CHP83, 415—430) Univ. of Toledo, TOLEDO OH Computerunterstützte Edition von (Cheney, D. R.: CHP83, 89—93)

Briefen

Univ. of Arizona, TUCSON — Dept. of German Computerunterstützte deutsche Poetik (Chisholm, D.: CHUM 15 (1981) 4, 199—210) Prosodisch-phonologisches Wörterbuch zur Transkription deutscher Dichtung (Chisholm, D.: SDV 4 (1980) 1, 11—13) ICON Programmiersprache (Griswold, R. E.: CHP81, 7—18) Univ. of Tulsa, TULSA Okl. Stilistik: Stephan Crane (Guinn, CHUM 14 (1980) 231—239)

D.

M.:

Univ. of Illinois, URBANA — Coordinated Science Lab. — Dept. of Linguistics — Dept. of Psychology — Computer-based Education Research Lab. — English as a Second Language — Dept. of Horticulture Erwerb neuer Schemata (DeJong, G.: AAAI82, 410 ff.; IJCAI81, 6 7—6 9; Mooney, R.; DeJong, G.: IJCAI85, 681—687) Nicht monotone Abhängigkeiten beim Verstehen von Geschichten (O’Rorke, P.: AAAI81, 306 ff.) Integrierter Ansatz zum Geschichtenverstehen (Brewer, W. F.: AAAI82, 262—264) Event Shape Diagrams (Waltz, D. L.: AAAI82, 84—87) Sprachverstehen und Weltmodell (Waltz, D. L.: IJCAI81, 1—6) Szenenbeschreibungen als Ereignissimulationen (Waltz, D. L.: ACLP80, 7—11) Phänomenologisch plausibles Parsing (Waltz, D. L.; Pollack, J. B.: AAAI84, 335 ff.) Zeitstudien zur lexikalischen Disambiguierung (Seidenberg, M. S.; Tanenhaus, M. K.: ACLP80, 155—157) UTTER: Expertensystem zur Produktion von Phonemketten (Segre, A. M.; Sherwood,

2.  Computerlinguistische Forschungen im Überblick

37

B. A.; Dickerson, W. B.: ACL/EC83, 35—42) Computerunterstützter Hebräischunterricht: Das Illinois Programm (Cole, P.; Lebowitz, R.; Hart, R.: CHUM 18 (1984) 87 ff.) Gener al Motor s Resear ch Lab., WARREN MI — Computer Science Dept.

Nirenburg, S.; Tucker, A.: COL8 6 , 627—632) Allgemeine Semantiktheorie für die Sprachverarbeitung (Raskin, V.; Nirenburg, S.: COL86, 338—340) Airforce Inst. of Technology, WRIGHT-PATTERSON AFB, OH — AFIT/ENG

Interaktion von Wissensquellen in einer portablen natürlichsprachlichen Schnittstelle (Hafner, C. D.: COL84, 57—60)

Sausage Machine und ATN (Milne, R. W.: AAAI82, 88—90) IBM J. Watson Resear ch Center , YORKTOWN HEIGHTS NY PO Box 218 Kontextfreie Sprachen (Postal, P. M.; Langendoen, D. T.: CL 10 (1984) 3—4, 177—181) TQA: Frageübersetzung (Mueckstein, E. M. M.: IJCAI83, 660—662) Evaluation von TQA (Damerau, F.: AJCL 7 (1981) 1, 30—42; Petrick, S. R.: ACLP81, 35—36) EPISTLE: Metrik zum Ranking alternativer Parsingergebnisse (Heidorn, G. E.: ACLP82, 82—84) Wortbildung (Byrd, R. J.: IJCAI83, 704—706) EPISTLE: Angepaßtes Parsing nicht wohlgeformter Eingabe (Jensen, K.; Heidorn, G. E.; Miller, L. A.; Ravin, Y.: AJCL 9 (1983) 3—4, 147—160) EPISTLE: Korrektur von Bürotexten (Miller, L. A.: ACLP82, 167—168) Mensch-Maschine-Dialog (Thomas, J. C.: ACLP80, 83—86)

Ecological Linguistics, WASHINGTON DC 6 31 „A“ St. S. E. Mehrsprachige Textverarbeitung im ZweiByte-Code (Anderson, L. B.: COL84, 1—4) Georgetown Univ., WASHINGTON DC Parameter des Gesprächsstils (Tanne, ACLP80, 39—42)

D.:

Howard Univ., WASHINGTON DC — School of Engineering, Computer Science Program Rhetorik von Martin Luther King (Foster Smith, M. C.: COL80, 167 ff.) Naval Research Lab., WASHINGTON DC — Information Technology Div., Computer Science and Systems Branch — Navy Center for Applied Research in Artifical Intelligence Zusammenfassen von Meldungen (Marsh, E.; Hamburger, H.; Grishman, R.: AAAI84, 243 ff.) Deterministisches Parsing (Bachenko, J.; Hindle, D.; Fitzpatrick, E.: AAAI81, 8 ff.) Syntax von Subsprachen (Marsh, E.; Grishman, R.; Thanh Nhan, N.; Hirschman, L.: COL84, 96—100) Analyse komplexer Nominalgruppen (Marsh, E.: COL84, 505—508) Pan Amer ican Health Or ganization, WASHINGTON DC 525 23rd Street N. W. Übersetzungssysteme Englisch-Spanisch (Vasconcellos, M.; Léon, M.: CL 11 (1985) 2—3, 122—136) Purdue Univ., WEST LAFAYETTE Ind. — Dept. of English Kohäsion in Fachtexten (Raskin, V.; Tucker, A. B.; Nirenburg, S.: COL86, 181—183) Wissensbasierte Übersetzung (Raskin, V.;

ASIEN ISRAEL ZEITSCHRIFTEN, NEWSLETTER u. ä.: Hebrew computational linguistics, RamatGan FORSCHUNGSEINRICHTUNGEN: Haifa Univ., HAIFA Modell der Ausdruckskraft in Legenden (Dreizin, F.; Shenhar, A.; Bar-Itzak, H.: COL80, 159 ff.) Technion — Isr ael Institute of Technology, HAIFA Reichtum des biblischen Wortschatzes (Pollatschek, M.; Radday, Y. T.: ALLCB 8 (1980) 217—231) Statistische Analyse der Genesis (Shore, H.; Pollatschek, M. A.; Wickmann, D.; Radday, Y. T.)

I. Computational Linguistics I: Development

38

Academy of the Hebrew Language, JERUSALEM Wortschatz, Struktur und Geschichte des Hebräischen Historisches Wörterbuch des Hebräischen mit 6 Mill. Zitaten von 180 v. Chr. bis 1920 Inventar der von der Akademie und vom Hebrew Language Council geprägten Wörter Wortschatz von Mendele Mokher Sefarim (1855—1917) (Merklin, R.: ALLCB 8 (1980) 1, 15—19) Hebrew Univ, JERUSALEM — Dept. of Hebrew Language — Russian and Slavic Studies — Dept. of the Bible Language Traditions Project (S. Morag): Morphologische Analyse Großes Wörterbuch des Jiddischen: Lemmatisierung (Moskovitch, M. W.) CATSS: Tools für Septuaginta-Studien (Tov, E.; Kraft, R. A.: ALLCB 13 (1985) 37—38) Textstrukturen in graphischer Darstellung (Abadi, A.: HCL 21 (1984) 49 f.) ATNs mit Unterbrechungsmöglichkeit (Attiya, C.; Nirenburg, S.: COL84, 393 ff.) Parallelverarbeitung beim Parsing (Lozinskii, E. L.; Nirenburg, S.: ECAI82, 216—221) Bar-Ilan Univ., RAMAT-GAN — Inst. for Information Retrieval and Computational Linguistics — Fac. of Jewish Studies, Institute for Computer-assisted Information — Dept. of Hebrew and Semitic Languages Responsa-Projekt: Volltextretrieval in hebräischen Texten (Choueka, Y.: CHUM 14 (1980) 153—169) Disambiguierung durch kurze Kontexte (Choueka, Y.; Lusignan, S.: CHUM 19 (1985) 3, 145—148) Datenbank hebräischer Texte in Zusammenarbeit mit der Hebrew Language Academy Bestimmung des Nomens (Agmon-Fruchtman, M.: HCL 18 (1981) 5 f.) Ergativ (Cantor, H.: HCL 16 (1980) 51) Weizman Institute for Science, REHOVOT Semantische Konkordanzen (Fraenkel, A. S.; Spitz, E.: CHUM 13 (1979) 4, 283—288) Tel-Aviv Univ., TEL-AVIV — Dept. of Hebrew Language Causation in Causation (HCL 18 (1981) 6 3 f.)

AUSTRALIEN AUSTRALIEN FORSCHUNGSEINRICHTUNGEN: Canber r a College of Advanced Education, BELCONNEN — School of Information Sciences FOPHO: Erkennung gesprochener (O’Kane, M.: IJCAI83, 630—632)

Sprache

LaTrobe Univ., BUNDOORA Vic. — Computer Science — Spanish — Philosophy Syntax des Spanischen Nichtnumerisches und logisches Rechnen Australian National Univ., CANBERRA — Research School of Pacific Studies (RSPacS), Linguistics Dept. Algorithmus zur Erkennung verwandter Sprachen (Guy, J. B. M.: COL84, 448—451) Monash Univ., CLAYTON Vic. Indices und Konkordanzen (Blackman, D. R.: ALLCB 12 (1984) 43—45) Univ. of New South Wales, NEWCASTLE — Dept. of English Stilistik: Modalverben bei J. Austen (Burrows, J. F.: LLC 1 (1986) 1, 9—23) Univ. of Melbourne, PARKVILLE Vic. — Modern Greek Konkordanzgestützte scher Texte

Analyse

neugriechi-

Univ. of Queensland, ST. LUCIA — Dept. of Computer Science Programmiersprache für Linguistik und Stringverarbeitung (Bailes, P. A. C.: COL80, 520 ff.) NEUSEELAND Univ. of Waikato, HAMILTON Computerunterstützter Französischunterricht: Konjunktiv (Collett, J.: CHUM 16 (1982) 137—143) EUROPA BELGIEN FORSCHUNGSEINRICHTUNGEN Antwerp State Univ. Centre, ANTWERPEN Textverarbeitung und Lexikon (Martin, W.; van Sterkenburg, P.: ALLCJ 2 (1981) 2, 61—68)

2.  Computerlinguistische Forschungen im Überblick

Grundwortschatz 410—414)

(Martin,

W.:

CHP83,

Univ. Libre de BRUXELLES — Dept. of Information Science and Documentation — Groupe d’informatique et de traitement automatique (GITA) Englisch-französische Übersetzung (Luctkens, E.; Fermont, P.: COL86 , 6 43—6 45) Multilinguale Terminologiedatenbanken (Goffin, R.) Konkordanzen Computerunterstützter Fremdsprachenunterricht (Geens, D.: CHP81, 41—46) Computers and the Bible Center, DENEE Korpus maschinenlesbarer Bibeltexte Katholieke Univ. LEUVEN — Afdeling Toegepaste Linguistiek — EUROTRA, Belgo-Dutch Group Computerunterstützte Stilistik (De Kock et al.) Indices, Konkordanzen und Frequenzlisten moderner spanischer Texte (Unamuno u. a.) Textanalyse mit indischen Schriften (Callewaert, W. M.: ALLCB 12 (1984) 1, 5—8) EUROTRA seit 1983 (Jaspaert, L.: COL86 , 294—296) EUROTRA (Eynde, F. van: MUL 5 (1986 ) 159—160) EUROTRA-Repräsentation (Eynde, F. van: MUL 5 (1986 ) 145—146 ; Jaspaert, L.: MUL 5 (1986) 141—145) Université Catholique de LOUVAIN — Centre de Traitement Electronique des Documents (CETEDOC) Mittellateinisches Wörterbuch Thesaurus Patrum Latinorum Konkordanzen, Indices zu vielen klassischen und modernen Texten (Pseudoepigraphen des Alten Testaments, Ethiken des Aristoteles, Metaphysik des Avicenna, Werke von Hella Haasse, von Cervantes usw.) Statistische Analyse portugiesischer Sonette des 16. Jahrhunderts Analysesystem für das Wallonische Univ. de LIEGE — Computer Sciences Dept. — English Dept. — Langues Romanes — Centre Informatique de Philosophie et Lettres, Laboratoire d’Analyse Statistique des Langues Anciennes (LASLA) — EUROTRA, Groupe Belgo-Français

39

Thesaurus medizinischer Rezepte des Altertums Index verborum des Seneca, der Aristotelischen Metaphysik Frequenzwörterbuch des Lateinischen Computerunterstützter Französisch- und Lateinunterricht Bibliographische Datenbank der literarischen Statistik Quantitative Stilistik: Rimbaud (Delcourt, C.: ALLCF83, 195—204) Altfranzösische Lexikonstatistik (Delcourt, C.; Mersch, G.: CHP81, 111—122) Automatische Analyse des geschriebenen Französisch (Binot, J. L.; Graitson, M.; Lemaire, Ph.; Ribbens, D.: COL80, 9 ff.) Repräsentation von Satzbedeutungen (Binot, J.-L.: ECAI84, 305—314) Multilinguale Lexikographie (Noel, J.: COL86. o. S.) Wörterbuchprojekt Longman-Liège (Michiels, A.; Mullenders, J.; Noel, J.: LCPisa 1 (1981) 43 ff.; COL80, 374 ff.) Thesaurusproduktion (Michiels, A.; Noel, J.: COL82, 227 ff.) Zeitschrift: Revue Informatique et Statistique dans les Sciences humaines, Liège, LASLA DÄNEMARK REGELMÄSSIGE TAGUNGEN: Annual Meeting of Danish linguists

computational

FORSCHUNGSEINRICHTUNGEN: Universität ÅRHUS — Nordisches Institut Fangorn: Programmiersprache für Geisteswissenschaften (Andersen, P. B.: CUM 15 (1981) 4, 227—242) Handelshöjskolen i KÖBENHAVN (Copenhagen School of Economics and Business Administration) DANTERM (Engel, G.; Nistrup Madsen, B.: MUL 1 (1982) 4, 239—243) Univ. KOPENHAGEN — Inst. for Applied Mathematical Linguistics — Inst. for Nordic Philology — Romansk Inst. — EUROTRA-DK EUROTRA (Maegaard, B.: MUL 5 (1986 ) 147—149; 157—158)

I. Computational Linguistics I: Development

40

Semantische Relationen (Ruus, H.; SpangHansen, E.: COL86, 20—22) DANWORD (Ruus, H.) Veröffentlichungsreihe: Skrifter om Anvendt og Matematisk Lingvistik (SAML) Technical Univ. of Denmark, LYNGBY — Dept. of Computer Science Verstehen thermodynamischer Übungstexte (Munch, K. H.: COL86, 260—262) BUNDESREPUBLIK DEUTSCHLAND E V RBÄND , E E G S E LLSCHAFT N, GRUPPEN etc.: Gesellschaft für Linguistische Datenverarbeitung (GLDV) Gesellschaft für Angewandte Linguistik (GAL) Deutsche Gesellschaft für Sprachwissenschaft (DGFS) Gesellschaft für Informatik (GI), Fachgruppe „Natürlichsprachliche Systeme“ E Z ITSCHRIFT E N, N E WSL E TT E R u. ä.: Sprache und Datenverarbeitung LDV-Forum Nachrichten für Dokumentation KI-Rundbrief RE G LMÄSSIG E TAGUNG N: Jahrestagung der Gesellschaft für Linguistische Datenverarbeitung Jahrestagung der Deutschen Gesellschaft für Sprachwissenschaft Jahrestagung der Gesellschaft für Angewandte Linguistik German Workshop on Artificial Intelligence (GWAI) FORSCHUNGSEINRICHTUNGEN: Rhein.-Westfäl. Technische Hochschule AACHEN — Deutsches Seminar, Arbeitsgruppe für mathematisch-empirische Systemforschung (MESY) Unscharfe Wortsemantik (Rieger, B.: COL80, 76 ff.; COL82, 319—324; COL84, 298—301) Statistische Textanalyse (Wickmann, D.: ALLCB 8 (1980) 2, 152—165) Univ. AUGSBURG Elizabethanische Glossare ALLCB 8 (1980) 1, 36—41)

(Schäfer,

Freie Univ. BERLIN — Fachbereich Altertumswissenschaften

J.:

— Fachbereich Germanistik Konkordanzprogramm in ALGOL 6 8 (Najock, D.: ALLCB 11 (1983) 1, 5—8) Stemma-Konstruktion (Najock, D.: SDV 4 (1980) 1, 64—82) Corpus Lysiacum: Autorschaft (Najock, D.; Usher, S.: CHUM 16 (1982) 85—105) Editor für statistische Analysen mit Mikrocomputer (Najock, D.: CHP83, 447—453) VESPRA: Erkennen gesprochener Wortformen (Habereck, R.: COL86, 618—620) Technische Univ. BERLIN — Institut für Angewandte Informatik Semantische Netze Referentielle Netze (Habel, C.: COL82, 101 ff.) Interessengeleitetes Textverstehen (Rollinger, C.) Maschinelles Lernen (Morik, K.) Natürlichsprachliche Schnittstelle für verteilte Datenbanken Deutsche GPSG-Grammatik (Kilbury, J.) GSPG: Restriktion der Kookkurrenz von Kategorien und Eliminierung von Metaregeln (Kilbury, J.: COL86, 50—55) Satzgenerierung (Wang, J.: COL80, 405 ff.) Univ. BIELEFELD — Fak. für Linguistik und Literaturwissenschaft BATNET: ATN-Parser (Eikmeyer, H.-J.: Gibbon, D.: SDV 7 (1983) 1/2, 26—39) Nicht-standardgemäßer Input (Gehrke, M.: ACL/EC83, 183—187) Phonologisches Parsing (Dogil, G.: COL86 , 615—617) ATNs als prozedurales Dialogmodell (Metzing, D.: COL80, 487 ff.) Rekonstruktion aufgabenorientierter Dialoge (Gehrke, M.: IJCAI83, 721—723) Interaktion von LFG und GPSG beim Parsing des Deutschen (Metzing, D.) TESSDAT: FRL-Repräsentation von Sprachkursen Univ. BOCHUM — Romanisches Seminar — Sprachwissenschaftliches Institut Algorithmische Grammatik (Figge, U. L.: SDV 7 (1983) 1/2, 5—10) Parsingtheorie (Schnelle, H.: COL84, 150 ff.) Univ. BONN — Institut für Kommunikationsforschung und Phonetik (IKP) Automatische

Spracherkennung

und

-pro-

2.  Computerlinguistische Forschungen im Überblick

duktion (Lenders, W.; Stock, D.: SDV 8 (1984) 1/2, 44—53) Lemmatisierung (Willée, G.; Krause, W.: CHUM 15 (1981) 2, 101—113; Schulze, W.; Willée, G.: SDV 7 (1983) 1/2, 40 ff.) Erlernung und Simulation morphologischer Ableitungsregeln (Wothke, K.) Deutsche Wortdatenbank (Brustkern, J.; Schulze, W.: SDV 4 (1980) 2, 163—178) Deutsche Wortdatenbank: Morphosyntaktische Komponente (Schulze, W.; Heinze, G.: SDV 6 (1982) 1/2, 34—42) Bedeutungsbeschreibungen in Wörterbüchern Erschließen von Sachverhalten aus Handlungsabläufen (Hess, K.-D.: SDV 4 (1980) 1, 14—28) WISLIB: Silbenzählung in englischen Wörtern (Bolz, N.; Willée, G.: SDV 6 (1982) 1/2, 43—47) Technische Univ. BRAUNSCHWEIG — Inst. für Nachrichtentechnik Erwartungsorientierte Erkennung gesprochener Sprache (Mudler, J.; Paulus, E.: SDV 8 (1984) 1/2, 6 4—71; Mudler, J.: IJCAI83, 633—635) Univ. DÜSSELDORF — Seminar für Allgemeine Sprachwissenschaft Phonologie bei der Modellierung des Sprachverstehens (Wiese, R.: COL86, 608—611) Univ. ERLANGEN-NÜRNBERG — Lehrstuhl für Informatik 5 (Mustererkennung) — RRZE Erlanger Spracherkennungssystem (Niemann, H.) Netzwerk-Grammatik zur Erkennung von gesprochenem Deutsch (Brietzmann, A.: SDV 8 (1984) 1/2, 54—63) Semantik beim Verstehen gesprochener Sprache (Brietzmann, A.; Ehrlich, U.: COL86 , 596—598) Pragmatik beim Verstehen gesprochener Sprache (Brietzmann, A.; Goerz, G.: COL82, 49 ff.) GLP: General Linguistic Processor (Goerz, G.: IJCAI81, 429 ff.; ECAI82, 257—258) GLP: Parsing von Sprechpausen (Goerz, G.; Beckstein, C.: ACL/EC83, 111—113) Gesellschaft für Information und Dokumentation, FRANKFURT Worterkennngsverfahren und Satzsegmentierung (Müller, H.: SDV 4 (1980) 1, 46—64)

41

Retrieval mit Nominalgruppen (Rostek, L.) Univ. GÖTTINGEN — Seminar für Slav. Philologie — Romanisches Seminar — Ostasiatisches Seminar Deutsche Lehnwörter im Polnischen (Hentschel, G.: SDV 7 (1983) 1/2, 11—15) Kontextfreies Parsing elliptischer Sätze (Klenk, U.: SDV 7 (1983) 1/2, 21—25) Verarbeitung chinesischer und japanischer Schrift (Suchenwirth, R.: SDV 7 (1983) 1/2, 35—39) Philips GmbH, Forschungslab. HAMBURG Erkennung gesprochener Sprache: Statistische Modellierung (Ney, H.; Geppert, R.; Mergel D.; Noll, A.; Piotrowski, H.; Schwartau, P.; Tomaschewski, H.: SDV 8 (1984) 1/2, 17—33) Univ. HAMBURG — Fachbereich Informatik — Forschungsstelle für Informationswissenschaft und KI — Germanisches Seminar — Seminar für Jugendrecht und Jugendhilfe HAM-ANS: Hamburger Redepartnermodell Modellierung von Fragen (Wahlster, W.: COL80, 144 ff.) Überbeantwortung von Ja/Nein-Fragen (Wahlster, W.; Marburger, H.; Jameson, A.; Busemann, S.: IJCAI83, 643—646) HAM-ANS: Ausfüllen von Kasusrollen (Marburger, H.; Wahlster, W.: ACL/EC83, 188—195) Benutzerorientierte Generierung von Anaphern (Jameson, A.; Wahlster, W.: ECAI82, 222—227) HAM-ANS: Fachgebietsunabhängigkeit (Hoeppner, W.; Christaller, T.; Marburger, H.; Morik, K.; Nebel, B; O’Leary, M.; Wahlster, W.: IJCAI83, 588—594) Pragmatik im Mensch-Maschine-Dialog (Hahn, W. v.: COL86, 520—526) Natürlichsprachlicher Dialog über automatisch analysierte Verkehrsszenen (Marburger, H.; Neumann, B.; Novak, H.-J.: IJCAI81, 49—51) Textgenerierung: Verkehrsszene (Novak, H.-J.: COL86, 570—575) Ereignismodelle für natürlichsprachlich beschriebene Verkehrsszenen (Neumann, B.; Novak, H.-J.: IJCAI83, 724—726) Logische Darstellung von Wissen und Datenbasen (v. Hahn, W.) Repräsentation inkonsistenten Wissens (Habel, C. U.: COL86, 62—64)

42

Nachfrage nach natürlichsprachlichen Systemen (Morik, K.: IJCAI83, 647—649) Medien-Inhalts-Atlas (Hagemann, O.: SDV 9 (1985) 2, 35—41) IBM Wissenschaftliches Zentr um, HEIDELBERG Tiergartenstr. 15 LEX: Expertensystem zum Verkehrsstrafrecht (Lehmann, H.; Guenthner, F.: COL84, 398—401) Pronominalisierung (Lehmann, H.; Guenthner, F.: ACL/EC83, 144—151) Maskierung von Suchwörtern (Ruhbach, B.; Schek, H.-J.: SDV 4 (1980) 1, 82—88) USL: Bedeutung von OF und HAVE (Zoeppritz, M.: AJCL 7 (1981) 2, 109—119) Deutsche lexikalische Datenbasis (Barnett, B.; Lehmann, H.; Zoeppritz, M.: COL86 , 435—440)

I. Computational Linguistics I: Development

(Hahn, U.: COL84, 402 ff.) Semantik von Frames (Reimer, U.; Hahn, U.: IJCAI83, 337—339) Zukunftsprognose Informationslinguistik (Kuhlen, R.: COL84, 540—545) Automatische Übersetzung: Bewertung und Zukunftsprognose (Kuhlen, R.: SDV 6 (1982) 1/2, 28—33) Übersetzungsbezogene Kontexttheorie (Pause, P.)

Programmsystem zur geisteswissenschaftlichen Texterschließung (Hellwig, P.) Computer in der lexikographischen Praxis (Wiegand, H. E.) Dependenz-Unifikationsgrammatik (Hellwig, P.: COL86, 195—198)

Institut für deutsche Sprache, MANNHEIM Friedrich-Karl-Str. 12 Lexikographische Datenbank (LEDA) (Brückner, T.: SDV 6 (1982) 1/2, 28—33; Teubert, W.: COL84, 34—37) Lemmatisierung (Krause, W.; Willée, G.: CHUM 15 (1981) 2, 103—113) MOLEX: Morphologisches Vollformenlexikon. Lernen morphologischer Regeln (Wothke, K.: COL86, 289—293) Wissensrepräsentation und Methodologie der Computerlinguistik (Zifonoun, G.: COL80, 202 ff.) ZUMA — Zentr um für Umfr agen, Analysen und Methoden e. V., MANNHEIM Postfach 59 6 9 Inhaltsanalyse (Mohler, P. P.: SDV 9 (1985) 2, 11—15)

Univ. KAISERSLAUTERN — Fachbereich Informatik

Univ. MARBURG — Forschungsinst. für deutsche Sprache

Grammatiktheorie (Dilger, W.: COL80, 397 ff.; COL82, 77 ff.) Semantische Netze als abstrakte Datentypen (Dilger, W.; Womann, W.: IJCAI83, 321—324) Er ziehungswissenschaftliche Hochschule KOBLENZ Referenzsemantik der natürlichen Sprachen (Bátori, I. S.: SDV 4 (1980) 1, 1—9)

Kleiner Deutscher Sprachatlas W.) Flurnamenkorpus Atlas Linguarum Europae

Univ. HEIDELBERG — Germanistisches Seminar

Univ. KÖLN — Institut für Phonetik — Zentralarchiv für empirische Sozialforschung Computerartikulationsmodell des Deutschen Inhaltsanalyse (Mochmann, E.: SDV 9 (1985) 2, 5—10) Univ. KONSTANZ — Informationswissenschaft — SFB 99 „Linguistik“ Wissensbasiertes Textinformationssystem TOPIC (Hahn, U.; Reimer, U.: COL86 , 497—503) TOPIC: Textparsing mit Wortexperten

(Putschke,

Siemens AG, MÜNCHEN Otto-Hahn-Ring 6 — ZT ZTI — Sprachendienst (Hofmannstr. 51) LFG-Parser: Movement-Rules (Block, H.-U.; Haugeneder, H.: COL86, 482—486) LFG-Parser: Aufbau der C- und F-Struktur (Block, H.-U.; Hunze, R.: COL86, 490—493) Erkennung gesprochener Sprache (Hoege, H.; Lang, M.: SDV 8 (1984) 1/2, 34—43) Valenzorientiertes Parsing gesprochener Sprache (Niedermair, G. T.: COL8 6 , 593—595) Morphologische Analyse (Thurmair, G.: COL84, 174—177) Fachsprachen und Terminologie (Schneider, T.: CHUM 19 (1985) 2, 103—108) Terminologiedatenbanken (Brinkmann, K.-H.: COL80, 463 ff.) Lexikalische Analyse des Hebräischen (Morgenbrod, H.: SDV 6 (1982) 1/2, 48—50)

2.  Computerlinguistische Forschungen im Überblick

APE: ATN-Programmierumgebung (Haugeneder, H.; Gehrke, M.: COL86, 399—401) Natürliche Sprache und EDV (Morgenbrod, H.: SDV 9 (1985) 2, 42—47) Systran-Institut, MÜNCHEN Linguistische Grundlagen von SYSTRAN (Billmeier, R.: MUL 1 (1982) 3—96) Technische Univ. MÜNCHEN — Lehrstuhl für Datenverarbeitung Erkennung gesprochener Sprache G.: SDV 8 (1984) 1/2, 5—16) Univ. MÜNCHEN Kritische Edition des Ulysses H.-W.: ALLCB 8 (1980) 232—248)

(Ruske,

(Gabler,

Univ. MÜNSTER — Fachbereich 12 — Rechenzentrum Stemma-Rekonstruktion: Neues Testament (Beduhn-Mertz, A.: ALLCJ 5 (1985) 1—2, 31—35) Shakespeare Dictionary Model (Neuhaus, H. J.: COL86, 441—444) Univ. OSNABRÜCK — Fachbereich Sprache, Literatur, Medien PROLOG-System für Mikrocomputer (Gust, H.: SDV 7 (1983) 1/2, 16—20) Standard Elektrik Lorenz AG, PFORZHEIM Ostendstr. 3 Japanisch-deutsche Übersetzung: semantisch basierte Generierung (Lesniewski, A.; Hanakata, K.; Yokoyama, S.: COL86, 560—562) ECO-Institut, REGENSBURG Evaluierung von SUSY-DJT (Titelübersetzung) (v. Ammon, R.; Wessoly, R.: MUL 3 (1984) 4, 189—196 ; 4 (1985) 1, 27—33; 5 (1986) 21—29) Univ. REGENSBURG — Inst. für Romanistik — Linguist. Informationswissenschaft Dialektometrie (Goebl, H.: CHUM 16 (1982) 69—84) Evaluierung natürlichsprachlicher Schnittstellen: PLIDIS (Krause, J.: SDV 4 (1980) 1, 28—36) Evaluation von Texterschließungs- und Textverarbeitungssystemen (Krause, J.) Lemmatisierung (Schneider, C.: ALLCB 8 (1980) 2, 166—174) Computerunterstütztes Indexing (Zimmermann, H.: COL80, 558 ff.)

43

Univ. SAARBRÜCKEN — Informationswissenschaft — SFB 100 „Elektronische Sprachforschung“ — Informatik 4 — IAI-EUROTRA-D SUSY I und SUSY II: Analysestrategien (Maas, H.-D.: SDV 5 (1981) 1/2, 5—9) Englische Analyse (Wilss, W.) Systemarchitektur von SUSY (Thiel, M.: SDV 5 (1981) 1/2, 20—24) SUSY-Bewertung (Luckhardt, H.-D.: SDV 5 (1981) 1/2, 25—28; MUL 1 (1982) 4, 213—220) Sublanguage-Konzept in SUSY (Luckhardt, H.-D.: MUL 3 (1984) 3, 135—142) SUSY-Anpassung (Freigang, K.-H.: SDV 5 (1981) 1/2, 29—31; Wilms, F.-J. M.: SDV 5 (1981) 1/2, 38 ff.; Schmitz, K.-D.: SDV 5 (1981) 1/2, 32—37) SUSY-DJT: Jap.-deutsche Titelübersetzung (Zimmermann, H.) CTX: Inhaltserschließung (Zimmermann, H.) EUROTRA: Disambiguierung (Haller, J.: MUL 5 (1986) 152—156) EUROTRA: Valenztheorie in der maschinellen Übersetzung (Schmidt, P.: COL8 6 , 307—312) EUROTRA: Generieren semantischer Strukturen (Steiner, E.: COL86, 304—306) EUROTRA-Lexikon: Semantische Merkmale (Zelinsky-Wibbelt, C.: COL86, 7—12) TEXAN: Pragmatik in der maschinellen Übersetzung (Rothkegel, A.: COL8 6 , 335—337) ASCOF: Französisch-deutsche Übersetzung (Biewer, A.; Féneyrol, C.; Ritzke, J.; Stegentritt, E.: CL 11 (1985) 2—3, 137—154) Maschinelle Wörterbücher (Zimmermann, H.: SDV 6 (1982) 1/2, 3—4; Werner, H.: SDV 4 (1980) 1, 88—99) Syntaktische Probleme des Maschinenübersetzens (Wilss, W.: MUL 2 (1983) 3, 139—148) Lemmatisierungssystem SALEM (Eggers, H.: ALLCB 9 (1981) 2, 9—15) Kohärenzanalyse von Texten (Weber, H. J.) Lexikographieprojekte (v. Keitz, W.: SDV 6 (1982) 1/2, 11—27) Gesten und Sprache bei der Identifikation von Objekten (Kobsa, A.; Allgayer, J.; Reddig, C.; Reithinger, N.; Schmauks, D.; Harbusch, K.; Wahlster, W.: COL86 , 356 —36 1) HAM-ANS: Ausfüllen von Kasusrollen (Wahlster, W.; Marburger, H.: ACL/EC83, 188—195)

I. Computational Linguistics I: Development

44

Er nst Klett Gesellschaft für Mediendienste, STUTTGART Rotebühlstr. 77 Wörterbuchdatenbank mit ATN (Drewek, R.) Fraunhofer-Institut IAO, STUTTGART Holzgartenstr. 17 Diskursrepräsentationstheorie: Definite Nominalphrasen (Pinkal, M.: COL8 6 , 368—373) Univ. STUTTGART — Inst. für Informatik — Inst. für Linguistik — Inst. für Romanistik Wissensbasiertes integriertes InformationsManipulations-System (IMS) (Fischer, G.: COL80, 570 ff.) LFG: PROLOG-Implementierung (Frey, W.; Reyle, U.: ACL/EC83, 52—57; IJCAI83, 6 93—6 95; Eisele, A.; Dörre, J.: COL86, 551—553) LFG: Ableitungskonzept (Wedekind, J.: COL86, 487—489) LFG: Wortstellung im Deutschen (Netter, K.: COL86, 494—496) Diskursrepräsentationsstrukturen (Reyle, U.: IJCAI85, 829—831) Textverstehen: Digester und Informant (Hanakata, K.: COL80, 504 ff.) Inhaltsgesteuerte Fragebeantwortung (Kümmel, P.: COL80, 559 ff.) Semantisches Parsing (Laubsch, J.; Roesner, D. F.: COL80, 364 ff.) Formalisierung von Argumentationsstrukturen (Laubsch, J.; Roesner, D. F.: COL82, 325—330) Begriffslexikon in CTALK (Hanakata, K.; Yokoyama, S.: COL86, 226—228) Aufbau einer Wissensbasis aus natürlichsprachlichen Texten (Frey, W.; Reyle, U.; Rohrer, C.: IJCAI83, 727—729) Jap.-deutsche Übersetzung: Synthese des Deutschen (Laubsch, J.; Roesner, D.; Hanakata, K.; Lesniewski, A.: COL84, 491—494) Jap.-deutsche Übersetzung: semantisch basierte Generierung (Hanakata, K.; Lesniewski, A.; Yokoyama, S.: COL8 6 , 560—562) Jap.-deutsche Titelübersetzung (Rösner, D.: COL86, 652—654) Theoretische Linguistik und maschinelle Übersetzung (Rohrer, C.: COL86 , 353—355) Tempus in französischen Texten (Rohrer, C.: COL80, 122 ff.; COL82, 331—332) Univ. TRIER

— Deutsche Philologie Mittelhochdeutsche Konkordanzen und Indices (Gärtner, K.: CHUM 14 (1980) 1, 39—45) Univ. TÜBINGEN — Rechenzentrum, Abt. Literarische und dokumentarische Datenverarbeitung — Seminar für Englische Philologie Forschungsschwerpunkt Wissenschaftliche Textdatenverarbeitung (Ott, W.) EDV im Editionswesen: Bibliographie (Ott, W.: SDV 4 (1980) 2, 179—184) Editionstechnik (Ott, W.: ALLCB 10 (1982) 2, 35—39) LEX: Expertensystem zum Verkehrsstrafrecht (Guenthner, F.; Lehmann, H.: COL84, 398—401) Pronominalisierungsregeln (Guenthner, F.; Lehmann, H.: ACL/EC83, 144—151) Univ. ULM — Sektion für Psychoanalytische Methodik Psychotherapeutisches Textkorpus TBMS: Datenbanksystem für Texte (Goeser, S.; Mergenthaler, E.: COL86, 235—240) Inhaltsanalyse psychotherapeutischer Gespräche (Mergenthaler, E.: SDV 9 (1985) 2, 16—20) Bedeutungsstrukturen in der Psychoanalyse (Mergenthaler, E.; Kaechele, H.: SDV 9 (1985) 2, 21—28) Inhaltsanalyse: Genetische Beratung (Sponholz, G.; Baitsch, H.: SDV 9 (1985) 2, 30—34) DEUTSCHE REPUBLIK

DEMOKRATISCHE

ZEITSCHRIFTEN, NEWSLETTER u. ä.: Akademie der Wissenschaften der DDR, Problemrat für die automatische Datenverarbeitung: Mitteilungen zur automatischen Sprachverarbeitung Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikation (ZPSK) VERÖFFENTLICHUNGSREIHEN: Automatische Sprachübersetzung, mie-Verlag, Berlin Linguistische Studien, Reihe A, Berlin

Akade-

REGELMÄSSIGE TAGUNGEN: Deutsche Akademie der Wissenschaften der DDR, Zentralinstitut für Sprachwissenschaft: Internationales Seminar für Automatische Sprachverarbeitung

2.  Computerlinguistische Forschungen im Überblick

Internationale Konferenz Sprachverarbeitung

für

Automatische

FORSCHUNGSEINRICHTUNGEN: Deutsche Akademie der Wissenschaften der DDR, Berlin — Zentralinstitut für Sprachwissenschaft — Zentralinstitut für Kybernetik und Informationsprozesse FAS-80 (Frage-Antwort-System) DAD, DAD-2: Deutsche Abfrage von Datenbanken (Koch, D.) DAD-2: Behandlung der Komparation (Heicking, W.) MIN-DAD (Busse, J.) MORPHOS: Schema zur morphologischen Analyse (Koch, D.) Merkmaldarstellung von Verben (Höser, I.) Anwendung des Negations-PräsuppositionsKalküls (Jung, U.) Gesamtprojekt der syntaktischen Analyse des Deutschen (Kunze, J.) Syntaktische Analyse mehrdeutiger Sätze (Henschel, R.) Büschel bei der syntakt. Analyse; ATN-gestützte syntaktische Analyse (Reimann, D.) Substantiv- und Verbvalenzen; Unterordnungsrelationen in syntaktischen Regeln (Klimonov, G.) Semantik in der syntaktischen Analyse (Kunze, J.) Funktionsverbgefüge, Abhängigkeitsgrammatik (Starke, I.) Verbgruppenanalyse (Küstner, A.) Automatische Graphem-Phonemumsetzung: Sprachsynthetisator ROSY 4201 (Menzel, W.) Wortstrukturanalyse für die automatische Graphem-Phonemanalyse (Rüdiger, B.) Automatische Graphem-Phonem-Umsetzung (Koch, S.; Rüdiger, B.; Starke, I.: ZSPK 36 (1983) 6, 655—663) Automatische Silbentrennung (Küstner, H.) Projekt ‚Semantik und Selektion’: Aussagekalkül mit Negationsoperatoren; Formale Repräsentation von „nicht“ (Küstner, H.) Darstellung temporaler Beziehungen (Kunze, J.) Tempusbeziehungen und zeitlogische Inferenzen (Kunze, J.: COL86, 350—352) Abarbeitung von Regelsystemen (Busse, J.) Humboldt-Univ. BERLIN — Arbeitsgruppe Informationsverarbeitung des Bereiches Medizin Semantische Textanalyse am Beispiel medizi-

45

nischer Befundtexte Indexierung medizinischer Befunde (Steiger, R.) Automatisches Indexieren von medizinischen Texten mit der Analysemethode SYSAN Probleme bei der Analyse lateinischer Fachtermini Koordination im Text (Steiger, R.) Inhaltsschwache Prädikate (Seffner, S.) Technische Univ. DRESDEN — Rechenzentrum — Sektion Angewandte Sprachwissenschaft Erkennung fließend gesprochener Sprache (Flach, G.; Jugel, M.) Sprachsignalverarbeitung (Tscheschner, W.) Suche in automatischen Fachwörterbüchern Elektronisches Fachwörterbuch Russisch, Englisch, Deutsch Wiederauffinden von Informationen in automatischen Wörterbüchern (Neubert, G.: COL82, 259 ff.) Automatische Behandlung von Wortbildungsmustern (Neubert, G.) VEB Robotron, DRESDEN — Zentrum für Forschung und Technik FAS-80 (Frage-Antwort-System) Beispieldialoge von FAS-80 (Zänker, F.) Klassifikation von Ellipsen im Dialog (Zänker, F.) Natürlichsprachliches Interfaçe zum DBS AIDOS (Helbig, H.) Semantische Netze (Böttger, H.) Übersetzung von Tiefenstrukturen in Recherchefragen (Böttger, H.) Univer sitäts- und Landesbibliothek SachsenAnhalt, HALLE Rechnergestützte Herstellung eines einsprachigen Frequenzwörterbuches für die diachronische Sprachbetrachtung Frequenzstatistik in der Diachronie des Russischen (Dietze, J.: ZSPK 37 (1984) 3, 355—360) Technische Hochschule ILMENAU Morphemklassifikation zur automatischen Textanalyse Automatische Faktenextraktion aus technischen Fachtexten Regel- und Bezugssystem im Rechner (Mater, E.) Karl-Marx-Univ. LEIPZIG — Fakultät für Kultur, Sprachen und Erziehung

46

— Theoretische und angewandte Sprachwissenschaft Ellipsen bei koordinativen Sätzen (Herrmann, E.) Klassifikation von Genitivattributen (Rohkohl, I.) Programm FOREIGN LANGUAGES zur Produktion von — Wortlisten, absoluten und relativen Frequenzlisten von Korpora — Frequenzranglisten von Wörtern — Listen für spezielle Wortklassen oder thematische Klassen (Wissenschaftsgebiete etc.) Bearbeitung von Korpora wissenschaftlicher Texte FINNLAND FORSCHUNGSEINRICHTUNGEN: Research Center for Domestic Languages Wortindex der Werke Agricolas (Altfinnisch) Helsinki Univ. of Technology, ESPOO — Digital System Lab. — Computing Center

I. Computational Linguistics I: Development

Clusteranalyse von Platos Werken Zweistufige Beschreibung des Altkirchenslawischen Beschreibung des modernen Griechischen und Arabischen Syntax des modernen Englisch (Rissanen) Segmentierung finnischer Flexionsmorpheme (Karlsson, F.) „The Characteristics of Finnish Text Clauses” (Karlsson, F.; Hakulinen, A.; Vilkuna, M.) Finnische Flexionsmorphologie: Worterkennung und -produktion (Koskenniemi, K.: COL84, 178—181; IJCAI83, 683—685) Univ. of OULU Frequenzwörterbuch des Finnischen Zweistufige Beschreibung des Lappischen Univ. of TURKU — Phonetics Dept. Korpora der finnischen Dialekte Computerarchiv der finnischen Syntax Synthetisierung von gesprochenem Finnisch

FRANKREICH KI-Projekt mit Finnisch als Kommandosprache ZEITSCHRIFTEN, NEWSLETTER, u. ä.: Graphentheoretisches semantisches Parsing TA informations (Hyvönen, E.: COL84, 517 ff.; IJCAI83, E E V RBÄND , E E G S E LLSCHAFT N, 671—674) GRUPPEN etc.: Knowledge Engineering bei der morphologiA. T. A. L. A. (Association pour la Traducschen Analyse (Jäppinen, H.; Lehtola, A.; tion Automatique et la Linguistique AppliNelimarkka, E.; Ylilimmi, M.: ACL/EC83, quée) 49—51) FORSCHUNGSEINRICHTUNGEN: Parsing: Finnisch (Nelimarkka, E.; Jäppinen, H.; Lehtola, A.: ECAI84, 325 ff.) CES AVIGNON Dependenzgrammatisches Parsing des FinniSprachstatistik und Interpretation (Dugast, schen (Nelimarkka, E.; Jäppinen, H.; LehD.: ALLCF83, 221—229) tola, A.: COL84, 389—392) Kanji Input (Seppänen, J. J.: COL80, 287 ff.) Faculté des Lettres, BESANÇON — Inst. d’Etudes Comtoises et Jurassiennes SITRA Foundation, HELSINKI — Lab. Mathématiques — Informatique — P. O. Box 329 Statistique FUNDPL: Funktionale Sprache zur Definition von Grammatiken (Jäppinen, H.; LehOrtsnamen der Franche-Comté (Lassus, F.; tola, A.; Valkonen, K.: COL86, 461—463) Greffier, F.: ALLCF83, 29—34) „Epaves“ von J. Green: Sprachstatistik Univ. of HELSINKI (Condé, C.: ALLCF83, 205—209) — Dept. of General Linguistics Textverarbeitung auf Mikrocomputern (Mas— Dept. of Asian and African Studies sonie, J.-P.: ALLCF83, 159—161) — Dept. of English Philology — Dept. of Classical Philology Univ. de Savoie, CHAMBÉRY Synthese gesprochener Sprache: Deutsch Automatische Erkennung des Finnischen (Zinglé, H.: ALLCB 13 (1985) 1, 5—8) Neo-Assyrische Texte (Konkordanzen und Société d’Étude et de Recherche en LinguistiIndices) que et Informatique, CHARENTON Edition von Texten in Indus-Schrift 72, quai des Carrières Indices altenglischer Texte SAPHIR: Abfragesystem für relationale Da-

2.  Computerlinguistische Forschungen im Überblick

tenbanken (Normier, B.; Bourguignon, M.; Buzenat, B.: TA 23 (1982) 2, 32—58)

47

J.

Merlin Gerin, GRENOBLE — Service de documentation Semantische Netze (1981) 1, 15 ff.)

(Deweze,

A.:

TA

22

Univ. de GRENOBLE 1 — Groupe d’Études pour la Traduction Automatique (GETA) — Laboratoire IMAG Maschinelle Übersetzung in Grenoble (Vauquois, B.; Boitet, C.: CL 11 (1985) 1, 28—36) Paradigmen der maschinellen Übersetzung (Boitet, C.; Chatelin, P.; Daun Fraga, P.: COL80, 430 f.) Expertensysteme in der maschinellen Übersetzung (Boitet, C.; Gerber, R.: COL84, 468—471) Analysestrategien (Yusoff, Z.: COL8 6 , 136—139) Interaktion vom morphologischer und syntaktischer Komponente bei der Analyse des Französischen (Berrendonner, A.; Bouché, R.; Le Guern, M.; Rouault, J.: TA 21 (1980) 1, 3—28) Parallelverarbeitung bei der maschinellen Übersetzung (Verastegui, N.: COL82, 397 ff.) ARIANE 78.4: Integriertes System mit Revision durch menschliche Bearbeiter (Boitet, C.; Guillaume, P.; Quezel-Ambrunaz, M.: COL82, 19 ff.) Integriertes Wörterbuch für Mensch und Maschine (Boitet, C.; Nedobejkine, N.: COL86 , 423—428) Computerunterstützte Übersetzung: Wörterbuch (Bukowski, J.: COL86, 429—431) Russisch-französische Übersetzung (Boitet, C.; Nedobejkine, N.: COL80, 437 ff.) Generierung des Chinesischen (Yang Ping: TA 23 (1982) 1, 40—68) Softwareumgebung für maschinelle Übersetzung (Boitet, C.; Nedobejkine, N.: ALLCF83, 139—148) Software-Tools für computerunterstützte Übersetzung (Verastegui, N.; Bachut, D.: COL84, 330—333) Übersetzungsmodell ARIANE: Metasprache (Guilbaud, J.-P.: COL86, 405—407) EUROTRA-Systemumgebung (Boitet, C.: MUL 5 (1986) 170—174) LT: Transskriptionssprache (Lepage, Y.: COL86, 402—404)

SCSL: Linguistische Spezifikationssprache (Zajac, R.: COL86, 393—398) SCSE: Entwicklungsumgebung für Grammatiken (Yan, Y.: COL86, 81—84) Dynamische Thesauruspflege (Bruandet, M. F.: COL80, 586 ff.) Linguistische Analyse bei der Informationssuche: Bewertung (Grandjean, E.; Veillon, G.: COL80, 512 ff.) Sprachanalyse und Commonsense-Logik (Dymetman, M.: COL86, 511—514) I. U. T. du HAVRE — Laboratoire de Traitement de l’Information SYGMART: Parsing (Chauché, J.: COL84, 11 ff.; ALLCF83, 163—171) CNRS „Histoire et structure de l’orthographe française“, IVRY-sur-Seine Automatische Graphem-Phonem-Umsetzung (Catach, N.: ALLCF83, 1—14) Centr e National des Télécommunications, LANNION Generierung gesprochener Sprache aus einer semantischen Repräsentation (Emerard. F.; Danlos, L.; Laporte, E.: COL86, 599—604) CII Honeywell Bull, LOUVECIENNES 68, route de Versailles Deixis im Dialog (Kuntz, M.: TA 22 (1981) 2, 34—49) OPERA: Erweiterung der Ausdrucksfähigkeit (Sedogbo, C.: COL86, 23—28) INSERM (CNRS) Unité 94, LYON 16, av. Doyen Lépine Syntaxbäume (Lavorel, P. M.: TA 25 (1984) 1, 35 ff.) Institut National des Sciences Appliquées de LYON, Villeurbanne — Dept. Informatique 20, av. A. Einstein Selektionsmodell für Sprechfehler (Frecon, L.; Lavorel, P. M.: TA 21 (1980) 1, 38—44) Univ. Claude-Bernard (LYON 1) — Lab. d’informatique documentaire, Groupe SYDO Sprachverarbeitung in der Dokumentation (Lainé, S.: TA 21 (1980) 2, 33 ff.) Analyse des Französischen: Interaktion von morphologischer und syntaktischer Komponente (Bouché, R.; Berrendonner, A.; Le Guern, M.; Rouault, J.: TA 21 (1980) 1, 3—28)

I. Computational Linguistics I: Development

48

Univ. de LYON 2 — Inst. d’Anglais Lexikonstatistik: Frequenzverteilungen (Thoiron, P.: ALLCF83, 211—220) Analyse des Französischen: Interaktion von morphologischer und syntaktischer Komponente (Le Guern, M.; Bouché, R.; Berrendonner, A.; Rouault, J.: TA 21 (1980) 1, 3—28) INSEE, MALAKOFF 3, av. P. Larousse Computerunterstützter Sprachunterricht: Pronominalkonstruktionen im Französischen (Alviset, C.; Zock, M.; Sabah, G.: COL86, 566—569) Laboratoire d’Informatique pour les Sciences de l’Homme (LISH), MARSEILLE 31, chemin Joseph Aiguier Wissensrepräsentation und Argumentation in den Geisteswissenschaften (Borillo, M.: TA 21 (1980) 1, 45 ff.) ARCHES: Wissensrepräsentation und Inferenzen (Chouraqui, E.: COL82, 55 ff.) Univ. d’Aix-Marseille, MARSEILLE — Lab. de Biophysique Datenbank mit natürlichsprachlicher Benutzerschnittstelle (Pique, J. F.: Sabatier, P.: ECAI82, 250—254) Univ. de METZ — UER Lettres — Centre d’Analyse Syntaxique — Groupe Analyse Syntaxique des Langues de Spécialité — Dept. d’Anglais — Dept. d’Allemand Syntaktische Analyse englischer Fachtexte Parsing germanischer Sprachen (Dimon, P.; Lejosne, J. C.: ALLCF83, 185—189) Erkennung von Begriffen: Syntaktischer Ansatz (Gallais-Hamonno, J.: ALLCF83, 73—80) Schizophrene und Depressive: Artikelgebrauch (Burner, S.: ALLCF83, 47—53) Institut National de la Langue Fr ançaise, MEUDON — URL 5 Korpus literarischer Zeitschriften 1920—1940 (Bonnaud-Lamotte, D.; Rispail, J.-L.: ALLCF83, 231—236) Univ. Paul Valéry (MONTPELLIER 3) Ambiguität und Sprechakte (Angeletti, T.: TA 21 (1980) 2, 3 ff.) Institut National de la Langue Fr ançaise,

NANCY Trésor général des langues et parlers français Trésor de la langue française Lexikographie und Computer (Quemada, B.: LCPisa 1 (1981) 15—19) EUROTRA Univ. de NANCY 2 — Centre de Recherche en Informatique de Nancy (CRIN) — Équipe Compréhension du Langage Naturel — Équipe Reconnaissance des Formes en Intelligence Artificielle — Centre de Recherches Linguistiques pour la Traduction Automatique (CELTA) — Centre des Recherches et d’Applications Linguistiques (CRAL) Wissensrepräsentation beim Verstehen französischer Texte Mensch-Maschine-Kommunikation (gesprochene und geschriebene Sprache, Bilder) Erkennung gesprochener Sprache MYRTILLE 1 Wissensrepräsentation: Produktionsregeln (Coulon, D.; Kayser, D.: TA 21 (1982) 2, 3—31) Sprachverstehen mit variabler Analysetiefe (Coulon, D.; Kayser, D.: IJCAI81, 64—66) Verstehen gesprochener Sprache (Haton, J. P.; Pierrel, J. M.: ALLCF83, 173—184) Maschinelle Übersetzung: Englisch, Spanisch, Französisch mit ARIANE-78 und SYGMART Vergleich SYGMART — PROLOG: Transformationsprozesse (Chauché, J.: COL86 , 408—411) EUROTRA Maschinelle Übersetzung als Mittel linguistischer Forschung (Bourquin, G.: ALLCF83, 149—152) Computerunterstützter Unterricht in Frankreich (Quere, M.: CHP83, 545—550) Mittelfranzösische Indices (Naïs, H.: ALLCF83, 81—89) Faculté de Lettres, NICE — URL 9 Frequenzverteilungen in der Sprachstatistik (Brunet, E.: AllCF83, 253—264) Statistische Untersuchung semantischer Felder (Juillard, M.: ALLCF83, 237—252) Lab. d’Informatique pour la Méchanique et les Sciences de l’Ingénieur (LIMSI), ORSAY — Langues Naturelles ARBUS:

Tool

zur

Grammatikentwicklung

2.  Computerlinguistische Forschungen im Überblick

(Memmi, D.; Mariani, J.: COL82, 221—226 ) Computerunterstützter Sprachunterricht: Pronominalkonstruktionen im Französischen (Zock, M.; Alviset, C.; Sabah, G.: COL86, 566—569) Schnittstelle für gesprochenen Dialog (Beroule, D.: ACL/EC83, 43—48) Univ. de Paris-Sud (Paris 11), ORSAY — Lab. de Recherche en Informatique, E. R. A. 452 du CNRS Sprachverstehen mit variabler Analysetiefe (Kayser, D.; Coulon, D.: IJCAI81, 64—66) Wissensrepräsentation: Produktionsregeln (Kayser, D.; Coulon, D.: TA 23 (1982) 2, 3—31) Wissensbasiertes Übersetzen von Kochrezepten: Französisch — Arabisch (Cordier, M.-O.; Moghrabi, C.: ECAI82, 228—231) Centre de Documentation Scientifique et Technique (CNRS), PARIS Computerunterstützte Übersetzung: Anwendung (Detemple, A.: MUL 2 (1983) 4, 189—194) Centr e de Recher che Ar chéologique (CNRS), PARIS 23, rue du Maroc Expertensystem in der Archäologie (Lagrange, M.-S.; Renaud, M.: CHUM 19 (1985) 37 ff.) Équipe de Recherche sur l’Humanisme Français des XIVe et XVe siècles (CNRS), PARIS RESEDA: Wissensrepräsentation in der Geschichtswissenschaft (Ornato, M.; Lee, G.; Lelouche, R.; Meissonnier, V.; Zarri, G. P.; Zarri-Baldi, L.: CHUM 16 (1982) 25—34) ERA 430 du CNRS, PARIS Conseil d’État, Palais Royal Repräsentation von Argumentationen (Raccah, P.-Y.: COL84, 525—529) Laboratoire d’Informatique pour les Sciences de l’Homme (LISH), PARIS RESEDA: Wissensrepräsentation in der Geschichtswissenschaft (Lee, G.; Lelouche, R.; Meissonnier, V.; Ornato, M.; Zarri, G. P.; Zarri-Baldi, L.: CHUM 16 (1982) 25—34; Zarri, G. P.; Meissonnier, V.; Faribault, M.: ALLCF83, 123—132) Expertensystem in der Archäologie (Renaud, M.; Lagrange, M.-S.: CHUM 19 (1985) 37 ff.) École des Hautes Études, PARIS Preediting beim maschinellen (Stahl, G.: ALLCF83, 133—137) IBM France, PARIS

Übersetzen

49

3 et 5, place Vendôme Lexikalische Datenbank CHUM 14 (1980) 1, 49—55)

(Eisinger,

M.:

Univ. de la Sorbonne Nouvelle (PARIS 3) — Institut National des Langues et Civilisations Orientales (INALCO) — Centre d’Études et de Recherche en Traitement Automatique des Langues (CERTAL) Analyse wissenschaftlich-technischer Texte in slavischen und germanischen Sprachen (Fanton, M.; Horn, J.-P.; Moreaux, M.-A.; Pognan, P.: ALLCF83, 91—103) Fehlertypologie in der maschinellen Übersetzung (Loffler-Laurian, A.-M.: MUL 2 (1983) 2, 65—78) Problemadäquates Post-Editing (Laurian, A.-M.: COL84, 236 —238; MUL 5 (1986 ) 81—88) Parsing des Französischen: Parallelverarbeitung ohne Lexikon (Vergne, J.; Pagès, P.: COL86, 269—271) Univ. Pierre et Marie Curie (PARIS 6) — Groupe de Recherche Claude-François Picard (CNRS) — Centre de Recherche Jean Favard — GR 22 Wissensrepräsentation und -akquisition: Sprachverstehende Systeme (Pitrat, J.: TA 22 (1981) 1, 3—14) Dialogmodellierung (Vilnat, A.; Sabah, G.: IJCAI85, 852—857) Übersetzungssystem: Organisation (Hérault, D.: ALLCF83, 153—158) CRJF: Interpretation japanischer und malaiischer Texte (Saussé, R.: ALLCF83, 23—28) Univ. de PARIS 7 — Groupe d’Informatique Linguistique — ERA 642 du CNRS — Lab. d’Automatique Documentaire et Linguistique (LADL) du CNRS — Institut de Programmation G. R. 22 Englische Phonologie (Gingrich, J.: ALLCB 11 (1983) 1, 2—40) Englische Phonologie: Sprachstatistik (Guierre, L.: ALLCF83, 15—22) Kontextfreie Grammatik: Französisch (Salkoff, M.: COL80, 38 ff.) Satzwörterbuch: Syntaktische Analyse des Französischen (Gross, M.: COL84, 275 ff.) Lexikon-Grammatik: Zusammengesetzte Wörter (Gross, M.: COL86, 1—6) Vergleich von Lexikon-Grammatiken, Fran-

50

zösisch-Italienisch (Mathieu, Y.; Elia, A.: COL86, 146—150) Baumstrukturen in der Linguistik (Milner, J. C.: TA 25 (1984) 1, 5—12) Deterministischer syntaktisch-semantischer Parser (Sabah, G.; Rady, M.: IJCAI83, 707—709) Repräsentation von Äußerungen durch allgemeine Graphen (Cori, M.: TA 25 (1984) 1, 13—34) Textgenerierung (Danlos, L.: COL84, 501—504; IJCAI83, 606—609) Generierung gesprochener Sprache aus einer semantischen Repräsentation (Danlos, L.; Laporte, E.; Emerard, F.: COL86 , 599—6 04) INTERFACILE: Sprachkompetenz des Systems (Mathieu, Y.; Sabatier, P.: COL86 , 46—49) Dialogmodellierung (Desclés, J. P.; Ligozat, G.: ALLCF83, 35—45) Modulares System zum Verstehen französischer Geschichten (Sabah, G.; Rady, M.; Solquier, L.; Berthelin, J. B.: TA 22 (1981) 2, 3—33) Nominalphrasen im klassischen Arabisch (Kouloughli, D. E.: TA 23 (1982) 1, 3—39) Univ. de POITIERS — Équipe Analyse Informatique des Textes PECI: Programm für Konkordanzen und Indices Lemmatisierung

I. Computational Linguistics I: Development

ALLCF83, 105—108) Univ. du Mirail (TOULOUSE 2) — Centre de Linguistique et Dialectologie (UTM 2) Sprachatlanten 489—511)

(Philips,

D.:

CHP83,

Univ. Paul Sabatier (TOULOUSE 3) — Lab. Langages et Systèmes Informatiques (LSI), Équipe de Compréhension du Raisonnement Naturel Textverstehen und -generierung unter Berücksichtigung der globalen Textstruktur Simulation der textuellen Kompetenz Texterstellungssystem für eine Büro- oder Dokumentationsumgebung Verstehen ungenauer Bezeichnungen (Prade, H.: TA 24 (1983) 2, 3—12) Repräsentation von Wissen über Wissen (Soulhi, S.: COL84, 194—199) GRIECHENLAND EUROTRA Griechenland, ATHEN Vas. Sofias 71 EUROTRA (Tsitsopoulos, S.: Mul 5 (1986 ) 149—151) GROSSBRITANNIEN

ZEITSCHRIFTEN, NEWSLETTER u. ä.: ALLC Bulletin (bis 1985) ALLC Journal (bis 1985) Literary and Linguistic Computing (seit 1986) EURALEX Bulletin CEGI Tymeshare, SAINT-CLOUD E E V RBÄND , E E G S E LLSCHAFT N, 106 Bureaux de la Colline de Saint-Cloud GRUPPEN etc.: Wissensbasiertes Übersetzen von KochrezepAssociation of Literary and Linguistic Comten: Französisch — Arabisch (Moghrabi, C.; puting (ALLC) Cordier, M.-O.: ECAI82, 228—231) European Association for Lexicography (EURALEX) École Nationale Supér ieur e de SAINTCLOUD FORSCHUNGSEINRICHTUNGEN: — URL „Lexicométrie et textes politiques“ Univ. College of North Wales, BANGOR Syntagmatische Wiederholungen in Gewerkschaftstexten (Lafon, P.; Salem, A.; Tour— Dept. of Linguistics nier, M.: ALLCF83, 59—72) Synthese gesprochener Sprache (MikrocomProgramme zur Lexikometrie (Lafon, P.; Saputerprogramm) (Gooding, F.: ALLCB 13 lem, A.; Tournier, M.: LLC 1 (1986 ) 1, (1985) 1—4) 45—46) Dialektale Übergangszone: Walisisch (Thomas, A. R.: CHUM 14 (1980) 4, 241—251) Univ. de STRASBOURG 2 Basingstoke Technical College, BASING— UER Lettres Modernes STOKE Orthographische Datenbank (Muller, C.: Autorenschaft: Sir Thomas More (Merriam, ALLCF83, 191—194) T.: ALLCB 10 (1982) 1—7) Ambiguität in Nominalphrasen (Hug, M.: Univ. de RENNES 2 Textinformationssystem DOCTE (Gouadec, D.; Le Meur, A.: MUL 4 (1985) 11—17; Gouadec, D.: MUL 4 (1985) 65—76)

2.  Computerlinguistische Forschungen im Überblick

Queen’s Univ., BELFAST Verbformen im Griechischen Neuen Testament (Davison, M. E.: ALLCB 11 (1983) 69—72) Stilvergleich Paulus — Lukas (Davison, M. E.: ALLCB 12 (1984) 1, 1—4) Univ. of Sussex, BRIGHTON — Cognitive Studies Program Phrasenstrukturgrammatiken (Gazdar, G.: IJCAI83, 556—565) ROALD: Planen von Geschichten (Yazdani, M.: ECAI82, 259—260) Univ. of CAMBRIDGE — Computer Lab. — Faculty of Oriental Studies General Semantic Analyzer (Boguraev, B. K.; Sparck Jones, K.: IJCAI81, 443 ff.) Partielle Bedeutungsrepräsentation (Sparck Jones, K.: IJCAI83, 621—623) Kontrollstrukturen in Systemen zum Verstehen gesprochener Sprache (Briscoe, E. J.; Boguraev, B. K.: COL84, 259 ff.) Island Parsing mit ATN (Carroll, J. A.: ACL/EC83, 101—105) Übersetzung von Datenbankanfragen aus natürlichsprachlicher in formalisierte Darstellung (Boguraev, B. K.; Sparck Jones, K.: ECAI82, 232—233) Linguistisch motiviertes Indexing (Sparck Jones, K.; Tait, J. I.: COL84, 287 ff.) Mehrsprachige Konkordanzen (Dawson, J. L.: CHUM 14 (1980) 1, 21—28) Indices: Klassisches Chinesisch (Nancarrow, P. H.; Kunst, R. A.: CHP83, 772—780) Englisch: Wörterbuch und morphologische Analyse (Russell, G. J.; Pulman, S. G.; Black, A. W.; Ritchie, G. D.: COL86, 277—279) Univ. College of CARDIFF EDV-gestützte Textinterpretation und -kritik (Crawford, T. D.: ALLCB 9 (1981) 3, 6—8) Univ. of Essex, COLCHESTER — Centre for Cognitive Studies — Dept. of Electrical Engineering Science, Man-Machine Systems Lab. — Dept. of Language and Linguistics — EUROTRA Robuste Systeme der maschinellen Übersetzung (Arnold, D.; Johnson, R.: COL84, 472—475) EUROTRA-Designmethodik (Arnold, D.: MUL 5 (1986) 136—138) EUROTRA-Übersetzungsmodell (Arnold, D. J.; Krauwer, S.; Rosner, M.; des Tombe, L.; Varile, G. B.: COL86, 297—303)

51

Chinesisch — Englisch: Übersetzung von Computerdialogen (Witten, I. H.: COL80, 526 ff.) Konnotation als Inferenz (Berthelin, J. B.: COL80, 228 ff.) Präferenzsemantik: Parsingstrategien (Fass, D.; Wilks, Y.: AJCL 9 (1983) 3—4, 178—187) Englische Paraphrasen von Relationenkalkül-Ausdrücken (De Roeck, A. N.; Lowden, B. G. T.: COL86, 581—583) EXTOL: Programmiersprache für computerunterstützten Unterricht (Kenning, M. J.; Kenning, M. M.: ALLCB 10 (1982) 1, 8—18) Univ. of Ulster, COLERAINE — School of Computer Science Methoden der Autorenschaftsbestimmung (Smith, M. W. A.: ALLCB 11 (1983) 73 ff.) Autorenschaft: „A Lover’s Complaint“ (Smith, M. W. A.: CHUM 18 (1984) 23—37) Elizabethanische Bühnenautoren (Smith, M. W. A.: CHUM 19 (1985) 3 ff.) Univ. of Warwick, COVENTRY — Dept. of Psychology Sprechakttypen 600—602)

(Ellman,

J.:

IJCAI83,

The Abbey Manse, CULROSS Autorenschaftstest mit einmal vorkommenden Wörtern (Morton, A. Q.: LLC 1 (1986 ) 1, 1—8) Univ. of DUNDEE — Dept. of Modern Languageś Computerunterstützter Sprachunterricht (Last, R. W.: ALLCB 11 (1983) 83—86) Maschinelle Übersetzung (Lewis, D.: ALLCJ 5 (1985) 1—2, 40—52) Intelligent Applications, EDINBURGH 10 Charlotte Square Lexikalische Disambiguierung beim deterministischen Parsing (Milne, R.: CL 12 (1986 ) 1, 1—12) Univ. of EDINBURGH — Dept. of Artificial Intelligence and School of Epistemics — Centre for Cognitive Science — Dept. of Architecture Textcode: Kodierschema für Texteigenschaften (Howie, J. G.; Cairns, F.; Craven, P. G.: ALLCB (1981) 3, 13—18) Parsing bei lexikalischer Ambiguität (Milne, R.: COL80, 350 ff.) Extraposition Grammars (Pereira, F.: AJCL 7 (1981) 4, 243—25 6 )

I. Computational Linguistics I: Development

52

Definite Clause Grammars (Pereira, F.; Warren, D. H. D.: AI 13 (1980) 3, 231—278) Rekonstruktion des Proteus-Satzplaners (Ritchie, G.: COL84, 327—329) Chart Parsing (Thompson, H.: ACLP81, 167 ff.; AAAI81, 408 f.) GPSG-Erweiterung (Thompson, H.: ACLP83, 16—21) Deklarative Formulierung der Diskursrepräsentationstheorie (Klein, E., Johnson, M.: COL86, 669—675) Funktionale Unifikationsgrammatik: (Ritchie, G.: ECAI84, 285—294; COL8 6 , 584—586) Englisch: Wörterbuch und morphologische Analyse (Ritchie, G. D.; Black, A. W.; Russell, G. J.; Pullman, S. G.: COL86 , 277—279) Konvertierung gesprochener Sprache in Schriftform (Thompson, H.: ECAI84, 267—274) Royal Holloway College, EGHAM, Surrey — Dept. of Classics Autorenschaft: Corpus Lysiacum (Usher, S.; Najock, D.: CHUM 16 (1982) 85—105) Univ. of EXETER Lexikographie (Hartmann, R.) Spanische Metrik (Dodd, S.: (1980) 1, 20—27)

ALLCB

Univ. of HULL Mikrocomputerunterstützter richt: Deutsch (Last, R.)

Sprachunter-

8

Univ. of LANCASTER — Dept. of Linguistics and Modern English Language Maschinelle Übersetzung und kritischer Rationalismus (Sampson, G.: ACL/EC83, 86—89) Lancaster-Corpus of British English Univ. of LEEDS — Dept. of Linguistics and Phonetics Parsing: Stochastischer G.: COL86, 151—155)

Ansatz

(Sampson,

Leicester Polytechnic, LEICESTER — Dept. of Mathematics, Computing and Statistics Wortklassenzuteilung im LOB Corpus (Marshall, I.: CHUM 17 (1983) 139—150) Univ. of LIVERPOOL Textcode: Kodierschema für Texteigenschaften (Cairns, F.; Craven, P. G.; Howie, J. G.: ALLCB (1981) 3, 13—18)

City Univ. LONDON Graphentheorie in der Inhaltsanalyse (Farbey, B. A.; Mitchell, C. R.; Webb, K.: ALLCB 11 (1983) 1, 11—13) Scicon Ltd., LONDON Gesprächsstruktur: Pragmatik COL86, 35—41)

(Wachtel,

T.:

Univ. of LONDON — Chelsea College — Education and Computing Section, Computers in the Curriculum — Inst. of Advanced Studies — Inst. of Classical Studies — Westfield College — University College Charakter- und Szenenstruktur in klassischen Komödien (Hubka, K. P.: ALLCB 13 (1985) 31—36, 61—66) Autorenschaft: Timoneda, Montesino ... (Boreland, H.; Galloway, P.: ALLCB 8 (1980) 2, 125—151) Simulation der Überlieferung von Manuskripten (Weitzman, M. P.: ALLCB 10 (1982) 2, 55—59) Projekt „Computers in the Curriculum“ (Watson, D. M.: CHP83, 732—753) Computerunterstützter Englisch-, Französisch- und Geschichtsunterricht in Großbritannien (Watson, D. M.: CHUM 18 (1984) 233 ff.) Computerunterstütztes Schreiben (Dixon, G.; Briercliffe, B.: ALLCB 12 (1984) 46—50) Univ. of MANCHESTER — Univ. of Manchester Center of Science and Technology (UMIST) — Centre for Computational Linguistics — Regional Computing Centre Robuste Systeme der maschinellen Übersetzung (Johnson, R.; Arnold, D.: COL84, 472—475) Kasus- und Valenzmodelle für die maschinelle Übersetzung (Somers, H. L.: COL86 , 118—123) EUROTRA: Überblick (Johnson, R.; King, M.; des Tombe, L.: CL 11 (1985) 2—3, 155—169) EUROTRA: Software-Tools (Johnson, R. L.; Krauwer, S.; Rosner, M. A.; Varile, G. B.: COL84, 226 —235; Johnson, R.; Varile, G. B.: MUL 5 (1986 ) 16 3—16 5; McNaught, J.: MUL 5 (1986) 168—170) Interaktive Übersetzung Englisch — Japanisch (Whitelock, P. J.; McGee Wood, M.; Chandler, B. J.; Holden, N.; Horsfall, H. J.: COL86, 329—334)

2.  Computerlinguistische Forschungen im Überblick

Generierung von Termdefinitionen (McNaught, J.: ACL/EC83, 90—95) Textübertragung: Normen (Smith, J. M.: ALLCB 11 (1983) 2, 31—38; 3, 63—67) Open Univ., MILTON KEYNES, Buck. — Dept. of Psychology Metaphernverstehen (Slack, J. M.: ACLP80, 23—24) Parsing mit verteiltem Gedächtnis (Slack, J. M.: ECAI84, 169—178) Parsing: Architektur eines verteilten Systems (Slack, J. M.: COL84, 92—95; COL86 , 476—481) Index der Textkomplexität (Whalley, P.: ALLCJ 2 (1981) 2, 55—60)

53

auflösung (Reilly, R. G.: COL84, 144 ff.) Dialogrepräsentation mit zwei Ebenen (Reilly, R.; Ferrari, G.: COL86, 42—45) University College of DUBLIN Edition mittelenglischer Texte (Lucas, P. J.: ALLCB 9 (1981) 9—10) ISLAND Univ. of Iceland, REYKJAVIK System für zweisprachige terminologische Glossare Isländisches Synomymwörterbuch Sammlung maschinenlesbarer isländischer Texte (2 Mill. Wörter) ITALIEN

Univ. of East Anglia, NORWICH — Linguistics EAS

ZEITSCHRIFTEN, NEWSLETTER u. ä.: Linguistica Computazionale EXTOL: Programmiersprache für computerE E V RBÄND , E E G S E LLSCHAFT N, unterstützten Unterricht (Kenning, M. M.; GRUPPEN etc.: Kenning, M. J.: ALLCB 10 (1982) 1, 8—18) A. I. C. A. (Ital. Ass. for Automatic CompuGPSG-Parsing von ungrammatischem Input ting), Working Group on Artificial Intelli(Pulman, S. G.: COL84, 84—87) gence Parsing und Syntaxtheorie (Pulman, S. G.: COL80, 54 ff.) FORSCHUNGSEINRICHTUNGEN: Univ. of OXFORD — Computing Service

Academia della Crusca, FIRENZE — Opera del Vocabolario Italiano

Computeranwendungen in den Geisteswissenschaften (Hockey, S.: TA 22 (1981) 2, 50—51) The Oxford Concordance Project (OCP): (Hockey, S.; Marriott, I.: ALLCB 8 (1980) 1, 28—35)

Villa Medicea di Castello Vocabolario storico della lingua italiana (Anceschi, F.: LCPisa 1 (1981) 107—110)

Univ. of READING — Faculty of Letters and Social Sciences Quantitative Stilistik (Ledger, G. R.: ALLCB 13 (1985) 67—72) Univ. of SHEFFIELD — Dept. of Information Studies OCP: Analyse sardischer Sprichwörter (Griffiths, A.: LLC 1 (1986) 1, 41—44) IRLAND FORSCHUNGSEINRICHTUNGEN: National Boar d of Science and Technology, DUBLIN EUROTRA-Wörterbücher (Albertini, C.; Maas, D.; Ruus, H.: MUL 5 (1986) 160—162) St. Patrick’s College, DUBLIN — Educational Research Center Konnektionistisches

Modell

der

Anaphern-

Univ. di FIRENZE — Istituto Linguistico Konkordanzen, Frequenzwörterbücher und deren Auswertung (Rosselli, F.: LCPisa 1 (1981) 131—132) Elettronica S. Giorgio (ELSAG S. p. A.), GENOVA Via Hermada 6 Flexibles Parsing gesprochener Sätze (Borghesi, L.; Favareto, C.: COL82, 37 ff.) Verstehen gesprochener Sprache: akustischphonologische Analyse und sytaktisch-semantisches Parsing (Scagliola, C.: LCPisa 2 (1982) 35—44) Univ. di GENOVA — Ist. di Elettrotecnica — Dept. of Communication, Computer and System Sciences Kognitive Modelle für Computer Vision (Adorni, G.; Boccalatte, A.; di Manzo, M.: COL82, 7 ff.) Syntaktisch-semantisches Parsing und Wissensrepräsentation (Adorni, G.; Boccalatte, A.; di Manzo, M.: LCPisa 2 (1982) 71—88)

I. Computational Linguistics I: Development

54

Szenengenerierung auf natürlichsprachlicher Basis (Adorni, G.; di Manzo, M.; Ferrari, G.: ACL/EC83, 175—182; Adorni, G.; di Manzo, M.; Giunchiglia, F.: COL84, 495—500; ECAI84, 139—148) Räumliche Vorstellung (Adorni, G.; di Manzo, M.; Giunchiglia, F.: IJCAI83, 72 ff.) Politecnico di MILANO — Istituto di Elettrotecnica, Progetto di Intelligenza Artificiale NLDA: System zum natürlichsprachlichen Datenbankdesign (Colombetti, M.; Guida, G.; Pernici, B.; Somalvico, M.: LCPisa 2 (1982) 99—110) PARNAX: Syntakt.-semantische Analyse für ein italienisches Zugangssystem zu ADABAS (Somalvico, M.; Guida, G.; Comino, R.; Gemello, R.; Rullent, C.; Sisto, L.: IJCAI83, 663—667) Zielorientiertes Parsing: Natürlichsprachlicher Zugang zu relationalen Datenbasen (Guida, G.: COL80, 550 ff.) Kognitive Modelle bei Sprachverstehen und -generierung (Colombetti, M.; Airenti, G.; Bara, B. G.: LCPisa 2 (1982) 89—98) Planung perlokutionärer Akte (Colombetti, M.; Airenti, G.; Bara, B. G.: IJCAI83, 78—80; ECAI84, 275—284) Bewertung sprachverstehender Systeme (Guida, G.; Mauri, G.: CL 10 (1984) 1, 15—30) Univ. di MILANO — Ist. di Psicologia — Unità di Ricerca di Intelligenza Artificiale RESEDA: Wissensrepräsentation in der Geschichtswissenschaft (Zarri-Baldi, L.; Lee, G.; Lelouche, R.; Meissonier, V.; Ornato, M.; Zarri, G. P.: CHUM 16 (1982) 25—34) Kognitive Modelle bei Sprachverstehen und -generierung (Airenti, G.; Bara, B. G.; Colombetti, M.: LCPisa 2 (1982) 89—98) Planung perlokutionärer Akte (Airenti, G.; Bara, B. G.; Colombetti, M.: IJCAI83, 78—80; ECAI84, 275—284) Univ. di PAVIA Computerunterstützter Unterricht: stik (Borello, E.; Italiani, M.: 39—40)

LinguiCHP81,

Univ. di PISA — Dip. di Informatica — Dip. di Lingue e Letterature Romanze — Istituto di Filologia Greca — Istituto di Linguistica Computazionale del CNR

— Ist. di Scienze dell’Informazione Griechisch: Lexikon der literarischen und philologischen Textkritik (Arrighetti, G.; Montanari, F.: LCPisa 1 (1981) 111—115) Italian Machine Dictionary (DMI-DB) Lexikalische Databasen (Calzolari, N.: COL84, 170—173; MUL 3 (1984) 2, 6 5—71; ALLCB 12 (1984) 51—53; COL84, 46 0; CHP83, 47—50) Italienisch: Morphosyntaktische Analyse (Picchi, E.; Ratti, D.; Saba, A.; Catarsi, N.: CHP83, 512—520) KL-CONC: Simulation konzeptueller Operationen (Cappelli, A.; Moretti, L.; Vinchesi, C.: IJCAI83, 333—336) SI-Netze in der Sprachverarbeitung (Cappelli, A.; Moretti, L.: ACL/EC83, 122—128) Modell des Satzverstehens (Cappelli, A.; Ferrari, G.; Moretti, L.; Prodanof, I.: LCPisa 2 (1982) 45—58) Parsing mit Gedächtnisoperationen (Prodanof, I.; Ferrari, G.: COL86, 473—475) ATN-Parser (Ferrari, G.; Stock, O.: ACLP80, 113—115; Prodanof, I.; Ferrari, G.: ACL/EC83, 58—65) Dialogrepräsentation mit zwei Ebenen (Ferrari, G.; Reilly, R.: COL86, 42—45) Szenengenerierung auf natürlichsprachlicher Basis (Ferrari, G.; di Manzo, M.; Adorni, G.: ACL/EC83, 175—182) PLATO: Computerunterstützter Fremdsprachenunterricht (Cerri, S. A.; Breuker, J.: LCPisa 2 (1982) 111—128) Computerunterstützter Fremdsprachenunterricht: Französisch-italienische Konjunktionen (Cerri, S. A.; Merger, M.-F.: ACL/ EC83, 133—138) Univ. di ROMA — Lessico Intellettuale Europeo — Ist. di Psicologia Lessico intellettuale europeo (Adamo, G.; Veneziani, M.: LCPisa 1 (1981) 101—105; Lamarra, A.: CHUM 16 (1982) 223—228) Parsing bei freier Wortstellung (Stock, O.; Castelfranchi, C.; Parisi, D.: ACL/EC83, 106—110) Modell des Sprachverstehens (Stock, O.; Castelfranchi, C.; Parisi, D.: LCPisa 2 (1982) 59—70) Univ. di SALERNO — Ist. di Linguistica Vergleich von Lexikon-Grammatiken Französisch — Italienisch (Elia, A.; Mathieu, Y.: COL86, 146—150)

2.  Computerlinguistische Forschungen im Überblick

Centr o Studi e Labor ator i Telecommunicazioni S. p. A. (CSELT), TORINO via R. Riess Romoli 274 Gesprochene Mensch-Maschine-Kommunikation, Analyse und Synthese (Modena, G.; Vivalda, E.: LCPisa 2 (1982) 25—33) PARNAX: Syntakt.-semantische Analyse für ein italienisches Zugangssystem zu ADABAS (Comino, R.; Gemello, R.; Rullent, C.; Sisto, L.; Guida, G.; Somalvico, M.: IJCAI83, 663—667) Politecnico di TORINO — Ist. di Elettrotecnica Generale C. E. N. S. Wissensbasiertes System zum Erkennen gesprochener Sprache (Laface, P.; De Mori, R.; Giordana, A.; Saitta, L.: LCPisa 2 (1982) 13—24; ECAI82, 127—132; AAAI82, 107 f.) Univ. di TORINO — Ist. di Scienza dell’Informazione — Dipartimento di Informatica

55

Relevanzbewertung beim Zusammenfassen (Fum, D.; Guida, G.; Tasso, C.: IJCAI85, 840—844; COL86, 256—259) Bewertung sprachverstehender Systeme (Mauri, G.; Guida, G.: CL 10 (1984) 1, 15—30) Univ. di VENEZIA — Centro Linguistico Interfacoltà Phonologischer italienischer Parser monte, R.: ACL/EC83, 26—34)

(Del-

LUXEMBURG Kommission der Eur opäischen Gemeinschaften, LUXEMBURG Maschinelle Übersetzung: EUROTRA (Perschke, S.; King, M.: MUL 1 (1982) 1, 27—32; Perschke, S.: MUL 5 (1986 ) 134—135) EUROTRA — Softwaretools (Varile, G. B.; Johnson, R. L.; Krauwer, S.; Rosner, M. A.: COL84, 220—235); Varile, G. B.; Johnson, R.: MUL 5 (1986) 163—165) EUROTRA-Übersetzungsmodell (Varile, G. B.; Arnold, D. J.; Krauwer, S.; Rosner, M.; des Tombe, L.: COL86, 297—303) SYSTRAN (Pigott, I. M.: MUL 2 (1983) 3, 149—156)

Computerunterstützter Unterricht: Linguistik (Borello, E.; Italiani, M.: CHP81, 39—40) Deterministische Analyse italienischer Kommandos (Lesmo, L.; Magnani, D.; Torasso, P.: IJCAI81, 440 ff.) Verstehen agrammatischer Sätze (Lesmo, L.; Torasso, P.: COL84, 534 ff.) NIEDERLANDE Flexibler Parser mit zweistufiger Syntaxrepräsentation (Lesmo, L.; Torasso, P.: ACL/ REGELMÄSSIGE TAGUNGEN: EC83, 114—121) Dutch Conference on Computational LinInteraktion von Syntax und Semantik beim guistics Parsing (Lesmo, L.; Torasso, P.: IJCAI85, E E V RBÄND , E E G S E LLSCHAFT N, 772—778) GRUPPEN etc.: Repräsentation von Artikeln (di Eugenio, B.; Committee Computer Linguistics and AlgeLesmo, L.; Pogliano, P.; Torasso, P.; Urbraic Linguistics (seit 1981) bano, F.: COL86, 344—346) Research Group Corpus Linguistics (seit Wissensbasiertes System zum Erkennen ge1982) sprochener Sprache (de Mori, R.; Giordana, A.; Laface, P.; Saitta, L.: AAAI82, 107 ff.; FORSCHUNGSEINRICHTUNGEN: LCPisa 2 (1982) 13—24; ECAI82, 127—132) Center for Resear ch into Higher Education, AMSTERDAM Univ. di TRIESTE Computerunterstützter Unterricht: „Intelli— Lab. di Psicologia E. E. gente“ Dialoge mit PLATO (Breuker, J.; Schlußfolgern beim automatischen AbstracCerri, S. A.: LCPisa 2 (1982) 111—128) ting (Fum, D.; Guida, G.; Tasso, C.: COL82, Univ. of AMSTERDAM 83 ff.) — Dept. of English Univ. di UDINE — Inst. for Cognitive Studies — Ist. di Matematica, Informatica e SistemaDynamisches Modell in der Textsemantik tica (Polanyi, L.; Scha, R.: COL84, 413 ff.) Schlußfolgern beim automatischen AbstracPDP: Protocol Diagnosis Program (Konst, ting (Guida, G.; Tasso, C.; Fum, D.: COL82, L.; Wielinga, B. J.; Elshout, J. J.; Jansweijer, 83 ff.) W. H. H.: IJCAI83, 97—99)

56

International Translations Center, DELFT World Transindex (van Bergeijk, D.: MUL 2 (1983) 1, 27—31) Eindhoven Univ. of Technology, EINDHOVEN — Institute of Perception Research Editionstechnik: Altisländische und altnordische Texte (van Arkel, A.: CHUM 16 (1982) 157—16 4; ALLCB 10 (1982) 2, 48—54) Generierung des Niederländischen (Leeuwen, H. van; Langeweg, S.; Berendsen, E.: COL86, 612—614) Philips Research Lab., EINDHOVEN Montague — Grammatik in Frage-AntwortSystemen (Landsbergen, S. P. J.: COL80, 211 ff.) ROSETTA: Übersetzung von Temporalausdrücken (Appelo, L.: COL86, 313—318) ROSETTA: Übersetzung idiomatischer Ausdrücke (Schenk, A.: COL86, 319—324) PHLIQA: Übersetzung Englisch — Datenbankabfragesprache (Scha, R. H. J.: ACLP82, 57—59) Univ. of GRONINGEN — Inst. of Phonetic Sciences Bedeutungsdarstellung für ein lexikongetriebenes Übersetzungssystem (Stuart, D. G.; Campbell, H. W.; Schooneveld, C. H. van: COL86, o. S.) Univ. of LEIDEN — Inst. of Dutch Lexicology Sammlung maschinenlesbarer niederländischer Texte Generierung des Niederländischen (Berendsen, E.; Langeweg, S.; Leeuwen, H. van: COL86, 612—614) Univ. of NIJMEGEN — Dept. of Social Psychology TMP: Bewertungsorientierter Dialog (Jameson, A.: IJCAI83, 616—620) Überbeantwortung von Ja/Nein-Fragen (Jameson, A.; Wahlster, W.; Marburger, H.; Busemann, S.: IJCAI83, 643—646) Bedeutungsdarstellung für ein lexikongetriebenes Übersetzungssystem (Campbell, H. W.; Stuart, D. G.; Schooneveld, C. H. van: COL86, o. S.) Erasmus Univ. ROTTERDAM — Rotterdam School of Management Verbindung von Propositionen (Brée, D. S.; Smit, R. A.: COL86, 177—180)

I. Computational Linguistics I: Development

Univ. of TILBURG — Dept. of Language and Literature, Computational Linguistics Research Unit Tendum System: Disambiguierung von Quantoren (Bunt, H.: COL84, 130—133) Esperanto in der maschinellen Übersetzung (Nejit, A.: MUL 5 (1986) 9—13) BSO Research, UTRECHT P. O. Box 8348 SWESIL: Lexikalische Wissensbank (Papegaaij, B. C.; Sadler, V.; Witkam, A. P. M.: COL 86, 432—434) Univ. of UTRECHT — Dept. of Phonetics — Inst. of Applied and Computational Linguistics — Inst. for General Linguistics — Inst. of Historical Research Generierung des Niederländischen (Berendsen, E.; Langeweg, S.; Leeuwen, H. van: COL86, 612—614) Homographen im Niederländischen: Lemmatisierung (Boot, M.: ALLCB 8 (1980) 2, 175 ff.) Linguistisches Preediting historischer Daten (Boot, M.; Lourens, P.; Lucassen, J.: CHUM 17 (1983) 45—64) EUROTRA-Überblick (des Tombe, L.; King, M.; Johnson, R.: CL 11 (1985) 2—3, 155—169) EUROTRA Softwaretools (Krauwer, S.; Johnson, R. L.; Rosner, M. A.; Varile, G. B.: COL84, 226—235) EUROTRA-Übersetzungsmodell (des Tombe, L.: MUL 5 (1986 ) 139—140; Krauwer, S.; Rosner, M.; des Tombe, L.; Varile, G. B.; Arnold, D. J.: COL86, 297—303) Transfer in einem multilingualen Übersetzungssystem (Krauwer, S.; des Tombe, L.: COL84, 464—467) NORWEGEN FORSCHUNGSEINRICHTUNGEN: Univ. of BERGEN — Information Science Pragmatik von Informationssystemen (Nurminen, M. I.: CHP83, 456—463) Norwegian Research Council for Science and the Humanities, OSLO — Computing Center for the Humanities LFG und modelltheoretische Semantik (Halvorsen, P.-K.: COL82, 115—130)

2.  Computerlinguistische Forschungen im Überblick

Univ. of OSLO — Dept. of English Wortfrequenzanalyse am LOB-Korpus (Johannsen, S.: CHUM 19 (1985) 23—36) Computerunterstütztes Drucken von Landkarten (Benskin, M.; Cowham, R.; Doyle, A.: ALLCJ 5 (1985) 1—2, 1—24) International Computer Archive of Modern E nglish (ICAME ): Brown Corpus, LancasterOslo/Bergen (LOB) Corpus, London-Lund Corpus of spoken English Veröffentlichungen: ICAME-News ÖSTERREICH FORSCHUNGSEINRICHTUNGEN: Univ. SALZBURG Konkordanzen (Spechtler, F. V.) Österreichisches Normungsinstitut, WIEN Leopoldgasse 5 Infoterm (Felber, H.: MUL 1 (1982) 3, 175—178) Univ. WIEN — Inst. für Medizinische Kybernetik und Künstliche Intelligenz Natürlichsprachliches Dialogsystem VIELANG: Syntakto-semantisches Lexikon (Steinacker, I.; Buchberger, E.: ACL/EC83, 96—100) Akquisition lexikalischer Daten (Trost, H.; Buchberger, E.: COL8 6 , 387—389) Deutsches Parsing (Steinacker, I.; Trost, H.: COL82, 365—370) Morphologische Analyse zwecks Synthese des Deutschen (Pounder, A.; Kommenda, M.: COL86, 263—268) Automatischer Wissenserwerb Wissensrepräsentation: SI-Netze (Steinakker, I.; Trost, H.: IJCAI83, 627—629) PORTUGAL FORSCHUNGSEINRICHTUNGEN: Inst. Superior de Agronomia, LISBOA — Dept. de Matemática Übersetzen von Interfaces: Englisch — Portugiesisch (Pereira Lopez, G.: COL84, 8—10) Labor atór io Nacional de Engenher ia Civil, LISBOA — Centro de Informática Portugiesischer Recherchedialog in gemischter Initiative: Prolog-Programm (Coelho, H.: COL82, 61 ff.)

57

Univ. Nova de LISBOA — Dept. de Informática — N. Inteligencia Artificial Datenbank mit natürlichsprachlicher Benutzerschnittstelle (Sabatier, P.; Pique, J. F.: ECAI82, 250—254) SCHWEDEN REGELMÄSSIGE TAGUNGEN: Swedish Colloquium on Computational Linguistics FORSCHUNGSEINRICHTUNGEN: Univ. of GÖTEBORG — Dept. of Computational Linguistics — Dept. of English Schwedische Lexikondatenbank Frequenzwörterbuch des heutigen Schwedisch Soziolinguistische Untersuchungen einer Datenbasis des gesprochenen Schwedisch Algorithmische Textanalyse Strindbergs gesammelte Werke Englische Phraseologie (Brown Corpus) Englische Syntax (Brown Corpus) Wortschatzerwerb Relative semantische Komplexität lexikalischer Einheiten (Bo, R.: COL80, 115 f.) Logotheque: Maschinenlesbare Zeitungen. Romane, Gesetzestexte, Parlamentsberichte, Korpus gesprochener Texte, August Strindbergs gesammelte Werke Veröffentlichungsreihen: Språkdata Research Reports Univ. of LUND — Dept. of Linguistics and Phonetics — Dept. of English — Dept. of Nordic Languages Überblick über das gesprochene Englisch Korpus gesprochener Sprache (Dept. of Nordic Languages) Wortklassenbestimmung: Probabilistisches Modell (Eeg-Olofson, M.: ALLCJ 5 (1985) 1—2, 25—30) Grammatische Kategorisierung von gesprochenem Englisch (Svartvik, J.: COL80, 29 ff.) COMMENTATOR: Computermodell der Erzeugung gesprochener Sprache (Sigurd, B.: COL84, 79—83) Planung von Äußerungen (Fornell, J.: COL84, 348—351) KVAL Foundation, STOCKHOLM Södermalmstorg 8 POLYTEXT (Information Retrieval)

I. Computational Linguistics I: Development

58

Topic-Comment Struktur von Texten (Kiefer, F.: COL80, 240 f.) Kategorialgrammatik-Parser (Karlgren, H.; Chytil, M. P.: COL86, 208—210) Veröffentlichungen: SMIL quarterly Univ. of STOCKHOLM — Dept. of Linguistics — Romance Dept. — Dept. of Nordic Languages Interpreter für eine Substitutionsgrammatik Automatisches Textverstehen Analyse und Synthese gesprochener Sprache Quantitative Untersuchungen des Französischen BETATEXT: Ereignisgetriebene Textanalyse (Brodda, B.: COL86, 421—422) Heuristisches Parsing des Schwedischen (Brodda, B.: ACL/EC83, 66—73) Korpus von Zeitungstexten (Dept. of Nordic Languages) Univ. of UMEÅ — Dept. of Phonetics — Dept. of Linguistics Computereinsatz

in

der

Phonetik

Univ. of UPPSALA — Center for Computational Linguistics — Dept. of Linguistics Morphologische Analyse des Finnischen Medizinische Datenverarbeitung Produktion und Perzeption gesprochener Sprache Chart-Parser für gesprochene Sprache (Sågvall Hein, A.: COL 82, 121 ff.) SCHWEIZ E V RBÄND , E E G S E LLSCHAFT N, GRUPPEN etc.: Schweizerische Sprachwissenschaftliche Gesellschaft Collegium Romanicum Swiss Association of University Teachers of English FORSCHUNGSEINRICHTUNGEN: Univ. de FRIBOURG Interaktion von Morphologie und Syntax bei der Analyse des Französischen (Berrendonner, A.; Bouché, R.; Le Guern, M.; Rouault, J.: TA 21 (1980) 1, 3—28) Univ. de GENEVE — Dalle Molle Institute for Semantic and Cognitive Studies (ISCCO)

— Universitätsklinik Government and Binding-Parser für Französisch (Wehrli, E.: IJCAI83, 686—689) Semantik und Künstliche Intelligenz in der maschinellen Übersetzung (King, M.: SDV 5 (1981) 1/2, 5—8) EUROTRA-Ziele (King, M.; Perschke, S.: MUL 1 (1982) 1, 27—32) EUROTRA-Überblick (King. M.; Johnson, R.; des Tombe, L.: CL 11 (1985) 2—3, 155—169) EUROTRA-Design (King, M.: IJCAI81, 43—46) EUROTRA-Übersetzungsmodell (Rosner, M.; des Tombe, L.; Varile, G. B.; Arnold, D. J.; Krauwer, S.: COL86, 297—303) EUROTRA: virtuelle Maschine (Rosner, M.; Petitpierre, D.: MUL 5 (1986) 166—168) EUROTRA Software-Tools (Rosner, M. A.; Johnson, R. L.; Krauwer, S.; Varile, G. B.: COL84, 226—235) Maschinelle Übersetzung von Stellenanzeigen (Buchmann, B.; Warwick, S.; Shann, P.: COL84, 334 ff.) Situation der automatischen Übersetzung (King. M.: COL84, 352—353) Datenbanksystem für Wörterbücher (Domenig, M.; Shann, P.: COL86, 91—96) Ressourcenplanung beim Sprachverstehen (Bien, J. S.: SDV 4 (1980) 2, 152—163) GIT: Computerunterstützter Unterricht in der Computerlinguistik (Shann, P.; Cochard, J. L.: COL84, 88—91) Univ. ZÜRICH — Fachbereich Deutsch, Abt. Computerlinguistik LDVLIB: Programmpaket für Textforschung (Drewek, R.; Erni. M.: ALLCB 12 (1984) 3, 73—81) LDVLIB-Anwendungen: Stil altägyptischer Texte, Struktur dramatischer Dialoge, Lesbarkeit von Texten aus den Massenmedien, Inhaltsanalyse, Konkordanzen 4. Literatur (in Auswahl) American Council on Education 1983 · Association of Commonwealth Universities 1985 · J. Dietze/E. Mater/G. F. Meier/G. Neubert/A. Witzmann 1983 · Europa Publications 1986 · M. Evans/L. Karttunen 1983 · Gale Research Company 1986 · J. W. Goodwin/U. Hein 1982 · International Association of Universities 1983 · J. Krause 1984 · W. Lenders 1980 · M. Lutz-Hensel 1985 · V. v. Massow 1968 · Rand McNally 1984. Brigitte Endres-Niggemeyer, Hannover (Bundesrepublik Deutschland)

3. Computational Linguistics in Eastern (and Central) Europe

3. 1. 2.

The Research in Computational Linguistics in the Countries of Eastern (and Central) Europe*

5. 6. 7. 8. 9. 10.

Introductory Remarks Computational Linguistics in the Soviet Union Computational Linguistics in Czechoslovakia Computational Linguistics in the German Democratic Republic Computational Linguistics in Poland Computational Linguistics in Roumania Computational Linguistics in Bulgaria Computational Linguistics in Hungary Computational Linguistics in Yugoslavia Literature (selected)

1.

Introductory Remarks

3. 4.

59

The present survey summarizes the research in computational linguistics (both theoretical and applicational) in the countries of Eastern (and Central) Europe (see article 2). The chapter is organized country-wise and within each section, we first briefly mention the history of the field in the given country, concentrating then on a more detailed description of the present state of the art. There are three features that most of the research efforts in these countries have in common: (1) The hardware facilities often have not been easily available or sufficiently effective, so that the danger of premature attempts at practical (commercial, or ’industrial’) applications and of a hypertrophy of ’engineering’ approaches has not been so imminent as in other geographical areas. (2) Experimental projects thus have often been based on a sound theoretical background. Theoretical studies have rarely been formulated with the methological rigor typical for Chomskyan syntax or Montaguean semantics, but, on the other hand, the impetus for a theoretical linguistic investigation has mainly emerged from the interest in machine translation or at least in an automatic analysis of a particular natural language. (3) As for the underlying approach to the explicit description of language, most of the various treatments are distinguished by their preference of the linguistic description based on dependency syntax. This holds true not

* It should be noted that this chapter was written in early 1985 and reflects the state of the art at that time.

only for a purely (surface) syntactic description, but also for the description of the semantico-pragmatic (deep, underlying) structuring of language. Such an approach in most cases systematically takes into account the functional nature of the system of language, i. e. the fact that some of the aspects of natural language are conditioned by its development as a tool of human communication (this functional view is missing in some of the trends of transformational linguistics), a view firmly rooted in the traditions of classical structural linguistics in Europe.

2.

Computational Linguistics in the Soviet Union

2.1.  The possibility of a formal, algorithmical description of language and its stimuli for machine translation have attracted the attention of Soviet specialists (both mathematicians and linguists) since the first half of the 1950’s. Among the initiators of the application of these new trends, an outstanding role was played by V. Ju. Rozencvejg, the founder of the first laboratory of machine translation in Moscow (attached to the Moscow State Pedagogical Instistute of Foreign Languages), who has a great merit in schooling young linguists in the new direction. The use of mathematical methods in linguistics brought along several new approaches based on the set theory, resulting in the formulation of the so-called analytical (set-theoretical) models. The basic ideas of these models are contained in the works of such mathematicians as Kulagina (1958), Uspenskij (1957), Gladkij (196 5), but their elaboration in linguistic terms and their application to language description was achieved in close co-operation with linguists, the most outstanding of whom was I. I. Revzin (see e. g. Revzin 196 2, 196 7). Analytical models in principle study the strucuture of language and its regularities on the base of a sample of texts (e. g. a set of sentences contained in such a sample) or another set of empirically given phenomena. Most studies on analytical models were devoted to paradigmatic models, i. e. to mathematical specifications of individual linguistic concept such as phoneme, case, word class. Syntagmatic

60

models concerned syntax and resulted in the configurational account of syntax, which was close to dependency and also case grammar. The configurational description provided a theoretical base for some of the first experimental systems of machine translation. A similar role was played by the ’meaning↔ text’ model, proposed at the end of the sixties by I. A. Mel’čuk, Ju. D. Apresjan and others (cf. e. g. Mel’čuk/Žolkovskij 1970; Mel’čuk 1974) and elaborated since then in many details and with several modifications (see e. g. Apresjan 1974; 1980). The model is aimed at the formation of a functioning system that would create for the given ’sense’ (i. e. for the invariant of equivalent paraphrases) all its possible alternative expressions (paraphrases) and vice versa (for any paraphrase the sense should be identified). It is then important to look for the principles determining an approproate expression for the rendering of a certain ’sense’, e. g. to look for rules that would show when and under what conditions it would be more suitable to use an active construction instead of a passive one, rather than to formulate rules that would form a passive sentence from an active one. One of the most important notions in this theory is that of paraphrase, based on a very broad understanding of equivalence. ’Synonymous’ utterances range from a single sentence to a whole paragraph and equivalence is not restricted to the rigid requirements of identity of linguistic meaning; for two utterances to be equivalent it is sufficient to express an identical situation, i. e. the same cognitive content. In its present form, the ’meaning ↔ text’ model is essentially a model of the sentence rather than a text. The ’meaning ↔ text’ model belongs to the stratificational type models, where the transition between ’sense’ and ’text’ (in both directions) is carried out in several steps (levels); in the present shape of the model, four such levels are considered: phonetic, morphological, syntactic and semantic. Each of these levels has an underlying and a surface form, so that the output text (in the case of synthesis) or the output sense (in the case of analysis) is obtained in the shape of the representation of the sentence of eight stages. The main attention is focussed on two types of structures, the underlying syntactic structure and the surface semantic structure, and also on the types of information necessary for the transition between these levels. The

I. Computational Linguistics I: Development

underlying syntactic structure is represented in the form of a tree, the nodes of which are the lexemes of the underlying lexical stock and the edges correspond to the universal relations of the underlying syntax. The model includes six relations of participants, a relation of coordination, of attribution (there belong attributive constructions, adverbials, apposition, restrictive construction, etc.) and addition (different types of parentheses). The deep lexical structure was elaborated to a great extent since the beginnings of this model (Apresjan 196 7): with each word paradigmatic and syntagmatic features are distinguished and also grammatical and lexical meanings. A lexical entry contains morphological information on the word, its definition, syntactic combinatorial features, and a list of the so-called lexical parameters (syntagmatic properties of lexical meanings). This information is used in some types of rules inside the levels and in most types of rules of the transition between the levels. The words are classified into key (independent) words and the lexical corelates of other words. Each key word is assigned a specificiation of its lexical corelates that are in a certain semantic relation to it; the relation between a key word and its corelates is represented by a lexical function, for which the key word is the argument and the corelate its value. Thus on the level of the underlying lexical stock, one works with individual words and their lexical functions rather than with concrete lexical corelates. There are two kinds of lexical functions: (1) substitution (e. g. conversion: the relation between Russ. strašit’ ’to frighten’ and ’bojat’sja ’to be afraid’); (2) semantic parameters the values of which are idiomatic expressions that accompany the key word (e. g. for Russ. znat’ ’to know’ the parameter Magn includes such expressions as chorošo ’well’, doskonal’no ’perfectly’, prekrasno ’excellently’, blestjašče ’excellently’, nazubok ’to the last detail’, v soveršenstve ’completely’ etc.). The lexical rules introduce the equivalence between various renderings of the same sense, either with or without a syntactic change (e. g. Takoj ischod jego ne strašit = Takogo ischoda on ne bojitsja — Such a result does not frighten him = He is not afraid of such a result; On zanimajetsja lingvistikoj = On zanimajetsja jazykoznanijem — He is interested in linguistics = He is interested in language science). These rules are an open system; it is assumed that the semantic ca-

3. Computational Linguistics in Eastern (and Central) Europe

61

tegories they include are universal. Originally, the authors assumed to work with a set of about 300 elementary semantic features; in later studies, about 1500 features were assumed to be necessary. The syntactic rules introduce an equivalence between the same sense in terms of deep syntactic relations, e. g. the structure (a) in Fig. 3.1 can be changed into the structure (b); this syntactic change may involve also the rules of lexical equivalence.

the expression, respectively). The use of these pieces of information yields the possibility of an automatic evaluation of the generated sentences and the choice of a most suitable variant. The ’meaning ↔ text’ model does not attempt at such a degree of formalization as is the case of generative transformational grammar. It seems that a widescale elaboration of the syntactic component will be rather complicated since the starting point for the formulation of the rules of paraphrase are the lexico-semantic properties of words. The rich apparatus of lexical functions captures mainly the structural relations in the lexicon and overrides the syntactic relations.

Fig. 3.1: Example for a syntactic rule

(a) Množestvo M1 prevoschodit mnozestvo M2 po moščnosti (The set M1 is greater than the set M2 as for cardinality) (b) Moščnost’ množestva M1 prevoschodit moščnost’ množestva M2 (The cardinality of the set M1 ist greater than the cardinality of the set M2) The set of lexical functions and that of lexical and syntactic rules are the component parts of the so-called generator of synonymous expressions, which in the frame of paraphrasing generates all possible variants of the equivalent structures. Since this generator may produce sentences generated on the basis of general rules but unacceptable from the lexical, morphological or syntactic point of view, the system contains also a so-called selector (a series of filters) which is not an independent part of the system of paraphrasing, since concrete filters of different kinds are attached at different points of the system. One of the filters, for instance, requires that all obligatory valency slots (given in its lexical entry) of a concrete word should be filled. An important feature of these filters consists in the fact that each requirement has either an absolute or a relative validity (deciding on acceptability, or on the relative suitability of

2.2.1. Machine translation in the USSR dates back to 1954, and experimental translations of the first sentences were achieved in 1955 (English-to-Russian project, led by I. K. Bel’skaja) and in 1956 (French-to-Russian for the translation of mathematical texts. The grammar and algorithms of FR-1 were prepared by I. A. Mel’čuk and O. S. Kulagina and in the programming there participated about 10 workers (see Vakulovskaja/Kulagina 1959). The system was implemented on a STRELA computer and it was described in several papers, (see e. g. Kulagina 196 0 a, 196 0 b; Vakulovskaja/Kulagina 1959; 196 1; 196 2). FR-1 was designed as a binary translation based on a ’single-choice’ strategy, so that at every point that offered a choice between two or more continuations only one of them was chosen, without a possibility to backtrack or to carry out a parallel analysis, with the exception of the assignment of Russian equivalents to French words, where an ambiguous French lexical unit was assigned more than one Russian translations. The system did not contain any syntactic or semantic representation of French sentences; it was based mainly on a morphological analysis of French and on a corresponding transfer to Russian. The experiment included about 300 sentences from six fragments of texts and the authors themselves admit that its grammatical as well as algorithmical parts were not general enough. FR-1 can thus be classified as an MT-system of the first generation: such systems were designed after the pattern of the Georgetown experiment; they are based on the binary approach, they are not articulated into different phases and they follow the ’single-choice’ strategy (cf. Kulagina 1979, 18). The English-to-Russian system the work on which started rather soon (in 1955) represents a kind of transition to the systems of the second generation. Its linguistic part was

62

elaborated by T. N. Mološnaja (196 0); the strategy was rather progressive at its time, since it consisted of a special phase of syntactic analysis and synthesis. The parser was based on the configurational model (see Sect. 2.1. above): by means of gradual ’contraction’ of configurations (i. e. by means of the substitution of configurations by their heads) one of the acceptable configurations was achieved that was in the process of synthesis gradually modified into corresponding Russian configurations. At the Leningrad State University, the group headed by G. S. Cejtin was also engaged in an English-to-Russian machine translation, clearly of the second-generation type (Lejkina 196 4; Lejkina/Nikitina/Otkupščikova et. al. 196 6 ). An outstanding feature of this project consists in the idea of independent analysis and synthesis: the output of the analysis was represented in terms of the so-called intermediate language (Russ. jazykposrednik), which had the form of a dependency tree and contained units that were supposed to be language-independent, universal (see Andrejev 1957). Andrejev’s combinatory-statistical approach has been applied in the lexically based project of Machine Translation headed by R. G. Piotrovskij at the Pedagogical Faculty of the Leningrad State University. For readers interested in the approach of Soviet linguists to the questions of machine translation, we can refer to the two volumes of papers on most various issues of this domain translated into English and edited by Rozencvejg (1974). 2.2.2.  Passing over to the present-day work in machine translation in the U. S. S. R., there are three centres that should be mentioned. Very serious work with the longest tradition has been carried out in the Institute of Applied Mathematics of the Academy of Sciences of the U. S. S. R. in Moscow, where the group concentrated around O. S. Kulagina has been engaged in machine translation efforts since 1954; their first projects (FR-1 and Englishto-Russian system translating mathematical texts) were briefly mentioned in Sect. 2.2.1.; more recent and also more ambitious is the FR-2 system (worked out in the years 196 7—1976 ), oriented in its lexical stock towards mathematical texts, but conceived in its grammatical part in a more general way, taking into account scientific and technological texts in general. The transition from the

I. Computational Linguistics I: Development

input language (French) to the output language (Russian) is carried out in terms of surface syntactic structures; the parser is formulated in terms of dependency syntax. In the first step, all possible syntactic relations are given for the input sentence, out of which those that do not fulfil the conditions on compatibility and projectivity are filtered out. For a structurally ambiguous sentence the analysis should result in as many structures as many possible parsings there are acceptable. The experiments with this system were carried out on the computer BESM-4 in the years 1971 to 1976 (for a detailed description of FR-2, see Kulagina 1979, 84—311). An experimental system of French-toRussian machine translation was also the objective of the group attached to the INFORM E L E KTRO Institute in Moscow and led by Ju. D. Apresjan (it should be noted that quite recently Apresjan and many of his colleagues passed over from this institute to the Institute of Information of the Academy of Sciences of the U. S. S. R. in Moscow). Their work splits into two periods: in 1977—1980 the E TAP-1 system was designed and experimentally implemented for the translation of text from electrotechnics; the experience from this period was used in the ETAP-2 system. ETAP-1 as well as ETAP-2 are based on the theoretical investigations in the frame of the ’meaning ↔ text’ model (see above Sect. 2.1.). ETAP-1 works within the scheme analysis-transfer-synthesis; the output of the analysis part has a form of a dependency tree representing the surface syntactic structure of sentence; in principle, the rule of both the morphological and syntactic components are reversible, i. e. they can be used both in the analysis and in the synthesis procedures. One of the most important parts of the system is its lexical component, which has been compiled in cooperation with the Laboratory of Machine Translation attached to the Moscow State Pedagogical Institute of Foreign Languages. One of the remarkable outcomes of this cooperation are the detailed studies (about 400 pages) of the valency of about 100 French verbs published in the series of preprints of the Institute of Russian Language of the Academy of Sciences of the U. S. S. R. and edited by V. Ju. Rozencvejg. Each lexical item contains the information on its equivalent(s), part of speech, syntactic features that characterize the syntactic compatibility of the word in question with other words, the socalled descriptors (characterizing the given

3. Computational Linguistics in Eastern (and Central) Europe

63

lexical units as for its semantic features), and the valency of the given unit (together with a specification, in which forms the fillers of the valency slots can occur). ETAP-1 was implemented on the French computer IRIS-50 and the lexicon contained about 2000 to 2500 lexical units; for a more detailed information on this system see Apresjan/Boguslavskij/ Iomdin et al. 1981; Apresjan 1983; Apresjan/ Boguslavskij/Iomdin et al. 1983. The modifications carried out in E TAP-2 (Apresjan/ Cinman 1982) were aimed at speeding up the translation procedure, at reducing the mistakes and in principal they involved the introduction of more elaborate linguistic information into the system: a broader context is taken into account and a more specific information with each lexical unit is made use of. The rules are divided into three files: (1) general rules called out with every sentence to be translated, (2) special rules quoted by their names in the information given in the lexical entry and called out only in case the particular unit occurs in the sentence under consideration, (3) lexical rules for the translation of complex technical terms. The introduction of special and lexical rules brings along a re-organization of the lexical entries: they also carry the information on rules that are to be used for that particular unit. The work on machine translation in the All-Union Center of Translations in Moscow concentrates on three pairs of languages: English-to-Russain (AMPAR), German-toRussian (NERPA) and French-to-Russian (FRAP). While the FRAP system works with a syntactico-semantic analysis resulting in desp dependency structures of French sentences (see Leont’jeva/Kudrjašova/Sokolova 1979; experiments carried out in late 1985 showed the feasibility of such an approach), both AMPAR and NERPA use as their point of departure the SYSTRAN strategy; the analysis is based mainly on morphological analysis and on the translation of words and phrases, reducing the syntactic component to the minimum. Also the synthesis part consists mainly in morphological synthesis, with some word order changes if necessary, in correspondence with the syntax of the output language (see Marčuk 1985, 100). Out of the three systems, AMPAR is said to be in use for some time now translating about 1400 pages per year; the system assumes a post-editorial work of different degrees of complexity. Besides the three main projects mentioned above, work on machine translation is car-

ried out in other places as well, though not on such a large scale or integrity of the approach; let us only mention here the work being done in the Institute of E astern Studies of the Academy of Scientes of the U. S. S. R. in Moscow (Z. M. Šaljapina), by the inter-institutional working group called Statistika reči (Statistics of Speech) including the Pedagogical Faculty of the Leningrad State University, (R. R. Piotrovskij), the State University at Machačkala (Dagestan S. S. R.), the Polytechnical Institute in Kišiněv (Moldavian S. S. R.) and others, and in the research group of the Academy of Sciences of the Armenian S. S. R. in Jerevan (V. M. Grigorjan). 2.3. As can be seen from the preceding sections, much attention has been paid in the U. S. S. R. (both in theoretical works and in practical applications) to the questions of lexicon. The present activities in this direction are concentrated around the project of the computarized corpus and description of Russian language, which is led by the Institute of Russian Language of the Academy of Sciences of the U. S. S. R. in Moscow under the guidance of Ju. N. Karaulov (for a characterization of this project, see Andrjuščenko 1985); it is assumed that at the 2nd conference on these problems, due in 1987, first results of the computer implementation will be demonstrated. To the same domain there belongs the work on automation in lexicography, which has resulted in two working systems: UNILEX, worked out by a research group at the Moscow State University (Andrjuščenko 1982), and GENDIC, started in the Department of Computational Linguistics at Institute of Language and Literature of the Academy of Sciences of the E stonian S. S. R. (Viks 1980). GENEDIC has two outputs: the universal automatic dictionary of Estonian language and various special-purpose dictionaries computer-compiled either from the large automatic dictionary or from some special dictionary. There are many special works devoted to automation in lexicography, the most interesting of which are those based on the method of automatic compilation of semantic dictionary worked out by Ju. N. Karaulov (see Karaulov 1980; 1981; Karaulov/Molčanov/Afanas’ jev et al. 1982 a; 1982 b). 2.4. Interesting work is going on also on the systems of man-machine communication in

I. Computational Linguistics I: Development

64

the domain of artificial intelligence. Natural language interfaces (for which the term ’linguistic processors’ is frequently used) are based mainly on the ’meaning ↔ text’ model or on some of its modifications (see Sect. 2.1. above) and attention is paid also to general questions of language communication, both from the linguistic and psychological points of view (cf. e. g. most recently Padučeva 1985 on the problems of reference and anaphora; interesting work in this respect has been carried out at Tartu State University in the Estonian S. S. R. by H. Õim, see e. g. Õim 1972; 1979; 1980). One of the most active centres in this field is the Computing Center of the Siberian Section of the Academy of Sciences of the U. S. S. R. The system ZAPSIB designed by this group (Narin’jani 1979) is an experimental Russian interface to a simple database, which was implemented in the set-theoretical programming language SETL. The system contains a simple task-oriented parser of Russian queries that accepts a very restricted set of Russian interrogative sentences; the answers are given in the form of lists of data found in the database. More recently, the group’s orientation is focussed on more general questions of the process of understanding and communication (Kandrašina/Očakovskaja 1982; Narin’jani 1984; see also Jeršov 1982). TULIPS-2 (Mal’kovskij/Volkova 1981; Mal’kovskij 1983, 1985), designed as a natural language front-end system for the solution of arithmetical operations (the tasks are formulated in Russian), works with a morphological component, a syntactic parser (of the type of a context-free grammar) and several semantic sub-programmes; the parser works on the base of matrices and the system has one feature that distinguishes it from other similar systems; it can ’learn’ the language of the user in the course of the dialogue (Mal’kovskij 1982). Based on a strategy close to Wood’s Lunar, the system POE T (Popov 1982) accepts queries and commands in Russian and its parser (based on the ’meaning ↔ text’ model) gives at its output dependency structures of the input sentences; syntactic structures are then transformed into semantic graph representing the meaning of the sentence. The answers are generated as full Russian sentences by the system itself. Important theoretical work is carried out in the Computing Center of the Academy of

Sciences of the U. S. S. R. in Moscow; the group developed a modified version of an ATB-processor, called ATNL (Choroševskij 1983), introducing into the system a powerful lexical component (Selivanova/Choroševskij 1980); its latest version (ATNL-2.0) is formulated as a system of productions. This research is included into a broader project concerning linguistic and other aspects of computers of a new generation (G. S. Pospelov, D. A. Pospelov and others). The work on speech recognition is going on in various research groups and institutes throughout the country; one of the projects closest to a commercial system is IKAR, which recognizes isolated Russian words (Petrov/Avrin/Kopejkin et al. 1980). Research on speech recognition of both isolated words and of continuous speech is carried out also in Kijev at the Institute of Cybernetics of the Academy of Sciences of the Ukrainian S. S. R. (Vincjuk/Lobanov/Šinkaž et al. 1982).

3.

Computational Linguistics in Czechoslovakia

3.1.  In Czechoslovakia, the studies in computational linguistics started relatively early; the group of algebraic linguistics was formed at the end of the 1950’s at the Faculty of Philosophy, Charles University, Prague under the leadership of Petr Sgall, and is now affiliated to the Department of Applied Mathematics, Faculty of Mathematics and Physics Charles University. Its central aims have always concerned research underlying machine translation and a formal description of language. The basic approach, attempting at an adequate use of algebraic methods of the study of language, was aimed at a descriptive framework employing the results and methodological requirements of Chomsky and Bar-Hillel and also the empirical insights of classical structural linguistics; machine translation was understood as one of the main application spheres of such a complex formal description of natural language, the skeptical views on which should be overcome by understanding the task of automatic analysis as a challenge, perhaps realistically treatable in connection with a certain degree of standardization of the language of polytechnical texts. These efforts gave rise to an original generative approach called functional generative

3. Computational Linguistics in Eastern (and Central) Europe

65

description; it was first proposed by Sgall in the early sixties (see Sgall 196 4; 196 6 ) and elaborated since then by the members of the research group (for an overall characterization see esp. Sgall/Nebeský/Goralčíková et al. 196 9; Sgall/Hajičová 1970; Sgall/Hajičová/Panevová 1986 ; formal properties of the description are presented esp. in Hajičová/Sgall 1980 a; Plátek/J. Sgall/P. Sgall 1984; specialized studies on particular linguistic issues that contributed to the overall shape of the framework are collected in Klein/Stechow 1974 and in Sgall, ed. 1984; out of these studies the most important are Panevová’s study on recursive properties of tense and on valency of verbs, Benešová’s treatment of modality, Piha’s work on coordination and possessivity, and Hajičová’s study of negation and presupposition). In the functional generative description, the description of the sentence is conceived of as a sequence of its representations on several levels of the language system. These levels have a hierarchical order; the representation of a meaning of the sentence belongs to the highest level, called tectogrammatical, and is generated by a dependency grammar; it is then transduced by means of the rules of transduction to the representation(s) on lower levels (surface syntax, morphemic, morphophonemic, phonemic, in this order) until the surface shape of the generated sentence is reached. It it possible to say that the functional generative description anticipates the development of transformational grammar in that even the original form of the former (formulated as early as in 196 3—6 4) assumes a kind of generative semantics and valency slots ensuring a reliable basis for the transduction to lower levels. One more priority should be acknowledged to this theory, namely a formal account of topic/focus articulation within a generative framework (see Sgall 196 7a; Sgall/Hajičová/Benešová 1973; Sgall/Hajičová/Panevová 1986 ). The generative power of the system is only moderately higher than that of context-free grammars (see Plátek/Sgall 1978). The representation of the sentence on the tectogrammatical level has the form of a dependency tree, with the verb as its root. The nodes correspond to meanings of word forms and are labelled by complex symbols accounting also for the morphological meanings (such as delimitation and number with nouns, modality, tense, aspect, mood with verbs, etc.); the edges correspond to the

relations of syntactic dependency (valency). The use of dependency syntax makes it possible to interpret the left-to-right order of the nodes as a scale of degrees of communicative dynamism. It is assumed that, with each type of participant of the verb, it is possible to determine its position in the systemic order of the participants, determined by the grammar. In a tectogrammatical representation, however, any of the elements included in the topic can be placed to the left of some participant(s) with regard to which it stands to the right in the systemic order. Each node of the tectogrammatical representation of the sentence is marked as contextually bound or non-bound; contextual boundness is understood rather broadly, taking into account not only verbal co-text, but also the context of situation. The topic and the focus of the sentence (i. e. of its tectogrammatical representation) are formally defined on the dependency graph on the base of the boundness markers of its nodes. The tectogrammatical representation as a representation of the disambiguated level of language meaning is supposed to be a good starting point for a transition to a postulated universal language of intensional logic (Materna/Sgall 1980; 1984) or to a system of cognitive networks which can handle language independent patterning of factual knowledge (see Sect. 3.2.4. on the method TIBAQ). The questions of semantics have always stood in the centre of attention of Sgall and his collaborators. Sgall (1983) formulated a criterion for establishing synonymy, from which it is possible to determine whether two expressions have a meaning in common. Also the procedure of reference assignment, which belongs to the crucial points of semantic interpretation, may benefit from the shape of tectogrammatical representations including an account of topic and fucos (Hajičová/ Vrbová 1982). Even though the functional generative description has been formulated and elaborated primarily on the base of a description of the sentence, the questions of communication and thus also of the text are paid due attention in this framework (Sgall 1984). 3.2.1.  The efforts at machine translation started at the end of the 1950’s, hand by hand with the theoretical investigations into the generative description. As we have seen in Sect. 3.1., the generative component of the functional generative description generates

66

the tectogrammatical representations of sentences, i. e. the representations of meanings of the sentences. No wonder then that the machine translation project was underlied first by the idea of an intermediate language (Sgall 196 3) that would enable to carry out a multilingual machine translation in the most economic way; intermediate language was conceived of as a set of more or less disambiguated representations of sentences, the basic features of which were the point of departure for the formulation of tectogrammatics. In the middle of the 196 0’s, similarly as in ohter countries, the practically oriented research partly gave way to more theoretical investigations. Practical efforts were resumed at the beginning of the 1970’s, with concentration towards an English-to-Czech binary translation, using some of the experience of the TAUM project (thanks to R. Kittredge). However, the analysis of English is formulated as a dependency-based parser (see Kirschner 1982); the whole system is implemented in Colmerauer’s Q-language (in the implementation of B. Thouin), and is distinguished by a specific feature of its own, viz. a procedure generating Czech equivalents of English lexical units (mainly technical terms) in case they are derived in a regular way from Greek or Latin roots. This device makes it possible to cover texts much richer in their vocabulary than would be possible by an ordinary lexical component. In the present time the system is used in an experimental regime to translate INSPEC abstracts from a subdomain of electronics. 3.2.2.  For the aim of documentation and information retrieval the research group of Charles University has prepared a system of automatic indexing, using the inflectional properties of Czech to identify automatically technical terms (and collocations) of the given field (see Kirschner 1983); these properties allow to replace athesaurus by a much shorter list of typical final and middle segments consisting of four letters. Another method, which was developed by the group for similar purposes (Cejpek/Hajičová/ Kirschner et al. 1982), provides for an identification of all occurrences of terminological collocations looked for by the user (on the basis of the so-called full-text method). 3.2.3.  A natural language interface to a simple database (implemented on the Siemens 7755 computer in an interactive mood and accepting queries formulated in Czech) is another

I. Computational Linguistics I: Development

example of practically oriented research of the mentioned group. This interface (see Hajič 1984) is based on the experience of the ZAPSIB system (see Sect. 2.4.), but it allows for more complicated queries and the language of the user is restricted chiefly by the contents of the database rather than by some grammatical limitations. A similar system is being developed (taking the same starting point) also at the Computing Centre of Charles University (Buráňová et al. 1983). 3.2.4.  The main interest of Sgall’s group in the applicational domain is now focussed on automatic comprehension of natural language, including an automatic compilation of a knowledge base from technical texts (Hajičová/Sgall 1980b; Sgall 1982). A dependency based grammatico-semantic analysis of Czech is being prepared for this purpose (see Panevová/Oliva 1982; Hajičová/Sgall 1985). The output language of the analysis corresponds to the tectogrammatical representation of the functional generative description (see Sect. 2.1.) and is operated on by a set of rules of inference, deriving additional assertions from those literally contained in the input texts (see Jirků/Sgall 1983; Hajičová/ Hnátková 1984). The system may also serve for the purpose of answering questions concerning the knowledge base; the answers are generated from the tectogrammatical representations (by means of a procedure originally developed as a random generation of Czech sentences, see Panevová 1982) and marked either as full (direct) responses, or partial ones (indirect); a partial answer differs from a full answer in its topic-focus articulation or in that it contains superordinate or subordinate notions instead of those contained in the question, etc. The method TIBAQ, experimentally verified by this project, is intended as one of the first steps towards a general, linguistically based support for the challenge of true man-machine communication in natural language (be it for an interface to expert systems, to intelligent robots, or for other purposes within Artificial Intelligence), which has become urgent with the projects of the new generations of computers. 3.3.  Besides the group the activities of which have been described in Sect. 3.1. and 3.2., theoretically oriented studies in mathematical linguistics have been published by M. Novotný (Institute of Mathematics, Czechoslovak Academy of Sciences, Brno) and by L. Nebeský (Faculty of Philosophy, Charles

3. Computational Linguistics in Eastern (and Central) Europe

67

University, Prague). Novotný’s research is focussed on an algebraic specification of the notion of grammatical category and on construction of formal grammars (Novotný 1981; 1983); general questions of analytical models and their relationships to grammars are investigated here. Nebeský is mainly involved in the study of the formal features of dependency trees (see Nebeský 1978; 1981). In Slovakia, the research concerns mainly the linguistic aspects of computational linguistics, thanks to J. Horecký (Linguistic Institute of L’. Štúr, Slovak Academy of Sciences, Bratislava). Horecký (1972; 1976 ) pays attention, first of all, to morphemics and to semantics.

(Vol. 11 was published in 1984), where there appear longer studies, mainly of an applicational character, concerning the projects in which the group is involved. Papers from a broader domain, including statistical linguistics, can be found in the book series (approx. one volume in two years) Prague Studies in Mathematical Linguistics, published by the Academia Publishing House in Prague (Volume 9 is in print now; Vol. 8 was published in 1983). Computational linguistics is also one of the topics covered by the international journal Computers and Artificial Intelligence (editor: I. Plander with editorial board; editorial office address: Dúbravská cesta 9, 842 37 Bratislava), a bi-monthly published since 1981 by the Institute of Technical Cybernetics, Slovak Academy of Sciences, Bratislava; this Institute coordinates several projects closely connected with the new generation of computers, one of which concerns the manmachine communication in natural language and is carried out by the group of mathematical linguistics at Charles University, Prague (see Sect. 3.2.4.).

3.4.  Deeply rooted in the tradition of Czech linguistics, the activities within the domain of quantitative linguistics are concentrated under the leadership of M. Těšitelová in the Institute of Czech Language of the Academy of Sciences in Prague. Concerned first with the quantitative characteristics of the lexical stock of Czech (resulting in a frequency dictionary of Czech and in several word-count lists for different functional styles), the interest of the research group has shifted to the application of quantitative methods in grammar (Těšitelová 1980; see also a collection of papers of the members of the group in Prague Studies in Mathematical Linguistics 8, 1983; for a more comprehensive treatment of quantitative characteristics of Czech fiction and non-fiction style, see Těšitelová et al. 1985) and, more recently, to the realm of semantics (Těšitelová 1982). Using a computer, Těšitelová’s group has also prepared a reverse frequency dictionary of Czech. 3.5.  The research activities in the field of computational (and formal) linguistics in Czechoslovakia can be followed first of all in the regular periodical The Prague Bulletin of Mathematical Linguistics, published twice a year by Charles University (editor: E. Hajičová with editorial board; editorial office address: Malostranské n. 25, 118 00 Praha 1). The Bulletin is published since 196 4 and brings English, Russian and German papers from mathematical, formal, theoretical and computational linguistics, as well as reviews of the most recent publications in the field. The group at the Faculty of Mathematics and Physics, Charles University, also publishes a series called E xplizite Beschreibung der Sprache und automatische Sprachbearbeitung

4.

Computational Linguistics in the German Democratic Republic

4.1.  The main center of computational linguistics (together with an underlying theoretical research) in the G. D. R. is the Central Institute of Linguistics of the Academy of Sciences of G. D. R. (its Division for Automatic Language Processing led by J. Kunze). Their main concern is the research on syntactic analysis of German, based on Kunze’s (1975) model of dependency grammar. Among the results achieved up to now there belongs first of all a thorough mathematical account of dependency syntax based on verbal valency and on a detailed description of German morphemics, as well as of the syntactic distributional patterns. The features that in other theories are described on two different levels of sentence structure (e. g. surface and underlying) are treated here within the labels of a single tree, and function words (prepositions, conjunctions, auxiliary verbs) are handled as nodes of their own. The difficulties following from such an approach are being solved by means of ’Wirkungswege’, a kind of relations between nodes of a dependency tree, of bundles (minimal subtrees) and other mathematically elaborated devices. A detailed account of the individual issues of

68

this framework is presented in Kunze (1982 a; b) and Klimonow (1982). The morphemic analysis of German within this model including word formation, is conceived of as the first step of the syntactic analysis; besides a usual combination of inflectional features of the word form, the selective features, restrictions and a subtle differentation of word classes, each word form is also assigned a characteristics as for the possibilities of its subordination to another word form within the dependency tree, and data roughly corresponding to the valency of the given word form (Lindner/Rüdiger 1980; Reimann/Rüdiger 1982; Lindner 1982; Klimonow 1983). The syntactico-semantic analysis (Kunze 1980), based on the dependency grammar is conceived of as a multiple-path bottom-up procedure, which operates on strings of combinations of feature that describe the properties of wordforms. The ultimate output of the analysis are ’generalized trees’ each of which contains in a condensed form all the information on one of the resulting readings of the analysed sentence. Semantic criteria for the analysis are introduced by means of the socalled ’selective restrictions’ of the customary kind. The notion of a bundle is used as a basis for more effective forms of syntactic rules, the sequence of bundle applications being controlled by networks similar to ATN (Reimann 1980; 1982; for an application of the principles of this kind of syntactic analysis to sentences without coordination by means of ATN see also Koch 1979). A most detailed partial formalism elaborated within this framework is that of coordination (Hesse/A. Küstner 1980; 1985); also a formal model of negation displaying interesting mathematical properties has been formulated (H. Küstner 1983). As for semantics, the identification of synonymic constructions was discussed in Brand/Starke (1982); on the whole, the group advocates a rather skeptical attitude to the possibilities to handle semantic facts (and a formulation of a specific component is relagated to the future), while some of the semantic criteria are integrated into the system of syntactic analysis in the form of selective features and restrictions (Kunze 1980). The group does not refrain from practical tasks; they participated in several applicational projects such as the automatic division of words into syllables and the translation of graphemes into phonemes (for the purposes

I. Computational Linguistics I: Development

of automatic synthesis of speech for German). 4.2.  Theoretical linguistic research oriented towards an explicit description of language that may serve as a base for experiments in computational linguistics has reached a high standard at the Karl Marx University in Leipzig, Section for Theoretical and Applied Linguistics founded by R. Růžička, one of the best specialists in a generative description of Slavonic languages (see e. g. Růžička 1970; 1980); an example of theoretical research directed towards question-answering systems is the work of R. Conrad (1978; 1979). Theoretical research in the direction of Chomskyan transformational grammar is carried out also at another division of the Linguistic Institute of the Academy of Sciences of the G. D. R. in Berlin, where especially M. Bierwisch works in psycholinguistics and in general questions of formal linguistics. 4.3.  As for the A. I. oriented applied aspects of computational linguistics, there are two institutes in the G. D. R. which are engaged in natural language interfaces for systems of man-machine communication, namely the Central Institute of Cybernetics and Information Processes of the Academy of Sciences of the G. D. R. in Berlin and the research institute of Robotron in Dresden. The two institutes cooperate on the development of a question-answering system FAS-80 (Helbig/ Böttger/String et al. 1983). The system has a usual design with a database consisting in a lexicon, a semantic network and a set of axioms (in the form of predicate/argument expressions); the parser is built with the use of ATN formalism (see Koch/Heicking 1980) and its output consists in semantic (deep, underlying) representations of sentences. The parser is followed by assimilation procedure that is supposed to transfer these underlying structures into the structures of the semantic network (mainly by means of pointers). When a question is at the input, its surface shape is transformed into a logical expression, which is used then for the lookup for the answer. The generator of the answer accepts the so-called nucleus of the answer (’yes’, ’no’, ’not’, ’not known’) or the structure of the meaning of the answer. A simple natural language interface to a database is described by (Geske/Koch 1984). Their natural language interface consists of a

3. Computational Linguistics in Eastern (and Central) Europe

69

linguistic analysis (syntactic and semantic, the latter concerning lexical semantics only), the output of which is transformed into a retrieval expression, which is executed referring to a small database in the main memory of the system. The properties of the used LISP/F3, B-system, with the possibility to call Fortran programs, are utilized for the preparation of answers.

guage processing was created around the seminars at the Institute of Informatics held by Z. Saloni (Warsaw University) and J. Bień, the goal of which is a computational description of written Polish (Saloni/Swidziński 1981; Szpakowicz 1983). It may be only regretted that in a country where there is such a long and good tradition of grammatical and logical studies, it seems that the efforts at a formal description of Polish do not make full use of these results and are restricted chiefly to the surface syntax. Some linguistic problems are attacked using also features of a cognitive science approach (Bień 1983). In practical applications Prolog is used now as the programming tool (Kluźniak/Szpakowicz 1985). An experimental expert system with a Polish language interface (Szpakowicz/Swidziński 1982) is now in the final stage of development; it is supposed to model a simple train timetable information system, implemented in Prolog and covering a variety of types of syntactic structures of Polish with a domain dependent syntactic description.

4.4.  Besides internal reports with a rather limited circulation, there are three series published in the G. D. R. that bring papers from the domain of computational linguistics and related fields. Mitteilungen zur Automatischen Sprachverarbeitung is published by the Linguistic Institute of the Academy of Sciences of the G. D. R. (editorial office address: Dr. Gerda Klimonow, ZISW AW der DDR, Prenzlauer Promenade 149/152, 1100 Berlin, DDR) and brings mostly papers written by the member’s of Kunze’s group. The theoretical linguistic research of the members of the Division of Theoretical and Applied Linguistis of Karl Marx University in Leipzig is reflected in their Linguistische Arbeitsberichte (editorial office address: 7010 Leipzig, Karl-Marx-Platz 9, DDR). The Academy of Sciences of the G. D. R. publishes a series Linguistische Studien, including more substantial and longer studies, many of which are pertinent to the research in computational linguistics.

5.

Computational Linguistics in Poland

5.1.  The main center of the research in computational linguistics in Poland is the Institute of Informatics of Warsaw University, attached to the Faculty of Mathematics, Informatics and Mechanics. The activities are oriented mainly towards linguistic interfaces for the systems of artificial intelligence and information retrieval and are concentrated in the Information Analysis and Synthesis Unit (L. Bolc) and in the Computing Center (J. Bień). Both groups attempt at an elaboration of a parsing system for Polish. Bolc and Strzałkowski (1982) report on their design of a Polish parser unifying both the syntactic and semantic analysis into a single whole, in which, however, syntax dominates semantics. The system is applied to the parsing of a corpus of medical texts and is implemented by means of the cascaded ATN method. Some years ago, an informal group of natural lan-

5.2.  Information on the research carried out in the Institute of Informatics, Warsaw University, can be obtained from the series IInf UW Reports (Sprawozdania Institutu informatyki uniwersytetu warszawskiego) which brings both short reports on the work in progress in the form of preprints and annual or biennal reports on the organization of the Institute and the research projects under preparation. 5.3.  There are at least three other places that should be mentioned as for their research connected more or less closely with computational linguistics. Among the logicians, the studies of Marciszewski (1976 ; 1983) on the structure of text should be mentioned in this connection. In the domain of information retrieval and documentation the research project Anaphora (Studnicki/Polanowska/Stabrawa et al. 1982) has set as its task to work out a method of an automatic resolution of anaphoric relations between clauses in legal documents so that interdocumentary crossreferences can be established (Institute of Computer Science, Jagellonian University, Cracow). In the Institute of Scientific, Technological and Economic Information in Warsaw, the research (led by J. Bańkowski) is also in one of its branches directed towards automatic natural language text processing

I. Computational Linguistics I: Development

70

for the purposes of automation of the systems of scientific and technological information.

6.

Computational Linguistics in Roumania

6.1.  Mathematical linguistic studies in Roumania were started by S. Marcus (see e. g. Marcus 196 7; 1970) at Bucharest University, who specialized in analytical models and their application to linguistic phenomena at different levels of language description. Marcus stimulated also the research of other scholars, whose interest is mostly strictly theoretical, mathematical, focussing expecially on formal languages, theory of computation and mathematical modelling of some linguistic or literary phenomena. 6.2.  In the present time, there are two active groups in computational linguistics in Roumania: one at the Department of Mathematics and the Computer Center of the University ’AL. O. Cuza’ in Iasi, and the other in the Research Department of the Central Institute for Management and Informatics (I. C. I.) in Bucharest; both the groups work in a close cooperation. The investigations are focussed on the development of general computer oriented syntactic theories and parsing strategies mainly for Roumanian. A so-called Segmentation-Cohesion-Dependency (SCD) strategy was developed, working on two levels: (1) recognition of predicates in a sentence, (2) recognition of the predicate-argument structure of the sentence (in terms of case or valency frames). This syntactic parser is followed by a semantic analysis (verb oriented), which results in logical functional structures that can be operated on by techniques of automated deduction. There have been developed two operating systems of natural language interface for Roumanian: the IURES system, based on semantic networks formalisms (working with domain dependent semantic categories) and written in LISP (Tufis/Cristea 1985), and a ROUND-S system (designed by S. Mandutianu from I. C. I., Bucharest), which displays a greater generality, using syntactic and semantic analysis of the queries; it is written in LISP and uses the ATN formalism. An interface to the relational database QUERNAL using internal meaning representation language specifically designed for this system is presently developed (Cristea/Ciobanu/Tufis 1985).

7.

Computational Linguistic in Bulgaria

7.1.  The beginnings of the research in computational linguistics in Bulgaria are connected with the name of A. Ljudskanov, a pioneering investigator in machine translation and a founder of the first group involved in the research of this domain. The group was attached to the Institute of Mathematics of the Bulgarian Academy of Sciences in Sofia and investigated the general problems and theory of human and machine translation (Ljudskanov 196 7). The Georgetown approach underlied the first experiment in machine translation in March 196 5; in the period of 196 6 through 1976 the group elaborated an algorithm of Russian-Bulgarian machine translation of mathematical texts (on the base of a corpus of 6 0 000 word forms). After Ljudskanov’s death, however, the efforts in Bulgaria slowed down, and it is only recently (mainly in connection with the research in the domain of artificial intelligence) that the activities in the field of automatic language processing were included into broader projects. 7.2.  The research in the Laboratory of Mathematical Linguistics at the Institute of Mathematics of Bulgarian Academy of Sciences is now primarily directed towards a formal description of Bulgarian with regard to its applications in automatic processing of texts. The description is based on stratificational principles and is conceived of as a transition from text to meaning and vice versa. A procedure of an automatic generation of Bulgarian word forms was formulated, describing the transition from the morphemic level to the outer shape of the text (Paskaleva 1982 a). The opposite direction, namely that from text to morphemes, is covered by an algorithm for automatic segmentation of Bulgarian texts implemented in PL/1 programming language on an EC-1040 computer (Paskaleva 1982 b). This algorithm passes through the text without the use of a stem dictionary and carries out the first step in an automatic lemmatization of Bulgarian text. A programming system was formulated that is supposed to help to automatize linguistic invetigations (in making concordances, automatic compilation of dictionaries, frequency word count etc.; Paskaleva 1982 c). First attempts have been made to build a natural language interface in Bulgarian to a relational database which provides the user with a language for

3. Computational Linguistics in Eastern (and Central) Europe

71

request of a relational type with elements of the Bulgarian language enriched with operators (Pavlov/Angelova 1982). Some other activities are mentioned in Sgurev (1985), concerning mainly natural language front-end systems (institute of Industrial Cybernatics and Robotics of Bulgarian Academy of Sciences, Higher School of Electrical and Mechanical Engineering in Sofia, the Center for Scientific Information of the Bulgarian Academy of Sciences), which we cannot give a more precise report on because no primary references are quoted.

Sciences in Budapest; the leading role there is played by F. Kiefer, who after his initial interest in morphology (including that of Swedish and French) focussed his attention to issues related to the meaning of the sentence and to the organization of text (Kiefer 1972; 1977; 1980). More recently those activities of this Institute are strengthened that are devoted to the theory of grammars, see esp. Kornai (1985). A description of Hungarian morphology was one of the objectives of G. Hell (emerited professor of the Technical University, Budapest); in this connection, he discussed also the questions of automatic hyphenation in Hungarian (Hell 1976 ). More recently, he got involved in general questions of the analysis of text (Hell 1982).

8.

Computational Linguistics in Hungary

8.1.  The long and rich Hungarian tradition in mathematics and in theory of computation gave an impetus to the studies in computational linguistics as early as at the beginning of the 196 0’s; the main supporter of this field among mathematicians was L. Kalmár. In spite of the favourable conditions, however, the initial activities did not give rise to a strong group or school of thinking and at the present time, the research is rather scattered. 8.2. Lexical issues have always been in the centre of attention of Hungarian linguists. F. Papp’s (formely: K. Kossuth University, Debrecen; presently: Linguistic Institute of the Hungarian Academy of Sciences Budapest) and his collaborators’ efforts in this field resulted in a reverse dictionary of Hungarian (Papp ed. 196 9), which registers about 6 0 000 entry words of the source dictionary; this collection together with the morphological, syntactic, and stylistic characteristics of the words offers the possibility of a many-sided computer processing of a great number of words (Papp 1982). Since 1981, there has been a common project with the All-Union Centre of Translations in Moscow, the immediate purpose of which is to make it possible for an expert without any knowledge of Hungarian to look up certain technical terms. Automated dictionaries have recently become also a matter of interest of D. Varga (Central Technical Libary, Budapest) who has been engaged for a long time in the field of information and documentation. 8.3. Theoretical work (mainly with a linguistic orientation) is being carried out at the Linguistic Institute of the Hungarian Academy of

9.

Computational Linguistics in Yugoslavia

9.1.  There is a high-level tradition of structural linguistic studies in Yugoslavia (represented nowadays by M. Ivić, R. Bugarski and others), and also the activities in the field of artificial intelligence (both organizational — e. g. the regular International Summer Schools of A. I. — and scientific) are rather rich; nevertheless, the researchers from both sides are still in the process of looking for some closer contacts. In formal linguistics, the work being done by O. Mišeska-Tomić (Skopje University) should be mentioned in this place; besides her pedagogically oriented introduction into generative grammar (Tomić 1978) and an excellent brief survey of the main issues in the development of theoretical linguistics (Tomić 1985), she has focussed her attention on several issues from the domain of syntax and semantics (Tomić 1983 a; b). Tomić has close contacts to the Institute of Mathematics in Belgrade, where the mathematicallyoriented studies in computational linguistics (automatic analysis and generation of SerboCroatian forms) started several years ago (D. Vitas). One of the main centres of the studies in artificial intelligence is the Institute „Jožef Stefan” in Ljubljana; questions of man-machine communication in natural language are studied there by P. Tanzig, who prepared an automatic analysis of Slovene morphemics. 9.2.  Computing in humanities and in social sciences is one of the topics covered by the

72

periodical Informatica, published since 1977 by the Slovene Society for informatics (editorial office adress: Institut Jožef Stefan, Jamova 39, 6 100 Ljubljana). In Belgrade (in cooperation with the above mentioned Mathematical Institute) another journal from the same domain is being published, called Informatika (editor: Milena Matič; editorial address: Jugoslovenski centar za techničku i naučnu dokumentaciju, Beograd, Slobodana Penezića Krcuna, 29—31). Acknowledgements I am fully aware of the fact that this survey is far from being complete and exact. The research in the field is rather scattered so that primary sources of information are not easily accessible. I would like to extend my sincere thanks to my colleagues A. Bémová, J. Panevová and P. Sgall, who helped me to gather the information useful for writing this survey and to collect relevant literature; I would not be able to accept the task to write this survey if my friends and colleagues V. M. Andrjuščenko, J. Bień, V. F. Choroševskij, N. Curteanu, J. Kunze, A. S. Narin’jani, E. Paskaleva and V. Ju. Rozencvejg had not kindly helped me to get the necessary data and references.

10. Literature (selected) N. D. Andrejev 1957 · V. M. Andrjuščenko 1982; 1985 · Ju. D. Aṕresjan 196 7; 1974; 1980; 1983 · Ju. D. Apresjan/L. Cinman 1982 · Ju. D. Apresjan/I. M. Boguslavskij/L. L. Iomdin et al. 1981; 1983 · J. S. Bień 1983 · L. Bolc/T. Strzalkowski 1982 · I. Brand/I. Starke 1982 · E. Buráňová et al. 1983 · J. Cejpek/E. Hajičová/Z. Kirschner et al. 1982 · V. F. Choroševskij 1983 · R. Conrad 1978; 1979 · D. Cristea/G. Ciobanu/D. Tufis 1985 · N. Geske/D. Koch 1984 · A. V. Gladkij 196 5 · V. M. Grigorjan/ S. A. Gjul’misarjan/T. K. Džanpoladjan et al. 196 5 · J. Hajič 1984 · E. Hajičová/M. Hnátková 1984 · E. Hajičová/P. Sgall 1980 a; 1980 b; 1985 · E. Hajičová/J. Vrbová 1982 · G. Hell 1976 ; 1982 · H. Hesse/A. Küstner 1980; 1985 · J. Horecký 1972; 1976 · A. P. Jeršov 1982 · P. Jirků/P. Sgall 1983 · E. Ju. Kandrašina/O. N. Očakovskaja 1982 · Ju. N. Karaulov 1980; 1981 · Ju. N. Karaulov/V. I.

Molčanov/V. A. Afanas’jev et al. 1982 a; 1982 b · F. Kiefer 1972; 1977; 1980 · F. Kiefer/N. Ruwet ed. 1972 · Z. Kirschner 1982; 1983 · W. Klein/A. von Stechow eds. 1974 · G. Klimonow 1982; 1983 · F. Kluźniak/S. Szpakowicz 1985 · D. Koch 1979 · A. Kornai 1985 · O. S. Kulagina 1958; 196 0 a; 196 0 b; 1979 · J. Kunze 1975; 1980; ed. 1982; 1982 a; 1982 b · H. Küstner 1983 · B. M. Lejkina 196 4 · B. M. Lejkina/T. M. Nikitina/M. I. Otkupščikova et al. 196 6 · N. N. Leont’jeva/I. M. Kudrjašova/Je. G. Sokolova 1979 · U. Lindner 1982 · U. Lindner/B. Rüdiger 1980 · A. Ljudskanov 196 7 · M. G. Mal’kovskij 1982; 1983; 1985 · M. G. Mal’kovskij/I. A. Volkova 1981 · S. Mândutianu 1984 · Ju. N. Marčuk 1985 · S. Marcus 196 7; 1970 · P. Materna/P. Sgall 1980; 1984 · I. A. Mel’čuk 1974 · I. A. Mel’čuk/A. K. Žolkovskij 1970 · T. N. Mološnaja 196 0 · A. S. Narin’jani 1979; 1984 · L. Nebeský 1978; 1981 · M. Novotný 1981; 1983 · H. Oim 1972; 1979; 1980 · Je. V. Padučeva 1985 · J. Panevová 1982 · J. Panevová/K. Oliva 1982 · F. Papp ed. 196 9; 1982 · E. Paskaleva 1982 a; 1982 b; 1982 c · R. Pavlov/G. Angelova 1982 · G. M. Petrov/S. B. Avrin/A. B. Kopejkin et al. 1980 · M. Plátek/P. Sgall 1978 · M. Plátek/J. Sgall/P. Sgall 1984 · E. V. Popov 1982 · D. Reimann 1980; 1982 · D. Reimann/B. Rüdiger 1982 · I. I. Revzin 196 2; 196 7 · V. Ju. Rozencvejg ed. 1974 · R. Růžička 1970; 1980 · Z. Saloni/M. Świdziński 1981 · J. R. Searle/F. Kiefer/M. Bierwisch eds. 1980 · N. V. Selivanova/V. F. Choroševskij 1980 · P. Sgall 196 3; 196 4; 196 6 ; 196 7; 1982; 1983; ed. 1984 · P. Sgall/E. Hajičová 1970 · P. Sgall/E. Hajičová/E. Benešová 1973 · P. Sgall/E. Hajičová/J. Panevová 1986 · P. Sgall/L. Nebeský/A. Goralčiková et al. 196 9 · V. Sgurev 1985 · F. Studnicki/B. Polanowska/E. Stabrawa et al. 1982 · S. Szpakowicz 1983 · S. Szpakowicz/M. Swidziński 1982 · Z. M. Šaljapina 1975 · M. Těšitelová 1980; 1982 · M. Těšitelová et al. 1985 · O. Mišeska Tomić 1978; 1983 a; b; 1985 · D. Tufis/D. Cristea 1985 · V. A. Uspenskij 1957 · G. V. Vakulovskaja/O. S. Kulagina 1959; 196 1; 196 2 · Y. Viks 1980 · T. K. Vincjuk/B. M. Lobanov/A. G. Šinkaž et al 1982 · A. K. Žolkovskij/Mel’čuk 196 6 · A. K. Žol’kovskij/I. A. Mel’čuk 1967.

Eva Hajičová, Prague (Czechoslovakia)

73

II. Computational Linguistics II: Theoretical and Methodical Foundations Computerlinguistik II: Theoretisch-methodische Grundlagen

4. 1. 2. 2.1. 2.2. 2.3. 3. 3.1. 3.2. 4. 5.

1.

Theoretical Framework, Aims and Concepts of Computational Linguistics Introduction Theoretical Framework The Regularity Principle The Expansion Problem Interim Conclusion Computational Linguistics Practice Extensional Approach to Computational Linguistics Intensional Approach to Computational Linguistics Final Conclusion Literature (selected)

Introduction

The least one can say about computational linguistics (German: Computerlinguistik, French: linguistique computationelle ) is that, as with other English nominal groups or compounds, the component parts of the expression have relations with each other: R. (computer, linguistics). The exact nature of this relationship is not, in the narrow sense of the word, a linguistic, in this case, morphological, matter. To specify the character of the relation one needs to know about what computers are like and what they can be used for, what linguistics is all about, what (computational) linguists are after and how they try to reach their aim(s) etc. ... Trying to answer the question of what is meant by computational linguistics therefore comes down to finding out the general framework it is to be situated in, the practice it entails, the conceptions it develops and the goals it aims at.

2.

Theoretical Framework

A s, by now, computers are becoming more and more part and parcel of our culture, there also is a growing knowledge among lay-

men about what computers are like. A ny good general dictionary of a modern language reflects this situation. To quote just one of them: “A computer is a device, usually electronic, that processes data according to a set of instructions” (Collins Dictionary of the English Language, 1986 2 , 325). With this, two important characteristics become clear: a computer is a (very general) data processing machine which can only carry out the processes meant if the latter can be properly instructed, i. e., if the latter are rule-governed, predictable, regular. In the following paragraphs we will have a closer look at the implications of this statement. 2.1. The Regularity Principle If we take language to be a means to communicate with, two basic processes can be carried out with it, viz. speaking and understanding, or, put differently, writing and reading. In order to computerize these processes they need to be predictable or regular. The question then is what kind of rules language production/understanding is governed by. This first subsection will be restricted to production only. Language production rules can be represented as condition—action rules: given a set of one or more conditions (features, co(n)textual variables, constraints etc.), a set of one or more actions is undertaken (leading to the production of linguistic objects). From this point of view one can make a distinction between four types of (production) rules, viz. deterministic rules, optional rules, variable rules and statistical rules (cf. Frumkina 1963; Martin 1973, 1981). 2.1.1. Deterministic Rules These are rules which, given a set of conditions, lead to a fixed, predictable result .

74

II. Computational Linguistics II: Theoretical and Methodical Foundations

In German e. g. the following phonological rule is deterministic: + occlusive + voice

→ [— voice] / — #

Think of Pferd (horse) ~ Pferde (horses) hab’ (have, 1 sing) ~ haben (have, pl.) etc. Deterministic rules are obligatory or categorial: they cannot be neglected without making a violation. 2.1.2. Optional Rules Optional rules are rules which, given a set of conditions, can be either applied or not. This implies uncertainty as to the result obtained, not as to the correctness of this result. Optional rules suggest a random variation in linguistic production. If one were free to choose to apply the T Adj to “the girl with the blue eyes” the result could be either: “the blue—eyed girl” or, leaving the NP unaltered,: “the girl with the blue eyes”. The homogeneity of linguistic production suggested by rules of the deterministic type is no longer (fully) guaranteed. 2.1.3. Variable Rules A s a reaction against the Chomskyan homogeneity abstraction (as expressed by rules of the first type and to a lesser degree also by rules of the second type) the concept of variable rules was introduced mainly under the influence of sociolinguists. Variable rules are rules which capture the variable performance of the speakers of a language. Contrary to optional rules, variable rules deal with a patterned variation: the variable performance is seen as a function of linguistic and/or social parameters. A good example is to be found in Cedergren/Sankoff (1974) where the authors (who also present a computer program to deal with the phenomenon under discussion) illustrate the notion with examples taken from (Canadian-) French a. o. the way the que -deletion (as in “A u début je pense ça a été plutôt un snobisme” vs. “A u début je pense que ça a été plutôt un snobisme”) should be treated. 2.1.4. Statistical Rules Statistical rules no longer guarantee the correctness of the output or action. This is not due to our poor knowledge of the conditions under which the rule is to be applied but is taken to be an inherent characteristic of the linguistic rule system, i. e. a system where

there is room for a—systematic exceptions. Instead of certainty statistical rules express the probability that the action undertaken will be correct. This does not imply that linguistic actions are totally irregular or unpredictable, but simply that they escape full determinism and are governed a. o. by preferences which can be expressed in a statistical way. In Dutch e. g. where many nouns are borrowed from English, rules should specify the gender of these loanwords (English and Dutch differ as to their gender system: English has no typical indication in the definite NP (always the ), in Dutch there are two possibilities here: de/het —words). A rule such as 〈+ English〉 〈+ noun〉 〈+ monosyllable〉

→ 〈+ de —〉

Then states that monosyllabic nouns which Dutch borrows from English will by preference be taken as de —words. In the case of gag, smog, spray, hit, song, chip, etc. this will yield a correct result (Dutch de — words), in the case of team and script e. g. this leads to a wrong result (in Dutch one should find het— words here). By means of this rule it is possible to state how new borrowings such as snow (from the drug scene), rap (taken from pop music) or Aids most probably but not necessarily will be used in Dutch ( the incurable Aids e. g. will yield het ongeneeslijke Aids ). From what precedes it should have become clear that natural language processing by computer postulates regularity. Linguistic regularity however is neither an absolute nor rigid concept, but much more to be situated on a sliding scale moving between such extremes as (complete) certainty and (complete) uncertainty. A lthough the latter does pose serious problems to the computational linguist, linguistic usage can be said to obey certain expectancy patterns, entailing a lot of redundancy . The latter for sure will ease the task of the decoder. The encoder however may also choose to reduce this redundancy which will in turn create a second problem, viz. that of expansion. 2.2. The Expansion Problem When we tackle language from the point of view of understanding, we notice that the computational linguist is confronted with what we will call the expansion problem. Indeed, it is not necessary for the speaker to keep up with all the redundant features the language system offers him. Instead of doing

4.  Theoretical Framework, Aims and Concepts

75

so, he may choose to reduce this redundancy. The consequence for the hearer will be that he has to expand the expressions he is confronted with again in order to understand them. To do so three kinds of techniques can be used: constraints, preferences and abductions.

reasoning is comparable to the application of variable rules as described in sect. 2.1.3. Only, the constraints taken from these rules are arranged in a preferential order now and are used in a decoding context.

2.2.1. Constraints

Preferences are ideal when one element is to be chosen from a closed set of elements. If however the set we have to choose from is no longer closed but open (if we can no longer enumerate the possible solutions), we can not count on absolute certainty any more (compare to statistical rules in par. 2.1.4.). Suppose that we want to understand the following text: “The dog ran into the room. It was wet through”. When reading this text certain expectancy patterns will be activated. We will e. g. try to find an explanation for the fact that the dog is wet. The most plausible explanation could be for it to be raining outside, but this is not necessarily so. It could be that the dog has been running through a pool of water, or that it has fallen into a pond, or that the neighbour has been spraying it with a hose etc., etc. The possible explanations are not all equally probable, we could order them preferentially therefore, however, as with statistical rules, it is impossible to enumerate the set of possibilities exhaustively. We therefore will restrict ourselves to choosing the most probable solution. The technique of abduction is often found in expert systems as a form of causal explanation: if X is a possible cause of Y and X is true then X is cause of Y (for an extensive discussion of abduction, cf. Charniak/Mc.Dermott 1985).

Suppose you are reading the following text: “John and Mary were walking in the street. A ll of a sudden he told her how much he loved her.” It is evident that the underlined word “he” refers to John because of the fact that he can only refer to a referent which is male and not to a female one. A s the text in question contains only one such referent we can infer with absolute certainty that John is the referent referred to by he. So, making use of constraints in comprehension is comparable to making use of deterministic rules in production: constraints must be obeyed, they can’t be neutralized without breaking the rules. 2.2.2. Preferences Preference is a technique which people use when they have to make a choice between several possibilities they know beforehand. In doing so the basic strategy is as follows: — first a list of possibilities is drawn up — then these possibilities are ordered according to preference or probability of occurrence — finally the possibilities are tested starting with the most probable (preferred) one—this possibility is called the default value . If this default solution can stand the test (no counterindications, no constraints which are violated) then it is preserved and no further searches are made. In the other case the second possibility is taken up and tested. The procedure is repeated until a solution is found (possibility without violation of constraints). Suppose we hear a sentence as “Hans bringt Geld zur Bank” (Hans brings money to the bank/bench). We will take this to mean: “Hans brings money to a financial institution” unless we will find (syntactic, semantic, logical etc.) constraints which prove that the hypothesis taken up is false (e. g. in the context of a kidnapping affair where a ransom should be paid, it could become apparent that Hans is bringing money to a bench in the park.) This kind of default

2.2.3. Abductions

2.3. Interim Conclusion If linguistics is taken to be the study of speaking and understanding of natural language then the foregoing should have been made clear that problems which are central for linguistics are even the more so for computational linguistics. In as far as the latter aims to be operational or computable, it indeed relies heavily on regularity and rules—rule-governed behaviour being a conditio sine qua non for the computerization of processes —. On the other hand if computational linguistics ever wants to come to grips with language understanding, it should solve the expansion

II. Computational Linguistics II: Theoretical and Methodical Foundations

76

problem. A s it has been stated up till now linguistic processes are taken to be central for computational linguistics, the computerization of these processes both leading to new problems and new solutions . It may however be worthwhile to leave this theoretical framework for a while and have a look at what in actual practice is done by computational linguists.

3.

Computational Linguistics Practice

We will try to survey the field of activities by following a double approach. In the first instance we will describe the field extensionally, thereafter we will give an intensional description (cf. also Bátori 1977). 3.1. Extensional Approach to Computational Linguistics One could define computational linguistics as a cover term for all work carried out by computers in solving problems set to them by linguists. This extensional approach to computational linguistics is one that is often found back at so-called CL-congresses, meetings, colloquia and the like. The result of it leading to a very heterogeneous and disparate body of research. This has mainly to do with the fact that in their practice linguists can and do use computers in quite different ways. We will discern four types of computer uses, viz. the use of computers as — classifying machines — calculating machines — rule testers or control machines — simulation machines 3.1.1. The Computer as a Classifying Machine One of the fortes of computers is that they are very general machines. A s a matter of fact they only work by means of programs, i. e. sets of instructions in which always new instructions can be defined making use of more primitive ones (which in the last resort are inherent to the programming language that is used). Using the computer as a classifying machine mostly means that the new instructions which one defines are, linguistically speaking, not relevant. A fter all, from a linguistic point of view, it does not matter whether we instruct a computer to alphabetize the words in a text either from left to right or from right to left. What matters for the linguist is to get a correct result, possibly in a

rapid way. The algorithm as such is less important for him as a linguist. One could say that using the computer as a classifying machine often implies that the machine only makes use of formal (mostly graphical) linguistic knowledge and that, as a consequence, the linguist is result-, not process- oriented. The results that can be obtained this way have become routine: starting from “raw” text files the files are reordered so to get: — indices (= alphabetical lists of words in texts + their location) — concordances (= indices + context) — KWIC — indices (= concordances + key-word at fixed place) — word frequency-lists (= lists of words in texts arranged according to frequency) — reverse word lists (= list of words in texts alphabetized from right to left) — word length lists (= lists of words in texts arranged to number of characters) etc., etc. In other words, the text files are no longer static card files (representing one possible ordering of the texts), but dynamic data banks (which can lead to several orderings). However, in order for a linguist to maximally exploit this dynamism it seems important to organize the files he is working with as well as possible. This could give a new impetus to corpus linguistics on the one hand, and to the development of linguistic databases (such as lexica, thesauri, conceptual dictionaries) on the other. In corpus linguistics large bodies of texts are used as an important means to base linguistic description upon. The least one can say is that this approach could greatly profit from computerization in that it should be forced towards a twofold structuring: a text — external (texts as factual databases ) and a text — internal one (texts as textual databases ). The former viewpoint sees a text as an object related to other objects (texts), the latter sees texts as complex structured objects escaping traditional relational database descriptions and techniques. If this goal is to be reached the computational linguist will no longer restrict the role of the computer to that of a mere formal classifier, but use it in some other ways as are dealt with in what follows. 3.1.2. The Computer as a Calculating Machine A s computers were first used by mathematicians it seemed quite obvious that, applied to other sciences, the latter should treat analogous problems. A s far as linguistics was concerned this led at first to the use of computers

4.  Theoretical Framework, Aims and Concepts

by linguists as number crunchers. Mathematicians using computers were taken to be dealing with numbers and consequently that was what linguists should do also. This practice has led to counting phenomena such as graphemes and grapheme clusters (n-grams), words and wordgroups (collocations), and to applying techniques borrowed both from descriptive (such as the drawing of frequency tables and diagrams) and from inferential statistics (such as the use of significance tests, variance and factor analysis etc.). For sure this has led to results which were otherwise difficult to obtain, but again the quantitative linguist or the scholar interested in style were far more interested in the results than in the processes underlying them. Yet it seems quite evident that human beings also process numerical data: frequency about linguistic phenomena such as lexical items e. g. is not something which is innate but something which a. o. we abstract from exposure. These abstractions do not lead to a kind of exact probability figures but to such “intuitive” concepts as: very frequent, frequent, neutral (more or less frequent), less frequent, rare etc. Investigations in this direction (and the same goes for collocational studies) would move away from mere number crunching (numerical description) towards number processing (simulation of subjective processing of objective numerical data). 3.1.3. The Computer as a Control Machine In what preceded we have demonstrated that in using the computer both as a classifying and as a calculating device the work of the linguist as linguist (or philologist, or student of style) usually, though not necessarily, starts after he has got the computer results. If, in contrast with what has been said up to now, the researcher is no longer satisfied with mere observations as an output, but also wants to check them with previous knowledge or hypotheses, the computer is used as a control machine and the linguist’s work as such starts before he gets the computer to work. Of course the kind of hypotheses tested may vary strongly but it remains a fact that the relevant features of the work to be done are not so much governed by the capabilities of the computer, but rather by the strategies followed by the researcher. To give a very simple example; Suppose we want to check a morphological rule of English which states that A dj + ly ⇒ A dv. Given a list of

77

adjectives, this rule or statement can be easily tested. Of course it soon will become clear that the rule above must be shaded, otherwise it will generate such items as: easyly, dailyly, comfortablely, duely, basicly, difficultly, goodly, etc. The same could be done for the semantic contents (definition) of the linguistic objects. In the context of a monolingual dictionary (some) run — on entries in — ly could be defined by implementing the following algorithm for creating definitions for adverbs derived in -ly (Evens/Vandendorpe/Wang 1985, 84): IF THE MA IN ENTRY IS A N A DJECTIVE X THEN CONSTRUCT DEF: IN A N X MANNER ELSE IF THERE IS A N A DJECTIVE Y EARLIER IN THE LIST OF DERIVED WORDS THEN CONSTRUCT DEF: IN A Y MANNER ELSE IF THE MA IN ENTRY IS A NOUN Z THEN CONSTRUCT DEF: IN THE MANNER OF A Z ELSE IF THE MA IN ENTRY IS A VERB W A ND THE A DVERB ENDS IN -INGLY THEN CONSTRUCT DEF: IN A WING MANNER A s one can notice the attitude of the investigator now is rather different from that outlined in paragraphs 3.1.1. and 3.1.2.: it is no longer (only) the results, the output, that interests the linguist, the algorithms used become of primary importance as well. In as far as the testing does not merely lead to putting on a par computational linguistics with linguistics + implementation, in order to put certain hypotheses to the test) we can even speak of the use of computers as simulation machines. 3.1.4. The Computer as a Simulation Machine From the preceding paragraph it must have become clear that computers are a kind of ideal rule testers: given a set of rules one can empirically evaluate the observational adequacy of the latter by implementing them and judging the output yielded. If however one really wants to simulate human linguistic behaviour it will become evident that one cannot restrict oneself to rules which merely ex-

78

II. Computational Linguistics II: Theoretical and Methodical Foundations

press declarative knowledge (as is traditionally done in most grammars): in order to process data one does not only have to know what objects are, one also needs to know how to handle and discover them. In other words, knowledge is not enough, know how, procedural knowledge, is needed as well. To take up the example just given in the paragraph above: when looking up lexical items in a dictionary human beings know how to interpret “effusively” in the following context: effusive (ı’fju:sıv) adj. 1. extravagantly demonstrative of emotion; gushing 2. (of rock) formed by the solidification of magma. effusively adv. — effusiveness n. In order to extract this information from a text such as the one above one needs knowledge of different kinds such as morphological knowledge stating the relationship between adjectives and (derived) adverbs, next to syntactico-semantic knowledge specifying the role of adverbs in a sentence, the kind of constraints governing the relation between verbs and adverbs (preventing e. g. effusively from being interpreted in the second meaning of effusive ), next to that one needs knowledge of the (dictionary) world stating the difference between the several kinds of objects to be found, the way information is represented etc. A bove all however one needs to know how to find out about these different kinds of knowledge. Transposed to the simple context of “effusively” being used in a sentence such as: “She thanked us effusively”, in order to understand effusively correctly, it does not suffice to know what an adverb is but also to know how to find out that effusively is an adverb even if one has never heard using it before. In other words, it is not sufficient to find in the Lexicon of a “Computational Grammar” that hit is a verb with the case frame [0 (A ) (I)] (the verb hit occurs in sentences with a noun phrase in the objective case, and optionally noun phrases in agentive and instrumental cases) (cf. Harris 1985), one should also find how to find out about NP’s, about their role in the sentence and, to start with, how to find the verb in a simple sentence as “The hammer hit the nail” (where, from a purely formal point of view, there are three possible candidates for the main verb function in this sentence). One approach (cf. Martin/Platteau/Heymans 1986) could then be to assign default categories and direction pointers to lexical

items so that these items, certain conditions being fulfilled, can shift to other categories. Such a system would contain e. g. the following information: Default Direction CategoryPointer — hammer n. left right — hit v. — nail n. left (meaning that items as hammer and nail e. g. are basically nouns which shift to verbs when they are put in the object or instrument slot of the verb frame) A rule such as

if and and and then

(thiscat (thisdir (prevcat (prevdir

= = = =

noun) left) det) neither)

thisdir:

=

neither;

would change the direction pointers of hammer and nail e. g. so to keep them in the class of nouns. The process that we have briefly sketched above is known as tagging and it should be clear from other well-known topics such as parsing, paraphrasing, abstracting, indexing, translating, man-machine dialogue, etc. that the interest of the computational linguist in these cases does not only lie in the result obtained, but at least as much in the method, the procedure, to obtain this result, In this way computational linguistics becomes processinstead of result -oriented. 3.2. Intensional Approach to Computational Linguistics The use of the computer as a simulation machine brings us on the one hand back to the beginning of this article where we dealt with the theoretical framework computational linguistics is to be situated in and on the other hand it brings us to the end of it in that we try to give an intensional definition of computational linguistics. In such a definition it is the inherent characteristics of the object under scrutiny which play a predominant role. In the case of a scientific branch or subdiscipline one may expect that the discipline will be defined by its domain, scope or the object(s) it tackles and/or by the method(s) it uses to do so. During the preceding, extensional, approach it must have become clear that a defi-

79

5. Positionierungs- und Abgrenzungsaspekte

nition of computational linguistics as linguistics with a computer is of course not wrong at all, but not very illuminating as well. However in discussing the use of computers as simulation machines in linguistics, it must have become apparent too that next to linguistics with a computer, linguistics for a computer is possible also. This is particularly the case when the researcher has to formulate language rules in such a way that a computer can also “understand” them. More simply stated this means that the computer is programmed so that it can read and write natural language as human beings can, i. e. “understanding” what it is doing. Basically computational linguistics is defined then as that branch of linguistics that studies linguistic processes by simulating them by computer or what Bátori (1977a) has called “die Beschreibung der Sprache als Prozeß”. A s we have seen at the beginning (section 2: theoretical framework) these processes ultimately come down to speaking and hearing so that one also could claim that the basic model underlying computational linguistics is that of an abstract question—answering system in which there is a linguistic interaction between man and machine in such a way that the machine can “understand” the problems it is confronted with and “offer a solution” to them (cf. Ungeheuer 1971). (A s computational linguistics simulates this linguistic reality we have put the computational understanding of and solutions to linguistic problems between inverted commas, implying that the latter (the simulation) may differ from the former (reality) but nevertheless is relevant for it).

4.

strate that in order to reach the aim of computer simulation of linguistic behaviour not only a new field of problems was “discovered” (process linguistics), but new approaches to solving these problems as well (cf. the discussion of the methodological apparatus implying rules, preferences, procedures, abductions and the like). On the other hand we also wanted to make clear that an open, dynamic definition of object and method in computational linguistics is the most realistic and fruitful one: computational linguistics is then seen as an autonomous field within linguistics with at its core an own object (linguistic processes) and an own methodological apparatus (rules, procedures, preferences, abductions, etc.); however, this core can be extended and move towards a periphery, these extensions in their turn having a core and an extension etc., etc. By defining computational linguistics in this recursive way one can go beyond such dichotomies as pure and applied, theory and practice, description and simulation, models and tools.

5.

I. Bátori 1977a · H. Brandt Corstius 1974 · E. Charniak/D. McDermott 1985 · H. J. Cedergren/ D. Sankoff 1974 · M. Evens/J. Vandendorpe/J.-C. Wang 1985 · R. M. Frumkina 1963 · P. Garvin 1962 · M. D. Harris 1985 · W. Lenders/G. Willée 1986 · W. Martin 1973 · W. Martin 1975 · W. Martin 1981 · W. Martin/F. Platteau/R. Heymans 1986 · J. A . Moyne 1977 · G. Ungeheuer 1971 · T. Winograd 1983.

Final Conclusion

Willy Martin, Amsterdam (The Netherlands)/ Antwerp (Belgium)

One of the goals of this article was to demon-

5. 1. 2. 3. 4. 4.1. 4.2. 5. 6.

Literature (selected)

Problembereiche der Computerlinguistik: Positionierungs- und Abgrenzungsaspekte Einleitung Zur Spezifik der Computerlinguistik Problemspezifikationen der Computerlinguistik Problemstellungen und Aufgabenfelder Computermethodologie Angewandte Automation Resumée Literatur (in Auswahl)

1.

Einleitung

In den letzten 35 Jahren hat sich ein Forschungs- und Wissenschaftsgebiet entwickelt, in dem als besonderes Forschungsinstrument die elektronische Datenverarbeitung zur Erforschung von Sprache eingesetzt wird: die Computerlinguistik (CL). Das vielfältige Spektrum und die verschiedenen For-

80

II. Computational Linguistics II: Theoretical and Methodical Foundations

schungsrichtungen dieses Fachgebietes spiegeln sich auch in unterschiedlichen Benennungen wider. Namen wie Automatische Datenverarbeitung natürlicher Sprache (Automatic Language Processing), Sprachdatenverarbeitung (Language Data processing), Philologische Textverarbeitung (Literary and Linguistic Computing) oder Elektronische Sprachforschung bezeichnen dabei eher praktische Forschungsfelder bzw. spezielle A nwendungsgebiete, während Namen wie Linguistische Datenverarbeitung (Computational Linguistics), Informations-Linguistik oder Linguistische Informationswissenschaft eine Wissenschaftsfundierung anzeigen, die ihre Relevanz in der Praxis von Forschung, A nwendung und Lehre zeigt. Durch den einheitlichen Untersuchungsgegenstand Sprache hat die CL vielschichtige Theorie- und Anwendungsbezüge zu anderen wissenschaftlichen Disziplinen entwickelt: So sind unter anderem insbesondere Bezüge in Theorie und Praxis zur Linguistik, Philosophie, Mathematik, Psychologie und Informatik festzustellen. Überschneidungen mit Fragestellungen der Linguistik waren lange Zeit ausschlaggebend für die Entwicklung dieses Gebietes, gleichzeitig waren und sind CLMethoden in entscheidendem Maße integriert in die Theoriebildung einer strukturellen, formalen Linguistik; Zusammenarbeit mit einer angewandten Sprachwissenschaft ergibt sich in vielen philologischen Bereichen; Philosophie und CL berühren sich in Fragestellungen der Logik und der Sprachphilosophie; Überschneidungen von Linguistik, Informatik und CL sind in Forschungsansätzen einer sprachorientierten ’Künstliche Intelligenz-Forschung’ erkennbar, Problembereiche der CL berühren sich mit Erklärungsansätzen einer Kognitiven Psychologie. Erste Ergebnisse der Zusammenarbeit zwischen CL, Informatik und Informationswissenschaft werden in Form experimenteller A nwendungssysteme als Frage-A ntwort-, Übersetzungs- oder Informationssystem sichtbar. So stellt sich heute die CL als ein interdisziplinäres Forschungsgebiet dar, ihre wissenschaftliche Eigenständigkeit begründet sie in einer methodologischen Fundierung der Erforschung von Sprache.

2.

Zur Spezifik der Computerlinguistik

Zwei Ereignisse in den vierziger Jahren haben die Entwicklung des Computers von ei-

ner einfachen Rechenmaschine zu einer hochentwickelten Datenverarbeitung wesentlich beeinflußt. McCullough und Pitt stellten die Theorie auf, daß Neuronen im Grunde als logische Verknüpfungen von UND- oder ODERSchaltungen anzusehen sind; ist diese Grundannahme richtig, so vermuteten sie weiter, lassen sich alle intelligenten Prozesse auf einen einfachen Typ von Verarbeitungsmechanismen zurückführen. Damit war eine gemeinsame Beschreibungsgrundlage für die Analogiebetrachtung menschlicher und maschineller Verarbeitungsstrukturen und -prozesse geschaffen. A ls zweites in diesem Zusammenhang sind die A rbeiten von Shannon/Weaver zur ’Mathematischen Theorie von Kommunikation’ zu nennen. Sie wiesen nach, daß jede Signal- bzw. Symbolform, ob Zahl oder Text, als Spezialform eines allgemeineren Konzeptes, das sie ’Information’ nannten, angesehen werden könne; die Erkenntnis, daß der Informationsgehalt quantifizierbar ist, führte zu einer Reihe interessanter mathematischer und praktischer A nwendungsmöglichkeiten. So können die ersten A nsätze einer ’Elektronischen Sprachforschung’, einer ‚Sprachdatenverarbeitung’ bis hin zur ’A utomatischen Sprachverarbeitung’ als direkte methodische Umsetzung dieser Erkenntnisse angesehen werden: die Möglichkeit, mit Hilfe von Computern symbolische Daten durch entsprechende Programme manipulieren zu können, wurde bereitwillig auf geschriebene Texte angewandt, um Wortindizes und Konkordanzen zu erstellen sowie Häufigkeitszählungen durchzuführen. Damit beruhte diese erste ’Oberflächenverarbeitung’ (Barr/Feigenbaum/Cohen 1981, 226) von Texten im wesentlichen auf Verfahren des Zählens, des Vergleichens und des Neuordnens bzw. -anordnens symbolischer Daten. A uch den ersten Versuchen zur Maschinellen Sprachübersetzung (MÜ) lag die nachrichtentechnische Überlegung zugrunde, daß Texte oder allgemein Sprache als Information zu behandeln und der Übersetzungsprozeß — als Zuordnungsfunktion eines quellensprachlichen in einen zielsprachlichen Code — als technisches Problem mechanisierbar sei. Diese erste computertechnologische Phase der MÜ (Bátori 1986, 7) vollzog sich unter weitgehender A usschaltung oder unzulänglicher Beachtung linguistischer Aspekte. Das offizielle Eingeständnis eines

5. Positionierungs- und Abgrenzungsaspekte

Fehlschlags dieses A nsatzes zur MÜ in den frühen sechziger Jahren kann als zweite Phase der MÜ und der eigentliche Beginn einer systematisch betriebenen sprachorientierten Datenverarbeitung angesehen werden: Der ALPAC-Report von 1966 fordert explizit eine linguistisch-orientierte Grundlagenforschung und initiierte damit letztlich die Computerlinguistik. A nläßlich des dritten internationalen Kongresses CLIDE ’71 (Papp/Szepe 1976) stellt D. G. Hays auf einer Podiumsdiskussion über das Arbeitsfeld der CL fest: „... if computational linguistics did not exist it would be necessary to invent it“ (Hays 1976, 23); für ihn war damals bereits CL weder ein Teilbereich der Computerwissenschaften, noch war sie einer ’Mutterwissenschaft’ Linguistik zu subsumieren, sondern eine Disziplin ’sui generis’. Seine Begründung ist eine methodo-logische. Es gab und gibt eine Reihe von Disziplinen, in denen Computer eingesetzt und verwendet werden, ohne daß von ihnen deshalb eine eigenständige Disziplin reklamiert würde. Das liegt daran — so Hays —, daß die eingesetzten Computerprogramme auf Methoden und Verfahren beruhen, die nichts mit der internen Struktur des Faches oder fachspezifischen Problemstellungen der Disziplinen zu tun haben. Innerhalb der CL sieht die A usgangssituation allerdings anders aus. Die Linguistik hat verschiedene Beschreibungsansätze entwikkelt, die unterschiedliche Lösungsansätze erfordern. John McCarthy hat in diesem Zusammenhang auf einen wichtigen Unterschied aufmerksam gemacht, der für den methodologischen Ansatz der CL fundamental ist: die Kenntnis der Lösung eines Problems ist streng zu unterscheiden von der Kenntnis des Lösungsweges eines Problems; das eine läßt sich als Funktion abhängiger (Eigenschafts-)Variablen, das andere als A lgorithmus formulieren. Hieraus resultieren für die CL unterschiedliche Vorgehensweisen für die Behandlung und Verarbeitung ihres Untersuchungsgegenstandes. Denn bei aller Verschiedenheit der A uffassungen und Bezeichnungen sowie der Vielfalt der A nwendungen zeichnet sich die CL durch einen einheitlichen Untersuchungsgegenstand und ein gemeinsames Forschungsinstrument aus: Sprache und sprachliche Phänomene, bei und für deren Erforschung der Computer eingesetzt wird. Die A nalogiebetrachtung maschineller und sprachlicher Strukturen und Prozesse macht

81

die Entwicklung spezifischer, auf das Studium sprachlicher Strukturen, Prozesse und Funktionen ausgerichteter Verarbeitungsprozeduren notwendig. Und so kann Hays mit Recht feststellen, daß die CL nicht einfach Verfahren, z. B. aus den Computerwissenschaften, übernehmen und anwenden kann, sondern im Hinblick auf die besonderen Problemstellungen in diesem Forschungsfeld Darstellungsformate und Verarbeitungsalgorithmen eigener Art entwickeln muß. Nicht einseitig orientierte Fragestellungen oder Theorieansätze einer strukturellen Linguistik oder sprachorientierte A usrichtungen anderer Disziplinen sind ausschlaggebend; die Erforschung sprachlicher Strukturen, Prozesse und Regularitäten in unterschiedlichen Bereichen mit dem Forschungsinstrument ’Computer’ führt zu spezifischen A nforderungen hinsichtlich Beschreibung, Darstellung und Verarbeitungsbedingung. So kann die Untersuchung linguistischen Datenmaterials methodisch ’modelliert’ werden als einfache Prozesse des Vergleichens und der Umordnung (z. B. Texte in Indizes, Konkordanzen und Wörterbücher verschiedener A rt), neben Fragen einer linguistischen Formalisierung von Grammatiken treten Probleme der computergerechten Methodisierung, und es spielen die in der mathematischen Linguistik ermittelten Isomorphien zwischen der Theorie natürlicher und künstlicher Sprachen eine Rolle. Hieraus wird deutlich, daß das Spezifische der CL nicht primär von A ufgabenfeldern oder A nwendungsbereichen einer DV-orientierten Linguistik bzw. einer linguistischorientierten DV (Bátori 1977a; Straßner 1977 b; Lenders 1980) abzuleiten ist, sondern sich aus einem eigenen methodologischen Ansatz selbst begründet. Ungeheuer hat auf der Grundlage eines ’Basismodells’ der linguistischen Datenverarbeitung zentrale Problemstellungen formuliert, aus denen dann bestimmte A rbeitsbereiche abgeleitet werden konnten (Ungeheuer 1971, 689). A ls zwei Teilprobleme gab er die Prozesse der Informationserschließung und die Erforschung des Problemlösungsverhaltens in informationserschließenden Systemen an. Theoretische Grundannahmen, A rt der Problemstellung und Logik des methodischen Vorgehens bestimmen damit dieses Forschungsfeld, stellen Bedingungsfaktoren für die Erforschung von Sprache mit dem ’Instrument’ Computer dar und begründen somit ein eigenes Forschungsparadigma

82

II. Computational Linguistics II: Theoretical and Methodical Foundations

’Sprachdatenverarbeitung’ (vgl. A bb. 5.1). Innerhalb dieses Paradigmas gibt es ein Spektrum möglicher Theoriebildungen über Sprache. Dieses Paradigma erhebt im Unterschied zu klassischen Paradigmen nicht unbedingt einen erklärenden, sondern einen methodologischen A nspruch für die Theoriebildung; konstitutiv für dieses methodologische Paradigma ’Sprachdatenverarbeitung’ ist ein Überprüfungs- und A kzeptabilitätskriterium, daß im Rahmen der KI-Forschung zurecht als Kriterium der Implementabilität (Hayes 1984, 159) bezeichnet wurde. Das heißt, die Überprüfung der Bedingung der Möglichkeit für Implementierung von Methodentypen stellt ein wesentliches Moment für die Theorieentwicklung dar. So wie Implementabilität kriterial für die Methodologie der Sprachverarbeitung ist, so ist die Wahl von Methodentypen, wie Formalisierung, Operationalisierung und A lgorithmi-

sierung symptomatisch für diesen Paradigmenrahmen. Dies bedeutet, daß die auf den Begriff gebrachten Methoden der Implementierung mit dem forschungslogischen Kriterium des Paradigmas korrespondieren. Die Formate der Theoriebildung innerhalb der CL sind danach ebenfalls methodologisch bestimmt und lassen sich nach dem gegenwärtigen Forschungsstand in die Theorietypen Deskription und Simulation zusammenfassen. Der Theorieanspruch der CL ist so verstanden kein nomologischer Erklärungsanspruch, sondern ein A nspruch auf theoriebildende Rekonstruktion, deren explanative Kraft vom Status der Implementabilität abhängt. Im Rahmen einer solchen Methodologie kann es dann eine übliche Formulierung von Problemstellungen nicht geben, sondern nur — in Bezug auf Sach- und Problembereiche des Untersuchungsgegenstandes ’Sprache’ — zugeschnittene CL-typische Problemspezifikationen. In einem historisch-systematischen Zugriff werden zwei Typen von Problemspezifikationen erkennbar: 1. Computermethodologie und 2. Angewandte Automation, aus denen dann Problemformulierungen in Sachgebieten und A nwendungsfeldern der CL näher bestimmt und charakterisiert werden können.

3.

Abb. 5.1: Paradigma Sprachdatenverarbeitung

Problemspezifikationen der Computerlinguistik

Ein Großteil der Schwierigkeiten um die Eigenständigkeit der Computerlinguistik resultiert in der unterschiedlichen Beurteilung der theoretischen und/oder der methodischen Fundierung dieses Forschungsfeldes; eine solche Fehleinschätzung schwingt auch teilweise heute noch in der alten Unterscheidung von „Linguistik mit Computern“ und „Linguistik für Computer“ (Krallmann 1968) mit, in der die Computerlinguistik als Hilfswissenschaft mit Instrumentfunktion einer autonomen Wissenschaft mit eigener Grundlagenforschung gegenübergestellt wird. Gleichwohl blieb lange Zeit ein Desinteresse an einer theoretischen Fundierung dieses Gebietes festzustellen. Für Bátori (1982 b) ist die CL eine angewandte Wissenschaft, die auf eigene Grundlagenforschung angewiesen ist. A ls angewandte Wissenschaft übernimmt sie „Lösungsansätze aus anderen Wissenschaften, systematisiert diese und entwickelt eine theoretische Fundierung, die es erlaubt, die übernommenen Lösungsansätze und die in eige-

83

5. Positionierungs- und Abgrenzungsaspekte

ner Grundlagenforschung entwickelten ... Lösungsansätze zu integrieren“ (Lutz/ Schmidt 1982, 168). Diese Verbindung ist zu sehen auf der Grundlage der Entwicklung neuer Methoden für die Erforschung von Sprache, die durch die computertechnologische A usrichtung zu neuen Einsichten der Theorieentwicklung und über eigene Sachgebiete zu neuen Anwendungsfeldern führen. Während die sprachorientierte KI-Forschung (Wahlster 1982 b) von A nfang an spezifische Problemstellungen, wie zum Beispiel die Modellierung von Verstehen im Rahmen definierter Diskurswelten (Cercone/McCalla 1986), herausgriff und hierfür spezielle Problemlösungen anstrebte, gab es in der CL keine einheitliche Aufgabenstellung, sie wechselte vielmehr innerhalb eines weitgesteckten Rahmens je nach definiertem Objektbereich und zugrundegelegtem Theoriebezug. Ihr Vorgehen ist daher als partikularistisch zu bezeichnen (Lutz/Schmidt 1982, 177). Ihr Untersuchungsgegenstand ‚Sprache’ wird unter verschiedenen A spekten und A nsätzen mit unterschiedlichen Strukturen und Regularitäten behandelt, so daß als kleinster methodologischer Nenner die ’Modellierung von Informationsverarbeitungsprozessen’ mit Bezug auf den jeweiligen Objektbereich von Sprache und ihre Untersuchungsphänomene angegeben werden kann. Einen derartigen A nsatz teilt sie allerdings auch mit der Informationslinguistik bzw. einer linguistischen Informationswissenschaft. Einer solchen Modellierung werden dabei Hypothesen und Theorieansätze einer teils strukturalen, prozeduralen bis hin zu einer prozessualen Sprachanalyse (Bátori 1982b; Schnelle 1982; Metzing 1982) zugrundegelegt. Problemspezifische A ufgaben- und Problemstellungen der CL ergeben sich aus der methodischen Behandlung linguistischer Bedingungen für die Darstellung sprachlicher Information und diesen zugeordneten Verarbeitungsprozessen; zu spezifizieren sind Eigenschaften der internen Darstellung sprachlicher Strukturen und Regularitäten, Bestandteile von Verarbeitungsprozeduren und -strategien sprachlicher A nalysen sowie Modellvorstellungen von Systemkomponenten sprachlicher Analyse- und Syntheseprozesse.

4.

Problemstellungen und Aufgabenfelder

Die Entwicklung der CL ist wesentlich durch eine Reihe von wissenschaftlichen Ergebnis-

sen in konkreten A nwendungsfeldern mitbestimmt worden: Lexikographen und Sprachstatistiker setzten zuerst den Computer systematisch in der linguistischen Forschung ein. Die Möglichkeit, größere Textmengen zu speichern und nach verschiedensten Gesichtspunkten auszuwerten, eröffnete auch für andere Bereiche der Linguistik interessante Perspektiven der Nutzung. Die Zusammenarbeit zwischen einer solchen dateiorientierten CL und den verschiedenen Bereichen der Linguistik war eine forschungspraktische, die auf bestimmten Methoden der CL gründete. Dieser Sachverhalt kommt z. B. in der englischen Bezeichnung ’Literary and Linguistic Computing’ zum Ausdruck. In hohem Maße in die Theoriebildung integriert sind dagegen CL-Methoden in einer strukturalen, prozeduralen und prozessualen Linguistik, was ihre Beschreibungsmodelle, Testverfahren und Objektbereiche angeht: hier geht es um die Automatisierung von Grammatiken und die Modellierung von Verstehensprozessen in unterschiedlichem Theorierahmen. Daraus ergibt sich, daß die CL Problemstellungen und A ufgabenfelder in zwei Typen von Problemspezifikationen charakterisiert: Computermethodologie und angewandte Automation . 4.1. Computermethodologie Die Kernproblematik der CL, eine natürlich sprachliche Informationsverarbeitung, macht für ein methodologisches Vorgehen bei der Erfassung und Behandlung sprachlicher Prozesse und Strukturen unterschiedliche Problembehandlungsarten notwendig; hier sei zwischen den grundlegenden A rten Deskription und Simulation unterschieden. A ls Theorietyp Deskription sind Beschreibungen Konstruktionen von Strukturen über Sprache, die in Formulierungen von Computerprogrammen eingehen. Sie sind Konstruktionen erster Ordnung und analytischer Natur, was bedeutet, daß sie genau angeben, welche linguistischen Einheiten an sprachlichen Phänomenen beteiligt sind, und welche syntaktischen, semantischen und pragmatischen Beziehungen zwischen ihnen bestehen (Lenders 1980), sei es, daß sie sich auf Sätze, Äußerungen oder Texte, sei es, daß sie sich auf Sprache als System beziehen. Beschreibungen im Sinne des CL-Paradigmas sind Rekonstruktionen, insofern sie wiederum dann als implementierte Regelsysteme Beschreibungsexplikate für die Konstruktionen darstellen. So gesehen sind sie Konstruktio-

84

II. Computational Linguistics II: Theoretical and Methodical Foundations

nen zweiter Ordnung, analytisch und selbstreferentiell. Sie beziehen sich beispielsweise innerhalb einer theoretischen Linguistik auf Grammatikmodelle, mit denen Gesetzmäßigkeiten der Sprache deskriptiv erfaßt und Eigenschaften sprachlicher Kompetenz charakterisiert werden sollen. Für diesen Bereich der Sprachbeschreibung sind in der CL eine Reihe von Verfahren entwickelt worden, die eine vielfältige und vielschichtige linguistische A nalyse ermöglichen; diese Verfahren, von Lenders (1980) als ’komplexe Methoden der Textbeschreibung’ bezeichnet, haben das Ziel, explizite A ngaben zu den linguistischen Einheiten der einzelnen Sprachebenen zu ermitteln, um damit Sprache als System im strukturalistischen Sinn zu beschreiben. Matching- und search-Verfahren sind Beispiele von Methoden-Typen in diesem Bereich. Der wichtigste Methodentyp der analytischen Sprachbeschreibung ist sicherlich der des Parsing . A usgehend von den frühen A rbeiten Chomskys zur Formalisierung der Syntax natürlicher Sprachen wurde eine Reihe von Parsing- und Generierungalgorithmen entwickelt, die auf bestimmte Grammatiktypen (kontextfreie Grammatiken oder Transformationsgrammatiken) ausgerichtet waren, um Beschreibungen komplexer Strukturen von Texten zu produzieren. Die Klasse der Parser bildet heute die Grundlage aller nicht-trivialen A ufgaben der CL. Die Parser leisten nach Maßgabe der sie steuernden (grammatischen) Regeln und dem Wörterbuch die Zerlegung eines Satzes oder Textes in seine Konstituenten und deren Klassifizierung. Der Begriff des Parsers hat in den letzten Jahren eine erhebliche Bedeutungserweiterung erfahren; während er zuerst hauptsächlich als syntaktischer A nalysealgorithmus begriffen wurde, werden Parser in zunehmendem Maße auch für semantische und pragmatische Textbeschreibungen eingesetzt (Winograd 1983). Eine systematische Zusammenstellung einzelner Parsing-Techniken, wie A TN-, CHA RT- oder INSEL-Parsing ist in King (1983) und Christaller/Metzing (1979/1980) zu finden. Die methodologische Forderung nach Robustheit von Parsern hat in Textanalysesystemen zu einer Reihe von weiterführenden Lösungsansätzen wie heuristisches und/oder partielles Parsing geführt, um auch außergrammatische Problemstellungen behandeln zu können. Wahlster (1982b) hat die Einsatzmöglichkeiten von Parsern in den einzelnen

Komponenten natürlich-sprachlicher Systeme der sprachorientierten KI-Forschung aufgezeigt. A uch in der CL sind eine Reihe von Computer-Systemen zu nennen, in denen Parsing-Verfahren eingesetzt sind. Maschinelle Übersetzungssysteme, FrageA ntwort-Systeme oder Dialogsysteme sind die bekanntesten Typen textanalysierender und -generierender Systeme. Das Testen von deduktiv gewonnenen Sprachbeschreibungsmodellen stellt ein weiteres methodologisches Forschungsmittel der CL dar. Formale Beschreibungsmodelle, verstanden als Regelsysteme, können auf allen sprachlichen Ebenen getestet werden, um die Richtigkeit bzw. A däquatheit theoretischer A nnahmen über die Struktur und Funktion von Sprache zu untersuchen. Ein solcher A däquatsheitsbegriff beurteilt dann sowohl die A ngemessenheit der Beschreibung, als auch der Generierung, also der Theorie gegenüber dem Sprachsystem. Diese theorieorientierten Systeme sind bis heute vornehmlich ausgerichtet auf Testverfahren für Sprachbeschreibungsmodelle im Bereich der Morphologie, der Syntax und Semantik. Diesen Sprachbeschreibungssystemen sind als besondere Problemspezifikationen die Sprachsimulationsmodelle entgegenzusetzen. Die wohl größten Änderungen, was die Theoriebildung und die experimentelle Überprüfung betrifft, haben sich durch die Simulationsmethodologie ergeben. Simulation bezeichnet „den Prozess des Modellierens eines natürlichen dynamischen Systems durch ein künstliches dynamisches System“ (Lenders 1980, 221). In der CL wird dieser Problembereich als ’Simulation sprachlichen Verhaltens’ bezeichnet, modelliert werden Verstehens- und Verhaltensprozesse, denen sprachlich-fundiertes Wissen zugrunde liegt. Die methodologische Frage zentriert sich auf die Problemstellung: „Wie können die Prozesse des Sprachverstehens und der Sprachproduktion durch Simulation beschrieben und rekonstruiert werden?“ Mit einem solchen simulationsmethodologischen A nsatz nähert sich die CL sehr stark dem Forschungsgebiet der ’cognitive science’, für die die Erforschung von Sprache auf kognitiver Ebene ein zentrales Thema darstellt. A bgrenzungen der CL zur ’cognitive science’ und zur Künstlichen Intelligenz ergeben sich aus der modelltheoretischen Behandlung kognitiver Fähigkeiten. Palmer (1984) hat die Künstliche Intelligenz-Forschung als „new style of thinking about cognition“ und als

5. Positionierungs- und Abgrenzungsaspekte

Charakteristikum dieser Richtung die Durchführung von „Gedankenexperimenten“ bezeichnet. Damit wird die Frage der Theorie und der empirischen Hypothesentestung angesprochen. Gedankenexperimente sind zwar Experimente, jedoch keine empirischen; sie befassen sich mit den grundsätzlichen Bedingungen der Möglichkeiten von tatsächlichen Begebenheiten. Die so entwickelten Modellvorstellungen werden in Programme bzw. Programmsysteme implementiert. Dieser Vorgehensweise liegt grundsätzlich die Metapher von der „Psychologie der Informationsverarbeitung“ zugrunde, was bedeutet, daß es hinsichtlich gewisser Eigenschaften interne Struktur- und Funktionsäquivalenzen zwischen Mensch und Maschine gibt, die zu erforschen die A ufgabe der Künstlichen Intelligenz ist. Im methodischen Vorgehen heißt dies, Modellvorstellungen von intelligentem Verhalten werden gefaßt als modulare Konzepte kognitiver Fähigkeiten; die Konzepte führen dann zu Modellentwürfen über kognitive Prozesse. Das Modell wird durch Implementierung in ein Programm bzw. Programmsystem „realisiert“. Der Computer simuliert damit das Verhalten des Modells. Nur so ist es wiederum möglich, das Modell an tatsächlichen Gegebenheiten zu testen. Der Computer generiert Strukturen und Prozesse, die als Erklärungskonstrukte für kognitive Prozesse herangezogen werden. Zum Simulationsbegriff der CL wird auf von Hahn (1978) und Lenders (1980) verwiesen. Simulation sprachlichen Verhaltens beinhaltet als Problemfeld eine Klärung des Bedeutungsbegriffs und des Verstehensprozesses, und zwar durch die Fragestellung, wie die Bedeutung sprachlicher Äußerungen repräsentiert wird und wie Verstehensprozesse sprachlicher Äußerungen rekonstruiert werden. Die modelltheoretische Behandlung sprachlichen Verhaltens hat inzwischen zu einer Fülle von Theorie- und Modellansätzen geführt; so bei der Entwicklung von Darstellungsformaten für Wissen oder der Modellierung von Sprachverstehen. Begriffe wie ’Semantische Netzwerke’, ’Semantische o. Episodische Gedächtnismodelle’, ’frame’-Theorie kennzeichnen grundlegende A nsätze der CL und der sprachorientierten KI-Forschung. Sie stellen wesentliche Komponenten zur Darstellung und Verarbeitung unterschiedlicher Wissensarten, angefangen von lexikalisch-strukturellen über semantischkontextuelle bis hin zu thematischen Zusam-

85

menhängen, in natürlich-sprachlichen Systemen dar. Dabei erstreckt sich der Gesamtbereich ’Simulierung von Sprachverstehen’ über die Konstruktion einzelner A spekte textverstehender und -generierender Systeme bis zur Modellierung komplexer Kommunikationsleistungen. Die A kzeptanz der A nalogie zwischen Mensch-Maschine und MenschMensch-Kommunikation auch in der CL hat die Forschungsrichtung auf die prozeßhaften A spekte der Sprache (der sprachlichen Formulierung und des Sprachverstehens) gelenkt. Eine Simulation der gesamten kognitiven Verarbeitung umfaßt dann als Ziel die akustische Signalanalyse, morphologische Prozesse, syntaktische Erkennung, semantische Verarbeitung, sprachliche Problemlösung, kognitive Repräsentation und lexikalisches Wissen. Je nach Zielrichtung einer ablauf- oder ergebnisorientierten Simulation sind unterschiedliche Strategien der A nordnung der einzelnen Verarbeitungsebenen sowie der Verzahnung der formalen A nalyse mit der aktuellen Problemstellung notwendig (Bátori 1981 a). Die Verfahren von deklarativer und prozeduraler Wissensdarstellung innerhalb einer sprachorientierten KI-Forschung sind hier als integrativer A nsatz zu nennen, der die Vorteile einer objektorientierten Darstellung mit den Erfordernissen einer vielschichtigen Problembearbeitung verbindet. Die Motivation zur Erforschung der Problembereiche Sprachverstehen und Wissensbehandlung in der CL ist eine zweifache: zum einen erhofft man durch die Simulationsansätze Einsicht in die Funktionsweise sprachlich/kognitiver Prozesse zu erhalten, um dadurch wiederum zu neuen computermethodologischen Erkenntnissen in bezug auf Verarbeitungsprozeduren und Systemarchitekturen zu gelangen; zum anderen weist die Konstruktion sprachverstehender Systeme direkte Anwendungsbezüge auf, die auf bestimmte A nwendungsfelder zugeschnitten ist: hier sind beispielhaft Frage-A ntwort-Systeme, natürlichsprachliche Schnittstellen zu Informations- und Datenbanksystemen und Maschinelle Übersetzungssysteme zu nennen. 4.2. Angewandte Automation Die CL ist ihrem Eigenverständnis nach und entsprechend der historischen Entwicklung gesehen anwendungsorientiert . So sind bestimmte Methoden zur Verarbeitung sprachlicher Daten und ’Instrumente’ zur Textbe-

86

II. Computational Linguistics II: Theoretical and Methodical Foundations

schreibung das Resultat konkreter A nwendungsprobleme. Das Gesamtgebiet dieser anwendungsorientierten CL ist heute als ein Forschungsfeld zu beschreiben, das Ergebnisse computermethodologischer Grundlagenforschung auf konkrete A nwendungsfelder hin einsetzt. Durch die Problemspezifikation A ngewandter A utomation sollen dieses Wechselverhältnis einerseits und die A nwendungsorientierung andererseits zum A usdruck kommen. Dementsprechend werden Darstellungsformate und Verarbeitungskonstruktionen in elementaren Textbeschreibungssystemen (ETS) und komplexen A nalyse- und Synthesesystemen (KA SS) (Lenders 1980) unterschieden. Mit ETS werden solche Beschreibungsansätze bezeichnet, denen im wesentlichen Operationen des Vergleichens, Zählens und Selektierens zugrunde liegen. Sie beziehen sich auf Sprachdaten, die auf gesprochene oder geschriebene Sprache als Texte zurückgehen. Zahlreiche der hier entwickelten Verfahren gehören heute zur Standard-Software von Textverarbeitungssystemen oder zum Routineeinsatz praktischer A nwendungsfälle. Ihre A nwendungsfelder liegen im Bereich der Sprachwissenschaften, der Philologien, der Informationswissenschaften und zahlreicher wissenschaftsexterner Bereiche. Hierzu gehören statistische bzw. mathematische Verfahren innerhalb des „Information Retrieval“ und der Statistischen Linguistik ebenso wie ausgefeilte Silbentrennprogramme in automatischen Setzverfahren. Die CL-orientierte Lexikographie stellt sich nach ihrem Forschungsstand als vielschichtiges A nwendungsfeld dar. Hier ist die Erstellung von Indizes, Konkordanzen und Wortlisten als Hilfsmittel der Textkritik und -edition zu nennen. Maschinenlesbare Wörterbücher (Hess/Brustkern/Lenders 1983) unterschiedlicher A usprägungen und Funktionen werden in vielen Systemen mit Sprachverarbeitungskomponenten eingesetzt, zum Beispiel in Datenbanksystemen der Terminologie-Forschung, in Informationssystemen zur Unterstützung der Indexierung und Recherche, in Frage- A ntwortSystemen zur Steuerung natürlich sprachlicher A bfragen zu Datenbanken, in Dialogsystemen zur Strukturierung von Wissen und in MÜ-Systemen zur Unterstützung des Übersetzungsprozesses. Darüber hinaus bieten sich A nwendungsmöglichkeiten in der Bürokommunikation zur automatischen Feh-

lerkorrektur und im computerunterstützten Unterricht zur Lernüberwachung. Mit der Bezeichnung „komplexe A nalyseund Synthesesysteme“ werden Problemformen der A ngewandten A utomation charakterisiert, die unter computermethodologischen Gesichtspunkten als A nsätze und A rbeiten zur Computersimulation natürlicher Sprache in der Mensch-Maschine-Kommunikation zu fassen sind. Sie sind konzipiert als automatische Regelsysteme, in denen Verfahren und Methoden der A nalyse und Synthese zur Produktion von Textbeschreibung und Modellierung sprachlichen Vermögens inkorporiert sind. Eine solche Orientierung an einer methodologischen Problemspezifikation erlaubt es, CL-typische Fragestellungen und A nwendungsfelder aufzuzeigen, ohne damit gleichzeitig A bgrenzungsaspekte dieses Wissenschaftsfeldes gegenüber der Linguistik, der Informationslinguistik oder Künstlichen-Intelligenz-Forschung thematisieren zu müssen. Das Spektrum der Forschungsarbeiten auf diesem Gebiet umfaßt alle Systemansätze, die als Realisierung des Ungeheuerschen M-C Modells aufzufassen sind. A nsätze und Verfahren einer solchen simulationsorientierten Behandlung natürlicher Sprache lassen sich aufzeigen im Problemfeld der A utomatischen Spracherkennung und -synthese, der Entwicklung von MÜ-Systemen, der Behandlung des A utomatischen Indexing und A bstracting in Informationserschließungssystemen und der Konstruktion von Frage-Antwort- und Dialogsystemen.

5.

Resumée

Die methodologische Fundierung der CL wird in einem eigenen Forschungsparadigma ’Sprachdatenverarbeitung’ begründet, aus dem sich ein Spektrum möglicher Theoriebildungen über Sprache entwickeln läßt. Die Formate der Theoriebildung sind ebenfalls methodologisch bestimmt und lassen sich in die Theorietypen Simulation und Deskription zusammenfassen. Im Rahmen einer solchen Methodologie ergeben sich — in bezug auf Problembereiche des Untersuchungsgegenstandes ‚Sprache’ — Problemspezifikationen besonderer A rt, aus denen dann Problemformulierungen in Sach- und A nwendungsfeldern der CL näher bestimmt werden. Eine solche Wissenschaftsfundierung stellt das Verhältnis der CL zu den Nachbar-

6.  Computerlinguistik und die Theorie der formalen Sprachen

wissenschaften in einen anderen Rahmen: nicht die gegenseitige A bgrenzung, sondern der wechselseitige Austausch von Ergebnissen und Erfahrungen stehen im Vordergrund. Er verbindet diejenigen Disziplinbereiche mit der CL, die — wenn auch mit unterschiedlicher A usrichtung und Zielsetzung — diesem Forschungsparadigma verpflichtet sind.

6.

1. 2. 3. 4. 5.

1.

Bátori 1981 a · Bátori 1982 b · Bátori 1986 · Cercone/McCalla 1986 · Christaller/Metzing 1979/1980 · von Hahn 1978 · Hayes 1984 · Hays 1976 · Hess/Brustkern/Lenders 1983 · King 1983 · Krallmann 1968 · Lenders 1980 · Lutz/Schmidt 1982 · Metzing 1982 · Palmer 1984 · Papp/Szepe 1976 · Schnelle 1982 · Straßner 1977 · Ungeheuer 1971 · Wahlster 1982 b · Winograd 1983.

Literatur (in Auswahl)

Barr/Feigenbaum/Cohen

6.

87

1981

·

Bátori

1977a

Dieter Krallmann, Essen (Bundesrepublik Deutschland)

·

Computerlinguistik und die Theorie der formalen Sprachen Einleitung Linguistik, Theorie der formalen Sprachen und Computerlinguistik Natürliche Sprachen und formale Sprachen Lösbarkeit und Komplexität Literatur (in Auswahl)

Einleitung

Gegenstand der Linguistik ist die Beschreibung der natürlichen Sprachen unter verschiedensten A spekten (synchronen, diachronen u. a.), A ufgabenbereich der Computerlinguistik sind die maschinelle A nalyse natürlich-sprachlicher Texte und die Simulation der Sprachanwendung. Die Computerlinguistik stützt sich dabei auf linguistische Beschreibungen, die unter Zugrundelegung mathematischer Modelle formalisiert sind. Die Frage ist nun, welche Rolle die Theorie der formalen Sprachen, die eine sehr allgemeine mathematische Theorie ist, in diesem Bezugsrahmen spielt. Die Verbindung von Computerlinguistik, Theorie der formalen Sprachen und Gebieten der Linguistik, besonders der Syntax, erklärt sich zum einen durch die Entwicklung dieser Disziplinen, die entscheidend durch Noam Chomsky geprägt wurde. (Siehe unten 2.) Zum anderen ist die Theorie der formalen Sprachen von der Linguistik und der Computerlinguistik als empirischer bzw. angewandter Wissenschaft a priori unabhängig. Daher ist zu fragen, was die Motive dafür sind, daß sie als eine für diese Gebiete so wichtige Theorie angesehen wird, insbesondere inwiefern sie für Fortschritte in der Computerlinguistik wesentlich ist. A uch hierzu in 2.

einige allgemeine Gesichtspunkte. In 3. wird die immer wieder gestellte Frage behandelt, welcher formalsprachliche Typus für die Beschreibung natürlicher Sprachen am besten zugrundezulegen ist. Die A ntwort(en) hierauf (in 4.) ist (sind) wichtig für die Konstruktion computerlinguistischer Systeme, da sich daraus Konsequenzen für die Lösbarkeit vieler Probleme und die Komplexität von Verfahren ergeben, d. h. Konsequenzen für die praktische Entwicklung und A usführbarkeit von Programmen.

2.

Linguistik, Theorie der formalen Sprachen und Computerlinguistik

2.1. Entwicklung Die Theorie der formalen Sprachen entstand in enger Verbindung mit demjenigen Zweig der Linguistik, der unter den Namen ’generative Grammatik’ bekannt ist. Der Begründer beider ist Noam Chomsky (Chomsky 1956; 1957; 1959). In der Linguistik setzt Chomsky an Positionen des amerikanischen Strukturalismus an, die er in neuer Weise interpretiert und weiterentwickelt. Dazu gehören die Konstituentenanalyse (Bloomfield 1933; Harris 1951) und der seit Harris (1952) auftretende Begriff der syntaktischen Transformation. Die Theorie der formalen Sprachen, die nun als mathematische Metatheorie für linguistische Beschreibungen entsteht, orientiert sich an Theorien über Zeichensysteme allgemeinster A rt, die aus der Logik und Mathematik bekannt sind, — es sei besonders auf die A rbeiten von Thue, Turing, Kleene und Post hin-

88

II. Computational Linguistics II: Theoretical and Methodical Foundations

gewiesen (vgl. 5.). A usschlaggebend für die linguistische Modellbildung erweist sich die Übernahme des Rekursivitätsbegriffs (BarHillel 1953). Neu ist a) das Konzept der generativen Syntax als Beschreibungsmodell für natürlich-sprachliche Satzmengen, welches dann zu dem der Transformationsgrammatik erweitert wird (Chomsky 1957; 1965), und b) die mathematische Theorie der generativen Syntaxen und der von ihnen erzeugten Sprachen, auch Typ-i-Sprachen (0 ≤ i ≤ 3) genannt, die den Kern der Theorie der formalen Sprachen bildet. Die Theorie geht von folgenden grundlegenden A nnahmen aus: (a) eine formale Sprache L ist eine beliebige Menge von Zeichenketten, konstruiert über einem endlichen Inventar von Grundzeichen. Dabei besteht jede Kette aus endlich vielen (als Spezialfall 0) Vorkommen eindeutig identifizierbarer Grundzeichen. Definitionsgemäß gibt es endliche und unendliche formale Sprachen. Sätze einer natürlichen Sprache können als Zeichenketten betrachtet werden, deren Grundzeichen je nach Beschreibungsebene Phoneme, Grapheme, Morpheme oder Wörter sind. Mengen natürlichsprachlicher Sätze sind unter diesem A spekt formale Sprachen. (b) Eine Syntax G für eine formale Sprache L legt eine berechenbare Funktion fest, deren Bildmenge genau L ist. Gibt es für gegebenes L ein solches G, so kann L mittels G aufgezählt werden. L ist somit eine aufzählbare Menge. (Es gibt allerdings auch nicht-aufzählbare formale Sprachen, d. h. solche, für die kein G exisitiert, vgl. Hermes 1961, 11 ff.) (c) A ls Formalismus für G werden die generativen Syntaxen eingeführt. Diese beruhen auf dem Konzept der Wiederschreib-Regel (rewriting rule), das auf Thue (1914) zurückgeht. Eine Wiederschreibregel ist eine A nweisung, eine Zeichenkette z 1 durch eine Zeichenkette z 2 zu ersetzen (= wiederzuschreiben). Eine Kette uz 1 v wird dadurch in uz 2 v umgewandelt. Eine generative Syntax G ist durch zwei disjunkte Zeicheninventare, die Kategorien- und die Endsymbole, und eine darüber gebildete Menge von WiederschreibRegeln festgelegt, durch die beginnend bei einem ausgezeichneten Kategoriensymbol (wie z. B. SA TZ) Zeichenketten abgeleitet werden. Die Menge der so erhaltenen Ketten aus Endsymbolen ist die von G erzeugte Sprache , notiert L(G). (Für eine Syntax G einer natürlichen Sprache ist L(G) die Menge der Sätze dieser Sprache.) Es werden Typen ge-

nerativer Syntaxen unterschieden, abhängig von der Form der Regeln: 1) die Gesamtmenge der generativen Syntaxen, auch Typ0-Syntaxen genannt, 2) die Typ-1-Syntaxen (mit der Variante der kontextsensitiven Syntaxen ), bei denen abgeleitete Ketten nicht kürzer als die A usgangsketten sind, 3) die kontextfreien oder Typ-2-Syntaxen, bei denen pro Regel genau ein Kategoriensymbol ersetzt wird, 4) die Typ-3-Syntaxen, ein Spezialfall der Typ-2-Syntaxen, bei denen die Ersetzung jedesmal nur am Ende (bzw. nur am A nfang) der wiederzuschreibenden Kette erfolgt. Eine Typ-i-Sprache L (0 ≤ i ≤ 3) ist eine formale Sprache, für die es eine Typ-i-Syntax G mit L(G) = L gibt. Typ-1-Sprachen nennt man auch kontextsensitiv, Typ-2-Sprachen kontextfrei . Die Typisierung der generativen Syntaxen erfolgt in Verbindung mit der Frage, mit welchem Formalismus natürliche Sprachen syntaktisch am besten zu beschreiben seien. Wir kommen in Kapitel 3 auf diese Frage zurück. Für die Entwicklung in der Linguistik ist die A nnahme rekursiver Regelsysteme mit unendlicher generativer Kapazität von besonderem Gewicht. Probleme für die syntaktische Beschreibung bieten Einbettungs- und A nreihungsstrukturen, deren größtmögliche Komplexität sich schwer abschätzen läßt, wie bei Koordinationen, Nebensatzeinbettung u. a. Generative Syntaxen erlauben es, solche Fälle durch endliche Regelmengen, die unendlich viele Sätze erzeugen, zu erfassen. Die Definition der Typen führt zur Untersuchung ihrer mathematischen Eigenschaften. Man stellt fest, daß die Sprachen eine Hierarchie bilden derart, daß jede Typi-Sprache mit 1 ≤ i ≤ 3 eine Typ-(i-1)-Sprache ist, es aber Typ-(i-1)-Sprachen gibt, die nicht vom Typ-i sind (Beweise vgl. die Gesamtdarstellungen von Salomaa 1973 und Maurer 1977). Um 1960 wird die Theorie der formalen Sprachen für die Informatik interessant, nachdem erstmals eine höhere Programmiersprache formal definiert wurde. Es ist A lGOL-60, festgelegt in der Backus-NaurForm (Backus 1959). Diese erweist sich als eine Notationsvariante für kontextfreie Syntaxen, wodurch die Verbindung zur generativen Syntax hergestellt wird. Von nun an wird die Theorie der formalen Sprachen grundlegend für die Programmiersprachen, was sie zu einem Teilgebiet der Informatik werden läßt. Es fällt auf, daß für einige Zeit in Lingui-

6.  Computerlinguistik und die Theorie der formalen Sprachen

stik und Informatik verschiedene Problembereiche behandelt werden. In der Informatik wird a) die Theorie der formalen Sprachen ausgebaut und um eine Vielzahl neuer Syntaxtypen erweitert, b) die A utomatentheorie entwickelt und dabei Äquivalenzbeziehungen zwischen A utomaten- und Syntaxtypen gefunden, und werden c) A lgorithmen für die syntaktische A nalyse von Programmen (= Parser) entworfen. Die Linguistik dagegen konzentriert sich über Jahre auf die Transformationsgrammatik (TG). Es werden mathematische Theorien der TG formuliert (Ginsburg/Partee 1969; Peters/Ritchie 1973) und auch Syntaxanalyse mit TGen behandelt (Petrick 1965), doch wird die TG in der Informatik kaum beachtet. TGen sind überaus komplexe Systeme, die für natürliche Sprachen als adäquate Modelle angesehen werden, für Programmiersprachen erweisen sich einfachere Formalismen jedoch als ausreichend. Ein Umschwung im natürlich-sprachlichen Bereich wird durch die sich entwikkelnde Computerlinguistik herbeigeführt. Ihre einschlägigen A nwendungen wie maschinelle Übersetzung und Frage-A ntwortSysteme erfordern eine Syntaxanalyse natürlich-sprachlicher Sätze (und Texte), wofür Verfahren zu finden sind. Wie in der Informatik spricht man hier von Parsern und benutzt zum Teil dieselben Parse-Methoden wie dort. Die TG erweist sich nun trotz einiger Versuche als wenig brauchbar, was an der Vielfalt ihrer formalen Mittel, deren Zusammenspiel undurchschaubar bleibt, liegt. Eine A lternative bieten die eigens für computerlinguistische Zwecke entwickelten erweiterten Netzwerkgrammatiken (Woods 1970), automatenartige Syntaxen, mit denen sich eine Syntaxanalyse leichter durchführen läßt. Sie werden einer der verbreitetsten Formalismen in der Computerlinguistik. A ls für die Computerlinguistik interessant haben sich die in den letzten Jahren aufgekommenen Unifikationsgrammatiken erwiesen, vornehmlich die generalisierte Phrasenstrukturgrammatik (GPSG, zuletzt Gazdar/ Klein/Pullum/et al. 1985) und die lexikalisch-funktionale Grammatik (LFG, Bresnan/Kaplan 1982) (s. A rt. 18). Im Gegensatz zur TG, die Oberflächen- und Tiefenstruktur eines Satzes unterscheidet und sie durch Transformation verbindet, beschreibt man hier auf der syntaktischen Ebene nur die Oberflächenstrukturen. Die semantischen bzw. funktionalen Strukturen werden parallel zu den syntaktischen entwickelt. GPSG

89

und LFG sind verschiedene Formalismen, denen auch verschiedene Konzeptionen über natürliche Sprachen zugrundeliegen. Doch gibt es bestimmte Gemeinsamkeiten: man geht davon aus, daß jede natürliche Sprache im wesentlichen mit einer kontextfreien Syntax beschreibbar ist. Da aber eine solche Syntax Tausende von Regeln enthalten müßte, versucht man, durch Erweiterungen des Formalismus zu weniger komplexen Regelsystemen zu kommen. Solche Mittel sind Merkmalsmengen und Operationen darüber sowie Kontrollmechanismen für die Übertragung von Merkmalen von einem Satzteil auf andere. Die Verbindung zur Theorie der formalen Sprachen ergibt sich dadurch, daß diese Formalismen als Syntaxtypen mathematisch festzulegen sind. Erst dann läßt sich zeigen, von welchem Typ die erzeugten Sprachen sind, und können weitere formale Eigenschaften bewiesen werden. Hiermit verbundene Fragestellungen wurden in letzter Zeit behandelt, vgl. Uszkoreit/Peters (1984), Berwick (1984 a). Die A ttraktivität von GPSG und LFG für die Computerlinguistik erklärt sich daraus, daß ihr kontextfreier Kern es erlaubt, für die Syntaxanalyse A lgorithmen zu verwenden, die aus der Informatik bekannt sind. 2.2. Systematische Zusammenhänge Die den computerlinguistischen A nwendungen zugrundegelegten linguistischen Beschreibungen müssen mathematisch formalisiert sein. Dies liegt daran, daß ein Computerprogramm ein mathematisches Verfahren ist und daher mathematisch definierte Strukturen als Eingabe erfordert. Die für das Verfahren definierten Eingaben bilden die Klasse der Probleme, die es bearbeitet. So soll ein Parser P für einen gegebenen Satz s bzgl. einer gegebenen Syntax G eine A ufbaustruktur zu finden. A lle Paare (G, s) bilden die Problemklasse von P. Dabei sind formale Einschränkungen zu machen, etwa daß G zu einem bestimmten Syntaxtyp gehören muß, damit P anwendbar wird. So bearbeitet z. B. der bekannte Earley-Parser nur kontextfreie Syntaxen. Der systematische Zusammenhang zwischen linguistischer Syntax, Theorie der formalen Sprachen und Computerlinguistik stellt sich nun folgendermaßen dar: a) in der Linguistik werden Formalismen für die syntaktische Beschreibung natürlicher Sprachen entwickelt, b) in der Theorie der formalen Sprachen werden die mathematischen Eigen-

II. Computational Linguistics II: Theoretical and Methodical Foundations

90

schaften dieser Formalismen untersucht, c) in der Computerlinguistik entwirf man ausgehend von den linguistischen Modellen und der Theorie der formalen Sprachen Verfahren für die Sprachanalyse und -synthese Im Mittelpunkt der Theorie der formalen Sprachen stehen die Typ-i-Sprachen (0 ≤ i ≤ 3) und -syntaxen. Obwohl man in der Linguistik und auch der Informatik meistens keine reinen Typ-i-Syntaxen verwendet, sondern Erweiterungen anfügt oder ganz andere Formalismen wie A utomaten benutzt, ist die Hierarchie der Typ-i-Sprachen für theoretische Betrachtungen wichtig, da sie als Bezugssystem dient. A uch wenn man einen anderen formalen Typ vorzieht, möchte man wissen, wie groß die von ihm erfaßte Sprachenklasse ist, wobei man sich gut an der Typ-i-Hierarchie orientieren kann. Sei K eine solche Klasse. Man sucht dann das größte i, für das alle Sprachen in K vom Typ i sind. Die Bedeutung dieser Hierarchie rührt daher, daß sie unter vielen A spekten erforscht ist und man viele allgemeine Eigenschaften der Sprachen von gegebenem Typ i und wichtige Unterschiede zwischen Sprachen, die verschiedenen Typen i angehören, kennt. Für Verfahren in der Computerlinguistik kommen solche Ergebnisse zum Tragen, wie in 4. ausgeführt wird. Daß eine fundamentale Klasseneinteilung vorliegt, zeigt sich besonders an einer Äquivalenz zwischen Sprachenund A utomatentypen: für jedes i gibt es einen A utomatentyp A , für den gilt: jede Typi-Sprache wird von einem A utomaten des Typs A akzeptiert und jeder solche A utomat akzeptiert eine Typ-i-Sprache. In diesem Sinne sind folgende Sprach- und A utomatentypen äquivalent: Typ-0-Sprachen und Turingmaschinen, Typ-1-Sprachen und linear beschränkte A utomaten, Typ-2-Sprachen und Push-DownA utomaten, Typ-3-Sprachen und endliche A utomaten. Die Bedeutung der Typ-i-Hierarchie wird ferner durch A bgeschlossenheitseigenschaften unterstrichen: bestimmte mengentheoretische Operationen über beliebigen Sprachen desselben Typs i ergeben wieder eine Typ-i-Sprache. (Zu sämtlichen Sätzen und Beweisen vgl. Salomaa 1973, Maurer 1977).

3.

Natürliche Sprachen und formale Sprachen

Für die Behandlung der Frage, welche Syntaxtypen für natürliche Sprachen zugrunde zu legen sind, gibt es zwei methodische A n-

satzpunkte: eine Theorie ist zu verwerfen, a) wenn sie nicht mächtig genug ist, allen Beobachtungsdaten gerecht zu werden, und b) wenn sie zu mächtig ist, so daß sie unmögliche Fälle miterfaßt. A nsatz a): Chomsky (1957) wendet sich gegen Typ-3-Syntaxen (finite state grammars), da in natürlichen Sprachen symmetrische Strukturen der Form a 1 ...a n c b n ...b 1 (n ≥ 1) vorkommen (z. B. bei Satzeinbettungen), worin für jedes i (1 ≤ i ≤ n) a i und b i voneinander abhängen und zu denen es keine andere Struktur gibt, in der entweder ein a i oder ein b i fehlt und sonst alles unverändert bleibt. Unter der A nnahme, daß n beliebig groß werden kann, liegt keine Typ-3-Sprache vor, woraus sich die Inadäquatheit einer Typ3-Syntax ergibt. Die nächste Frage ist, ob man mit Typ-2-Syntaxen auskommt. Sie wurde öfter verneint, doch ist die Lage weniger klar als beim Typ 3. Bekannt ist die A rgumentation von Bar-Hillel/Shamir (1961) zu respectively und von Postal (1964) zu Nominalisierungen im Mohawk. Hier gibt es Überkreuz-Konstruktionen der Form axbyc mit x = d 1 ...d n und y = e 1 ...e n (n = 1, 2, ...), worin sich jeweils d i und e i aufeinander beziehen. Es wird behauptet, daß, da gleichviel d’s und e’s vorhanden sein müssen, Englisch und Mohawk nicht kontextfrei sind. Pullum/ Gazdar (1982) entkräften diese und weitere A rgumente empirisch und teils auch mathematisch. Doch werden neue gefunden. So hält Higginbotham (1984) Englisch wegen Strukturen in such-that- Sätzen für nicht kontextfrei, Postal/Langendoen (1984) versuchen dasselbe an Hand von elliptischen Konstruktionen (sluicing clauses) zu zeigen. Doch sind auch diese A rgumente empirisch nicht stichhaltig, wie Pullum (1984 a) nachweist. Shieber (1985) behauptet die Nicht-Kontextfreiheit des Schweizerdeutschen an Hand dort auftretender Strukturen in Infinitivkonstruktionen. Zu fragen ist jedoch, inwieweit diese von Schweizerdeutschen als korrekt empfunden werden. Noch ein Ergebnis: nach Culy (1985) soll das Vokabular des in Mali gesprochenen Bambara nicht kontextfrei sein. — A ls Fazit kann man festhalten, daß die A rgumente gegen die Kontextfreiheit natürlicher Sprachen wenig überzeugend sind. A nsatz b): Hier geht man von der Menge aller formalen Sprachen aus und fragt, welche Einschränkungen mindestens zu machen sind, damit eine Theorie natürlicher Sprachen unnatürliche Strukturen ausschließt. Die klassische Frage ist: Sind natürliche

6.  Computerlinguistik und die Theorie der formalen Sprachen

Sprachen notwendigerweise entscheidbar oder nur rekursiv aufzählbar oder nicht einmal das? (Die Menge der rekursiv aufzählbaren Sprachen ist gleich der Menge der Typ0-Sprachen, die entscheidbaren bilden eine echte Teilmenge davon, vgl. Salomaa 1973 und s. 4.) A ls A rgument für die Entscheidbarkeit wird angeführt, daß ein Mensch normalerweise jede Wortfolge als korrekten oder nicht korrekten, abweichenden oder nicht abweichenden Satz seiner Muttersprache klassifizieren kann, er somit über ein Entscheidungsverfahren dafür verfügt. Überlegungen hierzu finden sich in Putnam (1961). — Peters/Ritchie (1973) beweisen, daß die Menge der Sprachen, die von Transformationsgrammatiken erzeugt werden, die Menge der Typ-0-Sprachen ist. Es gibt somit nicht-entscheidbare darunter. Zugrundegelegt ist dabei das A spects-Modell (Chomsky 1965). Nimmt man die Entscheidbarkeit natürlicher Sprachen an, sind für ihre Beschreibung allenfalls Transformationsgrammatiken, die formal in geeigneter Weise eingeschränkt sind, adäquat. Peters/Ritchie (1973) finden eine Bedingung, die Transformationsregeln erfüllen müssen, damit die erzeugte Sprache entscheidbar ist, und Peters (1973) zeigt, daß die für natürliche Sprachen bekannten Transformationsregeln diese Bedingungen erfüllen. — Eine andere A rgumentation geht davon aus, daß nicht Entscheidbarkeit sondern Erlernbarkeit das ausschlaggebende Kriterium für natürliche Sprachen sei. Diesen Standpunkt nimmt Chomsky (1980 b) ein. Er kritisiert Levelt (1974), der ausgehend von einer Präzisierung des Erlernbarkeitsbegriffs zeigt, daß nur entscheidbare Sprachen erlernbar sind. Chomsky hält Levelts Präzisierung für inadäquat und führt A rgumente dafür an, daß erlernbare Sprachen nicht n o t we n d i ge r we i s e entscheidbar sind. Was die existierenden natürlichen Sprachen betrifft, so scheinen sie auf Grund von Peters (1973) tatsächlich entscheidbar zu sein. Die gesamte Diskussion, die heute andauert, fordert zu einer kritischen A nmerkung dazu heraus, wie sie geführt wird. So fallen A ussagen der A rt auf, daß natürliche Sprachen von einem bestimmten Typ i sind, daß sie unendliche Satzmengen sind u. a. Das Problem ist, wie man hier mathematische Begriffe auf einen nicht mathematischen Objektbereich anwendet. Man hat häufig den Eindruck, daß der zu erforschende Gegenstand, die Sprache, und das Beschreibungsmodell nicht klar unterschieden werden. Die

91

Frage ist immer, welches Modell die Beobachtungsdaten am besten erfaßt. Dabei sind Idealisierungen aus Gründen der Beschreibungsökonomie und der A bgrenzung erforderlich. Die verwendeten mathematischen Begriffe beinhalten solche Idealisierungen. Eine solche liegt vor, wenn für natürliche Sprachen Syntaxen mit unendlicher generativer Kapazität angenommen werden: rekursive Regeln werden eingeführt, um die Beschreibung einfach zu halten (Chomsky 1956). Ohne dieses Mittel würden Syntaxen für natürliche Sprachen unüberschaubar komplex, es würde sogar unmöglich, sie zu schreiben, da man die maximale Länge natürlich-sprachlicher Sätze nicht kennt. A llen Charakterisierungen natürlicher Sprachen als nicht vom Typ 3 liegt dieses Unendlichkeitspostulat zugrunde (alle endlichen Sprachen sind vom Typ 3). Es sind aber noch weitere Idealisierungen erforderlich, da a) natürliche Sprachen nicht homogen sind sondern aus einer Vielzahl von Subsystemen, Dialekten, bestehen und b) der Formenreichtum auch innerhalb der Subsysteme so groß ist, daß Theorien leicht durch Gegenbeispiele widerlegt werden können. Eindrucksvoll zeigt dies die Diskussion um die Nicht-Kontextfreiheit natürlicher Sprachen. Um eine Menge von Sätzen bzgl. der Typ-i-Hierarchie oder anderer mathematischer Typen klassifizieren zu können, muß sie so durch A bgrenzungskriterien festgelegt sein, daß man eindeutig bestimmen kann, was dazu gehört und was nicht. So ist z. B. zu fragen, was auf Satzebene beschrieben werden soll und wo bereits satzübergreifende Textstrukturen vorliegen, etwa im Hinblick auf koordinative Verknüpfungen. Zu erwähnen ist noch, daß auch die Frage, ob nicht doch Typ-3-Syntaxen adäquate Modelle für natürliche Sprachen sind, diskutiert wird. Solche Modelle werden u. a. in der Neurolinguistik benutzt. Einen Überblick gibt Kornai (1985). Die bisher referierte Diskussion betrachtet Sprachen nur als Mengen von Ketten. In der Linguistik und Computerlinguistik interessiert man sich aber besonders für die Sätzen unterliegenden hierarchischen Strukturen, die z. B. in der Form von Bäumen oder Charts dargestellt werden. Sie bilden die Basis für weitere Untersuchungen, z. B. semantischer A rt. Daher bevorzugt man Syntaxen, die den Sätzen geeignete Strukturen zuordnen. So kann es sein, daß man, auch wenn man weiß, daß eine zu beschreibende Satz-

II. Computational Linguistics II: Theoretical and Methodical Foundations

92

menge theoretisch von einer kontextfreien Syntax erzeugt wird, lieber einen anderen Formalismus, etwa einen mit Transformationsregeln, benutzt, wenn er sich dem Beschreibungsgegenstand als angemessener erweist.

4.

Lösbarkeit und Komplexität

Für die maschinelle Sprachanalyse und -synthese werden Verfahren benötigt. Was für welche möglich und praktikabel sind, hängt vom zugrundegelegten Sprachbeschreibungsformalismus ab. A us der Theorie der formalen Sprachen sind hierfür Theoreme über die Lösbarkeit von Problemen und aus der A lgorithmentheorie Theoreme über die Komplexität von Verfahren maßgebend. (a) Lösbarkeit: Für eine Reihe von Problemen wurde bewiesen, daß sie im mathematischen Sinn unlösbar sind, d. h. es kein mathematisches Verfahren zu ihrer Lösung gibt (zum Begriff des mathematischen Verfahrens oder Algorithmus vgl. Hermes 1961). Statt mathematisch lösbar/ unlösbar wird hinfort einfach lösbar/unlösbar gesagt, da hier nur A lgorithmen betrachtet werden. Für eine Klasse K von formalen Sprachen gilt ein Problem P als lösbar, genau dann wenn P für jedes Element von K lösbar ist, andernfalls ist P für K unlösbar (d. h. ist P für K unlösbar, dann ist P für wenigstens 1 Element von K unlösbar, kann aber für andere Elemente von K lösbar sein). — Einer der grundlegenden Sätze ist der über die Unlösbarkeit des Element-Problems für Typ-0-Sprachen: es gibt Paare (L, k) mit L einer Typ-0-Sprache und k einer Zeichenkette über dem Vokabular von L, für die es unlösbar ist, ob k Element von L ist (vgl. Salomaa 1973, Maurer 1977). — Mit dem Begriff der Lösbarkeit von Problemen tritt der der Entscheidbarkeit von Mengen auf. Sei M Teilmenge einer Menge N. M heißt entscheidbar relativ zu N , genau dann wenn für jedes Element von N lösbar ist, ob es aus M ist oder nicht. A us der Unlösbarkeit des Element-Problems für Typ-0-Sprachen folgt, daß es Typ-0-Sprachen gibt, die relativ zur Menge aller über ihrem Vokabular bildbaren Zeichenketten nicht entscheidbar sind. Sätze wie der genannte stecken theoretische Grenzen der computerlinguistischen A rbeit ab. So wird man es vermeiden, einen Syntaxtyp. dessen Sprachenmenge die aller Typ-0-Sprachen ist, zu wählen, da es kein generelles A nalyseverfahren gibt, das für eine beliebige Syntax G dieses Typs und ei-

nen beliebigen Satz s entscheidet, ob s von G erzeugt wird. — Für die Typ-1-Sprachen ist das Element-Problem lösbar, und für jede Typ-1-Syntax kann prinzipiell entschieden werden, ob sie einen vorgelegten Satz erzeugt. Es gibt aber auch Typ-0-Sprachen, die nicht vom Typ 1 und trotzdem entscheidbar sind. Doch ist wenig über ihre mathematischen Eigenschaften bekannt, so daß sich kaum mit ihnen operieren läßt. Die Einschränkung auf Typ 1 erscheint für praktische Anwendungen mindestens erforderlich. Eine Übersicht über weitere unlösbare Probleme in der Theorie der formalen Sprachen gibt Salomaa (1973). Viele davon lassen sich auf das Element-Problem für Typ-0Sprachen zurückführen. Für die kontextfreien Syntaxen und Sprachen sind besonders folgende zwei unlösbare Probleme wichtig: (1) Das Äquivalenzproblem: Es gibt Typ-iSyntaxen G 1 und G 2 mit i ≥ 2, für die es unlösbar ist, ob sie dieselbe Sprache erzeugen. (2) Das Mehrdeutigkeitsproblem: a) Es gibt kontextfreie Syntaxen G, für die es unlösbar ist, ob sie ambig sind, d. h. ob es in der von G erzeugten Sprache Ketten gibt, denen durch G verschiedene Strukturbäume zugeordnet sind. b) Es gibt kontextfreie Sprachen, für die es unlösbar ist, ob sie ambig sind. Dabei heißt eine kontextfreie Sprache ambig, wenn jede kontextfreie Syntax, die sie erzeugt, ambig ist. (b) Komplexität: Hier geht es um die Frage, wie schwierig es ist, ein gegebenes Problem zu lösen. Wichtige Komplexitätsmaße sind Zeit- und Platzbedarf für den A blauf eines A lgorithmus zur Lösung eines einschlägigen Problems. Diese werden im Folgenden betrachtet. Der Zeitbedarf ist durch die A nzahl der erforderlichen Rechenschritte, der Platzbedarf durch die der benötigten Plätze auf einem Speicherband gegeben. Eine Präzisierung der hier auftretenden Konzepte wie Rechenschritt u. a. erfolgt in der Theorie der Turingmaschinen (vgl. Hermes 1961, Paul 1978). Zeit- und Platzbedarf wurden für Parser untersucht. Ein Parser P besteht aus einem Erkennungsalgorithmus, der für eine beliebige Syntax G gegebenen Typs und eine beliebige Zeichenkette k entscheidet, ob k von G erzeugt wird, und aus einem weiteren A lgorithmus, der für erkanntes k eine A ufbaustruktur findet. Zeit- und Platzbedarf für P bzgl. G geben an, wieviele Rechenschritte bzw. Speicherplätze zur Lösung dieser Probleme benötigt werden. Es sind Funktionen, deren Parameter die Länge von k (= die A n-

6.  Computerlinguistik und die Theorie der formalen Sprachen

zahl der Zeichenvorkommen in k) ist. Sei diese n, der Zeitbedarf t und der Platzbedarf p. Bei der Festlegung von t und p geht es darum, das Minimum an Bedarf zu finden, so daß t(n) und p(n) für jedes k der Länge n ausreichen. Da P auf jede Syntax eines gegebenen Typs anwendbar ist, interessiert man sich für gemeinsame Eigenschaften aller t bzw. p, die durch P für diese Syntaxen gegeben sind. A uf diese Weise erhält man den Zeit- und Platzbedarf für P in Form eines Schemas für Funktionen. Die wichtige Frage ist hier, wie sich eine Bedarfsfunktion f mit wachsendem n entwikkelt. Man sagt „f(n) ist 0(g(n))“, wenn es eine natürliche Zahl c und eine Funktion g gibt, so daß für alle natürlichen Zahlen n ≥ 0 gilt: f(n) ≤ c · g(n). Sagt man z. B. daß ein A lgorithmus A einen Zeitbedarf von 0(n 2 ) hat, so meint man damit, daß es ein c gibt, so daß A für eine beliebige Eingabe der Länge n nicht mehr als c · n 2 Rechenschritte benötigt. Für praktische A nwendungen wichtig ist, ob g ein Polynom sein kann, d. h. ob es eine natürliche Zahl k gibt, für die f(n) ≤ 0 (n k ) gilt. Weiter möchte man wissen, ob sogar lineares g möglich ist (d. h. mit k = 1). Gibt es kein Polynom g, wie bei exponentiell wachsendem Bedarf (g(n) = k 0(n) mit k ≥ 2), ist praktisches Rechnen nur noch mit kleinem n ausführbar, da sonst bald die vorhandenen zeitlichen oder räumlichen Möglichkeiten nicht mehr ausreichen. A ber auch bei polynomiellem Bedarf wird die praktische A usführbarkeit schnell eine Grenze erreichen, wenn k nicht klein ist. Man wird daher A lgorithmen mit linearem g zu finden versuchen. Kehren wir zu Parsern zurück. Das Problem bei natürlichen Sprachen ist, daß bzgl. der hierfür interessanten Syntaxtypen Zeitund Platzbedarf von Erkennungsalgorithmen zumeist unerträglich hoch werden. Die Komplexität hängt direkt vom A lgorithmus ab und indirekt vom Syntaxtyp, da dieser die möglichen A lgorithmen bestimmt. So hat man für die kontextfreien Syntaxen, der am besten untersuchten Klasse, folgende Ergebnisse (zu den A lgorithmen siehe noch A rt. 32): 1) Sowohl für die Top-Down- als auch die Bottom-Up-A nalyse mit Backtrakking ist ein Platzbedarf von 0(n) und ein Zeitbedarf von k 0(n) (k ≥ 2) anzusetzen. 2) Die tabellarischen Methoden von Cocke-Younger-Kasami und Earley erfordern einen Platzbedarf von 0(n 2 ) und einen Zeitbedarf von 0(n 3 ), mit nicht-ambigen Syntaxen benötigt der Earley-A lgorithmus eine Zeit von 0(n 2 ) (vgl. A ho/Ulmann 1972, I, 281 ff.).

93

Man muß aber berücksichtigen, daß jeder dieser A lgorithmen auf alle Syntaxen einer großen Teilmenge der kontextfreien anwendbar ist (beim Earley-A lgorithmus alle kontextfreien) und die Bedarfsangaben für die „ungünstigsten“ darunter gelten. Zeit- und Platzbedarf vieler speziellerer Syntaxen sind nur linear. Eine A ufgabe der Computerlinguistik ist es, für natürliche Sprachen hinreichend adäquate Syntaxen zu finden, für die es Erkennungsalgorithmen mit geringem Zeit- und Platzbedarf gibt. Nur lineare Zeit benötigen die LL(k)- (left-to-right leftmost derivation) und LR(k)-Syntaxen (left-to-right rightmost derivation) (A ho/Ullman 1972—73), die spezielle kontextfreie sind. Inwieweit sie für linguistische Beschreibungen ausreichen, ist eine offene Frage. — Der innerhalb der GPSG entwickelte ID/LP-Formalismus (immediate dominance and linear precedence) ermöglicht es, für spezielle kontextfreie Syntaxen eine abgekürzte Notation zu verwenden (Gazdar/Klein/Pullum/et al. 1985). Shieber (1983 a) wandelt den Earley-A lgorithmus so ab, daß er auf im ID/LP-Format geschriebene Syntaxen direkt anwendbar ist. Der neue A lgorithmus erweist sich bei vielen ID/LP-Syntaxen als erheblich effektiver als Earleys angewendet auf die korrespondierenden kontexfreien Syntaxen. Dies trifft besonders auch für linguistisch interessante Fälle zu. Doch ist Shiebers A lgorithmus nicht immer so günstig. Eingehend untersucht ist dies in Barton (1985). Zu Zeit- und Platzbedarf nicht-kontextfreier Parser vgl. A ho/Ullman (1972—73, I, 456 ff.), zur Komplexität von Transformationsgrammatiken Berwick (1984 a). A uch die Komplexität von Erzeugungsprozessen wurde untersucht. Es geht hier um den Zeitbedarf für A bleitungen. Ist G eine generative Syntax, so ist er gegeben durch die A nzahl der A bleitungsschritte, die mit G erforderlich sind, um eine beliebige durch G erzeugbare Kette k der Länge n zu erhalten. Erste Ergebnisse hierzu finden sich in Book (1971), einen Überblick gibt Salomaa (1973).

5.

Literatur (in Auswahl)

A ho/Ullmann 1972—73 · Bresnan/Kaplan 1982 · Chomsky 1957 · Chomsky 1959 · Chomsky 1965 · Gazdar/Klein/Pullum et al. 1985 · Hermes 1961 · Maurer 1977 · Paul 1978 · Salomaa 1973.

Ursula Klenk, Göttingen (Bundesrepublik Deutschland)

II. Computational Linguistics II: Theoretical and Methodical Foundations

94

7. 1. 2. 3. 4. 5. 6.

1.

Abbildungsproblematik in der Computerlinguistik: Linguistische Elemente und Operationen vs. Daten- und Programmstrukturen Einleitung Zur Darstellung von Zeichenketten Zur Abbildung von Baumstrukturen Syntaktische Analyseverfahren Ausblick Literatur (in Auswahl)

Einleitung

In dem vorliegenden Beitrag wird die Problematik der Zuordnung zwischen linguistisch orientierten Objekten und Prozessen einerseits und Objekten der Informatik andererseits anhand einiger Fallstudien erörtert. Bei Untersuchungen grundsätzlicher A rt ist zunächst eine angemessene A bstraktionsebene zu bestimmen. In diesem Fall hat man sich dafür entschieden, möglichst konkret zu argumentieren, also eine niedrige A bstraktionsebene zu wählen. A ls Grund hierfür ist geltend zu machen, daß im Bereich der Programmiermethodik eine Betrachtung ohne Bezug zu konkreten Beispielen erfahrungsgemäß auch den Bezug zum gesamten Gebiet der A nwendung verliert und dann lediglich A ussagen über beliebige Programme zuläßt (Stetter 1981, 133). Mit der A uswertung der Fallbeispiele wird versucht, eine Grundthese zu belegen. Die These ist im wesentlichen negativ. Sie besagt, daß die vollständige Kenntnis eines A nwendungsproblems nicht ausreicht, um die günstigste Form der A bbildung vorgegebener Konzepte auf solche der Implementierungsebene festlegen zu können. Es bedarf hingegen nach Festlegung der A nwendungsbedingungen umfangreicher implementierungs-bezogener Überlegungen. Etwas krasser ausgedrückt: Ein Übersetzungssystem, das Spezifikationen (Booch 1983, 322 ff.) durchweg in ökonomische Lösungen transformiert, ist nicht zu erwarten. Die hier angestellten Betrachtungen bemühen sich um Berücksichtigung verschiedener A lternativen zu den üblicherweise eingesetzten Verfahren. Fragen, die sich auf die prinzipielle Realisierbarkeit von Programmierprojekten beziehen — etwa bei geringem Speicherplatzangebot oder geringer Prozessorleistung — werden hier jedoch ausgeklammert (Baase 1978, 20 f.). Ein solcher Übersichtsartikel wäre ohne

eine kritische Beurteilung der zu erwartenden zukünftigen Entwicklung auf dem betrachteten Gebiet sicherlich unvollständig. Deshalb soll am Schluß des Beitrages noch auf aktuelle Fragen der prädikativen Programmierung und die damit zusammenhängenden A spekte der Erstellung von Expertensystemen eingegangen werden (Keen/Williams 1985, 13 ff.). Die letztgenannten Fragen reichen über die „A bbildungsproblematik“ hinaus. In gewisser Weise fordern sie zur Festlegung grundlegender Paradigmen der Programmierung für ganze A nwendungsgebiete heraus.

2.

Zur Darstellung von Zeichenketten

Zeichenketten (Strings) gehören zu den elementaren Objekten der linguistisch orientierten Programmierung. Sie nehmen hier eine herausragende Stellung ein. Bei der Programmierung eines linguistischen Projekts ist die Wahl der speziellen Programmiersprache gerade im Hinblick auf die in der Programmiersprache möglichen A rten der Darstellung elementarer Daten wichtig. Wir wollen im Rahmen dieses A rtikels jedoch keine solchen A spekte der A bbildungsproblematik ausführlich erörtern, die sich unmittelbar auf die Wahl besonderer Programmiersprachen beziehen, da diesem Thema an anderer Stelle innerhalb des Buches gebührender Raum zukommt (vgl. Art. 63). Wenige A ndeutungen recht allgemeiner A rt sollen an dieser Stelle genügen. Das Vorhandensein einer Programmiersprache — etwa im Unterschied zur ausschließlichen Programmierbarkeit einer Rechenanlage in der zugehörigen Maschinensprache — hat zur Folge, daß der Prozeß der A bbildung linguistischer Elemente und Operationen auf Daten- und Programmstrukturen in mindestens zwei Teilabbildungen zerlegt werden muß, wobei das Ziel einer A bbildung zur Quelle einer anderen A bbildung wird. Der Benutzer der Programmiersprache nimmt eine A bbildung des vorhandenen Sachverhaltes im A nwendungsbereich auf Begriffe und Verknüpfungen der Sprache vor. Das Übersetzungsprogramm (Compiler) bildet diese Begriffe und Verknüpfungen schließlich auf solche der Maschine ab (Schneider 1975, 61 ff.)

7.  Abbildungsproblematik

Dem Benutzer werden einerseits Mühen abgenommen; andererseits wird seine Freiheit zur Gestaltung des maschinellen A blaufs erheblich eingeschränkt. Linguistisch orientierte Programmiersprachen zeichnen sich dadurch aus, daß sie die Schnittstelle der beiden genannten A bbildungen in einer vom linguistisch orientierten Benutzer als sinnvoll und hilfreich empfundenen Form festlegen. Die Sprache COMSKEE (Bertsch/Muellervon Brochowski 1979, 1 ff.) gestattet die programmiersprachliche Behandlung von Zeichenketten einerseits in der Weise, daß letztere als untrennbare Einheiten behandelt werden, andererseits mit der Möglichkeit des lesenden und schreibenden Zugriffs auf Teilketten und einzelne Zeichen. Dies hat äußerst wichtige Konsequenzen. In gewissen Fällen wird nämlich die Zeichenkette — völlig unabhängig von ihrer Länge und Struktur — zu einem elementaren Teil des Zieles der A bbildung. In anderen Fällen wäre eine solche Darstellung weniger nützlich, weswegen ja gerade die umfangreichen Zugriffsarten auf Teile von Strings vorgesehen sind. A bbildungsfragen unterhalb der Programmiersprache gehören zum Bereich des Compilerbaus. Im Falle dynamischer (also zur Programmerstellungszeit nicht mit maximalen Längen versehener) Zeichenketten stellt sich hier die Frage der Verwaltung von mancherlei Verweisen. Um ein verhältnismäßig kompliziertes System von Hin- und Rückverweisen handelt es sich jedenfalls dann, wenn Strings im Speicher zum Schließen von Lücken verschoben werden sollen (Hansen 1969, 499 ff.). Die Verweisstruktur ist nicht unmittelbar vom linguistischen Sachverhalt her einsichtig, sondern ergibt sich aus der Notwendigkeit häufiger Platzwechsel innerhalb eines vorgegebenen Speichers. Überhaupt ist die eindeutige Zuordnung von Teilen der Quelle einer A bbildung zu Teilen des Zieles wohl dann besonders problematisch, wenn Geschwindigkeitsfragen bei der Planung eines konkreten A lgorithmus Eingang finden. A ls besonders deutliches Beispiel hierfür soll der A lgorithmus von Knuth, Morris, Pratt zum Vergleich zweier Zeichenketten vorgestellt werden (Baase 1978, 173 ff.). Die gestellte A ufgabe ist die Suche nach einem vorgegebenen String P innerhalb eines längeren Strings S. Bei naiver Programmierung würden die einzelnen Zeichen P 1 , P 2 , ..., P m der Reihe nach mit den Zeichen S i + 1 , S i + 2 , ..., S i + m verglichen, wobei der Index i sei-

95

nerseits nacheinander die Werte 0, 1, 2, ..., n—m annehmen kann. Der Vergleich von P 1 , P 2 , ... würde jeweils dann abgebrochen, wenn sich zu einem Zeichen eine Ungleichheit ergibt. Der gesamte Vorgang könnte vorzeitig beendet werden, wenn P gefunden wird. In einem (leicht zu konstruierenden) schlechtesten Fall wäre die A nzahl der Vergleiche jedoch insgesamt etwa n · m. Sollte m in der Größenordnung von einigen Dutzend und n in der Größenordnung von einigen Tausend liegen, wäre die Laufzeit für mehrere Vergleiche sicher nicht vernachlässigbar. Die Idee des KMP-A lgorithmus (Knuth, Morris, Pratt) liegt darin, durch eine insgesamt wenig zeitaufwendige Vorverarbeitung des Musters P jegliche Rücksprünge innerhalb des Strings S auszuschließen und damit zu einer Laufzeit von etwa n Schritten (Vergleichen und einigen Hilfsoperationen) zu kommen. Die Vermeidung des Rücksprungs beruht darauf, daß beim Scheitern eines Vergleiches nach Betrachtung von P 1 , ..., P k (k < m) jeweils feststeht, ein wie großes A n fa n g s st ü ck von P 1 , ..., P k inzwischen auch als Endstück von P 1 , ..., P k gelesen wurde. Somit braucht der nächste Vergleich nicht bei P 1 anzufangen, sondern hinter dem so gewonnenen Anfangsstück (etwa P 1 , ..., P q für q < k). Die Vorverarbeitung von P besteht in der Erzeugung eines Feldes FVERW mit m Einträgen, die zu jeder Fehlerposition in P die Position für weitere Vergleiche angeben. Dazu wird, wie man leicht einsieht, der String P an verschiedenen Positionen mit sich selbst verglichen: FVERW[1]: = 0; i: = 2; while i < = m do begin j : = FVERW[i—1]; while (j < > 0) and (P[j] < > P[i—1]) do j: = FVERW[j]; FVERW[i]: = j + 1; i: = i + 1 end A uf einen strengen Korrektheitsbeweis kann hier aus Platzgründen verzichtet werden. Erforderlich ist nun weiterhin ein Verfahren, das die FVERW-Einträge während eines aktuellen Vergleichsvorgangs auswertet. Es ist dadurch gekennzeichnet, daß der Index i, der innerhalb des Strings S die Positionen 1 bis n bezeichnen kann, niemals zurückgesetzt wird:

II. Computational Linguistics II: Theoretical and Methodical Foundations

96

i : = 1; j: = 1; while i < = n do begin while (j < >) and (P[j] < > S[i]) do j: = FVERW[j]; if j = m then return ”gefunden” else begin i: = i + 1; j: = j + 1 end; end; return ”icht gefunden”; Übrigens wurde der KMP-A lgorithmus, der ja m Speicherplätze für FVERW benötigt, von Galil und Seiferas (Galil/Seiferas 1983, 280 ff.) noch dahingehend verbessert, daß lediglich eine konstante, von der Länge von P unabhängige A nzahl von Speicherzellen erforderlich wird. Das Verfahren läßt sich in seiner neuen Form allerdings nicht mehr mit wenigen Zeilen beschreiben. Inwieweit lassen sich A ussagen zur A bbildung eines A nwendungszusammenhangs auf Programm- und Datenstrukturen anhand des KMP-A lgorithmus gewinnen? Die Idee des FVERW-Feldes entspringt sicherlich dem Willen, möglichst wenige überflüssige A ktionen innerhalb der A usführung eines Programms zu dulden. Form und Funktion des FVERW-Feldes bringen jedoch keine Merkmale der A nwendung in einer von dieser her verständlichen Weise zum A usdruck. In diesem A rtikel sollen typische Zuordnungsmethoden zwischen A nwendungsgesichtspunkten (speziell linguistischer A rt) und Implementierungsgesichtspunkten betrachtet werden. Was man beim KMP-A lgorithmus und manchen ähnlichen Verfahren erkennen kann, ist die A uswahl bestimmter Datenstrukturen und entsprechender Verarbeitungsvorschriften, die der A nwendung unter strengen Randbedingungen hinsichtlich Zeitund Platzbedarf gerecht werden. Weitergehende Entsprechungen sind unseres Erachtens nicht aufzeigbar.

3.

Zur Abbildung von Baumstrukturen

Die syntaktische Struktur von einzelnen Zeichenketten wird sowohl bei natürlichen wie auch bei künstlichen Sprachen üblicherweise durch Bäume dargestellt (Baase 1978, 116 ff.). Für den Leser eines Buches oder den Hörer einer Vorlesung genügt zum Verständnis des Sachverhalts die bildliche Gestalt des Baumes, die aus Strichen zwischen einzelnen

Punkten besteht. Der „Konsument“ einer solchen Baumdarstellung befaßt sich zunächst nicht damit, welche möglichen Bewegungen innerhalb des Baumes und welche eventuellen Veränderungen vorausgesetzt werden. Bei der A bbildung von Baumkonzepten auf konkrete Datenstrukturen sind diese Gesichtspunkte jedoch ganz entscheidend für die Wahl einer bestimmten Datenstruktur. Grundsätzlich läßt sich sagen, daß die Bereitstellung vielfältiger Operationen auf Bäumen eine entsprechende Vielfalt in der Verkettung (Verzeigerung) der Knoten erfordert. In diesem A bschnitt sollen für eine vorgegebene Baumstruktur interne Darstellungen mit einfacher, zweifacher und dreifacher Verkettung (Wedekind 1970, 199 ff.) betrachtet werden. Wir wählen den folgenden Baum als durchgängiges Beispiel:

Abb. 7.1: Betrachtete Baumstruktur Eine einfache Verkettung erfordert neben der Nutzinformation an den einzelnen Knoten (hier die Buchstaben A , B, ..., I) lediglich einen Weiterverweis. Dieser zeigt auf den im Bild rechts von dem jeweiligen Knoten stehenden Nachbarknoten. Der im Bild am weitesten links stehende abhängige Knoten (Sohn-Knoten) wird unmittelbar hinter dem Vater-Knoten gespeichert. Zu beachten sind die drei Sonderfälle, daß ein Knoten (a) einen rechten Nachbarn, aber keinen Sohn hat, daß er (b) einen Sohn, aber keinen rechten Nachbarn hat, und daß er (c) weder Nachbarn noch Sohn hat. Fall (a) ist daran erkennbar, daß der Nachbarverweis auf die unmittelbar folgende Speicheradresse zeigt. Fälle (b) und (c) lassen sich am günstigsten durch nicht existente Verweise, etwa durch negative A dressen kennzeichnen. Wir wollen hier einfach die Buchstaben „b“ und „c“ als Marken vorsehen. Der obige Baum erhält somit die folgende interne Darstellung:

7.  Abbildungsproblematik

Adresse 1 2 3 4 5 6 7 8 9

Inhalt A B E C F D G I H

97

Nachbarverweis b 4 5 6 c b 9 c c

Abb. 7.2: Speicherung bei einfacher Verkettung Die ursprüngliche bildliche Baumdarstellung läßt sich offenbar eindeutig zurückgewinnen. Zur einfachen Verkettung in der gewählten A rt gibt es eine Reihe von A lternativen, die wir nicht betrachten wollen, etwa die genau umgekehrte Behandlung von Sohn- und Nachbarverweisen oder die Kennzeichnung mit zusätzlichen Bits für die genannten Sonderfälle. Bei der zweifachen Verkettung wird je ein Verweis für den rechten Nachbarn und für den am weitesten links stehenden Sohn bereitgestellt. Bei nicht vorhandenen Söhnen oder Nachbarn wird ein Leerverweis ( nil ) gesetzt. Wir erhalten damit Adresse

Inhalt

1 2 3 4 5 6 7 8 9

A B C D E F G H I

Nachbarverweis nil 3 4 nil 6 nil 8 nil nil

Sohnverweis 2 5 nil 7 nil nil 9 nil nil

Abb. 7.3: Speicherung bei zweifacher Verkettung Wir kommen zur dreifachen Verkettung von Knoten. Hierbei wird neben den A ngaben, die zur zweifachen Verkettung gehören, noch ein Vaterverweis vorgesehen. Die Darstellung ergibt sich in naheliegender Weise. A llen betrachteten Tabellen ist gemeinsam, daß sie neun Baumknoten innerhalb eines zusammenhängenden Speicherabschnit-

tes mit Inhalten und ausreichender Information über deren strukturelle A bhängigkeit darstellen. Die Tabellen unterscheiden sich in der A usführlichkeit der A ngaben. Die A usführlichkeit läßt sich wiederum über die vorgesehene Verwendung begründen. Wenn während der Laufzeit eines Programmes Veränderungen von Baumstrukturen vorgesehen sind, ist die einfache Verkettung unzureichend. Jedes Einfügen, Löschen oder Umhängen müßte von einer Neuordnung des Baumes begleitet sein, da Sohnknoten grundsätzlich unmittelbar hinter dem zugehörigen Vaterknoten abgelegt sind. Eine Bewegung von Zeigern innerhalb des Baumes wäre weiterhin nur in der Richtung von der Wurzel zu den einzelnen Knoten möglich. Die zweifache Verkettung gestattet ein einfaches Einfügen, Löschen und Umhängen. Hierbei wollen wir von der gesonderten Problematik der A usnutzung ungültig gewordener Speicherplätze einmal abgesehen. A uch hier ist jedoch keine Zeigerbewegung zur Wurzel hin möglich, da alle Verweise auf Nachbarn oder Söhne zeigen. Die dreifache Verkettung löst schließlich auch dieses Problem. Über den Vaterverweis kann in einem oder mehreren Schritten die Wurzel des Teilbaumes und die Wurzel des Gesamtbaumes erreicht werden. Bei der A uswahl einer geeigneten Verkettungstechnik für eine bestimmte, an linguistischen Sachverhalten orientierte A nwendungsaufgabe wirken die dem A nwendungsproblem inhärenten Bedingungen und die der Informatik entstammenden Effizienzgesichtspunkte zusammen. In manchen Fällen ist eine Wahl effizienter Verfahren unabdingbar; in anderen Fällen lassen sich auch zeit- und platzaufwendige Prozeduren vertreten. Hier sei auch angemerkt, daß die ständigen Verbesserungen der Rechnertechnologie auf der GatterEbene und der Register-Transfer-Ebene den A nwendern manche Probleme abnehmen. A llerdings werden die A ufgaben ebenfalls anspruchsvoller, und bei Großprojekten kann auf wirtschaftlichen Einsatz der verfügbaren Mittel nicht verzichtet werden. Entsprechend den recht unterschiedlichen und teilweise widersprüchlichen A nforderungen an Baumkonzepte in linguistischen und anderen Problemkreisen hat sich bislang

II. Computational Linguistics II: Theoretical and Methodical Foundations

98

keine allgemein gültige Baumdefinition auf der Programmiersprachenebene durchgesetzt. A llenfalls bei Verbunden (Wirth 1982, 76 ff.) kann man in eingeschränktem Sinn von Bäumen sprechen, deren A ufbau jedoch während eines Programmlaufs konstant bleiben muß. LISP bietet über die CA R- und CDR-Operationen eine einfache Form der Verweisverwaltung an (Winston/Horn 1981, 18 ff.). Eine frühere Version der Sprache COMSKEE enthielt eine an LISP angelehnte Form der Baumverwaltung. A llerdings ging deren Einsatzbereich nur unwesentlich über andersartige Möglichkeiten innerhalb derselben Sprache hinaus, so daß bei späteren Sprachversionen auf ein vorgegebenes Baumkonzept verzichtet wurde. Eine bedeutende Rolle spielen Baumkonzepte auch u n terhalb der Programmiersprachen-Ebene, und zwar zur Verwaltung von größeren Datenbeständen, die während eines Programmlaufs erweitert oder anderweitig geändert werden müssen.

4.

Syntaktische Analyseverfahren

Zu den Objekten, die in nahezu jedem System zur automatischen Verarbeitung linguistischer Daten einer konkreten Darstellung bedürfen, gehören kontextfreie Grammatiken (Chomsky 1959, 137 ff.). Zwar erfordert eine angemessene Berücksichtigung natürlichsprachlicher Zusammenhänge immer auch den Rückgriff auf Kontext-Sensitivitäten unterschiedlicher A rt; jedoch wird das Konzept der kontextsensitiven Grammatiken nicht in der im Rahmen der theoretischen Informatik üblichen A llgemeinheit verwendet (Maurer 1969, 28). Sachverhalte, die sich nicht vollständig durch kontextfreie Regelmengen darstellen lassen, werden üblicherweise durch Zusätze zum Grundkonzept der kontextfreien Grammatik erfaßt (Dowty/Karttunen/Zwicky 1985, 3 ff.). Die Bedeutung dieser Vorgehensweise darf nicht unterschätzt werden. Nur auf diese Weise kann nämlich gewährleistet werden, daß strukturellen A bhängigkeiten mit Hilfe von A bleitungsbäumen eine verbildlichte A usdrucksform zukommt. A nders ausgedrückt: Würden allgemeine kontextsensitive Regelmengen eingesetzt, so entfiele — von speziellen A usnahmen abgesehen — die ’Intuition des Baumes’ als Mittel der Darstellung. In diesem A bschnitt sollen ausschließlich kontextfreie Regelmengen betrachtet wer-

den, diese jedoch in voller A llgemeinheit. Damit wird auch ausgedrückt, daß speziellere Klassen von Grammatiken unseres Erachtens keine ausgiebige Berücksichtigung im Rahmen der linguistischen Datenverarbeitung verdienen. Die zur A nalyse künstlicher Sprachen üblichen Grammatiktypen, insbesondere LL(1)- und LA LR(1)-Grammatiken (Knuth 1971, 79 ff.), setzen neben der Eindeutigkeit aller zu analysierender Sätze eine völlige Determiniertheit der weiteren A nalyse aufgrund eines bereits gelesenen Teilsatzes voraus. Diese Eigenschaft ist jedoch wegen der beträchtlichen Homonymie und strukturellen Mehrdeutigkeit natürlicher Sprachen geradezu abwegig, wenn mehr als ein künstlich eingeschränkter Teilbereich natürlichsprachlicher Äußerungen erfaßt werden soll. Zur effizienten A nalyse anhand kontextfreier Grammatiken soll das weithin bekannte A nalyseverfahren von Cocke, Kasami, Younger (Younger 1967, 189 ff.) vorgestellt werden. Dieses stand längere Zeit neben einem scheinbar völlig anderen Verfahren von Earley (Earley 1970 a, 94 ff.), das einer wesentlich komplizierteren Erläuterung bedürfte. In der neueren Literatur (Graham/ Harrison/Ruzzo 1980, 415 ff.) wurde jedoch deutlich herausgearbeitet, daß beide Verfahren in naheliegender Weise als spezielle Varianten einer einzigen Prozedur anzusehen sind. Man wählt hier das CKY-Verfahren (Cocke, Kasami, Younger), weil es in recht knapper Form beschrieben werden kann. Zunächst sind einige Vorbereitungen nötig: eine kontextfreie Grammatik G = (N, Σ, P, S) mit Nichtterminalalphabet N, Terminalalphabet Σ, Regelmenge P und Startsymbol S heißt Chomsky-Normalform-Grammatik, wenn alle Produktionen von der Form A → BC für A , B, C, ∈ N oder von der Form A → a für A ∈ N, a ∈ Σ sind. Der CKY-A lgorithmus gewinnt seine Einfachheit weitgehend aus der Tatsache, daß er Chomsky-NormalformGrammatiken voraussetzt. Es ist jedoch unmittelbar einzusehen, daß hierin keine Beschränkung der A llgemeinheit liegt. Insbesondere werden alle Regeln A → B 1 ... B n mit n > 2 ersetzt durch neue Regelmengen der Gestalt A → B 1 C 1 , C 1 → B 2 C 2 , ..., C n—3 → B n—2 C n—2 , C n—2 → B n—1 B , die ihrern seits den Bedingungen der Normalform genügen. Sei nun das zu analysierende Wort (im linguistischen Sprachgebrauch handelt es sich bei einer solchen A nalyse wohl überwiegend um einen Satz oder ein Gebilde aus

7.  Abbildungsproblematik

99

mehreren Sätzen) w = a 1 a 2 ... a n ∈ Σ + mit a i ∈ Σ für i ∈ {1, ..., n}. Der CKY-A lgorithmus liefert im wesentlichen eine Dreiecksmatrix T mit Einträgen t ij für i ∈ {1, ..., n}, j ∈ {1, ..., n — i + 1}. Jedes t ij ist eine Teilmenge von N mit der Eigenschaft: A ∈ t ij genau dann, wenn a i a i + 1 ... a i+j—1 mit Hilfe der Regeln aus P von A abgeleitet werden kann. Insbesondere ist S ∈ t 1n genau dann, wenn w zur Sprache gehört (w ∈ L(G)). Man kann die Prozedur folgendermaßen skizzieren: (i) j: = 1; (ii) i: = 1; (iii) a) Für j = 1 ist t ij = {A ∈ N  A → a; ∈ P}. b) Für 1 < j ≤ n — i + l ist t ij = {A ∈ N  Es gibt k ∈ {1, ..., j — 1}, B ∈ t ik und C ∈ t i+k,j—k mit A → BC ∈ P}. c) Für j > n — i + 1 ist die Matrix völlig konstruiert. (iv) Erhöhe i um 1. a) Für i ≤ n — j + 1 fahre fort bei (iii). b) Für i > n — j + 1 erhöhe j um 1 und fahre fort bei (ii). Schritt (iii) a) ordnet jedem Terminalzeichen die nach Definition der Normalform-Grammatik vorhandenen Nichtterminalzeichen zu. Schritt (iii) b) stellt den eigentlichen Kern des A lgorithmus dar. Für das jeweilige j sind k und j—k kleiner als j; folglich sind t ik und t i+k,j—k schon zu einem früheren Zeitpunkt gebildet worden. Beispiel: Es sei G = ({S, A }, {a, b}, P, S) mit den Produktionsregeln (1) S → AA, (4) A → SA,

(2) S → AS, (5) A → AS,

(3) S → b (6) A → a

(Die Numerierung der Regeln wird erst später verwendet.) Man erhält folgende A nalysematrix für das Wort w = abaab: (s. Abb. 7.4). Da S ∈ t 1,5 ist, gehört abaab zur Sprache. Wenn die A nalyse zu einem A bleitungsbaum führen soll, muß die Matrix weiter ausgewertet werden. Die Spezifikation dieser Teilaufgabe kann man so formulieren, daß jeweils zu einem festen Nichtterminalzeichen U und zwei Positionen i und j im Eingabewort ein Baum Baum(i, j, U) gefunden werden möge, der eine Ableitung von U zu a i a i+1 ... a i+j—1 darstellt. Der Baum sei zunächst als eine Folge von Regelnummern beschrieben. (Dazu ist vorauszusetzen, daß die Regelmenge in eindeutiger Weise numeriert ist.) Man kann das Verfahren wie folgt skizzieren: Man erhält bei der Berechnung von Baum (1, n, S) eine Darstellung des A bleitungsbaumes von a 1 ... a n . Für das Wort abaab und die oben angegebene Grammatik G geschieht folgende Berechnung: (i) Ist j = 1 und U → a i ∈ P die Produktion mit der Nummer m, dann gib m aus. (ii) Ist j > 1 und k ∈ {1, ..., j — 1} die kleinste Zahl, für die V ∈ t ik und W ∈ t i+k,j—k existieren mit U → VW ∈ P, dann gib die Nummer einer solchen Produktion aus. A nschließend berechne (rekursiv) Baum(i, t, V) und Baum (i + k, j — k, W). Baumfunktion Baum (1,5,S) Baum (1,1,A) Baum (2,4,A) Baum (2,1,S) Baum (3,3,A) Baum (3,1,A) Baum (4,2,S) Baum (4,1,A) Baum (5,1,S)

Regelnummer 1 6 4 3 5 6 2 6 3

Abb. 7.5: Folge der Aktionen Die ausgegebene Folge von Regelnummern beschreibt ihrerseits gerade (als ’Linksableitung’) den Ableitungsbaum (s. Abb. 7.6). Man hat nun zu fragen, in welcher Weise die A bbildung linguistisch orientierter Objekte und Prozesse auf Datenstrukturen und programmtechnische A nweisungen in die-

Abb. 7.4: Analysematrix

II. Computational Linguistics II: Theoretical and Methodical Foundations

100

A nwendungsgesichtspunkten auf Informatik-Konzepte wohl nicht erreicht werden kann. Mit anderen Worten: Die A nalogie der linguistischen Objekte und Operationen zu den in einer konkreten Implementierung vorhandenen Objekten und Operationen bleibt nach unserer A uffassung recht oberflächlich. Eventuelle Effizienzgesichtspunkte der Rechner-Darstellung lassen sich nicht schon aus inhärenten Kriterien des A nwendungsfalls ableiten.

5. Abb. 7.6: Erzeugte Baumstruktur sem nicht ganz trivialen Fallbeispiel erfolgt. Für den Linguisten umfaßt der Prozeß der syntaktischen A nalyse die Eingabe einer Zeichenkette, die Bereitstellung einer Regelmenge und die A usgabe eines A bleitungsbaumes, der die Zeichenkette zu der Regelmenge in Beziehung setzt. Die drei genannten Objekte finden sich auch innerhalb der betrachteten programmtechnischen Darstellung, wobei über die genaue Form der Codierung der Regelmenge nichts ausgesagt wurde. Die Beschreibung des Baumes durch eine Zahlenfolge mag einen ungeübten Leser zunächst erstaunen. Es läßt sich jedoch leicht einsehen, daß Äquivalenz vorliegt. Die Problematik der A bbildung zeigt sich deutlich im Konzept der A nalysematrix, das durch keinerlei linguistische Sachverhalte motiviert erscheint. Die Idee der A nalysematrix ist mit Effizienz-Überlegungen verbunden. Jeder Eintrag der Matrix repräsentiert die A nalyse für einen möglichen Teilstring der Eingabe-Zeichenkette. Zeilen und Spalten entsprechen gerade den möglichen A nfangs- und Endpositionen solcher Teilstrings. Die MatrizenSchreibweise gestattet weiterhin eine elegante Formulierung der Zugriffe auf Teilergebnisse der A nalyse. Man kommt zu dem Ergebnis, daß die Matrix keine Entsprechung im vorgegebenen linguistischen Sachverhalt besitzt und daß keine einzelne Komponente der linguistischen Fragestellung auf das Konzept ’A nalysematrix’ abgebildet wird. Die Matrix ist eine Hilfskonstruktion, deren Bedeutung in der Unterstützung anderer programmtechnischer Komponenten liegt. Der betrachtete Fall stützt die A uffassung, daß eine systematische Methodenlehre der Abbildung von

Ausblick

In der Informatik zeichnet sich derzeit ein deutlicher Trend zur nichtprozeduralen Programmierung ab (Bertsch 1985, 137 ff.). Unter diesem Begriff sind mehrere A nsätze zusammengefaßt, deren einflußreichster im Umfeld der Programmiersprache PROLOG (Shapiro/Takeuchi 1983, 25 ff.) und der neueren Expertensysteme zu erkennen ist. Der Einfluß der von PROLOG angestoßenen Bewegung zur prädikativen (genauer: prädikatenlogischen) Darstellung von A bläufen geht erstens auf die Forderung nach präzisen Korrektheitsbeweisen zurück, zweitens auf die zunehmende Bedeutung von Methoden für die industrielle Software-Erstellung, die früher nur innerhalb von Projekten der Künstlichen Intelligenz verwendet wurden, drittens sicherlich auf die A nkündigung der japanischen Computer-Industrie, bei der nächsten Generation ihrer Rechner-A rchitekturen bevorzugt prädikative (PROLOGähnliche) Verarbeitungsformen zu berücksichtigen (Shapiro 1983, 1 ff.). Ob sich die Hoffnungen, auf diese Weise eine bis zu tausendfache Beschleunigung gegenüber heutigen KI-Systemen zu erreichen, erfüllen werden, kann man zum gegenwärtigen Zeitpunkt (1987) in keiner Weise beurteilen. Es ist zu vermuten, daß eine so starke Tendenz innerhalb der Kerninformatik in kürzester Zeit auch in den A nwendungsgebieten Eingang finden wird. Für den linguistischen Bereich dürfte dies heißen, daß nicht nur Grammatiken und Wörterbücher, sondern auch die Vorschriften zur Bearbeitung derselben überwiegend nichtprozedural formuliert werden. Es gibt keinen Grund zu der A nnahme, daß die Prädikatenlogik hier weniger geeignet sei als in anderen Disziplinen, universelle Abläufe zu beschreiben. Beim Einsatz grundsätzlich anderer Programmier-Paradigmen wird allerdings auch

8.  Application and Research

die A bbildungs-Problematik in grundsätzlich anderer Weise aktuell. Üblicherweise kann bei prädikativer Programmierung nicht zwischen Daten und A nweisungen unterschieden werden. Beide Objektklassen bedürfen der Formulierung von A ussagen über sie und werden durch diese definiert. Beispielsweise ist es mit gewissen Varianten von PROLOG möglich, Datenbanken und die zugehörigen Manipulationsverfahren mit einem gemeinsamen A nweisungsformat zu spezifizieren. Deshalb ist zum A bschluß des Beitrages einschränkend zu konstatieren, daß die vorliegenden Erörterungen zunächst für eine linguistische Datenverarbeitung auf der Grundlage prozeduraler Programmierung Gültigkeit haben. Zu den prozeduralen Sprachen zählen etwa FORTRA N, PA SCA L, COMSKEE und A DA sowie die überwiegende Mehrzahl der sonstigen gebräuchlichen Sprachen. Für nichtprozedurale Sprachen und Systeme gelten andere Kriterien, die vermutlich in den nächsten Jahren Gegenstand der weiteren Forschung sein werden. Mit dem Hinweis auf die A ktualität dieser Fragen soll al-

8. 1. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 2.8. 3. 4. 4.1. 4.2. 4.3. 4.4. 5.

101

lerdings nicht angedeutet werden, daß sich das prädikative Paradigma in einem bestimmten A nwendungsbereich auf Dauer als einziges durchsetzen könne. Es dürfte eher zu einer fruchtbaren Debatte um Vor- und Nachteile der unterschiedlichen A nsätze kommen, als deren Resultat bestimmten Teilen der prozeduralen Programmierung anhaltende Bedeutung zuerkannt werden muß.

6.

Literatur (in Auswahl)

S. Baase 1978 · E. Bertsch 1985 · E. Bertsch/A . Mueller-von Brochowski 1979 · G. Booch 1983 · N. Chomsky 1959 · D. R. Dowty/L. Karttunen/A . M. Zwicky 1985 · J. Earley 1970 a · Z. Galil/J. Seiferas 1983 · S. L. Graham/M. A . Harrison/W. L. Ruzzo 1980 · W. Hansen 1969 · M. J. R. Keen/ G. Williams 1985 · D. E. Knuth 1971 · H. Maurer 1969 · E. Y. Shapiro 1983 · E. Y. Shapiro/A . Takeuchi 1983 · H. J. Schneider 1975 · F. Stetter 1981 · H. Wedekind 1970 · P. H. Winston/B. K. P. Horn 1981 · N. Wirth 1982 · D. H. Younger 1967.

Eberhard Bertsch, Bochum (Bundesrepublik Deutschland)

Application and Research — Mutual Side Effects Research, Applications and Honesty Apply What? Uniqueness of Natural Language Artificiality in Natural Languages Incompleteness of Natural Language Descriptions User-Tolerance of Natural Languages Vagueness in Natural Languages Natural Language Are Languages in the Making Perfect Translations Do Not Exist More Than Transmitting Information Apply How? Apply to What? Designing Procedures for Reading, Writing and Interaction Designing Tools for Language Learning and Teaching Designing Languages Observing Language Use and Language Users Literature (selected)

1.

Research, Application and Honesty

Many Research and Development projects in natural language processing are improductive: they are not ventursome enough to yield new knowledge, and the knowledge they build on is not established safely enough to give robust tools which can be used for practical purposes. When attacked because a project produces only trivial knowledge, the planners refer to production needs: A fter all, they say, we have users to serve and cannot play around irresponsibly. A nd when users complain that the system does not perform properly, they are dismissed with the remark that building up knowhow is more important than immediate production. Probably this risk for risk evasion is inherent in the very concept of Research and Development. It would be much more appropri-

102

II. Computational Linguistics II: Theoretical and Methodical Foundations

ate to subsume Production and Development under one heading, and to speak of P-and-D instead of R-and-D. Development can be seen as an activitity, albeit one with delayed effect, towards production. Research cannot. Both sides would profit from recognizing that research and application are different not in degree but in kind. They have different goals. Sometimes theoretically meagre research is classed as ’applied’, but a study does not become practical only because it lacks theoretical depth — nor do unpractical attempts, often with an unpolite phrase said to be of “merely academic interest”, necessarily possess theoretical value. On the contrary: nothing is so practical as a good theory, and there are few better theoretical challenges than a precise practical problem, empirically unsolvable by mere practicalities. Research does not aim at production, now or ever. It aims at knowledge and understanding. CL as such is not linguistics applied to the use of computers or computer science applied to linguistics (a misconception rejected by, e. g., Bátori 1977 a). It is not tantamount to linguistic data processing to process language data, for theoretical or practical purposes. The core concept of CL is not ’computer’ but ’computation’, the old idea of a ’calculus’, a rule-bound play on symbols as with pebbles. CL explores what is computable in language. Ultimately it seeks an answer to the old question: What is mechanical in us? This question is ancient, but the advent of computers has made it inescapable and given new angles to look at it. It would have been worth while to construct computers if only for the purpose of better formulating the questions of CL. How absurd the suggestion that applications to, say, office automation should be a justification for us to study the most human of all behaviour, the use of language and the shaping and reshaping of language! One way of studying language, or ourselves as creatures who interact and think using language, is to model our linguistic capabilities in computing machinery. Whereas engineering is concerned with machines acting instead of men, CL studies man as a machine. Whenever we can reduce human behaviour to mechanical procedures, we gather urgent, not seldom painful knowledge about ourselves; when we fail, and recognize why, we may learn even more. It is not only

in thermodynamics that the great failures mark the fundamental advances. To take only one example: we have learnt more during the last thirty years about translation than during centuries before because we now know that manipulation of syntax and lexicon alone will produce intelligible or otherwise useable output only under special circumstances; we are still struggling to determine exactly which these circumstances are. This is true although grammatical analysis has indeed reached a precision one could hardly dream of in the optimistic fifties, computer storage and speed have eliminated all fear that the machines could not accommodate any lexicon linguists could ever manually compile, and machines now do produce impressive translations in some situations (Cf. art. 50—52). We have perceived fundamental obstacles in a clearer form than any sceptic could before. We have gained new respect, if you like, for the human performance even when the translation task seems trivial and mechanical. The very success of automatic language processing has established more fundamental failures. A nd the new insights gained have immensely higher value than hundred-per-cent adequate blackbox translating robots could have had. A fter all, those could at best have given us more and cheaper translations (Karlgren 1981). Being mutual side effects, research and application can profitably exploit each other, if and only if they honestly state their goals. To pick an example from my own experience, we linguists offer solutions to the production of adequately abbreviated Braille writing on paper or tactile ’screens’ for the blind, who thus profit from linguistic research to get less antiquated reading materials (House 1970 b). A t the same time, people who are accustomed to using fingers instead of eyes for reading help us to understand text perception better. A s scholars we are glad that there exist informants who can report on other linguistic channels than the ordinary ones. The blind can exploit linguistics and the linguists can exploit the blind. Funding agencies, planners, and even scholars are often so brainwashed by their own apologetic exercises in non-scientific terms that they find such blunt statements cynical and frivolous. In contradistinction, blind people and their organizations have little difficulty in perceiving and appreciating their two roles as receivers and givers in relation to research. Scholars are urged by sponsors, adminis-

8.  Application and Research

trations, universities and presumed public opinion to justify their activity by reference to alleged future applications. When they acquiesce, they trivialize their own real pursuit and perform poorly as consultants. A few times too often, large scientific projects have remained futile and failed to deliver results. Thus we have seen projects in many countries pretending to produce translation systems but being only excuse for theoretical study of language. In later times, documentation and expert systems have been the targets of similar half-hearted attempts. A s a result, we still have few linguisticsbased useful tools. Linguistic spin-offs have often been poor, and the respect for scholars has been eroded. Hence, ironically, the prospects have diminished for research support. Thus, translation aids which could have been operative decades ago have been left undesigned, because they were not fascinating enough for scholars but yet beyond what could be delivered by mere computer specialists and office automation industry (Kay 1980 b). A nd for the same reasons, the commonly used word-processors of today work essentially as the typewriters which met the first generation of office girls, with some much-boasted mechanisms to support the typists in doing corrections, amendments, page layout up to and including footnotes, and maintaining small archives, whereas next-to-nothing is offered to support authoring; currently used information retrieval systems are still primitive, featuring little beyond boolean operations on word occurrences, without linguistic refinement: progress in retrieval is due to more powerful computer facilities, permitting mass text processing even to individual and private users, and the ’full-text’ approach is as yet most often a brute-force way of replacing intelligent analysis by using more data, on a lower level of sophistication than in 1950 and 1960 when considerable amounts of semantics were squeezed into classification codes, descriptors and other text amplifications (Karlgren/ Walker 1980).

2.

Apply What?

If someone programs a computer to treat an English text to format it or interpret it as a command, that project is not necessarily a case of applied linguistics. To be, it is neither enough nor necessary that the objects processed are natural language data. However,

103

the term ’applied’ does presuppose that something is being applied. But what is being applied in computational linguistics? Non-linguists have a tendency to see linguistics as a much narrower field than linguists do. They ask linguists about too little, too late and about the wrong issues. This is unpractical. Let us loosely define linguistics for our present purpose as the knowledge peculiar to linguists and a linguist as someone who has spent a considerable part of his life in scientific study of natural languages. CL, accordingly, is the knowledge derived from scientific study of computational aspects of language. What wisdom, then, have linguists acquired? What insights, beyond encyclopedic details on existing languages, is there to apply? The following observations about natural languages, we have found, are liable to be overlooked by persons with an engineering or artificial intelligence background. 2.1. Uniqueness of Natural Language Natural Language, in singular, does not exist. Or if it does, it is a highly artificial product, which features English spelling and which is boasted to be acceptable and understandable to laymen without special training. It is true that linguists have laid bare a common basic design in all human languages. The recognition of such universal design is something linguists have laboriously arrived at, a major achievement of later decades (for overviews see, e. g., Greenberg 1966; Lenneberg 1966; Wunderlich 1974, p. 93 ff.). But in many important ways languages do differ, from place to place, person to person and profession to profession, and the differences, though more superficial than one might be inclined to believe, are not negligible. If you are told that you can use just plain English to interrogate a data base, how can you know what kind of English the system is going to accept? How can you know — how could you be told? — what meaning the thing is going to assign to your statements? By referring to Natural Language the designer evades the problem of explaining to the user what he may do and how his commands will be understood. What the user is in fact offered is (an unspecified superset of ) a rather arbitrary unspecified subset of the specialpurpose English he would have used if there

104

II. Computational Linguistics II: Theoretical and Methodical Foundations

had been an English-speaking person at the other end of the line. 2.2. Artificiality in Natural Languages Natural languages are not natural. The idea of Nature as opposed to A rt dates back to antiquity. A recent variant is the concept of artificial languages, such as programming languages or query languages, contrasting with natural languages, or Natural Language, which have grown (allegedly) untouched by human hand. This view is at variance with obvious facts: who could assert that the English of medical patient records, law reports, or Letters of Patent has developed spontaneously and naturally? A ll the languages for special purposes — ’Fachsprachen’ — which computer-supported information processing is typically concerned with are highly, though not exhaustively, controlled by very deliberate regulation of terminology, phraseology, style and composition. Conversely, so-called artificial languages as actually used by humans, display regularities which have developed during usage without conscious decisions and which are not laid down in formal definitions. A parser of human-produced input in an artificial language, therefore, can do better than run to rules. A pplying linguistic (sic!) analysis it can, with a certain risk of failure, recognize intended messages; an early example of this technique is the DWIM (Do What I Mean and not what I say) package for Interlisp. In such cases, the parser assumes that the explicit rules are disobeyed and that the user is obedient to general regularities of which he as well as the language inventor are happily unaware.) Instead of debating for or against natural language input and output, we should ask ourselves what features in existing languages we want to take over into languages to be invented, i. e., what kind of naturalness is desired for a particular application. 2.3. Incompleteness of Natural Language Descriptions Natural languages are incompletely mapped. A n artificial language is in some sense always completely known. The map is made before the voyage and is, by definition, right. Natural languages are complex, and we keep on disclosing more and more complexities. There is no reason to hope that our description will ever be exhaustive. Linguists do not share the expectation that could we only complement the lexicon, expand the text

base, refine the rules and perfect the the semantic representation — i. e., finalize the thesaurus — we would have practically everything under control. (The hypothesis, that natural language provides only labels for language-independent pre-existing concepts has long since been abandoned by linguists. The opposite is argued by, e. g., Humboldt, W. 1836; Cassirer 1923—31; and in extreme and popularized form Whorf 1956). We must keep alive the money-forgers doubt: there might be more to it. The proper conclusion of this awareness of indeterminacy is not seldom to simplify the system so that it can live with incomplete knowledge, rather than take into account a few more observations. For instance, rather than extend a vocabulary, we may spend our efforts on making the system react adequately when new words or constructs are encountered. 2.4. User-Tolerance of Natural Languages Natural languages are tolerant towards sloppy users: that is what they were designed for — except that, of course, their basic physiology was never deliberately designed at all. Natural languages strike a phantastic balance between economy and safety: we can, as everyone knows, cut out sentences, phrases or words, replace cumbersome words by pronouns or other pro-words, reduce pronunciation or handwriting to a mere hint, etc., and yet be understood by listeners or readers who lend us a distraught ear or eye in a noisy environment. A modern theory to account for the old observations that humans so amazingly seldom fail to identify heavily reduced and badly distorted utterances and texts came with the advent of Shannon’s mathematical theory for the transmission (sic!) of information, later called merely information theory, a term often misinterpreted: Shannon 1949; Shannon/Weaver 1948; Cherry 1957; Meyer-Eppler 1969. (For early very systematic observations of what was later called ’redundancy’ on all levels, including syntactic and ’textual’ levels, so-called ’Prädikatkürzungen’, German-readers should see Gabelsberger 1843, commented in Karlgren 1973). It is one of the wonders of language that it caters for our laziness — not even asking us to learn explicit abbreviation rules. The options in some programming languages to

8.  Application and Research

allow concise and verbose forms are very modest attempts to exploit redundancy. 2.5. Vagueness in Natural Languages Natural language expressions are often vague. In addition to ambiguous and imprecise statements — with more than one interpretation or with an intended range of interpretations, respectively — there are expressions for which neither speaker or listerner could produce an exact interpretation (Pinkal 1983). Logicians and engineers are prone to believe that this is always a matter of incomplete analysis or of incongruence between the communicants’ semantic systems. But a frequent if not a normal case is that the expressions are inherently vague. It is not only that we have not conveyed our code yet to our next man. There is no exact meaning of new car, nice girl, great expectations. This vagueness — which is a normal state of affairs in everyday thinking — is the semantic counterpart of sloppy writing and speaking. It is permitted and does not create chaos! It is in recent years, having formal tools for the precise description of complex meanings — including modality, belief structures and the like, which were traditionally outside the scope of all formalisms — that the intrinsic vagueness in natural language expressions becomes obvious: we have come to a point where we do not want our description to be more precise. Earlier linguists have tended to attribute the range of interpretations to not-yet-known variations between older and younger usage or between geographical areas; and in recent years, as long as the logical explications remained inadequate, semanticists would typically direct their main efforts towards achieving higher resolution. Good lexicologists, however, have long been conscious of the requirement to be suitably precise and to curb their desire to make logically exact definitions. — A fair statement of the situation is given by Lieb (1983, 212): “The topic of vagueness is very much at the centre of current semantic interest. I must confess that I am not satisfied with any approach to vagueness that has been suggested; nor can I offer a satisfactory alternative. I do believe, though, that my conception of lexical meaning does not preclude a satisfactory treatment.” See also Lieb 1980. Cf. further Karlgren 1979, 182—187, 188 ff.; Pinkal 1983; Lakoff 1972; and, with regard to the

105

consequence for information retrieval, Karlgren 1977. It should be noted that the vagueness referred to has little in common with the fuzziness defined by Zadeh 1975, and in his later work; cf. (1982, 425 ff.). Zadeh’s interesting model, where class membership is a stochastical variable, accounts for indeterminacy, but characteristic for human communication is not only that meaning may be indeterminate at any given point of time but also that vagueness can be successively reduced (or increased) through dialogue interaction and text progression. Zadeh’s model is as static as the deterministic models in the sense that the language system remains unchanged. By way of dialogue, higher clarity can be achieved in most cases, and normally humans do arrive at the level of (cognitive) understanding they require. This is another wonder of language. A challenge to engineers if you please, like the bird’s flight was to Leonardo da Vinci. The dialogue-based comprehension procedure in human discourse can not be replaced by an analysis based on ever-so-large static lexica or pre-established semantical representation (see 28). One cannot define oneself out of the necessity to cope with undefined expressions. — A nother way to put it: the linguistic operations during a dialogue have as one operand the transmitted message and as one operand the language the participants are sharing. The speakers are creating, or modifying, for their immediate purpose the very tool they are using (Enqvist 1987). Essentially the same mechanisms are at work in language learning, language change and the comprehension of a coherent text. A nd this is true not only in literature but in any text, even in the most disciplined and ’formal’ legal or mathematical prose. (Kiefer 1983; A llen/Perrault 1980; Wunderlich 1974, 225 ff.; Ungeheuer 1977, 1974) For better and for worse, this is a major kind of naturalness which is absent in constructed languages. Semantical rigidity has a value of its own in some cases — that is why such artificial languages as predicate calculus were designed in the first place — but in other situations it makes them hopelessly unhospitable. Whatever efforts are spent on surface phenomena like spelling, word order, or inflection, a language unable to live with inherent vagueness will remain a set of formulae in disguise, incapable of true dialogue. Dialogue is more than exchange of utterances

106

II. Computational Linguistics II: Theoretical and Methodical Foundations

in a semantically stable language. Exactly what more? We do not know yet — applications have to wait for research. 2.6. Natural Languages Are Languages in the Making This observation is closely related to the previous statement. It is always possible to extend a natural language by (re)defining terms or merely by suggestive usage. Vagueness is one price paid for the incredible flexibility which makes it possible to go from nursery to high-tech laboratories or big business with almost unnoticeable little adjustments. Or from one century’s pre-industrial life to information society. Humans have the habit of language shift: they accept it, understand it, and do it, without signalling a warning beforehand. Every language which is ’closed’, even thought it can be extended by explicit definitions in a meta-language, will be felt as stifling or, if users do not realize its restraints, will lead to misunderstandings. (A survey, with rich bibliography, is given in Schröder P./Steger 1981. A survey and a synthesis of research in the field is to be found in Enqvist, 1987. For traditional views cf. Paul 1909; Wyld 1932. In well-needed efforts to sharpen linguistic methodology, the proper appreciation of vagueness was lost, or lost sight of. The sharp logical distinctions between describing states and describing transitions made it harder to view the interrelations; cf. Koerner 1973. — For more recent introductory literature, see A nttila 1972, and Donato 1980.) 2.7. Perfect Translations Do Not Exist Serveral definitions of an appropriate translation have been offered; they share the property that, if taken seriously, no earthly translation can make a full score. The intrinsic intranslatability of natural languages was noted already by Leibniz and by Locke 1690; cf. Fraser 1894; Aarsleff 1975, p. 397. This is true for translations from one natural language into another and it is true for translations between a natural language and algebraic or network representations. No matter how clever the mapping procedure, how large our fact bases, and how exact our dictionaries, there is no such thing as the correct explication of all and only what was stated in one language in another’s representation. Interfaces between humans using natural

languages and machines using theirs will therefore necessarily introduce errors — tolerable, or at best removable during dialogue. One cannot isolate the language problems into an interface module and then forget about them. 2.8. More Than Transmitting Information Natural languages have other functions besides the function to transmit, store, and structure information (Bühler 1934). Even the most factual statements express other functions which are as important to human beings as the transfer of information. Establishing groups of ’us’ and ’them’ to take an old example. The classical telegraphy-inspired kind of transmitter-channel-receiver model for language disregards — as models should — every other aspect except one, that of cost and safety of transmission. Linguists are beginning to rise above the Shannon-Weaver model of communication and to state a few general things about dialogue and polylogue behaviour. These insights are highly relevant for systems design, even when the systems have factual information transfer as their sole purpose. Different people will adopt and retain different terms for the ’same’ concept because they see the world differently, and want to see it differently (Codd 1974). This imposes a limit to standardization: The engineering, accounting and sales department of the same company will use different words for things and events which in objective terms are the same. If forced to use a standardized vocabulary they will find it unnatural and disgusting — and sooner or later give different interpretations to messages they send or receive. A good deal of well-meaning term bank efforts build and fail on the assumption that lacking conformity is due to the residue of terms not yet defined or to the untrained users’ ignorance of standard terminology. These major insights should be kept in mind in language processing. — A further point deserves mention, the most salient one: these devices work, in spite of the ’idiosyncracies’ we find in them all. Or because of them?

3.

Apply How?

How should linguistic knowledge be brought into action in applications? Certainly not via scholars producing commercial software.

8.  Application and Research

There are three roles for the linguist: — an instructive role: act as a broker of tools and results, which are there for to be taken. Existing language processing methodware can be put to work; resources spent on projects to reinvent them can be saved for other purposes (Karlgren 1986; Walker/Karlgren/ Kay 1977). — a constructive role: to suggest tools and other facilities which could be produced, if research resources were directed towards the crucial areas. — a destructive role: to inhibit or discontinue development projects for which the chances of success are nil. In a number of areas, allegedly practical, people spend time and energy on attempts which were known from the very beginning due to experience and theoretical considerations, to be abortive. Thus, much of the efforts given to produce limited unambiguous and semantically stable vocabularies or thesauri for information retrieval are necessary failures, not as non-linguists tend to believe because the resources have been too small to make them complete or to be specific enough in defining hierarchial or other relations but for more fundamental reasons. The idea of the ideal conceptual language, as linguists can tell their documentalist friends, has been tried before and given up — a few centuries ago. There is no such thing as a perfectly exact and timelessly stable language to be discovered or constructed for reasons known (as discussed in 2.4, 2.5 and 2.6). Cf. the well known attempt to construct an ideal language by Leibniz (Dutens (ed.) 1768; Loemker (ed.) 1969; Lenders 1976; A rndt 1967; Verburg 1951, particularly p. 220 ff. with comparisons with Locke). A less known example is Wilkins 1668, commented upon in Verburg 1951, 297 ff. and in Karlgren 1978 (German translation Karlgren 1979).

4.

Apply to What?

Four situations can be identified where CL can be applied: 1. Using language, 2. learning to use language, 3. constructing (or reconstructing) language and 4. observing language users as they produce or comprehend language. A ccordingly the applications can be grouped together under the following headings: — Designing procedures for reading, writing and interacting — Designing tools for language learning and

107

teaching — Designing languages — Observing language use and language users. The terminology reflects the user’s perspective and it calls putting information into the machine ’writing’ and displaying information by the machine ’reading’, leaving the inverse terminology (the system’s view) to other occasions when we discuss computerinternal processes. We shall also subsume speaking and listening under writing and reading, respectively, since we deem the distinction between written and oral communication to be of minor importance for the over-all view. 4.1. Designing Procedures for Reading, Writing, and Interaction 4.1.1. Writing Writing in the most literal sense is an activity which has been almost completely neglected by scholars and commerce alike. Keyboards have remained essentially unchanged during the electronic revolution, and typing shortcuts and shorthand have been almost entirely overlooked. Substantial results of importance to nearly everyone could be achieved relatively easily if experts cared to condescend to such trivialities and investors showed the commercial audacity to challenge some basic conventions. The much harder problem of speech recognition has received more scholarly attention and almost unlimited funding. A lthough practical results have emerged in later years for specific situations, the attempts at replacing typing by speech more generally have largely failed during the era of computer utilization we have witnessed. This is not surprising since speech recognition involves perception and comprehension on many levels which are incompletely known and poorly understood. Typically, successful systems are contained in ambitious speech understanding schemes, e. g., for recognition of commands, whereas the seemingly simpler ’phoneme detector’ is no longer even a dream. Taking dictation in an office, every typist performs a task incomparably more complex than solving a set of equations with 100 unkowns. Serious linguists realized this all along, and from the unsucessful — but not necessarily vain, though in some cases premature — attempts we have learnt to understand it even better (Cf. art. 47).

108

II. Computational Linguistics II: Theoretical and Methodical Foundations

Computer-based text editors, of course, have made life easier for people who write in the rich countries. It is such a delight to be able to conceal one’s typing errors by using a delete key and one’s stylistic slips by simple insertions and replacements, but we owe none of this to CL. In fact, none of the widespread systems deserve the name of editor, since they only help you implement amendments you have independently decided to make. A t best, they help you find occurrences of well-defined amendenda — on the lowest level: There is no widely used system which would bring you the participle hidden when you have decided to replace the verb conceal by hide, and with most of them it is up to you to avoid concealous for every hideous in your text. A little more intelligence in the system would give much better support for authors. But then that little extra must include functions based on at least a rudimentary recognition of context, that is of linguistic structure; then, and only then, do we have the beginning of applied CL. A few recent attempts prove the appropriateness of this approach — but industry still seems to be more interested in text reproduction and updating than in text creation. A special case — in fact, not so special after all — of authoring is translation. We have already commented upon the scarcity of attempts to provide good interactive support tools (see also art. 51 and 54). A nother distressingly ’mechanical’ authoring task which is as yet beyond the mechanized systems is proofreading. So-called spelling correction, today based on mere lexical lookup, is a modest beginning. Indeed it sounds very far from sensational to offer a proofreader’s aid — but a good one would probably have a greater impact on the world’s affairs than an automatic translator. A t the far end, of course, proofreading involves every depth of comprehension and erudition. It is easy to prove the infeasibility of an infallible faultfinding machine. But quite a few errors and inconsistencies can be revealed by applying parsing and matching techniques which are classical in CL. Whereas systems exploiting in an interactive fail-proof environment a small amount of text comprehension on the machine’s side are conspicuously few and far between, the text-digesting homunculus who comprehends the text so completely that the text can be laid aside and the homunculus interrogated instead have attracted the attention and resourc-

es of many. Needless to say such systems can cover only minute subspaces of human knowledge. A problem is that the restraints are sometimes not well recognized: lawyers, to take one example, who believe that it would be an ideal to establish rules for machines to devour and make conclusions from, rather than fomulate necessarily vague texts for humans to actively interpret have understood law and language equally poorly and ignore the creative aspect of reading in general and law interpretation in particular (exempting again some very stable and formalizable microworlds, such as certain special taxation subsystems, where all innovative thinking can be banned over considerable periods). A n interesting kind of machine intelligence is image comprehension, offering us the option of drawing maps, pointing at pictures or even making gestures and still being understood via machines. Some of the techniques for analyzing linear text strings are promising for recognizing and in some sense comprehending two-dimensional images or (two-dimensional representations of) threedimensional objects. A lready the questions in what sense one could possible ’comprehend an image’ or ’make a summary map’ invoke problems — such as topic/focus — which are familiar to linguists. This is an area where one has reason to expect real break-throughs in a decade or so — theoretically and practically. A major part of a writer’s efforts is engaged in a continuous battle against unclarity and ego- or group-centricity. Efforts in the opposite direction are those towards maintaining secrecy. When so much of what we write and say is physically accessible to so many via electronic channels, encryption will be a more important part of writing. Construction and breaking of secrecy systems are classics in linguistic computation, and they are likely to receive renewed attention. Whereas governments and resourceful organizations have not failed to escalate this technology, exploiting linguistic results in a manner not always advertized, little has been done for poorman’s everyday text protection against, say, his government (Beth/Heß/ Wirl 1983). 4.1.2. Reading A s with writing, very little has been done for the primary function of reading (in the sense explained in 4.). If anything, computerization has given us large amounts of poor typo-

8.  Application and Research

graphy and layout, flickering screens and an incredible graphic monotony which no one would have accepted if it had not been backed by the status of computers. Now, this is a passing technological phase, and in any case linguistic sophistication is surely not what is needed to regain the Gutenberg level. But there are recent trends in the positive direction. Some systems use colour to differentiate and highlight text portions of different prominence. It seems that it was British Viewdata that brought colour to the computing world on a larger scale as a compensation for lacking font variety on low-resolution screens, Viewdata being the first really large attempt to offer computer-based reading to a broad public. This and other similar systems also add movement — oscillation, flashing etc., — to its presentation. There is reason to believe that text enhancement will be a rapidly developing area. In addition to or in lieu of conventional typographical means so much can be done, once the text is housed in a computer to help the reader. Since empty space does not cost, there is no reason to display text as compact pages but sentences can be presented in structured ways — those familiar with LISP programming will think of PRETTY PRINT — with subclauses graphically separated or, like footnotes, concealed until called for, with important words or phrases highlighted, with syntactic and other structures clarified by position, font, size and colour of the constituents, etc. etc. These ideas are not new. We have examples from runic stones of colouring according to word classes, and journalists designing front pages of a good daily newspaper know much about this matter. But the resources in a computational environment offer a real challenge. If little has been done to help reading as such, much has been done to help us notread. That is, incidentally, what retrieval systems can do for us. We need no particular technology to read the lot; the retrieval function must not be confused with acquisition. Problems of selection lead deep into linguistics, to understand the query, to analyze the retrievands and to make appropriate matching. The ’qualitative approximation’ involved is essentially a linguistic issue, which cannot be replaced by implication and other operations on ’exact’ meaning representations. (Retrieval problems are treated in art. 55—58; cf. “Homeosemy” in Walker/Karlgren/ Kay 1977.)

109

A n interesting kind of aid to readers are text generation systems, producing some kind of text from non-text materials, such as tables, formulas or even maps and images. It would have helped when such systems are being designed, could we have specified what is assumed to be a coherent text. A s a first approximation it is thought to be a linear sequence of symbols which makes sense when read from left to right — except that full linearity may be exactly one of those tiresome features of many man-made texts which we want to eliminate — a feature which is at most fictitious in, a law book or a computer software manual. This is a hot area where really new results should be expected (cf. art. 37 and 48). 4.1.3. Interacting The more we study them, the more it appears that the difference between reading and writing is exaggerated. Many activities entail reading and writing. A writer needs support for elaborate reading functions — to retrieve other texts or passages of the text under work; to consult dictionaries, term banks or precedence cases if he is a translator; to compare with law reports or model contracts if he is a lawyer, etc. — and, convesely, a reader needs to tell his dialogue partner about himself, his needs and background and preferences, for his queries to be properly handled. A special case, treated in art. 42, really defeats our ability to tell whether it is writing or reading: text reconstruction. Recent linguistics has shifted focus from transmission of messages from sender to receiver to dialogues as a kind of interaction between two parties, in turn provoking each other to new responses (Kiefer 1983). Even where the aim of the interaction is unidirectional information flow, e. g., where a client is consulting a librarian or other expert, both are asking and both are answering, building up a basis for understanding. In fact, every single utterance can be seen as a question as well as an answer, blurring even this fundamental dichotomy. Linguists begin to have something to say on pragmatics, i. e., on how a communication process should be organised to make the components interact properly, taking terms, handling circumstantial information which has little to do with the underlying subject matters and yet needed for the traffic (cf. Ungeheuer 1972, 17—18). A generalization with new sets of hard issues are the polylogues where many talk to many: adver-

110

II. Computational Linguistics II: Theoretical and Methodical Foundations

tising their interest to learn about a topic or offering information, presenting themselves as individuals or groups in a crowded and noisy market place. A gain the perspective shifts: from twoparty interaction between man and machine to man-to-man communication via machines. Computing systems assume the role of storing and distributing documents (messages of any size), like newspapers, library and second-hand bookshops all in one, joined together to worldwide communication networks. Techniques, based on what we know about human dialogue and polylogue, will have to be designed for entering queries or submitting cues for others to find our offers in such an environment, where an intelligent machinery connects people at different sites, with different perspectives and manners of expression — and at different times: questions may precede answers in time or vice versa. Particular attention will have to be given to restraints for the information flows: how can unauthorized transfers be inhibited, and who shall have the authority to inhibit what? (Karlgren/Walker 1983) In an advanced computational environment interactive reading/writing techniques may dissolve the very concept of document: if the reader receives information selected and shaped in tune with the description of his needs, and the author, accordingly, submitted not a coherent ready-made text but rather a response pattern, a kind of textgenerator, the output of which he will never see, then who ’wrote’ what actually appears before the reader’s eyes? Who is responsible for errors and omissions? If we assume, as we must, that both use software which neither of them wrote or understands, if we further assume, as again we must, that host systems impose their own transformations, restrictions and clarifications, we shall need all our ingenuity and all our knowledge about language not to lose control. How, to take only one urgent task, could we construct a tool which would enable two persons to verify whether the ’messages’ one sent to the other have been wilfully censored along the route? 4.2. Designing Tools for Language Learning and Teaching A ny kind of computer-aided instruction (= CA I) requires advanced dialogue techniques, which in turn implies linguistic techniques regardless of the subject-matter. Teaching machines were in vogue some thirty years

ago, and left the scene with a rather bad reputation: most of what they could do could be done equally well or better by books, given that the same amount of preparation was invested in the tool, and they encouraged factoriented drill exercises which were deemed at the time to be incompatible with personal development. However, CA I in general and computer-assisted language instruction in particular are coming back. It seems that pedagogy has become slightly less dogmatic; and computer-based instructors need no longer be rigidly tied to a few correct/false alternatives nor at all confined to grammar rules and vocabulary. Interesting developments are computerized text evaluation in interactive authoring systems, and language training — including of course training in spoken communication, preferably telephone conversation — connected to communication systems, encouraging group dynamics and activating backbenchers. The applicable linguistics, then, is not only parsing and sentence generation but also pragmatics. See further in the contribution on CAI in art. 60. It should be remembered that teaching of artificial languages has been computer-aided ever since interactive systems became available at reasonable costs. In fact, there is an ingredient of teaching in every interactive system, though often otherwise labled, e. g., in so-called expert systems marketed to resourceful adults. One could even say that instruction to users is a necessary feature of any dialogue worthy of the name. 4.3. Designing Languages A lthough a linguist learns to respect the received languages more the more he learns about them, he need not want to leave the world of languages as he found it. What greater challenge could there be for him than to sift out the essential of what we know about human linguistic behaviour and construct a tool appropriate for a given purpose? The whole spectrum of CL insights is relevant for the task of designing a language for a given task be it called programming language, query language, command language or something else. A s already stated, there are deliberately designed features in natural languages as well. Dictionaries and term banks are instruments to control vocabulary, and the methods of CL are used widely in lexicography today, as described in articles 38 and 39. Computational methods have also been de-

8.  Application and Research

veloped for evaluating term-inventaries and even suggesting new terms which fit a given language. We can mention here similarity examination of proposed new trade mark words (to avoid possible clashes with confusingly similar though not homonymous earlier marks, Brodda/Karlgren 1969) and computer-aided coining of new marks or company names which satisfy given general specifications. In Sweden, even new family namens have been computer-generated en masse according to established patterns, to replace the over-frequent namens ending in -son. A book, listing computer-generated available names, guaranteed to be new but conventional-sounding, is published by the Patent Office since the 1960’s (Molde 1964). Language planning — or language maintenance, ’Sprachpflege’ — is restrained by the planners’ incomplete knowledge about usage and the users’ incomplete knowledge about the decisions made on their behalf, by linguistic ignorance which causes the attention to focus myopically on petty details, and by the public’s reluctance to take directions and the planners’ diffidence as to their real power. A ll these three obstacles are shrinking: in a wired society, where the majority of written and many spoken messages are formulated, revised, transmitted and stored in interconnected, electronic networks, language can be mapped with precision, and norms (complex linguistic rules as well as wordlists) can be made part and parcel of text editors issuing recommendations or warnings and, when nothing else helps, inhibiting transmission of improprieties; better insights in the mechanisms of language and the interdependence of language components will make control action more meaningful and effective; the hesitance to issue and the reluctance to obey orders seems to be faltering in so many places. CL will find large new markets in language engineering. 4.4. Observing Language Use and Language Users Observing language behaviour is, of course, a major task in linguistics and in some other social sciences. CL is here applied, i. e., it serves as an auxiliary in pursuits other than its own (see, e. g., the articles 40—46). Particularly prominent is the support of the work of the lexicographer, no matter whether his goals are practical or scientific (see articles 38 and 39). Observation of usage is also a necessary

111

part of the work to design and redesign languages, on which we have already commented above under 4.3. In information science, ’user studies’ have become an accepted branch. But on the whole, more effort has been spent on advocating solutions than of their empiric evaluation. Self-recording interactive environment will make this attitude less defensible. A primary linguistic task is to recognize a speaker or writer. Our ability to do so — one of our primary capabilities as a biological species — has proven surprisingly hard to parallel in algorithmic machinery. Some of the earlier claims about voiceprint (article 47) and about authorship determination (article 41) can be rather easily falsified. A pplications are not only forensic and philological. It would be safer and so much more pleasant to abolish passwords and directly address electronic assistants, librarians, bankers, etc. who recognize their partners personally and remember how they prefer to be met. In fact, advanced dialogue systems will have to include some personal recognition features. No one will become a good conversationalist unless he learns to recognize faces and voices; this is true for machines as well as for humans. Going a few steps further, a true dialogue system will have to develop the ability to recognize character: Is he/she a diffident beginner or an oldtimer bored by redundant explanation? Is he/she meticulous in typing or should he/she be asked to confirm? Is this a person who would appreciate examples more than a concise rule? These questions are inevitable in an adaptive and cooperative system, whether or not it is openly pedagogic or not (Kaplan 1977). Observation need not be restricted to one dialogue partner at a time nor to details about language, knowledge and preferences. With a profession’s or a whole nation’s written and oral interaction occurring in a self-recording electronic environment, the road is open to constant surveillance of group dynamics, applying all what is known about linguistic pragmatics, content analysis and all other arts of the métier to record: Who is writing, talking to whom in what tone? Who knows — has ever heard, has heard more than twice — this word? Who has read what? Who is aware of what? Who is alerted by what kind of cue? Who has a negative attitude towards such and such words? — When tools for linguistic analysis become less crude and storage capac-

112

ities virtually unlimited, it will be possible to map every individual and his relationships to individuals, words, concepts and attitudes in greater detail than he could possibly know himself, to predict his next word or response with a precision which would amaze him would the system reveal it to him. What economy could be achieved on such a solid foundation of knowledge and meta-knowledge! How appropriate answers every one would get to all questions! How many unnecessary messages eliminated! What superb social control and coordination could be attianed!

5.

Literature (selected)

A arsleff 1975 · A llen/Perrault 1980 · A nttila 1972 · A rndt 1967 · Bátori 1977a · Beth/Heß/Wirl 1983

· Brodda/Karlgren 1969 · Bühler 1934 · Cassirer 1923—31 · Cherry 1957 · Codd 1974 · Donato 1980 · Dutens (ed.) 1768 · Enqvist 1987 · Fraser 1894 · Greenberg 1966 · House 1970 b · W. Humboldt 1836 · Kaplan 1977 · Karlgren 1970 · Karlgren 1973 · Karlgren 1979 · Karlgren 1981 · Karlgren 1986 · Karlgren/Walker 1980 · Karlgren/ Walker 1983 · Kay 1980b · Kiefer 1983 · Koerner 1973 · Lakoff 1972 · Lenders 1976 · Lenneberg 1966 · Lieb 1980 · Lieb 1983 · Loemker (ed.) 1969 · Meyer-Eppler 1969 · Paul 1909 · Pinkal 1983 · P. Schröder/Steger 1981 · Shannon 1949 · Shannon/Weaver 1948 · Ungeheuer 1972 · Ungeheuer 1974 · Ungeheuer 1977 · Verburg 1951 · Walker/ Karlgren/Kay 1977 · Whorf 1956 · Wunderlich 1974 · Wyld 1932 · Zadeh 1975 · Zadeh 1982.

Hans Karlgren, Stockholm (Sweden)

113

III. Computational Linguistics III: Special Methodical Problems Computerlinguistik III: Besondere methodische Probleme

9.

Status und Funktion quantitativer Verfahren in der Computerlinguistik

1. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 3. 3.1. 3.2. 3.3. 4.

Einführung Taxonomie Schaffung von Ordnung Reduktion der Variabilität Begriffsbildung Heuristik Inferenz Statistik Beschreibende Statistik Heuristik Überprüfung von Hypothesen Literatur (in Auswahl)

1.

Einführung

Die Begründung eines neuen Wissenschaftszweiges ist stets mit der Entdeckung oder Erahnung v on etwas bisher Unbekanntem in einem Forschungsobjekt v erbunden. Diese erste elementare Stufe einer Wissenschaft wird bald durch die Phase der Begriffsbildung abgelöst; um das Entdeckte besser fassen zu können, wird es in Begriffe gekleidet. Diese sind zunächst meist qualitativ , oft sehr v age oder sogar nur metaphorisch. Sie erfahren aber im Laufe der Zeit eine Präzisierung durch Definition oder Operationalisierung. — Diese Epoche einer Disziplin erscheint den beteiligten Wissenschaftlern als extrem reich an Entdeckungen; jede Einführung eines neuen Begriffs kann das Gefühl v ermitteln, dem Forschungsgegenstand ein Geheimnis entrissen zu haben und ihn besser v erstehen zu können. Nun ist diese Phase der Begriffsbildung unabdingbare Voraussetzung für die darauffolgenden Stufen der wissenschaftlichen Erkenntnis; es geschieht aber nicht selten, daß eine Disziplin lange Zeit in ihr v erharrt. Gerade in den Sprach- und Textwissenschaften ist noch heute eine Position weit v erbreitet, die sich als „magische Auffassung der Sprache“ (v gl. Carnap 1969, 119)

charakterisieren läßt, da ihre Vertreter zu glauben scheinen, die Phänomene durch Benennen beherrschen zu können. Jedenfalls wird v on ihnen die Begriffsbildung als die höchste Stufe der Forschung betrachtet, die wissenschaftliche Auseinandersetzung mit einem Gegenstand erschöpft sich für sie in Begriffsexplikationen, Beschreibungen und Klassifikationen. — Für eine andere Gruppe v on Wissenschaftlern indessen eröffnet dieses Stadium erst die Möglichkeit, zu höheren Stufen der Erkenntnis fortzuschreiten. Sie betrachten die qualitativ en Begriffe als erste Annäherungen an die Wirklichkeit, die als Ausgangspunkt zur Schaffung der differenzierteren quantitativ en Begriffe dienen können. Ihre Vertreter sind der Ansicht, daß man auch in den Sprach- und Textwissenschaften über Theoriebildung zur Erklärung als Ziel der Wissenschaft gelangen kann und muß. — In den Geisteswissenschaften wird gegen eine solche Zielsetzung immer wieder eingewendet, es gehe (1) nicht um Quantitäten, sondern um Qualitäten und (2) nicht um Erklären, sondern um Verstehen. Der erste Einwand entspringt einem grundsätzlichen Mißv erständnis: Die Qualitäten, die den Dingen zugeschrieben werden, sind nicht den Dingen inhärent, sondern Eigenschaften unserer Begriffe — auch dann, wenn sie eine reale empirische Entsprechung besitzen (v gl. Hempel 1974, 110—117; Maxwell 1971). Ebenso dienen quantitativ e Begriffe dazu, eine Ordnung im Forschungsobjekt zu etablieren (und zwar eine feinere, als es mit qualitativ en Mitteln möglich ist); die Dinge selbst bleiben wie sie sind — weder qualitativ noch quantitativ (v gl. a. Esser 1971, 64 ff.). Qualitativ e Begriffe erscheinen zunächst natürlicher zu sein, da sie uns v on der natürlichen Sprache nahegelegt werden. In fortgeschritteneren Stadien einer Wissenschaft kommt man aber ohne Quantifizierung nicht aus (v gl. Stegmül-

III. Computational Linguistics III: Special Methodical Problems

114

ler 1970, 44 ff.; Esser 1971, 64—69), sie erfordert aber bereits eine exaktere und festere Vorstellung des Wissenschaftlers v on seinem Untersuchungsgegenstand. — Der zweite Einwand baut einen Scheingegensatz auf: In der Wissenschaft geht es sowohl um Verstehen als auch um die Erklärung . Während man aus der wissenschaftstheoretischen Beschäftigung mit dem Begriff der Erklärung genau weiß, worauf sie beruht, welche Beziehung sie zu einer Theorie hat und welche Rolle sie in den empirischen Wissenschaften spielt (v gl. Hempel 1965; Stegmüller 1969; Bunge 1969, II; Popper 1973, 213 ff.), ist v orläufig nicht recht klar, was mit „Verstehen“ exakt gemeint sein kann. Trotz aller Einwände ist heute in allen empirischen Wissenschaften die quantitati v e Denkweise und damit die Möglichkeit, mathematisch-numerische Verfahren zu v erwenden, fest v erankert. In diesen Disziplinen hat sich eine ganze Reihe mathematischer Methoden etabliert, die inzwischen zum selbstv erständlichen Forschungsinstrumentarium gehören. Im Vordergrund stehen diejenigen Methoden, die zur Bildung v on Modellen geeignet sind, d. h. abstrakte Gefüge mit internen Mechanismen. Die Erfassung solcher Mechanismen mit symbolischen Mitteln fördert die Theoriebildung: die Findung v on Gesetzessystemen, die der Erklärung und Voraussage dienen können. Zu diesen deduktiv en Methoden gehören v or allem Differential- und Differenzengleichungen, stochastische Prozesse und andere Wahrscheinlichkeitsmodelle. Nicht alle mathematischen Hilfsmittel tragen gleichermaßen zur Theoriebildung bei. Viele v on ihnen dienen eher der Beschreibung und Systematisierung des Gegenstandsbereiches. Diese induktiv en Methoden helfen aber auch bei der Hypothesenbildung, und einige, insbesondere die statistischen Methoden, sind in den empirischen Wissenschaften das einzige Mittel, um Hypothesen zu testen und die Wahrscheinlichkeit einer falschen Entscheidung über die Annahme einer Hypothese objektiv zu berechnen. — In denjenigen Disziplinen, die in der Modellbildung noch nicht weit fortgeschritten sind, überwiegt aus heuristischen Gründen die Anwendung induktiv er Methoden. Von diesen sind in der Computerlinguistik die Taxonomie und die Statistik besonders verbreitet.

2.

Taxonomie

Unter diesem Sammelbegriff werden alle Arten v on Klassifikation und Typologie zusammengefaßt. Die Anzahl der Methoden, die zur maschinellen Ausführung einer Klassifikation geeignet sind, wächst jährlich um einige Dutzend an (v gl. u. a. Bock 1974). Die Frage nach dem gnoseologischen Wert, ob diese neuen Methoden imstande sind, neue Erkenntnisse zu v ermitteln, ist nicht leicht zu beantworten. Kennt man nämlich die Struktur des untersuchten Datenfeldes, so läßt sich erst a posteriori entscheiden, welche Klassifikationsmethode geeignet ist, diese Struktur abzubilden. Auch über die Kriterien der Eignung lassen sich keine allgemeingültigen Aussagen machen. Der heuristische Wert ist in diesem Fall also minimal. Kennt man aber die Struktur des Objekts noch nicht, so können taxonomische Methoden zum Erkenntniszuwachs beitragen. Je nach v erwendeter Methode erbringen taxonomische Verfahren unterschiedliche Leistungen, die im folgenden beschrieben werden. 2.1. Schaffung von Ordnung Die elementare Leistung jeder Klassifikationsmethode ist die Schaffung einer Ordnung in einer Daten- oder Gegenstandsmenge. Diese Ordnung kann auf e i n e m e i n z i ge n Kriterium beruhen (etwa beim Ordnen v on Texten nach ihrer Länge), das einem ganz bestimmten Zweck gerecht wird; für andere Zwecke ist eine solche Klassifikation dann meist ungeeignet. Eine Mehrzweckklassifikation kann man durch Anwendung einer b e l i e b i ge n Z a h l v on Kriterien erhalten; es ist jedoch nicht möglich, eine Allzweckklassifikation aufzustellen. Dementsprechend ist die Anwendung taxonomischer Verfahren ohne genaue v orherige Festlegung ihres Zwecks nicht sinnv oll. — Es ist üblich, zwischen praktischen und wissenschaftlichen Klassifikationen zu unterscheiden. Eine praktische Ordnung kann und soll einfach sein (v gl. Carv ell/Sv artik 1969), aber in bezug auf eine wissenschaftliche Ordnung ist dieses Desideratum nicht v erwendbar, weil Einfachheit fast allen Desideraten der Wissenschaftlichkeit widerspricht v( gl. Bunge 1963). Die größte Vereinfachung erfolgt durch die Reduktion und Anordnung der Taxate auf eine Zahlenachse (v gl. Benzecri 1970), wodurch die in der Linguistik seit Humboldt (1827—29) bekannten Extremtypen entstehen (vgl. Lehfeldt/Altmann 1975).

9. Quantitative Verfahren

Wie Hempel (1965, 159) zeigt, gehört diese Taxonomie den frühen Stadien der Entwicklung einer wissenschaftlichen Disziplin an. Sie ist nicht weit entfernt v on dem elementaren Bedürfnis des Menschen, in seiner Umwelt Ordnung zu schaffen, aus welchen Gründen auch immer. 2.2. Reduktion der Variabilität Die Reduktion der Variabilität ist eine taxonomische Leistung, die insbesondere durch die natürliche Sprache erbracht wird. Jedes Ding ist ein v on allen anderen Dingen unterschiedenes Indiv iduum. Die natürliche Sprache und eine einfache Taxonomie reduzieren diese unendliche Vielfalt so, daß sie die Dinge in Klassen einordnen. Die natürliche Reduktion ist eine ’ethnolinguistische’ Klassifikation aufgrund v on Ähnlichkeiten, die wissenschaftlich v öllig irrelev ant sein können. Eine solche Variabilitätsreduktion ist wichtig für die Minimierung des Gedächtnisaufwandes und für die Orientierung des Menschen in seiner Umwelt. Wissenschaftlich kann die Reduktion der Variabilität dazu führen, daß in scheinbar chaotischen Daten Regularitäten auftauchen, die zur Aufstellung von Hypothesen führen können. 2.3. Begriffsbildung Taxonomie trägt zur Begriffsbildung bei. Eine Klassifikation läßt sich auf drei Weisen durchführen: (i) Eintragung der Taxate auf eine Zahlengerade (Skala), eine Ebene, einen dreidimensionalen Raum usw. und Trennung der Klassen durch ’geeignete’ Kriterien. (ii) Anordnung der Taxate in eine Hierarchie und Trennung der Klassen durch ein Abbruchkriterium. (iii) Bildung v on getrennten Klassen durch eine clusterbildende taxonomische Methode. In jedem dieser Fälle werden bestimmte Ganzheiten v oneinander getrennt: Dinge, die irgendwelche gemeinsamen Eigenschaften haben, oder Eigenschaften, die miteinander korrelieren. Diese Dinge oder Eigenschaften werden unter einen gemeinsamen Begriff gefaßt, der entweder aus praktischen oder aus wissenschaftlichen Gründen v erwendet werden soll. Je nach Methode führt dies zu einer Begriffsbildung, bei der die entstehenden Klassen disjunktiv sind (z. B. bei der Clusteranalyse), oder zu unscharfen Klassen (wie bei der Skalierung, Diskriminationsanalyse oder hierarchischer Taxonomie ohne Abbruchskriterium). — Sehr v iele linguistische Untersuchungen geben sich an diesem Punkt mit dem Erreichten

115

zufrieden: Die Einordnung der Taxate in Klassen hat eine Ordnung erzeugt, durch die taxonomische Darstellung ergab sich offenbar eine Struktur, und durch Begriffsprägung wurde ein neues Stück der Realität erfaßt. Obwohl dieser Schritt selbstv erständlich ein anerkanntes und sogar unbedingt notwendiges Ziel wissenschaftlicher Arbeit ist, erschöpft sich die Forschung keineswegs in Deskription und Begriffsbildung. Als höchstes Ziel jeder Wissenschaft sieht man heute die Erklärung an (v gl. Popper 1973, 213 ff.). Damit stellt sich die Frage nach dem möglichen Beitrag der Taxonomie zur Explanation. 2.4. Heuristik Erklärungen selbst sind nur mit Hilfe v on Theorien möglich, zu deren Aufbau Begriffe, Kon v entionen (Desiderata, Operationen, Kriterien, Regeln u. a.) und v or allen Dingen Hypothesen benötigt werden. Die heuristische Bedeutung taxonomischer Verfahren liegt darin, daß sie bei der Aufstellung dieser wichtigsten Bestandteile v on Theorien (v gl. Spinner 1974, 117 ff.) helfen können. Bunge (1969, 253 ff.) unterscheidet v ier v erschiedene Typen v on Hypothesen, je nach theoretischer und empirischer Begründetheit: (i) Spekulationen, die weder theoretisch begründet (abgeleitet) noch empirisch überprüft sind, (ii) empirische Generalisierungen, die durch Verallgemeinerung singulärer Aussagen entstanden und durch Erfahrung gut bestätigt sind (zu diesem Typ gehören z. B. Lautgesetze, grammatische Regeln u. a.), (iii) deduktiv e (bzw. v alide, plausible) Hypothesen, die aus einer Theorie, aus Axiomen oder Gesetzen abgeleitet und damit theoretisch begründet sind, aber noch keiner empirischen Überprüfung unterzogen wurden, und (iv ) Gesetze, die sowohl theoretisch begründet (abgeleitet) als auch empirisch gut bestätigt sind. — Eine Theorie enthält v or allem Gesetze; wenn auch empirische Generalisierungen zu ihren Bestandteilen zählen, fällt sie in die Klasse der deduktiv -induktiv en Theorien. Entsprechend sind Wissenschaften, die als höchsten Hypothesentyp empirische Generalisierungen enthalten, als v ortheoretisch zu kennzeichnen. Unter diese Kategorie fallen (noch) fast sämtliche computerlinguistischen Teildisziplinen sowie die Mehrzahl der linguistischen und textwissenschaftlichen Bereiche. In diesem Zusammenhang ist es wichtig sich zu v ergegenwärtigen, daß die Anwendung taxonomischer Verfahren eine wichtige

116

heuristische Funktion erfüllt, andererseits aber keinen Ersatz für Hypothesenbildung darstellt: Klassifikationen können Hinweise auf Phänomene liefern, über die Hypothesen zu bilden sind; sie tragen jedoch zur Gewinnung der Hypothesen wenig bei. 2.5. Inferenz Schließlich bieten taxonomische Verfahren die Möglichkeit zur Inferenz. Vom theoretischen Gesichtspunkt aus wird eine Klassifikation dann fruchtbar, wenn mit ihrer Hilfe Schlußfolgerungen gezogen werden können. Dies ist dann der Fall, wenn aufgrund der der Klassifikation zugrundeliegenden Merkmale Aussagen über andere Merkmale möglich sind, die in die Klassifikation nicht eingingen. Klassifiziert man beispielsweise Texte nach ihrer durchschnittlichen Satzlänge, so kann man aus der Klasseneinteilung auf die Zugehörigkeit eines Textes zu einer Textsorte oder auf den Autor schließen. — Besteht eine derartige Zusammenhangshypothese bereits v or der Durchführung der Klassifikation, so stellt diese eine Überprüfungsinstanz der Hypothese dar. Ist eine solche Hypothese nicht v orhanden, so kann eine ev tl. resultierende Inferenz kaum gedeutet werden (v gl. etwa Caroll 1960, 290 ff.), v or allem ist ein so gewonnener Befund (v gl. Sapir 1921, 134 ff.) ohne (dedukti v e) Hypothesen theoretisch nicht v erwertbar. Unter diesen Umständen sind Schlußfolgerungen nur tentativ möglich, und sie müssen unabhängig v on der v orgenommenen Klassifikation überprüft werden. Das Schließen auf genetische Aussagen aus synchron angelegten Klassifikationen wird im allgemeinen vollständig abgelehnt. Wir können zusammenfassend feststellen, daß die Taxonomie ein induktiv es Verfahren ist, das eine wichtige und unangefochtene praktische Bedeutung besitzt. Für den theoretischen Bereich spielt sie darüber hinaus eine Hilfsrolle in zweifacher Hinsicht: (a) Vor dem Aufbau einer Theorie hilft sie bei der Begriffsbildung und beim Auffinden v on Gebieten, in denen Hypothesen über Zusammenhänge, latente Mechanismen, v erborgene und unterschwellige Kräfte und über die Dynamik des Gegenstandsbereiches aufgestellt werden können (v gl. Altmann/Lehfeldt 1973, 15). Sie selbst liefert keine Hypothesen; denn diese gehen nicht aus den Daten herv or, sondern sind Schöpfung des analysierenden Wissenschaftlers. (b) Folgt der Klassifikationsansatz aus einer Theorie, handelt es sich also um eine „ideale Typologie“

III. Computational Linguistics III: Special Methodical Problems

im Sinne v on Hempel (1965, 166 ff.), so kann man sie als Überprüfungsinstanz für die Theorie betrachten. Bei Nichtübereinstimmung v on Theorie und Klassifikationsresultat sollte jedoch das Primat der Theorie über jedes induktiv e Verfahren beachtet werden, das insofern den theoriebildenden Wert aller Methoden der numerischen Taxonomie relativ iert. (Einen anderen, empiristischen Begriff v on „idealer Typologie“ v erwenden Sokal und Sneath 1963.) — Die an eine Klassifikation zu stellenden Desiderata (v gl. Carv ell/Sv artv ik 1969, 33 ff.; Floodgate 1962; auch Altmann/Lehfeldt 1973, 52 ff.) beziehen sich auf den induktiven Ansatz (a).

3.

Statistik

Während sich Klassifikations v erfahren in den Sprach- und Textwissenschaften schon seit langer Zeit (meist allerdings in nichtnumerischer Form) großer Beliebtheit erfreuen, ist die Anwendung statistischer Methoden auf sprachliche Daten nicht so v erbreitet, sie wird sogar oft mit Skepsis betrachtet. Auf der anderen Seite wird die Statistik, wo sie zum Einsatz kommt, sehr häufig ohne ausreichenden Sachv erstand schematisch benutzt, so daß die Resultate v öllig wertlos sein können, ohne daß der Anwender dies bemerkt. Beides beruht auf der ungenügenden Einbeziehung numerischer und statistischer Methodik in die (computer-)linguistische Ausbildung. Der Computerlinguist kann jedoch nicht erwarten, daß ihm linguistisch geschulte Statistiker die Übersetzung seiner Hypothesen in die Sprache der Statistik und die Rückübersetzung der Resultate in eine sprachwissenschaftlich v erwertbare Form abnehmen. Er muß sich v ielmehr die Methoden und ihre Voraussetzungen so weit zu eigen machen, daß er mit ihnen sicher und idealerweise kreativ umgehen kann. — In der Computerlinguistik eignen sich statistische Verfahren zu folgenden Zwecken: 3.1. Beschreibende Statistik Die Beschreibung v on linguistischen oder textwissenschaftlichen Gegenständen mit Hilfe statistischer Mittel ist u. a. aus zwei Gründen notwendig: (1) In den Fällen, wo es um die Erfassung eines Trends, einer Tendenz, einer stochastischen Abhängigkeit, einer Korrelation usw. geht, sind qualitativ e Begriffe zu ungenau und teilweise v öllig ungeeignet. (2) Die Charakterisierung der Dateneigenschaften sehr v ieler (insbesondere

9. Quantitative Verfahren

unendlich v ieler) Objekte ist oft nur mit quantitativ en Begriffen möglich und stets exakter als die mit qualitativ en Begriffen. Verteilungsparameter und andere statistische Kenngrößen erlauben es, mit wenigen (meist zwei oder drei) Zahlen das Verhalten v on beliebig vielen Objekten zu beschreiben. Bei der linguistischen Deskription greift man im allgemeinen auf die bekannten Kenngrößen wie Mittelwert, Varianz, Modus, Proportion oder eine Häufigkeitsv erteilung zurück, deren Eigenschaften gut bekannt sind (v gl. Kendall/Stuart 1963), nicht selten jedoch ist es nötig, eigene Indices zu entwerfen, um die Ausprägungen einer Eigenschaft linguistischer Daten quantitativ zu erfassen. Die wichtige Prozedur der Indexbildung in der Computerlinguistik soll hier nur kurz besprochen werden; ausführlich behandelt wird sie v on Galtung (1967) und Scheuch/ Zehnpfennig (1974). Zugrunde gelegt wird bei der Bildung eines Index ein theoretischer quantitativ er Begriff, der einen latenten n-dimensionalen Eigenschaftsraum aufspannt. So spannt etwa der Begriff „Vokalhaltigkeit einer Sprache“ den zweidimensionalen Raum „Vokalv erwendung im Text und Vokalv erwendung im Lexikon“ auf. Diese theoretischen Begriffe entsprechen dann den Beobachtungsbegriffen „Proportion der Vokale im Text“ und „Proportion der Vokale im Lexikon“, die auf v erschiedene Weisen operationalisiert werden v( gl. Altmann/Lehfeldt 1973, 78 ff.). Darunter v ersteht man die Angabe einer Vorschrift, nach der die gegebenen Begriffe auf ein Zahleninterv all abgebildet werden. Der Index entsteht schließlich durch Reduktion der numerischen Werte für alle beteiligten Dimensionen auf eine einzige Zahl. Diese resultierende Zahl repräsentiert die Ausprägung der untersuchten Eigenschaft. — Obwohl diese Prozedur recht einfach erscheint, kann sie in der Forschungspraxis mit zahlreichen Problemen v erbunden sein. Einigen v on ihnen begegnet man durch bestimmte Anforderungen an die mathematischen Eigenschaften der Indices. In den Sprachwissenschaften ist es jedoch leider üblich, Zahlen ohne entsprechende Prüfung aufeinander zu beziehen und so die bekannten Quotienten zu bilden. Da auf die so entstandene Deskription fast nie eine Hypothesenüberprüfung v orgenommen wird, treten die Schwächen dieser Indices selten offen zutage (vgl. Altmann 1978 b). — Ein Index sollte jedenfalls nicht ohne zu-

117

grundeliegende Hypothese v erwendet oder konstruiert werden. Messungen dienen entweder zur Überprüfung v on Hypothesen, also v on Sätzen einer Theorie (v gl. Galtung 1967, 242; Kuhn 1961; Koopmans 1947), oder zur Beschreibung v on Objekten auf der Grundlage v on solchen Sätzen: Ohne eine solche Grundlage sind Indices kaum interpretierbar. Die Stichproben v erteilung v erwendeter Indices sollte zumindest asymptotisch bekannt sein, da dies statistische Vergleichbarkeit schafft und eine Beurteilung der beobachteten Werte ermöglicht (v gl. Galtung 1973, 241; Altmann/Lehfeldt 1980, 29). Darüber hinaus soll ein Index maximale Information erbringen, auf den Stichprobenumfang bezogen und stabil, d. h. für kleinste Veränderungen unempfindlich (Galtung 1967, 241) sein. Oft wird auch Einfachheit des Index gefordert; dies ist eine weder notwendige noch hinreichende Bedingung (v gl. Bunge 1961), sie erleichtert jedoch in der Praxis die ersten Schritte beim Aufbau einer Theorie. 3.2. Heuristik Ähnlich wie taxonomischen Verfahren kommt auch der Statistik eine heuristische Bedeutung zu, nämlich bei der Auffindung v on Korrelationen zwischen Variablen. So erhält man etwa mit Hilfe der Faktorenanalyse die Dimension der miteinander korrelierten Eigenschaften eines Gegenstandsbereiches; weder über Art noch über Richtung der (möglicherweise auch gegenseitigen) Abhängigkeit der Variablen ist dagegen mit einem solchen Analyseergebnis etwas ausgesagt. Dennoch bietet die Statistik auch hier explorati v e Verfahren zur weitergehenden Analyse. Die Verwendung pfadanalytischer Methoden ermöglicht es, komplexe Eigenschaftssysteme aufzustellen und beliebige Konstellationen v on Variablen und Abhängigkeitsrichtungen als Hypothesen (zunächst linear) zu überprüfen. Da die Hypothesenbildung in diesem Falle mechanisch (induktiv ) erfolgt, ergibt sich allerdings bereits bei nur wenigen Variablen eine unendliche Zahl möglicher Hypothesen, wenn man berücksichtigt, daß außer den rekursiv en auch nichtrekursiv e und blockrekursiv e Systeme berechnet werden müssen, und v or allem nicht nur lineare Modelle in Betracht kommen. Letztendlich müssen die Hypothesen doch auf deduktiv e Weise entwickelt werden, selbst wenn man mit Hilfe des maschinellen Verfahrens solche Hypothesen aussondern

118

könnte, die mit den Daten v erträglich sind. Bis zu diesem Punkt jedoch sind induktiv e statistische Methoden wie die Pfadanalyse erfolgreiche Mittel, um Hypothesenbereiche abzustecken, und sie leisten gute Dienste für Voraussagen und Analysen anhand komplexer Systeme, die ohne sie nicht überschaubar wären. 3.3. Überprüfung von Hypothesen Die wichtigste Rolle spielt die Statistik in ihrem Einsatz bei der Überprüfung v on Hypothesen, wenn man v on der statistischen Erklärung absieht, deren Status problematisch und ungeklärt ist (v gl. Stegmüller 1969; 1973; Salmon 1971; Hempel 1965). Zu den wichtigsten Typen v on Hypothesenüberprüfungen in der Computerlinguistik zählen (i) der Test, ob eine Stichprobe zu einer Grundgesamtheit mit v orgegebenen Parametern gehört; (ii) der Schluß auf die Parameter einer Stichprobe gegebener Größe aus einer v orgegebenen Grundgesamtheit; (iii) der Test, ob beobachtete Daten durch eine v orgegebene theoretische Funktion oder Verteilung erfaßt werden oder signifikant v on ihr abweichen. Dabei werden die Parameter aus den Daten abgeschätzt, und der Test erlaubt eine Aussage darüber, ob die allgemeine Form der theoretischen Funktion oder Verteilung adäquat ist; (iv ) der Test auf Gleichheit zweier Stichproben, bei dem geprüft wird, ob sie aus derselben Grundgesamtheit stammen; (v ) die Anpassung einer theoretischen Funktion oder Verteilung an beobachtete Daten und Voraussagen für nicht beobachtete Werte durch Interpolation oder Extrapolation; (v i) die Untersuchung zweier Klassifikationen auf Unabhängigkeiten; (v ii) die Überprüfung einer Stichprobe auf Erfüllung v on Qualitätskriterien durch sukzessiv es Herausziehen v on Elementen. Obwohl in der Linguistik — wie in anderen empirischen Wissenschaften auch — eigene, spezielle Fragestellungen, Maße und Methoden entwickelt wurden, v erläuft die Anwendung einer statistischen Testprozedur grundsätzlich nach einem allgemeingültigen Schema in fünf Schritten (v gl. Altmann 1973): (1) Das Aufstellen einer linguistischen Hypothese. Eine solche Hypothese liegt im allgemeinen in qualitativ er Form v or: der Linguist formuliert eine Frage, eine Behauptung, einen Wenn-dann-Satz usw.; seltener hat die zu testende Hypothese selbst quantitativ en Charakter (alle allgemeinen wissenschaftlichen Aussagen sind Hypothesen,

III. Computational Linguistics III: Special Methodical Problems

auch wenn sie schon gut bestätigt wurden). Erfahrene Forscher formulieren ihre Hypothesen bereits im Hinblick auf bestimmte mathematische Modelle. — Alle linguistischen Hypothesen sollten zumindest prinzipiell überprüfbar sein, auch wenn die tatsächliche Durchführung einer empirischen Untersuchung oft enorme praktische Schwierigkeiten mit sich bringt oder die Einbeziehung anderer Disziplinen erfordert, in denen ein Linguist meist nicht kompetent ist. Diese Forderung ist in anderen Wissenschaften selbstv erständlich, in den Sprach- und Textwissenschaften sind unüberprüfbare Aussagen eher die Regel: einige sind v on v ornherein untestabel, andere werden durch die Einführung begrifflicher Vagheiten oder durch Bildung zusätzlicher ad-hoc-Hypothesen dazu gemacht (v gl. dazu Bunge 1969, 261 ff.). Aus dem umfangreichen Problemkreis der linguistischen Hypothesenbildung (s. Stepano v 1980) soll im folgenden nur das eine Rolle spielen, was mit der statistischen Überprüfung v on Hypothesen zusammenhängt. (2) Nach der Formulierung einer linguistischen Hypothese muß diese in die Sprache der Statistik übersetzt werden. Zunächst werden die in der Hypothese enthaltenen qualitativ en Begriffe metrisiert, d. h. in quantitativ e Begriffe umgeformt, so daß die statistischen Modelle auf sie angewendet werden können. Darauf wird die Hypothese selbst umformuliert und in eine statistische Form (z. B. eine Nullhypothese) gebracht. Schließlich wird ein mathematisches Modell gewählt, das es ermöglicht, durch geeignete Operationen die Wahrscheinlichkeit zu berechnen, mit der die Hypothese in bezug auf die untersuchten Daten zutreffend ist. — Bemerkenswert ist, daß die Arbeitsweise der Statistik den Linguisten nicht nur zur disziplinierten Begriffs- und Hypothesenbildung zwingt, sondern auch zur Hypothesenbildung anregt. Die Kenntnis mathematischer Modelle hat schon oft zur Entdeckung v on Strukturen in den bearbeiteten Daten geführt, nach denen zunächst nicht einmal gesucht worden war. — Bei der Wahl des mathematischen Modells muß darauf geachtet werden, daß die Daten, die zur Überprüfung herangezogen werden, die Bedingungen für die Anwendbarkeit des Modells erfüllen. Wird etwa zur Durchführung eines Tests die Normalv erteilung als statistisches Modell in Betracht gezogen, so muß die betroffene Variable unbedingt auch in den Daten normalv erteilt bzw. entsprechend transformierbar sein. (3) Der dritte Schritt besteht

9. Quantitative Verfahren

aus dem Sammeln und Auswerten v on Daten und den Berechnungen, die aus der Wahl des Modells folgen. Die Benutzung v on Rechenanlagen zwingt oft zu einer bestimmten Art v on Metrisierung und zu einer Bev orzugung bestimmter Modelle sowie Zähl-, Meß- und Testv erfahren. — Dieser Schritt wird durch Computereinsatz erleichtert und in v ielen Fällen, besonders bei der Verarbeitung v on Textkorpora, erst ermöglicht. Andererseits v erführen die Möglichkeiten der maschinellen Datengewinnung auch dazu, Datensammlungen ohne v orausgehende Hypothesenbildung anzulegen (’Datengräber’; v gl. Schmitz 1983), die leider allzuoft keinem bekannten Zweck dienlich sind. (4) Das Resultat des dritten Schrittes wird durch eine oder mehrere Zahlen, eine Funktion oder eine Klassifikation dargestellt; es muß nun v on einem Statistiker beurteilt werden. Er kann feststellen, ob die Hypothese aufrechtzuerhalten oder abzulehnen ist, ob ein Testresultat als signifikant zu gelten hat, ob eine theoretische Funktion oder Verteilung die Daten adäquat repräsentiert usw. Diese Entscheidung trifft er aufgrund bestimmter Kriterien, die jedoch nicht in den Daten liegen, sondern v om Linguisten v orgegeben sind: es sind Kon v entionen. Wie solche Kon v entionen festgesetzt werden, hängt sowohl v on der wissenschaftlichen Disziplin als auch v on der Art der Fragestellung, der Wichtigkeit des Problems, der Einstellung des Forschers und der Menge der Daten ab (so sind möglicherweise an medizinische Untersuchungen strengere Kriterien anzusetzen als an eine Textanalyse zur Autorenbestimmung). — Ein Testresultat ist in keinem Fall ein Beweis, es führt lediglich zu einer Entscheidung darüber, ob die getestete Hypothese vo r l ä u f i g beibehalten werden kann, oder ob sie, ev entuell mit der Aufforderung, weitere Daten zu sammeln, abgelehnt wird. Statistische Methoden bieten dabei den Vorteil, daß sie das Risiko einer Fehlentscheidung numerisch exakt auszudrücken erlauben. Grundsätzlich wird keine Hypothese endgültig bestätigt, sondern nur entweder v erworfen oder als mehr oder weniger gestützt betrachtet. (5) Der letzte Schritt des Verfahrens besteht in der linguistischen Interpretation des Resultats, also in der Rückübersetzung in die Sprache der Linguistik und im Ziehen v on Schlüssen, die aus der nun bekräftigten oder abge-

119

lehnten linguistischen Hypothese folgen. Für diesen Schritt gelten allein linguistische Maßstäbe. Es muß jedoch betont werden, daß aus Indizes (z. B. Proportionen) ohne statistischen Test keine Schlüsse gezogen werden dürfen. Das Konstatieren eines intuitiv noch so großen Unterschiedes zwischen zwei Indizes etwa hat ohne Test keinen Wert. Andererseits lassen sich aufgrund eines durchgeführten Tests auch nur die Schlußfolgerungen ableiten, die aus der überprüften Hypothese folgen; hat diese selbst weitere Konsequenzen, so müssen auch diese überprüft werden. Betrachtet man diese fünf Phasen der statistischen Hypothesenüberprüfung im Zusammenhang, so sieht man, daß am Anfang und am Ende der Linguist steht, in dessen Auftrag die dazwischenliegenden Schritte durchgeführt werden. Wenn es sich nicht um einen statistisch geschulten Computerlinguisten handelt, muß er mit einem Statistiker, der eine Hilfsrolle beim Aufstellen der mathematischen Modelle übernimmt, und ev tl. einem Programmierer für die Datengewinnung und die Durchführung der Berechnungen zusammenarbeiten. Zwar ist das Ideal denkbar, daß alle nötigen Kenntnisse in der Person des linguistischen Forschers v ereinigt sind, doch kommt das in der Praxis kaum v or. Zudem scheinen heute gerade linguistische Probleme eine interdisziplinäre Zusammenarbeit zu fordern.

4.

Literatur (in Auswahl)

G. Altmann 1973 · G. Altmann 1978 b · G. Altmann/W. Lehfeldt 1973 · J. P. Benzecri 1970 · H. H. Bock 1974 · M. Bunge 1961 · M. Bunge 1963 · M. Bunge 1969 · R. Carnap 1969 · J. B. Carroll 1960 · W. K. Essler 1971 · G. D. Floodgate 1962 · J. Galtung 1967 · C. G. Hempel 1965 · C. G. Hempel 1974 · W. v . Humboldt 1963 · M. G. Kendall/ A. Stuart 1963 · T. Koopmans 1947 · T. S. Kuhn 1961 · W. Lehfeldt/G. Altmann 1975 · G. Maxwell 1971 · K. R. Popper 1973 · W. C. Salmon (Hrsg.) 1971 · E. Sapir 1921 · E. K. Scheuch/H. Zehnpfennig 1974 · U. Schmitz 1983 · R. R. Sokal/P. H. A. Sneath 1963 · H. Spinner 1974 · W. Stegmüller 1973 · W. Stegmüller 1969 · W. Stegmüller 1970 · H. S. Stepanov (Hrsg.) 1980.

Reinhard Köhler/Gabriel Altmann, Bochum (Bundesrepublik Deutschland)

III. Computational Linguistics III: Special Methodical Problems

120

10. Evaluierung komplexer Systeme in der Computerlinguistik: Verfahren und Anwendung 1. 1.1. 1.2. 1.3. 2. 2.1. 2.2. 2.3. 2.4. 3. 4.

1.

Umfeld und Abgrenzung Erschwerende Faktoren, Zweckbestimmung und Theorieabhängigkeit Komplexität und CL-Evaluierung Beispielbereiche Evaluierung von FAS Habitability und analytisches Denken Übersetzungstests und Simulation Empirische Evaluierung mit Prototypen Empirische Langzeitstudien und komplexe Evaluierungsmethodologie Fazit Literatur (in Auswahl)

Umfeld und Abgrenzung

Im folgenden geht es um eine Untergruppe der Ev aluierung v on Computersoftware, um die Bewertung realisierter oder geplanter Algorithmen, in denen Sprachdaten bearbeitet werden. Ausgeklammert bleiben Systeme, die dem Sprach- oder Literaturwissenschaftler die Arbeit erleichtern; es geht somit immer um die Verbesserung v on maschinellen Informationssystemen durch die Integration von Sprachverarbeitung (vgl. Krause 1984 a). 1.1. Erschwerende Faktoren, Zweckbestimmung und Theorieabhängigkeit Versucht man Algorithmen der Computerlinguistik (CL) zu bewerten — und sei es nur für die eigene Orientierung —, erweist es sich rasch, daß man relativ ungesichertes Terrain betritt. Ein nach dem Selbstv erständnis der Linguistik guter Vorschlag muß keine gute CL-Lösung sein (kann aber) — und umgekehrt. Dies ergibt sich daraus, daß der v erfolgte Zweck ein anderer ist und CL-Lösungen in der Regel eingebettet sind in größere Systemzusammenhänge (genauer Krause 1984 a). Das damit notwendig werdende Umdenken erschwert den Zugang, v or allem für Linguisten. Hinzu kommt, daß es keine homogene Ev aluierungsmethodologie gibt. Die E v aluierungs v orschläge kommen aus den v erschiedensten Forschungsrichtungen. Psychologen, Soziologen, Kognitionsforscher, Mathematiker, Informationswissenschaftler und Informatiker haben Studien mit den ihnen v ertrauten methodischen Instrumentarien und Denkansätzen durchgeführt. Einen zumindest partiellen Konsens über ein v er-

nünftiges Vorgehen gibt es nur für einzelne Teilgebiete, nicht für CL-Algorithmen als ganzes. — Die Ev aluierungsmethoden unterscheiden sich weiter nach den mit einer Bewertung v erfolgten Zielen (die sich gegenseitig nicht ausschließen müssen): (1) Ev aluierung kann z. B. in Unternehmen dazu dienen, die Auswahl zwischen konkurrierenden Produkten zu treffen. Liegen Verbesserungen und potentielle Weiterentwicklungen eines Softwarepaketes außerhalb der Möglichkeiten des Käufers (was in der Regel zutrifft), interessiert nur das Urteil „besser“ oder „schlechter“, nicht aber Fehlerursachen. — (2) Ev aluierung kann quasi eine v erlängerte Systembeschreibung sein; sie soll demonstrieren, was das eigene System leistet, wo die Grenzen liegen (v gl. z. B. Tennant 1979, 2). — (3) Ev aluierung kann „Forschungsv ehikel“ sein, das Instrumentarium, das zwischen alternativ en Hypothesen entscheidet und in einem permanenten iterativ en Prozeß die Entwicklung eines Fachgebietes v orantreibt. Letzteres steht hier im Mittelpunkt. Zentrales Bewertungskriterium für eine Ev aluierungsmethode ist somit der Nutzen der mit ihr erreichbaren Ergebnisse für die schrittweise Weiterentwicklung einer speziellen Softwarelösung oder eines ganzen Fachgebietes (z. B. Hinweise auf die generelle Architektur v on natürlichsprachlichen Mensch-MaschineSchnittstellen). Je nach der zugrunde gelegten Theorie über den Zusammenhang zwischen Mensch und Computer bei der Mensch-Maschine-Interaktion (MMI) und zwischen MMI und Sprachv erarbeitung unterscheidet sich der Stellenwert v on Ev aluierungsstudien für die Fortentwicklung: (a) Geht man z. B. dav on aus, daß die MMI am erfolgreichsten durch eine Simulation zwischenmenschlichen Verhaltens realisiert wird, hat der empirische Systemtest bestenfalls zweitrangige Bedeutung. Man weiß aus der Beobachtung zwischenmenschlichen Sprachv erhaltens, was bei der MMI zu erwarten ist; Ev aluierungsstudien kommt der Charakter einer Bestätigung und Funktionsüberprüfung zu. — (b) Zentral werden Ev aluierungsstudien bei der theoretischen Grundannahme, die MMI lasse sich nicht generell als Abbild zwischenmenschlicher Kommunikation erklären, sondern laufe nach eigenständigen Gesetzmäßigkeiten ab (z. B. Zoltan/Weeks/Ford 1982;

10.  Evaluierung komplexer Systeme

Krause 1982 a und 1983; Zoeppritz 1985 a und 1985 b). In diesem Fall ist die Ev aluierung das entscheidende Instrument, die Gesetzmäßigkeiten der MMI (und den Bereich ihrer Übereinstimmung mit der zwischenmenschlichen Kommunikation) herauszufinden. Erst die empirische Fundierung durch MMI-E v aluierung löst Zustimmungsbereitschaft für Aussagen zu CL-Lösungen aus. Da der Stellenwert in hohem Maße den tolerierbaren Aufwand an Zeit und Geld für Ev aluierungsstudien festlegt und es in bezug auf den notwendigen Aufwand deutliche Unterschiede zwischen den v erschiedenen Bewertungsmethoden gibt, beeinflußt die theoretische Grundhaltung einer Forschergruppe — wenn auch indirekt — fast unv ermeidlich die Auswahl der v E aluierungsmethode. Allerdings läßt sich in der Forschungsrealität nicht immer der Schluß ziehen, hoher Ev aluierungsaufwand bedinge die theoretische Grundhaltung (b). Ev aluierungsv orhaben können Ziele (mit)v erfolgen, die im sozialen und politischen Umfeld eines Wissenschaftlers begründet sind. Wenn Ev aluierungen Politiker oder Firmenleitungen v om Wert eines Systems überzeugen, sind sie dem Wissenschaftler, der Forschungsgelder benötigt, v iel Mühe wert. Politiker wiederum scheinen mit Ev aluierungen oft andere Ziele als die unter (1)—(3) angeführten zu v erfolgen. Die Analysen v on Floden/Weiner 1978 („Rationality to Ritual: The Multiple Roles of Ev aluation in Gov ernmental Processes„) dürften auch auf die MMI zutreffen. Danach haben Ev aluierungsstudien — allein durch ihre Existenz, unabhängig v on den erreichten Ergebnissen — ein hohes Konfliktlösungspotential (S. 13 f.), erhöhen die Zufriedenheit der beteiligten Benutzergruppen bei der Einführung v on Neuerungen (S. 14 f.) und v ermitteln die (notwendige) Suggestion, politische Entscheidungen fielen auf der Grundlage rationeller und wissenschaftlich abgesicherter (Evaluierungs-)erkenntnisse (S. 16 f.). 1.2. Komplexität und CL-Evaluierung Versteht man das Zusammenwirken mehrerer Komponenten als wesentliches Merkmal v on Komplexität, lassen sich die beiden Begriffe unter zwei Gesichtspunkten v erknüpfen: (a) Die Komplexität kann systemseitig auftreten. Dies bedeutet je nach der eingenommenen theoretischen Grundhaltung etwas v erschiedenes. Geht man dav on aus, daß sich linguistische Analysen, ohne nennenswerte Nebeneffekte auszulösen, in maschi-

121

nelle Informationssysteme integrieren lassen, liegt die CL-Komplexität zwangsweise in einem mehrgliedrigen Aufbau der CL-Komponente; komplexe Systeme sind dann z. B. solche, die nicht nur syntaktische, sondern semantische und/oder pragmatische Aspekte berücksichtigen. Sieht man dagegen, daß CLKomponenten in der Regel nur ein Teilelement innerhalb größerer Systeme sind und daß es in der Regel nicht fruchtbar ist, CLTeilelemente ohne ihren Systemkontext zu bewerten, gerade weil v on einer hohen gegenseitigen Beeinflussung ausgegangen wird, muß sich CL-Komplexität aus der Komplexität des gesamten maschinellen Informationssystems ableiten. Systemkomplexität für CLLösungen läßt sich bei diesem Blickwinkel nicht mehr aus dem Umfang der „Linguistik“ im CL-Teilalgorithmus bestimmen. Entscheidend ist die Beeinflussung des Gesamtsystems. In diesem Sinne sind Dialogsysteme (z. B. auch Referenz-Retriev alsysteme) mit CL-Teilalgorithmen immer als potentiell komplexe Systeme zu betrachten. Da allein diese Sichtweise auf CL-Komplexität bei Ev aluierungen sinnv oll erscheint, liegt sie hier zugrunde. — (b) Ev aluierung selbst kann mehrschichtig sein. Neuere Entwicklungen zeigen einen klaren Trend zu einer komplexen Ev aluierungsmethodologie. Den Schwächen der einzelnen Verfahren, die im Lauf der letzten Jahre immer deutlicher wurden, wird mit einem Verbund v erschiedener Methoden begegnet. Der Zusammenhang zwischen komplexer Ev aluierung und CL-Komplexität ist sehr stark. Dies scheint nur folgerichtig, wenn man bedenkt, welch v erschiedene Aspekte (Psychologie, Arbeitsorganisation, Sprachv erhalten, Informatik) bei der MMI zusammenwirken. 1.3. Beispielbereiche Aus Platzgründen muß die Breite und die Problematik der Bewertung v on CL-Lösungen exemplarisch demonstriert werden. Sucht man Bereiche, in denen Ev aluierungsstrategien am v ielschichtigsten ausgeprägt sind und an denen sich die in 1.1. und 1.2. genannten Probleme deutlich zeigen, fällt die Wahl fast zwangsläufig auf natürlichsprachliche Frage-Antwort-Systeme (FAS), ergänzt um komplexere Ev aluierungsansätze bei der Texterschließung für Referenz-Retrie v alsysteme. Im ersteren Gebiet hat sich eine große Vielfalt v on Methoden herausgebildet, letzteres ergänzt sie durch statistisch-mathematisch geprägte Bewertungen auf der Grund-

III. Computational Linguistics III: Special Methodical Problems

122

lage v on Relev anzurteilen. Bei beiden Gebieten ist heute das Dialogv erhalten des Benutzers entscheidend, was in der Regel zu komplexen Informationsvorgängen führt.

2.

Evaluierung von FAS

Der Zugang wird v . a. für die Zeit bis 1970 über die Diskussion einiger früherer Aufsätze gesucht; danach geben die durchgeführten Evaluierungsstudien eine gute Leitlinie. 2.1. Habitability und analytisches Denken In dem Aufsatz v on Watt 1968 spiegeln sich die grundsätzlichen Entwicklungslinien und -möglichkeiten v on FAS bis in die heutige Zeit (v gl. auch Krause 1983), v erbunden mit einem ersten Versuch, Meßgrößen für die Erfolgsbewertung festzulegen. Watt sieht die Grundproblematik bei der Entwicklung v on FAS in der Div ergenz zweier Forderungen: Einerseits soll der Sprachumfang eines FAS möglichst klein sein (Subset), damit es unterhalb der Komplexitätsbarriere bleibt und ökonomisch arbeitet. Andererseits muß der Benutzer in der restringierten Anfragesprache seinen Informationswunsch problemlos ausdrücken können. Letztere Entwicklungslinie, die zu einer Ausweitung der Fähigkeiten v on FAS führt, hat sich bis heute ungebrochen behauptet. Auch die Begründungen für einzelne Erweiterungen haben sich seit Watt kaum geändert: Was im zwischenmenschlichen Dialog gebraucht wird, gilt zumindest auf der funktionalen Ebene als notwendig für die MMI. Wie schon bei Watt angedeutet, geht der Weg v on der Semantik zur Pragmatik (v gl. auch Kuhlen 1985). Da dieser Standpunkt einerseits eine hohe Plausibilität hat und andererseits ’herrschende Lehre’ v erkörpert, bleibt der Wunsch, Erweiterungsabsichten durch Ev aluierungsstudien zu untermauern, gering. Die Forderung nach Ev aluierung stützt sich hier in der Regel auf den Wunsch nachzuweisen, daß das anv isierte Ziel erreicht wurde, und die Erkenntnis, daß immer nur ein Teilbereich der bei der zwischenmenschlichen Kommunikation beobachteten Phänomene in das FAS integriert werden kann. Zu testen bleibt somit, ob der gewählte Ausschnitt sich in Anwendungssituationen bewährt. — Sieht man letzteren Aspekt genereller, fällt er mit der Suche nach Restriktionsregeln in Watt 1968 zusammen. Welche sprachlichen Äußerungen gehören zum Subset und welche nicht? Gibt es Kriterien für diese Auswahl? Watt v ersucht v or dem Hin-

tergrund der Transformationsgrammatik v on Chomsky Reduktionsregeln für eine Subsetdefinition zu finden. Methodisch gesehen arbeitet er qualitativ -analytisch (zum Inhalt v gl. Krause 1982 a, 22—25). In enger Anlehnung an eine Sprachtheorie und unter Rückgriff auf die eigene Sprachkompetenz, die nicht aus der MMI, sondern aus der zwischenmenschlichen Sprach v erwendung herrührt, nimmt er eine Bewertung alternativ er Design-Entscheidungen v or. Diese Bewertungsmethode ist auch heute noch die v erbreitetste. Daß sie isoliert angewendet schnell in Sackgassen führen kann, zeigt sich schon bei Watt 1968 (vgl. Krause 1982 a, 22 f.). 2.2. Übersetzungstests und Simulation Die hier behandelten Methoden zeichnen sich dadurch aus, daß die Ev aluierung ohne (experimentelles) System erfolgt. 2.2.1. Rosenbaum 1968 Rosenbaum 1968 ist die früheste empirische Ev aluierungsstudie zum hier behandelten Bereich. Sie basiert auf der Subset-Problematik. Die generell für die MMI entwickelte „English Grammar II“ wird danach getestet, ob der Subset erlernbar und relativ fehlerfrei anwendbar ist. In einem ersten Schritt werden Protokolle übersetzt, in einem zweiten formuliert der Proband Beobachtungen ü b e r eine im Film gesehene Dialogsequenz, formuliert somit, was sich nach der gedanklichen Durchdringung der Filmszene ergibt. Dies zeigt im Ansatz den heute noch gültigen Ausweg aus dem Zwang, in der Testaufgabe sprachliche Vorgaben kaum umgehen zu können: Wo möglich, ist die v erbale durch andere Kommunikationsformen (z. B. Bilder) zu ersetzen; wo dies nicht durchführbar erscheint, sollte die v orgegebene sprachliche Formulierung nur in einem indirekten (deduktiv en) Zusammenhang zur Benutzerformulierung stehen. 2.2.2. Simulierte natürlichsprachliche MMI Sie ist bis heute eine der beliebtesten Ev aluierungsmethoden. Das Grundmuster bleibt immer gleich: Das natürlichsprachliche Interface wird durch einen Menschen ersetzt. Technisch gesehen v erbindet man zwei Bildschirme mit Tastatur, die in getrennten Räumen stehen. Der Benutzer gibt seine Frage über das Terminal ein (ev entuell über zusätzliche Kanäle wie Graphik und gesprochene Sprache); der den Computer simulierende menschliche Dialogpartner empfängt die

10.  Evaluierung komplexer Systeme

Frage über sein Terminal und schickt die Antwort auf den Benutzerbildschirm zurück. Aus dem Dialogv erhalten des Benutzers soll geschlossen werden, welche Fähigkeiten ein ideales Interface haben müsse. Der Grundgedanke, natürlichsprachliche MMI auf diese Weise zu simulieren, findet sich bereits als Teil des Turingtests (v gl. Turing 1950). Ein prototypisches Beispiel ist Malhotra 1975. Neuere Beispiele sind Sidner 1980 (v gl. auch Woods 1983 a), Bates/Sidner 1983 und Hofmann 1985. Der Hauptv orteil dieser Methode ist, daß weder Software- noch Hardwarelösungen technisch realisiert sein müssen und Störfaktoren ausgeschaltet bleiben. Der Benutzer wird zudem nicht durch Erfahrungen mit einem stark restringierten Interface dazu v erführt, sich während des Tests suboptimal an die Schwächen des zu bewertenden experimentellen Systems anzupassen. Diese Vorteile v erbinden sich mit einem relativ niedrigen Kosten- und Zeitwaufwand, was zusammengenommen die Beliebtheit dieser Ev aluierungsmethode erklärt. Allerdings lassen sich auch die Nachteile nicht wegdiskutieren. Im Kern handelt es sich um einen zwischenmenschlichen Dialog v ia Terminal. Fraglich bleibt schon, ob der den Computer simulierende Mensch bei sich wiederholenden Fragekonstellationen immer gleich antwortet und inwieweit der Benutzer bei diesem Testdesign nicht doch im MenschMensch-Modus v erbleibt (v gl. auch Zoeppritz 1986). Geht man dav on aus, daß die MMI über eigenständige Gesetzmäßigkeiten v erfügt (v gl. Krause 1982 a; 1983; 1984 a; Zoltan/Weeks/Ford 1982; Zoeppritz 1985 a), die zum größten Teil noch unbekannt sind, kann die MMI-Simulation v ollends kein adäquates Ev aluierungsinstrument sein. — Diese Überlegungen führen dazu, die simulierte MMI nur als erste grobe Annäherung anzusehen. So ist in Kelley 1984 die Simulation ein erster Schritt, dessen Ergebnisse bei der Entwicklung eines Prototypen berücksichtigt werden. Danach findet ein Benutzertest mit dem Prototypen statt; simuliert werden nur noch die fehlenden Teile; die Ev aluierung wird bei jedem iterativ en Bewertungsschritt realitätsnäher. — Man kann sich weiter fragen, ob die simulierte MMI wesentliche Vorteile gegenüber dem weniger aufwendigen Verfahren hat, Erkenntnisse aus dem zwischenmenschlichen Dialogv erhalten auf die MMI zu übertragen. Beispiele aus neuerer Zeit sind Pollack/Hirschberg/Webber 1982 (v gl. auch Webber 1983 b) und Zol-

123

tan/Weeks/Ford 1982. Sieht man v on der Auswahl der Dialogmitschnitte ab, bleibt als Unterschied der benutzte Kanal; bei der simulierten MMI wird der „richtige“ Kanal (meist Terminaleingabe) benutzt. Inwieweit v erschiedene Kanäle Unterschiede im Dialog v erursachen, ist selbst Gegenstand v on Ev aluierungsstudien nach der in Abschnitt 2 angeführten Methodik (Chapanis 1973 und 1975; Zoltan/Weeks/Ford 1982). Da sich deutliche Unterschiede bei der Verwendung v erschiedener Kanäle ergeben — und dies Ergebnis auch aus linguistischer Sicht nicht überrascht (z. B. Telefonstil) —, erscheint es sinnv oll, zumindest die Kanalv erfälschung aus den Tests herauszuhalten, zumal der Mehraufwand relativ gering ist. 2.3. Empirische Evaluierung mit Prototypen Die Forderungen nach diesem Ev aluierungstyp nehmen seit Mitte der 70er Jahre ständig zu (Petrick 1976, 327 f.; Woods 1977, 523; Waltz 1977, 150; Tennant 1979, 2 ff. und die Arbeiten zur USL-Ev aluierung (v gl. 2.4.)). Daß es dennoch bis heute relativ wenige Studien dieser Art gibt, liegt an den schwierigen Voraussetzungen, nicht an der mangelnden Akzeptanz der Methode. — Die erste Systemev aluierung wurde 1971 mit LUNAR durchgeführt v( gl. Woods/Kaplan/Nash-Webber 1972, 5.2 f. und Woods 1977, 557—560). Anläßlich der „Second Annual Lunar Science Conference“ in Houston (Texas) konnten Geologen drei Tage lang Fragen (111 insgesamt) zum Mondgestein der Apollo-Mission an LUNAR richten. Die Fehlerraten und die qualitativ e Analyse der Fehler bilden die Grundlage für eine noch recht informelle Bewertung. Die Maße ’semantische Adäquatheit’ und ’fully habitability’ v on Watt 1968 finden in v eränderter Form Verwendung v( gl. Woods/Kaplan/Nash-Webber 1972, 5.6 und Woods 1977, 560—563). Von ähnlich informellen Systemeinsätzen berichten Codd et al. 1978, 82 und Codd 1978, 23—26 für RENDEVOUS (etwa 30 Personen lösten v erbal v orgegebene Aufgaben) und Harris 1977 a, 308 für ROBOT. Die Ev aluierungen v on Tennant 1979 (zur Planung v gl. Tennant 1978) zu den FAS „Automatic Adv isor“ und PLANES gehören dagegen zur Kategorie der kontrollierten Tests. Benutzer waren Univ ersitätsstudenten, die Aufgaben zu lösen hatten. Diese wurden so formuliert, daß die Benutzersprache möglichst zurücktrat (z. B. Tabellen, Diagramme

124

zum Auffüllen). Tennant 1979 v erzichtet auf Fehlerzahlen, Anfragemengen und ähnliches, berichtet jedoch ausführlich über die Arten der Fehler, die v or allem die konzeptuelle Vollständigkeit des Systems betreffen. Die konzeptuelle und linguistische Vollständigkeit sind Meßwerte, die Tennant 1979, 4—8 denen der semantischen Adäquatheit und „fully habitability“ v on Woods/Kaplan/Nash-Webber 1972, 5.6 entgegensetzt (zur Diskussion vgl. Krause 1982 a, 25 ff.): “The degree to which the concepts that are expected by a set of users can actually be found in the system’s conceptual cov erage is the CONCEPTUAL COMPLETENESS of the natural language processor, with respect to the set of users. Similarly, the degree to which the language of a set of users is appropriately analyzed by the system is the LINGUISTIC COMPLETENESS of the natural language processor with respect to that set of users” (Tennant 1979, 6).

Kontrollierte Tests sind v . a. bei der Ev aluierung formalsprachlicher Benutzerschnittstellen, die hier ausgespart bleiben, beliebt (v gl. als Überblick Lehmann/Blaser 1979; Reisner 1981). Vergleichstests zwischen for-

Abb. 10.1: Evaluierungskonzept FAS

III. Computational Linguistics III: Special Methodical Problems

malen und natürlichsprachlichen Abfragemöglichkeiten enthalten Greenblatt/Waxmann 1978; Small/Weldon 1977 und Shneiderman 1978 (v gl. auch Shneiderman/Mayer 1979 und die Kritik in Zoeppritz 1985 b und 1986). 2.4. Empirische Langzeitstudien und komplexe Evaluierungsmethodologie Die hier dargestellten Studien kennzeichnen den heute erreichten Ev aluierungsstand, sowohl im Hinblick auf die zugrundeliegende Methodologie als auch bezüglich der inhaltlichen Aussagen. Die früheste ausgewertete Langzeitev aluierung eines Systemeinsatzes (12 Monate, 788 Anfragen) fand mit TQA (Transformational Query Answering) statt (v gl. Damerau 1979); Benutzer waren Mitarbeiter eines Planungsbüros. Die Auswertung diente v or allem der funktionalen Überprüfung (v gl. die Diskussion in Krause 1982 a, 83—85). Mehrstufige Konzepte finden sich dann bei der Ev aluierung des FAS „User Specialty Languages“ (USL); es ist das am extensiv sten und am

10.  Evaluierung komplexer Systeme

häufigsten ve aluierte natürlichsprachliche FAS. Die mehrstufigen Ev aluierungen zu USL beziehen die Mehrzahl der bisher genannten Ev aluierungsmethoden mit ein und v erbinden sie zu einem komplexen Methodenv erbund; der Schwerpunkt liegt auf empirischen Fallstudien in realen Anwendungssituationen. Insgesamt wurden über 12 000 Anfragen v on etwa 100 Benutzern zur deutsch- und englischsprachigen Version v on USL ausgewertet. Jarke/Krause/Vassiliou 1986 geben einen ausführlichen Überblick (mit weiterführenden Literaturangaben) zur USL-Ev aluierung. Die beiden größten Studien sind die KFG- (Krause 1980, Krause 1982 a) und ALP-Studie (Vassiliou et al. 1983; Turner et al. 1984; Jarke et al. 1985, Jarke/Krause 1985 a; Jarke/Krause 1985 b). Sie können als teilweise Realisierung eines komplexen E v aluierungskonzeptes interpretiert werden, wie es in Abb. 10.1 skizziert ist. Den Kern der KFG-Ev aluierung bildet eine Feldstudie mit der deutschsprachigen USL-Version. Drei Lehrer untersuchten die prognostische Relev anz v on Zeugnisnoten auf die Abiturleistung. Sie stellten während 16 Monaten 7 278 Fragen. Schwerpunkt der v or allem qualitativ orientierten Auswertung sind Fehler und Fehlerfolgen. Die Übersetzungstests zum Vergleich natürlichsprachlicher v s. formalsprachlicher Abfragemöglichkeit wurden mit Studenten durchgeführt, in einem späteren Projekt mit einer Sekretärinnengruppe wiederholt (v gl. Krause et al. 1983, Kap. 5). Sie haben im Gesamtrahmen der KFG-Studie eher untergeordnete Bedeutung, im Gegensatz zur ALP-Studie, bei der ein Vergleich mit der formalen Abfragesprache SQL im Vordergrund stand. Grundlage v on ALP war eine englischsprachige USLVersion, die mit einer Datenbank der Verwaltung der New York Univ ersity (AlumniSpendensystem) eingesetzt wurde. Die ALPStudie besteht aus zwei kontrollierten Laborexperimenten (8 und 61 Studenten; Aufgabenlösung mit Papier und Bleistift, 1 019 Fragen) und einer Feldstudie, bei der SQL und die natürliche Sprache zur Lösung der gleichen Aufgaben herangezogen wurden (8 Studenten, 1 081 Fragen). Ausgangspunkt waren echte Problemstellungen, die in einem Gespräch zwischen den Bearbeitern der Spendenproblematik und den Probanden festgelegt wurden (request-Ebene). Die Probanden formulierten die Aufgaben für die Terminalsitzung in die eigene Terminologie um (taskEbene) und v ersuchten sie durch eine Reihe v on Einzelabfragen zu lösen. Die in einem

125

ersten Schritt quantitativ angelegte Auswertung (gelöste Aufgaben, Fehleranzahl, Eingabelänge, Wortwahl u. ä.) wurde in einem zweiten Schritt durch ein qualitativ -interpretatives Vorgehen ergänzt.

3.

Fazit

Die Entwicklung bei der Ev aluierung natürlichsprachlicher FAS zeigt eine deutliche Hinwendung zu komplexen mehrstufigen Studien, die die v erschiedensten Ansätze zusammenfassen. Es wäre falsch, die in 2.1.—2.4. aufgezeigte historische Entwicklung als Ablösung eines Verfahrens durch andere zu interpretieren. Die Methoden ergänzen sich; sie finden Anwendung je nach Entwicklungsstand und v erfolgter Absicht. Abgelöst werden dagegen nicht-komplexe durch komplexe mehrstufige Verfahren; nur so kann der zwangsläufigen Komplexität der Systeme adäquat begegnet werden. Eine ähnliche Entwicklung findet bei der Bewertung v on Referenz-Retriev alsystemen statt v( gl. hierzu Sparck-Jones 1981; Jochum/Reiner 1983; Fuhr/Knorz 1984; Krause 1984 b; Schneider 1985; Krause 1987). Eine adäquate Bewertung der CL-Komplexität erfordert auch hier zusätzliche Komponenten zur traditionell statistisch-mathematisch ausgerichteten Retrie v altest-E v aluierung auf der Grundlage von Relevanzurteilen. Bei den FAS dürfte eine der wesentlichsten Fragen für die Zukunft sein, ob sich ein „computer talk“ empirisch belegen läßt, oder anders ausgedrückt, ob sich nachweisen läßt, daß die MMI zumindest in Teilbereichen eigenständigen Gesetzmäßigkeiten gehorcht, die sich nicht aus der zwischenmenschlichen Kommunikation ableiten lassen (v gl. Zoltan et al. 1982; Krause 1982 a; Zoeppritz 1983 und 1985 a, Krause 1989). In diesem Fall käme komplexen empirischen Ev aluierungsstudien die entscheidende Rolle bei der Weiterentwicklung der MMI zu.

4.

Literatur (in Auswahl)

M. Bates/C. L. Sidner 1983 · A. Chapanis 1973 · A. Chapanis 1975 · E. F. Codd 1978 · E. F. Codd et al. 1978 · F. J. Damerau 1979 · R. Floden/S. Weiner 1978 · N. Fuhr/G. Knorz 1984 · D. Greenblatt/J. Waxmann 1978 · L. R. Harris 1977 a · J. Hofmann 1985 · M. Jarke et al. 1985 · M. Jarke/J. Krause 1985 a · M. Jarke/J. Krause 1985 b · M. Jarke/J. Krause/Y. Vassiliou 1986 · F. Jochum/U. Reiner 1983 · J. F. Kelley 1984 · J. Krause 1980 · J.

126

Krause 1982 a · J. Krause 1983 · J. Krause 1984 a · J. Krause 1984 b · J. Krause 1987 · J. Krause 1989 · J. Krause et al. 1983 · R. Kuhlen 1985 · H. Lehmann/A. Blaser 1979 · A. Malhotra 1975 · S. R. Petrick 1976 · M. Pollack/J. Hirschberg/B. Webber 1982 · P. Rosenbaum 1968 · P. Reisner 1981 · C. Schneider 1985 · B. Shneiderman 1978 · B. Shneiderman /R. Mayer 1979 · C. L. Sidner 1980 · D. W. Small/L. J. Weldon 1977 · K. SparckJones 1981 · H. Tennant 1978 · H. Tennant 1979 ·

III. Computational Linguistics III: Special Methodical Problems

A. Turing 1950 · J. A. Turner et al. 1984 · Y. Vassiliou et al. 1983 · D. L. Waltz 1977 · W. C. Watt 1968 · B. L. Webber 1983 b · W. A. Woods 1977 · W. A. Woods 1983 a · W. A. Woods/R. J. Kaplan/B. Nash-Webber 1972 · M. Zoeppritz 1983 · M. Zoeppritz 1985 a · M. Zoeppritz 1985 b · M. Zoeppritz 1986 · E. Zoltan/G. D. Weeks/W. R. Ford 1982.

Jürgen Krause, Regensburg (Bundesrepublik Deutschland)

127

IV. Computer-Aided Description of Language Systems I: Basic Problems Computergestützte Beschreibung von Sprache I: Grundprobleme

11. 1. 2. 3. 4. 5. 6. 7.

1.

Theoretical Aspects of Computer-Aided Description of Language Systems Introduction Towards a Classification of the Applications of Computers in Linguistics Corpora Lexical Databases Syntax, Meaning, and Discourse Structure Conclusions Literature (selected)

Introduction

Linguistics is mostly treated as an empirical science; it is only rarely denied that linguistic theories and their subparts are hypotheses which should be checked as for their relative adequacy with respect to some kind of data. Even Chomskyan linguistics with all its emphasis on generalizations to be reflected by formal frameworks, including also substantial portions of deductive reasoning, treats linguistics as an empirical domain; the question whether the observational data serving as a basis for evaluating the adequacy of hypotheses should consist (entirely, or primarily) in introspection or in recorded discourses is substantial, as we shall see later; however, it is not immediately relevant for the basically empirical nature of the science of language. Montague’s (1970) view of natural language as describable by the same methods by which logicians describe the formal languages they themselves create cannot be fully accepted: natural language exists as an object which is to be described, rather than constructed; its grammar, lexicon, and semantics have to be examined. In order to find out how natural languages are structured, it is necessary to pass over from what Chomsky calls the level of observational adequacy to that of descriptive adequacy and, whenever possi-

ble, to reach at least some stages of explanatory adequacy. Even if we do not go so far as Yngve (1983) in assuming that a truly scientific linguistic research cannot be “disciplined by grammar”, it is beyond any doubt that already the way from sound to phoneme, and the more that from the observational data to a description of structures, requires a complex progression by means of trial and error, in which the specification of grammar can only be understood as grasping prototypical cases, directly related to linguistic norms (which are fully identical neither with usage in its full range, nor with a codification of the norm by linguists and their institutions); it is not the task of such a specification of linguistic norm to handle all possible deviations, although many of them are easily found in the usage being accepted in discourses and easily understood by hearers. A theory of possible deviation may itself be grounded on core principles of a grammatical theory. The sources of empirical material for linguistic investigations have always been limited to a few kinds of data. The following four cases can be mentioned: (i) A corpus of written or spoken discourses and their subparts, ranging from excerpted occurrences of expressions chosen according to a specific research topic to a general-purpose set of data. As was stated e. g. by Bergenholtz and Schaeder (1977 a), a corpus can never present a fully general characterization of a living language with its varieties of different kinds; always a more or less representative choice has to be made. Under Chomskyan views of the dichotomy of competence versus performance, corpus data were relegated to the field of performance and thus believed, rather than found, to be

128

IV. Computer-Aided Description of Language Systems I:Basic Problems

unsuitable; see Aarts and van den Heuvel (1985, 304), who point out that since the middle of the 1960’s numerous attempts to reestablish the corpus as a valuable research tool have been made, and that an appropriate relationship between corpus data and introspection can be established if corpus is understood as a test bed for hypotheses about the structure of the corpus language. (ii) Introspection. If linguists use their own intuitions about language as the basic source of observational data, this can do for the core of the structure of language; however, as has been well known in structural linguistics, and confirmed by the recent experience of discussions within generative grammar, for more subtle questions the subjective nature of these data often leads to discrepancies concerning the “dialect” (or idiolect) that is being analyzed. Although discussions often stumble over “some speakers finding this set of sentences rather unacceptable than merely odd”, etc., introspection cannot be excluded from the sources of observational data, since without it a great part of l i nguistic phenomena could not be properly discussed, since they occur in actual discourses so rarely that practically they cannot be found in a corpus. Thus, the formulation of general hypotheses (rules, restrictions, principles) would be impossible without using introspection together with other sources of linguistic knowledge. (iii) Informants. When testing informants, intuition is again present as a source of observational data; however, it is important that in this case one works with the intuition of a neutral speaker, rather than with that of the linguist him- or herself (who is interested in the results, and who may become uncertain as to the appropriate use of the given item after a certain amount of introspective effort); moreover, as recalled by Rieger (1981 b, 200), it is possible and useful to observe the informants’ behavior in a relevant situation or their reactions to characteristic contexts, rather than to address their intuitions directly. Also the study of aphasias and the results of various psycholinguistic tests have been helpful. (iv) Experience with applications. Important sources of knowledge for linguistic research have always been found in the more or less successful, partial or complex results of applications of linguistic theories in language teaching and learning, translation, standardization and ’language culture’, including the

study of errors made by native speakers, speakers of a second language, translators, and others. Under this view of the nature of linguistic research, it can be stated that computers will be more and more useful in what concerns points (i) — compilation, maintainance, updating and exploitation of corpora (as well as of databases arranged for the aims of linguistic research) — and (iv) — extension of the applications of linguistics. Due to the frequent and manifold cases of ambiguity, vagueness and irregularity intrinsic to natural language, it does not seem probable that computers will play a major role in the formulation of hypotheses (descriptions, theories). They can be expected to present an efficient help in preparing the data for human insight to formulate such hypotheses, and in testing them as for their adequacy and consistency. Only when a theory has achieved the shape of a formal framework, also an automatic proof system can be used for its further development. Nevertheless, although the role of computers in linguistics thus appears to be mainly that of an auxiliary tool, it can be seen that already in the last two decades the influence of the use of computers on theoretical linguistic discussions has been quite substantial. In the future the broad spread of computers and of their networks certainly will be of even much greater impact on theoretical linguistics. In the following paragraphs we want to help to elucidate this apparent paradox. Since the size of a corpus (especially of one with a general purpose) should be as large as possible, the use of computers in arranging and updating corpora is of a substantial help even if no linguistically specific software is applied. With specific programs it is possible to use linguistic (especially lexical) databases, to tag a corpus (i. e. to add grammatical and possibly other information to its individual word tokens; the basic data specified by tagging is the word class), to parse a text, to apply various simple and complex statistical techniques, and so on. All these activities have been often performed manually, and if done by computers, they generally require some kind of prearrangement (compilation of a database, pre-editing a text) and/or of postediting (emending the mistakes made by the program). It is here where the use of computers as tools for the testing (and thus partially also for the formulation) of linguistic hypotheses starts.

11.  Theoretical Aspects of Computer-Aided Description

2.

Towards a Classification of the Applications in Linguistics

A relatively complete survey of the various ways in which linguists use computers is presented by Butler (1985 a; 1985 b, Sect. I.2), who points out to what degree even such rather simple tasks as lemmatization (assignment of the basic form, i. e. of the lexical unit corresponding to an inflected form) presents difficulties to computerization (i. e. to an algorithmic and implementable treatment). Also the issues concerning style and literature theory (disputed authorship, chronological sequencing), which cannot be given due attention in our contribution, are treated by Butler, as well as the ways in which instructions and textual data can be fed into the computer, and results extracted from it; ready-made ’package’ programs determined for a naive computer user are briefly described, and some practical aspects of the use of microcomputers and of programming languages designed specifically for applications in text analysis (SNOBOL 4, ICON) are amptly displayed in the quoted book. It should be noted that the research in computer linguistics has always been typically scattered; the existence of a research group or institution of more than 15 people has been at most exceptional. Even if some of the approaches to the use of computers spread from one group to several others, a unified broad trend or complex project never came into being. Up to the end of the 1970s theoretical linguistics seldom paid a systematic attention to the aspects of research connected with computers. The parsers included in machine translation systems, as well as Winograd’s (1972) analysis were based on linguistic theories not belongig to the most widespread trends. Transformational grammar was used as the theoretical basis for an automatic syntactic analysis (parser) since Petrick (1973) and for a system of random generation of sentences by Friedman (1969 b), both concerned with English. Later, an approach to parsing related to transformational description was developed by Marcus, M. P. (1980) in his deterministic parser. However, as Ramsey notes in art. 18 of the present volume, sect. 3.1.1., for many researchers the indirect way in which transformational description relates meaning to sound appeared less intuitive and economical than a sequence of operations

129

leading directly from sound to meaning and from meaning to sound, although the asymmetrical dualism of linguistic sign (i. e. the existence of ambiguity and of synonymy) makes it necessary to work with a one-tomany relationship in each direction (see also Sgall, 1968). Transformational grammar thus has had much less influence in computational linguistics than in linguistic theory. It remains to be seen whether the more recent form of Chomsky’s (1981 a; 1982) theory (the ’government and binding’ theory, in which the X-bar syntax and a set of general principles with differences in parameters substitute the older abundancy of syntactic rules) is more suitable as a basis for computational elaboration. Berwick and Weinberg (1984) present a fundamental analysis of the relationship between the current theory of transformational grammar and the aspects of language use (performance), which are represented by parsing; cf. also Barton (1984), where certain preconditions of a substantial adjustment of parsing to the modular theories of syntax are discussed. Various approaches have attempted at a more immediate treatment of the relationship between linguistic competence and performance. After such older experimental systems as those of machine translation and natural language understanding, in the 1980’s several approaches have endeavoured both a theoretical description of language structure and an implementable account of language use. Some of them are mainly theoretically oriented, but present also means for a computational handling of parsing and of other phenomena from the domain of performance; this concerns first of all Gazdar’s generalized phrase structure grammar and Bresnan’s lexical functional grammar (see the bibliographical data on these and other approaches in article 18, 31 and 32 of the present volume). Also Montague grammar, which originally attempted at a general account of syntactic-algebraic operations, rather than of mere concatenation, has found computational treatments in several projects. The procedurally based theoretical net-linguistics has been investigated from the viewpoint of parallel programming; see Schnelle (1981; 1985), Rothacker (1985). With other approaches, such as those by Kay, Woods, Pereira and Warren, or Joshi, the computational aspects have perhaps been the first objects of research, but the theoretical issues are systematically elaborated, too,

130

IV. Computer-Aided Description of Language Systems I:Basic Problems

with important insights. Among these, one of the most interesting concerns the notion of unification, used by several kinds of description and characterized briefly by Karttunen (1984; 1985). Vijay-Shanker and Joshi (1985) and the writings quoted there present a valuable comparison of several frameworks. In Europe, several approaches based on dependency syntax have been formulated; as for their American ancestors, see Hays (1964 b) and Robinson (1970). Kunze (1975; 1982 b) and Hellwig (1978 a) describe German, Apresjan (1980) works first of all (though by far not only) with Russian, Nagao et al. (1984) with Japanese, Charpin (1985) with Latin; Sgall (1967 a; et al. 1969; 1986) and Plátek et al. (1984) present a framework that should cover Czech and other Slavic languages as well as English. Most of the just quoted approaches want to characterize the relationship between sound and meaning in a more direct way than transformation grammar does. However, due to the scattered character of both theoretical and computationally oriented research, we still are at the beginning of a deeper understanding of how a theoretical description of the system of language should be conceived to be directly implantable in a systematic description of the regularities of language use. Coming back to the questions of how to classify the various uses of computers in linguistics (without which an account of language use hardly would be feasible), we want to point out several criteria which may be understood as a useful basis for a classification. We discuss the linguistic aspects of the use of computers here rather than the issues of computer software, so that criteria concerning the kinds, structures and functions of computer programs and their packages are not considered. This is given by the fact that the present author as a linguist does not dare to estimate the main points of the next evolution of the programming techniques, the trends of which change rapidly due to the quick development of the hardware; if the efforts aiming at a further substantial change of programming itself are successful, bringing programming nearer to the human communication in natural language, then the software techniques may differ quite substantially from those of our days. However, the empirical problems of linguistics and the nature of forming hypotheses on the basis of human invention themselves will remain. In future research, the criteria we discuss

may be compared as to their impact on the classification of the linguistic uses of computers and to their clustering properties, which would be useful if a typology of computer applications in linguistics is to be established. 2.1.  The first of them concerns the fact that most linguistic theories work with several levels of the structure of language — from phonetics and phonemics (not to speak about graphemics) through morphemics to the grammatical structure of the sentence (surface syntax, etc.) and to one or more deeper, underlying sentence structures; the patterning of discourse, which belongs to the domain of human (communicative) action, rather than to the structure of language, as well as the cognitive structures of various kinds (intensional semantics, cognitive networks and scenarios known from artificial intelligence), require other means of inquiry than those proper to linguistics in a narrow sense. The complexity of natural language, which is at the source of the generally accepted principle of its modular description using a division into levels, also underlies the fact that the use of computers in natural language description is much more complicated a task than might be assumed at the first glance. There is a far reaching difference between easily accessible levels of language structure, the patterning of which can be handled by a computer program relatively easily, and other levels, an automatic treatment of which is much more difficult. Thus, much has been done already in the use of computers for statistical and structural inquiry of graphemics, phonemics and some subdomains of morphemics, especially of lexemics. Statistical studies based on corpora are characterized in article 12 of this Handbook; the whole domain of quantitative linguistics, including taxometrical and other complex methods, is relevant here. It can be seen in article 15 and 16 that even the relationship between phonemes and graphemes is far from being simple; see also Sgall (1986). In what concerns a computerized description of morphemics, there are first of all the difficult questions how to formulate a morphemic analysis so that it is capable of handling also the newly coined or encountered words, as far as they are inflected (and derived) in accordance with productive paradigms; an effective generally linguistic algorithm, which can use different sets of input data to describe

11.  Theoretical Aspects of Computer-Aided Description

different languages also belongs to the interesting goals in this domain. On the other hand, the levels concerning syntax require first to reach a deeper understanding of the kinds of mutual relationships between the elementary and complex units of the individual levels; here the differences between the approaches to theoretical linguistics are more relevant for computer oriented research than they are elsewhere. Due to the empirical character of linguistics, it is necessary to study the observable phenomena in such a way as to understand their interrelationships and thus to go deeper, from sounds to phonemes, from morphs to morphemes and to syntax, from lexical morphs by means of lemmatization and disambiguation to lexical meanings, from morphemes and syntax to the layers of meaning (including both semantic and pragmatic aspects) which are closely connected with Frege’s principle of compositionality (according to which the meanings of complex expressions are determined — directly or indirectly — by those of their parts). As we have stated, most linguistic approaches distinguish also different levels of sentence structure (one of which, according to some approaches, can be understood as a level of disambiguated, though literal, sentence meaning). It is also generally accepted that lexical units have to be classified into word classes (though only for prototypical cases there are generally accepted criteria for this classification) and that, in the structure of a sentence, the verb occupies a central position. Not only verbs, but also nouns, adjectives and adverbs (as well as some pronouns) have their valency (case) frames, or theta role sets; some of the slots in these frames are obligatory, others are optional; some slots (i. e. some kinds of complementations) are inner participants (deep cases), others are free adverbials. In some approaches more or less tentative enumerations of the different kinds of complementations were formulated, but the underlying criteria of such a classification are discussed rather rarely. To what extent, in what parts of these subdomains of language description, and in which ways can computers be used? (a) Much experience has already been gained in applying computers to assemble, identify and count the units of the relatively accessible levels, using more or less standard statistical routines for an evaluation of the identified relationships; let us add that spoken input still can be handled only to a

131

limited extent (if lists of words or of short commands for robots, and so on, are given; an acoustic analysis of connected speech has not yet been made available for computers at a broader scale), so that even the data concerning phonemics have to be gained from printed or typed input, i. e. either via an algorithmic transition form graphemes to phonemes, which is much easier e. g. for Spanish or Finnish than for English, or from phonetic or phonemic transcriptions. (b) Computers can be used to identify the regular (frequent, or otherwise determined) combinations of units of the accessible levels — e. g. cooccurrence of graphemes, or of word forms, an so on. (c) In accordance with the deeper relationships stated (i. e. hypothesized) by researchers, computers can handle (perhaps in interaction, or with pre- and postediting) also deeper issues; this concerns the tagging of a corpus as well as testing a (part of a) grammar by means of a system of random generation of sentences or by other means (as for the corpora, see art. 12 and 13 of this Handbook; computational testing of language models is discussed in art. 21 and 22). Since syntax belongs to the relatively unaccessible layers of language, it is not surprising that also article 18 of this Handbook, devoted to the use of computers in connection with syntax, is much more concerned with syntactic frameworks used for experimental and applicational goals, i. e. first of all with parsers, than with the use of computers for the proper aims of linguistic research itself. Articles 31 and 32, directly devoted to parsing as simulating natural language syntactic processes, may be understood as corroborating the view that an extensive use of parsers for practical purposes, which can be expected to take place in the future decades, will serve for practically important and therefore urgent efforts devoted to testing syntactic theories and comparing them for their adequacy and efficiency. The epoch of widespread use of machine translation and various kinds of systems of human-machine communication will also be an epoch of big institutes active in large scale automatic data processing, the extensive experience in which will provide a valuable practical groundwork for future research; see Plath (1963, 52). In such difficult domains as syntax, this indirect effect of the use of computers (designed first for practical applications, and only then to test the theoretical assumptions)

132

IV. Computer-Aided Description of Language Systems I:Basic Problems

probably will be more important than a direct exploitation of computers for the purposes of linguistic research in the sense of paragraph (b) above. 2.2.  Thus we have come to the second important criterion of our classification: the computer is either used for the purposes of practical applications, or for the aims of linguistic research itself. Among the applications some — concerning the lower layers of information retrieval and natural language interface to databases — are linguistically rather uninteresting. Non-trivial tasks concern either deeper layers of text retrieval, see esp. Karlgren and Walker (1983) and the systems of Thinking Machines, Inc., or general-purpose transportable user oriented query systems, which are user-friendly e. g. in that they avoid stonewalling, see Joshi et al. (1984), Kaplan (1983), Zoeppritz (1984). Grapheme-to-phoneme conversion systems, on which more can be found in articles 15 and 16 of the Handbook, are useful for linguistics itself as well as for a number of practical applications including speech synthesizers. Many other kinds of applications might be enumerated; among the linguistically most interesting ones there is the large domain of machine translation. The attempts at a rapid word-for-word translation, based on comprehensive lists of lexical and phraseological units, may be practically useful, although the inadequacies of their output often lead to their development into (or replacement by) other systems, especially those of machine aided translation (interactive or not, with ’automatic dictionaries’, text processors and other tools) and so called second-generation systems, using linguistically based parsers; now see esp. Slocum (1985), Vauquois and Boitet (1985), Thouin (1982), Nagao et al. (1985), Wilks (1983 a), Rohrer (1986). Methodically, some urgent problems of this field concern the complexity of parsers and the difficulties connected with the incompleteness of linguistic knowledge, see Nagao et al. (1984), and with a modular handling of syntax, which should make it possible to add new rules (or change old ones) for desired amendments of the parser (while avoiding unexpected side-effects). For this purpose often a specific software is aimed at, which should keep the grammar apart from the processor itself, and thus allow the linguist to write down the rules using a usual linguistic

notation. Since not only linguistic, but also factual knowledge has to be used at different stages of translation, one either works with systems requiring a considerable amount of human postediting, or one prepares experiments with systems which also include a knowledge base and/or rules of inference, reasoning schemes, etc., i. e. which work with natural language comprehension in the sense of artificial intelligence, now see Bátori (1986), Saluveer and Õim (1986); cf. also sect. 5 below. Machine translation represents an extensive repertoire of projects, some of which certainly will become important for practical aims and then also for broad practical testing of linguistic hypotheses (cf. what we stated at the end of sect. 2.1.). Even more challenging for linguistics (since requiring a deeper syntactico-semantic and pragmatic analysis of texts) are such tasks within the experimental domain of artificial intelligence as automatic compilation of knowledge bases from input texts in natural language, natural language contact with expert systems, general systems of communication with robots, interfaces to teaching systems, and so on. As Sparck Jones (1984) states, projects of these kinds probably will replace database queries as stimulating tasks useful for fundamental research on natural language understanding. An experiment with a knowledge base compiled from text with the use of a syntacticosemantic analysis and of inference rules (combining two utterances into a complex one, e. g. with a relative clause, shortening the utterances which contain unnecessary items, taking causal clauses out of complex sentences, operating with hyponymy, etc.) is reported by Hajičová/Sgall (1984); for a project using PROLOG and Kamp’s discourse representation structures, see Frey et al. (1982); Wahlster (1981) analyzes several problems of argumentation and approximative inferencing in dialog systems. A characterization of the dialogue oriented projects carried out in Hamburg was presented by Hahn et al. (1980), Hoeppner/Morik (1983). Among other kinds of the use of computers oriented to practical applications of linguistic knowledge, there is computer assisted instruction in foreign language teaching; its perspectives, as discussed e. g. by Pusack/ Otto (1984), appear to offer manifold possibilities from grammar practice and vocabulary acquisition (with the new words occurring in typical context positions) to linguistic databases serving as reference utilities; on the

11.  Theoretical Aspects of Computer-Aided Description

other hand, it seems that in the domains of pronunciation and conversation the use of computers will remain rather limited in the next future; the Athena project of M. I. T. is one of the few relevant attempts. We cannot dwell here on such applications as text editing or detection of spelling errors and misprints, although here linguistics also plays an important role (cf. e. g. the IBM Epistle system for a correcting grammar). The linguistically oriented practical applications of computers are not limited to technologies, to an intensification or routine skills. Their aims include making humans freer for creative activities. Moreover, as Burns (1984) illustrates, in such domains as computer-assisted rhetorics and stylistics the humanist’s goals in aesthetic understanding are directly pursued. There are various possibilities how to combine the use of computers for practical applications and for instrinsic linguistic purposes. One of them, namely a parser designed for interactive use during which a (restricted) linguistic description can be constructed and tested, is characterized by Philipps/Thompson (1985). Up to now computational tools have been used by linguists mainly for applications in this or that kind of translation (from one natural language to another, or to a code concerning a database, to a knowledge representation, and so on); however, now the conditions are present for computational tools specifically geared to doing linguistics to become less rare: powerful computers are less expensive now, and many computational linguists have realized that natural language processing needs grammars and other essentially linguistic components; see Gazdar (1985). This spreading consciousness of the necessary connection between a description of language structure and the use of computers concerns also many theoretical and structural linguists, who are becoming more aware of the advantages of using specifically linguistic software for the aims of a complex description of language. The use of computers directly for linguistic aims can again be divided according to more specific purposes; the main dichotomy can be seen here in the difference between systems used for linguistic analysis itself and those used for testing the hypotheses formulated on the basis of an analysis. In the former domain the most important area can be seen in the computerized or com-

133

puter assisted analysis (tagging) of corpora, to which we return in sect. 3 and 5 below. Other areas concern computer aids for subdomains of linguistic research. Such a computational tool designed for linguists developing grammars of the shape of generalized phrase structure is described by Evans (1985), who stresses that his system, though large and still difficult to handle, helps to ’debug’ a grammar which (due to the complex character of natural language) cannot be effectively tested without such a tool. The use of computers in simpler tasks than grammar writing — e. g. in compiling concordances (even if they are more sophisticated than the known KWIC system) or dictionaries of different kinds (including frequency and reverse dictionaries) — is much more straightforward; the most interesting systems of this kind in lexicology are lexical databases, some comments on which can be found in sect. 4 below. In the domain of discourse structure computers are used for research concerning experimental systems of artificial intelligence (see sect. 5), and many of these projects and publications are of direct importance for theoretical linguistics, especially for the theories of discourse (or text) structure; here the main difference between ’sentence linguistics’ and ’text linguistics’ should be preferably seen in the opposition of language system versus language use (communicative action), rather than the question whether sequences longer than a sentence are examined, since a discourse can consist in an occurrence of just one sentence (i. e. in a single utterance, which differs from the abstract sentence in occurring in a specific situation, connected with reference assignment concerning the referring expressions it contains, and so on). Statistical and other empirical analyses of text structure are effectively facilitated by partly or fully computerized text corpora (see sect. 1 (i) above and sect. 3 below). Also studies concerning language development and reconstruction can use computers, see e. g. M. Johnson’s (1985) computer assisted comparative dictionary, serving also to tracing regular sound changes which can be supposed to have occurred in the languages compared (the first test concerned the Yuman family in Northern America). Indo-European etymologies also have been similarly treated by various research groups. It seems that no part of linguistics will remain untouched by a direct impact of computer use in the next years. Computers can

134

IV. Computer-Aided Description of Language Systems I:Basic Problems

play a role in forcing rigorous consistency of the linguist’s formulations, in testing correctness and completeness of analyses, and in comparing disparate approaches to linguistic phenomena; if certain conditions of linguistically appropriate design are met (with the use of such operations as unification and others), then not only grammars can be tested by means of automatic analyses of sentences, but it is also possible to determine whether certain properties of a grammar provably obtain and whether some axiom of one theory might be provable in another; see Shieber (1985 c). Several systems have been so designed as to be useful for different tools — experimental as well as descriptive and others; besides PATR-II, constructed at Stanford Research Institute, this concerns the Lexicrunch system, described by Golding and Thompson (1985), which can be used in various kinds of work with lexical units, morphemics and word formation. Another multi-purpose system, which can be used as a parser, a hierarchical database system and as a system for queries of information written in natural language is characterized by van der Steen (1984). Thus the division of computerized systems into those serving for practical applications of linguistics and those useful for linguistic research itself is not quite clearcut, which certainly cannot diminish the importance of such a classificatory criterion. 2.3.  From what was stated in the previous paragraphs it follows that also the relative complexness of the aims pursued by the use of computers in linguistics may be used as a classificatory criterion. With respect to such subdomains of language as graphemics, phonemics, or (partly) the lexicon, it is possible to distinguish several degrees of complexity of the tasks of automated research. Statistics is applied rather easily by computers, even if complex mathematical routines are used, which often is highly useful. Also a compilation of indexes and concordances of different kinds (from KWIC to those connected with lemmatization, i. e. determining word forms as belonging to a certain lexical unit) can be classed as not much complex; even so, a certain amount of human interference is useful, whenever ambiguity is present. Methodically much more complex are such tasks as those concerning a classification of items according to their intrinsic features (as far as these are not immediately accessible to computers),

and almost all interesting tasks concerning the levels of the syntax of the sentence, not to speak about discourse patterns. 2.4.  Another important opposition, the impact of which has been brought to my attention by Karen Sparck Jones (personal communication), consists in the difference between systems helping the linguist to learn something about the object of her/his study (i. e. about something else than the computer) and systems serving to find out how computerized language processing itself should be done. Systems of the latter kind are those belonging to basic research, rather than to the domains of application; they are useful for testing hypotheses concerning the nature of language and its use. If e. g. automatic reference resolution procedures are designed and processed, they belong here if they are used for research in psycholinguistics, rather than for practical aims of information retrieval; this concerns also experiments in summarizing texts, in machine translation, and so on. For the future development of computational linguistics, systems of the latter kind certainly are of major importance. As we have seen in sect. 2.1., computer assisted research of those levels of language which are not easily accessible to automatic procedures hardly can become efficient on a large scale without these systems, and, moreover, a secondary effect of extensive practical applications probably will be substantial for the study of such levels, as well as for the research in discourse structure, i. e. in the use of language, and in its psychological background. 2.5.  Classification itself is just a useful tool for a better orientation in the methods appropriate for individual subdomains, and its criteria certainly will be enriched on the basis of future development of computational linguistics itself and the surrounding domains from hardware to cognitive science. In the given situation, when the interest in the use of computers in linguistics keeps growing and the possibility of large-scale projects may be foreseen, it is important to prepare a division of labor and of partial tasks between the relevant domains of science. Linguists should be prepared to cooperate with specialists in computer science more broadly and intensively than has been possible up to now, since the programming of complex procedures,

11.  Theoretical Aspects of Computer-Aided Description

which are necessary even for the processing of restricted domains of natural languages, needs special insight into look-up methods, ways how to master the combinatorics of syntactic relations at various levels, how to choose and handle appropriate interactive means, and so on. On the other hand it should be kept in mind that a thorough exploitation of all the results of traditional and structural linguistics is highly useful for computers to be used in a rational, economical manner; a proper treatment of the individual features of various languages requires good knowledge of what descriptive and contrastive linguistics, as well as the typology of languages can tell us about the languages of the world. A suitable starting point for a systematic cooperation between linguists and logicians seems to consist in recognizing a language specific patterning of literal meaning, be it called the underlying structure of sentence, the tectogrammatical level, or otherwise. The tasks of linguistics then concern the description of the relationship between this level and the outer shape of sentences and of discourse, while the logicians’ cooperation is needed to handle the correspondences between meaning in the linguistic sense and truth conditions, or, perhaps, other fundamental layers of semantics. A treatment of pragmatics and communication activities cannot be complete without collaboration with psychologists, whose role in cognitive science and artificial intelligence should be further increased. Thus, a varied interdisciplinary research will be typical for the future of the domain. In the following paragraphs we want to characterize briefly the issues of those subdomains of linguistics which have already achieved a significant level of computerization.

3.

Corpora

It can be easily understood why English is the language best equipped with general-purpose corpora available in machine-readable form. The specific problems of constructions and representativeness of corpora can be found in article 12 of the Handbook, and a survey and typology of the existing corpora is presented in article 13; for a concise information and bibliographical data on the research based on the main corpora, see also Butler (1985 a, 59). Here we comment briefly upon

135

some questions of their use in the context of computational linguistics. It should be noted that for the first large text collection, the Brown corpus, containing 500 texts in different styles of printed American English (in total length of approximately one million word tokens) a concordance and a tagged version are available on magnetic tape. While the Lancaster-Oslo-Bergen corpus is its counterpart for British English, sharing the quoted parameters, the LondonLund corpus is smaller, its importance consisting first of all in that it contains samples of spoken discourse (in educated British English), derived from the Survey of English Usage, see Svartvik/Quirk (eds.) (1980); the samples are equipped with prosodic marking and cover different styles from spontaneous conversation to lectures. Corpora have different uses in linguistics and its applications, from helping “ordinarily working grammarians” to testing hypotheses. For tasks concerning the less accessible levels of language and language use, a tagged corpus is necessary. Tagging itself can be computerized to a high degree, since the bulk of supplying the words or word forms by appropriate labels of part of speech membership and of other morphemic (or some syntactic) properties can be made on the basis of algorithms; for a language different from English, see Karlsson (1985). In some typical cases a tagging program employs look-up in a dictionary and, for word forms not found there, in a list of endings and productive suffixes; whenever more than one tag can be chosen, the most frequent one can be automatically preferred; also heuristic rules on context frames were formulated. However, manual testing and correction are always needed. Problems connected with the compilation of a large corpus were discussed, on the basis of the experience with Brown corpus, by Francis (1979); one of the main points consists in the specification of future inquiries for which the prepared corpus should be used; in the case of such a generally usable collection as with Brown corpus, the shape of the corpus has to be adjusted to the needs of all tasks which can be foreseen. Further requirements on a corpus are formulated by Maegaard and Ruus (ms.), who state that if a corpus should represent a text type as a whole, a systematic influence of individual texts must be excluded (by including only short segments of single texts, chosen by

136

IV. Computer-Aided Description of Language Systems I:Basic Problems

means of random numbers); moreover, a corpus should be homogeneous (representing a single text type). It is necessary to remove the prejudices against the use of corpus data that resulted from the one-sided preference of linguistic competence, rather than performance, as the object of linguistic research. The intuitive data gained by introspection play an essential role in linguistic inquiries, but the corpus appropriately serves as a test bed for the linguist’s hypotheses; see Aarts and van den Heuvel (1985). A computerized corpus requires the means of description to lend themselves to automation, i. e. to be explicit enough for implementation; thus, corpusbased research belongs to computational linguistics, with an emphasis on large quantities of data to be analyzed. As the authors further conclude, corpus linguistics is descriptive, rather than theoretical, in that its primary objective is the description of individual languages, rather than an inquiry into the language faculty (in Saussurean or Chomskyan terms). Moreover, a corpus is a collection of historical linguistic events, so that corpus linguistics deals with actual language use, and thus also with language varieties. Ideally, also the linguistically relevant aspects of the situation of the discourse should be dealt with, and the phenomena of register (fiction, drama, primary dialogue, ...), medium (spoken, printed), and style are to be investigated, e. g. by means of a set of corpora distinguishing different language varieties (codes), rather than representing cross-sections of different varieties of the studied language. The basic tool for the analysis of a corpus (tagging included) is a formal grammar (rather than a computer program), which is relatively independent of the computer and therefore allows a discussion about the hypotheses embedded in it. The authors add that the grammar should be automatically convertible into a parser, which also is the case of their ’extended affix grammar’, working with two subsequent syntactic components, each of which is context free, though the pair as a whole is more powerful. Such generative power is proper also to the description characterized by Plátek/Sgall 1978 and Plátek/ Sgall/Sgall 1984. Since the tagged or analyzed corpus should serve as a linguistic database the users of which come from various linguistic backgrounds and are committed to different kinds of language research, the classification of

words, morphemes and relations in the corpus should be acceptable to a large variety of linguists and therefore fairly traditional labels are preferable, as Aarts and van den Heuvel (1985, p. 310, 333) argue. Moreover, consistency in the analysis of the utterances in a corpus has to be guaranteed, even though the analysis is typically executed by a team. To this aim the authors (pp. 318 ff.) have designed a ’linguist’s workbench’, with which the decisions made by the linguist at the terminal are recorded in order to make the process that has resulted in a set of analyzed utterances fully reproducible. The grammar underlying the analysis cannot be changed from within the workbench; the latter organizes the communication between the corpus, the grammar, a specifically designed database system (language independent, menu driven and standing close to that of relational databases), the lexicon, a local lexicon (making it possible to extend the lexicon for the duration of one session, e. g. in proper names, jargon words and other expressions likely to return in the subcorpus under consideration, although not included in the main lexicon), and the ’logbook’ file, in which the linguist’s actions are automatically recorded. The linguist has a set of automatic functions at her/ his disposal here (such as ’analyse’, ’look up in lexicon’, ’extend lexicon’), as well as compound functions, mainly cycles, going through the necessary steps of the analysis of an utterance or of a sequence of utterances. The linguist’s interventions are necessary with words not found in the lexicon, perhaps with the specification of sentence boundaries, and first of all whenever the analysis of a complex expression could not be completed automatically (for this case it is useful to include an automatic indication up to what point in the utterance the analysis has proceeded). It seems that often the unclearness of classification criteria and the fuzziness of linguistic phenomena lower the reliability of the traditional kinds of tagging and its usefulness for the testing of theories. — It should be mentioned here that the Longman Dictionary of Contemporary English (see also Michiels et al., 1981) now is accessible on-line; a machine readable version of the Oxford Second Language Learner’s English Dictionary, where case frames are associated with the lexical entries, will be of great importance. Semiautomatic tagging (with pre- and postediting), its developments and perspec-

11.  Theoretical Aspects of Computer-Aided Description

tives are discussed on the basis of the experience with the Lancaster-Oslo-Bergen corpus by Leech et al. (1983), see also Beale (1985). An interactive tagging procedure in four levels, concerning the London-Lund corpus, is described by Svartvik (1984): about 100 word-class tags are assigned to the word occurrences in the text at the word level, five kinds of phrases are distinguished at the phrase level, five syntactic positions are identified at the clause level, and — no sentence level being handled in this approach to spoken texts — such expressions as I’am sorry, never mind , etc., are classified as appologies, smoothovers, and so on, at what is called a discourse level.

4.

Lexical Databases

Lexical systems in which the entries are organized according to principles of database structure, with associated information accessible at different levels, make it possible to use these data in ways for which the traditional sequential organization in alphabetical order is not suitable (although sequential dictionaries on computer media certainly are useful for various aims). As characterized in Calzolari (1983 d) and in the writings quoted there, the Italian Machine Dictionary (DMI), consisting of a set of more than 100 000 lexical units, a set of more than a million word forms and a set of ’definitions’, with morphological, syntactic and semantic data on each of these items, substantiates the view that the lexicon can be represented as a dynamic system belonging to the core of a computational description of language. Calzolari (1984 a) points out how hyponymy, and also certain syntagmatic relations between lexical units can be interactively evidenced. This aspect, as well as the nature of search strategies in DMI and the easiness of frequency counts, concordance compilation and other look-up tasks are stressed by Calzolari and Picchi (1984). Perspectively, computerized dictionaries will be used to a variety of aims, such as identification of inflected forms, correction of misspellings, finding lexical definitions, synonyms, etymologies, and so on, as Kay (1984 b) points out on the basis of the implemented version of the American Heritage Dictionary. A comprehensive computerized dictionary of English is being prepared by the Oxford English Dictionary project at the University of Waterloo.

137

An account of the major machine readable dictionaries of German (which were compiled for the aims of machine translation, question answering, information retrieval, and so on), is presented by Heß/Brustkern/ Lenders (1983), where the ways are discussed how to integrate these dictionaries and to provide the resulting database with a homogeneous structure. The implementation of the collected lexical database of German in the Institute for Communication Research of the Bonn University in cooperation with the Institute for German Language in Mannheim and with the Saarland University in Saarbrü cken, is described by Brustkern et al. (1986); the database, organized in accordance with the system SESAM, contains 300 000 word forms, a great part of which is equipped by relatively rich grammatical data. In a project of computational lexicology in Aachen a procedural model of “spreading activation”, which uses cluster-analysing methods, has been prepared, see Rieger, B. (1985); as the examples suggest, even with an enormous corpus it would be difficult to distinguish pure or partial synonyms from such frequently cooccurring pairs as Geschäft vs. Kenntnis, or Elektron vs. Computer. On the other hand, in language understanding systems the representation of semantic dispositions resulting from the system’s function can serve as connotative default values in solving ambiguity and vagueness problems, as the author states. A numerical measure of meaning is supposed to have to be based upon structural properties of open sets and dynamically organizing systems. Similar procedures have also been elaborated at Thinking Machines, Inc.

5.

Syntax, Meaning, and Discourse Structure

An appropriate basis for computer assisted inquiries into the less accessible levels of language structure and into text patterns consists in tagged corpora. Several reports of their exploitation for the aims of syntactic analysis were presented at the 6th ICAME Conference on English Language Research on Computerized Corpora, see the summaries published in ICAME News 10, 1986, 10—61. A possibility how to analyse relative clauses on such a base is outlined by de Haan (1984 b). Several further projects using tagged corpora for specific tasks of linguistic description are reported in other volumes of

138

IV. Computer-Aided Description of Language Systems I:Basic Problems

ICAME News. How the way from tagging to a parser can be thrust by means of a calculation of probabilities for competing structures, is illustrated (on the basis of techniques successfully used in tagging the Lancaster-OsloBergen corpus) by Leech and Garside (1985). A possibility to build a parser with the aid of a computer was suggested already by Kulagina (1962). A way in which parsing can be based on lexical information has been characterized by the Word Expert Parser of Rieger, Ch. and Small (1979); now see Eimermacher (1986) on one of its recent versions, which allows for using the contextual properties of words to the aim of restricting the necessity of backtracking as well as of abundancy of syntactic rules. Berwick (1983 a) points out how word expert parsing can be handled and evaluated in the context of contemporary, constraint-oriented transformational grammar. The use of non-linguistic expert systems in connection with parsing (and also with synthesis) for the aims of machine translation is discussed by Boitet and Gerber (1986). Another possibility how to cope with the complexness of syntactic analysis, and also with its procedural character, was outlined by Schnelle (1984). One of the ways how to avoid the use of complex frameworks handling the sentence syntax by means of trees with unnecessarily many nodes can be seen in the use of dependency syntax, applied on parsing of English by Kirschner (1982). A model of a relatively easy parsability of a language is investigated as for its connection with a model of easy learnability by Berwick (1984 b), the result being that certain constraints ensuring efficient parsability (in a sense close to Marcus’ deterministic parser) also guarantee easy learnability (for which an explicit criterion is used). An approach to the algorithmic treatment of the fuzziness of lexical meaning was characterized by Rieger, B. (1984; 1985); as we already remarked in sect. 4 above, also here it seems probable that computerized procedures can only be used in combination with human insight. One of the aims of such an interaction in interpreting lexical as well as syntactic units may be to find out which choice should be made among the spectrum of such layers of analysis as those that are necessary for intensional and other opaque contexts; see Hobbs (ed.) (1985). Since one of the main trends in contemporary linguistics is a shift of the center of attention from language system to language

use, it is not surprising that several attempts have been made to use computers also in the research of discourse structure; computational models of aspects of discourse have been often constructed in close connection with the research in the experimental domain of artificial intelligence (natural language comprehension, knowledge representation, natural language interfaces to expert systems and intelligent robots, automatic compilation of knowledge bases). Scenarios or scripts are used as the basis for the description of typical complex actions, see esp. Schank (1973), Bobrow/Winograd (1977). For such systems to have a general basis, it is necessary to exploit the patterning of natural language, the universal character of which may ensure that not only ad-hoc procedures are formulated, i. e. that when the time comes to adjust a system to a new domain of application, it will not be necessary to rebuild it radically; an attempt at a procedure using inference rules for a transduction of linguistically based underlying representations of sentences into semantic networks is outlined by Hajičová/ Sgall (1984), cf. sect. 2.2. above. The linguistic background of the inquiries into discourse structure and human-machine communication is often studied with a specific attention paid to phenomena concerning the coherence of a text, especially to coreference (anaphora). The communication function of natural language has its impact also in the structure of the sentence, the topicfocus articulation of which is of primary importance for text coherence. This articulation (relevant for presuppositions and for the scope of negation) and the communicative dynamism (semantically relevant in what concerns the scopes of operators and related phenomena) has to be systematically accounted for, since only such a description of the sentence can be considered adequate, that can be directly embedded into an account of the use of language in communication; see Sgall et al. (1973; 1986); Hajičová (1983); Hajičová/Sgall (1985). How this articulation and the coherence of the discourse interact with the degrees of salience (activation, prominence) of the items in the stocks of knowledge of the speaker and of the hearer, was further studied by Hajičová/Vrbová (1981) and, under such headings as ’focus of attention’, by Grosz (1981), Grosz/Sidner (1986), McKeown (1985), and others. Topic and comment (focus) are used as basic ingredients of a text analysis aiming at automatic

11.  Theoretical Aspects of Computer-Aided Description

summarization by Hahn, U. (1984 a). An experimental system using some of the fundamental approaches of cognitive science to the aim of knowledge representation and connecting them with a procedural determination of sentence topics on the basis of activation of subparts and/or elements of the cognitive space is characterized by Hofmann (1986). The possibility to use a tagged corpus for a study in text linguistics was illustrated by Gustafsson (1982). Enkvist’s approach to topicalization was applied here in a statistically based inquiry which has shown that e. g. free adjuncts are much easier to topicalize (in the sense of Chomskyan linguistics) than obligatory ones (valency adverbials); another, less clear result is that among the main factors for topicalization there is the textually unmarked, though grammatically marked type (in which a ’given’, i. e. contextually bound item is fronted). An example of using a tagged corpus in combination with multivariate techniques for the purpose of a description of variation in language is presented by Biber (1985), who points out how factor analysis, if based on results of empirical research, can help to identify clusters of features cooccurring in individual text types; as for English, the oppositions of interactional vs. informational (edited) and of abstract vs. situated texts were established in this way. The fact that a discourse belongs to the domain of human (communicative) action is duly reflected in J. F. Allen’s (1983) attempt at a procedure modelling the way in which a hearer may identify the speaker’s plan and goals, where certain concepts of speech-act theory are used. This concerns also Rothkegel (1986), who attempts at combining text understanding with machine translation. Another aprroach to text organization within a theory of action was presented by Mann (1984 a). Human communicative activity, to which discourse belongs as a specific (though prototypical) case, is determined by much more complex questions than just the knowledge of a language; discourse is influenced by factual knowledge and/or beliefs and other attitudes, aims and psychological motives of all kinds. Therefore, discourse should be viewed as a sequence (or even a more complex collection) of utterance tokens together with their sense (which includes reference assignment to the referring expressions contained in the utterance), rather than as a se-

139

quence of sentences (where the sentence is a unit of language systems, of linguistic competence). A formal model of discourse thus belongs more to the domain of simulation of the use of language than to that of description of language system. A detailed characterization of this domain can be found in art. 23—36 of this Handbook.

6.

Conclusions

6.1.  In this article of the Handbook we are interested in the description of language system, rather than in the simulation of language behavior. The structure of natural language has been influenced by the fact that languages exist and develop in the environment of human communication. The impact of the main function of language on its structure may be seen in the anthropomorphic character of the basic ontological patterns underlying word classes (with individuals or objects, their properties and mutual relations as the primitive units) and of the sentence patterns (with actor — action — objective and bearer — property as the archetypes) as well as in the procedural character of the sentence with its ’dynamic’ topic-focus articulation. The latter is derived from the communicative function as being advantageous for the ’given-new’ strategy; it enables the sentence to be used as an instruction for the hearer to concentrate on some items which are easily available in her/his memory and to put them into more or less new relationships among themselves or with other (perhaps not so easily available) items. Thus, linguistic descriptions should be so formulated as to account for these properties of the structure of the sentence and its parts. The approaches to linguistic description formulated in structural as well as in modern theoretical linguistics, before the use of computers has been really wide-spread, will maintain their basic, not only historical, importance. The development of the empirical linguistic research can only proceed in further steps of trial and error. This can hardly be changed by even a massive application of computational techniques, since the computer can only be used as a tool. The main progression of linguistic research always leads from data observation through hypotheses to their testing on some other or larger data sets, amending them or formulating new empirically based hypotheses, i. e. theories, which again should be tested. Observational

140

IV. Computer-Aided Description of Language Systems I:Basic Problems

data nowadays are organized in machinereadable corpora, in lexical and other databases, for the compilation and complementation of which (including tagging and other kinds of classification) computers can be used only within interactional systems; thus, human insight will remain crucial, even if in the future it becomes possible to use computers to a larger extent also for formulating or amending (generalizing, refining) hypotheses. A linguistic theory will be needed in this sense as a basis for any classification of the phenomena observed (or of a set of deeper units derived from such phenomena). It can be argued that a well motivated linguistic approach, a sophisticated, though preliminary description is a prerequisite for the next stage in the increase of explanatory power. One stage of linguistic theory is a precondition for gaining another, higher level of deducing an underlying linguistic system from language phenomena. 6.2.  However, the help of computer for a quick exploitation of the massive of data which today can be made accessible for automatic analysis is extremely effective, if organized on the basis of systematic linguistic research. Therefore the apparent paradox quoted above in sect. 1 need not be surprising: the computer is nothing more than a tool in linguistics, but it is a tool powerful enough to make the next steps in the cycles of formulation and testing of linguistic theories substantially more far-reaching than what we are used to. Even so it is important to keep in mind that each of these — however large — steps can find useful inspiration in the preceding stages of the large-scale development of research (since the regular waves of attention concentrated on another issue in each of the steps may be intensified, rather than lowered by the increasing use of cumputers). Thus, the importance of a non-interrupted continuity in the development of theoretical linguistics does not diminish. Not to be directly, intensively interested in what was done in our science some decades ago, where the methods we have now were not yet available, this means to undergo a risk of falling into one blind alley after another. 6.3.  Due to the universal character of natural language, in which every human thought can be encoded with the desired degree of precision (since natural language always can be enriched by the necessary expressions, without changing its basic structure), a systematic

description of the language system is also of great use for the practical applications. For every subarea of experiments and applications in computational linguistics and in the linguistically oriented domains of artificial intelligence it holds that to ensure a safe basis for future generelizations, for changes of the kind of texts to be processed, and so on, it is useful to remain as close to the structure of natural language as possible. The irregularities, ambiguities and other intricacies of the outer shape of natural language can be handled economically, if we succeed to identify its underlying structure, which retains the richness of the language without carrying with it all the burdens. As we have seen in sect. 2.1 above, up to now the research in computational linguistics has been rather scattered among small groups, and the nontrivial applications mostly have not reached a larger scale. However, it can be expected that practical needs will require wide-spread processing of natural language texts on the basis of linguistically based systems — for the aims of translation, of knowledge bases compilation and of other kinds of human-machine communication in which the encoding and decoding duties will be transferred more and more completely to the computer. This practically conditioned broad testing of linguistic descriptions, if consciously used by linguists, will be decisive for linguistic theory to gain a new level of adequacy.

Acknowledgement I am indebted for valuable remarks to the manuscript of this contribution to Robert Berwick, Karen Sparck Jones, and Eva Hajičová.

7.

Literature (selected)

J. Aarts/T. van den Heuvel 1985 · J. Allen 1983 · J. Bátori/H. J. Weber 1986 · H. Bergenholtz/B. Schaeder 1977 · R. C. Berwick 1983 · R. C. Berwick/A. S. Weinberg 1984 · C. Boitet/R. Gerber 1986 · C. S. Butler 1985 a · N. Calzolari 1983 · A. R. Golding/H. S. Thompson 1985 · B. J. Grosz 1981 · E. Hajičová/P. Sgall 1984, 1985 · P. Hellwig/H. Lehmann 1986 · K. Heß/J. Brustkern/W. Lenders 1983 · S. Johansson 1982 · A. Joshi 1982 · A. Joshi/B. Webber/R. M. Weischedel 1984 · J. Kunze 1982 · G. Leech/R. Garside/E. Atwell 1983 · M. Marcus 1980 · M. Nagao 1985 · J. P. Pusack/ S. E. K. Otto 1984 · B. B. Rieger 1981 · H. Schnelle 1984 · P. Sgall 1984 · S. M. Shieber 1985 · H. Slocum 1985 · B. Vauquois/Ch. Boitet 1985 · W. Wahlster 1981.

Petr Sgall, Prague (Czechoslovakia)

12.  Korpusproblematik

141

12. Korpusproblematik in der Computerlinguistik: Konstruktionsprinzipien und Repräsentativität 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.

Korpusdefinitionen Zur Leistung von Korpora Zielsetzungen Technische Voraussetzungen Datenaufbereitung Repräsentativität Festlegung der Grundgesamtheit Auswahl der Stichprobe Größe der Stichprobe Ausblick Literatur (in Auswahl)

1.

Korpusdefinitionen

Der Terminus Korpus wird — wie so viele linguistische Termini — höchst uneinheitlich verwendet. Schon bei der Schreibweise herrscht keine Einigkeit: Während in diesem Band die eindeutschende Version mit K gewählt wurde, findet man daneben auch Corpus mit C (so im Titel von Bergenholtz/ Schaeder (eds.) 1979) wie im Englischen und Französischen. Das Genus schwankt ebenfalls: Neutrum ü berwiegt (vgl. die Angaben in Duden-DUW, HWDG und anderen Wörterbü chern), zuweilen stößt man aber auch auf der Korpus in einer der uns hier interessierenden Bedeutungen. Mit dem Terminus werden in der Linguistik zudem recht verschiedenartige Objekte bezeichnet. Gemeinsam ist ihnen lediglich, daß es sich um Sammlungen von Sprachmaterial handelt. Die Unterschiede betreffen insbesondere zwei Punkte: (1) Es besteht keine Einhelligkeit darü ber, ob es sich bei einem Korpus um eine Sammlung von Texten handeln muß, oder ob auch Sammlungen isolierter Sätze oder gar einzelner Wörter so bezeichnet werden sollen. Zur Verdeutlichung empfiehlt sich daher der Terminus Textkorpus, den wir hier gleichbedeutend mit Korpus verwenden, um eine Sammlung von Texten oder Teiltexten zu bezeichnen. Unter Text soll dabei informell eine relativ selbständige, inhaltlich kohärente Folge nat ü rlicher sprachlicher Äußerungen verstanden werden, unter Teiltext ein zusammenhängender, ül ckenloser Ausschnitt aus einem Text. Vom Textkorpus wird hier insbesondere die Belegsammlung nach Art der z. B. fü r lexikographische Zwecke ü blichen Karteien unterschieden, bei denen aus den verwendeten Texten lediglich einzelne Zitate

mehr oder minder willkü rlich exzerpiert werden, so daß das Kriterium „zusammenhängend“ nicht erfüllt ist. (2) Es besteht keine Einhelligkeit darü ber, ob ein Korpus nur Texte enthalten darf, die nat ü rlichen Kommunikationssituationen entstammen, oder ob die Bezeichnung auch auf Sammlungen elizitierter (experimentell gewonnener) oder selbstgebildeter Texte angewendet werden soll. Da in der Diskussion ü ber die Datenbasis fü r die Sprachbeschreibung gerade der Gegensatz zwischen Korpus und Intuition eine zentrale Rolle spielt (vgl. z. B. Ulvestad 1979), halten wir es fü r unangebracht, ihn dadurch zu verwischen, daß auch Sammlungen selbstkonstruierter Beispiele als Korpora bezeichnet werden (so z. B. von Greenbaum 1984, 194: “Linguists use their knowledge of the language to create a corpus of samples of the language” und “Linguists use [...] a corpus created from introspection”). In kommunikativer Absicht entstandene Äußerungen sind aus vielfältigen Grü nden nicht mit Beispielen gleichzusetzen, die ein sich fü r „kompetent“ haltender Sprecher im Rahmen der Diskussion linguistischer Theorien bildet (fü r eine solche Gleichstellung plädiert z. B. Altmann, H. 1981, 73—78). Auch elizitierte Daten sind nicht ohne weiteres vergleichbar. Im ungü nstigsten Fall handelt es sich um recht unnatü rliche Testsituationen (z. B. Ergänzungsaufgaben); im gü nstigsten werden spontane Reaktionen erreicht, ohne daß die Testperson sich ihrer Rolle bewußt ist (vgl. Labov 1975, 49). Die höchst unterschiedliche Qualität elizitierter Äußerungen läßt es sinnvoll erscheinen, üf r entsprechende Sammlungen mit Bausch (1975, 132 ff.) die Bezeichnung manipuliertes Korpus zu verwenden und von einem Korpus im eigentlichen Sinn nur bei authentischen (d. h. aus natü rlichen und nicht manipulierten Kommunikationssituationen stammenden) Texten zu sprechen. In Anlehnung an Bausch (1979, 78) und Bungarten (1979, 34) gehen wir von folgender Definition aus: Ein Korpus ist eine begrenzte Sprachdatenmenge einer Sprache, die ausschließlich aus (geschriebenen und/oder gesprochenen) Texten oder Teiltexten besteht. Im Rahmen der Computerlinguistik gilt das Interesse solchen Korpora, die in einer fü r die elektronische Datenverarbeitung ge-

IV. Computer-Aided Description of Language Systems I:Basic Problems

142

eigneten Form vorliegen (im allgemeinen auf Magnetband). Neben der Textsammlung selbst werden ü blicherweise auch Statistiken und Wortlisten verschiedener Art sowie Indizes und Konkordanzen zur Verfü gung gestellt, was fü r viele Anwendungen ü beraus hilfreich ist. Solche Materialien sollten bereits bei der Konstruktion des Korpus eingeplant werden, zumal sich — was hier nicht näher ausgefü hrt werden kann — Entscheidungen ü ber die Datenaufbereitung (s. 5.) sowohl auf die Möglichkeiten der maschinellen Erstellung von Indizes, Konkordanzen usw. als auch auf deren Benutzerfreundlichkeit auswirken.

2.

Zur Leistung von Korpora

Korpora sind ein Hilfsmittel fü r die Sprachbeschreibung, dessen Wert nicht unumstritten ist. Der Erörterung von Konstruktionsprinzipien wollen wir deshalb eine Einschätzung dessen vorausschicken, was man ü berhaupt von Korpora erwarten darf. Mit Lutzeier (1981, 53) sind wir der Meinung, daß sie keine „Wundermittel“ sind, mit deren Hilfe man z. B. Bedeutungen ohne (subjektive) Interpretation und unabhängig von wissenschaftstheoretischen Annahmen fast automatisch bestimmen könnte (s. hierzu van de Velde 1974, 1979). Anders als Lutzeier sehen wir in diesem Argument allerdings keinen entscheidenden Einwand gegen Textkorpora. Schwerwiegender sind sicherlich Bedenken wie die folgenden (vgl. zu den Vor- und Nachteilen der Korpuslinguistik auch Bergenholtz/Schaeder (eds.) 1979, darin bes. Bungarten 1979, 36—38, sowie Johansson 1982 und Svartvik 1982 a, 11). (1) Da ein Korpus nur eine begrenzte Datenmenge umfaßt, kann es nicht alle Möglichkeiten einer Sprache dokumentieren — viele Formen oder Konstruktionen, die grammatisch sind, kommen zufällig nicht vor (vgl. z. B. Greenbaum 1977, 128). Wir konnten beispielsweise in einem 2,5 Mio. Textwörter umfassenden Korpus des Deutschen die Wendung damit kannst du mich jag en nicht belegen. Mit einem noch größeren Korpus (vor allem der gesprochenen Sprache) ließe sich diese „Lü cke“ wohl fü llen; ob man aber etwa das von Fodor/Garret (1966, 137) vermißte Beispiel my friend owns three-eig hths of an elephant jemals bei einem unvorbelasteten Sprecher/Schreiber finden wird, darf man bezweifeln. Je nach Fragestellung ist der

Mangel an Belegen allerdings sehr unterschiedlich einzuschätzen: — Wenn es um die Grammatikalität von Beispielen geht, kann man aus den vorgefundenen Belegen extrapolieren (s. (4)). Es genü gt also, die Struktur des Satzes my friend owns three-eig hths of an elephant und die darin vorkommenden lexikalischen Elemente zu finden, was kein allzu großes Korpus erfordern dürfte. — Wenn es darauf ankommt, die Existenz selten auftretender Formen oder Konstruktionen nachzuweisen, mag es ergiebiger sein, willkü rliche Belege zu sammeln, statt ein Korpus auszuwerten (vgl. Mackin 1983, vi zu idiomatischen Wendungen). Damit besteht aber fü r Aussagen ü ber Häufigkeit oder Üblichkeit keine Grundlage mehr. — Wenn sprachliche Zweifelsfälle geklärt werden sollen, gibt es zur Korpusauswertung keine ü berzeugende Alternative: Da kompetente Sprecher sich bei introspektiven Urteilen ü ber ihre Kompetenz irren können und nicht in der Lage sind, sich die Regeln ihrer internalisierten Grammatik bewußt zu machen (s. Chomsky 1965, 8), ist auf Intuition kein Verlaß. In der Tat haben sich intuitive Einschätzungen immer wieder als höchst fragwü rdig erwiesen (s. z. B. Ulvestad 1979). Auch die Befragung von Informanten kann (aus ähnlichen Grü nden) kaum die Grundlage einer zuverlässigen Beschreibung abgeben (vgl. z. B. Bergenholtz 1980, 49—53). Willkü rliche Zitatensammlungen fü hren hier erst recht nicht zu einer Lösung, weil sie keinerlei statistische Aussagen gestatten. Wir halten es daher fü r einen Irrweg, die Korpusmethode zugunsten solcher Verfahren aufzugeben, wenn die Belege im Korpus nicht ausreichen. Daß z. B. das Brown Corpus fü r eine Untersuchung der Negation von need und dare zu wenig Beispiele liefert, ist kein Grund, auf intuitive Urteile auszuweichen (so Greenbaum 1984, 193); es unterstreicht lediglich, daß Korpora dieser Größenordnung (1 Mio. Textwörter) viel zu klein sind (s. 9.). Manche Elemente oder Strukturen sind freilich so selten, daß sie auch in einem angemessen großen Korpus (von 50 oder 100 Mio. Textwörtern) nicht oder nur durch wenige Belege zu dokumentieren sind. Das dü rfte im Deutschen z. B. fü r das Präteritum von sieden gelten ( sott oder siedete ?). Solche Zweifelsfragen wird man dann unabhängig von der Methode als nicht lösbar betrachten müssen. (2) Durch die Korpusauswertung allein

12.  Korpusproblematik

läßt sich nicht feststellen, inwieweit die vorgefundenen Belege stilistisch, sozial o. ä. markiert sind (vgl. Béjoint 1983, 72 f.). Das Problem, wie man den Sprachgebrauch mit Sozialdaten usw. korrelieren kann, ist allerdings von der Verwendung eines Korpus unabhängig. Dabei wird man zu intersubjektiv nachprü fbaren Ergebnissen sogar noch am ehesten kommen können, wenn man mit einem Korpus arbeitet, bei dessen Erstellung Faktoren wie Thema, Textsorte, regionale Herkunft usw. berü cksichtigt wurden (vgl. 8.). Subjektive Einschätzungen sind hingegen auch in diesem Bereich nicht brauchbar, zumal das Repertoire eines einzelnen Sprechers ein viel begrenzteres Spektrum sprachlicher Mittel umfaßt als ein geeignet zusammengestelltes Korpus. Dementsprechend sind Fehlurteile an der Tagesordnung, wie z. B. die in deutschen Wörterb ü chern ü bliche Einstufung von eh und halt (in das weiß halt eh keiner ) als „sü ddeutsch/schweizerisch/österreichisch“ o. ä. (s. Bergenholtz/Mugdan 1986, 80). Daß ein Korpus es nicht gestatten soll, zwischen normalem und ungewöhnlichem Gebrauch zu unterscheiden (so Béjoint 1983, 72) trifft schon gar nicht zu — im Gegenteil bietet es im Unterschied zur Belegsammlung gerade die Voraussetzung fü r statistische Untersuchungen, ohne die eine Trennung zwischen „ü blich“ und „ungewöhnlich“, „oft“ und „selten“ usw. völlig unbegrü ndet und beliebig bleiben muß (s. Bergenholtz/Mugdan 1984, 83 f.; Mugdan 1985, 196—199). (3) Da ein Korpus auch ungrammatische Sätze enthalten kann, fü hrt es angeblich nicht zu einer Grammatik, die ihrer Aufgabe gerecht wird, die grammatischen Sätze einer Sprache und nur diese zu generieren (vgl. Bierwisch 1963, 9; Fodor/Garret 1966, 137). In der Praxis sind aber eindeutige Fehler recht leicht zu erkennen, und ihr Anteil ist keineswegs so hoch, wie das gerne suggeriert wird — nicht einmal in der gesprochenen Sprache (vgl. Labov 1972, 203). „Druckfehler“ oder „Versprecher“, wie sie im Alltag heißen, fallen also kaum ins Gewicht. In allen wirklich interessanten Fällen urteilen jedoch die Sprecher einer Sprache ü ber die Grammatikalität uneinheitlich (vgl. dazu Levelt 1972; Spencer 1973; Labov 1975 und zahlreiche publizierte Befragungen). Vor diesem Hintergrund ist auch das Argument hinfällig, Korpora seien deshalb nicht brauchbar, weil sie keine Auskunft ü ber ungrammatische Äußerungen gäben (vgl. Rainer 1984,

143

292). Bei schwankendem Sprachgebrauch muß, wie erwähnt, auch die Korpusauswertung nicht notwendigerweise zu klareren Ergebnissen hinsichtlich der Verteilung der konkurrierenden Varianten üf hren. Sie deckt aber zumindest die Existenz solcher Varianten auf, die — nicht zuletzt unter dem Einfluß normativer Grammatiken — oft gar nicht allgemein bekannt ist. Insofern ü bt die Korpusmethode einen heilsamen Zwang aus: Während introspektiv arbeitende Linguisten vielfach unliebsame Beispiele als „ungrammatisch“ ausschließen, um ein vorgefaßtes Regelsystem nicht in Frage zu stellen (vgl. auch Spencer 1973 und Labov 1975, 30 u. ö. zu Intuitionen von Linguisten), kann man bei der Korpusanalyse unerwartete Fälle nicht einfach ignorieren, sondern muß schon stichhaltige Begrü ndungen vorweisen, um sie als „Irrtümer“ ausscheiden zu können. (4) Die Beschreibung der in einem Korpus belegten Daten gilt vermeintlich nur fü r dieses begrenzte Material und nicht fü r die betreffende Sprache insgesamt (vgl. Greenbaum 1977, 128). Eine solche Beschränkung wird gerne der deskriptiven (strukturalistischen) Linguistik zugeschrieben (so von Bondzio 1980, 129). In Wahrheit haben jedoch Analysen endlicher Texte stets dazu gedient, Regularitäten zu ermitteln, aufgrund derer neue Äußerungen interpretiert oder produziert werden können. Das von Chomsky (1961, 237 f.) beschriebene Verfahren, durch Klassenbildung aus einzelnen Sätzen generative Regeln zu extrapolieren, ist kein anderes als das seit jeher verwendete. Wahr ist allerdings, daß z. B. die ermittelten Häufigkeiten einzelner Elemente zunächst nur fü r das Korpus selbst gelten und sich nicht ohne weiteres verallgemeinern lassen (s. dazu im Kontext von Häufigkeitswörterbü chern Alekseev 1984, 30, 38 f.).

3.

Zielsetzungen

Textkorpora werden fü r eine Fü lle verschiedener Zwecke verwendet, im linguistischen Bereich etwa zur: — Bestimmung von Wortbedeutungen, — Ermittlung der Vorkommenshäufigkeit konkurrierender Formen und Konstruktionen, — Aufstellung syntaktischer Muster, — Erstellung von Häufigkeitswörterbü chern und Grundwortschätzen,

IV. Computer-Aided Description of Language Systems I:Basic Problems

144

— Untersuchung stilistischer Mittel. Dabei können auch diachrone oder kontrastive Beschreibungen (verschiedener Sprachen oder verschiedener Varietäten einer Sprache) angestrebt werden. Außerhalb der Linguistik werden Korpora ebenfalls verwendet, so in der Literaturwissenschaft (z. B. zur Erstellung von Konkordanzen oder Autorenwörterbü chern) und in der Psychologie (zur Auswertung von Therapiegesprächen) u. a. Dementsprechend gibt es ganz unterschiedliche Typen von Korpora (vgl. Art. 13). Das jeweilige Forschungsinteresse ist fü r die Konstruktion des Korpus von entscheidender Bedeutung. Das betrifft insbesondere die Art der Texte, die sich nach Kriterien wie synchron/diachron, Gemeinsprache/Fachsprache, gesprochen/geschrieben sowie mittels Typologien von Textsorten oder literarischen Gattungen beschreiben läßt. Aber auch zahlreiche Details der Korpuskonstruktion hängen von der gewählten Zielsetzung ab — selbst bei Korpora, die einen fü r viele (linguistische) Anwendungen brauchbaren Querschnitt durch eine moderne Standardsprache bieten wollen (z. B. das Brown Corpus fü r das amerikanische und das Lancaster-OsloBergen (LOB) Corpus fü r das britische Englisch, das LIMAS-Korpus fü r das Deutsche). Wir werden im folgenden primär auf solche Mehrzweckkorpora eingehen, denn generelle Hinweise zur Konstruktion von Textsammlungen jeglicher Art lassen sich kaum geben.

4.

Technische Voraussetzungen

Bei der Zusammenstellung eines maschinenlesbaren Textkorpus spielen auch die technischen Gegebenheiten eine Rolle, und zwar (1) die Möglichkeiten der Texteingabe und (2) die Möglichkeiten der Textverarbeitung. Zu (1): Korpora geschriebener Texte lassen sich heute — anders als noch vor einigen Jahren — sehr leicht erstellen. Zum einen liegen durch die Einfü hrung neuer Technologien im Schriftsatz immer mehr Bü cher, Zeitschriften und Zeitungen bereits in maschinenlesbarer Form vor, und zum anderen hat die Qualität von Klarschriftlesern ein solches Niveau erreicht, daß eine zü gige Textaufnahme mit geringer Fehlerquote in technischer und finanzieller Hinsicht realistisch geworden ist. Fü r die automatische Aufnahme gesprochener Texte gibt es hingegen noch keine geeigneten Verfahren (vgl. Sinclair 1982, 4 f.).

Die Transkription der Texte und ihre Übertragung auf Datenträger ist äußerst zeitaufwendig (s. z. B. Bausch 1971; Mü ller 1971; Quirk/Svartvik 1979; Svartvik et al. 1982). Ob die von Francis (1979, 116 f.) angestellte Berechnung (ein Dollar pro gesprochenem Wort) auch heute noch zutrifft, kann hier nicht beurteilt werden. Zweifellos sind aber finanzielle Grü nde entscheidend dafü r verantwortlich, daß bislang erst einige kleinere Korpora gesprochener Sprache maschinenlesbar vorliegen (das Freiburger Korpus und das Textkorpus Grunddeutsch Sprechsprache fü r das Deutsche, das London-Lund Corpus fü r das Englische) und daß offenbar weitere derartige Korpora nicht in Arbeit sind. Zu (2): Der maschinellen Verarbeitung von Textkorpora sind durch Speicherplatz und Rechengeschwindigkeit der verfü gbaren Computer gewisse Grenzen gesetzt. Die Entwicklungen im Hardwarebereich haben aber in den letzten Jahren diese Grenzen erheblich verschoben, so daß auch größere Korpora mit mehreren Millionen Textwörtern z. B. in Hochschulrechenzentren verwendet werden können. Korpora von der Größe des Brown Corpus und des LIMAS-Korpus (1 Mio. Textwörter) lassen sich sogar auf einem Personal Computer mit geeigneter Peripherie bearbeiten. Allerdings sind die erforderlichen Operationen (Suchen, Sortieren und Kopieren von Texten usw.) immer noch ziemlich rechenzeitintensiv.

5.

Datenaufbereitung

Bei der Aufnahme gesprochener wie geschriebener Texte auf Datenträger ist ein gewisses Maß an Bearbeitung der Primärdaten erforderlich. Es handelt sich hierbei um (1) Umkodierung von Informationen, (2) Reduktion von Informationen, (3) Hinzufügung von Informationen. Bei gesprochenen Texten ist außerdem eine vorherige Verschriftung nötig. Zu (1): Bei maschinenlesbaren Korpora steht nur ein begrenzter Zeichensatz zur Verfü gung, mit dem alle Informationen kodiert werden mü ssen. So waren auf älteren Rechnern nur 64 verschiedene Zeichen darstellbar, was keine Unterscheidung zwischen Groß- und Kleinbuchstaben erlaubte. Um diesen Unterschied rekonstruieren zu können, mußte man daher z. B. jedem Großbuchstaben das Sonderzeichen $ voranstellen. Heute ist auf allen gängigen Rechnern der 128 Zeichen umfassende ASCII-Code

12.  Korpusproblematik

verfü gbar, so daß dieses Problem nicht mehr besteht. Damit sind aber z. B. unterschiedliche Schrifttypen und -größen nicht darstellbar; es muß also etwa der Wechsel zwischen recte und kursiv nach wie vor durch Sonderzeichen kodiert werden. Zu (2): Es ist weithin ü blich, bei der Aufnahme geschriebener Texte z. B. die ursprü ngliche Aufteilung in Zeilen und Seiten nicht beizubehalten. Sonderzeichen, mathematische Formeln oder Passagen in anderen Alphabeten werden teilweise nicht umkodiert, sondern ausgelassen oder durch ein Platzhaltersymbol ersetzt. Bei Illustrationen u. ä. ist dieses Verfahren sogar nahezu unumgänglich. Zu (3): Bei vielen Korpora werden die Originaltexte durch zusätzliche Informationen angereichert (vgl. z. B. Engelien 1979). Hierzu gehören beispielsweise: — die Disambiguierung von Satzzeichen (Punkt am Satzende vs. Abkü rzungspunkt u. ä.), — die Kennzeichnung von Eigennamen, — die Ergänzung der „Auslassungen“ bei Konstruktionen vom Typ Tag es- und Nachtzeit (zu Tages/zeit/ und Nachtzeit o. dergl.), — die Markierung lexikalischer oder grammatischer Eigenschaften (s. u.). Ferner werden ü blicherweise Textkennungen und Zeilenzählungen angebracht. Bei der Verschriftung gesprochener Texte stellen sich insbesondere zwei Probleme: (1) die Wahl des Transkriptionssystems, (2) die Kodierung von Pausen, Intonation, Sprecherwechsel, parasprachlichen Phänomenen (z. B. äh, hm u. dergl.), nonverbalem Verhalten usw. Zu (1): Der geringste Informationsverlust gegenü ber dem Originaltext könnte bei einer phonetischen Transkription erreicht werden. Fü r eine maschinenlesbare Version wäre jedoch eine Umkodierung (z. B. aus dem Internationalen Phonetischen Alphabet) in den verfü gbaren Zeichensatz nötig. Zudem ist der Zeitaufwand selbst fü r eine breite phonetische Transkription enorm hoch. Die bislang vorliegenden Korpora verwenden daher die Standardorthographie der betreffenden Sprache und deuten allenfalls einige umgangssprachliche oder dialektale Eigentü mlichkeiten an (z. B. dann kann mer sag en und nicht dann kann man sag en im Korpus Grunddeutsch Sprechsprache, s. Pfeffer/ Lohnes (eds.) 1984, 31). Damit ist einerseits ein beträchtliches Maß an Interpretation verbunden (streng genommen wird der Original-

145

text in einen „Standard“ ü bersetzt), andererseits sind solche Verschriftungen nicht selten mehrdeutig (z. B. steht eh oft sowohl fü r einen Pausenfü ller — vermutlich /ǝ:/ oder /ε:/ — wie in und, eh / also, ich war sternhagelvoll als auch fü r /e:/ wie in undann brauch se eh schon ma zwei Jahre, so in Brons-Albert 1984, 18, 102). Zu (2): Die Kodierung nichtsegmentaler Merkmale gesprochener Äußerungen ist von Korpus zu Korpus sehr unterschiedlich, sowohl hinsichtlich der berü cksichtigten Informationen als auch hinsichtlich der verwendeten Symbole. Das Freiburger Korpus benutzt z. B. xxxxxxaa, xxxxxxab usw. zur Kennzeichnung der Sprecher, +p+ üf r eine Pause; das LOB Corpus markiert kurze Pausen mit . und längere mit — sowie steigende und fallende Intonation (was das Freiburger Korpus nicht berü cksichtigt) mit Pfeilen, usw. Es erscheint sinnvoll, bei Korpora, die fü r verschiedene Zwecke verwendbar sein sollen, möglichst viele Merkmale des Originaltexts zu bewahren (ggf. durch Umkodierung) und die Reduktion von Informationen zu vermeiden. Ärgerlich ist z. B. die gelegentlich praktizierte Eliminierung fremdsprachiger Zitate u. ä. Auch die Anreicherung mit Zusatzinformationen ist nicht unproblematisch. So kann sich z. B. die Behandlung von Fällen wie halb- oder vollautomatisch in unerfreulicher Weise auf die Wortstatistik auswirken (wenn etwa halb- wie halb oder wie halbautomatisch gezählt wird). Die Kodierung grammatischer und lexikalischer Merkmale, fü r die sich die Bezeichnung ‘tagging’ eingebü rgert hat, ist fü r die maschinelle Analyse der Texte sinnvoll und angebracht (vgl. hierzu Svartvik/Eeg-Olofsson 1982; Johansson/Jahr 1982; Svartvik et al. 1982; Leech/Garside/Atwell 1983; de Haan 1984 a). Ein Beispiel hierfü r ist die manuelle oder partiell automatisierte Kodierung der Wortartzugehörigkeit (s. z. B. Leech/ Garside/Atwell 1983, 18—20), die eine weitgehende Monosemierung leistet und damit eine automatische Lemmatisierung und eine syntaktische Analyse wesentlich erleichtert, wenn nicht ü berhaupt erst ermöglicht. Weiterhin werden in manchen Korpora besondere Phänomene wie Parenthesen, Tmesis, Ellipsen oder Idiome gekennzeichnet (s. z. B. Bausch 1971; Leech/Garside/Atwell 1983) oder Art und Umfang von Phrasen oder Sätzen (s. Svartvik/Eeg-Olofsson 1982, 104—107). Diese und andere Zusatzinforma-

IV. Computer-Aided Description of Language Systems I:Basic Problems

146

tionen bieten fü r viele Anwendungen wesentliche Vorteile gegenü ber einem unanalysierten Korpus. Es ist aber zu bedenken, daß die mitgelieferten Interpretationen und die dabei zugrunde gelegten Theorien sich in den meisten Fällen nicht mit denen anderer Forscher decken. Das Korpus sollte daher zumindest auch in einer unbearbeiteten Version zur Verfü gung gestellt werden. Im ü brigen sind Korpora mit vielen Kodierungen auch schlecht zu lesen, vor allem wenn die Kodes nicht unmittelbar einleuchtend sind (wie beim LIMAS-Korpus) oder wenn sie sehr viel Platz einnehmen (so beim Freiburger Korpus).

6.

Repräsentativität

In Diskussionen um eine „Korpuslinguistik“ ist „Repräsentativität“ ein immer wiederkehrender Topos (vgl. hierzu Bungarten 1979, 42 f.; Rieger, B. 1979 b, 58—63). Dabei hat es bei Befü rwortern wie Gegnern der Korpusanalyse einige Mißverständnisse gegeben. Eine Stichprobe kann dann als repräsentativ gelten, wenn sie hinsichtlich bestimmter Eigenschaften mit der Grundgesamtheit ü bereinstimmt, aus der sie stammt. Offenkundig läßt sich das nur dann feststellen, wenn ü ber die Grundgesamtheit ebenso viel bekannt ist wie ü ber die Stichprobe — womit es sich erü brigt, eine Stichprobe zu erheben. Es gibt jedoch gewisse Verfahren der Stichprobenbildung, die mit hoher Wahrscheinlichkeit (wenn auch nicht mit Sicherheit) zu einer repräsentativen Stichprobe üf hren. Hier ist insbesondere das Prinzip der zufälligen Auswahl zu nennen, bei der jedes Element der Grundgesamtheit die gleiche Chance (Wahrscheinlichkeit) haben muß, in die Stichprobe aufgenommen zu werden (s. z. B. Rieger, B. 1979 b, 63 ff.). Das ist bei einer willkü rlichen Auswahl nicht gegeben, z. B. wenn ein Forscher fü r ein Korpus moderner deutscher Romane nach Gutdü nken einige Werke aussucht, die er gerade kennt oder schätzt. Fü r eine zufällige Stichprobe mü ßte man dagegen z. B. alle Elemente der Grundgesamtheit — hier also alle in einem bestimmten Zeitraum veröffentlichten deutschen Romane — durchnumerieren und (etwa per Zufallszahlengenerator) aus diesen Nummern die gewü nschte Anzahl von Werken auslosen. Oftmals ist jedoch ein solches Verfahren nicht praktikabel. Fü r viele Anwendungen wird daher die Stichprobe so gewählt, daß bestimmte Merkmale in der Grundgesamt-

heit und in der Stichprobe die gleiche Verteilung aufweisen. Die Stichprobe wird also in Teilmengen aufgeteilt, die bestimmten Bedingungen genü gen mü ssen. Erfolgt innerhalb der Teilmengen die Auswahl willkü rlich, so spricht man von einem Quotaverfahren, ist sie zufällig, so handelt es sich um eine geschichtete Stichprobe. Diese Methoden sind z. B. aus Meinungsumfragen vertraut: Es wird ein Personenkreis befragt, der hinsichtlich Alter, Geschlecht, Beruf, Einkommen usw. genauso zusammengesetzt ist wie die Gesamtbevölkerung. Voraussetzung ist dafü r natü rlich, daß die Verteilung dieser Merkmale in der Grundgesamtheit bekannt ist. Die entscheidende Annahme ist nun, daß auch bestimmte Merkmale, ü ber die in der Grundgesamtheit nichts bekannt ist, in der Stichprobe genauso verteilt sind. Das setzt voraus, daß es einen Zusammenhang zwischen diesen und den fü r die Quotenbildung verwendeten Merkmalen gibt. So werden bei Meinungsumfragen die genannten Faktoren (und nicht etwa Körpergröße, Haarfarbe oder Vorname) kontrolliert, weil man davon ausgehen kann, daß gerade sie den politischen Standort der Befragten beeinflussen. Wenn nun ein Textkorpus mit einiger Wahrscheinlichkeit fü r eine Sprache insgesamt repräsentativ sein soll, mü ßte vor allem die Grundgesamtheit bekannt sein, also die Menge aller Texte der betrachteten Sprache L. Das ist offenkundig bei keiner Sprache der Fall. (Selbst bei einer toten Sprache kennt man nur die ü berlieferten Texte, nicht aber alle, die jemals in ihr produziert wurden.) Eine zentrale Rolle spielt hier die Frage, ob zwei Texte zur selben Sprache oder zu verschiedenen gehören, also das notorische Problem der Abgrenzung zwischen Sprache und Dialekt. Auch wenn es ein Verfahren gäbe, mit dem sich feststellen ließe, ob der Text T zur Sprache L gehört oder nicht, wäre damit noch keine vollständige Aufzählung aller zu L gehörigen Texte möglich. Eine Zufallsauswahl von Texten aus L kann es daher nicht geben. Das Quotaverfahren ist ebenfalls nicht anwendbar, weil die Verteilung der möglicherweise relevanten Merkmale (Textsorte, Thema usw.) in Grundgesamtheiten wie „der deutschen Gegenwartssprache“ nicht bekannt ist — ganz abgesehen davon, daß sich derartige Merkmale nur schwer objektiv bestimmen lassen. Da nun nicht einmal eine Wahrscheinlichkeit dafü r berechnet werden kann, daß die

12.  Korpusproblematik

gewählte Zusammenstellung von Texten hinsichtlich gewisser Merkmale repräsentativ ist (eine Repräsentativität „an sich“ kann es ja ohnehin nicht geben), scheint es wenig sinnvoll, bei Textkorpora ü berhaupt von Repräsentativität zu sprechen — es sei denn, man bezieht sich auf eine klar definierte Grundgesamtheit (die dann eben nicht „die deutsche Gegenwartssprache“ o. ä. sein kann). Es bietet sich an, statt dessen die Bezeichnung „exemplarisch“ zu verwenden: „Ein Korpus ist exemplarisch, wenn seine Repräsentativität nicht nachgewiesen ist, andererseits weniger formale Argumente /.../ fü r eine sinnvolle Vertreterfunktion des Korpus plädieren“ (Bungarten 1979, 42 f.). Wenn es prinzipiell nicht möglich ist, ein fü r die Sprache L mit gewisser Wahrscheinlichkeit repräsentatives Korpus zu konstruieren (s. auch Rieger, B. 1979 b), bieten sich zwei Auswege an. Zum einen kann man statt der Menge aller zu L gehörigen Texte eine wohldefinierte Teilmenge als Grundgesamtheit wählen (s. 7.); zum anderen kann man fü r das Quotaverfahren eine plausibel scheinende hypothetische Verteilung bestimmter Merkmale zugrunde legen (s. 8.). Schließlich spielt fü r die Einschätzung, ob ein Korpus als exemplarisch gelten kann, auch dessen Größe eine Rolle (s. 9.).

7.

Festlegung der Grundgesamtheit

Anstatt bei der Konstruktion eines Textkorpus von „der deutschen Gegenwartssprache“ auszugehen, kann man eine klar definierte Menge von Texten als Grundgesamtheit wählen, z. B. — die Menge aller 1984 in der Deutschen Bibliographie verzeichneten Veröffentlichungen; — die Menge aller im Jahrgang 1967 des „Mannheimer Morgen“ erschienenen mit vollem Namen gezeichneten Artikel; — die Menge aller vom 1. 1. bis zum 30. 6. 1980 im ersten Hörfunkprogramm von Radio Bremen gesendeten Nachrichten. Wenn es der Umfang gestattet, kann diese Grundgesamtheit vollständig als Korpus verwendet werden (so beim Lunder Zeitungskorpus; s. Rosengren 1972). Andernfalls lassen sich die in 6. genannten Verfahren der Stichprobenbildung anwenden. So könnte man z. B. aus den in der Deutschen Bibliographie nachgewiesenen Publikationen mit Hilfe der fortlaufenden Numerierung eine Zufallsauswahl treffen oder (im Quotaver-

147

fahren) jedes Sachgebiet entsprechend der ihm zugeordneten Zahl von Veröffentlichungen berü cksichtigen. Auf diese Weise erhält man ein Korpus, das mit gewisser Wahrscheinlichkeit fü r die gewählte Grundgesamtheit repräsentativ ist (vgl. auch Schaeder 1979, 237—239 zum Bonner Zeitungskorpus). Es stellt sich nun die Frage, inwieweit eine solche Grundgesamtheit als exemplarisch fü r eine größere Textmenge gelten kann. Sind z. B. die 1967 im „Mannheimer Morgen“ erschienenen signierten Artikel exemplarisch für — die deutsche Gegenwartssprache, — die deutsche Schriftsprache in der Bundesrepublik der sechziger Jahre, — die bundesdeutsche Tagespresse oder auch nur — den gesamten Jahrgang 1967 des „Mannheimer Morgen„? In Ermangelung präziser Kriterien fü r Exemplarität sind solche Fragen kaum zu beantworten. Es dü rfte aber einleuchten, daß die Grundgesamtheit fü r „die deutsche Gegenwartssprache“ o. dergl. um so weniger exemplarisch ist, je restriktiver die Bedingungen fü r die Zugehörigkeit zu dieser Grundgesamtheit sind. Andererseits sind gewisse Restriktionen die Voraussetzung dafü r, daß die Grundgesamtheit ü berhaupt eindeutig bestimmt werden kann. So lassen sich die in einem Land erschienenen Bü cher, Zeitschriften oder Zeitungen aufgrund der heute ü blichen Registrierungspflicht üf r derartige Veröffentlichungen meist unschwer ermitteln; Flugblätter, Formulare, Broschü ren, Gebrauchsanleitungen und viele andere Arten von Druckerzeugnissen werden jedoch nicht systematisch erfaßt, von maschinenschriftlichen oder handgeschriebenen Texten ganz zu schweigen. Bei gesprochener Sprache könnte man etwa Rundfunk- und Fernsehsendungen, Vorlesungen an Universitäten oder Parlamentsdebatten ül ckenlos nachweisen, aber bei Alltagsgesprächen ist es schier unmöglich, in irgendeiner Hinsicht Vollständigkeit zu erreichen. Wohldefinierte Grundgesamtheiten sind also nur bei bestimmten Arten von Texten möglich.

8.

Auswahl der Stichprobe

Wenn man die in 7. beschriebene Eingrenzung der Grundgesamtheit nicht vornehmen will, um die damit verbundenen Beschrän-

148

IV. Computer-Aided Description of Language Systems I:Basic Problems

kungen hinsichtlich der Art der Texte zu vermeiden, kann man eine Stichprobe bilden, in der bestimmte Merkmale eine plausibel erscheinende Verteilung aufweisen. Üblicherweise stü tzt man sich dabei (a) auf eine Typologie der Textsorten (wie beim London-Lund Corpus des gesprochenen Englisch; s. Quirk/ Svartvik 1979) und/oder (b) eine Systematik von Sachgebieten und Themen (wie beim LIMAS-Korpus). Bei der Festlegung der Quoten fü r die einzelnen Textsorten oder Sachgebiete gibt es zwei Vorgehensweisen: (1) Es wird die Verteilung des betreffenden Merkmals in einer wohldefinierten Grundgesamtheit zugrunde gelegt. So ist man beim LIMAS-Korpus von der Sachgebietssystematik der Deutschen Bibliographie ausgegangen und hat jedes Gebiet entsprechend der Zahl der nachgewiesenen Titel berü cksichtigt. Die Grundgesamtheit war jedoch nicht auf die in der Deutschen Bibliographie genannten Publikationen beschränkt; es wurden z. B. auch Zeitungstexte, Flugblätter u. v. a. aufgenommen. Eine Gewichtung der Sachgebiete nach der bloßen Zahl der Buchveröffentlichungen ist freilich angreifbar. Ein plausibleres Maß fü r die relative Wichtigkeit von Texten wäre ihre Verbreitung; es ist jedoch nicht praktikabel, wenn nicht zumindest die Auflagenhöhe bekannt gemacht wird (wie z. B. in der Sowjetunion) — die Zahl der Leser läßt sich schon gar nicht ermitteln. (2) Die Gewichtung stü tzt sich auf intuitive Urteile. Sie mü ssen nicht notwendigerweise die Häufigkeit oder Verbreitung der Textkategorien betreffen. So sollte beim London-Lund Corpus der Anteil der Textsorten davon abhängen, welcher Textumfang erforderlich ist, um die Charakteristika der Textsorte deutlich werden zu lassen. Dabei wurde angenommen, daß etwa die grammatischen und stilistischen Eigenheiten der juristischen Fachsprache schon in relativ kurzen Textproben erkennbar werden, während z. B. private Gespräche eine größere Variationsbreite aufweisen und daher mit einem größeren Anteil vertreten sein sollten (s. Quirk/Svartvik 1979, 206). Wenn die Anteile der verschiedenen Texttypen festgelegt sind, mü ssen die einzelnen Texte ausgewählt werden. Hier stellen sich erneut die bereits erörterten Probleme: Eine im statistischen Sinne zufällige Auswahl (die zu einer geschichteten Stichprobe üf hren wü rde) wird oft nicht möglich sein, so daß willkü rlich irgendwelche Texte des betreffen-

den Typs herangezogen werden, die den Bearbeitern zugänglich sind (womit eine — weniger ü berzeugende — Quotenstichprobe entsteht). Schließlich stellt sich die Frage, ob die gewählten Texte vollständig oder auszugsweise ins Korpus aufgenommen werden sollen. Die vollständige Aufnahme ist vor allem dann problematisch, wenn die zu berü cksichtigenden Texte von sehr unterschiedlicher Länge sind oder wenn die Zahl der Texte relativ gering ist und die Eigentü mlichkeiten des einzelnen Textes somit die Eigenschaften des Gesamtkorpus erheblich beeinflussen. Zweifellos ist es auch angemessener, bei Quotenstichproben oder geschichteten Stichproben die Anteile verschiedener Texttypen nicht nach der Zahl der Texte, sondern nach deren Umfang zu bestimmen. Als Maß hierfü r dient ü blicherweise die Anzahl der Wörter. Sollen die Texte nicht notwendigerweise vollständig aufgenommen werden, kann man entweder eine Obergrenze fü r den Umfang festlegen (und einen längeren Text entsprechend kappen) oder alle Texte gleich lang machen. So wurde erstmals beim Brown Corpus das mittlerweile mehrfach ü bernommene Prinzip befolgt, alle Texte auf die gleiche Länge von 2 000 Wörtern zu bringen. Bei zu langen Texten ist dann ein Ausschnitt zu wählen, wobei man zwischen Proben von Anfang, Mitte und Ende der Texte abwechseln sollte; bei zu kurzen Texten mü ssen mehrere nominell als einer gezählt werden.

9.

Größe der Stichprobe

Mit einem Umfang von 1 Mio. Textwörtern hat das Brown Corpus ein wiederholt kopiertes Vorbild gesetzt. Ein solches Korpus ist jedoch fü r die meisten Fragestellungen viel zu klein. Auch bei 4 Mio. Textwörtern kann man keineswegs (wie Engelen 1984, 12) von einem großen Korpus sprechen. So wird man üf r lexikographische Zwecke wenigstens 50 Mio. Textwörter auswerten mü ssen, um zu vertretbaren Aussagen zu kommen (vgl. Henne/Weinrich 1976, 347 f.). Die Grü nde hierfü r liegen in statistischen Gegebenheiten, die hier am Beispiel des Lunder Zeitungskorpus illustriert werden sollen (s. Rosengren 1972). Der größere Teil dieses Korpus besteht aus 2 476 571 Textwörtern aus „Die Welt“. Die Zahl der verschiedenen Wortformen beträgt 166 484, von denen 93 614 (also 56%)

12.  Korpusproblematik

nur ein einziges Mal vorkommen. Andererseits entfallen auf die 36 häufigsten Wortformen schon ein Drittel aller laufenden Wörter. Die Zahl der verschiedenen Lexeme dü rfte bei rund 50 000 liegen, wenn das in einem Korpus von 0,5 Mio. Textwörtern ermittelte Verhältnis von durchschnittlich 3,3 Wortformen pro Lexem (s. Siliakus 1979, 157) ü bertragbar ist. Zum Vergleich seien hier Daten zitiert, die in Korpora von je 200 000 Textwörtern (Fachsprache Elektronik) fü r vier Sprachen ermittelt wurden (s. Alekseev 1984, 78):

Russisch Englisch Spanisch Rumänisch

versch. versch. Formen/ Wortfor- Lexeme Lexeme men 3,18 21 648 6 826 1,48 10 582 7 160 1,79 13 507 7 564 14 292 5 708 2,50

Im „Welt“-Korpus von 2,5 Mio. Wörtern weisen lediglich 2 362 Wortformen eine absolute Häufigkeit von 100 oder mehr auf. Hundert Belege sind jedoch nicht viel, wenn es z. B. darum geht, Bedeutungs- und Gebrauchsunterschiede nachzuweisen (s. Bergenholtz 1980 zum Wortfeld „Angst“), grammatische Zweifelsfälle zu klären (vgl. Bergenholtz/Mugdan 1984) usw. Nur bei relativ unproblematischen Fällen kann man mit einem solchen Minimum auskommen; viele schwierigere Fragen (z. B. bei der Kasusrektion von Präpositionen) lassen sich jedoch nur mit mehreren Tausend Belegen hinreichend sicher beantworten und erfordern Korpora in der erwähnten Größenordnung von 50 Mio. Textwörtern.

10. Ausblick Wenn man weder wie Itkonen (1976, 65) die Auswertung von Textkorpora fü r eine „ü berflü ssige Zeremonie“ hält noch wie Rainer (1984, 292) den damit verbundenen Zeitaufwand scheut — der ü brigens bei einer sinnvollen Informantenbefragung nicht geringer wäre —, so muß man bedauern, daß noch immer zu wenig geeignete maschinenlesbare Korpora zur Verfü gung stehen. Textsammlungen wie das Brown Corpus oder das LIMAS-Korpus, die trotz einiger Schwächen als exemplarisch gelten dü rfen, sind zu klein, während die größeren Korpora sich auf spezifische Textsorten beschränken oder in Auswahl und Umfang der Texte etwas unausgewogen sind. Um bessere Voraussetzungen fü r maschinelle Korpusanalysen zu schaffen, mü ßten

149

zunächst die bislang erstellten Korpora fü r wissenschaftliche Zwecke zu vertretbaren Konditionen verf ü gbar gemacht werden. (Merkwü rdigerweise ist derzeit die Verwendung einiger Korpora durch hohe Miet- oder Kaufpreise erschwert, obwohl sie mit öffentlichen Mitteln zusammengestellt wurden.) Hier sind Clearingstellen gefragt, die die vorliegenden Korpora dokumentieren und sammeln (ansatzweise geschieht das bereits beim Norwegian Computing Centre for the Humanities in Bergen fü r das Englische und beim Institut fü r deutsche Sprache in Mannheim für das Deutsche). Allerdings läßt sich aus den vorhandenen Korpora des Deutschen kein hinreichend großes und dabei noch exemplarisches Gesamtkorpus zusammenstellen (s. Mugdan 1985, 205 f.). Es mü ssen daher neue Korpora aufgebaut werden, wobei einerseits ein großer Bedarf fü r Sammlungen gesprochener Texte besteht und andererseits eine regelmäßige Aktualisierung der schriftsprachlichen Korpora wü nschenswert wäre. Es steht zu hoffen, daß sich sowohl bei Linguisten als auch bei den fü r die Forschungsförderung zuständigen Instanzen die Erkenntnis durchsetzt, daß die Erstellung eines großen Korpus der deutschen Gegenwartssprache eine vordringliche Aufgabe der heutigen Sprachwissenschaft ist.

11. Literatur (in Auswahl) Aarts/Meijs 1984 · Alekseev 1984 · Altmann, H. 1981 · Bausch 1971 · Bausch 1975 · Bausch 1979 · Béjoint 1983 · Bergenholtz 1980 · Bergenholtz/ Mugdan 1984 · Bergenholtz/Mugdan 1986 · Bergenholtz/Schaeder (eds.) 1979 · Bierwisch 1963 · Bondzio 1980 · Brons-Albert 1984 · Bungarten 1979 · Chomsky 1961 · Chomsky 1965 · De Haan 1984 a · Duden-DUW · Engelen 1984 · Engelien 1979 · Fodor/Garret 1966 · Francis 1979 · Greenbaum 1977 · Greenbaum 1984 · Henne/Weinrich 1976 · HWDG · Itkonen 1976 · Johansson 1982 · Johansson/Jahr 1982 · Labov 1972 · Labov 1975 · Leech/Garside/Atwell 1983 · Levelt 1972 · Lutzeier 1981 · Mackin 1983 · Mugdan 1985 · Mü ller 1971 · Pfeffer/Lohnes (eds.) 1984 · Quirk/Svartvik 1979 · Rainer 1984 · Rieger, B. 1979 b · Rosengren 1972 · Schaeder 1979 · Siliakus 1979 · Sinclair 1982 · Spencer 1973 · Svartvik 1982 a · Svartvik/Eeg-Olofsson 1982 · Svartvik et al. 1982 · Ulvestad 1979 · Van de Velde 1974 · Van de Velde 1979.

Henning Bergenholtz, Aarhus (Dänemark)/ Joachim Mugdan, Münster (Bundesrepublik Deutschland)

150

13. Survey of Natural Language Corpora in Computational Linguistics 1. 2. 2.1. 2.2.

4. 4.1. 4.2. 4.3. 4.4. 4.5. 4.6. 4.7. 4.8. 4.9. 5.

Introduction General Language Archives The Oxford Text Archive (OTA) Cambridge, Literary and Linguistic Computing Centre Humanities Research Center, BYU Novosibirsk University American Indian Psycholinguistic Database: Child Language Data Exchange System (CHILDES) Individual Languages Dutch English French German Greek Latin Norwegian Spanish Swedish Literature (selected)

1.

Introduction

2.3. 2.4. 2.5. 3.

Two decades ago neither natural language corpora nor programs to operate on data were available. Although ample software is now accessible it has only been recently that many texts that humanists have been converting to machine-readable form over the past twenty odd years have begun to be collected, organized, stored in data banks at research centers or in archives, and made available to the academic community. Many archives or research groups also have optical character readers and are adding to their collection by this means. It is even possible now for scholars to request that a particular text be encoded by the optical reader. Nevertheless, the most efficient and economical way of obtaining a tape is by obtaining a copy of one that has been already encoded. One warning however: it must be realized that the supplying of copies of text by research groups and even by archives, is a secondary operation to research activities, consequently correspondence directed to the archive concerning desired texts may go unanswered for a long period of time, or not be answered at all. There are nevertheless a considerable number of archives that appear to take their responsibilities seriously. There are so many data banks of natural language corpora that some criteria had to be established for inclusion herein. The size of the corpus was one of the criteria used, al-

though it could not be applied uniformly for every genre. A novel usually consists of about 100 000 words, (30 000 to 200 000 words) and dictionaries, newspaper articles, poetry, and recorded speech a fraction of that size. A corpus of novels containing 250 000 words would be excluded while the same size corpus of poetry or newspaper articles would be included. Regrettably, some archives are not included, such as CETEDOC, for Latin, the Istituto di Ling uistica Computazionale with its 80 000 000 word database, for Italian, and the Department of Welsh, (listed in the Oxford Text Archive bulletin as an archive) for Welsh, all of which did not respond to requests for information sent by letter, registered letter, and, for the latter two archives, a telephone call. If it is not possible to access the data, there is no sense in mentioning it.

2.

General Language Archives

2.1. The Oxford Text Archive (OTA) The OTA of the Oxford University Computing Service, established in 1976, is the first archive created to store machine-readable natural language texts and this without any restriction as to language, or time period. Originally the texts were only literary ones, but now include material that belongs to the field of linguistics, so that one may find in the archive corpora of dictionaries and of the spoken language. The OTA publishes a booklet that contains a list of all the texts that are available through their services. It also contains information about natural language corpora that are contained in data banks belonging to other research groups. In the booklet there are 36 languages listed of which 27 are available from the Oxford Text Archive: Arabic Chinese English French Fulani German Greek Hebrew Icelandic Italian Kurdish Latin Latvian

Malayan Norwegian Pali Portuguese Provençal Russian Sanskrit Serbo-Croat Spanish Swedish Turkish Welsh

13.  Survey of Natural Language Corpora

The archive has an impressive collection of Latin and English texts, with 91 Latin titles and 283 English titles listed as of September 1984. The great majority of the texts are available without restriction, some texts are available only with the explicit permission of the depositer, and a very small percentage of the tapes are only available to registered users at Oxford. — The OTA also has available the Oxford Concordance Program, software capable of creating word lists, word indexes, and concordances, as well as identifying patterns of prefixes, suffixes, co-occurrences, etc. It operates on any language, and is a truly versatile program. One of the few things it can not do is lemmatize vocabulary, but then one can not have a program that works with all languages and lemmatizes them at the same time. For further information, one should write to: Oxford Text Archive, Oxford University Computing Service, 13 Banbury Road, Oxford OX2 6NN. 2.2. Cambridge, Literary and Linguistic Computing Centre Cambridge University has an archive similar to the Oxford Text Archive. It has texts in 19 languages that are listed in the booklet put out by Oxford. The languages are: Catalan Danish Dutch English French German Hebrew Italian Khotanese Norwegian

Old Norse Polish Prakrit Provençal Russian Spanish Turkish Tibetan Mediaeval Latin

Cambridge appears to be particularly strong in the Germanic languages. For further information write to: Literary and Linguistic Computing Centre, Sidgwick Avenue, Cambridge CB3 9DA, England. 2.3. Humanities Research Center, BYU The Humatities Research Center (HRC) at Brigham Young University was established in 1981 to provide research and technical support to the College of Humanities. It also serves as a distribution agent for information on ICAME (see below). — The HRC has succeeded in obtaining for its archive copies of some of the most important language corpora, e. g., the Brown Corpus, the Limas Corpus, the Thesaurus Ling uae Graecae, and has

151

text of languages that are not easy to come by, e. g., Portuguese, Finnish, as well as a number of dictionaries for such languages as Serbo-Croatian, and of several Central and South American Indian Languages. For further information, write to: BYU Humanities Research Center, 3060 JKHB Brigham Young University, Provo, Utah 84602. 2.4. Novosibirsk University The natural language corpora at the Novosibirsk University Computational Linguistics Center is made up of both written and spoken data in approximately 50 different languages, some of which have only an oral tradition. Many of the languages are spoken within the USSR or in areas that border on the USSR: The Finno-Ugric languages, — The Turkic languages — The Paleo-Asiatic Languages, — The Mongolian languages — The TungusManchurian languages. The corpora consists of about 1 000 texts that deal with the everyday life of the Siberian aboriginals; their tales, traditions, religions, etc. Languages other than those listed above have been added to the corpus: IndoEuropean, Japanese, American Indian (Chontal, Haida), and languages of Australian aboriginals. For further information, write to: The Novosibirsk University Computational Linguistics Center, Novosibirsk University, Novosibirsk — 58, 630058 USSR. 2.5. American Indian 2.5.1. The Siouan Languages Archive The Siouan Language is spoken from central Alberta and Saskatchewan as far south as Oklahoma and from Wisconsin to Montana. There are sixteen languages in the Siouan family of which, to cite a few, are: Crow, Dakota, Osage, and Winnebago. Shortly after 1830, missionaries began to work among the Indians and to teach them to read and write their own language. “In the last half of the 19th century, scholars became interested in the languages and cultures for their own sake and scientific recordings and analysis began” (Rood 1980, 191). The archive includes elementary reading and writing lessons, personal letters, diaries and histories, political and legal documents, songs, dictionaries and grammars, tape-recorded oral history, etc. The goal of the Archive is to establish this material as the database for a computer-operated information retrieval system. The archive is aiming at a bilingually accessible archive. — For fur-

IV. Computer-Aided Description of Language Systems I:Basic Problems

152

ther information, write to the Department of Linguistics, U. of Colorado, Boulder, Colorado, USA. 2.5.2. Language Analysis Project The Language Analysis Project of the Department of Linguistics at the University of Pennsylvania, Philadelphia, Penn. 10 104, is working on the development of algorithms that can be applied across languages for morphological and syntactic analysis, especially relating to little known languages. The project has a language corpus of some 4,5 million words. The American Indian languages are: Chorti, Mayan, Popoluca, Sayula, Takelman, and Yucatec. The project also has other languages than American Indian, e. g., Somali, Indo-European languages including Slavic. — For further information write to the above address. 2.5.3. Yuman Dictionary Project Margaret Langdon of the Linguistics Department at the University of California, San Diego has received a National Science Foundation grant for the construction of a comparative dictionary of the Yuman languages, a family of American Indian languages spoken in the southwest United States. Speech recordings were made of the Yuman Indians, and then transcribed either phonemically, or, for those languages that had a system of writing, orthographically. — One of the aims of the project is to reconstruct the prototype language of Yuman. In so doing, the project also expects to be able to identify and describe the grammar of the languages. The project was begun in 1984 and will run for two years, after which time the corpora of the spoken language, the dictionaries, and grammars will be available to the academic community. For further information, write to Margaret Langdon at the above address.

3.

Psycholinguistic Database: Child Language Data Exchange System (CHILDES)

CHILDES was organized in 1984 at Carnegie-Mellon University (CMU), with the aim of bringing about major improvements in data collection, storage, and data sharing of child language data-transcripts. CHILDES has two centers, one at CMU and the other at the Max-Planck Institut fü r Psycholinguistik in Nijmegen, Holland. The sys-

tem has a corpus of recorded speech of children from many countries, speaking: English, Spanish, French, Hebrew, Danish, Hungarian, Italian, Tamil (one of the Dravidian languages spoken in South India), and bilingual Chinese-English. At present count CHILDES has 25 corpora in its data bank. — For further information, write to: Brian MacWhinney, Department of Psychology, Carnegie-Mellon University, Pittsburgh, PA 152 13.

4.

Individual Languages

4.1. Dutch The most important language corpora of Dutch are found at the Vrije Universiteit in Amsterdam. The corpora are used principally for linguistic analysis: (a) “The Elsevier Corpus” contains a representative selection of texts of all types from the period 1920—1975 totaling ca. three million words. The corpus is used principally for linguistic analysis. (b) “The Eindhovens Corpus” contains a representative selection of texts of all types from the year 1971 with a total of approximately one and a half million words. (c) “Phonolog ical and Morpholog ical Narrowly Transcribed Dialect Texts“ — transcribed in the international phonetic alphabet. The corpus is not finished but can be used in its present form. (d) “Middle Dutch Dialects on the Basis of 14th Century Charters”. Not complete but can be used as it is. Word indexes, concordances, and information concerning the morphology and syntax of the language are also available for the Eindhovens and Elsevier corpora. — For further information, write to either: the Department of Linguistics (Pieter Van Reenen) or the Computer Department (G. Van der Steen), Faculteit der Letteren, Vrije Universiteit, Amsterdam, Holland. 4.2. English In addition to the following databases, one should refer to the OTA. Many scholars and research groups have passed their data to this archive, e. g., “The Dictionary of Old English” and its 600 some odd texts of old English/Anglo-Saxon. 4.2.1. ICAME During the early 1960s, W. N. Francis, and H. Kucera of Brown University produced the

13.  Survey of Natural Language Corpora

well known Brown corpus, a collection of 500 texts in machine-readable form, each of about 2 000 words. The texts were made up of American prose and drawn from diverse genres that had been printed in 1961. The corpus was divided into two parts, one of “informative prose”, articles from the press, government and industry reports, texts on natural science, medicine, mathematics, biographies, etc., the other of “Imaginative prose” i. e., fiction. The corpus was produced for purposes of linguistic analysis. — As with many research centers, the research team that produced the corpus has turned over the responsibility for distributing it to an archive, which in this case is the International Computer Archive of Modern English (ICAME). ICAME has the following language corpora: (a) The Brown Corpus, Formats I and II. Format I is without grammatical tagging, has upper- and lower-case letters, and regular punctuation marks. It has the same line division as the original version, except that words at the end of a line are never divided. Format II is similar to format I, except that a new, longer line is used. (b) The LOB (Lancaster-Oslo-Berg en) Corpus Text, like the Brown Corpus, consists of 500 texts of 2 000 words each of British English. A grammatically tagged version (each word being tagged according to its grammatical category) is being prepared and will shortly be available. (c) The London-Lund Corpus contains samples of educated spoken English, in orthographic transcription with detailed prosodic marking. It consists of 87 “texts”, each of some 5 000 running words. The text categories represented are spontaneous conversation, spontaneous commentary, spontaneous and prepared oration, etc. — For further information write to: International Computer Archive of Modern English, Bergen University, Bergen, Norway. 4.2.2. Stanford Computer Archive of Language Materials (CALM) CALM has prepared a version of the Brown corpus, called the Brown MARC format, in which each record of a text contains a sentence. Since, when analyzing language, the context is all important, it is of significant importance to be able to retrieve the sentence where the structure occurs that is being analyzed. Data that are formatted in this way facilitate greatly the retrieval of the sentences as the unit of analysis. For further informa-

153

tion, write to: CALM, Department of Linguistics Stanford University Stanford, California 94305, USA. 4.2.3. Domesday Book Database The Domesday Book is a comprehensive land survey, undertaken for tax purposes in 1086 at the request of William the Conqueror to learn about the worth and nature of land holdings in the kingdom he had just acquired. Its entries provide specific and fairly standardized data on the holder, tax obligations, agricultural exploitation, population, annual value and tenurial status of nearly every manor in 11th century England. Because of the massive size of the “Book”, until it had been converted to machine-readable form, it had been extremely difficult to arrive at an understanding of its full context. In addition to being of significant value to English historians and geographers, it is of great interest to linguists. — For further information write to: C. Warren Hollister, Department of History, University of California, Santa Barbara, CA 93 106. 4.2.4. English Department, U. S. Military Academy Col. Jack L. Capp of the English department of the U. S. Military Academy at West Point, New York is studying the works of William Faulkner, and for his research has created an author-corpus of many of Faulkner’s novels: Intruder in the Dust, As I Lay Dying, The Wild Palms, Go Down Moses, A Fable, The Sound and the Fury. Copies on magnetic tape will be loaned to user upon written request. For further information write to Col. Capp, West Point, New York, USA. 4.2.5. English Department, Wisconsin University Tod Bender of the English Department at the University of Wisconsin, Madison, WI 53 706, has been engaged in the stylistic analysis of literary texts. His principal interest has been in the works of Joseph Conrad, and for his research he has encoded the complete works of Conrad. Other works that he has converted to machine-readable form are: The complete poems of Gerard Manley Hopkins, and of Canon Richard Watson Dixon, the letters of Keats, The Good Soldier by Ford Maddox Ford, Jane Eyre by Charlotte Bronte and Wurthering Heig hts by Emily Bronte. — For further information, contact Bender.

154

IV. Computer-Aided Description of Language Systems I:Basic Problems

4.3. French 4.3.1. Institut National de la Langue Française The Institut National de la Lang ue Française (INaLF) is the umbrella organization for a number of research groups inside and outside of France that are conducting research on the French language. The Trésor Général des lang ues et Parlers Français is the group within INaLF that deals directly with the natural language corpora and its related services. The Trésor Général has a language-corpus of 17th, 18th, 19th, and 20th century French literary texts constituting 120 million words. The 19th and 20th centuries comprise over 1000 texts and 70 million words. The texts in machinereadable form from the last two centuries was created during the making of the Dictionnaire de la Langue des XIXe et XXe Siècles. Contrary to the Oxford Text Archive, the Trésor Général only allows access to texts in machine-readable form at one of its locations or through the telephone networks, wherein services are available that will provide the scholars with word concordances, word indexes, without lemmatization or with partial lemmatization, and theme indexes. INaLF also provides information concerning norm word frequencies. The frequencies are broken down not only into time periods: century, half century, and every fifteen years, but also by genre: prose, verse, prose poetry, soliloquy, and dialogue. The frequencies are calculated on the lemmatized word. — For further information, including fees, one should contact: Services des Prestations Documentaires, INaLF, section de Nancy, 44 Avenue de la Libèration, C. D. 3310 Nancy, tel. (8) 3 96 21 76. 4.3.2. American and French Research on the Treasury of the French Language (ARTFL) ARTFL, working in collaboration with INaLF, has obtained copies of most of the texts that are contained at Nancy. The ney also have the same restrictions that INaLF has. To have access to the corpora, one’s institution must subscribe to the ARTFL data base. There is also a charge for CPU time. The ARTFL system is interactive and is intended principally for literary research. Users can work either on location at the University of Chicago, or from any location in North America, using a computer terminal and a moden. As at INaLF, programs are available

that will retrieve information from the text. Software such as the Oxford Concordance Program, and ARRAS will retrieve information that is not only of a literary or lexical nature, but, on an elementary level, linguistic also, i. e., one can obtain information concerning prefixes, infixes, suffixes, co-occurrences, etc. — For further information, write to: ARTFL, The University of Chicago, Department of Romance Languages and Literature, 1050 East 59th Street, Chicago, Illinois 60 637, USA. 4.3.3. University of Manitoba Paul Fortier of the Department of French and Spanish at the University of Manitoba has, over the past twenty years, created a language-corpus of 20th century French novels, as well as of a few texts from the 18th century (Montesquieu, Chenier, Marivaux). The texts from the 20th century are by: Robbe-Grillet, Beckett, Bernanos, Blais, Sartre, Malraux, Céline, Gide, and Camus. — Fortier’s field of research is the computational stylistic analysis of the themes of twentieth century French novels. — For information concerning the terms for obtaining copies of these texts, write to Paul Fortier. 4.4. German Any one who is interested in German machine-readable texts should consult Dokumentation Textkopora des neueren Deutsch. Institut fü r deutsche Sprache, Mannheim, 1982, which lists 75 collections of machinereadable texts. 4.4.1. Institut für Deutsche Sprache The Institut für Deutsche Sprache (IdS) was established in 1964 with the specific responsibility of studying and describing the presentday German written and spoken language. The IDS has five principal language corpora, three of them of the written language, two of the spoken, covering a period from 1947 to 1978. The Written Language (a) “The Mannheim Corpus 1” contains 32 texts with about 2.2. million words. The texts, from the period 1950—1967, are drawn from: belles lettres, popular literature, memoirs, scientific literature, newspapers, and periodicals. — (b) “The Mannheim Corpus 2” contains 47 texts with approximately 300 000 words. The texts, from 1950—1967, are drawn from

13.  Survey of Natural Language Corpora

edicts, statutes, legal judgements, textbooks, popular literature, scientific literature, newspapers, and periodicals. (c) “The Bonn Newspaper Corpus Part 1” contains a selection of articles from the years 1949, 54, 59, 64, 74, from the newspapers “Die Welt” (W. Germany) and “Neues Deutschland” (E. Germany). The Spoken Language (a) The “Freiburg Corpus” contains 224 texts from 1968—1974 with approximately half a million words of discussions, interviews, recitations, narratives, and news reports. (b) The “Dialog uestrukturen Corpus” includes texts of interviews and discussions from the period 1968—1978. For further information write to: Institut üf r deutsche Sprache, Abteilung Wissenschaftliche Dienste, Postfach 5409, 6800 Mannheim 1. 4.4.2. Institut für Kommunikationsforschung und Phonetik at the University of Bonn The Institut für Kommunikationsforschung und Phonetik has been engaged in research in the field of linguistic data processing and computational linguistics for the past 20 years. A number of data bases were created for this research: Author Corpora (a) The “Kant-corpus” contains the complete works of Kant, less his correspondence (19 volumes of the published version), and comprises some 2.8 million words. Indexes, frequency lists, ranking lists, etc. have been established for the corpus. (b) The “Heine-corpus” contains the complete works of Heinrich Heine — some 2.5 million words. The corpus is not available for use except on location and by special request. Language Corpora (a) The “Corpus of Middle Hig h German texts” consists of complete texts or works of different middle high German authors, e. g. “Heinrich Wittenwiler, Oswald von Wolkenstein, Hartmann von Aue, Konrad von Wü rzburg and Gottfried von Strassburg” (Lenders 1985, 13). (b) The “Corpus of Early Modern German texts” contains 40 texts, each 30 pages in length from the period 1350 to 1700, from different places of origin: Ripuarisch, Hes-

155

sisch, Mittelbairisch. Every noun, verb, and adjective in the corpus has been indicated by specific markers, so that lists of nouns, verbs, and adjectives have been generated. (c) The “LIMAS-corpus of Modern Standard German” is considered to be a representative corpus of modern standard German from the year 1970. It has been constructed in accordance to the BROWN-Corpus and has 1 million words. (d) The “The Limas-Totalkorpus”, is a collection of texts: novels, specialized books, reports, etc. It contains 4 millions words. Word Corpora (Dictionaries) (a) The “LIMAS-dictionary”, is a list of more that 130 000 words. Every word is combined with a set of linguistic markers, expressing one or more word classes plus morphological information. (b) The “Mackensen-dictionary”, is a machine-readable representation of the dictionary of Standard Modern German by Mackensen. It has 117 370 entries. (c) The “Cumulated Word Data Base” consists of several machine readable dictionaries, e. g., the MOLEX-dictionary, and the SADAW-dictionary, which have been integrated and can be used on-line. For further information, write to: Institut üf r Kommunikationsforschung und Phonetik, Universität Bonn, Poppelsdorfer Allee 47, 5300 Bonn, West Germany. 4.4.3. Arbeitsgruppe für MathematischEmpirische Systemforschung The Arbeitsgruppe fü r mathematisch-empirische Systemforschung (MESY) has two language corpora: (a) “Student poetry” — from some 150 anthologies of minor German students from the period 1822—1966, comprising about 300 000 words in approximately 3 000 poems. (b) The “Prose Corpus” — 40 texts of fiction and non-fiction of German and nonGerman writers containing some 4.2 million words. Although the information provided by MESY for the Dokumentation Textkorpora des neueren Deutsch, (IDS 1982, 50) states that the prose corpus is available with certain conditions, correspondence with a member of MESY claims that the texts are “not available to the scientific public for research purposes due to the publishers special contract conditions.” It is reasonable to suppose that the prose corpus can be accessed on site.

156

IV. Computer-Aided Description of Language Systems I:Basic Problems

4.4.4. University of Adelaide The “Adelaide corpus” consists of seven sets of texts comprising, in all, 70 texts of written, present-day German. It contains 100 000 words. The corpus was created for research on a basic vocabulary of the Arts and Social Sciences, principally of a statistical nature, concerning the word’s distribution, usage, range and frequency of use. — For further information, write to: Director of the Language Laboratory, The Universtiy of Adelaide, G. P. O. Box 498, Adelaide, South Australia 5001. 4.4.5. Arbeitsstelle für wissenschaftliche Didaktik of the Goethe-Institut, Projekt Phonethek The Arbeitsstelle fü r wissenschaftliche Didaktik Projekt Phonethek, of the Goethe-Institut has created a language corpus “Wissenschaftsdeutsch-Corpus” and a word corpus. The “Wissenschaftsdeutsch Corpus”, which was created for a project on scientific German, contains 102 texts of 34 subject areas, with an overall word count of 250 000. Each subject area is reprensented by 3 texts of the following type: textbook, professional journals, and the popular press. — The word corpus contains a list of 8 003 words “der Mindestfrequenz 101 auf ca. elf Millionen lfd. Wortformen von F. W. Kaeding’s Häufigkeitswörterbuch der dt. Sprache, Steglitz bei Berlin (Selbstverlag des Hrsg.) 1898” (IDS 1982, 61). — For further information write to: Arbeitsstelle fü r wissenschaftliche Didaktik Projekt Phonethek, Goethe-Institut, Postfach 20 10 09, D-8000 München 2. 4.5. Greek 4.5.1. Thesaurus Linguae Graecae The Thesaurus Ling uae Graecae (TLG) is a computerized data bank designed to hold the entire corpus of ancient Greek literature, from Homer to a. d. 600 (and in some cases, beyond). Begun in 1972, the TLG now contains approximately 40 million words of ancient Greek text. — Specified segments of the TLG can be provided to users in a variety of tape formats. For further information write to: TLG project, University of California, Irvine, CA 92 717. 4.5.2. Data Bank and Research Tools for Septuagint Studies The goal of this project is to establish a data

bank for the study of Jewish scriptures in their Greek and related forms. Included in the database is the Greek text of the Septuagint with all textual variants, the Hebrew text with its textual variants, morphological analyses of the Greek and Hebrew material, and a file representing the alignment in parallel vertical columns of the Greek materials with the Hebrew. — As materials become ready for distribution, they can be obtained by qualified parties, at cost, on magnetic tape by writing to the IBM facility at the University of Pennsylvania, School of Arts and Sciences. 4.5.3. Duke Data Bank of Documentary Papyri (DDBDP) The aim of this project is to create a machine readable base of all Greek words found in the documentary papyri, estimated at 6 million, found in approximately 35 000 texts ranging from the fourth century B. C. to the seventh century A. D. The work ist being done in collaboration with, and as a complement to, the database of the Thesaurus Linguae Graecae. — Data available from Phase I (which covers some 84 published volumes of papyri) will be available by the end of 1985. The material will be provided at cost. — For further information write to: John F. Oates and William H. Willis, Department of Classical Studies, Duke University, Durham, NC 27 706. 4.5.4. Data Bank for Ancient Greek Inscription “The inscribed texts of the ancient Athenian public decrees from 403 to 318 B. C. have been encoded in Beta Format (the standard transliteration of the Greek alphabet used by the Thesaurus Linguae Graecae), with coding for epigraphical symbols, ... A data set of 18 837 lines, developed from 521 inscriptions of this period, has been included in the base ... Combined with the existing file of texts of the decrees and laws to 403, the new material builds a data bank of 784 inscriptions from the sixth century to 318” (West, Unpublished paper). — For further information write to: Prof. William C. West, III, Department of Classics, The University of North Carolina at Chapel Hill, 212 Murphey Hall 030 A, Chapel Hill, N. C. 27 514, USA. 4.6. Latin 4.6.1. Index Thomisticus Literary and linguistic computing can trace its origins back to Father R. Busa and his

13.  Survey of Natural Language Corpora

computational studies of the works of Saint Thomas Aquinas, begun in 1949. To produce the word index and concordance to the works of Aquinas, Busa created a data bank of ten and a half million words of Aquinas’ works, as well as three million more words in three alphabets (Greek, Hebrew, and Cyrillic) of texts of eight more languages, this in order to test procedures. The index and concordance are lemmatized. The concordance includes “about two and a half lines of context for each word” (Hockey 1980, 68). In 1953 Busa founded the Center for the Automation of Literary Analysis at Gallarate. In 1966 the processing of the Index Thomisticus was transferred to the Centro Nazionale Universitario di Calculo Elettronico (C. N. U. C. E.), at Pisa, and control of the operation now appears to have been taken over by the Istituto di Ling uistica Computazionale. To obtain information about the Index Thomisticus one might try contacting the director of the Center for the Automation of Analysis at Gallarate. 4.6.2. Lessico Intellettuale Europeo, Rom The Lessico Intellettuale Europeo is working on a project to create a Thesaurus Mediae et Recentioris Latinitatis. So far, twelve works and text collections have been filed of Medieval Latin translations of philosophical and scientific texts. — For further information, contact Tullio Gregory, Lessico Intellettuale Europeo, Via Nomentana, 118, I-00161 Roma, Italy. 4.6.3. A. P. A. Repository of Greek and Latin Texts Stephen V. F. Waite has been collecting and storing texts in machine-readable form of Greek and Latin literature for the past twenty years. Although he maintains Greek texts in his repository, he has deposited copies of the texts at the Thesaurus Ling uae Graecae, so that consequently, the texts that are of principal interest to scholars are the Latin ones. Latin texts from 27 different authors can be found in the repository, and this number is constantly increasing, as is the case with most archives. One can find in the list of works provided by Stephen Waite, texts by Caesar Cato, Cicero, Euclid, Horace, Ovid, and Vergil. — For further information, contact Stephen V. F. Waite, Logoi Systems, 27 School Street, Hanover, New Hampshire 03755, USA.

157

4.6.4. Seminar für Klassische Philologie, University of Berlin The Seminar fü r Klassische Philologie has a language corpus of works by Stiblinus, Sallust, F. Bacon, Thomas More, Minucius, Plinius, Vergil, J. V. Andrea, T. Campanella, Vegetius, Jordanus Rufus, Chiro, Ypokras Indicus. — For further information write to D. Najock, Seminar fü r Klassische Philologie, Ehrenbergstr. 35, 1000 Berlin 33, West Germany. 4.7. Norwegian The Norwegian Computing Centre for the Humanities, Bergen University, has four language corpora, three of which are composed of newspaper articles, used mainly for vocabulary and frequency studies, and one of novels use pricipally for frequency and orthographical studies: (a) “Newspaper articles from three central newspapers” — about 900 000 words from 1980—1981. (b) “Samples of Newspaper Articles at 25 year intervals” — about 900 000 words from the years 1900, 1925, 1950. (c) “Newspaper Articles from 1982—83” — about 500 000 words. (d) “Sixty Novels” — Twenty each from the years 1937, 1957, and 1977 — with approximately one million running words. Half the novels are written in “Nynorsk”, the other half in “Bokmȧ”. For further information, write to: The Norwegian Computing Center for the Humanities, Box 53, N-5014 Bergen-Universitet, NORWAY. 4.8. Spanish 4.8.1. Dictionary of the Old Spanish Language (DOSL), University of Wisconsin DOSL has two principal corpora: (a) an author-corpus comprising the Alfonsine-corpus, (b) a language corpus comprising the Corpus of fourteenth-century Aragonese dialect works. The origins of DOSL date back to 1930 when the Seminary of Medieval Spanish Studies at the University of Wisconsin began the compilation of an Old Spanish dictionary, using a core vocabulary drawn from the thirteenth century texts of Alfonso X, el Sabio, King of Castile and Leon (1252—1284). In 1970 it was decided to com-

158

IV. Computer-Aided Description of Language Systems I:Basic Problems

puterize the operation and the DOSL project was begun. It was also decided to include computer generated concordances of new transcriptions of some 250 representative manuscripts and incunabula dating from 900 to 1500. By 1978 the Alfonsine-corpus — all five million words — had been encoded. Following this, the fourteenth-century Aragonese dialect works completed under the aegis of Juan Fernandez de Heredia was converted to machine-readable form. In 1979 work was begun on a data base of actual dictionary entries, and lexicologists may now conduct a search of the corpora for old Spanish vocabulary and retrieve information consisting of a citation and linguistic details about each lexical entry. — Copies of texts in machine-readable form can be obtained for those texts that have already been formally disseminated by the Hispanic Seminary of Medieval Studies, Ltd. and will be distributed on an ad hoc basis. For further information write to: John Nitti, 1132 Van Hise Hall, Dept. of Spanish and Portuguese, University of Wisconsin-Madison, Madison, Wi 53706. 4.8.2 Départment de Langues et Linguistique, l’Université de Laval In 1976 work was begun at Laval University to create an inverse dictionary of the Spanish language — Diccionario inverso de la leng ua española (DILE). A word corpus of dictionaries was established as the data bank to draw upon to create the DILE and was given the title of “Sixteen Dictionaries and Lexicons of Spanish”. The DILE project is also in the process of creating a language-corpus: “The Lexicon Database”, of which at the present time, one text is available, a play: Una Libra de Carne by August Cuzzani. The DILE project has chosen for its database, dictionaries of present-day Spanish, representative of various geographical areas and social strata. From this database, linguistic information of a statistical nature will be retrieved concerning (and here from an unpublished paper on the project shall be cited): (a) las finales de las palabras, (b) las categ orias g ramaticales representadas, (c) las categ orias g ramaticales y las finales de palabra, (d) las finales de palabra y las fuentes y ellas fuentes y las,

(e) categ orias g ramaticales contenidas en cada una de ellas. DILE contains approximately 181 000 words as well as the word’s grammatical category and information about its source. Approximately 99 000 words are drawn from the Diccionario de la Real Academia española. For further information, write to: Silvia Faitelson-Weiser, Department of Language and Literature, Faculty of Letters, University of Laval, Quebec, Qc. G1K 7P4. 4.8.3. International Electronic Archive of the Romancero (AIER), Madrid The AIER is a cooperative project with its main headquarters at the Menendez Pidal Archives, Madrid, Spain. A number of institutions throughout the world contribute to the project whose purpose is to collect, store, and study the Pan-Hispanic ballad. In order to do this the AIER has established a language-corpus of ballads, as well as other corpora that contains related information. (a) The “AIER Database” — Each record consists of 47 variable length, comma delimited fields of which the last is the ballad text itself. Other fields register the ballad theme’s identification number, its title and prosodic data, other titles by which the ballad is known, etc. (b) The “General Exemplified Index of the Romancero” (IGER) — Each record in IGER contains the romance’s identifying number, its geographic dispersion, old and modern incipits, other titles by which the ballad is known, and one or more complete versions of the ballad. (c) The “General Catalogue of the PanHispanic Romancero” (CGR) — Each entry comprises 11 fields: the IGER number, title and prosodic data, detailed geographic distribution of versions, narrative traces left in other ballads, contrafacta, Spanish and English summaries with plot and fabula variants geographically identified, etc. (d) The “Traditional Hispanic Romancero” — This corpus contains editions of individual regional collections (Sephardic, Portuguese and Canary Island ballad texts). (e) The “Sources for the Study of the Romancero” — This corpus contains thematically organized editions of ballad texts. For further information, write to: (In Europe): Menendez Pidal Archives, Instituto Universitario “Seminario Menendez Pidal”, Universidad Complutense de Madrid, Menendez Pidal 5, 28036 Madrid, Spain. (In

14.  Segmentierung

the United States): Diego Catalan, Dept. of Literature, D-007, University of California, San Diego, La Jolla, CA 92093. 4.8.4. Logotheque, Göteborg Logotheque is involved in various collaborative projects, one of which is the creation of a reference corpus of two million running spanish words from newspaper material from which a concordance has also been prepared. This is in collaboration with Per Rosengren and Mr. David Mighetto of the Department of Romance Languages at the University of Göteborg. The information concerning access and dissemination of the data is the same as in the following section. 4.9. Swedish 4.9.1. Sprȧkdata, Göteborg Sprȧkdata is the abbreviated form for Institutionen för sprȧkvetenskaplig databehandling which is the Department of Computional Linguistics at the Göteborg University. Logotheque, the Swedish language bank, a service branch of the linguistics department, was established by the Swedish government in 1975. It is responsible for the collecting, storing, processing, and providing of linguistic material in machine-readable form. The language material is basically Swedish, although data on other languages are also included. Data at the Institute are encoded on the spot, acquired from other researchers, or, when the text is available in printed form, converted into machine-readable form by an optical character reader. The language corpora at Logotheque is

14. 1. 2. 3. 4. 5.

1.

159

synchronic, and except for a corpus of Strindberg’s works, dates from post 1965 and is principally of the written language. The language corpus contains some 30 million running words: novels (69 published in 1976 and 60 in 1981, comprising approximately nine million words), legal texts (about 500 000 words), reports of the proceedings of the Swedish Parliament (1978—79), about four million), daily newspapers (1965, 1976, about 2.3 million), and weekly magazines. An author corpus of between six and seven million words of the complete works of August Strindberg is also being encoded at Logotheque. — Word corpora within Logotheque comprise about 200 000 entries, including the vocabularies of the Word-list of the Swedish Academy and the Frequency Dictionary of Present-Day Swedish based on newspaper material. A project at Logotheque called “Lexin” is creating dictionaries for various immigrant groups. Along these lines a Swedish dictionary that serves as basis for translation has been developed and will be published by Sprȧkdata. It contains about 15 000 words — copies of data in machinereadable form, as well as of concordances of encoded texts are available for academic research. For information, write to: Logotheque, Sprȧkdata, Göteborg Universitet, Norra Allégatan 6, 3—413101 Göteborg, Sweden.

5.

Literature (selected)

S. Hockey 1980 · IDS 1982 · W. Lenders 1985 · D. Rood 1980.

Robert F. Allen, Piscataway, New Jersey (USA)

Segmentierung in der Computerlinguistik Problemstellung Physikalische Verfahren der Segmentierung Linguistisch-klassifikatorische Verfahren der Segmentierung Klassifikation von Segmenten Literatur (in Auswahl)

Problemstellung

Das Problem der Segmentierung in der Computerlinguistik hat seinen Ursprung darin, daß

erstens sprachliche Phänomene, besonders in der gesprochenen Form, nicht von vorneherein hinreichend deutlich in ihre Segmente zerlegt und in ihrer Funktion bestimmt sind, daß aber zweitens fü r die Arbeit mit dem Computer auf diese Segmente, nämlich auf die Laute, die Silben, die Wörter, die Sätze, die Sinneinheiten und ihre Beziehungen zueinander zugegriffen werden muß. Zwar wird in der geschriebenen Form mancher Sprachen eine Segmentierung be-

160

IV. Computer-Aided Description of Language Systems I:Basic Problems

reits vorgegeben, z. B. durch die Buchstabenschrift, die Wortzwischenräume und Interpunktionszeichen. ü F r eine linguistische Struktur- und Funktionsbeschreibung reichen diese jedoch nicht aus. Ebenso sind in der gesprochenen Sprache zweifellos hörbare Segmentgrenzen vorhanden; die ’Hörbarkeit’ allein aber liefert noch kein hinreichendes Abgrenzungskriterium fü r die Verarbeitung durch Computer. Einige Beispiele mögen verdeutlichen, auf welche Weise fortlaufender Text (hier der erste Satz aus R. Musils „Mann ohne Eigenschaften“) in Segmente zerlegt werden kann (vgl. auch die Beispiele in Art. 17 in diesem Handbuch): 1) Segmentierung in Buchstaben: Ü-b-e-r-d-e-m-A-t-l-a-n-t-i-k-b-e-f-a-nd-s-i-c-h-e-i-n-b-a-r-o-m-e-t-r-i-s-c-h-e-s-M-in-i-m-u-m 2) Segmentierung in Lautzeichen (hier durch eine phonetische Schrift wiedergegeben): y:-b-ǝ-r-d-e:-m-α-t-l-α-n-t-i-K-b-ǝ-f-α-nt-z-I-ç-α-e-n-b-a-r-om-e-t-r-I-ʃ-ǝ-s-m-i-n-Im-U-m 3) Segmentierung in Silben: über-dem-At-lan-tik-be-fand-sich-ein-baro-me-tri-sches-Mi-ni-mum. 4) Segmentierung in Morphe: über-dem-Atlant-ik-be-fand-sich-ein-baro-metr-isch-es-Minim-um 5) Segmentierung in Wörter (genauer: Wortformen): über-dem-Atlantik-befand-sich-ein-barometrisches-Minimum. 6) Segmentierung in Satzteile: Über dem Atlantik — befand sich — ein barometrisches Minimum. Wenn man einen Satz in dieser Weise zerlegt, zieht man in der Regel unbewußtes Wissen ü ber die Struktur der Sprache heran. Dieses Wissen ist — als Ergebnis eines langandauernden Sprachlernprozesses — im Gedächtnis eines Menschen als Wissen ü ber sein Sprachsystem gespeichert. Es ist also begrifflich zu unterscheiden zwischen den Einheiten des Sprachsystems, den Phonemen, Morphemen, Lexemen auf der einen, und den beobachtbaren Einheiten des Sprachverhaltens, den Phonen, Morphen, Wortformen auf der anderen Seite (vgl. Lyons 1981, 1.3). Fü r die Entwicklung von maschinellen Verfahren muß das in jeder sprachlichen Erscheinung enthaltene Wissen explizit gemacht werden, d. h. daß anhand von exakt definierten Segmentgrenzen die Segmente

aus der umgebenden größeren Einheit isoliert werden mü ssen. Die isolierten Segmente lassen sich miteinander vergleichen und klassifizieren. Segmentierung erfolgt also auf allen linguistischen Ebenen und in allen Systemen, in denen Sprache, geschriebene oder gesprochene, maschinell verarbeitet wird. In der Computerlinguistik wird das Problem der Segmentierung auf zwei Weisen gelöst, zum einen durch Erkennung der physikalischen Segmentgrenzen in akustischen Sprachsignalen bzw. in Buchstabenfolgen; die physikalischen Segmentgrenzen sind hierbei durch phonetische Merkmale wie Pausen, Formanten, Intonation etc. und durch graphische Merkmale wie Wortzwischenräume, Satzzeichen etc. gegeben; zum anderen durch besondere sprachwissenschaftliche Verfahren der funktionalen Beschreibung gleicher sprachlicher Einheiten und deren Klassifikation, womit vor allem die Methoden der Minimalpaaranalyse und des Parsing gemeint sind.

2.

Physikalische Verfahren der Segmentierung

Im folgenden wird der Prozeß der Segmentierung anhand expliziter physikalischer Segmentgrenzen an einigen Beispielen aus verschiedenen linguistischen Beschreibungsebenen erläutert, und zwar an den Beispielen der Isolierung von Lauten und Buchstaben, der Silbentrennung, der Isolierung von Wörtern in Sätzen und schließlich der Zerlegung von Texten in Sätze. 2.1. Isolierung von Lauten In vielen wissenschaftlichen Fragestellungen (z. B. in der Phonemanalyse, vgl. Art. 16) und in praktischen Anwendungen (z. B. der automatischen Spracherkennung, vgl. Art. 47) kann es erforderlich werden, die Laute eines gesprochenen Textes zu isolieren. Physikalisch gesehen stellt die Kette der Laute ein zeitliches Kontinuum akustischer Signale dar. Das Problem der Segmentierung besteht in der Umwandlung dieses Kontinuums in eine diskrete Zeichenkette. Es liegt nahe, dieses Problem zu lösen, indem man sich zunutze macht, daß sich „die Eigenschaften des Sprachsignals ... in der Regel von Segment zu Segment“ ändern, „während sie innerhalb eines Segmentes weitgehend konstant bleiben“ (Ney 1983,

14.  Segmentierung

161

117). Es geht also darum, die ü ber eine gewisse Dauer konstanten Eigenschaften eines Sprachsignals, z. B. die Formantstruktur, zu ermitteln und die aufgrund dieser Eigenschaften isolierbaren Segmente zu Klassen zu ordnen. Abb. 14.1 zeigt einen Ausschnitt aus der Aufzeichnung eines gesprochenen Satzes in einem Sonagramm. Die kontinuierliche Signalkette ist nach der Signalfrequenz (y-Achse), der Intensität (Schwärzung) und

dem Zeitverlauf (x-Achse) dargestellt. Der Fachmann erkennt aus dieser Aufzeichnung, an welcher Stelle ein bestimmter Laut anzunehmen ist, d. h. wo eine Segmentgrenze liegt. In unserem Beispiel wurde der jeweilige Laut explizit in phonetischer Umschrift unter dem Sonagramm angegeben; jeweils unter der phonetischen Umschrift befindet sich die Darstellung des Wortlauts in Schreibschrift. Die phonetischen Zeichen und die Zeichen der Schreibschrift stehen als Vertreter eines lautlichen Segments.

Abb. 14.1: Sonagramm Die Segmentierung des akustischen Kontinuums in Laute wurde in diesem Beispiel durch das Gehör unterstü tzt. Es ist bis heute fraglich, ob man fü r die Erkennung von Lauten in fließender Rede ü berhaupt zuverlässige automatische Phonem-Erkenner entwikkeln kann; bisherigen Arbeiten auf diesem Gebiet war offenbar nur ein begrenzter Erfolg beschieden (vgl. Marcus 1983 a, 25). Trotz dieses offenkundigen Problems, die Grenzen der Laute und Wörter im Kontinuum gesprochener Sprache explizit zu beschreiben, sind Menschen in der Lage, Einzellaute und Wörter zu erkennen. Sie verfü gen ü ber Muster der Einzellaute und Wörter (bzw. ü ber die Art und Weise ihrer Erzeugung; vgl. Marcus 1983 a, 25), die Phoneme und Lexeme, die sie aufgrund eines langandauernden Spracherlernungsprozesses ge-

speichert haben, und verwenden dieses Wissen beständig bei der Erkennung der einzelnen Segmente eines Textes. 2.2. Silbensegmentierung Die Segmentierung von Texten in Silben ist eine ü bliche Fähigkeit des Sprecher/Hörers, die er zur intonatorischen Gliederung der Rede einsetzt. Sie Silbe ist Träger so wichtiger Eigenschaften der gesprochenen Sprache wie Tonhöhe und Akzent. Im geschriebenen Deutsch macht man sich diese intonatorischen Gliederungsmarken fü r die Trennung der Wörter am Zeilenende zunutze: Man trennt „nach Sprechsilben, die sich beim langsamen Sprechen von selbst ergeben“ (Duden 1986, R 178, S. 58). In der Automatisierung der Silbentren-

162

IV. Computer-Aided Description of Language Systems I:Basic Problems

nung z. B. fü r Textverarbeitungsprogramme liegt die praktische, außerwissenschaftliche Bedeutung dieses Themas der Computerlinguistik. In wissenschaftlicher Hinsicht ist das Problem der Silbentrennung interessant fü r prosodische Untersuchungen an Texten, z. B. fü r Untersuchungen ü ber den rhytmischen Aufbau von Verstexten (vgl. Chisholm 1980). Wie im Falle der Laute, so muß jedoch auch fü r die Silbe festgestellt werden, daß eine einheitliche phonetische Definition der Silbe immer noch fehlt, d. h. daß es noch kein Verfahren gibt, aus den physikalischen Eigenschaften eines Sprachkontinuums die Grenzen zwischen Silben zu erkennen (vgl. Kohler 1977, S. 82; Marcus 1983 a, 26 f.). Physikalisch gesehen sind die Grenzen zwischen Silben schlecht definiert. Doch macht man sich in neueren Systemen zur automatischen Sprachsynthese die Tatsache zunutze, daß es an den vokalischen Silbenkernen Energiemaxima gibt, an welchen man die Silbe in Halbsilben zerlegen kann. Aus diesen können dann „im Deutschen etwa 50 Konsonantengruppen üf r den Silbenanfang und etwa 150 fü r das Silbenende“ abgeleitet werden (vgl. Marcus 1983 a, 26; unter linguistischen Gesichtspunkten auch Bátori 1975, 321). Durch Kombination der Segmente dieses Inventars von Halbsilben lassen sich Wörter erzeugen und so Verfahren zur Sprachsynthese konstruieren. 2.3. Segmentierung von Sätzen in Wörter Doch auch die algorithmische Erkennung einer auf den ersten Blick unproblematisch erscheinenden Einheit, des Wortes nämlich, erweist sich bei näherer Betrachung als nicht so einfach. Zu unterscheiden sind zwei Fälle, a) die Segmentierung des lautlichen Kontinuums eines Satzes in Wörter als lautlichakustische Einheiten und b) die Segmentierung der schriftsprachlichen Zeichenkette eines Satzes in schriftsprachliche Einheiten. Zu a) Wie im oben schon beschriebenen Fall der Erkennung von Einzellauten, so muß es auch im Falle der akustischen Worterkennung darum gehen, die konstanten Eigenschaften des Sprachsignals festzustellen, die innerhalb eines Wortes fü r dessen Erkennung, d. h. Zuordnung zu einem Muster (Lexem), maßgebend sind. Man kann grob zwischen Einzelworterkennung und Worterkennung in fließender

Rede unterscheiden. Im ersten Bereich liegen heute ausgereifte und anwendungsbezogene Verfahren vor. In diesen wird durch eine akustische Analyse des gesprochenen Wortes ein Merkmalsmuster erstellt, das mit einer vorgegebenen Menge an Referenzmustern verglichen wird (zu den Verfahren im einzelnen vgl. z. B. Geppert/Kuhn/Ney 1983, 313 ff.; ferner Art. 47). Fü r die Erkennung von Wörtern in fließend gesprochener Rede dagegen reichen rein akustische Parameter nicht aus. Zur Erkennung der Wortgrenzen mü ssen hier andere ’Wissensquellen’, auch als ’höhere Wissensquellen’ bezeichnet, herangezogen werden (Geppert/Kuhn/Ney 1983, 372 ff., Brietzmann 1984). Zu b) In der Praxis des schriftlichen Sprachgebrauchs verwendet man beständig ein bestimmtes Merkmal, mit dem man die Wörter eines Textes voneinander trennt, den Wortzwischenraum. Es gibt aber auch kontrahierte Formen, die Informationen aus zwei Wortformen enthalten (z. B. im ), und Verteilung des Wortinhalts auf mehrere Teile eines Wortes (z. B. in kommt an vs. ankommen und ab und zu vs. gelegentlich ). Das Merkmal des Wortzwischenraums fü hrt jedenfalls in vielen Fällen nicht zur eindeutigen Abgrenzung von Wörtern, es bedarf dazu vielmehr zweier zusätzlicher und fü r die Computerlinguistik grundlegender komplexer Bearbeitungsschritte, der Lemmatisierung und der Auflösung von Mehrdeutigkeiten (fü r Einzelheiten dieser beiden Themen vgl. Artikel 17). Man erkennt aus diesen Ausfü hrungen, daß zur Segmentierung eines Textes in Wörter nicht problemlos der Wortzwischenraum herangezogen werden kann. Zwar handelt es sich beim Wortzwischenraum um eine linguistische Information, die der Sprachbenutzer explizit in seinen geschriebenen Text einträgt; in vielen Fällen muß er aber, um Wörter eindeutig zu erkennen, auf den größeren Textzusammenhang zurü ckgreifen, also die betreffende Wortform hinsichtlich ihrer Funktion in der ü bergeordneten sprachlichen Einheit sehen (vgl. unten 3.). 2.4. Segmentierung von Texten in Sätze In den meisten maschinellen Analysesystemen (so in den bisherigen Expertensystemen mit natü rlich-sprachlicher Schnittstelle; vgl. Art. 57, 58, sowie in maschinellen Übersetzungsverfahren, vgl. Art. 53) wird die Einheit des Satzes als Analysegegenstand vorausgesetzt. Ein fortlaufender Text wird dabei meist

14.  Segmentierung

anhand von vorkodierten Identifikatoren in Sätze zerlegt. Im Deutschen können dazu die Interpunktionszeichen herangezogen werden. So dienten z. B. die Zeichen „.“ und „;“ im Saarbrü cker maschinellen Analysesystem SUSY fü r das Deutsche als Satztrennungszeichen; “,“ wurde als Trennzeichen fü r Nebensätze verwendet. Bei der Übertragung von SUSY auf die Englische Sprache „erwies sich der fü r das Deutsche entwickelte Operator“ zur Satzsegmentierung „als untauglich, da dieser vor allem die strikte Zeichensetzung des Deutschen ausnutzt“. Das Englische dagegen zeichnet sich „durch eine Zeichensetzung auf, die sich nicht an den Teilsätzen, sondern eher an der Betonung orientiert“. Als Konsequenz aus diesem Sachverhalt mußte fü r das Englische ein Programm geschrieben werden, „bei dem zunächst auf der Basis der Wortklassen Wortgruppen zusammengefaßt und typisiert werden, innerhalb derer sich keine Teilsatzgrenze befinden kann“ (Blatt 1987, 302/303; auch Schmitz, K. D. 1986).

3.

Linguistisch-klassifikatorische Verfahren der Segmentierung

Die explizite Angabe der Segmentinventare auf allen linguistischen Ebenen ist identisch mit der Explikation des menschlichen sprachlichen Wissens. Es ist daher nicht verwunderlich, daß das Problem der Segmentierung unter methodischem und inhaltlichem Aspekt Gegenstand mancher linguistischen Theorie ist. Fü r die strukturelle Linguistik wurde die Segmentierung sogar zur grundlegenden Methode der Linguistik überhaupt. In strukturell-linguistischer Hinsicht ist Segmentierung Voraussetzung einer jeden Klassifikation von Segmenten nach ihrer Funktion; einer jeden Zuordnung struktureller und lexikalischer Information zu Texten geht die Segmentierung als methodischer Schritt voraus, fü r den formalisierbare Prozeduren gesucht werden, wenn sie auch praktisch nicht von der Klassifikation zu trennen ist. In der Praxis wurde das Problem der Segmentierung unter zwei verschiedenen Gesichtspunkten angegangen (vgl. auch Weber, H. 1973, 167): zum einen mit dem Ziel, in erster Linie die Inventare der funktional verschiedenen Segmente auf den einzelnen linguistischen Ebenen zu ermitteln, zum anderen mit der Absicht, die linearen und hierarchischen Beziehungen zwischen den Segmenten von Texten aufzuzeigen. Die hier bereit-

163

gestellten algorithmisierbaren und programmierbaren Verfahren sind einerseits die Minimalpaar- und Distributionsanalyse und andererseits das Parsing. Auf beide Themen wird in diesem Handbuch in besonderen Artikeln ausfü hrlich eingegangen, so daß an dieser Stelle nur verdeutlicht werden soll, daß es sich um Verfahren der Segmentierung handelt (vgl. Artikel 6, 18, 31 und 32; zu einzelnen Parsing-Methoden vgl. auch King (ed.) 1983). 3.1. Minimalpaaranalyse Minimalpaaranalysen wurden im wesentlichen auf den Ebenen der phonologischen und morphologischen Beschreibung verwendet. So fü hrt Z. S. Harris „Segmentation“ ein als einen ersten Schritt, „toward obtaining phonemes“, als eine Prozedur, die „represents the continuous flow of a unique occurence of speech as a succession of segmental elements, each representing some feature of a unique speech sound” (Harris 1951, 25).

Eine erste ’Zerteilung’ des kontinuierlichen Stromes der Rede wird aufgrund wahrgenommener Pausen, also physikalischer Phänomene gemäß Abb. 14.1, vorgenommen. Die so ermittelten „vorläufigen“ Segmente werden der „Minimalpaaranalyse“ unterzogen; d. h., daß Wortpaare gebildet werden, die sich minimal unterscheiden. Diese werden miteinander hinsichtlich des Kriteriums der Bedeutungsgleichheit verglichen, so daß abschließend die sie unterscheidenden Laute ggf. zu einer (Phonem)-Klasse geordnet werden können. Die Segmentierung erfolgt im Falle der Minimalpaaranalyse in Verbindung mit der Klassifikation der Einheiten nach ihrer Funktion. Beide sind untrennbar miteinander verbunden. Ein umfangreiches Computerprogramm, in welchem eine Minimalpaaranalyse zur ’Entdeckung’ des Phonemsystems beliebiger Sprachen dargestellt wurde, ist TOPAS (Wothke 1983; vgl. auch Artikel 16). Wie im Falle der Laute, so kann man auch für Silben eine linguistisch-funktionale Definition vornehmen, und zwar aus der Kombination bzw. Distribution der sie bildenden Phoneme (vgl. Kohler 1977, 112 ff.). Eine solche Definition läßt sich in Verfahren zur Silbentrennung und zur Erkennung von Silben einsetzen. So sind die in der Duden-Grammatik (1966) der deutschen Gegenwartssprache aufgefü hrten 14 Regeln der Silbentrennung

164

IV. Computer-Aided Description of Language Systems I:Basic Problems

wohl aus distributionellen Überlegungen entstanden. Einige dieser Regeln definieren die Silbengrenze aufgrund von Kriterien der lautlichen Umgebung des Vokals: „Zwischen einem stimmlosen Verschlußlaut und folgendem b d g v z z liegt im Wortinnern eine Silbengrenze.“ (Duden 1966, 165).

Geht es nicht um Silbentrennung, sondern bloß um die Erkennung von Silben, z. B. zur Berechnung von deren statistischer Verteilung in einem Korpus, so kann eine einfachere funktionale Definition der Silbe angewendet werden (vgl. z. B. Krallmann 1966). Als Träger der Silbe wird hier, in Übereinstimmung mit der phonologischen Silbendefinition, ein Vokal angenommen, dem ein Konsonant vorausgehen und/oder folgen kann. Bei dieser Definition wird eine gewisse Fehlerquote in Kauf genommen, die jedoch fü r statistische Zwecke außer Betracht bleiben kann. In ähnlicher Weise lassen sich Minimalpaaranalysen auch auf anderen Ebenen anwenden, besonders in der Morphologie. So liegt es z. B. nahe, auf der Grundlage von Nida (1946) und Harris (1951) die Morphemsysteme von Sprachen und die Klassifikation der Morpheme aufgrund von Minimalpaaranalysen zu gewinnen. Maschinelle Verfahren, welche die Prozeduren solcher morphologischen Minimalpaaranalysen ausf ü hren, sind jedoch bis heute nicht bekannt. 3.2. Parsing Unter Parsing versteht man allgemein den Prozeß der Zerteilung einer komplexen Einheit in ihre Segmente, nach Maßgabe eines Regelsystems, wobei die innere Struktur der BEINHALTUNG 3 MÄDCHENHANDELSSCHULE

--> -->

NASCHEN

-->

In diesen Fällen muß die zutreffende Zerlegung aus dem größeren Zusammenhang erschlossen werden. 3.2.2. Isolierung von Satzkonstituenten Die den Wörtern ü bergeordnete Einheit sprachlicher Äußerungen ist aus der traditionellen Grammatik als „Satzglied“ oder „Satzteil“ bekannt, in der modernen Grammatiktheorie auch „Konstituente“ genannt. Formal betrachtet besteht ein Satzglied

komplexeren Einheit zum Vorschein kommt. Im Sinne des Strukturalismus wäre Parsing eine Methode zur Ermittlung der hierarchischen Ordnung der Morpheme im Wort und der Wörter im Satz mittels einer IC-Analyse (immediate constitutent analysis) (Weber 1973; Karttunen/Zwicky 1985). 3.2.1. Ermittlung von Morphen Parsing-Strategien zur Erkennung der Wortstruktur (’wordparser’) sind heutzutage Teil vieler komplexer Spracherkennungssysteme (vgl. z. B. Kay 1977; Pounder/Kommenda 1986; Vergne/Pagès 1986; Bear 1986; Russel/Pulman/Ritchie et al. 1986). Die Zahl der möglichen Zerlegung wird dabei von vornherein reduziert, indem Wörterbü cher eingesetzt werden, welche die zulässigen Morpheme, nämlich Stämme, Präfixe, Suffixe, Infixe und Endungen enthalten. Im Prinzip lassen sich die Parsing-Verfahren, die aus der Syntax bekannt sind, auch zur Segmentierung von Wörtern verwenden, z. B. das ’chart parsing’ in Kay 1977 (vgl. Artikel 17 und 31). Im Unterschied zur Syntax muß bei einer eindeutigen Erkennung der Wortsegmente nicht nur mit einer internen Struktur, sondern auch mit morphologischen Veränderungen der Wörter auf graphematischer und phonematischer Ebene gerechnet werden. Zu diesen Erscheinungen gehören im Deutschen vor allem der Umlaut sowie Veränderungen im Auslaut, z. B. der Wechsel von ’ss’ zu ’ß’ in ERKENNTNISSE — ERKENNTNIß. Weitere Probleme üf r morphologisches Parsing ergeben sich aus der morphologischen Mehrdeutigkeit mancher Wörter. So gibt es z. B. in folgenden Fällen mehrere Zerlegungsmöglichkeiten: BE-IN-HALT-UNG BEIN-HALT-UNG MÄDCHEN-HANDEL-S-SCHULE MADCHENHANDEL-S-SCHULE NASCH-EN NAS-CHEN aus einer Kette von Wortformen, die nach syntaktischen Regeln zusammengefü gt werden. Über die Art syntaktischer Regeln sowie ü ber Parser vgl. im Einzelnen Art. 6, 31 und 32. Fü r den vorliegenden Zusammenhang sei hier nur festgestellt, daß der wichtigste Typ syntaktischer Regeln offenbar die Ersetzungsregel der Form a + b ---> c ist. In diesen Regeln stehen links und rechts

14.  Segmentierung

vom Pfeil Namen von Segmenten. Die Regeln geben Auskunft ü ber die Zusammensetzung eines Segments (z. B. S, NP, VP ...) aus Segmenten der nächst niedrigeren sprachlichen Ebene. Es handelt sich hier also um Segmentierungsregeln, und Parser, mit denen Sätze in Konstituenten zerlegt werden, können als Segmentierungsalgorithmen betrachtet werden. Allerdings bilden die Segmente nicht eine lineare Abfolge, sie stehen vielmehr, da es sich um Segmente verschiedener Komplexitätsebenen handelt, in einem Abhängigkeitsverhältnis zueinander, durch das einem Satz ein bestimmtes strukturelles Muster, die Strukturbeschreibung, zugeordnet wird. 3.2.3. Segmentierung von Texten In der wissenschaftlichen Untersuchung von Texten und in Anwendungen der Computerlinguistik, z. B. in der maschinellen Sprachü bersetzung oder im Story Understanding, ist es häufig notwendig, die strukturellen Muster eines Textes, nach denen alle Einheiten aus jeweils kleineren oder größeren zusammengesetzt sind, zu ermitteln. Eine solche Beschreibung wird als ’Strukturbeschreibung’ eines Textes bezeichnet. Will man also die Struktur eines Textes beschreiben, so hat man ihn zunächst in Einheiten zu segmentieren. Sodann wird man die Einheiten klassifizieren, d. h. diejenigen Einheiten, die hinsichtlich bestimmter Kriterien gleich funktionieren, mit entsprechenden Angaben versehen und schließlich die Beziehungen zwischen den Einheiten, die regelmäßig auftreten, beschreiben wollen.

4.

Klassifikation von Segmenten

Die durch Segmentierung isolierten Einheiten eines Textes werden unter definierten Gesichtspunkten zu Klassen zusammengeschlossen. Typische Beispiele fü r Klassifikation sind die Zuordnung von Wortklassen zu Textwortformen oder die Angabe einer Satzteilbezeichnung zu einer Kette von Wörtern. Nach der strukturalistischen Methode werden Klassen durch die Untersuchung der Distribution (Verteilung) eines potentiellen Segments in den Umgebungen, in denen es in einem Korpus vorkommt, gewonnen. Man bezeichnet diese Methode als ’Distributionsanalyse’ oder ’Minimalpaaranalyse’, wie sie

165

in 2.1. behandelt wurden. In der sprachwissenschaftlichen Praxis hat man diese Verfahren jedoch kaum angewandt, sondern sich fast ausschließlich von pragmatischen oder plausiblen Segmentdefinitionen und Klassifikationen leiten lassen. — So hat man z. B. als „Substantive“ diejenigen Zeichenfolgen klassifiziert, die einen Gegenstand bezeichnet, als „Adjektive“ diejenigen, die eine Eigenschaft zum Ausdruck bringen. — Als „Laute“ und „Silben“ werden vom Phonetiker auditiv identifizierbare Signalfolgen bezeichnet, die ganz bestimmten auditiv wahrnehmbaren Merkmalen entsprechen müssen. — Als „Wortform“ wird die in Texten von Zwischenräumen umgebene Zeichenfolge bezeichnet, als „Wort“ die abstrakte Größe, die verschiedenen Wortformen mit gleicher Bedeutung gemeinsam ist. In allen drei Fällen werden Sprachsegmente zu Klassen geordnet. Klassennamen sind Angaben ü ber sprachliche Einheiten; sie können Funktionen bezeichnen, die sprachliche Einheiten in konkreten Texten ausü ben können. Abb. 14.2 enthält einige Beispiele möglicher Klassen. Segment-Ebene Phon/Phonem Morph/Morphem Wortform/Wort Satzteil

mögliche Klassen stimmhafte, stimmlose, Plosive, Frikative Präfix, Suffix, Flexiv Substantiv, Adjektiv Nominalgruppe, Verbalgruppe

Abb. 14.2: Beispiele von Klassen sprachlicher Ein- heiten Beschreibt man Wortformen explizit durch Nennung der Klasse, so ergibt sich z. B. folgendes Bild: Eisbrecher . . SUBST

lockte Wale mit . . . . . . VERBSUBST PRÄP

klassischer Musik. . . . . ADJ SUBST

Das Beispiel zeigt, daß Segmentierung und Klassifikation nicht voneinander zu trennen sind. Denn um eine Klasse zuordnen zu können, muß zunächst das Segment ermittelt worden sein. Ob aber eine Zeichenfolge in einem Korpus als Textsegment aufgefaßt werden kann, hängt davon ab, ob es einer Klasse zugeordnet werden kann, d. h., ob es

166

IV. Computer-Aided Description of Language Systems I:Basic Problems

in Texten eine bestimmte Funktion ausü bt. Die Funktion eines Segment wird jedoch nicht von außersprachlichen Kriterien bestimmt, sondern aus der Sprache selbst, nämlich durch die Beziehungen, in denen das betreffende Segment im Sprachsystem anzutreffen ist. Man kann die potentiellen Funktionen einer Einheit durch Angabe von Klassen in einem Lexikon verzeichnen, wie es z. B. in

jedem konventionellen Wörterbuch durch Angabe von Wort- und Flexionsklasse geschieht.

5.

Literatur (in Auswahl)

R. Geppert/M. H. Kuhn/H. Ney 1983 · Harris 1951 · Karttunen/Zwicky 1985 · K. Kohler 1977 · St. Marcus 1983 a · St. Marcus 1983 b · H. Ney 1983 · H. Weber 1973 · Wothke 1983.

Winfried Lenders, Bonn (Bundesrepublik Deutschland)

167

V.

Computer-Aided Description of Language Systems II: Discovery of Rule-Systems Computergestützte Beschreibung von Sprache II: Ermittlung von Regelsystemen

15. Computergestützte Verfahren zur graphematischen Beschreibung von Sprache 1. 2. 3. 4. 5. 6. 7. 8.

1.

Gesprochene und geschriebene Sprache Graphemdefinitionen Computerunterstützte graphematische Untersuchungen Verfahren für das Einsetzen des Computers für Graphemuntersuchungen Automatische phonologische Transkription geschriebener und gedruckter Texte Graphemanalysen und Rechtschreibung Resümee Literatur (in Auswahl)

Gesprochene und geschriebene Sprache

Seit F. de Saussure gilt das primäre Interesse der Linguisten der gesprochenen Sprache. Diese Tendenz wurde durch die Konstituierung der Phonemtheorie in der Prager Schule verstärkt und im amerikanischen Strukturalismus als die einz ige Betrachtungsweise angesehen. Die Entwicklung der generativen Grammatik und der Valenz theorie rückten die gesprochene Sprache als ein Produkt des sprachlichen Erz eugungsproz esses erneut in den Vordergrund. Die Prager Schule entwikkelte jedoch Theorien über die Literatursprache und die Sprachkultur, die eine vielseitige Forschung auch im Bereich der geschriebenen Sprache vorangetrieben haben (Havránek 1976; Jedlička 1966; Wimmer (ed.) 1985). Aber auch bei anderen Forschern z eichnet sich ab, daß die geschriebene Sprache auf mehreren Analyseebenen einen autonomen Charakter besitz t und nicht nur als Reflektierung der gesprochenen Sprache anz usehen ist. So hat der Fennist P. Saukkonen anhand eines umfangreichen Textcorpus gez eigt, daß die geschriebene Sprache von der informationsund kommunikationstheoretischen Sicht gedrängter und weniger redundant als die gesprochene Sprache ist. Im Vergleich mit

der geschriebenen Sprache hat die gesprochene Sprache einen kleineren Informationswert für eine konstante Menge von Oberflächenstruktureinheiten (Saukkonen 1977). Diese Feststellungen lassen die Schlußfolgerung z u, daß sowohl die gesprochene als auch die geschriebene Sprache einen Eigenwert haben; sie können auch parallel z ueinander erforscht werden, um die strukturellen Gemeinsamkeiten und Unterschiede der beiden Sprachformen aufzuzeigen. Gemeinsame Ansichten finnischer und tschechoslowakischer Forscher sind nicht nur in der neueren informationstheoretischen Linguistik festz ustellen. Bereits in den 30er Jahren definierten gleichz eitig und unabhängig voneinander A. Penttilä in Helsinki sowie A. Artymovyč und J. Vachek in Prag das Graphem als eine eigenständige Einheit in der Struktur der Sprache (Artymovyč 1932; Penttilä 1932; Vachek 1939). A. Penttilä und Vachek sind später auf die Graphematik z urückgekommen und haben beide noch in den 70er Jahren Monographien vorgelegt, mit denen sie die Entwicklung der Graphemtheorie wesentlich beeinflußt haben (Penttilä 1970; Vachek 1979). In den 60er und 70er Jahren ist die Graphematik als ein autonomes Forschungsgebiet weitgehend akz eptiert worden, und z ahlreiche Untersuchungen vor allem aus dem deutschsprachigen und dem skandinavischen Raum z eigen, daß die Graphematik nicht nur theoretisch, sondern auch in ihrer praktischen Anwendung in der Beschreibung mehrerer Sprachen und Sprachstufen ein z unehmendes Interesse findet. Dabei ist in Übereinstimmung mit J. Vachek z u betonen, daß es sich um die Erforschung von Graphemsystemen und nicht um die Aufstellung der Inventare von Graphen handelt, obwohl die Analysen bis in die Graphematik der Handschriften eindringen.

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

168

2.

Graphemdefinitionen

Bei der Definition des Graphems spielen die Bez iehungen z wischen der graphematischen und der phonologischen Ebene eine wesentliche Rolle. Darauf ist z urückz uführen, daß sich in der heutigen Forschungslage vier verschiedene Graphembegriffe feststellen lassen, bei denen die Interdependenz der Graphem- und der Phonemebene unterschiedlich beurteilt wird. Die Graphemmodelle werden im folgenden kurz angeführt. Am weitesten auf die funktionale Theorie der Prager Schule geht der Graphembegriff z urück, den I. T. Piirainen in einer mit dem Computer durchgeführten Analyse des Frühneuhochdeutschen vorgelegt hat (Piirainen 1968). Dabei wird im Anschluß an J. Vachek die Autonomie der graphematischen Ebene betont und das Graphem als die kleinste funktionale Einheit auf der Ebene der geschriebenen Sprache postuliert. Das Graphem ist eine Klasse von Graphen, die distributionell als eine sprachz eichenunterscheidende graphische Einheit bestimmt wird. Die Graphemanalyse wird aufgrund der Distribution (Verteilung und Kontext der Zeichen) und der statistischen Signifikanz der Graphe durchgeführt; eine Phonemkomponente wird bei der Bestimmung des Graphems nicht berücksichtigt. Da die Distribution und die statistische Signifikanz entscheiden, welche Zeichen funktional als Grapheme und welche als Varianten des Graphems anz usehen sind, ist eine weiterführende phonologische Interpretation der Graphemebene jedoch möglich. Die Berücksichtigung der Varianten ist besonders für die Beschreibung von Sprachstufen aufschlußreich, in denen noch keine einheitliche Norm gilt, hat aber auch eine theoretische Bedeutung. So hat E. Straßner in seiner ebenfalls computerunterstütz ten Analyse von frühneuhochdeutschen Texten diesen Graphembegriff weiter ausgebaut und bewiesen, daß die Distribution von einz elnen Graphemen strukturelle Merkmale aufweist; die Vokalgrapheme 〈a〉, 〈e〉, 〈i〉 und 〈o〉 haben ähnliche graphematische Kontexte (Straßner 1977a). Der z weite Graphembegriff ist von W. Fleischer für die Erforschung des Frühneuhochdeutschen entwickelt worden. Nach der Definition W. Fleischers ist das Graphem die kleinste distinktive Einheit der geschriebenen Sprache, die ein Phonem repräsentiert. Bei dieser Berücksichtigung der Phonemkompo-

nente werden auch solche Zeichenverbindungen als Grapheme gewertet, die mit einem Einz elz eichen als einem Graphem nicht austauschbar sind (z. B. 〈ae〉 und 〈a〉, 〈ie〉 und 〈i〉 im Frühneuhochdeutschen) oder sich auf ein einz iges Phonem bez iehen (z . B. die digraphische Schreibweise 〈bb〉 bei den Konsonanten oder 〈ee〉 bei Vokalen). Grapheme sind auch Zeichenverbindungen oder Ein zz el eichen, die Diphthonge auf der phonologischen Ebene repräsentieren (Fleischer 1966). Diese Beispiele könnten darauf hindeuten, daß die Graphemdefinition W. Fleischers wegen des Heranz iehens der Phonemwerte in der Theoriebildung widersprüchlich sei. Bei der Untersuchung der z ahlreichen Graphemvarianten im Frühneuhochdeutschen z eigt sich jedoch, daß der Bez ug des Graphems z um (hypothetischen) Phonem für sprachhistorische Untersuchungen manche Vorteile bietet; die auf der phonologischen Ebene stattfindenden Änderungen können durch die Aufstellung des Graphem- und Variantensystems recht eindeutig erläutert werden. Für die Effektivität der Vorgehensweise W. Fleischers sprechen auch die anderen Arbeiten über das Frühneuhochdeutsche, die seinen Graphembegriff anwenden (Fleischer 1970). Der dritte Graphembegriff verbindet die relative Autonomie des graphischen Bereichs mit der relativen Abhängigkeit der Graphematik von der Phonologie. Diese Definition, die als Graphonemtheorie bez eichnet werden kann, ist von J. C. MgLaughlin für die Beschreibung des Mittelenglischen aufgestellt worden. Danach sind Grapheme Gruppen von Schriftz eichen, die in Opposition z u anderen Schrift z eichen oder Schrift z eichengruppen stehen. Wenn eine graphische Einheit (ein Einz elz eichen oder eine Zeichenkette) ein Phonem repräsentiert, wird diese ein Graphonem genannt. Diese Auffassung, die sowohl für die älteren Sprachstufen als auch für die Gegenwartssprachen anwendbar ist, ist von R. Harweg weitergeführt worden (McLaughlin 1963; Harweg 1971). Der vierte Graphembegriff geht auf H. P. Althaus z urück und ist für die Beschreibung altjiddischer Texte entwickelt worden. Darin werden ein Subgraphem, ein Graphem und ein Diagraphem unterschieden. Graphe bilden ein Subgraphem als eine Klasse von graphischen Einheiten. Das Graphem ist eine Klasse von Subgraphemen oder ein Subgraphem, das semantisch distinguierbar ist. Ein Diagraphem ist wiederum eine graphische Einheit, die einen komplexen graphemischen Charakter z eigt und auch mehrere Grapheme

169

15. Graphematische Beschreibung von Sprache

repräsentieren kann (Althaus 1972 und 1980). Die Differenz ierung von Subgraphemen und Graphemen schließt eine Reihe von phonologischen Erkenntnissen (vor allem im Bereich der Silbenstruktur) ein, so daß dieser Graphembegriff durchaus Ähnlichkeiten mit den Graphemdefinitionen von W. Fleischer und J. C. McLaughlin erkennen läßt.

3.

Computerunterstützte graphematische Untersuchungen

Bisher haben sich die computerunterstütz ten graphematischen Untersuchungen auf die Analyse älterer Sprachstufen kon z entriert. Die erste maschinell durchgeführte graphematische Analyse eines umfangreichen Textcorpus wurde von S. Allén realisiert und diente der Edition von handschriftlichen Briefen im Schwedischen (Allén 1965). Diese Arbeit geht auf die theoretischen Vorlagen der Prager Schule z urück und ist angesichts der technischen Möglichkeiten der Computer der Anfang 60er Jahre eine erstaunliche Leistung, die in bez ug auf die Editionstechnik bis heute nicht überholt ist. Die darauf folgende computerunterstütz te graphematische Analyse wurde von I. T. Piirainen für die Untersuchung eines frühneuhochdeutschen Textes aus dem Jahre 1616 durchgeführt. Da dieser Text von H. U. Krafft insgesamt über 150 000 laufende Wörter umfaßt, war die Erforschung der Verteilung und der Häufigkeit der verschiedenen Schriftz eichen nur mit Hilfe der EDV möglich. Theoretisch ging die Untersuchung auf die Autonomie des Graphems z urück, wobei ein sprachhistorischer Vergleich mit dem Mittelhochdeutschen vorgenommen wurde; die Entsprechungen jedes mittelhochdeutschen Graphems wurden distributionell und quantitativ erfaßt. Als Ergebnis z eigte sich, daß die Graphematik eines frühneuhochdeutschen Textes eine eigenständige sprachliche Struktur aufweist und die von dem vereinheitlichten Neuhochdeutschen abweichenden Schreibformen nur periphere Erscheinungen sind. Aufgrund der Graphematik wurde dann eine sekundäre phonologische Analyse durchgeführt, die einige sprachgeographische Besonderheiten erkennen ließ (Piirainen 1968). Auch die Arbeit E. Straßner beschäftigt sich mit dem Frühneuhochdeutschen. Bereits im vergangenen Jahrhundert wurde angenommen, daß Nürnberg ein Zentrum der Ausgleichsvorgänge im Frühneuhochdeut-

schen gewesen sei. Diese Forschungsansätz e, die in diesem Jahrhundert wieder auftauchten, beruhten jedoch nicht auf Quellenstudien (Piirainen 1982). E. Straßner hat sich vorgenommen, anhand von Nürnberger Chroniken im Zeitraum von 1385 bis 1709 eine graphematische Untersuchung durchz uführen. Er arbeitet ohne einen sprachhistorischen Bez ug und konstituiert die Grapheme mit ihren Varianten, mit den korrespondierenden Schreibungen, mit den Abweichungen vom konventionellen Gebrauch des jeweiligen Graphems im Neuhochdeutschen, mit der Verteilung der Grapheme sowie mit ihrer Variantenhäufigkeit in Proz enten. Es z eigt sich, daß der Kontext des jeweiligen Graphems genau abgegrenz t werden kann. Phonologische Konsequen z en werden aus der graphematischen Analyse nicht gez ogen (Straßner 1977a). Auch die neueste computerunterstüt z te graphematische Untersuchung von G. Koller wurde mit einem frühneuhochdeutschen Textcorpus durchgeführt. Als Grundlage dienten der über 300 000 laufende Wörter umfassende schriftliche Nachlaß von Albrecht Dürer (1471—1528). Da der von I. T. Piirainen und E. Straßner benutz te Software nicht mehr einsetz bar war, entwarf G. Koller ein in FORTRAN geschriebenes Programmsystem, das weitgehend kompatibel ist. Theoretisch ist die Arbeit an keinen bestimmten Graphembegriff gebunden, aber eine weitgehende Autonomie des Graphems wird vorausgesetz t. Als Ergebnis werden vokalischkonsonantische Graphkettenpaare sowie eine Graphkettenstatistik erz ielt, die Auskunft über die Distribution und die Häufigkeit der Grapheme geben (Koller 1985).

4.

Verfahren für das Einsetzen des Computers für Graphemuntersuchungen

In der maschinellen Durchführung der Graphemanalyse ergeben sich z wischen I. T. Piirainen und G. Koller weitgehende Übereinstimmungen. Da die Software G. Kollers dem heutigen Standard entspricht, geht die folgende Darstellung der Textverarbeitung auf seine Ausführungen zurück (Koller 1985). Zuerst müssen die Texte in einer maschinenlesbaren Form vorliegen; dabei stellt sich besonders in der Verarbeitung älterer Texte heraus, daß der Typenvorrat des Computers kleiner ist als die Zahl der Zeichen im handschriftlich überlieferten Textcorpus. Graphi-

170

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

sche Einheiten, die im Computer fehlen, müssen daher durch Sonderz eichen bz w. durch Kombination von Zeichen dargestellt werden. Besonders für den Datenaustausch z wischen mehreren Benutz ern wären einheitliche Kodierungsvorschriften dringend notwendig (Berg 1982). Zu den Sonderz eichen, die im Typenvorrat der Input- und Outputeinheiten eines Computers nicht vorhanden sind, gehören die Majuskeln, übergeschriebene Zeichen, Umlautz eichen, Trenn- und Bindestrich; außerdem können u. a. Eigennamen, fremdsprachliche Wörter sowie deNr. Län- Graph- Häufigkeit Textge ketten Abs. Rel. Sigle 1 1 A 794 6,503 2 2 Ae 1 0,008 3 2 Au 9 0,074 4 3 Au1 0,008 1 B 248 2,031 5 2 Bd 1 0,008 6 7 2 Bg 1 0,008 8 2 Bl 6 0,049 9 2 Bn 1 0,008 10 2 Br 5 0,041 11 2 Bs 6 0,049 12 3 Bst 1 0,008 13 2 Bt 9 0,074 14 3 Btt 4 0,033 4 0,033 15 1 C 16 2 Ch 163 1,335 17 3 Chf 1 0,008 18 3 Chk 3 0,025 19 3 Chl 4 0,033 20 3 Chn 1 0,008 21 3 Chs 3 0,025 22 4 Chst 2 0,016 23 3 Cht 59 0,483 24 4 Chtb 1 0,008 1 0,008 25 4 Chtm 7 0,057 26 4 Chtn 27 4 Chtz 1 0,008 28 2 Ck 5 0,041 29 3 Ckt 2 0,016 30 2 Cl 1 0,008 31 2 Cr 1 0,008 32 2 Cz 20 0,164 33 3 Czw 1 0,008 34 1 D 456 3,735 2 0,016 35 2 Dl 1 0,008 36 2 Dw 37 1 E 197716,193 38 2 Ee 1 0,008 39 3 Eei 1 0,008 40 2 Ei 322 2,637 41 3 Eue 2 0,016 42 4 Eu-E 4 0,033

Belegwort Angeschlagen Nicolae Auf Au-f BeyBdarff Abgeleint Blinden Sibner Bringen Habs Libsten Awffgschnabt Habtt Jacob Ach Nachfolgetten Nachkumen Hochloblicher Gerechnett So-Lichs Hochlo-Blichster Gedachte Achtbarn Lichtmes Gedechtnus Achtz Schicken Geschickt Niclas Christlichen Czu-Rnd Czw Dise Madle Dw-Rer Ersporen Ee Geeilt Eigen Euer Eu-Er

Abb. 15.1: Graphketten in Handschriften A. Dürers

fektive Wortformen und Abbreviaturen besonders kodiert werden. Auch die für die Textverarbeitung notwendigen Informationen wie die Zeichen für Seitenangaben müssen besonders gekennzeichnet werden. Die erste Phase der Verarbeitung des maschinenlesbaren Textes besteht in der lexikalischen Analyse. Sie beginnt mit der Segmentierung der Wortformen aus dem laufenden Text; das Textcorpus wird in Einz elwörter z erlegt. Im Anschluß daran werden Wortlisten erstellt, die alphabetisch, rückläufig und nach Häufigkeit geordnet werden. In einer Initial Medial Final Abs.Rel. Abs. Rel. Abs. Rel. 209 26,322 585 73,678 0 0,000 0 0,000 0 0,000 1 100,000 7 77,778 2 22,222 0 0,000 1 100,000 0 0,000 0 0,000 91 36,694 90 36,290 67 27,016 1 100,000 0 0,000 0 0,000 0 0,000 1 100,000 0 0,000 1 16,667 0 0,000 5 83,333 0 0,000 1 100,000 0 0,000 2 40,000 3 60,000 0 0,000 0 0,000 0 0,000 6 100,000 0 0,000 1 100,000 0 0,000 0 0,000 1 11,111 8 88,889 0 0,000 0 0,000 4 100,000 0 0,000 4 100,000 0 0,000 0 0,000 29 17,791 134 82,209 0 0,000 1 100,000 0 0,000 0 0,000 3 100,000 0 0,000 0 0,000 4 100,000 0 0,000 0 0,000 1 100,000 0 0,000 0 0,000 0 0,000 3 100,000 0 0,000 2 100,000 0 0,000 0 0,000 43 72,881 16 27,119 0 0,000 11 00,000 0 0,000 0 0,000 1 100,000 0 0,000 0 0,000 7 100,000 0 0,000 0 0,000 0 0,000 1 100,000 0 0,000 3 60,000 2 40,000 0 0,000 0 0,000 2 100,000 0 0,000 1 100,000 0 0,000 1 100,000 0 0,000 0 0,000 10 50,000 8 40,000 2 10,000 1 100,000 0 0,000 0 0,000 391 85,746 6 1,316 59 12,939 0 0,000 2 100,000 0 0,000 1 100,000 0 0,000 0 0,000 210 10,622 1705 86,242 62 3,136 1 100,000 0 0,000 0 0,000 0 0,000 1 100,000 0 0,000 49 15,217 273 84,783 0 0,000 1 50,000 1 50,000 0 0,000 2 50,000 2 50,000 0 0,000

15. Graphematische Beschreibung von Sprache

Stellenkonkordanz wird jede Wortform mit einem Kontext und mit der Angabe der Belegstelle im Textcorpus versehen. In der eigentlichen graphematischen Analyse werden die z uvor sortierten Wortformen des Textcorpus in z usammenhängende Buchstabenfolgen der gleichen Klasse eingeteilt. Diese Methode, die von B. Sjölin für das Altfriesische und von E. Straßner für das Frühneuhochdeutsche angewandt worden ist, erlaubt eine Klassifiz ierung des Buchstabeninventars in Vokal- und Konsonantengrapheme (Sjölin 1970; Straßner 1977a). Der Wechsel von einer Klasse z ur anderen wird paarweise aufbereitet; die so entstandenen Graphkettenpaare werden mit dem z ugehörigen Belegwort, der Positionsangabe (Initial-, Medial- und Finalstellung) sowie mit der Textsigle versehen und alphabetisch nach dem ersten und dem z weiten Element sortiert. Durch diese z weimalige Sortierung nach dem ersten und dem z weiten Element wird jede innerhalb einer Klasse mögliche Graphemverbindung in allen kontextualen Varianten also mit dem Vor- und Nachfeld gelistet. Durch das Belegwort wird der gesamte Kontext eines Graphems ersichtlich. Wie eine solche Graphkettenstatistik aussieht, wird im folgenden mit einem Beispiel aus dem Output von G. Koller gezeigt (Koller 1985, 53). Eine derartige Darstellung ermöglicht einen Einblick in die eigenständigen Graphemstrukturen eines Textes und bietet beim Vergleich der Schreibungen eine Grundlage für eine einheitliche Edition der handschriftlichen Überlieferung. Eine andere Möglichkeit z ur Beschreibung der Graphemstruktur bietet die Darstellung von I. T. Piirainen, die einen Vergleich mit dem hypothetischen Graphemsystem des Mittelhochdeutschen erlaubt und somit in der Tradition der sprachhistorischen Untersuchungen steht. Als Beispiel sei im folgenden die Darstellung der Entsprechungen des mittelhochdeutschen 〈î〉 im frühneuhochdeutschen Text von H. U. Krafft angeführt (Piirainen 1968, 103).

5.

Automatische phonologische Transkription geschriebener und gedruckter Texte

Während die oben beschriebenen Darstellungen der Graphemstruktur die Autonomie der Graphematik betonen und die Phonemebene außer acht lassen, werden die computerunterstütz ten Graphemuntersuchungen im wei-

171

teren für die automatische Phonemisierung von geschriebenen und gedruckten Texten angewandt. Die Untersuchung W. Kästners über das Deutsche konz ipiert sich auf die Umsetz ung von einz elnen Graphemen und Graphemfolgen (Klustern) und führt in Annäherungswerten auch die Frequenz en einz elner Einheiten an. Diese Arbeit berücksichtigt auch die graphisch identischen Graphemfolgen, die unterschiedliche Phonemwerte haben (z. B. /kst/ in wächst, /Xst/ in suchst ) und die Differen z ierungsschwierigkeiten infolge der Wortbildung ( Eid, aber Eidotter ). Insgesamt läßt sich die Frage nach Umsetz ung der graphematischen Texte in phonemische Texte im Deutschen als gelöst ansehen, so daß auch wertvolle theoretische Erkenntnisse über das graphematisch-phonologische Verhältnis vorliegen (Kästner 1972). Die Arbeit E. Wolfs über die automatische Umsetz ung des Schriftenglischen ins phonlogische Englisch versucht ein Entdeckungsverfahren z u entwickeln. Dieses vermag einen regelmäßigen Umset z ungs z usammenhang z u beschreiben, der z wischen den Komponenten von Paaren aus graphematischen und phonologischen Wörtern vorgefunden wird. Diese Vorgehensweise schließt die Eingabe über die graphematisch-phonologischen Entsprechungen ein, die nicht-maschinell festgestellt worden sind. Es ist für das Entdeckungsverfahren charakteristisch, daß das entwickelte Umsetz ungsverfahren auch hinsichtlich dessen Umsetz ungsqualität kontrolliert und bewertet. Die Ergebnisse dieser theoretisch interessanten Arbeit ließen sich durch eine quantitative grapho- und phonotaktische Analyse für praktische Zwecke relativ einfach ergänzen (Wolf 1977). In der Untersuchung J. Rolshovens über das Franz ösische werden ein graphematisches und vier verschiedene phonische Alphabete definiert. Dies ist notwendig, weil die strukturelle Phonologie mit dem Kriterium der Funktionalität z u unterschiedlichen Phoneminventaren kommt. In der ersten Phase der automatischen Bearbeitung werden Texte mit Ziffernketten in graphische Ketten umgewandelt. Im Hauptprogramm werden aus rein graphischen Eingabesätz en phonologische Ausgabesätz e produz iert. Es z eigt sich, daß im Franz ösischen z . B. im Falle der Liaison die Beschreibung von ganz en Sätz en notwendig ist; damit ist das Umsetz ungsverfahren umfangreicher als im Englischen, in dem einz elne lexikalische Einhei-

1 2 ei ey 52 6% 744 292 59% 201 15 13% 90 62 63% 13 17 43% 13 426 82% 56 — — — — — — 676 92% 54 9 90% — 3597 100% 1 — — — — — 12 57 24% 143 61 32% 126 453 51% 410 — — 1 5717 73% 1864

89% 40% 78% 13% 33% 11% — — 7% — 0% — 46% 59% 65% 46% 14% 24%

3 ai — — — — 6 5% 8 8% 2 5% 7 1% — — — — — — — — 1 0% — — — — — — — — — — — — 24 0%

4 ay 26 3% — — 1 1% 1 1% 1 3% — — — — — — 1 0% — — — — — — — — 1 0% — — 3 0% — — 34 0%

Im Auslaut: sei, 3, 120.28 usw., mhd. sî < sîn Vor 〈b〉: bleiben, 55, 10.38 usw., mhd. belîben 〈d〉: schneiden, 1, 63.36, mhd. snîden 〈f〉: greiffen, 3, 136.11 usw., mhd. grîfen 〈g〉: steigen, 5, 79.28 usw., mhd. stîgen

Die Entsprechung 〈ei〉 für das mhd. 〈î〉 kommt in 5717 Fällen = bei 73% der Belege vor.

— — — — 1 1% 4 4% 4 10% 1 0% — — — — — — — — — — — — 10 38% — — — — — — — — 20 0%

8 eu

9 ü 10% — — — — — — — — — — — — — — — — — — — — — — — — — — — — 30% — — 40%

10 e — — 1 0% — — — — — — — — — — — — — — — — — — — — — — — — 1 1% — — — — 2 0%

11 y — — — — — — — — — — — — — — — — — — — — — — — — 1 4% — — — — — — — — 1 0%

Summe 12 a — — 839 100% — — 498 99% — — 116 101% — — 99 100% — — 40 102% — — 520 100% — — — — — — — — — — 738 100% 110% 10 100% — — 3607 100% — — — — — — 26 99% — — 241 100% — — 193 101% — — 892 99% — — 7 100% 1 0% 7826 98%

Im Auslaut: sey, 263, 6.26 usw., mhd. sî < sîn Vor 〈b〉: beschreybung, 11, 75.36 usw., mhd. beschrîbunge 〈d〉: schneyden, 2, 315.36 usw., mhd. snîden 〈f〉: eyfferig, 3, 224.6 usw., mhd. îveric 〈g〉: feygen, 1, 91.23, mhd. vîgen < vîge

Die Entsprechung 〈ey〉 für das mhd. 〈î〉 kommt in 1864 Fällen = bei 24% der Belege vor.

Die Entsprechungen bei Krafft 5 6 7 i ie eü 5 1% 11 1% — — 2 0% 2 0% — — 3 3% — — — — — — — — 11 11% — — — — 3 8% 20 4% 3 1% 7 1% — — — — — — — — — — — — 7 1% — — — — — — — — — — 8 0% — — — — — — — — — — — — — — 3 11% 36 15% 4 2% — — 2 1% — — 3 2% 21 2% — — 2 0% 686% — — — — 110 1% 20 0% 29 0%

〈h〉: reich, 10, 4.25 usw., mhd. rîch 〈l〉: eillen, 2, 10.23 usw., mhd. îlen 〈m〉: leim, 2, 284.15 usw., mhd. lîm 〈n〉: wein, 108, 7.38 usw., mhd. wîn 〈s〉: eisen, 1, 284.16, mhd. îsen 〈: fleiß, 2, 184.33 usw., mhd. vlî 〈t〉: zeitt, 212, 1.14 usw., mhd. zît

Abb. 15.2: Die Repräsentation des mhd. 〈î〉 bei Krafft.

— b d f g h j k l m n p r s  t w Summe

Folg. Kons. im Mhd.

172 V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

173

15. Graphematische Beschreibung von Sprache

ten korrekt umgeschrieben werden können, und anspruchsvoller als im Deutschen, in dem eine Wort-für-Wort-Umsetz ung, z . T. auch schon die Umsetz ung von einz elnen Zeichen genügt, um phonologische Texte z u produz ieren. Insofern geht das von J. Rolshoven entwickelte Umset z ungsverfahren über das Graphem-Phonem-Verhältnis hinaus und liefert auch Teile einer syntaktischen Analyse (Rolshoven 1978). Die angeführten Beispiele z eigen, daß die automatische phonemische Transkription Methoden voraussetz t, die die Interdependenz der Graphem- und der Phonemebene in einem weiteren, morphemischen und syntaktischen Rahmen behandeln und auch die quantitativen Aspekte berücksichtigen. Die Umset z ungsverfahren sind sprachenspe z ifisch, lassen jedoch eine Reihe von Parallelen aufz eigen; insofern ist auch das Verfahren von M. Steffen-Batogowa für die automatische phonologische Transkription des Polnischen von besonderem Interesse (Steffen-Batogowa 1975). Im weiteren sind die Erkenntnisse über die Struktur der Graphem- und Phonemebene, die auch die Distribution und die Häufigkeit der Einheiten berücksichtigen, in der automatischen Textverarbeitung u. a. für die automatische Dokumentation von Texten von Bedeutung.

6.

Rechtschreibung

Ein weiterer Bereich in der Anwendung der computerunterstüt z ten Graphemuntersuchungen ist die Rechtschreibung. Da die Rechtschreibdidaktik in der Primarstufe auf der rechtschreiblichen Festigung eines Grundwortschatz es beruht, ist es dem Lernenden wichtig, sich die am häufigsten vorkommenden Schreibformen ein z uprägen. Außerdem beweist die Fehlerstatistik, daß bestimmte Schreibungen unabhängig von der Schulstufe immer Fehlerschwerpunkte darstellen, die wiederum durch bewußtes Training beseitigt werden können (Piirainen 1981). Diese Erkenntnisse sind in den Untersuchungen von W. D. Ortmann berücksichtigt worden, der 7995 hochfrequente Wortformen des Neuhochdeutschen nach der Phonem-Graphembe z iehung sortiert hat. Wie eine solche für die Rechtschreibübungen relevante Häufigkeitsliste aussieht, z eigt das folgende Beispiel (Ortmann 1976, V4—V5). Diese Methode der angewandten Graphematik verspricht eine Effektivierung des Rechtschreibunterrichts und wird z unehmend in die Rechtschreibdidaktik einbez ogen.

/Il/ 〈— —〉 〈IE〉 1. Die 2. Sie 3. Wie 4. Diese 5. Dieser 6. Hier 7. Wieder 8. Dieses 9. Diesen 10. Diesem 11. Viel 12. Dies 13. Liebe 14. Nie 15. Liegt 16. Ließ 17. Viele 18. Dieselbe 19. Dieselben 20. Sowie 21. Regierung 22. Beispiel 23. Lieber 24. Vielen 25. Verschiedenen 26. Hielt 27. Brief

349 553 102 212 51 336 24 706 21 811 16 667 14 693 11 113 10 558 10 225 9 553 8 983 6 665 4 834 4 137 3 984 3 909 3 062 2 782 2 716 2 645 2 489 2 471 2 386 2 187 2 135 2 113

28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53. 54.

2 101 2 051 1 976 1 965 1 957 1 949 1 946 1 937 1 800 1 793 1 552 1 377 1 364 1 306 1 300 1 292 1 289 1 287 1 285 1 281 1 268 1 235 1 230 1 198 1 196 1 158 1 154

Schien Vier Niemand Liegen Rief Vielmehr Diejenigen Lieben Blieb Niemals Fiel Tief Briefe Ziel Frieden Artillerie Schließlich Geschrieben Ziemlich Krieg Erhielt Nieder Gebiete Dienen Geblieben Mitglieder Infanterie

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

174

55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78.

Vielfach Verschiedene Erschien Batterieen Kriege Tiefe Dienst Kavallerie Schrieb Schwierigkeiten Schließen Friedrich Lieb Erschienen Ließen Entschieden Staatsregierung Verlieren Wiederholt Offiziere Gebiet Wiederum Papier Hierbei

1 110 1 109 1 060 1 051 1 032 1 019 919 906 901 852 850 847 840 833 816 811 799 790 779 775 773 772 771 763

79. Dienste 723 80. Spiel 719 81. Zufrieden 717 82. Verdient 713 83. Spielen 706 84. Sieben 669 669 85. Tiefer 86. Hierauf 666 87. Ziele 643 88. Bietet 641 89. Hierzu 641 90. Phantasie 636 91. Bieten 632 92. Batterie 629 93. Ausschließlich 626 94. Verschieden 611 609 95. Schließt 96. Tiefen 604 97. Industrie 600 98. Liebt 598 99. Liefern 594 100. Tiere 591 100 von 439 Beisp. (22,8%): Textfr. 756 587 von 836 875 (90,4%) /Il/ 〈— —〉 〈IEH〉 1. Sieht 2. Ziehen 3. Beziehung 4. Geschieht

1 998 1 454 1 419 1 184

5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16.

Zieht Siehe Erziehung Beziehungsweise Beziehungen Beziehen Entziehen Siehst Sieh Empfiehlt Bezieht Ziehe

1 072 918 624 564 547 486 415 387 386 316 247 189

17. Fliehen 180 18. Heranziehung 173 19. Verliehen 151 20. Vieh 130 21. Flieht 128 22. Entzieht 123 23. Vollziehen 113 24. Heranzuziehen 112 111 25. Aussieht 111 26. Erziehen 27. Zurückziehen 111 28. Einziehung 108 29. Zurückzuziehen 103 29 von 29 Beisp. (100,0%): Textfr. 13 860 von 13 860 (100%) Abb. 15.3: Häufigkeitsverteilung der Wortformen mit den Graphketten 〈ie〉 und 〈ieh〉

7.

Resümee

Die oben beschriebenen Methoden der computerunterstüt z ten Untersuchung der Graphematik lassen erkennen, daß die seit den 30er Jahren entwickelte Graphemtheorie sich erst recht z ögernd die elektronische Datenverarbeitung z unutz e gemacht hat. Während ältere Texte des Schwedischen, des Deutschen und des Friesischen automatisch in bez ug auf die Graphemstruktur untersucht wurden, fehlt immer noch eine Darstellung der Graphemstruktur des Neuhochdeutschen. Erfreuliche Aktivitäten z eigt wiederum in den letz ten Jahren die automatische Phonemisierung geschriebener und gedruckter Texte. Diese sowie die Anwendung der graphematischen Analysen in der Rechtschreibdidaktik lassen erwarten, daß mit der weiteren Entwicklung der Methoden in der computerunterstüt z ten Untersuchung der Graphematik dieses Teilgebiet der Linguistik interdisziplinär an Bedeutung gewinnt.

16.  Phonologische Beschreibung von Sprache

8.

Literatur (in Auswahl)

St. Allén 1965 · H. P. Althaus 1972 · H. P. Althaus 1980 · T. A. Amirova 1977 · A. Artymovyč 1932 · E. Berg 1982 · W. Fleischer 1966 · W. Fleischer 1970 · W. Haas 1970 · P. Hartmann 1958 · B. Havránek 1976 · R. Harweg 1971 · A. Jedlička 1966 · W. Kästner 1972 · G. Koller 1985 · J. C. McLaughlin 1963 · D. Nerius/J. Scharnhorst 1980 · W. D. Ortmann 1976 · A. Penttilä 1932 · A.

175

Penttilä 1970 · I. T. Piirainen 1968 · I. T. Piirainen 1969 a · I. T. Piirainen 1969 b · I. T. Piirainen 1981 · I. T. Piirainen 1982 · I. T. Piirainen 1983 · J. Rolshoven 1978 · P. Saukkonen 1977 · B. Sjölin 1970 · M. Steffen-Batogowa 1975 · E. Straßner 1977 a · J. Vachek 1979 · R. Wimmer 1984 · E. Wolf 1977.

Ilpo Tapani Piirainen, Münster (Bundesrepublik Deutschland)

16. Computergestützte Verfahren zur phonologischen Beschreibung 1. 2. 3. 4. 5.

1.

Einleitung Verfahren zur Ermittlung und Beschreibung der phonologischen Struktur einer Sprache Verfahren zur Phonetisierung orthographischer Texte Verfahren zur maschinellen Erlernung von Phonetisierungsregeln Literatur (in Auswahl)

Einleitung

Unter Phonologie wird i. allg. das Forschungsgebiet verstanden, das sich mit der Ermittlung und Beschreibung der Lautsysteme natürlicher Sprachen unter linguistisch-funktionalen Gesichtspunkten befaßt. Ein Laut, bez eichnet mit dem Terminus Phonem, wird dabei gewöhnlich als die kleinste bedeutungsunterscheidende Einheit des Sprachsystems, der langue, aufgefaßt. Auf der akustischen Seite besitz en Phoneme verschiedene Korrelate, sogenannte Phone. Von der Phonologie z u unterscheiden ist die Phonetik, deren Gegenstand die Erforschung der Sprache unter artikulatorischen, akustischen und perz eptiven Gesichtspunkten ist. Die Übergänge z wischen Phonologie und Phonetik sind fließend. — Die computerlinguistischen Arbeiten z ur Phonologie befaßten sich bisher mit den drei Themenkomplexen „computergestütz te Beschreibung der phonologischen Struktur einer Sprache“, „automatische Phonetisierung orthographischer Texte“ und „maschinelle Erlernung von Regeln z ur automatischen Phonetisierung orthographischer Texte“. Im z weiten Gebiet, automatische Phonetisierung orthographischer Texte, sind dabei die meisten Aktivitäten z u verz eichnen, was sicherlich auf die vielversprechenden wissenschaftsexternen Anwendungsmöglichkeiten dieses Gebietes z urückz uführen ist. Um dem anhaltend starken Interesse an diesem Gebiet Rechnung z u tra-

gen, wird die automatische Phonetisierung orthographischer Texte den Schwerpunkt dieses Artikels bilden.

2.

Verfahren zur Ermittlung und Beschreibung der phonologischen Struktur einer Sprache

2.1. Problemstellung Ziel dieser Verfahren ist es, ausgehend von maschinenlesbar vorliegenden Sprachdaten das Phoneminventar und die Phonotaktik einer Sprache z u ermitteln. Daneben ist die Erstellung von Statistiken z ur Häufigkeit des Auftretens von Phonen und Phonemen — ggf. innerhalb bestimmter lautlicher Umgebungen — eine weitere Zielsetz ung. Bei den z ugrunde liegenden Sprachdaten handelt es sich um maschinenlesbar verfügbare phonetische oder phonemische Transkriptionen sprachlicher Äußerungen, die i. allg. repräsentativ für die z u beschreibende Sprache z usammengestellt sind. 2.2. Mögliche Lösungswege Ein einheitliches Paradigma von computativen Methoden z ur Erreichung der genannten Ziele existiert nicht. Aus linguistischer Sicht lassen sich die existierenden Verfahren unterscheiden in solche, die sich an der strukturalistischen Phonologie orientieren und solche, die sich an der generativen Phonologie orientieren. 2.3. Vorliegende Verfahren Zwei Verfahren seien hier stellvertretend für die existierenden Verfahren vorgestellt: Das System TOPAS (vgl. Wothke 1983) dient z ur computergestütz ten Ermittlung der Phoneminventare von Sprachen und Dialekten. Die verwendeten Entdeckungsverfahren

176

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

basieren auf den Methoden z ur Phonemanalyse, die der europäische Strukturalist Trubetz koy (1939) und der amerikanische Strukturalist Harris (1951) entwickelt haben. TOPAS verlangt als Eingabe phonetisch eng transkribierte Äußerungsmengen. Zu diesen Äußerungsmengen ermittelt das System u. a. die absolute und die relative Häufigkeit der auftretenden Phone (ggf. in bestimmten Umgebungen), die distributionelle Relation der Phone (komplementär vs äquivalent vs inklusiv vs überschneidend), Minimalpaare und die Menge der lautlichen Umgebungen der Phone. Diese Daten dienen dem Benutz er des Systems als Grundlage für die Ermittlung des Phoneminventars, das den vorliegenden Äußerungsmengen zugrunde liegt. Ein weiteres wichtiges System ist PHOCOM (vgl. Tropf 1979), das sich an der generativen Phonologie (vgl. Chomsky/Halle 1968) orientiert. PHOCOM ist in erster Linie für vergleichende phonologische Untersuchungen, beispielsweise z wischen Dialekt und Hochsprache, konz ipiert. Daneben kann es aber auch für Untersuchungen eingesetz t werden, die sich auf nur eine Sprache bez iehen. Die Eingabe von PHOCOM bilden phonemisch oder phonetisch transkribierte Äußerungsmengen. Bei vergleichenden phonologischen Untersuchungen handelt es sich dabei um z wei Äußerungsmengen mit identischem Inhalt, aber unterschiedlicher lautlicher Realisierung. Kernstück von PHOCOM ist die Ermittlung aller Laute oder Lautkluster einer Äußerungsmenge, die einer bestimmten Klasse von Lauten oder Lautklustern angehören. So lassen sich z . B. alle stimmhaften Plosive (etwa: [b], [d], [g]) in einer Äußerungsmenge ermitteln, indem der Benutzer dem System den Suchbefehl 〈〈+ stimmhaft, + plosiv〉〉 vorgibt. Durch den Suchbefehl 〈〈+ vokalisch〉, 〈—stimmhaft, + frikativ〉〉 würde das System veranlaßt, alle Lautkluster bestehend aus Vokal und stimmlosem Frikativ z u ermitteln und aufz ulisten. — Die in einem Suchbefehl z ulässigen phonetischen Merkmale sind nicht starr vorgegeben. Vielmehr kann der Benutz er von PHOCOM sein eigenes Inventar phonetischer Beschreibungsmerkmale z usammenstellen und dem System in einer Tabelle die vorkommenden Lautsymbole mit ihren phonetischen Merkmalsbeschreibungen vorgeben. Gibt er dem System nun einen Suchbefehl mit phonetischen Merkmalen, so sucht es z unächst alle Lautsymbole in der Tabelle auf, die diese Merkmale besit z en. Anschließend durch-

sucht das System die Äußerungsmenge auf die in der Tabelle gefundenen Lautsymbole. — Bei vergleichenden phonologischen Untersuchungen z u z wei Äußerungsmengen wird die Suche nur in einer Äußerungsmenge durchgeführt. Als Suchergebnis werden diejenigen Wörter dieser Äußerungsmenge ausgegeben, die die fraglichen Laute oder Lautkluster enthalten. Außerdem werden die korrespondierenden, aber in ihrer lautlichen Realisierung ggf. abweichenden Wörter der z weiten Äußerungsmenge ausgegeben, und z war mit dem jeweils vorangehenden und folgenden Wort sowie mit einer Belegstellenangabe. — Eine weitere Leistung von PHOCOM ist die Ermittlung und Ausgabe der absoluten und der relativen Häufigkeit der Laute einer Äußerungsmenge sowie der Wortan z ahl und der durchschnittlichen Wortlänge der Äußerungsmenge. 2.4. Anwendungsbereiche Herkömmliche, rein intellektuelle phonologische Untersuchungen erfordern ein wiederholtes Durcharbeiten der Äußerungsmengen, was erheblichen Zeit- und Arbeitsaufwand beansprucht und i. allg. auch mit Fehlern behaftet ist. Maschinelle Verfahren führen hier z u einer wesentlichen Entlastung von z eitraubenden Routinearbeiten und liefern auch exaktere Ergebnisse. Die aktuellen und die potentiellen Anwendungsbereiche der existierenden maschinellen Verfahren sind überall dort z u finden, wo bisher rein intellektuell phonologische Untersuchungen durchgeführt wurden, also z . B. in der Phonetik, in der Phonologie, in der Dialektologie und in der Sprachaudiometrie (Zu einer Anwendung von TOPAS in der Sprachaudiometrie vgl. Wedel 1984, 106 f.). 2.5. Bewertung und Ausblick Routinemäßig einset z bare Verfahren für computergestüt z te phonologische Untersuchungen auf der segmentalen Lautebene sind verfügbar. Ein technischer Mangel dieser Verfahren, der sich insbesondere bei der Erfassung der z u analysierenden Sprachdaten störend bemerkbar macht, ist, daß das Internationale Phonetische Alphabet (vgl. Principles 1949) durch Zeichen des EBCDIC- oder des ASCII-Zeicheninventars dargestellt werden muß (etwa [ǝ] durch ’@’ oder [ʃ] durch ’$’). Die z unehmende Verbreitung von graphikfähigen Terminals und von Druckern mit frei programmierbaren Zeichensät z en

16.  Phonologische Beschreibung von Sprache

schafft jedoch die Voraussetz ungen dafür, daß dieser Mangel in näherer Zukunft z u beheben sein dürfte. Eine linguistische Unz ulänglichkeit der existierenden Verfahren ist die weitgehende oder gar völlige Vernachlässigung der suprasegmentalen Merkmale Wortbetonung und Satzintonation.

3.

Verfahren zur Phonetisierung orthographischer Texte

3.1. Problemstellung Ziel dieser Verfahren ist die vollautomatische Erz eugung phonetischer Transkriptionen z u beliebigen orthographischen Texten einer Sprache. Beispielsweise soll ein solches Verfahren zu dem Satz „Die Stimmbänder schwingen jetz t mit etwa 100 Hz.“ maschinell die Transkription [di: ’ʃtımbεndǝr ’ʃvıŋǝn jεtst mıt ’εtv ’hndǝrt hεrts] erz eugen. Wie man sieht, stellt sich dabei nicht nur das Problem, vollausgeschriebene orthographische Wörter z u transkribieren, vielmehr müssen auch Ziffern(-folgen) und Abkürz ungen phonetisiert werden. Weiterhin wird nicht allein eine Transkription auf der segmentalen Lautebene angestrebt, auch Markierungen für die Wortbetonung und — wie das Beispiel nicht verdeutlicht — für die Satz intonation und für Pausen verschiedener Länge sollen in der Transkription erscheinen. 3.2. Mögliche Lösungswege Die meisten existierenden Lösungswege für das Problem der automatischen Phonetisierung lassen sich in 3 Hauptschritte gliedern, wobei insbesondere für den z weiten Schritt mehrere Lösungsalternativen existieren. Der e r st e S ch r i t t , dessen maschinelle Realisierung als relativ trivial gilt, besteht in einer Vorverarbeitung des orthographischen Eingabetextes. In dieser Vorverarbeitung werden arabische und römische Ziffern(-folgen) sowie Abkürz ungen und bestimmte Sonderz eichen (’$’, ’%’, ’§’ etc.) durch die entsprechenden vollausgeschriebenen orthographischen Wörter ersetz t. I. allg. geschieht dies für die Ziffern(-folgen) mittels eines algorithmischen Verfahrens, für die Abkürz ungen und die Sonderz eichen mittels einer Lexikonaufsuche. Im z we i t e n S ch r i t t wird der vorverarbeitete orthographische Text auf der segmen-

177

talen Lautebene phonetisch transkribiert. Hierfür existieren 3 alternative Ansätz e: Lexikonbasierte Verfahren, regelbasierte Verfahren und Mischungen aus lexikon- und aus regelbasierten Verfahren. L ex i ko n b a s i e r t e Ve r fa h r e n arbeiten mit einem Lexikon, dessen Einträge jeweils aus einer orthographischen Wortform und ihrer phonetischen Transkription bestehen. Zur Phonetisierung wird der orthographische Eingabetext in seine Wortformen z erlegt, die Wortformen werden im Lexikon aufgesucht und im Text durch die im Lexikon ver z eichneten phonetischen Transkriptionen ersetz t. Dieser Ansatz garantiert im Unterschied z um regelbasierten Ansatz , daß das Phonetisierungsverfahren eine eindeutige Entscheidung darüber treffen kann, welche Wortformen korrekt phonetisiert wurden, also im Lexikon gefunden wurden. Er trägt allerdings nicht der Tatsache Rechnung, daß jede natürliche Sprache ein offenes System ist: Ein Lexikon wird niemals vollständig sein, also auch niemals für die Phonetisierungen aller Wörter ausreichen, die in den Texten einer Sprache auftreten. Aus Speicherplatz gründen dürfte ein lexikonbasiertes Verfahren auch kaum für Kleinrechner geeignet sein. Ein weiterer Nachteil ist der hohe Arbeitsaufwand bei der Erstellung des Lexikons. Re ge l b a s i e r t e Ve r fa h r e n arbeiten mit einer Menge (i. allg.) kontextsensitiver Zeichenkettenersetz ungsregeln, die auf die Buchstaben des orthographischen Textes angewendet werden und sie — meist in Abhängigkeit von ihrer Buchstabenumgebung — durch phonetische Zeichen ersetz en. Der Ausdruck „Regel“ bez eichnet dabei nicht unbedingt Regelmäßigkeiten, die in einer natürlichen Sprache bei der Bez iehung z wischen orthographischer Schreibung und phonetischer Transkription vorliegen. Vielmehr ist mit „Regel“ eine formalsprachliche Anweisung z ur Ersetz ung von Zeichenketten gemeint. Am häufigsten wird bei regelbasierten Verfahren folgender Regeltyp verwendet: u 〈v〉 w → x. Lies: Tritt der Buchstabe/die Buchstabenkette v in einem z u phonetisierenden Wort unmittelbar rechts von dem Buchstaben/der Buchstabenkette u und unmittelbar links von dem Buchstaben/der Buchstabenkette w auf, so ist in der phonetischen Transkription für v das phonetische Zeichen/die phonetische Zeichenkette x einz usetz en. Die Kontexbedingungen (u und w) können auch entfallen.

178

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Die Umset z ungsregeln werden üblicherweise z u einer geordneten Menge von Regeln z usammengefaßt. Und z war werden die Regeln so angeordnet, daß stets die spez ielleren Regeln, also diejenigen Regeln mit den längeren z u ersetz enden Zeichenketten und den längeren Kontextbedingungen, vor den allgemeineren Regeln an z uwenden versucht werden. Hierdurch wird gewährleistet, daß jede Regel potentiell z ur Anwendung kommen kann. — Regelbasierte Verfahren lassen sich u. a. danach unterteilen, ob die orthographischen Wörter vor der Regelanwendung in Morphe segmentiert werden oder nicht. Im Deutschen ermöglicht die morphologische Segmentierung eine leichtere Phonetisierung der Buchstaben an Morphgrenz en. Wird dagegen nicht morphologisch segmentiert, so ist ein wesentlich umfangreicherer Regelapparat mit längeren (über Morphgrenz en hinausreichenden) Kontextbedingungen für die korrekte Phonetisierung erforderlich. Beispielsweise lassen sich die unterschiedlichen Phonetisierungen des Buchstabens ’s’ in ’Kalkspat’ und in ’Volkspark’ leichter nach einer morphologischen Segmentierung durchführen. Gleiches gilt etwa auch für ‚sch‘ in ’Häuschen’ und in ’täuschen’. Für die morphologische Segmentierung existieren 2 Ansätz e: ein lexikonorientierter, der mit einem Morphlexikon arbeitet, und ein klusterorientierter, der mit Listen morphinitialer und -finaler Buchstabenketten arbeitet. Vorarbeiten für das Deutsche z um klusterorientierten Ansat z hat insbesondere Kästner (1972) geleistet. — Ein Vorteil des regelbasierten Ansatz es ist, daß er im Unterschied z um lexikonbasierten Ansatz der Offenheit des Sprachsystems Rechnung trägt und prinz ipiell jede Wortform eines Textes mit einem regelbasierten Verfahren phonetisiert werden kann. Weitere Vorteile sind die relativ leichte Erstellbarkeit regelbasierter Verfahren und ihr geringer Speicherplatz bedarf, der auch eine Implementierung auf Kleinrechnern erlaubt. Wesentlicher Nachteil des regelbasierten Ansatz es ist allerdings, daß er infolge überdiskriminierender (= z u spez iell formulierter) und insbesondere übergeneralisierender (= z u allgemein formulierter) Regeln i. allg. einen gewissen Anteil fehlerhafter Phonetisierungen z ur Folge hat. Im Unterschied z u lexikonbasierten Verfahren, die eine eindeutige Entscheidung darüber treffen können, welche Wortformen korrekt phonetisiert, also im Lexikon gefunden wurden, können regelbasierte Verfahren diese Ent-

scheidung nicht treffen. — Eine wichtige Unterscheidung verschiedener Typen regelbasierter Systeme, die insbesondere bei ihrer Entwicklung und für ihre Durchschaubarkeit und leichte Veränderbarkeit von großer Bedeutung ist, läßt sich auf der programmtechnischen Seite vornehmen: Hier kann unterschieden werden z wischen sogenannten programmierten Systemen, Interpretersystemen und Compilersystemen. Bei p r o g r a m m i e r t e n S yst e m e n liegen die Umsetz ungsregeln in Form von Anweisungen einer Programmiersprache im Programm vor. I n t e r p r e t e r s yst e m e lesen die Regeln von einer externen Datei ein und wenden sie auf den orthographischen Eingabetext an. In die externe Datei werden die Regeln vom Entwickler oder Benutz er des Systems in einer problemnahen Notation (i. allg. wird die oben angegebene allgemeine Regelform verwendet) eingetragen. C o m p i l e r s yst e m e lesen z unächst — wie die Interpretersysteme — die Regeln von einer externen Datei ein. Sie erz eugen dann ein ausführbares Lademodul, das den durch die Regeln beschriebenen Umsetz ungsproz eß ausführt. Dieses Lademodul erz eugt später für orthographische Texte die phonetischen Transkriptionen. — Programmierte Systeme haben gegenüber Interpretersystemen den Vorteil einer höheren Ausführungsgeschwindigkeit. Wesentlicher Nachteil ist i. allg. die schwere Durchschaubarkeit des in Form von Programmstatements vorliegenden Regelapparates. Entsprechend ergeben sich Schwierigkeiten bei Änderungen des Regelapparates, die außerdem auch eine neue Kompilierung des Programms erforderlich machen. Interpretersysteme erlauben dagegen eine leichtere Änderung des Regelapparates, der in leicht lesbarer Form in einer externen Datei vorliegt. Änderungen des Regelapparates erfordern keine Veränderung und neue Kompilation des Interpreterprogramms. Weiterhin läßt sich ein Interpreterprogramm (ebenso auch ein Compilersystem) für die Phonetisierungen verschiedener Sprachen verwenden; erforderlich ist lediglich die Bereitstellung der sprachspe z ifischen Regelapparate. Außerdem kann ein solches System bei geeigneter formaler Sprache z ur Regelformulierung nicht nur im Rahmen einer Phonetisierung verwendet werden, sondern auch für morphologische Transformationen. Ein Nachteil eines Interpretersystems gegenüber einem programmierten System ist i. allg. die etwas längere Ausführungsdauer. Compilersysteme

16.  Phonologische Beschreibung von Sprache

dagegen vereinigen in sich die Vorteile von programmierten Systemen und von Interpretersystemen: der Regelapparat ist leicht durchschaubar und relativ leicht z u ändern. Der Compiler ist sprachunabhängig und kann Regelapparate für verschiedene Sprachen verarbeiten. Das erz eugte Lademodul z eichnet sich durch hohe Ausführungsgeschwindigkeit aus. Neben den rein lexikonbasierten Verfahren und den rein regelbasierten Verfahren existieren M i s ch u n ge n a u s l ex i ko n u n d a u s r e ge l b a s i e r t e n Ve r fa h r e n . Es handelt sich dabei z um einen um Verfahren, die versuchen, die prinz ipielle Unvollständigkeit eines rein lexikonbasierten Ansatz es durch Anschluß eines Regelteils ausz ugleichen: Alle Wortformen, die nicht im Lexikon verz eichnet sind, also insbesondere Neubildungen, werden mittels des Regelapparates phonetisiert. Daneben liegen eher regelorientierte Ansätz e vor, die die Aufblähung des Regelapparates durch Beschreibungen unregelmäßiger Phonetisierungen dadurch z u vermeiden suchen, daß alle Wortformen mit unregelmäßiger Phonetisierung, also die Ausnahmen, in ein Lexikon aufgenommen werden. Ob man für ein Phonetisierungsverfahren einen lexikonbasierten Ansatz , einen regelbasierten Ansatz oder eine Mischung aus beiden Ansätz en wählt, hängt wesentlich davon ab, wie regelhaft in der jeweiligen natürlichen Sprache die Bez iehung z wischen den orthographischen Wörtern und ihren phonetischen Transkriptionen ist. Ist diese Bez iehung sehr regelhaft, wie etwa im Italienischen und im Spanischen, so empfiehlt sich eher die Wahl eines regelbasierten Ansatz es. Bei Sprachen mit geringerer Regelhaftigkeit, wie dem Englischen, scheint ein Mischverfahren sinnvoll z u sein, in dem die unregelmäßigen Phonetisierungen durch ein Lexikon bereitgestellt werden. D r i t t e r S ch r i t t eines maschinellen Phonetisierungsverfahrens ist i. allg. die Einfügung von Pausenmarkierungen und von Markierungen z ur Wortbetonung und z ur Satz intonation. Dieser Schritt wirft z . Zt. noch die meisten Probleme auf. Auch ist seine Einordnung innerhalb des Gesamtproz esses einer Phonetisierung keineswegs so eindeutig festgelegt, wie es die vorliegende Darstellung vielleicht suggeriert. Bei einigen Verfahren wird er bereits vor der Phonetisierung auf der segmentalen Ebene durchgeführt. Bei anderen Verfahren geschieht dies

179

während oder nach der segmentalen Phonetisierung. Ein einheitliches Paradigma von Lösungstypen für das Problem der Betonungsund Intonationsmarkierung existiert bislang nicht. Als grundlegende Arbeiten, die versuchen, Regelapparate für die Markierung suprasegmentaler Merkmale aufz ustellen, sind für das Deutsche Zinglé (1982) und für das Englische Chomsky/Halle (1968, 69 ff.) z u nennen. Eine Sammlung neuerer Arbeiten z ur maschinellen Betonungs- und Intonationsmarkierung in deutschen und in niederländischen Texten findet sich in Müller (ed.) (1985). 3.3. Vorliegende Verfahren Im folgenden Überblick über vorliegende Verfahren z ur automatischen Phonetisierung orthographischer Texte wird für jeden der möglichen Lösungswege (vgl. 3.2.) exemplarisch jeweils ein Verfahren detaillierter vorgestellt. Zu einer Auswahl weiterer Verfahren wird lediglich eine kurz e Charakterisierung gegeben, und es werden ggf. besondere Merkmale dieser Verfahren genannt. Chisholm (1980) berichtet über ei n l ex i ko n b a s i e r t e s Ve r fa h r e n z ur automatischen Phonetisierung deutscher Texte. Das Lexikon umfaßte z um Zeitpunkt des Berichts ca. 25 000 Einträge, d. h. orthographische Wortformen mit ihren phonetischen Transkriptionen. Dieser Umfang reichte bei Chisholms Vorhaben, nämlich der phonetischen Transkription deutscher Lyrik des 18. und des 19. Jahrhunderts, aus, um ca. 95% der laufenden Wortformen korrekt z u transkribieren. Die phonetische Transkription, die z u den Wortformen im Lexikon angegeben ist, beschränkt sich nicht allein auf die segmentale Lautebene, vielmehr umfaßt sie auch die Markierung von Silbengrenz en und die Markierung suprasegmentaler Merkmale, wie Wortbetonung. — Weitere nennenswerte Arbeiten z ur lexikonbasierten Phonetisierung existieren nicht. Unter den r e ge l b a s i e r t e n Ve r fa h r e n seien z unächst die p r o g r a m m i e r t e n S yst e m e genannt. Ein vielbeachtetes System wurde von Ainsworth für das britische Englisch entwickelt (vgl. Ainsworth 1973). Es handelt sich um ein z unächst experimentelles System, das für den Einsatz auf Kleinrechnern konz ipiert ist. Die Phonetisierung geschieht in 3 Schritten: 1. Zuerst werden Pausenmarkierungen in den orthographischen Eingabetext eingesetz t. Die dafür verwendeten Regeln fügen

180

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Pausenmarkierungen an folgenden Positionen ein: „1) at a punctuation mark; 2) preceding a conjunction; 3) between a noun phrase and a verb phrase; 4) before a prepositional phrase; 5) before a noun phrase; and 6) after a fixed number of characters have appeared in the input.“ (Ainsworth 1973, 288) Die Pausenmarkierungen sind z u 80% korrekt. 2. Im z weiten Schritt wird der mit Pausenmarkierungen versehene orthographische Eingabetext mit Hilfe von 159 kontextsensitiven und kontextfreien Umsetz ungsregeln auf der segmentalen Lautebene transkribiert. Interessant am verwendeten Regeltyp u 〈v〉 w → x ist, daß in den Kontextbedingungen u und w nicht nur Buchstaben(-ketten) stehen dürfen, sondern auch Bez eichner für Klassen von Buchstaben(-ketten). So verwendet Ainsworth beispielsweise die Bez eichner V für vokalische Buchstaben, C für konsonantische Buchstaben und SUF für Suffixe. Diese Verwendung von Klassenbe z eichnern erlaubt eine etwas kompaktere Regelnotation. — Ainsworth arbeitet nicht mit Listen von Ausnahmen. Wortformen mit unregelmäßiger Phonetisierung nimmt er vielmehr in die Regelmenge auf (Beispiel: 〈their〉 → ðεǝ). Verschiedene Testläufe mit dem Regelapparat ergaben Anteile z wischen 8% und 11% fehlerhaft phonetisierter laufender Textwortformen. 3. Der dritte Verarbeitungsschritt markiert in dem mit Pausenmarkierungen versehenen und phonetisierten Text betonte Silben, und zwar nach folgendem Verfahren: „A list of words that are not usually stressed (articles, prepositions, conjunctions, etc.) were stored in the computer. The syllables of all words in this list were left unstressed. If a word was not included in this list, its first syllable was stressed, unless its first syllable was included in a list of prefixes. In that case the second syllable was stressed.“ (Ainsworth 1973, 289). Mit dieser Methode wurden die Betonungsmarkierungen z u mehr als 90% korrekt gesetz t. Eine Vorverarbeitung des Eingabetextes führt Ainsworth’s Verfahren nicht durch. Ausgehend von Ainsworth’s Verfahren haben Elovitz , Johnson, McHugh u. a. (1976) ein programmiertes System für das amerika-

nische Englisch entwickelt. Das Verfahren arbeitet mit 329 Umsetz ungsregeln. Evaluierungsläufe z u dem Verfahren ergaben u. a., daß von den 4 882 häufigsten Wörtern des Brown-Korpus 92,8% (gerechnet nach Wortformentokens im Text) korrekt phonetisiert wurden. Eine Hochrechnung von Elovitz u. a. auf das gesamte Brown-Korpus ergab einen Anteil fehlerfrei phonetisierter Wörter (Tokens) von 89% bis 90%. — Suprasegmentale Merkmale werden in dem Verfahren nicht berücksichtigt. Weiterhin wird keine Vorverarbeitung des Eingabetextes durchgeführt. Ein programmiertes System z ur Phonetisierung franz ösischer Texte hat Rolshoven (1978) vorgelegt. In einer Vorverarbeitung werden z unächst Ziffern(-folgen) durch die entsprechenden vollausgeschriebenen orthographischen Wörter ersetz t. Diesen Proz eß hat Rolshoven sehr differenz iert ausgearbeitet (Unterscheidung z wischen Kardinal-, Ordinal-, Bruch-, Dez imal- und Jahresz ahlen). Der z weite Verfahrensschritt führt eine provisorische Phonetisierung durch. Es handelt sich dabei um eine Mischung aus programmiertem System und Interpretersystem, das sowohl mit Regeln als auch mit Listen von Ausnahmen arbeitet. Im letz ten Verfahrensschritt wird die provisorische phonetische Transkription auf eine endgültige Transkription abgebildet, wobei der Benutz er z wischen 4 sprachlichen Varianten wählen kann. Suprasegmentale Merkmale werden in dem Verfahren vernachlässigt. „Die Fehlerquote des Programms lag in Testläufen mit ca. 25 000 Phonemen bei unter 1 Promille.“ (Rolshoven 1978, 282). Arkwright und Kerek haben bereits 1972 ein System z ur Phonetisierung ungarischer Texte vorgestellt (vgl. Arkwright/Kerek 1972). Das Verfahren, das sich in wesentlichen Aspekten an der generativen Phonologie orientiert, leistet auf der segmentalen Lautebene eine z u 99% korrekte Phonetisierung. Suprasegmentalia werden nicht berücksichtigt. Das Programm PHONOL dient z ur Phonetisierung deutscher Texte. Es wurde ursprünglich von Berry-Rogghe (1976) erstellt und später von Breuer, Brustkern, Thyssen, Willée (1979) weiterentwickelt. Das System leistet neben der Phonetisierung auf der segmentalen Lautebene die Einfügung von Markierungen für Pausen verschiedener Länge sowie für Wortbetonungen. Der Anteil korrekt phonetisierter laufender Wortformen

16.  Phonologische Beschreibung von Sprache

liegt für die von Berry-Rogghe entwickelte Ursprungsversion bei 98% (vgl. BerryRogghe 1976, 2). Die bisher beschriebenen programmierten Systeme arbeiten — abgesehen von einer Präfix- und Suffixerkennung bei PHONOL — ohne morphologische Segmentierung. Verfahren mit morphologischer Segmentierung sind für das Englische Allen, J. (1977) und für das Deutsche Rühl (1981). In Allens Verfahren werden die Wörter z unächst mit Hilfe eines Lexikons von 12 000 Morphen in Morphe segmentiert. Diese Morphe werden sodann phonetisiert und es werden Wortbetonungsmarkierungen eingefügt. Abschließend werden morphophonemische Regeln ausgeführt. Statistische Angaben z ur linguistischen Leistungsfähigkeit seines Verfahrens macht Allen nicht. — Rühl hat für sein Verfahren eine Methode z ur Morphgrenz enerkennung gewählt, die auf den Vorarbeiten von Kästner (1972) basiert und mit Listen morphinitialer und -finaler Buchstabenkluster arbeitet. Läßt sich eine Buchstabenfolge mittels dieser Listen auf mehrere Arten in Morphe z erlegen, so wird diejenige Zerlegung gewählt, die sich aufgrund statistischer Untersuchungen als die wahrscheinlichste erwiesen hat. Der vorliegende Segmentierungsalgorithmus erkennt 70% der Buchstabenfolgen, innerhalb derer Morphgrenz en liegen. In diesen Buchstabenfolgen wird in 90% aller Fälle die Morphgrenz e korrekt plaz iert. Der hohe Anteil von 30% nicht erkannten Buchstabenfolgen mit Morphgrenz e läßt sich nach Rühl (1981, 146) leicht durch den Einbau einer listenorientierten Präfix- und Suffixerkennung auf 10% reduzieren. Für die regelbasierten I n t e r p r e t e r s yst e m e sei exemplarisch das Verfahren von Lesmo, Mez z alama und Torasso (1978) detaillierter vorgestellt. Das Verfahren dient z ur maschinellen Phonetisierung italienischer orthographischer Texte. Der orthographische Eingabetext wird z unächst — soweit dies maschinell möglich ist — auf orthographische Fehler überprüft, und es werden Akz entmarkierungen in den Text eingefügt sowie Ziffern(-folgen) z u vollausgeschriebenen orthographischen Wörtern expandiert. An diese Vorverarbeitung des Textes schließt sich die phonetische Transkription auf segmentaler Ebene an. Hierz u wird ein endlicher Übersetz er verwendet, der die Ausführung kontextsensitiver Umsetz ungsregeln simuliert. (Bei einem endlichen Übersetz er handelt es sich um eine Erweiterung des endlichen Automa-

181

ten: Der endliche Übersetz er veranlaßt beim Übergang von einem Zustand z um nächsten Zustand die Ausgabe einer Symbolfolge auf ein Ausgabeband). Kritisch anz umerken ist, daß die formale Sprache, in der die Umsetz ungsregeln notiert werden müssen, mnemotechnisch nicht sehr günstig gewählt ist. Im letz ten Verarbeitungsschritt werden Markierungen für Pausen, für Vokallängen und für den Intonationsverlauf in den phonetisierten Text eingefügt. Bei den markierten Pausen handelt es sich insbesondere um Pausen, die Sätz e und Subsätz e voneinander trennen. Sie werden anhand von Satz z eichen erkannt. Die Vokallängungen werden im wesentlichen in Abhängigkeit davon duchgeführt, ob der Vokal in einer betonten oder in einer unbetonten Silbe steht. Die Markierungen für den Intonationsverlauf werden durch den illokutiven Typ der Äußerung bestimmt, dessen Erkennung anhand der Satz z eichen versucht wird. Unterschieden werden die 4 illokutiven Typen Aussage (’.’, ’;’), Frage (’?’), parenthetische Äußerung (’,’, ’:’, ’(’, ’)’) und emphatische Äußerung (’!’), denen 4 verschiedene Intonationsverläufe entsprechen. — Da in allen Verfahrensschritten des Systems die Regeln streng von den Verarbeitungsalgorithmen getrennt sind, läßt sich das Verfahren verhältnismäßig leicht ändern und auch auf andere Sprachen umstellen. Statistische Daten z ur linguistischen Leistungsfähigkeit ihres Verfahren s l egen Lesmo, Mez z alama und Torasso nicht vor. Hitz enberger (1980) hat ein Interpretersystem entwickelt, das sich je nach Inhalt der Eingabedateien als regelbasiertes System, als l exikonbasiertes System oder als Mischung aus beiden verwenden läßt. Erwähnenswert ist, daß in den vorz ugebenden Umsetz ungsregeln nicht allein Buchstaben und Phonz eichen, sondern auch phonetische Merkmale verwendet werden dürfen. Dies ermöglicht es, in den Regeln Klassen von Phonen anz usprechen. Hitz enberger hat das Interpreterverfahren exemplarisch für eine regelbasierte Phonetisierung fran z ösischer Texte eingesetz t. Statistische Angaben z ur linguistischen Leistungsfähigkeit des dabei verwendeten Regelapparates macht er nicht. Das von Slaby und Spellmann (vgl. Slaby/Spellmann 1980 u. Spellmann 1981) entwickelte Verfahren z ur Phonetisierung deutscher Texte besteht aus 2 Verarbeitungsschritten: In einer Vorverarbeitung werden z unächst Ziffernfolgen in Zahlwörter überführt sowie einige eher technische Verände-

182

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

rungen am Text vorgenommen. Im z weiten Schritt wird der vorverarbeitete Text auf der segmentalen Lautebene phonetisiert. Daz u wird ein Regelapparat von 13 370 Regeln verwendet. Die hohe Regelz ahl dürfte teilweise dadurch bedingt sein, daß in den Kontextbedingungen der Regeln keine ’oder’Verknüpfungen und auch keine Bez eichner für Klassen von Buchstaben(-ketten) verwendet werden dürfen, was die Zusammenfassung mehrerer Regeln z u einer und somit eine kompaktere und überschaubarere Regelnotation verhindert. Weitere Ursache für den großen Umfang der Regelmenge dürfte sein, daß vor der Regelanwendung keine morphologische Segmentierung der orthographischen Wörter durchgeführt wird. Dadurch werden z usätz liche Regeln mit umfangreichen Kontextbedingungen für die Beschreibung von Phonetisierungen an Morphgren z en erforderlich (Beispiel: ’TÄU’〈SCH〉’EN’ → [ʃ], ’ÄU’〈SCH〉’EN’ → [sç] für die korrekte Phonetisierung von ’SCH’ in ’TÄUSCHEN’ und in ’HÄUSCHEN’). Eine Markierung suprasegmentaler Merkmale wird im z weiten Schritt nicht vorgenommen. Statistische Evaluierungen der linguistischen Leistungsfähigkeit des verwendeten Regelapparates konnten in dem Projekt von Slaby und Spellmann aus Zeitgründen nicht durchgeführt werden. Auch Kommenda, Kubin und Doblinger (1985) stellen ein Interpretersystem vor, das z ur Phonetisierung deutscher Texte verwendet wird. Das Verfahren arbeitet mit ca. 600 Phonetisierungsregeln. Vor Anwendung des Regelapparates auf eine Wortform wird z unächst eine Wortliste durchsucht, die unregelmäßig z u phonetisierende sowie hochfrequente Wortformen mit ihren Transkriptionen enthält. Mittels dieser Wortliste, die 100 Einträge umfaßt, werden bereits etwa 50% aller laufenden Wortformen eines Textes phonetisiert. Da die Phonetisierung einer Wortform durch Aufsuche in der Wortliste wesentlich schneller abläuft als die Phonetisierung der Wortform mittels Anwendung der Regeln, bedeutet dies eine erhebliche Einsparung von Rechenz eit. — Suprasegmentale Merkmale werden bei dem Verfahren vernachlässigt. Evaluierungsergebnisse legen Kommenda, Kubin und Doblinger nicht vor. Über ein System z ur Phonetisierung laotischer Texte berichten Fischer und Tavolato (1976). Das Verfahren verarbeitet präkodierte und ins lateinische Alphabet transkribierte laotische Texte. Die Präkodierung be-

steht in einer Segmentierung der Wörter in bestimmte, für die Phonetisierung relevante Buchstabengruppen. Suprasegmentalia werden nicht berücksichtigt. Evaluierungsergebnisse werden nicht vorgelegt. Unter den C o m p i l e r s yst e m e n verdient das Verfahren von Müller (1981), das deutsche Texte phonetisiert, besondere Beachtung. Das Verfahren berücksichtigt die meisten bei der Phonetisierung deutscher Texte auftretenden Probleme. Es z eichnet sich weiterhin durch eine hohe Modularisierung sowie durch die Transparenz und leichte Änderbarkeit der Umsetz ungsregeln aus. Die Phonetisierung geschieht in 8 Stufen: 1. Vorverarbeitung des Eingabetextes, in der u. a. Abkürz ungen, Ziffern und Sonderz eichen durch die entsprechenden vollausgeschriebenen orthographischen Wörter ersetz t werden. 2. Markierung der Proklitika und der Enklitika als Vorbereitung für die spätere Kennz eichnung der Satz intonation und der Wortbetonung. 3. Markierung bestimmter Morphgrenz en. Daz u wird ein Klusterverfahren verwendet. Die Morphgrenz enmarkierung ist erforderlich, um später u. a. die Auslautverhärtung von ’b’, ’d’ und ’g’ am Morphende innerhalb von Komposita durchführen z u können und auch um ’sp’ und ’st’ an Morphgrenz en korrekt phonetisieren z u können (vgl. ’Volkspark’ vs ’Sinnspruch’, ’Volkstanz ’ vs ’Meldestelle’). 4. Unter anderem, um betonungsverändernde Präfixe und Suffixe z u erkennen und um vor Vokalen, denen ein Präfix vorangeht, einen festen Vokaleinsatz z u ermöglichen (z . B.: [fε’ ?εbǝn]) und um schließlich weitere, im dritten Schritt nicht erkannte Morphgrenz en z u identifiz ieren, werden Präfixe und Suffixe ermittelt. 5. Einfügung von Wortbetonungsmarkierungen nach folgenden Regeln: — Normalerweise erhält der erste Vokal eines Wortes eine Betonung. — Pro- und Enklisen erhalten keine Betonung. — Bei Wörtern, die mit einem unbetonten Präfix beginnen, erhält der erste Vokal nach dem Präfix den Wortton. Endet das Wort allerdings auf ein tontragendes Suffix, so erhält der erste Vokal im Suffix den Wortton. 6. Phonetisierung der meisten Vokalbuchstaben. Weiterhin Ausführung allgemeinerer Regeln, die für die Vokallängung sorgen so-

16.  Phonologische Beschreibung von Sprache

wie für die Einsetz ung des Knacklauts vor Vokalen im Anlaut, nach Präfix und nach weiteren Morphgrenzen. 7. Anwendung spez iellerer Regeln z ur Vokalphonetisierung. 8. Phonetisierung der Konsonantenbuchstaben. Mit 98 abz uarbeitenden Regeln ist dies der umfangreichste Teilschritt. Müller hat sein System versuchsweise um Komponenten z ur Markierung der Satz intonation erweitert, wobei folgende 6 Satz typen unterschieden werden: Heischender Ausruf, Aussagesat z , Entscheidungsfrage, emphatischer Satz , Ergänz ungsfrage und Doppelfrage. — Wesentliche Teile der Umsetz ungsproz edur wurden mit Hilfe des Scanner-Generators LEX des UNIX-Betriebssystems implementiert (vgl. Lesk/Schmidt 1979). Dem System LEX lassen sich in problemnaher und linguistisch anschaulicher Weise Umsetz ungsregeln mitteilen. LEX generiert dann ein Programm, welches den durch die Regeln beschriebenen Umset z ungspro z eß ausführt. Insgesamt stellt LEX ein komfortables Softwarewerkz eug dar, das die Erstellung von Phonetisierungsverfahren sehr erleichtert. — Statistische Angaben z ur linguistischen Leistungsfähigkeit seines Verfahrens macht Müller nicht. Über die Anwendung eines Compilersystems auf die Phonetisierung franz ösischer Texte berichten Maggs und Trescases (1980). Neben der Phonetisierung auf der segmentalen Lautebene werden auch Pausenmarkierungen durchgeführt. Wortbetonung und Satz intonation werden nicht berücksichtigt. Evaluierungsergebnisse legen Maggs und Trescases nicht vor. Ein weiteres Compilersystem, das z ur Phonetisierung deutscher Texte angewendet wurde, hat Bierfert (1985) entwickelt. Der Schwerpunkt seiner Arbeiten lag dabei auf der Entwicklung des Compilers namens RULBOL und auf der Schaffung einer komfortablen formalen Sprache für die Regelnotation. Vor allem diese formale Sprache verdient besondere Beachtung. Sie z eichnet sich durch vielfältige Ausdrucksmöglichkeiten aus und erlaubt eine äußerst kompakte und übersichtliche Notation von Phonetisierungsregeln. Dies sei exemplarisch mit einigen der bei Bierfert (1985, 316 ff.) wiedergegebenen tentativen deutschen Phonetisierungsregeln verdeutlicht: — [〈V0〉, l, r] G [〈V1 kz, L, R] → g Lies: Tritt der Buchstabe ’G’ unmittelbar rechts von einem phonetischen Vokalz eichen

183

(〈V0〉) oder dem Phonsymbol [1] oder dem Phonsymbol [r] auf und steht unmittelbar rechts von ’G’ ein Vokalbuchstabe (〈V1〉) oder einer der Buchstaben ’L’ oder ’R’, so ist ’G’ durch das Phonsymbol [g] zu ersetzen. Zu beachten ist bei dieser Regel, daß sie den linken Kontext des umz usetz enden Buchstabens bereits phonetisiert erwartet. — Klassenbez eichner definiert der Benutz er z u Anfang einer Regelmenge. Der im obigen Beispiel verwendete Klassenbez eichner 〈V1〉 wird mit der Anweisung 〈V1〉 = AEIOUY definiert. — G[(〈K1〉; R, L), ] → k Lies: Ersetz e den Buchstaben ’G’ durch das Phonz eichen [k], falls auf ’G’ ein konsonantischer Buchstabe außer ’R’ oder ’L’ (〈K1〉; R, L) folgt oder falls auf ’G’ eine Wortgrenz e () folgt. Diese Regel beschreibt die Auslautverhärtung von ’G’ am Morphende. — [] AB [— (ER)] → ’ + ap Lies: Ersetz e die Buchstabenfolge ’AB’ durch die Phonsequenz [’ + ap], falls ’AB’ am Wortanfang () steht und nicht (—) ’ER’ auf ’AB’ folgt. Mit dieser Regel wird ’AB’ als Präfi x i dentifiz iert und entsprechend phonetisiert. Das Plusz eichen in der Phonetisierung steht für den Knacklaut. Insgesamt scheint RULBOL ein hervorragendes Softwarewerkz eug für die Erstellung und maschinelle Anwendung von Regelapparaten z u sein, die verschiedenartigste Umsetz ungen auf Zeichenkettenebene erlauben. Kritisch anz umerken ist, daß bei der Entwicklung von RULBOL nicht auf Portabilität geachtet wurde: Das System ist in ASSEMBLER auf einer PDP15 implementiert. Eine portablere Version von RULBOL, die in der Programmiersprache C programmiert wird, ist allerdings in Arbeit. Über ein Compilersystem, das mit einem Regelapparat z ur Phonetisierung deutscher Texte arbeitet, berichtet auch Wolf (1984). Das Verfahren z eichnet sich insbesondere durch ein sehr differenz iertes Vorgehen bei der Ermittlung der Wort- und der Satz betonung aus. Wolf greift dabei auf die Vorarbeiten von Zinglé (1982) z urück. Für die Phonetisierung auf segmentaler Ebene liegt ein Regelwerk von etwa 500 Einz elregeln vor, das ca. 99% aller Buchstaben in fließendem Text korrekt phonetisiert. Ein Verfahren, das sowohl mit einem Lexikon als auch mit Regeln arbeitet, haben

184

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Mangold und Stall (1978) für das Deutsche vorgestellt. In diesem Verfahren werden die Wortformen z unächst mittels Listen von Wortbildungspräfixen, Wortbildungssuffixen und Flexionssuffixen sowie mit Hilfe einer Liste bestimmter Wurz eln in ihre Morphe segmentiert. Die Morphe werden sodann in einem Lexikon aufgesucht, welches Morphe mit unregelmäßiger Phonetisierung enthält. Morphe, die in diesem Lexikon stehen, werden im Text durch die im Lexikon verz eichneten Phonetisierungen ersetz t. Diejenigen Morphe, die nicht im Lexikon gefunden werden, werden mit Regeln phonetisiert. Ob es sich bei dem Regelteil des Verfahrens um ein programmiertes System, ein Interpretersystem oder ein Compilersystem handelt, geht aus der Darstellung von Mangold und Stall nicht hervor. Im Anschluß an die Regelanwendung werden die Silbengrenz en bestimmt und — damit z usammenhängend — die im Deutschen übliche Auslautverhärtung durchgeführt. Abschließend werden den einz elnen Morphen eines Wortes Betonungsstufen z ugewiesen. Statistische Angaben z ur linguistischen Leistungsfähigkeit ihres Verfahrens legen Mangold und Stall nicht vor. Ein weiteres, sowohl mit Regeln als auch mit einem Lexikon arbeitendes Verfahren stel l t Menzel (1984) vor. Zur Beschleunigung des Phonetisierungsproz esses werden bei diesem Verfahren die orthographischen Textwortformen z unächst in einem Lexikon der hochfrequenten Wortformen aufgesucht. Im Lexikon ver z eichnete Wortformen werden im Text durch die im Lexikoneintrag angegebene Transkription ersetz t, die auch bereits Wortbetonungsmarkierungen enthält. Mittels dieser Lexikonaufsuche werden etwa 50% aller laufenden Wortformen eines Textes phonetisiert. Textwortformen, die nicht im Lexikon verz eichnet sind, werden z unächst einer Affixerkennung unterz ogen. Anschließend werden diese in Stamm und Affixe segmentierten Wortformen mit Hilfe eines regelbasierten Interpretersystems phonetisiert und mit Wortbetonungsmarkierungen versehen. Satz betonungen berücksichtigt das Verfahren nicht. Zur Evaluierung seiner linguistischen Leistungsfähigkeit wurden u. a. 41 000 Einträge eines Häufigkeitswörterbuches phonetisiert. Die Ergebnisse der automatischen Phonetisierung wurden anhand der im Wörterbuch angegebenen Häufigkeiten für die Phonetisierung von fortlaufendem Text hochgerechnet. Es ergab sich ein Anteil von 0,1% fehlerhaften Phonetisierungen auf

der segmentalen Lautebene und 0,5% fehlerhaft gesetzten Wortbetonungsmarkierungen. Für weiterführende Arbeiten z ur automatischen Phonetisierung dürften die z u einigen der besprochenen Verfahren publiz ierten Regelapparate von Interesse sein: Ein übersichtlicher Regelapparat für das britische Englisch ist z u finden bei Ainsworth (1973, 289). Für das amerikanische Englisch legen Elovitz , Johnson, McHugh u. a. (1976, 453 ff.) einen umfassenden Regelapparat vor. Zum Franz ösischen findet man einen ausführlichen Regelapparat bei Maggs und Trescases (1980, 239 ff.), einen Regelapparat in recht ungewöhnlicher Notation bei Rolshoven (1978, 187 ff.) und einen Regelapparat, der sich sehr an der generativen Phonologie orientiert, bei Hitz enberger (1980, 112 ff.). Übersichtliche und ausführliche Regelapparate für das Deutsche finden sich bei Müller (1981, 42 ff.) und bei Bierfert (1985, 316 ff.). Ein weiterer, allerdings nicht sehr übersichtlicher Regelapparat ist bei Ungeheuer/Kästner (1966) zu finden. 3.4. Anwendungsbereiche Anwendungsbereich der meisten Verfahren z ur Phonetisierung orthographischer Texte ist die maschinelle Sprachsynthese (so z . B. bei Ainsworth (1973), Allen (1977), Bierfert (1985), Breuer/Brustkern/Thyssen/Willée (1979), z Elovit /Johnson/McHugh/Shore (1976), Kommenda/Kubin/Doblinger(1985), Lesmo/Me zz alama/Torasso (1978), Maggs/ Trescases (1980), Mangold/Stall (1978), Menz el (1984), Müller (1981), Rühl (1981), Spellmann (1981) und Wolf (1984)). Beim Einsatz von Phonetisierungsverfahren in einem Sprachsynthesesystem schließt sich an die eigentliche Phonetisierung eine Umsetz ung der phonetischen Transkription in Steuersymbole für ein Sprachsynthesegerät an. (Einige der oben beschriebenen Verfahren, die bei der Phonetisierung suprasegmentale Merkmale vernachlässigen, markieren die Suprasegmentalia dann im Zusammenhang mit dieser Umsetz ung in Steuersymbole.) Die Steuersymbole werden an das Sprachsynthesegerät weitergeleitet, wo sie die akustische Wiedergabe synthetischer Sprache auslösen. Derartige Systeme, die gewissermaßen orthographische Texte vorlesen, werden meist als Blindenhilfe konz ipiert. Daneben werden z uweilen auch Anwendungen genannt wie automatische Rufnummernauskunft bei der Post, automatische Fahrplanauskunft bei öffentlichen Verkehrsbetrieben, sprachunter-

16.  Phonologische Beschreibung von Sprache

stütz ter Bildschirmtext, akustische Ausgabe bei Computerterminals sowie electronic mail. (Zur maschinellen Sprachsynthese vgl. Artikel 48.) Neben dieser z . Zt. populärsten Anwendung im Rahmen der maschinellen Sprachsynthese können Phonetisierungsverfahren Anwendung finden beim maschinellen Retrieval nach phonetisch ähnlichen oder identischen, aber unterschiedlich geschriebenen Eigennamen (z . B.: ’Meier’ vs ’Meyer’ vs ’Maier’ vs ’Meyr’ vs ’Mayr’). Weiterhin kann eine automatische Phonetisierung den ersten Arbeitsschritt bilden, wenn ein Textkorpus, das z unächst in orthographischer Form vorliegt, auf phonologischer Ebene stilistisch oder quantitativ analysiert werden soll (z u einer computergestütz ten stilistischen Untersuchung auf phonologischer Ebene vgl. Chisholm (1980)). 3.5. Bewertung und Ausblick Praktikable Phonetisierungsverfahren, die sich auch für die Zwecke der maschinellen Sprachsynthese eignen, sind vorhanden. Ein Teilproblem, für das noch wesentliche Verbesserungsarbeiten erforderlich sind, ist die Markierung von Wort- und Satz betonungen. Lösungsansätz e liegen bisher nur für die Markierung von Standardbetonungen vor. Emphatische Betonungen, also von der Standardbetonung abweichende Hervorhebungen bestimmter Wörter, lassen sich z . Zt. noch nicht maschinell erkennen. Für ihre Identifiz ierung wäre eine maschinelle semantische und pragmatische Analyse der Sätz e des Eingabetextes erforderlich. — Problematisch ist z . T. auch die Phonetisierung an Morphgrenz en, die insbesondere bei deutschen Texten nicht immer leicht durchz uführen ist. (vgl. ’Parkscheibe’ vs ’Werkschor’, ’Buchstabe’ vs ’Wachstum’). Lösungsansätz e hierz u sind z um einen die morphologische Segmentierung vor der Regelanwendung, entweder mittels Listen morphinitialer und -finaler Buchstabenkluster (vgl. z . B. Kästner 1972, Rühl 1981) oder mittels Morphlisten. Zum anderen bietet sich die Ergänz ung des regelbasierten Ansatz es durch ein Lexikon unregelmäßig z u phonetisierender Wörter an. — In den meisten hier vorgestellten Phonetisierungsverfahren ist das Wort die größte Einheit, auf die bei der Phonetisierung auf segmentaler Ebene Bez ug genommen wird. Bei gleich geschriebenen Wörtern mit unterschiedlichen Phonetisierungen (Beispiele: engl. ’lead’ mit den Phonetisierungen [led] und [li:d], dt. ’Montage’ mit den Phonetisie-

185

rungen [mɔn’t:ʒǝ] und [’mo:nt:gǝ] erlauben solche Verfahren keine korrekte Differenz ierung z wischen den alternativen Phonetisierungsmöglichkeiten. Für die Behebung dieses Mangels ist mindestens eine rudimentäre Syntaxanalyse und ggf. auch semantische Analyse erforderlich. Einen entsprechenden Lösungsansatz stellt Rolshoven (1978, 47 f. und 65 ff.) für das Französische vor.

4.

Verfahren zur maschinellen Erlernung von Phonetisierungsregeln

4.1. Problemstellung Ziel der Arbeiten z ur maschinellen Erlernung von Phonetisierungsregeln ist die Konstruktion von Algorithmen, die ausgehend von vorgegebenen Beispielen aus einer beliebigen Sprache vollautomatisch Regeln erlernen, welche für diese Sprache die Umsetz ung orthographischer in phonetische Texte leisten. Diese Lernalgorithmen sollen die Regeln dabei in einer Form bereitstellen, die ihre maschinelle Weiterverarbeitung etwa durch ein Interpreter- oder ein Compilersystem (vgl. 3.2.) erlaubt. Als Beispiele werden den Lernalgorithmen i. allg. Mengen geordneter Paare vorgegeben, deren Erstkomponenten orthographische Wörter und deren Zweitkomponenten die entsprechenden phonetischen Transkriptionen dieser Wörter sind (Beispiel: engl. (’able’, [eibl]), (’drive’, [draiv]), (’like’, [laik]), ...). Die erlernten Regeln sollen bei ihrer späteren Anwendung auf die orthographischen Wörter der Beispielmenge die phonetischen Transkriptionen er z eugen. Darüber hinaus sollen die Regeln so beschaffen sein, daß sie z u möglichst vielen weiteren orthographischen Wörtern, die nicht in der Beispielmenge enthalten sind, die korrekten Transkriptionen erz eugen. Notwendige Voraussetz ung hierfür ist nicht nur die Ausstattung des Lernalgorithmus mit geeigneten Lernstrategien. Vielmehr muß die Bez iehung z wischen der orthographischen und der phonetischen Repräsentation der Wörter auch tatsächlich regelhaft sein und die Menge von Lernbeispielen repräsentativ z usammengestellt sein. — Das primäre Erkenntnisinteresse der Arbeiten z ur maschinellen Erlernung von Phonetisierungsregeln gilt z . Zt. weniger den z u erlernenden Regeln, sondern vielmehr den Lernstrategien, mit denen ein Algorithmus ausgestattet werden muß, damit er aus geeigneten Beispielen brauchbare Regeln ableiten kann.

186

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

4.2. Mögliche Lösungswege Ein einheitliches Paradigma von Lösungswegen existiert z ur genannten Problemstellung noch nicht. In den existierenden Arbeiten wird i. allg. versucht, die Proz esse des inferentiellen Lernens, des Lernens durch Analogieschluß und des Regellernens algorithmisch z u simulieren (z u einer Erläuterung dieser Typen des Lernens vgl. Klix 1982). Für die algorithmische Simulation werden jedoch recht unterschiedliche Wege gewählt, die sich durch eine äußerst hohe algorithmische Komplexität ausz eichnen und sich daher einer Darstellung im Rahmen dieses Handbuches entz iehen. Für die z u erlernenden Regeln wird üblicherweise die Darstellungsform v → x/〈u, w〉 oder eine äquivalente Notation gewählt. Die Kontextbedingungen u und w können auch entfallen. 4.3. Vorliegende Verfahren Dem Lernalgorithmus von Oakey und Cawthorn (1981) gibt der Benutz er z u Beginn eines Lernproz esses neben den Beispielwortpaaren 26 kontextfreie Anfangsregeln vor, die für jeden der 26 Buchstaben des lateinischen Alphabets angeben, durch welches Phonz eichen er bei einer Phonetisierung ersetz t werden soll. Diese Anfangsregeln sind mit Ausgangshypothesen über den z u beschreibenden z Umsetz ungs usammenhang gleichz usetz en, die im Verlauf des Lernproz esses verworfen oder verfeinert werden. Um die Anfangsregeln schrittweise z u verbessern, arbeitet das Verfahren im wesentlichen mit folgenden Teiloperationen: 1. Re ge l e r z e u g u n g : Die vorliegende Regelmenge wird auf ein in der Beispielmenge vorgegebenes orthographisches Wort angewendet und dabei wird ein phonetisches Wort erz eugt (Vor der Anwendung auf das erste orthographische Wort handelt es sich bei der Regelmenge um die 26 Anfangsregeln, später um daraus hervorgegangene verbesserte Regelmengen). Die erz eugte phonetische Transkription wird dann mit der in der Beispielmenge vorgegebenen (korrekten) phonetischen Transkription verglichen. Bei Identität werden die Regeln nicht verändert, und das nächste orthographische Wort wird verarbeitet. Ist die mit den Regeln erz eugte Transkription dagegen nicht mit der vorgegebenen Transkription identisch, so gilt die vorliegende Regelmenge als nicht korrekt. In

diesem Fall wird eine sehr spez ielle sogenannte Basisregel konstruiert, die sich nur auf das falsch phonetisierte orthographische Wort anwenden läßt, da als linke und rechte Kontextbedingung der Regel jeweils die Zeichenkette z wischen der um z uset z enden Buchstabenkette und der Wortgrenz e gewählt wird. Eine Basisregel beschreibt die korrekte Umsetz ung eines z unächst falsch phonetisierten Buchstabens. 2. G e n e r a l i s i e r u n g : Jede neu erz eugte Basisregel wird mit den bereits vorliegenden Regeln verglichen. Finden sich dabei Regeln, die dieselbe Ersetz ung unter ähnlichen Kontextbedingungen beschreiben, so werden diese Regeln mit der Basisregel z u einer allgemeineren generalisierten Regel synthetisiert. So würden z. B. die beiden Regeln ’ck’ → ’k’/〈’du’,〉 ’ck’→ ’k’/〈’lu’,〉 die aus den Wortpaaren (’duck’, [d ⋀ k]) (’luck’, [l ⋀ k]) gewonnen wurden, z u der allgemeineren Regel ’ck’→ ’k’/〈CONS1’u’,〉 z usammengefaßt (CONS1 ist ein Bez eichner für die Menge der konsonantischen Buchstaben). Der Generalisierungspro z eß verläuft rekursiv, d. h., mehrere bereits generalisierte Regeln können wiederum z u einer (weiter) generalisierten Regel z usammengefaßt werden. 3. B e s e i t i g u n g vo n Re ge l ko l l i s i o n e n : Stellt sich für eine neu gebildete Regel heraus, daß in der Regelmenge bereits eine Regel existiert, die dieselbe Buchstabenkette unter identischen Kontextbedingungen durch eine andere Phonkette ersetz t, so heißt dies, daß sich diese 2 Regeln widersprechen. In einem solchen Fall wird diejenige Regel in die Regelmenge aufgenommen, die für die meisten der in der Beispielmenge vorgegebenen orthographischen Wörter gilt. 4. E i n s o r t i e r u n g n e u e r Re ge l n i n d i e Re ge l m e n ge : Neue Regeln werden so in die Regelmenge eingeordnet, daß bei der späteren Regelanwendung versucht wird, stets die Regeln mit den spez ielleren Kontextbedingungen vor den Regeln mit den allgemeineren Kontextbedingungen an z uwenden. Dadurch wird gewährleistet, daß jede Regel potentiell z ur Anwendung kommen kann. 5. B e s e i t i g u n g vo n Ü b e rge n e r a l i s i e r u n ge n : In diesem Schritt wird versucht, übergeneralisierende, d. h. z u allgemein formulierte Regeln, z u ermitteln, und durch spe-

16.  Phonologische Beschreibung von Sprache

z iellere, nicht übergeneralisierende Regeln, zu ersetzen. Oakey und Cawthorn haben ihr Verfahren experimentell eingesetz t, um Regeln z ur Phonetisierung englischer Wörter erlernen z u lassen. Eine Anwendung maschinell erlernter Regeln auf die orthographischen Wörter dreier Beispielmengen (die auch die Ausgangsdaten für den Lernproz eß bildeten) ergab im besten Fall 59% korrekt phonetisierte Wortformentypes und 84% korrekt gebildete Phontokens. Im schlechtesten Fall ergaben sich 21% korrekt phonetisierte Wortformentypes und 74% korrekt gebildete Phontoken. Statistische Daten z ur Phonetisierung von Wörtern, die nicht als Beispiele z um Lernen vorgegeben wurden, legen Oakey und Cawthorn bedauerlicherweise nicht vor. Gerade diese Daten wären von besonderem Interesse. Einen weiteren Algorithmus z ur Erlernung von Phonetisierungsregeln hat Wolf (1977) entwickelt und auf englische Wörter angewendet. Auf nähere Ausführungen z um Ablauf seines Verfahrens sei hier verz ichtet. Bei der Anwendung der erlernten Regeln auf die orthographischen Wörter der beim Lernen vorgegebenen Beispielmengen ergaben sich stets mehr als 90% korrekte Phonetisierungen. Der Anteil korrekter Phonetisierungen für nicht in den Beispielmengen enthaltene Wörter lag zwischen 2,5% und 35%. 4.4. Anwendungsbereiche Tatsächliche Anwendungen von Verfahren z ur maschinellen Erlernung von Phonetisierungsregeln sind bisher nicht bekannt. Wie die oben genannten statistischen Daten z ur linguistischen Leistungsfähigkeit der vorliegenden Verfahren verdeutlichen, dürfte die gegenwärtige Qualität dieser Verfahren auch kaum für konkrete Anwendungen ausreichen. Allerdings ist in den genannten Arbeiten z unächst auch nicht die Entwicklung anwendungsreifer Systeme intendiert. Nahz iel ist vielmehr die Grundlagenforschung und dabei insbesondere die Ermittlung und Algorithmisierung geeigneter Lernstrategien. 4.5. Bewertung und Ausblick Anwendungsreife Verfahren z ur maschinellen Erlernung von Phonetisierungsregeln liegen nicht vor. Für die Verbesserung der existierenden Verfahren müßten u. a. z u den folgenden Fragestellungen Antworten gefunden werden: Wie läßt sich die Konstruktion über-

187

generalisierender, d. h. z u allgemein gefaßter, und überdiskriminierender, d. h. z u spez iell gefaßter Regeln weitgehend vermeiden? Wie lassen sich in einer Menge von Lernbeispielen die Wörter mit unregelmäßiger Phonetisierung erkennen? Diese Wörter sollten nicht als Basis für die Konstruktion von Regeln herangez ogen werden, vielmehr sollte ein Lernverfahren aus diesen Wörtern Listen von Ausnahmen z usammenstellen. — Die existierenden Verfahren beschränken sich ausschließlich auf Versuche, Regeln z ur Phonetisierung auf der segmentalen Lautebene z u erlernen. Die Erlernung von Regeln z ur Einfügung von Wortbetonungsmarkierungen wurde völlig vernachlässigt. Sollte die Entwicklung anwendungsreifer Lernalgorithmen eines Tages gelingen, so kommt als potentieller Anwendungsbereich die weitgehend automatisierte Erstellung von Phonetisierungsverfahren in Frage. Gegenüber nicht-lernenden Systemen, die z . Zt. vorherrschen, wären lernende Systeme wesentlich wartungsfreundlicher: Bei nicht-lernenden Systemen müssen Modifiz ierungen der Regelmengen vom Entwickler oder Benutz er des Systems durchgeführt werden. Die dabei z u bearbeitenden Regelmengen sind z uweilen recht umfangreich und komplex, so daß erstens der Arbeitsaufwand bei einer intellektuellen Modifikation relativ hoch ist und z weitens Folgefehler bei einer Modifiz ierung auftreten können. Weiterhin muß der Entwickler oder Benutz er des Systems die Regeln selbst formulieren. Lernende Systeme dagegen würden den Arbeitsaufwand des Benutz ers auf die Eingabe von Beispielen reduz ieren, aus denen gelernt werden soll, und sie könnten automatisch Konsisten z prüfungen bei der Erstellung und Modifiz ierung von Regelmengen durchführen, wodurch Folgefehler vermieden würden. Für Anregungen danke ich Bernd S. Müller (St. Augustin) und Dieter Stock (Bonn).

5.

Literatur (in Auswahl)

W. A. Ainsworth 1973 · J. Allen 1977 · Th. Arkwright/A. Kerek 1972 · G. L. M. Berry-Rogghe 1976 · H. Bierfert 1985 · G. Breuer/J. Brustkern/ H. Thyssen/G. Willée 1979 · D. Chisholm 1980 · N. Chomsky/M. Halle 1968 · H. S. Elovitz /R. Johnson/A. McHugh/J. E. Shore 1976 · G. Fischer/P. Tavolato 1976 · Z. S. Harris 1951 · L. Hitz enberger 1980 · W. Kästner 1972 · F. Klix 1982 · M. Kommenda/G. Kubin/G. Doblinger 1985 · M. E. Lesk/E. Schmidt 1979 · L. Lesmo/M.

188

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Mez z alama/P. Torasso 1978 · P. Maggs/P. Trescases 1980 · H. Mangold/D. S. Stall 1978 · W. Menz el 1984 · B. S. Müller 1981 · B. S. Müller 1985 · S. Oakey/R. C. Cawthorn 1981 · Principles 1949 · J. Rolshoven 1978 · H.-W. Rühl 1981 · W. A. Slaby/ F.-P. Spellmann 1980 · F.-P. Spellmann 1981 · H.

17. 1.

1.1. 1.2. 1.3. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 3. 3.1. 3.2. 3.3. 3.4. 3.5. 4.

1.

S. Tropf 1979 · N. S. Trubetz koy 1939 · G. Ungeheuer/W. Kästner 1966 · H. v. Wedel 1984 · E. Wolf 1977 · H. E. Wolf 1984 · K. Wothke 1983 · H. Zinglé 1982.

Klaus Wothke, Heidelberg (Bundesrepublik Deutschland)

Computergestützte Verfahren morphologischer Beschreibung Anwendungsbereiche und Ziele maschineller Verfahren morphologischer Analyse und Synthese Wissenschaftsinterne und wissenschaftsexterne Anwendungen Einsatzbereiche und Ziele von Stand-by-Verfahren Anwendungen und Ziele von Stand-alone-Verfahren Gegenstand und Gegenstandsbereich morphologischer Analyse Morphologie Morphologie-Modelle Type und Token Wort und Wortform Lexem und Lemma Morph, Allomorph, Morphem Wortklassen Beschreibung vorhandener Verfahren Was ist morphologische Beschreibung in der CL? Bereiche morphologischer Beschreibung Verfahrenstechniken Implementierte Verfahren zur morphologischen Beschreibung Abschließende Bemerkung Literatur (in Auswahl)

Anwendungsbereiche und Ziele maschineller Verfahren morphologischer Analyse und Synthese

1.1. Wissenschaftsinterne und wissenschaftsexterne Anwendungen Verfahren der maschinellen und maschinell gestütz ten morphologischen Analyse sowie Synthese werden wissenschaftsextern (in der Wirtschaft und in der Verwaltung) wie wissenschaftsintern (etwa in der Linguistik, den Soz ialwissenschaften, der Psychologie und den philologischen Fächern) für die verschiedensten Zwecke entwickelt und eingesetz t. Morphologische Beschreibungen spielen z . B. eine Rolle in der Lexikologie und in der

Lexikographie, bei sprachstatistischen und bei stilistischen Analysen (etwa auch bei der Autorenbestimmung), bei der Inhaltsanalyse (content analysis) und bei automatischen Satz verfahren, im Rahmen von Dokumentations-, Experten-, Frage-Antwort-Systemen sowie bei der maschinellen Sprachübersetzung. Im Hinblick auf die Analyse dienen morphologische Operationen dem Segmentieren von Texten in Wörter bz w. Wortformen und von Wörtern bz w. Wortformen in Wort- zb w. Wortformenbestandteile (und z war auf dem Wege der Dekomposition, Dederivation, Deflexion), dem Identifi z ieren von Wortformen bz w. Wörtern und Wortbestandteilen (als je einem bestimmten Paradigma z ugehörig) und dem Klassifiz ieren von Wortformen bz w. Wörtern und Wortbestandteilen (als Elementen einer je bestimmten Klasse). Umgekehrt dienen morphologische Operationen im Hinblick auf die Synthese dem Generieren von Wortformen bz w. Wörtern aus Wortformen- zb w. Wortbestandteilen (und z war auf dem Wege der Komposition, Derivation, Flexion) wie auch ebenso dem Identifi z ieren und Klassifi z ieren (durch Merkmalzuweisungen). Zu bedenken ist, daß bei der morphologischen Analyse und Synthese in aller Regel Segmentierung bz w. Generierung, Identifiz ierung und Klassifiz ierung ineinanderspielen. Für die wissenschaftsinternen wie -externen Anwendungen gilt, daß der Einsatz des Computers die Verarbeitung großer Datenmengen ermöglicht und außerdem Ergebnisse z eitigt, die von Entscheidungen einz elner Bearbeiter unabhängig und intersubjektiv nachprüfbar sind. Betrachtet man die Gesamtheit maschineller Verfahren morphologischer Analyse und Synthese, so lassen sich unterscheiden: (a) Verfahren, die Komponenten mehr oder weniger komplexer maschineller Sprach-

17.  Morphologische Beschreibung

verarbeitungssysteme darstellen (Stand-byVerfahren), (b) Verfahren, die nicht als Komponenten von Sprachverarbeitungssystemen, sondern z ur Lösung spez ieller morphologischer Probleme konz ipiert wurden (Stand-aloneVerfahren). 1.2. Einsatzbereiche und Ziele von Stand-by-Verfahren Als Stand-by-Verfahren finden sich morphologische Analysen (und Synthesen) z . B. im Rahmen — der maschinellen Dokumentation und Information — einschließlich des maschinellen Indexierens, des Abstracting bz w. der Textkondensierung, — der maschinellen Sprachübersetzung, — von Frage-Antwort-Systemen, — von maschinellen Satz verfahren (z . B. Silbentrennung), — der maschinellen Lexikographie, — von maschinellen Lehr- und Lernverfahren. Ziele morphologischer Operationen im Rahmen komplexer Textverarbeitungsverfahren sind: (a) Segmentierung von Texten in Wörter bz w. Wortformen sowie deren Identifiz ierung und Klassifizierung als Vorbereitung für — die Umwandlung von Texten in Wortformenlisten verschiedener Art (Indices, Register, Konkordanzen), — die Disambiguierung homonymer Wörter bzw. Wortformen, — die Zusammenführung diskontinuierlicher Bestandteile, — statistische Berechnungen (auf Wortformenbasis), — Zugriffe auf bestehende Wortformenwörterbücher; (b) Segmentierung von Wörtern bz w. Wortformen in Wort- bz w. Wortformenbestandteile sowie deren Identifiz ierung und Klassifizierung als Voraussetzung für — Disambiguierungen homonymer Wortformen bzw. Wörter, — Silbentrennungsprogramme, — statistische Berechnungen (auf Lemmabasis), — Zugriffe auf bestehende Lemmawörterbücher, — Bestimmungen von Wortformen- bz w. Wortklassen (meistens mit Hilfe spez ieller Listen, die neben den Funktionswörtern und unregelmäßigen Flexionsformen vor allem Listen von Flexionsendungen enthalten).

189

Bei solchen Systemen, die eine Synthesezb w. Generierungskomponente benötigen (wie z . B. bei der maschinellen Sprachübersetz ung, eventuell auch beim maschinellen Abstracting), leisten solche Verfahren z usätz lich die Generierung von Wörtern bz w. Wortformen. Graphisch veranschaulicht:

Als Stand-by-Verfahren konz ipierte morphologische Analyse- und Syntheseverfahren sind jeweils auf die Erfordernisse des entsprechenden Systems z ugeschnitten, als deren Komponente sie fungieren; sie müssen nicht notwendig den Ansprüchen systemlinguistischer Theorienbildung entsprechen und sind in aller Regel nicht ohne weiteres in einer anderen Umgebung einsetzbar. 1.3. Anwendungen und Ziele von Stand-alone-Verfahren Stand-alone-Verfahren morphologischer Beschreibung dienen meistens wissenschaftsinternen Zwecken und haben hier häufig einen vornehmlich heuristischen Wert. Sie können bei entsprechender Konstruktion die Verifikation und Falsifikation von Hypothesen leisten und so die Theorienbildung unterstützen. Hierzu gehören etwa Verfahren der — Segmentierung von Texten in Wörter bz w. Wortformen sowie deren Identifiz ierung und Klassifizierung, — Zuordnung von Wörtern bz w. Wortformen z u bestimmten Paradigmen und der Typologisierung von Homonymen, — Segmentierung von Wörtern bz w. Wortformen in Wort- bz w. Wortformenbestandteile sowie deren Identifiz ierung und Klassifiz ierung mit dem Ziel der Ermittlung morphologischer Strukturen und der Etablierung von Wortformen- bz w. Wort- und Wortbestandteilsklassen. Graphisch veranschaulicht:

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

190

Stand-alone-Verfahren morphologischer Analyse und Synthese sind nicht notwendig für wissenschaftsexterne Zwecke konz ipiert, häufig aufwendig und nicht ohne weiteres in komplexe Textverarbeitungssysteme integrierbar. Sie besitz en aber den besonderen Vorteil, für spez ielle morphologische Probleme wissenschaftlich begründete Lösungen zu bieten.

2.

Gegenstand und Gegenstandsbereich morphologischer Beschreibung

2.1. Morphologie In der Linguistik wird „Morphologie“ weithin als „Wortlehre“ aufgefaßt mit den Teilgebieten „Flexion“ und „Wortbildung“, wobei die Wortbildung wiederum untergliedert wird in „Komposition“ und „Derivation“ (vgl. z. B. Bergenholtz/Mugdan 1979, 9). Danach hat sich die Morphologie vor allem mit Wortstrukturen z u beschäftigen, genauer: mit der Bestimmung und Klassifikation von Wörtern und Wortbestandteilen. Weitgehend unstrittig scheint z u sein, daß die Morphologie (auch „Wortlehre“, „Morphemik“, „Pleremik“ genannt) einen Teilbereich der Grammatik bildet, der z wischen Phonetik bz w. Phonemik/Phonologie (Lautlehre) und Syntax (Satzlehre) anzusiedeln ist. Doch bereits hier entstehen Probleme dann, wenn man — wie Bergenholtz /Mugdan (1979, 9 und passim) dies tun — die

2.2. Morphologie-Modelle Je nach z ugrundeliegender Grammatik werden verschiedene Richtungen bz w. Modelle der Morphologie unterschieden (vgl. Hockett 1954; z usammenfassend auch Bergenholtz / Mugdan 1979, 103—115 und Weber 1980): (1) Die WP- (word and paradigm) grammar als Grundlage für das vielseitigste und

Wortbildung (und Semantik) z u einem Teilgebiet der Morphologie erklärt, und z war Abgrenzungsprobleme — der Morphologie als Teilbereich der Grammatik gegenüber der Lexikologie, — der Morphologie gegenüber der Syntax, — der Wortbildung gegenüber der Flexion (vgl. z u diesem Punkt Naumann 1986, 7—12). Daß morphologische Analysen die Semantik der z u beschreibenden sprachlichen Einheiten nicht außer Betracht lassen können (man denke nur an die Frage der Homonymie), ist weithin akz eptiert, während die Ansichten darüber, ob die Wortbildung z ur Morphologie gehöre oder nicht, vielmehr einen selbständigen Bereich z wischen Morphologie und Syntax darstelle, geteilt sind. Entwicklung und gegenwärtiger Stand der Diskussion (vgl. hierz u besonders Stepanowa/ Fleischer 1985, 11—63 und Holly 1985) z eigen an, daß die Tendenz vorherrscht, die Wortbildung als eigenständigen Bereich z u begreifen. Zusammenfassend läßt sich festhalten: Die Morphologie bildet ein Teilstück der Grammatik mit fließenden Grenz en z ur Phonetik bz w. Phonemik/Phonologie einerseits und z ur Syntax andererseits. In dem Grenz bereich z wischen Phonetik bz w. Phonemik/ Phonologie bildet sich seit geraumer Zeit die Morphophonemik heraus, in demjenigen z wischen Morphologie und Syntax die Wortbildungslehre. Damit stellen sich die Zusammenhänge wie folgt dar:

darum weithin bevorz ugte WP- bz w. Paradigmenmodell. Als elementare Analyseeinheiten gelten in diesem Modell die Wörter, die nach Wortarten und Flexionsparadigmen beschrieben und klassifiziert werden. (2) Die IA- (item and arrangement) grammar als Basis für das IA- bz w. Kombinationsmodell. Nach diesem im Rahmen des amerikanischen Strukturalismus entwickelten Mo-

17.  Morphologische Beschreibung

dell stellt jede Äußerung eine lineare Folge von Bausteinen/Elementen (items) dar, für deren jeweilige Anordnung (arrangement) bestimmte Regeln sorgen. Durch die Feststellung der jeweiligen Distribution lassen sich die möglichen Umgebungen eines items (hier als Morphe verstanden) angeben. (3) Die IP- (item and process) grammar als Grundlage für das IP- bz w. Proz eßmodell. Beschrieben wird, wie aufgrund bestimmter Transformationsregeln tiefenstrukturelle Formen in oberflächenstrukturelle überführt werden. Dies ist das die generative Transformationsgrammatik begründende Konzept. Während für Sprachen des isolierenden Typs (z . B. Chinesisch) und des agglutinierenden Typs (z . B. Türkisch), in denen die morphologische Segmentierung kaum Probleme bereitet, das IA- bz w. das IP-Modell genügend leistungsfähig sind (vgl. jedoch Koskenniemi 1984), benötigt man z ur Beschreibung flektierender Sprachen (z . B. Lateinisch) das WP-Modell. 2.3. Type und Token Bei jeder morphologischen (wie auch anderen sprachstrukturellen) Analyse sind die Ebenen des Sprachverlaufs und des Sprachsystems z u unterscheiden (vgl. z u dieser Unterscheidung Hjelmslev 1974, 19). Das System einer Sprache stellt ein Inventar von sprachlichen Elementen (Lexik) sowie ihrer möglichen Relationen (Grammatik) dar. Verlauf dagegen meint die konkrete Äußerung, den konkreten Text. Im Anschluß an diese Unterscheidung werden dann bisweilen sprachliche Einheiten des Systems von solchen des Verlaufs einer Sprache unterschieden und auf der Verlaufsseite als Graph, Phon, Morph, Lex (Wort), Syntagma und auf Systemseite entsprechend als Graphem, Phonem, Morphem, Lexem, Syntagmem klassifiziert. Die Unterscheidung in Verlauf und System ist in wenigstens z weifacher Hinsicht problematisch. Zum einen ist sie geeignet, den bestehenden konstitutiven Zusammenhang z u verdecken, z um anderen berücksichtigt sie nicht, daß z wischen (konkretem) Verlauf und (abstraktem) System eine weitere Ebene anz usetz en ist, auf der von der Hic-etnunc-Gebundenheit sprachlicher Einheiten des Verlaufs abgesehen und dadurch erst die Möglichkeit geschaffen wird, Sprache der Analyse, vor allem auch quantitativer Analyse, z ugänglich z u machen (vgl. z u diesem Problem Heger 1976, 24—30, der z wischen

191

parole und langue als z wischen ihnen vermittelnde Ebene die ∑-parole etabliert). Solche Überlegungen führen daz u, eine andere für unsere Zwecke nütz liche Unterscheidung ein z uführen, nämlich diejenige zwischen Type und Token. Tokens sind durch Segmentierung konkreter sprachlicher Texte gewonnene Einheiten, z . B. die z wischen z wei Spatien (blanks) stehenden Einheiten. In diesem Fall läßt sich etwa die Länge eines Textes durch die Zählung der in ihm vorkommenden Tokens bestimmen. Types hingegen sind die in konkreten Texten vorkommenden unterschiedlichen Einheiten. Das LIMAS-Korpus (vgl. Glas 1975) z . B. besteht aus rd. 1 000 000 Tokens (running words), aber nur aus 114 421 Types, was eine Type-Token-Relation von 8,74 ergibt z( ur Type-Token-Relation vgl. Herdan 1960 und Altmann/Köhler in diesem Band). Am Rande sei erwähnt, daß Type-Token-Relationen Aussagen über das Maß der Standardisiertheit bz w. Differenz iertheit von Texten erlauben, sowie Berechnungen über das Anwachsen von Vokabularien im Verhältnis z ur Textlänge, und nicht z uletz t die Grundlage für Untersuchungen der Häufigkeitsstruktur von Texten bilden (vgl. hierz u Schaeder 1981, 138—158). 2.4. Wort und Wortform Nach traditioneller, bis auf Aristoteles z urückreichender Auffassung gilt das Wort als kleinste selbständige sprachliche Einheit. Als Kriterien seiner Bestimmung finden sich vornehmlich: Isolierbarkeit, Substituierbarkeit und eben Selbständigkeit. Eine diese Kriterien aufgreifende Definition stammt von W. Schmidt (1968, 43—45), für den das Wort als Einheit des Wörterbuchs eine aus dem Redez usammenhang isolierte „Art künstlichen Präparats“ ist, in der „Sprachwirklichkeit“ aber „der kleinste selbständige, als Einheit aufgefaßte Redeteil, die kleinste selbständige sprachliche Einheit aus Laut und Bedeutung oder, wie man einfacher sagen kann, der kleinste selbständige sprachliche Bedeutungsträger“. Reichmann (1976, 9) setz t in Anlehnung an Henne/Wiegand (1973, 133—134) und Reichling (1935, 30) folgende Definition dagegen: „Das Wort ist die bilateral aus Inhalt und Ausdruck konstituierte kleinste signifikative und damit notwendigerweise kleinste sprachlich-kognitive und kommunikative, d. h. nicht als Verbindung signifikativer,

192

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

sprachlich-kognitiver und kommunikativer Einheiten beschreibbare Einheit der Sprache, sofern sie als syntagmatisch isolierte Substitutionseinheit einem Sprechpartner unabhängig von anderen solcher Einheiten sprachlich etwas über einen Sachverhalt z u wissen gibt.“ Läßt man vorhandene Wortdefinitionen Revue passieren, so sind folgende Kriterien heraus z udestillieren, die ein z eln oder in Kombination Anwendung finden: (a) Graphematisches (orthographisches) Kriterium: Einheit des Schriftbildes (b) Phonematisches Kriterium: feste lautliche Prägung (aufgrund von Grenz signalen, Akz ent, Phonotaktik, Junktur, Vokalharmonie) (c) Distributionelles Kriterium: Kohesion, Isolierbarkeit, Substituierbarkeit, Umstellbarkeit (d) Semantisches Kriterium: Vorhandensein einer einfachen, konventionalisierten, selbständigen Bedeutung und entsprechende Fähigkeit zur Referenz. (Vgl. hierz u im einz elnen z . B. Reichmann 1976, 4—10 sowie Bergenholt z /Mugdan 1979, 12—29.) Solche Kriterien sollen daz u dienen, z um einen Wörter gegenüber Wortgruppen (d. h. sprachlichen Einheiten, die größer sind als ein Wort) wie auch Wortbestandteilen (d. h. sprachlichen Einheiten, die kleiner sind als ein Wort) abz ugrenz en, z um anderen daz u, verschiedene Wortformen als Flexionsformen ein und desselben Wortes z u identifiz ieren. Den meisten Definitionen ist — selbst wenn sie keines der oben genannten Kriterien außer acht lassen — wenigstens der Mangel gemeinsam, daß sie nicht hinreichend z wischen Wort und Wortform unterscheiden (vgl. jedoch Lyons 1977, 18—22). Da für die Zwecke der CL z unächst allein das graphematische (orthographische) Kriterium (eventuell in Kombination mit dem distributionellen) von Belang ist, soll es hier im Vordergrund der Betrachtung stehen. Ausgehend vom Verlauf ist nach diesem Kriterium ein Wort (im Sinne von ’Wortform’) eine Folge von Graphemen, die durch Spatien (blanks) eingeschlossen ist. Als Wort bz w. Wortform werden auf diese Weise segmentiert: (a) auf diese Weise werden usw. (b) Pkw UNO GmbH usw. (c) rot-grün Ex-Bundeskanzler Dehnungs-h (das) An-den-Haaren-Herbeiziehen co-exist 3:1-Sieg rabbit-hole 400-m-Lauf 3-kg-Dose usw.

(d) etc. vgl. usw. pp. usw. usw. (e) U.S.A. F. D. P. a. a. O. usw. (f) D’dorf (für: Düsseldorf) Ku’Damm (für: Kurfürstendamm) usw. (g) Wanted! Where? Bleib. „Komm!“ Sagt: (leider) (= RGL) usw. (h) I’have Mary’ll didn’t (das) war’s usw. (i) 27. 7. 38 § 116 S. 7 No. 5 usw. (k) und/oder März/April 1987/88 usw. (l) Vor- (und Nachteile) (bergauf und) -ab usw. (= Ergänzungsstrich) (m) Vor- sicht Zuk- ker Mei- ster usw. (= Trennungsstrich) (n) kommt ... vor steht ... kopf fest steht, (daß) (= Distanzkomposita in diskontinuierlichem Vorkommen) (o) kalte Ente head master zu Hause auf Grund usw. (= feste Syntagmen) Die Fälle (a) bis (f) können als korrekte Lösungen einer das graphematische Kriterium mechanisch anwendenden Segmentierung gelten. Während sich bei den Beispielen unter (d) noch dafür argumentieren läßt, daß der abschließende Punkt (als Abkür z ungspunkt) z um Wort gehört, trifft dies auf keinen Fall für die (in aller Regel ohne Spatium bz w. blank angeschlossenen oder auch vorangehenden) Interpunktions z eichen (einschließlich der Klammern) z u. Mithin genügt in den unter (g) notierten Beispielen das graphematische Kriterium nicht, ein korrektes Ergebnis zu erzielen. Dasselbe ist für die Beispiele unter (h) bis (k) festz ustellen, wo größere Einheiten (nämlich Wortgruppen) z u einem Wort bz w. einer Wortform zusammengefaßt werden. In (m) und (n) finden sich Beispiele dafür, daß ein mechanisch angewendetes graphematisches Kriterium unter Umständen auch kleinere Einheiten (nämlich Wortbestandteile) als Wort bzw. Wortform segmentiert. Die z uletz t unter (g) demonstrierten Beispiele stellen Fälle dar, die letz tlich nur unter Rückgriff auf ein Wörterbuch lösbar sind (vgl. hierz u Rothkegel 1973), wobei anz umerken ist, daß es für eine Reihe von Wortgruppen neben einer möglichen übertragenen Bedeutung auch eine reguläre Lesart gibt, wie z. B. bei in den Schatten stellen. 2.5. Lexem und Lemma ’Wort’ im Sinne einer abstrakten Basiseinheit

17.  Morphologische Beschreibung

des Lexikons, die mögliche Vorkommensweisen dieser Einheit und damit eine jeweils bestimmte Menge von Wortformen auf der Langue-Ebene repräsentiert, wird auch als ’Lexem’ be z eichnet. Nach herkömmlicher Terminologie bilden die verschiedenen Realisationen eines Lexems ein Paradigma. ’Lexem’ umfaßt neben den ausdrucksseitigen Charakteristika der Lautung und Schreibung auch die syntaktischen Potenz en sowie die semantischen Eigenschaften der betreffenden sprachlichen Einheit. Üblicherweise wird ein Lexem durch seine (wortartenweise konventionell geregelte) Grundform benannt, die im Wörterbuch wiederum z ur Darstellung eines Lemmas dient. Die Verwendungsweise des Terminus ’Lemma’ (dt. auch Stichwort; franz. entrée, adresse oder mot vedette; engl. entry word oder headword ) ist uneinheitlich. Ausgehend von einer an klassischen Definitionslehren orientierten Einteilung einer Definition in Definiendum und Definiens findet sich bisweilen (so vor allem in LDVLiteratur; vgl. etwa Dietrich/Klein 1974, 132) ein Wörterbucheintrag z weigegliedert in einen Identifikationsteil (Schlüsselwort, Suchwort, lexical entry) und einen Informationsteil. Dies soll hier nicht im einz elnen diskutiert, sondern nur dies festgestellt werden, daß z um einen die gängige (und für bestimmte Zwecke durchaus hinreichende) Bez eichnung ’Stichwort’ wenigstens insofern unz ulänglich ist, als nicht nur Wörter als ’Stichwörter’ fungieren können, daß im weiteren z u einem Wörterbuchartikel z war stets ein (selbst immer auch schon informationshaltiger) Identifikationsteil, aber nicht notwendig auch ein z usätz licher Informationsteil gehören muß. Der Gebrauch des Terminus ’Lemma’ ist in der Lexikographie nicht einheitlich geregelt (vgl. die von Wiegand 1983, 411—415 zitierten Textstellen). Die Divergenz en in den Ansichten darüber, was ein Lemma ist, haben ihren entscheidenden Grund in unterschiedlichen Annahmen über dessen theoretischen Status. Dort, wo (wie es z . B. in der Logik aus guten Gründen der Fall ist) z wischen Objektsprache und Metasprache unterschieden wird, ist bei Definitionen der als Definiendum aufgeführte Ausdruck ein Eigenname in der Metasprache für das entsprechende Zeichen der Objektsprache. Mit anderen Worten: Das Lemma wird als Name verstanden.

193

Als Konsequenz dieser Auffassung vom Lemma ergibt sich, daß die z ur Erklärung eines Wortes verwendete Sprache eine Metasprache z u derjenigen Sprache darstellt, die beschrieben wird und damit die Objektsprache bildet. Diese Ansicht, die für die Belange der Logik ihre unbestreitbaren Vorteile hat, ist sprachtheoretisch allerdings überaus problematisch. Sie bedeutet — worauf Searle (1969, 73—76 und 1971, 116—121) aufmerksam gemacht hat — nämlich, daß die Sprecher einer natürlichen Sprache z um einen über ein objektsprachliches Lexikon, z um anderen über ein metasprachliches, im weiteren dann über ein metametasprachliches Lexikon usw. ad infinitum verfügen müßten. Hinz u kommt, daß die hierbei angenommene Unterscheidung von objekt- und metasprachlichem Gebrauch ein und desselben Ausdrucks, wie Wiegand (1983, 422) argumentiert, in lexikographischer Hinsicht vor allem auch deshalb unsinnig ist, weil „eine Grenz e z wischen Objekt- und Metasprache bei der Beschreibung einer natürlichen Sprache L mittels L oder gar ‚in’ natürlichen Sprachen (...) prinz ipiell nicht begründet gez ogen werden kann“. Dieses Theorie-Dilemma entsteht nicht, wenn man — wie Wiegand (1983, 428—431) es vorschlägt und begründet — sich der Argumentation von Searle und der ordinary language philosophy anschließt und für die Zwecke der Sprachbeschreibung auf eine Unterscheidung von Metasprache und Objektsprache verz ichtet. Danach gehört der in einer Definition als Definiendum angeführte und ein Languez eichen vertretende Ausdruck als angeführter (erwähnter, z itierter) z ur gleichen Sprache wie die Sprache, die z u seiner Beschreibung dient. Unter lexikographischem Aspekt ist der z um Behufe seiner Erklärung in einem Wörterbuch als Definiendum erwähnte und ein Langue z eichen vertretende Ausdruck das Lemma, und „das Lemma in einem einsprachigen alphabetischen Wörterbuch gehört als erwähntes Languez eichen z u der in diesem Wörterbuch beschriebenen Sprache“ (Wiegand 1983, 430). In Anlehnung an Wiegand (1983, 450 ff.) läßt sich erklären: Ein Lemma ist diejenige lexikalische Einheit, die ein Element der Langue (Phonem, Graphem, Morphem, Lexem usw.) der im Wörterbuch beschriebenen Sprache repräsentiert und im Wörterbuch z um Zwecke seiner lexikographischen Bearbeitung erwähnt wird.

194

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

2.6. Morph, Allomorph, Morphem “The term ’morpheme’, coined in 1880 by Jan Boudouin de Courtenay, has been applied to a bewildering variety of concepts”, wie Mugdan (1986, 29) feststellt. Seine Durchsicht der Literatur z u diesem Thema ergab, daß folgende verschiedene Verwendungsweisen für „Morphem“ vorkommen (Mugdan 1985, 38): (1) minimales sprachliches Zeichen (a) beliebiger Art [...] (b) Affix [...] (c) mit Beziehungsbedeutung [...] oder grammatischer Bedeutung [...] (2) sprachliches Zeichen, das Teil eines Wortes ist [...] (3) Ausdruck (a) eines Sprachzeichens beliebiger Größe [...] (b) eines minimalen Sprachzeichens [...] (c) der mit einem Inhalt oder einer (morpho)phonemischen Regel verknüpft (und minimal) ist [...] (4) Menge inhaltsgleicher minimaler Sprachzeichen (a) ohne nähere Festlegung [...] (b) mit beliebigen Unterschieden im Ausdruck [...] (c) mit phonologisch bedingten Ausdrucksunterschieden [...] oder auch freier Variation [...] (d) die nicht suppletiv sind [...], d. h. deren Ausdrucksunterschiede morphophonemischen Regeln unterliegen [...] (5) abhängiges Inhaltselement [...], einzelne grammatische Bedeutung (6) minimales syntaktisch fungierendes Element [...] (7) morphologische Regeln [...] Am weitesten verbreitet ist die Auffassung, daß ein Morphem die kleinste (d. h. nicht in weitere Bestandteile z erlegbare) bedeutungstragende sprachliche Einheit darstelle und innerhalb des Systems (der Langue) ein im Verlauf (der Parole) realisiertes Morph repräsentiere. Nach der gleichen Auffassung sind Allomorphe (ausdrucksseitig möglicherweise voneinander abweichende) verschiedene, in Distribution und Bedeutung aber übereinstimmende Vorkommensweisen ein und desselben Morphems. Wird das Morph bereits als eine Abstraktion seiner möglichen Vorkommensweisen verstanden, ist es aufgrund theoretischer Er-

wägungen nicht gut möglich, Morphe auf der Ebene der Parole anz usiedeln. In diesem Fall bleibt allein, die von Heger (1976, 24—30) vorgeschlagene und oben bereits erwähnte, z wischen Langue und Parole vermittelnde Ebene einer Σ-Parole anzunehmen. Mugdan (1986, 39) plädiert nach der Diskussion der verschiedenen Morphem-Konz epte mit guten Gründen dafür, daß „die Termini ’Morph’ und ’Morphem’ einem strukturalistischen Ansatz vorbehalten bleiben und in den Bedeutungen ’Menge ausdrucksgleicher minimaler Sprachz eichen’ bz w. ’Menge inhaltsgleicher minimaler Sprach z eichen’ (4 b) verwendet werden“ sollten. Morpheme lassen sich u. a. aufgrund der Distribution und Funktion klassifiz ieren, die sie in Syntagmen und in Lexemen haben. Als ’freie Morpheme’ werden danach diejenigen bez eichnet, die dieselbe Distribution und Funktion wie Lexeme haben, die gleichz eitig Lexeme sind; als ’gebundene Morpheme’ hingegen solche, die (wie etwa bestimmte Affixe) nur als Bestandteile von Lexemen vorkommen. Eine weitere Unterscheidung der Morpheme ist diejenige z wischen ’lexikalischen Morphemen’ und ’grammatischen Morphemen’. Zu den ersteren z ählen die Kernbestandteile (Kernmorpheme, Stämme von Substantiven, Verben, Adjektiven, die offene Klassen bilden), z u den letz teren die Angehörigen geschlossener Klassen (wie Präpositionen, Konjunktionen usw.) und auch die Flexive (Deklinations-, Konjugations-, Komparationsflexive). 2.7. Wortklassen Die Bestimmung der Zugehörigkeit von Wörtern bz w. Lexemen oder Wortformen z u verschiedenen Wortklassen (Wortarten, Lexemklassen) ist Ziel bz w. Bestandteil einz elner Verfahren morphologischer Beschreibung. In den Fällen, in denen die morphologische Beschreibung den Input für eine syntaktische Analyse z u liefern hat, ist die Wortklassenbestimmung unabdingbar. Zur Wortklassenbestimmung werden traditionellerweise die folgenden Kriterien herangez ogen, die einz eln oder in Kombination daz u dienen, Wortklassensysteme z u begründen: (1) das semantische Kriterium (des Wortinhalts), (2) das syntaktische Kriterium (der Funktion und/oder Distribution der Wörter im Satz) und (3) das morphologische Kriterium (der Flek-

17.  Morphologische Beschreibung

tierbarkeit bzw. Unflektierbarkeit der Wörter bzw. Lexeme) (vgl. hierz u Bergenholtz /Schaeder 1977 b, 19—50 und Bergenholt z /Mugdan 1979, 126—141). Wortklassensysteme, die im Bereich der maschinellen Sprachverarbeitung entwickelt wurden, favorisieren das syntaktische im Verein mit dem morphologischen Kriterium. Die eine Wortklasse charakterisierenden Merkmale bez iehen sich demnach „teils auf außersyntaktische Eigenschaften [...] (Zugehörigkeit z u einem Flexionsparadigma), teils auf syntaktische (gleichartiges Verhalten im Satz )“. Was Klein (in Eggers 1969, 13) hier für das Saarbrücker Verfahren der maschinellen Sprachübersetz ung (in seiner ersten Version) erklärt, gilt auch für andere Verfahren: eine Mischklassifikation. Das Ergebnis sind Wortklassensysteme, die sich von den in Grammatiken vorfindbaren erheblich unterscheiden. Klein (in Eggers 1969, 20—37) stellt ein System mit insgesamt 18 Wortklassen vor: finites Verb, Infinitiv, Infinitiv mit zu, Partiz ip II, Substantiv, Name, Personalpronomen, Fragewort, flektiertes Adjektiv, Demonstrativwort, Possessivpronomen, Indefinitpronomen, Präposition, Postposition, Relativwort, Verbz usatz , Adverb, Konjunktion, Interjektion. Das Wortklassensystem von LEMMA 2 (vgl. 3.4.3.) sieht folgende Wortklassenz uschreibungen vor: Im Bereich der Verben: Infinitiv, Infinitiv mit zu, finite Verbform, Partiz ip I, Partiz ip II; im Bereich der Adjektive: flektierte Form, unflektierte Form; im Bereich der Substantive: flektierte Form, unflektierte Form; außerdem: Verbz usatz , Adverb, Pronomen (inklusive: Artikel, exklusive: Personalpronomen), Personalpronomen, Konjunktion, Zahlwort (inklusive Ziffern), Präposition, Interjektion, Abkürz ung; daz u aus dem Bereich der Satz z eichen: Satz endepunkt, Komma, sonstige Sat zz eichen. Schließlich gibt es eine unbestimmte Wortklasse für die Erfassung der Wörter, deren Wortklassenzugehörigkeit unklar ist. Zusätz liche „Wortklassen“ — wie etwa eine Wortklasse „Pause“ — sind für die Beschreibung gesprochener Sprache vonnöten.

195

3.

Beschreibung vorhandener Verfahren

3.1. Was ist morphologische Beschreibung in der CL? Unter morphologischer Beschreibung versteht man im allgemeinen die Identifiz ierung von Morphen sowie deren Klassifiz ierung z u Morphemen. Sie umfaßt z wei verschiedene Arbeitsschritte, nämlich erstens die Bestimmung, ob etwas verändert worden ist, und z weitens die Bestimmung, was verändert worden ist. Als Drittes kann man bei der morphologischen Analyse noch die Segmentierung der Morphe betrachten. Das gilt analog auch für die Erz eugung von Morphen, da dann angegeben werden muß, ob, und wenn ja, was nach welchen Regeln an der Grundform oder generell Ausgangsform verändert werden muß, damit ein korrektes Element der intendierten sprachlichen Oberfläche erzeugt wird. Analyse und Synthese können — trotz des beiden Vorgehensweisen gleichen z ugrunde liegenden Beschreibungsschemas — im vorliegenden Zusammenhang nicht einfach als inverse Operationen angesehen werden, da die morphologische Analyse prin z ipiell nicht-restringierte Texte verarbeiten können sollte, während bei der Synthese von Morphen ein vorgegebener Rahmen die Anz ahl der erforderlichen Schritte erheblich einschränkt. Morphologische Analyse ist nur möglich, wenn die z u analysierenden Elemente nach ihrer(n) Wortklasse(n) identifiz iert sind, dieser Schritt ist die Voraussetz ung für eine Lexikonaufsuche, für die Klassifikation der Morphe z u Morphemen sowie für die Segmentierung von Morphen. Die Segmentierung ist erforderlich z ur Identifiz ierung von impliz it enthaltenen Elementen, d. h., es soll dadurch überprüft werden, wie die z u analysierende Wortform durch die Proz esse der Komposition, Derivation und Flexion verändert worden ist. Mit dem Schritt der Klassifikation werden dem identifiz ierten (und ggf. segmentierten) Morph Eigenschaften von der Ebene der Morphe an aufwärts (im Sinne einer strukturalistischen Sprachbeschreibung) z ugewiesen, das Morph wird einem Morphem z ugeordnet, es werden Wortklassen und Morphemklassen gebildet. Die morphologische Synthese stellt demgegenüber eher einen Randfall der morpho-

196

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

logischen Beschreibung dar. Eine Komposita-Synthese entfällt, da diese nur selten regelgesteuert verläuft, sondern mehr assoz iativ und kontextgebunden. Die Synthese von Derivationen ist regelhaft gesteuert möglich, allerdings sind solche Synthesen eher von wissenschaftsinternem Interesse (Erforschung von produktiven Derivationsmustern). Für eine Textsynthese im größeren Rahmen einer Anwendung ist die Synthese von Derivationen nicht erforderlich. Lediglich die Synthese der korrekten Flexionsausprägung ist von einer gewissen Bedeutung, wobei hier die daz u notwendige Information meist einem Lexikon entnommen wird (z . B. Angabe eines Codes für das z ugrundeliegende Paradigma); die gewünschte Wortform wird dann mit Hilfe von FlexivTabellen o. ä. generiert (so z . B. in PLIDIS Lötscher/Kolvenbach 1979). Die syntaktische Struktur des z u erz eugenden Satz es ist an dieser Stelle bereits vorgegeben, die Wortklassen der einz elnen Wortformen stehen bereits fest. Dadurch ist der algorithmische Aufwand bei der Synthese verhältnismäßig klein. Algorithmen z ur morphologischen Beschreibung führen je nach Einsatz gebiet einen oder beide Arbeitsschritte durch, wobei eine exakte Trennung beider oftmals nicht sinnvoll erscheint; denn wie soll beispielsweise ein in mehreren Wortklassen auftretendes Flexiv klassifiz iert und z u der entsprechenden Wortform dann die Grundform erz eugt werden, ohne daß dabei die Wortklasse der betreffenden Wortform vorher bekannt ist? Als Ergebnis von automatischen Beschreibungsverfahren kann u. a. herauskommen, — daß eine Wortform einer bestimmten Wortklasse zuzuordnen ist, — daß eine Wortform mehreren Wortklassen zuordenbar (also homograph) ist, — daß eine Wortform eine bestimmte Flexionsausprägung hat, — daß eine Wortform nach einem (oder mehreren) bestimmten Paradigma(-men) flektiert, — daß eine Wortform z usammengesetz t oder mehrteilig ist, — daß eine Wortform eine Ableitung einer anderen Wortform darstellt, — daß eine Wortform eine bestimmte Funktionsänderung durch eine Ableitung erfahren hat, — daß eine Wortform aus anderen Wortformen zusammengesetzt ist,

— daß Morphe in einer bestimmten Weise zusammenzufassen sind. Welche Informationen durch ein Beschreibungsverfahren geliefert werden, hängt ausschließlich von dem Verwendungsz weck ab und nicht von der Tatsache, daß es sich um automatische Verfahren handelt. Beispielsweise wird es für die Erstellung eines Vokabelver z eichnisses für einen fremdsprachlichen Text genügen, alle neu vorkommenden Wortformen herausz usuchen und — für den Fall, daß es flektierte Formen sind — die z ugehörigen Grundformen z u erz eugen, und dann das Ganz e als Liste ausz ugeben. Eine nähere Bestimmung der Flexionsausprägung der einz elnen Wortformen ist in diesem Fall sogar unerwünscht. Das gleiche gilt z . B. für die automatische Erstellung von Text-Deskriptoren. Bei einer Freitext-Recherche ist dagegen die Kenntnis möglicher Derivationen und Kompositionen hilfreich, um eine größere Ausbeute bei Suchfragen z u gewährleisten. Alternativ müßten sonst alle möglicherweise bildbaren sinnverwandten Formen z u einem gewünschten Suchbegriff vom Benutz er eingegeben werden. 3.2. Bereiche morphologischer Beschreibung Morpheme können je nach ihren inhärenten Eigenschaften unterschiedlich kombiniert werden und in verschiedenen Realisierungen auftreten. Morphologische Beschreibungsverfahren im engeren Sinne beschäftigen sich mit der Flexion und der Wortbildung, also mit der Markierung der Bez iehungen innerhalb von Wortgrenzen. Verwendet eine Sprache andere, nicht an die einz elnen Morpheme gebundene Mittel, um Bez iehungen z wischen Satz konstituenten, oder z ur Bildung neuer Begriffe ausz udrücken, sind morphologische Beschreibungsverfahren im engeren Sinne nicht adäquat, da es sich in diesem Fall um die Analyse der (nicht an Wortgrenz en gebundenen) Aneinanderreihung von Morphen zb w. Morphemen handelt, d. h. um eine syntaktische Beschreibung. Alle im folgenden dargestellten Verfahren und Ansätz e bez iehen sich auf morphologische Beschreibungen im engeren Sinn. Um Mehrdeutigkeiten auf der morphologischen Beschreibungsebene lösen z u können, ist es erforderlich, auf Informationen z urückz ugreifen, die auf anderen linguisti-

17.  Morphologische Beschreibung

schen Beschreibungsebenen (der Syntax, der Semantik, der Pragmatik, der Graphemik usw.) ermittelt werden. Auf die Verfahrensschritte außerhalb der Morphologie wird im folgenden lediglich hingewiesen, ihre einschlägige Behandlung erfolgt in dem jeweiligen funktionalen Zusammenhang. 3.2.1. Besonderheiten bei der Beschreibung von Flexionsphänomenen Flexionsbeschreibungen können mehrere Ziele verfolgen: — Es sollen die Segmente identifiz iert werden, die flektiert sind (das kann u. a. bedeuten, daß diskontinuierliche Wortformen z usammengeführt, und Zeichenfolgen, die aus mehr als einem Morph bestehen ( amo = ich liebe) entsprechend aufgelöst werden). — Es soll die Flexionsausprägung einer flektierten Wortform festgestellt werden (amo: 1. Person Singular Präsens Indikativ Aktiv). — Es soll die z ugehörige Grundform generiert werden ( rex zu regem ). — Es sollen z u einer gegebenen Form alle dem Paradigma nach möglichen Flexionsformen generiert werden (z u amare: amo, amas, amat ... bis zu amatus ). — Es soll die Trennstelle z wischen Kernmorph und Flexiv angegeben werden, um einen Vergleich mit einer Morphemliste durchführen z u können (leg-ten, Kernmorphem LEG). Zum Teil ist eine eindeutige Klassifiz ierung von Flexiven nur über eine syntaktische Analyse möglich, im Deutschen kann etwa lege sowohl 1. Person Singular Präsens Indikativ Aktiv sein als auch Imperativ Präsens Singular. Die erste Interpretation läßt sich nur dann sicher vornehmen, wenn im syntaktisch eindeutigen Kontext das Personalpronomen ich auftritt. Flexive können auch in anderer Form auftreten als in der von identifiz ierbaren Zeichenketten, also Affixen. Flexionsphänomene werden z . T. auch durch Veränderungen der Kernmorpheme realisiert (z . B. Ablaut und Umlaut bei der Verbflexion im Deutschen), es können Sandhi-Effekte an der Grenz e z wischen Flexiven und Kernmorphemen auftreten, die eine besondere Aufbereitung der erkannten Wortformenteile erforderlich machen ( denken — dachte, wenn auch synchron nicht mehr produktiv); daz u sind Suppletiv-Bildungen ein besonderes Problem (bin — war — sei etc.). Schließlich sind auch alle diachron moti-

197

vierten und durch Fremdsprachen bedingten Unregelmäßigkeiten zu berücksichtigen. 3.2.2. Besonderheiten bei der Beschreibung von Derivationsphänomenen Ähnlich wie bei der Flexion kann die Derivation sowohl durch identifiz ierbare Affixe geschehen, aber auch durch Kernmorphemmodifikationen (sehr stark ausgeprägt z . B. i n den semitischen Sprachen, Beispiel: Von der arabischen Wurz el ktb abgeleitet wird u. a. kita:b — ’Buch’, kataba — ’schreiben’, ka:tib — ’Schreiber’, während das Kisuaheli ein Beispiel für affixgesteuerte Derivation darstellt: ki-sualhili — ’Suaheli-Sprache’, ki-unguja — ’Unguja-Sprache’, m-suahili — ’Suaheli-Mann’, m-unguja — ’Unguja-Mann’). Auch hier ist mit Sandhi-Effekten z u rechnen. Das Ziel einer Derivationsanalyse ist 1. fest z ustellen, von welchem Kernmorphem die konkrete Wortform abgeleitet ist (ohne eine solche Analyse ist eine Wörterbuchaufsuche z . B. im Arabischen nicht möglich), und 2. welcher Art die Ableitung ist (z . B. im Deutschen: durch Umlautung des Vokals wird bei manchen Verben ausgedrückt, daß jemand veranlaßt wird, die entsprechende Tätigkeit ausz uführen: saugen — säugen (’saugen machen’), sinken — senken (’sinken machen’); synchron nicht mehr produktiv). Von einer Derivationsanalyse ist in der Regel eine Flexionsanalyse erforderlich, um mögliche Verwechslungen von Flexiven mit Derivationsmorphen ausz uschließen und um das Verfahren zu vereinfachen. 3.2.3. Besonderheiten bei der Beschreibung von Kompositionsphänomenen Die Kompositionsanalyse setz t in den meisten Fällen ebenfalls die Flexions- und Derivationsanalyse voraus, da es hier darum geht, Worformen z u bearbeiten, die mehr als ein Kernmorphem enthalten. Als Besonderheit können die Kernmorpheme z usätz lich als Ableitungen vorliegen, so daß die Dekomposition ggf. einen weiteren Schritt z ur Derivationsanalyse an diesen Stellen einschließt (Fälle wie Un-ver-ein-bar-keit-s-be-schluß). Manche Kompositionen sind nur aus dem Kontext heraus eindeutig analysierbar (Drucker-zeug-nis vs. Druck-er-zeug-nis, Erdrücken vs. Er-drücken etc.), manche Morphe lassen sich sowohl als Kernmorpheme als auch als Derivationsmorpheme klassifiz ieren (z. B. -ein- in ein-schließen gegenüber ein-heit-

198

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

lich), oder auch als Flexive (z. B. -test- i n legtest gegenüber Rechtschreib-test). Sowohl bei der Derivations- als auch bei der Kompositionsanalyse ist die Art der Morphem-Definition entscheidend. Thurmair (1986) unterscheidet historisch motivierte Definitionen, die nur bedingt operationalisierbar sind, distributionell motivierte Definitionen, die leicht z u unscharfen Ergebnissen führen (Reduktion von Neger und Negierung auf das Kernmorph NEG) und semantisch ausgerichtete Definitionen (Morphe = längstmögliche bedeutungserhaltende Strings). Letz terer Ansatz läßt sich nur unter Verwendung eines Morph-Lexikons realisieren, wobei über die eigentlichen Kernmorphe hinaus lexikalisierte Ableitungen mit eigenem Bedeutungsfeld mit aufzunehmen sind. 3.3. Verfahrenstechniken Die vom Verfahren her einfachste Vorgehensweise ist der Vergleich der isolierten Wortform mit einem Wortformenlexikon (auch Vollformenlexikon genannt). Alle Informationen, die man im Rahmen des Verfahrens benötigt, sind in diesem Lexikon abgespeichert und vollständig verfügbar. Es gibt jedoch zwei Hauptprobleme: — Wortformenlexika werden schnell unhandlich groß (100 000 Einträge werden oft erreicht), vor allem, wenn nicht-restringierter Text bearbeitet werden soll; — Lexika enthalten nie alle möglichen vorkommenden Wortformen, so daß ein Verfahren z ur Bearbeitung nicht im Lexikon vorhandener Wortformen trotz dem erforderlich ist. Für die Synthese, aber auch die Analyse von Flexionsformen bietet sich ein getrenntes Vorgehen für die Kernmorphe und die Flexive an. Bei den Kernmorphen kann — etwa in Form eines gesonderten Lexikons — angegeben werden, nach welchem Paradigma sie flektieren, die Paradigmen selbst werden als Tabellen separat abgespeichert. Dadurch wird der Umfang der benötigten Lexika erheblich eingeschränkt, andererseits ist eine eindeutige Analyse u. U. auf der Ebene der Morpheme allein nicht möglich, etwa im Fall von Flexionsmusterhomographie (Ist Akten der Grundform Akt oder Akte zuzuordnen? Ist der Plural von Bank Bänke oder Banken?) oder jeder anderen Homographie (Ist weisen der Infinitiv, die 1. oder die 3. Pers. Plural Präsens z u dem Verb weisen oder eine flektierte Form des Adjektivs weise?).

Weiterhin wird das Verfahren noch dadurch erschwert, daß Wortbildungsmorphe und Flexive, aber auch funktional nicht abtrennbare Teile von Kernmorphen formal identisch aussehen können (-ten bei arbeiten ist anders z u interpretieren als bei legten, das -e bei Weise anders als bei (ich) weise). Analoges gilt für die Bearbeitung von Derivationsphänomenen. Werden Listen von Morphen herangez ogen, so können sie entweder wie Wortformenlexika benutz t werden, d. h. jedes potentielle Morph steht als eigener Eintrag in der Liste und wird mit der z u bearbeitenden Zeichenkette verglichen, oder aber die Liste wird als Baumstruktur organisiert. Insbesondere können z wei Verfahren unterschieden werden, nämlich erstens das Longest-Match-Verfahren und z weitens das Shortest-Match-Verfahren. Im ersteren Fall ist das Zugriffsverfahren aufwendiger, da viele Vergleichsoperationen mehrfach durchgeführt werden müssen. Zunächst wird nach der längsten möglichen Zeichenkette gesucht, also etwa bei Verbformen des Deutschen z unächst nach -tete als Endung, um Fälle wie leitete korrekt z u erfassen, und danach erst nach -te für Fälle wie legte, und schließlich nach -e für Fälle wie komme. Beim Shortest-Match-Verfahren wird jedes Zeichen nur einmal verglichen und die gewonnene Information z wischengespeichert, was allerdings künstliche Mehrdeutigkeiten hervorrufen kann, die in einem weiteren Schritt wieder beseitigt werden müssen. So würde für das obige Beispiel dann so verfahren, daß nach der Identifiz ierung des -e in leitete gespeichert würde, daß -e ein mögliches Flexiv ist. Dann würde das Zeichen links davon in der Baumstruktur aufgesucht und abgespeichert, daß auch -te als Flexiv in Frage kommt. Das nächste Zeichen links vom -t-, das -e-, hätte ebenfalls zur Folge, daß eine mögliche Flexivgren z e abgespeichert wird (für Fälle wie segnete). Erst die Erkennung des davor stehenden -t- würde es dem Algorithmus ermöglichen, alle Alternativen bis auf die z weite z u verwerfen und die Grenz e z wischen Kernmorph und Flexiv korrekt zu ziehen. Die bislang vorgestellten Verfahrensweisen sind systemlinguistisch fundiert, d. h. sie bez iehen sich auf linguistische Beschreibungsebenen und dort definierte Segmente (z. B. Flexive, Kernmorphe). Eine andere Vorgehensweise geht rein statistisch-distributionell an die Phänomene der

17.  Morphologische Beschreibung

Sprache heran, ohne diese vorher schon z u interpretieren oder z u klassifiz ieren. Manche Silbentrennungsverfahren kommen auf diese Weise ohne eine Silbendefinition aus und operieren ausschließlich auf der Ebene der Grapheme. Die Vorkommenshäufigkeiten der Grapheme müssen vorher ermittelt werden, die Qualität eines statistisch fundierten Verfahrens hängt von der Güte dieser Vorarbeit ab. Frühere Systeme (z . B. SUSY) bearbeiten Texte bz w. Sätz e oder Wortformen im Sinne der systemlinguistischen Beschreibungsart von Sprache Ebene für Ebene separat, angefangen von der Ebene der Grapheme über die Morphologie und Syntax bis hin z ur Semantik. Jede Ebene wird für sich bearbeitet, Ergebnisse werden dann an die nächst höhere Ebene weitergereicht. Da die Erkennung von Sprache durch den Menschen jedoch mit Informationen von allen Sprachebenen geschieht, die in beliebiger Reihenfolge abgerufen werden können, führt die sequentielle Vorgehensweise z u einer Inflation von Mehrdeutigkeiten, die letz tlich eine effektive Analyse von Sprache mit Hilfe von Algorithmen illusorisch werden läßt. Auf der Ebene der Morphologie konkurrieren Verfahren, die eher regelbasiert sind mit solchen, die lexikonbasiert sind. Lexikonbasierte Verfahren (z . B. PLIDIS) können sämtliche erwarteten Informationen z u den einz elnen Wortformen liefern, sofern für sie im Lexikon Einträge vorgesehen sind. Falls das nicht der Fall ist, muß entweder vom Benutz er eingegriffen werden oder aber auf ein regelbasiertes Verfahren rekurriert werden. Dessen einfachster Fall wäre die Standardregel: A LLE NICHT IM L EXIKON GEFUNDENEN W ORT- FORMEN WERDEN ALS S UBSTANTIVE BETRACHTET ., die für das Deutsche wohl am häufigsten z utrifft. Ähnlich erz ielen Silbentrennungsverfahren für Textverarbeitungssysteme hohe Erfolgsquoten durch das mechanische Anbieten von Trennvorschlägen nach jedem dritten Zeichen. Regelbasierte Verfahren können — wie der Name schon sagt — lediglich Phänomene der Sprache erfassen, die regelhaft beschreibbar sind. Somit bleibt bei diesen Verfahren notwendig ein Rest von nicht erfaßten sprachlichen Phänomenen übrig, die auch durch Heranz iehen von Regeln für Einz elfälle („Der Singular von Atlanten lautet Atlas .„) unbefriedigend wirkt.

199

Der Vorteil regelbasierter Verfahren ist darin z u sehen, daß diese prinz ipiell nichtrestringierten, freien Text ohne Präedition verarbeiten können, wobei durch ein ’Tuning’ der Regeln, ggf. durch automatische Lernverfahren, textsortenspez ifisch die Fehlerquote sehr klein werden kann. Letz tlich sind Verfahren z ur morphologischen Analyse nur sinnvoll mit einer Kombination beider Ansätz e durchz uführen, also z um einen durch Heranz iehung von Wortlisten, die für eine regelhafte Analyse nur mit z u großem Aufwand z u bearbeiten wären, durch die Heranz iehung von Listen von Flexiven, ggf. Stämmen (etwa für die starken Verben im Deutschen), z um anderen — bei lexikonbasierten Verfahren — durch Einbez ug von regelbasierten Verfahren für den Fall nicht im Lexikon enthaltener Wortformen. 3.4. Implementierte Verfahren zur morphologischen Beschreibung Die Durchsicht der Beschreibungen von mehr als 25 verfügbaren (implementierten und dokumentierten) Verfahren z ur morphologischen Beschreibung z eigte, daß alle im Prinz ip ähnlich arbeiten; es erschien daher wenig sinnvoll, sie einz eln z u beschreiben, da so vieles mehrfach erwähnt würde. Die Mehrz ahl der vorgestellten morphologischen Beschreibungsverfahren befaßt sich mit dem Deutschen. Die Einschränkung wird dadurch ausgeglichen, daß das Deutsche als schwach flektierende Anwendungssprache sowohl linguistisch als auch statistisch fundierte (distributionelle) Verfahrensweisen erforderlich macht. Die Struktur des Deutschen bringt es weiterhin mit sich, daß nicht immer alle benötigten Informationen auf der Ebene der Morpheme allein gewonnen werden können, in gewissem Maße sind syntaktische Untersuchungen z ur Vereindeutigung notwendig. Die vorgestellten Alogrithmen verwenden verschiedene Techniken (Listenvergleich, Suche in Baumstrukturen, Vergleich durch longest-matching zb w. durch shortest-matching), und sie liefern Ergebnisse auf verschiedenen Bereichen (Flexion, Derivation, Komposition). Während bei älteren Systemen oftmals di e linguistischen Beschreibungsebenen bottomup bearbeitet wurden, wobei die Problematik jeder angegangenen Ebene ausführlich dokumentiert wurde, findet sich heute kaum ein System z ur Analyse von Sprache, in dem die

200

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

morphologische Analyse mehr als nur eine untergeordnete Rolle spielt nach dem Grundsatz : Nur soviel morphologische Analyse, wie nötig. Entsprechend summarisch sind bei diesem top-down-Vorgehen die Hinweise auf Komponenten z ur morphologischen Analyse. Die Einteilung der Verfahren nach den Kategorien „überwiegend lexikonbasiert“, „überwiegend regelgeleitet“ und Mischtyp, ist insofern künstlich, als fast alle Verfahren streng genommen als „Mischtyp“ z u betrachten sind, also sowohl — wenn auch z . T. nur sehr kleine — Lexika z ur Analyse einsetz en als auch auf Regeln z urückz ugreifen, um nicht im Lexikon vorhandene Wortformen bearbeiten zu können.

3.4.1. Lexikonbasierte Verfahren für morphologische Beschreibung Die folgenden Verfahren sind weitgehend lexikonbasiert und ausschließlich für das Deutsche konzipiert: — PLIDIS (Lötscher/Kolvenbach 1979 und Brückner 1986), ein Frage-Antwort-System, das überwiegend wortformenbez ogen mit einem Vollformenlexikon (MOLEX) arbeitet, — DERIVER (von Arnfried Schiller, Universität Bonn), ein Algorithmus, der Derivationsanalysen an deutschen Substantiven, Adjektiven und Verben mittels Affix- und Kernmorphlisten vornimmt (Abb. 17.1). — TOPIC (Hahn/Reimer 1983 c), ein Verfahren z ur Textkonz entrierung, das ebenfalls Vollformenlexika einsetzt,

Abb. 17.1 : Beispiel einer Analyse durch DERIVER

17.  Morphologische Beschreibung

— das Erlanger Spracherkennungssystem (Niemann et al. 1981), das die Verifikation der aus der akustischen Eingabe gewonnenen Worthypothese mittels eines Vollformenlexikons durchführt, auch unter Heranz iehung von Kontextanalysen. Vorwiegend lexikonbasiert, wenn auch unter Verwendung von kleinen Regelapparaten sind — ASCOF (Biewer 1985), ein System, das der automatischen Übersetz ung vom Franz ösischen ins Deutsche dienen soll und z ur Analyse Vollformenlexika, Stammlexika und Morphlisten verwendet, — der Morphological Analyz er (Russel/Pulman/Ritchie et al. 1986) für das Englische, der neben einem Vollformenlexikon z ur Analyse eine Wortgrammatik verwendet, die als Chart-Parser realisert ist, — SALEM (SFB 100 1980), ein System z ur automatischen Lemmatisierung deutscher Texte, das z unächst wortformenweise über ein Vollformenlexikon vorgeht und z ur Disambiguierung von Homographen über Regeln Informationen aus dem Satz kontext heranzieht, — SATAN (Maas 1978), eine Teilkomponente des Saarbrücker Übersetz ungssystems SUSY, die morphologische Analysen für verschiedene Sprachen mit Hilfe von Vollformenlexika und von Endungsanalysen vornimmt und Homographen über Regeln satz orientiert auflöst. 3.4.2. Regelgeleitete Verfahren für morphologische Beschreibung Ausschließlich bz w. weitestgehend über Regelapparate operieren zwei Verfahren, — MORSPAN (Klenk 1985) für das Spanische, das die Abspaltung von Endungen über Distributionsregeln vornimmt, und — das Verfahren von Vergne/Pagès 1986 für das Franz ösische, das lediglich ein minimales Lexikon mit ca. 80 Einträgen (u. a. Funktionswörter) verwendet, um für eine Analyse im Satz kontext erste Fixpunkte bestimmen z u können. Überwiegend regelbasiert unter Einsat z kleinerer Lexika arbeiten folgende Verfahren: — HAM1 (v. Hahn/Fischer 1975), ein Algorithmus z ur morphologischen Strukturanalyse deutscher Substantive, der Affixlisten sowie eine Digramm-Matrix z ur Bestimmung der Grenz en z wischen Kernmorphen verwendet, — HAM2 (v. Hahn/Hoeppner 1975), ein Al-

201

gorithmus z ur Lemmatisierung deutscher Verben, der die Endungsabspaltung regelgesteuert vornimmt und die Identifikation des Verbstamms über ein Lexikon durchführt, — das Kana-Kanji-Übersetz ungssystem von Abe/Ooshima/Yuura et al. 1986, das japanische Texte aus der Kana-Silbenschrift i n Kanji (chinesischen Ideogrammen) überführt, wobei die Analyse der Eingabe satz weise erfolgt, — das Two-Level-Model von Koskenniemi (1984) operiert mit einfachen endlichen Automaten und ’übersetz t’ je nach Bedarf sowohl in der Analyse- als auch in der Synthese-Richtung. Der Algorithmus ist auf beliebige Sprachen anwendbar (vgl. Art. 21). — MARS (Thurmair 1986), ein Verfahren z um Information Retrieval für deutsche und englische Texte, das die Analyseregeln über automatische Lernverfahren bereitstellt und darüber hinaus Listen geschlossener Wortklassen sowie andere Morphlisten einsetzt, — der Morphological Analyz er für das Englische von Bear 1986, der mit Hilfe von orthographischen und morphologisch-syntaktischen Regeln arbeitet und Grundformen über ein Vollformenlexikon zuweist. 3.4.3. Mischverfahren für morphologische Beschreibung Die im folgenden aufgelisteten Verfahren lassen sich am besten als „Mischtyp“ charakterisieren, da sie — den Beschreibungen z ufolge — sowohl auf größere Lexika als auch auf umfangreichere Regelapparate z urückgreifen. — Das Associative Model (Jäppinen/Ylilammi 1986) dient z ur morphologischen Analyse finnischer Wortformen (Deflexion und Dekomposition) und arbeitet mit morphosyntaktischen und Stamm-Regeln kombiniert mit einem Vollformenlexikon. — Die Compression Technique von Ben Hamadou (1986) ermöglicht die Reduktion von arabischen Lexikoneinträgen durch die Extraktion von Affixen und Wurz eln über Affixtabellen, Affixkongruenz regeln und einem Wurzellexikon. — CONDOR (Haugeneder 1982) dient z um Information Retrieval in deutscher Sprache und führt die morphologische Analyse über ein Funktionswörterbuch und regelgesteuert im Satzkontext durch. — GRAPHON (Pounder/Kommenda 1986) wurde für die automatische Sprachsynthese deutscher Wörter aus ihrer orthographischen Form entwickelt. Es z erlegt die Wortformen

202

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

über Regeln und identifiz iert die gefundenen Morphe in einer Morphliste. — HAM-ANS (Bergmann 1982) ist ein Frage-Antwort-System für Deutsche, in dessen Komponente z ur morphologischen Analyse nichtflektierte sowie unregelmäßige Wortformen mittels eines Vollformenlexikons und flektierte Wortformen über Regeln bearbeitet werden. — LEMMA 2 (Willée 1979 und 1984) ist ein Algorithmus z ur Lemmatisierung beliebiger deutscher Wortformen der Gegenwartssprache, der in der Universität Bonn entwickelt worden ist. LEMMA 2 arbeitet von rechts nach links nach dem Longest PossibleMatch-Prin z ip. Er verwendet Vollformenund Stammlexika und führt die Klassifikation sowie die Grundformengeneration über Regeln durch, die teilweise eine minimale Kontextanalyse berücksichtigen (siehe Abb. 17.2). — MORPHIX (Finkler/Neumann 1986) ist ein wortformenbez ogener Algorithmus, der deutschen Wortformen kanonische Formen z uweist, die nicht immer den sog. Grundformen entsprechen. Daz u wird ein Vollformensowie ein Stammformenlexikon verwendet. Die Endungsanalyse erfolgt weitgehend regelgesteuert, die daz u benötigte Information ist in einer Baumstruktur abgelegt. Bei Homographie werden alle möglichen kanonischen Formen mit den z ugehörigen grammatischen Informationen ausgegeben. Unbekannte Wortformen können interaktiv bearbeitet werden. MORPHIX wird als Teilkomponente in verschiedenen Sprachverstehenssystemen eingesetzt. — VIE-LANG (Trost/Buchberger 1986) dient z ur Erstellung von Lexika für das Deutsche und arbeitet — analog LEMMA 2 — über Suffixanalysen und Lexikonaufsuchen, besitz t daz u aber die Möglichkeit der interaktiven Bearbeitung von Hypothesen. — VOCARL (Weber, N. 1986) ist ein Dialogsystem z ur Aufsuche und z um Erlernen von polnischen Adjektiven und Substantiven. Es arbeitet mit Vollformenlexika und generiert Flexionsformen über Regeln. 3.5. Abschließende Bemerkung In dem vorliegenden Artikel werden fast ausschließlich Verfahren berücksichtigt, die als Eingabe geschriebene Sprache erwarten. Das hat seinen Grund darin, daß bei Systemen, die akustischen Input verarbeiten, über ein entsprechendes front-end dieser erst einmal erkannt und segmentiert und danach in maschinenlesbare Symbolfolgen überführt werden muß. Wird dann noch eine morphologi-

sche Analyse für erforderlich gehalten, so geschieht diese nach den gleichen Verfahrensweisen wie bei den oben beschriebenen Algorithmen. Eine z usätz liche Problematik ergibt sich bei akustischem Input noch aus der relativen Unbetontheit von an Wortgrenz en stehenden Affixen sowie aus der Schwierigkeit bei der Segmentierung des akustischen Inputs. Zur neueren Diskussion auf dem Gebiet der automatischen Analyse und Synthese gesprochener Sprache vergleiche Artikel 47 und 48 sowie Tillmann/Willée 1987. Über den Einsatz von computergestütz ten Verfahren z ur morphologischen Beschreibung läßt sich abschließend Thurmair 1982, 297 zitieren: „Generell kann man wohl sagen, daß Einsatz fälle eines linguistischen Proz essors, die sich relativ stark auf eine semantische Interpretation der sprachlichen Daten stütz en, ein wortorientiertes morphologisches Verfahren vorz iehen sollten, wo z u jedem Wort seine semantische Interpretation expliz it in einem Lexikon codiert ist. Für Anwendungsfälle, wo dies nicht der Fall ist, reichen morphembez ogene Verfahren aus; wenn es nicht um Informationen aus dem Bereich der Wortbildung geht, sondern nur um die Grundformenerz eugung, ist ein stringorientiertes Verfahren hinreichend.“

4.

Literatur (in Auswahl)

4.1. Allgemeine Literatur Augst 1975 · Bech 1963 · Bettelhäuser 1976 · Bergenholt z /Mugdan 1979 · Bergenholt z /Schaeder 1977b · Bergenholtz /Schaeder 1979 · Bloomfield 1933 · Bünting 1970 · Dietrich/Klein 1974 · Eggers/Dietrich/Klein et al. 1969 · Eisenberg (ed.) 1976 · Fleischer 1982 · Figge 1980 · Fix/Rothkegel/Stegentritt (eds.) 1982 · Glas 1975 · Harris 1951 · Heger 1976 · Hellwig/Lehmann (eds.) 1986 · Henne/Wiegand 1973 · Herdan 1960 · Heß/ Brustkern/Lenders 1983 · Hjelmslev 1974 · Holly 1985 · Kastovsky 1971 · Kiefer (ed.) 1975 · Klenk 1985 · Klenk (ed.) 1985 b · Kuhlen 1977 a · Kuhlen 1986 · Lenders/Willée 1986 · Matthews 1974 · Moessner 1978 · Mugdan 1986 · Naumann, B. 1986 · Nida 1974 · Reichling 1933 · Reichmann, O. 1976 · Rothkegel 1973 · Schaeder 1981 · Schaeder 1986 · Schmidt, W. 1968 · Searle 1969 · Serebrennikow 1975 · Stepanowa/Fleischer 1985 · Weber, H. 1980 · Wiegand 1983.

4.2. Verfahrensbeschreibungen In den in 4.1 aufgeführten Titeln von Eggers et al. 1969, Figge 1980, Fix/Rothkegel/Stegentritt 1982,

17.  Morphologische Beschreibung

203

Hellwig/Lehmann 1986, Klenk 1985 b und Kuhlen 1977 a finden sich ebenfalls Beschreibungen von Verfahren. Zu DERIVER gibt es noch keine Publikationen, weitere Informationen daz u sind über die Autoren erhältlich. Abe/Ooshima/Yuura et al. 1986 · Bear 1986 · Ben Hamadou 1986 · Bergmann 1982 · Biewer et al. 1985 · Bruckner 1986 · Hahn/Reimer 1983 c · v. Hahn/Fischer 1975 · v. Hahn/Hoeppner 1975 · Haugeneder 1982 · Jäppinen/Ylilammi 1986 ·

01 01 01 01 01 01 01 01 01 02 02 02 02 02 02 02 02 02 02 02 03 03 03 03 03 03 03 04 04 04 04 04 04 04 04 05 05

01 02 03 04 05 06 07 08 09 01 02 03 04 05 06 07 08 09 10 11 01 02 03 04 05 06 07 01 02 03 04 05 06 07 08 01 02

DIE STAATSREGIERUNG IST DESWEGEN VERPFLICHTET , DEM LANDTAG UND DEN FRAKTIONEN DES LANDTAGS SOWIE DEM SENAT DIE VON DIESEN IM RAHMEN IHRER ZUSTÄNDIGKEITEN VERLANGTEN AUSKÜNFTE AUFGRUND DER GESPEICHERTEN DATEN ZU GEBEN , SOWEIT NICHT BESTIMMUNGEN ENTGEGENSTEHEN

Abb. 17.2:

Klenk 1985 · Koskenniemi 1984 · Lötscher/Kolvenbach 1979 · Maas 1978 · Niemann et al. 1981 · Pounder/Kommenda 1986 · Russel/Pulman/Ritchie et al. 1986 · SFB100 (ed.) 1980 · Steinacker/Trost 1982 · Thurmair 1982 · Thurmair 1986 · Trost/Buchberger 1986 · Vergne/Pagès 1986 · Weber, N. 1986 · Willée 1979 · Willée 1984 · Zinglé 1986.

Burkhard Schaeder, Essen/Gerd Willée, Bonn (Bundesrepublik Deutschland)

DER, DIE, DAS STAATSREGIERUNG SEIN DESWEGEN VERPFLICHTEN , DER, DIE, DAS LANDTAG UND DER, DIE, DAS FRAKTIONEN DER, DIE, DAS LANDTAG SOWIE DER, DIE, DAS SENAT DER, DIE, DAS VON DIESER IN RAHM IHR ZUSTÄNDIGKEIT VERLANGEN AUSKUNFT AUFGRUND DER, DIE, DAS SPEICHERN DAT ZU GEBEN , SOWEIT NICHT BESTIMMUNG ENTGEGENSTEHEN

PR SU VF KO VF SZ PR SU KO PR SF PR SF KO PR SU PR PP PR PP SF PR SF VF SF PP PR VA SF PX VE SZ ** AV SF VE

+ + G3 G3 + + + +

+ + V6 +

+ G6

+ G6

Beispiel eines durch LEMMA 2 bearbeiteten Satzes (Satz 5

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

204

18. Computer-Aided Syntactic Description of Language Systems 1. 1.1. 1.2. 2. 3. 3.1. 3.2. 3.3. 3.4. 4. 5.

What Is Syntax? Syntax in General Linguistics Syntax in Computational Linguistics Simple Phrase Structure Rules Syntactic Theories Transformational Grammar Unification Grammars Processing Systems Systemic Grammar Conclusions Literature (selected)

1.

What Is Syntax?

1.1. Syntax in General Linguistics We take syntax to be the study of structural regularities, both within individual languages and across sets of languages. This study has long been of interest in general linguistics, and especially since Chomsky’s pioneering work from the late 1950’s onwards it has become perhaps the central topic in the field. In the current chapter we begin by comparing the roles of syntax within general linguistics and computational linguistics. We then consider a number of specific theories about the nature of the syntactic rules of natural language. These theories will include ones which have had considerable influence in general linguistics but which, for reasons which will be detailed, have not been taken up within computational linguistics; and ones which have been developed as a direct result of the presence of the computer as a metaphor and as a contraint. Syntax is taken to refer to the rules which specify which strings of words from the language in question are acceptable and which are not. As such it does not concern itself with the question of which strings of sounds or orthographic symbols are words of the language, or which strings of words constitute sensible or meaningful sentences. Most linguists who are interested in syntax are well aware that there is a strong connection between the form of a sentence and its meaning. Indeed, many of the regularities which syntactic theories try to capture can only be expressed in terms of relations between the meanings of alternative word strings. The notion of active and passive forms, for instance, can only be discussed once it is realised that The girl fixed the puncture and The puncture was fixed by the

girl have closely related meanings. Despite this strong connection between syntax and semantics, work in early structuralist linguistics has attempted as far as possible to keep the descriptions of the two systems separate. Syntactic rules are expressed in terms of structural features (e. g. word order, part of speech, inflection). Semantic rules may be based on syntactic forms, but they do not add anything to them. In computational linguistics, as we shall see, this rigid separation of levels of description is frequently broken down, as also occurred in earlier traditional linguistics. General linguistics has adapted Chomsky’s vaguely defined distinction between ’competence’ and ’performance’ (1965, 1—11). This distinction is intended to capture the gap between the rules that a person might have about the allowable forms in a language and the processes that they might use for applying those rules in generation or comprehension. To give just one example, the sentence The sort of things he likes are generally outdoor sports is not well-formed, as far as the rules of middle-class British English are concerned, since the subject (The sort of things he likes) is singular and the main verb (are) is plural. Most native English speakers would, on reflection, accept that it is not well-formed. Nonetheless, nobody would regard it as so unacceptable that they could not understand what it meant, and very few people could be confident that they would never utter a sentence that had the same flaw. The competence, i. e. the knowledge in principle, of a typical English speaker includes some rule of subject/verb agreement which would rule out this example. The performance of most such speakers would be liable to allow it, both as something they might say and as something they would be prepared to accept if someone else said it. A person’s syntactic competence can be characterised as a set of rules about structure, whereas syntactic performance is a matter of what he does with that set of rules. Performance may fail to match competence either by allowing strings which would not be acceptable if the rules where applied correctly (as above), or by excluding strings which the rules would allow (such as highly centre-embedded strings like The man the woman your friend met used to be married to was in the pub last night, or ’garden path’ sentences like The

18.  Syntactic Description of Language Systems

horse raced past the barn fell). General linguistics has concentrated on competence, the rules which make up the language, with little emphasis on the processes people use for applying these rules. Becker (1975) argues strongly that to concentrate on competence rather than performance is a profound mistake, an error in belief as to the correct subject matter for linguistics. A number of workers in computational linguistics, or at least in the related applied field of natural language processing, have taken up similar positions. Riesbeck (1978), as part of the ’conceptual dependency’ school of natural language processing (Schank 1975), develops a system which performs a task very similar to syntactic analysis but which is described in terms which do not refer to purely structural matters. In so far as the work of Schank and his colleagues constitutes a theory of language, the explicit denial of a purely syntactic component has a major bearing on the discussion of syntax within computational linguistics. It seems appropriate at this point to remark upon the presence within computational linguistics of theories that deny the very existence of an area of study concerned with structural matters; to point to the discussion of the possible architectures for language processing systems in art. 28, and of parsing strategies in art. 31 and 32; and to concentrate, in the current article, on those theories in computational linguistics where the existence of an explicit level of description concerned with syntax is accepted. 1.2. Syntax in Computational Linguistics We have argued that the study of syntax in general linguistics is concerned with structural regularities wherever they are to be found in a natural language or in all natural languages. Regularities which contribute to semantic or pragmatic analysis are indeed noted, but general linguistics would also be interested in structural phenomena which seemed to have no function in the interpretation. In computational linguistics, the emphasis is often slightly different. Syntactic theories within computational linguistics are often, though not always, developed within larger systems for language processing. Within such systems, the function of the syntactic component is taken as being to encode or decode part of the message carried by the text.

205

Clearly any system which is to express a meaning via natural language text or speech, or extract the meaning from it, must recogniz e the relation between structure and meaning. Syntactic rules which have direct significance for meaning will be more important, on this view of the function of the syntactic component, than ones which do not. Furthermore, the choice of semantic representation for the overall system is likely to have an influence on the form of syntactic representation chosen — where the analysis of meaning is, as in Eliz a (Weiz enbaum 1966, 36—45), just a matter of (behavioristic) reacting to combinations of keywords, the corresponding syntactic theory will be trivial. Text generation systems (McDonald 1983, see also art. 36), which need to produce complex surface forms which reconcile collections of independent choices concerned with a variety of different aspects of the message, often use some version of Halliday’s (1985) systemic grammar, in which the various functions of the range of syntactic options are carefully enumerated. The function of the grammar, in terms of how it contributes to the behaviour of the system within which it is to be used, will often influence the form in which it is described. The connection between theoretical advances in computational linguistics and technical innovations in working systems also means that the study of syntax is inextricably linked with the development of processing aspects. The techniques used in natural language understanding systems are discussed in detail in art. 33, 34 and 35 of this handbook, and we shall not repeat the discussion here. We will, however, have to make passing reference to facts about them as we cover particular syntactic formalisms and rules. We will also have to accept that in a number of important systems, structural rules of the sort that would normally be included in the syntactic layer of description are integrated with other sorts of rules, so that it is not possible to extract a separable ’theory of syntax’. For each of the treatments of syntax which we discuss below, we will have to refer to one or more of the following factors: (i) its interaction with some view of semantics and/or pragmatics, (ii) its relation to parsing and/or generation algorithms, (iii) the degree to which it can be seen as an autonomous theory of syntax at all.

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

206

2.

Simple Phrase Structure Rules

Before we go on to consider particular syntactic models in detail, we have to introduce briefly the general notion of rewrite rules (common to general and computational linguistics). It is usual to describe relationships between groups of words using some elaboration of the idea of ’rewrite rules’. These are equations which say that one group of symbols is equivalent to another, so that any string containing one can be rewritten as a string containing the other. In the simplest form in which such rules are used in syntactic theory, the left hand side of the equation contains a single symbol and the right hand side contains one or more. The symbols that occur in these rules are the names of syntactic categories. For further details see art. 6, especially 6.2. and 6.3. The processing considerations are discussed in art. 31 and 32.

3.

Syntactic Theories

We will cover the syntactic models which have been developed within computational linguistics, or influenced by it, in an order which roughly reflects how much they can be viewed as independent syntactic theories, rather than as parts of some large view of language. This order should not be taken to indicate that it is right (or wrong) to regard syntax as an area which can be studied in isolation from other aspects of language, nor does it reflect anything much about historical development or about the author’s views as to which are most interesting or important. It should, however, enable readers to see more clearly where computational linguistics has close links with general linguistic views on syntax and where it is more closely tied to processing considerations. 3.1. Transformational Grammar 3.1.1. Transformational Grammar Proper The most influential syntactic theory developed within general linguistics for the past 30 years or so has been Chomsky’s theory of ’transformational grammar’, first proposed in (Chomsky 1965). Transformational grammar (henceforth TG) has undergone a long

process of development since its first appearance. The basic theory extends the simple notion of rewrite rule by allowing in a collection of rules which perform ’transformations’ (Akmajian/Heny 1975); see also art. 6 and 6.3. in particular. Although extremely influential in general linguistics, TG has had comparatively little direct impact on computational linguistics. To see why this is so, we have to consider the way in which transformations operate. Early TG (generally refered as the Standard Model ) posits the following relationships between the object involved in an utterance:

Fig. 18.1: Information structures in TG (standard model) The deep structure is a phrase structure tree generated according to the rules of some base phrase structure grammar. The rules of this ’base component’ simply determine what objects are legitimate phrase structure trees, i. e. what objects can be deep structures. There are a collection of semantic rules, which relate deep structure phrase trees to meanings. To anything which can be both meant and said, there must correspond a deep structure phrase tree. The transformation rules define the relation between deep structure trees and surface structure trees. Any sequence of transformations that can be applied in turn to some deep structure tree will generate another tree, which will be a surface tree. There are then phonological rules which relate the leaves of surface structure trees to sequences of sounds. Inspection of diagrams such as the above suggest at first sight that TG can be used as a processing model of language understanding or generation. However, if we want to regard the arrows as indicating information flow then a processing model would be expected to look more like fig. 18.2. In other words, the rules of a processing model would be expected to show how you could work systematically from sounds to

18.  Syntactic Description of Language Systems

Fig. 18.2: Information flow in process models meaning or meaning to sounds. The organisation of Figure 18.1 expresses constraints between components of the language system, not routes by which information is carried during the generation or analysis phases of language processing. To construct a computational model of generation based on TG, it would be necessary to indicate how the relevant deep structure tree was obtained for any given ’meaning’. This is not generally considered to be the task of the TG — semantic rules indicate merely how to interpret a deep structure tree, not how to construct one whose meaning matches the meaning you want to express. To construct a computational model of understanding, it would be necessary to show first how to obtain the surface structure tree corresponding to a given sequence of sounds or graphemes, and then how to find a deep structure tree from which this surface structure tree could be derived by a sequence of transformations. TG does indeed provide a collection of functions from deep structure trees to surface structure and thence to sequences of sounds, or to semantic interpretations; but in both generation and comprehension, deep structure trees are intermediate structures which have to be constructed on the basis of information about either meaning or appearance. What would be needed if TG were to be used as the syntactic component of a language processing program would be the INVERSES of the functions that the theory actually provides. As is well known, functions which are easy to compute do not necessarily have inverses which are easy to compute. This is particularly true of attempts to use TG for comprehension. For this we would need to find a function which could apply sequences of in-

207

verse transformations to surface structure trees to get deep structure trees (Petrick 1973). TG was originally invented as a descriptive theory of language, with no explicit claims about the specific processing direction. The theory is thus not critically damaged by arguments about its computational intractability. (For computational implementations see, however, art. 22.) However, the same arguments can be recast as criticisms about the overall ’power’ of the grammar, in the sense that it provides too few restrictions on what might or might not be possible as a grammar for a natural language, and in this form they are damaging to the goals of the theory. Later work has played down the role of transformations and has also tried to constrain their possible forms, by introducing constraints at various levels. Recent versions of TG include general restrictions on the forms of transformations, derived in large part from work by Ross (1986). They operate with constraints (known as ’filters’) on the form of the surface structure (Chomsky/Lasnik 1977); contrained specifications on set of features are manipulated by syntactic rules (Jackendoff 1977); and they use semantic constraints on the co-occurrence of various forms of noun phrase, particularly pronominals (Chomsky 1980 b) and the ’traces’ of noun phrases that are left after transformations have shifted or deleted them from their original positions. The general aim of these constraints is to restrict the range of possible grammars, thus giving the theory greater predictive power and perhaps addressing the problem, raised by Wexler and Culicover (1980), that the rules of the original form of TG are unlearnable under reasonable conditions on the data available to the language learner. As a by-product it might happen that the theory will become less computationally awkward, since it was the presence of complex sequences of transformations that made it difficult in the first place. However, diagrams of the components of the recent ’government and binding’ model cf. Chomsky (1981 a) show that it is still very difficult to relate it to notions of unidirectional information flow either from meaning to lexical string or in the other direction. The major interaction between TG and computational linguistics has been the way in which computational linguistics has demanded that transformations be used in a more constrained and tractable manner, and hence has contributed towards the recent move to

208

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

way that has a natural computational interpretation. Consider the standard rule describing the structure of an English sentence, and the way it might be used for parsing: S = NP VP This rule, when interpreted for parsing, can be seen as saying that to see if some string of words makes up a sentence, see if it makes up a noun phrase followed by a verb phrase. We can rephrase that just slightly so that it reads, to see if something is a sentence try to find a noun phrase, and if you find one then try to find a verb phrase. We can develop a notation which captures this idea of finding sequences of structures by writing the rule as a network, which is to be crossed, e. g. Fig. 18.3: Information structures in late TG (after Radford 1981) restrict the number and scope of application of transformational rules. 3.1.2. Augmented Transition Networks Transformational grammar was originally an attempt to capture the relations between active and passive forms, between questions and assertions, and so on. The mechanisms which were invoked to describe these phenomena included the notion of ’moving things around’, and the use of ’features’. Transformational Grammar was less influential in CL than in general linguistics, but a number of notions from TG have nonetheless been taken over into CL, in particular the concept of syntactic movements and that of the feature sets. The most notable form in which movement and feature sets have been used has been within the framework known as ’augmented transition networks’ (ATNs). For quite some while this form of grammar, introduced in (Woods 1970), completely dominated the view of syntax held by people working within computational linguistics. It now has a number of serious competitors, but is still the form of grammar most widely discussed in textbooks on computer models of natural language processing (e. g. Charniak/ McDermott (1985, 206—222), Rich (1983, 315—320), Winograd (1983)). The ATN formalism arises out of a notation known as ’recursive transition networks’ (RTNs) which allows context free phrase structure rules, as introduced in section 2, to be expressed in a

Fig. 18.4: RTN for a simple sentence The use of network formalism in language processing systems, particularly for the syntactic component, is discussed in detail in art. 27, and we have no wish to repeat it at length here. The important point here is the influence that the new notation had on how the grammar is viewed. The switch from rewrite rules to transition networks makes comparatively little difference to the expressive power of the grammar. What it does do is provide a strong indication of how the grammar should be interpreted computationally, namely as a series of attempts to cross arcs. This in turn suggests that a grammar might be written directly as a program in some suitable language, in which the actions of trying to cross an arc were built in as primitives. Some workers have developed languages explicitly for writing grammars as programs, e. g. Winograd (1972), others have simply made use of some existing language, typically LISP. In either case, programs will contain calls to procedures which traverse ’lexical arcs’, i. e. arcs labelled with the names of lexical arcs, and ’recursive arcs’, i. e. ones whose label is the name of a non-terminal category. In parsing, a lexical arc can be traversed if the next word in the input is of the appropriate type, whereas a recursive arc can be traversed if some way can be found through the network for the relevant category (again see art. 31 and 32 for more details on parsing techniques for recursive transition networks). In all cases, once the grammar is expressed as a program in some language, it is natural to

18.  Syntactic Description of Language Systems

wonder whether the other facilities of the language can be deployed to increase the expressive power of the grammatical formalism. Recursive transition neworks, of the type described above, are no more powerful than phrase structure grammars. It has often been argued that phrase structure grammars are inadequate for providing a concise and comprehensive coverage of the phenomena observed in the grammars of natural languages. Clearly, then, recursive transition networks are also likely to be inadequate, as they stand. The introduction of extra notions from programming languages allows the power of the basic formalism to be extended without abandoning the original ideas on which it was based. In particular, recursive transition networks were converted to augmented transition networks by allowing the programs which represented them to include actions which set and tested ’registers’. These registers function in very much the same way as programming language variables. They are named locations where data may be stored. There are some slight differences between the way that ATN registers behave and the way that straightforward local variables behave, but it is clear that the idea of registers was very strongly influenced by the existence of local variables, and in virtually all implementations of ATN grammars registers are implemented by tinkering with the mechanisms by which local variables are implemented (but see (Ramsay 1985 a) for an alternative option). Registers can be used in two obvious ways. Firstly they can be used for storing, and subsequently testing, the values of features such as NUMBER or PERSON which are subject to agreement constraints. Thus, freely translating the ATN formalism into English, we might have a rule for sentences which looked something like: (i) Cross a NP arc. (ii) Set the value of the register NUMBER to be the same as the value it had for the NP. (iii) Cross a VP arc. (iv) Check that the value NUMBER has on the VP is the same as its current value. Fig. 18.5: ATN for a simple sentence Here steps (i) and (iii) correspond to the

209

arcs in the recursive network for sentences. Step (ii) checks the value that NUMBER had at the point when the NP arc had been crossed, and copies it to be the current value of NUMBER. We see here that this register has different manifestations for different networks in just the way that a local variable has different manifestations for different procedure calls; but that, unlike a normal local variable, you can access the value that a register had at the point when the embedded network was crossed. Step (iv) finally checks the number agreement between subject and verb, by inspecting the value of NUMBER for the VP and ensuring that it is the same as the recorded value for the subject. The example above shows one common way of using registers. The other major use of registers is for recording the function, or role, of some component of the analysis. There might, for instance, be a register called AGENT for recording which of the NPs in a sentence refers to the entity that actually performed the action referred to by the sentence. For active sentences, the AGENT usually corresponds to the SUBJECT, i. e. the NP which immediately precedes the main verb. For passive sentences, the SUBJECT is more usually seen as the PATIENT, i. e. it refers to the entity on which the action was performed. ATN registers may be used to capture this notion of the SUBJECT of a passive sentence being the PATIENT ’moved’ out of position as follows: (i) Cross a NP arc. (ii) Store the NP as the value of the register AGENT. (iii) Cross a VP arc. (iv) If the value of the register VOICE for the VP arc was “passive”, copy the value of AGENT to PATIENT. Fig. 18.6: ATN for passive sentence It is clear from this example that ATNs facilitate the integration of semantic and syntactic processing, so that ATN based analyses often blur the distinction between the two levels. The current example, for instance, mentions the roles AGENT and PATIENT, which might be regarded more as semantic than syntactic categories. It is again the fact that the ATN formalism encourages the view of syntactic rules as parts of a program that leads to the mixing of the two levels, and

210

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

hence perhaps to a different view of the function and nature of syntax. Registers may be used for a number of other purposes. The most important remaining function for registers is for holding components which have been ’moved’ out of position until they are wanted, e. g. for accounting for topicalisation, as in Him I don’t want to meet, and for relative clauses, as in The man who the woman who I was talking to used to be married to. Most ATNs use a special register called the ’HOLD’ register for this function. HOLD differs from other registers in behaving more like a ’free’ or ’global’ variable, in programming language terms, than a local variable, but it can still easily be seen as a consequence of the translation of recursive transition networks into programs. The existence of the HOLD register raises important questions about the relationship between properties of programming languages and the development of the syntactic theory. The HOLD register is used to deal with one of the most difficult questions for any syntactic theory, namely the apparent movement of syntactic structures. It is hard to escape the feeling that this particular solution is directly a consequence of the presence, in a particular family of programming languages, of the notion of a global variable, and that it is not motivated by much analysis of the way movement rules operate. The ATN formalism has contributed to the development of syntactic theory by offering a new view of the role of syntactic rules, and by giving the theoretican new tools, in the form of facilities from programming languages, with which to describe the linguistic facts. It may also have led to some rather irrelevant discussion of the best way to use the HOLD register, when the question that should really be addressed is whether this register is an appropriate way of dealing with movement rules in the first place. ATNs were developed to provide a computationally tractable alternative to TG. The use of registers, which is very largely imported from the use of variables in ordinary programming languages, allows many of the phenomena described by TG to be captured in ways which are very similar to the TG characterisations. ATNs have been widely and successfully used in practical natural language systems (Woods 1973 a; 1975 a), and many facets of TG have been recreated within the ATN paradigm. Until very recently they had few competitors for the role

of the syntactic component of a natural language processing system (although, as we shall see, there have always been people who have tried to develop natural language understanding systems with no syntactic component at all). There has, however, always been some disquiet over the fact that there is no restriction on the programming facilities that can be called upon to set and test the values of registers. Since we can call upon any program we like at any point in an ATN, there is no way in which we can restrict the formal power of the formalism to be less than that of a full Turing machine. There is also no way that we can be sure that the apparent structure exhibited by the network is really a good picture of the rules of the grammar, since it is possible to include arbitrary amounts of processing in addition to the basic acts of traversing lexical and non-lexical arcs. The next section describes a number of formalisms influenced by a slightly different programming paradigm which are claimed to suffer less from these problems, but it remains the case that most existing practical programs use some form of ATN for their syntactic component, and that the ATN continues to be a significant candidate for people wishing to build new systems. 3.2. Unification Grammars ATNs extend the simple notion of phrase structure rule by including the use of ideas from programming, especially the use of variables in the guise of registers. The programming ideas that are used in ATNs are very largely those from the tradition of programming which talks in terms of sequences of actions whose results are stored in variables, from which they can later be retrieved and tested. There is a group of programming languages, exemplified by the logic programming language PROLOG, in which the notion of a variable is radically different. This alternative view of variables has been used to develop a number of different ways of extending the basic phrase structure rule format, as described below. (For a systematic account of programming languages in CL see, however, art. 63.) Under this alternative view, a variable gets a value when an attempt is made to ’unify’ it with some object. If you try to unify a variable with something which is not itself a variable, the effect is very much the same as for ordinary variables — the object becomes directly associated with the variable, and can

18.  Syntactic Description of Language Systems

be inspected via reference to the variable. If, however, the thing being unified with the variable is itself another variable, all that happens is that it is noted that the two variables must henceforth always refer to the same thing. There are some slight complications, to do with unifying variables which have previously been unified with other concrete objects, and with possible circularities which may arise in the process of unification, but the basic idea is simple. Unification of two objects, whether or not they are variables, is a matter of seeing whether it is possible for them both to stand for the same thing, and if so recording that from now on they do in fact do so. This is so even if they are both variables which have not yet been given values to stand for. As soon as one of them is unified with something which does have a value, the note that they must both stand for the same thing means that the other one must also have the same value. This notion of giving variables values by unifying them was introduced in the course of work on automatic theorem proving by Robinson (1965, later also Colmerauer 1970), and is now used as the variable binding mechanism in the programming language PROLOG. 3.2.1. Definite Clause Grammar Unification has also been used to provide a constrained way of using variables within phrase structure rules. Work by Pereira/Warren (1980) on implementing an ATN-like grammar in PROLOG led them to a formalism in which the components of phrase structure rules were supplemented by the presence of sets of variables. When this formalism, called ’definite clause grammar’ (DCG), is used for parsing, the structure built when a component of the right hand side of a rule is parsed is unified with its specification. Since the specification will contain variables, the unification will record facts about the values of those variables — possibly that they have certain specific values, possibly just that their values must be the same as those of some other variables. The following DCG rule for a sentence shows how the formalism captures the facts about subject-verb agreement in English:

211

sentence → np (NUM, PERS), vp (NUM, PERS) Fig. 18.7: DCG sentence rule This use of so-called ’logical variables’ provides an elegant account of a number of phenomena, without extending the formal power of the grammatical formalism in an unrestricted manner. In particular, it makes it possible to deal neatly with cases where the values of features are unspecified, and it also describes the movements which the ATN uses the HOLD register for. The use of logical variables to capture the notion of ’unbounded movement’ or ’unbounded dependency’ dealt with by the HOLD register in ATNs is rather intricate. Essentially it involves using a variable called SLASH for recording items which have been found ’out of place’, and unifying this variable with components of the right hand sides of rules to see if the object which was found out of place can be made use of within the current rule. The following rules illustrate the use of SLASH for these tasks. sentence (SLASH) → np, vp (SLASH). sentence (false) → np, sentence (np). vp (SLASH) → v, np (SLASH). np (np) → . Fig. 18.8: SLASH categories in a DCG The first sentence rule says that a sentence may consist of a NP followed by a VP, with the sentence and the VP having the same value for SLASH. The second rule says that a sentence with np as the value of SLASH can be turned into one with false as the value of this feature if it is preceded by an np. This is the rule which captures the notion of movement, by seeing the initial noun phrase as something which should have appeared inside the sentence. By constraining the value of SLASH in the sentence component of the right hand side to be ’np’, it indicates that somewhere in the analysis of this sentence there will be a place where a noun phrase would normally be required, but where on this occasion it is missing. The verb phrase rule simply notes that an ordinary verb phrase consisting of a verb followed by a noun phrase will inherit the value of SLASH from the noun phrase. The noun phrase rule indicates that one way for a noun phrase to have ’np’ as the value for SLASH is for it to consist, in fact, of nothing at all — “a noun

212

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

phrase missing a noun phrase is an empty string”. There are, of course, other ways for a noun phrase to have ’np’ as the value for SLASH, for instance by having a post-modifying relative clause or prepositional phrase which has ’np’ as the value for SLASH. It is the fact that SLASH may be inherited from nested constituents, where the nesting may be arbitrarily deep, that makes it possible to use it for explanations of unbounded dependencies. It is not easy to write rules which refer to SLASH so that they operate correctly, any more than it is easy to write ATN rules which refer to HOLD. Furthermore, in both cases the presence of the new feature tends to make straightforward parsing algorithms far less efficient than they were before it was introduced. Nonetheless, SLASH has an advantage over HOLD in that is behaves in exactly the same way as any other logical variable, whereas HOLD does not behave just like any other register. The behaviour of SLASH in the original presentation of DCG was not subjected to a more rigorous analysis than the behaviour of HOLD in most presentations of ATNs, but at least it did not require the importation of any more notions from programming languages than were already required for other phenomena. The DCG formalism makes use of logical variables, then, to perform a number of the tasks for which ATNs used registers with tests and assignments. There remain a number of phenomena, such as the relation between active and passive forms, between questions and assertions, and so on, which cannot be described easily by anything in the basic DCG formalism. The original presentation of DCGs was forced to allow rules to include explicit reference to arbitrary PROLOG program text, in the same way that ATNs allow reference to arbitrary program text. DCGs have restricted the use of arbitrary program text, but they have not eliminated it. The next few sections describe work which, from a variety of starting points, has led to the development of DCG-like formalisms in which the extra complications are described in a principled way, rather than by recourse to ad hoc programs. 3.2.2. Generalised Phrase Structure Grammar

Generalised phrase structure grammar (Gaz dar/Klein/Pullum et al. 1985), extends the notation of simple phrase structure grammar in three directions: (i) An ordinary phrase structure rule such as sentence → np vp

states that a sentence may be made up of a np followed by a vp. In generalised phrase structure grammar (GPSG) this statement is split into two components. One, the ’immediate dominance’ rule, says that a sentence may be made out of a np and a vp — nothing is said about the order in which they are to appear. The other component, the ’linear precedence’ rule, says that WHENEVER a rule refers to a np and a vp on its right hand side, the np must precede the vp. Splitting the grammar into two components in this way may seem likely to make it more cumbersome and less perspicuous. The presence of far-reaching global constraints such as the one given mean that the two stage format captures a number of regularities which would otherwise be invisible. and also that the grammars developed tend in fact to be more, not less, compact than grammars developed without this separation. (ii) The relation between rules dealing with, say, active and passive forms is captured in GPSG by the presence of ’metarules’. These are rules which specify that the existence of a rule fitting some pattern entails the existence of another related rule. Consider the following metarule for passive forms: VP → W, NP ⇒ VP [PASSIVE] → W, (PP ([by]) Fig. 18.9: Passive metarule in GPSG This rule says that for every rule which says that a VP is made up of some items plus a NP, there must be a rule which says that a passive VP may be made up of the same set of items, plus optionally a PP whose preposition is by. In all metarules, the letter W stands for an arbitrary, possibly empty, collection of items. Note that metarules are defined over immediate dominance rules, so that a metarule like the above does not say anything about the ordering relations between the items matched by W and the NP or PP. (In recent versions of GPSG metarules are largely eliminated cf. Kilbury 1986, 54—55.)

18.  Syntactic Description of Language Systems

(iii) Finally GPSG attempts to replace the use of arbitrary computations involving the values of features by a system of ’co-occurrence restrictions’ and other general principles for determining the possible values for features. In GPSG, as in a number of other systems which use unification as the method for describing how feature values are assigned, features may have as their values other features (which may have other features which may ...). The mechanisms which generate the allowable values for features are couched entirely in terms of basic logical operators, such as entailment and equivalence, and simple operations on trees of features. The rules which are built up using these mechanisms are indeed complex, as the properties of natural language would lead us to expect; but at least the fundamental components from which they are built are reasonably restricted and well-defined. GPSG has received considerable attention within computational linguistics, for a number of reasons. Firstly, the formalism does indeed seem to make it possible to write down concise descriptions of a number of facets of the grammar of natural languages — a fact which should make the theory of interest to both general and computational linguistics. It is hard to provide arguments for or against this claim in the present context — there is insufficient space, and the topic does not really lie within computational linguistics anyway — but it certainly needs to be considered. Secondly, it is reasonably clear how a grammar specified as a GPSG might be expanded into the form of either a simple phrase structure grammar, or a DCG, for which efficient or at least reasonable parsing and generation algorithms exist. This led to initial hopes that GPSG could easily be used within practical systems, since ’all’ that would have to be done would be to expand the grammar and plug it into some existing algorithm. In practice this has proved to be rather an over-optimistic view. A number of people (Thompson 1982, Ramsay 1985 b) have argued that the best way to use GPSG within computational systems is to expand out the metarules, and then to develop parsing/generation algorithms which are explicitly aimed at the resulting formalisms. Articles 31 and 32 discuss these processing aspects. It is appropriate to note that the metarules play in GPSG, in some sense, a similar role to the transformations of TG, in that they are posited as explanations of how

213

different surface forms may be intimately related at some other level. Just as with transformations, the presence of metarules makes processing far harder than it would otherwise be, and recent versions of GPSG include as few of them as possible. (See Kilbury 1986 and the research of the KIT/NASEV project in Berlin.) It is significant that neither transformations nor metarules are now used to account for passive forms, which are currently taken to be generated from different starting points from the corresponding actives. The current impression is that the performance of systems using GPSG is not markedly better than that of systems using, say, ATNs of similar power and coverage. The third major advantage of the GPSG formalism is that it was developed with a formal compositional semantics firmly in mind. It is clearly to GPSG’s credit that the connection between syntax and semantics is recognised as paramount, and that syntactic rules which do not have semantic significance are treated as anomalies to be explained. Unfortunately few of the systems which do make use of GPSG grammars interpret them in terms of the full semantics. As the performance of GPSG-oriented parsers improves, and the use of the full semantics becomes more widespread, we will see more systems using GPSG. Although the primary research objectives of GPSG originate in general linguistics, its descriptive formalism for larger grammars turns out to be so complex that the actual realisation of a model is practically not possible without computational developmental aids. In GPSG the current research objectives of general and computational linguistics seem to merge therefore in an unprecedentedly high degree. 3.2.3. Functional Unification Grammar Functional unification grammar (Kay 1985) makes use of very similar mechanisms to GPSG, though with slightly different aims. In functional unification grammar (FUG), as in GPSG, there are a collection of phrase structure rules which specify how groups of structures may be combined. Again as in GPSG, the phrase structure rules are split into two components — a description of the objects that can appear on the right hand side of the rules, plus a partial ordering governing the order in which they may appear. The descriptions of individual structures are couched in terms of features and their expected values, with the assumption that comparison of an

214

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

object with a specification will be done by unifying them. The partial ordering for a rule is specified within the rule, rather than by global linear precedence rules as in GPSG. Furthermore, the ordering within a rule is specified in terms of the roles the structures are to be allocated to, rather than simply in terms of specific categories being required to precede or follow other categories. In FUG, therefore, it is possible to write rules in which objects belonging to the same category appear, and yet to specify that one of them must precede the other. The following pattern illustrates the format of a FUG rule: CAT = S PATTERN = (... SUBJECT PREDICATOR ...) SUBJECT = [CAT = NP] PREDICATOR = [CAT = VERB] MOOD = DECLARATIVE Fig. 18.10: Subject verb agreement in FUG In this pattern there are two distinguished features, namely CAT and PATTERN. All rules have an entry for category, and all rules whose entry for this feature is other than a lexical class name have a PATTERN (or possibly several PATTERNs, since the PATTERN is supposed to specify a partial ordering among constituents, and it may not be possible to specify the appropriate order with a single pattern). In the above rule, the fact that the CAT is S indicates that the rule describes a sentence of some sort. The PATTERN specifies the partial ordering by stating that there must be at least two constituents, one of which is the SUBJECT of the sentence and the other the PREDICATOR, and furthermore that the SUBJECT must immediately precede the PREDICATOR. The other components of the rule specify that the SUBJECT must have NP as its CAT and the PREDICATOR must have VERB as its category, and that the MOOD of the sentence being described is DECLARATIVE. This rule says a certain amount about what a sentence is, without attempting to say everything, for instance without saying anything about voice. Another sentence rule might be written to describe the form of an active complement-taking sentence, as in Fig. 18.11.

CAT = S PATTERN = (... PREDICATOR OBJECT ...) OBJECT = [CAT = NP] PREDICATOR = [CAT = [VERB = [VOICE = ACTIVE] [TRANS]]] VOICE = ACTIVE Fig. 18.11: Active transitives in FUG Here we have a description of the relation between the PREDICATOR and the OBJECT of an ACTIVE sentence. The PREDICATOR is expected to come immediately before the OBJECT. The PREDICATOR is again just a verb, but now it has been specified as one which has the feature VOICE = ACTIVE, and which also has the feature TRANS, which may or may not have further sub-features. The object is simply required to be something with CAT = NP, and the whole rule describes a sentence with VOICE = ACTIVE. These two rules are orthogonal to one another. One states some constraints on the items which are to be the SUBJECT and the PREDICATOR of the sentence, the other states contraints between the PREDICATOR and the OBJECT. Both rules could be conflated into a single rule which embodied the same set of contraints, e. g. CAT = S PATTERN = (... SUBJ PRED OBJECT ...) SUBJ = [CAT = NP] OBJECT = [CAT = NP] PRED = [CAT = [VERB = [VOICE = ACTIVE] [TRANS]]] MOOD = DECLARATIVE VOICE = ACTIVE Fig. 18.12: Conflated rule in FUG There is nothing in FUG to say whether it is better to keep the rules separate or combine them. In the above examples, most people would choose to keep the rule describing the relationship between the SUBJECT and the PREDICATOR separate from the rule describing the relationship between PREDICATOR and OBJECT, since the SUBJECT rule is universal (in English) across sentence

18.  Syntactic Description of Language Systems

types, whereas there are a wide variety of forms for the relationship between the PREDICATOR and its objects and complements. FUG should perhaps be seen less as a theory of grammar than as a rather general notation for writing grammars. The distinction is rather fine. A theory of grammar such as GPSG is supposed to be adequate for capturing the regularities of all and only the natural languages, whereas a grammatical notation like FUG is supposed to be adequate for capturing the regularities of natural languages. For FUG to form a theory, rather than a notation, it would probably need to specify more clearly when two rules should be stated separately and when they should be combined. Then it could be seen what linguistic forms FUG would allow as possibilities for any natural language whatsoever, and hence to regard it as a theory describing the range of possible languages. Unconstrained as it is, FUG is a reasonably perspicuous notation which enables the grammar writer to separate out phenomena as required. Systems using FUG grammars can make use of a number of well-known parsing techniques (e. g. unification for feature instantiation, chart parsing for recording wellformed substrings). It is, however, significant that rules of FUG provide partial descriptions of the structures they are concerned with, for instance that the rules in figures 18.10 and 18.11 both talk about different constituents of the same structure. This is a departure from the normal structure of rewrite rules, and necessitates considerable reorganisation of the parsing mechanisms. Kay (1985) gives a detailed algebraic analysis of the changes that are involved. It should finally be noted that FUG permits the presence of semantically motivated features, and that there is indeed no particular distinction between semantic and syntactic features. As such the formalism, like that of the ATN, perhaps leads to a blurring of the distinction between the two levels. It is significant that FUG has been chosen by a number of workers in language generation for the syntactic component (see e. g. Appelt (1985)). 3.2.4. Lexical Functional Grammar Lexical functional grammar (Bresnan/Kaplan 1982, Bresnan 1978) is another variant on the notion that grammars may best be specified in terms of partially ordered sets of constituents, each described by a set of ex-

215

pected feature values. LFG resembles GPSG more than FUG, in that it is intended as a grammar rather than just as a notation. LFG is much more closely related to transformational grammar than are FUG or GPSG, and in LFG the phrase structure component corresponds closely to TG’s base component. However, in LFG the component which corresponds to TG’s transformational component is regarded as applying solely to lexical items, rather than to the trees generated by the base component. In LFG each word has an entry describing the relations it can enter into with other words or structures. The word write, for instance, might have entries which specified that it took a subject and an object (as in he wrote a letter ) or a subject, an object and a second object (as in he wrote her a letter ). These would be expressed something like (L1) write = write (Subject, Object) (L2) write = write (Subject, Object2, Object) The phrase structure rules have associated with them interpretations in terms of the lexical rules, so that we might have rules like

Fig. 18.13: Typical LFG rules An equation like (↑ Subject) = ↓ means that the item underneath which the equation appears is to be taken to be the subject of the structure described by the left hand side of the rule. A rule like ↑ = ↓ means that the item underneath which it appears is to share all feature values with the structure described by the left hand side of the rule, e. g. that in the first rule the VP transfers all of its features to the S node. The essential point about these rules is that they can be compared directly with the lexical entries to see if and how a given phrase structure rule can be used to analyse a fragment of text containing a particular word. With the entry for write given above, and the given set of phrase structure rules, we see that he wrote her a letter can be analysed using the second VP rule as a tree (c-structure) roughly like Fig. 18.14 so long as the

216

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

ment transformations’ should be embodied as functional annotations of the phrase structure rules. This means that there is no need to try arbitrary transformations during the course of analysis or generation. Instead a static set of phrase structure rules are used, with the annotations being used to filter out unacceptable applications of rules. It would be fair to contrast the following diagram of the information structures in LFG with figures 18.1 and 18.3 for TG. Fig. 18.14: LFG parse tree (c-structure) sense of write corresponding to the second lexical entry (L2) is taken, in which case the first NP in the VP is taken to be Object2 and the second NP is taken to be Object. The input sentence he wrote a letter is acceptable with the first sense of write (L 1) and a letter as Object. Furthermore the annotations of phrase structure rules with functional roles build up the functional structures, which contribute to the better understanding of how the syntactic forms encode semantic functions (Fig. 18.15). It is important to LFG that the equations attached to phrase structure rules provide a clear and precise semantics, in the mathematical sense of a function. These equations can be used with the lexical entries to filter out inappropriate senses of words and unacceptable applications of phrase structure rules, and hence to constrain the parsing process; to govern the process of semantic interpretation; and to indicate, in case of ambiguity, how to choose phrase structure rules to expand functional equations into lexical strings.

Fig. 18.15: The functional structure in the LFG LFG originated as an attempt to retain as much as possible of transformational grammar, whilst making parsing and generation more manageable. The biggest change from TG to LFG is the requirement that the ’move-

Fig. 18.16: Information flow in LFG From this diagram we get a clear view of how LFG might be used within a processing framework, and as such the influence of LFG within computational linguistics should come as no surprise. It is, clearly, still necessary to show that LFG does provide a framework within which the real rules of grammar can be specified. Much of the early argument for LFG was concerned to show that it was indeed possible, and even desirable, to replace the transformational component by constraints on the forms associated with lexical items (Bresnan 1978, Bresnan 1982). The reason for LFG’s impact on computational linguistics is, as with the other unification grammars, that it provides similar descriptive power to TG without asking computationally unsolved questions about parsing and generation. All the four unification formalisms we have looked at (DCGs, GPSG, FUG, LFG) have been influenced by the presence of unification as a means of constraining values without overspecifying them ahead of time; and by the existence of efficient algorithms for parsing context free grammars. There has been some progress both in using the formalisms for developing larger grammars for English and other languages, and in employing the parsing and generation techniques with these grammars. It would be premature to suggest that any of the grammars so far developed for any natural language is anywhere near complete; or that the programs which use the grammars we do have

18.  Syntactic Description of Language Systems

are anything like as efficient or robust as we would like. One of the problems with all parsing procedures written in these formalisms is to do with the analysis of ’unbounded dependencies’ in terms of some category such SLASH (see section 3.2.1.). Joshi (1985 b) presents a formalism called ’tree adjoining grammar’ (TAG) which, like GPSG, is intended to capture the same regularities as are covered by TG without extending the power of the grammar much beyond a simple context free language. 3.3. Processing Systems The above discussion does not exhaust the range of syntactic theories that have been employed within computational models of language processing. It does, however, cover the majority of purely syntactic theories which have been significantly influenced by the computational paradigm. We will end this article with a consideration of two further purely syntactic models for which this paradigm has indeed been significant, but before that we must remark upon the number of language processing systems which have attempted to deny the very existence of a separable syntactic level. These systems frequently take as their starting point Fillmore’s ’case grammar’ (Fillmore 1968). It would be inappropriate to go into detail about the components of Fillmore’s theory here, since the theory is well documented elsewhere, and has anyway not undergone any radical changes as a result of computational influence. It must, however, be noted that large numbers of computational models of language processing have taken the view, with regard to syntax, that purely structural rules are not of interest, and that all analysis should be couched directly in terms of semantic features and functions (see for instance (Hendrix 1977), Wilks (1975 a; 1977 c), Riesbeck (1978), Rieger (1975)). These authors claim that purely syntactic modelling of language is an artifact of descriptive linguistics and is without relevance for the construction of language understanding systems. The place of the syntax in language understanding systems is discussed in arts. 31 and 32 in greater detail. 3.4. Systemic Grammar Of the remaining syntactic theories to be considered here, systemic grammar (Halliday 1985; Halliday/Martin 1981; Hudson 1971)

217

is another attempt to include some understanding of how rules encode information in a theory of grammar. Systemic grammar is directed especially at understanding how grammatical structure encodes not just the relations between the entities being discussed, but also the relations between these entities and the speaker and listener, and the relations between the speaker, the listener and the state of the discourse. Once it is realised that structural organisation can be used to convey many things at the same time it becomes apparent that a theory of grammar must show not just how each particular thing is encoded, but also how different sets of encodings can be co-ordinated in the same surface string. Halliday (1985) devotes at least as much effort to describing how different forms encode different relationships between clauses, and to how syntax carries information about message structure and discourse, as to the internal structure of a single clause. Foley and Van Valin (1984) also argue that the function of different surface forms is to make it possible to encode different facets of meaning simultanteously. Systemic grammar is presented in terms of sets of choices to be made by the speaker and recognised by the hearer. Since different choice sets encode different aspects of what is being said, and yet may constrain the form or order of the same words in the output string, the generation or analysis of a particular string may involve problem solving along a number of dimensions. The first, and best known, computational system to use a systemic grammar as its syntactic component is Winograd’s SHRDLU system (Winograd 1972). The grammar used in this system was indeed couched at least partly in terms of choice sets, encoded in a special programming language called PROGRAMMAR. Winograd argued strongly in favour of the approach embodied in systemic grammar, namely that grammar carries more information than just the propositional content and mood (i. e. whether a clause is declarative, imperative, a question, or whatever) and that the rules of the grammar should show how different choices contribute to different aspects of meaning. Within Winograd’s system, the extra representational power of systemic grammar is used within this theory of ’procedural semantics’ (discussed in articles 29 and 34) to allow the semantic component to build into its representations aspects of the function of the input text which are easily extracted from systemic analyses of its struc

218

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

ture. There is here, as in FUG, a close connection between the semantic theory chosen for a particular computer implementation and the syntactic theory chosen to support the implementation. Similarly in recent work on language generation (McDonald 1983; Patten 1985) and participation in connected discourse (Sidner 1983 a; Webber 1983 a) it is argued that the topics addressed by systemic grammar must be dealt with if computer processing of language is to progress beyond the comprehension of simple isolated sentences. 3.4.1. Deterministic Parsing We end by considering a theory (Marcus 1980) whose intent is to show that a number of syntactic universals follow directly from the computational properties of a specific parsing procedure. This strategy is perhaps the most clear-cut way in which computational theories might be used for the development of syntactic theory — if a linguistic property can be shown to be an inevitable consequence of a particular parsing strategy then the parsing strategy can be taken as a tentative explanation of the property (a similar argument is in Bátori 1978; 1981 a). Marcus presents a parser which has been carefully constructed so that it can delay making decisions about the type or function of the syntactic structure it is working on until it has enough information to make the right decision. The initial motivation for constructing the parser in this way is the folk-psychological observation that people report a difference between easy to understand sentences and ’garden paths’ like the notorious the horse raced past the barn fell, for which most people who can understand it all report that they were conscious of having to re-parse it. Marcus’ objective is to define an architecture for a parsing engine, which is offered as a model of the human parsing mechanism; to develop a particular grammar, in the form of a set of condition: action rules, which is offered as a subset of the grammar of English, to show that the architecture is at least plausible; and then to argue that a number of Ross’ constraints on transformations would be inevitable if this were in fact the architecture which was used. The details of this parser, which is closely related to a class of parsing algorithms known as LL(K) and LR(K) parsers, are discussed in article 31. The most significant thing from the point of view of the current article is that the grammar Marcus develops is written as a set of condition: ac-

tion rules. This is inevitable, since his predictions about difficulty of parsing are derived precisely from considerations about the amount of storage space available and hence the relative difficulty of delaying a decision on which rule to apply. It unfortunately makes it almost impossible to tell exactly what can be dealt with and what cannot, just as was the case for Riesbeck’s conceptual analyser — the details of what can and cannot be parsed by a particular grammar written for Marcus’ architecture depends on the detailed timing of when items appear in the various temporary workspaces, which can only be investigated by trying it out. This matters more for Marcus than for Riesbeck. Marcus explicitly wants to show that his program deals with the same range of phenomena as other systems, but that his seldom makes mistakes about how the analysis should proceed. It does build purely structural descriptions, but since the grammar is implicit in the dynamic behaviour of the rule set it is still virtually impossible to see which examples it does cover correctly and which it does not.

4.

Conclusions

While processing extended texts, either understanding them or generating them, it becomes apparent that syntactic choices do more than just carry propositional content and mood. The first major message of computational linguistics (inspired primarily by the systemic grammar) for syntactic theory is that the theory must be sensitive to facets of language beyond merely distributional facts about structure, and even beyond facts about the interpretation of sentences in isolation. The notions which systemic grammar is concerned with are becoming more and more important to computational linguistics, though the existing presentations of the theory tend to be rather informal (though comprehensive) and hence in need of considerable reworking before they can actually be used. The second important message of the CL for the linguistic theory (and in particular for the syntax) has been received from Marcus. It attempts to show that phenomena which might otherwise be hard to explain follow from computational properties of the parsing mechanism. It had also led to a number of computational models of language acquisition, e. g. (Berwick 1985), which are not open

19.  Textual Description of Language Systems

to the criticisms offered by Wexler and Culicover (1980). It does, however, require a new method of assessment, given the difficulty noted above of predicting its coverage of linguistic phenomena.

5.

Literature (selected)

A. Akmajian/F. Heny 1975 · D. E. Appelt 1985 · I. S. Bátori 1978 · I. S. Bátori 1981 a · J. D. Becker 1975 · J. D. Becker 1985 · B. Boguraev 1979 · J. W. Bresnan/R. Kaplan 1982 · J. W. Bresnan 1978 · E. Charniak/D. V. McDermott 1985 · N. Chomsky 1965 · N. Chomsky 1980 b; 1981 a · N. Chomsky/ H. Lasnik 1977 · A. Colmerauer 1970 · D. R. Dowty/R. Wall/S. Peters 1981 · C. J. Fillmore 1968 · J. Friedman 1969 · W. A. Foley/R. D. Van Valin 1984 · G. Gaz dar/E. Klein/G. K. Pullum et al. 1985 · M. A. K. Halliday 1985 · M. A. K. Halli-

219

day/J. R. Martin 1981 · G. G. Hendrix 1977 · R. Hudson 1971 · R. Hudson 1984 · R. S. Jackendoff 1977 · Joshi 1985 · M. Kay 1985 a · J. Kilbury 1986 · M. P. Marcus 1980 · D. D. McDonald 1983 · R. Montague 1974 · M. Muraki/S. Ichiyama/Y. Fukumochi 1985 · T. Patten 1985 · F. Pereira/D. Warren 1980 · S. Petrick 1973 · A. Radford 1981 · A. M. Ramsay 1985 a · A. M. Ramsay 1985 b · E. Rich 1983 · Ch. Rieger 1975 · C. K. Riesbeck 1978 · J. A. Robinson 1965 · J. R. Ross 1986 · R. C. Schank 1975 · R. C. Schank/C. K. Riesbeck 1981 · C. Sidner 1983 a · R. F. Simmons 1973 · H. Thomson 1982 · B. L. Webber 1983 a · J. Weiz enbaum 1966 · K. Wexler/P. W. Culicover 1980 · R. Wilensky 1978 · Y. Wilks 1975 a · Y. Wilks 1977 c · T. Winograd 1972 · T. Winograd 1983 · W. A. Woods 1970 · W. A. Woods 1973 a · W. A. Woods 1975 a.

Allan Ramsay, Brighton (Great Britain)

19. Computer-Aided Textual Description of Language Systems 1. 2. 3. 4. 5.

1.

Preliminary Remarks The Basic Notions of a Semiotic Text-Theoretical Framework Computer-Aided Description of the Text-Constitution Problems and Perspectives Literature (selected)

Preliminary Remarks

In referring to the “textual description of language systems” in this article the description of the verbal organiz ation of texts is meant. However, at present the authors are in the position to describe only a few special aspects of this verbal organiz ation in such a way that this description can also be carried out with the aid of a computer. In order to show clearly the status these aspects, analyz ed by computers, have in the organiz ation of the texts, in the first section a theoretical framework will be outlined which makes this possible. Though this framework is a special semiotic text-theoretical framework, the factors which play a decisive role in it, must also play a decisive role in the frameworks of any other construction types striveing for an adequate description of the organiz ation of texts. In the second section the computer-aided description of those aspects of text-constitution will be discussed which belong to the domain of so-called textlinguistic research: reference, pronominali z ation,

co-ordination, macro-organi z ation, etc. In the third section some relevant tasks to be treated in the future are to be pointed out.

2.

The Basic Notions of a Semiotic Text-Theoretical Framework

The theoretical framework refered to in this article is called a “semiotic text-theoretical framework” (cf. Petőfi 1983; Petőfi/Olivi 1986; 1987; Petőfi/Söz er 1987). This name should express that (a) in this framework all aspects of verbal objects should be treated which are analyz ed and described in the literature under the headings of syntax, semantics, pragmatics (where these terms are understood in their most general sense), and (b) linguistics itself is not considered as an adequate theoretical framework for being able to treat these aspects in an integrative way. 2.1.  For the construction of this theoretical framework, it is first of all necessary to introduce a sufficiently differentiated notion of sign /Σ = Signum/. The components of a sufficiently differentiated sign and the relations existing between them is represented in Fig. 19.1. Let us make some remarks concerning this representation: — the entities called vehiculum and relatum are signifying and signified objects and/or states-of-affairs constituting entities, respectively;

220

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Fig. 19.1: The components of a signum — a sign always presupposes an interpreter who, on one hand, distinguishes between entities having a vehiculum function and entities having a relatum function, and, on the other hand, has certain knowledge about them (cf. formatio and sensus in Fig. 19.1); — as to the objects and states of affairs, we find it necessary to distinguish between their manifestations and their images/percepts emerging in the interpreter (the latter are indicated by underlined symbols in Fig. 19.2); — concerning the formatio component, we find it necessary to distinguish between its figura subcomponent / = / comprising information about the physical shape (the visual/acoustic/multi-medial manifestation) of the vehiculum: the graphic and/or phonic, and/or musical constitution, and its notatio subcomponent / = ℜ/ comprising information about the semiotic (linguistic) organiz ation of the vehiculum: the morphological, morphosyntactic, syntactic constitution; — concerning the sensus component, we find it necessary to distinguish between its sensus designatus / = Se des / subcomponent (what is ’immediately’ expressed in the significans), and its sensus denotons / = Se den / subcomponent (reference to the assumed world fragment manifesting itself in the significans + sensus designatus); — concerning the sensus designatus subcomponent, we find it necessary to distinguish

between conceptual and non-conceptual sensus, and concerning the former between verbalized and non-verbalized conceptual sensus. Verbaliz ed conceptual sensus ( dictum / = /) is for example the verbaliz ed properties of a landscape described in a text; non-verbaliz ed conceptual sensus is, for example, the mental image of a landscape described in a text; non-conceptual sensus is, for example, the feelings/experiences evoked by the vehiculum or the conceptual sensus; — concerning the dictum subcomponent we find it necessary to distinguish between the following three types of dictum: confìgurational dictum (sensus determined by the semiotic/configurative organiz ation of the vehiculum constituents; in conventional verbal texts by the linear order), inferential dictum (sensus determined by the semiotic/encyclopaedic/logical/... inferences which can be drawn from the verbaliz ed conceptual sensus) and, relational dictum (sensus referringto/determining a state-of-affairs configuration what the significans may be about); — concerning the sensus denotans ( relatum implicatum / = ℜ/) subcomponent we find it necessary to distinguish between its vehiculum-specific configurative organiz ation and its (text-external) relatum-specific organiz ation; this latter can also be called “relatumimplicatum universum”; — both the significans and the significatum

19.  Textual Description of Language Systems

are — as becomes evident from Figure 19.1 — sets consisting of two elements (we use the term ’meaning’ as fully synonymous with the term ’significatum’); — referring to the relations between the sign components we use the terms ’correspondentia’, ’designatio’, ’denotatio’ and ’significatio’ in the sense that is represented in Fig. 19.1. 2.2.  Textuality is, to our mind, not an inherent property of verbal objects. A producer or a receiver/interpreter considers verbal object to be a text if he is convinced that this verbal object is a connected and complete entity meeting a real or assumed communicative intention in a real or assumed communicative situation. A text — in terms of semiotic textology — is a complex sign (or sign complex, if one likes) meeting a given expectation concerning textuality. 2.3.  One usually investigates the construction and/or functional settings of texts. We call this investigation interpretation and distinguish different types of interpretation. Both the construction and the functional setting can be investigated as static or dynamic entities. In the first case, we speak of structural interpretation, in the second case of procedural interpretation. We differentiate further on between explicative and evaluative interpretation and mean that both can be carried out in either a descriptive or an argumentative way by a theoretically non-trained or by a theoretically trained person. In the first case we speak about natural in the second case about theoretical interpretation. 2.4.  Those factors which play a fundamental role in explicative interpretation are shown in Fig. 19.2. Figure 19.2 contains three main sectors: TEXT PRODUCTION, TEXT, TEXT RECEPTION. In this section only the latter two will be discussed. The comments on these two also make the configuration of the factors of the first sector understandable. The sector TEXT contains the semiotic components of a text as a signum. Figure 19.2, however, represents only two of the subcomponents of the text sensus: the conceptual verbal sensus, in other words the text dictum (cf. the symbol “T 1 ”) and the world-fragment suggested dominantly by the text dictum, in other words the relatum implicatum (cf. the symbol “Tℜ”). In the sector TEXT RECEPTION the following factors play a decisive role: the wider and narrower extralinguistic context in which the reception takes place / = CONTEXT Rec /, the text to be received (cf. the TEXT sector),

221

the set of knowledge/beliefs/experiences of the receiver / = the total memory of the re-

ceiver: MEM

/, the so-called ’Basis’ / = B Rec / according to which the receiver receives/interprets the text to be received/interpreted, and the reconstruction of the text to be received/interpreted carried out by the receiver/ = T Rec /. The T Rec cannot be considered as a reconstruction in the real sense of the word. What is meant here is a text which is constructed by the receiver as an approximation of the text to be received on the basis of his knowledge/ beliefs assigned to the vehiculum component of the text to be received. Concerning the T Rec we would like to point out the following: The meaning (the significatum component) of the T Rec , as is shown in Figure 19.2, consists of four sub-components: the literal dictum / = T/, the non-literal dictum / = T/ — which in most cases has to be constructed —, the relatum implicatum / = Tℜ/, and the mental image of the text-external relatum / = T Re /. Since the text-external relatum (more precisely, its mental image) can be constructed by means of different sets of knowledge and belief the significatum component contains in most cases more than one text-external relatum. Since texts can be interpreted by applying different B Rec , one and the same text can be assigned more than one T Rec (which are, as to their significans and/or significatum components, partially or totally different). In Fig. 19.2 the relation A ---> B (where A and B are metavariables) is to be understood such that A is assigned to B. The parallel-running arrows pointing into different directions indicate the interaction between the elements which are connected to one another by them. The system of parallel-running arrows does not presuppose any distinguished order concerning either the process of the production, or that of reception, i. e. both processes can start with any sign (sub-)component and can continue with any other sign (sub-)component. The symbols which are underlined refer to mental images; in order to be able to have an intersubjective discussion about the factors of text production or text reception, these mental images should be indicated/rep-

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Fig. 19.2: The basic factors in the explicative text interpretation

222

Fig. 19.3: Basic notions of a semiotic text-theoretical framework

223

224

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

resented explicitly in the course of the theoretical interpretation. 2.5.  Concerning the organiz ation of a text as a signum the following terms are used: The terms constringency and integrity refer to world fragments (configuration of semiotic or non-semiotic objects and/or states-of-affairs). The first term expresses the connectedness of the world fragment, while the second one expresses its entirety (both with respect to the expectations of the receiver/interpreter in the given context of reception/interpretation, and to the relations considered by the receiver/interpreter to be relevant among the objects and/or states-of-affairs of the world fragment). In addition the analogies of these term with respect to the verbal organiz ation of the text itself can be found: they are connexity and cohesion , expressing two types of text connectedness, and completeness ; concerning the verbal organiz ation of the text we can further speak of texture and composition . The term coherence refers to the relation between the (re-)constructed relatum implicatum and text-external relatum. The sign components of a text, the terms referring to the organiz ation of a text and the interrelations among them are represented in Fig. 19.3. (The term network(s) refers to different relational sets which can be constructed in the interpretation-process, e. g. thematic nets, cohesional nets, co-referential nets, etc.)

3.

Computer-Aided Description of the Text Constitution

Textlinguistics has compiled a number of lists or catalogues collecting together the linguistic phenomena establishing textuality. In the following some such phenomena should briefly be discussed and related to the notion of sign elaborated in Section 2. Moreover, some computer-aided descriptions of these phenomena will be presented. 3.1.  The figura subcomponent of the formatio component serves the purpose of capturing information about the physical shape of the vehiculum , i. e. its graphic, phonic, metric rhythmic and/or melodic constitution. Within text linguistics not very much work of a systematic or uniform nature has been done on these topics. Thus, the reader is referred to Piirainen (art. 15) and Wothke (art. 16),

where the graphematic and phonological description of language signs are discussed. Moreover, hints with respects to these questions can be found in the field of computeraided philology (cf. Wickmann, art. 41) and in stylistic analysis (cf. Allen, art. 43). 3.2.  The field characterized as the notatio subcomponent — comprising information about the morphological (cf. Schaeder/Willée, art. 17), morphosyntactic and syntactic constitution of the vehiculum — has been worked upon to a greater extent. The focus of interest within text linguistics has mainly been upon the text-syntactic constitution. The phenomena discussed belong to two fields, namely the field of microstructure — discussing transphrastic relations — and the field of macrostructure — discussing global patterns of construction. Obviously, questions discussed under the heading of notatio are much more closely linked to semantics and pragmatics than the figura phenomena, but this seems to describe more the present state of the art than the actual relations existing between the significans and the significatum. 3.2.1.  Microstructural intersentential relations can be subclassified into three subdomains, namely reference, connectives and focus (cf. Kallmeyer/Meyer-Hermann 1980). With the keyword reference (or alternatively coreference, pronominaliz ation, substitution etc.) one tries to capture relations between consecutive (noun) phrases as for example in the following text fragment: “(The spaceship) 1 plunged through (the black starways) 2 towards (the orbit of (the third planet) 3 ) 4 . (Its trip) 5 had been long. It was homeward bound. (Donald Shaver) 6 sat starring at (the navigation board) 7 , (his 6 face) 8 grey. He 6 gazed at (the space charts) 9 , and (a tremor) 10 shook (his 6 narrow shoulders) 11 .” (Nourse 1952, 245).

The coreference relations have been indicated by subscripts and one gets chains of coreferential elements such as: „The spaceship 1 -Its 1 -It 1 ” and “Donald Shaver 6 -his 6 -He 6 -his 6 ”. In the early days of text linguistics attempts were made to describe coreference relations primarily by syntactic means (cf. Harweg, 1968), but it is obvious, that more complicated chains such as “The spaceship 1 -the navigation board 7 ” or “Donald Shaver 6 -his face 8 -his narrow shoulders 11 ” require a thorough semantic analysis. They rely on such relations as meronymie (part/whole-

19.  Textual Description of Language Systems

relation), synonymy, antonymy, hyponymy etc. Resolving or establishing coreference relations is of vital importance for any simulation of natural-language understanding (cf. King, art. 34), dialogue systems and question-answering systems (cf. Habel/Pribbenow, art. 57) or text generation models (cf. Kempen, art. 36). Within the framework of a text generator Granville (1984) addressed the problems of super-ordinate lexical substitution, pronominaliz ation and definite noun phrase reiteration. With respect to superordinate lexical substitution, Granville’s system uses a hyponymic hierarchy. The system is allowed to choose arbitrarily any hyperonym, given that it (a) does not raise ambiguities with respect to the universe of discourse and (b) prevents erroneous connotations such as Bill — the animal. Granville judges the problem of pronominaliz ation to be mechanically simple since he assumes it to be ruled by agreement. This view, however, cannot be upheld, as shown by Bosch (1983). Moreover, indefinite noun phrases are generated according to the rule that known entities are referred to by definite phrases. The central problem for a text generator is to select among one of the aforementioned possibilities for the surface representation of an entity. Granville solves this problem by (a) measuring, on the one hand, the ease with which a potential reader might establish coreference (called strength of antecedence recovery) and (b) characteriz ing, on the other hand, the syntactic role an entity plays in the current and in previous sentences and the distance between the current and previous occurrences (called strength of potential antecedence). Mapping potential antecedence classes to lexical substitutions yields a simple rule to be applied by Granville’s text generator. Within text linguistics, the term connectives comprises conjunctions of traditonal grammars, sentence adverbials as e. g. “hence”, “consequently” etc. and particles. These lexemes link up linguistic elements, which are not linked up by other structural means (cf. Halliday and Hasan, 1976). A crucial problem with respect to connectives is their ability to either relate sentences ( de dicto-modality cf. the dictum subcomponent of the sensus component) or states-of-affairs ( de-re-modality , cf. its relatum-implicatum subcomponent). Modality ambiguities, however, can only be resolved by analyz ing the pragmatic functions of connectives, a task

225

which remains to be accomplished (cf. Kallmeyer/Meyer-Hermann, 1980). According to Derr and McKeown (1984) connectives and reference are closely related to question of focus , which have been studied in text linguistics under such pairs of notions as topic/comment, given/new or theme/ rheme . Terminological differences aside, these three pairs distinguish elements identifying the thing talked about (topic, given, theme) and what is said about it (comment, new, rheme), respectively. In her work on text generation, McKeown (1982) has shown, that focus may serve the purpose of deciding upon (a) the voice of a sentence (active or passive) and (b) the need for pronominaliz ation. Derr and McKeown (1984, 320) discuss the following example: proposition 1: predicate = give protagonist = John proposition 2: predicate = need protagonist = Mary goal = book beneficiary = Mary The proposition 1 may be expressed by the following sentences: (1 a) John gave Mary a book. (1 b) Mary was given a book by John. (1 c) A book was given to Mary by John. One of these sentences can be selected as the surface representation of proposition 1 according to the following rule (for English): Make the focus to the grammatical subject in sentence initial position. The complex of propositions 1 and 2 may be expressed as a sequence of sentences as in (2) or as a complex sentence as in (3): (2) John gave Mary a book. Mary needed a book. (3) John gave Mary a book that she needed. (2) demonstrates how to choose between definite and indefinite noun phrases and (3) shows how one can decide on how to use pronouns. But central to (3) is that it can be generated according to the following observation (Derr and McKeown, 1984, 321): “If a speaker wants to focus on a single concept over a sequence of utterances, s/he may need to present information about a second concept. In such a case a temporary digression must be made to the second concept, but the speaker will immediately continue to focus on the first. To signal that s/he is not shifting focus, the speaker can use sub-

226

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

ordinate sentence structure in describing the second concept.”

The text generator described in the aformentioned paper has the following properties: It determines that subordination is necessary by checking whether focus shifts over a sequence of three propositions. It generates noun phrase conjunctions in cases where propositions differ in one argument only. It generates a coordinate sentence in cases where the focus of two propositions is identical and it is the protagonist in the second proposition. It generates causal connectives in order to relate a consequence to its antecedents (the consequent/antecedent-relation is explicitly marked in the propositional representation). McKeown (1982) uses a functional grammar (cf. Kay 1979), Derr and McKeown (1984) use a combination of functional grammar with definite clause grammar (cf. Pereira/ Warren 1980). Another text generating system, focusing on contrastive connectives such als “although”, “but” and “however” has been studied by Davey (1978). 3.2.2.  Up to now we have mainly concentrated upon a bottom-up view of textuality by discussing some classes of linguistic indicators or cues to be found in the language sign. These indicators mark relations with a small scope since they are relating consecutive sentences to each other. With the notion macrostructure, text linguistics refers to a completely different structuring principle which determines the overall gestalt of a text. Macrostructural global coherence, however, cannot exist without microstructural local coherence. Among the qualifications of the term macrostructure, three have been prominent (cf. Kallmeyer/Meyer-Hermann 1980): (a) thematic structure, (b) communicative function, and (c) functional categories. With (a), thematic structure, one focusses upon the information potential generating the expectations with respect to which the text sentences can be integrated. Proponents of (b) try to assign a macro speech act to a complete text, which is then responsible for its overall structure. Functional categories (c) have emerged mainly from the analysis of narrative texts and they usually end up with a structure such as the well-known Labov/Waletz ki (1967) formula: orientation-complication-solution-evaluation-coda. These three qualifications should be examplified in the following with models proposed in the field of a computer-aided treatment of texts.

The question of (a) a thematic macro-structure has been tackled with such concepts as scripts, frames, scenarios etc. A prominent role in this field is played by SAM , a script applying mechanism (cf. Schank/Abelson 1977; Cullingford 1981). For reasons of simplicity the micro-version McSAM (cf. Schank/Riesbeck 1981), which exhibits the main characterics of SAM, will be refered here. McSAM is a mechanism which can understand simple stories as e. g. (4) with the aid of a script , i. e. a stereotyped sequence of events such as (5), the shopping-script . (4) (a) Jack went to a store. (b) He got a kite. (c) He went home. (5) (a) 〈THE SHOPPER〉 goes to 〈THE STORE〉. (b) 〈THE SHOPPER〉 picks up 〈THE OBJECT〉. (c) 〈THE STORE〉 transfers possession of 〈THE OBJECT〉 to 〈THE SHOPPER〉 (d) 〈THE SHOPPER〉 transfers possession of some money to 〈THE STORE〉. (e) 〈THE SHOPPER〉 leaves 〈THE STORE〉. The expressions in angle brackets are the script roles whichs represent the variable information of the script, the rest is the typical, constant information. The usual notation for scripts are CD-graphs (= Conceptual Dependency graphs; cf. Schank 1975 a). In order to understand the story (4), the shopping script (5) first has to be activated. The simple mechanism of McSAM links scripts to predicates, i. e. the counterparts of content words in CD-notation. In (4) (a) it is the word ’store’ which triggers the shoppingscript (5). Once a script is activated a script binding form is created which keeps track of the binding of (variable) script roles to constants. When (4) (a) has been processed, the script binding form thus associates the script roles 〈THE SHOPPER〉 with ’Jack’ and 〈THE STORE〉 with ’store’. This is one change of the existing data-base, the second one is caused by adding the instantiated event (5) (a) to the data-base. By instantiation is meant that script roles are replaced by the constants they are associated with. Both changes presuppose that (4) (a) could somehow be linked up to the activated shopping-script. Technically this link is produced by a pattern matcher which

19.  Textual Description of Language Systems

checks whether the story line (4) (a) and the current event (5) (a) are structurally equivalent, i. e. whether they contain the same predicates at corresponding places and whether the existing bindings of the script roles do not contradict the constants. Since (4) (a) is the first line to be processed, the second condition is automatically fulfilled in this special case. If the match between the story line and the current events is successful, the next event of the script — (5) (b) — becomes the current events. The data-base is updated (changed) as described above and the next story-line will be processed. In cases where a story-line does not match the current event of the activated script, the next event is tried. When a suitable event can be found by iterated applications of this procedure, then also the skipped events will be instantiated and added to the data-base. Thus, the final understanding of (4) by McSAM will be (6). (6) (a) Jack went to a store. (b) Jack picked up a kite. (c) The store transferred possession of the kite of Jack. (d) Jack transferred possession of some money to the store. (e) Jack left the store. Even this oversimplified example can demonstrate how coreference is resolved in a script-based system: the two tokens of the pronoun ’he’ in (4) are coreferential with ’Jack’, since all three noun phrases are matched against the same script-role 〈THE SHOPPER〉. Thus, in the end the pattern matcher is used to establish coreference. Script-based systems are not very elaborate with respect to the treatment of connectives. Mostly, the texts used for exposition use the trivial ’and the ... — and then ...’ scheme (cf. Weber, H. J. 1985). In contrast to McSAM, the original SAMsystem has a much more elaborated concept of a script than a simple sequence of events: there can be alternative sequences of events, optional events and tracks, i. e. very similar but not identical sequences of events. Moreover, SAM can better cope with the way in which stories are told, since quite often one does not stick to the stereotypical sequences. A still more flexible tool is the memory organization package (cf. Schank 1982 a). Schank/Riesbeck (1981) mention, for example, the way newspapers report car accidents: these stories normally start with a summary, then they tell which people were involved

227

and how they came off and finally they give a detailed description of what happened. A general shortcoming of SAM and similar systems based on stereotypical expectations is that they cannot be used with stories about non-stereotypical situations . The idea that understanding such stories means understanding the intentions of the characters involved dates back to Schank/Abelson (1977) and it has been elaborated and put to work in the PAM-system by Wilensky (1978 a; 1981). PAM is based on the concept of goals and plans to arrive at these goals. Its central component is a calculus of goal interactions: goals of one character can stand in a subsumption or a conflict relation, goals of several characters may exhibit a competitive or a concord relation. The goal calculus provides a basis for a theory of planing, which can be used as a theory of explanations. The latter, finally, allows for the inferences needed to understand global aspects of non-stereotypical stories. As opposed to SAM, PAM is much more micro-structural in nature, since no overall structure is assumed in advance. Moreover, PAM circumvents the problem of a script-based system to find the correct script. An example of Wilensky’s (1981) are the two following sentences: (7) John painted his car white. (8) John painted his terminal screen white. The argument is that both sentences will trigger the painting script, which will not be very helpful for the understanding of (8). However, SAM and PAM share one important feature, namely that their function relies an extralinguistic knowledge , be it about stereotypical properties of states-of-affairs, or be it about intentions, plans and goals. A model proposed by Mann (1984 a) can exemplify what is meant by (b) the communicative function as macrostructure of a text. However, one should better replace the term ’communicative’ by ’argumentative’ in this case, since Mann’s proposal makes use of what he calls a rhetorical schema . Such schemata can indicate the decomposition ot texts into units, subunits etc. Among the schemata mentioned by Mann we find the Request schema, the Evidence schema, the Thesis/Antithesis schema, the Justify schema etc. The two clauses (9.1) and (9.2) taken from a larger argumentative text in Mann (1984, 368) are assumed to be connected by the Conditional schema depicted in (10). (9.1) When we do so

228

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

(9.2) we use precious, limited resources where other players with superior resources are already doing an adequate job.

predicate is accompanied by a case or argumentrole frame. These frames are matched against the remaining constituents (noun phrases, pronouns etc.). In the next step coherence relations among the predicates and/ or arguments are looked for which can establish local coherence. The relations looked for may be exemplified by the following sample text (Weber 1983): “The children got something to eat, Fred had to be fed. Some were eating with knife and fork. Others used chopsticks.”

Clause (9.2) is called the nucleus of the schema (10), (9.1) is its satellite (every schema has exactly one nucleus and at least one satellite) bound together by a condition-relation. Mann (1984, 373) formulates several application conventions for schemata, among which it is noted that schemata are unorderd, they may be embedded into each other and one schema has to be instantiated to describe the whole text. The latter convention was the reason why we subsumed Mann’s approach under the heading of (b), where macro speech acts are assigned to a complete text. Moreover, this latter convention shows a property shared by both the script-approach and Mann’s proposal: both use one entity describing the structure of a text as a whole, be it a script or be it a rhetorical schema. Mann’s system has been designed for text generation tasks, where one can expect the whole schema of embedded patterns to be present for the formulation. Things get more complicated in cases where one tries to use such patterns for automatic text analysis, since then one needs a mechanism to trigger the single patterns and integrate them. Ultimately one has to find a cue in the text sign be it an explicit performative (a congenial situation for Mann’s system), or a special connective (not so congenial, since connectives may be ambiguous) or another word occuring in the text. This last approach has been taken by several projects, two of which we will discuss briefly. The COAT system (cf. Weber, H. J. 1983; 1985; 1987) is a coherence - or text-based system for the analysis of texts within a general machine-translation framework (German to English). COAT gets its input from a valency-oriented syntactic analyz er and tries to build up connected propositions. For this purpose verbs are matched against entries in a specific predicate-dictionary, where each

Links between the first three sentences can be established with the aid of the verbs “eatfeed (= give to eat)-eat”, links between sentence three and four can be established since knife and fork are eating instruments as are chopsticks. Notice that COAT does not aim at a macrostructure for the whole text at any price. This is feasible, since it works as an analysis component for a machine translation system. The aim of the project TOPIC (Hahn, U./Kuhlen/Reimer 1982; Hahn/Reimer 1983 a—c; Hahn 1984) was the development of a knowledge-based system for text condensation and information management. One application of the system is to produce abstracts of texts. The implemented system handles texts dealing with product information in the domain of information and communication technologies (for office automation) (cf. article 59 of this handbook). The system uses a bottom-up algorithm for text analysis which was derived from the word expert approach to parsing of Small and Rieger (Small 1981 a—b; Small 1983; Small/Rieger 1982). It is centered around key words (the word experts) with exhaustive lexical entries concerning the semantic properties of the word experts and containing a smaller amount of syntatic information. Only those words of the input text which are experts can contribute to the result of the analysis. All other words are simply ignored (thus the system does not perform a full syntactic analysis). The word experts interact through mediation of a word-expert interpreter, trying to determine their meaning with respect to the local environment (the other experts) in which they occur in the given input text. The semantic knowledge of an expert is coded as a decision tree which is interpreted by a special routine of the system (the word-expert interpreter). The interpretation of an expert may be suspended and resumed at a later

19.  Textual Description of Language Systems

stage of the analysis. An expert terminates (i. e. its interpretation) as soon as its meaning has been made sufficiently precise for the given context. Declaratively, the lexical entry of a word expert can be seen as a kind of frame (Minsky 1975). Different frames are organiz ed in a hierarchy using several relations like part-of, specializ ation etc. Note that one reason for the feasibility of this approach is the restriction to a very narrow domain of discourse (thus avoiding most problems with ambiguous words). The frames are used to determine cohesion (i. e. correct filling of slots) and coherence in a given text (i. e. via establishing whole-part relations etc.). To achieve testing of coherence, there are also high-level experts (i. e. frames) which are not associated with natural language words. These experts represent what could be called the possible macrostructure of a text. The result of a text analysis is a structure which is called ’text graph’. It contains all the frames which have been established during the analysis. The frames are related via said relations. A generator may in turn produce abstracts of varying explicitness from the text graph. Among the earliest proposals for a macrostructure in the field of cognitive science , we find the story grammars of Rumelhart (1975). This approach fits into the third class of qualifications of the term macrostructure by (c) functional categories . Rumelhart focusses upon suprasentential relationships extending over more than a sequence of two sentences. He transports the idea of phrase structure originating from syntax to the macrostructure of stories. He specifies both syntactic rewrite rules and corresponding semantic rules formulating conditions for the state of affairs referred to by the sentences. In the same way as, for example, a sentence is said to have a noun phrase and a verb phrase as immediate constituents, Rumelhart assumes that a (certain kind of simple ) story consists of a setting and an episode . The semantic condition between both is that “the setting forms a structure into which the remainder of the story can be linked” (Rumelhart 1975, 241). This information is taken together in the story grammar rule (11.1), similar rules are represented for the substructure of an episode. (11.1) Story → Setting + Episode ⇒ ALLOW (Setting, Episode)

229

(11.2) Setting → (States)* ⇒ AND (State, state, ...) (11.3) Episode → Event + Reaction ⇒ INITIATE (Event, Reaction) (11.4) Event → {Episode / Change-of-state / Action / Event + Event} ⇒ CAUSE (Event 1 , Event 2 ) or ALLOW (Event 1 , Event 2 ) (11.5) Reaction → Internal Response + Overt Response ⇒ MOTIVATE (Interval-response, Overt Response) (11.6) Internal Response → {Emotion / Desire} (11.7) Overt Response → {Action / Attempt)*} ⇒ THEN (Attempt 1 , Attempt 2 , ...) (11.8) Attempt → Plan + Application ⇒ MOTIVATE (Plan, Application) (11.9) Application → (Preaction)* + Action + Consequence ⇒ ALLOW (AND (Preaction, Preaction, ...), {CAUSE / INITIATE / ALLOW} (Action, Consequence)) (11.10) Preaction → Subgoal + (Attempt)* ⇒ MOTIVATE [Subgoal, THEN (Attempt, ...)] (11.11) Consequence → {Reaction / Event} According to these rules the story (12) receives the syntactic structure (13) and the semantic structure (14). (12.1) Margie was holding tightly to the string of her beautiful new balloon. (12.2) Suddenly, a gust of wind caught (12.3) it and carried it into a tree (12.4) It hit a branch (12.5) and brust. (12.6) [sadness] (12.7) Margie cried and cried. Both the semantic relationships used (AND, ALLOW etc.) and the syntactic categories are supplied with a natural-language explication (Rumelhart 1975, 220 and 222, respectively). The syntactic rules used by Rumelhart have obvious connections to other structures proposed for narrative texts in terms of functional categories (cf. the Labov/Waletz ki (1967) formula mentioned above). The ultimate goal of Rumelhart’s semantic structure, however, is to allow for a summarization of stories . For each semantic relation used in the grammar Rumelhart formulated one or more summarization rules accounting for sum-

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

230

phenomena treated by the researchers in these fields cover just a small part of what has been theoretically discussed within text-linguistics. Mostly, however, the theoretical linguistic investigations are not as explicite as needed for a description with computers. This gap cannot be filled without a close cooperation among linguistics and computer people. Moreover, the transfer problem among researchers working on text organiz ation under different perspectives (generation, interpretation, translation) has to be solved. A phenomenon cannot count as successfully treated when it has been described under one of these perspectives only. At present, we are far from this desired state, but the rapid progress made in the last fifteen years raises good hopes.

5.

mariz ations of stories produced by natural speakers.

4.

Problems and Perspectives

The material discussed above has been elaborated within quite diverse subdomains of the computer-aided study of texts such as text generation, text interpretation, analysis and condensation, and machine translation. The

Literature (selected)

R. Allen (this volume) · P. Bosch 1983 · R. Cullingford 1981 · A. Davey 1978 · M. Derr/K. McKeown 1984 · R. Granville 1984 · R. Harweg 1968 · C. Habel (this volume) · U. Hahn 1984 · U. Hahn/ U. Reimer 1983 a · U. Hahn/U. Reimer 1983 b · U. Hahn/U. Reimer 1983 c · U. Hahn/R. Kuhlen/U. Reimer 1982 · M. Halliday/R. Hasan 1976 · W. Kallmeyer/R. Meyer-Hermann 〈1973〉 1980 · M. Kay 1979 · G. Kempen (this volume) · M. King (this volume) · W. Labov/J. Waletz ki 1967 · W. Mann 1984 · K. McKeown 1982 · M. Minsky 1975 · A. E. Nourse 1952 · F. Pereira/D. Warren 1980 · János S. Petőfi 1983 · János S. Petőfi 1985 · János S. Petőfi/Terry Olivi 1986 · János S. Petőfi/Terry Olivi 1987 · János S. Petőfi/Emel Söz er 1987 · I. Piirainen (this volume) · D. Rumelhart 1975 · R. Schank/R. Abelson 1977 · R. Schank/C. Riesbeck 1981 · R. Schank 1982 · S. Small 1981 a · S. Small 1981 b · S. Small 1983 · S. Small/C. Rieger 1982 · K. Wothke (this volume) · E. Wickmann (this volume) · G. Willee/Schaeder (this volume) · R. Wilensky 1978 · R. Wilensky 1981 · H. J. Weber 1983 · H. J. Weber 1985 · H. J. Weber 1986.

Hans-Jürgen Eikmeyer/Jörg Kindermann/ János Sándor Petöfi, Bielefeld (Federal Republic of Germany)

20.  Semantische Beschreibung von Sprache

231

20. Computergestützte Verfahren zur semantischen Beschreibung von Sprache 1. 1.1. 1.2.

4.1. 4.2. 4.3. 5.

Abgrenzung des Themas Deskriptive vs. prozedurale Semantik Von der Unmöglichkeit maschineller semantischer Deskription Formen der Repräsentation von Wortbedeutungen für die maschinelle Verarbeitung Verbale semantische Beschreibung in Wörterbüchern Kanonische semantische Beschreibung in Theorie und Praxis Maschinelle Verfahren semantischer Beschreibung Mathematisch-statistische Verfahren Strukturelle Verfahren Deskriptive vs. prozedurale Satz- und Textsemantik ’Bedeutung’ von Sätzen und Texten Beschreibung von Textinhalten Textwissenschaft und Story Understanding Literatur (in Auswahl)

1.

Abgrenzung des Themas

2.

2.1. 2.2. 3. 3.1. 3.2. 4.

1.1. Deskriptive vs. prozedurale Semantik William A. Woods hat in seinem 1975 b erschienenen Artikel “What’s in a Link” in einer karikaturistischen Weise z wei Sichtweisen, die sich mit dem Begriff der Semantik verbinden, charakterisiert, nämlich die philosophische und die linguistische. Der Linguist sei interessiert “in characteriz ing the fact that the same sentence mean different things, and some sentences mean nothing at all. He would like to find some notation in which to express the different things which a sentence can mean and some procedure for determining whether a sentence is “anomalous” (i. e., has no meanings)” (38).

Auf der anderen Seite befasse sich der Philosoph damit, die Bedeutung formaler Notationen z u spez ifiz ieren, “rather than a natural language”: “What he is concerned with is determining when an expression in the notation is a ’true’ proposition (in some appropriate formal sense of truth) and when it is false. ... Meaning for the Philosopher is not defined in terms of some other notation in which to represent different possible interpretations of a sentence, but he is interested in the conditions for truth of an already formal representation” (38).

Woods

will

über

diese

beiden

Stand-

punkte hinausgehen. Er tut dies, indem er einen Semantiktyp spez ifiz iert, den er, wie auch Terry Winogard (1972), prozedurale Semantik nennt . Das Konz ept der proz eduralen Semantik ist ein entscheidendes Ergebnis der modernen computerunterstütz ten Sprachforschung, besonders aus dem Bereich der Künstlichen Intelligenz . Es ist — wie kein anderes — geeignet, traditionelle Sichtweisen z . B. darüber, was eigentlich die Bedeutung sprachlicher Einheiten und wie der Verstehensproz eß z u erklären ist, z u revidieren. Die Zweiteilung der bisherigen Semantik in philosophische und linguistische Semantik enthält eine z u starke Vereinfachung. Weder ist die linguistische Semantik beschränkt auf Satz semantik im Sinne der Katz /Fodor-Semantik, in der es um die Anomalität, Analytiz ität, Widerspruchsfreiheit etc. von Sätz en geht, noch gibt es eine Semantik, der es allein um die analytisch-philosophische Problematik der formalen Voraussetz ungen für die Wahrheit einer sprachlichen Repräsentation z u tun ist. In der Semantik, einem Forschungsgebiet mit einer langen Tradition, wurden und werden vielmehr z ahlreiche recht divergente Bemühungen z usammengefaßt. Die Vielfalt der Ansätz e z eigt sich, wenn man z . B. die Inhalte des Sammelbandes ’Semantics’ von Steinberg/Jakobovits (1971) und des z usammenfassenden Werkes ’Semantics’ von John Lyons (1977) miteinander vergleicht. Nach Lyons könnte man der linguistischen Semantik die Richtungen der Behavioristischen Semantik, der Referenz semantik, die Theorie der semantischen Felder, die Lehre von den Sinnrelationen, die Generative Semantik, die Interpretative Semantik und die Komponentialanalyse z uordnen. Dem Gebiet der logischen Semantik wären nach Zadeh (1986) die truth-conditional semantics, die possible-world semantics, die Montague semantics, die procedural semantics und die model-theoretic semantics unterzuordnen. In dieser Zusammenstellung fällt auf, daß die meisten Modelle der linguistischen Semantik es mit der Frage z u tun haben, was eigentlich die Bedeutung eines Wortes sei und wie man sie darstellen könne (z . B. durch semantische Felder, durch Komponenten, semantische Primitive etc.), und daß es der anderen Richtung, der logischen Semantik, eher um die formalen Strukturen sprachlicher Ausdrücke und um die Bedingungen

232

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

geht, unter denen eine gegebene Äußerung gültig ist. Die linguistische Semantik ist daher eher deskriptiv orientiert, während die logische Semantik den Proz essen oder Proz eduren nahesteht, mit denen die Gültigkeit einer gegebenen Äußerung aufgezeigt wird. Es liegt nahe, den Gesamtbereich der Semantik aus heutiger Sicht in z wei große Bereiche z u gliedern, die deskriptive Semantik und die prozedurale Semantik. Deskriptive Semantik wäre diejenige linguistische Semantik, die z . B. H. E. Brekle 1972 wie folgt beschrieben hat: „... wenn von ’linguistischer Semantik’ die Rede ist, versteht man darunter z u allererst synchronische Semantik, also die Beschreibung der Inhalte sprachlicher Zeichen (formen) und Komplexen von Zeichen (Wortz usammensetz ung, Satz , Text). Heute ist auch im Bereich der Semantik die Priorität der Synchronie vor der Diachronie weitgehend anerkannt; bevor man die Veränderungen von Wortbedeutungen beschreiben kann, muß man wissen, wie die z u einem Zeitpunkt z u einer Wortform gehörende Bedeutung überhaupt beschaffen ist“ (13).

Der proz eduralen Semantik geht es demgegenüber nicht mehr darum, die ’Bedeutungen’ oder Inhalte sprachlicher Zeichen oder Einheiten darz ustellen, sondern das bedeutungshafte, sinnvolle Handeln des menschlichen Individuums z u simulieren. Der Maßstab dafür, ob die Bedeutung eines Elements adäquat dargestellt ist, ist verschoben: nicht an der sprachlichen Kompetenz des einz elnen Individuums oder an einem imaginären Sprachsystem wird gemessen, ob einer Einheit ein Inhalt entspricht, sondern am Erfolg einer simulierten kommunikativen Handlung (z . B. in einem Frage/-Antwort-Proz eß). Eine sprachliche Äußerung muß hinsichtlich ihres Inhalts mit einem Handlungsz iel übereinstimmen, wenn man davon sprechen will, daß die Äußerung eine ’Bedeutung’ hat. Um dies z u erreichen, muß eine Äußerung auf einen Zustand des z ugrundeliegenden Systems abgebildet werden können, ein Proz eß, den man auch als Verstehen bez eichnet (vgl. Art. 23). In dieser Hinsicht verfolgt die moderne Semantik der cognitiven Systeme die gleichen Absichten wie die modelltheoretische logische Semantik. Denn Abbildungen dieser Art sind nur möglich, wenn erstens ’eindeutige Regeln z ur Konstruktion und Interpretation’ von Ausdrücken der betreffenden Sprachen vorliegen (Brekle 1972, S. 17) und wenn z weitens festgestellt wird, daß tatsächlich einer geäußerten Proposition eine Proposition

in dem z ugrundeliegenden Weltmodell korrespondiert. Trotz dieses sicherlich vorhandenen prinz ipiellen Unterschieds z wischen deskriptiver und proz eduraler Semantik sind beide jedoch aufeinander angewiesen: Zur Simulation von sprachlichem Handeln, z ur Verwirklichung von maschinellen Sprachverstehenssystemen bedarf es der Darstellung von ’Bedeutungen’ als Teil des sprachlichen Wissens eines Systems. In allen Sprachverstehenssystemen (Natural Language Understanding Systems) gibt es daher eine lexikalische Komponente (vgl. Art. 30), die vor allem semantische Beschreibungen von Wörtern enthält und deren Bedeutung angesichts neuerer Grammatikmodelle (Lexical Functional Grammar; Word Expert Parser etc.) wächst. Möglicherweise kann aus diesem Grunde sogar die deskriptive Semantik als Grundlage der proz eduralen Semantik angesehen werden. In der gegenseitigen Abhängigkeit von deskriptiver und proz eduraler Semantik spiegelt sich die in diesem Handbuch verfolgte Konz eption, nach welcher die deskriptiven und die simulierenden Forschungsrichtungen innerhalb der Computerlinguistik nicht grundsätz lich voneinander z u trennen sind (vgl. auch Art. 1). 1.2. Von der Unmöglichkeit maschineller semantischer Deskription Die Geschichte der Semantik durchz iehen mehrere prinz ipielle Mißverständnisse. Eines von diesen besteht darin, daß oft nicht deutlich z wischen der individuellen Bedeutung eines Wortes auf der einen und der kollektiven Bedeutung eines Wortes im Sprachsystem einer Gemeinschaft auf der anderen Seite unterschieden wird. Obwohl dieses Mißverständnis durch die Saussure‘sche Unterscheidung z wischen langue und parole und durch seine Einführung des valeur linguistique als ausgeräumt hätte gelten können, ist es doch die Ursache gewesen für die Semantikfeindlichkeit der behavioristischen Sprachwissenschaft (Bloomfield) und auch für die heftigen Vorbehalte gegenüber allen Absichten, ’Semantisches’ mit dem Computer z u bearbeiten. Es wird behauptet, daß es schon nicht möglich sei, die Bedeutung von Wörtern mit sprachlichen Mitteln voll z u beschreiben; um so weniger sei es möglich, Bedeutungen auf dem Computer darz ustellen. Diese Behauptung gilt z war für die individuellen Bedeutungen, nicht aber für die Beschreibung von

20.  Semantische Beschreibung von Sprache

Wortbedeutungen im Sprachsystem. In der Tat werden seit eh und je in Wörterbüchern Bedeutungsangaben formuliert, die in mehr oder weniger z uverlässiger Weise die Bedeutungen der Wörter für eine Sprachgemeinschaft zu einer bestimmten Zeit darstellen. Im vorliegenden Artikel geht es um die Möglichkeiten des Computereinsatz es in der deskriptiven Semantik, also um die maschinelle oder maschinengestütz te Beschreibung der Inhalte sprachlicher Zeichen. Der Schwerpunkt liegt dabei auf der deskriptiven Semantik des Wortes, d. h., daß die semantische Beschreibung auf die Beschreibung von Wortbedeutungen reduz iert wird. In allen Forschungs- und Entwicklungsvorhaben der Computerlinguistik ist dieser Bereich bis heute von z entraler Bedeutung. Für die von Brekle genannten Wort z usammenset z ungen, den Satz und den Text, ist bis heute nicht z u erkennen, worin die Beschreibung ihres Inhalts bestehen sollte. Phrasen, Sätz e, Texte betreffen den jeweiligen Vollz ug sprachlichen Handelns; ihre ’Inhalte’ sind vom Ziel kommunikativer Handlungen im oben genannten Sinn abhängig. Sie bestehen, wenn man überhaupt von ’Inhalten’ sprechen will, in einem Proz eß, der sie auf das Wissen eines verstehenden Individuums abbildet. Damit gehört die Semantik der Phrasen, Sätz e und Texte eher in den Bereich der proz eduralen Semantik, die in den Teilen des Handbuchs behandelt wird, in denen es um Probleme der Simulation sprachlichen Handelns geht (Art. 23—36).

233

2.

Formen der Repräsentation von Wortbedeutungen für die maschinelle Verarbeitung

2.1. Verbale semantische Beschreibung in Wörterbüchern In der Praxis der Computerlinguistik wie in den Modellen der theoretischen Linguistik hat man früh erkannt, daß komplexere Sprachstrukturen nicht ohne Rückgriff auf semantische Information beschrieben werden können. Der einfachste Fall ist der, daß sich aufgrund rein syntaktischer Kategorien mehrdeutige Strukturen ergeben, die man — entsprechend Chomsky 1965 — mit Hilfe semantischer Subkategorisierungen (Selektionsbeschränkungen) etc. auflösen kann. Ein frühes Beispiel für diese Erkenntnis im Umkreis der syntaktischen Analyse des Deutschen ist der Artikel von Dietrich (1969). Zur Lösung des Problems der Auflösung syntaktisch nicht reduz ierbarer Mehrdeutigkeiten in maschinellen Systemen hat man sich vor allem mit der Frage befaßt, wie man die Bedeutung von Wörtern angemessen im Lexikon eines ’sprachverstehenden’ Computersystems darstellen kann. Traditionelle Gebrauchswörterbücher, die man als Leitfaden benutz en kann, bedienen sich hierz u einer Kombination verschiedener Methoden: In der Regel enthält ein Lexikonartikel eine Wortdefinition, ferner einen oder mehrere Kontexte, schließlich auch Beispieltexte, die einem Korpus entnommen sein können (für Einzelheiten vgl. W. Müller 1984).

DTV-Wahrig (Wahrig 1978, 421) horchen 1 aufmerksam zuhören; horch! 2 etwas zu hören versuchen, auf ein Geräusch warten; ich horche schon die ganze Zeit, ob ich nicht seine Schritte höre; auf die Atemzüge eines Kranken horchen. 3 〈umg.〉 lauschen, heimlich mithören an der Tür, an der Tür lauschen COLLINS (Collins-Cobuild 1987, 849 f.): listen 1 If you listen to someone who is talking or to a sound that you can hear, you give your attention to them or it. 2 If you listen for something that you are expecting to hear or listen out fot it, you keep alert and make an effort to be ready to hear it if it occurs. 3 You say listen when you want someone to pay attention to you because you are going to say something important. Abb. 20.1: Natürlich-sprachliche Definitionen in maschinell erstellten Gebrauchswörterbüchern

234

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Selbst in den Fällen, in denen Wörterbücher ’aus dem Computer’ erstellt worden sind oder werden, wie im Falle des DTVWahrig (Wahrig 1978), des Brockhaus-Wahrig (1981/84), des neuen Collins COBUILD English Language Dictionary (1987) oder des angekündigten neuen Oxford English Dictionary hat man es bei der semantischen Beschreibung der Wörter, also bei den Definitionen, Kontexten und Beispieltexten, mit Formulierungen in natürlicher Sprache z u tun, wie Abb. 20.1 mit Beispielen aus DTVWahrig und COBUILD zeigt. Diese Formen der natürlichsprachlichen Bedeutungsdarstellung sind jedoch für Systeme z ur maschinellen Sprachanalyse ungeeignet. Aus diesem Grund hat man sich in der computerorientierten Semantik bemüht, Wege z ur Darstelung von Wortbedeutungen in der Form kanonischer Formulierungen z u finden. 2.2. Kanonische semantische Beschreibung in Theorie und Praxis In einer Bonner Dokumentation von 1982/83 z ur maschinellen Lexikographie wurden die wichtigsten maschinenlesbaren Wörterbücher des Deutschen, darunter auch diejenigen, die überhaupt eine kanonische semantische Wortbeschreibung enthalten, tabellarisch beschrieben (Heß/Brustkern/Lenders 1983, S. 176 ff.). Aus dieser Zusammenstellung geht hervor, daß in z ahlreichen fortgeschrittenen maschinenlesbaren Wörterbüchern semantische Relationen und semantische Merkmale verwendet werden. Allerdings geht der Katalog der verwendeten semantischen Relationen kaum über die Synonymie, Hyponymie, Antonymie und Has-As-Part-(HAP) Relation hinaus. An Merkmalen findet man in der Regel menschlich, nicht-menschlich, belebt, unbelebt, konkret, abstrakt, zählbar, unzählbar. Ferner finden sich z ahlreiche wortklassenabhängige Merkmale, in denen sich auch die verschiedenen realisierten Theorien spiegeln. Semantische Angaben dieser Art in der lexikalischen Mikrostruktur maschinenlesbarer Wörterbücher werden vorwiegend z ur Lösung syntaktischer Mehrdeutigkeiten und satzsemantischer Fragen eingesetzt. In ähnlicher Weise, wie es in dem Bonner Projekt geschehen ist, haben Cercone und Mercer 1980 eine Anz ahl von Lexika, die in ’Natural Language Systems’ eingesetz t werden, miteinander verglichen, und z war be-

sonders hinsichtlich der in ihnen auffindbaren Bedeutungsrepräsentationen. Sieht man von der äußeren Struktur der Einträge ab (es handelt sich meist um Listenstrukturen), so finden sich, wie die Zusammenstellung von Cercone/Mercer z eigt, semantische Merkmale der schon genannten Art (belebt, abstrakt etc.) und solche Angaben, wie sie in der vom jeweiligen Autor entwickelten semantischen Theorie vorgesehen werden, z . B. die primitive acts bei Schank 1972. Ähnliche Befunde ergeben sich bei Sichtung der von Ingria in diesem Band (Art. 30) erörterten Lexika. Die seit 1965 vorgeschlagenen Ansätz e z ur semantischen Deskription lassen sich im wesentlichen z u drei Gruppen z usammenfassen, deren Grenz en allerdings nicht immer scharf z u z iehen sind. Es handelt sich um die Deskription a) durch semantische Merkmale, b) durch semantische Komponenten und Primitive, c) durch semantische Relationen und semantische Netze. Zu a): Semantische Merkmale Unter semantischen Merkmalen versteht man, ausgehend von Katz /Fodor (1963) und Chomsky (1965), in Analogie z u den distinctive features der Phonologie, metasprachliche Elemente, durch welche sprachliche Einheiten, insbesondere Wörter, hinsichtlich ihres Inhalts beschrieben werden sollen. Im Gegensatz z u den semantischen Relationen charakterisieren Merkmale nicht die Bez iehungen von Wörtern z u anderen Wörtern des gleichen Lexikons, sondern den Wörtern inhärente Eigenschaften wie belebt, unbelebt; konkret, abstrakt etc., die sich auf die syntaktische Verbindbarkeit der Wörter im Satz auswirken. Semantische Merkmale dienen daher in der Sprachanalyse meist als Filter, ’used to filter out meaningless interpretations of a phrase’ (Winograd 1972, 127). In die Lexika der maschinellen Sprachverarbeitung wurden diese Merkmale systematisch eingeführt, und z war z unächst in relativ einfacher Form, inz wischen aber in Form z iemlich komplexer logisch strukturierter Kataloge von Merkmalen (z ur Verwendung der Semantic Markers in der maschinellen Sprachanalyse vgl. P. J. Hayes 1976). So hat z . B. R. C. Schank schon 1969 ein System semantischer Merkmale z ur Charakterisierung von Nomina (der von ihm so genann-

235

Abb. 20.2: Hierarchie ’ontologischer’ Merkmale, nach Schank 1969 (aus Lenders 1975)

ten picture producer ) entwickelt, das stark an traditionelle Versuche, die Wirklichkeit nach ontologischen Kategorien z u gliedern, erinnert (Abb. 20.2 nach Lenders 1975, 176). In dem System von Winograd (1972) leisten semantische Merkmale einen wichtigen Beitrag z ur lexikalischen Definition von Substantiven ( nouns ). So wird das Nomen cube durch den folgenden Ausdruck definiert: (NMEANS ((# BLOCK) ((# IS *** # BLOCK) (# EQDIM***)))) In diesem Ausdruck handelt es sich beim Inhalt der ersten Klammer ’# BLOCK’ um ein semantisches Merkmal, das einem Katalog von semantischen Markern entnommen ist (Abb. 20.3) und weitere drei Merkmale, nämlich # THING, # PHYSOBJ und # MANIP impliz iert, und z war aufgrund einer logischen Abhängigkeitsstruktur im Katalog der semantischen Marker (Abb. 20.3). Ein ähnliches Konz ept der semantischen Merkmale soll z ur Beschreibung von „semantischen Intrawortrelationen“ in dem maschinellen Überset z ungssystem EUROTRA-D angewendet werden. Wie Zelinsky-Wibbelt (1987, 183 ff.) ausführt, hat man ein Inventar semantischer Merkmale aus verschiedenen einschlägigen theoreti-

schen Ansätz en und praktischen Entwicklungen z usammengestellt, aus welchem — im

Abb. 20.3: Semantische Marker (nach Winograd 1972, 128)

236

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Dialog mit dem Lexikographen — Merkmalbündel erz eugt werden, die als Input für das Lexikon dienen sollen (a. a. O. 187). Das System dieser semantischen Merkmale ist durch Bez iehungen strukturiert, die eine baumartige graphische Repräsentation erlauben (vgl. Abb. 20.4).

Abb. 20.4: System semantischer Merkmale (nach Zelinsky-Wibbelt 1987, 188) Auch Angaben, die sich auf Bez iehungen z wischen Elementen bez iehen, werden oft als ’semantische Merkmale’ bez eichnet. Hierz u gehören insbesondere die Angaben semantischer Rollen, Funktionen, Tiefenkasus etc. (Fillmore 1968; Steiner 1987, 162). Zu b): Komponentialanalytische Ansätze Komponentialanalytische Ansätz e gehen davon aus, daß man Wortbedeutungen durch fortschreitende Zerlegung in einfachere Bestandteile, die Komponenten, z ergliedern kann. In manchen Theorien wird angenommen, daß dieser Proz eß auf ’semantische Primitive’ führen muß. Diese Idee des Komponentialismus durchz ieht, wie Woetz el (1984) in einer umfangreichen Untersuchung dargelegt hat, die gesamte Geistesgeschichte seit der Antike und ist in mehreren theoretischen, z . T. computerorientierten Modellen der neueren Linguistik vertreten (z ur Übersicht über komponentialanalytische Ansätz e in der modernen Linguistik vgl. Lyons 1977, Vol. I, 317 ff.). Die Komponenten oder Primitive werden

meist durch metasprachliche Zeichen dargestellt, die z ur kanonischen Repräsentation von komplexen Wortbedeutungen kombiniert werden, z um Teil auch unter Einbez iehung semantischer Merkmale. Komponenten werden oft als relational betrachtet, weil sie andere Bestandteile von Wortbedeutungen aufeinander bez iehen. So hat z . B. Bierwisch (1970) vorgeschlagen, Wortbedeutungen durch relationale Komponenten in Verbindung mit semantischen Merkmalen darz ustellen. Er führt semantische Komponenten ein, die z wei oder mehrstellige Relationen repräsentieren. Mit ihnen können z . B. Verwandtschaftsbe z iehungen repräsentiert werden, in denen darüber hinaus noch semantische Merkmale als Selektionsbeschränkungen auftreten (Bierwisch 1970, 173 ff.): für Substantive: father: X PARENT OF Y and MALE X and 〈ANIMATE X and ADULT X and ANIMATE Y〉 für Adjektive: long: Y GREATER N and 〈Y DIMENSION OF X and MAXIMAL Y〉 für Verben: kill: X s CAUSE (X d change to (not ALIVE X d )) and 〈ANIMATE X d 〉 An computerorientierten Modellen seien hier besonders Schank’s Theorie der primitive acts (Schank 1972) und Y. Wilks’s primitive semantic classifiers (Wilks 1972, 104 ff.) genannt). Die Theorie der primitive acts entstand im Rahmen von Schank’s Conceptual Dependency Theory . Danach sind Sätz e, die eine Handlung beschreiben, darstellbar als eine Struktur begrifflicher Abhängigkeiten. Die Handlung selbst ist sprachlich durch ein Verb repräsentiert, das in der kanonischen semantischen Beschreibung durch eine Konfiguration einfacher, primitiver Akte dargestellt wird. Schank unterscheidet (1975, 41) elf primitive Akte, mit deren Hilfe Verbbedeutungen dargestellt werden. So wird die dem Verb ’geben’ z ugrundeliegende Handlung durch folgende kanonische Form (S. 71) dargestellt:

die in der folgenden Weise konkretisiert werden kann (S. 31):

20.  Semantische Beschreibung von Sprache

Als LISP-Struktur hat ein entsprechender Wörterbucheintrag folgendes Aussehen (für das Wort GIVE1 ) (aus Cercone/Mercer 1980, 41):

GIVE1: ((FEATURE SENSE (QUOTE HUMAN)) (CHOOSE RECIP SENSE) NIL) ((FEATURE SENSE (QUOTE POBJ)) (CHOOSE OBJ SENSE) NIL) (T (DEFPROP TO TO1 CURRENT) NIL) ((FEATURE SENSE (QUOTE POBJ)) (REPLACE CONCEPT (QUOTE ((ACTOR (# SUBJ) ⇐⇒ (ATRANS) TO (# RECIP) FROM (# SUBJ) OBJEKT (# OBJ) TIME (NIL) MODE (NIL)))) Zu c) Semantische Relationen und Netz e Der entscheidende Durchbruch z u einer maschinellen Beschreibung der Wortbedeutung, z ugleich der Übergang von der deskriptiven Semantik z ur proz eduralen Semantik, war 1968 die Formulierung von lexikalischen Definitionen mit Hilfe einer Menge von Knoten und Kanten in einem semantischen Netz durch Quillian (vgl. Art. 29). Allerdings hat Quillian auch die Problematik dieser Art von Bedeutungsdarstellung gesehen, die darin besteht, daß es sich im Grunde nur um eine andere Form der Darstellung handelt, daß aber der Zugang z ur vollen Bedeutung eines Wortes in einem Prozeß besteht: “To summariz e, a word’s full concept is defined in the memory model to be all the nodes that can be reached by an exhaustive tracing process, originating at its initial, patriarchical type node, together with the total sum of relationships among these nodes specified by within-plane, token-to-tokenlinks” (Quillian 1968, 238).

Quillian’s ursprüngliches Anliegen bestand darin, das linguistische Problem der Bedeutungsdarstellung von Wörtern ( encoding dictionary definitions ) zu lösen. Er hat daher z ur Veranschaulichung seines Modells eines semantic memory ausdrücklich lexikalische Definitionen verwendet. Sieht man bei diesen lexikalischen Definitionen von ihrem Anspruch ab, Konventionen über die Bedeutung von Wörtern ausz udrücken, so handelt

237

es sich um Aussagen, wie sie in jeder Alltagskommunikation z ur Erklärung von Wörtern vorkommen können. Es war daher folgerichtig, das Konz ept des semantischen Netz werks auf die Darstellung von sprachlich formuliertem Wissen überhaupt ausz udehnen, mit allen Konsequenz en, die sich daraus für die Theorie der Semantik ergaben (z ur Entwicklung der Theorie der semantischen Netz e vgl. Scragg 1976 und Cercone 1979; z u den Konsequenz en für die Theorie der Bedeutung Woods 1975 b). Im Anschluß an Quillian hat man die z wischen den Knoten eines semantischen Netz werkes bestehenden Bez iehungen als semantische Relationen bez eichnet. Die Bedeutung eines Wortes ist nach dieser Theorie durch ein Bündel semantischer Relationen darstellbar. Welche semantischen Relationen es allerdings z ur Strukturierung von Wortbedeutungen gibt, ist bis heute ungeklärt. Die am häufigsten verwendeten sind die Relationen der Synonymie, Antonymie, Hypo- und Hyperonymie; ISA (is a); und HAP (has as part). Abb. 20.5 z eigt ein vereinfachtes semantisches Netz , das einige wenige semantische Relationen (HYPO; SYNO; MADEFROM; HAP; USAGE) z ur Strukturierung des Wörterbuchausschnitts des Wortfeldes der Werkzeuge verwendet. In diesem Beispiel gehen von den Knoten des Netz es mehrere semantische Relationen aus, die sie z u anderen Knoten in Bez iehung setz en. Übertragen auf das Vokabular einer Sprache kann man sagen, daß jedes Wort gleichsam durch ein Bündel semantischer Relationen definiert ist. Die Relata dieser Relationen sind Knoten, die jeweils ein Wort des betreffenden Vokabulars repräsentieren. Sieht man sich die Bedeutungserklärungen in herkömmlichen Wörterbüchern genauer an, so stellt man fest, daß sie aus Propositionen gebildet sind, in denen semantische Relationen ausgedrückt werden. Überführt man Propositionen in eine konstruktsprachliche Form, so erhält man z weistellige relationale Ausdrücke, wie sie heute in kanonischen Darstellungen von Wortbedeutungen verwendet werden. Ein traditionelles Hilfsmittel, in welchem Wortbedeutungen schon immer unter Verwendung semantischer Relationen netz werkartig dargestellt wurden, sind die Begriffswörterbücher. In ihnen wird der Wortschatz einer Sprache nicht in alphabetischer Folge, sondern nach Begriffsfeldern angeordnet, wobei eine Binnengliederung innerhalb eines Begriffsfeldes mittels semantischer Relatio-

238

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

Abb. 20.5: Semantisches Netzwerk (aus Lenders 1987) nen (Synonymie, Hyponymie, Antonymie etc.) erreicht wird. In den Fachsprachen hat man Begriffswörterbücher schon seit langem unter der Bez eichnung ’Thesaurus’ für die Zwecke der fachsprachlichen Information und Dokumentation auch in maschinenlesbarer Form eingesetz t (seit jüngster Zeit auch in Textverarbeitungssystemen für Personal Computer). Sie gehen im Allgemeinen aus der intellektuellen Bearbeitung von Textdokumenten und Texten hervor und dienen der Auffindung von Stichwörtern und Deskriptoren, entweder in der interaktiven Indexierung oder im Rahmen eines maschinellen zb w. maschinengestüt z ten Indexing (vgl. Art. 55 und 56). Allgemeinsprachliche Begriffswörterbücher wie etwa für das Deutsche der Dornseiff oder der Wehrle-Eggers, für das Englische Roget’s Thesaurus of English Words and Phrases konnten bisher nicht in maschinenlesbarer Form z ugänglich gemacht werden. Erste Versuche z ielen auf eine Datenbankähnliche Darstellung der semantischen Strukturen. Aufgrund des Einsatz es der Datenverarbeitung wurde in einigen Bereichen die Übernahme des Prinz ips der Begriffswörterbücher auch für literarische Autorenkorpora möglich (vgl. die Begriffsglossare z u Ulrich von

Lichtenstein von K. M. Schmidt 1980 und den Rabelais-Thesaurus von Dixon 1983). Den allgemeinsprachlichen und autorspez ifischen Thesauri ist gemeinsam, daß sie abstrakte Begriffssysteme z ugrunde legen, in welchen die Begriffe der ’Welt’ gleichsam hierarchisch nach Feldern geordnet sind. Das in der Lexikographie bekannteste Begriffssystem ist das von Rudolf Hallig und Walter von Wartburg (1963), das für mehrere Sprachen verwendet und auch in maschinellen Systemen implementiert worden ist. Eine weitere Vorform der heutigen semantischen Netz werke sind die schon seit den 30er Jahren in großer Zahl erstellten sogenannten Wortfeldanalysen (siehe den Sammelband von L. Schmidt 1973). Theoretische Basis dieser Analysen ist die auf Saussure z urückgehende These, daß die Bedeutung sprachlicher Einheiten durch die Menge ihrer Bez iehungen z u den übrigen Einheiten des Wortschatz es definiert ist. Vor allem sind es die paradigmatischen Relationen, durch welche die Elemente eines sprachlichen Feldes, also z . B. die Wörter in einem Wortfeld, definiert und voneinander abgegrenz t werden. In konsequenter Form wurde dieses Prinz ip in der neueren Linguistik z . B. von John Lyons vertreten und in seinen Wortfeldanalysen auf das Korpus der Platonischen Schriften ange-

20.  Semantische Beschreibung von Sprache

wendet (Lyons 1963; vgl. auch Lyons 1977, Kap. 8). Auch in kontrastiv-linguistischer Hinsicht können Wortfeldanalysen hilfreich sein, vor allem auch für die Strukturierung von Lexika (vgl. R. Hartmann 1976). Wortfeldanalysen bedürfen der Korpora als empirischer Basis. Die bislang meist benütz ten Korpora sind Autorenkorpora und Lexika (Wortkorpora), und z war in der jeweiligen gedruckten Form. In z unehmendem Umfang werden heute jedoch die vorliegenden maschinenlesbaren Autoren-, Sprachund Wortkorpora (vgl. Art. 13) und die aus ihnen erstellten maschinellen Hilfsmittel z( . B. Konkordan z en, Wortlisten; vgl. Art. 38) etc. als Quellen verwendet. Wie das folgende Kapitel z eigt, ist es absehbar, daß auch maschinelle Verfahren der strukturellen und statistischen Analyse der Sätz e dieser Korpora eingeset z t werden können, um strukturierte Wortfelder, also semantische Netze, zu ermitteln.

3.

Maschinelle Verfahren semantischer Beschreibung

Alle in 2.2. vorgestellten Formen der Darstellung von Wortbedeutungen konnten in die Computerwörterbücher von bisher existierenden sprachverarbeitenden Systemen nur durch intellektuelle Deskription eingebracht werden. Schon z iemlich früh in der Entwicklung der Computerlinguistik entstand jedoch die Idee, aus Texten (Korpora) einer Sprache selbst Merkmale z u eruieren, die die Wörter der betreffenden Sprache inhaltlich charakterisieren. ’Von ferne’ erinnern diese Verfahren an die Entdeckungsproz eduren des amerikanischen Strukturalismus, angewandt auf den semantischen Bereich. Gemeinsam ist ihnen, daß es sich um Analysen der Umgebung der betrachteten Stichwörter handelt. In den Methoden sind sie verschieden: Es gibt darunter statistisch orientierte Ansätz e, die das gemeinsame Vorkommen (Kookkuren z ) des betrachteten Stichwortes mit anderen Wörtern untersuchen, und andere, die eher strukturelle Merkmale der Texte in Betracht z iehen. 3.1. Mathematisch-statistische Verfahren 3.1.1. Die Theorie der ’Semantischen Räume’ B. Rieger geht in seinem Ansatz , der schon relativ früh entwickelt wurde (Rieger 1974; 1977; 1981 a), davon aus, daß die Bedeutun-

239

gen der Wörter eines Textes durch Mengen anderer Wörter festgelegt werden. Dabei ist jedoch die ’Zugehörigkeit’ eines Wortes z u einer Menge nicht ’scharf’ und endgültig festgelegt, sondern ’unscharf’. Diese Unschärfe der Relation z wischen den Wörtern einer Menge und dem durch die Menge definierten Wort wird in konkreten Texten durch die Nähe dieser Wörter z u der z u definierenden Einheit bestimmt. Rieger bedient sich im einz elnen des Instrumentariums der von ihm sogenannten Theorie der unscharfen Mengen, die auf die Fuz z y-Set-Theory von Zadeh z urückgeht. Die semantische Nähe von Wörtern wird in dieser Theorie durch einen Korrelationskoeffiz ienten bestimmt, in welchem die Abstände bestimmter Wörter in einem Text z u allen Wörtern des Textes ausgedrückt wird. Führt man entsprechende Berechnungen der semantischen Nähe von Begriffe im Rahmen eines Korpus aus, so wird jedem Wort dieses Textes ein Punkt in einem semantischen Raum z ugeordnet, durch den er für dieses Korpus semantisch eingeordnet ist: „Der Korrelationskoeffiz ient α(x, x′) mißt nun paarweise die Beziehung jeden Wortes x 1 , x 2 und x 3 z u allen Wörtern des Vokabulars, und z war aufgrund ihrer Verwendung in den Texten des Korpus. Das ergibt für jedes Wort folglich n = 3 Meßwerte, für x 1 beispielsweise die Werte α 11 , α 12 und α 13 . Diese Meßwerte werden nun als Koordinaten interpretiert, die (...) dem Wort x 1 ε V einen Punkt y 1 in einer n-dimensionalen Raumstruktur C z uordnen (...), welche durch die den n = 3 Worttypen x 1 , x 2 , x 3 entsprechenden Achsen 1, 2 und 3 aufgespannt wird.“ Damit sei „die Verwendungsregularität D(x) eines Wortes x als unscharfe Teilmenge von V erklärt, die (...) einen Punkt y in C definiert ... C [heißt] Korpusraum, jedes seiner Elemente y j ε c Korpuspunkt“ (Rieger 1984, 319).

Angewendet wurde das Verfahren von Rieger Anfang der 80er Jahre für die Zwecke des semantischen Vergleichs von Textkorpora der Zeitungssprache der BRD und der DDR mit den Zielen, die „auf der Wortebene vermuteten semantischen BRD- bz w. DDRSpez ifika“ z u ermitteln und „die ermittelten Bedeutungsdifferen z en“ angemessen dar z ustellen. Die Ergebnisse, die aufgrund des lemmatisierten Bonner Zeitungskorpus (s. Art. 13) erstellt wurden, sind in Rieger (1984) veröffentlicht. 3.1.2. Kollokationsanalysen In ganz ähnlicher Weise wird in der sogenannten Kollokationsanalyse angenommen, daß das gemeinsame Auftreten ( co-occurence ) z weier lexikalischer Einheiten in einem Text

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

240

die Bedeutung dieser Einheiten wenigstens teilweise anz eigt (vgl. Martin/Al/van Sterkenburg 1983). Mit Hilfe des Computers kann man diese Kollokationen ermitteln und typische Umgebungen von bestimmten Wörtern ableiten, die sich semantisch interpretieren lassen. In dem Verfahren von Berry-Rogghe SOLD COMMONS DECORATE THIS EMPTY BUYING PAINTING OPPOSITE LOVES OUTSIDE LIVED FAMILY REMEMBER FULL MY INTO THE HAS ’RE NICE YEARS IS EVERY

24.0500 21.2416 19.9000 13.3937 11.9090 10.5970 10.5970 8.5192 6.4811 5.8626 5.6067 4.3744 3.9425 3.8209 3.6780 3.5792 3.2978 2.9359 2.5999 2.3908 2.3712 2.1721 2.0736

(1973) werden die Abstände, die z wei Wortformen in jedem einz elnen Satz eines Textes voneinander aufweisen, bestimmt. In diesem Verfahren wird also nicht nur das bloße Vorkommen von Wortformen in einem Text berücksichtigt, sondern auch die Verteilung des Vorkommens. Abb. 20.6 zeigt eine Tabelle, aus welcher

ONLY COULD SOMETHING UP HAVE IN MYRA OTHER BEFORE TONY GHOST MORE MUCH WHERE ONE GET OUT OR PEOPLE OF MOTHER SEE BEEN

2.0441 1.9887 1.9026 1.8829 1.8682 1.7299 1.7232 1.6889 1.6451 1.4459 1.3916 1.3740 1.3227 1.2896 1.2879 1.1949 1.1348 0.9316 0.9220 0.9096 0.8558 0.8503 0.7713

DID ABOUT BUT NOT LIKE HIS WAS KNOW ALL WELL FOR IF IT THEY YES BE I DO WITH TO THAT YOU AND

0.6462 0.5363 0.3641 3.3221 0.2833 —0.0385 —0.0890 —0.1038 —0.1060 —0.1209 —0.1794 —0.2197 —0.4368 —0.5175 —0.5818 —0.6557 —0.6865 —0.6993 —0.9090 —1.6660 —1.8030 —2.6034 —2.6488

* * * *

* *

*

*

* *

* *

* *

* *

*

*

* *

* * * *

*

*

*

* * *

world

grocers’s

warehouse

cellar

hut

chamber *

* *

* * *

hall

flat

place

* * * *

home

* * * * *

office

room

live in/at leave door empty window close dark garden move let out furnished stay in/at wall pass enter full

house

Abb. 20.6: Collocates von house in absteigender Relevanzfolge (nach Berry-Rogghe 1973, 108)

* *

Abb. 20.7: Das semantische Feld ’Gebäude’ (nach Berry-Rogghe 1973, 111)

*

20.  Semantische Beschreibung von Sprache

die in der Umgebung von house auftretenden Wörter z usammen mit einer Gewichtung aufgeführt sind. Derartige Kollokationsanalysen können z ur automatischen bz w. halbautomatischen Erstellung von Semantischen Feldern (s. 2.2.) verwendet werden, wie Berry Rogghe anhand einer weiteren Tabelle darstellt (Abb. 20.7). In ähnlicher Form haben Geffroy/Lafon/ Seidel et al. 1973 anhand von Korpora politischer Flugblätter statistische Maße über das gemeinsame Vorkommen bestimmter Wörter entwickelt, die sowohl linguistisch, als auch inhaltsanalytisch interpretiert werden können. Diese Maße erlauben es z . B., den Überlappungsbereich der Begriffe travailleurs und ouvriers zu bestimmen. Eine in diesem Zusammenhang sehr vielversprechende Methode, Wortfeldvergleiche mit Hilfe der Theorie mathematischer Verbände auf dem Computer durchz uführen, haben in jüngster Zeit Kipke/Wille (1987) vorgelegt. Ein weiteres Verfahren aus diesem Bereich liegt in dem von A. Robinet vorgeschlagenen Weg einer Kookkurenz analyse und deren Anwendung für den Vergleich philosophischer Texte vor. Ähnlich wie bei BerryRogghe wird von den tatsächlichen Abständen z wischen Wortformen im Text ausgegangen. Es wird festgestellt, welche Wörter in einem Umfeld von z . B. 10 Wortformen (nur Hauptwortarten) vor und hinter einem Schlüsselwort in welcher Frequenz auftreten. Aus diesen Ergebnissen leitet Robinet sogenannte ’Philogramme’ ab, an denen sich das Bedeutungsspektrum eines Begriffs für einen bestimmten Text ablesen läßt und die sich gut für den Vergleich von Begriffsinhalten eignen. Robinet selbst hat dieses statistisch-umgebungsanalytische Verfahren in einem vielbeachteten Ansatz z ur Aufstellung lexikalischer Wortfelder bei Descates, Leibniz und Malebranche eingeset z t (Robinet 1972; 1973). Vereinz elt wurden auch statistische Methoden z ur Ermittlung semantischer (und morphosemantischer) Felder in literarischen Werken angewendet (Juillard 1985; Choueka, Klein and Neuwitz 1983). 3.2. Strukturelle Verfahren 3.2.1. Kernsatztransformation Schon 1967 hat Gerhard Wahrig die Idee ent-

241

wickelt, semantische Angaben mit maschineller Hilfe aus bestehenden lexikalischen Definitionen z u gewinnen. Wahrig hat vorgeschlagen, lexikalisch-semantische Angaben durch die Transformation sogenannter Kernsätz e z u konstruieren. Die Kernsätz e sollten aus beliebigen Syntagmen gewonnen werden, als deren Quelle man sich existierende Wörterbücher (Wahrig dachte vor allem an das Deutsche Wörterbuch der Gebrüder Grimm), aber auch Texte der Alltagssprache und der Fachsprache vorstellen kann (vgl. auch Wahrig 1969 und 1970). Bei diesem Verfahren der Kernsatz transformation werden die semantisch z u beschreibenden lexikalischen Einheiten in Sätz e eingefügt bz w. im Kontext (aus Korpora) aufgesucht. Diese Sätz e werden mit Hilfe einer bestimmten Syntax transformiert. So kann z . B. das Adjektiv hell in den beiden Kernsätzen der Tag ist hell und die Flamme leuchtet hell auftreten. Aus dem ersten Satz wird die Nominalgruppe der helle Tag, aus dem z weiten die Attributgruppe leuchtend hell ermittelt. Diejenigen Wörter, die sich nach einer solchen Transformation in der Umgebung des z u beschreibenden Lexems befinden, sollen in Wörterbüchern z ur Bedeutungscharakterisierung herange z ogen werden. So würde etwa das Adjektiv hell, wenn es in der Verbindung mit leuchtend auftritt, als Lichtquelle semantisch klassifiz iert, wenn es in der Verbindung mit Tag auftritt, als Zeitangabe. Wahrigs Idee, aus vorliegenden Texten semantische Beschreibungen von Wörtern z u gewinnen, ist heute aktueller denn je. Denn es gibt inz wischen mehrere konkrete Vorschläge und auch experimentelle Systeme, in denen maschinell zb w. maschinengestüt z t Material z ur Wörterbuchkonstruktion aus Texten gewonnen wird. Vorausetz ung für die Anwendung dieser Verfahren sind maschinenlesbare Texte, die Wahrig noch nicht z ur Verfügung standen. Dank heute verfügbarer computergesteuerter Drucktechniken und moderner Schrifterkennung ( Optical Character Recognition ) besteht dieser Datenengpaß nicht mehr (vgl. auch die am Institut für Deutsche Sprache in Mannheim entwickelte Datenbank, die beständig auf die im Hintergrund geführten Texte des Mannheimer Korpus sowie seit einiger Zeit auf regelmäßige Extrakte aus der Tagesz eitung „Mannheimer Morgen“ z ugreifen kann.)

242

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

3.2.2. Analyse definierender Kontexte Auf diesen heutigen Möglichkeiten des Zugriffs auf große Mengen maschinenlesbarer Texte beruht ein Verfahren, das Robert Amsler bei der amerikanischen Gesellschaft Bell Telephone ausprobiert. Amsler hat, nach ausführlichen vorbereitenden Analysen der Strukturen des Mirriam-Webster (Amsler 1980) ein Computersystem entwickelt, mit welchem laufend aus maschinell verfügbarem Material, vor allem aus Zeitungsnachrichten und aus Jahrbüchern, besonders dem World Almanac of Facts Definitionen ermittelt werden (Amsler 1986). Eine der Methoden Amslers ist die Analyse definierender Kontexte. Ihr liegt die Annahme z ugrunde, daß Definitionen in einem Kontext durch bestimmte definierende Wörter und syntaktische Muster eingeführt und als Definitionen erkannt werden können. Einfache Schlüsselwörter wie commonly, usually, frequently called, known as, defined as etc. werden ebenso als Indikatoren für Definitionen verwendet wie bestimmte syntaktische Strukturen, die auf Definitionen hindeuten. Dieser pragmatische Ansatz von Robert Amsler ist im Prinz ip identisch mit Untersuchungen über natürlich-sprachliche Indikatoren, die auf Definitionen in philosophischen Texten hinweisen, die in Bonn im Rahmen eines DFG-Projekts durchgeführt worden sind (Büchel/Weber 1986). In diesen Untersuchungen wurde versucht, aus I. Kants Kritik der reinen Vernunft Definitionen von abstrakten Begriffen mit Computerunterstütz ung z u ermitteln und die Relevanz der so gefundenen Definitionen an Wörterbüchern z u überprüfen. Die Untersuchungen erbrachten, daß ein Autor durch Wörter wie heißen und nennen neue Namen einführt, mit denen er philosophische Begriffe z u bez eichnen wünscht, die sich aus seinen Überlegungen ergeben haben. Es liegt in diesen Fällen der Typ einer Nominaldefinition vor, mit der man jedoch noch keine Beschreibung des Inhalts des definierten Begriffs hat. Diese wäre erst durch andere semantische Relationen gegeben, die aus den umgebenden Formulierungen des Textes gewonnen werden müßten. 3.2.3. Analyse lexikalischer Einträge Nicht Texte, sondern lexikalische Einträge werden am Institut für Computerlinguistik

der Universität Pisa seit einiger Zeit z ur Konstruktion einer italienischen lexikalischen Datenbank verwendet. Die in maschinenlesbaren Wörterbüchern auftretenden sprachlichen Indikatoren, die auf das Vorliegen von semantischen Relationen hindeuten, werden systematisch z ur Gewinnung derartiger Relationen ausgenutz t. Wie Calz olari (1986; auch Art. 39 in diesem Handbuch) mitgeteilt hat, wurden mit maschinellen Verfahren semantische Relationen auf der Basis einer Gesamtmenge von 200 000 lexikalischen Definitionen mit ca. 106 000 Lemmata erstellt. Es handelt sich um die lexikalischen Relationen Hyponymie, die durch eine Anz ahl von Programmen aus den Einträgen eruiert wurden, ferner Synonymie-Relationen, die Relationen Teil-Ganz es und Menge-von, schließlich auch Relationen der Ko-okkurenz und der Kollokation, Kasusrelationen, Semantische Felder und Selektionsbeschränkungen. Sicher kommt diesen Arbeiten entgegen, daß traditionelle Wörterbücher, die in maschinenlesbare Form gebracht wurden, derartige Relationen häufig schon expliz it durch entsprechende Kodierung benennen. Wo dies nicht der Fall ist, müssen besondere strukturelle und lexikalische Indikatoren benutz t werden, die auf bestimmte semantische Relationen hindeuten. So kann man z . B. vermuten, daß Antonymie-Relationen, Hyponymie-Relationen etc. durch ganz bestimmte sprachliche Formulierungen (z . B. durch die Formel: ist ein etc.) oder durch bestimmte sprachliche Strukturen z um Ausdruck gebracht werden. Im Kontext alltagssprachlicher Kommunikation mag das Wort Stuhl durch eine Formulierung erklärt oder definiert werden, wie sie sich folgendermaßen im Wörterbuch (Wahrig-DTV) findet: „Sitzmöbel mit Rückenlehne u. vier Beinen für eine Person“. In dieser Formulierung sind mehrere Propositionen enthalten; „Stuhl ist ein Sitzmöbel“ „Stuhl hat Rückenlehne“ „Stuhl hat vier Beine“ „Stuhl wird von einer Person benutzt“ Man kann diese Propositionen in relationaler Schreibweise in der folgenden Weise notieren: HYPO (Stuhl, Sitzmöbel) HAP (Stuhl, Rückenlehne) HAP (Stuhl, Beine (vier)) USE (Stuhl, Person) Oder auch in der folgenden Listenschreibweise:

20.  Semantische Beschreibung von Sprache

Stuhl (HYPO (Sitz möbel)), HAP kenlehne, Beine (vier)), USE (Person)

243

(Rük-

Voraussetz ung für die automatische ’Entdeckung’ in Texten impliz it enthaltener semantischer Relationen ist die Entwicklung von Programmen, die eine Erkennung definierender Texte und ihre Überführung in derartige kanonische Formen erlauben. Ein ähnlicher Ansatz , semantische Relationen aus lexikalischen Relationen z u erschließen, wird auch im Anschluß an die in Bonn erstellte deutsche lexikalische Datenbank verfolgt (Lenders 1987).

4.

Deskriptive vs. prozedurale Satzund Textsemantik

4.1. ’Bedeutung’ von Sätzen und Texten In diesem Artikel ging es in der Hauptsache um die maschinelle semantische Beschreibung von Wörtern. Die Beschreibung der Bedeutung von Sätz en und Texten wurde schon z u Beginn dem Arbeitsgebiet des natural language understanding z ugeordnet. Denn die ’Bedeutung’ von Sätz en und Texten läßt sich nicht als sprachliches Wissen im Sinne von lexikalischem Wissen und Regelwissen auffassen. Sätz e und Texte bilden kein Wissensinventar, sie bez eichnen vielmehr Bez iehungen z wischen Einheiten des Wissens, also jeweils einz elne Sachverhalte und Situationen, deren Wahrheit oder Gültigkeit (und damit ’Verstehbarkeit’, vgl. Art. 23) nur unter Rückgriff auf einen universe of discourse aufgewiesen werden kann. Der Satz Ein Stuhl ist ein Sitzmöbel ist keine Einheit im Inventar des sprachlichen Wissens und hat daher keine in gleicher Weise beschreibbare Bedeutung, wie dies bei lexikalischen Bedeutungen der Fall ist. Maschinelle Satz - und Textsemantik sind daher nicht unter deskriptiven Aspekten betreibbar, sondern nur im Rahmen der Simulation sprachlichen Verhaltens, also im Bereich der prozeduralen Semantik. Dies wird z . B. deutlich, wenn man den Artikel Zadeh (1986) liest, in welchem der Autor der im lexikalischen Bereich wirksamen fuzzy set theory (s. o.) sich mit der Semantik von „propositions, predicates, dispositions and commands“ befaßt. Zadeh führt hier aus, daß die von ihm so genannte Test-Score Semantics ihrer Natur nach eine Referenz semantik sei, die sich mit der Korrespondenz z wischen sprachlichen Ausdrücken und ihren Denotationen „in a universe, or family of universes, of discourse“ (a. a. O. 24) befasse, die sich daz u aber nicht einer klassischen Logik bediene, son-

dern der fuzzy logic, durch welche die prinz ipielle Unschärfe derartiger Korresponden z en berücksichtigt wird. Die Bedeutung einer Proposition müsse man sich als eine Proz edur vorstellen, “which tests, scores and aggregates the elastic constrains”, die durch sie eingeführt werden (a. a. O. 25).

Im Zusammenhang der Generativen Transformationsgrammatik, wie sie 1965 von Chomsky vorgelegt worden ist und deren semantische Komponente seit 1963 durch Katz /Fodor entwickelt wurde, wird häufig die Auffassung vertreten, daß es so etwas wie eine Satz bedeutung gebe. Im Proz eß der Generierung eines Satz es werden aus dem individuellen Lexikon semantische Merkmale in die Knoten der Tiefenstruktur eines Satz es eingeführt, und „die Bedeutung einer Phrase wird nach und nach durch die Bedeutungen der sie konstituierenden Wörter und Phrasen z usammengesetz t, bis man eine Bedeutung für den ganz en Satz erhält“ (Sparck Jones/ Kay 1976, 138). Es ist jedoch mißverständlich, hier von ‚Satz bedeutung‘ z u sprechen. Denn es handelt sich bei diesem Proz eß um den einer ‚Interpretation‘, wie auch die semantische Komponente von Chomsky als ’interpretative Komponente’ z be eichnet wird. Sparck Jones/Kay stellen fest, daß diese Interpretationen als „Bez eichnungen für, statt als vollständige Beschreibungen von Bedeutungen“ fungieren (Sparck Jones/Kay 1976, 139). Das Ziel der semantischen Interpretation sind Aussagen darüber, ob ein Satz anormal, in sich widersprüchlich, mehrdeutig, eindeutig, Paraphrase eines anderen Satz es, analytisch oder synthetisch ist (vgl. Chomsky 1965; Katz 1966, 189). Maschinelle Systeme, die dies leisten, gibt es bisher nicht. 4.2. Beschreibung von Textinhalten In anderem Sinne als in der Linguistik wird in der Informationswissenschaft mitunter von ’Satz -’ und ’Textbedeutung’ gesprochen. Man meint damit den ’Inhalt’ von Texten, den der Autor mit sprachlichen Mitteln formuliert hat. In der Informationswissenschaft soll „der Inhalt von Dokumenten und Informationsfragen charakterisiert werden“, und z war dergestalt, daß die Charakterisierungen in einem automatisierten Proz eß benutz t werden können, der die Relevanz eines Dokuments auf eine Anfrage nachweisen kann (Sparck Jones/Kay 1976, 18). Der ’Inhalt’ eines Textes wird dabei durch besondere Mittel, durch eine Deskriptorenliste oder durch ein Abstrakt angez eigt, und z war soweit, daß er auf eine entsprechende Anfrage hin wie-

244

V. Computer-Aided Description of Language Systems II:Discovery of Rule-Systems

dergefunden werden kann. In der Information und Dokumentation werden Texte also auf die notwendigen Indikatoren ’reduz iert’, wobei allerdings das Ergebnis der Reduktion wiederum ein Text sein kann (z . B. ein Abstrakt) (vgl. Kuhlen 1976, 6). Die Probleme des automatischen Indexing und Abstracting sind daher z urecht im vorliegenden Zusammenhang der semantischen Deskription ausgeklammert (vgl. dazu Art. 55 und 56). 4.3. Textwissenschaft und Story understanding In der ’Textwissenschaft’ (z . B. van Dijk 1980, 41) und in den Theorien, die auf eine computergerechte Modellierung des Verstehens von Geschichten ( story understanding ) hinauswollen, ist ebenfalls häufig die Rede von textsemantischen Beschreibungen. Hierunter sind so verschiedene Formen der Beschreibung z u verstehen wie die Repräsentation von Texten und Geschichten in der Form von Netz werken, Hierarchien von Propositionen und prädikatenlogischen Ausdrücken (vgl. Art. 23 und Lenders 1988 a). Van Dijk (1980 b, 42) nimmt an, daß „Makrostrukturen von Texten semantisch sind“ und daß „eine ganz e oder Teilsequenz einer großen Anz ahl von Propositionen eine Bedeutungseinheit auf der globalen Ebene bilden“. Worin diese ’eine’ Bedeutungseinheit besteht, bleibt jedoch bis heute im Unklaren. Es hat den Anschein, als ob die semantische Beschreibung in der Angabe eines Themas, der Ableitung einer Zusammenfassung oder der Ermittlung von Schlüsselwörtern besteht,

ohne daß diese Reduktionsformen eines Textes jedoch schon in plausibler Form als die „eine Bedeutungseinheit auf der globaleren Ebene“ angesehen werden könnten. Vielmehr legt die Tatsache, daß verschiedene Menschen z u einem Text u. U. mehrere Themen, mehrere Zusammenfassungen und Schlüsselwortlisten angeben können, vom Standpunkt der Computerlinguistik her gesehen den Schluß nahe, daß die wirkliche inhaltliche Repräsentation eines Textes im individuellen Gedächtnis stattfindet und daß die Bedeutung eines Textes in dem individuellen Proz eß begründet ist, in welchem man einen Text auf die jeweiligen (redundanz freien) Gedächtnisinhalte abbildet. Damit gehört die Frage der Textsemantik ebenso wie die der Satz semantik in den Bereich der proz eduralen Semantik. Themenangabe, Zusammenfassung, Schlüsselwortliste etc. kommen durch Textkondensierung z ustande und können nur für bestimmte praktische Zwecke als Textbeschreibung dienen.

5.

Literatur (in Auswahl)

Amsler 1980 · Bierwisch 1970 · Brekle 1972 · Charniak/Wilks (eds.) 1976 · Dijk, van 1980 b · Lenders 1975 · Lenders 1988 a · Lyons 1977 · Rieger, B. 1979 a · Rieger 1984 · Robinet, A. 1970 · Schank 1972 · Wahrig 1967 · Wilks 1972 · Zadeh 1986.

Winfried Lenders, Bonn (Bundesrepublik Deutschland)

245

VI. Computer-Aided Description of Language Systems III: Testing of Rule Systems Computergestützte Beschreibung von Sprache III: Testen von Regelsystemen

21. 1. 2. 3. 4. 5. 6.

1.

Computational Testing of Linguistic Models in Morphology Introduction Kay’s Morphosyntactic Chart Parser Kaplan and Kay’s Morphographemic Transducer Koskenniemi’s Two-Level Model Hellberg’s Paradigm Model Literature (selected)

Introduction

The basic task facing any computationally implemented morphological model is that of analyz ing the word forms of the individual language(s). The process of word form analysis is often broken down into subtasks: segmentation of morphs and morphological alternants of various types, identification of stems and endings by dictionary look-up (lemmatiz ation), consistency checks between the morphological elements established, and retrieval of lexical information. In an optimal morphological model, consideration should also be paid to idiom recognition and other matters interfacing morphology with syntax and semantics. In the early days of computational morphology, most work was done in fairly language- and machine-dependent (occasionally even brute-force) ways. Not much attention was paid to isolating the linguistic core of the models from programming details. Typical features of many approaches were that only restricted subparts of the vocabulary were covered, and that the complexity of morphological processing was underestimated (especially so if the language under analysis was of the English type with negligible inflectional morphology). A fairly common view has been what could be called the full listing hypothesis (FLH) according to which word forms are just listed in the lexicon. Under this view, no genuinely morphological processing

would be needed (cf. Winograd (1983, 544 ff.) for a recent statement to this effect). However, the predominant view is that some morphological processing is needed even in parsers for languages like English. The classical taxonomy of morphological models is the tripartition into word-andparadigm (WP), item-and-arrangement (IA), and item-and-process (IP). Variants of IP have been the most popular ones in computational morphology (discussed in 2.—4.). WP has also been entertained in a full-blown form (in 5.). However, this is not intended to imply that computational morphology would be equal to a straightforward take-over and implementation of autonomous morphological theories. Computational morphologists have designed a partly novel body of concepts and theoretically relevant tools especially in the domain of lexical representation and dictionary look-up. Very little work has, i n fact, been done on direct computational testing of autonomously established linguistic models. We shall therefore assume a somewhat broader perspective and treat the topic from a more independent computational view. — Computational morphology has been strongly inclined towards analysis. The problems of morphological synthesis (production) will not be dealt with here except in passing (but cf. Karttunen/Root/Us z koreit 1981; Koskenniemi 1983 a; 1985 b). Likewise, we shall treat derivation and compounding only superficially (but cf. Rüdiger 1975; Hellberg 1978; Hoeppner 1980; 1982 a; Reimann/Rüdiger 1982; Sparck-Jones 1983).

2.

Kay’s Morphosyntactic Chart Parser

One of the outstanding achievements of computational morphology and syntax so far is

246

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

Martin Kay’s chart parser which provides a general integrated morphosyntactic parsing framework. Most of the central concepts of computational morphology originate in the work of Kay and his associates (Kay/Martins 1970; Kay 1973; 1977; Kaplan/Kay 1981). The chart is a data structure (a directed graph) consisting of vertices and labelled edges (arcs). It provides a ’board’ where all results, morphological as well as syntactic, of the ongoing analysis are put. In ambiguous situations all interpretations are recorded in the graph. There is no backtracking nor any recomputing of structures once analyzed. A typical feature of Kay’s approach is his use of morphographemic rules similar to those of standard generative phonology. This justifies classifying chart parsing as IP from the morphological point of view. In a sense, chart morphology could be viewed as computational (implementation and) testing of some of the basic tenets of generative phonology. — E. g. English would thus be morphologically parsed by postulating morphographemic rules for alternations such as funny : funni + ly, try : trie + s, fus + es : show + s, labe 1: labe ll + ed. Application of these (and other) rules under proper circumstances guides the introduction of edges into the chart. E. g., given a rule with the effect ied ≠ ---> y + ed ≠ (where ≠ denotes word-final position), the chart might look as follows, in the relevant respects, upon analyz ing the word tried (Kay 1977, 141):

Fig. 21.1: Schematic state of the chart after morphological rewriting (Kay 1977, 141)

An edge is established once it is found out that there is a rewriting rule applicable in a proper context. The new edge is labelled with the material to the right of the rewriting arrow. The whole process is driven by executing tasks in a stack-structured agenda. Kay has devoted considerable effort to developing and otpimiz ing the process of dictionary lookup. When large dictionaries are used (containing tens or even hundreds of thousands of lexemes), it is of course essential that dictionary lookup does not become impracticable. The method now standardly used is to construct a binary letter tree where shared initial substrings of lexical entries are conflated. A letter tree for the lexicon /a aardvark aback abacus abaft ace acetic acid acidity / would look like this (Kay 1977, 162):

Fig. 21.2: Letter tree with conflated shared initial parts for a small lexicon (Kay 1977, 162) Many of these techniques are part and parcel of ordinary computational search methodology. However, they have important ramifications also for morphological theory and for explicit theories of language recognition. It clearly cannot be the case e. g. that the hearer/ reader is just scanning sequential lists resembling ordinary dictionary books when he/she is decoding linguistic messages (cf. 4. below). A third important feature is the idea of employing linked minilexicons for expressing morphotactic restrictions and ruling out syntagmatically improper interpretations in instances of ambiguity (e. g., English like may be a preposition, verb, adjective, or noun, but only the verbal interpretation is proper in the word form liking). The earliest explicit large scale exposition of this idea may be found in Karttunen/Root/Us z koreit’s (1981) TEXFIN program which is a complete morphological analyz er and synthesiz er for Finnish (but also cf. e. g. Kay 1977, 168). Finally, the chart parsing formalism is notable for its explicitness in the morphology-syntax interface. Morphological anal-

21.  Computational Testing of Linguistic Models in Morphology

ysis is only one part of the parsing process. Its output has no special value outside the global context of syntactic structuring and semantic interpretation. Already the Kay/Martins’ (1970) paper provides a detailed discussion of matters such as consistency checks of adjacent morphological elements, suppression of irrelevant ambiguities, retrieval of morphological information from the lexicon, and proper design of it for further syntactic and semantic processing. These are areas where autonomous grammar models tend to have little to offer but which are highly relevant once one broaches the task of integrating all the subsystems of language structure. In fact, we would see one of the main (both theoretical and practical) benefits of computational modelling in the possibility of interfacing all subsystems and making them work as a unified whole on sufficiently large domains (in terms e. g. of lexicon siz e and of coverage of a vast number of full and reduced clause structures).

3.

Kaplan and Kay’s Morphographemic Transducer

Kaplan/Kay’s (1981) paper on phonological rules as finite state transducers has had a major impact on computational morphology in the 1980s (cf. Kay 1983 b). Theoretically, its significance lies in the possibility of translating ordinary phonological rules (in the generative sense, i. e. morphophonological rules) into two-tape finite-state transducers similar to finite-state machines except for the number of tapes. This provides an independent way of construing (one aspect of) the notion ’morphological complexity’. In particular, it conveys the interpretation that morphophonological alternations are “simple” in the sense that (many of them) may be modelled by formally very simple abstract machines. Fig. 21.3 displays Kay’s (1983 b, 100) transducer for (a simplified version of) the rules governing the spelling of the endings of regular English plural nouns and third person singular verbs. The designated characters S and Y have obvious morphophonological interpretations. The circles denote states, double circles potential final states. Character pairs refer to corresponding characters on the lexical level (represented as a search tree, cf. 2. above) and the level of surface graphemes. Arcs show state transitions when a certain pair (lexicalsurface character correspondence) is en-

247

Fig. 21.3: Transducer for some English morphographemic rules (Kay 1983 b, 100) countered. Epsilon denotes the empty symbol (i. e. ’nothing’). The label “others” refers to lower-case character pairs not mentioned on other arcs. Supposing that the lexical representation of the verb fly is flY , and that the transducer is fed with the surface straing flies , one sees that the character pairs f:f and l:l trigger no state transitions from the initial state 0. There is an allowed correspondence of lexical Y and surface i in state 0 with a subsequent transition to state 4. From this state there is i. a. a transition back to 0 if the current character pair e:e. Finally, the pair s:s in state 0 does not change the situation. Now the input string has been consumed and the system is in one of the designated final states. Therefore the transducer accepted the word form flies (furthermore, relevant routines of course retrieved a proper morphological representation from the dictionary). One of the interesting ideas of this approach is that the lexicon is not just a passive depository of items. Rather, it directs the operation of the transducer by actively evaluating the feasibility of encountered lexicalsurface character pairs. At least theoretically, there is a possibility of cascading all the different transducers needed for the morphological analysis of a language into a single large automaton where the number of states is in the hundreds or perhaps even the thousands.

4.

Koskenniemi’s Two-Level Model

Kimmo Koskenniemi’s (1983 a, b) two-level model for morphological analysis and synthesis is in some respects an elaboration of themes treated in 2.—3. above. In particular,

248

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

this concerns the use of finite-state automata for simulating morphophonological rules, and the use of linked minilexicons for describing morphotactic restrictions. The two levels are the lexicon and a string of characters constituting a surface wordform. The lexicon has an active role since it also specifies the morphotactic structure of the language and includes part of the morphophonological alternations. The rule component deals with the bulk of the morphophonological alternations. The two-level model is a unified model of word-form recognition and production. That is, the same linguistic description may be concretely run both as a word-form recogniz er and a producer. This is a major novel feature. In modelling language use, it is essential to strive for some level of description where recognition and production meet because it would be clearly unrealistic to claim that recognition and production are distinct to the extent of invoking separate lexicons. A central feature of the two-level model is that it provides a general, language-independent formalism for morpholexical description. The model supplies a computer program which can utiliz e descriptions of individual languages made according to a certain linguistically motivated formalism. The formalism provides a format for lexical entries and their possible continuation patterns, and rules for expressing correspondences between the lexical and surface levels. The task of the lexicon system in the twolevel model is more extensive than in most other models (except for Karttunen/Root/ Usz koreit’s (1981) TEXFIN model). In addition to listing lexical entries, it defines the morphotactic structure of word-forms as a network of pointers. The lexicon is thus an active lexico-morphological component. The two-level rule component treats fairly natural, transparent alternations, but in a manner different from that of generative theory. The rules do not perform sequential operations on strings but rather express permissible correspondences between the two levels. Nonnatural, opaque stem alternations are treated in the lexicon by listing the alternatives as such. Given a lexicon L with any number of entries, the two-level model purports not only to recogniz e and produce all the grammatical word-forms in relation to L, but also to spot all ungrammatical ones. ’Ungrammatical’ may mean either running counter to

the specifications given by L and the rules, or lacking an entry in L. The current scope of the two-level model is restricted to phonemic (or graphemic) surface representations and is based on the following simplified classification of morphophonological and morphological alternations: (i) ’Fairly natural’ one-segment modifications: mostly automatic, transparent, productive, exceptionless alternations between phonologically closely related single phonemes in predominantly phonological contexts. (ii) Suppletion-like unnatural alternations: alternations between either longer sequences of phonemes or between phonologically unrelated (or distantly related) single segments. These alternations are often opaque and unproductive. Only the first type is described by rules in the two-level model. Suppletion-like alternations are stated as lexical patterns equivalent to stem sets. Of course, there are borderline cases. Alternations of type (ii) may occur in quite common and productive inflexional types. E. g. all Finnish nouns ending in -nen are subject to a suppletion-like nen-se alternation. These words are both common (thousands of entries) and productive (e. g. in derivational suffixes such as -!ainen ’inhabitant of’, -mainen ’like’). The relevant stems are suppletively related: hevonen nominative singular ’horse’ hevose + n genitive singular ’of a horse’ No natural rules relate medial n and s, or delete word-final n, in such environments. To avoid ad hoc rules for transforming sequences of phonemes into other phonemes, the two-level model uses ALTERNATION PATTERNS. An alternation pattern is essentially a minilexicon containing the lexical representations of the alternatives. An alternation pattern is usually common to all members of a certain inflectional type. The root entries of the nouns hevonen ’horse’, ihminen ’human being’, and työläinen ’worker’ contain only the constant part of the nominative singular form (these are ’technical stems’ in the sense of Hellberg 1978). The variable part at the end is truncated. Note that the twolevel lexicon system needs only one instance of each alternation pattern, e. g. (4). All nouns of the same inflexional type refer to the same pattern. This mechanism captures a generaliz ation just as rules or operations do, but con-

21.  Computational Testing of Linguistic Models in Morphology

ceptually and operationally it is a part of the lexicon. No actions are implied, only references by way of pointers. The lexical continuation patterns build up networks of stems and endings of appropriate classes. Notice how this correlates with bottom-up, linear, left-toright processing, which should be basic attributes of models aspiring to treat the real process of word-form recognition. Inflexional endings are stored as MINILEXICONS and referred to by the lexical entries. Entries for words with only natural alternations refer to the whole set of relevant endings, e. g. for the noun lasi ’glass’: lasi ---> 0 nominative singular n A oblique singular ssA endings t en IA plural endings IssA ... Just as root entries may refer to ending minilexicons, the entries for endings may refer to further minilexicons. This is the mechanism used for describing morphotactic structure within the lexicon system. The reference mechanism combined with the alternation patterns proposes a solution to the problem of how to represent inflected forms in the lexicon. In a sense, all inflected forms ’are’ in the two-level lexicon because they can be retrieved and produced by following the pointers. On the other hand, there is only one entry per lexeme, and the alternation patterns and endings are shared by other entries. Natural (or near-natural) (morpho)phonological variations are dealt with by the rule component implemented as finite-state automata. Even here there is no effective step by step processing involved, and no prediction is made that forms with morphophonological alternations should be heavier to process. The two-level model is thus intermediate between the FLH referred to in 1., and the generative Derivational Hypothesis (that derives many word forms by applying directional rules). For the purposes of linguistic description, the lexicons are given as lists of entries. The sublexicon containing Finnish word roots is in this format: LEXICON Root

249

lastu lasi leivo ...

/S /S nen/S

’chip N’; ’glass N’; ’lark N’

Some lexemes are represented simply by their nominative stem in ordinary segmental form, others by the invariant part of the stem (e. g. hevo ) followed by a pointer to an alternation pattern (e. g. nen/S ) which, in turn, is a minilexicon. The two-level model postulates a lexical level defined by entries and pointers, and a surface level defined by phonemic or graphemic characters. These two levels are directly compared by the rules. Thus, no intermediate levels or stages exist. Rules check for permitted or required discrepancies between the two levels and they operate in parallel. Each rule states a certain constraint for the correspondence between the two levels. A certain lexical representation has a certain surface form as its realiz ation, and vice versa, when all pertinent correspondences stated by the rules are satisfied. Thus, the basic role of the rules is not to transform one representation into another, but to dictate in what relation the representations must be. The special checking nature of the TWOLEVEL RULES means that the rule component as such is nondirectional, but it can be used bidirectionally, i. e. both for word form analysis and generation. The lexical representations consist of phonemes, morphophonemes, and morphological features. Features are used for encoding grammatical information such as junctures or the presence of certain classes of endings. Morphophonemes represent one-segment alternations which need lexical marking. Features correspond to surface z ero, morphophonemes to ordinary phonemes. Consider the following example. The Finnish noun lasi ’glass’ belongs to the most common and productive type of nouns ending in i . The lexical representation of the partitive plural consists of the stem lasi, the plural morpheme I , and the partitive ending A. In the two-level framework the lexical representation lasiIA is written above the surface from laseja: Lexical representation: lasiIA Surface representation: laseja This configuration exhibits three morpho-

250

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

phonological alternations, all considered to be of the nonsuppletive type: (1) Stem final i is realized as e before the oblique plural morphophoneme I , schematically: have a correspondence

(2) The plural morphophoneme I is realiz ed as j between surface vowels, schematically:

(3) The partitive (like other endings) is subject to vowel harmony. Here, a lexical archiphoneme A is postulated which is realiz ed as ä or a according to stem harmony, schematically:

Two-level rules may refer both to lexical and surface representations. (1) refers to a certain lexical form, the oblique plural, not to any i . (2, 3) only refer to the surface. Alternations my be linked to each other, e. g. certain stem-final e, a, ä -vowels are realiz ed as z ero in front of the plural I , whereby the latter is realized as i . For linguistic purposes Koskenniemi uses a special two-level rule formalism for writing morphological descriptions. The rules corresponding to (1—3) are expressed as:

then there must be a preceding back vowel with no intervening front vowel” (but there may be other realiz ations for A in this environment). There are three types of two-level rules corresponding to the three operators (i) “ = >”, (ii) “< = ” and (iii) “< = >”. Rule type (i) with “ = > ” states that for an occurrence of the left hand correspondence pair to be acceptable, it must occur in the context given by the right hand side of the rule. Rule type (ii) with the operator “ < = ” states that a correspondence pair with the lexical segment specified in the left hand side of the rule occurring in the context given in the right hand side must have a surface realiz ation specified in the left hand side. The last type of rules (iii) with the operator “ < = > ” is most common. These rules combine the effects of types (i,ii), thus defining the necessary and sufficient environments for correspondences. Koskenniemi’s two-level rule component as a whole is less powerful than standard generative phonology due to the lack of rule ordering restrictions. The two-level model has been applied to several languages including English (Karttunen/Wittenburg 1983), Finnish (Koskenniemi 1983 a), French (Östling 1985), Japanese (Alam 1983), Old Church Slavonic (Lindstedt 1985), Polish (Borin 1985), Rumanian (Khan 1983), and Swedish (Blåberg 1985).

5.

Rule (4) is spelled out as “the lexical phoneme i is realiz ed as a surface e if and only if it occurs in front of the plural I ”. Rule (5) is read similarly: „the morphophoneme I is realiz ed as j if and only if it occurs between surface vowels. Rule (6) states that “if we

Hellberg’s Paradigm Model

Staffan Hellberg’s (1972, 1978) paradigm model designed for morphological analysis of Swedish word forms is an early comprehensive approach deserving special interest in this connection since it implements a version of word-and-paradigm morphology. It is relevant also because Hellberg aims at full coverage of the morphological system, i. e. including all types of variations, limitations, and extensions. The full description contains 235 paradigms, the lexicon some 8,600 lemmas (in 1978). Almost no rewriting rules in the standard sense are used. A typical paradigm in Hellberg’s procedural format looks like this (the words to the right just exemplify the forms of the paradigm):

21.  Computational Testing of Linguistic Models in Morphology

101 flick /a nn utr LO ≠ ---> 92 ---> e---> 96

flicka(s) flickan(s) flickor(s) flickorna(s) flick(s)flicke-

> 5 SH ---> 11 ---> (10)

First comes a mnemonic handle for the paradigm (101). The slant in flick/a marks the end of the technical stem. This part of the word is common to all paradigm members and represents the lemma in the dictionary. Then proper morphological information is given (here, nn = noun, utr = non-neuter gender). The rest of the paradigm description contains references to (numbered) subroutines invoked depending upon the segmental nature and length of the tail (i. e. the rightwards context). The notion ’subroutine’ is a partial functional predecessor to the minilexicons already treated in sections 2.—4. above. An expression such as “> 5” indicates the maximal segmental length of the tail for it to qualify as an inflectional coda. If the tail (in this example) is longer than 5, it is “LO(ng)” and referred to subroutines checking whether it is a derivative or a compound. Otherwise, the tail is “SH(ort)” and tested for inflectional status. These tests are performed in an order derived (roughly) from studies of textual frequency. The gable ≠ in the paradigm refers to the end of the linguistically motivatable stem. The gable has no direct function in the paradigms or subroutines aside from stressing that technical and linguistic stems are distinct. Suppose the word token at hand is flickornas. The technical stem flick is retrieved from the lexicon. Since tail length does not exceed 5, the paradigm description calls subroutine 11 which looks like this: 11 ---> a ---> ≠ 91 indef sing ≠ n ---> 91 def sing ---> ≠ o ---> 10 This routine accepts the segment o and gives a further reference to subroutine 10: 10 --->

r ---> n

---> --->

a

91 --->

indef 91 def

pl pl

The notable features of Hellberg’s approach are (i) the treatment of both morphotactic restrictions and morphophonological

251

alternations by way of subroutines that may be used for capturing partial intraparadigmatic similarities, and (ii) the centrality of the paradigm (rather than alternation rules). There are n o strict general analogues of the kinds of morphophonological alternation rules that are postulated in IP oriented models. Furthermore no abstract morphophoneme symbols or the like are used. The present writer has designed a morphological analyz er for Finnish along similar lines, but with a more pronounced emphasis on bringing out the partial paradigmatic similarities between classes of endings (Karlsson 1985). One central idea of this paradigmatic model is that the process of morphological analysis is guided by a lexicon of concrete phoneme-level stems derived by pattern rules from an ordinary lexicon with basic forms. The pattern rules deriving the stem lexicon have as their main function to properly discriminate between productive and unproductive inflectional patterns. Thus, the integration of a new word into the lexicon is viewed as assigning to it a pattern of inflectional stems together with their appropriate morphotactic information. Once these stems have been determined by the patterns and entered into the stem lexicon, only the latter is used in analyz ing forms. No rewriting rules or even automata are used in the analysis process. The pattern rules deriving the stem lexicon are of the general form < lexical phonological shape > ---> < phonological stem(s) >. All morphotactic and morphophonological generaliz ations are embodied in paradigms and subparadigms that flexibly may refer to one another.

6.

Literature (selected)

Y. Alam 1985 · O. Blåberg 1985 · L. Borin 1985 · B. Brodda/F. Karlsson 1980 · S. Hellberg 1972 · S. Hellberg 1978 · W. Hoeppner 1980 · W. Hoeppner 1982 a · R. Kaplan/M. Kay 1981 · F. Karlsson 1985 ed. · L. Karttunen/R. Root/H. Usz koreit 1981 · L. Karttunen/K. Wittenburg 1983 · M. Kay 1973 · M. Kay 1977 · M. Kay 1983 b · M. Kay/G. Martins 1970 · R. Khan 1983 · K. Koskenniemi 1983 a · K. Koskenniemi 1983 b · K. Koskenniemi 1985 a · K. Koskenniemi 1985 b · J. Lindstedt 1985 · A. Östling 1985 · D. Reimann/B. Rüdiger 1982 · B. Rüdiger 1975 · K. Sparck-Jones 1983 · T. Winograd 1983.

Fred Karlsson, Helsinki (Finland)

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

252

22. Computational Testing of Linguistic Models in Syntax and Semantics 1. 1.1. 1.2. 1.3. 1.4. 2. 3. 3.1. 3.2. 3.3. 4. 5. 5.1. 5.2. 5.3. 5.4. 6. 7. 8.

Introduction Motivations Linguistic Background Programming Languages and Computers Outline Yngve’s Random Generation Program Transformational Grammar Programs First Systems Friedman’s Transformational Model Interactive Transformational Models Functional Generative Description Models Programs for Montague Grammar Montague Grammar and Computational Testing Janssen’s Program System of Friedman, Moran, and Warren Indurkhya’s Program Programs for Unification Grammars Conclusions Literature (selected)

1.

Introduction

1.1. Motivations Computational testing of a linguistic model serves a dual purpose: it provides direct information about the model itself, and it assists in developing grammars in accord with the theory. There are some definite demands on a linguistic theory if a computational model is to be created. A theory which is generally vague cannot be modeled as a program unless an exact specification can be completed. Thus, if the initial linguistic theory is insufficiently explicit, the author of the computer model must make assumptions in order to provide an explicit form. This explicitness must be present not only in the form of the grammar, but also in the algorithms provided by the theory to analyz e or to generate sentences. A linguistic theory for which a computer model exists must then be an explicit theory, although additional formaliz ation provided in the computer modeling may fail to accord with the original intentions of the linguist. To be of interest for computational testing, the theory must be one in which grammars can be written. A consequence of computer modeling has been to reveal the extent of the difficulties involved in setting down an explicit grammar according to the theory. An obvious but important point is that the model

must contain mechanisms so that the details of rules and the interactions of rules can be expressed. Given that the theory can be modeled, the computational model then can serve a second function, that of grammar tester. Grammar writing is difficult because of the large number of details to be considered at each step. Not only must each individual rule perform correctly in isolation, but the rules must work together as a grammar. Grammar writing is much more difficult than rule writing. The intricate interrelations of the individual rules of a grammar make grammar writing a complex and error-prone process, much like computer programming. Unexpected consequences can arise from the interactions of rules which perform as intended in isolation. This is particularly true for models that treat both syntax and semantics, because there is an additional set of interactions to be considered. After a grammar has been shown to work, in the sense that each rule works and the rules interact correctly, the most interesting question can be examined. Does the grammar correctly account for the facts of the language? Computer generated data can be valuable evidence toward a conclusion. This article surveys work done between 1960 and 1986 on computer programs designed to enable their users to experiment with linguistic models in syntax and semantics. The programs were mainly developed because of the sense that modern generative grammars, regardless of the particular version of generative grammar, are sufficiently complex that a computer program offers ways of observing facts about the grammar that are otherwise unavailable. By writing grammars in the form provided by the theory, and examining the sentences they accept or generate, new insights are offered to the linguist. In some cases, the programs have been claimed to validate a theory, that is, to show that the model is indeed adequate to the aspects of a language it attempts to cover. In other cases, the result is not so much that the theory is substantiated, but that the program provides a means to develop and gradually improve grammars within the theoretical framework, displaying at the same time the strengths and weaknesses of the theory. Com-

22.  Computational Testing of Linguistic Models in Syntaxand Semantics

puter testing is done to show that certain theories are adequate, to show that others are not, but most often as part of an investigation to see if they are adequate. 1.2. Linguistic Background To ’test’ a grammar on a computer requires that the theory provide some precisely specifiable form for a grammar and also some testable claims. Typically, the tester is to show that the grammar rules provide for the generation of certain sentences and not others. The theory of generative grammar, as originally proposed by Noam Chomsky and elaborated by him and others, has evolved in many various ways over the last thirty years, but from the very beginning, the form and claims of generative grammar have suggested the appropriateness of computer checking. Chomsky’s Syntactic Structures (1957, 1) offers a criterion that invites computer testing: “We can determine the adequacy of a linguistic theory by developing rigorously and precisely the form of grammar corresponding to the set of levels contained within this theory, and then investigating the possibility of constructing simple and revealing grammars of this form for natural languages.” This would appear to suggest that writing substantial grammar fragments would be appropriate and that the use of computers would be a natural aid in linguistic research. Nonetheless, this did not motivate the theory: “It is a curious fact that this condition of preciseness of formulation for the rules of a generative grammar has led many linguists to conclude that the motivation for such grammars must be machine translation or some other use of computers, as if there could be no motive in clarity and completeness other than this.” (Chomsky/Halle 1968, 60). As the complexity of linguistic models has increased, computer testing has become all that much more useful in examining claims about what structures or sentences a grammar generates. Most generative theories proposed today are considered in conjunction with some computer program. In some sense, every computer program that embodies a grammar is a ’grammar tester’. The grammar must be shown to be adequate for the purposes of the program. In this article we take a narrow scope and restrict attention to programs which have as their express purpose the testing of linguistic models in syntax and semantics.

253

1.3. Programming Languages and Computers The period of this survey has been a remarkable one in the development of computer technology. The differences in the various programs surveyed must be attributed both to changes in the linguistic models and to changes in the computer hardware and software available for developing the systems. The earliest systems are batch systems on slow equipment; papers typically describe execution time in seconds. There is then a gradual development into on-line systems, with increasing interaction with the user. The technology of the 1980’s makes possible a sophistication in grammar testers that is far beyond what could have been considered in earlier years. Single-user non-timeshared interactive work-stations, with window displays and mouse control, now make possible a style of working that allows users great freedom in manipulating grammars and structures. It is interesting to note that almost every available programming language has been used in the programs surveyed here. The languages used include COMIT, FORTRAN, JOVIAL, PASCAL, PL/I, LISP and PROLOG. In a few cases, the choice is associated with the belief that the language is particularly appropriate to the problem domain. In most cases, it is determined by the languages that are available to the programmer and to the anticipated users. 1.4. Outline The brief period of the survey corresponds to the entire history of generative grammar as it has gone through its many changes. Grammar-testing programs thus give one view of how linguistic models have changed in that period. The first program discussed in this article is by Yngve who set out to show that phrase structure grammars, without transformations, sufficed for English. The survey then takes up programs written for the transformational model, including a design for a tester by researchers at IBM, a major system development by Friedman and co-workers at Stanford University, and several early interactive grammar testers for transformations. We then mention briefly work with several versions of the Cz ech model of functional generative description. Three different treatments of Montague’s logico-linguistic model are then introduced. This is the first of the

254

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

models treated that has a major semantic component. In this case there is a formal semantics that is rule-for-rule parallel to the syntactic treatment. PATR, the final system that is discussed, deals with grammars written in a recent generaliz ed formalism called ’unification grammar’.

2.

Yngve’s Random Generation Program

The earliest published program in testing of grammars was the 1961 program of Yngve (1962 b), who used random generation to provide an argument for a class of grammars which he claimed could meet the necessary criterion of a grammar of a natural language, namely, that it generate only sentences of the language. He selected as his initial set the first ten sentences of a children’s book, Lois Lenski’s “The Little Train”, and wrote a finite unordered set of phrase structure rules that generated these sentences and an infinite set of others on the initial vocabulary. The program was written in COMIT, a programming language invented by Yngve (1958) for work with natural language. Yngve’s program generated sentences from the sentence symbol S by selecting rules at random from the possible expansions of each symbol encountered. Every sentence thus obtained is, for a phrase structure grammar, a good result. And if it is not English, the fault lies not with the computer program, but with the grammar. By weighting the rules of the grammar, Yngve was able to favor interesting sentences. Yngve’s program was motivated both by possible use in a translation routine and as a test of his hypothesis (Yngve 1960) that a particular language model was adequate for English. The model was a phrase structure grammar, with discontinuous constituents, and with a specific restriction of the temporary memory used in parsing to seven symbols. The essential hypothesis under test is that a phrase structure or immediate constituent framework with rules allowing discontinuous constituents can be used as the basis for a model of sentence production, and that any shortcomings can be overcome. Yngve (1962 b, 71) regarded the experiment as a success: “The results of this experiment led to several conclusions. No shortcomings have appeared in the type of program used. No reason has yet appeared for doubting that it would be possible to use this same

formalism for a complete grammar of English.”

3.

Transformational Grammar Programs

3.1. First Systems 3.1.1. Transformational Parsers The earliest computer systems for transformational grammar were those of Petrick (1965) and the MITRE Corporation (Zwicky/Friedman/Hall et al. 1965). Both of these systems considered the parsing problem, that is, given a sentence, to find its underlying structure or structures according to a given transformational grammar. A proposal for a transformational parser was also put forward by Kuno (1965 a). Although these programs proved valuable in developing an explicit form of transformational grammar and in testing grammars, they were not motivated by considerations of grammar testing, so they are not considered in this article. 3.1.2. Sakai and Nagao’s Semantic Generation Sakai/Nagao (1965) describe a semantic generation program written as a test of transformational linguistic theory. The generation scheme consisted of generation of kernel sentences by phrase structure rules, application of transformational rules to the kernel sentences, and completion of a sentence by morphophonemic modifications. The important new idea was that a system of word semantics was utiliz ed in the generation of kernel sentences; semantic categories for nouns and verbs were used to determine word selection. The objective was to obtain sentences that were not only syntactically correct, but also meaningful. Limited success was obtained. 3.1.3. The IBM Core Grammar Project An ambitious project calling for both the specification of a formal model corresponding to transformational grammar and the development of a program to allow grammar testing was undertaken at the IBM T. J. Watson Research Center in the mid 1960’s (Lieberman 1966). A fully specified model of transformational grammar was set down and an extensive grammar, called the “IBM Core Grammar”, was written in the formalism. The desired results of a generation program

22.  Computational Testing of Linguistic Models in Syntaxand Semantics

were simulated, and sixty-six hand-constructed examples of derivations were provided, giving at each step the name of the transformation which applied and showing the intermediate tree structure obtained. These materials were designed to be used with a concurrently developed program; they subsequently proved also to be very useful in testing Friedman’s transformational grammar program, and were used by Londe and Shoene as well. Lieberman (1966) argues the case for computer testing of transformational grammars and gives a number of design criteria. In particular, he stresses that the input formats should be linguistically natural. A format is given in detail; however, the associated program development did not reach the point of implementing the format. Blair (1966) describes the LISP program development that was part of the project. The first stage was a grammar compiler that expanded each rule and transformation into a set of simple rules without the abbreviatory notation used on input. Next came a derivation tester which checked to see if the grammar would produce a hypothesiz ed derivation. The input to this process was the structure to be derived and a derivation expressed as an ordered sequence of phrase structure rules followed by an ordered sequence of transformation numbers. The objective was to test whether the rules in fact produced the structure. 3.2. Friedman’s Transformational Model The system for transformational grammar written by Friedman and co-workers (Friedman 1969 b and 1971) at Stanford University in the late 1960’s was designed to facilitate the writing of grammars by making computer testing a fundamental part of the process. The project took a formal approach; a description of transformational grammar was provided in a formal language (a version of Backus Naur Form), and the programs accepted any grammar written according to that description. In contrast to the earlier transformational grammar systems of Petrick, the MITRE Corporation, and Kuno, the system was not a parser, but was a strictly generative system designed to be used as a tool in writing grammars. Transformational grammarians seemed to agree that if the theory was correct, it should be possible actually to write transformational grammars of natural languages; the system was intended to make it possible to do

255

this in a way that allowed the grammars to be tested. No other application of the system was envisaged. The computer system was intended as a computational aid to the linguist in the role of writer of grammars of natural languages. It was specifically intended to test grammars, not just grammar rules, because it is the interaction of the rules that makes transformational grammars so interesting, and so difficult to write. The authors of the system were anxious not to impose their own views of what was appropriate from a linguistic perspective. The idea was to remain as faithful as possible to the ideas expressed in Noam Chomsky’s Aspects of the Theory of Syntax (1965), while at the same time achieving the precision needed for sentence generation by computer. In cases where points of the theory had come into dispute, the choice was often to leave crucial theoretical decisions to the individual grammar writer, rather than imposing a single decision on all users. For example, the order of lexical insertion was specifiable by the user, rather than being always Verb first. The specificity of the description of transformational grammar provided in the linguistic literature was, however, not adequate to be used without modification as a guide to inputs to a computer program. The first step was thus to develop a precise format for writing grammars, and an exact statement of the algorithms by which sentences are derived. The formats resembled as closely as possible those used in the literature, but changes were necessary to accommodate a linear format and, even more importantly, to avoid ambiguity in the statement of rules. Since there was no description of grammar sufficiently detailed or rigorous to serve as the basis for a computer system, the group undertook to develop a formal model of transformational grammar. As the computer system progressed, changes were made and details filled in. The result is a precisely defined interpretation of the original theory presented by Chomsky. The model consists of a format for grammars and algorithms for deriving sentences. The unique features of the model and the system include a formal description of the syntax of transformational grammar, a phrase structure generation scheme which enables the user to direct an otherwise random generation process towards interesting trees (Friedman 1969 a), a complete format for the lexicon and a lexical insertion algorithm, a

256

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

unified treatment of lexical insertion and transformations, and a language for specifying the ’traffic rules’ of a grammar. In the model there is some freedom to make theoretical choices among well-defined alternatives. Consequently, it is flexible enough to adapt to a range of possibilities within the theory of transformational grammar. The computer system operates in batch mode, first accepting the three parts of a grammar: phrase structure rules, lexicon, and transformations, and then generating sentences. As the grammar is read in, it is checked for errors and messages are produced; an effort was made to write the system so that it would go all the way through the grammarchecking on each run, not terminating at errors, so that the maximum number of problems could be detected on each pass. Once the grammar input is complete, sentences are generated according to the input specifications. A particular run is specified by a list of subroutines, indicating which of the basic components of the grammar is to be tested. For the phrase structure component the user has the option of entering a base tree, or generating one from a skeletal structure for the desired trees. The next step is lexical insertion, which was also optional. Finally, the transformational component is called, and the transformations are applied, in a cyclic order specified in the grammar itself. The system was written in FORTRAN, a decision that made parts of the work quite difficult, but which was justified by the plan to make it available to other installations. The system was used for a number of grammars at Stanford as it was being written and was moved to The University of Michigan in 1968. It was also distributed rather widely. It was brought up for use at the University of Montreal, IBM Germany, Brown University, North Carolina State University, the University of San Francisco, the University of North Carolina, the University of Georgia, Washington State University, the University of British Columbia, KVAL in Stockholm, Ohio State University, and IBM T. J. Watson Research Center. In many of these locations it was used for writing grammars for research purposes. The model also proved useful i n teaching generative grammar, and courses designed around it were offered at several universities. The system was the basis of several com-

puter-tested grammars for fragments of English, including the IBM Core Grammar (Lieberman 1966), a subset of the grammar produced by the UCLA grammar project (Stockwell/Schacter/Partee 1973), a study of textbook transformational grammar (O’Malley 1973), one showing how the system could be extended to do case grammar (Friedman 1973), and another showing variation in the cycle structure of transformational grammar (Smith 1975). Other grammar fragments included French (Morin 1973), Old English, Japanese (Smith 1970), German (Rohrer/von der Mülbe 1970), Portuguese, Rumanian, the American Indian language Serrano, and the Persian dialect Vafsi-Tati (Stilo 1971). The system of Rochon (1971) was an adaptation of the Stanford version of Friedman’s tester. It was implemented at Montreal for use in work on grammars of French, for example, Querido’s (1971) study of verbs. This was the first grammar tester to be used extensively by linguists other than the programmers themselves, and it contributed to linguistic research and teaching. However, its main impact was that it brought out clearly the immense difficulties in writing coherent transformational grammars. 3.3. Interactive Transformational Models The systems of Gross (1968) and of Londe/ Schoene (1968) were the first interactive grammar testers. They both dealt with the transformational component of a transformational grammar. Gross’s system is an interactive rule tester written in LISP. It provides functions that can be used to construct a tree, and other functions to define transformations and specify the conventions for applying them. The program can then be used to apply the transformations to a tree and display the intermediate results if desired. Londe and Schoene interacted with the user via teletype; they used a screen display to show the trees that resulted at each stage of transformation. An interactive version of Friedman’s system was developed by Bátori (1973) at IBM Germany. His contributions consist in modifying the input and output of the system to be appropriate for on-line use. In particular, there is variation in the order of the inputs, and the user has control of how much output is to be produced in terms of tree display and feature display. Error messages have also been expanded to be readable separately from the full input grammar.

22.  Computational Testing of Linguistic Models in Syntaxand Semantics

4.

Functional Generative Description Models

The Functional Generative Description of Cz ech has also been tested by several programs. Machová and Říha (Říha/Machová 1975; Machová/Říha 1978), following the model of Sgall (1967 b), describe a program that accepts a description of Cz ech, transduces it into an internal representation, and then derives random sentences around a skeletal input. The authors report that “the most significant contribution of the experiments with computer generation of sentences is the fact that a linguist, when analyz ing them, takes notice of some linguistic phenomena or relations between them ... which were not originally included” (Machová/ Říha 1978, 51). They include a list of phenomena found in the experiments showing ways that the grammar needed to be expanded to give a proper account of the language. Panevová (1982) uses random generation with the linguistic model of Hajičová/Sgall (1980 a). It employs a context-free grammar combined with elements of the dependency approach and other components in the form of push-down store automata. The program generates semantic representations of Cz ech sentences and transduces them to surface form. The author reports that “the system of programmes for the transductive components is extremely complex and due to this fact the linking of its partial programmes (procedures and subprocedures) for individual automata is a difficult task from the point of view of computer storage and of the human work concerning the debugging of the programmes” (Panenová 1982, 298). She also points out that the grammatical description formulation itself is developing more quickly than the programs can reflect. This was a problem for computational testing of other linguistic theories as well.

5.

Programs for Montague Grammar

5.1. Montague Grammar and Computational Testing By 1971, when Montague proposed a formal grammar for natural language syntax and semantics (Montague 1973), it seemed obvious to try to carry out a computer implementation of this grammar, called ’PTQ’, abbreviating the title of the paper, The Proper Treatment of Quantification in Ordinary English.

257

As befits Montague’s very formal approach, a greater emphasis was given by all workers to proving that the algorithms underlying the programs were correct. Writing a grammar tester becomes a means of organiz ing theoretical and formal issues. The programs for PTQ contrast with the transformational grammar testers because rather than creating a system to accept arbitrary grammars in a specified format, the Montague grammar programs each have a specific grammar built in, either the PTQ fragment itself, or some extension of it. This is a consequence of Montague’s work: the system of Montague (1970) is too general to be used as the basis for grammar testers; PTQ is specific, and it proved difficult to try to set out exactly what would count as a grammar in that style, although Landsbergen (1981) gave one proposal for a class of grammars including PTQ. In the course of computational modeling a number of errors and problematic treatments in PTQ were noted. The PTQ Montague defines a syntax and semantics for a fragment of English. The syntax is given by rules in the style of an extended categorial grammar. Semantic rules, paired with the syntactic rules, provide a translation into intensional logic. A modeltheoretic semantics is defined for the logic, so that the truth-conditions for a sentence are those of the corresponding logical formulas. Implementations of all or part of Montague’s PTQ system have been carried out by Janssen (1976; 1978), Friedman and co-workers (Friedman/Warren 1978; Friedman/Moran/Warren 1978 a and b; Warren 1979; Moran 1980), and Indurkhya (1981). These systems vary in their scope. They also differ in the ways they use Montague’s meaning postulates to obtain extensional formulas and in the details of the treatment of logical reduction, but obtain essentially the same resulting formulas. 5.2. Janssen’s Program Janssen’s program (1976; 1978) is generative. It begins by generating a syntactic structure according to the syntactic rules. The sentence corresponding to the structure is formed and likewise the corresponding formula of intensional logic is produced. A reduction process is applied to this formula to yield a simplified formula. Janssen explicitly lists the reduction rules and provides proofs of their correctness.

VI. Computer-Aided Description of Language Systems III:Testing of Rule Systems

258

5.3. System of Friedman, Moran, and Warren The system of Friedman/Moran/Warren (1978 a and b) is a computational simulation of the full framework of PTQ. Its first component is an ATN parser for PTQ; this can easily be switched to become a generator (Friedman/Warren 1978). Next there is a logical reduction to an irreducible normal form. The extensionaliz ation process is then carried out. In one version of the system (Warren 1979 and Warren/Friedman 1982), the parsing and semantic reduction are done in an intermixed fashion. This system also includes a semantic component with a finitiz ed approximation to a full possible-worlds logical model (Moran 1980). The user of the system begins by parsing some sentence of the English fragment and obtaining the logical formulas corresponding to each of its meanings. Then, according to PTQ, the truth-conditions for the sentence are those of the formulas; the truth of the sentence can be found by evaluating the formulas in the model at the appropriate possible world and time. A model for this system would be infinite in many dimensions. Thus the system was designed to simulate or approximate a full possible-worlds model by a finite submodel, a ’dynamic model’, which increases in siz e as more information is needed to evaluate formulas. The functions i n the model are expressed in the submodel as partial functions, defined only on the objects already in the dynamic model. This allows the user to build a model with only a few specifications and to expand it interactively in the course of evaluating sentences. This component gives the user a concrete understanding of the abstract concept of infinite possible-worlds model. 5.4. Indurkhya’s Program Indurkhya’s program (1981) does analysis, translation, and logical reduction. It differs from the parsing and translation program of Friedman and Warren mainly by being based on a concept of M-grammars developed by Landsbergen (1981). Because of this it is more readily extended to Montague grammars other than PTQ.

6.

Programs for Unification Grammars

The attitude of linguistic theorists toward

computer analysis of linguistic phenomena has become very positive in the 1980’s. Much current work in generative grammar, including Generaliz ed Phrase Structure Grammar (Gaz dar/Klein/Pullum et al. 1985) and Lexical Functional Grammar (Kaplan/Bresnan 1982) favors precise specification of complete grammars, and thus naturally uses computers. Indeed, the current use of computers in theoretical linguistics is often an integral part of the work: grammars and grammatical theories are developed in conjunction with the computer programs that process them. The extensive grammar developed by Robinson (1982) was developed with the aid of programs. The PATR series of programs at SRI and the Center for the Study of Language and Information at Stanford (Shieber/Usz koreit/ Pereira et al. 1983) is a modern interactive environment for developing ’unificationbased’ grammars. The programs perform automatic analysis of sentences relative to a grammar written in the specified grammar formalism. The PATR formalism is suitable for a range of grammars which consist of phrase structure rules augmented with feature structures. Grammar formalisms covered either directly or indirectly by the PATR formalism include Lexical Functional Grammar (Kaplan/Bresnan 1982), Generaliz ed Phrase Structure Grammar, Head-driven Phrase Structure Grammar (Pollard 1984), and Functional Unification Grammar (Kay 1985 a). It also covers categorial grammars and can encode definite clause grammars. The development has been particularly directed towards formalisms with a lexical orientation. The underlying information structure of the PATR formalism is a pairing of strings and recursively-defined feature structures in which the value of a feature can be another feature structure; structures are represented as directed acyclic graphs. The use of PATR, as described in the literature, has so far been by the implementers of PATR, for fragments of English in a range of styles of analysis. The phenomena which have been dealt with include both syntactic and semantic analyses, using logical formulas as the semantic representation. The formalism has been implemented on several different LISP machines and the programs take advantage of the interactive window- and mouse-oriented environment. The core of the programs consists of a parser using chart-parsing algorithms, a unification

22.  Computational Testing of Linguistic Models in Syntaxand Semantics

component, and a morphological analyser. Grammar development is facilitated by allowing persual of the grammar and of the chart created during parsing, and by allowing incremental grammar updating (Shieber 1985 b). Another system using the window environment has been developed by Kaplan at Xerox for writing and debugging Lexical Functional Grammar. This system has been demonstrated publicly, but has not yet been described in the literature.

7.

Conclusions

Computer modeling and testing of linguistic theories have followed along with the development of generative grammar. Major systems have been developed for transformational grammar, Montague grammar, and more recently, for a class of unification grammars. As computer technology has become more sophisticated, these systems have become easier to use and have become attractive to a wider group of generative grammarians.

8.

Literature (selected)

I. Bátori 1977 · F. Blair 1966 · N. Chomsky 1957 ·

259

N. Chomsky 1965 · N. Chomsky 1982 · N. Chomsky/M. Halle 1968 · J. Friedman 1969 a · J. Friedman 1969 b · J. Friedman 1971 · J. Friedman 1973 · J. Friedman/D. S. Warren 1978 · J. Friedman/D. B. Moran/D. S. Warren 1978 a and 1978 b · G. Gaz dar/E. Klein/G. Pullum et al. 1985 · L. N. Gross 1968 · E. Hajičová/P. Sgall 1980 a · B. Indurkhya 1981 · T. M. V. Janssen 1976 · T. M. V. Janssen 1978 · R. Kaplan/J. Bresnan 1982 · M. Kay 1985 · S. Kuno 1965 a · J. Landsbergen 1981 · D. Lieberman 1966 · D. L. Londe/W. J. Schoene 1968 · S. Machová/A. Říha 1978 · R. Montague 1970 · R. Montague 1973 · D. B. Moran 1980 · Y.-C. Morin 1973 · M. O’Malley 1973 · J. Panevová 1982 · S. R. Petrick 1965 · C. Pollard 1984 · A. A. M. Querido 1971 · A. Říha/S. Machová 1975 · J. J. Robinson 1982 · J.-F. Rochon 1971 · C. Rohrer/U. von der Mülbe 1970 · T. Sakai/M. Nagao 1965 · P. Sgall 1967 b · S. Shieber 1985 · S. M. Shieber/H. Usz koreit/F. C. N. Pereira et al. 1983 · D. L. Smith 1970 · D. L. Smith 1975 · D. L. Stilo 1971 · R. Stockwell/P. Schacter/B. H. Partee 1973 · V. H. Yngve 1958 · V. H. Yngve 1960 · V. H. Yngve 1962 b · D. S. Warren 1979 · D. S. Warren/ J. Friedman 1982 · A. M. Zwicky/J. Friedman/ B. C. Hall et al. 1965.

Joyce B. Friedman, Cambridge, Massachusetts (USA)

260

VII. Computer Simulation of Language I: Basic Problems Computersimulation von Sprache I: Grundprobleme

23. Übersicht über die Verstehensproblematik hinsichtlich der Computersimulation von Sprache 1. 2. 2.1. 2.2.

4.2. 5. 6.

Einleitung Typologie des Verstehensbegriffs Dialogverstehen vs. Textverstehen Alltagssprachliche und wissenschaftliche Verstehenstheorie Der operationale Verstehensbegriff der Computerlinguistik Der Wissensbegriff in der CL Verstehen als modularer Prozeß Computerorientierte Modelle des Sprachverstehens Grenzen und Möglichkeiten der Computersimulation von Verstehen Grenzen der Simulation von Verstehensprozessen Verstehen in Dialogsystemen Ausblicke Literatur (in Auswahl)

1.

Einleitung

3. 3.1. 3.2. 3.3. 4. 4.1.

Das entscheidende Phänomen der zwischenmenschlichen Kommunikation, das in der Geschichte der Geisteswissenschaften viele Erklärungsversuche hervorgebracht hat, ist die Tatsache, daß Menschen sich gegenseitig verstehen. Man hat sich zu allen Zeiten gefragt, wie es überhaupt zu einem gegenseitigen Verstehen in zwischenmenschlicher Kommunikation kommen kann, wie ein Mensch den von einem anderen formulierten Text verstehen kann, wie ein Mensch überprüfen kann, ob ein anderer ihn verstanden hat. Die meisten Erklärungsversuche setzen mehr oder weniger stillschweigend die grundsätzliche Möglichkeit von zwischenmenschlichem Verstehen voraus; es hat jedoch auch immer wieder Theorien gegeben, nach denen ein Verstehen zwischen Menschen grundsätzlich nicht möglich sei. Diese allgemeine Verstehensproblematik verbindet sich sogleich mit der Frage nach dem Verstehen sprachlicher Äußerungen. Wie entschlüsseln Menschen ihre Aussagen,

Fragen, Befehle und wie werden diese verarbeitet? Seit es Computer gibt, mit denen man regelhafte Prozesse der Sprachverarbeitung ausführen und damit Teile der sprachlichen Kommunikation im Sinne einer Mensch-Maschine-Kommunikation darstellen kann, bemüht man sich, das Problem des Verstehens auf neue Weise zu lösen. Man entwickelt Systeme, in denen der Mensch mit dem Computer kommuniziert, und bezeichnet diese Systeme als Sprachverstehenssysteme (Englisch: Natural Language Understanding Systems, NLU), weil sie Eigenschaften aufweisen, die auch in zwischenmenschlicher Kommunikation auftreten. Häufig wird sogar der Anspruch erhoben, daß es sich um Abbildungen tatsächlich im Menschen ablaufender Verstehensprozesse handele. Dieser Anspruch wird schon in den Titeln vieler Beiträge deutlich, z. B. Terry Winograds „Understanding natural language“ (1972), Gordon I. McCalla/Jeffrey R. Sampsons MUSE (= „A Model To Understand Simple English“; Quillians „Teachable Language Comprehender (TLC)“; „An Integrated Understander“ (Schank/Lebowitz/Birnbaum 1980). Was mögliche Unterschiede zwischen dem Deutschen ’Verstehen’ und den Englischen Wörtern ’understand’ und ’comprehend’, die in entsprechenden Wörterbüchern als synonym angegeben werden, betrifft, so hat es den Anschein, daß sie als äquivalent anzusehen sind.

Man verfolgt in diesen Systemen im wesentlichen zwei Ziele, nämlich — erstens das wissenschaftliche Ziel, theoretische Modelle des Verstehens und der sprachlichen Kommunikation zu entwickeln, diese in ablauffähige Algorithmen zu übersetzen und durch deren Test Einsichten in die Funktion der Verstehensprozesse in natürlichen menschlichen Systemen zu erhalten. Diese empirische Methode der Computersi-

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

mulation ist heute etwa in der kognitiven Psychologie durchaus an die Seite der etablierten experimentellen Verfahren getreten (von Hahn 1978; Wettler 1980, S. 8 ff.; Lenders 1975 und 1980). Mit ihr hat man Modelle und Theorien des sprachlichen Verstehens entwickelt, die uns eine wesentlich genauere Einsicht in die Vorgänge vermitteln, die in zwischenmenschlichen Verstehensprozessen ablaufen (vgl. dazu Lindsay/Norman 1977; ferner Wettler 1980; Aebli 1980 und 1981). Trotzdem bleibt „understanding“ nach wie vor „a concept that is hard to define“, wie Charniak/McDermott (1985, 555) feststellen. — Zweitens hat man, z. T. auf der Grundlage derartiger Modelle, künstliche Systeme konstruiert, in welchen Prozesse ablaufen, durch die natürliche Kommunikationsprozesse simuliert werden, und diese in praktischen Anwendungsgebieten eingesetzt. Nach wie vor stellt sich jedoch der Verstehensprozeß, wie die Theorien und die entwickelten Systeme zeigen, so komplex dar, daß bisher nur einfache künstliche Anwendungssysteme konstruiert werden konnten, die sprachliches Verstehen in sehr begrenzten Bereichen simulieren. Im vorliegenden Artikel geht es darum, das Problem des Verstehens aus einer übergeordneten Sicht in seiner geistesgeschichtlichen Dimension zu skizzieren. Im Zusammenhang damit wird zunächst eine systematische Darstellung verschiedener Verstehensbegriffe versucht, aus der hervorgehen soll, in welchem Verständnis dieses Begriffs und vor welchem geistesgeschichtlichen Hintergrund man sinnvollerweise von maschineller Verstehenssimulation sprechen kann. Anschließend werden der Verstehensbegriff, wie er in der Computersimulation (Computerlinguistik) vorliegt, zugrunde gelegt und die mit diesem Begriff möglichen Einsichten erläutert. Es wird darauf eingegangen, in welchem Umfang dieser Verstehensbegriff das Phänomen des Verstehens abdeckt und welche Form des Verstehens bzw. welche Sichtweisen ungelöst bleiben.

2.

Typologie des Verstehensbegriffs

Wenn man sich mit einer Systematisierung des Verstehensbegriffs befaßt, so liegt es nahe, sich in allgemeinsprachlichen und fachsprachlichen Wörterbüchern umzusehen, in welcher Verwendung das Wort ’Verstehen’ vorkommt und wie dieser Begriff definiert wird.

261

2.1. Dialogverstehen vs. Textverstehen In einem ersten Systematisierungsschritt ist es notwendig, sich darüber Klarheit zu verschaffen, ob man es mit ’Verstehen’ in dialogischer Kommunikation (Dialogverstehen) zu tun hat oder mit dem Verstehen des Textes eines ’abwesenden’ Autors (Textverstehen). Dialogverstehen und Textverstehen unterscheiden sich darin, daß es sich um zwei grundsätzlich verschiedene Verstehens situationen handelt. Denn zur Verstehenssituation des Dialogverstehens gehört die Verstehensüberprüfung: Produzent und Rezipient überprüfen gegenseitig den Verstehensprozeß. Im Textverstehen dagegen hat der Rezipient es prinzipiell mit ’seinem’ Verstehen zu tun, das vom Autor nur in Ausnahmefällen überprüft werden kann. Die Tatsache, daß (gesprochene) Dialoge hinsichtlich der Verstehensüberprüfung ganz anderen Bedingungen unterliegen als geschriebene Texte, wurde schon sehr früh in der Geistesgeschichte erkannt. Es war Platon, der in einer Art Kommunikationstheorie ausgeführt hat, daß es problematisch sei, mit geschriebenen Texten zu kommunizieren. Seine Ausführungen dazu finden sich in dem Dialog Phaidros. In diesem Dialog läßt Platon den Sokrates eine Geschichte vortragen, in der es heißt, daß der alte Ägyptische Gott Theuth zu dem Ägyptischen König Thamus gekommen sei und ihm seine Erfindung der Schrift vorgeführt habe. Thamus habe ihn nicht, wie erwartet, gelobt, sondern die Erfindung der Schrift verdammt. Eines der Hauptargumente des Thamus gegen geschriebene Texte habe darin bestanden, daß geschriebene Texte nicht auf Fragen antworten könnten, sondern daß sie einem immer nur das gleiche mitteilen. Geschriebenes könne sich nicht verteidigen, könne in die Hände derer fallen, die es nicht verstehen und benötige eigentlich immer wieder seinen Autor, um richtig verstanden zu werden (Platon, Phaidros, 275 d. e). Platon selbst hat aus dieser Lehre die Konsequenz gezogen: Er hat in seinen Schriften die Präsentationsform des Dialogs gewählt, wohl um anzudeuten, daß Verstehensprozesse, besonders wenn es um schwierige philosophische Probleme geht, interaktiver Natur sind.

Im vorliegenden Zusammenhang bleiben die Verstehenssituation und damit das Problem der Überprüfung von Verstehen außer Betracht. Es geht um die Frage, welche Prozesse beim Verstehen ablaufen, unabhängig davon, ob es sich um Verstehen in einem Dialog oder um Verstehen eines Textes bei entferntem Autor handelt.

262

2.2. Alltagssprachliche und wissenschaftliche Verstehenstheorie Die Sichtung des Materials zum Wort ’Verstehen’ ergibt, daß es sinnvoll zu sein scheint, mögliche Erklärungen des Verstehensbegriff unter zwei grundsätzlich verschiedenen Sichtweisen zu sehen: Die erste soll als ’alltagssprachliche’ Sichtweise bezeichnet werden. Es handelt sich hier um Verwendungen des Wortes ’Verstehen’, wie sie überwiegend in Wörterbüchern der Alltagssprache und in Belegsammlungen alltagssprachlicher Texte vorkommen. Die zweite sei als ’wissenschaftliche’ Sichtweise gekennzeichnet; hierbei handelt es sich um solche Verwendungen des Wortes ’verstehen’, die in wissenschaftlichen Untersuchungen zum Begriff des Verstehens zu finden sind. In jeder dieser beiden Gruppen sind wieder Untergruppen zu finden, die in Abb. 1 zusammengestellt worden sind. Alltagssprachliche theoretische Sichtweisen Sichtweisen Akustisches — hermeneutisch-philosoVerstehen phisches Verstehen — operationale/cognitivpsychologische Verstehenstheorien Sinnverstehen, — analytische VerstehensDeuten theorien Abb. 23.1: Verstehenstypologie 2.2.1. Alltagssprachliche Verstehenstheorien 2.2.1.1. Akustisches Verstehen Die erste Bedeutung von Verstehen, die Wörterbücher des gegenwärtigen Deutsch aufzeichnen, sei als „Akustisches Verstehen“ bezeichnet. Diese Bedeutung wird mit folgenden Phrasen umschrieben (definiert): Wahrig (1978), S. 846: Jmdn. od. etwas verstehen = deutlich hören. Beispielsatz: ich habe ihn am Telephon nur schwer, schlecht, kaum verstehen können; bei dem Lärm kann man sein eigenes Wort nicht verstehen. HDG (1984), S. 1267: Jmdn., etw. akustisch wahrnehmen. Beispiele: jmdn., etw. gut, deutlich, nicht verstehen; er konnte alles, kein Wort, jede Silbe verstehen. DUDEN-DUW (1983):

VII. Computer Simulation of Language I: Basic Problems

(Gesprochenes) deutlich hören: ich konnte alles, jedes Wort, keine Silbe verstehen; der Redner war gut zu verstehen; ich konnte ihn bei dem Lärm nicht verstehen. Im deutschen Wörterbuch der Gebr. Grimm figuriert diese Bedeutung unter 1) b) im Großbereich B. „gebrauch in der literatur“. Dort wird Akustisches Verstehen auf folgende Weise umschrieben: „artikulierte laute und worte ihrem sinnlichen klange nach so auffassen, dasz man sie von ähnlich klingenden unterscheiden und einen sinn in sie hineinlegen kann“ (DWB Bd. 25, Sp. 1669). Das Akustische Verstehen ist im Verstehensprozeß relativ klar abgrenzbar. Es betrifft ausschließlich den Übertragungskanal, dessen Kapazität und sonstige Beschaffenheit jedoch die übrigen Teile des gesamten Verstehensprozesses durchaus beeinflussen dürften. Gestörtes akustisches Verstehen kann nicht nur zum Nicht-Verstehen, sondern auch zum Miß-Verstehen führen. 2.2.1.2. Sinnverstehen — Deuten Weitere Bedeutungen von Verstehen in alltagssprachlichen Wörterbüchern seien hier unter den Stichwörtern „Sinnverstehen — Deuten“ zusammengefaßt. Die einzelnen Wörterbücher führen in diesem Bereich bis zu 6 weitere Bedeutungen und darunter noch Teilbedeutungen auf, unterscheiden sich in den einzelnen Bedeutungsstellen sowie im Wortlaut der Definitionen und Beispiele jedoch erheblich. Gemeinsam ist diesen Bedeutungen, daß es sich immer um ein Erschließen eines nicht physikalisch beschreibbaren Objekts handelt, um das Erschließen des Sinns eines Satzes, eines Textes, der Handlung einer Person usw. Im einzelnen finden sich folgende definitorischen Phrasen und Beispieltexte: Wahrig (1978): verstehen = etwas begreifen, den Sinn erfassen von etwas; auslegen, deuten; sich in jmdn. hineinversetzen; gut miteinander auskommen; können, beherrschen, gelernt haben; sich zu etwas bereitfinden. Duden—DUW (1983): den Sinn von etw. erfassen; etw. begreifen: einen Gedankengang, Zusammenhang verstehen; ... das verstehst du noch nicht; ... er hat nicht verstanden, worum es geht 2.2.2. Wissenschaftliche Verstehenstheorien 2.2.2.1. Verstehen im hermeneutischen Sinn Schon in der alltagssprachlichen Verwendung gibt es „Verstehen“ in der Bedeutung

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

„auslegen, deuten“. In der Geistesgeschichte ist diese Bedeutung eng mit der sogenannten hermeneutischen Tradition verbunden, die in die antike Philosophie zurückreicht, die aber im 17. und 18. Jahrhundert als Lehre von der Interpretation religiöser Texte einen Höhepunkt hatte. Dieser Verstehensbegriff sei als Verstehen im hermeneutischen Sinn bezeichnet. ’Verstehen im hermeneutischen Sinn’ wird in Johannes Hoffmeisters „Wörterbuch der Philosophischen Begriffe“ bezeichnet als „das intuitive Erfassen des Sinns, des Wesens eines ’Gegenstandes’ aus sich selbst heraus. Verstehen in dieser Bedeutung setzt die innere Verwandtschaft mit dem zu verstehenden Gegenstand voraus. Was mir innerlich fern und fremd ist, kann ich mir erklären, vorstellen, denken, aber ich kann es nicht verstehen. Die Möglichkeit des Verstehens ist darin begründet, daß alles seelisch-geistige Leben sich in mehr oder weniger festen Formen äußert, die etwas ausdrücken, etwas bedeuten“ (Hoffmeister 1955, 646 f.).

In der Geschichte der Geisteswissenschaften gibt es zahlreiche Vertreter dieser Position. So war z. B. Friedrich Schleiermacher (1768—183 4) im Gegensatz zu den Vertretern einer dogmatischen Hermeneutik der Meinung, daß eine objektive Textinterpretation nicht möglich sei. Er forderte daher, die objektive Textinterpretation, die Interpretation „mit notwendiger Einsicht“, durch eine andere Art von Sicherheit zu ersetzen, die er „divinatorische Gewißheit“ nannte und die einen Menschen in die Lage versetzen solle, den anderen zu verstehen. Den Terminus „divinatorische Gewißheit“ stellte er dem der „demonstrativen Gewißheit“ gegenüber, die für die Naturwissenschaften gelte. Die hermeneutische Theorie Schleiermachers hat in der modernen Wissenschaftstheorie Fortsetzungen gefunden. Eine von diesen ist als „Verstehen—Erklären—Kontroverse“ bekannt. In dieser Tradition wird ’Verstehen’ als eine besondere Erkenntnismethode aufgefaßt. Verstehen ist ein besonderer Typ menschlicher Handlungen, der seinen Ursprung im menschlichen Geist hat und der neben dem Erkenntnistyp des Erklärens gleichberechtigt steht. In der Tradition Schleiermachers wurde „Verstehen“ bei Wilhelm Dilthey zum grundlegenden Begriff derjenigen Wissenschaften, die sich mit natürlich-sprachlichen Texten befassen, wie Geschichte, Philosophie, Philologie und andere.

263

Eduard Spranger hat diesen sehr allgemeinen Verstehensbegriff in seinem Buch „Lebensformen“ von 1914 einer Analyse unterzogen, in welcher er auch auf das sprachliche Verstehen eingeht (Spranger 1950, 4. Abschnitt, 3. Kap.). Sprache wird in dieser Analyse verstanden als „ein überindividuelles psychisch-geistiges Medium, in welchem Bedeutungen von Seele zu Seele fließen“. Abgesehen von ästhetischen Momenten bestehe der Kern der sprachlichen Kundgebung in der „Mitteilung eines theoretischen Bedeutungsgehaltes, die vom anderen zunächst in gerade diesem theoretischen Sinne erfaßt werden will“. Hierzu, so heißt es weiter, gehöre nichts weiter, „als daß man eben ’die Sprache verstehe’, d. h. die Koordination von Lautbild und Bedeutungsbewußtsein im eigenen Erleben auch besitze“. Weiterhin unterscheidet Spranger zwischen einem Verstehen der Worte, einem Verstehen der Persönlichkeit des Schreibenden oder Sprechenden (persönliches Verstehen) und dem Verstehen des vom Subjekt gelösten Sachgehalts, der mit den Worten verbunden ist (sachliches Verstehen). Sprachliches Verstehen ist immer mit den beiden anderen Formen des Verstehens verknüpft. Diese liegen, wie Spranger sich ausdrückt, hinter dem sprachlichen Verstehen. sie vermögen sich jedoch nicht allein auf das physische Zeichen, das Wort, zu stützen. Damit soll ausgedrückt werden, daß Verstehen in seiner ganzen Dimension weit über sprachliches Verstehen hinausgeht, daß zwar Sprache der physische Träger des Verstehensaktes ist, daß durch sie allein aber die geistigen Zusammenhänge, die man als Verstehen bezeichnet, nicht zugänglich sind.

Von diesen Ausführungen Sprangers ist sicherlich die Charakterisierung des Sprachverstehens als „Koordination von Lautbild und Bedeutungsbewußtsein“ festzuhalten, ferner die Aussagen, daß durch das Verstehen „geistige Zusammenhänge“ zugänglich seien. Zwar wird aus Sprangers Ausführungen nicht deutlich, was mit „Bedeutungsbewußtsein“ und mit „geistigen Zusammenhängen“ gemeint ist; man wird aber sehen müssen, inwieweit die Untersuchungen zu den künstlichen Sprachverstehenssystemen hierüber Aufschluß geben. Die Hermeneutik als Theorie des Textverstehens hat seit Beginn dieses Jahrhunderts auch in der Literaturwissenschaft an Bedeutung gewonnen. 2.2.2.2. Verstehen im analytischen Sinn Ein dritter Verstehensbegriff, Verstehen im analytischen Sinn, ergibt sich aus den Bemühungen der analytischen Sprachphilosophie um die Erklärung menschlicher Sprechakte. John Austin hat in seinen Vorlesungen

264

von 1955, die 1962 unter dem Titel „How to do Things with Words“ erschienen sind, als einer der ersten durch die Zerlegung des Sprechakts in einen illokutionären und einen perlokutionären Akt deutlich zwischen zwei Absichten des Sprechers unterschieden, nämlich zwischen 1) der Absicht, vom Hörer verstanden zu werden: „Im allgemeinen besteht die Wirkung darin, daß Bedeutung und Rolle der Äußerung verstanden werden. Zum Vollzug eines illokutionären Aktes gehört daher, daß man verstanden wird“ (Austin 1962, Neunte Vorlesung; zitiert nach der dt. Übers. von 1972, S. 13 0), und 2) der Absicht, Hörer zu einem bestimmten Handeln (zu einer b e st i m m t e n A n t wo r t oder Reaktion) zu bringen. John Searle hat die Austin’sche Theorie in „Speech Acts“ (1969) fortgesetzt und im Zusammenhang mit seiner Diskussion des illokutionären Aktes dargelegt, worin für ihn das Verstehen eines Sprechaktes besteht. Es sind vor allem zwei Momente, durch die Searle den Begriff des Verstehens erklärt: — erstens ist Verstehen für ihn eine Sache der Konvention. Es gibt zwischen dem erzeugten Ausdruck und der durch diesen Ausdruck hervorzubringenden Wirkung eine regelmäßige durch Konvention festgelegte Verknüpfung. — Zweitens behauptet Searle, daß das Hervorbringen einer Äußerung zwar notwendigerweise ein illokutionärer Akt, aber nicht zugleich ein perlokutionärer Akt sein müsse. Die Wirkung, die eine Äußerung hervorbringen solle, könne daher nicht als Wirkung eines perlokutionären Aktes verstanden werden. Mit einer sprachlichen Äußerung sei kein perlokutionärer Effekt, sondern ein illokutionärer Effekt verknüpft. Wenn jemand z. B. „Hallo“ sage, so wolle er damit lediglich bewirken, daß sein Zuhörer wisse, daß er gegrüßt werde. Dieses Wissen bezeichnet Searle als das „Verstehen“ einer sprachlichen Äußerung. „Verstehen“ wird bei Searle also durch den Zustand definiert, der besteht, wenn ein Sprecher beim Hörer dreierlei erreicht hat: Der Hörer soll (a) erkennen, daß ein bestimmter Sachverhalt besteht; (b) erkennen, daß er zur Kenntnisnahme dieses Sachverhalts gebracht werden soll und (c) dieses mit Hilfe der Regeln erkennen, die für die Äußerung gelten. Verstehen wird letzten Endes ausdrück-

VII. Computer Simulation of Language I: Basic Problems

lich als das Erkennen der Regeln, die die Elemente eines Satzes bestimmen, definiert. Bei diesen Regeln denkt Searle zwar auch an linguistische Regeln im traditionellen Sinn (syntaktische, semantische Regeln), vor allem aber an Konventionen, die den Gebrauch eines Sprechaktes in einer bestimmten Situation und mit bestimmten sprachlichen Mitteln regulieren. Das, was ein Hörer zu leisten hat, damit der beabsichtigte illokutionäre Effekt zustande kommt, ist im wesentlichen das Erschließen der Absichten des Sprechers aus den Konventionen, die den Sprechakt regieren. Searle hat sich in „Speech Acts“ nicht nur auf Austin bezogen, er hat sich auch ausführlich mit der Theorie von H. P. Grice (1957) auseinandergesetzt, dessen sogenanntes „Grundmodell“ Ausgangspunkt einer eigenen Tradition über das Verstehen wurde (vgl. die zusammenfassende Darstellung von Harras 1983 , 131 ff.). Im Gegensatz zu Austin und Searle spielen bei Grice nicht die Konventionen die erste Rolle für das Verstehen sprachlicher Äußerungen, sondern die Intentionalität. Diese bezieht sich nicht nur auf das Verstandenwerden, sondern auch auf das Antworten und die Reaktion: „Der Witz des Griceschen Mechanismus besteht ... gerade darin, daß die primäre S[precher]-Absicht, bei H[örer] eine bestimmte Reaktion r zu bewirken, vermittelt ist durch die sekundäre S-Absicht, bei H die Erkenntnis seiner primären Absicht zu bewirken. Für das Verstehen eines illokutionären Akts im Searleschen Sinn ist jedoch gar keine solche sekundäre Intention erforderlich ...: H benötigt nur die Kenntnis der Regeln für das Vollziehen illokutionärer Akte“ (Harras 1983, 154).

2.2.2.3. Verstehen im operationalen Sinn In vielen Systemen des sogenannten Natural Language Understanding (NLU) finden sich, wenigstens in wenigen Sätzen, Definitionsversuche des verwendeten Verstehensbegriffs. Aus diesen geht ein Verstehensbegriff hervor, der hier als Verstehen im operationalen Sinn bezeichnet sei. Dieser operationale Verstehensbegriff ist typisch für die theoretische Fundierung von Computersystemen, in denen es um das Erkennen des Inhalts von Fragen geht, die in natürlicher Sprache formuliert sind und die einen meist relativ engen Anwendungsbereich betreffen. Eine erste und einfache Definition von Verstehen im operationalen Sinne verwendet Daniel G. Bobrow in seinem System STUDENT (Bobrow 1968, 146):

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

“In the following discussion, I shall use phrases as ’the computer understands English’. In all such cases, the ’English’ is just the restricted subset of English allowable as input for the computer program under discussion. In addition, for purposes of this report I have adopted the following operational definition of ’understanding’. A computer understands a subset of English if it accepts input sentences which are members of this subset and answers questions based on information contained in the input. The STUDENT system understands English in this sense.”

Nach dieser Definition kann ein Computer ’verstehen’, wenn er in der Lage ist, Eingabesätze, die aus einer Untermenge der Sätze einer natürlichen Sprache entnommen sind, zu akzeptieren, und wenn er auf natürlichsprachlich formulierte Fragen in der erwarteten Weise antworten kann. Eine differenziertere Definition führt Bertram Raphael (1968, 3 3 ff.) zur Begründung seines Systems „SIR“ (Semantic Information Retrieval), das er als Prototyp einer „understanding machine“ bezeichnet, an (vgl. dazu Kirsch 1971, Bd. II, 62 f.). Er nimmt für die Verwendung des Begriffs „understanding“ drei Voraussetzungen an: “i) ’Understanding’ can be demonstrated by dialogue, which requires participants to indicate an awareness of the meaning of their subject matter. Therefore a computer should be considered able to ’understand’ if it can converse intelligently, i. e., if it can remember what it is told, answer questions, and make responses which a human observer considers reasonable. ii) In addition to echoing, upon request, the facts it has been given, a machine which ’understands’, must be able to recognize the logical implications of those facts. It also must be able to identify (from a large data store) facts which are relevant to a particular question. iii) The most important prerequisite for the abbility to ’understand’ is a suitable internal representation, or model, for stored information. This model should be structured so that information relevant for question-answering is easily accesible. Direct storage of English text is not suitable since the structure of an English statement generally is not a good representation of the meaning of the statement.”

Aus diesen drei Voraussetzungen ergibt sich, daß ein System dann ’versteht’, wenn es über Erinnerungsvermögen oder Gedächtnis verfügt, wenn es Fragen so beantworten kann, daß die Antworten für einen Menschen vernünftig zu sein scheinen und wenn es nicht nur dem System ’bekannte’ Fakten wiederholen, sondern auch aus den vorhande-

265

nen Fakten ableiten kann. Im Unterschied zu den genannten Programmen ist der „Teachable Language Comprehender“ (TLC) von M. Ross Quillian nicht primär auf das Verstehen von Fragen in interaktiven Frage-Antwort-Systemen hin konzipiert, sondern auf das Verstehen von Texten wie Zeitungen, Lehrbüchern etc. (Quillian 1969, 459 f.). Sprachverstehen besteht nach Quillian für ein System darin, daß neue Informationen zu solchen in Beziehung gesetzt werden, die bereits im Gedächtnis des Verstehenden gespeichert sind: “’Comprehending’ text is here defined as the relating of assertions made or implied in that text to information previously stored as part of the comprehender’s general ’knowledge of the world’”.

Aufgrund dieser Definition besteht eine zentrale Aufgabe des TLC-Systems darin, Techniken zu entwickeln, die neue Information aus Texten zu den in einem Gedächtnis vorhandenen „Wissen“ in Beziehung setzen. Die „Reichhaltigkeit“ (richness) eines Textverstehens ist nach Quillian davon abhängig, wieviel an „knowledge of the world“ das System bereits erlernt hat. Am Prozeß des Lernens aus Texten ist der Mensch in einem interaktiven Verfahren gewissermaßen als Lehrer beteiligt. Er versorgt das Gedächtnis des Systems — falls dies erforderlich ist — mit zusätzlichem Wissen. Terry Winograd hat als erster den Versuch unternommen, bei der Konstruktion seiner „understanding machine“ alle Komponenten, die am Prozeß des Sprachverstehens beteiligt sind, zu simulieren und zu untersuchen. Er unterscheidet als einer der ersten klar zwischen dem sprachlichen Wissens eines Verstehenssystems und dessen Weltwissen. Das Verstehenssystem muß in der Lage sein, jede Äußerung, die es empfängt, sprachlich zu analysieren und im Hinblick auf den gegenwärtigen Zustand seiner Welt zu interpretieren. Die Interpretation einer Äußerung (das Sprachverstehen des Systems) besteht zunächst in einem Prozeß der Umwandlung einer Kette von Lauten oder Buchstaben in eine „internal representation“. Anschließend muß diese interne Repräsentation „bewiesen“, d. h. auf den Zustand der betrachteten Welt abgebildet werden. Das kann z. B. bedeuten, daß ein Befehl unmittelbar ausgeführt wird, indem etwa eine geometrische Figur an einen anderen Platz auf dem Tisch gesetzt wird. Das kann aber auch bedeuten, daß zunächst andere Operationen durchgeführt werden müssen, die der Befehl nicht enthält, die jedoch aufgrund des Zustandes

VII. Computer Simulation of Language I: Basic Problems

266

der Modellwelt notwendig sind, um ihn auszuführen. In diesen Fällen sind komplexe Problemlösungen erforderlich, die durch Rückfragen unterstützt werden können. Im einzelnen muß ein verstehendes System in der Lage sein, Deduktionen durchzuführen, neue Informationen aufzunehmen, Fragen zu beantworten und Befehle zu interpretieren (Winograd 1972, 23). Im deutschsprachigen Raum wurden seit 1975 ebenfalls Computersysteme erstellt, die man als ’Sprachverstehenssysteme’ bezeichnete, wenn man sich dieser Ausdrucksweise im Deutschen auch viel vorsichtiger bediente, als es etwa in amerikanischen Systemen der Fall war. So gab es z. B. zwischen 1971 und 1980 am Institut für Deutsche Sprache in Mannheim das Projekt PLIDIS, in welchem ein Computer in die Lage versetzt werden sollte, „in einer Fachsprache formulierte Inhalte ’zu verstehen’ und abzuspeichern“ (Berry-Rogghe/ Lutz/Saukko 1979, 41). In ähnlicher Weise sollten die Systeme HAM-RPM und sein Nachfolger HAM-ANS menschliches verstehendes Sprachverhalten simulieren. Auf welchen Ebenen dabei Verstehensprozesse eine Rolle spielen, zeigt die Darstellung in Abb. 23.2 (nach von Hahn 1978, 12).

3.

Der operationale Verstehensbegriff der Computerlinguistik

Von den dargestellten drei Verstehensbegriffen ist offenbar das Verstehen im operationa-

len Sinn in der Computerlinguistik einschlägig. Denn es waren gerade die Verstehensbegriffe von Bobrow, Raphael, Winograd, Schank u. a., also von Autoren, die von linguistischen Fragestellungen ausgingen oder zumindest auch linguistische Problemstellungen lösen wollten, deren Analyse zur Abgrenzung dieses Begriffs führte. Eine Operationalisierung findet in den Understanding -Systemen insofern statt, als der Gesamtprozeß des Verstehens in seine Teilkomponenten (Moduln) zerlegt wird und die einzelnen Moduln explizit und eindeutig beschrieben werden (vgl. Artikel 28). Ferner ist meist entweder der Umfang der zugelassenen Äußerungen von vorneherein festgelegt oder der Gegenstandsbereich, auf den sich Äußerungen beziehen können, im Sinne einer Modellwelt exakt definiert. Voraussetzung dieser Operationalisierung ist allerdings die Einführung des Wissensbegriff, der mit dem des Sprachverstehens eng verbunden ist und der seit 1968 Eingang in die linguistische und computerlinguistische Diskussion gefunden hat und mit dem wichtige Erkenntniserweiterungen verbunden waren. 3.1. Der Wissensbegriff in der CL Der Wissensbegriff ist vor allem im Kontext der Künstlichen Intelligenz und der kognitiven Psychologie entwickelt worden und von dort in die Computerlinguistik und in die Linguistik allgemein übernommen worden (vgl. zum folgenden Art. 26—29).

Abb. 23.2: Ebenen des Verstehens (von Hahn 1978, 12)

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

Man kann sagen, daß es vor allem die folgenden fünf Aspekte waren, die zur Einführung einer neuen Sichtweise in Verbindung mit dem Wissensbegriff führten: Erstens wurde der Begriff der Bedeutung, der in der traditionellen Linguistik, in der Psychologie und in der Philosophie sehr kontrovers diskutiert worden ist, durch Quillian (1968) mit dem Begriff des Gedächtnisses (memory) verknüpft. ’Bedeutung’ war nicht länger eine Größe, die auf den lexikalischen Bereich beschränkt war und die angemessen, als Bedeutung von Wörtern, nur im Lexikon repräsentiert werden könne. Die Einführung des Gedächtnisbegriffs führte im Gegenteil zu der Sichtweise, Bedeutung konsequent als eine Art von Wissen zu verstehen, das, wie jedes andere Wissen, seinen eigenen Platz im Gedächtnis hat und das im Gedächtnis in ähnlicher Weise gespeichert wird, wie andere Formen des Wissens. Zweitens wurde der Begriff des semantischen Netzwerks in die kognitiven Wissenschaften eingeführt. Zwar hat Woods 1975 b noch festgestellt, daß es eine einheitliche Theorie der semantischen Netzwerke nicht gebe, doch ist dieser Begriff seither stark verbreitet worden und in zahlreiche Theorien und Modelle eingegangen. Nach dem Konzept der semantischen Netzwerke ist die Bedeutung eines Ausdrucks zu verstehen als ein Bündel aus Knoten und Relationen (links), das als eine Sektion aus einem übergeordneten Netzwerk herausgeschnitten werden kann. Das ganze Netzwerk ist im Prinzip ein offenes und dynamisches System, welches in der Lage ist, seinen Status in der Zeit zu ändern. Als drittes wurde der Begriff des Wissens eingeführt, um damit den Inhalt des Gedächtnisses eines Systems zu bezeichnen (Winograd 1972,1). Der Begriff ’Bedeutung’ wurde beschränkt auf Wörter und Sätze, während ’Wissen’ der allgemeinere Term wurde, der vor allem drei Arten von Wissen enthielt, — das Weltwissen eines Systems, — das Wissen eines Systems über Operationen und Prozeduren und — das sprachliche Wissen eines Systems. Diese Wissenstypen, die im Gedächtnis des NLU-Systems enthalten sind, sind in einer speziellen Sprache repräsentiert, die aus relationalen Ausdrücken bestehen. Im Prinzip kann alles, was ein Mensch weiß und in alltäglichen Verstehensprozessen verwendet,

267

in dieser Form dargestellt werden. Für komplexe Welten wird die Repräsentationssprache allerdings sehr komplex, und die Repräsentation einer komplexen Welt würde zu einer enormen Größe anwachsen. Ausgehend von dem Wissen, das unmittelbar mit Wörtern verbunden ist, hat man bald viertens auch Modelle zur Darstellung anderer Wissensstrukturen entwickelt. Hat man nämlich einmal festgestellt, daß der Verstehensprozeß in einem ’Abbilden’ der Äußerung eines Produzenten auf das Wissen des Rezipienten besteht, und zwar in vielfältiger Form, so stellt sich sofort die Frage, wie dieses Wissen im einzelnen beschaffen ist. Wissen, das sind nicht nur Wörter oder einzelne Objekte; Wissen, das sind auch Fakten, typische Handlungen, konkrete Handlungen, Begriffe, die Inhalte von Enzyklopädien und von Texten. Um diese komplexeren Wissenstypen darstellen zu können, hat man verschiedene Modelle und Repräsentationssprachen entworfen und diskutiert. So haben Schank & Abelson (1977), Rieger, Ch. J. (1974) und Charniak (1976) die Begriffe ’plan’, ’script’ und ’frame’ für die Darstellung typischer komplexer Zustände, Handlungen und Ereignisse vorgeschlagen. Fünftens hat sich gezeigt, daß sich die linguistisch und psychologisch motivierten Wissensmodelle, die an relativ einfachen Beispielen entwickelt worden waren, auch auf sehr komplexe Prozesse des Sprachverstehens anwenden lassen, allen voran auf das Paradigma des Verstehen literarischer Texte. Unter der Bezeichnung story understanding haben sich viele Autoren mit den Prozessen des Verstehens in Kurzgeschichten (stories) befaßt, in denen die Verhältnisse noch am einfachsten zu liegen scheinen. So wurden die Wissensstrukturen von Geschichten unter anderem von Lindsay/Norman (1977), Rumelhart (1975), Schank (1975 a) untersucht. In diesen Arbeiten findet man sehr einfache, z. T. konstruierte Geschichten, zurückgeführt auf ihre Netzwerk-Darstellungen. Es ist relativ leicht, analog zu diesen einfachen Beispielen auch komplexere Geschichten darzustellen. Beispiele finden sich bei Walter Kintsch (1974; 1976), der einige Versuche mit Geschichten aus Boccacios ’Decamerone’ angestellt hat; Rumelhart (1975) hat Fabeln des Äsop als Beispiele verwendet, und Aebli (1979; 1980) hat die Prinzipien des story understanding an Beispielen aus Daniel Defoes ’Robinson Crusoe’ illustriert.

268

3.2. Verstehen als modularer Prozeß In den dargestellten Ansätzen wird mehr oder weniger stillschweigend davon ausgegangen, daß ’Verstehen’ ein Prozeß, also ein Vorgang in der Zeit ist. Diese an sich selbstverständliche Sichtweise ist jedoch in manchen Theoriebildungen außer acht gelassen worden, vor allem seitens der Linguistik. Es ist das Verdienst von Arbeiten gerade des letzten Jahrzehnts, die unter dem Einfluß der computerlinguistischen Überlegungen entstanden sind, diese Sichtweise korrigiert zu haben (vgl. dazu die Analysen in Bátori 1981a). Der Gesamtprozeß des Verstehens besteht in einem Abbilden eines Textes in das Gedächtnis eines Systems. Er läßt sich in Teilprozesse (Moduln) gliedern, die in NLU-Systemen heute allgemein angenommen werden und die sich in drei großen Bereichen zusammenfassen lassen, erstens die Erkennung der sprachlichen Einheiten und Strukturen, zweitens deren Abbildung auf die individuelle Wissensbasis und drittens das logische und sprachliche Handeln des Systems. 3.2.1. Erkennung der sprachlichen Strukturen Die strukturellen Einheiten von natürlichsprachlichen Texten werden durch spezielle lexikalische, morphologische und syntaktische Indikatoren angezeigt. Um sie in künstlichen Systemen aus Sätzen zu extrahieren, müssen Methoden der morphologischen und syntaktischen Analyse eingesetzt werden, um deren Erforschung sich die Computerlinguistik bemüht. Bei diesen Methoden handelt es sich im wesentlichen um Parser, welche das Vokabular und die Grammatik einer Sprache verarbeiten und Sätze in eine formale Darstellung transformieren. Als Standard hat sich hier die Darstellung in der Sprache des Prädikatenkalküls bewährt (vgl. Charniak/ McDermott 1985, 14 ff.). Es gibt bis heute hauptsächlich Parser für Sätze (vgl. Winograd 1983 ; King (ed.) 1983 ); nur wenige Ansätze befassen sich mit komplexeren Strukturen wie Texten oder Diskursen (vgl. dazu Kamp 1981; Günthner/Lehmann 1986), die satzübergreifende Strukturen auf der Basis von Theorien der Wissensrepräsentation darstellen. Wenn man die Analyse auch meist als den ersten Schritt des Verstehens auffaßt, so heißt das nicht, daß die zwei weiteren Teilprozesse danach ablaufen. Die Gliederung in Teilpro-

VII. Computer Simulation of Language I: Basic Problems

zesse ist vielmehr aus systematischen Gründen geboten; in Wirklichkeit laufen die einzelnen Prozesse parallel zueinander ab oder wirken in irgendeiner anderen Abfolge zusammen. 3.2.2. Abbilden auf eine Wissensstruktur Nachdem die morphologischen und syntaktischen Umstände eines Textes festgestellt und eine formale Darstellung konstruiert worden sind, hat ein Verstehenssystem in einem zweiten Schritt die identifizierten Kategorien zu bewerten und sie in sein schon existierendes Gedächtnis zu integrieren. Das System muß in der Lage sein, die Äußerung in dieser formalen Repräsentation auf seine vorhandene Wissensbasis, sein semantisches Gedächtnis und sein Weltwissen, abzubilden. Logisch gesehen handelt es sich dabei um den Beweis der Wahrheit von Propositionen. Während das System einen Text ’wahrnimmt’, d. h., immer wenn ein Wort benutzt wird, das sich auf einen Inhalt im Gedächtnis des Lesers oder Hörers bezieht, wird diese Wissenskomponente aktiviert. Sie spezifiziert entweder eine Klasse von Objekten, die durch eine Menge gemeinsamer Eigenschaften oder Prädikate charakterisiert sind, oder ein besonderes Objekt, oder eine Eigenschaft, oder eine Handlung. 3.2.3. Logisches und sprachliches Handeln Das System muß in der Lage sein zu handeln. Das heißt, es muß (unter Verwendung des Prädikatenkalküls und anderer Arten der Ableitung) logische Handlungen (Deduktion Induktion, Abduktion) ausführen; es muß sprachliche Handlungen (Formulieren, Sprechen) hervorbringen und in der Objektwelt agieren. In der Prädikat-Argument-Struktur einer Proposition ist die Kombination der Wissenskomponenten repräsentiert. Um diese Verbindung zu verstehen, muß überprüft werden, ob es sich um eine schon vorhandene Verbindung handelt, oder ob die Verbindung dem Gedächtnis einverleibt werden kann, ohne daß es zu einem Widerspruch kommt. Diese Überprüfung kann auf zwei Weisen vorgenommen werden: Als erstes kann der Beziehung zwischen dem Prädikat und den Argumenten einer Proposition einer Konfiguration aufeinander bezogener Wissenskomponenten im Gedächtnis entsprechen. Bei diesem Typ handelt es sich um eine direkte Bewertung. Bei dem zweiten Weg handelt es sich um

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

eine vermittelte Evaluierung, nämlich um den Fall der Evaluierung durch InferenzProzesse. Ein Text gilt als verstanden, wenn die Bewertung seiner Einheiten und Strukturen erfolgreich ist. Dabei wird durch die Aktivierung und Evaluierung der Wissenskomponenten ein bestimmter Bereich des individuellen Wissens aktiviert, der das Wissen des Individuums um den gerade gelesenen/gehörten Text repräsentiert. Aus der Entwicklung anwendungsbezogener Systeme, in welchen diese Bereiche des Verstehensprozesses realisiert worden sind, lassen sich Modellvorstellungen für die komplexen Formen menschlichen Sprachverstehens gewinnen. Im folgenden seien — am Beispiel des story understanding — einige dieser Modellvorstellungen genannt, die sich unmittelbar aus der computerlinguistischen Forschung ergeben. 3.3. Computerorientierte Modelle des Sprachverstehens Wenn man Geschichten als diejenigen Texte auswählt, an denen sich die Prozesse des Verstehens besonders gut verdeutlichen lassen (wie es z. B. Charniak/McDermott 1985, 555 f. tun), dann kommt man auf drei hervorstechende Merkmale, durch die sich Verstehensprozesse charakterisieren lassen, und die hier als — Verstehen als Inferieren, — Verstehen als referieren auf eine ’projizierte Welt’ und — Verstehen als Erkennen der propositionalen, anaphorischen und temporalen Struktur von Texten bezeichnet seien. 3.3.1. Verstehen als Inferieren Charniak/McDermott haben in ihrer Introduction to Artificial Intelligence (1985) die These vertreten, “that the principal component of understanding is the extraction of as many correct and useful inferences as possible from an utterance or text” (a. a. O. 555). ’Inferenz’ bedeutet hier soviel wie Ableiten und Zuordnen von Inhalten, auf die nicht direkt zugegriffen werden kann. Die in einer repräsentationssprachlichen Form dargestellten Propositionen müssen auf das Gedächtnis des sprachverstehenden Systems abgebildet werden, wobei sich Prozesse des Inferierens abspielen. Definiert man Verstehen als Inferieren, so bedeutet das nicht, daß direkte Aufsuche aus-

269

geschlossen bleibt, sondern daß dabei immer auch Formen des mittelbaren Schließens eine Rolle spielen. Im allgemeinen werden nach klassischen Vorstellungen zwei Typen von Inferenzen unterschieden, Deduktion und Induktion. In alltäglichen Verstehensprozessen, aber auch in vielen Vorgängen wissenschaftlicher Erklärung, kommt ein Inferenztyp hinzu, der in der klassischen Logik keine Rolle spielt, nämlich die Abduktion (vgl. Charniak/ McDermott 1985, 81 f.; 453 ff.; vgl. auch Art. 3 5). Um Abduktion handelt es sich z. B. bei der Ableitung plausibler Erklärungen aufgrund unscharfer Prämissen, Vermutungen oder allein statistisch begründeter Wissensvoraussetzungen. Dieser Ableitungstyp ist interessanterweise auch von anderer Seite, nämlich seitens der Philosophie des Pragmatismus (Pierce), als vorherrschende Schlußform des common sense erkannt worden. In künstlichen Verstehenssystemen der KI ist Inferieren durch Abduktion auf der Grundlage von heuristischen Regeln möglich, die das System im Rahmen eines induktiven Lernprozesses ’erfahren’ hat und die zum Weltwissen des Systems gehören. Auch hierin ist eine Simulation natürlicher Sprachverstehenssysteme zu sehen. 3.3.2. Verstehen als ’Sich beziehen auf’ Wissenseinheiten (reference) Habel hat 1986 (89 ff.) die „Objekte kommunikativer Handlungen“ als „projizierte Welten“ bezeichnet: „Wenn ein Sprecher A einen Satz S an B gerichtet äußert, so ist dieser Satz, selbst wenn er als Äußerung über die Welt intendiert ist, stets eine Äußerung über die projizierte Welt von A“. Angewandt auf Geschichten heißt das, daß die sprachlichen Einheiten, aus denen Geschichten bestehen, die Morpheme, Wörter, Sätze, sich auf Einheiten einer mentalen Wirklichkeit beziehen. Diese mentale Wirklichkeit wird während des Verstehens einer Geschichte gleichsam fortlaufend aufgebaut oder ’projiziert’. Diese Sichtweise, die sich schon in Arbeiten der älteren Kognitionspsychologie, z. B. im Phantasma-Begriff von Karl Bühler (193 4) findet (vgl. dazu Lenders 1988 a), hat gegenüber anderen Ansätzen den Vorteil, daß sie nicht gleichsam statisch das Vorhandensein einer Beziehung zwischen einem sprachlichen Element und einem Element einer objektiven Wirklichkeit annimmt; vielmehr stellt im Akt des Verstehens der Verstehende diese Beziehung zwischen sprachlichen und

VII. Computer Simulation of Language I: Basic Problems

270

mentalen Einheiten erst her, ein Vorgang, der ’Referenz’ genannt wird. In der Künstlichen Intelligenz wurden für die interne Struktur dieser mentalen Einheiten verschiedene Konzeptionen erarbeitet, unter den Bezeichnungen planes, schemes, frames, scripts, recepts . Ihnen gemeinsam ist, daß Texte in eine Menge oder Kette derartiger Einheiten segmentiert werden, so, wie man Sätze in Wörter, Morpheme, Buchstaben segmentieren kann (vgl. z. B. Schank 1982 a). 3.3.3. Verstehen als Erkennen der Struktur von Texten Die Wissenskomponenten, aus denen Geschichten zusammengesetzt sind, sind nicht ’irgendwie’ aneinandergereiht; Geschichten haben vielmehr eine Struktur von Beziehungen auf mehreren Ebenen. Diese seien hier die propositionale Struktur, die anaphorische Struktur und die temporale Struktur genannt (vgl. dazu Lenders 1988). Die propositionale Struktur eines Textes ergibt sich daraus, daß man sich die logische Basis eines jeden natürlich-sprachlichen Satzes als Proposition vorstellen kann, als eine relationale Struktur, die wenigstens ein Subjekt und ein Prädikat umfaßt. Propositionen, aufgefaßt als Relationen, sind eine explizitere Darstellung von Wissensstrukturen, weil sie den einfachen Einheiten des Wissens korrespondieren. In natürlichen Sprachen sind Propositionen mit einigen zusätzlichen Informationen versehen, die — die Proposition in eine Zeitskala integrieren (Tempus); — eine mentale Disposition oder Meinung des Autors der Äußerung anzeigen (z. B. Modalität und Modalpartikel); — metasprachliche Äußerungen enthalten, wie Kommentare etc. Die anaphorische Struktur eines Textes besteht darin, daß jede Textkomponente, die z. B. ein Ereignis bezeichnen mag, einerseits auf ein zugrundeliegendes Basiswissen verweist, andererseits mit den anderen Komponenten des Textes verbunden ist. In jedem Text gibt es Elemente, die einen strukturellen Sinn nicht aus sich selbst, sondern aus vorausgehenden oder folgenden Elementen beziehen. In der modernen Linguistik wird diese Erscheinung auch als „Vorwärtspronominalisierung“ bzw. „Rückwärtspronominalisierung“ diskutiert. Neben derartigen expliziten anaphori-

schen Strukturen kann es auch implizit anaphorische Verbindungen zwischen den Konstituenten eines Textes geben, die nicht durch natürlich-sprachliche Indikatoren angezeigt sind. Anscheinend unverbundene Sätze können auf der propositionalen Ebene bzw. in der Wissensdarstellung verbunden sein, indem sie entweder aufeinanderfolgende Ereignisse darstellen oder sonstwie zu einer Situation gehören. Die temporale Struktur eines Textes ergibt sich daraus, daß manche Texte, z. B. Geschichten, ein zeitliches Geschehen darstellen. Die zugrundeliegenden kontinuierlichen Ereignisse können nur in der Form einer Reihe aufeinanderfolgender Zustände beschrieben werden. Der Übergang von einem Zustand zum nächsten ist ein Prozeß, der in der Zeit abläuft. In systemtheoretischen Begriffen kann jeder Zustand eines Ereignisses als eine Menge von Elementen und Relationen bezeichnet werden. Da jede Element-Element-Relation in natürlicher Sprache durch eine Proposition dargestellt werden kann, ist jeder Zustand durch eine Menge von Propositionen beschreibbar. Aufeinanderfolgende Zustände unterscheiden sich mindestens in einer Element-Element-Relation. Der Kette dieser Element-Element-Relationen entsprechen in einer Geschichte, die ein Ereignis natürlich-sprachlich beschreibt, die Sätze. Die propositionale, die anaphorische und die temporale Struktur sind nur die grundlegenden strukturellen Eigenschaften von Texten. Sie werden durch andere Faktoren, die der Modalität, ergänzt.

4.

Grenzen und Möglichkeiten der Computersimulation von Verstehen

4.1. Grenzen der Simulation von Verstehensprozessen Auf der Grundlage des dargestellten Verstehensbegriffs im operationalen Sinne, wie er in der Computerlinguistik und in der Künstlichen-Intelligenz-Forschung vorherrscht, kann man versuchen zu klären, in welchem Verhältnis dieser Verstehensbegriff zu den beiden übrigen erörterten Begriffen des Verstehens im hermeneutischen und im analytischen Sinn zu sehen ist. Zieht man die These vom Prozeß des Verstehens als ein Referieren auf eine projizierte Welt heran, so stellt die projizierte Welt offenbar, konsequent gedacht, die Gesamtheit

23.  Übersicht über die Verstehensproblematik hinsichtlich derComputersimulation von Sprache

dessen dar, was ein sprachverstehendes System während seiner Existenz an Wissen aufgenommen hat. Auf den Menschen angewendet heißt dies, daß seine projizierte Welt die Gesamtheit des Wissens, das er von Beginn seines Lebens in sich aufgenommen hat, umfaßt. Im Prozeß des Verstehens eines Textes wird dieses Wissen mit der Abfolge der sprachlichen Einheiten sukzessive abgerufen und aktiviert. Überschlägt man, wie groß die Zahl der Einzeldaten ist, die ein Mensch von seiner Geburt an beständig erfährt und in sich aufnimmt, z. B. durch die Prozesse der Assimilation und Akkomodation (vgl. dazu Piaget 1969), so kann man sich leicht ausrechnen, daß ein Aufbau dieses Weltwissens im Computer schon der Größe nach wohl kaum gelingen kann. Hinzu kommt noch, daß sich jedes natürliche verstehende System beständig fortentwickelt, indem es über seine Sinnesorgane neue Eindrücke in sich aufnimmt. Wenn man schließlich noch die Erfahrungen hinzunimmt, die aus inneren Handlungen, rationalen und irrationalen, herrühren, so wird es vollends unwahrscheinlich, daß man jemals Verstehensprozesse, wie sie die Hermeneutik kennt, wird simulieren können. Was den analytischen Verstehensbegriff betrifft, so haben gerade Untersuchungen der letzten Zeit gezeigt, daß das Paradigma des Verstehens im operationalen Sinn, also die Annahme, daß Äußerungen auf umfassende Modellwelten zu projizieren sind und daß Äußerungsfolgen und deren Verknüpfungen nur vor dem Hintergrund entsprechend erweiterter Modellwelten evaluiert werden können, zu neuen Lösungen alter Probleme der analytischen Verstehenstheorien führt. Man vgl. hierzu etwa die Lösung des Problems der anaphorischen Referenz in Kamps Diskurs-Repräsentations-Theorie Kamp 1981). 4.2. Verstehen in Dialogsystemen Anders verhält es sich, wenn man künstliche Verstehenssysteme für eine ganz bestimmte Verstehenssituation konstruiert, und wenn ein ganz bestimmter Verstehenszweck gegeben ist, dessen Erreichen durch die Verstehenssituation kontrolliert werden kann. Dies ist im Fall der Frage/Antwort-Systemen gegeben, in denen ein Verstehensprozeß in der Zeit abläuft, der abgebrochen wird, wenn der Zweck erreicht ist. Sieht man von der Verstehenssituation ab, so sind die Grenzen des

271

Verstehens offenbar da erreicht, wo sich die Intentionen des Kommunikationspartners weder aus seinem verbalen, noch aus seinem nonverbalen Verhalten noch aus der allgemeinen Verstehenssituation erschließen lassen. In einem Frage/Antwort-Prozeß kann ein verstehendes System nachfragen und sich Anhaltspunkte für weitere Verstehensleistungen verschaffen. Es entspricht durchaus der alltagssprachlichen Realität, daß man davon spricht, eine Äußerung sei ’verstanden’, wenn der mit ihr intendierte Zweck erreicht ist (z. B. wenn jemand einen Auftrag ausgeführt hat, so hat er die Äußerung, mit welcher der Auftrag erteilt wurde, ’verstanden’). Betrachtet man den Begriff des Verstehens unter diesem (operationalen) Aspekt, so kann man mit Recht von Sprachverstehenssystemen sprechen. Die bis heute konstruierten Frage/-Antwort-Systeme, die z. B. als Schnittstellen für Datenbanken dienen, realisieren ein Verstehen in diesem Sinne. In ihnen wurde mit sehr eingeschränkten Welten umgegangen, und Texte, mit denen eine Wissensbasis konstituiert wurde, sind im allgemeinen nur mittels einer eingeschränkten Syntax und eines eingeschränkten Vokabulars generiert worden. Die Systeme weisen also die charakteristischen Merkmale der natürlichen Sprachverstehenssysteme auf, simulieren diese aber nur in einem ganz bestimmten Ausschnitt.

5.

Ausblicke

Aus der Darstellung des Verstehensbegriffs der modernen sprachbezogenen KI-Forschung ging hervor, daß man sich heute „Verstehen“ als einen Vorgang des Abbildens von Aussagen auf Wissensinventare vorstellt. Hans Aebli bezeichnet diesen Abbildungsprozeß, das „matching“ zweier Strukturen aufeinander, auch als „Integration“ des Inhalts, der in einer zu verstehenden Äußerung enthalten ist, in das Vorwissen: „Wir verstehen nun, was es heißt, einen Text durch Integration in das Vorwissen, den Deutungshorizont des Lesers oder Hörers, zu deuten. Auch in komplexeren und abstrakteren Verstehensvorgängen kommen die hier geschilderten Prozesse vor. Es ist gute Methodologie, mit elementaren Deutungsvorgängen zu beginnen, denn man bewegt sich hier auf übersichtlichem Boden. Wenn es dann um die Deutung von Kafka oder der Apokalypse geht, wird das Terrain schwieriger“ (Aebli 1980, 197).

In diesem Zitat wird der Sinn und Zweck von experimentellen Systemen wie denen

VII. Computer Simulation of Language I: Basic Problems

272

von Winograd, Norman/Rumelhart, Schank u. a. deutlich: Am einfachen Fall soll der Prozeß des Sprachverstehens simuliert werden, damit man aus den erkennbaren Abläufen Schlüsse auch für die komplexeren Prozesse ziehen kann. Am einfachen Fall wird ein Erklärungsmodell entworfen, das dann auch für komplexere Fälle angenommen wird, hier aber seiner eigenen Verifizierung bedarf. Seitens der Hermeneutik, die sich als Verstehenstheorie begreift, liegen jedoch seit je her Modelle für das Verstehen und Deuten von Texten vor. Man kann daher mit Aebli fragen: „Welcher Ertrag ist von den Computersimulationen des Verstehens und den ihnen zugrundeliegenden Konzepten für die Hermeneutik zu erwarten, und was könnte die Hermeneutik den Psychologen und den Computerwissenschaftlern geben?“ (a. a. O. 199)

Man kann sich fragen, ob es überhaupt sinnvoll ist, das Problem der Verbindung von Verstehenskonzepten der KI mit denen der Hermeneutik anzugehen. Aebli beurteilt die Aussichten derartiger Überlegungen nicht pessimistisch, und zwar aus zwei Gründen: 1) Der cognitive Psychologe und der Computerwissenschaftler untersuchten die Prozesse der Erzeugung von Texten, ihr Entstehen aus „einem mehr oder weniger kohärenten System des Handlungs- und Weltwis-

sens“. Der Hermeneutik gehe es um den umgekehrten Weg, nämlich „im dichterischen Werk das immanente System zu erkennen“, aus dem heraus Autoren ihre Werke erzeugen. 2) Die vorhandenen experimentellen Systeme seien noch längst nicht „ausgemünzt“. Das soll heißen, daß es sicher möglich ist, künstliche Systeme hinsichtlich ihrer Verstehenskapazität noch wesentlich mächtiger zu machen, also noch wesentlich komplexere Verstehensprozesse zu simulieren. Alle bisher vorliegenden Modelle bieten mehr oder weniger theoretische Sichtweisen. Es gibt jedoch keinen Zweifel daran, daß ein Hauptziel der Forschung, nämlich auf der Basis derartiger theoretischer Modelle künstliche Systeme zu konstruieren, die ein Sprachverstehen zeigen, welches dem menschlicher Individuen ähnlich ist, noch weit von seiner konkreten Realisierung entfernt ist.

6.

Literatur (in Auswahl)

Aebli 1980/81 · Bátori 1981 · Charniak/McDermott 1985 · Habel 1986 · Harras 1983 · Lenders 1975 · Wettler 1980.

Winfried Lenders, Bonn (Bundesrepublik Deutschland)

24. Psycholinguistic Implications in Computer Simulation of Natural Language Processing 1.

2. 2.1. 2.2. 2.3. 2.4. 2.5. 3. 3.1. 3.2. 4. 5.

Computational Linguistics and Psycholinguistics — The Scope of the Discussion Structure Based Resolution of Local Syntactic Ambiguities Parsing Strategies The Sausage Machine — Frazier/Fodor (1978), Fodor/Frazier (1980) Arc-Ordering in an Augmented Transition Network — Wanner (1980) Conflict Resolution in a Shift-Reduce Parser — Shieber (1983 b), Pereira (1985 a) Limited Parallelism in an ATN — Wanner (1987) Context Oriented Resolution of Local Syntactic Ambiguities Interpreting Structure Reference and Ambiguity Resolution Conclusions Literature (selected)

1.

Computational Linguistics and Psycholinguistics — The Scope of Discussion

The purpose of the present chapter is to consider the intersection of psycholinguistics and computational linguistics, and the extent to which each discipline has explored the implications of its own work for research in the other. In particular, it considers how computational modelling can provide explanatory support for psycholinguistic theories about the human sentence processing mechanism (HSPM). The chapter will deal almost exclusively with local syntactic ambiguity resolution, as it is within this domain that the two disciplines have come closest. (For the parsing problem in general cf. articles 31/32.)

24.  Psycholinguistic Implications in Computer Simulation of NaturalLanguage Processing

A major debate within psycholinguistics concerns the behaviour of the HSPM when faced with a choice of syntactic analysis. From the computational perspective, discussion has centred on the alternative architectures for the HSPM which would give rise to the psycholinguistic strategies at issue. One approach, (described in 2), has been to assume that the HSPM resolves local syntactic ambiguities on the basis of structural information alone (Rayner/Carlson/Frazier 1983 ; Ferreira/Clifton 1986). The burden on computational psycholinguists has therefore been to explain how the two main families of parsing strategy (’Minimal Attachment’ — Frazier 1978; ’Right Association’ — Kimball 1973 , 2.1) can be captured within particular architectures. An alternative approach, described in 3 , claims that the resolution of such ambiguities is not determined by structural factors, but is instead influenced by contextual factors (Crain/Steedman 1985; Altmann/Steedman 1987).

2.

Structure Based Resolution of Local Syntactic Ambiguities

2.1. Parsing Strategies The HSPM exhibits definite preferences when faced with local attachment ambiguities: (1) and (2) below illustrate the two main families of preference. (1) The girl picked the gladiolus that I had been trying to grow for my mother (2) She tickled the man with the gladiolus The tendency in (1) to associate the prepositional phrase (PP) for my mother as a modifier to the growing, rather than the picking — that is, to attach as low down and far right as possible in terms of standard constituent structure — has been captured in the apparently equivalent principles of ’Right Association’ (Kimball 1973 ), ’Late Closure’, (Frazier 1978), and ’Final Arguments’ (Ford/Bresnan/Kaplan 1982). The tendency in (2) to interpret the PP with a gladiolus as a verb-modifier rather than as an NP-modifier is most succinctly captured by Frazier’s (1978)’Minimal Attachment’ strategy in which the processor attempts to build the structure containing fewest nodes (assuming a recursive rule for NP-modification — see below). Wanner (1987) points out that Minimal Attachment (MA) and Right Association (RA) result in trees with the fewest non-terminal nodes each with the widest possible cov-

273

erage of the input string. The ensuing nonterminal to terminal node ratio guarantees the fewest computational steps to be taken by the parser (Miller/Chomsky 1963 ). Hence the increased computational efficiency of a language processor incorporating these strategies. 2.2. The Sausage Machine — Frazier/Fodor (1978), Fodor/Frazier (1980) Kimball (1973 ; see also Kimball 1975) first proposed that parsing preferences might follow as a consequence of the structure of the parser. His ideas have been developed by Frazier (1978), and underly the ’Sausage Machine’ (SM) model of the HSPM. The SM is a two-stage model consisting of a first stage which assigns lexical and phrasal nodes to the input, and a second stage which combines these to form a complete phrase marker. RA arises because stage 1 is given only limited access to the sentence, a window of about six words, and a lexical node cannot attach to any item on its left which may have passed out of that window. MA is not a byproduct of the two-stage architecture, but arises as a consequence of a race: the first combination of rules to incorporate the current lexical item into the phrase marker wins. The fewer the nodes, the sooner the item is incorporated. Wanner (1980) pointed out, however, that the SM cannot always account for the tendency to right associate. In (3 ) below, the whole sentence is accessible to stage 1, and RA still applies. (3) He said she tickled her yesterday Wanner suggested the augmented transition network (ATN) as a more suitable model of the HSPM. 2.3. Arc-Ordering in an Augmented Transition Network — Wanner (1980) Frazier/Fodor (1978) had argued that to capture MA and RA within an ATN would involve specifying the ordering of arcs leaving each state in each network. (A detailed discussion on ATN-s is in Article 28.) But rather than use such an ad hoc ordering, Wanner (1980) showed that there is a principled account of MA and RA in an ATN. Wanner assumed an ATN with five basic kinds of arc: WORD and CAT arcs specifying particular words, or categories, which must appear in the input; SEEK (or PUSH) arcs specifying a subnetwork; SEND (or POP) arcs which terminate a network; and

274

JUMP arcs which change the processor’s state without requiring any input. To implement MA, Wanner schedules all WORD and CAT arcs before all SEEK arcs. This forces the processor to explore all the possibilities available within the one network before attempting to explore those in any subnetwork — the equivalent of attaching incoming material using the fewest intervening nodes. To implement RA, Wanner schedules all SEND and JUMP arcs after all others. This forces the parser to incorporate the new item into the current constituent (i. e. low down and to the right, for a right-branching language such as English). Fodor/Frazier (1980) point out, however, that the CAT-before-SEEK ordering does not explain the preference for that in (4) below as a demonstrative pronoun (cf. (5)) rather than as a complementiser (cf.(6)): (4) That gladiolus ... (5) That gladiolus is blooming. (6) That gladiolus-picking is not an offence is surprising. In each case a SEEK arc must be pursued: SEEK-NP in (5) and SEEK-S’ in (6). SEEKNP arcs could be ordered before SEEK-S’ arcs, but this leads to an account which is more ad hoc than Wanner originally intended. A further problem is that the ATN is essentially a top-down processor; rules of the grammar are expanded before the lexical items themselves are identified. The ATN cannot therefore handle left recursive rules of the form (7) NP → NP PP for which is would endlessly SEEK NP. A variety of algorithms exist to allow the parsing of left-recursive grammars, but all are in general ad hoc additions to the framework which threaten its elegance. A model which does not suffer from these problems is the shift-reduce parser of Shieber (1983 ) and Pereira (1985). 2.4. Conflict Resolution in a Shift-Reduce Parser — Shieber (1983 b), Pereira (1985 a) There are three sources of ambiguity which can occur within shift-reduce processors (Aho/Johnson 1974). First, the processor might be in a position either to SHIFT or to REDUCE. Second, more than one reduction might be possible. Third, the incoming item may have more than one syntactic category.

VII. Computer Simulation of Language I: Basic Problems

MA and RA can be implemented by resolving these conflicts as follows: For RA: resolve SHIFT-REDUCE conflicts in favour of SHIFT. Resolving SHIFTREDUCE conflicts in favour of SHIFT guarantees keeping the current constituent open as long as possible, therefore allowing shifted items to associate with items within that constituent; hence RA. For MA: resolve REDUCE-REDUCE conflicts in favour of that which reduces most cells in the stack. Resolving REDUCE-REDUCE conflicts in favour of the reduction which consumes most cells in the stack ensures the greatest number of daughter constituents to each mother constituent, resulting in the flattest possible structures; hence MA. To ensure the predicted interpretation of (4), lexical category ambiguities are resolved when reduction is first possible, and the category consistent with that reduction is chosen. After SHIFTing that and gladiolus onto the stack, the processor can either REDUCE (to interpret that gladiolus as a nounphrase), or SHIFT. The relative pronoun interpretation of that is chosen because it is consistent with the first possible reduction (even though that reduction is rejected in favour of the SHIFT). The shift-reduce parser, unlike the ATN, is essentially a bottom-up parser and hence is unaffected by the restrictions imposed by left-recursive rules of the kind discussed above. Like the ATN, however, it is open to the criticism that as a model of the HSPM it lacks explanatory power (cf. Chomsky 1965): although both models can exhibit behaviours consistent with MA and RA, the mechanisms for doing so are just arbitrary specifications on the workings of the processor. Given that it is the conjunction of MA and RA which gives rise to the overall efficiency of the processor, it is perhaps surprising that they are realized independently of one another in these models. Without some dependence between the two, how is their joint acquisition to be explained? 2.5. Limited Parallelism in an ATN — Wanner (1987) Wanner (1987) eliminates the drawbacks of the earlier ATN model by assuming a processor exhibiting limited parallelism. All the arcs leaving a particular state are explored simultaneously. Processing proceeds in this parallel fashion until an analysis path successfully incorporates the current lexical item into the parse tree. At this point all other analysis

24.  Psycholinguistic Implications in Computer Simulation of NaturalLanguage Processing

paths are abandoned, and parallelism resumes again at the state which was reached in the successful analysis path. It follows that the analysis path which involves fewest transitions will always win the race to attach the current word into the phrase marker. Hence MA; nonminimal attachments always involve an extra SEEK arc (cf. Fodor and Frazier’s race model of MA). Right association occurs when a lexical item is incorporated into the lowest rightmost constituent, which in a left-to-right top-down parser like the ATN is always the constituent currently being parsed. Anything other than right association can only occur of the current constituent is first closed — requiring an extra SEND arc. It follows, therefore, that the limited parallelism of Wanner’s model will also ensure right associations. Left recursion is no longer a problem as long as for each recursive rule there is a nonrecursive rule which expands the same nonterminal, as in (8): (8) a. NP → det n b. NP → NP S’ The non-recursive rule (a) will always win over the recursive version (b), unless there is genuine recursion in the input. Furthermore, the earlier problem with SEEK-SEEK conflicts does not arise: SEEK-NP paths win over SEEK-S paths because the latter require more transitions before the lexical item can be incorporated into the parse tree. This model is more interesting than any of its predecessors because both MA and RA follow as a natural consequence of the limited parallelism, and not because of any ad hoc mechanisms, and it is tempting to interpret the elegance of the model as justification for MA and RA as predictors of human linguistic behaviour. In the following sections, however, the validity of the assumptions underlying this model will be questioned, and an alternative contextually-based approach to ambiguity resolution will be offered.

3.

Context Oriented Resolution of Local Syntactic Ambiquities

3.1. Interpreting Structure An assumption underlying the ATN model is that the analysis path with fewest transitions will always be traversed fastest. But there is no a priori reason to suppose that the action(s) associated with one arc will take the same time to execute as those associated with another. Moreover, if instead of (8) the gram-

275

mar contained (9) then neither the ATN nor the shift-reduce parser would predict the preferences in (2) above. (9) a. NP → det n b. NP → det n PP Indeed, no model which incorporated MA could discriminate between attachment to NP or to VP as they both involve the same number of nonterminal nodes. Under the Strong Competence Hypothesis of Bresnan and Kaplan (Bresnan 1982), there is a one-to-one correspondence between rules of the grammar and the processor’s operations as it builds an interpretation of the utterance. Thus the difference between the alternative rules in (8) and (9) is accompanied by a difference in interpretation. In (8 b) the head NP of the complex is itself a complete constituent, and hence interpretable. In (9 b) there is no such interpretable constituent. MA may correctly describe the behaviour of the HSPM, but the explanation for this behaviour may reside at the level of interpretation, and not at the level of pure uninterpreted structure. 3.2. Reference and Ambiguity Resolution Crain and Steedman (1985) pointed out that the structural differences between simple and complex NPs are accompanied by differences in presuppositional complexity. The least preferred readings for sentences like (2) involve an NP-modifier whose function is to restrict over a set of entities of the type denoted by the head noun. The complex NP thus presupposes that there exists a set of potential referents and that the proposition expressed by the modifier restricts this set to a single individual. The simple NP analysis presupposes neither this set nor the prior existence of propositional information associated with any member of such a set. The preferred readings for the MA-class of ambiguity are thus presuppositionally less complex than their alternatives. In the absence of explicit referential context, in which the presuppositions associated with both the simple and complex NP analyses are violated, the minimally attached interpretation is selected according to a Principle of Parsimony: the least presuppositionally complex analysis is favoured over all others. Crain (1980) showed that the preferences attributed to MA could be overcome by preceding the crucial sentences with contexts with particular referential characteristics. He preceded relative/complement sentence

VII. Computer Simulation of Language I: Basic Problems

276

pairs such as (10) with the context in (11) and showed that ’garden path’ effects could be overcome or induced depending on the context. (10) a. The psychologist told the wife that he was having trouble with her husband. b. The psychologist told the wife that he was having trouble with to leave her husban. (11) a. Complement-supporting Context A psychologist was counselling a married couple. One member of the pair was fighting with him but the other one was nice to him. b. Relative-supporting Context A psychologist was counselling two married couples. One of the couples was fighting with him but the other one was nice to him. MA predicts that (10 b) will always induce a garden path because the NP the wife will be interpreted as a simple NP and not as the head of a complex NP. However, when (10 b) was preceded by (11 b), which supports the presuppositions of the relative, this was not the case. Furthermore, when (10 a) was preceded by (11 b) a garden path was induced, even though MA predicts no such effect. A number of studies have replicated these effects with both relative/complement and PP-attachment ambiguities (Altmann 1985, 1987 a, 1987 b; Altmann/Steedman 1987; but see also Ferreira/Clifton 1986). Altmann and Steedman (1987) suggest that the NP-modifier analysis can be chosen as soon as the NP to be modified is found to be referentially unsuccessful (see Altmann 1986, for a formal definition of a ’Principle of Referential Failure’). Given the real-time nature of sentence processing (Marslen-Wilson 1975; Tyler/ Marslen-Wilson 1977; Marslen-Wilson/Tyler 1980; Marslen-Wilson 1987; Tanenhaus/ Carlson/Seidenberg 1985) and the immediacy of noun phrase evaluation (Shillcock 1982; Garrod/Sanford 1985) it is plausible to suggest that referential information is available to the processor in close to real-time, and that referential success or failure can be determined as soon as the target NP is encountered. Crain and Steedman (1985) propose several parameters which determine possible architectures for interactive processors. The first concerns the nature of the interaction: ’strong’, in which semantics can actively in-

struct syntax on a course of action, or ’weak’, in which semantics only selects between the alternatives offered it. Crain and Steedman argue against the former on the basis of its theoretical complexity, and the fact that there can be no a priori reason for predisposing the processor to interpreting NPs either as simple or complex. The second parameter concerns the manner in which alternatives are offered: in parallel or in series. Given that analyses can only be rejected in preference to some other more plausible analysis — otherwise how could one explain the interpretation of definite referring expressions which introduce new entities into the discourse — it follows that all analyses must be considered, whether truly in parallel, or some serial equivalent. The third parameter concerns the size of the units offered to semantics for adjudication. Altmann and Steedman argue that under the Strong Competence Hypothesis, the fineness of grain of the interaction is determined by the grammar itself. The psycholinguistic evidence suggests a very fine grain indeed.

4.

Conclusions

The elegance of Wanner’s (1987) ATN model has explanatory appeal with respect to MA and RA as descriptions of human behaviour, but makes certain assumptions which are empirically questionable. MA is associated with the pursuit of an extra SEEK arc. Within Crain and Steedman’s Interactive Hypothesis it arises as a consequence of the processes responsible for reference evaluation. This account explains the preference for minimal attachments in the absence of explicit referential context, as well as preferences which have been observed in context. But an explanation, within this framework, for the preferences associated with RA is still lacking. The earlier motivation for accounting for both MA and RA within the same mechanism was based on arguments of computational efficiency: the ensuing structures are computationally more tractable than the alternatives. But computational efficiency can also be assessed in terms of the likelihood of a decision being correct. An interactive processor which can appeal to semantics when faced with NP-modifier attachment ambiguities (cf. Winograd 1972; Hirst 1984; Haddock 1987) will thus be more efficient than a noninteractive processor which, in effect, has to guess the intended attachment. Dresher and Hornstein (1976) questioned the contribution of Winograd’s language un-

25.  Language Understanding and Problem Solving: On the RelationBetween Computational Linguistics and Artificial Intelligence

derstanding program to “the scientific study of language” by asking whether its technique for resolving attachment ambiguities had captured any generalisations which could not have otherwise been captured. Without the empirical data, it was impossible for Winograd to do this; his technique was a computationally efficient mechanism for solving a particular computational problem. In their own ways, however, both Wanner and Crain and Steedman captured generalisations which had not previously been expressed: Wanner, insofar as he could generalise the mechanism for capturing MA to also capturing RA, and Crain and Steedman, insofar as they could generalise from their account of preferences in the absence of context to preferences within contexts. A unified account of context effects on different kinds of ambiguity (including lexical preferences — Ford/ Bresnan/Kaplan 1982; Schubert 1984; Wilks/Huang/Fass 1985) is still to be developed. The path towards such an account lies very clearly within the domain of computational psycholinguistics.

5.

277

Literature (selected)

G. T. M. Altmann 1985 · G. T. M. Altmann 1986 · G. T. M. Altmann 1987 a · G. T. M. Altmann 1987 b · G. T. M. Altmann/M. J. Steedman 1987 · J. Bresnan 1982 · N. Chomsky 1965 · S. Crain 1980 · S. Crain/M. J. Steedman 1985 · B. E. Drescher/ N. Hornstein 1976 · F. Ferreira/C. Clifton 1986 · M. Ford/J. Bresnan/R. M. Kaplan 1982 · L. Frazier 1978 · L. Frazier/J. D. Fodor 1978 · S. C. Garrod/A. J. Sanford 1985 · N. J. Haddock 1987 · G. Hirst 1984 · J. Kimball 1973 · J. Kimball 1975 · J. L. McClelland/D. E. Rumelhart 1986 · W. D. Marslen-Wilson 1975 · W. D. Marslen-Wilson 1987 · W. D. Marslen-Wilson/L. K. Tyler 1980 · G. A. Miller/N. Chomsky 1963 · F. C. N. Pereia 1985 a · K. Rayner/M. Carlson/L. Frazier 1983 · L. K. Shubert 1984 · S. M. Shieber 1983 b · R. Shillcock 1982 · M. K. Tanenhaus/M. Carlson/ M. S. Seidenberg 1985 · L. K. Tyler/W. D. Marslen-Wilson 1977 · E. Wanner 1980 · E. Wanner 1987 · J. Wilks/X. Huang/D. Fass 1985

Gerry T. M. Altmann, Edinburgh (Great Britain)

25. Language Understanding and Problem Solving: On the Relation Between Computational Linguistics and Artificial Intelligence 1. 2. 3. 4. 5.

Language and Artificial Intelligence Story Understanding in AI Dialogue Modelling in AI Concluding Remarks Literature (selected)

1.

Language and Artificial Intelligence

Language understanding (or, more generally, language use) represents one kind of specifically human intellectual behavior. It is based, in part, on the functional mechanisms of its own, but to a large degree it also makes use of the general mechanisms of the human intellect. In this latter aspect the problems of simulating the processes of language understanding on computers are studied — for some times already — also by Artificial Intelligence (AI). AI represents a relatively new branch of science which has set as its aim the development of concepts and methods for simulating on computers of various (human) abilities that generally are qualified as intellectual:

playing intellectual games (such as chess), proving theorems, purposefully planning one’s actions and detecting the plans of others, understanding language, writing stories, poems or music, and so on (see e. g. Winston 1977; see also art. 3 3 in this volume). There is in fact no good and comprehensive definition of the object and tasks of AI beyond the kinds of lists illustrated above. (For a comprehensive overview and classification of AI topics, see e. g. Waltz (1985).) Language problems have not always interested the AI-researchers in the same degree during its history. In the earlier periods of its development (in 1950s and most of 1960s) the problems of language processing had a peripheral status in AI (see e. g. (Freigenbaum/ Feldman 1963 ) which contains proceedings of a conference held in 1961). But at the beginning of 1970s the investigations into language problems underwent an explosive growth in AI. It is interesting to note that this breakthrough coincided with the time when the term (and concept) of language understanding came into larger use and firmly

VII. Computer Simulation of Language I: Basic Problems

278

rooted in AI, especially in the theoretically oriented research. Apparently, this term helped the researchers to pick out and identify an area of theoretically most interesting problems in the large and amorphous field of language (or text) processing. At the time mentioned (the beginning of the 70s) there also appeared several influential works tackling the problems of language from the point of view of understanding. Most influential of these undoubtedly was Terry Winogradś SHRDLU, “program that understands natural language” (Winograd 1972). Although the concrete methods used in Winograd’s system for describing the meanings of utterances appeared too specific to be used outside of his “world of blocks”, the general approach taken by Winograd which stressed the procedural aspects of understanding and underlined the significance of the incorporation of various problem solving (reasoning) methods into a language understanding model (see also Winograd 1980 b) appeared most influential. Language understanding became also one of the main topics in theory-oriented research of computational linguistics (CL). The viewpoints from which language understanding was approached in AI and CL were basically different yet. Whereas for AI the simulation of language understanding constituted a special case of dealing with such themes as use and representation of knowledge and solving various kinds of problems, for CL it constituted the real task, whereas various methods for processing and representing knowledge constituted its research instruments. (For the problem of knowledge representation see art. 29.) During 80s this difference in viewpoints seems to have become still more explicit. It may be said that computational linguistics and, in particular, the research in language understanding carried out in it are gradually gaining their identity. And, of course, the same may be said about the corresponding work in AI. Here the research on natural language understanding has evolved in two main directions. One of these is practiceoriented, dealing with natural language interface with data bases, expert systems, decision support systems etc. (see Morik 1983 ; Bates/ Bobrow 1984). The second trend of research is gradually making its way towards ’pure theory’ and getting more and more intertwined with the theoretical research of the pragmatics of human interaction, of memory

and learning i. e. what is usually considered as constituting cognitive science (see Schank 1982 a). After this sketchy overview of the evolution of language understanding research in AI (as compared with that in CL) I want now to take up some central lines of this research and treat them in more detail. As the general background against which I will consider this research I have chosen the framework of problem solving — not in the sense of concrete problem solving methods but rather in the sense of an abstract framework that characterizes the AI approach in general, a framework in relation to which also e. g. research on knowledge representation may be considered as instrumental (see Newell 1982). And in the course of this description a picture of the relations between AI and CL conceptions of language understanding should also emerge. There can be distinguished two main lines of research on language understanding in AI. One is the modelling of the understanding of story-type narrative texts, the other is the modelling of natural dialogue. Although these lines have developed most of time in parallel, there is quite clear difference in the division of emphasis over time: whereas during the last half of the seventies and the beginning of eighties story understanding was the main paradigm of research in the framework of which the most important theoretical ideas were developed, at present the dialogue constitutes by far more popular object of study. I will review the work done in both directions in the aforementioned order.

2.

Story Understanding in AI

Story understanding became the central topic in language understanding research in the mid-seventies. To understand better the approaches taken within the frames of this paradigm, a few words are needed about one theoretical trend in the earlier work, the outcome of which story understanding may be considered. In this trend the derivation of inferences was considered the central problem of language understanding. (For the problem of inferencing see art. 3 5.) It certainly is central also today, but at the beginning inferencing was believed to solve almost all problems of language understanding there were to be solved. This approach may be illustrated on the example of the system MARGIE, which was developed by R. Schank and his colleagues at Yale University and which

25.  Language Understanding and Problem Solving: On the RelationBetween Computational Linguistics and Artificial Intelligence

was prototypical in many respects (Schank 1975). In MARGIE the problem of understanding a sentence was formulated as the problem of deriving all possible inferences from the sentence. As a method for deriving the inferences there was developed a system of so-called conceptual dependency primitives (representing elementary meaningful units, such as PTRANS for any kind of physical movement or ATRANS for the transfer of possession) and a system of inference rules formulated in terms of these primitives. For instance: If x PTRANS y from location l 1 to l 2 , then both x and y will be at the location l 2 after the end of PTRANS. MARGIE translated input sentences into conceptual dependency representations, departing from which its inferencing module called MEMORY (created by C. Rieger 1975) generated as many inferences as possible. And it was supposed also that it could handle connected texts by generating enough inferences so that a chain of conceptualizations could always be found between one sentence and the next, producing thus an ’understanding’ of the text. However, two serious problems appeared here. First, there were always too many inferences: as each new conceptualization was generated, new inferences were applied leading to an explosion of inferences, so that the whole interpretation became quite unfeasible computationally. Rieger himself argued that massive parallelism would ultimately be needed in order to cope with this problem. But even in this case the second problem would remain: the problem of deciding which particular inference chains make sense in the case of a given text. In many cases, the chains of inferences produced by the system were quite implausible from the human point of view (Dyer 1983): John hit Mary. Mary was hurt. Mary went to hospital. Mary got better. Mary met a doctor and got married. INFERENCE: John hit Mary so that she would get married. It thus became clear that additional conceptual means are needed to direct the process of inferencing. People are usually not overwhelmed by irrelevant inferences, they are able to make correct inferences in the appropriate situations. What special methods and what conceptual means do they use? There can be brought out two types of means which have been elaborated in AI in

279

the attempt to answer this question. The first type includes schema-like complex structures that represent common sense cultural knowledge about stereotypical situations. These structures are generally called FRAMES after M. Minsky (Minsky 1975), but other terms are also used. The other type of means has been developed to handle less stereotypical situations and includes various mechanisms for modelling human reasoning. Let us discuss briefly what these means are and how they are used to overcome the difficulties pointed out above. Frames are conceptual units for representing complex situations with stereotypical structure. Their basic role in modelling language understanding is to represent common sense knowledge of what usually holds about the situations, actions or objects that are referred to by a word or phrase, or described by a sentence or text. With the introduction of frames there began massive import of cultural knowledge into language understanding models. For instance, the frame of the concept living-room should contain detailed information about what usually can be found in a living-room (windows, pictures on the walls, type of furniture etc.), and not merely the necessary and sufficient information about what may be called a living-room. More technically, a frame contains the base concept and a list of slots that pick out the relevant aspects of the base concept. In the case of the concepts denoted by verbs, for instance, their frames remind much of their descriptions in the case grammar formalism. For instance, the frame of (to) walk should contain such slots as AGENT, INSTRUMENT, POINT OF DEPARTURE, and so on. For every slot the class of its possible values is indicated using other suitable concepts and categories, including the so-called default values, i. e. values that are taken to hold if no other value appears in the text. For instance, the default value for the INSTRUMENT slot of to walk is legs . Let me illustrate the use of frames in the context of the same Schankian approach I described above. Schank called his variant of frames SCRIPTS (Schank/Abelson 1977; Cullingford 1978). A typical script represents a complex event made up of a sequence of scenes. For instance, the script of the event ‘dining in a restaurant’ contains, among others, the following scenes (for the meaning of PTRANS and ATRANS, see above): diner PTRANS to table;

280

waiter PTRANS to diner; diner ORDER food; waiter PTRANS food from kitchen to table; diner INGEST food; diner PTRANS from table to cashier; diner ATRANS money from diner to cashier. The scenes in a script are connected by certain links, in particular, by chains of causal inferences: each scene causes certain changes in the situation and these changes make the following scene possible. For instance, let us take the following ’story’: John went to the restaurant. He ordered lobster. Later, he left a big tip. What did John eat? Clearly, the answer is “lobster”. But this information is not given in the text and it does not even follow logically from it. This information is inferred on the ground of the restaurant-script. On the other hand, since scripts contain ’prepackaged’ inference chains they prevent combinatoric explosion of irrelevant inferences. Instead of trying to derive all possible inferences from every sentence the reader (or the system) has to make only the inferences which are needed in order to fill the activated scripts with concrete information. As should have become clear from the above description, frames proved to be an effective tool in AI in the task of organizing and using knowledge in language understanding systems. But quite soon it appeared that, first, frames can in principle provide the solution only to a restricted range of problems and, second, that even in these cases the application of frames involves many difficult conceptual and technical problems. The use of frames presupposes that the events described in the corresponding text have a highly stereotypical, predetermined structure. But only a small part of events described in a real story can be brought under some stereotype of this kind. More often the relevant connections should be established by using more abstract and flexible means than frames. Consider the following text (Dyer 1983 b): The vice-president wanted to become president. He went to the drugstore and bought some poison. When people read this text, it is not hard for them to infer that the vice-president plans to poison the president. But it hardly makes any sense to postulate some frame of the type “poisoning someone to get his job” with the corresponding scenes of “going to a

VII. Computer Simulation of Language I: Basic Problems

drugstore”, ... and so on. Secondly, even in the cases where frames could be used there remains a number of problems. How to determine in a concrete case that the given frame should be activated and not some other, or that a frame should be activeted at all? How to recover from an incorrect choice, i. e. from choosing the wrong frame? How to determine exactly what default inferences should be drawn in a concrete context? And so on (for a concise presentation of such problems, see e. g. Norwig 1983). It is not easy to find a common nomination for all types of means that have been proposed in AI literature to handle the nonstereotypic situations in stories. The common characteristics of all these conceptualizations has been that they try to model the methods of human r e a s o n i n g . In the framework of the Schankian approach the most straightforward solution was to introduce the knowledge about peoples goals and the kinds of PLANS normally used to achieve the GOALS. For instance, some types of goals were: (1) satisfaction goals: S-HUNGER, S-THIRST, S-SLEEP, S-SEX; (2) delta-goals (i. e. goals to achieve a change in state): D-PROX (change in proximity of location); D-CONT (change in control of an object); D-KNOW (change in knowledge); (3) achievement goals: A-GOOD-JOB, A-POWER, A-STATUS. In order to achieve a goal a plan has to be constructed. With each plan used to achieve a goal are associated preconditions which must themselves be satisfied. For instance, for x to gain possession of an object from y (D-CONT), x may decide to bargain for that object. To do this, x must first communicate with y. To satisty this precondition, x must get into contact with y; and so on. In this way the plans for satisfying the goals are constructed. In the story understanding context this means that instead of recognizing a ready made scheme (frame), the underlying plans of the characters involved have to be reconstructed by the system in order to infer the relevant connections between events. Nevertheless, goals and plans catch only a part of the implicit information that may be contained in a story. In order to explicate other types of information other kinds of mechanism are also needed.

25.  Language Understanding and Problem Solving: On the RelationBetween Computational Linguistics and Artificial Intelligence

Lehnert (1981) offered a typology of p l o t u n i t s as abstract content structures that may be used e. g. for summarizing narrative stories. Dyer (1982) proposed a system of TAUs (Thematic Abstraction Units) which may account for the regularities in the descriptions of intentional activities on a very abstract level. In particular, these constructs arise when expectation failures occur, causing the episodes of a narrative text to be organized around the description of planning errors. Though Lehnert’s and Dyer’s approaches offer certain conceptions of what may be called content units, these approaches still are one-sided in the sense that the units under consideration are prevailingly organized around the concepts of goals and plans, i. e. they are adapted to describe goal directed activities and not other kinds of processes. Secondly, and this is even more important, the approaches described above try to model the process of understanding solely in terms of knowledge structures of the understander. These models do not take into account the fact that what the reader notices in a text does not depend solely on his knowledge but also on his own interests or on the task with which he approaches the text (Rollinger/Schneider 1983 ). The reader does not merely expect certain facts to be described in the text, he is continuously searching for the data he is interested in (Õim/Koit/Litvak et al. 1984; Saluveer/Õim 1986). It is not easy, however, to model such subjective aspects of the receiver as his goals, interests, or focus of attention, in the context of understanding narrative text. Apparently, the difficulty of incorporating these subjective concepts into the model of understanding narratives constitute one of the main factors that can be used to explain why the study of d i a l o g u e is gaining more and more popularity in AI during the last years.

3.

Dialogue Modelling in AI

There can be distinguished — rather conventionally — three stages in the research on dialogue in AI. After the first period of question-answering systems where the dialogue provided only the outer frame within which the research was carried on, there came the stage where the dialogue in natural language with computers became the actual object of study. But still, it was the dialogue “under the conditions of the computer”, not of the

281

human users. Here e. g. such problems were studied as types of questions and possible answers to them, the identification and retrieval of the information needed for the answer (Lehnert 1978). In the third stage the specific object of study has become the n a t u r a l d i a l o g u e : though the ultimate task is to build man-machine dialogue systems, the dialogue here must be in accordance with the rules and regularities of the normal human dialogue. Since it was discovered that our knowledge of these rules and regularities is quite scarce, the share of theoretical studies in this research is remarkable. In the remaining part of the present paper I will review some central issues in this research which in the most general terms may be characterized as concentrating on the pragmatic aspects of dialogue. The first important topic here concerns the introduction of the concept of speech act into the AI literature, first of all, in the works of J. F. Allen, C. R. Perrault and P. R. Cohen (Allen, J. F. 1979; Cohen 1978; Allen/Perrault 1980). In the new context this concept aquired also new structural characteristics and was organically linked with the problematics of planning and plan recognition, a typically AI issue. The interests of Allen, Cohen and Perrault concentrated on two issues: the recognition of indirect speech acts (implicit communicative goals) behind the literally expressed ones and the problem of constructing appropriate responses to user queries. The authors show that for the solution of these problems the information about plans, goals and beliefs of the participiants is crucial. The problem of recognizing the implicit goals of the speaker may be first illustrated by the following example (in the following S denotes the speaker and H the hearer). The expression Do you know the secret, which in its literal meaning is a question, may be used also to express an OFFER by S to tell H the secret (if S knows the secret and believes that H doesn’t know it); or a REQUEST that H tell S the secret (if S doesn’t know the secret and believes that H knows it). As we see, the criterial data for the recognition (by H) of the intended speech act constitute the beliefs and knowledge states of S; the implicit goal may be inferred from the corresponding configuration of beliefs (and knowledge states) of S, and the explicit speech act — QUESTION — appears as a part of the plan of S for reaching this goal.

282

Another type of situations where the inferences about the implicit goals and plans of the partner are relevant is illustrated by the example: S: When does the Montreal train leave? H: 4: 00 at gate 7. In this answer, H provides more information than requested: wanting to be helpful, he tells also the location of departure of the train. This feature of ’being helpful’ is highly characteristic of natural interactions. But, as the authors show, the construction of such helpful responses presupposes that H were able to detect S’ s underlying plan, i. e. the plan a part of which the question was. In the given case, H is being helpful by providing the information concerning an additional aspect of H’ s plan (the plan of boarding the Montreal train), with respect to which H supposes that S may also lack information. A system that is able to demonstrate such helpful behavior in the communication with users must be an integrated system, being able to carry out reasoning at least on three levels: on the level of linguistic reasoning, on the level of reasoning about communicative goals (speech acts) and on the level of reasoning about the user’s tasks and plans. Whereas the first two levels are also in the scope of computational linguistics, the third level is considered to be specific to the AI-approach. Another issue in the research on the pragmatic aspects of dialogue which has become an object of intensive study is connected with the notions of the principles, rules and conventions of natural communication. The work in this field is generally carried out in the paradigm of Grice’s principles and maxims of communication (Grice 1975). A. Joshi 1982 took one of Grice’s maxims, the Maxim of Quality, and revised it in the context of man-machine interaction. Grice’s Maxim of Quality says: “Do not say what you believe to be false or for which you lack adequate evidence.” Joshi’s Revised Maxim of Quality: “If you, the speaker, plan to say anything which may imply for the hearer something that you believe to be false, then provide further information to block it.” Thus, Joshi’s version of the maxim makes the speaker (and, in particular, a dialogue system) responsible not only for what he (it) says, but also for what the receiver may infer from what he (it) says. Of course, it is impossible for the speaker to foresee all possible inferences which an individual hearer might draw from his utterance. But there are certain

VII. Computer Simulation of Language I: Basic Problems

types of ’tractable cases’ of such inferences that should be accounted for in a model of dialogue. For instance, two typical kinds of possible false inferences that must be systematically checked and blocked are (Joshi/ Webber/Weischedel 1984): (1) false conclusions drawn by standard default reasoning — i. e. by the user/listener concluding (incorrectly) that there is nothing special about the given case; (2) false conclusions drawn in task-oriented context on the basis of the user’s expectations about the way the system as a cooperative (helpful) expert will respond. The first case may be illustrated by the following dialogue: S: Is Sam an associate professor? H: Yes, but he doesn’t have tenure. When the information was not requested, why did H include the “but” clause into his response? Assume that H’s knowledge base contains among others the following facts: (a) Sam is an associate professor; (b) most associate professors are tenured; (c) Sam is not tenured. H knows that the fact (b) constitutes the source for the corresponding default inferences. The direct answer to S’s question would be “Yes”. But in the given situation H can reason that, given his direct answer and the fact (b), S could infer by default reasoning that Sam is tenured, which H knows to be false. Hence, following the Revised Maxim of Quality, H modifies his response to block this false inference. The second type of tractable inferences mentioned above concerns the situation where the system’s explicit task is to provide help and expertise to the user. In this situation the user has a strong expectation that the system has both the experience and motivation to provide the most appropriate help towards achieving the user goals. Assume, for instance, the following abstract situation: the user (S) is in a state S (a) and wants to be in another state S (b), and that he is asking the system whether he can reach the state S (b) by certain action A i . Suppose now that the system knows that it is possible to reach S (b) from S (a) by the action A i , but that there is another, much better action A j , which also will take S from S (a) to S (b). In this situation the simple response “Yes” would be uncooperative since it would lead the user to the false conclusion that there is no better action than A i . The appropriate answer would be: “Yes, but there is a better action A j that will take you from S (a) to S (b).”

26.  Representational Language in Language Understanding Systems

In another situation, however, where the system knows that the action A i will n o t take S from S (a) to S (b), but that another action, A k , will, again the simple “No” would be inappropriate for a cooperative expert. Instead, his response should be of the type “No, but there is an action Ak that will take you from S (a) to S (b).” The ability to make such helpful responses presupposes, however, as in the cases considered by Allen and his colleagues, that the system should be able to reason about the goals and plans of the user and, in the first place, to infer these goals and plans from the user’s questions. It is this intertwining of the knowledge of language structures and of the regularities of communication (dialogue) with the use of the methods of planning and problem solving that is most characteristic of the AI-approach to the problems of language understanding.

4.

Concluding Remarks

Let us summarize briefly. AI has tackled language understanding in two main contexts. These are story understanding and dialogue modelling. In both of these areas there are problems that might be equally well attributed to AI and CL. The specifics of the

283

AI-approach consists in the integration of the language information with the methods of problem solving, planning and knowledge representation that are developed exclusively in the frames of AI. This gives AI its power in solving the problems of understanding in concrete contexts. On the other hand, this approach also lacks AI of the ability to provide universal solutions to the problems of language understanding that computational and general linguistics are seeking for.

5.

Literature (selected)

J. F. Allen 1979 · J. F. Allen/C. R. Perrault 1980 · M. Bates/R. I. Bobrow 1984 · J. G. Carbonell 1979 · P. R. Cohen 1978 · R. E. Cullingford 1978 · M. G. Dyer 1982 · M. G. Dyer 1983 b · E. Feigenbaum/J. Feldmann 1963 · H. P. Grice 1975 · A. K. Joshi 1982 · A. K. Joshi/B. Webber/R. Weischedel 1984 · J. L. Kolodner 1980 · W. Lehnert 1978 · W. Lehnert 1981 · M. Minsky 1975 · K. Morik 1983 · A. Newell 1982 · P. Norwig 1983 · H. Õim/M. Koit/S. Litvak et al. 1984 · C. J. Rieger 1975 · C.-R. Rollinger/H. J. Schneider 1983 · R. C. Schank 1975 · R. C. Schank 1982 a · R. C. Schank/ R. Abelson 1977 · M. Saluveer/H. Õim 1986 · D. Waltz 1985 · T. Winograd 1972 · T. Winograd 1980 b · R. Wilensky 1978 · P. H. Winston 1977.

Haldur Õim, Tartu, Estonia (USSR)

26. Representational Language in Language Understanding Systems 1. 2. 3. 4. 5. 6.

1.

General Outline The Lexical Representation Level The Clausal Representation Level The Micro-Structural Representation Level The Macro-Structural Representation Level Literature (selected)

General Outline

This article considers models for the internal representation of linguistic utterances in computer memory. The choice of model is motivated by the nature of the linguistic simulation a given application is intended to perform. The motivation may be cognitive modelling; this means that the computer is intended to simulate understanding of linguistic utterances in a human-like fashion. Its ultimate motivation is hence the testing of psycholinguistic theories. However, language understanding cannot be tested in a vacuum; hence, specific tasks are singled out such as

answering questions (by making inferences), or paraphrasing or summarizing a discourse. The nature of the simulation task influences the representation model so that in practice it is impossible to test an abstract psycholinguistic therory. (The further reaching implication of this may be that people in fact also have different processing strategies according to the kind of linguistic task they are performing.) A rather different motivation for choosing an adequate representation language is the desire to build an efficient computer system that will perform a computationally well defined task, in which natural language is used as a vehicle to encode instructions to the computer -in other words, natural language is used as a high-level programming language. This is the case in ’front ends’ to application systems such as database retrieval systems, expert systems or computer assisted instructional systems. I want to make this distinction

284

right at the beginning, as the two types of motivations for simulating natural language are essentially different in kind. In the latter case, we are dealing with a transformational or mapping problem: how can a given utterance be translated into a set of predefined computer instructions (such as a relational calculus, operating systems commands, etc.). This is by no means a trivial problem as it involves, on the one hand, considerations of the semantics of natural language and, on the other hand, considerations of transportability to different computer systems. It should be pointed out, however, that current research in these application areas is coming to the view that the ’mapping’ paradigm is too narrow and that ultimately the design of adequate natural language interfaces requires real ’understanding’, as particularly exemplified in such areas as reference resolution. (For a discussion of these problems, see for example Wahlster/Jameson/Hoeppner 1978). So, the insights gained by the design of systems having psycholinguistic or cognitive motivations will eventually be applied to the more practical applications. Until then, however, designers of practical systems largely adopt the ’knowledge engineering’ point of view, namely to build a reasonably robust system in a highly constrained environment. The problem of building practical natural language interfaces is addressed in section XI in this volume. The present article will consider representational issues in the context of the simulation of natural language understanding. We shall investigate primarily representation models for written discourse. In this situation, the computer simulates a human reader who is confronted with the problem of understanding a written text. The situation where the computer actually simulates a human dialogue partner is rather more complex, involving competence in the application of conversational rules and partner modelling. These aspects we consider to fall outside the scope of this paper (but see Morik 1985). The internal representation of a written text should be considered from two different points of view, namely the descriptive and the processing point of view. The former deals with the static representation of the information contained in the text and the latter deals with the way this information is “assimilated” by the system, i. e. how it is incorporated with existing knowledge structures, how it is organized in short and long term memory

VII. Computer Simulation of Language I: Basic Problems

and how it is accessed in a given task. This article focusses primarily on the descriptive level of analysis. The descriptive level is concerned with the representation of the literal contents of a text. It aims, at giving an unambiguous canonical representation of the text at each level of complexity. It should be mentioned at the onset of this paper that it is a philosophically complex question whether indeed it is possible to represent knowledge (expressed in natural language) in a unique canonical form, regardless of how this knowledge is to be used. The predicate calculus, for example, is a formalism that is intended to represent relations between objects in the world, regardless of the intention of the speaker conveying this knowledge. (Even so, Quine 1961, 9 raises the issue of whether individual objects can be described uniquely, independently of how they are interpreted.) This paper takes the methodological point of view that a descriptive level of representation reflects some of the abstract competence to construct well-formed linguistic structures of discourse (both at a sentential and a suprasentential level) and that the issue of how these structures are manipulated and used can be to some extent separated out. The first task in designing a representation model for a language is to distinguish the different types of information encoded in a text and to delimit representation levels. First, the relevant units of analysis must be distinguished. We shall consider the most basic unit to be the lexical item; the second unit the clause, the third unit the complex sentence (or a sequence of two succeeding sentences, as will be explained later) and the fourth unit the entire text. Second, a model of discourse must represent the various functional roles of the linguistic utterances. Traditionally, linguistics has distinguished between the lexical, the morpho-syntactic, the semantic and the pragmatic levels of analysis. The first three levels mentioned are fairly well defined (and have also served as one of the underlying structuring principles of this handbook). The pragmatic level is less clearly defined and part of the aim of this paper will be to address various aspects of this level. In the context of model-theoretic semantics the pragmatic level deals with the disambiguation of ’contextual’ expressions such as pronouns and adverbs of time and place. The term ’pragmatic’ has often been used in a wider sense to denote all aspects pertaining to the speaker’s intention when

26.  Representational Language in Language Understanding Systems

making an utterance. This leads to the consideration of what should be represented: the propositional content of an utterance or its intended content. (For instance, should the utterance “It’s cold in here” be represented as a proposition expressing a state of affairs or as a request for an action from a listener in a given situation?) The so-called ’speech-act’ approach to linguistic utterances (see Searle 1969) in its widest application views linguistic behaviour in the context of a theory of human action. This paradigm has been adopted by several AI scholars (notably Cohen/Perrault 1979 and Appelt 1981). In our view, a speech-act interpretation of text belongs to the processing level of analysis. In the following sections we shall present proposals for declarative representation languages to represent a text at the four levels distinguished above, namely: the lexical level, the clausal level, the micro-structural level (i. e. the level representing rhetorically related clauses) and the macro-structural level (i. e. the text level). Some of the formalisms discussed apply exclusively at a particular level (such as the first order predicate calculus applying to the clausal level); whereas others can be extended to represent all levels (such as conceptual dependency theory). It is often the case that a given formalism is particularly well suited for some level of analysis, although it can be extended to cover other levels. In these cases we shall discuss the formalism at the level it is most suited for. This is by no means an exhaustive overview but rather an attempt to represent some of the most widely used formalisms in the literature. Finally, we want to point out that this article is primarily concerned with representation issues relating to the content of discourse and not with representation formalisms designed to facilitate accessing knowledge structures, such as frames, scripts, semantic nets. These issues are dealt with in art. 27 and 29.

2.

The Lexical Representation Level

Any natural language processing system must rely on a lexicon or dictionary which contains the lexical elements of that language. The lexical units may be canonical ’root’ forms — in which case some morphological analysis reduces word entries to their respective roots — or they may be ’words’ defined in a graphical sense, i. e. bounded by spaces or punctuation symbols. The lexicon serves at least two functions: it records the grammati-

285

cal properties of the lexical units to be used by the parser and it records some of their semantic properties. The exact nature of the semantic properties will depend on the representation language chosen to represent sentences. For example, in a predicate calculus representation, a verb may have associated with it a canonical relation name. The most important semantic function of the lexicon is to disambiguate lexical homonyms such as the english word ’bank’. A more complex problem concerns the representation of synonyms or near-synonyms. For example, should the verbs ’glance’ and ’look’ receive the same representation in the formal language? The answer to this question depends on the aims of the language processing system and the degree to which it is intended to model natural linguistic behaviour. It could be argued that no two words mean exactly the same thing, but they have at least different stylistic connotations. If the natural language system has to function as a front-end to, say, a database retrieval system which has a limited inventory of query words, the need to reduce many near-synonyms to the same canonical form is imperative. On the other hand, a system that aims at simulating natural language understanding would need to explain that words such as ’glance’ and ’look’ are related and the nature of their relation (such as ’glance’ means ’to look for a brief moment’). The desire to relate the meanings of lexical items to each other has led to the theory of ’semantic primitives’. This theory postulates that human lexical knowledge relies on a small set of primitive meaning elements that combine into specific lexical units. Such a decomposition is claimed to be necessary in the process of drawing inferences from given sentences. The most notable examples of the ’primitives’ theory in the AI literature are the conceptual dependency theory (see Schank 1975 a) and the theory of semantic preference (see Wilks 1972). For example, the conceptual dependency theory distinguishes 12 primitives to represent actions; thus verbs such as ’go’, ’run’, ’walk’ ... would be represented by the primitive act PTRANS. In addition to the meaning primitives, conceptual dependency has rules for describing sentences as larger dependency structures making use of case relations as described in the next section. Using primitives facilitates the description of inference rules by which the knowledge conveyed in a text can be manipulated. Hence,

VII. Computer Simulation of Language I: Basic Problems

286

although mentioned at the lexical level, conceptual dependency theory is a comprehensive theory of discourse understanding. Other issues pertaining to lexical analysis are dealt with in art. 3 0. We shall hence concentrate on the other representation levels.

3.

The Clausal Representation Level

At the clausal representation level we are concerned with representing elementary relations between individual objects. Apart from conceptual dependency theory, mentioned above, two major formalisms to represent clauses that have been widely used are case frames and first order predicate calculus (FOPC). Case or thematic-role theory associates with each verb a number of thematic roles, such as agent, object, recepient etc. which may be filled by noun phrases in the sentence. Case frames were first introduced in linguistic theory by Fillmore (1968). The notion of case frames can be combined with other representation formalisms such as conceptual dependency and may even be integrated into FOPC by the introduction of a sorted domain of individuals. FOPC comes closest to our requirements for a descriptive formalism for natural language clauses and forms the basis for many representation schemes currently used in natural language processing (such as semantic nets and frames). FOPC offers a formal scheme to represent individual objects (as names or descriptions) and relations between them (as predicates). Thus a basic formula of the FOPC consists of an n-ary predicate followed by n (possibly quantified) argument terms. Complex formulas can be formed by means of the logical operators AND, OR, NOT and IMPLY. Formulas of the FOPC have a truth-conditional semantics based on mathematical model theory which defines the relationship between an expression and a state of affairs in the world. It also has a formal specification of how to obtain the truth value of complex expressions from the truth values of its parts. The requirement that a system for the representation of natural language utterances have a formal semantics — whether the representation formalism is a network, a frame or whatever — is mandatory if the system is to map sentences against states of the world. However, FOPC presents serious difficulties if arbitrary natural language sentences

are to be represented. First order logic is only adequate to represent elementary English clauses such as ’John loves Mary’ and not complex clauses with connective words, such as ’John loves Mary, because she is pretty’. The representation of the latter sentence would involve higher order predicates taking formulas as their arguments. (Even simple sentences containing adverbs involve in principle higher order predicates, although some proposals have been put forward to represent adverbs in first order logic.) As will be discussed below in 4. a propositional language is better suited to express complex sentences. Other notorious representational difficulties involve natural language quantifiers, mass terms and descriptions. (Some issues in the semantics and pragmatics of definite descriptions are discussed in BerryRogghe 1984.) However, as the first order predicate calculus presents many advantages, particularly automated deduction techniques, it is widely used in natural languagebased computer systems; especially in systems that process primarily simple sentences such as database query systems.

4.

The Micro-Structural Representation Level

The distinction between a micro- and a macro-structural level is to a iarge extent fuzzy. In both cases we are dealing with the problem of representing connected discourse. We make the distinction largely for methodological reasons. We shall define the micro-structural level as dealing with the representation of the logical and rhetorical relations that obtain between various clauses in a single sentence and between two or more consecutive sentences. The macro-structural level describes the organization of larger units of text, such as the relation between paragraphs. Thus, given sets of sentences which are tied together by some logical or rhetorical relation such as causation or condition, these sets of sentences may be assembled in different ways in order to convey different intentions of the text at the macro-structural level, such as describing or tutoring. The distinction we draw between micro and macro levels of analysis could be viewed as a distinction between a descriptive and process level of analysis. For the description of the argumentative structure of a discourse some formal languages have been proposed. But discovering what kinds of relations are exhibited in a

26.  Representational Language in Language Understanding Systems

given text requires processes involving a variety of mechanisms. Also, all discourse processing systems need some mechanisms for the resolution of anaphoric reference which cannot be accounted for on a purely descriptive level. Such mechanisms require knowledge of the overall structure and contents of the discourse as well as situational and non-linguistic knowledge. All these aspects we consider as belonging to the macro-structural level of analysis. Researchers in discourse understanding have tended to focus on solving some of these aspects, such as the theory of context spaces for reference resolution (see Reichman 1985) or the theory of text grammars (see Rumelhart 1975) or scripts (see Schank/Abelson 1977) for the representation of the overall content structure of a text. Some of these formalisms will be discussed below in 5. In the following we shall discuss propositional languages for the representation of the micro-structure of a text. The distinction between a propositional language and a predicate calculus language is that in the former only propositions have truth value. Propositional languages are particularly suited to represent argumentative relations between clauses. A formal definition of a typed many-sorted propositional language was given in Kalish/Montague (1964) for the description of symbolic languages for formal theories. This language has formed the basis of the language SRL developed in the KIT project in Berlin (see Rollinger 1983 a) as a model for text understanding. Propositional languages are also used in most of the psychological research in reading comprehension. Their most prominent advocates are Kintsch and van Dijk. (An initial outline was made in Kintsch/van Dijk 1978 which was elaborated in van Dijk/Kintsch 1983 .) Their proposal is also becoming used in some research for reasoning with knowledge contained in textual material by AI researchers (see Berry-Rogghe/Kaplan 1986 and Patel/ Groen 1986). Because we used this formalism in our own research on the aquisition of a knowlege base from tutorial texts we shall present the Kintsch/van Dijk approach in some greater detail. According to van Dijk and Kintsch, propositions correspond to ’knowledge chunks’ which are the primary units in the encoding of language in longterm and working memory. Each proposition is formally an n-place relation consisting of a head element followed by n arguments. The

287

arguments may be labelled with semantic categories, such as in a case grammar. A distinction is made between simple and complex propositions. Complex propositions denote clausal connecting relations — such as COND or CAUS — and take propositions as their arguments. The following example, taken from Berry-Rogghe/Kaplan 1986 illustrates the propositional representation approach following the rules for proposition generation outlined in Bovair/Kieras 1985. Thus, the sentence ’When a cloud forms, the invisible water vapor in the air condenses into visible droplets of water’ would be represented by the following set of propositions: P1 P2 P3 P4 P5 P6 P7

(WHEN P 2 P 3) (FORM cloud) (CONDENSE-INTO water-vapor droplets) (MOD water-vapor invisible) (IN air water-vapor) (MOD droplets water) (MOD droplets visible)

It should be clear from this example that the propositional structure generated at this point only reflects the surface structure of the sentence. A semantic representation requires defining the nature of the logical relation between the major propositions. Thus, the surface predicate WHEN in P 1 can be mapped into the semantic predicated COND or alternatively SEQ denoting a conditional or sequential logical relation between P 2 and P 3 , as the case may be. It should be pointed out that the propositional representation proposed by Kintsch and van Dijk does not have a truth-functional semantics; in other words it does not carry a formal specification of how the meaning of a complex proposition is derived from the meaning of its parts. This is only justifiable in as far as the formal representation is merely intended as a canonical representation against which to compare similar structures and not as a language asserting states of affairs in the world. As a formalism for representing the internal structure of a text, this approach may seem adequate. In order to map the surface predicates of major propositions into an unambiguous semantic representation a catalogue of possible logical and rhetorical relations should be compiled. Several such relations have been suggested in the literature (see Meyer 1985, Halliday/Hasan 1976, van Dijk 1980 a and others). There seems to be general agreement

VII. Computer Simulation of Language I: Basic Problems

288

that these relations include at least the following: CAUSATION (marked in English by such connectives as because, since, as etc.), CONDITION (marked in English by if .. then .. ), CONTRAST (marked by but), COLLECTION (marked by and) and TEMPORAL (marked by after, before, when, whenever ...). Although there is to some extent a one-toone mapping between natural language connectives and a particular rhetorical relation, many natural language connectives are ambiguous. In addition, two sentences may be implicitly connected, such as It’s raining. I’ll take my umbrella. A further problem that confounds the unique establishment of the rhetorical relations is the determination of the correct dependency structure when several connectives occur in a single sentence. For example, what should the correct bracketing be for the sentence When water boils, bubbles appear and steam rises ? Should it be: (WHEN P 1 (AND P 2 P 3 )) or (AND (WHEN P 1 P 2) P 3 )? Our intuition tells us that the former structure is correct in this case but that the latter structure would be correct in the sentence When I eat too much cake, I get fat and I don’t like cake, anyway. In the majority of cases, these problems cannot be solved without considering larger text units, as well as the larger situational context, including world knowledge. Our own approach (Berry-Rogghe 1984) involved the use of coherence relations at the macro-structural level, in particular, the use of text schemata. Thus, in a tutorial text the author often makes a statement of the form “IF P 1, THEN P 2” and continues to explain “WHEN P 1” by means of another rule of the form “IF P 3 , THEN P 1”. In the case of tutorial texts, reliance on text schemata of this kind yields satisfactory results. In other text genres, reliance on world knowledge (as encoded in scripts) may be more appropriate.

5.

The Macro-Structural Level of Representation

The marcro-structural level deals with relationships among ideas represented in complexes of sentences or paragraphs; it explains what the major theme of the text is and how this theme is developed. Two kinds of theories about the mechanisms to determine the macro-structure of a text have been proposed. From the point of view of the language user’s competence, these theories

may be classified as either “external” or “internal”. External theories rely uniquely on the information encoded in the text — this is the case in linguistic theories of “coherence”. Internal theories rely rather on internalized prior knowledge — such as knowledge about the world or about text genres. 5.1. External Macro-Structural Theories We shall give two examples of external macro-structural theories: the theory of linguistic cohesion by Halliday/Hasan (1976) and the propositional graph theory by Kintsch/ van Dijk (1978). As it was already noted in the introduction, very few theories of discourse operate at one of the four levels we have distinguished exclusively. Similarly, Halliday/Hasan’s theory of linguistic cohesion operates at the following three levels: (i) the ’texture’ within a sentence, (ii) the ’texture’ of the whole discourse and (iii) the structure of this discourse. The sentential cohesive principle is the ’rheme’ — ’theme’ distinction (or ’new’ versus ’old’ information). By the “texture of the discourse” they refer to a set of ’cohesive’ ties, the major ones being: (i) reference, (ii) substitution (iii) ellipsis, (iv) conjuction and (v) lexical cohesion. Whereas features (i) through (iv) can be defined with reference to information explicitly encoded in the text, (v) refers to the use of associated lexical elements, such as door and key being associated with house in the sentence She came to John’s house. She got the key and opened the door. This use of lexical cohesion obviously relies on internalized knowledge about definitional and functional properties of houses and doors. Similarly, the third level — namely the entire discourse structure makes use of notions of ’textual schemata’ which belong to the category of internal theories as explained below. The ’propositional graph’ theory as explained in Kintsch/van Dijk (1978), relies almost entirely on surface features of the text. The procedure for graph construction is as follows. Select one proposition on the basis of its conceptual centrality and put it at the top of the graph structure. Link the other propositions to this superordinate proposition and to each other through their shared arguments (including the head relations). The aim of this model was primarily to test reading understanding and to compare the structures obtained from subjects in recall tasks. Some of its limitations are obvious: the graph records the coherence of the text but does not

26.  Representational Language in Language Understanding Systems

289

label the nature of these coherency structures (such as CAUSATION, CONDITION etc.) Some conceptual knowledge — other than exclusively surface knowledge — is also required in the selection of the superordinate or ’central’ proposition. The construction of a conceptual graph may be useful as one means of establishing text coherence as a form of lexical coherence. (Construction of a ’referential graph’ is also a central part of the discourse understanding system described in Rollinger 1983 a). In order for such a graph to show all relevant connections between sentences, it is also necessary that the propositions making up the graph have been normalized into a canonical form. Thus, relying exclusively on the surface form of a sentence, the graph would not be able to show any connection between the following two sentences occurring in the same text: Clouds form when water vapor turns into droplets of water and Condensation occurs when the air rises.

course comprehension particularly in the area of reference resolution.) Textual schemata are frequently encoded in the form of text grammars. A text grammar is a schema that represents frequent configuration of textural elements. The basic units of the grammar may be rhetorical categories. For example, Meyer (1985) proposed that a text be analysed at the macropropositional level in terms of the following five basic rhetorical categories which, recursively applied, subsume the entire macro-structure of a text: — collection: related ideas or events in the basis of some commonality — causation: a causal relation between an antecedent and a consequent — response: a problem statement followed by a solution — comparison: differences or similarities between two concepts — description: giving more information about a topic.

5.2. Internal Macro-Structural Theories

These categories are very abstract and apply to most text — but they seem to be particularly well suited to represent the argumentative structure of expository texts. Narratives and stories require some more specific categories for this genre. As an example, we show a portion of a ’story grammar’ taken from Rummelhart (1975).

Internal theories of the macro-structure posit the existence of cognitive generic knowledge structures or schemas. Schemas are natural packets of highly structured generic knowledge which may be about world knowledge, pragmatic knowledge and knowledge about language. (Schemas have been variously referred to as FRAMES — see Minsky 1975 and Charniak 1978 a —, SCRIPTS — see Schank/Abelson 1977 — STEREOTYPES etc.) At the macrostructural level of analysis two types of schemata are relevant: world knowledge schemata and text structure schemata. The frame and script based theories cited above fall into the former category whereas proposals for text grammars fall into the latter category. World knowledge schemata represent knowledge about human actions and their effects as well as specific knowledge about prototypical events in the world. This model has been quite successful in the processing of narratives and was also applied to a scientific text (about the launching of a rocket) by de Beaugrande (1980). As we feel that the discussion of the representation of world knowledge does not fall within the scope of this article, we shall not discuss this topic any further here, but rather concentrate on the theory of textual schemata, in as far as these can be discovered from the textual material itself. (This does not imply that world knowledge is irrelevant for dis-

Story → setting + episode setting → (states)* episode → event + reaction event → {episode  change-of-state  action  event + event} R 5 reaction → internal-response + overt-response R 6 internal-response → {emotion  desire} R 7 overt-response → {action  (attempt)*} R 8 attempt → plan + application R 9 application → (preaction)* + action + consequence R 10 preaction → subgoal + (attempt)* R 11 consequence → {reaction  event} Psychological experiments have validated the existence of text structure schemata on at least two accounts. On the one hand, it was shown that the role of content knowledge is limited when subjects are asked to pick out the central proposition from a text. Even with very little understanding of the subject matter, subjects are usually able to recall the R R R R

1 2 3 4

VII. Computer Simulation of Language I: Basic Problems

290

main statements of a text, relying on surface level linguistic and typographical clues which confirm their expectations generated by the internalized structure schemata. (It would appear that it is part of the self-training of college students, to cultivate the ability to process complex verbal material without fully understanding it.) Our discussion of the macro-structural representation level confirms the point made in the introduction, namely, that the choice of formalism for computer discourse understanding is largely dependent on the use of the simulation program. Not only does it appear that different tasks, such as paraphrasing or retrieving, require different representation formalisms but it would seem that the genre of the text being analysed also dictates different approaches. (This would imply that different situational contexts, such as story telling or tutoring, use different language processing strategies.) It remains as yet an unsolved theoretical issue in the establishment of psycholinguistic models for language

27. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10.

1.

processing whether the traditional dichotomy between competence (descriptive) models and performance (process) models is valid.

6.

Literature (selected)

D. Appelt 1981 · G. Berry-Rogghe 1984 · G. BerryRogghe/R. Kaplan 1986 · S. Bovair/D. Kieras 1985 · E. Charniak 1978 a · Ph. Cohen/R. Perrault 1979 · R. de Beaugrande 1980 · C. J. Fillmore 1968 · M. A. K. Halliday/R. Hasan 1976 · D. Kalish/R. Montague 1964 · W. Kintsch/T. A. van Dijk 1978 · B. J. F. Meyer 1985 · M. Minsky 1975 · K. Morik 1985 · V. L. Patel/G. Groen 1986 · W. V. Quine 1961 · R. Reichman 1985 · C. R. Rollinger 1983 a · D. Rummelhart 1975 · R. Schank 1975 · R. Schank/R. P. Abelson 1977 · J. R. Searle 1969 · T. A. van Dijk 1980 a · T. A. van Dijk/W. Kintsch 1983 · W. Wahlster/A. Jameson/W. Hoeppner 1978 · Y. Wilks 1972.

Geneviève Berry-Rogghe, Philadelphia, Pennsylvania (USA)

Rolle und Funktion von Netzwerken in der Computersimulation von Sprache Einleitung: Repräsentation und Repräsentationsschemata Objekt-orientierte Programmierung Die deklarative Komponente von Netzwerk-Repräsentationen Die prozedurale Komponente von Netzwerk-Repräsentationen Assoziative Netzwerke Netzwerke, Monotonie und Konsistenz Verwendung von Netzwerken für die Verarbeitung natürlicher Sprache Verwendung von Netzwerken: Übergangsnetzwerke Konnektionistische Netzwerke Literatur (in Auswahl)

Repräsentation und Repräsentationsschemata

Der Begriff der Netzwerkes begegnet uns in verschiedenen Bereichen der Computerlinguistik als formales Mittel zur Repräsentation von Information und ihrer Verarbeitung. Es wäre jedoch zu einfach, Netzwerkdarstellungen nur als Visualisierung von Beziehungen zwischen Informationseinheiten (z. B. Wörtern, Kategorien- und Merkmalssyste-

men) durch gerichtete Graphen anzusehen. Obwohl die mathematische Graphentheorie Mittel zur formalen Behandlung solcher Systeme bereitstellt, ist sie nicht hinreichend. Denn immer geht es in der Computerlinguistik neben dem deskriptiven bzw. deklarativen Aspekt auch um den prozeduralen, also die Verarbeitung von Strukturen. Daher wird üblicherweise die Darstellung von Sachverhalten in der deklarativen Komponente eines Repräsentationssystems zusammengefaßt, während seine prozedurale Komponente die strategische und taktische Information für die Problemlösung enthält, also die Performanz des Systems festlegt. Gemäß Kowalskis Feststellung „Algorithm = Logic + Control“ legen wir der folgenden Darstellung einen formal-sprachlichen Rahmen zugrunde, der beide Aspekte integriert und der in den letzten zwanzig Jahren im Bereich der Programmiersprachen entwickelt wurde: den objektorientierten Programmierstil. Die dort bereitgestellten Mittel tragen beiden Interessen der CL gleichermaßen Rechnung: dem Interesse an Verarbeitungsmodellen ebenso wie dem an reichhaltigen deskriptiven Ausdrucksmitteln.

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

Nun mag man fragen, ob nicht die dadurch implizierte Reduktion von ’Wissensrepräsentation’ auf ’Programmierung’ ebenfalls zu kurz greift. Zweifelsohne hat der Gesamtkomplex der Repräsentation von Information — sowohl auf der Objektebene (Kompetenz) wie auf der Metaebene (Performanz) — auch eine epistemologische Komponente. Epistemologische Entscheidungen sind aber innerhalb der jeweiligen zugrundegelegten linguistischen Theorie zu treffen, und nicht im Rahmen der formalen Darstellungsmittel — um die es hier geht —; von diesen ist lediglich zu fordern, daß sie jene Unterscheidungen in angemessener Form auszudrücken gestatten. Wenn im folgenden im Unterschied zu ’Information’ von ’Wissen’ gesprochen wird, so soll dadurch der epistemische Aspekt besonders betont werden. Im folgenden soll nicht weiter zwischen ’Kenntnissen’ und ’Wissen’ unterschieden werden. Nach allgemeinem Sprachgebrauch nennt man eine Menge von Aussagen (propositionales) Wissen einer (oder mehrerer) Personen dann und nur dann, wenn diese Aussagen bestimmte inhaltliche Bedingungen erfüllen, diese Person(en) vom Wahrheitsgehalt dieser Aussagen überzeugt sind und für diese Aussagen gute Gründe geltend gemacht machen können. Kenntnisse (wie Sprachkenntnis) haben ersichtlich nicht diesen propositionalen Charakter; es muß offen bleiben, ob hierfür die gleichen Repräsentationsschemata wie für propositionales Wissen angewandt werden können. Allerdings eröffnet uns die Einbettung dieser Fragestellung in einen programmiersprachlichen Rahmen aus methodischer Sicht eine Reihe von systematischen Unterscheidungen, die eine saubere Rekonstruktion der in der Computerlinguistik entstandenen, insbesondere an Techniken der KI orientierten Darstellungsformen gestatten, wie z. B. den sog. ’Semantischen Netzwerken’. In Anlehnung an Schefe (1982) wollen wir die folgenden Abstraktionsebenen unterscheiden: Ebenen Physikalische Realisierung — Schaltkreise —

Beziehung Materialisierung

Konkrete Implementierung — Konkrete Datenstrukturen und Prozeduren — Implementierung Abstrakte Implementierung — Abstrakte Datenstrukturen und Prozeduren —

291

Implementierung Formale Rekonstruktion — Symbole — Formalisierung (informelle) Darstellung — Wörter — Bezeichnung (Denotation) Konzeptualisierung — Begriffe — Referenz Objekte der realen Welt — Dinge an sich — In diesem Zusammenhang sind vor allen die Ebenen formale Rekonstruktion, abstrakte Implementierung und konkrete Implementierung von Interesse. Gerade diese Unterscheidungen werden in der Literatur oft nicht klar getroffen. Allgemein versteht man unter einer Darstellung oder Repräsentation den Vollzug von Zeichenhandlungen oder deren Ergebnis. Wir interessieren uns hier vor allem für das Ergebnis von Darstellungshandlungen und wollen im folgenden den Terminus Repräsentation in diesem Sinne verwenden. Repräsentationen sind also semiotische Objekte mit einem Personen- oder Sachbezug, die aus Zeichen als ihren Objekten aufgebaut werden. Die Syntax einer Repräsentation spezifiziert die Menge der zu verwendenden Symbole, insbesondere auch der Primitiva, und die Möglichkeiten ihrer Kombination. Ihre Semantik spezifiert, auf welche Weise den Symbolen und ihren syntaktisch zulässigen Kombinationen Bedeutung (außerhalb ihrer selbst) zukommt. Repräsentationen haben einen Bezug auf ihre Verwender, indem sie im Vollzug von Darstellungshandlungen eigens produziert und rezipiert werden; dies ist ihr pragmatischer Aspekt. Von besonderer Bedeutung ist dabei, daß ein Repräsentationsschema über eine wohldefinierte semantische Theorie verfügt. Daher liegt es nahe, auf der Ebene der Formalisierung vor allem auf die Quantorenlogik zurückzugreifen. Die Forderung nach einer wohldefinierten Semantik gilt gleichermaßen für das auf der Implementierungsebene zu wählende Repräsentationsschema. Besitzt dieses z. B. eine wohldefinierte denotationelle Semantik, so benötigen wir noch ein Mittel, um Beschreibungen der einen Ebene auf solche der anderen zu beziehen, ein Äquivalenzsemantik zwischen den beiden Ebenen. Bevor wir uns einer Klassifikation der darzustellenden Information zuwenden, müssen wir jedoch kurz auf die allgemeine Diskussion über Wissensrepräsentation ein-

VII. Computer Simulation of Language I: Basic Problems

292

gehen, die auf einige generelle Anforderungen an Repräsentationssysteme hinweist. Typisch für das in der KI vorherrschende Verständnis von Wissensrepräsentation ist die von B. C. Smith (1982) so genannte Knowledge Representation Hypothesis: „Any mechanically embodied intelligent process will be comprised of structural ingredients that — we as external observers naturally take to represent a propositional account of the knowledge that the overall process exhibits, and — independent of such external semantical attribution, play a formal but causal and essential role in engendering the behaviour that manifests that knowledge.“

An erster Stelle aber muß geklärt werden, welche Arten von Information (bzw. Wissen) darzustellen sind und wie dieses Wissen zu verwenden ist, also sein Erwerb, der Zugriff darauf, und die Ausführung von Schlußfolgerungen. Dabei muß ein Repräsentationssystem gewährleisten: — Adäquatheit des Ausdrucks, d. h. insbesondere, welche Unterscheidungen getroffen werden können und welche Unterscheidungen unspezifiert bleiben dürfen, um so partielle Information auszudrücken; — Effizienz der Notation, d. h. welche Form und Struktur die Darstellung hat und welche Konsequenzen für die Arbeitsweise des Systems daraus folgen, insbesondere die algorithmische Effektivität für verschiedene Arten der Schlußfolgerung, die Klarheit der Darstellung und die Änderungsfreundlichkeit des Repräsentationsschemas. Notwendigerweise müssen die Repräsentationskonstrukte als Aussagen zu interpretieren sein und, so Smith, für die Repräsentationssprache muß eine Wahrheitstheorie existieren. Darüberhinaus sollen diese Konstrukte eine kausale Rolle für das Verhalten des Systems spielen, dessen Wissensbasis aus ihnen aufgebaut ist. In Anlehnung an Woods (1983 ) sind die folgenden Punkte von zentraler Bedeutung: — Wie ist ein Repräsentationssystem zu strukturieren, daß es im Prinzip in der Lage ist, alle relevanten Unterscheidungen auszudrücken? — Wie ist zu verfahren bei Details, die nicht weiter aufgelöst werden können? Wie können unterschiedliche Grade der Detaillierung in einem Repräsentationsschema ausgedrückt und wie können Repräsentationen verfeinert werden? — Wie kann man effizient erkennen, welches Wissen in einer bestimmten Situation

relevant ist? Wie groß müssen die relevanten Informationseinheiten und -komplexe sein? — Wie kann neues Wissen im Lauf der Aktionen des Systems dynamisch erworben werden? Wie können mit dem Informationserwerb simultan multiple Repräsentationen von Sachverhalten bestimmt werden, die die unterschiedlichen Aspekte ihrer Verwendung, Absicht und Umstände ausdrücken? — Wie können einzelne Informationseinheiten in der Reihenfolge integriert werden, in der sie vorgefunden werden, und nicht in einer von der Darstellung erforderten systematischen Ordnung? Ohne an dieser Stelle auf eine detaillierte Begründung eingehen zu können, hat sich für die darzustellende Information die folgende Klassifikation bewährt: — Information über Objekte: Aussagen, die Fakten (Tatsachen) über die Gegenstände des Objektbereichs formulieren. Dazu benötigt man Verfahren, um Beschreibungen von Objekten und Klassen von Objekten darzustellen. — Information über Ereignisse und Handlungen: Neben Verfahren zur Darstellung von Ereignissen selbst sind auch Methoden zur Repräsentation von Verläufen und Kausalitätsbeziehungen erforderlich. — Information über Performanz: Zur Ausführung von Handlungen ist weiterhin auch Information darüber erforderlich, wie etwas auszuführen ist. — Meta-Information: Sie drückt Wissen darüber aus, was wir wissen und wie wir mit diesem Wissen umgehen. So besitzen wir beispielsweise Wissen über den Umfang und den Ursprung unseres Wissens über einen besonderen Gegenstand, über die Zuverlässigkeit bestimmter Information und über die relative Wichtigkeit bestimmter Sachverhalte. Meta-Information schließt auch Wissen über unsere eigene kognitive Performanz ein: über unsere Stärken und Schwächen, die Präzision unseres Denkens, über unsere Expertise in bestimmten Gegenstandsbereichen und darüber, was es heißt, bei der Lösung eines Problems einen Schritt vorangekommen zu sein.

2.

Objekt-orientierte Programmierung

Im Bereich der Programmiersprachen entstand Ende der sechziger Jahre ein neues ’Paradigma’: der objekt-orientierte Programmierstil. Die Idee der objekt-orientierten Programmierung wurde auf verschiedene Weise

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

realisiert, sowohl in der Form neuer eigenständiger Programmiersprachen wie SmallTalk, oder als Erweiterungen bereits existierender Programmiersprachen, vor allem von LISP. Der objekt-orientierte Programmierstil ist von einer solchen Tragweite, daß er sich als formal-sprachlicher Rahmen für die Darstellung von Netzwerksystemen, ja sogar für die Integration verschiedenartiger Repräsentationssysteme besonders eignet. Was sind die wesentlichen Merkmale des objekt-orientierten Programmierstils? Objekt-orientierte Systeme bieten eine integrierte Sichtweise der Konzepte der abstrakten Datentypen und generischen Funktionen (siehe Pepper et al. (1982), Stoyan/Görz (1983)). Objekte entstehen durch Abstraktion als ’Datenkapseln’, die Mengen von Attributen zusammenfassen. Die Identität jedes Objekts ist unabhängig von den (veränderbaren) Werten seiner Attribute. Das zugrundeliegende Verarbeitungsmodell ist charakterisiert als ein System autonomer kommunizierender Objekte, die untereinander Nachrichten austauschen. Jedes Objekt hat eine Menge von ’Verwandtschaften’ (’acquaintances’); das sind Bezeichnungen von Objekten, die es ’kennt’, d. h. denen es Nachrichten zusenden kann. Nachrichten selbst sind auch Objekte; jede Nachricht enthält (eine Referenz auf) den Adressaten, eine (Bezeichnung einer) Operation, und — optional — Argumentobjekte. Jedes Objekt besitzt ein Protokoll, welches eine Menge von Methoden ist; dies sind alle Prozeduren bzw. Operationen, die in den Nachrichten enthalten sein dürfen, die es verarbeiten kann. Der interne Zustand eines Objekts — eine Menge von Attributen — wie auch seine interne Verarbeitung kann nicht von außen eingesehen werden. Ein Objekt befindet sich in aktivem oder passivem Zustand, und seine Aktivitäten bestehen im Senden, Empfangen und Verarbeiten von Nachrichten. Die Verarbeitung einer Nachricht kann das Senden anderer Nachrichten bewirken. Weiterhin bieten die meisten objekt-orientierten Systeme Mittel, um die Objektwelt durch ein Klassensystem zu strukturieren, indem man jeweils Objekte mit dem selben Protokoll zu einer Klasse zusammenfaßt. Klassenobjekte erzeugen Instanzenobjekte als Resultat der Verarbeitung einer bestimmten Nachricht (instantiate). Es sind also zwei Arten von Objekten zu unterscheiden: Klassen und ihre Instanzen. Instanzen stellen Individuen des Gegenstandsbereich dar, Klassen

293

generische Objekte; letztere beschreiben Instanzen durch Spezifikation von deklarativen (Variablen) und prozeduralen (Methoden) Attributen. Klassen können gewöhnlich in Generalisierungshierarchien, den — i. a. gerichteten — Klassengraphen, angeordnet werden. In diesen gelten Vererbungsrelationen bezüglich ihrer — deklarativen und prozeduralen — Attribute. Die Wurzel jedes Klassengraphen bildet die allgemeinste Klasse; ihre Methoden sind diejenigen, über die alle Klassen verfügen. Von ihr ausgehend gelangt man im Klassengraphen zu immer spezielleren Klassen. Durch diese Strukturierung können Methoden ’überladen’ werden, d. h., eine Klasse kann eine (spezialisiertere) Methode mit gleichem Namen wie ihre Oberklassen besitzen; damit kann ein Operatorsymbol jeweils eine andere Methode auf verschiedenen Datentypen darstellen. Üblicherweise brauchen Methoden nicht gleich bei der Definition einer Klasse definiert zu werden, sondern können erst später hinzukommen; diese Eigenschaft wird auch „späte Bindung“ genannt. Objekt-orientierte Systeme bieten daher eine Reihe von Eigenschaften, die für den Zweck der Repräsentation von Information wünschenswert sind. Einige ihrer Eigenschaften wie die systematische Unterscheidung zwischen Klassen und Instanzen und die Vererbungsmechanismen werden sogar in einer methodisch klareren und saubereren Weise eingeführt als in den meisten spezialisierten Repräsentationssystemen. Da Objekte autonome Verarbeitungseinheiten sind, eignen sie sich unmittelbar zur Repräsentation verteilter Systeme; Parallelverarbeitung ist im Konzept angelegt.

3.

Die deklarative Komponente von Netzwerk-Repräsentationen

Die theoretischen Grundlagen zur Beschreibung von Objekten und Objektstrukturen wurden innerhalb der Informatik im Rahmen der algebraischen Spezifikation abstrakter Datentypen erarbeitet (Pepper et al. 1982). Bei der Spezifikation geht man aber in der Regel von vollständiger Information aus, eine Voraussetzung, die in unserem Anwendungsbereich jedoch nicht uneingeschränkt gemacht werden kann. Ait-Kaci (1986 a, 1986 b) hat gezeigt, wie ein formaler Rahmen zur Repräsentation und Klassifikation von Objekten entwickelt werden kann „to define

294

a notational system for representing approximations of objects which one conceives in ones mind“. Mit dem zentralen Begriff der Subtypisierung wird die Subsumption (partieller) Objektbeschreibung erfaßt und ein Mechanismus entwickelt, der automatisch Objektbeschreibungen in einer Weise klassifizieren kann, die kongruent mit ihrer Interpretation als Approximationen ist. Ein Beispiel eines solchen Systems ist nach Ait-Kaci durch die Terme oder Bäume der universellen Algebra und Logik gegeben. In dem PROLOG (Clocksin/Mellish 1984) zugrundeliegenden logischen Modell haben Terme erster Ordnung eine funktionale Bedeutung, Termstrukturen sind aber uninterpretierte Konstruktoren. Sie werden daher oft unter Vernachlässigung ihrer funktionalen Semantik als Record-Strukturen benutzt. Beispielsweise soll ausgedrückt werden, daß eine Person einen Namen, ein Geburtsdatum und ein Geschlecht hat. Eine so spezifizierte generische Person sei durch den Term person (x, y, z) dargestellt, wobei das Symbol person an der Wurzel (Kopf) des Terms ein PersonenObjekt bezeichnet und die Variablen x, y und z als Platzhalter für Name, Geburtsdatum und Geschlecht dienen. Der Klassifikationsmechanismus in diesem Modell ist nach AitKaci die Instantiierung von Termen: die Variablen stellen unvollständige Information dar und können durch Terme ersetzt werden. Ein auf diese Weise definiertes Typensystem stellt einen Verband dar mit der Unifikation erster Stufe als Durchschnittsoperation (größte untere Schranke) und der Generalisierung als Vereinigungsoperation (kleinste obere Schranke). Allerdings wird mit der Definition von Typen durch Terme eine gewisse Inflexibilität erkauft: Terme haben eine feste Anzahl von Argumenten und eine feste Ordnung der Argumente. Sollen beispielsweise Personen ein weiteres Attribut wie ’verheiratet’ bekommen, so müssen der Typ person neu definiert und alle bisher erzeugten Instanzen revidiert werden. Außerdem drückt die Position eines Arguments die Bedeutung des entsprechenden Attributs aus, z. B. bezeichnet das erste Argument stets den Namen. Darüber hinaus bietet dieser Ansatz keine Mittel zur konsistenten Bildung von Subtypen (z. B. student als Subtyp von person) und zur Formulierung von Restriktionen über den Argumenten (z. B., daß nur bestimmte Namen zulässig sein sollen). Da hier, wie aus dem Beispiel ersichtlich, Termstrukturen erster Ordnung nicht als

VII. Computer Simulation of Language I: Basic Problems

Funktionen, sondern als Record-Strukturen verwendet werden, können sowohl die Einschränkung bezüglich der Zahl der Argumente als auch die bezüglich ihrer Anordnung aufgehoben werden. Ait-Kaci schlägt eine Sprache vor, in der jede Struktur eine beliebig große Anzahl von Attributen haben kann und in der die Komponenten (Argumente) statt der Position durch ihren Namen gekennzeichnet werden. Ein Beispiel für letzteres wäre die Instanz person (name: Daniela). Weiterhin kann eine Halbordnung für die Wurzelsymbole der Strukturen angegeben werden, z. B. student < person, so daß nun student (name: Daniela, geschlecht: weiblich) ein Subtyp von person (name: Daniela, geschlecht: weiblich) ist. Damit ist auch der (logische) Variablenbegriff neu zu fassen und die Operationen der Variablensubstitution und Termunifikation bekommen eine neue erweiterte Bedeutung. Für eine formale Ausarbeitung des Ansatzes sei auf die Originalarbeiten von Ait-Kaci (1986 a, 1986 b) verwiesen. Strukturen dieser Art können unmittelbar als Netzwerke dargestellt werden: Die Wurzel der Struktur und die Attributwerte bilden die Knotenmenge, die Attributnamen die Kantenmarkierungen eines gerichteten Graphen. Endliche Strukturen werden durch gerichtete azyklische Graphen (directed acyclic graphs, = DAGs) dargestellt. Enthält ein gerichteter Graph Zyklen, so bildet er eine unendliche Struktur ab; um diese auch in linearer Notation ausdrücken zu können, werden sog. ’Tags’ eingeführt. Operationen wie die Unifikation lassen sich mit DAGs besonders anschaulich wiedergeben, sodaß das Verfahren der ’Graphenunifikation’ heute zu einer Standardtechnik im Bereich der Unifikationsgrammatiken geworden ist. Eine wichtige Eigenschaft ist die der Monotonie: Werden zwei kompatible Strukturen vermittels der Unifikation vereinigt — und nur solche können erfolgreich unifiziert werden —, so ist die resultierende Struktur in ihrem Informationsgehalt reichhaltiger; es geht keine Information verloren. Alle Attribute der neuen Struktur werden aus den unifizierten Teilstrukturen übernommen; Attributwerte können nie revidiert werden. (Zwei Attributmengen heißen kompatibel, wenn in beiden vorkommende Attribute kompatible Werte haben; sind die Werte atomar, so müssen sie gleich sein, sind sie selbst Attributmengen, so müssen diese wiederum kompatibel sein.)

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

4.

Die prozedurale Komponente von Netzwerk-Repräsentationen

In der prozeduralen Komponente eines Repräsentationssystems wird die strategische und taktische Information für die Problemlösung dargestellt. Im Unterschied zu der in der deklarativen Komponente dargestellten Information, den repräsentierten Sachverhalten, spricht man auch von Meta-Information, denn hier geht es darum, wie erstere auf effiziente Weise manipuliert, miteinander kombiniert, erweitert und dieser Prozeß überwacht werden kann. Mit dem Terminus ’prozedural’ soll in diesem Sinne aber nicht eine Festlegung auf die Verwendung prozeduraler Sprachen antizipiert werden. Vielmehr steht in Analogie zur Datenabstraktion die Idee der Kontrollabstraktion im Hintergrund: Es wird über Programm- bzw. Verarbeitungseinheiten abstrahiert und nur betrachtet, in welcher Weise diese und damit ihre Ausführung miteinander kombiniert werden können. So kann der prozeduralen Komponente eine primär deklarative, logikorientierte Programmiersprache wie PROLOG zugrundegelegt werden. Als entscheidender Vorteil dieses Vorgehens wird ihre duale Semantik genannt (wir folgen hier Ait-Kaci (1986 a): Kowalski (1979) schlägt zwei ’Lesarten’ für eine Regel (Horn-Klausel) A 0 ← A 1 , ..., A n vor deklarativ: Das Faktum A 0 gilt, wenn die Fakten A 1 , ..., A n gelten. prozedural:Um das Ziel A 0 zu beweisen, beweise alle Ziele A 1 , ..., A n , In der prozeduralen Lesart wird also Berechnung durch Deduktion realisiert. So haben die Proponenten der logik-orientierten Programmierung behauptet, daß ein Programm nichts anderes sein sollte als die Spezifikation eines Axiomensystems . Im Idealfall wäre die Lösung eines Problems schon mit seiner Beschreibung gegeben: Die Beschreibung einer Grammatik (deklarativ) würde zu einem Parser (prozedural), die Beschreibung von Zuständen und Aktionen (deklarativ) zu einem Planungsprogramm (prozedural), die Beschreibung von Relationen (deklarativ) zu einem Datenbanksystem (prozedural). Ait-Kaci (1986 a, 1986 b, Ait-Kaci/Nasr 1986) hat gezeigt, daß sich sein Ansatz auf elegante Weise analog zu einem Verarbeitungsmodell logischer Provenienz erweitern läßt. Damit steht eine erweiterte Termnotation zur Verfügung, so daß — im Unterschied zu PROLOG mit seiner einfachen Termsyntax

295

— alle ihre genannten Vorteile zur Spezifikation von Programmen als rekursive Typengleichungen ausgenutzt werden können. Hierzu zählen vor allem die Möglichkeiten der expliziten Typisierung und der Formulierung polymorpher (parametrisierbarer) Typen. Definitionen erweiterter Terme durch Gleichungen der Form s = t haben in analoger Weise zwei Lesarten: deklarativ: Alles, was als ein s beschreibbar ist, muß auch als ein t beschreibbar sein. prozedural:Um s zu beweisen, muß t, d. h. der Kopf und die Komponenten des Rumpfes von t bewiesen werden. Allgemein ist anzumerken, daß die Idealvorstellung der logik-orientierten Programmierung zu kurz greift: In der Praxis ist zumeist auch eine explizite Steuerung des Ableitungsprozesses wünschenswert, wenn nicht sogar erforderlich. Wissensbasierte Systeme unterscheiden sich u. a. auch darin voneinander, wie die (oft impliziten) logischen Restriktionen einer Anwendung im Programme umgesetzt wurden. Die Form dieser Umsetzung ist vor allem durch den Anwendungszweck bestimmt. Gerade wenn dieselbe Information auf unterschiedliche Weisen ausgenutzt werden soll, ist die jeweils gewählte programmtechnische Umsetzung entscheidend für die Effizienz des Systems. Es liegt daher nahe, nach einem allemeinen Konzept für solche Restriktionen zu suchen. Die Vorteile sind offensichtlich: Ein solcher Ansatz würde es ermöglichen, ein und dieselbe Repräsentation für die Bearbeitung verschiedener Aufgabenstellungen zu verwenden anstelle unterschiedlicher Repräsentationen für verschiedene Problemklassen und verschiedene Lösungsstrategien. Ganz allgemein drücken Constraints Relationen aus, die zwischen den Komponenten einer Repräsentation gelten, sowie Bedingungen für die Erzeugung, Löschung, Überprüfung und Modifikation zulässiger Objekte. Unter dieser Perspektive kann man regelorientierte Systeme auch so sehen, daß ihre Aufgabe in der Verwaltung einer komplexen Datenbasis besteht, die durch die Regeln als Constraints bestimmt wird. Regeln sind eine spezielle, direkt prozedurale Realisierung von Constraints. Auf der Suche nach allgemeineren, nicht-orientierten Darstellungsformen für Constraints wurden eigene deklarative ’Constraint-Sprachen’ (vgl. etwa Steele (1980)) entwickelt. Gerade für objekt-zen-

VII. Computer Simulation of Language I: Basic Problems

296

trierte Repräsentationsschemata bietet sich an, invariante Beziehungen zwischen Objekten, die mehrere Relationen umfassen, durch Constraint-Gleichungen (vgl. Morgenstern (1986)) darzustellen. Ein Ausführungsmodell für solche Gleichungen wird in Analogie zur Verarbeitung algebraischer Gleichungen konstruiert (Morgenstern (1986), 3 55): So legt z. B. die Gleichung X = Y + Z deklarativ eine Äquivalenz zwischen den Ausdrükken auf den beiden Seiten des Gleichheitszeichens fest. Soll diese Gleichung als eine Restriktion behandelt werden, die durch das System aufrecht erhalten werden muß, so gibt es eine prozedurale Interpretation in der Form von zwei Regeln: (1) Falls sich Y oder Z oder beide ändern, muß der Wert von X entsprechend revidiert werden, und (2) falls sich X ändert, muß man wählen zwischen den Alternativen, die Änderung zu blockieren, oder Y oder Z oder beide zu revidieren. Gelten in einem System mehrere Constraint-Gleichungen, die Komponenten gemeinsam haben, so ordnet man erstere kanonisch in der Form eines Constraint-Netzwerks an. Werden in einem Constraint-Netzwerk Werte revidiert, so hat dies Konsequenzen für andere Teile des Netzwerks: Werte müssen richtungsunabhängig propagiert werden. Tabellenkalkulationsprogramme sind eine wohlbekannte spezielle Form von Constraint-Systemen. Ganz allgemein kann man Programmierung auch verstehen als Realisierung von Strategien zur Propagierung und Aufrechterhaltung von Constraints. Dies gilt insbesondere für die oben genannte Erweiterung des Ansatzes von Ait-Kaci (1986 a). Für die Propagierung selbst sind nun verschiedene Strategien möglich (vgl. Morgenstern (1986), S. 3 65 f.): Propagierung kann unmittelbar nach einer Revision erfolgen oder verzögert werden, bis ein Zugriff auf ein betroffenes Attribut erfolgt. Zwischen diesen beiden Alternativen liegt die Möglichkeit, die Propagierung auch von anderen Kriterien abhängig zu machen; man spricht dann auch von opportunistischer Propagierung. Orthogonal dazu hat man die Wahl, ob die Modifikationen abhängiger Werte ausgeführt werden oder ob beim Zugriff solche Werte jeweils neu berechnet werden sollen — man spricht dann von abgeleiteten Daten. Zwischen den Alternativen bezüglich des Zeitpunkt der Ausführung und den aus regel-orientierten Systemen bekannten Begriffen der Vorwärtsund Rückwärts-Verkettung besteht eine enge Beziehung. Letztere charakterisieren die Richtung, entlang der eine Kette von Asso-

ziationen oder Schlußfolgerungen verfolgt wird: Unmittelbare Propagierung erzwingt Vorwärtsverkettung, während (Neu-) Berechnung abgeleiteter Daten eine Form von Rückwärtsverkettung bedingt. Und es gilt noch eine weitere Analogie zu regel-orientierten Systemen: So wie dort im Fall der Anwendbarkeit mehrerer Regeln eine Konfliktlösungsstrategie einzusetzen ist, stellt sich bei Constraint-Systemen die Frage der Aggregation. Werden mehrere ConstraintGleichungen so zusammengefaßt, daß sie gleichzeitig zur Anwendung gelangen, so liegt parallele Aggregation vor, gelangen sie in einer vorgegebenen Reihenfolge zur Anwendung, so verkettete Aggregation. Mit Constraint-Gleichungen haben wir somit eine sehr allgemeine und leistungsfähige Kontrollabstraktion für die prozedurale Komponente von Netzwerk-Repräsentationssystemen zur Verfügung. Wir werden in Abschnitt 6 auf den Realisierungsaspekt zurückkommen.

5.

Assoziative Netzwerke

5.1. Exemplarische Einführung Das Repräsentationsschema der Assoziativen Netzwerke wurde zuerst von Quillian (1968) u. a. unter der Bezeichnung „Semantische Netzwerke“ als psychologisches Modell für das menschliche assoziative Gedächtnis entwickelt. Ein assoziatives Netzwerk besteht aus Knoten, die Objekte, Begriffe oder Ereignisse darstellen, und Kanten, die die Knoten verbinden und Beziehungen zwischen den durch sie dargestellten Gegenständen repräsentieren. ’Semantisch’ wurden diese Netzwerke nach ihrem Verwendungszweck genannt: Sie sollen vor allem semantische Relationen darstellen. Dies ist jedoch nur eine allererste grobe Charakterisierung. In der Tat sind assoziative Netzwerke nicht bloß gerichtete Graphen. Da sie in vielen verschiedenen Varianten eingeführt und benutzt werden, gibt es keine präzise Definition, über die Konsens besteht. Bevor wir eine objektorientierte Rekonstruktion unternehmen, sollen einige gemeinsame Charakteristika bisher realisierter Netzwerksysteme dargestellt werden. Netzwerkdarstellungen sind in erster Näherung äquivalent zu logik-basierten. Allerdings existiert für sie keine formale Semantik. Die Bedeutung einer Netzwerkstruktur liegt ausschließlich in den Prozeduren, die sie ma-

297

Abb. 27.1: Assoziative Netzwerke (nach Quillian 1968) ’Die Schwalbe Sylva besitzt ein Nest’ nipulieren — Netzwerke selbst sind rein deskriptiv, nicht-prozedural. Anfragen und die durch sie induzierten Ableitungsprozesse werden üblicherweise durch Matching realisiert, d. h. die Anfrage wird als ein Netzwerkfragment dargestellt und es wird dann versucht, einen Durchgang in dem Netzwerk zu finden und dabei die im Fragmen offenen Knoten mit Werten zu belegen. Netzwerksysteme können effizient implementiert werden; da jedoch Geschwindigkeit von Zugriffen zumeist durch Redundanz erkauft wird, steigt der Verwaltungsaufwand erheblich mit der Größe des Netzes. Hier könnte Abhilfe durch neuartige hochgradig parallele

Netzwerksysteme haben den Vorteil, daß wichtige Assoziationen direkt und explizit dargestellt werden können, d. h. relevante Tatsachen über ein Objekt können direkt aus den Knoten „erschlossen“ werden, mit denen es unmittelbar verknüpft ist, ohne daß man eine große Datenbasis durchsuchen muß. Diese Eigenschaft ermöglicht auf einfache Weise, mit IS-A- und SUBSET-Kanten eine Vererbungshierarchie einzurichten (Abb. 27.2). (Zur Theorie der Vererbung vgl. Touretzky (1984).) In diesem Graphen werden alle Attribute entlang der IS-A-Hierarchie (Brachman (1983 )) vererbt. Nun ist die IS-A-Relation nicht das einzige Mittel, eine Wissensbasis zu organisieren. Folgende Arten von Vererbungshierarchien sind aus Netzwerksystemen bekannt: IS-A-Hierarchien: (strikt oder nicht-strikt), Klassifikation, Vererbung INSTANZENKlassifikation von Individuen Hierarchien: Aggregation TEIL-VONHierarchien: PARTITIONEN: multiple Welten

So kontrovers die Diskussion über assoRechnerarchitekturen geschaffen werden (vgl. Fahlman (1983)).

Abb. 27.2: Die Vererbungshierarchie IS-A (nach Mylopoulos/Levesque 1983)

298

ziative Netzwerke auch geführt wurde und wird, hat sich doch ein Konsens in folgenden Punkten herauskristallisiert: — Die Netzwerk-Repräsentation muß eindeutig, d. h. alle referentielle Ambiguität muß eliminiert sein. Insofern ein Netzwerk natürlich-sprachliche Äußerungen darstellt, muß deren funktionale Struktur (Subjekt-/ObjektUnterscheidung u. ä.) eindeutig repräsentiert sein. — Es ist sinnvoll, die Anzahl der Kantentypen so klein wie nur möglich zu halten. Dies bedeutet einerseits eine Beschränkung auf einige wenige semantisch präzise definierte strukturelle Relationen sowie die Einführung eines Systems semantischer Primitiva. — Begriff und Individuen sollten systematisch unterschieden werden. Individuen sind eindeutig bestimmt durch eindeutige Namen und generierte Instanzen. Ebenso müssen Prädikate eindeutig sein. — Explizite Eingriffsmöglichkeiten in den Vererbungsmechanismus sind von eminenter Bedeutung. — Netzwerksysteme sollten über ein Typensystem verfügen, dem die Werte von Knoten und Kanten genügen müssen. — Als sinnvoll hat sich Technik der Partitionierung erwiesen, durch die Knoten und Kanten zu größeren Einheiten Räumen zusammengefaßt werden. Solche Räume können durch Superknoten bezeichnet werden, so daß ein Netzwerk als Hypergraph charakterisiert ist und jeder Knoten in einem oder mehreren Räumen liegt. Kombinationen derartiger Räume bilden Vistas (Perspektiven); die meisten Operationen über einem solchen Netzwerk lassen sich dann auf Vistas einschränken. 5.2. Darstellungsebenen Wie bereits bemerkt, liegt eine wesentliche Schwäche semantischer Netzwerksysteme in ihrem Mangel an einer präzisen Semantik. Mitte der siebziger Jahre erschienen einige Arbeiten, die diesen Mangel konstatierten: Sie fragten nach der Bedeutung der Knoten („What’s In a Concept?“ Brachman (1977)) und Kanten („What’s In a Link?“ Woods (1975 b)); auch wurde festgestellt, daß sich Quantifikation nicht angemessen darstellen läßt. Woods (1975) betonte als erster, daß — zumindest einige, wenn nicht sogar alle — Knoten Intensionen darstellen sollten. Aus dieser Diskussion heraus entstand der Brachmansche Vorschlag (1979, 1983 ), ähnlich

VII. Computer Simulation of Language I: Basic Problems

dem Schema von Schefe (1982), verschiedene Darstellungsebenen zu unterscheiden: Ebene Primitiva implementations- Knoten, Kanten technische logische Aussagen, Prädikate, logische Operationen epistemologische Begriff, Vererbung, Organisation Semantische oder begriffkonzeptionelle liche Relationen, Kasus, Aktion, Zeit linguistische Wörter, Ausdrücke Von jeder Ebene ist zu fordern, daß sie eine wohldefinierte Semantik besitzt, es muß also die Bedeutung jedes Elements und die der darüber erlaubten Operationen definiert sein. Brachman fordert, daß zwar jede Ebene gegenüber den übergeordneten neutral ist, aber auf ihre Mächtigkeit zu deren Unterstützung überprüft werden sollte. Im Mittelpunkt steht dabei die epistemologische Adäquatheit. Gerade eine solche Einbeziehung der Operationen bedarf besonderer Erwähnung, da in Netzwerksystemen üblicherweise der Schwerpunkt auf der Darstellung der Information und nicht auf den Algorithmen zu ihrer Verwendung liegt. In den meisten Systemen ist es sogar möglich, erstere logisch unabhängig von den letzteren vorzunehmen. Assoziative Netzwerke wurden vor allem zur Modellierung kognitiver Prozesse und in sprachverarbeitenden Systemen eingesetzt, z. B. SIR, Norman/Rumelharts ASN, Mylopoulos/Levesques’ PSN (s. u.), Simmons’ Frage-Antwort-System, SCHOLAR, TORUS, HWIM, SRI Speech Understanding System, Martins OWL, Martin/Szolovits’ BRAND X, u. a. m. Eine Übersichtsdarstellung und Hinweise auf die Literatur geben Barr/Feigenbaum/Cohen (1981/82) und Brachman (1979). Ein methodischer Nachteil vieler Netzwerksysteme ist darin zu sehen, daß begriffliche Zusammenhänge und Beschreibungen aktueller Situationen in einem Netzwerk vermengt werden. Dies wird in neueren Systemen, wie KL-ONE (Brachman/Schmolze (1985)) gelten kann, durch die Trennung des terminologischen Teils (T-Box) vom situationsbeschreibenden Teil (A-Box) überwunden (s. a. auch KL-TWO, Vilain (1985); NIKL, Kaczmarek et al. (1986)). Aus dem Interesse an einer — eher lockeren — Integration assoziativer Netzwerke (NIKL bzw. KL-

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

TWO) mit deduktiven Systemen (PENNI) wurden hybride Systeme konstruiert, die allerdings noch eine erhebliche Redundanz aufweisen (Vilain (1985)). Während das deduktive System (PENNI) eine Datenbasis von Elementaraussage verwaltet, enthält das terminologische Netzwerk Definitionen, die auch als allquantifizierte Sätze interpretiert werden können. Eine Variante derartiger assoziativer Netzwerke mit ausgezeichneten semantischen Primitiva hat Sowa (1984) unter

ROLE FROLE VAL SATS

der Bezeichnung CONCEPTUAL GRAPHS vorgePREEMPTS

stellt. 5.3. KL-ONE — Ein strukturiertes assoziatives Netzwerk-System Das KL-ONE-System mit seinen beiden Komponenten, der terminologischen (TBox) und der assertiven (A-Box), kann als Prototyp der neueren assoziativen NetzwerkSysteme gelten. Die A-Box besteht aus einer Menge von Aussagen über den Gegenstandsbereich, die mit Elementen der T-Box in einer an die Quantorenlogik angelehnten Sprache formuliert werden. Die Taxonomie des in der T-Box niedergelegten Begriffssystems stellt gleichsam das Rückgrat jedes assoziativen Netzwerks dar. Sie bildet die Subsumptionsrelationen zwischen generischen Objektbeschreibungen ab. Die generischen Begriffe heißen in KL-ONE- auch Typen, die mit ihnen assoziierten Attributen Rollen. Eine Rolle ist eine strukturierte Relation zwischen einem Typ und einem anderen Typ oder einer Typeninstanz, einem Individuum. Ihre Komponenten werden Facetten genannt, von denen es vier mit den Bezeichnungen Name, V/R, Number und Modality gibt. Die V/RFacette spezifiziert eine Wertrestriktion für die Rolle, die Number-Facette gibt die Anzahl der Werte an und die Modality-Facette, ob die Rolle obligatorisch oder fakultativ ist. Konzepte können über ‘Strukturelle Beschreibungen’ verfügen; diese beschreiben Beziehungen der Rollen untereinander. Insgesamt verfügt KL-ONE über die folgenden Kantenarten: SUPERC

V/R DIFFS MODS

legt Subsumptionsbeziehungen fest, indem sie auf die übergeordnete Klasse verweist. gibt Wertrestriktionen an. differenziert allgemeine Rollen in speziellere. modifiziert Beschreibun-

299

gen; voreingestellte Werte werden vererbt. spezifiziert die Rollen eines Typs. gibt die Beziehung zwischen einem Individuum und einer Rolle an, die Beziehung zwischen einer Rolle und einem Individuum. zeigt an, daß die Werte einer Rolle berechnet wurden. bezeichnet die Substitution von Rollen-Komponenten hierarchisch übergeordneter Typen durch ’Strukturelle Beschreibungen’.

Da Rollen eine interne Struktur haben und wesentlich den Typ definieren, mit dem sie assoziiert sind, können sie oft nur in modifizierter Form vererbt werden. Die MODS-, DIFFS-, SATS- und PREEMPTSKanten gestatten, eben solche Modifikationen auszudrücken. Die sprachliche Form, in der KL-ONE dem Anwender die T-Box zu formulieren gestattet, entspricht der aus Frame-Systemen (s. u.) bekannten. Ein KL-ONE eng verwandtes Netzwerksystem ist PSN (Procedural Semantic Network) (Mylopoulos et al. (1983 ), vgl. auch die Darstellung bei Sagerer (1985), S. 47—51), das den deklarativen Charakter assoziativer Netzwerke durch einen prozeduralen Aspekt ergänzt. Damit wird die Wissensbasis selbst zu einem aktiven System. In PSN sind die Attribute eines Konzepts in zwei Gruppen aufgeteilt: Voraussetzungen und Abhängigkeiten. Zur Generierung einer Instanz müssen Instanzen der Konzepte und Werte der einfachen Typen vorliegen, die als Voraussetzung markiert sind. Der prozedurale Aspekt wird durch besondere Programm- (bzw. Prozedur-) Knotentypen realisiert. Zu jedem Konzept werden automatisch vier Prozeduren definiert; sie legen fest, wie eine Instanz anzulegen und zu löschen, wie auf Instanzen des Konzepts zuzugreifen, und wie zu testen ist, ob eine Instanz zu dem Konzept gehört. Im Unterschied zu Frames (s. u.) beziehen sich Prozeduren nicht auf ein einzelnes Attribut, sondern auf ein gesamtes Konzept. In PSN sind die Typen INSTANZ, KONZEPT, RELATION, KANTE ZWISCHEN INSTANZEN und PROZEDUR selbst als Metaklassen repräsentiert.

300

5.4. Das Klassifikationsproblem Unter Klassifikation versteht man die Aufgabe, ein (partiell) beschriebenes Objekt, wobei die Beschreibung in der Form eines Teilnetzwerks gegeben ist, aufgrund der in einem Netzwerk codierten Information zu identifizieren und damit gemäß der dargestellten Begriffshierarchie zu klassifizieren. Während die meisten Netzwerksysteme, sofern sie überhaupt diese Möglichkeit bieten, hierzu bestenfalls ein ad hoc-Verfahren bereitstellen, wurde dieses Problem erstmals in KLONE (Brachman (1979, 1985), Brachmann/ Schmölze (1985)) systematisch angegangen. Daß die Aufgabe alles andere als trivial ist, verdeutlicht Brachman (1985) anhand der bekannten Elefantenwitze: Frage: Was ist groß und grau, hat einen Rüssel und lebt auf Bäumen? Antwort: Ein Elefant — was die Bäume betrifft, habe ich geschwindelt. Nehmen wir an, daß das Konzept des Elefanten in einem Netzwerk durch einen Knoten mit folgenden Kanten (in vereinfachter Notation) dargestellt ist: ELEFANT Selbst: ein SAEUGETIER: ; Verweis auf uebergeordnetes ; Konzept Ruessel:ein ZYLINDER Farbe: GRAU Beine: Kardinalitaet = 4 Wie aber ist dieser Komplex von Relationen zu lesen: Ein typischer Elefant ist ein Säugetier ...? Oder: Alle Elefanten sind Säugetiere ...? Typisch hieße doch: Falls keine andere Information vorliegt, gehen wir davon aus, daß ein Elefant ein Säugetier ist, ..., und vier Beine hat. Das erste Attribut stellt offenbar eine notwendige Bedingung dar; das letzte wohl aber nicht: Es kann invalide Elefanten mit drei Beinen geben und mißgeborene mit fünf. Wenn wir eine partielle Beschreibung eines Individuums, es möge Clyde heißen, vorliegen haben, in der die ersten drei Attribute erfüllt sind, das letzte aber den Wert sieben oder neun oder tausend hat — würden wir es dann immer noch als Elefanten klassifizieren? Wo soll die Grenze sein? Und überdies: Typisch heißt ja nicht, daß nur die Vorgabe für ein (nicht notwendiges) Attribut, sondern auch deren mehrere verletzt sein dürfen. Habe z. B. Jumbo keinen Rüssel, drei Beine und sei weiß: Das paßt auf einen Veteranen der Punischen Kriege ... — aber rot darf er nicht sein ... Apropos kein

VII. Computer Simulation of Language I: Basic Problems

Rüssel: In solchen Fällen muß unterschieden werden, ob das Attribut Rüssel selbst oder sein Wert zu löschen ist; anders formuliert: Ist dieses Attribut für Elefanten konstitutiv? Durch dieses Beispiel wird klar geworden sein, daß es keine allgemeine Lösung des Klassifikationsproblems gibt. Die ’definitional deficiency’ (Brachman (1985)) assoziativer Netzwerksysteme kann nur so überwunden werden, daß man von der Unterstellung ihrer universellen Verwendbarkeit kritisch Abstand nimmt: Es ist klar festzulegen, was in einem Netzwerk mit welchen Mitteln zu welchem Zweck definiert wird. So schlägt Brachman vor, davon auszugehen, daß jede Beschreibung in einem Netzwerk als primitiv anzusehen ist. Ein Teil der Konfusion in vielen Anwendungen ist insbesondere auf eine mehrdeutige Verwendung der ISA-Relation zurückzuführen (vgl. Brachman (1983 )). Soll sie nun ausdrücken — den Begriff einer Art (z. B. den Begriff des Elefanten), — eine generische Beschreibung, die die Eigenschaft spezifiziert, die typischerweise auf Instanzen einer Art zutreffen, oder — ein prototypisches Individuum, das auf irgendeine Weise eine Art charakterisiert? Es ist aber durchaus möglich, eingeschränkte Klassifikationsalgorithmen anzugeben (vgl. Schmolze/Lipkis (1983)). 5.5. Frames Die exemplarisch genannten Eigenschaften assoziativer Netzwerke legen es nahe, ihre programmtechnische Realisierung unmittelbar nach dem objekt-orientierten Paradigma vorzunehmen. In der Tat scheint Minskys (1975) Frame-Konzept einen ersten Abstraktionschritt in dieser Richtung zu gehen; zumindest soweit, daß es in einem objekt-orientierten Rahmen rekonstruiert werden kann. Ein Beispiel hierfür ist das System FORK (Beckstein/Görz/Tielemann (1986)), ein objekt-orientiertes Programmiersystem, das alle aus Frame-Sprachen wie FRL bekannten Ausdrucksmittel bietet. Während der klassische objekt-orientierte Ansatz allgemeine Begriffe durch Abstraktion in Mengen oder Klassen darstellt, benutzen Frame -Systeme nach dem Konzept Minskys wie auch die meisten anderen assoziativen Netzwerk-Systeme hierfür konkrete Prototypen. Hinter dieser Unterscheidung verbirgt sich eine traditionelle philosophische Kontroverse, die sich in zwei unterschiedlichen Mechanismen für die Darstellung gleichen „Verhaltens“ zwischen Objekten wider-

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

spiegelt. Mittels des Vererbungsmechanismus wird die Objektwelt in Klassen strukturiert, in denen das gleiche Verhalten einer Menge von Instanzen codiert ist. Die Unterscheidung in Klassen und Instanzen ist nicht notwendig für die zweite Alternative: Ein Prototyp repräsentiert das Standardverhalten (’Default’), und neue Objekte können einen Teil dieser Information wiederverwenden, indem angegeben wird, worin sich das neue Objekt vom Prototyp unterscheidet. Als Vorteile dieses Vorgehens werden die leichtere Darstellbarkeit von Defaults und die Möglichkeit der inkrementellen Modifikation der Darstellung von Begriffskomplexen angesehen. Allerdings muß der methodische Vorzug der Unterscheidung von Klassen und Instanzen aufgegeben werden, denn jedes Objekt kann die Rolle eines Prototyps spielen. Eine Konsequenz daraus ist, daß die in objekt-orientierten Systemen bestehende strenge Trennung zwischen Definition und Verwendung entfällt — beliebige Modifikationen von Objekten sind nicht erlaubt. Es muß auf jeden Fall festgelegt werden, was mit den Instanzen geschehen soll, die generiert wurden, bevor ihre Klasse modifiziert wurde. In Frame-Systemen werden die Eigenschaften spezifischer Objekte (Instanzen) und generischer Objekte (Klassen) durch ihre Attribute beschrieben. Generische Objekte werden durch Verwendung der IS-A-Relation klassifiziert und die Enthaltenseins-Relation für Instanzobjekte in einem Klassenobjekt durch Verwendung der AS-A-Relation. Mit Frames, von Minsky als Mittel zur Darstellung stereotyper Gegenstände, Ereignisse oder Handlungen (Handlungsschemata) eingeführt, wird neu hinzugekommene Information so verarbeitet, daß nach dem Zugriff auf passende Frames deren Attribute mit neuen Werten belegt werden, also u. U. bereits gegebene oder voreingestellte Werte ersetzt werden. Durch die Vernetzung von Frames zu einem System werden eine Reihe von Vererbungsmechanismen für die in ihnen dargestellte Information wirksam. Üblicherweise haben Attribute in frame-basierten Repräsentationssystemen eine komplexe Struktur: An die Stelle einer einfachen Wertkomponente tritt eine Menge sog. Facetten, wovon eine, die VALUE-Facette, auf den Wert des Attributs verweist. Außer aktuellen Werten kann die VALUE-Facette auch Referenzen auf andere Frames enthalten und definiert so Relationen zwischen Frames. Außer der einfachen Vererbung von Werten von generischen Frames auf Instanzenframes kön-

301

nen beim Zugriff auf ein Attribut auch sog. D ÄMONEN -Prozeduren aktiviert werden. Solche Prozeduren werden durch eine Prozedurfacette referenziert (procedural attachment). Beispiele hierfür sind I F - NEEDED -Prozeduren (in der IF-NEEDED-Facette), die beim lesenden Zugriff auf das Attribut, sofern es noch keinen Wert hat, ausgeführt werden, und I F - ADDED -Prozeduren (in der IF-ADDED-Facette), die beim schreibenden Zugriff auf die VALUE-Facette des Attributs aktiviert werden. Die Ausführung einer I F ADDED -Prozedur kann z. B. zur Berechnung eines Wertes führen. Eine weitere Facette ist die D EFAULT -Facette für voreingestellte Werte, die dann gelten, wenn die Wertfacette (noch) nicht belegt ist. Zusätzlich sind meist noch weitere explizite steuernde Eingriffe in die Vererbung möglich. Die Absicht, die hinter Minskys FrameKonzept steht, ist, mit diesem Mittel eine Theorie kognitiver Prozesse zu konstruieren, die Erkennen, Verstehen und Schlußfolgern durch einen gestalt-artigen Ansatz erklärt. Ihr liegt die Annahme zugrunde, daß für menschliche Intelligenzleistungen nicht einige wenige universelle Methoden, sondern eine große Menge partikulären Wissens konstitutiv ist. Daß Minsky dieses Argument allerdings dazu verwendet, die zentrale Rolle der Logik im Bereich der Repräsentation anzugreifen, kann nur verwundern. 5.6. Logische Rekonstruktion Wenn die Kanten in einem assoziativen Netzwerk logische Relationen zwischen Knoten darstellen, liegt es nahe, die im Netzwerk dargestellte Information mit den Mitteln der Logik zu formulieren. Wie Hayes, P. (1980) gezeigt hat (vgl. auch die Lehrbücher von Nilsson (1982, Kap. 9) und Charniak/ McDermott (1985)), kann der monotone Teil von Frame-Systemen (also ohne Defaults) logisch rekonstruiert werden. Der Unterschied in der Darstellungsform liegt darin, daß logik-orientierte Repräsentationen gewissermaßen ’prädikat-zentriert’, objekt-orientierte und frame-orientierte Repräsentationen ’objekt-zentriert’ sind. In logik-orientierten Darstellungen sind die Term-Köpfe Prädikate und die Objektbezeichnungen befinden sich im Rumpf der Terme, in objekt-orientierten Darstellungen bilden die Objektbezeichnungen den Kopf der Komplexe und die Prädikate finden sich als Attributnamen im Rumpf. Die Gruppierung von inhaltlich mit-

VII. Computer Simulation of Language I: Basic Problems

302

einander zusammenhängenden Aussagen um Knoten, die Begriffe darstellen, in der Form eines Netzwerks, kommt der Anschauung entgegen. Neben diesem gegenüber einer textuellen prädikaten-zentrierten Darstellung bestehenden pragmatischen Vorteil bietet sie überdies ein effizientes Indizierungsschema, das den schnellen Zugriff auf miteinander verwandte Tatsachen ermöglicht. Mit einer geglückten logischen Rekonstruktion von Netzwerk-Systemen wäre man auch dem Problem ihrer Semantik ein Stück näher gekommen: Die Logik verfügt über eine semantische Theorie. Letztlich zielt ja jede solche semantische Theorie auf Verallgemeinerungen darüber, was in einem deduktiven System aussagbar oder ableitbar ist. Man geht dabei so vor, daß zuerst festgelegt wird, was die Ausdrücke des logischen Systems bedeuten. Sodann ist zu zeigen, daß das System vollständig und widerspruchsfrei (konsistent) ist. Unter Vollständigkeit versteht man, daß die Schlußregeln des Systems gestatten, genau alle wahren Sätze abzuleiten. Das System ist widerspruchsfrei, wenn alle zulässigen Ableitungen wahre Sätze liefern. Gelingt es, assoziative Netzwerk-Systeme auf Systeme der formalen Logik abzubilden, für die man über wohlbekannte Beweisverfahren für Vollständigkeit und Widerspruchsfreiheit verfügt, so hat man eine elegante Lösung des Problems ihrer Semantik erreicht. Eine solche Abbildung ist jedoch ersichtlicht nicht trivial, da in den bekannten assoziativen Netzwerk-Systemen die Schlußregeln nicht in expliziter Form, sondern vielmehr als (seiteneffekt-behaftete) Prozeduren vorliegen. Zumeist berechnen solche Prozeduren Beziehungen zwischen den in einem Netzwerk dargestellten Typen und Subtypen. Dabei wird wesentlich die Typenstruktur benutzt — die üblicherweise als Baum oder Verband realisiert ist —, um die Information auszudrücken, die in einer bestimmten Menge von Sätzen der Logik erster Stufe (oder eines Fragments von ihr) enthalten ist. Eine logische Rekonstruktion setzt voraus, daß für diese Prozeduren starke Einschränkungen gelten: Sie müssen transparent bezüglich der Übersetzung zwischen logischen Sätzen und Typenbeziehungen sein. Im einfachsten Fall, bei Typ-SubtypHierarchien (IS-A-Bäume), ist dies unproblematisch. Übersetzungsverfahren für solchermaßen eingeschränkte assoziative Netzwerke in eine logische Form (und umgekehrt) geben u. a. Charniak und McDermott (1985), Nilsson

(1982) sowie Deliyanni und Kowalski (1979) (hier in die für PROLOG charakteristische Klauselform) an. Allerdings bieten viele Netzwerksysteme die Möglichkeit, einen Sachverhalt auf mehrere logisch äquivalente Weisen darzustellen. Dies stellt für den Zugriff auf die im Netzwerk dargestellte Information ein nichttriviales Problem dar, denn die üblichen Matching-Prozeduren benutzen in der Regel nur eine Normalform. Allen und Frisch (1982) fassen daher den Mechanismus zur Gewinnung von Information aus einem assoziativen Netzwerk als spezielles Deduktionsverfahren auf, das bestimmte Prädikaten-, Funktions- und Konstantensymbole in besonderer Weise behandelt. Dazu wird das deduktive System um spezielle Axiome erweitert, die diese Symbole enthalten, und für diese werden besondere Kontrollmechanismen bereitgestellt. Es geht jedoch nicht nur um die Gewinnung explizit dargestellter Information, sondern auch um die in einem Netzwerk implizit dargestellte, m. a. W. um Schlußfolgerungen aus dem, was explizit repräsentiert ist. Gerade hierin liegt der besondere Wert einer logischen Rekonstruktion, denn der logische Folgerungsbegriff präzisiert genau diesen Zusammenhang. Zur allgemeinen Bedeutung der Logik in diesem Zusammenhang sowie zu den Problemen der Konsistenz und der Vererbung s. insbes. Israel (1983, 1985).

6.

Netzwerke, Monotonie und Konsistenz

Problemlösung in sprachverarbeitenden Systemen — und dies gilt allgemein für wissensbasierte Systeme — kann als Deduktion verstanden werden. Sofern es sich dabei um logische Schlüsse handelt, sind diese stets monoton, d. h., neu erschlossene Information ist stets eine konsistente Erweiterung der vorhandenen. Dies ist jedoch anders, wenn auch für den jeweiligen Gegenstandsbereichsbereich spezifische inhaltliche Schlußregeln benutzt werden oder wenn im Laufe der Zeit von außen neue Information hinzukommen kann. Insbesondere die Verwendung von voreingestellten Werten (Defaults), etwa bei der Klassifikation — in der Form von Vorgaben für typische Vertreter einer Klasse von Objekten —, bereitet besondere Schwierigkeiten: Dann ist die Konsistenz der Datenbasis nicht mehr gewährleistet. Um Konsistenz

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

zu erhalten, müssen zumeist Annahmen und auch alle aus diesen gezogene Schlüsse revidiert werden. Es liegt nahe, die Behandlung von Inkonsistenz an einen separaten Modul in einem wissensbasierten System zu delegieren. Wie deKleer (1986) hervorhebt, sind Suchvorgänge die zentralen Operationen der meisten Problemlösungssysteme; andernfalls würde ein direkter Lösungs-Algorithmus benutzt. Dann sind aber zwei wichtige Aufgaben zu bewältigen, nämlich, wie der Raum der Alternativen effizient durchsucht werden kann und wie Prolemlösungssysteme im allgemeinen organisiert werden sollen. DeKleer greift einen bereits erprobten Vorschlag auf, solche Systeme einzuteilen in eine Komponente, die die für den Gegenstandsbereich spezifischen Regeln enthält, und eine allgemeine Komponente, die den aktuellen Stand der Suche darstellt. Während die erste Komponente Schlußfolgerungen zieht, zeichnet die zweite diese und ihre Begründungen in Form von Datenabhängigkeiten auf. DeKleers ATMS („Assumption Based Truth Maintenace System“), das die zuletzt genannte Komponente realisiert, weist einige Innovationen gegenüber früheren Systemen auf. Der Kern eines ATMS besteht aus einer netzwerkförmigen Darstellung einer Menge von Aussagen und den sie verbindenden Annahmen und Begründungen. Das ATMS hat drei Aufgaben: 1. Es dient als Cache-Speicher für alle Schlußfolgerungen, indem alle einmal ausgeführten Schlüsse nicht wiederholt zu werden brauchen. Einmal entdeckte Inkonsistenzen werden zukünftig vermieden. 2. Es erlaubt dem Problemloser, nicht-monotone Schlüsse zu ziehen. Sind nicht-monotone Begründungen vorhanden, so muß es eine Prozedur zur Überprüfung der Erfüllung von Restriktionen benutzen, um festzustellen, welche Daten als gültig anzunehmen sind. 3 . Es garantiert, daß die Datenbasis widerspruchsfrei ist. Eine Prozedur zum abhängigkeits-gesteuerten Backtracking identifiziert Annahmen und Begründungen und fügt Begründungen hinzu, um Inkonsistenzen zu beseitigen.

7.

Verwendung von Netzwerken für die Verarbeitung natürlicher Sprache

Die Vielfalt der Verwendung von Netzwerken für die Verarbeitung natürlicher Sprache

303

ist kaum zu überblicken. Ein Überblick wird jedoch durch Unterscheidungsgesichtspunkte wie die folgenden erleichtert: (1) Art der zu verarbeitenden linguistischen Einheiten, (2) Art der Verarbeitungsprozesse, (3) Typ von Verarbeitungssystem, (4) Verwendung des Verarbeitungssystems. Diese Unterscheidungsgesichtspunkte für Netzwerke seien im folgenden erläutert. Im Prozeß der Verarbeitung müssen Zusammenhänge hergestellt werden zwischen Einheiten einer natürlichen Sprache und entsprechenden Einheiten interner Repräsentationen, organisiert als Netzwerke. Den Strukturen und Prozessen einer natürlichen Sprache entsprechen Strukturen interner Repräsentationen und Operationen hierüber. So kann etwa das Verstehen von Texten aufgefaßt werden als sukzessiver Aufbau von Knoten und Kanten in einem Netzwerk. (Siehe Abb. 27.3.) Der schraffierte Teil in Abb. 27.3 steht für jenes semantische Netzwerk, das mit dem ersten Satz aufgebaut wurde. Für das Netzwerk in Abb. 27.3 gilt folgendes: — Einem natürlichsprachlichen Satz wird eine Prädikat-Argument-Struktur zugeordnet, und das Prädikat wird auf der Basis eines Lexikons in semantische Primitive zerlegt. Das Netzwerk ist erweiterbar und wird als Teil eines ’Langzeitgedächtnisses’ angesehen (Unterscheidungspunkt (1)). — Die auf das Netzwerk in Abb. 27.3 bezogenen Operationen sind Erkennungsverfahren. Eine größere ’Verstehenstiefe’ wird erreicht durch eine Ersetzung der Lexeme einer konkreten natürlichen Sprache durch semantisch-kognitive Konstrukte. Die Ersetzung kann als ’lexikalische Inferenz’ aufgefaßt werden, so daß das erstellte Netzwerk als das Ergebnis einfacher Formen von Inferenzprozessen angesehen werden kann. Das aufgebaute Netzwerk wiederum kann zum Ausgangspunkt von Generierungsverfahren werden. (Unterscheidungspunkt (2)) — Das Netzwerk in Abb. 27.3 ist eine graphische Darstellung von Resultaten eines bestimmten Typs von Verarbeitungssystem: eines symbolverarbeitenden Systems. Charakteristisch für diese Systeme ist eine Architektur, die vereinfacht wie folgt dargestellt werden kann. Durch einen Prozessor (P) werden Verarbeitungsprozeduren (VP) auf Elemente der Eingabe (E) und auf Einträge eines (permanenten) Wissensspeichers (WS) angewandt.

VII. Computer Simulation of Language I: Basic Problems

304

Abb. 27.3: Semantisches Netzwerk (Norman 1976, 10) Sie produzieren als Ergebnis eine Ausgabe (A), u. U. durch Auswertung einer Anzahl (nicht-permamenter) Zwischenergebnisse, abgelegt in einem Arbeitsspeicher (AS). Bezogen auf Abb. 27.3 : Eingabesätzen werden Netzstrukturen zugeordnet, wobei entweder Knoten neu eingerichtet oder schrittweise durch neue Kanten angereichert werden. Hierbei können Teilergebnisse solange in einem Arbeitsspeicher aufbewahrt werden bis die Verarbeitungsprozesse über die notwen-

digen Informationen zum Aufbau der Netzwerkstrukturen verfügen. Netzwerke können Bestandteil verschiedener Typen von Verarbeitungssystemen sein. Neben Symbolverarbeitungssystemen (vgl. Newell 1980) können sie Teil von Systemen sein, in denen die Verarbeitung durch Aktivationsbreitung bzw. Aktivationshemmung erfolgt (neuronale Netze, vgl. Schnelle 1985 b, oder verschiedene Typen von konnektionistischen Verarbeitungssystemen, vgl.

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

Fahlmann/Hinton 1987) (Unterscheidungspunkt (3)) — Das Netzwerk in Abb. 27.3 ist Teil eines experimentellen Systems, das dazu dient, kognitive Mechanismen der Informationsverarbeitung genauer zu untersuchen. Kognitive Modellierung ist ein Verwendungszweck von Netzwerken in sprachverarbeitenden Systemen. Andere sprachverarbeitende Systeme können aufgefaßt werden als Verifikationssysteme. Netzwerke, in denen grammatisches Wissen repräsentiert ist, dienen hier der empirischen Überprüfung einer grammatischen Beschreibung, angewandt auf ein Sprachfragment. Und schließlich sind Netzwerke Teil von natürlichsprachlichen Anwendungssystemen (natürlichsprachliche Zugangssysteme, maschinelle Übersetzungssysteme); die Netzwerke dienen hier dem Anwendungsinteresse (Zugang zu einem Informations- oder Expertensystem, Übersetzung von Dokumenten) (Unterscheidungspunkt (4))

8.

Verwendung von Netzwerken: Übergangsnetzwerke

Übergangsnetzwerke haben eine vielfältige Verwendung gefunden in der Verarbeitung natürlicher Sprache. So sind sie etwa verwendet worden: — für die Erkennung gesprochener Sprache (Cravero et al. 1984), — in der automatischen morphologischen Segmentierung (Kay 1977), — für die Erkennung syntaktischer Strukturen (Woods 1970; Bates 1978), — für die Generierung natürlichsprachlicher Sätze aus semantischen Netzwerken (Shapiro 1982), — für die Erstellung sog. robuster Parser (Kwasny et al. 1981), — für die Verarbeitung bereichsspezifischer semantischer Muster (Burton 1976), — für die Verarbeitung von Präsuppositionen (Weischedel 1979), — für die Modellierung von Dialogeigenschaften (Metzing 1981; Reichman 1981). Diesen vielfältigen Verwendungen liegen bestimmte Typen von Übergangsnetzwerken zugrunde. Auf Varianten des in der Sprachverarbeitung wohl verbreitesten Netzwerktyps, Erweiterte Übergangsnetzwerke, soll im folgenden näher eingegangen werden. Betrachten wir Abb. 27.4. Die zu verarbeitende Eingabe (E) seien natürlichsprachliche Sätze,

305

Abb. 27.4: Architektur von symbolverarbeitenden Systemen die zu erzeugende Ausgabe (A) seien der Eingabe zugrundeliegende Strukturen, z. B. Konstituentenstrukturen. Das für die Produktion von A erforderliche Wissen kann im Wissensspeicher (WS) als Übergangsnetzwerk organisiert sein, das bestimmte Bedingungen erfüllt: — Das Netzwerk besteht aus einer Menge von Teilnetzen. Jedes Netz besteht aus einer Menge von benannten Zuständen, die untereinander durch benannte, gerichtete Kanten verbunden sind. Nur die Kanten seien mit linguistischen Kategorien benannt. — Ein sog. Basis-Übergangsnetzwerk (Basic Transition Netzwork = BTN) kann in der Weise erweitert werden, daß an den Kanten nicht-terminale Kategorien zugelassen werden und daß Rekursion ermöglicht wird (Rekursives Übergangsnetzwerk, Recursive Transition Network). Ein Rekursives Übergangsnetzwerk kann in der Weise erweitert werden, daß an den Kanten beliebige Aktionen, z. B. strukturaufbauende Aktionen für die Strukturausgabe, zugelassen werden (Erweitertes Übergangsnetzwerk, Augmented Transition Network = ATN). Die Aktion kann auch darin bestehen, daß an einer Position im Netzwerk beliebige (z. B. semantische) Informationen in einer Datenbasis gesucht werden. — Es gibt einen Weg von E nach A, wenn ein entsprechender Pfad im Netzwerk gefunden werden kann. Die Eigenschaften des Netzwerkes erlauben es, Sequenzmuster in ökonomischer Weise zu kombinieren, so daß identische Teilsequenzen nur einmal repräsentiert werden müssen. Die Eigenschaften des Netzwerks erlauben es ebenfalls, zwei Teilnetze miteinander zu verschmelzen, so daß identische Teile der Netze nur einmal repräsentiert werden müssen. Dies kann z. B.

306

für Regularitäten von Satztypen (Aussage-, Frage-, Relativsatz) genutzt werden. — Wenn der Wissensspeicher (WS) als Übergangsnetzwerk organisiert wird, ist zu unterscheiden zwischen dem Netzformalismus (’Netzsprache’) und der Anwendung des Netzformalismus zur Repräsentation einer Grammatik einer konkreten, natürlichen Sprache (’Netzgrammatik’). Die Verarbeitungsprozeduren (VP) greifen auf eine Netzgrammatik und die Eingabe zu und produzieren nach ihren Verarbeitungsstrategien die Ausgabe, unter Nutzung des Arbeitsspeichers (AS). (Vgl. Winograd 1983). — Aus einem Netzwerk können Teilnetze im Prozeß der Verarbeitung aufgerufen oder aktiviert werden. Das so aufgerufene Teilnetz kann als Subroutine abgearbeitet und damit die Kontrolle an das aufrufende Netz zurückgegeben werden. Oder das aufgerufene Teilnetz kann als Koroutine abgearbeitet werden, d. h. im aufgerufenen und im aufrufenden Netz kann quasi-parallel vorangeschritten werden. (Vgl. Woods 1980, Christaller 1986, Christaller/Metzing 1983) Von den oben genannten Varianten von Übergangsnetzwerken haben die Erweiterten Übergangsnetzwerke die größte Verbreitung gefunden. Verwendet wurden sie vor allem zur Repräsentation syntaktischen Wissens (Kompetenz-Wissen) in verarbeitungsbezogener, effizienter prozeduraler Form (vgl. Winograd 1983 ). Verwendet wurden sie zum Aufbau einer syntaktischen Komponente in Sprachverarbeitungssystemen der Künstlichen Intelligenz. Erweiterte Übergangsnetzwerke sind ein effizienter Repräsentationsformalismus für in Sequenzmustern darstellbare symbolische Information. Die in einem bzw. in einer Hierarchie von Erweiterten Übergangsnetzwerken repräsentierten Muster werden allerdings sequentiell abgearbeitet. Dies ist besonders bei Sprachverarbeitungssystemen eine zu starke Einschränkung. So gibt es z. B. gute Gründe dafür, bei der Verarbeitung natürlichsprachlicher Eingabe schrittweise und fast gleichzeitig ein syntaktisches und ein semantisches Analyseergebnis aufzubauen. Ähnliches gilt für die Pragmatik. So können z. B. Äußerungen in aufgabenorientierten Dialogen gleichzeitig mehrere Funktionen erfüllen; mit einer Dialogäußerung kann gleichzeitig ein Schritt in einer Sprechaktsequenz (a), in einer Aufgabensequenz (b) und in einer in einem Dialog abgewickelten Interaktionssequenz (c) getan werden. Um jedoch

VII. Computer Simulation of Language I: Basic Problems

in den verschiedenen Sequenzmustern bzw. Netzwerken bei der Äußerungsanalyse fast gleichzeitig (quasi-parallel) voranschreiten zu können, ist eine Erweiterung des Formalismus für Übergangsnetzwerke erforderlich. Hierauf soll im folgenden kurz eingegangen werden. In Woods 1980 sind sog. Kaskadierte Übergangsnetzwerke zum erstenmal eingeführt worden. Verschiedene Übergangsnetzwerke sind durch einen Ein-/Ausgabepuffer miteinander verbunden. Eine sog. TRANSMIT-Aktion sorgt dafür, daß an einer genau bestimmbaren Position im Netzwerk eine Eingabe in den Puffer erfolgt, die von dem nächst ’tieferen’ Netzwerk in einer Kaskade von Netzwerken gelesen und verarbeitet werden kann. Dies erlaubt bzw. erfordert eine gezielte Synchronisation in einer inkrementellen, quasi-parallelen Verarbeitung von Netzwerken. Zur Illustration sei ein Beispiel eines einfachen kaskadierten Übergangsnetzwerks mit Rekursion aus Woods 1980 hier angeführt. Die beiden Übergangsnetzwerke rufen sich gleichzeitig wie Koroutinen auf: durch eine TRANS-MIT-Aktion im ersten Netzwerk wird das zweite aufgerufen, und wenn der Eingabepuffer des zweiten Netzwerks leer ist und noch kein Endzustand erreicht ist, wird wieder das erste Netzwerk aufgerufen. (Eingabe: a n b n c n ). Auf der Basis der Arbeit von Woods wurde von Christaller eine Verallgemeinerung des Kaskaden-Ansatzes mit Hilfe einer objektorientierten Realisierung von Kontrollstrukturen entwickelt (vgl. Christaller 1986). Aus Platzgründen sollen jedoch nur zwei Aspekte hervorgehoben werden. (1) In der objektorientierten Realisierung kaskadierter Übergangsnetzwerke werden zu Netzwerken, wie in Abb. 27.5 angegeben, bei der Verarbeitung von Zeichenketten bestimmte Prozeßinstanzen erzeugt, die eine exakte Darstellung des Verarbeitungsprozesses abgeben. Um hierzu ein Beispiel zu geben, seien die Prozeßinstanzen zur Verarbeitung der Zeichenkette A B C wiedergegeben (aus Christaller 1986, 117) (s. Abb. 27.6). Zu jedem Zustand bzw. Knoten im Übergangsnetzwerk werden soviel Instanzen erzeugt wie es Kantenalternativen gibt. Die SEEK-Kante führt dazu, daß das Netzwerk rekursiv von dem angegebenen Startpunkt bis zum entsprechenden Endpunkt (z. B. P in Abb. 27.5) abgearbeitet wird. Führt ein versuchter rekursiver Abstieg nicht zum Erfolg,

307

Abb. 27.5: Beispiel eines einfachen Kaskadierten Übergangsnetzwerkes mit Rekursion (nach Woods 1980)

Abb. 27.6: Verarbeitung der Zeichenkette ABC (aus Christaller 1986, 117)

VII. Computer Simulation of Language I: Basic Problems

308

so sorgt RESUME dafür, daß die nächste Kantenalternative versucht wird (ausgehend von einer Prozeßinstanz mit Kantenalternative NIL). Bei der hier gewählten Betrachtungsweise und Implementierung erscheint ein in der Regel fest etabliertes und gespeichertes Netzwerk aufgelöst in Spuren dynamischer Objekte, die Nachrichten austauschen, momentane Prozeßinstanzen kreieren und dabei die vorgegebene Eingabe verarbeiten. (2) Die Arbeit von Woods (1980) eröffnete eine neue Forschungsrichtung und zeigte einen Weg: Übergangsnetzwerke als Koroutinen zu organisieren; Übergangsnetzwerke in einer Kaskaden-Architektur zu koordinieren; auf der Basis von Übergangsnetzwerken eine Sprachverarbeitung zu realisieren, charakterisiert durch inkrementelle Verarbeitung, Quasi-Parallelität und Interaktion modularer Komponenten, z. B. eines Sprachverarbeitungssystems. Die Arbeit von Christaller (1986) zeigt, wie die Konzeption Kaskadierter Übergangsnetzwerke erweitert, generalisiert und gleichzeitig an Erfordernisse eines Sprachverarbeitungssystems besser angepaßt werden kann. Das Ergebnis ist eine Kaskaden-Architektur, die es erlaubt, einzelne Stufen der Kaskade als Übergangsnetzwerke zu organisieren oder aber in einem anderen Repräsentationsformalismus; die es erlaubt, bei Bedarf Stufen zu überspringen bzw. mehrfach abzuarbeiten. Grundlagen und die Verwendung von Netzwerken zur Verarbeitung natürlicher Sprache konnten hier nur skizziert werden. Detailliertere Arbeiten hierzu sind in der folgenden Auswahl der Fachliteratur angegeben.

9.

Konnektionistische Netzwerke

Nach der Übersicht über die Verwendung von Netzwerken für die Verarbeitung natürlicher Sprache soll im folgenden ein Typ von Netzwerken gesondert berücksichtigt werden: Konnektionistische Netzwerke. Kurz erläutert werden: — Charakteristische Eigenschaften konnektionistischer Netzwerke, — deren Relevanz für die Verarbeitung natürlicher Sprache sowie — die Rolle objekt-orientierter Programmierung für Netzwerke dieses Typs. Netzwerk-Repräsentationen wurden in erster Linie unter dem Gesichtspunkt effizienter Informationsverarbeitung entwickelt.

Und so kann z. B. behauptet werden, daß es ökonomischer ist, Informationen in Vererbungshierarchie zu repräsentieren und zu suchen, dargestellt als Netzwerke, als in nicht weiter strukturierten Listen von Propositionen. Hier setzt eine zentrale Kritik der Verfechter konnektionistischer Netzwerke ein. Herkömmliche Netzwerksysteme mögen zwar eine ökonomische und konzeptuell bestimmte Speicherorganisation erlauben, aber die Speichereinheiten sind passiv und werden in der Regel von e i n e m zentralen Prozessor verarbeitet (vgl. Abb. 27.4), dem Flaschenhals der Informationsverarbeitung. Dieser Flaschenhals kann zwar verbreitert werden, wenn mehrere Prozessoren parallel auf passive Speichereinheiten zugreifen, konnektionistische Ansätze jedoch sind radikaler: die Speichereinheiten selbst sind aktiv, jeder Speichereinheit ist ein sehr einfacher Prozessor zugeordnet, und bei der Verarbeitung sind z. B. hunderttausende von MiniProzessoren aktiv, die untereinander verknüpft sind. Die Bezeichnung ’Konnektionismus’ geht zurück auf J. Feldman (vgl. Feldman/Ballard 1982). Diese Bezeichnung macht deutlich, daß das Speichern von Informationen in erster Linie aufgefaßt wird als das Herstellen bestimmter Verknüpfungen bzw. Verknüpfungsmuster zwischen elementaren Verarbeitungseinheiten. Die Verarbeitungseinheiten selbst verfügen nur über ein Minimum an Information (’single-bit marker’ oder Aktivationswerte). Verknüpfungsmuster können aufgebaut werden durch Ausbreiten dieser Information entlang der Verknüpfungslinien. Die elementaren Einheiten eines konnektionistischen Netzwerks können entweder Symbole sein (lokale Repräsentationen, lokaler Konnektionismus) oder kleinere, subsymbolische Einheiten, z. B. Merkmale (distribuierte Repräsentationen, distribuierter Konnektionismus). Betrachten wir z. B. das Netzwerk in Abb. 27.3 . Im Rahmen eines lokalen konnektionistischen Netzwerks würde jeder Knoten in Abb. 27.3 einer Verarbeitungseinheit, einem Mini-Prozessor, entsprechen. Einern Netzwerk eine neue Information hinzuzufügen, hieße, neue Verbindungslinien zwischen Prozessoren aufzubauen bzw. neue Prozessoren und neue Verbindungslinien einzurichten. (Als ein Beispiel für lokalen Konnektionismus vgl. das Repräsentationssystem NETL (Fahlman 1979 a, 1980).) Im Rahmen eines distribuiert-konnektio-

27.  Rolle und Funktion von Netzwerken in der Computersimulationvon Sprache

nistischen Netzwerks müßte die in Abb. 27.3 repräsentierte Information auf eine Vielzahl von Knoten (Verarbeitungseinheiten) und Kanten (Verknüpfungslinien) verteilt werden, so daß auch bei leicht gestörter Eingabe der Information bzw. bei leicht gestörter Netzrealisation (vgl. ’partial match’, ’FehlerToleranz’) ein brauchbares Verarbeitungsergebnis erzielt wird. Einem Netzwerk eine neue Information hinzuzufügen, hieße, neue Verbindungslinien zwischen Prozessoren aufzubauen bzw. das System der verteilten Repräsentationen (Prozessoren) zu modifizieren und neue Verbindungslinien aufzubauen. Bei der hierbei zu bewältigenden Komplexität ist ein automatisches Lernverfahren notwendig. (Als ein Beispiel für distribuierten Konnektionismus vgl. Rumelhart/ McClelland eds. 1986). Eine charakteristische Annahme konnektionistischer Ansätze ist, daß von ’WissensEinheiten’ ausgegangen wird, denen elementare Verarbeitungseinheiten und Verknüpfungen zuzuordnen sind. (Es wird z. B. nicht von einer vorgegebenen Zahl von Prozessoren ausgegangen, für die die Dekomposition einer Aufgabe ’zuzuschneiden’ ist.) Die Entwicklung konnektionistischer Ansätze, Methoden und Maschinen ist erst am Anfang (Fahlman/Hinton 1987). Es ist zu erwarten, daß sie für die Verarbeitung natürlicher Sprache in hohem Maße relevant sein werden. Formale Syntaxanalyse natürlicher Sprachen ist sicherlich ein Bereich, in dem die Stärken von Symbolverarbeitungsverfahren (Newell 1980) besonders deutlich werden: ein zentraler Prozessor (vgl. Abb. 27.4) wendet rekursiv Berechnungsverfahren auf eine Eingabe und auf Repräsentationen der sequentiellen Abfolge von Beschreibungskategorien (Grammatik) an. Deutlich ist jedoch auch, daß der Analysegegenstand in der Regel in signifikanter Weise idealisiert ist. So ist etwa die Produktion akzeptabler Äußerungen von einer Vielzahl von z. B. lexikalischen Einzelfaktoren abhängig (vgl. Gross 1975), und die Erkennungsverfahren konkreter Sprecher sind in hohem Maße robust und reagieren flexibel auf Normabweichungen. Diese Erkennungsverfahren sind außerdem offensichtlich kontextbezogen, wodurch z. B. Ambiguitätsprobleme reduziert werden. (Kontext statt Kombinatorik.) Und vor allem: die Erkennungsverfahren produzieren Resultate in Realzeit. Aus der Sicht der Konnektionisten sind die hervorragenden Eigenschaften eines ’native speakers’ nicht die Fä-

309

higkeit, auf der Basis von Kompetenzregeln neue Sätze zu produzieren. Zu den besonderen Eigenschaften gehören vielmehr bestimmte Aspekte der Informationsverarbeitung, wie — in kürzester Zeit sehr große Mengen von Wissenselementen abzuprüfen, — bei unterspezifizierten oder fehlerhaften Eingabedaten die bestmögliche Analyse bzw. Interpretation zu produzieren, — analoge Informationen (Bewegungen, Formen, räumliche Beziehungen, Sprachlaute) auszuwerten. “In many cases, humans seem to handle information in some form other than the symbolic assertions of traditional AI.” (Fahlman/Hinton 1987, 100) Bisher bekannt gewordene konnektionistische Netzwerke im Bereich Sprachverarbeitung betreffen — die Wortverarbeitung (vgl. Dell 1985, Diederich/Lischka 1986, 1987) sowie — lexikalische Aspekte der Satzverarbeitung (Parsing unter den Bedingungen lexikalischer bzw. struktureller Ambiguitäten; Waltz/Pollack 1985, McClelland/Kawamoto 1986). Ein eigener Ansatz, angewandt auf die Bereiche Phonologie und Syntax, wurde von Schnelle entwickelt (Schnelle 1983, 1985 b). Die Verwendbarkeit konnektionistischer Netzwerke in jenen Bereichen der Sprachverarbeitung, die auf Konventionen einer formalen Semantik Bezug nehmen, ist noch offen. Abschließend noch ein Hinweis zur Rolle objekt-orientierter Programmierung für konnektionistische Netzwerke. Durch objektorientierte Programmierung kann Parallelverarbeitung in lokal-konnektionistischen bzw. distribuiert-konnektionistischen Netzwerken simuliert werden. Den Verarbeitungseinheiten der Netzwerke können virtuelle Prozessoren zugeordnet werden, und der eine real vorhandene Prozessor kann in der Weise vervielfacht werden, daß er quasiparallel Verarbeitungseinheiten im Netzwerk abarbeitet. Eine Implementierung konnektionistischer Modelle ist extrem aufwendig: erforderlich ist spezielle Hardware (Hillis 1985). Es ist daher wichtig, für begrenzte Aufgabenstellungen Werkzeuge zur Simulation konnektionistischer Modelle auf KI-Rechnern zur Verfügung zu haben. Ein solches Werkzeug ist z. B. das System SPREAD-3 , das eine objekt-orientierte Darstellung von lokal-kon-

310

nektionistischen bzw. distribuiert-konnektionistischen Netzwerken erlaubt (Diederich/ Lischka 1987). Durch eine abstrakte Charakterisierung, die allein die Eigenschaft der multiplen Vererbung ausnutzt, werden die wichtigsten Teile des Werzeugsystems unabhängig von einer konkreten Programmiersprache beschrieben. Diese Eigenschaften werden dann in den objekt-orientierten Konventionen einer bestimmten Programmiersprache (z. B. Flavor-System oder LOOPS) realisiert.

10. Literatur (in Auswahl) Repräsentation und Repräsentationsschemata: Schefe 1982 · Smith 1982 · Woods 1983 · Theoretische Grundlagen von Netzwerk-Systemen: AitKaci 1986 a, 1986 b, 1986 c · Clocksin/Mellish 1984 · Kowalski 1979 · Pepper et al. 1982 · Assoziative Netzwerke: Allen/Frisch 1982 · Barr/Feigenbaum 1981/82 · Brachman 1976, 1979, 1983 , 1985 · Brachman/Schmolze 1985 · Diederich 1987 · Diederich/Lischka 1987 · Fahlman 1983 · Find-

VII. Computer Simulation of Language I: Basic Problems

ler 1979 · Kaczmarek 1986 · Mylopoulos/Levesque 1983 · Mylopoulos et al. 1983 · Quillian 1968 · Schmolze/Lipkis 1983 · Sowa 1984 · Touretzky 1984 · Vilain 1985 · Woods 1983 · Klassifikation in Netzwerksystemen: Brachman 1979, 1985 · Brachman/Schmolze 1985 · Schmolze/Lipkis 1983 · Frames: Minsky 1975 · Logische Rekonstruktion von Netzwerk-Repräsentationen: Charniak 1985 · Deliyanni/Kowalski 1979 · Hayes 1980 · Israel 1983 , 1985 · Nilsson 1982 · Konnektionistische Netzwerke: Dell 1985 · Fahlmann/ Scott 1979 · Fahlmann/Hinton 1987 · Feldmann/ Ballard 1982 · Hillis 1985 · Rumelhart/McClelland 1986 · Waltz/Pollack 1985 · Schnelle 1985 · Schnelle/Job 198 3 (operationale Netzwerke) · Übergangsnetzwerke: Bates 1978 · Bole 1983 · Christaller 1986 · Woods 1970 · Woods 1980. Übergangsnetzwerke in der Sprachverarbeitung: Christaller/Metzing 1983 · Cravero et al. 1984 · Kay 1977 · Kwasny/Sondheimer 1981 · Metzing 1981 · Norman 1976 · Reichmann 1981 · Shapiro 1982 · Weischedel 1979 · Winograd 1983.

Dieter Metzing, Bielefeld/Günther Görz, Erlangen (Bundesrepublik Deutschland)

311

VIII. Computer Simulation of Language II: Systems Components Computersimulation von Sprache II: Systemkomponenten

28. Systemarchitektur der Sprachverstehenssysteme 1. 2. 2.1. 2.2. 2.3. 2.4. 3. 3.1. 3.2. 3.3. 3.4. 4. 5.

Was ist Systemarchitektur? Komplexitätsdimensionen der Architektur Modularisierung Phasen in der Verarbeitung Parallelverarbeitung Kompaktheit: Compiler und Interpreter Architekturtypen der Sprachverarbeitungssysteme Lineare Architektur Blackboard-Architektur Netzwerk-Architektur Parser-Generatoren Architektur und Verarbeitungsstrategie Literatur (in Auswahl)

1.

Was ist Systemarchitektur?

Unter Systemarchitektur wird hier in Anlehnung an die Informatik (Schneider 21986, 3 9) die funktionale Beschreibung von Anwendungssystemen verstanden, die die Zusammenhänge des Systems in Form von geordneten Ein- und Ausgaberelationen darstellt. Systemarchitektur kann sowohl auf Hardware als auch auf Software bezogen werden. Auf der Software-Ebene werden die Ein- und Ausgaberelationen als geordnete Tripeln von Schnittstellen, Algorithmen und Schnittstellen realisiert. Die Ein- und Ausgabetripeln können unterschiedlich groß ausgelegt sein. Aus der Sicht des gesamten Anwendungssystems gibt es drei Schnittstellenkonfigurationen: (1) Systeminterne Schnittstellen, die zwischen zwei Algorithmen operieren, (2) Schnittstellen, die den Benutzer mit dem System verbinden und (3 ) Schnittstellen, die umgekehrt das System mit dem Benutzer verbinden. Insoweit Anwendungssysteme künstliche Objekte sind, die nach Effizienzüberlegungen konstruiert werden, ist die Systemarchi-

tektur sehr eng mit der Technik der Konstruktion von Anwendungssystemen verbunden. In Englisch sind ’system architecture’ und ’system design’ synonym.

2.

Komplexitätsdimensionen der Architektur

2.1. Modularisierung und Komplexität Unter Moduln versteht man in der Informatik selbständige funktionale Einheiten, die durch Eingabe und Ausgabe charakterisiert werden, während ihr innerer Aufbau nicht problematisiert zu werden braucht. CL-Systeme gehören zu der Klasse der typischen Großsysteme. MÜ-Systeme — und später auch die FA-Systeme — zeichneten sich von Anfang an dadurch aus, daß sie besonders speicherintensiv waren. Erstens benötigten sie größere (externe) Speicher für ihre Daten (vor allem für Lexika) und zweitens, überflügelten die für die Sprachverarbeitung benötigten Programme die interne Komplexität der üblichen Anwendungsprogramme bei weitem. Um die anstehende Problematik der Sprachverarbeitung überhaupt bewältigen zu können, ist man in der CL bereits recht früh gezwungen gewesen, modular vorzugehen und das gesamte Problemlösungsvorhaben in Moduln (in kleinere, in sich bearbeitbare Abschnitte) aufzuteilen. Modularisierung erwies sich als notwendig: (1) Sie ermöglichte es, die einzelnen Teillösungen getrennt auszutesten, wobei der Aufwand für die Isolierung der Teilaufgaben nicht unterschätzt werden darf. Komplexe Aufgaben werden erst durch die Zerlegung in kleinere (elementare) Schnitte überhaupt lösbar.

312

(2) Modularisierung ermöglicht eine günstigere Arbeitsteilung, in der die isolierten Probleme von jeweils kompetenten Fachkräften gelöst werden können. (3 ) Modularisierung ermöglicht die Herstellung von Programmen, die auf existierenden (und verfügbaren) Maschinen laufen können, während bei nicht-modularem Vorgehen die Speicherkapazitäten der Rechner zu schnell erschöpft sein können. Modularisierung ist in der CL eine praktische Notwendigkeit, die auch heute gilt und selbst mit Bereitstellung von noch größeren Maschinen nicht überwunden werden kann. Im Idealfall wird durch die Modularisierung die logische Verarbeitung nicht beeinträchtigt, d. h. ein nicht zerlegtes System *Sn* und ein modulares System *Sm* erbringen auf der funktionalen Ebene dieselbe Leistung. Der Unterschied zwischen monolithischen und modularen Systemen besteht lediglich darin, daß in dem modular organisierten System zusätzliche Schnittstellen für die Kommunikation zwischen den Moduln angelegt worden sind. Modulare Systeme haben daher mehr Strukturen und sind ceteris paribus weniger effizient als monolithische. Modularisierte Systeme haben mehr Strukturen (d. h. mehr Schnittstellen, geeignet für zusätzliche Repräsentationsebenen), sie benötigen insgesamt mehr Speicher und sie haben generell auch längere Verarbeitungszeiten, als die nicht-modularisierten Systeme. Andererseits sind die modularisierten Systeme transparenter und wartungsfreundlicher, da die einzelnen Moduln autonom sind und ihre interne Struktur getrennt von dem Gesamtsystem testbar ist. In besonderen Fällen, wenn nämlich in der Verarbeitung logisch parallel gelagerte Schritte vorliegen, kann der Speicherbedarf durch geeignete Modularisierung reduziert werden, indem die logisch parallel gelagerten Moduln durch Überlagerung desselben Speicherbereichs hintereinander ausgeführt werden. Modularisierung ist nicht nur eine Technik um große, komplexe, unübersichtliche Systeme in kleinere Einheiten zu zerlegen und dadurch das System übersichtlicher und leichter kontrollierbar zu machen, sondern auch ein Mittel um Speicherbedarf und Ausführungszeiten zu optimieren.

VIII. Computer Simulation of Language II: SystemsComponents

2.2. Phasen der Verarbeitung Für die Systemarchitektur sind drei Komplexitätsstufen von Belang: Es gibt 1. direktprogrammierte Systeme, 2. Systeme mit automatisch generierten Tabellen und 3 . mit automatisch generierten Prozeduren. Sie werden hier als Ein-, Zwei- bzw. Mehrphasen-Systeme genannt. (1) Die direktprogrammierten, einphasigen Systeme bestehen lediglich aus dem Code, der selbstverständlich weiter strukturiert wird. Ein Beispiel dieses Typs ist das Saarbrückener Übersetzungssystem SUSY (I). (2) Die komplexeren Systeme bestehen aus (mindestens) zwei Phasen: Sie haben eine Vorlaufphase (’preprocessing phase’) und eine Hauptverarbeitungsphase. In der Vorlaufphase werden die Programmteile (z. B. Tabellen) aufgebaut und in der Hauptverarbeitungsphase ausgeführt. Ein Beispiel für ein Zweiphasensystem ist der ’Transformational Grammar Tester’ von Joyce Friedman (vgl. Art. 22). (3 ) Die mehrphasigen Systeme gehen über die Tabellengenerierung insoweit hinaus, als sie nicht nur die vorformatierten Tabellen ausfüllen, sondern auch neue Systemmoduln erstellen, deren Aufbau und Länge nicht im voraus ersichtlich ist. Systeme dieses Typs sind z. B. in PROLOG geschriebene Implementierungen von Unifikationsgrammatiken. 2.3. Parallelverarbeitung Unabhängig davon, in wie vielen Phasen die Verarbeitung erfolgt, müssen sequentiell und parallel organisierte Systeme unterschieden werden, wobei die Systeme der Zukunft mit Parallelverarbeitung eine andere Logik verlangen und ganz andere Probleme aufwerfen (vor allem im Bereich der Synchronisation der Abläufe), die dann ihrerseits auf die Problemlösung und auch auf die Systemarchitektur zurückwirken (vgl. Starke 1980; Rothakker 1982; McClelland/Rumelhart 1986; Schnelle 1987; Ramani/Chandrasakar 1986 und Art. 64). Die heute lauffähigen Systeme der CL sind, bedingt durch die Hardware, praktisch ausschließlich sequentiell organisiert. 2.4. Kompaktheit: Compiler und Interpreter Analog zu der in der Informatik üblichen Unterscheidung zwischen Compilern und Interpretern (Schneider 21986, 3 01) sind auch

28.  Systemarchitektur der Sprachverstehenssysteme

313

nen Moduln so organisiert werden müssen, daß die Ausgabe des einen Moduls als die Eingabe des nächsten genommen wird. Diese (einfache) Architektur ist in den früheren Systemen in Maschinelle Sprachübersetzung-, Information Retrieval- und Frage-AntwortSystemen vorherrschend gewesen, vgl. Fauser/Rathke (1981, 25—31).

Abb. 28.2: Die lineare Transfer-Architektur der MÜ

Abb. 28.1: Compiler und Interpreter

unter den Systemen der CL Compilersysteme und Interpretersysteme zu unterscheiden, wobei der Unterschied nicht in der linguistischen Leistung, sondern in der Architektur liegt. Compilertyp von Systemen sind so eingerichtet, daß ein ausführbarer Code für eine Klasse von Eingabe erzeugt wird (compilation) und der Code in einem unabhängigen, getrennten Schritt ausgeführt (execution). Maschinelle Übersetzungssysteme arbeiten charakteristischerweise in diesem Stil. Interpreter dahingegen arbeiten satzweise: Die Eingabe wird in einen ausführbaren Code umgesetzt und sofort (satzweise) ausgeführt. Diese Verarbeitungsart ist naheliegend für die Dialog- und Frage-AntwortSysteme (vgl. Abb. 28.1). Interpreter sind effizienter, wenn die Eingabe auf einige wenige Sätze beschränkt ist.

3.

Architekturtypen der Sprachverarbeitungssysteme

3.1. Lineare Architektur Der lineare Systemaufbau ist der einfachste: die einzelnen in sich abgeschlossenen Systemkomponenten werden hintereinander aufgerufen und ausgeführt, wobei die einzel-

Die einzelnen Systemkomponenten entsprechen den linguistischen Teilaufgaben, wie morphologische Analyse, syntaktische Analyse, semantische Interpretation, semantische Inferenzen, Diskursanalyse usw. (Bátori 1982 b). Eine Korrespondenz zwischen linguistischer Problemgliederung und Systemkomponenten ist allerdings nicht zwingend (Hahn, W. v. 1986). Die Verwertung der lexikalischen Informationen auf verschiedenen Ebenen sowie die Ausnutzung von Rekursionen erlauben Variationen der einfachen linearen Architektur. (1) Lexikalische Informationen haben für die Verarbeitung lediglich durch ihre Menge — und die hierdurch erforderliche besondere Organisation für die Massendaten — einen besonderen Status. Um die Lexikonoperationen effizienter zu gestalten, kann eine Lexikonkomponente von dem Verarbeitungsmodul auf jeder Analyse-(und Synthese-)Ebene abgetrennt werden. (2) Bereits benutzte Moduln können nochmals gerufen werden; dies spart Doppelarbeit, bringt jedoch das Problem der Rekursionen und die Kompatibilität der Repräsentationen auf den verschiedenen Ebenen mit sich (vgl. hierzu die Darstellung z. B. bei Hahn, W. v./Hoeppner/Jameson et al. 1980, 132—140). 3.2. Blackboard-Architektur Rekursionen sind nämlich nur dann realisierbar, wenn die Informationen auf den Repräsentationsebenen: i, i + 1, 1 + 2 usw. formatmäßig und inhaltlich aufeinander abgestimmt und kompatibel sind. In dem einfachen sequentiellen Verarbeitungsmodell gibt es nämlich für die Gestal-

314

Abb. 28.3: Rekursionen

tung der einzelnen Verarbeitungsebenen überhaupt keine Einschränkungen. Sie können daher prinzipiell unabhängig voneinander definiert sein. Die Unabhängigkeit der einzelnen Repräsentationsebenen ist insoweit vorteilhaft, als sie für jede Ebene eine jeweils passende Repräsentationssprache zu benutzen erlaubt. So. z. B. die Ergebnisse der Syntaxanalyse anders zu erfassen als die der

Abb. 28.4: Die Blackboard-Architektur: Das Interlingua-Modell der MÜ

Abb. 28.5: Netzwerk-Architektur

VIII. Computer Simulation of Language II: SystemsComponents

semantischen Repräsentation (so z. B. bei PLIDIS vgl. Kolvenbach/Lötscher/Lutz 1979 oder bei USL, vgl. Zoeppritz 1984). Oder man kann auf den verschiedenen Analyseebenen verschiedene Grammatiken benutzen (so z. B. in dem Mu-System der Kioto Universität, vgl. Tsujii/Nakamura/Nagao 1984, 268 ff.). Um die uneingeschränkte Kommunikation zwischen den Systemkomponenten zu ermöglichen, wird in dem Blackboard-Modell ein allgemein zugänglicher, strukturierter Bereich, in dem die Ausgaben der einzelnen Komponenten hineingeschrieben werden, zur Verfügung gestellt und von den nachfolgenden Komponenten als Eingabe benutzt. Im Blackboard-Bereich entsteht also Schritt für Schritt das Analyseergebnis, das am Ende der Verarbeitung entnommen werden kann. Ein anschauliches Beispiel hierfür ist das Interlingua-Modell der Maschinellen Sprachübersetzung (vgl. Andreev 1967; Slocum 1984 a, 5). 3.3. Netzwerk-Architektur Eine Vereinheitlichung der Repräsentationen auf den verschiedenen Ebenen eröffnet jedoch, über die einfache Rekursionskontrolle hinaus, weitere Optimierungsmöglichkeiten: Wenn Informationen über die Ergebnisse der Analyse sukzessive aufgebaut und festgehalten werden, ist es möglich (1) Routinen dann (und nur dann) zu rufen, wenn die erforderlichen Informationen bereits vorhanden sind (so z. B. in HEARSAY II, vgl. Erman/Lesser 1975). (2) Doppelarbeit zu vermeiden (oder zu reduzieren), die dadurch entsteht, daß beim

28.  Systemarchitektur der Sprachverstehenssysteme

315

Abb. 28.6: Kaskadierung bei Hauenschild

Backtracking Informationen verlorengehen (vgl. Kaplan 1973, 195—202). Die Netz-Architektur leistet zwar Entlastung, sie erweist sich jedoch als ineffizient, weil beim Fortschreiten zu einem neuen Modul die Kontrolle eines u. U. umfangreichen Netzwerks erforderlich sein kann. In vielen Fällen scheint es daher effizienter zu sein, die erzeugten (bzw. benötigten) Informationen nicht an einem ’blackboard’ (Fauser/Rathke 1981) unterzubringen, sondern die Informationen gezielt an die Moduln zu ’schicken’, die sie benötigen. Da im Prinzip alle Moduln alle anderen rufen, und auch Parameter weitergeben können, entsteht ein komplexes, mehrdimensionales Netzwerk. Allerdings werden nicht alle möglichen Verbindungen realisiert, so daß zwar die Kontrolle eines multidimensionalen Netzwerks in der Theorie schwierig ist, jedoch kann man mit der Netzwerk-Architektur in der Praxis in begrenzten überschaubaren Bereichen lauffähige und effiziente Systeme konstruieren (so z. B. der TG-Tester von Friedman, vgl. Friedman 1971, 128). Netzwerk-Architektur ist in der Praxis niemals unkontrolliert. Die Kontrolle kann pragmatisch, d. h. durch die spezifische Verarbeitungslogik erfolgen, es gibt jedoch Ansätze, die Kommunikation zwischen den Moduln systematisch einzuschränken. So kann die Kontrolle durch Angabe einer Durchlaufhierarchie gewährleistet werden, wie etwa bei dem cascaded ATNs von Woods 1980. Ein Beispiel für kaskadierte Architektur ist das MÜ-Modell von Hauenschild (1986, 180). 3.4. Parser-Generatoren Die Verarbeitung der natürlichen Sprachen unterscheidet sich von der der Programmiersprachen u. a. dadurch, daß die in den ersteren die Zielstrukturen nicht a priori festste-

hen. Die Verarbeitungsregel für die natürlichsprachliche Eingabe stellen in der Regel aktuelle Forschungsergebnisse dar, die noch fortdauernd korrigiert und ergänzt werden müssen. In einem direkt programmierten System müssen die Grammatikrevisionen auf den Code übertragen werden. Diese Änderungen werden mit zunehmender Systemgröße immer schwieriger und fehleranfälliger. Es ist daher zweckmäßiger, die sprachlichen Regeln nicht direkt zu kodieren, sondern die Grammatikrevisionen von Programmänderungen unabhängig zu machen, indem man Systeme bereitstellt, die für die Umsetzung der Grammatiken (grammatische Regeln) in Programme konzipiert sind. Die Umsetzung der grammatischen Regeln in eine Folge von ausführbaren Instruktionen zeigt eine Ähnlichkeit mit dem Vorgehen im Compilerbau, und entsprechend werden Lösungen von der Informatik in die CL übernommen. Es wird also nicht eine konkrete Grammatik implementiert, sondern ein (formales) System, das eine Klasse von Grammatiken zuläßt, aus der eine als Eingabe bereitgestellt (und wenn erforderlich abgeändert) wird. Die Verarbeitung mit Parser-Generatoren erfolgt prinzipiell in zwei Schritten: 1. Der Parser-Generator übersetzt die Eingabegrammatik in einen ausführbaren Code (d. h. erzeugt den Parser) und 2. der Parser nimmt die Eingabe und führt die effektive Verarbeitung (Analyse oder Generierung) der sprachlichen Eingabe aus. Eine frühe Instanz dieses Vorgehens liegt in dem Transformationellen Grammatiktester (= TGT) von Joyce Friedman (implementiert in FORTRAN) vor. In der ersten Phase erzeugt das TGT-Modell anhand der angegebenen Transformationsregeln, deren Formulierung eng an der

316

in der Linguistik üblichen Notation orientiert ist, ein ausführbares Programm. In der zweiten Phase leitet das System nach der EingabeSprazifikationen Sätze ab und liefert die Protokolle der Derivationsgeschichte als Ergebnis.

VIII. Computer Simulation of Language II: SystemsComponents

ausschließlich (vgl. Kempen/Hoenkamp 1982). Die automatische Generierung von Prozeduren sowie die Nutzung von Interpretern anstelle von Compilern verlangsamt die Verarbeitung, was durch den Einsatz von dedizierter Hardware (LISP-Maschinen, Workstations für PROLOG) ausgeglichen wird.

4.

Abb. 28.7: Zweiphasen-Architektur für ein ParserGenerator-System

Für die Architektur der Parser-Generatoren lassen sich drei Vorgehensweisen auseinanderhalten: 1. Tabellengenerierung: Das Parsersystem hat ein fest vorgegebenes Rahmenprogramm, dessen Steuerung durch Tabellen erfolgt. Die Aufgabe der Vorlaufphase ist die Erstellung dieser Tabellen. Ein Beispiel hierfür ist das bereits erwähnte TGT-System von Friedman. 2. Benutzung eines Präprozessors: Die eingegebene Grammatik wird Regel nach Regel in einen ausführbaren Code umgesetzt. Hierher gehören die ATN-Systeme, z. B. PLIDIS. 3 . Inkrementelle Systemgenerierung: Es sind Systeme mit Unifikationstechniken, die erlauben, bereits fertige Systeme (Teilsysteme) in der zweiten Verarbeitungsphase zu erweitern, so daß dabei die bereits vorhandenen Routinen ohne nochmals kompiliert werden zu müssen verwendet werden können. Typischerweise sind es Systeme in PROLOG (vgl. Eisele/Dörre 1986; Weisweber 1986; Kindermann/Meier 1985, 1986) aber nicht

Architektur und Verarbeitungsstrategie

Systemarchitektur der Sprachverstehenssysteme beruht einerseits auf Überlegungen der Problemlösung, Implementierung und Wartung, und andererseits reflektiert sie den Entwicklungsstand der Hardware. Mit der sprunghaften Steigerung der Verarbeitungskapazitäten in den letzten Jahren, veränderte sich auch die Problematik der Architektur. Die von-Neumann-Maschine behandelt (Benutzer-)Daten und Algorithmen — einschließlich die eigenen Steuerungsbefehle — gleich: beide belegen Speicher. Während in früheren Entwicklungsphasen die Probleme aus der Perspektive der Architektur (Modularisierung und Datenorganisation) gesehen worden sind, werden jetzt dieselben Probleme in inkrementellen Systemen, wie PROLOG-Parser und Parser-Generatoren als Probleme der Steuerung und der Verarbeitungsstrategie verstanden, wobei konnektionistische Modelle für die Simulation neuronaler Netze mit massiver Parallelverarbeitung auch im Bereich der Verarbeitung natürlicher Sprachen neue Möglichkeiten eröffnen können (Schnelle 1987; Kemke 1987).

5.

Literatur (in Auswahl)

I. S. Bátori 1982 b · A. Eisele/J. D. Dörre 1986 · A. Fauser/Ch. Rathke 1981 · J. Friedman 1971 · R. M. Kaplan 1973 · Ch. Hauenschild 1986 · Ch. Kemke 1987 · J. Kindermann/J. Meier 1985 · J. Kindermann/J. Meier 1986 · H. Schnelle 1987.

István S. Bátori, Koblenz (Bundesrepublik Deutschland)

29.  Wissensrepräsentation: Typen und Modelle

317

29. Wissensrepräsentation: Typen und Modelle 1. 1.1.

1.2. 1.3. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 3. 4.

1.

Allgemeine Darstellung Die Bedeutsamkeit von Wissensrepräsentationen für die Computerlinguistik Begriffliche Abgrenzung des Terminus ’Wissensrepräsentation’ Kategorien zur Beschreibung von Wissensrepräsentationen Formalismen und Modelle Prädikatenkalkül Nicht-monotone Logik Semantische Netzwerke Semantische Primitiva Frame-Modelle Konversations- und Benutzerwissen Alltagswissen Probleme der Forschungen über Wissensrepräsentationen Literatur (in Auswahl)

Allgemeine Darstellung

Die Bedeutsamkeit von 1.1.  Wissensrepräsentationen für die Computerlinguistik Nehmen wir an, es soll ein Programm geschrieben werden, welches die folgenden vier Sätze ins Englische übersetzt: (1) Der Mann ging aus dem Fluß, weil er schmutzig war. (2) Der Mann ging in den Fluß, weil er schmutzig war. (3) Der Mann ging aus dem Fluß, weil er sauber war. (4) Der Mann ging in den Fluß, weil er sauber war. Ein menschlicher Übersetzer, der über keine weiteren Informationen über das jeweils beschriebene Ereignis verfügt, würde das Pronomen er bei den Sätzen (1) und (4) durch das englische it, und bei den Sätzen (2) und (3 ) durch he ersetzen. Er nähme also an, daß sich die Subjekte der Nebensätze in (1) und (4) auf die Subjekte der vorangehenden Hauptsätze, und daß sich die Subjekte der Nebensätze (2) und (3 ) auf die vorangehenden Präpositionalobjekte beziehen. Um diese Entscheidungen zu treffen, benützte er verschiedene Kenntnisse, so etwa, daß Menschen nicht gerne schmutzig sind, daß die Oberflächen von sauberen Objekten in einer schmutzigen Flüssigkeit verschmutzen, daß feste Körper in Flüssigkeiten eintauchen können, usw. Auch ein Programm müßte, um diese vier

Sätze richtig übersetzen zu können, über solche oder ähnliche Kenntnisse verfügen, sowie über Regeln, wie diese Kenntnisse verwendet werden. Die formale Darstellung dieser Art von Kenntnissen (möglicherweise in einer maschinenlesbaren Form) wird Wissensrepräsentation genannt. Wissensrepräsentationen werden nicht nur für die Interpretation von Pronomen, sondern auch generell in automatischer Sprachanalyse benötigt. So besteht beispielsweise bei der automatischen Indexierung das Problem der Interpretation von zusammengesetzten Substantiven: Beim Wort Tannenholz spezifiziert das erste Kompositionsglied die Herkunft des zweiten, beim Wort Bauholz dessen Verwendung. Solche Beziehungen zwischen den einzelnen Komponenten zusammengesetzter Wörter können ebenfalls nur durch den Zugriff auf eine Wissensrepräsentation bestimmt werden. Für die Analyse eines Textes werden also nicht nur linguistische Kenntnisse benötigt, sondern auch Wissen über die reale oder fiktive Welt, auch welche sich der Text bezieht. Sollen beliebige Texte bearbeitet werden können, stellt sich das Problem, daß man nicht von vornherein weiß, welche Kenntnisse benötigt werden. Hinzu kommt, daß sich verschiedene Wissensgebiete nur schwer voneinander abgrenzen lassen. Die korrekte automatische Analyse eines Textes setzt also letztlich voraus, daß das System sowohl über ein breites Allgemein- als auch über Fachwissen verfügt. Diese Voraussetzung wird in absehbarer Zeit nicht erfüllt werden können. Nach Charniak (1981 a) lassen sich zwei gegensätzliche Forschungsstrategien unterscheiden, mit denen diesem Dilemma begegnet wird. Bei der ersten Strategie wird versucht, ein enges Wissensgebiet möglichst detailliert zu beschreiben, in der Hoffnung, daß der dabei benützte Formalismus sich später auch auf andere Wissensgebiete übertragen läßt. Dieses Vorgehen wird vor allem in der Künstlichen Intelligenz für die Simulation von Problemlösungsprozessen (siehe z. B. Barstow 1977) und bei der Entwicklung von Expertensystemen (siehe z. B. Buchanan 1986) verwendet. Im Gegensatz dazu versucht man bei der zweiten Strategie, ein möglichst breites Wissensgebiet allgemein zu beschreiben, wobei notwendigerweise auf die Darstellung von spezifischen Einzelheiten verzichtet werden muß. In den Sprachverstehenssystemen der CL wird hauptsächlich

318

diese zweite Strategie verwendet; denn selbst bei der Analyse von technischen Texten ist es immer wieder notwendig, auf allgemeines Wissen, beispielsweise über Raum, Zeit oder soziale Prozesse, zurückzugreifen. In den folgenden Abschnitten wird deshalb hauptsächlich auf Modelle für allgemeines, d. h. nicht gebietsspezifisches Wissen eingegangen. 1.2. Begriffliche Abgrenzung des Terminus ’Wissensrepräsentation’ In der Umgangssprache kann man von einer Person sagen, sie wisse um einen Sachverhalt, (a) wenn der Informant den Sachverhalt für wahr hält, (b) wenn der Sprecher selbst diesen Sachverhalt ebenfalls für wahr hält, und (c) wenn der Informant den Sachverhalt beschreiben kann. Ist die Bedingung (b) nicht erfüllt, dann benützt man an Stelle von wissen die Verben glauben oder meinen, und ist die Bedingung (c) nicht erfüllt, dann spricht man von kennen oder können. Die dritte Bedingung gibt an, daß das Verb ’wissen’ zur Beschreibung von bewußten — genauer: von bewußtseinsfähigen — Zuständen benützt wird; denn von Bewußtsein spricht man immer dann, wenn etwas verbalisiert werden kann. Nehmen wir beispielsweise an, ich frage eine Person nach der Summe von 23 4 und 3 45. Frage ich sie dann später, ob sie mir sagen könnte, wie sie auf das Resultat gekommen sei, dann würde sie vermutlich mit ja antworten und mir den Lösungsweg schildern. Das Lösen der mathematischen Aufgabe kann in diesem Fall als ein bewußter Prozeß bezeichnet werden. Frage ich eine Person jedoch nach dem Vornamen ihrer Mutter und später, wie sie auf den Namen gekommen sei, dann kann sie mir dies nicht beschreiben. Sie weiß zwar den Namen; denn sie kann ihn sagen, sie kann ihn im Gedächtnis finden, aber sie weiß nicht, wie sie ihn findet. Beim Auffinden eines Namens im Gedächtnis handelt es sich also um einen unbewußten Prozeß. In der CL und in der KI wird das Wort wissen jedoch auch dann verwendet, wenn die oben angeführten Bedingungen (b) und (c) nicht erfüllt sind, So können in Wissensrepräsentationen auch falsche Behauptungen enthalten sein. Verschiedene Autoren benützen deshalb an Stelle von ’Wissen’ den angemesseneren Ausdruck ’Überzeugung’ (Bruce 1975 a; Moore 1977; Levesque 1984). Eine

VIII. Computer Simulation of Language II: SystemsComponents

systematische Gegenüberstellung dieser beiden Begriffe findet sich in Hintikka (1963). Zudem werden in der Fachsprache auch solche Kenntnisse als Wissen bezeichnet, die nicht verbalisiert werden können. Dies rührt daher, daß das Wort ’Wissensrepräsentation’ eine Übersetzung des englischen ’knowledge representation’ darstellt. Dabei wurde der breitere Gebrauch des englischen Verbes ’to know’ beibehalten, welcher sich auch auf solche Fähigkeiten und Kenntnisse erstreckt, welche die Bedingung (c) nicht erfüllen. „Der Terminus Wissensrepräsentation subsumiert also beliebige Kombinationen von Datenstrukturen und interpretierenden Verfahren, die, wenn sie durch ein Programm richtig benützt werden, zu ’kenntnisreichem’ Verhalten führen„ (Barr/Feigenbaum 1981, 143 ). Eine dermaßen breite Definition führt zu Abgrenzungsproblemen. So läßt sich kein striktes Kriterium zur Unterscheidung zwischen Wissensrepräsentationen und Datenbanken angeben. Bei letzteren handelt es sich im allgemeinen um spezifische und auf bestimmte kommerzielle Anwendungen hin konzipierte Beschreibungen, während die Autoren von Wissensrepräsentationen den Anspruch erheben, allgemeine Darstellungen von Weltausschnitten oder des menschlichen Wissens zu geben, welche für verschiedene Aufgaben verwendet werden können. Ein anderes Abgrenzungsproblem besteht gegenüber der linguistischen Semantik. Katz/Fodor (1963 ) postulieren, daß sich sprachliches Wissen über die Bedeutung von Wörtern von dem Wissen über die Welt abgrenzen lasse. Das Wissen beispielsweise, daß ein Junggeselle eine unverheiratete männliche Person sei, ist nach Katz/Fodor ein sprachliches Wissen über die Bedeutung des Wortes ’Junggeselle’, während das Wissen, daß Junggesellen häufig Feste besuchen, Teil des Wissens über die Welt bildet. Allerdings geben Katz/Fodor keine allgemeinen Regeln zur Abgrenzung dieser beiden Arten von Wissen, und zudem vernachlässigen sie, worauf Winograd (1976 a) hingewiesen hat, die Unbestimmtheit im Gebrauch von Wörtern. Bei den in den Sprachverstehenssystemen benützten Wissensrepräsentationen stellt sich das Problem, sprachlich-semantisches Wissen von Weltwissen abzugrenzen, letztlich gar nicht; denn hier ist Wissen nur insofern bedeutsam, als es den richtigen Gebrauch von Wörtern festlegt, und dieser kann über ihre Beziehungen zu anderen Wörtern be-

29.  Wissensrepräsentation: Typen und Modelle

schrieben werden. Wie Wilks (1976 c) argumentiert hat, ist es damit nicht notwendig, einen grundsätzlichen Unterschied zwischen natürlichsprachlichen Sätzen, semantischen Beschreibungen und Weltwissen zu machen. 1.3. Kategorien zur Beschreibung von Wissensrepräsentationen 1.3.1. Kriterien der Bewertung Wissensrepräsentationen sind Hilfsmittel, mit denen bestimmte Ziele verfolgt werden können. Dabei kann es sich um so verschiedene Ziele wie die Simulation des menschlichen Verhaltens, die Steuerung von Industrierobotern oder die automatische Übersetzung natürlicher Sprachen handeln. Das entscheidende Kriterium zur Bewertung einer Wissensrepräsentation ist deshalb, ob sie die Realisierung des jeweiligen Zieles ermöglicht. Im Bereich der Sprachverstehenssysteme werden die Anforderungen, die man an eine Wissensrepräsentation stellt, ebenfalls von der jeweiligen Sprache abhängen. Allerdings verlangen die meisten Anwendungen auf diesem Gebiet, wenn man von einfachen sprachstatistischen Problemen absieht, eine detaillierte und breite Wissensrepräsentation. Einen Beleg hierfür bilden die Beispielsätze (1) bis (4) in 1.1. Die heute bestehenden Wissensrepräsentationen beschreiben nur kleine Ausschnitte des menschlichen Wissens, und sie unterscheiden sich voneinander sowohl in bezug auf die verwendeten Formalismen als auch in bezug auf die beschriebenen Inhalte. Man benötigt darum Kategorien, auf deren Grundlage Wissensrepräsentationen formal und inhaltlich miteinander verglichen und auf ihre Brauchbarkeit hin eingeschätzt werden können. In den beiden folgenden Abschnitten werden solche Kategorien vorgestellt. 1.3.2. Formale Kriterien der semantischen Beschreibung Eindeutigkeit: Eine Wissensrepräsentation ist eindeutig, m. a. W., sie hat dann eine kanonische Form, wenn allen möglichen Sätzen mit der gleichen denotativen Bedeutung dieselbe Repräsentation zugeordnet wird. Die Forderung nach Eindeutigkeit ist der wichtigste Grund, warum Wissensrepräsentationen nicht in natürlichen Sprachen geschrieben werden. Allerdings kann die Eindeutigkeit einer Wissensrepräsentation nicht bewiesen werden, und Eindeutigkeit ist auch nicht in allen Fällen wünschenswert (siehe 2.3.4.).

319

Vollständigkeit: Eine Wissensrepräsentation ist vollständig, wenn alle in ihr enthaltenen Inhalte aus einer endlichen Menge von Axiomen abgeleitet werden können. Breite und Tiefe: In breiten Wissensrepräsentationen wird ein großer Weltausschnitt modelliert, während in tiefen Repräsentationen ein meist kleiner Ausschnitt detailliert beschrieben wird. ’Tiefe’ wird häufig als ’nah an einer hypothetischen kognitiven Struktur’ verstanden. Im Gegensatz zur Generativen Transformationsgrammatik, bei der die Tiefenstruktur eines Satzes syntaktisch exakt bestimmt werden kann, wird die Bezeichnung ’tief’ bei der Beschreibung von Wissensrepräsentationen intuitiv verwendet. Wenn ein Autor von seinem Modell schreibt, es ermögliche ein tiefes Verstehen der eingegebenen Sätze, dann meint er damit, daß es daraus alle wichtigen, d. h. im Kontext relevanten Schlußfolgerungen zieht. Es gibt bisher keine implementierten Systeme, welche dieses Kriterium erfüllen. Die Ausdrücke ’Tiefe’ und ’Breite’ werden häufig auch für die Beschreibung von Suchstrategien verwendet. Dichte: Hayes (1984 a) definiert die Dichte einer Wissensrepräsentation als den Quotienten aus der Anzahl der darin enthaltenen Aussagen, dividiert durch die Anzahl der verwendeten Begriffe. Je mehr Beziehungen also innerhalb einer Menge von Begriffen bestehen, desto dichter ist die Repräsentation. 1.3.3. Kriterien der Prozeßsteuerung Eingabe- vs. Frage-gesteuert: Diese Dimension bezieht sich auf den Zeitpunkt, zu welchem aus neu eingegebenen Wissensinhalten Schlüsse gezogen werden. Bei Systemen mit Eingabe-gesteuerten Inferenzen geschieht dies unmittelbar nach der Eingabe, und bei Frage-gesteuerten Inferenzen erst zu dem Zeitpunkt, in dem nach der Schlußfolgerung gesucht wird. Bei Frage-gesteuerten Inferenzen besteht die Schwierigkeit, daß die Eingabe, aus der die Beantwortung einer Frage ableitbar ist, möglicherweise schon lange zurückliegt, bei den Eingabe-gesteuerten Inferenzen werden andererseits sehr viele Schlüsse gezogen, die später nicht gebraucht werden, d. h., daß die Wissensbasis aufgebläht wird. In den logischen Systemen entsprechen die Eingabe-gesteuerten den Vorwärts-Inferenzen, und die Frage-gesteuerten den Rückwärts-Inferenzen. Uniformität: In uniformen Repräsenta-

320

tionen werden alle Inhalte durch einen einheitlichen Formalismus beschrieben. Deklarativ vs. prozedural: In deklarativen Repräsentationen wird Wissen als eine Menge voneinander unabhängiger Fakten beschrieben. Dies entspricht Wissensbeschreibungen in natürlicher Sprache und im Alltagsverständnis. In prozeduralen Repräsentationen wird Wissen durch Algorithmen beschrieben. Der Unterschied zwischen deklarativem und prozeduralem Wissen entspricht demjenigen zwischen ’wissen’ und ’können’. Nach Winograd (1975 a) sind die Vorteile deklarativer Repräsentationen, daß Wissenskomponenten, die verschiedene Anwendungen haben, nur einmal gespeichert werden müssen und daß die Wissensbasis wegen ihrer Modularität leicht modifiziert werden kann. Bei prozeduralen Repräsentationen können kleine Veränderungen in der Wissensbasis zu unvorhersehbaren Konsequenzen führen. Andererseits sind prozedurale Repräsentationen bei der Beschreibung heuristischen Wissens von Vorteil, und sie ermöglichen einen einfachen Zugang zu Meta-Wissen: Wenn ein Programm entscheiden soll, ob es einen bestimmten Inhalt finden kann oder nicht, dann versucht es, die entsprechende Prozedur durchzuführen und erhält damit die Antwort. Der Unterschied zwischen deklarativem und prozeduralem Wissen ist weniger grundlegend als dies häufig angenommen wird. In Programmiersprachen, z. B. in LISP, kann dieselbe Struktur als deklaratives Wissen oder als prozedurales Wissen interpretiert werden. Die meisten Wissensrepräsentationen enthalten deklarative und prozedurale Wissenskomponenten. Kontrollstruktur: Sie bestimmt, von welchen Komponenten und Elementen eines Wissensrepräsentationssystems die Inferenzprozesse aktiviert und gesteuert werden. Bei Aktions-zentrierter Kontrolle werden die Inferenzprozesse durch das ablaufende Programm gesteuert, bei Objekt-zentrierter Kontrolle sind die Beschreibungen der begriffsspezifischen Inferenzen diesen Begriffen selbst zugeordnet, und bei Anfrage-zentrierter Kontrolle sind die Informationen, ob eine Prozedur durchgeführt werden soll, der entsprechenden Prozedur selbst zugeordnet. Seriell vs. parallel: Wissensrepräsentationen werden in der Regel für die Implementierung auf seriellen Datenverarbeitungsanlagen, sogenannten von Neumann-Maschinen, konzipiert. Die Struktur dieses Automatentyps prägt die meisten Wissensrepräsentatio-

VIII. Computer Simulation of Language II: SystemsComponents

nen in zwei grundlegenden Merkmalen. Erstens werden Prozesse seriell durchgeführt, d. h. in einer sich nicht überschneidenden zeitlichen Aufeinanderfolge, und zweitens sind die jeweiligen Inhalte diskret gespeichert, d. h. in voneinander abgegrenzten Einheiten, den sogenannten Knoten. In genau diesen beiden Merkmalen unterscheiden sich die in der KI beschriebenen Prozesse und Strukturen von denjenigen der menschlichen Informationsverarbeitung: Die Erregungen im menschlichen Nervensystem verlaufen zeitlich parallel, und eintreffende Reize werden nicht an einem abgrenzbaren und lokalisierbaren Ort gespeichert, sondern jeder Reiz erzeugt eine Spur, die sich über große Bereiche der Großhirnrinde erstreckt. Solche Speicherstrukturen können mit dem Konvolutions- oder holographischen Gedächtnismodell von Murdock (1982) und Eich (1982; 1985) sowie mit dem Matrizenmodell von Anderson/Silverstein/Ritz (1977) und von Hinton/Anderson (1981) simuliert werden. Fahlman (1981) und Feldman/Ballard (1982) entwickelten Modelle für die formale Beschreibung paralleler Informationsverarbeitung. Diese neuen Ansätze können auf Multiprozessoren implementiert werden, und vermutlich werden sie die zukünftige Theorienbildung zur Wissensrepräsentation entscheidend beeinflussen. 1.3.4. Inhaltliche Kategorien Bei den in den Abschnitten 2.1. bis 2.5. vorgestellten Ansätzen handelt es sich um Formalismen und Modelle, in denen die jeweils behandelten Inhalte lediglich Beispielcharakter haben. Sie dienen dazu, allgemeine Annahmen zu demonstrieren. Die Abschnitte 2.1. und 2.2. handeln von Formalismen, mit denen Beliebiges beschrieben werden kann. Die in den Abschnitten 2.4. und 2.5. behandelten Modelle enthalten zwar spezifische Annahmen über die Struktur des Wissens. Diese beziehen sich jedoch nicht auf spezifische Wissensgebiete. Die in Abschnitt 2.3 . behandelten semantischen Netzwerke können als Formalismen oder als Wissensmodelle betrachtet werden. In jedem dieser Ansätze lassen sich sowohl intensionale als auch extensionale Wissensmodelle beschreiben. Bei ersteren wird versucht, die mentale oder kognitive Repräsentation der Welt zu simulieren, während extensionale Modelle sich auf die beschriebene Welt selbst beziehen. In einem intensionalen Modell würden also den beiden Wör-

29.  Wissensrepräsentation: Typen und Modelle

Objekt des Objektbereich Wissens Subjekt des Wissens System Benutzer

2.1.—2.6. 2.4, 2.7.

321

System

Benutzer

Konversation

2.2., 2.6. 2.7.

2.6 2.4

2.6

Abb. 29.1: An der Mensch-Maschine-Kommunikation beteiligte Wissensbereiche. Die Zahlen in den Zellen bezeichnen die Abschnitte in 2. Die in den Abschnitten besprochenen Ansätze beziehen sich auf die entspre- chenden Wissensbereiche tern Morgenstern und Abendstern verschiedene Repräsentationen zugeordnet, in einem extensionalen Modell nur ein Knoten, da sich die beiden Wörter auf dasselbe Objekt beziehen. Die extensionale, denotative Bedeutung eines Wortes ist die Menge der existierenden Objekte, die damit bezeichnet werden, die intensionale Bedeutung die Menge der möglichen Objekte. Einen weiteren Gesichtspunkt bei der inhaltlichen Klassifizierung bildet der beschriebene Weltausschnitt. Dabei kann man die folgenden drei Bereiche unterscheiden: Das Wissen über den Objektbereich, über welchen der Benutzer und das System kommunizieren, das Wissen über die an der Kommunikation beteiligten Partner und das Wissen über die stattfindende Kommunikation selbst. Tab. 29.1 gibt einen systematischen Überblick über die Wissensbereiche, die für die Beschreibung eines Mensch-Maschine-Dialoges relevant sind. Zugleich zeigt sie, welche Wissensbereiche von den in 2 behandelten Ansätzen behandelt werden. Von der Mehrzahl dieser Ansätze wird also Wissen beschrieben, welches dem System über einen Anwendungsbereich eingegeben wird. Die Autoren der in den Abschnitten 2.4.2. und 2.4.4. behandelten Ansätze vertreten den Anspruch, daß es sich bei ihren Ansätzen um psychologische Modelle des menschlichen Wissens handelt. Darum sind diese Abschnitte in Abb. 29.1 auch als Modelle zur Beschreibung des Benutzerwissens angeführt.

2.

Formalismen und Modelle

2.1. Prädikatenkalkül Die Logik beschäftigt sich mit der formalen Beschreibung von Sätzen und von Regeln, mit denen man auf Grund von bekannten Sätzen neue Sätze erschließen kann. Die einzelnen Sätze werden als Propositionen ge-

schrieben, die aus jeweils einem Prädikat und einem oder mehreren Argumenten bestehen. In der Regel werden Propositionen als eine geordnete Liste dargestellt, deren erstes Element das Prädikat und deren weitere Elemente die Argumente bezeichnen. Die Proposition (VATER-VON Johann August) könnte als die propositionale Beschreibung des natürlichsprachlichen Satzes Johann ist der Vater von August gelten. Die Gesetze der Logik geben weder an, welche Symbole als Prädikate und Argumente von Propositionen gelten können, noch handeln sie davon, ob die Propositionen zutreffen. Sie beschreiben lediglich, daß unter der Voraussetzung, eine Reihe von Propositionen, die sogenannten Axiome, sei wahr, gefolgert werden kann, daß bestimmte andere Propositionen, die sogenannten Theoreme, auch wahr sein müssen — und dies unabhängig davon, wovon die Propositionen handeln. Die propositionale Logik beschreibt, wie einfache Propositionen durch die logischen Junktoren ⋀ (und) ⋁ (oder)  (nicht) → (impliziert) ≡ (äquivalent) miteinander verbunden werden können und wie sich neue Propositionen inferieren lassen. (Vgl. Art. 3 5). Die wichtigste Inferenzregel ist der Modus ponens: (1) (P ⋀ (P → Q) → Q) Wenn die Proposition P gültig ist, und wenn die Proposition P die Proposition Q impliziert, dann gilt auch die Proposition Q. Das folgende Schema zeigt eine Anwendung des Modus ponens: (2) (WETTER regnerisch) 3( ) (WETTER regnerisch) → (NASS strasse) aus (2) und (3 ) folgert bei Anwendung von Regel (1): (4) (NASS strasse). Bei der obigen Anwendung von Regel (1) ist für das Symbol P die Proposition (2) und für die Implikationsregel (P → Q) die Proposition (3 ) eingesetzt worden. In der propositio-

322

nalen Logik betreffen solche Ersetzungen immer nur einfache Propositionen. Der Prädikatenkalkül dahingegen ermöglicht es nun, auch solche Regeln zu formulieren, die sich nicht nur auf einfache Propositionen, sondern auch auf Objekte und Klassen von Objekten beziehen. Dazu wird zwischen zwei Arten von Argumenten unterschieden: Variablen und Konstanten. In der folgenden Darstellung einer Anwendung des Modus ponens werden die Bezeichnungen für Konstanten in Kleinbuchstaben und die Bezeichnungen für Variablen durch das Symbol ?X dargestellt. (5) (MENSCH sokrates) (6) (MENSCH ?X) → (STERBLICH ?X) Bei (5) handelt es sich um eine einfache Proposition mit einer Konstanten als Argument, bei (6) um den universell quantifizierten Satz: Unabhängig davon, durch welche Konstante ich ?X ersetze, gilt, daß, wenn dieser Konstante das Prädikat MENSCH zukommt, ihr auch das Prädikat STERBLICH zukommt. Bevor nun der Modus ponens auf (5) und (6) angewendet werden kann, muß die Variable ?X durch die Konstante ’sokrates’ ersetzt werden. Dadurch entsteht: (7) (MENSCH sokrates) → (STERBLICH sokrates) Da der Wenn-Teil von (7) mit (5) identisch ist, kann nur durch die Anwendung des Modus ponens geschlossen werden, daß (8) (STERBLICH sokrates). Mittels dieses Verfahrens wäre es nun möglich, alle aus einer Menge von Axiomen ableitbaren Theoreme zu generieren. Dazu müßten die in den Axiomen vorkommenden Variablenbezeichnungen durch alle bekannten Konstanten ersetzt und darauf alle möglichen Deduktionen durchgeführt werden. Ein solches Vorgehen hat jedoch nur einen geringen praktischen Wert, da die meisten der so ableitbaren Theoreme nicht sinnvoll sind. Fände sich beispielsweise in einem der Axiome die Konstante ’bleistift’, dann würde durch die Einsetzung in Regel (6) deduziert werden, daß (9) (MENSCH bleistift) → (STERBLICH bleistift), was zwar korrekt ist — denn wenn der Bleistift ein Mensch wäre, dann wäre er auch sterblich — in der Regel jedoch nicht vernünftig zu verwenden ist. Grundsätzlich lassen sich in logischen Systemen zwei Arten von Inferenzen unterscheiden. Bei den Vorwärts-Inferenzen wird von dem erfüllten Wenn-Teil einer Implika-

VIII. Computer Simulation of Language II: SystemsComponents

tionsregel ausgegangen, und es werden die daraus ableitbaren direkten und indirekten Konsequenzen generiert. Bei den RückwärtsInferenzen wird versucht, ein in Frage stehendes Theorem zu beweisen. Man sucht zunächst, ob dieses Theorem dem Dann-Teil einer Regel entspricht, und darauf, ob der Wenn-Teil dieser Regel erfüllt ist. Ist dies der Fall, dann gilt das Theorem als bewiesen. Um beispielsweise zu beweisen, daß die Straße naß ist, läßt sich die Implikationsregel (3 ) verwenden. Findet man in der Wissensbasis den Satz (2), dann gilt Satz (4) als bewiesen. Programme für das Beweisen von Theoremen bilden ein klassisches Werkzeug in der KI (Nilsson 1980). Die in der CL bevorzugte Programmiersprache PROLOG (Clocksin/ Mellish 1981) beruht ebenfalls auf diesem Suchprinzip. 2.2. Nicht-monotone Logik Die auf dem Prädikatenkalkül basierenden Systeme haben zwei Mängel, die deren Verwendbarkeit einschränken. Zum einen handelt es sich um das bereits erwähnte Problem, daß dieser Formalismus keine Regeln darüber angibt, welche der möglichen Schlüsse gezogen werden sollen. Es werden also ’blind’ Theoreme generiert, von denen die meisten nicht zur Lösung des jeweiligen Problems beitragen. Der zweite Mangel von Wissensrepräsentationen im Prädikatenkalkül besteht darin, daß es sich dabei um monotone Systeme handelt. Dies heißt, daß die Anzahl der Theoreme mit jeder neuen Schlußfolgerung anwächst, ohne daß es möglich wäre, Theoreme, die einmal abgeleitet wurden, zu löschen. Damit ist es ausgeschlossen, bei unvollständigem Wissen Hypothesen aufzustellen, die später revidiert werden können. Dies ist jedoch auf der Grundlage der von Doyle (1979) und anderen entwickelten nicht-monotonen Logik möglich. Im Gegensatz zum Prädikatenkalkül, bei dem ein Satz entweder wahr oder falsch ist, unterscheidet die nicht-monotone Logik zwischen unzweifelhaften, beweisbaren, bezweifelbaren und denkbaren Sätzen. Eine Einführung in diesen Formalismus geben McDermott/ Doyle (1980). In den darauf aufbauenden Truth-maintenance-Systemen werden den einzelnen Theoremen Rechtfertigungen zugeordnet. Diese geben an, auf Grund welcher anderer Sätze ein Theorem als wahr bzw. als falsch erachtet wird. Ändert sich der Wahrheitswert eines

29.  Wissensrepräsentation: Typen und Modelle

Satzes, dann wird durch den sogenannten Truth-maintenance-Mechanismus überprüft, welche Theoreme aus diesem Satz abgeleitet werden können, und der Wahrheitswert dieser Theoreme wird dementsprechend revidiert. Damit ist es möglich, Hypothesen für die Gültigkeit von Sätzen aufzustellen, die später revidiert werden können. In dem System von Doyle kann dies immer dann geschehen, wenn alle Sätze, die für die Rechtfertigung eines Theorems wahr sein müssen, erfüllt sind und wenn kein Satz, aus dem die Ungültigkeit dieses Theorems abgeleitet werden könnte, wahr ist. Ein Beispiel möge dies verdeutlichen. Der Satz: (1) Ein Objekt ?X kann fliegen. ist gültig, wenn der Satz: (2) Das Objekt ?X hat Federn. zutrifft und wenn der Satz: (3 ) Das Objekt ?X ist ein Vogel Strauß. falsch ist. Satz (1) kann also, streng genommen, nur dann als bewiesen gelten, wenn in der Wissensbasis vermerkt ist, daß Satz (2) wahr und Satz (3 ) falsch ist. Bei dem im Truth-maintenance-System von Doyle formalisierten Default-reasoning kann Satz (1) jedoch auch dann als wahr angenommen werden, wenn in der Wissensbasis keine Information über die Gültigkeit von Satz (3 ) enthalten ist. Mit anderen Worten: Bis zum Beweis des Gegenteils nimmt man an, daß ein gefiedertes Wesen fliegen kann. Wenn sich nun zu einem späteren Zeitpunkt herausstellt, daß Satz (3 ) wahr ist, dann werden Satz (1) und alle daraus gezogenen Schlüsse revidiert. Ein solches Vorgehen hat den Vorteil, daß damit eine wichtige und im alltäglichen Erkennen übliche Eigenschaft des menschlichen Denkens simuliert werden kann: die Fähigkeit, auf Grund unsicheren Wissens Schlüsse zu ziehen, die später, beim Auftreten gegenteiliger Evidenz, revidiert werden können. Truth-maintenance-Mechanismen bilden einen Bestandteil von verschiedenen in der KI entwickelten Wissensrepräsentationen, so etwa der Systeme von McAllester (1982), Reiter (1980) und deKleer (1986). Allerdings führt auch die Verwendung solcher Systeme zu bislang ungelösten Problemen. Zum einen können, wie Charniak/ McDermott (1985) an dem folgenden Beispiel gezeigt haben, unlösbare logische Zirkel resultieren. Nehmen wir an, ein Truth-maintenance-System enthalte die folgenden zwei Regeln:

323

(4) Wenn eine Person ?X Professor der Literaturwissenschaft ist und wenn nichts Gegenteiliges bekannt ist, dann kann geschlossen werden, daß Person ?X Doktor der Philosophie ist. (5) Wenn eine Person ?X Doktor der Medizin ist und wenn nichts Gegenteiliges bekannt ist, dann kann geschlossen werden, daß Person ?X nicht Doktor der Philosophie ist. Wenn in einem System mit diesen beiden Regeln bewiesen werden soll, daß eine Person ein Doktor der Philosophie ist, muß die Gültigkeit der beiden Wenn-Sätze von Regel (4) überprüft werden. Der zweite Wenn-Satz aus Regel (4) ist gültig, wenn Regel (5) angewendet werden kann, d. h. wenn die beiden Wenn-Sätze dieser Regel zutreffen. Um den zweiten Wenn-Satz aus Regel (5) zu beweisen, muß jedoch Regel (4) angewendet werden. Das Beweissystem befindet sich damit in einer endlosen Schleife. Dieses Problem kann, meist in versteckter Form, bei allen Truth-maintenance-Systemen auftreten, und es gibt dafür keine allgemeine Lösung. Der zweite Nachteil dieser Systeme, auf den Nutter (1983 ) hingewiesen hat, ist die fehlende Unterscheidbarkeit zwischen bewiesenen und lediglich vermuteten Sätzen. Dies ist insofern problematisch, als die Überprüfung und mögliche Korrektur bei vermuteten Sätzen nach anderen Regeln geschehen müßte als bei beweisbaren Aussagen. Einen Vorschlag zur Behandlung dieses Problems gibt deKleer (1986). 2.3. Semantische Netzwerke 2.3.1. Allgemeine Merkmale semantischer Netzwerke Eine sowohl in der KI, der Kognitiven Psychologie und den Sprachverstehenssystemen der CL populäre Klasse von Wissensmodellen sind die ursprünglich von Quillian (1967, 1968) entwickelten semantischen Netzwerke. Unter diesen Begriff werden heute allerdings von verschiedenen Autoren recht unterschiedliche Vorstellungen subsumiert. Zum einen meint man damit einen Formalismus unabhängig von den inhaltlichen Aspekten von dessen Beschreibung, zum anderen eine Reihe inhaltlicher Annahmen über Wissensstrukturen, und bei weiteren Autoren wird dieser Ausdruck für eine bestimmte Art der Notation verwendet (Laubsch 1985). Der Formalismus der semantischen Netzwerke ist eine Struktur aus Knoten und Kan-

324

ten, wie sie in Abb. 29.2 dargestellt ist. Dabei stehen

Abb. 29.2: Semantisches Netzwerk als Struktur von Knoten und Kanten

die Knoten für die zu beschreibenden Objekte, Situationen und Ereignisse, und die Kanten zeigen deren Beziehungen. Da durch eine Kante jeweils zwei Knoten miteinander verbunden werden, können in diesem Formalismus lediglich Prädikate mit zwei Argumenten beschrieben werden. Eine weitere, aus diesem Formalismus resultierende Eigenschaft semantischer Netzwerke ist die Zirkularität der semantischen Beschreibung, denn jeder Knoten ist zugleich Definiens und Definiendum. Es besteht also kein Unterschied zwischen Objekt- und Metasprache. 2.3.2. Hierarchische Struktur und Vererbung von Merkmalen Das wichtigste inhaltliche Merkmal semantischer Netzwerke bilden taxonomische Hierarchien, die in Abb. 29.2 durch die Relation SUP beschrieben sind. Dabei wird angenommen, daß die einem Knoten zugeordneten Merkmale auch für alle Unterbegriffe dieses Knotens gelten. Eine solche ’Vererbung’ von Merkmalen ist, in bezug auf den benötigten Speicherplatz, ökonomisch und sie ermöglicht zugleich effiziente Suchprozesse: Wenn nach einer Eigenschaft eines Objektes gesucht wird, dann werden zunächst die Attribute des entsprechenden Knotens, daraufhin die seiner Oberbegriffe und dann die Attribute von deren Oberbegriffen usw. abgesucht. Dabei dominieren die Attribute der Unterbegriffe diejenigen der Oberbegriffe. So wird beispielsweise das Attribut ’kann

VIII. Computer Simulation of Language II: SystemsComponents

fliegen’, welches dem Knoten für ’Vogel’ zugeordnet ist, bei dessen Unterbegriff ’Strauß’ durch das Attribut ’kann nicht fliegen’ aufgehoben. Die Vererbung von Merkmalen bildet den Gegenstand einer großen Zahl von psychologischen Experimenten, in denen die Relevanz dieser Annahme für eine psychologische Theorie des menschlichen Wissens überprüft wurde. Diese Versuche gehen davon aus, daß Beziehungen zwischen zwei Begriffen um so schneller erkannt werden, je näher die entsprechenden Knoten in einem semantischen Netzwerk zueinander stehen, d. h., je weniger weitere Knoten und Kanten benötigt werden, um diese beiden Knoten zu verbinden. Entsprechend dieser Hypothese müßte das Urteil, daß ein Hund bellt, schneller gefällt werden als das Urteil, daß sich ein Dakkel bewegen kann. Diese Hypothese ist in Experimenten von Collins/Quillian (1969, 1970 b) bestätigt worden. Dabei wurden den Versuchspersonen Sätze von der Art: (1) Ein Dackel ist ein Hund. (2) Ein Dackel ist ein Tier. (3) Ein Dackel hat kurze Beine. (4) Ein Dackel kann bellen. vorgegeben, und sie mußten jedesmal entscheiden, ob der vorgegebene Satz zutrifft. Die dazu benötigte Zeitspanne ist eine lineare Funktion der Anzahl von Kanten, welche durchschritten werden müssen, um die entsprechende Entscheidung zu treffen. Jede zusätzliche hierarchische Ebene, welche den Knoten für das Subjekt von dem Knoten für das Prädikat des vorgegebenen Satzes trennt, erhöht die Reaktionszeit um einen konstanten Betrag. Diese Resultate scheinen zu bestätigen, daß die menschliche Wissensstruktur als ein semantisches Netzwerk beschrieben werden kann. Die Ergebnisse von anderen Versuchen, in denen das experimentelle Paradigma von Collins/Quillian modifiziert wurde, widersprechen jedoch dieser Interpretation. So müßte man auf der Grundlage der Theorie der semantischen Netzwerke annehmen, daß die Entscheidung, ein vorgegebener falscher Satz treffe nicht zu, von der Beziehung zwischen Subjekt und Prädikat unabhängig ist. Nach Landauer/Freedman (1968) nehmen jedoch auch bei falschen Sätzen die Reaktionszeiten mit zunehmender taxonomischer Distanz zwischen Subjekt und Prädikat zu. Zudem konnte gezeigt werden, daß die Reaktionszeit auch bei der Beurteilung von richtigen Sätzen nicht nur von der taxonomischen

29.  Wissensrepräsentation: Typen und Modelle

Distanz, sondern auch von der assoziativen Verbundenheit zwischen Subjekt und Prädikat abhängt (Conrad 1972) und auch davon, ob der im Subjekt genannte Begriff eine typische oder untypische Instanz des Prädikates darstellt (Rosch/Mervis/Gray et al. 1976). Aus diesen psychologisch motivierten Versuchen lassen sich allerdings keine Schlüsse über die Verwendbarkeit der semantischen Netzwerke in den Bereichen der KI und der CL ableiten. 2.3.3. Beziehungen zwischen Knoten Die den Knoten zugeordneten Markierungen bezeichnen die Art der Beziehung zwischen den verbundenen Knoten, und sie entsprechen damit den Prädikaten in den logischen Wissensrepräsentationen. Die meisten Autoren semantischer Netzwerke haben versucht, eine begrenzte Liste von möglichen Beziehungen zu definieren. Häufig verwendete Beziehungen zur Verbindung von Knoten für Objekte oder Klassen von Objekten sind: — die Oberbegriffsrelation — die Teil-Relation, die ein Ganzes mit den es konstitutierenden Teilen verbindet und — die Besitz-, Eigentums- und Verfügungsrelation. Beziehungen zwischen Knoten für Ereignisse und den daran beteiligten Objekten werden häufig durch die von Fillmore (1968), Simmons (1973 ), Bruce (1975 b) und anderen definierten Tiefenkasus beschrieben. Drei dieser Kasus, der Agens-, der Instrument- und der Objekt-Kasus, sind in dem Beispiel in Abb. 29.2 enthalten. Verschiedene Autoren verwenden zusätzlich quantifizierende, kausale und temporale Beziehungen. Diese Beziehungen bilden eine Art primitives Vokabular der möglichen Relationen zwischen Begriffen. Es ist allerdings bislang nicht möglich gewesen, empirisch oder theoretisch begründbare Kriterien für die Festlegung dieses semantischen Vokabulars anzugeben. Neben den in 1.3 beschriebenen allgemeinen Kriterien für die Beurteilung von Wissensrepräsentationen ist ein wichtiger pragmatischer Gesichtspunkt, daß den einzelnen Relationen Inferenzregeln zugeordnet werden können (vgl. Art. 3 5). Eine solche Regel könnte beispielsweise sein, daß der Agens eines Ereignisses die Verfügungsgewalt über das Instrument dieses Ereignisses hat. Diese Regel trifft bei dem in Abb. 29.2 gezeigten Beispiel vom Jäger und dem Dackel zu. In anderen Beispielen, wenn etwa Eisenbahn als Instrument für reisen fungiert, könnte diese

325

Regel nicht angewendet werden. So lange es jedoch nicht möglich ist, Regeln zu formulieren, die für alle möglichen Ausprägungen einer semantischen Beziehung gültig sind, haben diese Beziehungen weder einen theoretischen noch einen heuristischen Wert. Es handelt sich lediglich um intuitiv gebildete Kategorien. 2.3.4. Verschiedene Arten von Knoten Die Knoten in einem semantischen Netzwerk beschreiben entweder einzelne Objekte oder Ereignisse oder Klassen von Objekten oder Ereignissen. Erstere werden als Token-, Sekundär- oder Individualknoten bezeichnet, letztere als Type-, Primär- oder generische Knoten. Den Types sind die Merkmale zugeordnet, die für alle Exemplare der entsprechenden Klasse von Objekten oder Ereignissen zutreffen, und den Token die für das jeweilige Exemplar spezifischen Merkmale. Bei dieser in semantischen Netzwerken üblichen Unterscheidung wird jedoch nicht berücksichtigt, daß die Eigenschaften von generischen Knoten nicht immer auf die unter sie subsumierten Objekte vererbt werden. So läßt sich vom generischen Begriff ’Flugzeug’ sagen: (5) Das Flugzeug wurde zu Beginn dieses Jahrhunderts entwickelt ohne daß dieses Merkmal sich auf die einzelnen heute verkehrenden Flugzeuge übertragen ließe. Auch Individualknoten können auf verschiedene Weise gebraucht werden. Das in Abb. 29.2 gezeigte semantische Netz beschreibt unter anderem die folgenden natürlichsprachlichen Sätze: (6a) Der Hund, der den Mann gebissen hat, ist tollwütig. (6b) Der Mann wurde von dem tollwütigen Hund gebissen. (6c) Der tollwütige Hund biß den Mann. Es handelt sich hier also um eine kanonische Wissensrepräsentation, bei der verschiedenen Sätzen mit der gleichen denotativen Bedeutung dieselbe semantische Beschreibung zugeordnet wird. Es soll nun angenommen werden, die in Abb. 29.3 gezeigte Beschreibung sei auf Grund des eingegebenen Satzes (6a) aufgebaut worden, und dieser Satz werde zu einem späteren Zeitpunkt negiert: (7) Es stimmt nicht, daß der Hund, der den Mann gebissen hat, tollwütig ist. In diesem Fall müßte die attributive Beziehung zwischen den Individualknoten KO2 und KO4 gelöscht werden. Alle anderen Re-

326

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 29.3: Repräsentation des Satzes: der Hund, der den Mann gebissen hat, ist tollwütig in einem semantischen Netz. Individualknoten sind durch die Symbole KO1 bis KO4, generische Knoten durch die ihnen entsprechenden Wörter dargestellt.

lationen könnten bestehen bleiben, da ihre Gültigkeit durch die Verneinung nicht betroffen wird. Wäre das semantische Netzwerk jedoch auf Grund des eingegebenen Satzes (6c) aufgebaut worden und würde dieser später verneint, dann müßten die Agens-Relation zwischen den Knoten KO1 und KO2 und die Patiens-Relation zwischen den Knoten KO1 und KO3 gelöscht werden. Da den Sätzen (6a) bis (6c) jedoch die gleiche semantische Repräsentation zugeordnet wurde, kann diesem Unterschied nicht Rechnung getragen werden. An diesem Beispiel läßt sich auch ein weiterer Mangel der in den semantischen Netzwerken verwendeten kanonischen Repräsentation aufzeigen. Satz (6a) könnte in einer Situation geäußert werden, in der bei einem Mann mit Bißwunden Tollwut festgestellt wird, wobei der Sprecher vermutet, daß der Biß von einem Hund stammt. Bei diesem ’attributiven’ Gebrauch des Subjekts von Satz (6a) ist der Handlungsträger (der Hund) nicht bekannt, sondern er wird auf Grund der Bißwunde erschlossen. Satz (6a) könnte jedoch auch in einer Situation geäußert werden, in der ein Hund den Mann angefallen und, wie der Sprecher vermutet, auch gebissen hat. Auf Grund der Bewegungen des Tieres vermutet der Sprecher, daß es tollwütig ist. In diesem Fall dient die Bezeichnung (der Hund) dazu, diesen Hund von anderen zu unterscheiden. Im Gegensatz zum attributiven ist es hier, beim referentiellen Gebrauch des Subjekts, unwichtig, ob der Hund wirklich zugebissen hat. Diesen Unterschieden müßte in einem semantischen Netzwerk durch eine spezielle Markierung der jeweiligen Knoten Rechnung getragen werden. Woods (1975 b) und Brachmann (1979) geben eine grundsätzliche Analyse dieses und verwandter Probleme bei der Konzeptualisierung von semantischen Netzwerken.

2.4. Semantische Primitiva 2.4.1. Begriffliche Abgrenzung Semantische Primitiva werden in der KI (Schank/Goldman/Rieger et al. 1973 ), in der Generativen Semantik (Jackendoff, 1975) und in der Kognitiven Psychologie (Norman/Rumelhart (eds.) 1978) verwendet. Dabei handelt es sich um Symbole, mit denen die Bedeutungen von Wörtern kanonisch beschrieben werden sollen, d. h., daß verschiedenen Bedeutungen eines Wortes verschiedene Beschreibungen zugeordnet werden und verschiedenen, aber bedeutungsgleichen Wörtern die gleiche Beschreibung. Die Anzahl dieser Symbole sollte möglichst gering sein, auf alle Fälle kleiner als die Zahl der zu beschreibenden Wörter. Zudem sollten die Primitiva voneinander unabhängig sein, d. h., daß kein Primitivum durch andere Primitiva definiert ist. Über den theoretischen Status von Primitiva werden unterschiedliche Annahmen vertreten. Für Schank und Norman/Rumelhart handelt es sich um sprachunabhängige Elemente der kognitiven Struktur, die beim Vollzug sprachlicher und nicht-sprachlicher Prozesse verwendet werden. Miller (1972), Gentner (1978 b) und Johnson-Laird (1981) haben unter diesem Aspekt durch empirische psychologische Untersuchungen zu zeigen versucht, daß bei der menschlichen Informationsverarbeitung semantische Primitiva verwendet werden. Allerdings lassen sich aus diesen Experimenten keine Folgerungen über die Anzahl und die Art der Primitiva ableiten, aus welchen sich die vermutete kognitive Struktur zusammensetzt. Im Gegensatz dazu argumentiert Wilks (1976 c), daß sich semantische Primitiva nicht grundsätzlich von den Wörtern natürlicher Sprachen unterscheiden. Vielmehr handle es sich dabei um eine Art reduziertes Vokabular, welchem

29.  Wissensrepräsentation: Typen und Modelle

für die automatische Sprachverarbeitung ein heuristischer Wert zukommt. Tatsächlich wird sowohl in dem psychologischen als auch in dem sprachimmanenten Ansatz ein pragmatisches Kriterium für die Festsetzung von semantischen Primitiva verwendet: Sie sollen es ermöglichen, Gemeinsamkeiten zwischen bedeutungsähnlichen Wörtern Rechnung zu tragen. Dabei handelt es sich um Gemeinsamkeiten in bezug auf das mögliche Auftreten von Wörtern und in bezug auf die Inferenzen, d. h. auf die Schlüsse, die bei ihrem Auftreten gefolgert werden können. 2.4.2. Die Theorie der konzeptuellen Abhängigkeiten Die Theorie der konzeptuellen Abhängigkeiten von R. Schank (1972, 1975 a) ist der Versuch einer allgemeinen Beschreibung der Bedeutungen von beliebigen Sätzen, die bei verschiedenen Leistungen, wie etwa der Satzanalyse, der Satzbildung, der Beantwortung von Fragen und dem Übersetzen, verwendet werden kann. Die Bedeutungsstrukturen bestehen aus drei Arten von sogenannten Konzeptualisationen: Handlungen, Zuständen und Zustandsänderungen. Diese sind miteinander durch kausale Beziehungen verbunden. Jede Konzeptualisation besteht aus einem primitiven Element und den darum gruppierten Argumenten. Dabei kann es sich um die semantischen Repräsentationen von Objekten handeln, die sogenannten Bilderzeuger, oder um weitere Konzeptualisationen. Schank (1973 ) postuliert elf primitive Aktionen: ATRANS: die Übertragung des Besitzes, des Eigentums oder der Kontrolle eines Objektes von einer Person auf eine andere PTRANS: die Bewegung eines physikalischen Objektes von einem Ort zu einem anderen PROPEL: die Anwendung physikalischer Kraft auf ein Objekt MOVE: die Bewegung eines Körperteiles GRASP: das Ergreifen eines Objektes INGEST: das Einverleiben eines Objektes durch ein Lebewesen EXPEL: das Ausscheiden eines Objektes MTRANS:die Übermittlung von Informationen MBUILD: die Schaffung neuen Wissens durch kognitive Prozesse SPEAK: das Produzieren von Lauten ATTEND: das Ausrichten der Aufmerk-

327

samkeit auf einen Gegenstand Für Schank handelt es sich hier nicht um eine definitive Liste: Sowohl die Anzahl als auch die Art der primitiven Aktionen unterscheiden sich in seinen verschiedenen Veröffentlichungen, und in seinen jüngeren Arbeiten finden sich auch Primitiva für soziale Aktionen: AUTHORIZE (erlauben), ORDER (befehlen), usw. Die primitiven Aktionen sollten nach Schank nicht als taxonomische Klassen betrachtet werden, unter die sich verschiedene Verben unterordnen lassen. Es sind vielmehr einfachste, nicht auf andere Teilhandlungen reduzierbare Aktionen, und die durch Verben der natürlichen Sprache bezeichneten Handlungen setzen sich in der Regel aus mehreren primitiven Aktionen zusammen. Jeder primitiven Aktion ist ein Kasusrahmen zugeordnet, wobei die einzelnen Kasus weitgehend den von Fillmore (1968, 1969) beschriebenen Tiefenkasus entsprechen. Zudem können den jeweiligen primitiven Aktionen eigene Inferenzen zugeordnet werden. Für ATRANS gelten beispielsweise die Inferenzen, daß vor der Handlung der Geber über das Objekt verfügt und der Empfänger nicht und daß nach der Handlung der Empfänger über das Objekt verfügt und nicht mehr der Geber. Zustände werden ebenfalls durch eine begrenzte Anzahl von primitiven Konzepten beschrieben, wie z. B.: Besitz, Eigentum, Verfügung POSS: PSTATE: Äußerlicher Zustand eines Objektes HEALTH:Gesundheit MSTATE:Stimmung usw. Dabei handelt es sich um Dimensionen, denen numerische Werte zwischen —10 und + 10 zugeordnet werden können. Die Beudeutungen von Adjektiven werden durch Werte in einer Zustandsdimension beschrieben: ’kerngesund’ durch HEALTH = + 10, ’krank’ durch HEALTH = —5 und ’tot’ durch HEALTH = —10. Zustandsänderungen werden durch Veränderungen der Werte in einer Zustandsdimension beschrieben; ’sterben’ wird beispielsweise als eine Zustandsänderung in der Dimension HEALTH mit dem Endwert —10 definiert. Abb. 29.4 zeigt die semantische Repräsentation des Satzes Hans erschießt Maria in der von Schank verwendeten Notation. Bei der Theorie der begrifflichen Abhän-

328

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 29.4: Die semantische Beschreibung des Satzes Hans erschießt Maria in der Notation von Schank. Paraphrasierung der semantischen Beschreibung: Hans bewegt ein Geschoß von dem Gewehr zu Maria, indem er den Abzughahn bewegt. Dies bewirkt, daß der Gesundheitszustand von Maria — 10 wird

gigkeiten handelt es sich weniger um eine voll ausgearbeitete Theorie als um einen lückenhaften Entwurf, bei dem viele offene Probleme, die sich bei der Beschreibung von Wissensstrukturen stellen, übergangen oder verwischt werden. Dies betrifft beispielsweise die Probleme der Quantifizierung, der Unterscheidung zwischen intensionalen und extensionalen Bestimmungen, der Reduktion von Handlungen auf physikalische Prozesse, der Metaphorik usw. Solche Mängel sind eine notwendige Folge des überhöhten Anspruchs, eine vollständige Theorie des begrifflichen Wissens zu errichten. Dieser breite Anspruch ist aber zugleich der Grund dafür, daß die Theorie der begrifflichen Abhängigkeiten einen wichtigen Bezugspunkt der neueren Arbeiten auf dem Gebiet der Wissensrepräsentation bildet. 2.4.3. Präferenzsemantik Wilks (1972, 1975 d) verwendet semantische Primitiva für die Bestimmung der jeweils richtigen Bedeutung von mehrdeutigen Wörtern bei der automatischen Übersetzung. Dabei handelt es sich um ein experimentelles System, das mit einer Menge von 600 Wortbedeutungen arbeitet und englische Prosatexte ins Französische überträgt. Mit dem Programm können auch syntaktisch mehrdeutige und metaphorische Sätze analysiert und übersetzt werden. Jede Wortbedeutung wird durch eine aus Primitiva zusammengesetzte semantische Formel beschrieben. Die Formel für das Verb schließen: (*HUM SUBJ) (THING OBJE) ((THRU PART) NOTBE) GOAL) (MOVE CAUSE) (Wilks, 1976 c) enthält vier Listen, die am einfachsten von rechts nach links gelesen werden. Das erste

Element der ersten Liste, das rechtsstehende Element also, bildet den Kopf der Formel. Es gibt an, daß es sich um eine Verursachung des Ereignisses MOVE handelt. In den übrigen drei Listen der Formel bezeichnet das jeweils erste, d. h. rechtsstehende Element einen Tiefenkasus, und der zweite Teil spezifiziert die semantischen Klassen, denen das Argument angehören sollte. Die semantischen Formeln für Substantive haben den gleichen Aufbau. Bei der Formel für Tür: (((PLANT STUFF) SOUR) ((((THRU PART) OBJE) (NOTUSE *ANI)) GOAL) ((MAN USE) (OBJE THING))) (Wilks, 1975 d) werden die taxonomische Klasse, der Benutzer, der Zweck und das Ganze, von dem sie ein Teil ist, spezifiziert. Insgesamt verwendet Wilks 80 Primitiva, von denen 23 als Kopf von semantischen Formeln für Handlungen fungieren können. Die semantischen Formeln bilden die Bestandteile der TEMPLATES. Dabei handelt es sich um dreigliedrige Satzgerüste, in denen ein Aktor, eine Handlung und ein Objekt spezifiziert werden. Bei der Satzanalyse werden den einzelnen Wörtern semantische Formeln zugeordnet, auf Grund derer nach passenden Templates gesucht wird. Kommen in einem Satz mehrdeutige Wörter vor, die verschiedenen Formeln zugeordnet werden können, dann wird diejenige Formel ausgewählt, die, in Kombination mit den Formeln für die anderen Wörter des Satzes, in ein Template eingepaßt werden kann. Für semantisch anomale Sätze wie beispielsweise: Mein Auto säuft Benzin. bestehen keine passenden Templates.

329

In diesen Fällen wird dasjenige Template ausgewählt, welches die meisten Bestimmungen erfüllt. Wilks (1972) nennt sein System deshalb präferentiell, denn es wird nicht nach dem absolut richtigen, sondern nach dem jeweils passenden Satzmuster gesucht. Die Templates werden durch die sogenannten Paraplates ergänzt. Diese spezifizieren zusätzliche Satzglieder. Ein Paraplate besteht aus einer Kasusangabe und zwei Templates: Das erste beschreibt die Struktur des Hauptsatzes und das zweite die Ergänzung. Weiterhin enthält das System von Wilks die Möglichkeit zur Durchführung von Inferenzprozessen. Dies ist immer dann notwendig, wenn ein Satz auf Grund der semantischen Restriktionen nicht desambiguiert werden kann. 2.4.4. Lexikalische Dekomposition von MEMOD MEMOD ist der Name der Computerimplementation von Norman/Rumelhart, eds. (1978). Die Wissensbasis ist darin in der Form eines semantischen Netzwerkes gespeichert, in welchem zwischen Types und Tokens unterschieden wird. Erstere werden in MEMOD als Primär- und letztere als Sekundärknoten bezeichnet. In dem Netz werden Zustände durch eine Reihe von Prädikaten, z. B. LOC, BESITZ, SCHLAFEND, GLÜCKLICH, bezeichnet. Jedem dieser

Prädikate sind mehrere Argumente zugeordnet. Beim Prädikat LOC sind dies beispielsweise ZUSTANDSBEGINN, ZUSTANDSENDE, OBJEKT und ORTSANGABE. Zustandsänderungen werden durch das Prädikat ÄNDERUNG beschrieben, welches die beiden Argumente ANFANGSZUSTAND und ENDZUSTAND hat. Das Prädikat URSACHE wird für die Bezeichnung von Handlungen verwendet. Es verbindet zwei Ereignisse. Beim ersteren handelt es sich dabei meist um das TUN eines Akteurs, welches die im zweiten Argument beschriebene Änderung verursacht. Abb. 29.5 zeigt die in MEMOD verwendete Repräsentation der Sätze: — Ambrosius konnte nicht weiterschlafen, weil ihn ein Cowboy naßspritzte. — Der Cowboy weckte Ambrosius mit Wasser. Solche Wissensstrukturen werden von MEMOD aus eingegebenen englischen Sätzen aufgebaut, und sie bilden die Ausgangsdaten für weitere Inferenzprozesse und für die Beantwortung von Fragen. Die in MEMOD benützten Primitiva bilden die Grundlage für verschiedene empirische Analysen kognitiver Prozesse, die alle in Norman/Rumelhart (1978) beschrieben sind. Das MEMOD-Modell ist insofern unvollständig, als die Autoren keine abgeschlossene Liste von Prädikaten geben und für neue Beispiele das semantische Vokabular erweitert werden muß.

Abb.29.5:Repräsentation eines Satzes in MEMOD (nach Norman/Rumelhart 1978, 66)

330

2.4.5. Diskussion

VIII. Computer Simulation of Language II: SystemsComponents

(2) (BEWEGEN Hans Tisch Fenster Wand) Hans bewegt den Tisch vom Fenster zur Wand

Als Primitiva können beliebige Elemente von semantischen Repräsentationen bezeichnet werden, welche den unter 2.4.1. aufgeführten Bedingungen genügen. Dazu gehören beispielsweise auch die Bezeichnungen für Tiefenkasus. Damit enthalten, wie Wilks (1975 d) gezeigt hat, alle semantischen Repräsentationen in der einen oder anderen Form Primitiva. Deren Verwendung beruht auf der Annahme, daß es bestimmte Prädikate und Kategorien gibt, denen bei jeder Durchführung von Inferenzprozessen eine besondere Bedeutung zukommt. Die Modelle, in denen semantische Primitiva verwendet werden, müssen danach beurteilt werden, welcher ’Gewinn’ daraus gezogen werden kann. Ein Kriterium dafür wäre etwa, ob diese Modelle mehr leisten, als dies bei der Verwendung von semantischen Markierungen und Selektionsrestriktionen im Sinne von Katz/Fodor (1963 ) möglich wäre. Bei keinem der drei besprochenen Modelle ist dies offensichtlich, denn jedesmal handelt es sich um Valenzlisten mit Angaben, welche semantischen Klassen den verschiedenen Satzgliedern zugeordnet werden können. Die semantischen Formeln enthalten zwar darüberhinaus noch zusätzliche Informationen. Diese werden jedoch bei der Satzanalyse meist gar nicht benützt, sind also streng genommen überflüssig.

eingegeben, dann müßten die Propositionen (l b) und (1 c) gelöscht werden, während die Propositionen (1 a), (1 d) und (1 e) gültig blieben. Formalismen, welche dies ermöglichen, werden von McCarthy/Hayes (1969) FrameAxiome genannt. Neuere Ansätze zur Behandlung dieses Problems finden sich in J. F. Allen (1984) und McDermott (1982 a). Eine zweite, von Fillmore (1968) benutzte Verwendung des Wortes Frame entspricht den sogenannten Satzbauplänen oder Ergänzungsrahmen in der deutschen Grammatik. Diese geben an, von welchen grammatischen Ergänzungen verschiedene Verben begleitet werden können. In der neueren Literatur zur KI wird das Wort Frame zur Beschreibung von Wissensschemata benützt, welche die Integration von visuellen und sprachlichen Reizen in bestehende Gedächtnisstrukturen ermöglichen. Solche Wissensschemata werden in 2.5.2. beschrieben. Bei den sogenannten Frame-Sprachen handelt es sich um höhere Programmiersprachen, die für die Implementierung von wissensbasierten Systemen in der KI verwendet werden. Die bekannteste dieser Sprachen, KRL (Knowledge Representation Language), bildet den Gegenstand von 2.5.3.

2.5. Frame-Modelle

2.5.2. Wissensschemata

2.5.1. Verschiedene Verwendungen des Ausdrucks ’Frame’

Die Brauchbarkeit einer Wissensrepräsentation hängt davon ab, ob aus ihr erschlossen werden kann, welche Inhalte für die Lösung eines gegebenen Problems relevant sind und welche anderen Inhalte dafür nicht berücksicht werden müssen. Weder die logischen Wissensrepräsentationen noch die semantischen Netzwerke geben eine Lösung für dieses Problem, denn sie enthalten keine Regeln darüber, wie die einzelnen Propositionen oder Knoten zu thematisch zusammengehörigen Wissensgebieten geordnet werden können. Minsky (1975) beschreibt dieses Problem an den Beispielen der visuellen Wahrnehmung und des Verstehens von Sprache und benützt den Terminus Frame zur Bezeichnung komplexer, inhaltlich geordneter Wissensstrukturen: „A frame is a data-structure for representing a stereotyped situation. Attached to each frame are several kinds of information. Some of this information is about how to use the frame. Some is about what one

In der Literatur zur Wissensrepräsentation ist der Ausdruck Frame, der sich am besten durch ’Bezugsrahmen’ übersetzen läßt, zuerst von McCarthy/Hayes (1969) benützt worden. Das von ihnen analysierte Frame-Problem entsteht dadurch, daß durch verschiedene Ereignisse jeweils unterschiedliche Komponenten der Ausgangssituation verändert werden, während andere Komponenten davon nicht betroffen sind. Enthält beispielsweise eine Wissensrepräsentation die Propositionen: (1a) (AUF Buch Tisch) (1 b) (NEBEN Papierkorb Tisch) (1 c) (BEI Tisch Fenster) (1 d) (IN Tisch Zimmer) (1 e) (AUF Vogel Baum) und wird als weitere Proposition die Ereignisbeschreibung:

29.  Wissensrepräsentation: Typen und Modelle

can expect to happen next. Some is about what to do if these expectations are not confirmed.” (Minsky 1975, 118). Angeregt durch diesen Aufsatz von Minsky ist in einer großen Zahl von Arbeiten versucht worden, frames zu entwickeln, auf Grund derer das Verstehen natürlichsprachlicher Texte und Problemlösungsprozesse simuliert werden können. Die darin entwickelten Modelle lassen sich gliedern in Wissensschemata für die Beschreibung von Handlungen und Ereignissen einerseits, und solche für die Beschreibung von komplexen Objekten andererseits (Hewitt 1975). Handlungsframes, nach Schank/Abelson (1977) auch Skripts genannt, bestehen meist aus den vier folgenden Komponenten: 1. einer Liste von sogenannten Terminalknoten, welche die wichtigsten Aktanten eines Ereignisses bezeichnen und denen Default-Werte und mögliche Schwankungsbereiche zugeordnet sind; 2. einer Liste von Prärequisiten für das beschriebene Ereignis; 3 . einer Liste von Resultaten und 4. der Beschreibung eines Ereignisses selbst, häufig in Form einer Liste von Zuständen, welche im Ablauf des Ereignisses verwirklicht werden müssen. Dabei ist es möglich, daß einzelnen Zustandsbeschreibungen Hinweise auf andere Skripts zugeordnet sind, in denen aufgezeichnet ist, wie diese Zustände jeweils verwirklicht werden können, oder was geschieht, wenn sie nicht verwirklicht werden. Beispiele solcher Handlungsframes finden sich in Charniak (1978 a), Schank/Abelson (1977), Goldstein/Roberts (1977), Wettler (1980) und Bei den Schemata für die Beschreibung komplexer Objekte handelt es sich, formal gesehen, meist um gegliederte semantische Netzwerke (Hendrix 1975; Winston (ed.) 1975), d. h. um Strukturen aus Knoten und Kanten, wobei den einzelnen Knoten Default-Werte zugeordnet sind. Solche Schemata ermöglichen, in größerem Maße als andere Wissensrepräsentationen, eine erwartungsgesteuerte Informationsverarbeitung. Bei der Analyse von fortlaufenden Texten werden die jeweils relevanten Schemata aktiviert, wobei den einzelnen Sätzen einschlägige Aussagen des Schemas zugeordnet werden. Die Analyse hat also nicht, wie etwa bei den logischen Wissensmodellen, die Form einer blinden Suche, sondern es wird überprüft, welchem aus einer kontextuell begrenzten Zahl von Ereignissen ein Satz zugeordnet werden kann. Solche Zuordnungsprozesse geschehen in zwei Schrit-

331

ten: Zunächst müssen die Wörter des eingegebenen Satzes den einzelnen Terminalknoten des Schemas zugeordnet werden, und daraufhin muß eine Entsprechung zwischen der in dem Satz beschriebenen Begriffsstruktur und einer Aussage des Schemas gefunden werden. Dieses Verfahren ist allerdings nur brauchbar, wenn ein dem beschriebenen Ereignis entsprechendes Schema zur Verfügung steht und wo der zu analysierende Satz in diesem Schema bereits enthalten ist. In der sprachlichen Kommunikation werden jedoch üblicherweise gerade solche Inhalte geäußert, die für den Empfänger der Mitteilung neu sein sollen, d. h. die über seine vorgeformten Erwartungen hinausgehen. Dabei kann die durch Wissensschemata ermöglichte erwartungsgesteuerte Verarbeitung nicht angewendet werden. Ein weiteres Problem bei der Verwendung von Wissensschemata bildet die Frame-Aktivierung, d. h. die Entscheidung, innerhalb welchen Schemas ein Ereignis interpretiert werden soll. Bei der dazu verwendeten Schlüsselwortmethode geschieht dies auf Grund von einzelnen kritischen Textwörtern. Bei dieser, wie auch bei anderen Methoden der Frame-Aktivierung, stellt sich allerdings das allgemeine Problem, daß der Bezugsrahmen auf Grund von Einzelheiten erschlossen werden muß, deren Interpretation einen bestehenden Bezugsrahmen voraussetzt. 2.5.3. Frame-Sprachen Bei der Entwicklung von Frame-Sprachen wird versucht, allgemeine Annahmen des Frame-Ansatzes in einer Programmiersprache zu implementieren, um dadurch ein Werkzeug für den Aufbau strukturierter Wissensrepräsentationen bereitzustellen. Zu diesen allgemeinen Annahmen gehören: — die Gliederung des Wissens in voneinander abgrenzbare Schemata, die in den FrameSprachen häufig als ’Einheiten’ bezeichnet werden; — die Vererbung von Merkmalen in taxonomischen Hierarchien; — die Lücken-und-Füller (slot-and-filler) -Struktur, d. h., daß den einzelnen Einheiten spezifische Listen von Terminalknoten und Werte für diese Knoten zugeordnet werden können; — Default-Werte, d. h. Angaben darüber, welcher Wert einem Terminalknoten zugeordnet werden soll, solange explizite Annahmen über diesen fehlen;

332

— Objekt-gesteuerte Prozeduren, die es beispielsweise ermöglichen, die Werte von Terminalknoten zu errechnen. [Reise EINHEIT Abstrakt 〈(SELBST (ein Ereignis)k z k a m o d a l i t ä t (O D E R F l u g z e u g Au t o B u s)〉 (z i e l ( e i n St a d t)〉] [B e s u ch E I N H E I T S p e z i a l i s i e r u n g 〈S E L B ST ( e i n S o z i a l e I n t e r a k t i o n )〉 〈b e s u ch e r ( e i n Pe r s o n )〉 〈b e s u ch t e ( Te i l m e n ge ( e i n Pe r s o n))〉] [E r e i g n i s 137 E I N H E I T I n d i v i d u e l l 〈(S E L B ST { ( E I N B E S U C H M I T B E S U C H E R = Ru st y B E S U C H T E = ( I T E M S D a n ny Te r r y ) ) (E I N R E I S E M I T M O DA L I TAT = Flugzeug Z I E L = San Franzisco)}〉] Abb. 29.6: Beschreibung eines Besuches in der Sprache KRL nach (Bobrow/Winograd 1977). Eckige Klammern: begrenzen Einheiten, spitze Klammern: Lücken mit Füllern, runde Klammern: Deskriptoren, geschweifte Klammern: Zusammen- fassungen von Deskriptoren. Abb. 29.6 zeigt ein Beispiel für die Beschreibung eines Ereignisses in der von Bobrow/ Winograd (1977) entwickelten Frame-Sprache KRL (Knowledge Representation Language). Die unterste der darin gezeigten Einheiten, die Einheit 13 7, beschreibt ein einzelnes Ereignis. Sie besteht aus einer Lücke mit dem Indikator SELBST, der auf die generischen Klassen der beschriebenen Einheit verweist. Bei der Einheit 13 7 sind diesem Indikator zwei Füller zugeordnet, die das Ereignis unter verschiedenen Aspekten beschreiben. Jeder der beiden Füller hat die Form: (ein Prototyp mit Lückenindikator1 = Beschreibungdes Füllers1 · · · · · · · · · · · · Lückenindikatorn Beschreibung des Füllersn) Der Prototyp bezeichnet die Ereigniskategorie, welcher die jeweilige Perspektive zugeordnet werden kann, und die Beschreibungen der Füller geben an, welche Werte den Füllern zugeordnet sind. Wie man sieht, handelt es sich um einen Flug nach San Franzisko, bei dem Rusty seine Kollegen Danny und Terry besucht.

VIII. Computer Simulation of Language II: SystemsComponents

Die Lücken der Ereigniskategorien ’Reise’ und ’Besuch’ bestehen aus einem Lükkenindikator und einer Beschreibung der Kategorie, welcher der Füller angehören muß. In KRL werden folgende sieben Arten von Einheiten verwendet: — grundlegende Kategorien, wie z. B. ’Hund’, durch welche die Welt in eine Menge von sich nicht überschneidenden Klassen von Objekten gegliedert wird; — spezifische Kategorien, wie z. B. ’Pudel’, welche Unterbegriffe der grundlegenden Kategorien darstellen; — abstrakte Kategorien, wie z. B. ’Lebewesen’ oder ’Handlung’, in welchen verschiedene grundlegende Kategorien zusammengefaßt werden; — Individuen, welche einzelne Objekte oder Ereignisse beschreiben und den Individualknoten in semantischen Netzen entsprechen; — Manifestationen, welche einzelne Aspekte oder zeitlich begrenzte Zustände eines Individuums beschreiben; — Relationen, abstrakte Beziehungen wie ’größer als’; und — Propositionen, welche Konkretisierungen von Relationen bezeichnen. Die Unterscheidung zwischen grundlegenden, spezifischen und abstrakten Kategorien wird durch den Hinweis auf experimentalpsychologische Untersuchungen von Rosch (1973 ; 1975) und Rosch/Mervis/Gray et al. (1976) gerechtfertigt, welche gezeigt haben, daß bei der menschlichen Informationsverarbeitung Kategorien auf einer mittleren Ebene der taxonomischen Hierarchie eine bevorzugte Stellung einnehmen. Neuere Untersuchungen von Jolicoeur/Gluck/Kosslyn (1984) haben allerdings gezeigt, daß Resultate der Experimente von Rosch auch anders interpretiert werden können. Bei den weiteren, in Abb. 29.6 benützten Junktoren und Deskriptoren, wie z. B. ’ein’, ’ODER’, ’Teilmenge’, ’mit’ handelt es sich ebenfalls um definierte Elemente der KRLSprache. Nach Norman/Bobrow (1975) werden informationsverarbeitende Prozesse entweder durch die zur Verfügung stehenden Daten oder durch die Verarbeitungskapazität des kognitiven Apparates beschränkt. Ein Beispiel für die erste Art von Beschränkung ist die visuelle Wahrnehmung bei schlechten Sichtbedingungen. Norman/Bobrow sprechen in solchen Fällen von Prozessen mit beschränktem Zugang zu Daten. Die zweite Art von Beschränkung, die beispielsweise beim Schachspiel wirksam ist, bezeichnen Norman und Bobrow als Prozesse mit beschränkter

29.  Wissensrepräsentation: Typen und Modelle

Verarbeitungskapazität. Bei der Entwicklung von KRL wurde davon ausgegangen, daß diese Sprache zur Durchführung von Prozessen mit beschränkter Verarbeitungskapazität verwendet wird. Dieser Annahme wird in der Kontrollstruktur von KRL Rechnung getragen, indem der Benutzer Prioritäten definieren kann, welche die Tiefe und die Reihenfolge der durchzuführenden Operationen festlegen. Weitere auf dem Frame-Ansatz basierende Programmsysteme finden sich in dem NUDGE-Modell von Goldstein/Roberts (1977) im UNITS-Programm von Stefik und in KL-ONE von Brachman/Schmolze (1985). Eine ausführliche Darstellung der Frame-Sprachen gibt Reimer (1987). 2.6. Konversations- und Benutzerwissen Wissensrepräsentationen können auf zwei Arten verwendet werden. Zum einen sind sie ein Instrument für Inferenzprozesse, wie sie etwa bei Problemlösungsprozessen und bei der Analyse natürlichsprachlicher Sätze verwendet werden. Ein Beispiel für diese Art von Anwendungen ist die Bestimmung der Referenten des Pronomens er bei der automatischen Analyse der Beispielsätze (1) bis (4) in 1.1. Eine zweite Verwendung von Wissensrepräsentationen besteht darin, Computersysteme zu realisieren, die dem Benutzer einzelne, ihn interessierende Inhalte mitteilen. Typischer Fall einer solchen Anwendung sind natürlichsprachliche Frage-Antwort-Systeme (vgl. Art. 57, 58). Wie Tennant (1980) gezeigt hat, besteht dabei das Problem, daß die Benutzer solcher Systeme nicht in der Lage sind, ihre Anfragen eindeutig, klar und für das System leicht interpretierbar zu formulieren. Ein Beispiel dafür ist die häufige Verwendung indirekter Sprechakte, wie etwa: (1) Weißt Du, wann der Zug nach Konstanz abfährt? Wörtlich interpretiert fragt der Benutzer in (1) nach dem ’Ob-überhaupt-Wissen’ des Systems über Abfahrtszeiten von Zügen. Man kann jedoch annehmen, daß er erwartet, von dem System eine Auskunft über tatsächliche Abfahrtszeiten zu erhalten. Um dies zu leisten, benötigt das System nicht nur die Kenntnis des implizit erfragten Inhaltes, sondern auch Kenntnisse und Regeln über die kommunikativen Strategien des Benutzers und Regeln über die ablaufende Konversation. In einer Reihe von neueren Modellen wird versucht, aufgrund der Eingabe des Benutzers und mit Hilfe von logischen Beweisverfahren dessen kommunikatives Ziel zu erschließen. Dabei werden allgemeine Regeln

333

über die Planung von zielgerichteten Handlungen verwendet (vgl. Art. 28. insb. 28.3 .). In dem Modell von Allen/Perrault (1980) würde die Frage (1) als ein Ziel des Benutzers interpretiert werden: (2)(W I S S E N - O B B E N U T Z E R (WISSEN-DASS SYSTEM ’Abfahrtszeit’)) Mit Hilfe der Regel (3) (3)(G L AU B E N SYST E M (WO L L E N B E N U T Z E R (W I S S E N - O B B E N U T Z E R P))) (G L AU B E N SYST E M (WO L L E N B E N U T Z E R P)) d. h., wenn der Benutzer wissen möchte, ob eine Proposition P wahr ist, dann bildet P ein Ziel des Benutzers, inferiert das System das Ziel (4): (4)(W I S S E N - DA S S B E N U T Z E R ’Abfahrtszeit’). Mit Hilfe der Regel (5): (5)(G L AU B E N SYST E M (WO L L E N B E N U T Z E R P)) & (P R Ä R E Q U I S I T P H A N D LU NG) (G L AU B E N SYST E M (WO L L E N B E N U T Z E R H A N D LU NG)) d. h., wenn der Benutzer ein Ziel P erreichen möchte, dann möchte er eine Handlung durchführen, welche P zur Voraussetzung hat. inferiert das System darauf (6): (6)(INFORMIEREN SYSTEM BENUT Z E R ’Abfahrtszeit’) wodurch das Ziel (4) erreicht wird. Ähnliche Regeln finden sich bei Hobbs/ Evans (1980), Moore (1977), Wettler (1980), Appelt (1985 a) und Kobsa (1985). In Regeln dieser Art wird die alltagspsychologische Annahme verwendet, daß Handeln ein durch bewußte Zielsetzungen gesteuerter Prozeß sei. Dabei bleibt unberücksichtigt, daß die Berichte von Akteuren über die Gründe ihres Handelns häufig falsch sind (Nisbett/Wilson 1977) und daß die Erklärungen von Handlungen durch die Angabe von Zielvorstellungen der Handelnden tautologisch sind, aus diesen also keine Voraussagen über mögliches zukünftiges Handeln abgeleitet werden können (Ch. Taylor 1964). Zudem setzen diese auf der Sprechakt-

334

theorie von Searle (1969) beasierenden Beschreibung von Sprechhandlungen, einen Konsens der Gesprächspartner über das ihnen gemeinsame Wissen voraus. Ein solcher Konsens impliziert nach Clark/Marshall (1981) allerdings einen unendlichen Rekurs von der Art: ’Der andere weiß, daß ich weiß, daß er weiß, daß ...’ bzw. aus der Situation erschließbare Kriterien, wann ein bestimmter Inhalt als gemeinsames Wissen betrachtet wird. Solche Kriterien fehlen jedoch. Ein anderer Ansatz zur wissensbasierten Beschreibung von Dialogen zwischen Benutzern und Informationssystemen beruht auf dem kommunikationsanalytischen Verfahren. Bei dieser zuerst in der Ethnolinguistik verwendeten Methode werden auf Grund von protokollierten Dialogen Regeln für Gesprächsabläufe entwickelt (Sacks/Schegloff/ Jefferson 1974; Jefferson/Schenkein 1978). Dabei sind eine Reihe von sprachlichen Indikatoren definiert worden, welche Sprecherwechsel und die thematische Gliederung von Dialogen charakterisieren. Reichman (1978); Reichmann-Adar (1984) erarbeitete mit diesem Ansatz ein allgemeines Modell für die Beschreibung von Dialogen, welches die Form eines erweiterten Übergangsnetzwerkes (Woods 1970) hat. In einem Dialogsystem implementiert könnte dieses Konversationswissen dazu verwendet werden, die eingegebenen Sätze des Benutzers zu interpretieren und die Aussagen des Systems zu planen. Dialoge werden von Reichman in sogenannte Kontexträume gegliedert. Dies sind Gruppen von Sätzen, welche sich auf ein bestimmtes Thema beziehen. Kontexträume sind ineinander verschachtelt und können des- und reaktiviert werden. Reichman beschreibt eine Reihe von Indikatoren der sprachlichen Oberflächenstruktur, durch welche die verschiedenen Aktivierungsgrade der Kontexträume, deren Beziehung und Argumentationsverläufe erschlossen werden können. 2.7. Alltagswissen Bei einem natürlich-sprachlichen Frage-Antwort-System muß das Programm über ein Modell der Wissensstrukturen des Benutzers verfügen. Häufig handelt es sich dabei nicht um wissenschaftliches Fachwissen, sondern um Alltagswissen. Solche kognitiven Strukturen sind von diSessa (1982) und McCloskey (1983 b) als naive Theorien, von deKleer/ Brown (1983 ), Gentner/Stevens, eds. (1983 ) und Johnson-Laird (1981) als mentale Mo-

VIII. Computer Simulation of Language II: SystemsComponents

delle, von Larkin (1983 ) als naive Problemrepräsentationen und von McCloskey (1983 a) als intuitive Theorien bezeichnet worden. Sie unterscheiden sich von den wissenschaftlichen Theorien durch ihre Verhaftetheit in der Alltagserfahrung, durch eine hohe interindividuelle Unterschiedlichkeit und dadurch, daß Gesetze nicht quantitativ sondern qualitativ beschrieben werden. Ein wichtiger Bestandteil der Wissensstruktur des Benutzers ist sein Modell von dem System, mit dem er kommuniziert, denn dieses bestimmt sein Verhalten gegenüber dem System und muß darum für die korrekte Interpretation von Fehleingaben berücksichtigt werden. Hayes, P. J. (1984 a) versuchte, eine im Prädikatenkalkül formalisierte Beschreibung der Alltagsphysik zu geben. Als Beispiel wählte er das Verhalten von Flüssigkeiten in Behältern. In seinem axiomatischen System wird ein Behälter als ein Körper definiert, der einen leeren Raum umschließt. Dabei kann es sich um ein vollständiges Umschließen handeln, wie bei der Kokosnuß, oder um einen Behälter mit einer Öffnung, wie beispielsweise bei der Tasse. Nach Hayes, P. J. (1984 a) können Behälter entweder voluminöse Objekte sein, wie beispielsweise die Tasse oder das Flußbett oder sie bestehen lediglich aus Oberflächen, wie beispielsweise die Büchse. Dies widerspricht naturwissenschaftlichen Definitionen, entspricht aber, so Hayes, der Sichtweise der physikalischen Laien. Alltagswissen bildet den Gegenstand verschiedener empirischer Untersuchungen. McCloskey (1983 b) fand Übereinstimmungen zwischen physikalischen Alltagstheorien und der prä-Newtonschen Physik. Gentner/ Stevens, eds. (1983 ) wies nach, daß Alltagstheorien durch Analogiebildung zu bekannten Inhalten entstehen. Kempton (1986) zeigte am Beispiel der Bedienung von Heizthermostaten den Zusammenhang zwischen falschen Alltagstheorien und Benutzerverhalten.

3.

Probleme der Forschungen über Wissensrepräsentationen

Die kognitive Wende brachte der CL in den 70er Jahren einen Paradigmenwechsel. Vorher wurde viel über Probleme der sprachlichen Oberfläche, über Morphologie und Syntax gearbeitet. Zum Teil hoffte man, damit einen Grundstein für die spätere Behand-

29.  Wissensrepräsentation: Typen und Modelle

lung semantischer Probleme zu legen, zum Teil hielt man die Beschäftigung mit semantisch-inhaltlichen Problemen wegen deren Komplexität oder aus grundsätzlichen Überlegungen heraus für sinnlos. Heute werden sprachliche Prozesse als Teil eines zielgerichteten Handelns betrachtet, welches durch die gesamte Wissensstruktur der Gesprächspartner bestimmt wird. Man arbeitet an Modellen dieser Wissensstruktur und interessiert sich weniger für die Beschreibung der sprachlichen Oberfläche. Keiner der beiden Ansätze, weder der korpusorientierte noch der kognitive, kann allein die sich ergebenden Probleme lösen, handle es sich dabei um das automatische Übersetzen, die Entwicklung eines natürlichsprachlichen Frage-Antwort-Systemes oder um das automatische Indexieren. Die Analyse eines beliebigen Satzes in eine wie auch immer geartete Tiefenstruktur setzt ein morphologisches und syntaktisches Regelsystem und ein Modell der Welt und des Autors des Satzes voraus. Auch der kognitive Ansatz muß empirisch verankert werden. Eine Möglichkeit dazu ist der Turing-Test, in dem überprüft wird, ob menschliches Verhalten von seiner Computersimulation nicht unterscheidbar ist. Nun kann jeder beliebige Ausschnitt des menschlichen Verhaltens, ist er nur genügend klein, auf einem Computer nachgebildet werden. So wäre es sicher leicht, ein Programm zu schreiben, das dem Pronomen er in den Beispielsätzen (1) bis (4) in 1.1. die richtigen Referenten zuordnet — solange dieses Programm nichts anderes tun muß. Nicht-trivial wird eine Simulation jedoch erst dann, wenn das Programm flexibel ist, wenn es also beispielsweise bei beliebigen neuen Sätzen mit großer Wahrscheinlichkeit die Pronomen richtig zuordnen kann. Da es solche Programme auch in absehbarer Zukunft nicht geben wird, können die auf enge Verhaltensausschnitte beschränkten Simulationsmodelle auf Computer nicht als empirische Bestätigungen von allgemeinen Theorien zur Wissensrepräsentation gelten. Auch experimentalpsychologische Untersuchungen bilden keinen geeigneten Weg zur Überprüfung von Wissensrepräsentationen. Zum einen haben die meisten Autoren auf diesem Gebiet gar nicht den Anspruch, das menschliche Wissen zu modellieren, und damit könnte ein abweichendes menschliches Verhalten nicht als Beleg gegen das Modell verwendet werden. Zudem sind die bestehenden Ansätze zu fragmentarisch, als daß sich daraus experimentell überprüfbare Voraus-

335

sagen ableiten ließen, mit denen zwischen konkurrierenden Modellen entschieden werden könnte. Der zur Zeit geeignetste Weg zur empirischen Verankerung von Wissensrepräsentationen besteht darin, daß man schon vor dem Entwurf eines Modelles definiert, welche Leistungen es erbringen soll, und in sein Modell nur solche Komponenten aufnimmt, die dafür benötigt werden. Die Verwendung dieses in der wissenschaftlichen Theorienbildung üblichen Verfahrens würde dazu beitragen, auf diesem wichtigen Forschungsgebiet eine höhere Transparenz zu erreichen.

4.

Literatur (in Auswahl)

J. F. Allen 1984 · J. F. Allen/C. R. Perrault 1980 · J. A. Anderson/J. W. Silverstein/S. R. Ritz et al. 1977 · D. E. Appelt 1985 a · A. Barr/E. A. Feigenbaum/P. R. Cohen (eds.) 1981 · D. R. Barstow 1977 · D. G. Bobrow/T. Winograd 1977 · R. J. Brachman/J. G. Schmolze 1985 · B. C. Bruce 1975 b · B. G. Buchanan 1986 · E. Charniak 1978 a · E. Charniak 1981 a · E. Charniak/Y. Wilks 1976 · E. Charniak/D. McDermott 1985 · H. H. Clark/ C. R. Marshall 1981 · W. F. Clocksin/C. S. Mellish 1981 · A. M. Collins/M. R. Quillian 1969 · A. M. Collins/M. R. Quillian 1970 b · C. Conrad 1972 · G. DeJong 1982 · J. deKleer 1986 · A. A. diSessa 1982 · J. Doyle 1979 · J. M. Eich 1982 · J. M. Eich 1985 · S. E. Fahlmann 1981 · J. A. Feldman/D. H. Ballard 1982 · C. J. Fillmore 1968 · C. J. Fillmore 1969 · D. Gentner 1978 a · D. Gentner 1978 b · D. Gentner/A. L. Stevens (eds.) 1983 · I. P. Goldstein/R. B. Roberts 1977 · C. Habel 1985 · P. J. Hayes 1984 a · G. G. Hendrix 1975 · C. Hewitt 1975 · J. Hintikka 1963 · G. E. Hinton/J. A. Anderson 1981 · J. R. Hobbs/D. A. Evans 1980 · R. Jackendoff 1975 · G. Jefferson/J. Schenkein 1978 · P. N. Johnson-Laird 1981 · P. Jollicoeur/M. A. Gluck/S. M. Kosslyn 1984 · J. J. Katz/J. A. Fodor 1963 · W. Kempton 1986 · A. Kobsa 1985 · T. K. Landauer/J. L. Freeman 1968 · J. H. Larkin 1983 · J. Laubsch 1985 · W. G. Lehnert/M. H. Ringelt 1982 · H. J. Levesque 1984 · D. A. McAllester 1982 · J. McCarthy/P. J. Hayes 1969 · M. McCloskey 1983 a · M. McCloskey 1983 b · D. V. McDermott 1982 a · D. V. McDermott 1982 b · D. V. McDermott/J. Doyle 1980 · C. B. Mervis/E. Rosch 1981 · D. Metzing 1979 · G. A. Miller 1975 · M. Minsky 1975 · R. C. Moore 1972 · B. B. Murdock 1982 · G. L. Murphy/E. E. Smith 1982 · N. J. Nilsson 1980 · R. E. Nisbett/T. D. Wilson 1977 · D. A. Norman/D. G. Bobrow 1975 · D. A. Norman/D. Rumelhart (eds.) 1978 · J. T. Nutter 1983 · M. R. Quillian 1967 · M. R. Quillian 1968 · R. Reichman 1978 · R. Reichman-Adar 1984 · U. Reimer 1987 ·

VIII. Computer Simulation of Language II: SystemsComponents

336

R. Reiter 1980 · E. Rosch 1973 · E. Rosch 1975 · E. Rosch/C. E. Mervis/W. D. Gray et al. 1976 · H. Sacks/E. E. Schegloff/G. Jefferson 1974 · R. C. Schank 1972 · R. C. Schank 1975 a · R. C. Schank/ R. Abelson 1977 · R. C. Schank/N. Goldman/C. Rieger et al. 1973 · J. R. Searle 1969 · M. Stefik 1980 · Ch. Taylor 1964 · H. Tennant 1980 · M.

Wettler 1980 · Y. Wilks 1972 · Y. Wilks 1975 c · Y. Wilks 1976 c · T. Winograd 1975 · T. Winograd 1976 a · P. H. Winston (ed.) 1975 a · P. H. Winston 1984 · W. A. Woods 1970.

Manfred Wettler, Konstanz (Bundesrepublik Deutschland)

30. Simulation of Language Understanding: Lexical Recognition 1. 2. 2.1. 2.2. 3. 3.1. 3.2. 4. 4.1. 4.2. 4.3. 4.4. 5. 6.

Introduction Information Stored in Lexicons for Natural Language Processing Systems Intra-Word Information Inter-Word Information General Storage Issues Words, Lexical Entries, and Word Senses Storage Strategies for Lexicons The Form of Lexicons and Lexical Entries Formats for Subcategory Information Morphological Information Word Senses Collocations and Idioms Physical Storage Considerations Literature (selected)

1.

Introduction

This chapter introduces the types of information that are required by a language understanding system during the lexical recognition stage of its operation. This is the stage during which the system must analyze its input into words and, in turn, must analyze each word and determine its syntactic and semantic properties. The necessary information is typically stored in a permanent database of such information — the lexicon. The remainder of this chapter will detail the types of information that are stored in the lexicon and the way in which they are structured into lexical entries. The goal of this chapter is to present the reader with enough information and information resources to be able to make intelligent choices about the structure of a lexicon for a natural language analysis system. It does not present any hard and fast answers to the issues that arise in designing a computational lexicon. In fact, in every case where more than one design choice exists, each alternative has been adopted by at least one system. Often lexicon builders have argued strongly for diametrically opposite choices on grounds of efficiency or theoreti-

cal superiority; in such cases, it is up to the reader to decide who carries the day.

2.

Information Stored in Lexicons for Natural Language Processing Systems

In this section, the types of information that have been stored in the lexicons of natural language processing systems are presented. This discussion will be at a fairly abstract level; only the general types of information stored and the possible storage schemes are considered here. Section 4 presents the various ways in which actual systems store this information. Such information can be divided into two subclasses: — Intra-word information: This is information that pertains only to an individual word. (Word is used here in a pre-theoretical sense. A more precise definition will be offered in Section 3 .1.) Most syntactic and semantic information falls into this class. — Inter-word information: This is information that relates a word to other words. Morphological information falls into this category. 2.1. Intra-Word Information The Information that falls into this category may be broadly termed distributional information. It is information that determines the various contexts in which a word may appear. Both syntactic and semantic information is in this class. 2.1.1. Syntactic Syntactic information may be divided into the following sub-categories: — Category information: Syntactic category information corresponds to the familiar grammatical notion of part of speech. This

30.  Simulation of Language Understanding: Lexical Recognition

type of information includes traditional categories such as noun, verb, adjective, adverb, and preposition. While most systems agree on these m ajor categories, there are often great differences in the ways they classify minor categories, such as conjunctions, quantifier elements, interrogatives, etc. The categories that appear in the lexicon will, of course, reflect the categories that are handled by the grammar. Jackendoff (1977, 56) offers a list of syntactic categories that may be useful to those who have not yet fully designed their grammars, though it has its limits. For example, Jackendoff only discusses lexical categories, so his list does not contain categories such as conjunctions. — Subcategory information: This is information that divides syntactic categories into subclasses. Following Chomsky (1965), this sort of information may be separated into two types: (1) Contextual features: These are features that may be defined in terms of the contexts in which a given word may occur (hence, the name). There are two sorts of contextual information: (a) Subcategorization information: This is information that specifies the complement structures with which a word may occur. Here we must distinguish between complements and adjuncts. Complements are syntactic units that are lexically specified. For example, individual verbs specify whether they can, must, or cannot be accompanied by an object noun phrase. Adjuncts, on the other hand, are specified for all the members of a particular syntactic category. For example, all verbs can be followed, even if not immediately, by a clause introduced by because. (b) Selection information: This is information that specifies the nature of items that can appear in the complement or subject positions associated with the word. Selectional information may restrict the class of these items. For example, the English transitive verb frighten requires its direct object to be animate. Selectional restrictions may also be more syntactic in nature. In some dialects of English, the verb dem and when it takes a clausal complement, requires that the main verb of the complement clause appear in the subjunctive or unmarked form: „I demand that John be/*is punished” (where „*” indicates ungrammaticality). For languages such as German, which contain a rich morphological case marking system, selectional restrictions may specify the case of a nominal complement. For example, the German verb hel-

337

fen („to help”) requires a dative object: „Ich helfe ihm/*ihn”. — Typically, systems that include contextual information as part of the syntactic specification of a word include subcategorization information rather than selectional information. This is because many systems regard selectional information as semantic in nature and tend to handle it in the semantic specification of the entry, if anywhere. Those types of selectional information that seem more syntactic may be included as part of the syntactic specification of a lexical entry. For example, while many systems would treat the restriction of a direct object to animate noun phrases as semantic, they might include information about the type of a complement clause or the case of a complement noun in the syntax. (2) Inherent features: These are features of words that cannot, or cannot easily, be reduced to a contextual definition. For nouns, they include such features as: — count/non-count: Count nouns are nouns that can be easily pluralized and that freely (and preferentially) occur with the article; e. g. book, toy, com puter. Non-count nouns normally do not pluralize and, if they do, they typically indicate different sub-types of the noun, not multiple instances of it; e. g. wines, soups. They typically occur with articles with more difficulty than non-count nouns do; usually they require or prefer some sort of modifier (such as an adjective or relative clause) to appear when the article does. Compare: *John drank a wine John drank a fine wine *I would prefer a soup I would prefer a soup made with more spices — abstract: Abstract nouns are similar to non-count nouns in that they do not freely occur with articles, but differ from them in some respects. Typically, they do not pluralize at all: *sincerities, *pities, etc. Moreover, those that do pluralize have a distinct, albeit related, meaning. Compare hostility and hostilities. Though the two words are related, the singular word indicates an emotional state, while the plural indicates a state of conflict. Also, whereas non-count nouns refer to concrete objects, abstract nouns usually refer to concepts, etc, hence the name. — animate: These are nouns that refer to living things: cat, shark, hamster, rabbit, etc. — human: These nouns are a subset of

338

animate nouns; they refer to people: woman, man, priest, waitress, etc. — As was the case with selectional information, many natural language systems treat inherent features as semantic, rather than syntactic, except for those that have some direct syntactic reflex. For example, features such as animate or human might be handled in the semantics, while features such as abstract or non-count might be handled in the syntax, since they affect whether the word can occur with an article. 2.1.2. Semantics The information that is stored under the label sem antics ranges from pointers to semantic rules or concepts in a semantic network to information that might be treated as syntactic. It has already been noted that some types of selectional information and inherent features are often treated as semantic. Since there are so many different ways of dealing with semantics in natural language systems, semantic information will not be discussed in detail in this chapter, except as it affects general lexicon design considerations. 2.2. Inter-Word Information The information that falls into this category relates a word to other words. The principle type of information of this sort is morphological, but there are others, as well. 2.2.1. Morphology This is information that relates a word to others that are formed from it. There are two types of morphological information. — Inflectional: This is information that determines the actual surface (orthographic) realization of a word in an inflectable category such as noun or verb. This is the information that determines, for example, that the past tense of English see is saw, while that of help is helped and that the past tense of German sehen („to see”) is sah. Various categories are inflected. Among the common inflected categories, in Indo-European languages, at least, are nouns, verbs, and adjectives. In language with a rich morphology, other categories, such as articles and quantifiers, inflect as well. — Derivational: This is information that relates a word to other words that are built off of it. This is the type of information that relates destroy and destruction, bad and badly, etc. Typically, derivational morphological information is only stored in the lexicon of

VIII. Computer Simulation of Language II: SystemsComponents

generation systems. 2.2.2. Abbreviations/Acronyms In written language, it is common to replace one expression with a shorter one that is either a truncated version of the expression (an abbreviation) or a combination of the initial letters of each word of the expression (an acronym). Examples are dept. for department and Abb. for Abbildung („illustration”) (abbreviations) and M. I. T. for Massachusetts Institute of Technology and usw. for und so weiter („and so on ”) (acronyms). A few natural language processing systems provide facilities for specifying such replacements. 2.2.3. Synonyms Since many natural language systems are used to retrieve information from data bases or other knowledge stores, they often provide a facility for defining multiple ways of „saying the same thing”. For example, in an administrative data base, it might be useful to define Departm ent 45 as synonymous with The AI Departm ent. In some systems, the mechanism that is used to define synonyms is the same as that used to define abbreviations or acronyms. 2.2.4. Other Intra-Word Information In addition to the types of intra-word information already discussed, there are also the cases of multiple word senses, collocations, and idioms. Since a proper discussion of these types of information depends on the distinction between words, lexical entries, and word senses, which is made in Section 3 .1, presentation of these topics is postponed until then.

3.

General Storage Issues

Section 2 introduced the types of information that are stored in lexicons. This section introduces the considerations that are used to group that information into units (lexical entries). 3.1. Words, Lexical Entries, and Word Senses In discussing the structure of a lexicon, it is necessary to distinguish the kinds of information stored and the ways of storing/associating them. Perhaps the easiest way to get a handle on things is to consider the matter from the standpoint of a parser. A parser is

339

word → [morphological analysis] → [syntactic analysis] → [semantic analysis] Fig. 30.1: One to one relation between a word and its analyses

Fig. 30.2: One to many relation between a word and its category analyses

presented with one or more sentences; each sentence, in turn, is made up of sequences of characters delimited by whitespace (ignoring punctuation for the moment). Let us call such strings of characters orthographic words or, simply, words. It is the task of the parser, ultimately, to associate each word with at least one syntactic analysis and, ultimately, in a full understanding system, at least one semantic analysis. In the case of inflected categories, such as nouns and verbs, morphological analysis may be necessary, prior to syntactic analysis. In the simplest model, there would be a one to one correlation between a word and its morphological, syntactic, and semantic analyses. This model is illustrated in Fig. 3 0.1. However, this is not always the case. The one to one correlation breaks down in the following ways: — A word may be associated with more than one syntactic analysis. There are two cases of this: — A word may be associated with more than one categorial analysis. For example, the orthographic word intim ate may be either an adjective or a verb. Note that, as a verb,

intim ate may be analyzed either as a first person singular present form, a plural present form, or a non-finite form. Categorial analysis, then, can include morphological analysis, if the word is a member of an inflected category. This is illustrated in Fig. 3 0.2. (The various terms used in Figures 3 0.2 through 3 0.5 are meant to be suggestive of the distinctions under consideration. They should not be interpreted as having any theoretical status.) — A word may be associated with more than one sub-categorial analysis. For example, the orthographic word went may be either an intransitive verb that occurs with an optional directional phrase, as in „John went to the store”; or it may be a verb that occurs with an adjective phrase: „John went crazy”. This is illustrated in Fig. 30.3. — A single syntactic analysis may be associated with more than one word. For example, John McCarthy is a single proper name consisting of two orthographic words. This is illustrated in Fig. 30.4. — A single syntactic analysis may be associated with more than one semantic analysis. For example, m ouse as a singular noun may

Fig. 30.3: One to many relation between a word and its subcategory analyses

340

VIII. Computer Simulation of Language II: SystemsComponents

Fig. 30.4: Many to one relation between word and syntactic analysis

Fig. 30.5: One to many relation between a word and its semantic analyses

refer either to a type of rodent or to a pointing device. This is illustrated in Fig. 30.5. Mediating among all these different levels of analysis is the lexicon. The lexicon typically contains yet another unit of analysis: the lexical entry. This is a unit that contains information about orthography (i. e. the word or words that make up a given entry), morphology (i. e. the words or entries that are related to the current entry), syntax (i. e. category and subcategory information for the entry), and semantics (i. e. the interpretation of the entry). — Since the terms (orthographic) word and lexical entry have been introduced, it is time to define one last term: word sense. As used here, a word sense represents a single syntactic or semantic analysis. An orthographic word will have more than one sense if it is associated with more than one syntactic or semantic analysis. For example, in the examples given above, intim ate, went, and mouse would all have more than one word sense. While lexicons differ with respect to the information that they store, perhaps the greatest difference among lexicons stems from the relations that they impose between words, lexical entries, and word senses. Moreover, what constitutes a word sense (i. e. a single syntactic or semantic analysis) is not given a priori and those system that do distinguish word senses may differ as to how they assign word senses. Section 4 will examine how the decisions made about the relation between words, word senses, and lexical entries affect the form in which this information is stored. 3.1.1. Word Senses and Lexical Entries Now that the notions of lexical entry and word sense have been introduced, it is possible to see how they interact. There are three types of word sense distinction that are relevant to the question of how word senses and lexical entries are related: — Multiple category analyses

This occurs when one orthographic word is associated with more than one category. The case of intim ate as an adjective vs. intim ate as a verb, as illustrated in Fig. 3 0.2, is an example of this. — Multiple subcategory analyses This occurs when one orthographic word is associated with more than one subcategory. Since most system usually store only contextually determined subcategory information, this is usually the only type of subcategory ambiguity that is relevant for the present discussion. The case of went as a motion verb (go to Florida) vs. went as a verb of mental state change (go crazy), as illustrated in Fig. 30.3, is an example of this. — Multiple semantic analyses This occurs when one orthographic word is associated with more than one semantic interpretation. The case of m ouse as an animal vs. m ouse as a pointing device, as illustrated in Fig. 30.5, is an example of this. — The designer of a lexicon must decide which, if any, of these differences in word sense are to be expressed by having different lexical entries. Existing systems differ greatly with regard to this point. Some systems are arranged in terms of words; that is, any word, no matter how many category, subcategory, or semantic analyses it may have, constitutes a single entry. Other systems distinguish word senses by having a separate entry for each word sense but differ as to where they ’draw the line’, as it were. Some systems have separate entries for each categorial analysis, but do not distinguish subcategorial or semantic analyses. Others have separate entries for each syntactic (categorial or subcategorial) analysis but not for different semantic analyses. Finally, some systems do not correlate word senses with separate entries, but do associate them with subentries. This can be useful in the case of irregularly inflected words with multiples senses, since the subentry mechanism allows the irregularities to be stated once. Systems with separate entries

30.  Simulation of Language Understanding: Lexical Recognition

must either have a way of sharing this information among the entries or must duplicate the information by restating the information in each entry. — Systems that distinguish word senses may use different criteria to distinguish what constitutes different word senses. For example, words like eat, drink, etc., which are transitive, can omit their (direct object) complements relatively freely. Should this variation in overtly occurring complements be treated as a difference in subcategorization, and, hence, in word sense, or should each of these verbs be treated as having a single subcategorization frame with an optional complement and, hence, a single word sense? Again, consider verbs such as see, hear, etc. Such verbs, seemingly without exception, take the same set of subcategorization frames: a finite complement with that (see/hear that John is leaving), a noun phrase + participle complement (see/hear John leaving), a noun phrase + bare verb complement (see/hear John leave). Should each subcategorization frame be treated as a separate word sense or should the entire set of subcategorization frames be treated as one word sense? Different linguistic theories and language processing systems answer these questions differently. 3.1.2. Collocation (Multi-Word Lexical Entries) Frequently, a lexical entry is made up of more than one orthographic word. This is known as collocation. There are two subcases of collocation: — The words make up a single (non-phrasal) constituent: This occurs in the case of proper names (John McCarthy, Long Island) and multi-word grammatical formatives (in addition to, in back of, such that). In this case, there is a single, non-phrasal category associated with the entire expression. — The words make up more than one (non-phrasal) category: This happens in the case of lexical items that must co-occur with a particular word, rather than an entire category. This happens most frequently in the case of verbs, as in the examples of the English verb + particle (He blew up the building / He blew the building up) and prepositional verb (They called at the hotel) constructions discussed by Quirk/Greenbaum (1973). 3.1.3. Idioms Idioms might be considered a special case of multi-constituent collocation. Idioms are

341

distinguished from collocations by a number of criteria: — Non-compositional semantics: Typically, the interpretation of an idiom is not derivable from its component parts: kick the bucket, the cat’s got X’s tongue. — Fixedness: Often an idiom, unlike a case of collocation, is a fixed expression, specifying an entire complement structure, rather than some subpart. Contrast kick the bucket (idiom) with call on NP (collocation). This is not universally true of idioms, since some do allow non-fixed elements to appear as part of the complement structure: the cat’s got NP’s tongue, take advantage of NP. Note. however, that even in these cases, much more of the complement structure is specified than in the case of collocation. Also, lexical items, and not merely grammatical formatives (such as determiners), are specified in these examples. — Violation of grammatical constraints: The idiom „take advantage of” presents a good example of this. First, it violates the normal subcategorization frame of take, which does not permit of as the preposition following the object NP: John took books from /to/*of Bill. Second, advantage appears without a determiner in this idiom, though it normally requires one: I can see *(the) advantage in that. 3.2. Storage Strategies for Lexicons Cutting across the issues of how a lexicon relates lexical entries with words and word senses and the types of information stored is the general question of the storage strategy employed. There are several issues here. — Should there be a separate lexicon? Some grammar formalisms and natural language systems require a separate lexicon as a repository for the types of information discussed in Section 2. Other grammars treat such lexical information essentially as a type of annotation on phrase structure rules. In such systems, there is no need for a separate lexicon, since ‘lexical insertion rules’ are really nothing more than another type of phrase structure rule. However, in practice, there may actually be such a separate lexicon. This is determined by the treatment of the next issue. — Does the lexical information used by the system come from the permanent lexicon or from a virtual lexicon? There are three related issues here: (1) Does the grammar require all forms of a lexical entry to be available? Many of the

342

unification-based grammar formalisms, such as Generalized Phrase Structure Grammar (GPSG) (Gazdar/Klein/Pullum et al. 1985), do, in fact, make this requirement. It is also possible to decide to store all forms in the lexicon to improve processing efficiency. (2) If it does, should all entries be actually stored or should they be generated on demand? Church (1980, 100) introduced the notion of a virtual lexicon, as distinct from a permanent lexicon. While the grammar used in a particular system may require that all the inflected forms of a lexical entry be available on demand, this does not mean that they actually need to be stored in the permanent lexicon (the lexicon that physically resides on disk or whatever storage medium in used). All that is required is that they be available when needed. A virtual lexicon is a mechanism for doing just this; it stores the minimal amount of information required in the permanent lexicon and provides a mechanism, such as a morphological analysis program, for generating other entries when they are needed by the grammar. (3 ) If all entries are to be stored, are they to be entered by hand or automatically generated? Some systems, in order to improve efficiency, store all the inflected forms of a lexical entry in the permanent lexicon rather than generating them on demand. Nevertheless, they do not require that all inflected forms be entered by hand. Typically, only the base forms of regularly inflected words are entered by hand, with the other forms generated automatically and stored in the permanent lexicon. Such systems effectively incur the expense of morphological analysis only once, when the permanent lexicon is ’compiled’, as it were, from the information entered by the system maintainers. — Should there be more than one lexicon? It is possible for a system to contain several lexicons. For example, it is possible to have one lexicon that stores only syntactic and morphological information about lexical entries and another that stores semantic information. These are questions that cannot be answered by viewing the lexicon in isolation; they can only be answered by considering the nature of the associated grammar and the requirements that it places on the lexicon.

VIII. Computer Simulation of Language II: SystemsComponents

4.

The Form of Lexicons and Lexical Entries

This section surveys the formats of existing lexicons to illustrate the choices that previous lexicon designers have made and the mechanisms that they have developed. 4.1. Formats for Subcategory Information Before looking at the format in which particular pieces of information are stored in individual lexical items, it is necessary to address another general lexicon design decision. Should lexical items be classified by means of complex symbols or not? That is, are lexical items to be classified in terms of a set of categories and then subclassified by subcategory features? Or are category and subcategory information to be combined? The difference between these two approaches is between a lexicon that categorizes a lexical entry as being a verb with the subcategory feature transitive and one that classifies a lexical entry as a transitive-verb, as a single category. Subcategorization information is not the only sort of material that can be combined with category information in this way. Morphological classification can also be combined with category information. An example of a lexicon that combined this information is that of the Harvard Multi-path English Analyzer (Kuno/Oettinger 1963 a). Such a system has the advantage of compactness of notation, but it has the disadvantage of multiplication of categories; the Harvard Multi-path English Analyzer had 13 3 syntactic word classes. The LSP system (Sager 1981) uses a dictionary in which category and subcategory information is distinguished, but in which there are separate categories for inflected verb, infinitive, present participle, and past participle. Most systems do not use a lexical specification system that combines category and subcategory information into a single class. Rather, they use a system in which a lexical entry is cross-classified with respect to category and subcategory. Systems may do this in several ways. Some distinguish different syntactic categories and use a feature system of some sort to distinguish subcategories of each syntactic category. Such a dictionary formally distinguishes category and subcategory information as data structures. For example, the RUS parser (Bates/Ingria 1984) uses such a dictionary; in the RUS dictionary, categories have a value

30.  Simulation of Language Understanding: Lexical Recognition

[ACCOMPANY FEATURES (PASSIVE TRANS) V ES-ED] [BOOK N -S] From the RUS Dictionary. Fig. 30.6: Separate category and subcategory information (the inflectional paradigm that the lexical entry falls into in its use in that category) while features, which represent subcategory information, do not. This may be seen in the sample entries presented in Fig. 3 0.6. However, it is possible to encode this information uniformally, with category, subcategory, and inflectional paradigm information all represented as features. The JANUS Master Lexicon (Cumming 1986; Cumming/Albano 1986) uses this approach; sample entries are given in Fig. 30.7.

343

(SEE V %W (LEX N + V) FIRST-COMPLEMENT(NP THAT-SBAR Ø ABOUT) SECOND-COMPLEMENT(NP INFP EN WH-SBAR ∅) MPART (THROUGH)) ; % marks sublanguage use ; INFP is defined as S with Δ in the left corner (HOUSE N + V (FIRST-COMPLEMENT (NP)) Lexical entries from FIDDITCH; source: (Meer 1985, 9). Fig. 30.8: Complement slots in lexical entries An alternative approach to using features for the specification of the entire complement structure associated with a lexical entry is to specify the number of complement ‘slots’ that the lexical entry can take and specify the types of complement elements that may appear in each slot. The lexicon of the FIDDITCH parser (Bachenko/Hindle/Fitzpatrick 1983 ) uses this scheme, which is illustrated in Fig. 30.8.

[ACCOMPANY Spelling: accompany Features: (ES-ED UNITARYSPELLING OBJECTNOTREQUIRED MIDDLE ACCOMPANIMENT OBJECTPERMITTED CIRCUMSTANTION RELATIONAL INFLECTABLE VERB PASSIVE) Example sentence: A fine wine accompanied our feast Last edited by CUMMING on Tuesday the first of October, 1985; 4:29:49 pm] [BOOK Spelling: book Features: (S NOT-THATCOMP NONSUBSTITUTE COUNTABLE COMMON NOT-NOMINALIZATION NOUN) Example sentence: Read this book Last edited by CUMMING on Wednesday the thirtieth of October, 1985; 8:06:09 pm]

REQUIRE REQUIRED REQUIRES REQUIRING

From the JANUS Master Lexicon. Fig. 30.7: Category and subcategory information as features

From the Harvard Multi-path English Analyzer; source: (Kuno 1963). Fig. 30.9: Entries from a full entry lexicon

4.2. Morphological Information Several issues arise in considering how morphology is to be handled in a lexicon. There is the general question of whether all inflected forms should be stored in the lexicon — such a lexicon might be called a fullentry lexicon — and the relation of the permanent and virtual lexicons, discussed above in Section 3.2. 4.2.1. All Forms Entered Directly An early example of a system that used a full-entry lexicon where all the forms were entered by hand was the Harvard Multi-path English Analyzer. Fig. 3 0.9 presents some sample entries. Few current systems, even among those that use full-entry lexicons, require hand entry of all forms. VT1P IT1 VT6P1 IT6 1 VT1C PT1 VT6C1 PT6 1 VT1S VT6S1 RT1 GT1S RT6 GT6S

344

4.2.2. All Forms Present in Lexicon but Machine Generated As was mentioned above in Section 3 .2 certain grammar fomalisms require that the grammar have access to a lexical entry (or the equivalent phrase structure rule) for every inflected form. Some grammatical theories also argue in favor of a full-entry lexicon. However, it is clearly time-consuming and repetitious to enter every inflected form of a regular word by hand. Therefore, even though the permanent lexicon associated with such formalisms and theories is usually a full-entry lexicon, it is often compiled automatically from a specification of root forms. The lexicon for Wehrli’s (1984; 1985) GBPF parser uses such a compilation technique, generating all the inflected forms of a word based on directions specified by the user. Wehrli (1985) argues for the structure of his lexicon on both theoretical and efficiency grounds. The PLIDIS system (Berry-Roghe/ Wulz 1978) for analyzing German also uses a full-entry lexicon, although the primary motivation for this decision was one of efficiency. In earlier versions of the system, there was a morphological analysis procedure. However, this process was found to be too slow. Later versions of the system incorporated a full entry lexicon, which is compiled from user specifications. In effect, PLIDIS runs the former morphological analysis procedure ‘in reverse’ to produce a fully specified lexicon. The first implementation of the RITA system (Ershov/Mel’chuk/Nariniany 1975) also used a full entry lexicon. 4.2.3. All Forms Present in Virtual Lexicon Many systems that require a lexical entry or rule for each inflected form, utilize the strategy of a virtual lexicon, which was introduced above in Section 3 .2. PATR-II (Shieber/ Uszkoreit/Pereira et al. 1983 ) and the BBN Context Free Grammar are systems that, in effect, utilize a virtual lexicon scheme with the required lexical entries being produced on demand by a morphological analysis procedure. Since the form that entries take in the permanent lexicon associated with such a virtual lexicon depends on the decision about how morphological information is to be represented, the form of the morphological information for such systems is discussed in the next section. 4.2.4. Specifying Inflectional Paradigm and Irregularity

VIII. Computer Simulation of Language II: SystemsComponents

Systems that do not have a full-entry permanent lexicon are forced to face the question of how morphological information is to be represented. Irregular forms must always be present somewhere in the lexicon; it is regularities that pose a question for such systems. Should a regular entry contain a specification of the inflectional paradigm that it belongs to? Or should the system contain a morphological analysis procedure so that only the roots of regularly inflected forms need to be entered? This section explores some of the answers that various lexicons have given to these questions. Note, once again, that the answers to these questions cannot be made purely local to the lexicon. The form that morphological information takes in the lexicon must be consistent with the format expected by the grammar. One method of specifying regularities, which is quite common, is to specify inflectional paradigms for inflected categories by the use of morphological features. RUS and the JANUS Master Lexicon use this mechanism. For example, the definition of book in IRUS, shown in Figure 3 0.6 has the morphological feature -S, indicating that its plural is formed by adding -s. The verb accom pany, in the same example, has the morphological features ES-ED, indicating that its third person singular present is formed by adding -es and its past if formed by adding -ed. The corresponding examples from the JANUS Master Lexicon in Figure 3 0.7 use similar feature specifications. Some systems do not place inflectional information in the lexicon at all but rely on a morphological analyzer to determine the inflected forms of regularly inflected words. Words for N (FOOT (TYPE COUNT)) (THING (TYPE COUNT)) Irregular Forms in N (FEET (FOOT -S)) Words for V (GO (PPL EN)) (TRY (INFOBJ T)) Irregular Forms in V (GONE (GO EN)) (WENT (GO ED)) Form Diagram; source: (Robinson 1980, 41—42). Fig. 30.10: Regular and irregular forms in DIAGRAMM

30.  Simulation of Language Understanding: Lexical Recognition

give persuade

V (Past gave) (PastPrt given) TakesNPNP triadic, V TakesNPInf Triadic ObjectControl.

From PATR-II; source: (Shieber et al. 1983, 78) Fig. 30.11: Regular and irregular forms in PATRII Such system typically include only the base form in the lexicon, along with irregularly inflected forms. There are several different variants of this approach. In DIAGRAM (Robinson 1982), regularly inflected forms are entered in the lexicon with no paradigm information. The base of an irregularly inflected form is entered in the lexicon and, in the case of irregular verbs, may include an indication of the ending of the past participle form; the associated irregularly inflected forms are stored as separate lexical entries. Fig. 3 0.10 gives some examples of this. The PATR-II lexicon uses a somewhat different scheme. Again, regularly inflected forms are stored in the lexicon with no paradigm information. However, the inflected forms of irregular words are not stored as separate entries, but rather are included as part of the lexical entry of the base form. Fig. 30.11 illustrates this. The lexicon of the BBN Context Free Grammar uses a further variation of this (rain V category V base rain subcatframes ((intransitive (ItNP))) (be category V subcatframes ((Be))) (have category V subcatframes ((Have))) (bet V category V base bet subcatframes ((gamble)) past bet EdParticiple bet) (see category V base see subcatframes ((NP-VP :agr :agrX (ReaINP) :agrX (IngParticiple) (wh-))) past saw EdParticiple seen) (giveV category V base give subcatframes ((ditransitive) (NP-PP(ToPrep)) (IntransPart(UpParticle))) past gave EdParticiple given) (manN category N base (man) plural men) (bookN category N base (book)) From the BBN Context Free Grammar lexicon. Fig. 30.12: Regular and irregular forms in the BBN Context Free Grammar

345

scheme. Lexical entries have both a name and a ’spelling’ — i. e. the overtly occurring form — indicated by the feature base. Names and spellings are kept distinct to allow for separate entries for different categorial analyses of a word. Regularly inflected forms have no paradigm information. Irregularly inflected forms contain information about their corresponding past tense and past participle forms. Finally, the completely irregular lexical entries, be and have, contain no morphological information whatsoever, but are handled specially by the morphological analyzer. Fig. 3 0.12 shows some examples of entries. 4.2.5. Sharing Information Among Lexical Entries for Irregular Forms Lexicons that contain separate lexical entries for the inflected forms of an irregularly inflected word face the question of where and how many times the information that is common to all the entries, such as subcategorization information, is to be stored. Does each entry contain this information or is it stated only once and shared among related entries? Full-entry lexicons also face the same question. Typically, lexicons provide a way so that this information is stated only once. Lexical entries for irregularly inflected forms may indicate the word on which the form is based. This allows subcategorization information to be stated only once, in the lexical entry of the base form. The RUS dictionary uses such a scheme. Fig. 30.13 shows [GO FEATURES (ADJCOMP INTRANS PREDADJ) ADJ NOINFLECTIONS SEMANTICS (MOVEMENT * UPGRADE *) V (GO (PNCODE X3SG) (TNS PRESENT) (UNTENSED))] [GOES V (GO (TNS PRESENT) (PNCODE 3SG))] [GOING V (GO (PRESPART))] [GONE V (GO (PASTPART))] [WENT V (GO (TNS PAST))] Form the RUS Dictionary. Fig. 30.13: Sharing information among lexical entries for irregular forms

346

(VTVPL) REQUIRE .12 = OBJLIST: .3, VSENT3, VSENT3. .3 = NSTGO, VINGSTG, ClSHOULD, NTOVO, PHTHATSVO: .15 .15 = PVAL:(↓OF↓). (TVSI) REQUIRES ↑. (ING) REQUIRING ↑. (TVVEN) REQUIRED ↑. .14 = OBJLIST: .3, VSENT2, VSENT3, POBJLIST: .4. .4 = TOVO, PN: .15, NULLOBJ. Canonical forms used in sample entries (VTVPL) = V: .12, TV: .12, PLURAL (TVSI) = TV: .12, SINGULAR. (ING) = VING: .12. (TVVEN) = TV: .12, VEN: .14. Note: Downarrow (↓) is a quotation mark. From LSP; source: (Sager 1981, 21). Fig. 30.14: Sharing information among entries in a full entry lexicon some examples of this. The DIAGRAM system also uses this device; see Fig. 3 0.10 for examples. Lexical entries for irregularly inflected forms may not only inherit information from the root form but may have a mechanism for adding other information, as well. The LSP lexicon, which is a full-entry lexicon, provides a mechanism for doing this. Related lexical entries are arranged contiguously in a file; an uparrow (↑) in a lexical entry indicates that it has the same feature specification as the preceding entry. Thus, common information does not need to be restated. On the other hand, information that is peculiar to a particular inflected form can be specified for that entry alone, in addition to the shared information. See Fig. 3 0.14, particularly the entry for REQUIRED, for an example of the use of this mechanism. 4.3. Word Senses The issue of multiple word senses raises several interesting design issues. The primary issue is whether lexical entries are going to correspond to word senses or to words. Typically, the lexicons of parsing systems tend to be organized by words rather than word senses; Bronnenberg/Bunt/Landsbergen et al. (1980, 23 0; 254—255) even argue that it is more efficient for the lexicons of parsers to be arranged this way and that one should not put ’the word-ambiguities in the lexicon’. Things are typically just the opposite for generation systems. However, some grammar formalisms, such as those based on context free grammars using unification, virtually force the lexicon to contain separate entries,

VIII. Computer Simulation of Language II: SystemsComponents

or, at least, subentries, for different word senses. The issue of subentries vs. entries interacts with the ways in which other information is stored. For example, a lexicon that has separate lexical entries for different categorial or subcategorial analyses of a word might repeat certain information common to all the senses (such as morphological information) in each entry. This occurs, for example, in the JANUS Master Lexicon, in which have has three separate lexical entries: for its use as an auxiliary, as a ‘causative’ verb, and as a simple transitive verb. However, the irregularly inflected forms of the verb are repeated in each entry. Lexicons that use subentries can eliminate this sort of duplication. For example, the BBN Context Free Grammar has separate entries for different categorial uses of a word. Within the entry for a particular coategorial use, there is a list of subcategorization frames. When the parser actually uses the lexicon, a separate entry will be created for each subcategorization; each of these entries will also include any other material that was in the entry that they were were derived from. 4.4. Collocations and Idioms Collocations and idioms are one of the areas in lexicon design where there is probably the least agreement among systems. It is also probably one of the areas where the expectations of the grammar have the strongest influence on the format of the lexicon. Though idioms and collocations were distinguished in Section 3 .1.3 ., they will be treated together here since so few systems include idioms. Moreover, the few that do, usually handle collocations and idioms with the same mechanism. There are several ways of treating collocations: — The collocation is entered directly in the lexicon, as a single lexical entry. This NEW YORK CITY

NOUS

Form the Harvard Multi-path English Analyzer; source: (Kuno 1963c): „Appendix A. The Current English Dictionary with Word Forms Alphabetically Sorted”. Words in NP ((NEW YORK)(NBR SG) (TYPE COUNT) (PROPN T)) From DIAGRAM; source: (Robinson 1980, 41—42). Fig. 30.15: Collocations entered directly in the lexicon.

30.  Simulation of Language Understanding: Lexical Recognition

technique is most frequently used with collocations that make up a single, non-phrasal constituent. Examples of this are shown in Fig. 30.15. — There is no separate lexical entry for the collocation. The elements making it up are entered as part of the lexical entry of the first word of the collocation. This technique is most frequently used with expressions involving a verb and a particle or a verb and a selected preposition. Fig. 3 0.16 shows some examples of this, as does Fig. 30.8.

.12 = .1 = .2 = .3 =

EATS TV: .12, N: .11. SINGULAR, NOTNOBJ: .1, NOTNSUBJ: .2, OBJLIST: .3. NTIME1, NTIME2, NSENT1, NSENT2, NSENT3, NHUMAN. NTIME1, NTIME2, NSENT1, NSENT2, NSENT3. DP2: .6, DP3: .6, DP4: .6, PN: .5, NSTGO,

NULLOBJ .5 = PVAL: (‘THROUGH’, ‘INTO’). .6 = DPVAL: (‘UP’, ‘AWAY’). .11 = PLURAL, NONHUMAN From LSP; source: (Grishman 1973, 99). Words for V (BUY (DIROBJ T) (INDIROBJ T) (DIRECTION FOR FROM BY)) (LOOK (DIROBJ T) (INSEPARABLE INTO) (ADJOBJ T) (PARTICLE UP)) From DIAGRAM; source: (Robinson 1980, 41—42). (remindVcategory V base remind subcatframes ((NP-PP (OfPrep)))) (argueVcategory V base argue subcatframes ((DitransPrep(WithPrep) (AboutPrep)))) From the BBN Context Free Grammar lexicon. Fig. 30.16: Collocations contained in another lexical entry. — There is a separate lexical entry for the collocation, but there is a pointer to the collocation from the first word of the collocation. The RUS dictionary uses this technique for most collocations, including the verb particle construction; Fig. 3 0.17 gives some examples. The GBPF lexicon (Wehrli 1984; 1985) also uses this technique. — The system uses a special mechanism to

347

[LOOK FEATURES (COPULA INTRANS) IMMOVABLEPARTICLES ((INTO LOOK\ INTO)) PARTICLES ((UP LOOK\UP)) V S-ED] [LOOK\INTO FEATURES (INDOBJFOR TRANS) V NOINFLECTIONS] [LOOK\UP FEATURES (INDOBJFOR INTRANS TRANS) V NOINFLECTIONS] Fig. 30.17: Collocations dependent on other lexical entries handle collocations. Two systems, BUP (Matsumoto/Masaki/Tanaka 1985) and HAM-RPM (Hahn/Hoeppner/Jameson et al. 1980) provide quite sophisticated mechanisms for dealing with collocations.

5.

Physical Storage Considerations

As lexicons become large, there are usually more efficient ways of storing them than simply as text representations of consecutive entries. Two common storage methods are: — Binary branching tree structures Cercone (1977) and Russell/Pulman/Ritchie et al. (1986) describe this method. — Random access storage Cercone/ Krause/Boates (1983 ) discuss hash functions for random access lookup.

6.

Literature (selected)

J. Bachenko/D. Hindle/E. Fitzpatrick 1983 · M. Bates/R. Ingria 1984 · G. L. Berry-Roghe/H. Wulz 1978 · W. J. H. J. Bronnenberg/H. C. Bunt/ S. P. J. Landsbergen et al. 1980 · N. Cercone 1977 · N. Cercone/M. Krause/J. Boates 1983 · N. Chomsky 1965 · K. W. Church 1980 · S. Cumming 1986 · S. Cumming/R. Albano 1986 · A. P. Ershov/I. A. Mel’chuk/A. S. Nariniany 1975 · G. Gazdar/E. Klein/G. Pullum et al. 1985 · R. Grisham 1973 · W. v. Hahn/W. Hoeppner/A. Jameson et al. 1980 · R. Jackendoff 1977 · S. Kuno 1963 · S. Kuno/A. G. Oettinger 1963 a · Y. Matsumoto/K. Masaki/H. Tanaka 1985 · V. S. Meer 1985 · R. Quirk/S. Greenbaum 1973 · J. J. Robinson 1982 · G. J. Russell/S. G. Pulman/G. D. Ritchie et al. 1986 · N. Sager 1981 · S. Shieber/H. Uszkoreit/F. Pereira et al. 1983 · E. Wehrli 1984 · E. Wehrli 1985.

Robert J. P. Ingria, Cambridge, Massachusetts (USA)

VIII. Computer Simulation of Language II: SystemsComponents

348

31. 1. 2. 2.1. 2.2.

Parsing natürlicher Sprachen: Grundlagen

4.7.

Vorbemerkung Grundlagen Definitionen Das Verhältnis von Grammatikformalismus, Grammatik und Parser Parameter für die Grammatik Phänomene der natürlichen Sprache Anforderungen an Grammatikformalismen Bestimmungsstücke für Grammatiken Parameter für den Parser Technische Voraussetzungen Bestimmungsstücke des Parsers Abarbeitung der Eingabe und der Grammatik Erzeugung und Verwaltung von Ergebnissen Verfahren bei Alternativen Interaktion von Syntax, Semantik und Pragmatik Ausgabe einer Strukturrepräsentation

1.

Vorbemerkung

3. 3.1. 3.2. 3.3. 4. 4.1. 4.2. 4.3. 4.4. 4.5. 4.6.

Die Konzeption des Artikels. Ziel der folgenden Ausführungen ist es, die Information zu bieten, die man benötigt, um einen Parser zu konstruieren. Es gibt allerdings zahlreiche Möglichkeiten, wie die Parsingkomponente im Rahmen eines sprachverarbeitenden Computersystems gestaltet werden kann. Im vorliegenden Teil (Art. 3 1) wird versucht, systematisch die Alternativen zusammenzustellen, unter denen eine Auswahl getroffen werden muß, wenn man einen Parser entwirft. Dieser Teil ist als Entscheidungshilfe gedacht. Im folgenden Teil (Art. 3 2) werden exemplarische Realisierungen von Parsern dargestellt. An ihnen kann man das Zusammenspiel sowie Vor- und Nachteile der verschiedenen Einzelentscheidungen studieren. Es sind natürlich viele weitere Kombinationen der vorhandenen Mittel und vielleicht auch ganz neue Wege denkbar. Die beispielhafte Darstellung von Parsern soll den Leser letztlich dazu anregen, selbst einen neuen Parser zu erfinden. Eine Literaturauswahl befindet sich am Ende von Art. 32. Die Beschreibungsebene. Der Artikel bewegt sich bewußt nicht auf einer mathematischen Beschreibungsebene. Es soll relativ direkt dargestellt werden, wie sich die Phänomene der natürlichen Sprache mittels bestimmter Programmiertechniken erfassen las-

sen. Dadurch hoffe ich, das Transferproblem zu umgehen, das zwischen den Kenntnissen des Sprachwissenschaftlers, des Informatikers und des Programmierers besteht. Ich nehme an, daß es für viele Leser leichter ist, aus dem Verständnis konkreter Beispiele heraus generelle Zusammenhänge zu erfassen, als umgekehrt eine abstrakte mathematische Darstellung auf linguistische Fakten und die unmittelbare Programmieraufgabe zu beziehen. Der mathematisch vorgebildete Leser findet in der angegebenen Literatur genügend formale Darstellungen.

2.

Grundlagen

2.1. Definitionen Parsing wird enger oder weiter definiert, je nach den hinzugenommenen Bestimmungsstücken. Man versteht darunter (i) die Zuordnung einer Strukturbeschreibung zu Zeichenfolgen; (ii) die Zuordnung einer Strukturbeschreibung zu Sätzen als Einheiten einer besonderen Ebene des Sprachsystems; (iii) die Zuordnung einer disambiguierten semantischen Repräsentation zu einer Äußerung als Teil des Sprachverstehens. Die drei Definitionen sind je für die Disziplinen Informatik, Linguistik, Künstliche Intelligenz charakteristisch. Ein Parser ist ein Computerprogramm, das im Sinne von (i) bis (iii) einer natürlichsprachigen Eingabe eine Struktur zuordnet. Die form ale Definition. Bestimmte Objekte bestehen aus Folgen von Elementen. Die Folgen sind aber nicht beliebig, sondern die Elemente haben eine bestimmte Distribution. Die Objekte weisen implizit einen bestimmten Aufbau auf. Dieser Aufbau ist ihre Syntax in einem formalen Verständnis des Begriffs. Im allgemeinsten Sinn von Parsing geht es darum, diesen Aufbau zu erkennen und explizit zu machen (vgl. Foster 1971, 6 f.). Nach dieser Definition spielt es keine Rolle, von welcher Art die Objekte und Elemente sind, ob es sich um Teile eines Programms handelt oder um Einheiten einer natürlichen Sprache wie Silben, Sätze, Texte. In der Tat sind ein Großteil der im folgenden dargestellten Parsingmethoden anwendbar, wo immer es gilt, Strukturen aufzudecken.

31.  Parsing natürlicher Sprachen: Grundlagen

Die linguistische Definition. In der Linguistik wird unter Syntax nicht jedweder Aufbau verstanden, sondern vielmehr der einer bestimmten Ebene des Sprachsystems. Die genaue Bestimmung dieser Ebene ist theorieabhängig. Die vorherrschende Ansicht ist die, daß Sätze oder satzwertige Einheiten eine herausragende Rolle im Sprachsystem spielen. Als Syntax einer Sprachbeschreibung wird daher im allgemeinen die Komponente bezeichnet, in welcher der Aufbau der Sätze der betreffenden Sprache beschrieben wird (Kratzer/Pause/v. Stechow 1973 , 3 ). Häufig wird der Begriff Syntax jedoch noch eingeschränkt, indem zwischen Satzsyntax und Satzsemantik unterschieden wird. Während die Syntax den Aufbau der Sätze festlegt, behandelt die Satzsemantik die Frage, welche Beziehungen zwischen den Sätzen bestehen. Als Kriterium der Satzsemantik wird vor allem das Wahrheitswertverhältnis der Sätze herangezogen. Dies darf nicht so mißverstanden werden, als sei die Beschreibung des Aufbaus von Sätzen ohne Berücksichtigung der daran geknüpften Bedeutungsunterschiede möglich. Die Syntax hat vielmehr genau die Einheiten zu liefern, welche für die Bedeutungsbeziehungen konstituierend sind. Ein Parser im linguistischen Sinn ordnet demnach Sätzen und Satzteilen eine semantisch interpretierbare Struktur zu. (Hays 1966 a, 73 ; Hays 1967, 106; Brockhaus 1971, 31; Kilbury 1984, 1 f.) Die Definition in wissensbasierten System en. Natürlichsprachige Computersysteme sollen aktuelle Eingaben verarbeiten. Sie haben es also nicht nur mit Sprache als System, sondern mit Sprache im Gebrauch zu tun. Äußerungen müssen tatsächlich interpretiert, d. h. im pragmatischen Kontext zu einem aktuellen Objektbereich in Beziehung gesetzt werden. Das Modell des Objektbereiches liegt in den Systemen in Form einer Wissensbasis vor. Das Programm soll über dieser Wissensbasis Operationen durchführen, u. a. Information auffinden, Schlußfolgerungen ziehen, Antworten generieren. Dafür ist eine geeignete semantische Repräsentation eine Voraussetzung. Anstelle der Ebenen des Sprachsystems tritt daher in natürlichsprachigen Systemen eine andere Aufteilung in den Vordergrund: (i) eine Analysekomponente, welche natürlichsprachige Eingaben in die semantische Repräsentation überführt und sie dabei disambiguiert, (ii) eine Deduktionskomponente, die semantische Reprä-

349

sentationen verarbeitet, (iii) eine Generierungskomponente, welche semantische Repräsentationen in natürlichsprachige Ausgaben überführt. Die Unterscheidung von linguistischen Ebenen ist für jede dieser Komponenten ein internes Problem. Wesentlich ist, daß jede Komponente ein zusammenhängendes Design hat, sodaß sie als ganze ihre Aufgabe erfüllt. Die Aufgabe des Parsers geht hier in der Aufgabe der Analysekomponente auf, Texte in eine Wissensrepräsentation zu überführen. (Vgl. Wilks 1983 ; Christaller 1985.) 2.2. Das Verhältnis von Grammatikformalismus, Grammatik und Parser Das Problem der Gram m atik. In systematischer Mehrdeutigkeit werden die Eigenschaften einer Sprache sowie die Beschreibung dieser Eigenschaften „Grammatik„ genannt. Der Begriff ist hier umfassend gemeint. Er soll Satzsyntax und Satzsemantik einschließen, ebenso den Wortschatz. Ein Parser ist genauer zu bestimmen als ein Programm, das einer vorliegenden Zeichenkette relativ zu einer gegebenen Grammatik eine Beschreibung zuweist. Für Kunstsprachen bildet die Grammatik kein Problem. Sie werden ja gerade dadurch geschaffen, daß man für sie ausdrücklich eine Grammatik festlegt. Man hat es zudem in der Hand, Kunstsprachen so zu ändern, daß sie sich einfacher beschreiben und leichter parsen lassen. Im Unterschied dazu müssen die Eigenschaften natürlicher Sprachen erst empirisch ermittelt werden. Auch lassen sich natürliche Sprachen nicht zum Zwecke der leichteren Beschreibung und Verarbeitung manipulieren. Sie sind einfach gegeben. Das Schreiben einer Grammatik bildet beim natürlichsprachigen Parsing daher einen wesentlichen Teil der Aufgabe. Dies macht einen entscheidenden Unterschied zwischen dem Parsing formaler Sprachen, wie es in der Informatik gelehrt wird, und der maschinellen Analyse natürlicher Sprachen aus. Gra m m atikfor m alis m us, Gra m m atik und Parser. Es stellen sich drei Aufgaben. (i) Zunächst muß ein brauchbares Beschreibungsinstrumentarium für Grammatiken natürlicher Sprachen überhaupt geschaffen werden. Die Lösung dieser Aufgabe hängt natürlich von theoretischen Annahmen darüber ab, welcher Art die sprachlichen Phänomene sind, und welches Grammatikmodell diese

350

Phänomene adäquat abbildet. Solche Annahmen haben zu verschiedenen Grammatikformalismen geführt. So unverantwortlich es wäre, einen Parser zu konstruieren, ohne den Stand der theoretischen Grammatikforschung zu berücksichtigen, so sehr kann die Grammatiktheorie von den Erfahrungen beim Parsen der verschiedenen Modelle profitieren. (ii) Sodann ist für jede einzelne Sprache, die der Parser verarbeiten soll, tatsächlich eine Grammatik in dem gewählten Formalismus zu schreiben. Diese Aufgabe ist eine empirische, die angesichts der Komplexität der einzelnen Sprache noch für lange Zeit das schwierigste Problem darstellen dürfte. Parserentwicklung ist hier an die Ergebnisse der einzelsprachigen Linguistik gebunden. (iii) Schließlich muß der Parser selbst entwickelt werden, d. h. ein mechanisches Verfahren, das auf irgendeine Weise entscheidet, ob eine vorliegende Äußerung unter eine der Beschreibungen der Grammatik fällt, und wenn ja, unter welche. Gram m atik-Parser-Kom bination. In einer heute gängigen Terminologie läßt sich der Zusammenhang von Grammatikformalismus, Grammatik und Parser als der von Wissensrepräsentation, Wissen und Wissensverarbeitung charakterisieren (vgl. Christaller 1985, 162). Für jeden dieser drei Problembereiche gelten eigene Kriterien, z. B. Ausdruckstärke für den Formalismus, Korrektheit für die Grammatik, Effizienz für die Verarbeitung. Alle drei sind entscheidend. Eine geeignete Grammatik-Parser-Kombination ist daher die wichtigste Aufgabe, die es beim Entwurf eines maschinellen Analysesystems zu lösen gilt. Rein äußerlich gibt es zwei Möglichkeiten für das Design einer Analysekomponente: (i) Grammatik und Parser sind getrennt. (ii) Grammatik und Parser sind integriert. Trennung von Gram m atik und Parser. Die Grammatik existiert unabhängig vom Programm als eine Datenmenge. Der Parser liest sowohl die natürlichsprachige Eingabe wie auch die Grammatik ein, vergleicht beide und erzeugt eine Ausgabe. Die Grammatik ist hier eine Beschreibung der Objektsprache in deklarativer Form, d. h. es wird dargestellt, wie die grammatischen Strukturen aussehen, nicht wie man sie erzeugt oder erkennt. Der Parser fußt nur auf der Syntax des Gramma-

VIII. Computer Simulation of Language II: SystemsComponents

tikformalismus, nicht auf den Inhalten der Grammatik. Je nach der Form der grammatischen Aussagen wendet das Programm bestimmte Erkennungsstrategien auf die natürlichsprachige Eingabe an. In der Terminologie der Informatik handelt es sich bei dem Parser um einen Interpreter (vgl. Aho/Sethi/ Ullman 1986, 3 ). Das System hat folgende Architektur:

Abb. 31.1: Interpretierender Parser

Integration von Gram m atik und Parser. In diesem Fall wird das Wissen über die Sprache schon unter dem Aspekt der Analyse formuliert. Die Grammatik ist hier eine Beschreibung der Objektsprache in prozeduraler Form, d. h. sie besteht aus einer Menge von Anweisungen zum Erkennen von Ausdrücken. Häufig wird eine allgemein zur Verfügung stehende Programmiersprache, wie LISP, zum Schreiben der Grammatik benutzt. (Winograd 1972, Charniak/Riesbeck/ McDermott 1979). Der Parser führt die Anweisungen einfach aus. Es gibt keine Trennung von grammatischen Daten und Programm. Die Daten sind das Programm. Das System hat folgende Architektur:

Abb. 31.2: Prozeduraler Parser

Parsergenerator. Die beiden Möglichkeiten lassen sich verbinden. Wie im ersten Fall existiert die Grammatik zunächst unabhängig vom Parser. Sie wird jedoch nicht in dieser deklarativen Form zum Analysieren benutzt, sondern erst in eine prozedurale Form gebracht. Dies geschieht automatisch mit Hilfe einer zusätzlichen Komponente im Sy-

31.  Parsing natürlicher Sprachen: Grundlagen

stem: dem Parsergenerator (Aho/Sethi/Ullman 1986, 257 f.). Dieser ist im Sinne der Informatik ein Compiler. Er erzeugt, unter Umständen über einige Zwischenstufen, auf der Grundlage der Syntax des Grammatikformalismus, ein ausführbares Programm, das die Grammatik als unmittelbare Anweisung zum Erkennen der sprachlichen Eingabe enthält. Das System hat folgende Architektur:

Abb. 31.3: Compilierter Parser

Vorteile der Trennung von Gram m atik und Parser. In natürlichsprachigen Analysesystemen sollten die Beschreibung der Sprache und die Verarbeitung im Parser getrennt werden. Es gibt dafür folgende Gründe. (i) Getrennt können sowohl die Grammatik als auch der Parser leichter verbessert werden. Fehlerquellen sowie die zu treffenden Maßnahmen sind bei beiden grundverschieden: Die Grammatik muß auf Übereinstimmung mit den linguistischen Fakten überprüft werden; das Programm verlangt vor allem Korrekturen in der Kodierung und der Ablauflogik. Da sowohl Fehler in der Grammatik wie Programmfehler zum Scheitern der Analyse führen, ist in einem prozeduralen System schon die Lokalisierung des Versagens ein Problem. (ii) Wenn der Parser nur an das Format der grammatischen Beschreibung gebunden ist, nicht aber an deren Inhalt, kann das Programm fertig gestellt werden, ohne daß die Grammtik schon endgültig vorliegt. Änderungen der Grammatik sind beim heutigen Stand der Wissenschaft praktisch unbegrenzt notwendig. (iii) Bei der Trennung von Daten und Programm können verschiedene Sprachen mit demselben Parser verarbeitet werden. Nur die Grammatik als Datensatz muß jeweils ausgetauscht werden. (iv) Im

351

Idealfall kann dieselbe Grammatik auch vom Generator benutzt werden, also von der Komponente, welche die interne Repräsentation in natürliche Sprache zurückübersetzt. (v) Eine vom Programm unbhängige Grammatik kann so geschrieben sein, daß sie auch außerhalb des Computersystems benutzbar ist. Eine in einer Programmiersprache verfaßte Grammatik ist dagegen für Außenstehende nicht lesbar. Da das Problem der vollständigen Beschreibung natürlicher Sprachen noch lange nicht gelöst ist und sich auch nur mit Hilfe des Computers wird lösen lassen, ist der leichte Transfer des Wissens aus der Linguistik in die Computeranwendung und umgekehrt ein entscheidender Gesichtspunkt. Sim ulation psychischer Prozesse. Anders stellt sich die Frage nach dem Verhältnis von Grammatik und Parser wenn die Analyse mit dem menschlichen Sprachverstehen nicht nur ergebnisgleich sondern auch ablaufgleich (Bátori 1981a) sein soll. In diesem Fall werden mit den Prozeduren des Parsers (psycho)linguistische Ansprüche verknüpft. Der Parser hätte damit ebenso wie die Grammatik den Status einer linguistischen Theorie. Beschreibt die Grammatik sprachliche Strukturen, so beschreibt der Parser sprachliche Prozesse. Er müßte so konstruiert sein, daß er eine Erklärung dafür abgeben könnte, wie Menschen offensichtlich relativ mühelos sprachliche Strukturen erkennen. Derartige Ansprüche werden besonders im Rahmen der Künstlichen Intelligenz erhoben, ohne daß jedoch bisher für bestimmte Parsingverfahren empirische Evidenz erreicht werden konnte. (Vgl. Kaplan 1972; Marslen-Wilson 1975; Fodor/Frazier 1980; Cottrell/Small 1984; Krems 1984; Crain/Fodor 1985 sowie die unter 4.6. angegebene Literatur.) Das Verhältnis von Gram m atik und Weltwissen. Wir haben oben zwischen Satzsyntax und Satzsemantik unterschieden. Erstere beschreibt den Aufbau von Sätzen, letztere die logisch-semantischen Beziehungen zwischen Sätzen. Dabei liefert die Satzsyntax die Einheiten, auf die sich die Beschreibung der Satzsemantik stützt. Die beiden Komponenten werden zwar unterschiedliche Regelmengen beinhalten (Aufbauregeln hier, Deduktionsregeln dort), doch sind sie andererseits so aufeinander bezogen, daß man nicht die Daten der einen Komponente beibehalten und die der anderen austauschen könnte. Beide zusammen definieren die Sprache als

VIII. Computer Simulation of Language II: SystemsComponents

352

System. Als Oberbegriff für beide benutzen wir den Terminus Grammatik. Anders verhält es sich nun mit der Semantik, soweit damit die Beziehung von Äußerungen zum Objektbereich gemeint ist. Zur Auflösung der Referenz ist natürlich ein aktuelles Weltmodell erforderlich. Es ist aber auch bekannt, daß das Weltwissen bei der Disambiguierung grammatischer Mehrdeutigkeiten eine große Rolle spielt. Man hat hier die Wahl zwischen folgenden Architekturen: (i) Das Wissen über Zusammenhänge in der Welt existiert als getrennter Datensatz neben der Grammatik und wird von der Analysekomponente interpretiert. (ii) Das Weltwissen wird in die Grammatik integriert und unmittelbar zum Parsen genutzt. Letztere Option, häufig zusammen mit der prozeduralen Version der Grammatik, wird in der Künstlichen Intelligenz bevorzugt. Für die Tennung von Weltwissen und Grammatik sprechen jedoch die gleichen Gründe wie schon für die Trennung von Grammatik und Parser. Zudem verspricht diese Trennung auch theoretisch mehr Einsichten. Während integrierte Systeme auf einen bestimmten Objektbereich festgelegt sind und daher über das regelhafte Verhältnis zwischen Sprache und Welt eigentlich gar nichts offenbaren, darf man wohl ein Sprachverstehenssystem mit beliebig wechselnden Wissensbeständen als das große Projekt der Zukunft betrachten. (Siehe auch 4.6.)

3.

Parameter für die Grammatik

3.1. Phänomene der natürlichen Sprache Linguistische Rahm enbedingungen. Es hat wenig Sinn, viele Mühe in die Programmierung eines Parsers zu stecken, wenn der Grammatikansatz zur Behandlung der sprachlichen Phänomene nichts taugt. Linguistisches Problembewußtsein ist daher die wichtigste Eigenschaft des Entwicklers eines natürlichsprachigen Computersystems. Auch bei bescheidenen Zielen wird man, angesichts des immer beträchtlichen Aufwands, darauf sehen, daß der grammatische Ansatz erweiterbar ist. Die folgende Zusammenstellung von Eigenschaften der natürlichen Sprache (anhand des Deutschen) soll einen Eindruck davon geben, was es dabei zu berücksichtigen gilt. Die Aufstellung ist ohne jeden Anspruch auf Vollständigkeit.

Abgrenzung der Analyseeinheiten. Schon das Erkennen der Grundelemente ist in der natürlichen Sprache ein Problem. In geschriebenen Texten kann man von Buchstabenfolgen zwischen Leerzeichen oder Sonderzeichen ausgehen. Die so ermittelten Wörter müssen aber oft noch weiter zerlegt werden. Bei der Analyse gesprochener Sprache ist nicht einmal sicher, welcher Laut im linguistischen Sinn einem physikalischen Schallereignis entspricht. Erst recht ist unmöglich, Wortgrenzen unabhängig vom Kontext zu erkennen. Generell ist für natürliche Sprachen der hermeneutische Zirkel charakteristisch: Die Teile leiten sich ab aus dem Ganzen, das Ganze leitet sich ab aus den Teilen. Die Schwierigkeit besteht darin, diesen Zirkel zu durchbrechen und irgendwo zu beginnen. Analysedim ensionen. Jeder Ausdruck in einer Äußerung hat gleichzeitig mehrere Eigenschaften, die er auf verschiedene Weise mit anderen Ausdrücken teilt. Für die Beschreibung stellt sich die Aufgabe, die Ausdrücke mit Hilfe geeigneter Kategorien zu klassifizieren. Die Eigenschaften lassen sich gruppieren, so daß sich gewissermaßen drei Dimensionen ergeben: (i) die lexikalische Bedeutung, (ii) die morpho-syntaktische Form, (iii) die syntagmatische Funktion. (i) geben, gibst, gabst haben z. B. dieselbe lexikalische Bedeutung, nämlich ’geben’. (ii) gibt, liebt, singt haben dieselben morpho-syntaktischen Merkmale, nämlich ’3 . Person’ und ’Singular’. (iii) Jens / der Mann / wer das gesagt hat erfüllen im Zusammenhang mit ... lügt dieselbe syntagmatische Funktion, nämlich die des Subjekts. Ein sprachlicher Ausdruck hat immer teil an allen drei Dimensionen. Neben geeigneten Kategorien für jede Dimension muß die Grammatik auch über Mittel verfügen, die Korrespondenz zwischen den Dimensionen darzustellen. Mehrdeutigkeit. Unterschiedliche Bedeutungs-Form-Funktionskomplexe fallen oft in einem Ausdruck zusammen. Für sich genommen erscheint der Ausdruck als mehrdeutig. Erst der Kontext zeigt, welche Eigenschaften der Ausdruck in der Äußerung tatsächlich hat. In manchen Fällen bleibt die Mehrdeutigkeit auch bestehen, sei es weil der Kontext, in dem sie sich auflösen würde, z. B. das Wissen über den Objektbereich, nicht zur Verfügung steht, sei es, weil die Äußerung mit Ab-

31.  Parsing natürlicher Sprachen: Grundlagen

sicht mehrdeutig war. Mehrdeutigkeit kann innerhalb jeder der Dimensionen auftreten: (i) Es gibt lexikalische Homonymien, wie z. B. Schloß.(ii) Zahlreich sind morpho-syntaktische Homonymien, wie z. B. das Wort der, das Pronomen oder Artikel in verschiedenen Kasus, Numeri und Genera sein kann. (iii) Schließlich gibt es Mehrdeutigkeiten hinsichtlich der syntagmatischen Funktion, z. B. von zum Glück im Satz Dem Junggesellen fehlt zum Glück die Frau. Oft sind an einer Mehrdeutigkeit alle drei Dimensionen beteiligt, z. B. in Ich m öchte gern rum kugeln, wo (wenn man von der gesprochenen Form ausgeht) rum kugeln entweder die Bedeutung von ’herumkugeln’ hat, ein Verb im Infinitiv ist und als Prädikatsteil fungiert, oder die Bedeutung von ’Kugeln mit Rum’ hat, ein Substantiv im Akkusativ Plural ist und als Objekt fungiert. Beispiele für komplexe Mehrdeutigkeiten liefert auch die Wortbildung, z. B. im Falle von Staubecken, das zerlegt werden kann in die lexikalischen Bedeutungen ’Stau’ und ’Becken’ und dann morpho-syntaktisch ein Substantiv im Singular oder Plural darstellt oder in ’Staub’ und ’Ecken’ und dann nur Plural sein kann. Kongruenz. Die morpho-syntaktischen Merkmale der Elemente einer Äußerung bedingen sich gegenseitig, und zwar in sich kreuzenden Kombinationen und über weite Abstände hinweg. Man vergleiche der alte Herr, der sich im Wartezim m er befindet und die alten Dam en, die sich im Wartezim m er befinden. Kasus, Genus, Numerus müssen übereinstimmen beim Artikel, Adjektiv und Substantiv, Genus und Numerus beim Substantiv und dem Relativpronomen, Person und Numerus beim Substantiv, dem Reflexivpronomen und dem Verb. Die Kongruenz im Deutschen stellt hohe Ansprüche an die Ausdruckskraft des Grammatikformalismus und an die Effizienz der Verarbeitung. Zur Auflösung der Homonymie der Wortformen ist sie aber auch sehr nützlich. Valenz. Welche Elemente in einer Äußerung miteinander vorkommen können, hängt von diesen selbst ab. Dies gilt nicht nur für das Verhältnis des Verbs und seiner Ergänzungen, das zuerst mit dem Terminus ’Valenz’ belegt worden ist, sondern ganz allgemein. Im Umkreis der generativen Grammatik wird diese Abhängigkeit der syntaktischen Strukturen vom lexikalischen Material unter dem Terminus ’(strikte) Subkategorisie-

353

rung’ behandelt. Letztlich ist es die lexikalische Bedeutung der Elemente, auf der die syntaktischen Strukturen fußen. Die Bedeutung von schlafen impliziert z. B. den Schläfer, die Bedeutung von lieben den Liebenden und den Geliebten, die Bedeutung von geben den Gebenden, das Gegebene und den Empfänger. Wo diese Verben verwendet werden, treten gleichzeitig Ausdrücke auf, die diese Größen bezeichnen. Da das Verb selbst die inhaltliche Rolle der Ergänzungen schon hinreichend bestimmt, reichen zur Klassifikation der unterschiedlichen Funktionen formale Begriffe, wie Subjekt, Akkusativobjekt und Dativobjekt. Die natürliche Sprache bedient sich der Morphologie und der Wortstellung, um die syntagmatischen Funktionen auseinanderzuhalten. Betrachten wir auch noch ein Substantiv, z. B. Brücke. Eine Brücke ist ein Bauwerk, das ein Hindernis überspannt und zwei Ufer miteinander verbindet. Dieses Faktum führt syntaktisch zu den Ergänzungen des Substantivs Brücke mit der Präposition über und zwischen, wobei diese Konstituenten das Überspannte und das Verbundene bezeichnen. Die Valenz schafft die molekulare Verbindung zwischen den drei Dimensionen: Ein Element hat eine bestimmte lexikalische Bedeutung; es verlangt infolgedessen nach bestimmten Ergänzungen und legt gleichzeitig die Funktion wie die morpho-syntaktische Form dieser Ergänzungen fest. Eine hinreichende Beschränkung der Syntax und eine adäquate funktionale Interpretation von Äußerungen ist nur möglich, wenn der Grammatikformalismus diese Selektionsbeziehungen darzustellen vermag. Idiom atische Wendungen. Feste Syntagmen, wie auf dem Standpunkt stehen, daß, und idiomatische Wendungen, wie alle Brükken hinter sich abbrechen, haben als ganze eine lexikalische Bedeutung. Syntaktisch bleiben die Bestandteile aber selbständig, z. B. unterliegen sie den normalen Variationen der Wortstellung im Satz. Feste Syntagmen und Idiome können also nicht etwa einfach dem Lexikon entnommen werden. Erwähnt seien hier auch noch Kollokationen, wie eingefleischter Junggeselle. Dabei handelt es sich um Ergänzungen im Rahmen der regulären Valenz, nur daß auch die lexikalische Ausfüllung der abhängigen Elemente festgelegt ist. Hierarchische Struktur. Lexikalische Ele-

354

mente, deren Bedeutungen Beziehungen stiften, eröffnen jeweils abstrakte Stellen im Satz, und zwar je nach der Wertigkeit der Relation unterschiedlich viele. Die Stellen werden in der aktuellen Äußerung von Ausdrücken eingenommen, deren innerer Aufbau wiederum darauf beruht, daß bestimmte Relatoren neue Stellen eröffnen und so fort. Es ergibt sich eine hierarchische Struktur. An einer Stelle mit bestimmter Funktion können syntaktisch unterschiedliche Konstituenten kommutieren; z. B. kann das Subjekt einer Lesung des Verbs ärgern, dessen konkrete Funktion es ist, das Ärgerliche zu bezeichnen, alternativ von einer Nominalphrase, einem daß-Satz oder einem wie-Satz realisiert werden: Sein Verhalten ärgert m ich. Daß er sich so verhält, ärgert mich. Wie er sich verhält, ärgert m ich. Es ist wichtig, daß der Grammatikformalismus imstande ist, den verschiedenen Konstruktionen dieselbe Funktion zuzuordnen und andererseits die Variation zu beschreiben. Zu erwähnen sind hier auch auf Charles Fillmore zurückgehende Versuche, eine inhaltliche Klassifizierung für die syntagmatischen Funktionen einzuführen: die sogenannten Tiefenkasus, wie ’Agent’, ’Patient’, ’Instrument’ u. a. Lineare Gliederung. Die Syntax der natürlichen Sprache erschöpft sich nicht in der hierarchischen Struktur des Satzes. Gewissermaßen quer zu ihr, schafft die lineare Gliederung eine zusätzliche Einteilung. Dazu gehört z. B. die Reichweite von Quantifizierungen und der Negation, vgl. Jens hat zweim al ein Exam en gem acht und Jens hat ein Exam en zweim al gem acht. Verwickelt sind die Verhältnisse bei der Koordination, wo Ausschnitte aus der hierarchischen Struktur linear miteinander verknüpft werden. Die Eltern schicken Jens ins Zeltlager und Antje auf den Reiterhof. Der Satz läßt sich nicht ohne weiteres als eine Hierarchie von Prädikat, Argumenten und Konjunktur repräsentieren, da der Konjunktor zwei Argumente hat, die je zwei der drei Argumente des Prädikats umfassen. Ein Problem ist auch die Reichweite der Koordination nach links und nach rechts. Ein weites Feld ist schließlich der Zusammenhang der linearen Gliederung des Satzes mit der Textstruktur. Diskontinuierliche Konstituenten. Formale Probleme für bestimmte Grammatikansätze entstehen dadurch, daß die Elemente, die der

VIII. Computer Simulation of Language II: SystemsComponents

hierarchischen Struktur nach zusammengehören, in der linearen Abfolge nicht immer zusammen stehen. Dies ist im Deutschen relativ häufig der Fall. Eine Ursache ist die Satzklammer, die z. B. das abtrennbare Präfix, das der lexikalischen Repräsentation eines Verbs zuzurechnen ist, an das andere Ende des Satzes rückt: Er gab seine Bem ühungen nicht auf. Die freie Wortstellung erlaubt Verschiebungen von Elementen unter dem Einfluß der Thematik des Satzes, so daß diskontinuierliche Konstituenten entstehen, z. B. Apfel haben wir heute keine. Diskontinuierlichkeit verursachen Einschübe in der wörtlichen Rede, z. B. in „Heute„, sagte sie, „arbeite ich nicht„. Unter dem Schlagwort ’unbounded dependencies’ wird das Problem der herausgestellten Konstituenten, wie in What do you think Gudrun said she feeds her cats? (Kilbury 1984, 3 ), zur Zeit viel diskutiert (u. a. Gazdar 1981; Pereira 1981). Fakultative Konstituenten. Über fakultative und obligatorische Konstituenten ist in der Valenztheorie viel diskutiert worden, häufig im Zusammenhang damit, was als Ergänzung (Subjekt, Objekt) und was als Angabe (Adverbialbestimmung) zu einem Verb zu gelten hat (siehe Hellwig 1978 a, 122). In Wirklichkeit ist das, was gesagt wird, und das, was nicht gesagt wird, aber keine Frage der Grammatik, sondern der Kommunikationssituation. Es fällt einem nur nicht gleich eine Situation ein, in der ein Satz wie Jens wohnt ohne das Wo eine sinnvolle Mitteilung wäre. Für die Grammatik ergeben sich kaum Probleme, wenn man die maximal möglichen Ergänzungen und Angaben festschreibt und dazu vorsieht, daß in einer Äußerung nicht alle realisiert sein müssen. Der Grammatikformalismus sollte allerdings von der Art sein, daß letzteres nicht zu einer Vervielfachung der Regeln führt. Ellipsen. Im Unterschied zur Auslassung fakultativer Elemente, bei der Information einfach fehlt, ist die Ellipse eine Erscheinung der Sprachökonomie. Die ausgelassenen Elemente sind aus dem Kontext oder dem Vorwissen prinzipiell rekonstruierbar. Sie müssen bei der syntaktischen Analyse auch tatsächlich rekonstruiert werden, weil davon die Interpretation der vorhandenen Elemente abhängt. Diese Rekonstruktion gehört allerdings zu den schwierigsten Problemen der Analyse natürlicher Sprachen. Ellipsen sind

31.  Parsing natürlicher Sprachen: Grundlagen

typisch für die Koordination, z. B. im Satz Die linke Seite hat nach oben, die rechte nach unten eine Öffnung. Beim Komparativ muß der Rahmen ergänzt werden, in dem die Konstituente hinter dem als zu verstehen ist, vgl. Das Geld hat ihm m ehr genützt als uns. Das Geld hat ihm m ehr genützt als die Em pfehlung. Der Mechanismus zur Auflösung von Ellipsen muß sicherlich die Satzgrenzen und häufig sogar den Bereich des Verbalisierten überhaupt überschreiten. Dies gilt besonders in Dialogen. Jens m eint Vanilleeis ist z. B. eine einwandfreie Antwort auf die Frage Was sollen wir der Antje m itbringen? Wie erreichen wir, daß ein Computerprogramm die Antwort so interpretiert, wie den Satz Jens m eint, daß wir der Antje Vanilleeis m itbringen sollen? Paraphrasen. Die funktionale Dimension der syntaktischen Struktur zeigt sich im einzelnen Satz darin, daß die Elemente einerseits in unterscheidbaren Beziehungen zueinander stehen und daß andererseits Ausdrücke unterschiedlicher Art gegeneinander ausgetauscht werden können, ohne daß sich die Beziehung zu dem dominierenden Element ändert, wie wir oben am Beispiel des Subjekts zum Verb ärgern gezeigt haben. Ein weiterer Gesichtspunkt ist der, daß dasselbe auf verschiedene Weise ausgedrückt werden kann, daß also zwischen bestimmten Konstruktionen Paraphrasebeziehungen bestehen. Statt Sein Verhalten ärgert m ich kann man auch sagen Ich ärgere m ich über sein Verhalten. Generellere Paraphrasebeziehungen bestehen zwischen Aktiv- und Passivsatz oder zwischen Sätzen wie den folgenden: Es regnete heftig. Deshalb geschahen viele Unfälle. — Weil es heftig regnete, geschahen viele Unfälle. — Wegen heftigen Regens geschahen viele Unfälle. Es ist das Verdienst der Transformationsgrammatik, auf solche satzsemantischen Beziehungen aufmerksam gemacht zu haben. Logische Form . Wenn man vorhat, in natürlicher Sprache einen Dialog mit einem Frage-Antwort-System zu führen, das nicht nur das Eingegebene wörtlich wieder ausgeben kann, sondern auch Schlüsse zieht, so interessieren nicht nur Paraphrasen, sondern schlechthin alle logischen Relationen zwischen den Aussagen, wie Äquivalenz, Implikation, Disjunktion, Exklusion, Kontravalenz usw. So sollte es möglich sein, aus dem

355

Satz Ich überredete ihn zu kom m en abzuleiten Er wird kom m en, aus Ich entschloß m ich zu kom m en abzuleiten Ich werde kom m en und aus Ich weigere m ich zu kom m en abzuleiten. Ich werde nicht kom m en. Der Zusammenhang zwischen der Aussage Fritz hat aufgehört zu rauchen und der Präsupposition Fritz hat früher geraucht sollte berücksichtigt sein, ebenso das Verhältnis zwischen Quantifikation und Gewißheitsgrad in der folgenden Schlußfigur: Alle/die m eisten/m anche Studenten sind nach Hause gefahren. Fritz ist Student. Fritz ist sicher/wahrscheinlich/vielleicht nach Hause gefahren. Die Aufgabe der syntaktischen Beschreibung mündet hier ein in die Beschreibung der logischen Form der natürlichen Sprache. Textzusam m enhang. Eine Reihe von syntaktischen Erscheinungen lassen sich nur satzübergreifend behandeln, z. B. Pronomina und Ellipsen. Außerdem ist die Ermittlung des Textzusammenhanges selbst für viele Vorhaben eine notwendige Voraussetzung. Zur Kohäsion des Textes gehört, daß verschiedene Ausdrücke im Text auf dasselbe Objekt referieren, wie z. B. wenn es zunächst heißt ein Motorrad, dann das Motorrad, dann es, dann die Maschine usw. Die Kohärenz eines Textes zu erfassen, heißt herauszufinden, worum es eigentlich geht. Dazu gibt die Syntax des Satzes, insbesondere die Wortstellung, Hinweise. Beispielsweise paßt der Satz Nachrichtensam m lung ist Aufgabe des Verfassungsschutzes in einen Kontext, in dem es darum geht, wer Nachrichten sammeln darf und wer nicht, während Aufgabe des Verfassungsschutzes ist Nachrichtensam m lung nicht passen würde. Stichwörter in diesem Zusammenhang sind u. a. Fokus, Thema und Rhema. Weltwissen. Man kann leicht Beispiele finden, die zeigen, daß manchmal erst Wissen über den Objektbereich ausreicht, um einer Äußerung eine eindeutige Beschreibung zuzuordnen. Ohne dieses Wissen bleibt Die Tür fiel ins Schloß infolge der Homonymie von Schloß mehrdeutig. Ebensowenig ist der syntaktische Bezug von im Springer-Verlag in Gibt es ein Buch über die Kulturrevolution im Springer-Verlag? zu entscheiden. Schließlich ist auch die Kohärenz von Der Wagen springt nicht an. Die Zündkerzen sind verschm utzt. nur einsichtig, wenn man über das Funktionieren von Motoren etwas weiß. Die Frage ist

356

nur, wo dieses Wissen im Rahmen des Systems seinen Platz hat. (Vgl. 4.6.) 3.2. Anforderungen an Grammatikformalismus Gram m atikform alism us. Im folgenden machen wir das Beschreibungsmittel zum Gegenstand der Überlegungen: (i) Man kann die grammatischen Erscheinungen einer Sprache in derselben oder in einer anderen natürlichen Sprache beschreiben. (ii) Handelt es sich um eine wissenschaftliche Beschreibung, so ist eine terminologische Normierung die Regel. (iii) Schließlich kann man zur Beschreibung ein formales System benutzen. Ein formales System besteht aus nichts anderem als einer Menge von Symbolen und einer Menge von Vorschriften, nach denen diese Symbole manipuliert werden dürfen, wobei nur die Form der Symbole ausschlaggebend ist. Ein formales System ist ein Modell, wenn für bestimmte seiner Eigenschaften Analogie zu einem Objekt postuliert wird. Da ein Computer nur zur Symbolverarbeitung im formalen Sinn fähig ist, ist die Repräsentation der Grammatik durch ein formales System zum Zwecke des Parsing unumgänglich. Anforderungen. Es ist schwierig, zu einer natürlichen Sprache ein analoges formales System zu konstruieren, weil viele der Eigenschaften der Sprache noch unklar sind. Probleme entstehen aber auch dadurch, daß der einmal gewählte Grammatikformalismus Eigengesetzlichkeiten enthält, die mit dem, was man gerne abbilden möchte, in Konflikt stehen. Man hat oft den Eindruck, daß das Mittel dem Zweck entgegensteht. Es empfiehlt sich natürlich, von Grammatikmodellen auszugehen, die schon einige Erprobung hinter sich haben. Aber auch sie wird man prüfen müssen. Es gibt im wesentlichen drei Kriterien für einen Grammatikformalismus: (i) die Adäquatheit hinsichtlich der sprachlichen Phänomene, (ii) die Verarbeitbarkeit durch die Maschine, (iii) die Handhabbarkeit durch den Menschen. Theorie der form alen Sprachen. Einige Maßstäbe für Grammatiken und Sprachen lassen sich aus einer mathematischen Betrachtungsweise gewinnen. Diese hat in der theoretischen Linguistik und Informatik zu einer umfassenden Theorie geführt, von der im folgenden nur einige wichtige Punkte refe-

VIII. Computer Simulation of Language II: SystemsComponents

riert werden. Vgl. Art. 6. Man muß beachten, daß bei dieser Betrachtungsweise viele Eigenschaften einer natürlichen Sprache ausgeklammert bleiben (Chomsky 1963 ; Hopcroft/Ullman 1969; Gross/Lentin 1971; Aho/Ullman 1972, 83 ff.; Harrison 1978. Mit Bezug zur natürlichen Sprache Kratzer/ Pause/von Stechow 1973; Klenk 1980). Sprachen als Mengen. Ausgangspunkt ist ein Vokabular (oft auch Alphabet genannt), das definiert ist als eine endliche Menge von Symbolen. Durch Aneinanderreihen von Elementen des Vokabulars entstehen Symbolketten. Das freie Monoid über dem Vokabular besteht aus der Menge aller Ketten, die sich aus dem Vokabular bilden lassen, einschließlich der leeren Ketten, die kein Symbol enthält. Jede Teilmenge des freien Monoids über dem Vokabular ist eine (formale) Sprache. Sprachen sind also nach dieser Betrachtungsweise Mengen. Es lassen sich mit ihnen die üblichen Mengenoperationen durchführen. Typen von Gram m atiken und Sprachen. Eine geläufige Aufstellung wichtiger Grammatiktypen und Sprachen ist die sog. Chomsky-Hierarchie (Chomsky 1959). Chomsky unterscheidet Typ 0: unbeschränkte Ersetzungssysteme, Typ 1: kontext-sensitive Grammatiken, Typ 2: kontex-freie Grammatiken, Typ 3: reguläre Grammatiken. Es ist üblich, die erzeugten Sprachen nach der jeweiligen Grammatik zu benennen. Inklusion der Gram m atiktypen. Die Grammatiktypen 0 bis 3 sind definiert durch fortschreitende Einschränkungen der Regeln. Dies bedeutet, daß die Regeln des jeweils eingeschränkteren Typs im jeweils weniger eingeschränkteren Typ ebenfalls zugelassen sind. Daraus wiederum folgt, daß die regulären Sprachen echte Teilmengen der kontextfreien, diese echte Teilmengen der kontextsensitiven und diese echte Teilmengen der aufzählbaren Sprachen sind. Äquivalenz und Norm alform en. Man unterscheidet zwischen schwacher und starker Äquivalenz: (i) Zwei Grammatiken sind schwach äquivalent, wenn sie dieselbe Sprache festlegen. (ii) Zwei Grammatiken sind stark äquivalent, wenn sie außerdem dieselben Zerlegungen der Ketten vornehmen, oder m. a. W. den Ketten dieselbe Struktur

31.  Parsing natürlicher Sprachen: Grundlagen

zuordnen. Von Bedeutung ist die schwache Äquivalenz für die Konstruktion von sog. Normalform-Grammatiken, die für die maschinelle Abarbeitung von Vorteil sein können. Adäquatheit. Auf der Suche nach einem adäquaten Grammatiktyp für eine Sprache ist man bestrebt, einen möglichst eingeschränkten Typ zu finden, denn je eingeschränkter die Grammatik ist, desto effizienter ist die Verarbeitung. Allerdings muß man zwischen schwacher und starker Adäquatheit unterscheiden: (i) Eine Grammatik bestimmten Typs ist für eine Sprache schwach adäquat, wenn sie die Menge der Ketten, aus der die Sprache besteht, erzeugen kann. (ii) Eine Grammatik ist stark adäquat, wenn sie die Ketten so strukturiert, wie es aus vorgegebenen (z. B. semantischen) Gründen erforderlich ist. Obwohl es in der Praxis auf die starke Adäquatheit ankommt, ist die schwache Adäquatheit von gewissem Interesse. Wenn ein Grammatiktyp schon nicht schwach adäquat ist, kann er natürlich erst recht nicht stark adäquat sein. Bei der Betrachtung einer solch komplexen Sprache wie einer natürlichen, ist es auch sinnvoll, die Frage nach dem formalen Typ nicht nur global, sondern für Teilmengen der sprachlichen Strukturen getrennt zu stellen. Vielleicht empfiehlt es sich, eine Gesamtgrammatik für die Sprache zu entwerfen, die aus Komponenten unterschiedlichen formalen Typs besteht. Der form ale Typ natürlicher Sprachen. (i) Reguläre Grammatiken sind möglicherweise für Teilbereiche der natürlichen Sprache, wie Morphologie und Wortbildung, stark oder schwach adäquat. Dagegen ist der Satzbau sicher nicht regulär, denn er erlaubt Einbettungen, die reguläre Grammatiken nicht beschreiben können. (ii) Mit kontext-freien Grammatiken läßt sich theoretisch ein Großteil der Sätze einer natürlichen Sprache generieren. Es scheint, daß Kongruenzphänomene, die früher als Gegenbeispiele angeführt worden sind, möglicherweise von kontext-freien Grammatiken gemeistert werden können, wenn das Hilfvokabular nicht aus einfachen sondern aus komplexen Kategorien besteht (siehe 3 .3 .). (iii) Eher dürfte die Überlagerung von valenzgebundenen Anhängigkeiten und linearer Gliederung, wie sie z. B. die Koordination aufweist, den Be-

357

reich des kontext-frei Machbaren übersteigen, so daß natürliche Sprachen im Prinzip wohl zu den kontext-sensitiven gehören. Man muß im übrigen das Studium mathematischer Eigenschaften von Sprachen anhand von Ersetzungssystemen trennen von den Überlegungen, welche Gestalt der Grammatikformalismus haben soll, in dem man eine Grammatik tatsächlich schreibt. Der Aufwand, der bei der unmittelbaren Verwendung eines Ersetzungssystems schon allein zur schwach adäquaten Beschreibung der freien Wortstellung, der Kongruenzen und der Valenz im Deutschen notwendig ist, wäre ungeheuer, von der starken Adäquatheit ganz zu schweigen. (Zur formalen Eigenschaft natürlicher Sprachen siehe Peters/Ritchie 1969; Pullum/ Gazdar 1982, Pullum 1984 a sowie das Sonderheft Com putational Linguistics 10 [1984], No. 3 —4 mit Beiträgen von Perrault, Postal/ Langendoen, Pullum, Berwick.) Der form ale Typ der Gram m atiknotation. Man muß sich vergegenwärtigen, daß ein Grammatikformalismus selbst eine Sprache ist. Auch Ersetzungsregeln sind nichts anderes als Ketten über einem bestimmten Vokabular, die eine bestimmte Syntax haben. Die Maßstäbe der Theorie der formalen Sprachen können daher ohne weiteres auch an die Notationen gelegt werden, in denen die verschiedenen Grammatiken geschrieben werden. Diese Betrachtungsweise ist von höchster Relevanz, wenn es darum geht, einen Grammatikformalismus für einen Parser zu entwickeln. Um die grammatischen Beschreibungen auf die Eingabesprache anwenden zu können, muß der Parser diese Beschreibungen erst einmal selbst parsen. Da der Grammatikformalismus eine Kunstsprache ist, liegt es an uns, ihn so zu konstruieren, daß er alle wünschenswerten Eigenschaften hat. Wir werden natürlich möglichst zur beschränktesten Form greifen, und darauf sehen, daß die Grammatiknotation selbst eine reguläre Sprache ist, für die es die effizientesten Erkennungsalgorithmen gibt (vgl. Art. 32). Weitere Zielvorgaben für Gram m atikform alism en. (i) Der Formalismus sollte einen solchen Grad der Generalisierung besitzen, daß beliebige Einzelsprachen darin beschrieben werden können. Auf diese Weise ist gewährleistet, daß für alle Grammatiken derselbe Parser verwendet werden kann. (ii) Gleichzeitig sollte der Formalismus so aus-

358

drucksstark sein, daß darin die Einschränkungen, die für die jeweilige Objektsprache gelten, genau und direkt formulierbar sind. (iii) Von Vorteil wäre eine möglichst große Homogenität der Notation, so daß die Verarbeitung uniform erfolgen kann. (iv) Die Beschreibung der einzelnen sprachlichen Fakten sollte so modular sein, daß Hinzufügungen und Änderungen keine unerwünschten Nebenwirkungen auf den Rest der Grammatik haben. Menschliche Handhabbarkeit. Der bei weitem größte Aufwand bei der Entwicklung eines einsatzfähigen natürlichsprachigen Systems ist die Beschreibung vieler Hunderte von syntaktischen Erscheinungen und vieler Tausende von lexikalischen Elementen. Den größten Teil dieser Arbeit hat der Linguist zu erledigen. Der Formalismus muß daher in erster Linie dessen Bedürfnissen gerecht werden: (i) Die Notation sollte flexibel, überschaubar, natürlich sein. (ii) Sie sollte leicht editierbar sein, damit Daten ohne viel Aufwand eingegeben und geändert werden können. (iii) Sofern die Anforderungen der Maschine und die des menschlichen Bearbeiters an die Repräsentation sich nicht decken, müssen interne und externe Ebenen der Beschreibung entworfen werden, die sich automatisch ineinander überführen lassen. (iv) Entwicklungssysteme sollten Programme zur Grammatik- und Lexikonpflege mit komfortablen Prüf-, Such-, Sortier-, und Displayfunktionen enthalten. (v) Der Parser muß so konstruiert sein, daß er bei Bedarf informative Protokolle des Analyseablaufs liefert, um Fehler in der Grammatik schnell erkennen und beseitigen zu können. 3.3. Bestimmungsstücke für Grammatiken Grundsatzentscheidungen. In diesem Kapitel tragen wir Parameter zusammen, welche die Ausprägung von Grammatiken für natürliche Sprachen bestimmen. Es sind vor allem drei Fragen, die relativ unabhängig voneinander beantwortet werden können: (i) Wie soll die Strukturrepräsentation aussehen, die aktuellen Äußerungen zugeschrieben wird? (ii) Mittels welchen Verfahrens wird diese Struktur für alle potentiellen Fälle definiert und aktuellen Äußerungen zugeschrieben? (iii) Mit Hilfe welcher Kategorien lassen sich genau die Ausdrücke eingrenzen, die zu einer syntaktischen Einheit gehören? Die Ent-

VIII. Computer Simulation of Language II: SystemsComponents

scheidungen für die eine oder andere Alternative hängen von Erwägungen ab, die in Auseinandersetzung mit den verschiedenen Grammatiktheorien erfolgen müssen. Es gibt allerdings gegenwärtig eine Reihe von Konvergenzen zwischen Grammatikmodellen verschiedener Herkunft. Der Trend geht zur funktionalen Orientierung bei der Strukturrepräsentation, zur lexikalischen Definition von Strukturen und zur Verwendung von komplexen Kategorien bei der Eingrenzung der wohlgeformgen Ausdrücke. (Siehe unten unter dem Stichwort Unifikationsgrammatiken.) Strukturrepräsentation. Eine Struktur ist definiert durch eine Menge von Elementen und eine Menge von Relationen über diesen Elementen. Es ist üblich, Strukturen als Graphen darzustellen, wobei die Elemente den Knoten und die Relationen den Kanten entsprechen. Eine besondere Rolle spielen Baumgraphen. Sie repräsentieren streng hierarchische Strukturen. Hierarchien sind intellektuell einprägsam. Hierarchisch organisierte Daten sind im Computer leicht zu handhaben. Schließlich bieten syntagmatische Erscheinungen wie Valenz und Rektion auch tatsächlich ein Bild von Über- und Unterordnung. Aus diesen Gründen sind Baumgraphen (auch kurz ’Bäume’ genannt) die vorherrschende Form der Strukturrepräsentation in der Syntax. Obwohl es kaum Alternativen gibt, sollte man auf der Hut sein, daß einem das ’Denken in Bäumen’ nicht für manche sprachlichen Erscheinungen den Blick verstellt. Konstituenz- oder Dependenzrelation. Die erste grundsätzliche Entscheidung, von der die Ausprägung einer Grammatik abhängt, betrifft die Relation, die zur primären Strukturierung der syntaktischen Einheiten verwendet wird. Entsprechend unterscheiden sich die zur Strukturdarstellung verwendeten Baumgraphen. Man hat die Wahl zwischen Konstituenz- und Dependenzrelation. (i) Die Elemente der Konstituentenstruktur, welche durch die Knoten im Baum repräsentiert werden, sind mehr oder weniger umfassende Segmente in der linearen Dimension der Rede; die Relation, welche durch die Kanten im Baum bezeichnet wird, ist die zwischen Ganzem und Teilen. Die Segmente resultieren daraus, daß die darin enthaltenen Ausdrücke intern in syntagmatischer Beziehung stehen und daß sie nach außen hin als Ganzes

31.  Parsing natürlicher Sprachen: Grundlagen

eine syntagmatische Funktion erfüllen. Die Beziehung zwischen den Konstituenten kommt in der Hierarchie von Ganzem und Teilen allerdings nur indirekt zum Ausdruck (Wells 1947; Chomsky 1957). (ii) Die Elemente der Dependenzstruktur, welche durch die Knoten im Baum repräsentiert werden, sind die kleinsten Einheiten, die in syntagmatische Beziehungen treten; die Relation, welche durch die Kanten im Baum bezeichnet wird, ist die der syntagmatischen Beziehung selbst. Wie wir oben gesehen haben, resultieren die syntagmatischen Beziehungen aus den lexikalischen Bedeutungen der Elemente und haben eine funktionale und eine formale Seite. (Tesnière 1959; Gaifman 1965; Hays 1966 b; Kunze 1975; Hellwig 1978 a. Zur Abwägung zwischen Konstituenz und Dependenz siehe Hellwig 1978 a, 127 ff.; Hudson 1980; Hellwig 1986.) Kom plem entarität von Konstituenz und Dependenz. (i) Ist die Konstituenz zur Grundlage der Baumstruktur gemacht worden, muß die Dependenz zwischen den Konstituenten auf andere Weise dargestellt werden, z. B. durch eine Markierung der dependentiell dominierenden und den unmittelbaren Konstituenten (dazu zählt u. a. die ’x-bar’-Notation, vgl. Jackendoff 1977; Gazdar/Klein/Pullum et al. 1985, 50; Dependenzrelationen werden außerdem erfaßt durch ’gaps’ und ’traces’ bei Extrapositionen in der GB-Theorie, u. a. in Chomsky 1982 a und 1982 b, und die ’slash’-Kategorien in der GPSG, siehe Gazdar/Klein/Pullum et al. 1985, 13 7 ff.). (ii) Ist die Dependenz zur Grundlage gemacht worden, so ist eine implizite Konstituentenstruktur bereits mitgegeben. Jedem Knoten im Dependenzbaum entspricht nämlich ein (kleinstes) Segment in der Kette, in der Regel ein Wort. Nun bildet aber im Dependenzbaum jeder Knoten mit allen von ihm abhängigen Knoten einen Teilbaum. Jedem Teilbaum wiederum kann unmittelbar ein Segment aus der Kette zugeordnet werden, das aus den Segmenten (bzw. Wörtern) zu den Knoten besteht, die der Teilbaum enthält. Die Zerlegung des Dependenzbaumes in Teilbäume ergibt so gleichzeitig eine Gliederung der Kette in Konstituenten (Hellwig 1986, 196). Form und Funktion. Die notwendige Korrespondenz zwischen den lexikalischen Bedeutungen, den morpho-syntaktischen Formen und den syntagmatischen Funktionen

359

sprachlicher Einheiten kann auf zwei Weisen hergestellt werden. (i) Die formalen und die funktionalen Zusammenhänge werden als je eigene Systeme mit unterschiedlichen Strukturen dargestellt. Die Korrespondenz zwischen den Strukturen der verschiedenen Systeme wird durch Transformationen oder Abbildungen geregelt. Dieser Weg wird meist eingeschlagen, wenn die Konstituenz zur Formalisierung der Formseite benutzt wird, da bei dieser Gliederung die funktionalen Beziehungen zwischen den unmittelbaren Konstituenten nur schwer dargestellt werden können. Beispiele für die Verteilung der grammatischen Information auf verschiedene Komponenten, wenn auch in recht unterschiedlicher Weise, sind die Oberflächen- und Tiefenstruktur sowie verschiedene Subsysteme in den Weiterentwicklungen der Transformationsgrammatik (u. a. in Chomsky 1982 b), die Systeme für verschiedene Sprachfunktionen in der Systemischen Grammatik (Halliday 1967), die Strata in der Stratifikationsgrammatik (Lamb 1966), die c-Strukturen und die f-Strukturen in der Lexical Functional Grammar (Kaplan/Bresnan 1982). Manche Grammatiken, z. B. die Generalized Phrase Structure Grammar (Gazdar/Klein/ Pullum et al. 1985), klammern den funktionalen Aspekt auch aus der Syntax aus und weisen ihn der Semantikkomponente zu. Dabei wird häufig angenommen, daß die semantische Repräsentation, z. B. eine prädikatenlogische Formel, mithilfe von Regeln erzeugt wird, die jeweils parallel zu den Regeln angewandt werden, mit denen die syntaktische Struktur erzeugt worden ist (vgl. 4.7. und Winograd 1983 , Kapitel 6). (ii) Die formalen und funktionalen Zusammenhänge werden in einem einzigen System dargestellt, dessen Elemente Form-Funktions-Einheiten sind. Die Knoten in den Strukturbäumen tragen sowohl funktionale wie formale Etiketten. Eine derartige Integration von Form- und Funktionsseite der Syntax ist möglich, wenn man die Dependenzrelation zur primären Strukturierung benutzt. Beispiele dafür sind die Lexicase-Grammar (Starosta/Nomura 1986), die Word Grammar (Hudson 1984) und die Dependentielle Unifikationsgrammatik (Hellwig 1986). Lineare Abfolge. Die in der Theorie der formalen Sprachen betrachteten Ersetzungssysteme ergeben eine Konstituentenstruktur. Außerdem ist dort durch die Operation der

360

Verkettung die lineare Abfolge geregelt. Die Phrasenstrukturgrammatik stellt den Versuch dar, diese Art von Grammatik unmittelbar auf die natürliche Sprache zu übertragen. Die Phrasenstrukturbäume sind projektiv, d. h. die Reihenfolge der Knoten entspricht der Reihenfolge der entsprechenden Segmente in der linearen Dimension. Unter funktionalen Aspekten ergeben sich in der natürlichen Sprache jedoch Konstituenten, die aus nichtbenachbarten Teilen bestehen (diskontinuierliche Konstituenten). Phrasenstrukturgrammatiken sind daher für natürliche Sprachen nicht stark adäquat. Infolgedessen wird in manchen Grammatiken die Projektivität der Konstituentenstrukturbäume aufgegeben und die lineare Abfolge der Konstituenten mithilfe eines zusätzlichen Regelwerkes beschrieben, so z. B. in der GPSG. Damit bietet aber die Konstituenz als Basisrelation der Phrasenstrukturbäume verglichen mit der Konstituenz, die in Dependenzbäumen implizit mitrepräsentiert ist, keine zusätzliche Information mehr (vgl. Chomsky 1965, 124; Gazdar/Klein/Pullum et al. 1985, 44 ff.). Dependenzbäume sind freilich ebenfalls ungeeignet, um die Abfolge der Elemente durch Projektion in die Ebene zu repräsentieren. Da hier aber jedem Knoten ein unabhängig vom Baumaufbau feststehendes Segment entspricht, besteht die einfache Möglichkeit, die relative Folge der Segmente durch Positionsmerkmale an den Knoten explizit zu notieren (Hays 1966b, 117 f.; Hellwig 1986). Strukturdefinition. Die zweite grundsätzliche Entscheidung, von der die Ausprägung einer Grammatik abhängt, betrifft die Art und Weise, wie die Struktur potentieller Einheiten definiert wird. Dies kann ja nicht durch eine Liste aller möglichen Strukturbäume geschehen, denn deren Zahl ist unendlich. Es gibt im wesentlichen zwei Vorgehensweisen: (i) Man versucht abstrakte Muster für syntaktische Einheiten zu erzeugen, in die sich das lexikalische Material einpassen läßt. (ii) Man beschreibt die Kombinationsfähigkeit der einzelnen Elemente des Vokabulars, aus denen sich komplexe Ausdrücke zusammensetzen lassen. Die erste Vorgehensweise entspricht der satzbezogenen Sicht der Sprache in der generativen Grammatik, die zweite der wortbezogenen Sicht in der traditionellen Sprachwissenschaft. Regelgram m atiken. Die beiden genannten Alternativen erlauben eine grobe Zweiteilung

VIII. Computer Simulation of Language II: SystemsComponents

in Regelgrammatiken und lexikalisierte Grammatiken (Hellwig 1978 a, 64 ff.). Erstere enthalten als Kern eine Komponente, in welcher der Aufbau von Strukturbäumen generell beschrieben wird. Es kann sich um eine Menge von Ersetzungsregeln handeln, wie sie aus der Theorie der formalen Sprachen bekannt sind (vgl. Art. 3 2.1. und 2.), oder aus Mustern, wie sie z. B. Übergangsnetzwerken zugrundeliegen. Auch eine Menge von Prozeduren ist eine Möglichkeit (vgl. Art. 3 2.3 .). Als zweite Komponente ist ein Lexikon vorhanden (bzw. eine Menge von lexikalischen Regeln, das zunächst nur die Verbindung schafft zwischen den von den Regeln erzeugten präterminalen Kategorien des Baumes und den terminalen Elementen. Bei dieser Zuordnung muß freilich die Valenz der terminalen Elemente berücksichtigt werden. Da auch die funktionale Interpretation der syntaktischen Strukturen von den beteiligten lexikalischen Einheiten abhängt, ist für die gegenwärtige Entwicklung der Grammatikformalismen eine zunehmende Verschiebung der Information von der Regelkomponente ins Lexikon charakteristisch. Die Entscheidung zwischen Konstituenz oder Dependenz als Strukturprinzip präjudiziert die Wahl zwischen Regelgrammatik und lexikalisierter Grammatik nicht, oder wenigstens nicht unbedingt. Die erste Formalisierung einer Dependenzgrammatik von Hays und Gaifman fußt z. B. auf Ersetzungsregeln (vgl. Gaifman 1965; Kratzer/Pause/von Stechow 1974, 13 7 ff.; aber auch die Kritik in Hellwig 1978 a, 93). Lexikalisierte Gram m atiken. Der Aufbau einer Baumrepräsentation kann auch dadurch festgelegt sein, daß die Kategorien der terminalen Elemente Strukturinformationen enthalten. Im Gegensatz zu den Kategorien in der Regelgrammatik, sind hier die Kategorien syntaktisch transparent (siehe dazu Hausser 1986, 57 ff.), d. h. man sieht ihnen an, in welche syntaktischen Teilstrukturen die betreffenden Elemente passen. Neben dem Lexikon ist nur noch eine mehr oder weniger uniforme Operation notwendig, um aus den Teilstrukturen die Gesamtstruktur zusammenzusetzen. Auch mit dem lexikalistischen Ansatz sind sowohl Konstituenz wie Dependenz vereinbar, obwohl hier, umgekehrt wie bei der Regelgrammatik, die Dependenzstruktur die natürlichere ist. Die lexikalistische Variante der Konstituentenstruk-

31.  Parsing natürlicher Sprachen: Grundlagen

turgrammatiken ist die Kategorialgrammatik. Die Kategorien, die den Lexikonelementen zugeordnet sind, haben die Struktur von Kellerspeichern. Indem fortgesetzt jeweils die obersten Symbole zweier Konstituenten gegeneinander gekürzt und entfernt werden, erreicht man die Wurzel des Strukturbaumes (vgl. Kratzer/Pause/v. Stechow 1974, 202 ff. und Art. 3 2.4.1.). Lexikalische Kategorien, die Dependenzstrukturen transparent machen, sind die Valenzangaben, wie sie ansatzweise schon in den Valenzwörterbüchern enthalten sind. Am naheliegendsten ist es, diese Angaben als Beschreibungen von Leerstellen zu präzisieren. Der Aufbau von Dependenzbäumen kann daher einheitlich erfolgen, indem Elemente und Teilbäume in die von anderen Elementen eröffneten Leerstellen insertiert werden (siehe Hellwig 1978 b und Art. 3 2.4.2., vgl. außerdem McCord 1980; Hoekstra/van der Hulst/Moortgat 1980; Gross 1984; Starosta/Nomura 1986). Schließlich gibt es auch eine prozedurale Variante des lexikalistischen Ansatzes: das Word Expert Parsing. Hier ist allerdings die mangelnde Trennung zwischen Grammatik und Parser bedenklich (Rieger, Chuck 1976; Small/Rieger 1982). Restriktionen. Eine der wesentlichen Aufgaben beim Schreiben einer Grammatik ist es, die Besetzung jeder syntagmatischen Stelle so genau einzuschränken, daß nur wohlgeformte Ketten akzeptiert werden. Zum einen ist dies aus theoretischen Gründen wünschenswert. Zum anderen führt jedes falsche Zwischenergebnis zu weiteren falschen Schritten beim Parsing, was selbst, wenn das Endergebnis in Ordnung ist, den Aufwand unnötig erhöht. Nun sind ja die Beschränkungen vielfältig, die es zu berücksichtigen gilt: zunächst vor allem die Kongruenz, dann die Wortstellung, schließlich semantische Einschränkungen. All diese Aufgaben zusammen sind nur mithilfe komplexer Kategorien und dem Mechanismus der Unifikation elegant zu lösen. Kom plexe Kategorien. Im Deutschen müssen Subjekt und finites Verb in Numerus und Person übereinstimmen. Da es zwei Numeri und drei Personen gibt, wären sechs Phrasenstrukturregeln nötig, wenn man diesen Sachverhalt mit einfachen Kategorien ausdrücken wollte. Die Regeln für die Nominalphrase müßten nach den vier Kasus differenziert werden. Weitere Kongruenzanforderungen

361

würden für eine explosionsartige Vervielfachung der Regeln sorgen. Dies alles läßt sich vermeiden, wenn man komplexe Kategorien verwendet. Die Anfangsregel einer Phrasenstrukturgrammatik könnte etwa wie folgt aussehen: S → NP Kasus[Nominativ] Numerus Person + VP Numerus Person Eine Kategorie besteht aus einer Menge von Merkmalsspezifikationen. Jede Merkmalspezifikation besteht prinzipiell aus einem Parameter (d. i. der Merkmalstyp) und einer Menge von Werten (d. s. die Merkmale). Die Aufteilung in Parameter und Wert (in engl. Terminologie häufig ’attribute’ und ’value’) ist entscheidend. Sie macht es nämlich möglich, Generalisierungen mithilfe der Parameter allein auszudrücken. Die obige Regel soll besagen, daß Numerus und Person beliebige Werte haben können (was durch das Fortlassen einer Wertangabe symbolisiert ist), aber daß die Werte in der NP und der VP dieselben sein müssen. Die Parameter fungieren also wie Variablen, die in einer Formel gleich instanziiert werden müssen. Für die Notation gibt es mehrere Möglichkeiten der Vereinfachung. ’S’, ’NP’, ’VP’ in obiger Regel sind z. B. Werte eines Parameters ’syntagmatische Konstituente’, der aber fortgelassen werden kann, weil er durch die Stelle, an denen die Symbole in der Formel auftreten, zu erschließen ist. Das ändert nichts am Grundsatz, daß Kategorien Mengen von Parameter-Werte-Paaren sind. Ein Beispiel. Ein Beispiel möge die Verwendung komplexer Kategorien mit Parametern und variablen Werten genauer zeigen. Innerhalb der Nominalphrase müssen Kasus, Numerus und Genus übereinstimmen und die Flexionsart von Artikel und Adjektiv zueinander passen: ein hoher Preis, der hohe Preis, des hohen Preises usw. Es sind 4 × 2 × 3 × 2 = 48 Merkmalskombinationen möglich. Beziehen wir außerdem das Faktum mit ein, daß, wenn eine Nominalphrase ein Adjektiv im Komparativ enthält, eine Präpositionalphrase mit als im Satz möglich ist, vgl. Er bezahlte einen höheren Preis als ich im Gegensatz zu * Er bezahlte einen Preis als ich. Die Erscheinungen in diesem Beispiel werden durch folgende Regeln erfaßt. (Es wären natürlich mehr Regeln nötig, um alle möglichen Fälle zu beschreiben.)

362

NP Numerus Kasus Komparativ Person[3] → Artikel Numerus Kasus Genus Flexion + Adjektiv Numerus Kasus Genus Flexion Komparativ + Substantiv Numerus Kasus Genus Satz Komparativ → NP Kasus[Nominativ] Numerus Person + Verb Numerus Person + NP Kasus[Akkusativ] Komparativ Satz Komparativ[—] → Satz Komparativ[+] + PP Präposition[als] Die Merkmale der terminalen Konstituenten werden im Lexikon festgelegt, z. B. u. a.: einen = Artikel Numerus[Singular] Kasus[Akkusativ] Genus[Maskulinum] Flexion[typ 1] höheren = Adjektiv Numerus[Singular] Kasus[Genitiv, Dativ, Akkusativ] Genus[Maskulinum] Flexion[typ 1] Komparativ[+] Preis = Substantiv Numerus[Singular] Kasus[Nominativ, Dativ, Akkusativ] Genus[Maskulinum] Man sieht hier übrigens, welche Vorteile die freie Kombinierbarkeit von Merkmalen für die lexikalische Beschreibung hat. Wird die obige NP-Regel angewendet, so daß diese terminalen Elemente die unmittelbaren Konstituenten bilden, so übertragen sich die Werte der Parameter aus dem Lexikon auf die entsprechenden Parameter in der Regel. Da alle freien Parameter in der Regel aber gleich instanziiert werden müssen, wird die Kongruenz der Merkmale zwischen den unmittelbaren Konstituenten erzwungen. Außerdem führt dies dazu, daß die Parameter Numerus, Kasus und Komparativ auch in der Kategorie NP die gleichen Werte annehmen, wie in den Kategorien der unmittelbaren Konstituenten. Im Strukturbaum entspricht dies einem Transport der Merkmale von einem Knoten zum anderen. Im Fall des Parameters Komparativ wird das Merkmal [+] oder das Merkmal [—] (letzteres ist im Lexikon der Grundstufe des Adjektives zugeordnet) durch die zweite der obigen Regeln in die Kategorie von ’Satz’ übernommen. Falls ein Satz das Merkmal [+] hat, läßt er sich nach der dritten Regel mit einer Präpositionalphrase mit als zu einer Konstituente ’Satz’ zusammenfassen, die nun das Merkmal [—] erhält, um eine erneute Anwendung der Regel zu verhindern.

VIII. Computer Simulation of Language II: SystemsComponents

Unifikation. Regeln, wie die obigen, ähneln Gesetzen in einem Logikkalkül. Ein Strukturbaum, der mithilfe solcher Regeln aufgebaut ist, entspricht einer komplexen Gleichung mit einer Reihe von Unbekannten. Das Lexikon sorgt für die Einsetzung von Konstanten bei der Auflösung einer solchen Gleichung. Es gibt aber jeweils viele verschiedene Lösungen. In Anlehnung an das Theorembeweisen in der Logik wird die Operation, mit der die verschiedenen Parameter in den Bäumen und Teilbäumen, wenn möglich, in Übereinstimmung gebracht werden, Unifikation genannt. Jede Instanziierung eines Parameters mit einem Wert setzt sich möglicherweise durch den ganzen Baum fort und kann für andere Parameter Folgen haben. Die Kategorien sind nicht statisch, sondern, je nach Kontext und Stand der Ableitung, veränderlich. Bei der Aufstellung der Regeln braucht man sich nicht darum zu kümmern, welches Merkmal vorhanden ist, sondern nur darum, in welchem Zusammenhang die Merkmale stehen, wenn sie vorkommen sollten. Das hat den Vorteil, daß man dort eine Überspezifikation vermeiden kann, wo bestimmte Merkmale keine Rolle spielen oder noch nicht eindeutig feststehen. Der Mechanismus ist auch nicht auf die morphosyntaktischen Merkmale beschränkt. Über die Vernüpfung entsprechender Parameter in den Regeln ist z. B. eine Unifikation der syntaktischen Struktur mit einer semantischen Repräsentation denkbar, so daß sich beide während des Parsings fortgesetzt gegenseitig einschränken. Unifikationsgram m atiken. Komplexe Kategorien lassen sich mit vielen Grammatiktypen verbinden. Für Sprachen mit komplizierter Morphologie, wie das Deutsche, wird man schlechthin nicht auf komplexe Kategorien verzichten können. Wir sind hier ausführlich auf sie eingegangen, weil im Art. 3 2 z. T. Grammatiken mit einfachen Kategorien vorgeführt werden, um die Darstellung übersichtlich zu halten. Die meisten Verfahren würden auch mit komplexen Kategorien funktionieren. (In Chomsky 1965 werden komplexe Kategorien für das Lexikon eingeführt. In Chomsky 1970 wird erwogen, daß alle Kategorien komplex sein könnten und dadurch Transformationen überflüssig werden. Hays 1966 b, 114 ff. beschreibt eine Implementierung komplexer Kategorien als Bitstrings, über denen sehr effizient Operationen ausgeführt werden können. Umfang-

31.  Parsing natürlicher Sprachen: Grundlagen

reiche Grammatiken in komplexer Notation findet man schon in Brockhaus 1971 und Kratzer/Pause/von Stechow 1974. Zu Parameter-Werte-Grammatiken in jüngster Zeit siehe Karttunen 1984; Shieber 1986. Es bestehen Berührungspunkte zu den in der Informatik bekannten Attributgrammatiken, siehe dazu Knuth 1968; Wijngaarden 1969; Wijngaarden 1974; Pagan 1981). Der Mechanismus zur Verarbeitung komplexer Kategorien ist die Unifikation. Mit Hilfe der Unifikation sind Grammatiken handhabbar, die es früher nicht waren. So galt z. B. die Abhängigkeit zwischen dem Komparativ eines Adjektivs in einer NP und einer PP mit als im Satz, wie oben vorgeführt, als ein Beispiel, das sich von einer kontext-freien Grammatik, jedenfalls mit einigermaßen vertretbarem Aufwand, nicht definieren ließ. Die obigen Regeln beweisen das Gegenteil. Der Typ einer Parameter-Werte-Grammatik im formalen Sinn hängt letztlich von der Art der Attribute ab, welche als Parameter in den Kategorien zugelassen sind. Es steht an sich nichts im Wege, Parameter einzuführen, deren terminale Werte nicht kontext-frei zu ermitteln sind. Z. B. könnten die relativen Positionen der Wörter im Text solche Werte sein (vgl. Hays 1966 b, 117 f.; Hellwig 1978 a, 13 1 f.). Die Wortstellungsparameter, die derartige Werte annehmen können, könnten trotzdem mit demselben Unifikationsalgorithmus bearbeitet werden, wie alle übrigen. Insofern eröffnen Unifikationsgrammatiken auch formal neue Perspektiven. Es gibt Versuche, die Techniken des Theorembeweisens direkt auf Grammatiken anzuwenden. So wird die Logik-Programmiersprache PROLOG zur Implementation von Parsern für Unifikationsgrammatiken verwendet. Die Regeln der Grammatik spielen dabei die Rolle von logischen Gesetzen. Die Analyse eines Satzes gilt als Deduktionsproblem. Gerade der Unifikationsmechanismus ermöglicht es aber auch, völlig auf Regeln zu verzichten, wie es ja die Option der lexikalisierten Grammatiken ist. Komplexe Strukturen entstehen einfach dadurch, daß fortgesetzt die ursprünglich vom Lexikon gelieferten Parameter-Werte-Mengen je zweier Ausdrücke miteinander unifiziert werden, und zwar so, daß der Parameter Subkategorisierung (d. i. die Valenzangabe) in der einen Kategorie mit der Kategorie des anderen Ausdruck in Übereinstimmung gebracht wird. Dies funktioniert besonders reibungslos, wenn die Dependenzrelation zur Grundlage der Repräsentation gemacht ist.

363

(Die Übernahme komplexer Symbole und des Unifikationsmechanismus hat zu einer Konvergenz von ursprünglich recht verschiedenen Grammatikansätzen geführt, so daß man heute von der Gruppe der Unifikationsgrammatiken spricht. Dazu zählen u. a. die Government and Binding (GB)-Theorie (Chomsky 1981a; Chomsky 1982 a und 1982 b), die Generalized Phrase Structure Grammar (GPSG) (Gazdar/Pullum 1984; Gazdar/Klein/Pullum et al. 1985; Evans 1985), die Lexical Functional Grammar (LFG) (Kaplan/Bresnan 1982; Horn 1983 ; Frey/Reyle 1983 ; Eisele 1985), die Definite Clause Grammar (DCG) (Colmerauer 1978; Pereira/Warren 1980; Pereira/Warren 1983 ), die Functional Unification Grammar (FUG) (Kay 1985 a und 1985 b), die Categorial Unification Grammar (CUG) (Uszkoreit 1986), die Dependency Unification Grammar (DUG) (Hellwig 1978 a; Hellwig 1980; Hellwig 1986). Den Versuch, ein allgemeines Format für Unifikationsgrammatiken bereitzustellen, stellt das Program PATR-II dar (Shieber 1986). Über ein Grammatiklabor in PROLOG berichtet Gust (1984). Obsolete Transform ationsgram m atik. Die neuere Entwicklung der Grammatiktheorie hat den transformationalen Ansatz der Syntaxbeschreibung überholt, soweit er durch das Bestreben motiviert war, die Deffizienzen in der Darstellungskraft der Phrasenstrukturgrammatik zu kompensieren. Das zweite Anliegen der generativen Transformationsgrammatik, nämlich die Beziehungen zwischen Sätzen zu beschreiben, läßt sich generell der Deduktionskomponente des natürlichsprachigen Systems zurechnen. Was die Analyse betrifft, so kommt es nur darauf an, daß sie Strukturen liefert, die eine hinreichende Grundlage für Deduktionen darstellen. Versuche, Parser für die generative Transformationsgrammatik zu konstruieren, sind heute nur noch von historischem Interesse. Das Verfahren bestand aus vier Phasen: einer kontextfreien Grammatik für die Analyse der Oberfläche, die aber zu viel akzeptierte; der Anwendung der Transformationsregeln in umgekehrter Richtung; einem Parser der die transformierten, theoretisch der Basiskomponente der Grammatik zugehörigen Ergebnisse der umgekehrten Transformationen analysierte; einem Tester, der die so gewonnenen Basisstrukturen wiederum vorwärts transformierte, um zu ermitteln, ob sich die ursprüngliche Eingabe tatsächlich

VIII. Computer Simulation of Language II: SystemsComponents

364

generieren ließ. (Vgl. Petrick 1965; Zwicky/ Friedman/Hall et al. 1965; Petrick 1973 ; Grishman 1976 und die historische Darstellung King 1983.) Fehlerhafte Äußerungen. Ein Computersystem hat es mit Sprache im Gebrauch zu tun. Äußerungen sind im Sinne des Sprachsystems aber keineswegs immer fehlerfrei. In praktischen Anwendungen ist es daher erwünscht, daß der Parser auch nicht-wohlgeformte Eingaben akzeptiert. Dies führt zu einem Dilemma, da die Grammatik per definitionem genau die wohlgeformten Ausdrücke einer Sprache beschreiben muß. Wird von diesem Grundsatz abgewichen, läßt sich die Grammatik einer Sprache nicht mehr bestimmen. Wird daran festgehalten, ist das Parsing fehlerhafter Äußerungen nicht ohne weiteres möglich. (i) Man kann daran denken, die Grammatik ’liberal’ zu gestalten, d. h. die Anforderungen an die Eigenschaften der wohlgeformten Ausdrücke zu verringern. Das führt aber leicht dazu, daß nun richtige Eingaben falsch oder zumindest eindeutige Eingaben als mehrdeutig beschrieben werden. (ii) Eine andere Möglichkeit ist es, die Reichweite der Grammatik um die erwarteten fehlerhaften Strukturen zu erweitern, diese aber als fehlerhaft zu markieren. (iii) Die beste Lösung wäre es sicherlich, daß der Parser Fehler durch den Vergleich mit einer korrekten Grammatik entdeckt, ohne die Eingabe als unanalysierbar zurückzuweisen. Das ist allerdings eine einschneidende Rahmenbedingung, die mit vielen der bekannten Parsingalgorithmen nicht verträglich ist. Bei den beiden letzten Lösungen wären als Ausgabe des Parsing eine Fehlerdiagnose sowie unter Umständen eine Fehlerkorrektur möglich. Dies wären sehr willkommene Leistungen. (Hayes/Mouradian 1981; Kwasny/ Sondheimer 1981; Charniak 1983 sowie das Sonderheft des Am erican Journal of Com putational Linguistics 9 (1983).)

4.

Parameter für den Parser

4.1. Technische Voraussetzungen Datenstrukturen. Wenn man einen Parser konstruieren will, muß man über Grundkenntnisse der Informatik verfügen. Diese werden hier vorausgesetzt. Damit jedoch der Leser, der keine Erfahrung mit Computern hat, sich vom Funktionieren eines Parsers

eine Vorstellung machen kann, werden im folgenden einige Datenstrukturen erklärt, die im Art. 32 eine Rolle spielen werden. Bereich. Ein Bereich (engl. array) ist ein Speicher, den man sich als Folge von aufsteigend numerierten Zeilen vorstellen kann. (In Art. 3 2 stehen die Nummern in Klammern vor den Zeilen der Bereiche.) Jeder Bereich hat einen Namen, durch den er für das Programm identifizierbar ist. Der Zugriff auf die einzelnen Zeilen kann dynamisch geschehen, indem man eine Variable einführt, die Zeilennummern bezeichnet und deren Wert man berechnet. Eine Laufvariable nimmt nacheinander alle Werte, von einem Anfangs- bis zu einem Endwert, an, und ermöglicht es so, einen Bereich in systematischer Weise zu durchsuchen. Mathematisch gesehen, ist ein Bereich eine geordnete Menge von Elementen. Die Anzahl der Elemente bzw. der beschriebenen Zeilen eines Bereichs ist in der Regel veränderbar. Sie wird durch eine gesonderte Variable festgehalten, die erhöht wird, wenn eine neue Zeile geschrieben wird. In einem mehrdimensionalen Bereich bestehen Elemente wiederum aus Bereichen. Ein zweidimensionaler Bereich ist eine Matrix. Mehrere Bereiche mit der gleichen Anzahl von Zeilen können als Tabelle gedacht werden, deren Zeilen in mehrere Spalten aufgeteilt sind. Die Spalten werden durch ihren Namen identifiziert. Stapelspeicher. Ein Stapelspeicher (auch Kellerspeicher, eng. push-down-store, stack) ist ein Speicher, in dem immer nur das zuletzt eingefügte Element zugänglich ist, das man sich als oben auf dem Stapel befindlich vorstellen kann. Um an ein früheres, und somit tiefer liegendes, Element heranzukommen, müssen erst die später abgespeicherten Elemente wieder entfernt werden. Solche Speicher werden oft als Mittel zur Ablaufkontrolle eines Algorithmus benutzt. Beispielsweise möchte man oft Informationen über bestimmte Aufgaben oder bestimmte Alternativen aufbewahren, während man zunächst andere Aufgaben erledigt. Später kehrt man zu den verbleibenden Aufgaben oder den anderen Alternativen zurück, indem man die Information darüber vom Stapelspeicher holt. Daß dies in systematischer Weise geschieht, ist durch das Prinzip der festen EinAusgabe-Folge garantiert. Implementiert man einen Stapelspeicher als Bereich, so ist immer nur die zuletzt eingefügte Zeile zu-

31.  Parsing natürlicher Sprachen: Grundlagen

gänglich, d. i. in der Regel die Zeile, deren Nummer mit der Anzahl der Elemente im Bereich übereinstimmt. (’Oben’ ist in diesem Speicher also nicht die erste, sondern die letzte Zeile.) Früher abgespeicherte Elemente können dadurch wieder zugänglich werden, daß nacheinander die letzten Zeilen vom Stapel entfernt werden, oder daß die Variable für die Anzahl der beschriebenen Zeilen in einem Schritt auf eine frühere Zeile zurückgesetzt wird. Dadurch sind alle Elemente in den nachfolgenden Zeilen verloren. (Sie werden bei der Speicherung neuer Elemente überschrieben.) Liste. ’Liste’ ist ein terminus technicus für eine Datenstruktur, die einem Graphen mit Knoten und Kanten entspricht. Die Knoten im Graphen werden durch die Elemente der Liste repräsentiert, die Kanten durch sog. Zeiger. Jedes Element der Liste belegt einen bestimmten Speicherplatz und hat eine sog. Adresse, über die es identifizierbar ist. (Man kann Listen als Bereiche implementieren, wobei die Adressen der Listenelemente die Nummern der Zeilen sind, in denen die Elemente gespeichert werden.) Ein Listenelement enthält die Daten, welche der Beschriftung des Knoten im Graphen entsprechen. Zusätzlich enthält es die Adressen derjenigen Elemente, mit denen der entsprechende Knoten im Graphen durch Kanten verbunden ist. Dies sind die Zeiger. Baum förm ige Listen. Baumgraphen werden dazu benutzt, um hierarchische Strukturen darzustellen. In der Regel ist ein solcher Graph das Ziel des Parsings. In einem Baumgraphen sind alle Knoten miteinander durch Kanten verbunden. Siehe Abb. 3 1.4. Zu jedem Knoten führt höchstens eine Kante. Es gibt genau einen Knoten, zu dem keine Kante führt (die sog. Wurzel des Baumes).

365

Beliebig verzweigende Baumgraphen kann man in binär verzweigende umformen und durch Listen mit nur zwei Zeigern darstellen. (Das ist wünschenswert, weil sonst der für die Zeiger benötigte Speicherplatz nicht abgeschätzt werden kann.) Siehe Abb. 3 1.5. Der eine Zeiger (Z1) repräsentiert die Relation zwischen einem übergeordneten Knoten und dem ersten der untergeordneten Knoten. Der andere Zeiger (Z2) stellt die Beziehung zwischen einem Knoten und dem nächsten gleichgeordneten Knoten her.

Abb. 31.5: Liste

Baumgraphen lassen sich eindeutig in Klammerausdrücke überführen, welche eine bequeme Form für die Ein- und Ausgabe darstellen. Dabei werden die einem Knoten des Graphen untergeordneten Knoten je von einem Klammerpaar umgeben, wobei diese Klammern auch all jene Knoten umfassen, die selbst wiederum von dem untergeordneten Knoten dominiert werden. Nebengeordnete Knoten werden oft auch nur von einem Klammerpaar umgeben. Die Abbildungen 3 1.4 und 3 1.5 ergeben die folgenden Klammerausdrücke A (B) (C(E)) (D) A (B C (E) D) Abb. 31.6: Klammerausdrücke

Abb. 31.4: Baumgraph

Netzförm ige Listen. Außer Baumgraphen sind für das Parsing netzförmige Graphen von Interesse. Für sie gilt ebenfalls die Bedingung, daß alle Knoten durch Kanten mitein-

366

ander verbunden sind. In der Regel gibt es auch nur einen Knoten zu dem keine Kante führt (der Eingang in das Netz). Jedoch kann zu jedem Knoten mehr als eine Kante führen und es sind auch Schleifen erlaubt, d. h. Kanten, die von einem Knoten wegführen und wieder in diesen einmünden. Netzgraphen werden in Form von Listen gespeichert, deren Zeiger entsprechend gerichtet sind. Anm erkung zur Verwendung von Zeigern. Über Zeiger kann auf beliebige Speicherplätze Bezug genommen werden. Treten bestimmte Daten an verschiedenen Stellen auf, brauchen sie nicht kopiert zu werden, sondern es genügt, an den betreffenden Stellen einen Zeiger zu speichern, der auf den Speicherplatz gerichtet ist, an dem sich die Daten dauerhaft befinden. Zeiger können also oft die Daten selbst vertreten. Bei der Implementierung von Parsern wird man von dieser Möglichkeit weitestgehend Gebrauch machen. Anm erkung zur Kodierung. Die Speicherung und Verarbeitung von beliebigen Zeichenketten im Computer ist aufwendig. Es empfiehlt sich daher, Daten im Computer numerisch oder als Bitketten zu repräsentieren, die nur bei der Eingabe und Ausgabe in für den Menschen lesbare Symbole übersetzt werden. Komplexe Kategorien können z. B. mit Hilfe (frei definierbarer) Schablonen auf Bitketten abgebildet werden. Für jeden Parameter wird durch die Schablone festgelegt, welcher Ausschnitt in der Bitkette ihm entsprechen soll. Die Merkmalswerte werden durch die Bits (l bzw. 0) in diesen Ausschnitten repräsentiert. Die Unifikation von Kategorien kann dann als Boolesche Operation über Bitketten sehr effizient programmiert werden. 4.2. Bestimmungsstücke des Parsers Aufgaben. Es gibt zwei bzw. drei Aufgaben, die ein Parser zu lösen hat. (i) Der Parser muß die von der Grammatik definierten sprachlichen Einheiten erkennen. Eine Eingabekette, die nicht zur gegebenen Sprache gehört, muß er zurückweisen (d. h. er muß eine Ausgabe erzeugen, welche die Zurückweisung meldet). Unter Umständen verlangen wir, daß der Parser im Falle der Zurückweisung eine Fehlerdiagnose ausgibt. (ii) Der Parser muß zu jeder Eingabekette, die er erkennt, die Strukturbeschreibung(en) gemäß der Grammatik

VIII. Computer Simulation of Language II: SystemsComponents

erzeugen und ausgeben. (iii) Für den Fall, daß wir eine Repräsentation für die Abspeicherung der Eingabe in einer Wissensbasis wünschen, soll das Analyseprogramm die Strukturbeschreibung(en) in eine solche Repräsentation überführen. Die drei Aufgaben lassen sich trennen, so daß man einen Erkenner, einen Parser (im engeren Sinne) und einen Transduktor unterscheidet. Analysetiefe. An das Analyseergebnis des Parsers können mehr oder weniger hohe Anforderungen gestellt werden. (i) In einem Extremfall wird lediglich verlangt, daß der Parser einen Text überfliegt (eng. skimming) und bestimmte linear abgrenzbare Einheiten entdeckt, wobei wir u. U. zulassen, daß nicht identifizierbare Teilstücke ignoriert werden (partielles Parsing). Als Muster für die gesuchten Einheiten dienen reguläre Ausdrücke. Da eine solche lineare Durchmusterung der Eingabe in Compilern für Programmiersprachen dazu verwendet wird, die Einheiten für die eigentliche syntaktische Analyse bereitzustellen, wird sie auch ’lexikalische Analyse’ genannt (vgl. Aho/Sethi/Ullman 1986, 83 ff.). Für Zwecke des information retrieval ist ein solches Überfliegen von Texten u. U. schon ausreichend. (Siehe z. B. Rostek 1979 und Art. 3 2.3 .1.1.) (ii) Im anderen Extremfall wird eine vollständige hierarchische Strukturierung der Eingabe relativ zu einer gegebenen Grammatik verlangt. Dem Folgenden legen wir diese Anforderung an den Parser zugrunde. Parserlogik. Die Datenbestände eines Parsers sind die folgenden: (i) die zu analysierende Eingabekette, (ii) die Grammatik (einschließlich des Lexikons), (iii) die Zwischenresultate, (iv) die Strukturausgabe. Jeder dieser Datenbestände muß während des Parsingprozesses systematisch abgearbeitet werden. Die möglichen Ordnungsprinzipien für die Abarbeitung bilden eine Menge von Parservariablen. Für die Eingabe zählen dazu das Durchlaufen der Elemente in der linearen Abfolge, für die Grammatik ein bestimmter Zugriff auf Regeln oder ein Weg durch ein Netz, für die Zwischenresultate das sequentielle oder parallele Zusammenfügen von systematisch ausgewählten Teilstrukturen. Die grundsätzliche Logik eines Parsers beruht auf einer bestimmten Schachtelung der Parservariablen aller vier Bereiche. (Hays 1966 a, 117 ff.; Barr/Feigenbaum 1981, 256 ff.; Slocum 1981; Winograd 1983 , 3 63 ff.; Karttu-

31.  Parsing natürlicher Sprachen: Grundlagen

nen/Zwicky 1985.) Im folgenden werden die variablen Bestimmungsstücke für die Eingabe, die Grammatik, die Zwischenergebnisse und die Strukturausgabe zusammengestellt. 4.3. Abarbeitung der Eingabe und der Grammatik Analyseeinheiten. Die natürlichsprachigen Zeichenketten werden in den Computer eingelesen. Es sind folgende Unterteilungen des Eingabestroms möglich: (i) Die größten syntaktischen Einheiten, die jeweils durch einen Aufruf des Parsers analysiert werden sollen, sind äußerlich abgegrenzt; die Eingabe eines Textes erfolgt z. B. satzweise. (ii) Das Einlesen geschieht kontinuierlich, bis das Ende der Eingabedatei erreicht ist. Die Ermittlung der Einheiten, denen eine autonome Struktur zugeordnet werden soll, gehört mit zur Aufgabe des Parsers. Segm entierung. Für lexikalische Einheiten (d. s. zugleich die größten morphologischen Einheiten und die kleinsten syntaktischen Einheiten) der Eingabe gibt es folgende Alternativen: (i) Die den lexikalischen Einheiten der Sprache entsprechenden Segmente sind in der Eingabe äußerlich abgegrenzt. (ii) Die lexikalischen Einheiten müssen erst im Laufe der Analyse erkannt werden. (iii) Eine dritte Möglichkeit ist die Regel: die kleinsten äußerlich abgegrenzten Segmente sind Wörter, die aber zum Teil noch weiter zerlegt werden müssen, um zu lexikalischen Grundelementen zu kommen. Lexikonphase. In dieser Phase werden den kleinsten Segmenten in der Eingabe grammatische Informationen zugeordnet. In der Regel wird diese Aufgabe gelöst, indem die Zeichenketten in der Eingabe mit denen in einer Datei verglichen werden. Die Datei stellt das Lexikon dar und enthält zu jeder Zeichenkette die gewünschte grammatische Information. Die Zuordnung kann auf folgende Weisen geschehen: (i) Bei einem Wortformenlexikon entsprechen die Wörter in der Eingabe unmittelbar den Einträgen im Lexikon. (ii) Bei einem Stammformen- oder Grundformenlexikon werden die Wörter in der Eingabe einer morphologischen Analyse unterzogen, wobei die im Lexikon enthaltenen Wortstämme oder Grundformen und eine Menge morphologischer Regeln benutzt werden (vgl. Kay 1977). (iii) Man arbeitet mit einem reduzierten Lexikon, das nur morpho-

367

logisch unanalysierbare Wörter sowie Homographen, die zu mehreren Lesungen führen, enthält. Alle übrigen Wortformen werden allein mit Hilfe der morphologischen Regeln analysiert und interpretiert. (iv) Das Lexikon hat die Form eines finiten Übergangsnetzwerks, bestehend aus Stämmen, Endungen und Derivationselementen. Die Segmente in der Eingabe werden mit Pfaden durch dieses Netzwerk verglichen. Dabei lassen sich Komposita leicht in ihre Bestandteile zerlegen. (Vgl. Hellwig 1980 b, 299 ff.) Die Lexikonphase kann während des Parsingprozesses an folgenden Stellen auftreten: (i) Sie läuft vor Beginn der Analyse ab und erledigt die Aufgabe für die gesamte Eingabe. (ii) Es kommt während der Analyse jedesmal zu einer Lexikonphase, wenn der Erkenner zu einem neuen Wort vorrückt. Das Ergebnis der Lexikonphase hat folgende Struktur: (i) Es gibt eine oder mehrere Folgen von Segmenten (mehrere Folgen, weil mehrere Zerlegungen möglich sind, wie z. B. bei Stau-becken versus Staub-ecken). (ii) Die Segmente sind über ihre Position in der Folge identifizierbar. (iii) Jedem Segment sind eine oder mehrere lexikalische Einheiten zugeordnet (mehrere, wenn das Segment mehrdeutig ist). (iv) Zu jeder lexikalischen Einheit liegt eine Beschreibung vor. Sie umfaßt ein Lexem, eine morpho-syntaktische Kategorie (in der Regel eine Wortart und eine Menge grammatischer Merkmale; ich benutze dafür den Terminus ’lexikalische Kategorie’), sowie ggf. weitere Angaben. Wenn im folgenden von ’Eingabe’ gesprochen wird, ist dadurch das Ergebnis der Lexikonphase gemeint. Abarbeitung der Eingabe. Eines der Organisationsprinzipien des Parsers ist die Abarbeitung der Elemente in der Eingabe. Es gibt folgende, z. T. kombinierbare Möglichkeiten: (i) Die Eingabe wird von links nach rechts (d. i. von Position 1 bis Position n) durchlaufen. (ii) Die Eingabe wird von rechts nach links (d. i. von Position n bis Position 1) durchlaufen. (iii) Es gibt während des gesamten Parsingprozesses nur einen einzigen Durchgang durch die Eingabe (one-pass parsing). In diesem Fall ist das Vorrücken von Position zu Position die primäre Parservariable. Satzgrenzen können überschritten und ganze Texte kontinuierlich durchlaufen werden. (iv) Es gibt wiederholte Durchgänge durch die Eingabe, weil andere

368

Parservariablen übergeordnet sind. (v) Die Abarbeitung der Eingabe erfolgt nicht fortlaufend, sondern z. B. von bestimmten Stellen aus nach links und rechts (Insel-Parsing). (vi) Die Reihenfolge der Elemente in der Eingabe spielt für die Logik des Parsers keine Rolle. Abarbeitung der Gram m atik. Von genereller Bedeutung für die Parserlogik ist das Verhältnis zwischen der Abarbeitung der Eingabe und der Abarbeitung der Grammatik. Es gibt folgende Möglichkeiten der Schachtelung. (i) Die Kontrolle liegt bei der Eingabe. Der Parser rückt von Element zu Element vor und sucht für die Folge von Elementen jeweils in der Grammatk nach passenden Beschreibungen. (ii) Die Kontrolle liegt bei der Grammatik. Der Parser durchläuft alle Beschreibungen und prüft für jede, ob sie auf irgendwelche Ausschnitte in der Eingabe paßt. Die Abarbeitung der Grammatik hängt im einzelnen natürlich von der Form ab, welche die Grammatik hat. Prinzipiell kann man unterscheiden: (i) die Konstruktion einer Strukturbeschreibung durch Anwendung von Ersetzungsregeln, (ii) das Erkennen der Struktur der Eingabe durch Vergleich mit Mustern und Netzwerken, (iii) den Aufbau einer Struktur durch Einsetzen von Teilstrukturen in Leerstellen (slot-filler-approach), (iv) die Ausführung von Prozeduren bei in den Parser integrierten Grammatiken. Ersetzungsregeln. Der Grundgedanke von Ersetzungssystemen ist die Ableitung eines Ergebnisses aus einem Axiom mittels einer Folge von Operationen über Zwischenergebnissen. Gegeben sei eine Ersetzungsregel (oder ’Produktion’) der Form X → Y1 Y2 ... Yn. Wir nennen X die Kategorie der Produktion und Y1, Y2, ..., Yn die (Kategorien der) unmittelbaren Konstituenten der Produktion. Ersetzungsregeln können auf folgende Weisen abgearbeitet werden. (i) Zu einer als Zwischenergebnis vorliegenden nicht-terminalen Kategorie werden Produktionen gesucht, deren Kategorie mit der vorliegenden übereinstimmt. Die Kategorien der unmittelbaren Konstituenten dieser Produktionen werden als neue Zwischenergebnisse erzeugt. Die Regel wird also von links nach rechts angewendet. Eine solche Anwendung heiße ’Expansion’. (ii) Zu einer als Zwischenergebnis vorliegenden Kategorie werden Produktionen gesucht, in denen eine der Kategorien der

VIII. Computer Simulation of Language II: SystemsComponents

unmittelbaren Konstituenten mit der vorliegenden übereinstimmt. Als neue Zwischenergebnisse werden die übrigen unmittelbaren Konstituenten festgehalten sowie die Kategorie der Produktion erzeugt. Die Regel wird also von rechts nach links angewendet. Eine solche Anwendung heiße ’Reduktion’. Der Zugriff auf eine Produktion von den unmittelbaren Konstituenten her wird normalerweise weiter eingeschränkt, und zwar: (i) Die vorliegende Kategorie muß mit der ersten der unmittelbaren Konstituenten in der Produktion übereinstimmen. Diese Kategorie wird ’linker Aufhänger’ (’left handle’) genannt. (ii) Die vorliegende Kategorie muß mit der letzten der unmittelbaren Konstituenten in der Produktion übereinstimmen. Diese Kategorie wird ’rechter Aufhänger’ genannt. Die übrigen unmittelbaren Konstituenten bilden den ’Rest’ (’remainder’). Die Anwendung einer Regel kann davon abhängig gemacht werden, daß alle Kategorien im Rest der Produktion ebenfalls bereits vorliegen. Es sei noch angemerkt, daß die geforderte Übereinstimmung der Kategorien bei Grammatiken mit komplexen Symbolen nicht Identität, sondern Unifizierbarkeit bedeutet. Zu den Vorkehrungen, die getroffen werden müssen, wenn mehrere Produktionen auf eine Kategorie anwendbar sind, siehe unten. (Die Abarbeitung von Ersetzungsregeln ist das übliche Verfahren des auf der Theorie formaler Sprachen basierenden Parsings in der Informatik. Siehe Aho/Ullman 1972; Mayer 1978. Vgl. 32.2. und 3.). Muster und Übergangsnetzwerke. Die Grammatik kann die Form von Mustern haben, die in der linearen Abfolge der Eingabe Entsprechungen finden. Muster für verschiedene Ausschnitte können zu einem Netzwerk kombiniert werden. Der Grundgedanke der Abarbeitung von Mustern und Netzwerken ist der des prüfenden Fortschreitens vom Anfang einer Kette bis zu deren Ende. Eine Grammatik in Form eines einfachen oder rekursiven Übergangsnetzwerkes ist ein Graph, dessen Kanten mit Kategorien beschriftet sind. Im Prinzip wird parallel mit dem Vorrücken in der Eingabe ein Pfad durch das Netz gesucht, sodaß die Kategorien an den begangenen Kanten mit den Kategorien der Einheiten in der Eingabe übereinstimmen. Wiederholt auftretende Teilstrukturen lassen sich abdecken, indem als Bedingung für das Passieren von Kanten das Durchlaufen eines

31.  Parsing natürlicher Sprachen: Grundlagen

separaten Unternetzwerkes für die entsprechende Teilstruktur gefordert wird, wobei dieses Netzwerk auch mit dem gerade in Abarbeitung befindlichen oder einem früher begonnenen Netz identisch sein kann (rekursive Netzwerke). Zur Kontrolle der Schachtelung von Netzen verwendet man Stapelspeicher. Zur Abarbeitung alternativer Kanten siehe unten. In erweiterten Übergangsnetzwerken sind an den Kanten zusätzlich Prozeduren angegeben, die beim Durchlaufen des Netzes aufgerufen werden. (Zur Einführung in die Erkennung sprachlicher Muster siehe Winograd 1983 , 3 5 ff; zu mehr oder weniger oberflächennahen Mustern Weizenbaum 1966; Rostek 1979; Wilks 1983 ; Brodda 1983 ; zu erweiterten Übergangsnetzwerken Bobrow/Fraser 1969; Woods 1970 (deutsch 1976); Bates 1978; Pinkal 1980; Johnson 1983 b; Winograd 1983, 195 ff. und Art. 27.) Slot-filler-Prinzip. Der Grundgedanke des Slot-filler-Verfahrens ist der, daß der komplexe Strukturbaum, der das Ergebnis der Analyse darstellt, dadurch erzeugt werden kann, daß Elemente oder Teilbäume rekursiv in andere Teilbäume eingepaßt werden. Letztere enthalten Leerstellen (slots), d. s. Variablen, deren Relation zu den übrigen Elementen des Teilbaumes schon feststeht, für die aber erst noch konkrete Elemente (filler) gefunden werden müssen. Die kategorialen Anforderungen an diese Elemente werden in den Leerstellen spezifiziert. Auf diese Weise läßt sich die Kombinationsfähigkeit der syntaktischen Einheiten beschreiben. Für die Abarbeitung von Strukturbeschreibungen mit Hilfe von Leerstellen gibt es zwei Möglichkeiten. (i) Zu allen Teilbäumen mit Leerstellen werden unter den übrigen Teilbäumen passende Besetzungen gesucht. (ii) Jeder Teilbaum sucht unter den übrigen Teilbäumen nach einer Leerstelle, für deren Besetzung er geeignet ist. Da das Slot-filler-Prinzip nichts anderes als eine Formalisierung der Kombinationsfähigkeit der sprachlichen Einheiten ist, eignet es sich besonders für dependenzbasierte und lexikalisierte Grammatiken. (Glaserfeld/Pisani 1970; Lindsay 1971; Hellwig 1978 b; Hellwig 1980 b; McCord 1980; Nelimarkka/Jäppinen/Lehtola 1984; Starosta/ Nomura 1986.) Prozeduren. In den bisher besprochenen Fällen erfolgt die Ausarbeitung der Grammatik auf uniforme Weise. Der Austausch einer Grammatik gegen eine andere ändert nichts

369

am Ablauf. Die Initiative für die jeweils nächsten Schritte liegt beim Parser. Dagegen besteht der Grundgedanke einer in Form von Prozeduren geschriebenen Grammatik darin, daß die konkreten, einzelsprachigen Erscheinungen selbst den Ablauf des Parsers steuern sollen. Die Kontrolle über die vorzunehmenden Schritte liegt hier also bei der Grammatik, und zwar nicht nur formal, sondern inhaltlich. Der Algorithmus wird dadurch heterogen und ist nicht auf andere Sprachen übertragbar. Zu den ältesten Parsern seiner Art gehört das Saarbrücker Analysesystem, in dem mit jeweils spezifischen Methoden Wortklassen, Homographen, Subgruppen, nominale, verbale und sonstige Gruppen, Subsätze und Sätze des Deutschen ermittelt wurden. (Vgl. Eggers/Dietrich/Klein et al. 1969; Dietrich/Klein 1974, 92 ff.) Ein extremes Beispiel heterogener Parser aus der Gegenwart ist das Word Expert Parsing. Ihm liegt die Idee des sog. objektorientierten Programmierens zugrunde, bei dem die Module des Programms selbst aktiv an der Bestimmung der nächsten Schritte teilnehmen (vgl. Stoyan/Wedekind 1983 ). Im Fall des Word Expert Parsings entspricht jedem Wort der Eingabesprache ein eigenes Modul. (Small/ Rieger 1982; Small 1983 ; Cottrell/Small 1984; Hahn 1984; Phillips 1984; Reddig 1984; Eimermacher 1986; Mehl 1986.) Steigerung der Effizienz. Um die Abarbeitung der Grammatik effizienter zu machen, kann man mehrere Maßnahmen ergreifen. Die folgenden Maßnahmen sind für Grammatiken in Regelform formuliert. Sie gelten aber analog auch für die anderen Repräsentationsformen. (i) Man sorgt für einen möglichst schnellen Zugriff auf die Regeln. (ii) Man wählt ein möglichst einfaches Regelformat, so daß der Vergleich von Regeln und Zwischenergebnissen unkompliziert ist. (iii) Man versucht möglichst solche Regeln erst gar nicht anzuwenden, die sich später als Sackgassen herausstellen. (iv) Man versucht, dieselbe Aufgabe möglichst nicht mehr als einmal lösen zu müssen. Zugriff auf die Regeln. Ein Mittel zum schnellen Zugriff sind Verzeichnisse, in denen zu jeder Kategorie die Regeln aufgeführt sind, in denen diese Kategorie vorkommt, z. B. als Kategorie der Produktion, als linker oder als rechter Aufhänger. (Sind die Kategorien intern numerisch kodiert, so kann man diese Numerierung zugleich als Adressen in

370

den Verzeichnissen verwenden. Die Verzeichnisse wiederum enthalten nichts anderes als Zeiger auf die Regeln. Damit kann der Zugriff auf die Gramatik so gut wie direkt erfolgen.) Norm alform gram m atik. Um ein möglichst einfaches Regelformat zu erhalten, macht man sich die Äquivalenzbeziehungen zwischen Grammatiken zunutze. So lassen sich z. B. alle kontext-freien Grammatiken automatisch in eine schwach äquivalente sog. Chomsky-Normalform überführen, deren Ersetzungsregeln die Form A → BC oder A → a haben, wobei A, B, C einzelne nicht-terminale Symbole sind und a ein einzelnes terminales Symbol ist. Es kommen in dieser Grammatik also nur binäre Zerlegungen nicht-terminaler Ketten und lexikalische Einsetzungen vor, die sich leicht abarbeiten lassen. (Umformungs-Algorithmus siehe Aho/Ullman 1972, 151 ff.) Prädiktive Analyse. Sackgassen kann man teilweise mit Hilfe einer prädiktiven Grammatik (auch Greibach-Normalform) vermeiden. In eine solche lassen sich ebenfalls alle kontext-freien Grammatiken schwach äquivalent übersetzen. Die Umformung ist reversibel. Die Ersetzungsregeln haben hier die Form A → a α, wobei A ein einzelnes nicht-terminales Symbol, und a eine Kette aus nicht-terminalen Symbolen ist. In dieser Grammatik ist also der linke Aufhänger immer eine lexikalische Kategorie. Eine Produktion wird nur angewendet, wenn diese Kategorie mit der Kategorie des nächsten Elements in der Eingabe übereinstimmt. Statt die Grammatik selbst umzuformen, läßt sich auch eine Matrix erzeugen, der man entnehmen kann, ob und welche Regel von einer gegebenen Kategorie zu einer gegebenen lexikalischen Kategorie als linker Aufhänger führt. (Ist dies genau eine, liegt eine sog. LR(k) — ’left-to-right and right most derivation’ — Grammatik mit k = 1 vor, für die eine deterministische Analyse mit linearem Zeitbedarf möglich ist; vgl. Mayer 1978, 264 ff.) Eher simple prädiktive Vorkehrungen sind die Bedingung, daß eine Produktion keine lexikalische Kategorie enthalten darf, die in der Eingabe gar nicht vorkommt, und die Bedingung, daß die Produktion nicht mehr unmittelbare Konstituenten

VIII. Computer Simulation of Language II: SystemsComponents

enthalten darf, als bis zum Ende der Eingabe noch Elemente vorhanden sind (shaper test). (Umformungs-Algorithmen siehe Aho/Ullman 1972, 153 ff. Zur prädiktiven Analyse siehe Kuno/Oettinger 1963 ; Greibach 1964; Kuno 1965 b; Kuno 1976; unter psychologischen Gesichtspunkten DeJong 1979 a.) Faktorisierung der Regeln. Dieselbe Aufgabe wird u. U. mehrmals zu lösen sein, wenn alternative Regeln teilweise dieselben Konstituenten enthalten, z. B. die folgenden: A→B A → B C. Wurde zunächst die erste Regel gewählt und war die Abarbeitung von B auch erfolgreich, stellt sich aber schließlich doch heraus, daß die Regel nicht paßt (etwa, weil eine Konstituente C in der Eingabe folgt), so wird nach nunmehriger Benutzung der zweiten Regel die Konstituente B wiederum geprüft, was wohlmöglich mit der Anwendung zahlreicher anderer Regeln verbunden ist. Der Ausweg ist die Umformung der Grammatik in eine faktorisierte Normalform. Für diese ist festgelegt, daß alternative Produktionen nicht mit derselben unmittelbaren Konstituente beginnen dürfen. Für die obigen beiden Regeln ergibt dies: A→BX X→C X→ε ’ε’ steht für die leere Kette. Die letzte Regel bewirkt also die Tilgung der Konstituente X. Tilgungen sind allerdings nicht mit allen Parsingtechniken verträglich. Recht gut läßt sich hingegen eine Grammatik als Übergangsnetzwerk faktorisieren. 4.4. Erzeugung und Verwaltung von Ergebnissen Analysestrategien. Aufgabe des Parsers ist es, eine Strukturrepräsentation zu erzeugen. Diese Aufgabe kann nicht auf einmal gelöst werden, sondern nur über eine Reihe von Schritten, die jeweils Teilergebnisse erbringen. Jeder Schritt muß vom bis dahin Bekannten ausgehen; das Vorgehen muß aber vor allem zielorientiert sein, so daß mit Sicherheit die Information hinzugewonnen wird, die zum Endergebnis führt. Normalerweise ist die erwünschte Strukturrepräsentation ein Baumgraph. Gehen wir davon aus, daß es sich um einen Phrasenstrukturbaum handeln soll. Damit ist in der Regel die Wurzel des Baumes, der gesucht wird, bekannt:

31.  Parsing natürlicher Sprachen: Grundlagen

371

sie ist mit dem Startsymbol bzw. dem Axiom der Grammatik identisch. Weiter sind die (möglichen) terminalen Konstituenten des Baumes bekannt, soweit sie während der Lexikonphase ermittelt wurden. Die Konstituenten, die zwischen Wurzel und terminalen Konstituenten liegen, sind dagegen unbekannt. Wir haben also folgende Ausgangslage: Abb. 31.8: Top-down Analyse

Abb. 31.7: Gesuchter Strukturbaum

’S’ ist das Startsymbol, ’t1 — tn’ stellen die in der Lexikonphase ermittelten Kategorien dar. Der gepünktelte Bereich bildet den Teil des Baumes, den es schrittweise zu rekonstruieren gilt: Das einzige, worauf sich der Parser dabei stützen kann, sind die Regeln der Grammatik. Die Regeln definieren Relationen zwischen syntaktischen Einheiten; das heißt aber: sie legen mögliche Ausschnitte von Strukturbäumen fest. Mit ihrer Hilfe können daher von den Eckpunkten der bekannten Kategorien aus, die Kategorien im fraglichen Bereich erschlossen und mit den bekannten verknüpft werden. Die folgenden Strategien unterscheiden sich dadurch, in welcher Reihenfolge dabei vom Bekannten zum noch Unbekannten vorgegangen wird. (Siehe zum folgenden ausführlich Mayer 1978, 79 ff.; De Roeck 1983.) Top-down Analyse. Beim Vorgehen von oben nach unten (top-down) wird an die Wurzel des Baumes angeknüpft und durch fortgesetzte Expansion der Kategorien versucht, schließlich die Folge der lexikalischen Kategorien zu erreichen. Die Produktionen werden also von links nach rechts benutzt. Ein Zwischenstadium einer top-down Analyse (nachdem eine Produktion S → NP VP benutzt worden ist) illustriert der folgende Baum: Der schraffierte Bereich ist der in diesem Stadium bearbeitete Teil des Baumes, der gepünktelte Bereich ist der noch zu bearbeitende.

Bottom -up Analyse. Beim Vorgehen von unten nach oben (bottom-up) bilden die lexikalischen Kategorien die Ausgangspunkte. Es werden Produktionen gesucht, nach denen sich Folgen von ihnen zu einer übergeordneten Kategorie zusammenfassen lassen. Die Produktionen werden also von rechts nach links benutzt. Der Prozeß der Reduktion wird fortgesetzt, bis schließlich die Wurzel des Baumes erreicht ist und das Innere des Baumes vollständig ausgefüllt ist. Ein Zwischenstadium einer bottom-up Analyse (nachdem eine Produktion NP → Det N auf die terminalen Einheiten Det und N angewendet worden ist) illustriert der folgende Baum:

Abb. 31.9: Bottom-up Analyse

Reihenfolge der Ableitungsschritte. Auf dem Weg von der Wurzel des Baumes zu den Endelementen oder umgekehrt werden fortgesetzt Produktionen angewendet. Für die Reihenfolge dieser Anwendungen gibt es folgende Alternativen: (i) Es wird immer die am weitesten links (leftmost) stehende, noch nicht bearbeitete Kategorie als nächste expandiert bzw. reduziert. Analog kann man festlegen, daß immer die nächste am weitesten rechts stehende (rightmost) Kategorie bearbeitet wird. (ii) Die Kategorien werden in der Reihenfolge bearbeitet, wie sie erzeugt worden sind oder ursprünglich vorlagen. Die erste Alternative führt zu einer Analyse Tiefe zuerst’, die zweite zu einer Analyse ’Breite zuerst’.

372

Tiefe zuerst. Das Prinzip der Linksableitung (und analog der Rechtsableitung) führt dazu, daß bei der top-down Analyse auf der linken (rechten) Seite des Baumes zunächst immer tiefere Stufen in der Hierarchie (depth-first) betreten werden, bis schließlich die Ebene der terminalen Symbole erreicht ist. Eine solche Organisation ist sinnvoll, weil die terminalen Kategorien ja bekannt sind und ihre Prüfung daher die bisherige Ableitung frühzeitig verifizieren oder falsifizieren kann. Im Falle der Falsifikation braucht der jeweilige Rest der von den Produktionen erzeugten Kategorien gar nicht weiter bearbeitet werden. Im Falle der Verifikation ist damit der Linkskontext für die weiteren Expansionen bekannt. Der folgende Baum illustriert einen Zustand bei einer top-down leftmost depth-first Analyse:

VIII. Computer Simulation of Language II: SystemsComponents

d. h. die früher erzeugten zuerst, die später erzeugten später, führt dazu, daß der Strukturbaum immer auf ganzer Breite (breadthfirst) ausgefüllt wird. Es wird von Hierarchieebene zu Hierarchieebene fortgeschritten, wobei immer zuerst alles getan wird, was sich auf einer Ebene tun läßt. Dies ist ein sinnvolles Organisationsprinzip für die bottom-up Analyse, denn zwei unmittelbare Konstituenten, die zu einer übergeordneten zusammengefaßt werden sollen, müssen ja auf derselben Ebene stehen und in Bezug auf alle tieferen Ebenen komplett sein. Ein Stadium einer solchen Breite-zuerst Analyse von unten nach oben illustriert der folgende Baum:

Abb. 31.11: Breite zuerst

Abb. 31.10: Tiefe zuerst

Der Linkskontext zu der Konstituente A ist, infolge der Abarbeitung des Baumes von den terminalen Kategorien t1 bis tm, verifiziert. Insofern ist sicher, daß sich die Expansion von A als nächster Schritt lohnt. Eine bottom-up Variante nach dem Prinzip Tiefe-zuerst ist das sog. left-corner Parsing. Dabei wird, ausgehend vom ersten terminalen Element in der Eingabe, jeweils nach einer Kategorie gesucht, deren erste unmittelbare Konstituente die gerade erkannte Kategorie ist, d. h. für welche top-down Analyse die aktuelle, bottom-up gewonnene Kategorie Ziel der Linksableitung sein könnte. Dies sind die Kategorien solcher Produktionen, deren linker Aufhänger die aktuelle Kategorie ist. Werden solche Produktionen gefunden, so wird jeweils die aktuelle Kategorie auf die Kategorie der Produktion hin reduziert (wobei u. U. ein Rest bleibt), bis die Wurzel des Baumes erreicht ist (vgl. Mayer 1978, 87; Aho/Ullman 1972, 310; Kimball 1975). Breite zuerst. Die Abarbeitung von Kategorien in der Reihenfolge ihres Entstehens,

Datengesteuert versus erwartungsgesteuert. Der Vorteil der bottom-up Analyse liegt darin, daß an die sprachlichen Einheiten angeknüpft wird, die tatsächlich in der Eingabe vorhanden sind. Deren Merkmale, einschließlich ihrer syntaktischen Verbindbarkeit (Valenz, Subkategorisierung) sind aufgrund der vorgeschalteten Lexikonphase bekannt. Infolgedessen können die Analyseschritte auf genau die Regeln beschränkt werden, die mit dem vorhandenen Material kompatibel sind. Dagegen besteht bei der topdown Analyse die Gefahr, daß viele Ableitungen erzeugt werden, die mit der terminalen Kette überhaupt nicht zusammenpassen. In mancher Hinsicht ist eine top-down Analyse der bottom-up Analyse aber auch überlegen. Z. B. ermittelt letztere zum Satz (ohne Großschreibung) ich lege die rolle auf den tisch als Zwischenergebnis u. a. einen Imperativsatz rolle auf den tisch. Beim top-down Parsing mit Linkskontext würde eine solche Konstituente, die keinen Platz im Ganzen hat, nicht abgeleitet. Die Analyse von oben her trifft den Sachverhalt besser, daß der menschliche Sprachbenutzer beim Lesen der Wörter Erwartungen aufbaut, die darauf beruhen, daß er schon eine Vorstellung vom

31.  Parsing natürlicher Sprachen: Grundlagen

Ganzen hat. Aus der Erkenntnis heraus, daß beide Verfahren für sich genommen unzureichend sind, sind Parsingverfahren von Interesse, die auf irgendeine Weise bottom-up und top-down Informationen verbinden (z. B. die oben erwähnte prädiktive Analyse oder die im folgenden skizzierten Chart-Parser). Regierend versus abhängig. Die verschiedenen Strategien zur Erschließung der Baumstruktur gelten auch für Dependenzgraphen, nur bedeuten sie hier linguistisch etwas anderes als bei Phrasenstrukturgraphen. Während bei letzteren eine top-down Analyse einem Vorgehen von den umfassenderen zu den kleineren Einheiten, und eine bottom-up Analyse ein Vorgehen von den kleineren zu den umfassenderen darstellt, bedeutet im Dependenzgraphen die Analyse von oben nach unten, daß man von den regierenden Elementen zu den abhängigen übergeht, und die Analyse von unten nach oben, daß zu den abhängigen Elementen die regierenden gesucht werden. Das syntaktische Verhältnis zwischen regierenden und abhängigen Elementen kann man sich so denken, daß erstere Leerstellen (slots) eröffnen, zu denen letztere die Ausfüller (filler) sind. Bei einer top-down Strategie sind demnach Leerstellen die Ausgangspunkte, für die jeweils Teilbäume gesucht werden, die sie ausfüllen können. Dies kann man als erwartungsgesteuertes Vorgehen bezeichnen. Da es viel mehr mögliche Ergänzungen geben wird, als tatsächlich Ausfüller im Satz vorhanden sind, wird bei diesem Verfahren vieles vergeblich gesucht. Bei der bottom-up Strategie liegt die Initiative dagegen bei den Ausfüllern, die gezielt nach passenden Leerstellen suchen. Dies hat den Anschein einer eher datengesteuerten Kontrolle. Nun ist allerdings die Strukturerschließung eines Dependenzbaumes überhaupt datengesteuert, da ja alle Einheiten, seien sie oben oder unten im Baum, lexikalische sind. Verwaltung der Ergebnisse. Die Ergebnisse können auf folgende Weise verwaltet werden: (i) Es ist immer nur das aktuelle Gesamtergebnis gespeichert, nämlich der im Entstehen begriffene Strukturbaum bzw. die ihn betreffende Information. Diese eine Datenstruktur wird im Laufe des Parsings zum Endergebnis ausgebaut. Jede während eines Parserschrittes gewonnene Information geht in sie ein. Es kann passieren, daß Teile der aufgebauten Struktur revidiert werden müssen und daß dann beim Neuaufbau schon einmal geleistete Arbeit wiederholt werden

373

muß. (ii) Alle Zwischenergebnisse bzw. Teilbäume werden in einer Tabelle gespeichert (well-formed substring table). Es kann jederzeit auf sie zurückgegriffen werden. Ein in einem Stadium erstelltes Zwischenergebnis kann in anderem Zusammenhang wieder verwendet werden. Bevor eine Teilaufgabe vom Parser angegangen wird, wird in der Tabelle nachgesehen, ob es evtl. schon eine Lösung gibt, die fertig übernommen werden kann. Chart ist der heute oft gebrauchte Terminus für eine zentrale Datenstruktur, in der alle Teilergebnisse des Parsers zusammengetragen werden. Als visuelle Vorstellung einer Chart wird oft ein Graph aus Knoten (vertices) und Bögen (edges) angeführt. Dabei markieren die Knoten die Grenzen zwischen den Konstituenten (sozusagen die Zwischenräume). Die Bögen überbrücken die Spanne zwischen dem Anfang und dem Ende der im Laufe des Parsing ermittelten Konstituenten. Die Knoten sind numeriert, die Bögen mit den Kategorien der Konstituenten beschriftet. In dieser Gestalt ist eine Chart gewissermaßen ein Übergangsnetzwerk für Ergebnisse. Die endgültige Chart zum mehrdeutigen Satz ich m öchte gern rum kugeln kann man sich z. B. so denken:

Abb. 31.12: Chart

Die Chart ermöglicht es, daß die nichtmehrdeutigen Konstituenten NP: ich und Adv: gern in beide Sätze eingebaut werden können, aber nur einmal analysiert werden müssen. Statt der Kategorien an den Bögen enthält eine verallgemeinerte Chart Listen oder komplexe Merkmalsmengen, die die Struktur der entsprechenden Konstituenten beschreiben. Eine Chart ist somit letztlich eine Abbildung alternativer und sich überlappender Strukturbäume auf die Eingabekette. (Kaplan 1973 ; Kay 1973 ; Dostert/

374

Thompson 1976; Kay 1977; Colmerauer 1978; Bear/Karttunen 1979; Brecht 1979; Charniak 1983 ; Church 1983 ; Thompson/ Ritchie 1984; Varile 1983 ; Luckhardt 1985; Görz/Beckstein 1986.) Agenda. Es gibt Parser, deren Logik auf der uniformen Abarbeitung von Zwischenergebnis-Tabellen beruht. (Die bekanntesten sind der Cocke-Algorithmus und der EarleyAlgorithmus; siehe 3 2.2.) Andererseits eröffnet eine Datenstruktur, in der die verschiedenen Ergebnisse zusammengetragen werden, gerade die Chance, verschiedene Strategien zu kombinieren und heterogene Kontrollstrukturen zu erproben, insbesondere eine Verbindung von top-down und bottom-up Analyse sowie ein Vorrücken in der Eingabe sowohl nach rechts wie nach links. Diese Flexibilität ist das Motiv für manche Chart-Parser. Die Aktionen, die auszuführen sind, werden zunächst in einem Agenda genannten Speicher eingetragen (Kay 1977). Solche Eintragungen können aus vielen Quellen stammen, u. a. auch aus Abarbeitungen der Chart. Von der Agenda werden die Aktionen dann abgerufen, wobei die Auswahl und Reihenfolge ebenfalls heterarchisch geregelt sein kann. 4.5. Verfahren bei Alternativen Ursachen für Alternativen. Alternativen auf verschiedenen Ebenen sind für die natürliche Sprache geradezu konstitutiv. Sie sind die Voraussetzung dafür, daß mit beschränkten Mitteln unbeschränkt viel ausgesagt werden kann. Trotzdem macht es dem menschlichen Hörer/Leser offensichtlich keine Mühe, Äußerungen im linearen Fortschreiten des Hörens/Lesens eindeutige Lesungen zuzuordnen. Alternativen kommen ihm dabei kaum zu Bewußtsein. Diesen Prozeß nachzubilden, bleibt eine Aufgabe für zukünftige Parser. (Vgl. dazu Marcus, M. P. 1980 und die über seinen ’deterministischen’ Parser geführte Diskussion, Charniak 198 3 ; Sabah/Rady 198 3 ; Sampson 198 3 ; Thompson/Ritchie 1984; Thiel 1986). Ein Automat, für den in jedem Zustand feststeht, welcher Schritt als nächstes erfolgen muß, heißt deterministisch. Nicht-deterministische Zustände eines Parsers für natürliche Sprachen können folgende Ursachen haben: (i) Die grammatische Beschreibung ist zu grob. (ii) Es ist zu wenig Kontext oder zu wenig Information aus anderen Bereichen (Semantik, Pragmatik) ver-

VIII. Computer Simulation of Language II: SystemsComponents

fügbar. Dies liegt bei Zwischenergebnissen in der Natur der Sache. (iii) Es liegt wirkliche, z. B. gewollte, Mehrdeutigkeit vor. Aus letzterer Möglichkeit folgt, daß ein Parser für natürliche Sprachen im Prinzip nicht vollständig deterministisch sein kann. Im folgenden sind Maßnahmen zusammengestellt, die zur Lösung der Probleme getroffen werden können. Determ inistische Abarbeitung. Ein Computerprogramm ist immer deterministisch. Nicht-deterministische Zustände können jedoch deterministisch abgearbeitet werden. Es gibt dazu zwei Möglichkeiten: (i) Die Alternativen werden nacheinander abgearbeitet. Eine Alternative wird so weit wie möglich verfolgt. Anschließend wird der Parser in den alten Zustand zurückversetzt (backtracking) und die nächste Alternative wird verfolgt. Dies wird fortgesetzt, bis keine Alternative mehr unbearbeitet ist. (ii) Alle Alternativen werden gleichzeitig abgearbeitet (Parallelverarbeitung). Das heißt, daß die Kontrolle verzweigt und der Automat Mengen von Zuständen hat, bzw. daß eine Menge von Automaten an demselben Problem arbeiten. Soweit dazu nicht eine Hardware mit Parallelprozessoren zur Verfügung steht, werden die parallelen Pfade in Wirklichkeit nacheinander beschritten. Backtracking. Beim Abarbeiten von Alternativen mit Rücksetzen sind zwei Aufgaben zu lösen: (i) über die aufgetretenen Alternativen muß buchgeführt werden. Die Reihenfolge der Bearbeitung muß geregelt werden. (ii) Jeder Zustand, in dem eine Alternative gewählt wird, muß vollständig rekonstruierbar sein, um ggf. eine andere Wahl treffen zu können. Die klassische Lösung der beiden Aufgaben ist die folgende (vgl. Aho/Ullman 1972, 282 ff.; Winograd 1983 , 99 ff.): Innerhalb eines Zustandes werden die Alternativen in der Reihenfolge ihrer Auflistung ausgewählt (also z. B. von mehreren alternativen Regeln in der Grammatik zuerst die erste, dann die zweite usw.). Treten in aufeinander folgenden Zuständen Alternativen auf, so wird immer zuerst zum jüngsten Zustand zurückgesetzt. Erst wenn dessen Alternativen sämtlich geprüft worden sind, wird der vorangehende Zustand rekonstruiert und den dortigen Alternativen nachgegangen, und so fort, bis schließlich wieder der Zustand erreicht ist, in dem die erste Alternative aufgetreten ist. Die Abarbeitung folgt also dem Prinzip Tiefe-zuerst. Zur Kontrolle benutzt

31.  Parsing natürlicher Sprachen: Grundlagen

man einen Stapelspeicher. Oben auf dem Stapel wird stets die nächste unbearbeitete Alternative des jüngsten Zustandes gesetzt. Nach dem Rücksetzen, wird diese zur Bearbeitung ausgewählt und gleichzeitig vom Stapel entfernt. Falls im gleichen Zustand eine weitere unbearbeitete Alternative vorhanden ist, wird diese auf den Stapel gesetzt. In jedem Zustand, zu dem zurückgesetzt wird, müssen die bis dahin erarbeiteten Ergebnisse sowie die aktuellen Werte der Parsingvariablen (wie z. B. die erreichte Position in der Eingabe) wiederhergestellt und später hinzugefügte Ergebnisse und geänderte Werte annulliert werden. Die benötigte Information kann man jedesmal, wenn man eine Alternative auf den Stapel setzt, mit abspeichern. Ökonomischer ist es, wenn man ohnehin beim Übergang von einem Zustand zum anderen, die Information über den alten Zustand nicht überschreibt, sondern die neue Information nur hinzufügt. Dann braucht im Rücksetzspeicher nur ein Zeiger auf die jeweils aktuelle Zustandsbeschreibung gesetzt zu werden, um diese später wiederherstellen zu können. Erst beim Rücksetzen werden Zustandsbeschreibungen überschrieben, nämlich alle, die chronologisch auf den Zustand, auf den zurückgesetzt wird, gefolgt sind. (Siehe Beispiele in Art. 3 2.) Schematisches Backtrakking ist überaus kostspielig. Der Aufwand wächst exponentiell mit der Länge der Eingabe. So kann es ja sein, daß bereits die erste Wahl falsch war, z. B. die Wahl zwischen Vollverb und Kopula in den Sätzen Ist die Schreibm aschine in m einem Büro? oder Ist die Schreibm aschine in m einem Büro defekt? Bis der Algorithmus zu dieser Stelle zurückkehrt, verfolgt er erst alle Verästelungen nachfolgender Alternativen. Ist die Anfangsentscheidung dann korrigiert, kann es sein, daß anschließend wieder dieselben Alternativen auftreten wie vorher. Sie müssen aber wieder gänzlich neu bearbeitet werden. Zu erwägen sind daher andere Organisationsprinzipien. Eine davon ist explizites Backtracking (vgl. Koch 1979, 24). Oft ist es beim Schreiben der Grammatik abzusehen, unter welchen Umständen der Parser in eine Sackgasse geraten kann und was die Ursache dafür ist. Man kann daher an diesen Stellen in der Grammatik explizit Rücksprungbefehle zu den richtigen Alternativen einfügen. Beim obigen Beispiel ist je nach Auftreten des prädikativen Adjektivs am Schluß des Satzes klar, daß ein

375

Scheitern des Parsers an einer Fehlinterpretation des finiten Verbs am Anfang des Satzes gelegen haben muß. Man kann also sofort zu dieser Stelle zurücksetzen lassen. Wenn der Parser nur eine einzige Analyse finden muß, kann auch eine Anordnung der Alternativen nach abnehmender Wahrscheinlichkeit die Effizienz steigern, da nach einem ersten Erfolg die übrigen Alternativen nicht mehr bearbeitet werden müssen. Anders liegt der Fall, wenn verlangt wird, daß der Parser alle Lesungen einer mehrdeutigen Eingabe erkennen muß. Parallelverarbeitung. Die parallele Abarbeitung von Alternativen entspricht dem Prinzip Breite-zuerst. Insofern diese sequentiell implementiert werden muß, werden die einzelnen Alternativen in der Reihenfolge, in der sie auftreten, bearbeitet. Man braucht zur Kontrolle also einen Speicher, dem am Ende Alternativen hinzugefügt und am Anfang Alternativen entnommen werden. Alle Alternativen sind verarbeitet, wenn im Gefolge der letzten anstehenden Alternative keine neue mehr entstanden ist, wenn also der Anfang des Speichers sozusagen das Ende einholt. Komplexer als die Ablaufkontrolle ist die Verwaltung der alternativen Zustände und Ergebnisse. Dazu eignet sich am besten eine zentrale Datenstruktur wie die oben erwähnten Tabellen oder Charts. Der große Vorteil dieser Organisation liegt darin, daß ein bestimmtes Ergebnis nur einmal erzeugt und dann in vielen parallelen Schritten verwendet werden kann. Beschränkung der Alternativen. Man wird auch versuchen, die Ursachen für das nichtdeterministische Verhalten des Parsers möglichst zu beseitigen. Dazu gehört eine Verfeinerung der grammatischen Beschreibung, so daß fehlerhafte Zwischenresultate vermieden werden. Mit Hilfe komplexer Kategorien und des Unifikationsmechanismus macht man sich Kongruenzbeziehungen und sonstige Selektionen bei der Entscheidung zwischen scheinbaren Alternativen zunutze. Man wählt Parsingstrategien, bei denen der Kontext berücksichtigt wird, wie z. B. der vorangehende in links-assoziativen Ableitungen oder der folgende bei der prädikativen Analyse. Aufschub von Entscheidungen. Eine sinnvolle Taktik ist es, Entscheidungen nicht zu früh zu treffen. So wird auch der menschliche Hörer nicht nachgrübeln, welcher Kasus bei den alten Mann oder bei den alten Leuten

376

vorliegt, solange er nur den alten gehört hat, sondern abwarten, bis das Substantiv aufgetreten ist. Es gibt Versuche, diesen Aufschub von Entscheidungen auch in Parsern nachzubilden (siehe Schank/Lebowitz/Birnbaum 1980; Marcus 1980). Effizienz m aß. Im Zusammenhang mit dem nicht-deterministischen Verhalten von Parsern stellt sich die Frage nach einem Maß für die Effizienz der verschiedenen Algorithmen. Neben dem Aufwand an Speicherplatz ist es vor allem die Rechenzeit, welche die Effizienz ausmacht. Ein Maß für den Zeitaufwand verschiedener Parsingalgorithmen muß natürlich von der Implementierung auf einer konkreten Maschine unabhängig sein. Es sind zwei Größen, relativ zu denen die Rechenzeit anzugeben ist: die Abarbeitung der Grammatik und die Länge der Eingabe. Normalerweise nimmt man an, daß die Zeit, die ein Parser braucht, um die gegebene Grammatik abzuarbeiten, konstant ist, während der Aufwand, den die Eingabe verlangt, linear bis exponentiell mit der Anzahl der Elemente in der Eingabe steigt. Die Formel für die Effizienz eines Parsers lautet daher: Zeit = Konstante × LängeExponent Eines der effizientesten Verfahren, der Early-Algorithmus, benötigt im schlimmsten Fall eine Zeit relativ zur Länge hoch drei. Allerdings ist die Konstante für die Abarbeitung der Grammatik nicht minder wichtig als die Länge der Eingabe. Ist diese Konstante sehr groß, macht sie eine eventuelle Überlegenheit des Parsers bei längeren Eingaben wieder zunichte. (Vgl. Charniak/McDermott 1985, 220 ff.) 4.6. Interaktion von Syntax, Semantik und Pragmatik Sem antisches Wissen. Wenn Hörer und Leser offensichtlich ohne Schwierigkeit die Struktur von Äußerungen erfassen, liegt es wohl daran, daß sie das Gehörte/Gelesene fortgesetzt interpretieren und in ein kognitives Modell des Gegenstandsbereiches einpassen. Es liegt daher nahe, auch die Probleme des maschinellen Parsings unter Zuhilfenahme der Semantik zu lösen. Es geht dabei hier nicht um die mit der Syntax ohnehin verschränkte Satzsemantik, sondern um die mit dem Weltwissen zusammenhängende Interpretation. (Dieser Unterschied wird freilich nicht immer gesehen.) Zur Weltwissenssemantik rechne ich auch die lexikalische Bedeutung

VIII. Computer Simulation of Language II: SystemsComponents

der referentiell zu verwendenden Wörter, weil deren Gebrauchsbedingungen natürlich die Außenwelt einbeziehen müssen. Repräsentiert wird das semantische Wissen u. a. durch semantische und selektionale Merkmale, semantische Netze, Begriffssysteme, Rahmen (frames, scripts, templates), Wissensbasen und Datenbanken verschiedener Art. Auf die einzelnen Formen kann hier nicht eingegangen werden. Im großen und ganzen besteht das semantische Parsing darin, aus den Wörtern und Satzteilen Begriffe zu abstrahieren und Kollokationen dieser Begriffe mit Mustern zu vergleichen, nach denen die Begriffe einander im vorliegenden Objektbereich zugeordnet sind. Formal ist semantisches Parsing daher selten mehr als ein oberflächennahes Skimming. (Vgl. Minsky 1968; Winograd 1972; Riesbeck 1975; Schank 1975; Wilks 1975; Charniak/Wilks 1976; Wilks 1976 a und 1976 b; Winograd 1976 b und 1976 c; Eisenberg 1977; Hendrix 1977 a; Schank/Abelson 1977; Waltz 1978; Wilks 1978 b; DeJong 1979 a; Landsbergen/ Scha 1979; Laubsch 1979; Harris 1980 b; Dyer 1981; Kunze 1981; Charniak 1982; Bunt/Schwartzenberg 1982; Riesbeck 1982; Lebowitz 1983 a; Lesmo/Torasso 1983 ; Ritchie 1983 ; Wilks 1983 ; Capelli/Ferrari/Moretti et al. 1984; Simmons 1984.) Pragm atik. Es sind auch Versuche unternommen worden, die Pragmatik der Äußerungen bei der Analyse zu berücksichtigen, wie Sprecher-Hörer-Verhältnis, Dialogkontext, Thematik. Eine pragmatische Größe ist die Textkohärenz, die sich syntaktisch im Aufbau des Textes niederschlägt. In Zukunft wird daher das Parsen von Sätzen vielleicht im Parsen von Texten aufgehen. Zur Zeit existieren dazu jedoch nicht mehr als rudimentäre Ansätze. (Vgl. Weizenbaum 1967; Bobrow/Kaplan/Kay 1977; Sallis 1978; Rostek 1979; Parkinson/Colby/Faught 1977; Correira 1980; Silva/Dwiggins 1980; Hahn, W. v./Hoeppner/Jameson et al. 1980; Bátori 1981a; Hirst 1981; Wilensky 1981; Hobbs 1982; Hahn 1984; Hellwig 1984; Leinfellner/ Steinacker/Trost 1984; Rollinger 1984; Sidner 1985.) Kontrollstrukturen. Das Zusammenspiel von Syntax und Semantik (die Pragmatik in letzterer eingeschlossen) kann wie folgt geregelt werden: (i) Syntax ohne Semantik: Die Syntaxkomponente erzeugt, soweit sich Mehrdeutigkeiten nicht allein syntaktisch

31.  Parsing natürlicher Sprachen: Grundlagen

auflösen lassen, mehrere Ergebnisse. Die Lesungen werden anschließend an die Semantikkomponente zur Entscheidung weitergegeben (serielle Architektur). (ii) Syntax mit Semantik unter syntaktischer Kontrolle: Die Semantikkomponente wird von der Syntax gezielt aufgerufen, wenn Ambiguitäten auftreten. Unterschiede ergeben sich daraus, wie frühzeitig dies geschieht. Hierher sind auch selektionale semantische Merkmale zu rechnen, die syntaktischen Positionen zugeordnet werden. (Zur Abwägung des Nutzens siehe Woods 1973 b, 144. Es ist keineswegs sicher, daß semantische Routinen dem Parser mehr Arbeit ersparen, als die autonome Syntaxanalyse dem semantischen Interpreter Arbeit abnimmt.) (iii) Semantik ohne Syntax oder Syntax unter semantischer Kontrolle: Die Eingabe wird nach Begriffen durchmustert, die sich in ein Modell des Objektbereiches einpassen lassen, das z. B. Beschreibungen typischer Situationen, Gegenstände, Personen, Handlungen usw. umfaßt. Im Extremfall wird die Syntax überhaupt nicht beachtet. Ansonsten wird sie nur hinzugezogen, wenn die Begriffsfolgen mehrere Interpretationen erlauben. Im Ansatz gehört auch der Versuch hierher, die syntaktische Analyse von sog. Tiefenkasus her zu steuern. (iv) Syntax und Semantik integriert: Die Syntax erzeugt fortwährend eine Eingabe für die Semantik (kaskadierte Architektur) oder die Kontrolle wechselt: einmal führen syntaktische, einmal führen semantische Kriterien zum nächsten Schritt. (Vgl. Woods 1980; Gehrke 1982; Christaller/Metzing 1983 ; Phillips 1983 ; Ritchie 1983 ; Granger/Eiselt/Holbrook 1984; Charniak/McDermott 1985, 23 8 ff.; Christaller 1985; Crain/Steedman 1985.) 4.7. Ausgabe einer Strukturrepräsentation Strukturbeschreibung. Von einem Parser verlangen wir eine Darstellung des Aufbaus des Eingabesatzes. Von einem Transduktor verlangen wir eine disambiguierte Repräsentation der Eingabe, die für die Zwecke der Weiterverarbeitung innerhalb des natürlichsprachigen Systems geeignet ist. Als Darstellung des Aufbaus kommen vor allem Phrasenstrukturbäume oder Dependenzbäume infrage. (In Entwicklungssystemen sind auch Herleitungen der Strukturen als Ausgabe wünschenswert.) Es gibt zwei Möglichkeiten,

377

für die Ausgabe eines Strukturbaumes zu sorgen: (i) Der Erkenner produziert Daten, auf deren Grundlage anschließend ein separater Algorithmus einen Strukturbaum erzeugt. Die Daten können z. B. aus den Nummern der Regeln, die für eine rechte oder linke Ableitung der Eingabekette benötigt wurden, bestehen (d. i. ein sog. ’Kennwort’ oder ’Parse’, Mayer 1978, 25). Oder es sind zu den ermittelten syntaktischen Einheiten jeweils die unmittelbaren Konstituenten notiert worden (vgl. Brockhaus 1971, 3 4 f.). (ii) Es werden parallel zum Erkennen der syntaktischen Einheiten entsprechende Strukturbäume aufgebaut. Diese können sogar zur Ablaufkontrolle des Erkenners benutzt werden. Repräsentation. Als Repräsentation für die Weiterverarbeitung kommen beliebige Sprachen infrage. Häufig werden Logik-Formalismen oder Datenbank-Abfrage-Sprachen verwendet. Es gibt zwei Möglichkeiten eine Repräsentation herzustellen: (i) Nachdem ein Strukturbaum zur natürlichsprachigen Eingabe erzeugt wurde, wird dieser mit Hilfe eines separaten Algorithmus in die Repräsentation übersetzt. (ii) Parallel zur Syntaxanalyse der natürlichen Sprache wird bereits die angestrebte Repräsentation aufgebaut. Die Voraussetzung dafür ist allerdings, daß sich die Teilstrukturen der natürlichen Sprache und der Repräsentationssprache korrelieren lassen (rule-to-rule Prinzip). Der Unifikationsmechanismus bietet eine gute Handhabe, parallel zwei Strukturen zu erzeugen, wobei auch etwaige Restriktionen der semantischen Repräsentationssprache auf die syntaktische Analyse der natürlichen Sprache zurückwirken. Auf diese Weise können Satzsyntax und Satzsemantik elegant integriert werden. (Zum zwei-phasigen Verfahren vgl. Berry-Rhogge/Wulz 1977; Bronnenberg/Bunt/Landsbergen et al. 1979; Landsbergen 1981; Bunt/Schwartzenberg 1982; Halvorsen 1982 a und 1982 b; Frey 1984; zum rule-to-rule Verfahren Brockhaus/Stechow 1971; Friedman/Warren 1978; Bohnert/ Backer 1979; Gawron/King/Lamping et al. 1982; Root 1982; Warren/Friedman 1982; Karttunen/Kay 1985; Gazdar/Klein/Pullum et al. 1985.) Peter Hellwig, Heidelberg (Bundesrepublik Deutschland)

VIII. Computer Simulation of Language II: SystemsComponents

378

32. Parsing natürlicher Sprachen: Realisierungen 1. 1.1. 1.2. 2. 2.1. 2.2. 3. 3.1. 3.2. 4. 4.1. 4.2. 5.

Ableitungsorientierte Phrasenstrukturparser Top-down Parser Bottom-up Parser Phrasenstruktur-Parser mit Teilergebnistabellen (chart parser) Top-down Parser mit geteilten Produktionen Bottom-up Parser mit Teilergebnistabelle Parsing mit Mustern und Übergangsnetzwerken Zeichenkettenorientierte Mustererkennung Prozedurale Netzwerke Lexikonbasierte Parser Am Konstituentenprinzip orientierte Verfahren Parsing nach dem Slot-und-Filler-Prinzip Literatur (in Auswahl)

Der Artikel 31: Grund lagen d es Parsings natürlicher Sprachen wird im folgend en vorausgesetzt. Begriffe, d ie im Artikel 31 näher erläutert werd en, sind mit * gekennzeichnet. Verglichen mit d en tatsächlichen Phänomenen natürlicher Sprachen, sind d ie folgend en Beispiele stark vereinfacht. Statt einfacher Kategorien müssen in Wirklichkeit d urchweg grammatische Merkmalsmengen miteinand er in Übereinstimmung gebracht werd en. Für viele Erscheinungen gibt es überhaupt noch keine generellen Analyseverfahren.

1.

Ableitungsorientierte Phrasenstrukturparser

Bei d en folgend en Verfahren besteht d ie *Analysestrategie d arin, d ie Ableitung d er zu analysierend en Symbolkette aus einem Anfangssymbol nach d en *Ersetzungsregeln einer *Konstituentenstrukturgrammatik zu rekonstruieren. Falls d ies gelingt, wird d ie Eingabe akzeptiert. Die Ausgabe ist ein Konstituentenstrukturbaum, d essen Verzweigungen der Anwendung der Regeln entsprechen. 1.1. Top-down Parser Die Rekonstruktion d er Ableitung beginnt mit d em Anfangssymbol, d as d ie Konstituente bezeichnet, welche von d er gesamten Eingabe gebild et wird . Nach d en Regeln d er Grammatik werd en d ie Symbole für Konstituenten fortgesetzt d urch Symbolfolgen für d eren Teile ersetzt, bis d ie d er Eingabe zugeord nete Kette lexikalischer Kategorien abgeleitet ist. Die Regeln werd en also von links

nach rechts angewand t; d er gesuchte Konstituentenstrukturbaum wird von oben nach unten entwickelt. (Unter lexikalischen Kategorien verstehen wir d ie syntaktischen Kategorien, d ie d em Lexikon entnommen werd en, also in d er Regel Wortarten und grammatische Merkmale; in d er Theorie d er formalen Sprachen spricht man von prä-terminalen Symbolen.) 1.1.1. Top-down Parser mit Rücksetzen Prinzip: Beginnend mit d em Anfangssymbol d er Grammatik wird d urch Expansion d er Kategorien, von oben nach unten, *Tiefe zuerst, eine *Linksableitung erzeugt. Immer, wenn als äußerst linke Konstituente eine lexikalische Kategorie abgeleitet word en ist, wird d iese mit d er lexikalischen Kategorie d es nächsten Elements in d er Eingabe verglichen. Stimmen beid e überein, wird in d er Eingabe um eins weiter gerückt und in d er Ableitung zum nächsten Symbol eine Expansion gesucht. Die Eingabe wird so von links nach rechts in einem Durchgang d urchlaufen. Gibt es für ein in d er Ableitung anstehend es Symbol alternative Expansionen, so wird zunächst d ie erste Alternative soweit wie möglich weiter verfolgt. Ist zu einem anstehend en Symbol keine Expansion mehr möglich und d eckt es sich auch nicht mit d er Kategorie d es Eingabeelements an d er aktuellen Position, so wird d ie nächste d er zuletzt aufgetretenen Alternativen ausprobiert (schematisches *Backtracking). Dabei muß auch zu d er zur Zeit d er Alternative aktuellen Position in d er Eingabe zurückgegangen werd en. (Aho/Ullman 1972, 289 ff.; Mayer 1978, 141 ff.; Klenk/Mau 1979; Winograd 1983, 94.) Voraussetzungen: (V-1) eine dem Anfangssymbol der Grammatik entsprechende *Vorsegmentierung des Eingabetextes (also z. B. Eingabe satzweise). (V-2) ein Lexikon, mit dessen Hilfe den Elementen der Eingabe (in der Regel den Wörtern) grammatische Kategorien zugewiesen werden (in der *Lexikonphase). (V-3) ein Eingabebereich, in dem die den Elementen zugewiesenen Kategorien in der Reihenfolge der Eingabe gespeichert werden. (V-4) eine Variable, die die laufende Position in der Eingabe bezeichnet und zu Be-

379

ginn den Wert 1 hat, sowie eine Variable, die die Zahl der eingelesenen Elemente enthält. (V-5) die Menge der Ersetzungsregeln einer kontextfreien Phrasenstrukturgrammatik ohne Linksrekursivität. (Bei dem folgenden Verfahren ist eine linksrekursive Regel pro Kategorie allerdings nicht schädlich, wenn ihr die nicht-rekursiven Regeln vorangehen).

Abb. 32.1: Top-down Parser mit Rücksetzen

(V-6) ein Arbeitsbereich, der (in der jeweils letzten Zeile) die noch zu verarbeitenden Symbole der Ableitung in der Ordnung von links nach rechts enthält.

380

Das am weitesten links stehende Symbol (in dieser Zeile) ist das als nächstes zur Verarbeitung anstehende Symbol. Zu Beginn enthält dieser Bereich nur das Anfangssymbol der Grammatik (in der ersten Zeile). (V-7) ein Rücksetzspeicher, d. i. ein *Stapelspeicher, in dem im Falle von Alternativen die laufende Position im Eingabebereich, der Zustand des Arbeitsbereichs (notiert in Form der aktuellen Zeilennummer) und die nächste der alternativen Regeln festgehalten wird. Algorithmus: (A-1) Expansion: Ist kein anstehendes Symbol vorhanden, so weiter (A-4). Steht das anstehende Symbol im Arbeitsbereich auf der linken Seite einer Regel, so ersetze es (in einer Kopie auf einer neuen Zeile) durch die Folge der Symbole auf der rechten Seite der Regel (dadurch wird das erste Symbol dieser Folge das neue anstehende Symbol im Arbeitsbereich). Steht das anstehende Symbol auf der linken Seite einer weiteren Regel, so mache einen neuen Eintrag im Rücksetzspeicher, bestehend aus der laufenden Position, der aktuellen Zeile im Arbeitsbereich und der Nummer dieser alternativ anwendbaren Regel. Wurde eine Regel gefunden, so weiter (A-1). Sonst weiter (A-2). (A-2) Erkennen: Stimmt die Kategorie des anstehenden Symbols im Arbeitsbereich mit der Kategorie an der laufenden Position im Eingabebereich überein, so entferne (in einer Kopie auf einer neuen Zeile) das anstehende Symbol (dadurch wird das nächste Symbol in der Folge das anstehende), erhöhe die laufende Position im Eingabebereich um 1, und weiter (A-3). Sonst weiter (A-4). (A-3) Erfolgsprüfung: Ist die laufende Position nicht größer als die Zahl der Elemente in der Eingabe, so weiter (A-1). Überschreitet die laufende Position die Zahl der Elemente und steht im Arbeitsbereich kein Symbol mehr an, so akzeptiere die Eingabe. Sollen alle Strukturen einer möglicherweise mehrdeutigen Eingabe ermittelt werden, so weiter (A-4), andernfalls beende die Prozedur. Stehen im Arbeitsbereich noch Symbole an, so weiter (A-4).

VIII. Computer Simulation of Language II: SystemsComponents

(A-4) Rücksetzen: Ist der Rücksetzspeicher leer, so weiter (A-5). Sonst ersetze die laufende Position, die aktuelle Zeile im Arbeitsbereich sowie die nächste zu benutzende Regel durch die entsprechenden Werte des jüngsten Eintrags im Rücksetzspeicher. Entferne diesen Eintrag vom Rücksetzspeicher. Damit ist der Zustand im Arbeitsbereich vor der Anwendung der letzten Regel wieder hergestellt. Weiter (A-1). (A-5) Mißerfolg: Ist zu keiner Zeit die Erfolgsbedingung in (A-3) erfüllt gewesen, so weise die Eingabe zurück. Beende die Prozedur. Anmerkung. Der Arbeitsbereich ist eine Art Protokoll d er Schritte d es Parsers. Beim Rücksetzen d er Laufvariable A auf einen früheren Wert bleiben alle vorangehend en Zeilen erhalten, alle folgend en werd en überschrieben, d . h. d ie entsprechend en Expansionen sind annulliert. Der Rücksetzspeicher wird selbst zurückgesetzt. Man sieht an d em Beispiel, wie kostspielig d ie top-d own Analyse mit schematischem Backtracking ist. Die Analyse d er zweiten Nominalphrase in (8) war richtig. Bevor jed och zur alternativen Expansion d er Verbalphrase nach (4) zurückgesetzt wird , werd en erst alle and eren Ersetzungen von NP d urchprobiert. Später muß d ie Nominalphrase noch einmal expand iert werd en. Der Leser mag ausrechnen, wie viele Schritte d er Parser im Anschluß an d ie oben d okumentierten Zustän d e noch ausführen müßte, bis d er Rücksetzspeicher leer ist und d amit feststeht, d aß es keine weitere Lesung für den eingegebenen Satz gibt. Kongruenz. Zur Berücksichtigung d er Kongruenz in Kasus, Numerus, Person usw. müßten *komplexe Kategorien in d en Regeln verwend et werd en. Im Erkennungsschritt müßte d ie anstehend e Kategorie zunächst mit d er ebenfalls komplexen Kategorie d es Eingabeelementes *unifiziert werd en. Bevor d ie anstehend e Kategorie vom Arbeitsspeicher entfernt wird , müßten d ie resultierend en Merkmalsmengen an d ie id entischen Parameter d er verbleibend en Kategorien weitergegeben werd en (also z. B. d er Numerus von n in (3) an d ie VP). Da lexikalische Kategorien häufig inkompatible Kreuzklassifikationen d arstellen (z. B. ist „computer„ entwed er Singular und Nominativ, Dativ, Akkusativ od er Plural und Nominativ, Genitiv, Akkusativ), müßte es auch einen Rücksetzmechanismus für den Erkennungsschritt geben.

32.  Parsing natürlicher Sprachen: Realisierungen

Herstellung der *Strukturbeschreibung. Die Folge d er erfolgreich angewend eten Prod uktionen kann d azu benutzt werd en, um einen Phrasenstrukturbaum zu erzeugen. Im obigen Beispiel werd en d ie Regeln 1, 5, 4, 5, 8, 5 erfolgreich angewend et. Die Nummernfolge bild et ein Kennwort (ein sog. Parse). Auf Grund d essen wird ein *Baumgraph bzw. eine *Liste konstruiert, ind em, mit d er ersten Regel angefangen, jeweils d ie Symbole, d ie sich auf d er rechten Seite d er Regeln find en, d em Symbol auf d er linken Seite untergeord net werd en, wobei letzteres jeweils d as bis d ahin am weitesten oben links befind liche nicht-lexikalische Symbol im Baum ist. Eine zweite Möglichkeit ist es, d ie Strukturbeschreibung schon während d er Analyse zu erzeugen. Man organisiert d azu d en Arbeitsbereich selbst als Folge von Bäumen bzw. Listen, wobei d ie Listen, bei d enen d ie Erfolgsprüfung positiv ausging, zugleich d ie Ergebnisse d es Parsings d arstellen. (Vgl. De Roeck 1983.) Zu Anfang enthält d er Arbeitsbereich eine Liste, d eren einziges Element d as Startsymbol d er Grammatik ist. Dies ist zunächst auch d er aktuelle Knoten. Zur Kategorie d es aktuellen Knotens wird eine Prod uktionsregel gesucht. Statt nun d ie Kategorie im Arbeitsbereich d urch d ie Symbole auf d er rechten Seite d er Regel zu ersetzen, werd en letztere d em aktuellen Knoten in d er Liste als Elemente untergeord net. Anschließend wird d as erste d ieser Elemente zum aktuellen Knoten. Ist ein lexikalischer Knoten erreicht, wird d as nächste nicht-lexikalische Element im Baum zum aktuellen Knoten. Beim Zurücksetzen wird eine frühere Listenfolge und d arin ein and erer Knoten wied er aktuell. Der Vorteil d ieses Vorgehens ist vor allem, d aß auf d iese Weise komplexe Kategorien flexibler in Übereinstimmung gebracht werd en können, und so d ie Kongruenzverhältnisse einfacher zu handhaben sind. Parsing als Beweisen. Der Id ee d es logischen Programmierens zufolge (siehe Kowalski 1979) ist ein Programm d ie Beschreibung eines Problembereichs in Form präd ikatenlogischer Aussagen zusammen mit einem Verfahren zur automatischen Ded uktion. Das maschinelle Erkennen eines Satzes kann man unter d ieser Voraussetzung als Beweisprozed ur auffassen. Die Regeln d er Grammatik bild en eine Menge von Axiomen, aus d enen als Theorem abzuleiten ist, d aß d ie Eingabe ein Satz ist. Zur Realisierung d es logischen Programmierens wurd e d ie Sprache PRO-

381

LOG entwickelt; eine Grammatik in Form eines PROLOG-Programms ist d ie Definite Clause Grammar (Pereira/Warren 1980, vgl. Gust 1983). Der Algorithmus, d em d as PROLOG-Programm folgt, entspricht d em topd own Parsing mit schematischem Rücksetzen. Das Verfahren ist also unter Programmiergesichtspunkten nicht sehr effizient. Der Vorteil einer PROLOG-Implementierung besteht im eingebauten Mechanismus d er *Unifikation beliebiger Merkmale und d er großen Flexibilität, mit d er während d es Parsens neue Listen aufgebaut werden können. 1.1.2. Top-down Parser mit paralleler Abarbeitung Prinzip: Alle Regeln, d ie auf ein an d er laufend en Position anstehend es Symbol passen, werd en angewend et. Für jed e d er entstehend en Symbolketten wird wied er eine Linksableitung versucht. Dieser Prozeß wird solange fortgesetzt, bis überall lexikalische Kategorien anstehen. Sod ann werd en d ie Ableitungen ausgewählt, d eren anstehend es Symbol mit d er Kategorie d es Eingabeelementes in d er entsprechend en Position übereinstimmt. Dieses Element ist d amit erkannt. Es wird in d er Eingabe um eins vorgerückt, und d ie restlichen Symbole jed er d er parallelen Ableitungen werd en wied erum expand iert. (Winograd 1983, 103; Klenk 1983.) Voraussetzungen: (V-1) bis (V-5) wie in 1.1.1. beim top-down Parser mit Rücksetzen. Linksrekursion ist nicht erlaubt. (V-6) ein Arbeitsbereich, der die Menge der noch zu verarbeitenden Symbolketten aller alternativen Ableitungen enthält. Die am weitesten links stehenden Symbole sind die anstehenden. Zu Beginn enthält der Bereich nur das Anfangssymbol der Grammatik. Algorithmus: (A-1) Expansion: Ersetze jede Ableitung im Arbeitsbereich, in der ein nicht-lexikalisches Symbol ansteht, durch die Menge der Ableitungen, welche sich durch die Expansion dieses Symbols nach allen möglichen Regeln ergibt, und weiter (A-1). Gibt es keine nichtlexikalischen anstehenden Symbole mehr im Arbeitsbereich, so weiter (A-2). (A-2) Erkennen: Entferne aus der Menge der Ableitungen im Arbeitsbereich alle

382

diejenigen, deren anstehendes Symbol nicht mit der Kategorie an der laufenden Position im Eingabebereich übereinstimmt. Bleibt keine Ableitung übrig, so weiter (A-4). In den verbleibenden Ableitungen entferne das anstehende Symbol (dadurch wird das nächste Symbol in jeder Ableitung zum anstehenden), erhöhe die laufende Position um 1, und weiter (A-3). (A-3) Erfolgsprüfung: Ist die laufende Position nicht größer als die Zahl der Elemente in der Eingabe, so weiter (A-1). Ist der Arbeitsbereich leer, so akzeptiere die Eingabe und beende die Prozedur. Sonst weiter (A-4). (A-4) Mißerfolg: Weise die Eingabe zurück und beende die Prozedur. Herstellung der Strukturbeschreibung: Zu jed er d er parallelen Ableitungen und ihren

Abb. 32.2: Top-down Parser mit paralleler Abarbeitung

VIII. Computer Simulation of Language II: SystemsComponents

Folgeableitungen ist ein Kennwort aus d en Nummern d er verwend eten Regeln zu bild en. Aus d en Kennwörtern d er erfolgreichen Ableitungen wer d en Phrasenstrukturbäume konstruiert. 1.1.3. Prädiktive Analyse mit Rücksetzen Prinzip: Statt erst während d es Analysevorganges d urch wied erholte Expansion d er anstehend en Symbole zu lexikalischen Kategorien zu gelangen, werd en vorab in d er Grammatik d ie Symbole auf d en rechten Seiten d er Regeln solange ersetzt, bis lauter Regeln entstand en sind , d eren erste unmittelbare Konstituente eine lexikalische ist. Unter Einführung von Hilfssymbolen wird außerd em d afür gesorgt, d aß alle übrigen unmittelbaren Konstituenten in d en Regeln nicht-lexikalische Kategorien haben. (Dies ist d ie sog. *Greibach-Normalform der Grammatik.)

383

Während d er Analyse kann nun d ie Anwend ung von Regeln auf solche beschränkt werd en, d eren linker Aufhänger mit d er Kategorie d es nächsten Elements im Eingabebereich id entisch ist. Dies läßt sich so interpretieren, d aß auf d er Grund lage einer anstehend en Kategorie und einem Element in d er Eingabe eine Vorhersage (pred iction) d arüber gemacht werd en kann, welche Konstituenten folgen werd en od er zumind est folgen können. In d er unten verwend eten *präd iktiven Grammatik nach Kuno 1965 b wird d ieser Ged anke d urch eine etwas geänd erte Form d er Regeln noch unterstrichen. (Kuno/Oettinger 1963; Greibach 1964; Kuno 1965; Dietrich/Klein 1974, 81 ff.; Kuno [1967] 1976). Voraussetzungen:

Abb. 32.3: Prädiktive Analyse mit Rücksetzen

(V-1) bis (V-4) wie in 1.1.1. beim top-down Parser mit Rücksetzen. (V-5) eine prädiktive Grammatik, deren Regeln die folgende Form haben: (A, a) ǁ v oder(A, a) ǁ ⋀ wobei A ein einzelnes nicht-lexikalisches Symbol, a ein einzelnes lexikalisches Symbol und v eine Kette nichtlexikalischer Symbole darstellen. A entspricht der Kategorie einer Produktion in Greibach-Normalform, a entspricht dem linken Aufhänger und v dem Rest der Regel. ’⋀’ im zweiten

384

Regelschema bedeutet, daß kein Rest vorhanden ist. Der Ausdruck links von ǁ heißt Argumentpaar, der Ausdruck rechts davon heißt Prädiktion. (V-6) und (V-7) wie oben beim top-down Parser mit Rücksetzen. Algorithmus: (A-1) Prädiktion: Bilde ein Argumentpaar aus dem anstehenden Symbol im Arbeitsbereich und der Kategorie des Elements an der laufenden Position im Eingabebereich. Gibt es eine Regel mit diesem Argumentpaar, so ersetze (auf einer neuen Zeile) im Arbeitsbereich das anstehende Symbol durch die Prädiktion dieser Regel. Gibt es eine weitere Regel mit demselben Argumentpaar, so mache einen neuen Eintrag im Rücksetzspeicher, bestehend aus der laufenden Position, der aktuellen Zeile im Arbeitsbereich und der Nummer dieser alternativen Regel. Erhöhe die laufende Position im Eingabebereich um 1 und weiter (A-3). Gibt es keine passende Regel, aber eine alternative Kategorie für das Eingabeelement, so weiter (A-1), sonst weiter (A-4). (A-3) Erfolgsprüfung, (A-4) Rücksetzen, und (A-5) Mißerfolg wie oben beim top-down Parser mit Rücksetzen. (A-2) Erkennen entfällt, da das jeweilige Eingabesymbol schon bei der Prädiktion berücksichtigt wird. Anmerkung: Die Argumentpaare d er präd iktiven Grammatik stellen eine Verbind ung zwischen top-d own und bottom-up Informationen d ar. Die präd iktive Analyse ist also zugleich *erwartungs- und *d atengesteuert. Das macht sie relativ effizient. Statt d er zweiun d zwanzig Symbol-Ersetzungen, d ie d er top-d own Erkenner mit Rücksetzen oben vornimmt, bevor d as erste Ergebnis feststeht, sind bei d er präd iktiven Analyse nur acht notwend ig (und es steht fest, d aß es keine weitere Analyse gibt); statt viermal braucht d er Automat in unserem Beispiel nur einmal zurückzusetzen. Zwar wird eine Grammatik in Greibach-Normalform sehr umfangreich (Kuno [1967] 1976 berichtet von 3500 Regeln für d as Englische), aber d a ein d irekter Zugriff auf d ie passend en Regeln möglich ist, fällt ihre Menge nicht sehr ins Gewicht. Herstellung der Strukturbeschreibung wie bei d en übrigen top-d own Parsern. Die Phrasenstrukturbäume, d ie d ie präd iktive Gramma-

VIII. Computer Simulation of Language II: SystemsComponents

tik d er Eingabe zuord net, sind allerd ings völlig verschied en von d en Strukturbeschreibungen, d ie d er gleichen Eingabe von d er ursprünglichen kontextfreien Grammatik zugeord net werd en. In Kuno [1967] 1976 wird ein Algorithmus erwähnt, mit d em kontextfreie Grammatiken in prä d iktive Grammatiken überführt und d ie vom Parser erzeugten Strukturbeschreibungen anschließend wied er rücktransformiert werden können. Abwandlung. Ein präd iktiver Parser kann auch parallel arbeiten. Dies ist d er Fall in d er ursprünglichen Version von Kuno/Oettinger 1963. Es werd en jeweils alle Präd iktionen zum jeweiligen Argumentpaar in d en Arbeitsbereich geschrieben und im weiteren Verlauf d iejenigen getilgt, d ie sich beim Vorrücken nicht erfüllen. 1.1.4. Top-down Parser mit Vorausschautabelle Prinzip. Die Wahl d er Regel, d ie zur Expansion d es anstehend en Symbols im Arbeitsbereich verwend et wird , wird von d en nächsten k Kategorien in d er Eingabe abhängig gemacht. Dabei wird eine Matrix konsultiert, welche aus d er vorliegend en Grammatik vorab konstruiert word en ist. Die Zeilen d ieser Matrix sind d en (lexikalischen und nicht-lexikalischen) Kategorien d er Grammatik zugeord net, d ie Spalten d en möglichen Folgen aus k Symbolen in d er Eingabe. (Normalerweise wird nur k = 1 betrachtet, d . h. d ie Spalten entsprechen d en möglichen lexikalischen Kategorien d er Eingabeelemente.) Die Feld er d er Matrix enthalten d ie Angabe, ob eine und u. U. welche Regel anzuwend en ist, um von d em d er Zeile zugeord neten Symbol zu d er d er Spalte zugeord neten Kategorie in d er Eingabe zu kommen. Gibt es für jed es Paar d er Matrix entwed er keine od er genau eine Regel, liegt eine sog. LL(k)-Grammatik vor, d . h. unter Lesen d er Eingabe von links nach rechts kann d eterministisch eine Linksableitung konstruiert werd en. Die LL(k)-Eigenschaft spielt eine Rolle in d er Theorie d es Parsens von Programmiersprachen. (Vgl. Mayer 1978, 164 ff.; Aho/Ullman 1972, 334 ff.; Aho/Sethi/Ullman 1986, 186 ff.). Im folgend en wird d er selektive „Top-toBottom„-Algorithmus (STBA) nach Kuno [1967] 1976 vorgestellt. Der Matrix ist hier nur zu entnehmen, ob es überhaupt einen Weg von Symbol Ki in d er Ableitung zu einer

385

lexikalischen Kategorie tj gibt, od er nicht. (Griffiths/Petrick 1965; Irons 1963; Kuno 1976, 175 ff.) Voraussetzungen: (V-1) bis (V-7) wie in 1.1.1. beim top-down Parser mit Rücksetzen. (V-8) eine Matrix, die für jede Kategorie Ki der Grammatik eine Zeile und für jede lexikalische Kategorie tj eine Spalte

Abb. 32.4: Top-down Parser mit Vorausschautabelle

enthält. Ein Feld (mi, j) enthält den Wert 1, wenn aus der Kategorie Ki eine Kette generiert werden kann, deren am weitesten links stehendes Symbol das lexikalische Symbol tj ist; andernfalls ist (mi, j) = 0. Algorithmus: (A-1) bis (A-5) wie in 1.1.1. beim top-down Parser mit Rücksetzen.

386

(A-1) ergänzt um Vorausschau: Wenn eine Regel der Form A → W v zur Expansion des anstehenden Symbols A im Arbeitsbereich gefunden worden ist, so prüfe anhand der Matrix, ob aus W die aktuelle lexikalische Kategorie t in der Eingabe ableitbar ist, d. h. ob (W, t) = 1. Wenn nicht, so suche eine andere Regel. Anmerkung: Man vergleiche d as Ablaufprotokoll mit d em d es top-d own Parsers mit Rücksetzen. Durch d ie Vorausschau werd en d rei Sackgassen und entsprechend es Rücksetzen vermied en. Der selektive Effekt ist bei d ieser einfachen Tabelle nicht ganz so groß wie bei d er präd iktiven Analyse. Jed och sind hier keine Umformungen d er Regeln und Rücktransformationen d er Strukturbäume nötig. Herstellung der Strukturbeschreibung wie bei den übrigen top-down Parsern. 1.2. Bottom-up Parser Die Rekonstruktion d er Ableitung beginnt mit d em lexikalischen Elementen. Nach d en Regeln d er Phrasenstrukturgrammatik werd en fortgesetzt unmittelbare Konstituenten zu einer Konstituente zusammengefaßt, bis d as Anfangssymbol erreicht ist. Die Regeln werd en also von rechts nach links angewend et. Der gesuchte Konstituentenstrukturbaum wird von unten nach oben entwickelt. 1.2.1. Shift-reduce Parser mit Rücksetzen Prinzip: Die Eingabe wird von links nach rechts in einem Durchgang d urchlaufen. Beim Vorrücken wird jeweils d as nächste Eingabeelement an d as End e d es Arbeitsbereichs kopiert (shift). Ist eine Kategorie am End e d es Arbeitsbereichs d ie letzte auf d er rechten Seite einer Regel (ein ’rechter Aufhänger’) und sind d ie übrigen Konstituenten d er Regel ebenfalls vorhand en, werd en d ie entsprechend en Symbole im Arbeitsbereich d urch d as Symbol auf d er linken Seite d er Regel ersetzt (red uce). Für d ieses Symbol wird wied erum eine Regel gesucht und so fort. Ist keine Red uktion mehr möglich, wird d as nächste Element d er Eingabe in d en Arbeitsbereich geholt. (Aho/Ullman 1972, 303 ff.; Shieber 1983 b und 1983 c.) Voraussetzungen: (V-1) bis (V-3) wie in 1.1.1. beim top-down Parser mit Rücksetzen.

VIII. Computer Simulation of Language II: SystemsComponents

(V-4) eine Variable, die die laufende Position in der Eingabe bezeichnet und zu Beginn den Wert 0 hat. (V-5) die Menge der Ersetzungsregeln einer kontextfreien Phrasenstrukturgrammatik ohne Tilgungen. (V-6) ein Arbeitsbereich, der zu Anfang leer ist; das (in der letzten Zeile) am weitesten rechts stehende Symbol im Arbeitsbereich ist jeweils das anstehende. (V-7) ein Rücksetzspeicher, in dem bei einem Konflikt zwischen verschiedenen möglichen Aktionen des Parsers die augenblickliche Zeile im Arbeitsbereich sowie die Art des Konflikts festgehalten wird. Algorithmus: (A-1) Hinzufügen (shift): Erhöhe die laufende Eingabeposition um eins. Füge die Kategorie des entsprechenden Eingabeelements dem Arbeitsbereich (auf einer neuen Zeile) hinzu. Hat das Eingabeelement noch weitere Kategorien (d. h. ist es mehrdeutig), so mache einen Eintrag im Rücksetzspeicher bestehend aus der Zeile des Arbeitsbereichs vor dem Hinzufügen und einer Spezifizierung des Konflikts als ’shift/ shift’ (S/S). Weiter (A-2). (A-2) Reduktion (reduce): Suche die nächste Produktion, in der das anstehende Symbol die äußerst rechte der unmittelbaren Konstituenten bildet. Wird eine solche gefunden, prüfe ob die übrigen Konstituenten in der Regel links vom anstehenden Symbol im Arbeitsbereich eine Entsprechung haben. Wenn ja, ersetze die Symbole, die den unmittelbaren Konstituenten entsprechen, (auf einer neuen Zeile) im Arbeitsbereich durch die Kategorie der Produktion. Diese Kategorie wird dadurch zum neuen anstehenden Symbol. Da statt einer Reduktion das Hinzufügen des nächsten Eingabeelements möglich gewesen wäre, außer wenn das Ende der Eingabe erreicht ist, mache einen Eintrag im Rücksetzspeicher mit der Zeile des Arbeitsbereichs vor der Reduktion und der Spezifikation ’shift/reduce’ (S/R). Gibt es eine weitere Regel, die angewendet werden könnte, so besteht außerdem ein reduce/reduce-Konflikt. Mache in diesem Fall einen weiteren Eintrag im Rücksetzspeicher mit der Spezifikation ’reduce/reduce’ (R/R). War keine Re-

387

Abb. 32.5: Shift-reduce Parser mit Rücksetzen

388

duktion möglich, so weiter (A-3), sonst weiter (A-2). (A-3) Erfolgsprüfung: Ist die laufende Position noch kleiner als die Zahl der Eingabeelemente, so weiter (A-1). Enthält der Arbeitsbereich allein das Anfangssymbol der Grammatik, so akzeptiere die Eingabe. Sollen alle Strukturen einer möglicherweise mehrdeutigen Eingabe ermittelt werden, so weiter (A-4), sonst beende die Prozedur. Enthält der Bereich nicht nur das Anfangssymbol so weiter (A-4). (A-4) Rücksetzen: Ist der Rücksetzspeicher leer, so weiter (A-5). Mache die im letzten Eintrag des Rücksetzspeichers spezifizierte Zeile des Arbeitsbereichs zur laufenden. (Damit ist der alte Zustand des Arbeitsbereichs wieder hergestellt.) Merke den Konflikt und entferne anschließend den Eintrag vom Rücksetzspeicher. Bei S/S und S/R weiter (A-1), bei R/R weiter (A-2). (A-5) Mißerfolg: Ist zu keiner Zeit die Erfolgsbedingung in (A-3) erfüllt gewesen, so weise die Eingabe zurück. Beende die Prozedur. Anmerkung. Die Mehrd eutigkeit von ’antworten’ führt zu einem shift/shift-Konflikt in (4), d er erst beim d ritten Rücksetzen richtig gelöst wird . Shift/red uce-Konflikte treten bei jed er Red uktion auf, außer bei d en Red uktionen am End e d er Eingabekette (weil d ort nichts mehr hinzugefügt werd en kann). Ein red uce/red uce-Konflikt kommt bei d er gegebenen Grammatik nicht vor. Nachteilig ist, d aß immer erst alle Symbole bis zum End e d er Eingabe hinzugefügt werd en müssen, bevor das Rücksetzen einsetzt. Herstellung der Strukturbeschreibung. Die beim Erkennen erfolgreich angewen d eten Regeln werd en anschließend in umgekehrter Reihenfolge zur Konstruktion eines Phrasenstrukturbaumes benutzt. Eine and ere Möglichkeit ist es (wie in 1.2.2. und 1.2.3.), d en Arbeitsbereich selbst als Folge von Listen zu organisieren. 1.2.2. Bottom-up Parser nach dem Prinzip Breite-zuerst Prinzip: Die Folge von Kategorien d er Eingebeelemente wird nach alle möglichen Regeln red uziert (*Breite zuerst). Jed e Regelanwend ung führt zu einer neuen Symbolfolge. (Es werd en also nicht gleichzeitig mehrere Regeln auf d ieselbe Symbolfolge angewand t.)

VIII. Computer Simulation of Language II: SystemsComponents

Jed e entstand ene Symbolfolge wird wied erum nach allen möglichen Regeln red uziert, und so fort in immer neuen Durchläufen, bis in einer Sequenz d as Startsymbol d er Grammatik abgeleitet word en ist od er keine Red uktion mehr möglich ist. (Dietrich/Klein 1974: 70 ff.) Voraussetzungen: (V-1) bis (V-3) wie in 1.1.1. beim top-down Parser mit Rücksetzen. (V-4) die Menge der Ersetzungsregeln einer kontextfreien Phrasenstrukturgrammatik ohne Tilgungen. (V-5) ein Arbeitsbereich, der aus Folgen von *Listen besteht. Die erste Folge besteht aus Listen mit den lexikalischen Kategorien. (Bei Mehrdeutigkeit von Eingabeelementen wird eine Disjunktion der Kategorien gespeichert.) (V-6) eine Variable, die die jeweils aktuelle Folge im Arbeitsbereich angibt; zu Beginn hat sie den Wert 1. Algorithmus: (A-1) Reduktion: Durchlaufe die aktuelle Folge von Listen im Arbeitsbereich. Wenn das oberste Element (der ’head’) der jeweiligen Liste der rechte Aufhänger in einer Produktionsregel ist und wenn die übrigen unmittelbaren Konstituenten in der Regel sich mit den obersten Elementen der vorangehenden Listen im Arbeitsbereich decken, so erzeuge eine neue Folge von Listen im Arbeitsbereich, in der die den unmittelbaren Konstituenten entsprechenden Listen zu einer neuen Liste zusammengefaßt worden sind, deren oberstes Element die Kategorie der Produktionsregel ist. Stimmt die neue Folge einschließlich aller abhängigen Elemente in den Listen mit einer schon vorhandenen Folge überein, so übergehe das Ergebnis. Sonst speichere die neue Folge im Arbeitsbereich ab. Gibt es eine weitere Regel, in der das laufende Element rechter Aufhänger ist, so verfahre ebenso und erzeuge eine weitere neue Folge. Wenn der Durchlauf das Ende der aktuellen Folge erreicht hat, so weiter (A-2). (A-2) Neuer Durchlauf: Ist die aktuelle Folge gleich der letzten Folge im Arbeitsbereich (d. h. sind alle Regeln auf alle Folgen angewendet worden und konnte zur letzten Folge keine neue

32.  Parsing natürlicher Sprachen: Realisierungen

Folge mehr erzeugt werden), so weiter (A-3). Sonst erhöhe die Variable für die aktuelle Folge im Arbeitsbereich um eins und weiter (A-1). (A-3) Erfolgsprüfung: Ermittle alle Fälle, in denen eine Folge von Listen zu einer einzigen Liste reduziert wurde, deren oberstes Element das Startsymbol der Grammatik ist. Gib diese Liste(n) als Ergebnis aus. Existiert keine solche Liste, so weise die Eingabe zurück. Beende die Prozedur.

389

Strukturbeschreibung. Gemäß d er Erfolgsbedingung (A-3) ist Liste (9) das Ergebnis der Analyse. 1.2.3. Tabellengesteuerter Shift-reduce Parser Prinzip: Das Problem bei einem shift-red uce Parser besteht darin zu entscheiden, ob ein weiteres Symbol dem Arbeitsbereich hinzuzufügen oder eine Reduktion vorzunehmen ist, sowie im letzteren Fall, welche Regel zu benutzen ist. Eine effiziente Lösung dieses

Abb. 32.6: Bottom-up Parser Breite-zuerst

Anmerkung: Die abhängigen Elemente in d en Listen (d . s. d iejenigen in Klammern) werd en beim Vergleich mit d en Regeln überlesen, bei d er Prüfung, ob d as Ergebnis schon vorhand en ist, aber berücksichtigt. Die mit (*) markierten Folgen werd en nicht in d en Arbeitsbereich aufgenommen, d a sie schon existieren. Die Breite-zuerst-Analyse ist trotzd em ungünstig, weil viel Doppelarbeit geleistet wird , je länger d ie Eingabe ist, und weil d ie Red uktionen nicht d urch d en linken Kontext eingeschränkt werd en, wie beim shift-red uce Parsing.

Problems, hängt d avon ab, d aß d ie Grenzen d er Konstituenten jeweils mit Sicherheit erkannt werd en. Dies versucht man zu erreichen, ind em zum einen berücksichtigt wird , welche Konstituente unter Arbeit ist und wieviel d er Parser d avon gesehen hat. Dies ergibt eine Menge von Zuständ en d es Parsers. Zum and eren wird k Symbole (in d er Praxis meist k = 1) vorausgeschaut. Wird d er Anfang d er nächsten Konstituente entd eckt, steht fest, d aß eine Grenze erreicht word en ist und eine Red uktion vorgenommen werd en muß. Formal wird eine Matrix aus Zuständ en und le-

390

xikalischen Symbolen benutzt. Die Feld er d er Matrix enthalten Anweisungen für d en Parser, nämlich Hinzufügen d es Symbols zum Arbeitsbereich, Red uktion nach einer bestimmten Regel, Akzeptieren d er Eingabe, od er eine Fehleranzeige (d . i. d ie ’action table’). Eine weitere Matrix aus Zuständ en und nicht-lexikalischen Symbolen enthält in ihren Feld ern d ie Angabe von Zuständ en, zu d enen gesprungen werd en soll, nachd em eine Konstituente erfolgreich geparst word en ist (d ie ’goto table’). Lassen sich zu einer Grammatik Matrizen mit genau einem Eintrag in jed em Feld konstruieren, so liegt eine LR(k)-Grammatik vor (von links nach rechts eine Rechtsableitung erzeugend bei k Symbolen Vorausschau), für d ie eine d eterministische bottom-up Analyse unter linearem Zeitbe d arf möglich ist. (Aho/Ullman 1972, 371 ff.; Mayer 1978, 264 ff.; Aho/Sethi/Ullman 1986, 187 ff.) Voraussetzungen: (V-1) bis (V-3) wie in 1.1.1. beim top-down Parser mit Rücksetzen. (V-4) die Menge der Ersetzungsregeln einer kontextfreien Phrasenstrukturgrammatik ohne Tilgungen. (V-5) eine Steuertabelle, bestehend aus einer Matrix aus Zuständen und lexikalischen Symbolen (der Aktionstabelle) sowie einer Matrix aus Zuständen und nicht-lexikalischen Symbolen (der Sprungtabelle). Die Felder der Tabellen enthalten Anweisungen für den Parser. Zu den lexikalischen Symbolen kommt das Zeichen ’$’ als Markierung des Eingabeendes hinzu. (V-6) ein Arbeitsbereich, der als Graph vorgestellt werden kann, dessen Knoten mit Nummern von Zuständen und dessen Kanten mit Listen etikettiert sind. Die Knoten entsprechen zugleich bestimmten Punkten in der Eingabe. Die Listen sind die vorläufigen Analyseergebnisse für die Zeichenkette zwischen zwei Punkten. Zu Beginn enthält der Arbeitsbereich nur einen Knoten für den Zustand 0 und keine Kanten. (V-7) eine Variable für den aktuellen Zustand des Parsers, die zu Beginn den Wert 0 hat. (V-8) eine Variable, die die aktuelle Position in der Eingabe bezeichnet und zu Beginn den Wert 0 hat.

VIII. Computer Simulation of Language II: SystemsComponents

Algorithmus: (A-1) Konsultation der Tabelle: Es wird das Feld in der Aktionstabelle aufgesucht, dessen Zeilennummer mit dem aktuellen Zustand des Parsers übereinstimmt, und dessen Spalte mit dem gleichen Symbol etikettiert ist, das sich an der nächsten Position hinter der aktuellen Position in der Eingabe befindet. Ist die nächste Position das Ende der Eingabe, so suche die Spalte mit dem Symbol ’$’ auf. Weiter (A-2). (A-2) Erfolgsprüfung: Ist das Feld leer, so weise die Eingabe zurück und beende die Prozedur. Enthält das Feld den Eintrag ’accept’ (abgekürzt ’acc’), so gebe die im Arbeitsbereich befindliche Liste als Ergebnis der Analyse aus und beende die Prozedur. Sonst weiter (A-3). (A-3) Hinzufügen: Enthält das Feld die Anweisung ’shift ẕ’ (abgekürzt ’shẕ’), wobei ẕ die Nummer eines Zustands ist, so bilde eine Liste aus der Kategorie des nächsten Eingabeelements und füge diese im Arbeitsbereich als Kante an den letzten Knoten an (der den letzten aktuellen Zustand repräsentiert). Mache ẕ zum neuen aktuellen Zustand. Füge ẕ als neuen Knoten dem Arbeitsbereich hinzu und verbinde die neue Kante mit diesem Zustand. Erhöhe die aktuelle Position um 1. Weiter (A-1). (A-4) Reduktion: Enthält das Feld die Anweisung ’reduce ṟ’ (abgekürzt ’reṟ’), wobei ṟ die Nummer einer Regel ist, so fasse die Listen im Arbeitsbereich, deren oberste Elemente den unmittelbaren Konstituenten in der Regel ṟ entsprechen, zu einer neuen Liste unter der Kategorie der Regel zusammen. (Dabei wird im Arbeitsbereich um soviele Knoten zurückgegangen, wie Konstituenten zusammenzufassen sind.) Mache den Knoten, der der ersten der zusammengefaßten Listen (also dem ’linken Aufhänger’) vorangeht, zum vorübergehenden Zustand. Hänge die neue Liste an diesen Knoten an. Suche in der Sprungtabelle die Zeile mit dem vorübergehenden Zustand auf. Entnehme der Spalte, die das Etikett der gerade gebildeten neuen Konstituenten trägt, den Zustand ẕ. Mache ẕ zum neuen aktuellen Zustand. Füge ẕ als neuen Knoten dem

391

Abb. 32.7: Tabellengesteuerter Shift-reduce Parser

VIII. Computer Simulation of Language II: SystemsComponents

392

Arbeitsbereich hinzu und verbinde die neue Kante mit diesem Knoten. Weiter (A-1). Konstruktion der Steuertabelle. Der Grund ged anke ist, d aß es bei d er Abarbeitung jed er Regel d er Grammatik eine Menge von Zuständ en gibt, d ie sich d arin unterscheid en, wieviel von d en unmittelbaren Konstituenten bereits gesehen word en sind , und wieviel noch folgen. Markieren wir d ie Stelle zwischen abgearbeiteten und noch abzuarbeitend en Konstituenten d urch einen Punkt, so gibt es zu einer Regel d er Form X → Y Z folgend e Zustände: X → .Y Z X → Y .Z X → Y Z. Die Menge aller Zuständ e erhält man, ind em man zunächst d er Grammatik eine Regel hinzufügt, in d er man d en Zustand (Z-0) vor Beginn d es Parsens d es Startsymbols d er Grammatik markiert, also z. B. (Z-0)S’ → .S Derselbe Zustand , d . h. eine Abarbeitungssituation an d erselben Stelle in d er Eingabekette, läßt sich in alle Regeln projizieren, d ie zur rekursiven Expansion d es Symbols hinter d em Punkt benutzt werd en können. Legen wir d ie Grammatik G1 zugrund e, so sind im Zustand (Z-0) auch d ie folgend en Zuständ e eingeschlossen: S →.NP VP NP→.n NP→.det n NP→.det adj n Den nächsten Zustand ermittelt man, ind em man d en Punkt um eine Konstituente weiter schiebt. Aus (Z-0) ergibt sich (Z-1)S’ → S. Eine Projektion in weitere Regeln ist hier nicht möglich, d a sich rechts d es Punktes keine Konstituente mehr befind et. Nun fährt man fort, d ie übrigen Regeln in Abarbeitungsphasen zu zerlegen. Da d er Zustand vor Beginn d er Anwend ung einer Regel schon in einer vorangehen d en Projektion enthalten ist, braucht man jetzt immer erst mit d em Zustand nach Abarbeitung d er ersten Konstituente zu beginnen. Für d en Rest d er Grammatik G1 ergeben sich d ie folgend en Zuständ e und Projektionen. (Soweit d ie Zerlegungen zweier Regeln d er Grammatik über-

einstimmen, werd en sie d emselben Zustand zugeordnet; vgl. unten Zustände 5, 6 und 9.) (Z-2)

S

→ NP .VP VP → .vi VP → .vt NP VP → .vt NP PP

(Z-3) (Z-4) (Z-5)

S VP VP VP

→ NP VP. → vi. → vt. NP → vt. NP PP NP → .n NP → .det n NP → .det adj n

(Z-6)

VP → vt NP. VP → vt NP. PP

(Z-7) (Z-8) (Z-9)

→ vt NP PP. → n. → det. n → det. adj n → det n. → det adj. n → det adj n. → präp. NP

PP → .präp NP VP NP NP NP (Z-10) NP (Z-11) NP (Z-12) NP (Z-13) PP

NP → .n NP → .det n NP → .det adj n (Z-14)

PP

präp NP.

Die Zuständ e (Z-0) bis (Z-14) bild en d ie Zeilen d er Aktionstabelle und d er Sprungtabelle. Die Spalten d er Aktionstabelle sind mit d en lexikalischen Kategorien und ’$’ (für d as Eingabeend e) ind iziert, d ie Spalten d er Sprungtabelle mit d en nicht-lexikalischen Kategorien d er Grammatik. Soweit in d er obigen Kollektion von Zustand sbeschreibungen ein Punkt vor einer lexikalischen Kategorie steht, wird in d er entsprechend en Spalte d es betreffend en Zustand s in d er Aktionstabelle ’shift ẕ’ eingetragen. Dabei ist ẕ d ie Nummer d esjenigen Zustand es, d er eine Zerlegung d erselben Regel d arstellt, nur d aß d er Punkt über d ie lexikalische Kategorie hinweg vorgerückt ist. Soweit in d er obigen Kollektion von Zustand sbeschreibungen ein Punkt vor einer nicht-lexikalischen Kategorie steht, wird in d er entsprechend en Spalte d es betreffend en Zustand es in d er Sprungtabelle ’goto ẕ’ eingetragen. Dabei ist ẕ d ie Nummer d esjenigen Zustand es, d er eine Zerlegung d erselben Regel d arstellt, nur d aß d er Punkt über d ie nicht-lexikalische Kategorie hinweg vorgerückt ist. Soweit in d er obigen Kollektion von Zustand sbeschreibungen ein Punkt am

393

End e einer Prod uktion steht, wird in d er Zeile d es betreffend en Zustand s in d er Aktionstabelle ’red uce ṟ’ eingetragen, und zwar in all d enjenigen Spalten, d eren Kategorie d ie erste lexikalische Kategorie einer Konstituente ist, d ie aufgrund d er Regeln auf d ie Kategorie X folgen kann. Dabei ist ṟ d ie Nummer d er Prod uktion in d er Grammatik und X d ie Kategorie d ieser Prod uktion. Kommt X auch am End e einer mit d er Grammatik erzeugbaren Ableitung vor, so wird ein gleicher Eintrag in d er Spalte mit d em Etikett ’$’ gemacht. (Zur Ermittlung d er betreffen-

d en Spalten benutzt man zwei Funktionen, FIRST und FOLLOW. FIRST ergibt zu jed er nicht-terminalen Kategorie d ie Menge d er ersten unmittelbaren lexikalischen Konstituenten, FOLLOW ergibt d ie Menge d er möglichen nachfolgend en Konstituenten.) In d er Spalte $ d er Zuständ e, mit d enen eine S’-Prod uktion zu End e geführt ist, wird ’accept’ eingetragen. Die Steuertabelle zu G1 sieht d emnach wie in Abb. 32.7 aus. Für eine etwas größere Grammatik wird d ie Tabelle maschinell hergestellt werd en müssen. (Weitere Agorithmen d azu find et man in Aho/Sethi/

Abb. 32.8 a: Nicht-deterministische Grammatik und Steuertabelle

394

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 32.8 b: Tabellengesteuerter Shift-reduce Parser für nicht-deterministische Grammatiken

32.  Parsing natürlicher Sprachen: Realisierungen

Ullman 1986, 221 ff.; Mayer 1978, 278 ff. 353 ff.) Anmerkung. Die Effizienz d es LR(k)-Parsings wird d eutlich beim Vergleich mit d em shift-red uce Parser mit Rücksetzen. Es stellt sich heraus, d aß d er Beispielsatz mit G1 *d eterministisch abgearbeitet werden kann. Algorithmus f ür nicht-deterministische Grammatiken (vgl. Abb. 32.8). Eine Sprache ist nicht vom LR(k)-Typ, wenn es bei d er Konstruktion d er Tabellen nach d em oben geschil d erten Verfahren zu Mehrfacheintragungen in ein und d emselben Feld kommt. Ein shift/shift-Konflikt tritt auch auf, wenn ein Eingabeelement mehrd eutig ist und für mehr als eine Kategorie in d er Tabelle Aktionen vorgesehen sind . Natürliche Sprachen zählen nicht zu d en LR(k)-Sprachen. (Zu d en einschlägigen Phänomenen siehe Shieber 1983.) Trotzd em braucht auf d en effizienten shift-red uce Parser mit Tabelle nicht verzichtet zu werd en. Die konkurrierend en Anweisungen in d er Sprungtabelle von Abb. 32.8 a zum Beispiel können auf einfache Weise parallel befolgt werd en, ind em d er Graph im Arbeitsbereich an d er entsprechend en Stelle zu d en konkurrierend en Zuständ en verzweigt. Ergeben sich für eine aktuelle Position auf verschied enen Wegen gleiche Zuständ e, so kann Doppelarbeit d ad urch vermied en werd en, d aß d ie Kanten zu einem Knoten zusammengeführt werd en, von d em aus d ie Erweiterung so lange gemeinsam erfolgt, bis eine über d ie Zusammenführung nach links hinausgehend e Red uktion d en gemeinsamen Graphen wied er auflöst. Das Prinzip geht zurück auf Tomita 1987. Der Effekt ist d er gleiche wie bei d en unten beschriebenen Parsern mit Teilergebnistabelle. Die Strukturbeschreibung liegt in Gestalt d erjenigen Liste(n) vor, von d eren End zustand zur Anweisung ’accept’ übergegangen worden ist.

2.

Phrasenstruktur-Parser mit Teilergebnistabellen (chart parser)

Die Konstituentenstrukturanalyse besteht d arin, d ie Eingabe in Segmente bestimmter Kategorie zu zerlegen, d iese wied erum in Segmente, und so fort bis hin zu d en kleinsten Einheiten, d ie d urch d as Lexikon vorgegeben sind . Die folgend en Verfahren sind d ad urch charakterisiert, d aß für eine infrage kommend e Kategorie jed es Segment nur einmal ermittelt und mit seiner rechten und lin-

395

ken Grenze in einer Teilergebnistabelle (*chart) festgehalten wird . Bei d er Analyse weiterer Segmente wird auf d ie bereits vorhand enen Zwischenergebnisse zurückgegriffen. Teile werd en unter Berücksichtigung ihrer Grenzen auf verschied ene Weise miteinand er kombiniert, ohne jed esmal wied er selbst geparst werden zu müssen. 2.1. Top-down Parser mit geteilten Produktionen Um beim top-d own Parsing Teilergebnisse wied erverwend en zu können, gilt es, für jed e Stelle in d er Eingabe d ie Konstituenten zu bestimmen, d ie an d ieser Stelle einen bestimmten Grad d er Abarbeitung erfahren haben (wobei ihr Anfang verschied en weit links liegen kann). Dies geschieht, ind em für d ie betreffend e Position eine Menge von sog. geteilten Prod uktionen (Mayer 1978, 111) ermittelt wird . Der eine Teil d er unmittelbaren Konstituenten in einer solchen Prod uktion hat eine Entsprechung in d en Segmenten d er Eingabe gefund en. Für d en Rest (remaind er) steht eine Abbild ung auf d ie Eingabe noch aus. Die Grenze zwischen d em abgearbeiteten Teil d er Prod uktion und d em Rest wird üblicherweise d urch einen Punkt markiert. (Vgl. d ie Prod uktionen bei d er Konstruktion d er Steuertabelle in 1.2.3.) Steht d er Punkt vor allen unmittelbaren Konstituenten d er Prod uktion, so beginnt d er Vergleich erst. In d iesem Fall ist d ie linke und d ie rechte Grenze d es zugeord neten Segments gleich d er aktuellen Position, d . h. d as Segment hat noch d ie Länge 0. Steht d er Punkt in d er Mitte d er Prod uktion, so wurd e (wenn von links nach rechts vorgerückt wird ) d er links d avon stehend e Teil d er unmittelbaren Konstituenten gefund en, d er rechts d avon stehend e Teil wird noch gesucht. Die linke Grenze d es zugeord neten Segmentes ist gleich d er linken Grenze, d ie bei Beginn d er Anwend ung d er Prod uktion aktuell war; d ie rechte Grenze ist gleich d er aktuellen Position. Steht d er Punkt hinter allen unmittelbaren Konstituenten in d er Prod uktion, so ist d er Vergleich komplett. Die Kategorie d er Prod uktion kann d em entsprechend en Segment zugeord net werd en. Das Ziel d es Erkenners ist es, eine komplette Prod uktion mit d em Startsymbol d er Grammatik zu erzeugen, d eren linke Grenze mit d em Anfang und d eren rechte mit d em End e d er Eingabe zusammenfällt.

396

2.1.1. Algorithmus nach Earley Prinzip. Die rechte Grenze d er zu bild end en Segmente wird von 0 ab, d . h. vom Zustand , in d em noch nichts von d er Eingabe gesehen word en ist, in Schritten von eins nach rechts verschoben, bis sie d as End e d er Eingabe erreicht. Begonnen wird mit einer Menge von geteilten Prod uktionen für d as Startsymbol d er Grammatik, wobei d er Punkt vor allen unmittelbaren Konstituenten steht. Nacheinand er werd en d ie geteilten Prod uktionen abgearbeitet, bis alle komplett sind , d ie sich komplettieren lassen. Typisch für d en Algorithmus von Earley sind d abei d rei Operationen. Der ’pred ictor’ tritt in Aktion, wenn in einer Prod uktion d er Punkt vor einer nichtlexikalischen Kategorie steht. Der Teilergebnistabelle werd en alle Prod uktionen hinzugefügt, d ie eine Expansion d er nicht-lexikalischen Kategorie d arstellen. In jed er d ieser Prod uktionen kommt d er Punkt vor d ie erste d er unmittelbaren Konstituenten. Der ’scanner’ wird aufgerufen, wenn d er Punkt in einer aktuellen Prod uktion vor einer lexikalischen Kategorie steht. Er prüft, ob sich eine analoge Kategorie an nächster Stelle in d er Eingabe befind et. Wenn ja, fügt er d er Teilergebnistabelle eine neue Prod uktion hinzu, in d er d er Punkt über d ie Kategorie nach rechts hinweg verschoben ist. Der ’completer’ schließlich versucht ein komplettes Zwischenergebnis, d . i. eine Prod uktion mit d em Punkt am End e, in alle and eren Prod uktionen einzupassen, in d enen d ie Kategorie gerad e gebraucht wird . Der Early-Algorithmus vereinigt im Rahmen einer Ableitung von links nach rechts, Tiefe zuerst, d as top-d own Prinzip im pred ictor-Schritt mit d em bottom-up Prinzip im completer-Schritt. Verglichen mit reinen top-d own und reinen bottom-up Algorithmen ist er d aher relativ effizient. (Earley 1970: Aho/Ullman 1972, 320 ff.; Mayer 1978, 111 ff.; Graham/Harrison/Ruzzo 1980.) Voraussetzungen: (V-1) bis (V-3) wie beim top-down Parser mit Rücksetzen (siehe 1.1.1.). (V-4) die Menge der Regeln einer kontextfreien Phrasenstrukturgrammatik (ohne Einschränkungen). (V-5) ein Arbeitsbereich (d. i. die Teilergebnistabelle), der eine Spalte für geteilte Produktionen, eine Spalte für die linken Grenzen und eine Spalte für die rechten Grenzen der zugeordneten Segmente umfaßt. Alle Zeilen mit derselben rechten Grenze r bilden den

VIII. Computer Simulation of Language II: SystemsComponents

Teilbereich i, wobei r = i. Der Arbeitsbereich enthält in der ersten Zeile die geteilte Produktion ’Φ → .S’, wobei ’S’ die Startkategorie der Grammatik und ’Φ’ ein zusätzliches nicht-lexikalisches Symbol ist. Die linke und die rechte Grenze für diese Produktion sind gleich 0. (Die Konstituente hinter dem Punkt in einer geteilten Produktion heiße die anstehende Konstituente.) (V-6) zwei Laufvariablen ALT und NEU über dem Arbeitsbereich. Zu Beginn haben ALT und NEU beide den Wert 1. Algorithmus: (A-1) Ersetzen (predictor): Steht eine nichtlexikalische Konstituente in der Produktion der Zeile ALT an, so tue das folgende, sonst weiter (A-2). Speichere alle Produktionen der Grammatik zur Kategorie der anstehenden Konstituente in neuen Zeilen des Arbeitsbereiches (erhöhe dabei NEU). Setze den Punkt jeweils vor die erste unmittelbare Konstituente in der Produktion. Gebe der linken und der rechten Grenze in der Zeile NEU jeweils den Wert der rechten Grenze von ALT. Prüfen auf Vorhandensein: Falls im Arbeitsbereich bereits eine identische Produktion mit denselben Werten für die linke und rechte Grenze vorhanden ist wie die aktuelle, mache den Schritt rückgängig. Weiter (A-4). (A-2) Erkennen (scanner): Steht eine lexikalische Konstituente in der Produktion der Zeile ALT an, so tue das folgende, sonst weiter (A-3). Die aktuelle Position im Eingabebereich ist um 1 höher als die rechte Grenze von ALT. Befindet sich in dieser Position der Eingabe ein Element mit der anstehenden lexikalischen Kategorie, so kopiere die Produktion der Zeile ALT in eine neue Zeile (erhöhe dabei NEU), bewege den Punkt über die erkannte Konstituente in der Produktion hinweg, übernehme die linke Grenze in der Zeile NEU aus der Zeile ALT, setze die rechte Grenze von NEU auf den um 1 erhöhten Wert in der Zeile ALT. Weiter (A-4). (A-3) Verwenden (completer): Ist eine Produktion in der Zeile ALT komplett, so tue das folgende. Prüfe alle bisherigen Produktionen im Arbeitsbereich, deren rechte Grenze gleich der linken Grenze

397

Abb. 32.9: Parsing mit dem Algorithmus von Earley

VIII. Computer Simulation of Language II: SystemsComponents

398

der kompletten Produktion ist, ob darin die Kategorie der kompletten Produktion als nächste Konstituente ansteht. Kopiere jede Produktion, die der Bedingung genügt, in eine neue Zeile des Arbeitsbereichs (erhöhe dabei NEU), bewege den Punkt über die gefundene Konstituente hinweg, übernehme als linke Grenze in der Zeile NEU die linke Grenze der auf diese Weise weitergeführten Produktion, setze die rechte Grenze in der Zeile NEU gleich der rechten Grenze der verwendeten Produktion in der Zeile ALT. (A-4) Abbruchbedingung: Ist ALT gleich NEU, so ist der Arbeitsbereich erschöpft. Dann weiter (A-5). Sonst erhöhe ALT um 1 und weiter (A-1). (A-5) Erfolgsprüfung: Befinden sich im Arbeitsbereich eine oder mehrere Produktionen ’Φ → S.’ mit der linken Grenze gleich 0 und der rechten Grenze gleich der Zahl der Eingabeelemente, so akzeptiere die Eingabe und beende die Prozedur. Sonst weise die Eingabe zurück und beende die Prozedur. Anmerkung. Die in d er ersten Spalte mit (*) markierten Einträge werd en rückgängig gemacht, d a d as entsprechend e Teilergebnis schon vorhand en ist. Aufgrund d ieser Festlegung ist Linksrekursivität trotz d es top-d own Prinzips nicht ausgeschlossen. Die Teilbereiche (einer zu jed er rechten Grenze) entsprechen d en Zustand smengen in d er Originalimplementierung von Earley. Herstellung der Strukturbeschreibung. Einen Algorithmus zum nachträglichen Aufbau eines Strukturbaumes find et man in Aho/Ullman 1972, 327 ff. Günstiger ist es, d ie Strukturbeschreibung während d es Erkennens zu erzeugen (so auch Earley 1970, 101). Insbesond ere lassen sich so *UnifikationsgrammaPredictor: Regel (R-5) Ergebnis: Scanner: Eingabe: Ergebnis: Completer: Verwenden: Ergebnis:

tiken mit d em Earley-Algorithmus parsen. Man betrachte d azu jed e Prod uktion in d er Grammatik sowie jed e geteilte Prod uktion im Arbeitsbereich als Baum bzw. Liste, mit d er Kategorie d er Prod uktion als d ominierend em Knoten, d em d ie Knoten für d ie unmittelbaren Konstituenten untergeord net sind . Der Arbeitsbereich besteht d emnach aus einer geord neten Menge von Listen, wobei jed er Liste neben d er linken und rechten Grenze d es Segments ein Zeiger auf d en aktuellen Knoten beigegeben wird . Bei nichtkompletten Listen ist d ies d asjenige Element, vor d em in d er entsprechend en Prod uktion d er Punkt steht. Bei kompletten Listen ist d er Zeiger auf d en d ominierend en Knoten gerichtet. Die Menge d er Listen wird unter Verwend ung d er Variablen ALT und NEU d urchlaufen. Im Pred ictor-Schritt wird d er aktuelle Knoten d er Liste ALT mit d em d ominierend en Knoten d er einschlägigen Prod uktionen in d er Grammatik unifiziert. Der Scanner unifiziert d en aktuellen Knoten d er Liste ALT mit d er lexikalischen Kategorie d es nächsten Eingabeelementes. Im Completer-Schritt werd en d ie aktuellen Knoten d er Listen, d ie angrenzend en Segmenten zugeord net sind , miteinand er unifiziert, wobei d er Zeiger in d er kompletten Liste ALT auf d en d ominierend en Knoten und d er Zeiger in d en Vorgängerlisten (d eren rechte Grenze gleich d er linken Grenze von ALT ist) auf d as jeweils anstehend e Element gerichtet sind ). Infolge von Variablen innerhalb d er *komplexen Kategorien in d en Listen, werd en bei allen d rei Operationen u. U. Merkmale d urch d ie gesamten beteiligten Bäume transferiert. Auf d iese Weise wird u. a. d en *Kongruenzphänomenen Rechnung getragen. Im folgend en Beispiel sind d ie aktuellen Knoten d er zu unifizierend en Listen unterstrichen. Die Numerierung bezieht sich auf d ie analogen Einträge im obigen Arbeitsbereich. Merkmale ohne Wert sind Variable, die gleich instantiiert werden müssen.

(2) (S (NP Person Kasus [Nominativ]) (VP Person)) (NP Person Kasus (n Person Kasus) (3) (NP Person Kasus [Nominativ] (n Person Kasus [Nominativ])) (3) (NP Person Kasus [Nominativ] (n Person Kasus [Nominativ])) (n Person [3] Kasus [Nominativ, Genetiv, Akkusativ]) (7) (NP Person [3] Kasus [Nominativ] (n Person [3] Kasus [Nominativ])) (2) (S (NP Person Kasus [Nominativ]) (VP Person)) (7) (NP Person [3] Kasus [Nominativ] (n Person [3] Kasus [Nominativ])) (8) (S (NP Person [3] Kasus [Nominativ] (n Person [3] Kasus [Nominativ])) (VP Person [3])

32.  Parsing natürlicher Sprachen: Realisierungen

Active chart parser. Earleys Algorithmus stimmt mit d em ’active chart parser’ in Winograd 1983, 116 überein. Nur d ie Terminologie ist eine and ere. Geteilte Prod uktionen werd en d ort vorgestellt als Kanten (ed ges) in einem Graph (*chart), d essen Knoten (vertices) Punkte in d er Eingabe (und somit linke und rechte Grenzen für d ie Segmente) repräsentieren. Es werd en aktive und komplette Kanten unterschied en entsprechend d en Prod uktionen mit od er ohne Rest. Aktive Kanten beginnen an einem Punkt, suchen aber noch nach d er zweiten Verankerung. Komplette Kanten verbind en (als Bögen) zwei Punkte. (Vgl. auch Thompson/Ritchie 1984.) Ef f izienzverbesserung. Die Ersetzungen im ersten Teilbereich hängen nur von d er Grammatik, nicht vom eingegebenen Satz ab. Sie lassen sich d aher vorab berechnen. Die Zahl d er erzeugten Prod uktionen läßt sich mit Hilfe einer Vorausschautabelle od er einer Grammatik in Greibach-Normalform einschränken. Es werd en nur solche Prod uktionen zugelassen, d eren erste unmittelbare Konstituente mit d er lexikalischen Kategorie d es nächsten Eingabeelements übereinstimmt. Dad urch könnten 16 von d en 35 Ersetzungen im obigen Beispiel vermied en werden. Erweiterungen. Die Grammatik kann mehrere Startkategorien enthalten, d ie vorab in die Tabelle eingetragen werden, z. B. (1) Φ → S (2) Φ → NP Auf d iese Weise lassen sich Texte verarbeiten, d ie neben Sätzen selbständ ige Nominalphrasen, z. B. als Überschriften, enthalten. Der Parser kann on-line betrieben werd en, d . h. d ie Analyse kann parallel zu Eingabe erfolgen, d ie kontinuierlich fortschreitet. Der Scanner schließt d ann d as Einlesen d es nächsten Eingabeelements und d ie Zuord nung d er lexikalischen Kategorie(n) ein. Jed esmal, wenn eine Prod uktion mit d er Kategorie Φ komplett ist, erfolgt eine Ausgabe. Der Benutzer kann d ie Eingabe (vom End e her) revid ieren, ohne d aß d ie Analyse neue begonnen werd en muß. Es brauchen nur d ie d er gelöschten Eingabe entsprechend en Teilbereiche im Arbeitsbereich eliminiert zu werden. Der Earley-Algorithmus erlaubt Tilgungsregeln. Eine Prod uktion ’A → ⋀’ (wobei ’⋀’ für d ie leere Kette steht) angewand t auf ’.A’ führt sofort zu ’A.’

399

Ebenso kann d er Algorithmus Grammatiken mit *fakultativen Konstituenten hand haben. Eine Prod uktion ’A → (u) v’ (wobei d as eingeklammerte Element fakultativ ist) angewand t auf ’.A’ führt zu d en geteilten Prod uktionen ’A → .u v’ und ’A → .v’. Die Regeln 5 bis 7 in G3 in Abb. 32.8 a können z. B. zusammengefaßt werd en zu ’NP → (d et (ad j)) N’. Angewand t auf .NP ergibt d ies nur zwei Einträge im Arbeitsbereich: NP → .det (adj) N NP → .N Erst wenn ’d et’ erkannt word en ist und d ie Situation ’NP → d et. (ad j) N’ eingetreten ist, werden erzeugt: NP → det. adj N NP → det. N Auch Grammatiken mit Kleene Stern Notation sin d möglich. Es führt jeweils A → .[u]* v zu und zu

A → [.u]* v A → .v A → [u.]* v A → u [.u]* v A → u. v

*Diskonstinuierliche Konstituenten wer d en in manchen Formalismen mittels sog. slashNotation beschrieben, z. B. in d er Generalized Phrase Structure Grammar (vgl. Gazd ar/ Klein/Pullum et al. 1985, 145). Auch für d iese ist d er Earley-Algorithmus geeignet. In d er Prod uktion ’A → u v w/u’ bezeichnet z. B. ’u’ eine Konstituente, d ie zur Konstituente w gehört aber nach links herausgestellt word en ist. Eine solche Prod uktion wird normal verarbeitet, bis d ie Situation ’x → y .a/a’ eingetreten ist (wobei x aus w abgeleitet word en ist). In d ieser Situation steht d ie herausgestellte Konstituente an ihrer Ursprungstelle als nächste an. Nun wird , ohne d en Scanner zu bemühen, einfach zu ’x → y a/a.’ übergegangen. Abwandlung f ür variable Wortstellung. Shieber 1984 beschreibt eine Abwand lung d es Earley-Parsers für d ie Behand lung variabler Wortstellung (in d er GPSG). Die Prod uktionen d er Grammatik beschreiben nur d en Aufbau d er Konstituenten, nicht jed och d ie Abfolge d er unmittelbaren Konstituenten. (Eine Prod uktion ’A → u v’ paßt also auch zur Kette ’vu’.) Die Reihenfolge wird d urch gesond erte Regeln festgelegt. Für d ie geteilten Prod uktionen gilt, d aß d ie Symbole vor d em Punkt (also d ie bereits abgearbeiteten) eine Zeichenkette d arstellen, d ie Symbole

VIII. Computer Simulation of Language II: SystemsComponents

400

nach d em Punkt jed och eine Zeichenmenge. Jed es Symbol d ieser Menge kann, unter Einschränkung d urch d ie Abfolgeregeln, im Pred ictor-Schritt expand iert werd en. Der Completer kann, wied erum unter Wahrung d er Stellungsregeln, jed es Symbol d ieser Menge erfüllen, wobei d ieses d ann in d er neuen Prod uktion auf d ie Seite d er Zeichenkette, also links vom Punkt, hinüberwechselt. Der Scanner schließlich prüft alle Symbole in d er Menge, ob eines mit d er nächsten lexikalischen Kategorie in d er Eingabe übereinstimmt. Bottom-up Initiative. Es ist vorgeschlagen word en, d ie Initiative für neue geteilte Prod uktionen d em Scanner zu übertragen (siehe Kilbury 1984). Dieser holt d ie lexikalische Kategorie d es nächsten Elements d er Eingabe in den Arbeitsbereich. Zum Beispiel (1)

n.

0

1

Der Pred ictor fügt nun d iejenigen Prod uktionen hinzu, d ie mit einer zuvor gefund enen kompletten Konstituente beginnen, hier also (2) (3) (4)

NP S NP

→ n. → NP. VP → NP. PP

0 0 0

1 1 1

Der Completer funktioniert, wie üblich: komplette Prod uktionen führen offene fort. Im Prinzip ist d ies eine bottom-up Analyse mit linkem Aufhänger. (Siehe ’over-the-top parsing’ Kimball 1975, ’left-corner parser’, Aho/Ullman 1972, 310 f.) Verglichen mit d em Stand ard algorithmus nach Earley fehlt d er linke Anschluß zum Satzanfang hin. Damit geht aber gerad e ein wesentliches Moment d er *Erwartungssteuerung verloren. In jed er Position werd en neue Präd iktionen angestoßen, d ie zum Teil unbrauchbar sind . Gibt man d ie Berücksichtigung d es linken Kontextes auf, d ann hat d ie Anwend ungen d er Regeln auch Zeit, bis d er Parser einen rechten Aufhänger erkannt hat, wie in d en unten beschriebenen bottom-up Parsern. 2.2. Bottom-up Parser mit Teilergebnistabelle Die ersten Teilergebnisse für d en bottom-up Parser liegen in Gestalt d er Eingabeelemente vor. Aus d en kleineren Segmenten werd en größere Segmente gebild et, ind em nach d en Regeln d er Grammatik unmittelbare Konstituenten zu einer Konstituente zusammengefaßt werd en. Es liegt nahe, d ie Ergebnisse d er Zusammenfassungen unabhängig voneinan-

d er zu speichern. Unter Berücksichtigung d er linken und rechten Grenzen kann d ann potentiell jed es Zwischenergebnis mit jed em and eren zu einer weiteren Konstituente kombiniert werd en. Dad urch wird jene Doppelarbeit vermied en, d ie für d en in 1.2.2. beschriebenen, mit d er gesamten Ableitung arbeitenden Parsern charakteristisch ist. 2.2.1. Algorithmus nach Cocke Prinzip. Die Grammatik muß in *ChomskyNormalform vorliegen, d . h. sie kennt nur binäre Zerlegungen von Konstituenten. Beim klassischen Algorithmus nach Cocke, Kasami und Younger wird d as Prinzip Breite — zuerst befolgt. Angefangen mit d en lexikalischen Konstituenten werd en in wied erholten Durchläufen alle möglichen Paare von Konstituenten gebild et und nach d en Regeln ggf. zu einer größeren Konstituente zusammengefaßt. So entstehen Segmente von immer größerer Länge. Beim unten beschriebenen Algorithmus wird , ähnlich wie beim Earley-Algorithmus, d ie Position zur primären Laufvariablen gemacht. Der Parser rückt in einem einzigen Durchlauf vom Anfang bis zum End e d er Eingabe vor und ermittelt für jed e Stelle alle Konstituenten (verschie d ener Tiefe), d ie d ort end en. (Hays 1967, 124 ff.; Brockhaus 1971, 33 ff.; Aho/Ullman 1972, 314 ff.; Dietrich/Klein 1974, 75 ff.; Mayer 1978, 111 ff.) Voraussetzungen: (V-1) bis (V-3) wie beim top-down Parser mit Rücksetzen (siehe 1.1.1.). (V-4) eine Variable, die die laufende Position in der Eingabe bezeichnet und zu Beginn den Wert 1 hat, sowie eine Variable, die die Zahl der eingelesenen Eingabeelemente enthält. (V-5) die Menge der Regeln einer kontextfreien Phrasenstrukturgrammatik in Chomsky-Normalform (sämtliche Produktionen enthalten genau zwei unmittelbare Konstituenten). (V-6) ein Arbeitsbereich mit einer Spalte für die Kategorie einer Konstituente, einer Spalte für die linke und einer Spalte für die rechte Grenze des zugehörigen Segments in der Eingabe, einem Zeiger auf die linke und einem Zeiger auf die rechte unmittelbare Konstituente, aus denen die Konstituente gebildet worden ist, sowie zwei Laufvariablen LFD und NEU über diesem Bereich. LFD

401

hat zu Beginn den Wert 1. Die Kategorie in der Zeile LFD heiße das anstehende Symbol. NEU hat den Anfangswert 0. Außerdem wird noch eine Variable ALT benötigt.

Abb. 32.10: Bottom-up Parser nach Cocke, Younger und Kasami

Algorithmus: (A-1) Hinzufügen: Füge die Kategorie(n) des Elements an der laufenden Eingabeposition dem Arbeitsbereich hinzu (erhöhe dabei NEU). Setze in der Zeile

402

NEU die rechte Grenze gleich der laufenden Position und die linke Grenze gleich der laufenden Position minus 1. Die Spalten für die unmittelbaren Konstituenten bleiben leer. (A-2) Reduktion: Suche die nächste Produktion, in der das anstehende Symbol (d. i. die Kategorie in der Zeile LFD) mit der rechten unmittelbaren Konstituente übereinstimmt. Ist keine (mehr) vorhanden, so weiter (A-3). Suche im Arbeitsbereich eine Zeile ALT, deren Kategorie mit der linken Konstituente in der Produktion übereinstimmt und deren rechte Grenze gleich der linken Grenze in der Zeile LFD ist. (Die gesuchten Zeilen befinden sich in einem Teilbereich des Arbeitsbereichs mit den entsprechenden rechten Grenzen.) Falls eine solche vorhanden ist, so schreibe die Kategorie der Produktion in eine neue Zeile (erhöhe dabei NEU). Übernehme als linke Grenze in der Zeile NEU die linke Grenze der Konstituente in ALT und setze die rechte Grenze in der Zeile NEU auf den Wert der laufenden Position. Trage als linke Konstituente in der Zeile NEU einen Zeiger auf die Zeile ALT ein und als rechte Konstituente einen Zeiger auf die Zeile LFD. Weiter (A-2). (A-3) Abbruchbedingung: Erhöhe die laufende Zeile LFD um 1. Übertrifft der Wert nicht den der bisher letzten Zeile im Arbeitsbereich (d. i. Zeile NEU), so weiter (A-2). Sonst rücke die laufende Position um eins vor. Ist damit das Eingabeende überschritten, so weiter (A-4), sonst weiter (A-1). (A-4) Erfolgsprüfung: Befinden sich im Arbeitsbereich eine oder mehrere Zeilen mit linker Grenze gleich 0 und rechter Grenze gleich der Zahl der Eingabeelemente, so akzeptiere die Eingabe und beende die Prozedur. Sonst weise die Eingabe zurück und beende die Prozedur. Anmerkung: Die Zusammenfassung mit d en nach links hin anschließend en Segmenten (d ie je in einem bestimmten Teilbereich zu find en sind ) ist d ie gleiche, wie beim Completor-Schritt d es Earley-Algorithmus. Da eine Verbind ung bis zum Satzanfang nicht gefor-

VIII. Computer Simulation of Language II: SystemsComponents

d ert wird , kommt es zu Zwischenergebnissen, d ie d er Earley-Algorithmus vermeid et (z. B. (10) ’antworten auf d isketten’ als Verbalphrase). Dafür erzeugt d er Earley-Algorithmus viele überflüssige Präd iktionen, d ie bei bottom-up Analyse mit rechtem Aufhänger nicht vorkommen. Analysematrix. Im Originalalgorithmus von Cocke wird eine Matrix benutzt, d eren Zeilen linke Grenzen (0 ≤ LG ≤ n — 1) und d eren Spalten rechte Grenzen (1 ≤ RG ≤ n) d arstellen. Die Feld er repräsentieren somit d ie möglichen Segmente verschied ener Länge. Ist ein Segment eine wohlgeformte Konstituente, wird d eren Kategorie in d as Feld eingetragen. (Vgl. Aho/Ullmann 1972, 314 ff.; Mayer 1978, 98 ff.) Überträgt man d ie Kategorien aus d em Arbeitsbereich in eine solche Matrix, entsteht das Folgende: RG LG 0 1 2 3 4

1

2

3

Vt

S Vi Vi, Nu

Nu

4

5

S, S Vi, Vi Vi, Nu präp PP Nu

In ein Feld (i, j) d er Matrix ist d ie Kategorie einer Prod uktion einzutragen, wenn d ie Kategorie d er ersten unmittelbaren Konstituente in d erselben Zeile (i, k) und d ie Kategorie d er zweiten unmittelbaren Konstituente in d erselben Spalte (k, j) steht und d ie Spaltennummer k d er ersten Konstituente mit d er Zeilennummer k d er zweiten Konstituente übereinstimmen. Die Steuerung Breite-zuerst d es klassischen Cocke-Algorithmus bed eutet, d aß in d er Diagonalen d er Matrix von links oben nach rechts unten vorgegangen wird , während unser nach d em Prinzip Tiefe zuerst arbeitend er Algorithmus d ie Feld er von links nach rechts und von unten nach oben zu füllen versucht. Herstellung der Strukturbeschreibung. Anhand d er explizit gespeicherten linken und rechten unmittelbaren Konstituenten für jed es Segment läßt sich, beginnend mit d er Kategorie d es (bzw. eines) Segments mit linker Grenze gleich 0 und rechter Grenze gleich Anzahl d er Eingabeelemente unmittelbar ein Phrasenstrukturbaum konstruieren. Natürlich kann ein solcher Strukturbaum auch

32.  Parsing natürlicher Sprachen: Realisierungen

schon während d er Analyse aufgebaut werden. (Vgl. dazu 2.2.2.) Man kann aber auch einen *Depend enzbaum als Ergebnis herstellen (Hellwig, hier erstmals veröffentlicht). Jed e Regel einer Grammatik in Chomsky-Normalform stellt nämlich eine syntagmatische Relation zwischen zwei Elementen d ar, von d enen unter Abhängigkeitsgesichtspunkt eines d as d ominierend e, d as and ere d as d epend ente Element in d er Relation sein muß. In G4 (Abb. 32.10) wurd e d as d ominierend e Element (head constituent) d urch Fettd ruck hervorgehoben, im Arbeitsbereich wurd en analog d ie Zeiger auf d ie d ominierend en Konstituenten fett ged ruckt. Mit Hilfe d er Zeiger konstruiert man eine Liste wie folgt: Man beginnt mit d er (bzw. einer) Zeile, mit d er d ie Eingabe erkannt word en ist. Man ersetzt d en Zeiger auf d iese Liste d urch d en Zeiger auf d ie d ominierend e Konstituente in d erselben Zeile und ord net ihr d en Zeiger auf d ie and ere Konstituente unter. Für jed en d er so ermittelten Zeiger in d er Liste verfährt man ebenso, bis man überall auf leere rechte und linke Konstituenten gestoßen ist. Ersetzt man schließlich d ie lexikalischen Kategorien d urch Lexeme, erhält man d ie gesuchte Depend enzstruktur. Für d ie beid en Ergebnisse im Arbeitsbereich oben, läuft d as Verfahren folgend ermaßen ab: 1. (14: S) (12: Vi (1: Nu)) (5: Vi (1: Nu) ((9: PP)) (2: Vt (1: Nu) (4: Nu) (9: PP)) (2: Vt (1: Nu) (4: Nu) (7: präp (8: Nu))) (2: verarbeiten (1: computer) (4: antworten) (7: auf (8: disketten)) 2. (15: S) (13: Vi (1: Nu)) (2: Vt (1: Nu) (11: Nu)) (2: Vt (1: Nu) (4: Nu (9: PP))) (2: Vt (1: Nu) (4: Nu (7: präp (8: Nu)))) (2: verarbeiten (1: computer) (4: antworten (7: auf (8: disketten)))) An d en Zeigern erkennt man d eutlich, wie d ieselben Teilergebnisse in d en unterschied lichen Analysen verwendet worden sind.

403

2.2.2. Verallgemeinerter Bottom-up Parser mit Teilergebnistabelle Prinzip. Der positionsorientierte bottom-up Algorithmus mit Teilergebnistabelle läßt sich ausbauen, so d aß d ie Grammatik Prod uktionen mit beliebig vielen unmittelbaren Konstituenten enthalten d arf. Eine Prod uktion mit einer einzigen unmittelbaren Konstituente (Einer-Regel) führt d azu, d aß d asselbe Segment eine weitere Kategorie zugeord net bekommt. Prod uktionen mit mehreren Konstituenten werd en mit d er Teilergebnistabelle abgeglichen, d in em eine entsprechen d e Folge von angrenzend en Segmenten auf d er Grund lage d er rechten und linken Grenzen gesucht wird . Der Algorithmus erlaubt ein kontinuierliches Vorrücken im Text, so d aß d er Parser parallel zur Eingabe (on-line) arbeiten kann. Interpunktionszeichen, d ie d ie selbständ igen Einheiten im Text markieren, werd en wie lexikalische Elemente behand elt. Beliebige syntaktische Kategorien können als mögliche selbständ ige Einheiten ausgezeichnet werd en. Der zu parsend e Text braucht also nicht nur aus Sätzen zu bestehen. In d er folgend en Version enthält d er Arbeitsbereich partielle Strukturbeschreibungen in Form von Listen. Listen als Teilergebnisse ermöglichen eine mehr als lokale Unifikation von komplexen grammatischen Kategorien. (Hays 1967, 123 ff.; Kuno 1976, 178 ff.) Voraussetzungen: (V-1) ein Lexikon, mit dessen Hilfe den Elementen der Eingabe lexikalische grammatische Kategorien zugewiesen werden. (V-2) eine Variable, die die laufende Position in der Eingabe bezeichnet und zu Beginn den Wert 0 hat. (V-3) die Menge der Produktionen einer kontextfreien Phrasenstrukturgrammatik ohne Tilgungen, erweitert um (beliebige) Produktionen der Form ’Φ → u’, wobei ’u’ für ein Symbol oder eine Kette von Symbolen der Grammatik steht und ’Φ’ eine zusätzliche Kategorie ist, die die selbständigen Einheiten, aus denen ein Text besteht, bezeichnet. Für die Abarbeitung der Produktionen wird eine Laufvariable UK über den unmittelbaren Konstituenten benötigt. (V-4) ein Arbeitsbereich, der eine Folge von Listen (bzw. Zeiger auf Listen) aufnehmen kann, sowie zu jeder Liste die linke und rechte Grenze des zugehöri-

404

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 32.11: Verallgemeinerter Bottom-up Parser mit Teilergebnistabelle

32.  Parsing natürlicher Sprachen: Realisierungen

gen Segments in der Eingabe, außerdem zwei Laufvariablen LFD und NEU über diesem Bereich sowie eine Variable ALT. Zu Beginn ist der Arbeitsbereich leer: LFD hat den Anfangswert 1 und NEU den Anfangswert 0. Algorithmus: (A-1) Einlesen und Lexikon: Erhöhe die laufende Position um 1 und lese das nächste Element in der Eingabe ein. (Ist die Eingabe erschöpft, beende die Prozedur.) Entnehme dem Lexikon die lexikalische(n) Kategorie(n) des eingelesenen Elements und schreibe sie als Liste(n) in den Arbeitsbereich (erhöhe dabei NEU); setze die linke Grenze in der Zeile NEU gleich der laufenden Position minus 1, und die rechte Grenze gleich der laufenden Position. Weiter (A-2). (A-2) Grammatik: Suche eine (weitere) Produktion der Grammatik, deren äußerst rechte Konstituente mit der Kategorie in der Zeile LFD des Arbeitsbereichs übereinstimmt. Ist keine solche Produktion (mehr) vorhanden, so weiter (A-6). Bilde eine Liste mit der Kategorie der Produktion als einzigem Element. Setze die Laufvariable UK gleich der Anzahl der Konstituenten in der Produktion. Dadurch wird die äußerst rechte unmittelbare Konstituente in der Produktion zur aktuellen gemacht. Setze die Variable ALT mit der laufenden Zeile LFD gleich. Weiter (A-3). (A-3) Reduktion: Unifiziere die Liste in der Zeile ALT mit der Konstituente UK in der Produktion (vgl. den ScannerSchritt mit Unifikation für den EarleyAlgorithmus oben unter 2.1.1., Herstellung einer Strukturbeschreibung). Scheitert die Unifikation, so weiter (A-2). Sonst ordne das Ergebnis als Teilliste der Liste mit der Kategorie der Produktion unter, wobei die grammatischen Merkmale in beiden nach Vorschrift der Produktion ebenfalls in Übereinstimmung zu bringen sind. Ist UK gleich 1, so weiter (A-4). Sonst reduziere den Wert von UK um 1. Suche im Arbeitsbereich eine Zeile, in der die rechte Grenze gleich der linken Grenze in der Zeile ALT ist. Wird keine gefunden, so weiter (A-2). Sonst mache diese Zeile zur neuen Zeile ALT und weiter (A-3).

405

(A-4) Speicherung: Speichere die neue Liste in einer neuen Zeile im Arbeitsbereich (erhöhe dabei NEU); übernehme den Wert für die linke Grenze aus der Zeile ALT und den Wert für die rechte Grenze aus der Zeile LFD. Ist die dominierende Kategorie der neuen Liste das Symbol Φ, so weiter (A-5). Sonst weiter (A-2). (A-5) Ausgabe: Das Segment zur laufenden Zeile LFD ist als selbständige Texteinheit analysiert worden. ALT sei die linke Grenze der Zeile LFD. Ist ALT gleich 0 oder befindet sich in der Zeile ALT ebenfalls eine Liste mit dem Symbol Φ als dominierender Kategorie (d. h. ist das vorangehende Textstück ebenfalls als selbständig erkannt gewesen), so schreibe die Liste unter (Φ) in die Ausgabedatei. Ist dies nicht der Fall, erzeuge eine Fehlermeldung und schreibe die Liste unter (Φ) mit einer Warnung in die Ausgabedatei. Weiter (A-2). (A-6) Schleifenbedingung: Ist LFD gleich NEU, so sind alle bisherigen Listen im Arbeitsbereich überprüft worden. Dann weiter (A-1). Sonst erhöhe LFD um 1 und weiter (A-2). Anmerkung. Die Einteilung d es Arbeitsbereiches zeigt d as Vorrücken d es Parsers um jeweils ein Eingabeelement. Der Parser kann, ebenso wie d er Earley Parser, on-line betrieben werd en. Die fettged ruckten Zeilen enthalten d ie Strukturbeschreibungen d er selbständ igen Einheiten d es Textes. Sie bild en d ie Ausgabe. Bei einer realistischen Implementierung müßten komplexe Kategorien benutzt werd en, so d aß d ie Kongruenzen von Numerus, Kasus, Person, d efiniter und ind efiniter Nominalphrase und Ad jektivflexion richtig berechnet werd en (vgl. d azu Brockhaus 1971).

3.

Parsing mit Mustern und Übergangsnetzwerken

Eine Method e, um Objekte zu erkennen, ist ihr Vergleich mit vorgegebenen Mustern. Der Grund ged anke d es Parsings mit *Mustern ist d er d es gleichzeitigen Fortschreitens innerhalb zweier Symbolsequenzen, d em Muster und d er Eingabe, wobei bestimmte Bed in-

406

gungen festgelegt sind , unter d enen ein Muster zu einer Eingabe paßt. Graphisch werd en Muster häufig als Netze repräsentiert. Die Knoten repräsentieren Zuständ e d es Erkenners bei d er Abarbeitung d es Musters, d ie Kanten sind mit d en Symbolen etikettiert, d ie angeben, unter welcher Voraussetzung von einem Zustand zum nächsten übergegangen werd en d arf. Das *Erkennen eines Ausd rucks d er Objektsprache erscheint als ein bestimmter Pfad d urch d as Netz. Bei d er unmittelbar zeichenkettenorientierten Mustererkennung stehen d ie Symbole in d en Mustern in d irekter Analogie zu d en Symbolen in d er Eingabe. Prozed urale Netzwerke gleichen d agegen Flußd iagrammen; sie sind Muster für Programmabläufe, d ie zum Erkennen der Zeichenketten in der Eingabe führen. 3.1. Zeichenkettenorientierte Mustererkennung Zur Formulierung von Mustern wird eine Metasprache d efiniert, d eren Syntax Bed ingungen für d ie Art d er Symbole d er Objektsprache sowie Notationsvereinfachungen für d ie Wied erholung von Zeichen, für optionale und für alternative Zeichenketten umfaßt. Muster können Namen von Mustern enthalten und auf d iese Weise rekursiv gemacht werd en. Die Aufeinand erfolge d er Symbole in d en Mustern entspricht d er Konkatenation von Segmenten in d er Eingabe. (Winograd 1983, 36 ff.) 3.1.1. Erkenner für reguläre Ausdrücke Prinzip: Zur Formulierung d er Muster wird eine *reguläre Sprache d efiniert. Die in d ieser Sprache gebild eten regulären Ausd rücke lassen sich von einem end lichen erkennend en Automaten d en Ausd rücken d er Objektsprache zuord nen. Dazu werd en sie zunächst in ein nicht-d eterministisches finites Übergangsnetzwerk (finite state transition network, FTN) umgeformt. Die Knoten in d iesem Netz entsprechen d en Grenzen zwischen Zeichenketten und bild en zugleich d ie Zuständ e d es Automaten. Die Kanten symbolisieren d ie Übergänge von einer Position zur nächsten, wenn eine bestimmte Zeichenkette in d er Eingabe vorliegt. Ein nicht-d eterministisches Übergangsnetzwerk kann entwed er mit Rücksetzen od er parallel abgearbeitet werd en. In letzterem Fall wird in jed em Schritt d ie Menge d er mit d em nächsten Eingabesymbol erreichbaren Zuständ e aus d er

VIII. Computer Simulation of Language II: SystemsComponents

Menge d er bis d ahin erreichten Zuständ e ermittelt. Am Schluß muß d iese Menge einen End zustand enthalten. (Vgl. Aho/Sethi/Ullman 1986, 130 ff.; Winograd 1983, 61 ff.) Aus einem nichtd eterministischen Übergangsnetzwerk kann ein d eterministisches Übergangsnetz konstruiert werd en, ind em d ie Mengen von Zuständ en im ersten Netz, d ie bei Vorliegen d er verschied enen Zeichenketten erreichbar sind , zu d en Zuständ en (Knoten) d es zweiten Netzes gemacht werd en. In d iesem Fall führt jed er Schritt von einem Zustand aus über d as nächste Symbol in d er Eingabe zum nächsten Zustand od er zum Fehlschlagen d er Analyse. Netze können als *Listen mit Zeigern od er in Form von Übergangstabellen gespeichert werd en. Die Zeilen d er Tabelle sind mit Ausgangszuständ en und d ie Spalten mit Symbolen für elementare Zeichenketten ind iziert. Die Feld er d er Tabelle enthalten d ie Zielzuständ e, zu d enen bei Vorliegen d er betreffend en Zeichenkette in d er Eingabe übergegangen werden kann. Sprache für reguläre Ausdrücke. Eine Sprache M zur Formulierung von Mustern für d ie Sprache L kann beispielsweise wie folgt d efiniert sein. (Vgl. Aho/Sethi/Ullman 1986, 94 ff; ähnliche Konventionen gelten für d ie Funktion LEX des Betriebssystems UNIX.) (i) ’ε’ ist ein Ausd ruck von M und bezeichnet ein Vorkommen d er leeren Zeichenkette. (ii) Ist a ein Element d es Vokabulars von L, so ist a ein Ausd ruck von M und bezeichnet ein Vorkommen des Elements a aus L. (iii) Ist K eine Teilmenge d es Vokabulars von L, so ist K ein Ausd ruck von M und bezeichnet d as Vorkommen eines beliebigen Elements der Kategorie K in L. (iv) Sind r und s Ausd rücke von M, so ist rs ein Ausd ruck von M und bezeichnet d ie Konkatenation d er von r und s bezeichneten Zeichenketten in L. (v) Sind r und s Ausd rücke von M, so ist rs ein Ausd ruck von M und bezeichnet d as alternative Vorkommen d er von r und s bezeichneten Zeichenketten in L. (vi) Ist r ein Ausd ruck von M, so ist r+ ein Ausd ruck von M und bezeichnet d ie Konkatenation aus einem od er mehreren Vorkommen d er von r bezeichneten Zeichenkette in L. (vii) Ist r ein Ausd ruck von M, so ist r* ein Ausd ruck von M und bezeichnet d ie Konkatenation d er Zeichenketten aus null od er beliebig vielen Vorkommen d er von r

32.  Parsing natürlicher Sprachen: Realisierungen

bezeichneten Zeichenkette in L, d . h. r* = r+ε. (viii) Ist r ein Ausd ruck von M, so ist r? ein Ausd ruck von M und bezeichnet ein optionales Vorkommen d er von r bezeichneten Zeichenkette in L, d. h. r? = rε. (ix) Die Klammerpaare ’(’,’)’ und ’{’,’}’ werd en d azu benutzt, Ausd rücke von M hinsichtlich d er Konkatenation und Alternation zu gruppieren. Ist r ein Ausd ruck von M, so sind auch (r) und {r} Ausdrücke von M. Konstruktion eines nicht-deterministischen Übergangsnetz zu regulären Ausdrücken. Zuerst werd en d en elementaren Ausd rücken in einem vorliegend en Muster nach (i) bis (iii) Übergangsnetzwerke zugeor d net; d so ann werd en nach (iv) bis (ix) d ie Netzwerke d er Teilausd rücke miteinand er kombiniert (vgl. Aho/Sethi/Ullman 1986, 124 ff.). Der Anfangszustand d es Erkenners bei d er Ausarbeitung eines (Teil)ausd rucks sei a; d er End zustand sei e; ein Zwischenzustand sei Zi. Zu jed em (Teil)ausd ruck gibt es ein Netz mit genau einem Anfangs- und einem Endzustand. (i) Zum Ausd ruck ’ε’ konstruiere d as Netzwerk

(ii) Zum Ausd ruck a (für ein Element aus d em Vokabular von L) konstruiere d as Netzwerk

(iii) Zum Ausd ruck K (für ein Element aus d er Teilmenge K d es Vokabulars von L) konstruiere das Netzwerk

(iv) Zum Ausd ruck rs konstruiere d as Netzwerk

(v) Zum Ausd ruck rs konstruiere d as Netzwerk

407

(vi) Zum Ausd ruck r+ konstruiere d as Netzwerk

(vii) Zum Ausd ruck r* konstruiere d as Netzwerk

(viii) Zum Ausd ruck r? konstruiere d as Netzwerk

(ix) Zu Ausd rücken, d ie von Klammerpaaren ’(’, ’)’ und ’{’, ’}’ umschlossen sind , konstruiere ein vollständ iges Netzwerk, bevor d ieses mit d en Netzwerken zu d en angrenzend en Ausd rücke kombiniert wird . Eine mehrfache Klammerung arbeite von innen nach außen ab. Konstruktion einer Übergangstabellef ür einen deterministischen endlichen Erkenner. Grundlage ist ein nicht-d eterministisches Übergangsnetzwerk von d er eben beschriebenen Art. Beginnend mit d em Anfangszustand werd en alle Mengen von Zuständ en gebild et, d ie vom gegebenen Zustand aus über ε-Kanten und /od er eine Kante mit einem elementaren Symbol erreicht werd en können. (Dies entspricht d er parallelen Abarbeitung d es nichtd eterministischen Übergangsnetzwerkes.) Diese Zustand mengen bild en nun d ie Zuständ e in d er Übergangstabelle für d en d eterministischen Erkenner. Als Ausgangszuständ e werd en sie d en Zeilen d er Tabelle zugeord net; als Zielzuständ e werd en sie in d ie Spalten eingetragen, d ie d en Elementen od er Kategorien d es Vokabulars von L zugeord net sind . Mit Hilfe d er Tabelle lassen sich also d eterministisch d ie Mengen aller möglichen Zuständ e bestimmen, in d enen sich ein nichtd eterministischer Erkenner befind en kann, nachd em d as nächste Eingabesymbol gelesen worden ist. (Vgl. Aho/Sethi/Ullman 1986,

408

Abb. 32.12: Erkenner mit Finitem Übergangsnetzwerk (FTN)

VIII. Computer Simulation of Language II: SystemsComponents

32.  Parsing natürlicher Sprachen: Realisierungen

117 f., 132 f.) Diejenigen Zustand smengen, d ie d en End zustand d es nicht-d eterministischen Übergangsnetzwerkes einschließen, werd en in d er Tabelle als mögliche End zuständ e d es d eterministischen Erkenners ausgezeichnet. Voraussetzungen: (V-1) eine Sprache zur Formulierung von Mustern in Form von regulären Ausdrücken. (V-1) eine Grammatik der Objektsprache, die extern als Muster formuliert ist und intern die Form einer Übergangstabelle für einen deterministischen endlichen Automaten hat, deren Zeilen Ausgangszustände, deren Spalten lexikalische Kategorien der Eingabesprache und deren Einträge Zielzustände sind. Mögliche Endzustände sind besonders ausgezeichnet. (V-2) ein Lexikon, mit dessen Hilfe den lexikalischen Elementen der Objektsprache Kategorien zugeordnet werden. (V-3) eine Variable für die aktuellen Zustände des Erkenners, die zu Beginn den Anfangszustand der Übergangstabelle als Wert hat. (V-4) eine Variable, die die laufende Position in der Eingabe bezeichnet und zu Beginn den Wert 1 hat. Algorithmus: (A-1) Übergang: Steht in der Spalte der Übergangstabelle, die dem Wortlaut oder der Kategorie des nächsten Elements in der Eingabe entspricht, ein Zustand, zu dem vom aktuellen Zustand aus übergegangen werden kann, so mache diesen Zustand zum aktuellen, erhöhe die laufende Position um 1 und weiter (A-2). Sonst weiter (A-3). (A-2) Erfolgsprüfung: Ist die laufende Position nicht größer als die Zahl der Elemente in der Eingabe, so weiter (A-1). Ist der aktuelle Zustand ein Endzustand, so akzeptiere die Eingabe und beende die Prozedur. (A-3) Mißerfolg: Gibt es eine alternative Kategorie zum Eingabeelement, so wähle diese und weiter (A-1). Sonst weise die Eingabe zurück und beende die Prozedur. Anmerkung. Natürliche Sprachen als ganze gehören nicht zu d en regulären, d ie mit Hilfe eines end lichen Automaten erkannt werd en

409

können, möglicherweise jed och Ausschnitte d avon, wie d er Silbenbau, d ie Morphologie und d ie Wortbild ung. Das Verfahren hat also d urchaus Relevanz für beschränktere Aufgaben in d er CL. In d er Informatik wird d as geschild erte Verfahren d azu benutzt, um d ie elementaren Zeichenketten herauszufin d en, d ie anschließend an d en Syntax-Parser übergeben werd en. Man spricht d aher auch von lexikalischer Analyse (lexical analysis). Das Verfahren ist auch zur partiellen syntaktischen Analyse von Texten geeignet (vgl. Rostek 1979). In d iesem Fall werd en d iejenigen Zeichenketten ausgegeben, d ie zu einem Muster passen, d . h. an d eren Anfang d er Erkenner im Anfangszustand und an d eren End e er in einem d er End zuständ e ist. Der Rest d es Textes wird übergangen. Wird immer so lange fortgefahren, bis ein End zustand erreicht ist, von d em aus es keinen Übergang in einen neuen Zustand gibt, so werd en d ie längsten Zeichenketten zum vorliegen d en Muster gefun d en (Prinzip d es ’longest match’). Anschließend geht d er Erkenner in einen neuen Anfangszustand über. Herstellung der Strukturbeschreibung. Das Verfahren bietet als solches keine Hand habe, d er erkannten Zeichenkette eine Struktur zuzuweisen. Es können jed och Aktionen festgelegt werd en, d ie auszuführen sind , wenn eine Instanz zu einem Muster gefund en word en ist. Diese Aktionen können auch in d er Herstellung einer Repräsentation bestehen. (Aus Paaren von regulären Mustern und frei programmierten Aktionen bestehen z. B. d ie Spezifikationen für d ie Funktion LEX unter UNIX; vgl. Aho/Sethi/Ullman 1986, 107 f.) 3.1.2. Parsing mit rekursiven Übergangsnetzwerken (RTN) Prinzip. Die Kanten in einem rekursiven Übergangsnetzwerk (recursive transition network, RTN) können nicht nur, wie ein FTN, mit d em Symbol ’ε’, einem lexikalischen Element od er einer lexikalischen Kategorie d er Objektsprache ind iziert sein, sond ern auch mit d em Namen (bzw. d en Anfangszustand ) eines and eren (od er d esselben) Netzwerkes. Der Übergang entlang einer solchen Kante ist erlaubt, wenn d as angegebene Netzwerk vom Anfang bis zum End e erfolgreich d urchlaufen word en ist. Die Abarbeitung einer solchen Kante bed eutet also einen Sprung in ein Unternetzwerk; sie ist mit einem Unterpro-

410

gramm-Aufruf vergleichbar. Für gleiche Sprachausschnitte braucht nun nur noch einmal ein Netzwerk geschrieben zu werd en. Linguistisch gesehen, entspricht ein Netzwerk einer nicht-terminalen Konstituente. Die Sprachen, d ie mit rekursiven Netzwerken erkannt werd en können, sind d ieselben wie d iejenigen, welche von einer *kontextfreien Ersetzungsgrammatik generiert werd en können. Kontext-freie Ersetzungsregeln bieten sich d enn auch zur externen Sprachbeschreibung für RTN-Parser an. Sie lassen sich maschinell in rekursive Netzwerke überführen. Dabei werd en alle Regeln mit d emselben Symbol auf d er linken Seite zu einem Netzwerk zusammengefaßt, d as d ieses Symbol als Anfangszustand enthält, und in d em für alle auf d er rechten Seite d er Regeln stehend en Symbolfolgen Pfad e von d iesem Anfangszustand in einen End zustand erzeugt werd en. Die im folgend en beschriebene nicht-d eterministische Abarbeitung von rekursiven Übergangsnetzwerken läuft im Prinzip auf d en in 1.1.1. beschriebenen topd own Parser mit Rücksetzen hinaus. Natürlich sind auch and ere, z. B. parallele, Verfahren möglich. (Wood s 1970, 591 f. = 1976, 99 f.; Winograd 1983, 196 ff.; Aho/Sethi/Ullman 1986, 183 ff.) Voraussetzungen: (V-1) bis (V-5) wie in 1.1.1. beim top-down Parser mit Rücksetzen. (V-6) eine aus den Ersetzungsregeln einer kontext-freien Phrasenstrukturgrammatik erzeugte Menge von rekursiven Übergangsnetzwerken. Das Netzwerk, dessen Anfangszustand mit dem Startsymbol der Grammatik identisch ist, ist das ausgezeichnete. (V-7) eine Variable für einen aktuellen Zustand im Netzwerk; zu Beginn ist dies der Anfangszustand des ausgezeichneten Netzwerkes. (V-8) ein Arbeitsbereich, zur Speicherung von aktuellen Übergängen. Ein Übergang besteht aus dem Etikett einer Kante und einem Zielzustand. (V-9) ein Rücksetzspeicher, in dem im Falle einer Alternativkante im Netzwerk die laufende Position im Eingabebereich, die laufende Zeile im Arbeitsbereich, der aktuelle Zustand, der alternative Übergang sowie der Inhalt des Stapelspeichers festgehalten werden. (V-10) ein Stapelspeicher, der die Zielzustände der Kanten enthält, die zum

VIII. Computer Simulation of Language II: SystemsComponents

Übergang in ein neues Netzwerk geführt haben und die erreicht sind, wenn das betreffende Netzwerk erfolgreich abgearbeitet wurde. Algorithmus: (A-1) Auswahl einer Kante: Ist der aktuelle Zustand der Endzustand in einem Netz, so weiter (A-5). Ist die laufende Position größer als die Zahl der Eingabeelemente, so weiter (A-7). Mache die erste vom aktuellen Zustand ausgehende Kante zum aktuellen Übergang. Speichere den aktuellen Übergang (auf einer neuen Zeile) im Arbeitsbereich. Weiter (A-2). (A-2) Übergang: Gibt es im Netzwerk vom aktuellen Zustand aus eine weitere ausgehende Kante, so erzeuge einen Eintrag im Rücksetzspeicher mit der laufenden Position, der gegenwärtigen Zeile des Arbeitsbereichs, dem aktuellen Zustand sowie dem Etikett und dem Zielzustand der weiteren Kante. Ist der aktuelle Übergang eine ’ε’-Kante, so mache den Zielzustand des aktuellen Übergangs zum neuen aktuellen Zustand und weiter (A-1). Ist das Etikett eine lexikalische Kategorie, so weiter (A-3). Ist das Etikett der Anfangszustand eines Netzwerks (d. i. eine nicht-terminale Kategorie), so weiter (A-4). (A-3) Erkennen: Ist das Etikett des aktuellen Übergangs identisch mit der/einer Kategorie des Elements an der laufenden Position im Eingabebereich, so erhöhe die laufende Position um 1 und mache den Zielzustand des Übergangs zum neuen aktuellen Zustand und weiter (A-1). Andernfalls weiter (A-7). (A-4) Sprung in ein Unternetzwerk: Setze den Zielzustand des aktuellen Übergangs auf den Stapelspeicher. Mache das Etikett des aktuellen Übergangs zum neuen aktuellen Zustand. Weiter (A-1). (A-5) Rückkehr aus einem Unternetzwerk: Ist der Stapelspeicher leer, so weiter (A-6). Mache den letzten Eintrag im Stapelspeicher zum neuen aktuellen Zustand, entferne den Eintrag aus dem Stapelspeicher und weiter (A-1). (A-6) Erfolgsprüfung: Ist die laufende Position gleich der Anzahl der Eingabeele-

411

Abb. 32.13: Parsing mit rekursiven Übergangsnetzwerken (RTN)

412

mente, so akzeptiere die Eingabe und beende die Prozedur. Sonst weiter (A-7). (A-7) Rücksetzen: Ist der Rücksetzspeicher leer, so weise die Eingabe zurück und beende die Prozedur. Identifiziere die laufende Position, die laufende Zeile im Arbeitsbereich, den aktuellen Zustand sowie den Übergang in dieser Zeile mit den entsprechenden Werten im Rücksetzspeicher. Stelle den alten Zustand im Stapelspeicher wieder her. Entferne den Eintrag vom Rücksetzspeicher und weiter (A-2). Anmerkung. Der Vorteil von rekursiven Netzwerken gegenüber einer Ableitung nach Ersetzungsregeln liegt d arin, d aß gleiche Abschnitte zu Beginn und am End e einer Konstituentenfolge zusammengefaßt wer d en können. And ers als bei einer Regelgrammatik in *faktorisierter Normalform, resultieren d araus jed och keine zusätzlichen Knoten im Phrasenstrukturbaum. Das Parsing mit RTNs ergibt also häufig flachere Bäume als d ie regelgeleiteten Verfahren. Nachteilig ist, d aß komplexe Kategorien verschied ener Konstituenten nur schwer in Übereinstimmung gebracht werd en können (*Unifikation), weil bei Abarbeitung einer Kante d ie Kategorien an d en übrigen Kanten d es Netzwerkes nicht zur Verfügung stehen. Um d ieses Problem zu lösen, benötigt man Register wie in d en im folgend en beschriebenen erweiterten Übergangsnetzwerken. Herstellung der Strukturbeschreibung. Als Strukturbeschreibung wird ein Phrasenstrukturbaum erzeugt, d essen Knoten mit d em Namen d es Anfangszustand es und d en Etiketten d er traversierten Kanten beschriftet werd en, und d essen Unterord nungsverhältnisse sich aus d er Rekursionsgeschichte d er durchlaufenden Netzwerke ergeben. 3.2. Prozedurale Netzwerke Man kann Übergangsnetzwerke statisch als Muster ansehen, d ie mit d er Eingabe verglichen werd en. Das ist aber etwas nicht sehr viel and eres als ein Vergleich d er Eingabe mit Ableitungsgregeln. Man kann d ie Übergänge und d ie Unternetzwerke aber auch als *Prozed uren betrachten und als solche implementieren. Diese letztere Sicht, mit ihren Vorund Nachteilen (siehe d ie Diskussion in 1.2. d es Artikels 31) ist d as besond ere an proze-

VIII. Computer Simulation of Language II: SystemsComponents

d uralen Netzwerken. Die Netze sind hier im Prinzip Flußd iagramme für ein Programm zum Erkennen (od er Erzeugen) von Sprache. Sie schließen beliebige Tests und Aktionen, Unterprogrammaufrufe, d ie Übergabe von Parametern und d ie Berechnung von Werten für Parameter ein. Festlegungen für d ie Spezifikationen solcher Netzwerke haben eher d en Status d er Definition einer besond eren Programmiersprache als d en eines Grammatikformalismus. 3.2.1. Erweiterte Übergangsnetzwerke (ATN) Prinzip. Ausgangspunkt sind d ie RTN-Graphen wie in 3.1.2., mit d em Zeichen für d ie leere Zeichenkette, mit einer lexikalischen Kategorie od er mit d em Namen eines Unternetzwerks an d en Kanten. Diese Netzwerke werd en nun erweitert d( aher ’augmented transition network’, ATN), ind em d as Beschreiten einer Kante von beliebigen Bed ingungen abhängig gemacht wird und ind em d amit beliebige Aktionen verknüpft werd en. Ausschlaggebend ist d abei, d aß Register eingerichtet werd en können, in d enen zu einem beliebigen Zeitpunkt Informationen abgelegt und zu einem and eren Zeitpunkt wied er entnommen werd en können. Hat ein rekursives Netzwerk d ie Stärke eines Kellerautomaten und ist d amit nur zur Analyse von kontextfreien Sprachen ausreichend , so entspricht ein erweitertes Netzwerk einer Turing-Maschine, d . h. es sind d amit theoretisch alle aufzählbaren Sprachen erzeugbar und d ie Unterklasse d er kontext-sensitiven Sprachen auch entscheid bar. Das Setzen und Abfragen von Registern ermöglicht es, kontextuelle Beziehungen zwischen d en Elementen in d er Eingabe zu berücksichtigen. Die Ablage von Information in Registern erlaubt zud em d en Aufschub von Entscheid ungen und vermind ert so d ie Notwend igkeit d es Rücksetzens. Strukturbeschreibungen wer d en d urch eigene Aktionen erzeugt und können d aher beliebiges Aussehen haben. Das Prinzip eines ATN-Parsers besteht d arin, von einer aktuellen Konfiguration aus eine neue Konfiguration zu berechnen, ind em versucht wird einer Kante zu folgen und d abei Tests und Aktionen d urchzuführen. (Wood s 1970 (d eutsch 1976); Wood s 1973; Bates 1978 (d eutsch 1980); Billmeier 1979; Koch 1979; Lötscher 1979; Christaller/Metzing 1980; Winograd 1983, 195 ff.)

32.  Parsing natürlicher Sprachen: Realisierungen

413

Def inition einer ATN-Programmiersprache. Für eine bestimmte ATN-Implementierung muß vorab festgelegt sein, welche formalen Konstrukte ein erweitertes Übergangsnetzwerk enthalten d arf, weil es sonst unmöglich wäre, d ie Übersicht über d ie Sprachstrukturen zu behalten, welche d as ATN-Programm akzeptiert. Das folgend e ist ein Beispiel einer solchen Festlegung. Zur Programmierung wird häufig (aber nicht immer) d ie Sprache LISP verwend et, in d er d ie Evaluierung von Funktionen und d ie Kontrolle über d ie Rekursion bereits eingebaut sind . Für d en Leser, d er mit LISP nicht vertraut ist, ist d ie Notation jed och verwirrend . Darum wird hier eine einfachere Darstellung gewählt. (Definitionen von ATNs in LISP find et man u. a. in Bates 1978 = 1980, mit einer kurzen Einführung in LISP; d en LISP-Cod e für einen ATN-Interpreter enthält Christaller/Metzing 1980, Bd. 2, 173 ff.) Im Folgend en bed eutet ’→’ „besteht aus„; ’*’ als Exponent besagt, d aß d as betreffend e Element nicht od er auch mehrfach vorkommen kann; ’’ trennt Alternativen; kursiv gesetzte Elemente sind im Rahmen d er folgend en Syntax-Definition terminal, Näheres zu ihnen find et sich in d er Beschreibung d es Algorithmus; d ie großgeschriebenen Elemente sind Konstanten. Die Bed eutung d er Konstrukte wird innerhalb d es Algorithmus erläutert. 〈Erweitertes menge〉*

Übergangsnetzwerk〉



〈Kanten-

〈Kantenmenge〉 → 〈 Knoten 〉 〈Kante〉* 〈Kante〉 → 〈WRD-Kante〉  〈CAT-Kante〉  〈JUMPKante〉  〈VIR-Kante〉  〈PUSH-Kante〉  〈POPKante 〈WRD-Kante〉 → WRD 〈 lexikalisches Element 〈Test〉* 〈Aktion〉* 〈Übergang〉



〈CAT-Kante〉 → CAT 〈 lexikalische Kategorie 〈Test〉* 〈Aktion〉* 〈Übergang〉



〈JUMP-Kante〉 〈Aktion〉*



JUMP

〈Übergang〉

〈VIR-Kante〉 → VIR 〈 Konstituente 〈Aktion〉* 〈Übergang〉

〉 〈Test〉*

〈PUSH-Kante〉 → PUSH 〈 Knoten 〉 〈Prä-Aktion〉*〈Test〉*〈Aktion〉*〈Übergang〉 〈POP-Kante〉 → POP 〈Form〉 〈Test〉* 〈Test〉 → T 〈 Bedingung 〉 〈Prä-Aktion〉 → 〈Register-Weitergabe〉

〈Test〉*

〈Test〉*

〈Aktion〉 → 〈 Bedingung 〉 〈Register-Eintrag〉  〈Register-Rückgabe〉  〈HOLD-Aktion〉 〈Register-Eintrag〉 → SETR 〈 Register ADDR 〈 Register 〉 〈Form〉

〉 〈Form〉 

〈Register-Weitergabe〉 → SENDR 〈 Register 〉 〈Form〉 〈Register-Rückgabe〉 → LIFTR 〈 Register 〉 〈Form〉 〈HOLD-Aktion〉 → HOLD 〈 Konstituente 〉 〈Form〉 〈Form〉 → 〈aktueller Eingabeausd ruck〉  (aktuelles Merkmal〉  〈Register-Inhalt〉  〈Konstruktionsanweisung〉  〈Form〉 ⋂ 〈Form〉 〈aktueller Eingabeausdruck〉 → * 〈aktuelles Merkmal〉→ GETF 〈 Parameter〉  „ 〈Wert〉 „ 〈Register-Inhalt〉 → GETR 〈 Register 〉 〈Konstruktionsanweisung〉 → BUILDQ 〈 Rahmen 〈 Register 〉* 〈Übergang〉 → TO 〈 Knoten 〉

Voraussetzungen: (V-1) bis (V-4) wie beim top-down Parser mit Rücksetzen (siehe 1.1.1.). (V-5) ein erweitertes Übergangsnetzwerk entsprechend obiger Definition; ein Knoten darin ist als Anfangsknoten ausgezeichnet. (V-6) Variablen für den jeweils aktuellen Knoten und die aktuelle Kante beim Durchlaufen des Netzes. (V-7) ein Stapelspeicher, in dem die aktuelle Konfiguration, bestehend aus dem aktuellen Knoten, der aktuellen Kante im Netzwerk und der Zustand der Registerliste, festgehalten wird, bevor bei der Abarbeitung einer PUSH-Kante die tiefere Rekursionsebene betreten wird. (V-8) eine Liste von Registerlisten. Eine Registerliste ist eine Liste mit Registername-Registerwert Paaren. (Diese Organisation ist notwendig, um beliebige Register setzen zu können). Die Aktion SETR fügt ein neues Paar oben auf; dadurch sind die alten NameWert-Paare vor GETR verborgen, können aber beim Rücksetzen wieder sichtbar gemacht werden (für die Speicherung eines Zustandes braucht nur noch ein Pointer auf den aktuellen Beginn der Liste gesetzt werden). Auf jeder Rekursionsstufe ist eine andere Liste aus der Liste der Registerlisten aktuell. (Vgl. Woods 1973 b, 131 f.) (V-9) eine HOLD-Liste, in der Information



414

über bisher bearbeitete Konstituenten abgelegt wird. (V-10) ein Rücksetzspeicher, in dem im Falle einer Alternativkante die laufende Position in der Eingabe, der aktuelle Knoten und die alternative Kante im Netzwerk sowie der Zustand des Stapelspeichers, der Registerliste und der HOLD-Liste festgehalten werden. Algorithmus: (A) Abarbeitung des Übergangsnetzwerks: (A-1) Erzeuge eine Anfangskonfiguration: die laufende Position in der Eingabe ist gleich 1; der aktuelle Knoten ist der Anfangsknoten; die aktuelle Kante ist die erste, welche den Anfangsknoten verläßt; die aktuelle Registerliste ist leer; (A-2) ’Schnappschuß’: Gibt es eine nächste Kante nach der aktuellen Kante, so erzeuge einen Eintrag im Rücksetzspeicher mit der laufenden Position, dem aktuellen Knoten, der nächsten Kante, dem Zustand der aktuellen Registerliste, dem Zustand der HOLDListe und dem Zustand des Stapelspeichers. Bearbeite die aktuelle Kante je nach Kantenart wie folgt: WRD-Kante: Stimmt das angegebene lexikalische Element mit dem an der laufenden Eingabeposition befindlichen überein, so tue das folgende; sonst weiter (A-3). Führe den angegebenen Test durch; schlägt er fehl, so weiter (A-3). Führe die angegebenen Aktionen durch. Erhöhe die laufende Position in der Eingabe um 1. Mache den TO-Knoten zum aktuellen Knoten und dessen erste Kante zur aktuellen Kante. Weiter (A-2). CAT-Kante: Stimmt die angegebene Kategorie mit einer der lexikalischen Kategorien des Element an der laufenden Eingabeposition überein, so tue das folgende: sonst weiter (A-3). Führe den angegebenen Test durch; schlägt er fehl, so weiter (A-3). Führe die angegebenen Aktionen durch. Erhöhe die laufende Position in der Eingabe um 1. Mache den TO-Knoten zum aktuellen Knoten und dessen erste Kante zur aktuellen Kante. Weiter (A-2). JUMP-Kante: Führe den angegebe-

VIII. Computer Simulation of Language II: SystemsComponents

nen Test durch; schlägt er fehl, so weiter (A-3). Führe die angegebenen Aktionen durch. Ohne die Position in der Eingabe weiterzurücken, mache den TO-Knoten zum aktuellen Knoten und dessen erste Kante zur aktuellen Kante. Weiter (A-2). VIR-Kante: Steht die angegebene Konstituente infolge einer HOLDAktion an einer früheren Kante auf der HOLD-Liste, so tue das folgende; sonst weiter (A-3). Führe den angegebenen Test durch; schlägt er fehl, so weiter (A-3). Führe die angegebenen Aktionen durch. Ohne die Position in der Eingabe weiterzurücken, mache den TO-Knoten zum aktuellen Knoten und dessen erste Kante zur aktuellen Kante. Weiter (A-2). PUSH-Kante: Führe den angegebenen Test durch; schlägt er fehl, so weiter (A-3). Führe die angegebenen PräAktion aus. Setze die aktuelle Konfiguration auf den Stapelspeicher. Erzeuge eine neue Konfiguration für die nächst tiefere Rekursionsstufe: mache den angegebenen Knoten zum aktuellen Knoten und die erste Kante, die ihn verläßt, zur aktuellen Kante; übernehme die laufende Position; beginne eine neue Registerliste. Weiter (A-2). POP-Kante: Führe den angegebenen Test durch; schlägt er fehl, so weiter (A-3). Handelt es sich um die oberste Rekursionsstufe (d. h. der Stapelspeicher ist leer), so weiter (A-4). Sonst stelle die Konfiguration der nächst höheren Rekursionsstufe anhand des obersten Eintrags auf dem Stapelspeicher wieder her und entferne den Eintrag vom Stapel. Gibt die an der Kante angegebene Form sowie die erreichte laufende Position als Ergebnis des Unternetzwerks an die übergeordnete Rekursionsstufe zurück. Führe nun die Aktionen an der PUSH-Kante aus, die zum Aufruf des Unternetzwerkes geführt hatte. Mache den TO-Knoten der PUSH-Kante zum aktuellen Knoten und dessen erste Kante zur aktuellen Kante. Weiter (A-2). (A-3) Gibt es einen Eintrag im Rücksetzspeicher, so mache die dortige Konfiguration zur aktuellen und setze auch den Stapelspeicher auf den angegebenen Zustand zurück; entferne den

32.  Parsing natürlicher Sprachen: Realisierungen

Eintrag vom Rücksetzspeicher und weiter (A-2). Sonst melde Fehlschlag und halte an. (A-4) Ist das Ende der Eingabe erreicht (d. h. die laufende Position ist um 1 größer als die Zahl der Wörter in der Eingabe), so ist die Analyse erfolgreich abgeschlossen. Gib das Ergebnis aus und halte an. Sonst weiter (A-3).

GRAMMATIK G7

Abb. 32.14 a: Erweiterte Übergangsnetzwerke (ATN)

415

(Sollen alle möglichen Lesungen einer Eingabe gefunden werden, so auch im Falle erfolgreicher Analyse weiter zu (A-3).) (B) Durchführung von Tests: Ein Test besteht d arin, d en Wahrheitswert für eine Bed ingung zu ermitteln. Die Bed ingung kann im Prinzip beliebige Präd ikate und Argumente enthalten. Die im Beispiel benutzten

416

VIII. Computer Simulation of Language II: SystemsComponents

Fortsetzung

32.  Parsing natürlicher Sprachen: Realisierungen

417

Fortsetzung

418

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 32.14b: Ein ATN-Programm

LEXIKON: (Der Wert, den das Lexikon der Variablen * für den aktuellen Eingabeausdruck zuweist, ist das Lexem bzw. die Grundform des Wortes.) Det Kasus[nom] Genus[mas] Numerus[singular] Flexion[def] der Det Kasus[gen, dat] Genus[fem] Numerus[singular] Flexion[def] der Det Kasus[gen] Genus[mas, fern, neutr] Numerus[plural] Flexion[def] der Det Kasus[nom, akk] Genus[fem] Numerus[singular] Flexion[def] die Det Kasus[nom] Genus[mas, neutr] Numerus[singular] Flexion[indef] kein welchen Det WPron[+] Kasus[dat] Genus[mas, fern, neutr] Numerus[plural] Flexion[def] beliebige Adj Kasus[nom] Genus[mas, fern, neutr] Numerus[singular] Flexion[def] beliebige Adj Kasus[nom, akk] Genus[mas, fem, neutr] Numerus[plural] Flexion[indef] beliebiger Adj Kasus[nom] Genus[mas] Numerus[singular] Flexion[indef] N Kasus[nom, dat, akk] Genus[mas] Numerus[singular] computer Fortsetzung

32.  Parsing natürlicher Sprachen: Realisierungen

computer regeln antworten ich wer wen antworten hat erzeuge erzeugt erzeugt geantwortet auf nach

419

N Kasus[nom, gen, akk] Genus[mas] Numerus[plural] N Kasus[nom, gen, dat, akk] Genus[fem] Numerus[plural] N Kasus[nom, gen, dat, akk] Genus[fem] Numerus[plural] Pron Person[erste] Kasus[nom] Numerus[singular] Pron Wpron[+] Person[dritte] Kasus[nom] Pron Wpron[+] Person[dritte] Kasus[akk] Verb Form[finit] Person[erste, dritte] Numerus[plural] Tempus[präs] Valenz[subj, datobj, präpobj auf] Verb Form[finit] Person[dritte] Numerus[singular] Valenz[partizip] Verb Form[finit] Person[erste] Numerus[singular] Tempus[präs] Valenz[subj, akkobj] Verb Form[finit] Person[dritte] Numerus[singular] Tempus[präs] Valenz[subj, akkobj] Verb Form[partizip] Valenz[subj, akkobj] Verb Form[partizip] Valenz[subj, datobj, präpobj auf] Präp Kasus[dat, akk] Präp Kasus[dat]

Abb. 32.14 c: Das Lexikon zum ATN-Programm

Fortsetzung

420

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 32.14 d: ATN-Abarbeitungsbeispiel

Präd ikate sind Id entität (=) und Enthaltensein (ε) und d as Vorliegen eines nicht-leeren Durchschnitts zweier Mengen (⋂). Die Bed ingung kann auf Register und sonstige Bestand teile von Konfigurationen Bezug nehmen und mittels logischer Junktoren (wenn d ann, und , od er, nicht) beliebig komplex strukturiert sein. Trifft d ie Bed ingung zu, so wird T (’true’) als Wert zurückgegeben, sonst F (’false’). Ein Test schlägt fehl, wenn d ie Auswertung d er Bed ingung d en Wert F ergibt.

(C) Durchführung von Aktionen: SETR-Aktion: Setze d as Register mit d em angegebenen Namen in d er Registerliste auf den Wert der angegebenen Form. ADDR-Aktion: Füge d em Register mit d em angegebenen Namen (d as als Liste implementiert ist) d ie angegebene Form als weiteres Element hinzu. Auf d iese Weise kann eine Menge von Merkmalen akkumuliert werd en. SENDR-Aktion: Dies ist eine Prä-Aktion, d ie nur an PUSH-Kanten benutzt wird . Setze d as Register mit d em angegebenen Namen

32.  Parsing natürlicher Sprachen: Realisierungen

auf d er nächst nied rigeren Rekursionsstufe, wie sie gerad e von PUSH eingerichtet wird , auf den Wert der angegebenen Form. LIFTR-Aktion: Dies ist d ie inverse Aktion zu SENDR. Setze d as Register mit d em angegebenen Namen auf d er nächst höheren Rekursionsstufe auf d en Wert d er angegebenen Form. HOLD-Aktion: Setze d ie angegebene Form als ein Vorkommen d er angegebenen Konstituente auf d ie HOLD-Liste. Die HOLD-Liste ist eine globale Liste, d ie auf allen Ebenen zugänglich ist. Sie d ient d azu, jed erzeit auf Kontextinformationen zurückgreifen zu können. Insbesond ere wird d iese Information von d er VIR-Kante benutzt, d ie eine früher aufgefund ene (beispielsweise links extraponierte) Konstituente so behand elt, als sei sie an der späteren Stelle aufgetreten. (D) Die Auswertung von sog. Formen innerhalb einer Aktion: Die Variable * steht in der Regel für das lexikalische Element an d er aktuellen Eingabeposition. Eine Ausnahme bild et ihre Verwend ung in PUSH- und POP-Kanten: In d en Aktionen einer PUSH-Kante, d ie nach d er erfolgreichen Rückkehr aus einem Unternetz d urchgeführt werd en, id entifiziere * mit d em von POP gelieferten Ergebnis d er Abarbeitung des Unternetzes. Bei GETF liefere für d as aktuelle lexikalische Element d en Wert d es angegebenen Parameters, z. B. ein nach d em Lexikon zugeord netes Merkmal für Numerus, Kasus, Person usw. Bei GETR liefere d en Inhalt d es angegebenen Registers als Wert. Ist d as Register leer, so liefere den Wert F (’false’). BUILDQ ist eine Funktion, mit d er d ie Strukturbeschreibung aufgebaut wird . Sie erwartet einen Rahmen, d . i. ein Strukturfragment mit Konstanten und Sond erzeichen, sowie eine Reihe von Registernamen. Eines d er am meisten gebrauchten Sond erzeichen ist ’+’. Substituiere für d ie im Rahmen enthaltenen Vorkommen d ieses Zeichens d ie Inhalte d er angegebenen Register in d er Reihenfolge ihres Auftretens. (Angenommen d as Register Subj enthält ’(NP computer)’, d as Register Verb ’(V beantworten)’ und d as Register Obj ’(NP fragen)’. ’BUILDQ (S + (VP + +)) Subj Verb Obj’ ergibt d ann d en Ausd ruck ’(S (NP computer) (VP (V beantworten) (NP fragen)))’. Das Sond erzeichen ’*’ steht für d as aktuelle Lexem in d er Eingabe. Es wird d irekt innerhalb d es Rahmens von BUILDQ benutzt.

421

Als Wert zweier d urch ⋂ verknüpfter Formen liefere d en Durchschnitt aus beid en. Ist d er Durchschnitt leer, so liefere d en Wert F („False„). Anmerkung. Der vorgestellte ATN-Parser wird d en Phänomenen d es Deutschen besser gerecht als d ie übrigen besprochenen Verfahren. Es wird d ie Kongruenz zwischen Subjekt und Verb berücksichtigt; d ie möglichen Satzglied er werd en von d er Valenz d es Verbs abhängig gemacht; es wird d er variablen Wortstellung Rechnung getragen, ind em jed es Satzglied im Vorfeld (vor d em finiten Verb) auftreten kann; es werd en Aussagesätze, Fragesätze und Sätze mit Hilfsverb erkannt. Um Rücksetzen möglichst zu vermeid en, werd en d ie vorgefund enen Satzglied er zunächst gesammelt (in d en Kanten 1, 2, 5, 6) und d ann mit d er im Lexikon angegebenen Valenz d es Verbs verglichen (Kante 11). Dabei werd en z. T. bisherige Ergebnisse nachträglich uminterpretiert, z. B. d as Verhältnis zwischen Verb, Hilfsverb und Tempus in Kante 7. Das Erkennen d er nominalen Satzglied er erfolgt bottom-up, d . h. es wird (in d en Kanten 1 und 5) nur generell eine NP gesucht, d ie d ann, je nach d em für sie ermittelten Kasus, interpretiert wird . Als Strukturbeschreibung wird ein Depen d enzbaum aufgebaut, d essen Elemente je aus einer syntagmatischen Rolle und einem Lexem bestehen. Abwandlungen. Der obige Algorithmus entspricht einem Vorgehen top-d own, von links nach rechts, Tiefe zuerst, mit Rücksetzen. Es sind aber auch and ere Abarbeitungen d es Netzwerkes möglich, z. B. parallele od er teils sequentielle, teils parallele Übergänge von einer Konfiguration zur an d eren (Woo d s 1973). Auch eine Organisation von unten nach oben sowie von innen nach außen (sog. Inselparsing) ist vorgeschlagen word en (Bates 1980, 47). Es können verschied ene Knoten in einem Netz als Eingänge d ienen; auf d iese Weise erhält man generellere und kompaktere Netzwerke. Rücksetzen kann vermied en werd en, ind em Registerinhalte noch veränd ert werd en können, wenn sich d ie Unrichtigkeit einer früheren Annahme später herausstellt. Häufig wird d er Linguist wissen, unter welchen Umständ en d er Parser in eine bestimmte Sackgasse geraten und zum Rücksetzen gezwungen sein wird . Statt d er ’blind en’ Abarbeitung d es Rücksetzspeichers empfiehlt sich d ann eine explizite Angabe im Netz, auf welche Alternative (ggf. unter welcher Bed ingung) unmittelbar zurückgesetzt

VIII. Computer Simulation of Language II: SystemsComponents

422

werd en soll (vgl. Koch 1979, 21 ff.). R. Burton 1976 hat ein System geschrieben, d as aus einem ATN ein kompiliertes Programm erzeugt. Ein Interpreter übersetzt d as ganze Netz in eine einzige LISP-Funktion, wobei d ie Knoten Sprungmarken werd en, Funktionen für d as Vorrücken und d as Backtracking bereitgestellt werd en und d ie Tests und Aktionen als LISP-Funktionen eingefügt werd en. Die Kompilation d ieser Funktion ergibt eine „ATN-Maschine„, d ie Sätze akzeptiert und Strukturen ausgibt (Bates 1980, 50 ff.). Eine wesentliche formale Erweiterung sind sog. kaskad ierte ATNs (CATN, siehe Wood s 1980). Ein CATN ist eine Sequenz von ATNs, wobei jed es folgend e ATN seine Eingabe von d er Ausgabe d es vorhergehend en nimmt. Eine solche Ausgabe wird d urch eine eigene Aktion an d en Kanten (TRANSMITAktion) erzeugt. Kann d as nächste Netzwerk eine Eingabe nicht verarbeiten, so wird d er Pfad im vorangehend en Netzwerk, d er d ie Ausgabe erzeugt hat, für d en weiteren Verlauf blockiert. Möglich ist z. B. d aß ein erstes Netzwerk eine syntaktische Analyse d urchführt und ein zweites eine semantische. Kritik. Der Vorteil erweiterter Übergangsnetzwerke ist, d aß man praktisch alles machen kann. Das ist aber zugleich ein Nachteil d es Formalismus. Große Grammatiken sind wegen d er prozed uralen Notation schwer überschaubar (siehe z. B. d as Netzwerk für d as System LUNAR in Bates 1980, 34—36). Der Transfer von Merkmalen mittels SETR, SENDR und LIFTR und d ie Unifikation d er Inhalte vieler Register sind umständ lich. ATNs sind d as ganze Gegenteil d er Lexikalisierung, welche d erzeit ein Trend mod erner Grammatiken ist (vgl. 4.2.1.).

4.

Lexikonbasierte Parser

Die oben beschriebenen Verfahren beruhen auf *Regelgrammatiken. Die folgend en verwen d en *lexikalisierte Grammatiken. Die d en Elementen im Lexikon zugeord neten Kategorien sind hier so strukturiert, d aß aus ihnen selbst d ie syntagmatische Verbind ungsfähigkeit d es Elements hervorgeht. In d er Lexikonphase werd en jed em Element d er Eingabe d ie entsprechend en Kategorien zugeord net. Anschließend werd en fortlaufend d ie Beschreibungen d er Segmente, d ie miteinand er kompatibel sind , ermittelt und zum Aufbau einer komplexen Strukturbeschrei-

bung benutzt. Es bietet sich an, d abei eine *Teilergebnistabelle (chart) zu verwenden. 4.1. Am Konstituenzprinzip orientierte Verfahren Auf d er Grund lage d er lexikalischen Beschreibung wird versucht, d ie Teil-GanzesBeziehungen d er Konstituenten innerhalb der Eingabe zu rekonstruieren. 4.1.1. Parser für Kategorialgrammatiken Prinzip. Die Grund id ee d er Kategorialgrammatik, d ie ursprünglich für Logikformalismen ged acht war, ist d ie, d aß ein Funktor auf bestimmte Argumente angewend et wird , und sich d araus eine Entität d es gleichen od er eines neuen Typs ergibt. Z. B. ergibt d ie Anwend ung eines Präd ikats auf ein od er mehrere Argumente eine Aussage. Die Argumente können u. U. selbst wied er in Funktoren und Argumente zerlegt werd en. Ein Funktor wird in d er Kategorialgrammatik d urch eine Kategorie repräsentiert, d ie aus d en Kategorien d er Argumente sowie d er Kategorie, d ie d as Ergebnis d er Anwend ung d es Funktors ist, zusammengesetzt ist. Der Funktor enthält also d ie Information über d ie ganze syntaktische Konstruktion und wird d ad urch gleichzeitig selbst klassifiziert. Elemente, d ie keine Funktoren sind , bekommen einfache Kategorien. Dieses Prinzip ist nun verallgemeinert und auf Konstituentenstrukturgrammatiken angewen d et wor d en. Hier ist eine d er unmittelbaren Konstituenten d er Funktor. Seine Kategorie enthält d ie Kategorien d er übrigen unmittelbaren Konstituenten sowie d ie Kategorie d er übergeord neten Konstituente. Da d ie lexikalischen Einheiten sämtliche syntaktische Information enthalten, ist d as Analyseverfahren d enkbar einfach. Es besteht d arin, d aß d ie zusammengesetzten Kategorien fortgesetzt um d ie passend en Kategorien d er Elemente in d er Umgebung gekürzt werd en, bis nur noch eine Kategorie für d ie gesamte Eingabe übrig bleibt (wobei geford ert werd en kann, d aß sich d iese mit d er ausgezeichneten Kategorie d er Grammatik bed eckt). Die Kürzungen entsprechen d en Zusammenfassungen von unmittelbaren Konstituenten in einem regelgesteuerten bottom-up Parser (vgl. 1.2.). Die Abfolge von Funktor und Argumenten sind ebenfalls d er Kategorie d es Funktors zu entnehmen. Normalerweise wird ein Funktor

423

in einem Schritt auf genau ein Argument angewend et (d ie Zusammenfassungen sind also binär). Ein nach links od er rechts geneigter Schrägstrich zeigt in d er Kategorie d es Funktors an, d aß d as betreffend e Argument unmittelbar links bzw. rechts vom Funktor stehen muß. Klammern umschließen zusammengesetzte Kategorien, d ie in bezug auf d ie Kürzungen eine Einheit d arstellen sollen. Die allgemeine Regel für eine Red uktion mit einer rechts stehend en Konstituente (forward cancelling) lautet: (R-1)α/β, β ⇒ α Die für eine Red uktion mit einer links stehend en Konstituente (backward cancelling) lautet: (R-2)β, β\α ⇒ α Dabei sind α und β einfache od er zusammen-

Abb. 32.15: Parser für Kategorialgrammatiken

gesetzte Kategorien. Zur Abarbeitung bietet sich ein d em Cocke-Algorithmus (vgl. 2.2.1.) entsprechend es Verfahren an. (Hays 1967, 142 f.; Uszkoreit 1986) Zusammenhang mit Ersetzungsgrammatiken. Es ist möglich, jed e kontextfreie Phrasenstrukturgrammatik in eine schwach äquivalente Kategorialgrammatik zu übersetzen. Dazu muß d ie Grammatik zunächst so umgeformt werd en, d aß jed e Regel ein terminales Element enthält, d as als Funktor in d er entsprechen d en Konstituente d ienen kann. Diese Bed ingung ist z. B. in d er *GreibachNormalform, d ie d er präd iktiven Analyse zugrund e liegt (vgl. 1.1.3.), per d efinitionem erfüllt. Daher gehen wir von ihr im folgend en Beispiel aus. Die einfache Übersetzungsvorschrift lautet in d iesem Fall (vgl. Kratzer/ Pause/von Stechow 1973, 240) wie folgt. Nach Maßgabe eine jeden Regel der Form X → a Y1 Y2 ... Yn

424

weise allen Elementen im Lexikon statt d er Kategorie a die Kategorie X/Yn/ ... /Y2/Y1 zu. Aufgrund einer Regel der Form X→a weise allen Elementen statt d er Kategorie a die Kategorie X zu. Das Ergebnis ist eine Kategorialgrammatik, d ie nur Kürzungen eines Funktors mit einfachen rechten Konstituenten kennt. Man benötigt daher hier keine Klammern. Voraussetzungen: (V-1) Eine Kategorialgrammatik in Form eines Lexikons, in welchem jedem lexikalischen Element der Sprache eine Menge von einfachen oder zusammengesetzten Kategorien zugeordnet ist. (V-2) Eine Teilergebnistabelle (chart), deren Einträge je aus eine Menge von Kategorien bestehen und denen je ein Segment der Eingabe mit einer bestimmten linken und rechten Grenze zugeordnet ist. (Vgl. die Analysematrix zum Cocke-Algorithmus in 2.2.1.) Algorithmus: (A-1) Lexikonphase: Erzeuge zu jedem Element der Eingabe einen Eintrag in der Teilergebnistabelle, bestehend aus der Menge der im Lexikon verzeichneten Kategorien. Ordne dem Eintrag als linke Grenze die Position des Elements minus 1 und als rechte Grenze die Position des Elements zu. (A-2) Reduktion: Prüfe für alle bisherigen Einträge in der Teilergebnistabelle, ob sie eine zusammengesetzte Kategorie enthalten, die sich mit der Kategorie eines rechts angrenzenden Segments, d. i. eines weiteren Eintrags, dessen linke Grenze gleich der rechten des ersteren ist, nach (R-1) kürzen läßt. Wenn ja, so füge die reduzierte Kategorie einem Eintrag hinzu, dessen linke Grenze gleich der linken des ersten und dessen rechte Grenze gleich der rechten des zweiten Eintrags ist. Läßt sich kein weiterer Eintrag erzeugen, so weiter (A-3). (Bei zweiseitigen Kategorialgrammatiken ist ein analoger Test nach (R-2) durchzuführen.) (A-3) Erfolgsprüfung: Befindet sich in der Teilergebnistabelle ein Eintrag mit der linken Grenze gleich 0 und der rechten Grenze gleich der Zahl der Eingabeele-

VIII. Computer Simulation of Language II: SystemsComponents

mente, so akzeptiere die Eingabe. Andernfalls weise sie zurück. (Darüber hinaus kann gefordert werden, daß die Kategorie in diesem Eintrag das ausgezeichnete Symbol der Grammatik ist.) Herstellung der Strukturbeschreibung. Ein Phrasenstrukturbaum entsteht, wenn bei jed er Kürzung ein neuer Knoten gebild et wird , d er mit d er gekürzten Kategorie etikettiert wird , und ihm d ie Knoten mit d em Funktor und d em Argument untergeord net werd en. Bemerkenswert ist, d aß d er erzeugte Baum d emjenigen entspricht, d er von einer Grammatik in Chomsky-Normalform generiert wird (wie sie üblicherweise d em Cocke-Algorithmus zugrund e gelegt wird ) und nicht d er Struktur, d ie eine präd iktive Grammatik erzeugt, obwohl d ie Kategorialgrammatik aus letzterer abgeleitet wurde. Anwandlungen. Verglichen mit d er präd iktiven Analyse hat d as obige Verfahren d en Nachteil, d aß es nicht linear vom Satzanfang aus fortschreitet. Man könnte sich auch eine Kürzungsregel folgen d er Form vorstellen, d ie eine Abarbeitung von links nach rechts erlauben würde: (R-3)α/β, β/μ ⇒ α/μ Soweit d ie Kategorien ausschließlich aus einer Greibach-Normalform-Grammatik abgeleitet word en sind , d eckt sich d ie Abarbeitung nach (R-3) völlig mit d er d er präd iktiven Analyse. Für weniger eingeschränkte Kategorialgrammatiken ist (R-3) jed och wahrscheinlich nicht brauchbar. In Hausser 1986 wird ein linksassoziativer Parser für Kategorialgrammatiken vorgestellt, d er stets d ie Kategorie d es nächsten Wortes mit d er d es bis d ahin analysierten Satzanfanges kürzt. Die Art, wie d ies geschieht, wird jed och d urch eine Menge von Regeln gesteuert, d ie auf d ie konkreten Kategorien Bezug nehmen. Es hand elt sich also um eine Mischform zwischen lexikalisierter Grammatik und Regelgrammatik. 4.2. Parsing nach dem Slot-und-Filler-Prinzip Eine weitere Möglichkeit, einen Parser zu organisieren, ist es, eine Menge von Rahmen (frames) vorzugeben, in d ie aktuelle Eingaben eingepaßt werd en. Ein Rahmen enthält einerseits eine vorgegebene Struktur und an-

32.  Parsing natürlicher Sprachen: Realisierungen

d ererseits Leerstellen (slots) für noch ungeklärte Teile. Letztere werd en geklärt, ind em eine passend e Besetzung (filler) für d ie Leerstelle gefund en wird . Ein klassischer Fall d ieser Organisation von Wissenserwerb ist d er Fragebogen. Von d er *Mustererkennung als d em parallelen Abgleichen zweier Symbolsequenzen unterscheid et sich d er *Slot-FillerAnsatz d urch d ie Asymmetrie zwischen d en Einheiten, d ie d en Rahmen schaffen, und solchen, d ie d en Rahmen ausfüllen. Diese Sicht d eckt sich mit d er alten Unterscheid ung zwischen gesättigten und ungesättigten Ausd rücken, d ie in Form d er Valenz und Rektion Eingang in d ie Grammatik gefund en hat. Das Slot-Filler-Prinzip ist am besten für d as Parsen von Dependenzgrammatiken geeignet. 4.2.1. Chart-Parser für lexikalisierte Dependenzgrammatiken Prinzip. Ziel ist d er Aufbau eines Depend enzbaum als Analyseergebnis. Jed er Knoten in d iesem Baum ist mit d em Lexem eines Elements d er Eingabe etikettiert. Es steht nichts im Wege, jed en Knoten mit weiteren Etiketten zu versehen, z. B. mit funktional-syntaktischen un d morpho-syntaktischen Kategorien. Das strukturiend e Prinzip d er *Depend enzgrammatik ist d ie Beziehung zwischen Lexemen und Ergänzungen, und nicht etwa nur zwischen Lexemen (bzw. Wörtern), wie häufig angenommen wird . Die Möglichkeit od er Notwend igkeit von Ergänzungen hängt von d er lexikalischen Bed eutung d er Wörter ab; ein Wort, d as eine Relation bezeichnet, verlangt z. B. nach Bezeichnungen für d ie Entitäten, d ie in d er besagten Relation stehen. Die syntagmatische Funktion d er Ergänzungen läßt sich leicht konkret angeben. So gehört zum Begriff schlafen d er Schläfer, zum Begriff ärgern d er Verärgerte und d as Ärgerliche. Diese Rollen werd en im Satz von Satzglied ern ausgefüllt, d ie aus einem einzigen Wort wie auch aus umfangreichen Phrasen bestehen können. Z. B. können ’Fritz’, ’d er Mann auf d er Bank’, ’Wer d ie ganze Nacht d urchgearbeitet hat’ alle d ie Funktion übernehmen, im Zusammenhang mit d em Verb ’schläft’ d en Schläfer zu bezeichnen. In Depend enzbäumen sind für Phrasen d ennoch keine Knoten vorgesehen, weil ihre interne Struktur wied erum eine Angelegenheit von Lexemen und ihren Ergänzungen ist, und somit Phrasen selbst wied er als Depend enzbäume repräsentiert wer d en können.

425

Die Depend enzrelation besteht formal also zwischen regierend en Knoten und d epend enten Teilbäumen, und nicht etwa nur zwischen einzelnen Knoten. (Unter einem Teilbaum verstehen wir im folgend en jed en Knoten und alle ihm unmittelbar od er mittelbar untergeord nete Knoten.) Abstrahiert man von d en konkreten Rollen d er Ergänzungen, so gelangt man zu grammatischen Funktionen wie Subjekt, Objekt usw. Diese werd en als Etiketten einzelnen Knoten im Depend enzbaum hinzugefügt. Sie gelten aber eben nicht nur für d iesen Knoten, sond ern für d en von ihm dominierten Teilbaum. Für jed e Relation zwischen einem Knoten und einem abhängigen Teilbaum in d er angestrebten Depend enzd arstellung ist ein Rahmen vorzusehen, d er aus d em Knoten und einer Leerstelle für d en Teilbaum besteht, wobei d ie Leerstelle ein Muster für d en d ominierend en Knoten im Teilbaum d arstellt. Nach d em Slot-Filler-Prinzip werd en komplexere Bäume d ad urch aufgebaut, d aß d ie d ominierend en Knoten von Teilbäumen in passend e Leerstellen eingefügt werd en, wobei d ie von ihnen selbst abhängigen Knoten erhalten bleiben. Anschließend wird d er so entstand ene Baum wied er in and ere Leerstellen eingesetzt, und so fort, bis schließlich ein Depend enzbaum entstand en ist, d er für jed es Element in d er Eingabe genau einen Knoten enthält. Unif ikation. Sowohl d er d ominierend e Knoten wie auch alle Leerstellen werd en d urch *komplexe Kategorien morpho-syntaktisch näher bestimmt. Aus d en Werten d er Parameter in einer Leerstelle und d enen einer potentiellen Besetzung wird d er Durchschnitt gebild et. Dieser d arf für keinen Parameter leer sein. Parameter, d ie in Kongruenz stehen, werd en in d er Leerstelle markiert (im unten folgend en Beispiel d urch ’C’ als Wert). In d iesem Fall müssen d ie aus d em Vergleich von Slot und Filler gewonnenen Werte mit d en entsprechend en Parametern im d ominierend en Knoten ebenfalls einen nicht-leeren Durchschnitt bild en. Kongruenz zwischen nebengeord neten Teilbäumen wird erzwungen, ind em d ie Werte an d en gemeinsamen d ominierend en Knoten weitergeben werd en und d ort einen Durchschnitt bild en müssen. Auf d ie gleiche Weise ist es möglich, Charakteristika von Teilbäumen an ihren d ominierend en Term weiterzureichen. Von d iesen kann d ann d ie Besetzbarkeit einer Leerstelle abhängig gemacht werden.

426

Lexikonorganisation. Jed em Eingabesegment müssen ein Lexem, morpho-syntaktische Kategorien und ggf. Leerstellen zugeord net werd en. Es empfiehlt sich, d ies in zwei Schritten zu tun. Im ersten Schritt wird d er d ominierend e Knoten eines Depend enzbaumes gebild et, d er d as Lexem und d ie d er Wortform entsprechend e Kategorie enthält. Dies geschieht nach Maßgabe eines morpho-syntaktischen Lexikons. Vielen Wortformen kommt d asselbe Lexem zu. Von d iesem aber hängt in erster Linie d ie Ergänzungsfähigkeit ab. Es gibt d aher einen zweiten Datenbestand , d er Verweise von Lexemen auf Ergänzungstypen enthält. In einem d ritten Teil d es Lexikons sind für jed en Ergänzungstyp vorgefertigte Leerstellen mit entsprechend en funktionalsyntaktischen Kategorien (Rollen) gespeichert. Alternative Leerstellen (mit d erselben Rolle aber unterschied lichen morpho-syntaktischen Anford erungen) werd en als Disjunktion notiert. Im zweiten Schritt werd en aufgrund d er Verweise zum betreffend en Lexem d ie vorgefertigten Leerstellen herausgesucht und d em d ominierend en Knoten untergeord net. Der resultierend e Depend enzbaum mit Leerstellen wird in d er Teilergebnistabelle (chart) gespeichert. Chart. Die Teilergebnistabelle enthält zunächst Depend enzbäume zu d en kleinsten Eingabesegmenten, d avon einige mit Leerstellen. Im Verlauf d es Slot-Filling-Prozesses werd en Bäume erzeugt, d ie zu immer größeren Segmenten in d er Eingabe gehören. Auch d iese werd en in d er Teilergebnistabelle verwaltet. Gegenüber d en oben besprochenen Charts, d eren ’Bögen’ mit Kategorien für Konstituenten od er mit Konstitutentenstrukturbäumen etikettiert sind (vgl. d en EarleyParser in 2.1.1. und d en Cocke-Algorithmus in 2.2.2.) besteht d ie Neuerung also d arin, d aß es jetzt Bäume mit Leerstellen sind , d ie jeweils ein Eingabesegment überspannen. Die Leerstellen aber bestimmen d ie Aktionen d es Parsers; somit hand elt es sich um eine Art von ’active chart parsing’. Eine zweite Neuerung ist d ie, d aß in d er Chart auch d iskontinuierliche Konstituenten zu verwalten sind . Ein Vorteil d es Slot-Filler-Ansatzes ist es nämlich, d aß d ie Besetzung für eine Leerstelle nicht unmittelbar an d as mit d em Rahmen etikettierte Segment anschließen muß. Damit ist d as Bild d es Bogens von d er linken zur rechten Grenze eines Segment hinfällig. Um d ie von einem Teilergebnis abged eckte Spanne in d er Eingabe zu bezeichnen, ver-

VIII. Computer Simulation of Language II: SystemsComponents

wend en wir Bitketten, wobei für jed e Position in d er Eingabe ein Bit vorgesehen ist. ’1’ steht für ein Element d as Teil d es betreffend en Segments ist, ’0’ für ein Element, d as nicht Teil d es Segments ist. ’101’ ist z. B. d ie Repräsentation für ein Segment, d as aus d em ersten und d ritten Element in d er Eingabe geformt ist. Bevor eine potentielle Besetzung mit einer Leerstelle verglichen wird , wird d er Durchschnitt zwischen d en Bitketten beid en Bäume gebild et. Dieser Durchschnitt muß leer sein, d enn and ernfalls d ecken d ie Bäume teilweise d ieselben Segmente ab, und d amit kann einer nicht mehr Ergänzung zum and eren sein. Nachd em ein Filler in ein Slot eingefügt word en ist, wird d ie Union d er Bitstrings beid er Segmente gebild et und als Segmentmarkierung d em neuen Baum zugeord net. Die Eingabe wird akzeptiert, wenn es wenigstens ein Segment gibt, d em eine Bitkette von d er Länge d er Eingabe entspricht, d ie nur noch aus ’1’ besteht. Der Parser d urchläuft d ie Teilergebnistabelle in mehreren Zyklen. Zunächst werd en nur kontinuierliche Segmente gebild et, d . h. solche d ie zwischen d er ersten und letzten Eins keine Null enthalten. Anschließend folgt ein Durchlauf, in d em aus d en bisherigen Zwischenergebnissen auch d iskontinuierliche Segmente gebild et werd en. Schließlich werd en d iese d iskontinuierlichen Segmente wied er kontinuierlich zusammengefügt, und so fort. Positionsmerkmale. Die verschied enen Stellungsverhältnisse in d er Eingabekette zählen im hier zugrund egelegten Depend enzformalismus zu d en morpho-syntaktischen Merkmalen und werd en d urch explizite Parameter und Werte an d en Knoten d er Depend enzbäume notiert. Ein Stellungsmerkmal gilt immer für d as einem abhängigen Teilbaum zugeord nete Segment relativ zu d em Segment d es d ominierend en Knotens. Es hat sich gezeigt, d aß sich Stellungsregularitäten relativ zur Depend enzstruktur besser formulieren lassen, als in einem Phrasenstrukturmod ell, und zwar d eshalb, weil verschied ene Typen von Stellungsparametern eingeführt werd en können, während d ie Phrasenstrukturgrammatik nur d ie eine Relation d er Konkatenation kennt. Stellungsparameter bild en einen Teil d er morpho-syntaktischen Kategorie, mit d er jed e Leerstelle versehen ist. Sie unterliegen ebenso d er Unifikation wie d ie übrigen Merkmale. Nur stammen ihre Werte nicht aus d em Lexikon, sond ern werd en aus d en aktuellen Verhältnissen in d er Eingabe be-

32.  Parsing natürlicher Sprachen: Realisierungen

rechnet. Dies geschieht auf d er Grund lage d er Bitketten d er beteiligten Segmente in d er Chart. Der unten benutzte Parameter ’Folge’ hat z. B. d en Wert ’links’, wenn d as letzte Bit d es Fillers d em ersten Bit d es Leerstellen eröffnend en Elements vorangeht; d er Parameter ’Position’ hat d en Wert n, wenn d ie Bitfolge d ie n-te unter d en Bitketten für alle d epend enten Teilbäume zum selben d ominierend en Element ist. Es soll hier d arauf verzichtet werd en, d ie verschied enen Abfolgen, d ie sich auf d er Grund lage zweier Bitketten d efinieren lassen, formal einzuführen. Sie werd en vom Parser generell zur Verfügung gestellt, und d er Linguist kann bei d er Wahl seiner Kategorie für eine konkrete Grammatik auf sie zurückgreifen. (Literatur zum vorliegend en Verfahren: Hellwig 1978 a und 1978 b; Hellwig 1980; Hellwig 1986; Hellwig 1988; Literatur zu and eren Depend enzparsern: Starosta/Nomura 1986; Nelimarkka/ Jäppinen/Lehtola 1985; Jäppinen/Lehtola/ Valkonen 1986.) Voraussetzungen: (V-1) ein morpho-syntaktisches Lexikon, in dem den Wortformen der Sprache je ein Lexem und eine komplexe morpho-syntaktische Kategorie zugeordnet wird. (V-2) eine Menge von Ergänzungsmustern mit vorgefertigten Lehrstellen für jeden Typ von Ergänzung. (V-3) eine Menge von Verweisen von Lexemen auf Ergänzungsmuster. (V-4) eine Teilergebnistabelle, deren Einträge aus einem Bitstring zur Darstellung des Eingabesegments und einem Dependenzbaum bestehen. (V-5) eine Variable F für den eine Leerstelle suchenden Baum, eine Variable S für einen Baum mit Leerstellen sowie je eine Variable A und E für den Anfang und das Ende des Bereichs in der Teilergebnistabelle, in dem gesucht wird. Ad sei eine weitere Variable für den Anfang des Suchbereichs. Algorithmus: (A-1) Lexikonphase: Bilde zu jeder Wortform in der Eingabe einen Baum, der aus einem Knoten mit dem Lexem und der morpho-symtaktischen Kategorie besteht, wie sie das morpho-syntaktische Lexikon angibt. Ordne diesem Knoten die Leerstellen all jener Ergänzungsmuster unter, auf die von dem

427

Lexem aus verwiesen wird. (Mittels der Variablen ’?’ in den Ergänzungsmustern und entsprechenden Konstanten in den Verweisen können die Leerstellen individuell eingeschränkt werden.) Speichere die Ergebnisse als je eigene Einträge in der Teilergebnistabelle ab und ordne ihnen einen Bitstring der Länge p zu, wobei p die Position des Eingabeelements ist. Setze das p-te Bit auf ’1’ und alle anderen Bits auf ’0’. Setze die Variablen F, S und A sowie Ad auf 1 und die Variable E auf die Anzahl der Einträge in der Teilergebnistabelle. (A-2) Durchlauf mit kontinuierlichen Leerstellenbesetzungen: Die Variable F laufe von A bis E. Für jeden Wert von F laufe die Variable S von 1 bis E. Insofern S ungleich F, insofern der Durchschnitt der Bitketten von F und S leer und insofern F rechts oder links angrenzend an S, unifiziere den obersten Term des Baumes F in der Tabelle mit jeder Leerstelle des Baumes S. Für jede Leerstelle, für die dies erfolgreich ist, insertiere den Baum F in Baum S (lösche dabei alle Leerstellen, die F selbst noch enthält, sowie alle alternativen Leerstellen in S) und speichere den neuen Baum an Ende der Teilergebnistabelle als neuen Eintrag ab. Ordne diesem Baum die Union der Bitketten aus F und S zu. Ist F gleich E, und wurden keine neuen Bäume erzeugt, so weiter (A-3). Sonst setze A auf E, setze E auf den letzten neuen Eintrag und weiter (A-2). (A-3) Durchlauf mit diskontinuierlichen Leerstellenbesetzungen: Setze A auf Ad. Weiter wie (A-2), nur mit der Bedingung, daß F und S nicht angrenzen. Wenn kein neuer Baum erzeugt wurde, so weiter (A-4). Sonst setze Ad auf E, setze E auf den letzten neuen Eintrag und weiter (A-2). (V-4) Erfolgsprüfung: Gebe alle Dependenzbäume als Ergebnis aus, denen ein Bitstring von der Länge der Zahl der Eingabeelemente mit nur ’1’ zugeordnet ist. Gibt es keinen solchen Eintrag in der Teilergebnistabelle, so weise die Eingabe zurück. Anmerkung. Bis einschließlich (14) in Abb. 32.16 b bild et d er Parser kontinuierliche Zwischenergebnisse. (15) ist das Ergebnis ei-

428

Abb. 32.16 a: Lexikalisierte Dependenzgrammatik

VIII. Computer Simulation of Language II: SystemsComponents

32.  Parsing natürlicher Sprachen: Realisierungen

429

Fortsetzung s. Seite 430

430

VIII. Computer Simulation of Language II: SystemsComponents

Abb. 32.16 b: Teilergebnistabelle des Parsers für Dependenzgrammatiken

32.  Parsing natürlicher Sprachen: Realisierungen

nes Durchlaufs mit d iskontinuierlichen Leerstellenbesetzungen. (16) und (17) sind wied er kontinuierlich. Die Chart zeigt im übrigen nur einen Ausschnitt; d er Leser möge d ie nicht aufgeführten Lesungen im Lexikon sowie d ie nicht-erfolgreichen Zwischenergebnisse ergänzen, um zu sehen, wie sie blockiert werd en. Während ATNs prototypisch sind für d ie prozed urale Denkweise, ist d er hier vorgeführte Parser ein Musterbeispiel für d eklaratives Programmieren. Dabei zeigen sich d ie Vorteile, d ie eine Unifikationsgrammatik bietet. Der Transport von Merkmalen über viele Stufen hinweg aufgrund d er ’C’-Markierung in d en Leerstellen entspricht d en Aktionen LIFTR und SENDR in ATNs, ist aber viel flexibler und überschaubarer. Veränd erungen d er Grammatik greifen aufgrund d es lexikalistischen Ansatzes weniger in d as Bestehend e ein als bei ATNs. Es gibt d urch Hinzunahme weiterer Ergänzungsmuster kaum unerwünschte Seiteneffekte. Der Chart-Parser für lexikalisierte Depend enzgrammatiken ist somit ein gutes Beispiel für d ie mod ulare Organisation von Datenverarbeitungsaufgaben.

5.

Literatur (in Auswahl)

A. V. Aho/R. Sethi/J. D. Ullman 1986 · A. V. Aho/J. D. Ullman 1972—73 · A. Barr/E. Feigenbaum 1981 · M. Bates [1978] 1980 · I. Bátori 1981 a · J. Bear/L. Karttunen 1979 · G. L. Berry-Rogghe/ H. Wulz 1978 · B. Billmeier 1979 · D. G. Bobrow/ E. Fraser 1969 · D. G. Bobrow/R. M. Kaplan/M. Kay 1977 · H. G. Bohnert/P. O. Backer 1979 · W. Brecht 1979 · K. Brockhaus 1971 · K. Brockhaus/ A. von Stechow 1971 · B. Brod d a 1983 · W. J. H. J. Bronnenberg/H. C. Bunt/S. P. J. Land sbergen et al. 1979 · H. C. Bunt/G. O. thoe Schwartzenberg 1982 · E. Charniak 1982 · E. Charniak 1983 · E. Charniak/D. McDermott 1985 · E. Charniak/ C. K. Riesbeck/D. McDermott 1979 · E. Charniak/Y. Wilks 1976 · N. Chomsky 1957 · N. Chomsky 1959 · N. Chomsky 1963 · N. Chomsky 1965 · N. Chomsky 1970 · N. Chomsky 1981 · N. Chomsky 1982 · T. Christaller 1985 · T. Christaller/D. M. Metzing 1979 · T. Christaller/D. M. Metzing 1980 · T. Christaller/D. Metzing 1983 · K. W. Church 1983 · A. Colmerauer 1978 · A. Correira 1980 · G. W. Cottrell/S. L. Small 1984 · S. Crain/J. Fod or 1985 · S. Crain/M. Steed man 1985 · G. DeJong 1979 a · A. De Roeck 1983 · R. Dietrich/W. Klein 1974 · B. Dostert/F. B. Thompson 1976 · D. R. Dowty/L. Karttunen/A. M. Zwicky 1985 · M. G. Dyer 1981 · J. C. Earley 1970 · H. Eggers/R. Dietrich/W. Klein et al. 1969 · M. Eimermacher 1986 · A. Eisele 1985 · P. Eisenberg 1976 · R. Evans 1985 · J. D. Fod or/L. Frazier 1980 · J. M. Foster 1971 · W. Frey 1984 · W. Frey/U.

431

Reyle 1983 · J. Fried man/D. Warren 1978 · H. Gaifman 1965 · J. M. Gawron/J. King/J. Lamping et al. 1982 · G. Gazd ar 1981 · G. Gazd ar/E. Klein/ G. K. Pullum et al. 1985 · G. Gazd ar/G. K. Pullum 1982 · M. Gehrke 1982 · E. von Glaserfeld 1970 · G. Görz/C. Beckstein 1986 · S. L. Graham/M. A. Harrison/W. L. Ruzzo 1980 · R. Granger/K. J. Eiselt/J. K. Holbrook 1984 · S. A. Greibach 1964 · T. Griffiths/S. R. Petrick 1965 · R. Grishman 1976 · M. Gross 1984 · M. Gross/A. Lentin 1971 · H. Gust 1983 · H. Gust 1984 · U. Hahn 1984 · W. v. Hahn/W. Hoeppner/A. Jameson et al. 1980 · M. A. K. Hallid ay 1967 · P. K. Halvorsen 1983 · L. R. Harris 1980 · M. A. Harrison 1978 · R. Hausser 1986 · P. J. Hayes/G. Mourad ian 1981 · D. G. Hays 1966 a · D. G. Hays 1966 b · D. G. Hays 1967 · P. Hellwig 1978 a · P. Hellwig 1978 b · P. Hellwig 1980 · P. Hellwig 1984 · P. Hellwig 1986 · G. G. Hend rix 1977 · G. Hirst 1981 · J. R. Hobbs 1982 · T. Hoekstra/H. van d er Hulst/M. Moortgat 1980 · J. E. Hopcroft/J. D. Ullman 1969 · G. Horn 1983 · R. A. Hud son 1980 · K. Hud son 1984 · E. T. Irons 1963 · R. Jackend off 1977 · H. Jäppinen/A. Lehtola/K. Valkonen 1986 · R. Johnson 1983 b · R. M. Kaplan 1972 · R. M. Kaplan 1973 · R. M. Kaplan/J. Bresnan 1982 · L. Karttunen 1984 · L. Karttunen/M. Kay 1985 · L. Karttunen/A. Zwicky 1985 · M. Kay 1973 · M. Kay 1977 · M. Kay 1985 · J. Kilbury 1984 · J. Kimball 1975 · M. King 1983 · U. Klenk 1980 · U. Klenk 1983 · U. Klenk/J. Mau 1979 · D. E. Knuth 1968 · D. Koch 1979 · A. Kratzer/E. Pause/A. von Stechow 1973—74 · J. Krems 1984 · S. Kuno 1965 · S. Kuno [1967] 1976 · S. Kuno/A. G. Oettinger 1963 · J. Kunze 1975 · J. Kunze 1981 · S. C. Kwasny/ N. K. Sond heimer 1981 · J. Land sbergen 1981 · S. P. J. Land sbergen/R. J. H. Scha 1979 · J. H. Laubsch 1979 · M. Lebowitz 1983 a · E. Leinfellner/I. Steinacker/H. Trost 1984 · L. Lesmo/P. Torasso 1983 · R. K. Lind say 1971 · A. Lötscher 1979 · H. D. Luckhard t 1985 · M. P. Marcus 1980 · W. D. Marslen-Wilson 1975 · O. Mayer 1978 · M. C. McCord 1980 · S. Mehl 1986 · M. Minsky 1968 · E. Nelimarkka/H. Jäppinen/A. Lehtola 1985 · F. G. Pagan 1981 · R. C. Parkinson/K. M. Colby/W. S. Faught 1977 · F. C. N. Pereira 1981 · F. C. N. Pereira/D. H. D. Warren 1980 · F. C. N. Pereira/D. H. D. Warren 1983 · P. S. Peters/R. W. Ritchie 1969 · R. Petrick 1965 · S. Petrick 1973 · B. Phillips 1983 · M. Pinkal 1980 · G. K. Pullum 1984 · G. K. Pullum/G. Gazd ar 1982 · C. Red d ig 1984 · C. Rieger 1976 · C. K. Riesbeck 1975 · C. K. Riesbeck 1982 · G. D. Ritchie 1983 · C. R. Rollinger 1984 · R. Root 1982 · L. Rostek 1979 · G. Sabah/ M. Rad y 1983 · P. J. Sallis 1978 · G. R. Sampson 1983 · R. C. Schank 1975 · R. C. Schank/M. Lebowitz/L. Birnbaum 1980 · R. C. Schank/R. P. Abelson 1977 · H. Schnelle 1984 · S. M. Shieber 1983 · S. M. Shieber 1984 · S. M. Shieber 1986 · C. L. Sid ner 1985 · G. Silva/D. Dwiggins 1980 · R. F. Simmons 1984 · J Slocum 1981 · S. Small 1983 · S.

33.  Semantischen Interpretation

gilt. Die Fähigkeit, diese Alternativen zu erschließen, ist nun direkt von dem Wissen über den Bereich abhängig, in dem man sich verhalten muß ( will oder soll), und es handelt sich dabei um keine allgemeine Fähigkeit, wie man dies vor Winograds Arbeit noch angenommen hat. Neben der z. T. pragmatischen Entwicklung wissensbasierter Systeme, wie dies z. B. im Bereich der Expertensysteme typisch ist, wurden die Fragen nach der Repräsentation und den Verwendungsweisen von Wissen und nach dem Wissen selbst zu den zentralen Fragen in der Künstlichen Intelligenz. Eigenschaften von Wissenssystemen werden seitdem am Beispiel natürlicher Wissenssysteme untersucht, was unter anderem ( da der Mensch der wesentliche Träger dieser Systeme ist) zu einer Blüte der Cognitive Science geführt hat. Natürliche Wissenssysteme können über die kognitiven Fähigkeiten des Menschen charakterisiert werden, die es ihm erlauben, Zeichen, Bildern, Lauten und insbesondere sprachlichen Äußerungen Bedeutungen zuzuordnen ( zu verstehen), sich zu erinnern und zu vergessen, zu planen und Probleme zu lösen und zu lernen, also kurz gesagt semantische informationsverarbeitende Prozesse vorzunehmen. Wenn innerhalb der Cognitive Science verstärkt empirische Untersuchungen zur Überprüfung theoretischer Annahmen über kognitive Prozesse durchgeführt werden, dann besteht der Anteil der KI und ( speziell für die natürliche Sprache) der der CL an der gemeinsamen Aufgabe der Entwicklung einer formalen Theorie der Sprachbeherrschung, die eine Theorie der semantischen Interpretation umfassen muß, darin, operationale Modelle der gemeinsamen theoretischen Annahmen zu entwickeln, die in Entwurf und Realisierung formaler Wissensrepräsentationssprachen mit den dazugehörigen Interpretationsverfahren ihren Ausdruck finden. Mit diesen wird es möglich, Simulationsmodelle zu implementieren, an denen die Eigenschaften der zugrundeliegenden Theorien und daraus abgeleiteten Hypothesen studiert werden können. Eine Quelle, aus der nach wie vor wesentliche Erkenntnisse gewonnen werden können, stellt die natürliche Sprache dar, da sie als DIE Wissensrepräsentationssprache begriffen werden muß, die sich der Mensch über Jahrtausende hinweg geschaffen hat; allerdings handelt es sich hierbei nicht um den ’internen’ Code, in dem das Wissenssystem

433

formuliert ist. Das wäre auch nicht sinnvoll, da die Funktion der natürlichen Sprache darin besteht, mit den anderen Individuen einer gesellschaftlichen Ordnung kommunizieren zu können, während das individuelle Wissenssystem mit der dazugehörigen ’Sprache’ dem Individuum als Gedächtnis dient und somit Grundlage seiner individuellen Handlungsfähigkeit ist. Andererseits verfügt der Mensch aber offensichtlicherweise über die Fähigkeit, Teile seines internen ( natürlichen) Wissenssystems in natürliche Sprache zu überführen, sowie natürlichsprachliche Texte und Äußerungen in die Sprache seines Wissenssystems zu übersetzen; anders ausgedrückt: Natürlichsprachliche Äußerungen lösen Aktivitäten in dem Wissenssystem des Hörers aus, z. B. die semantische Interpretation und Integration neuer Informationen. Daher spielen die Eigenschaften und die Funktionsweise natürlicher Wissenssysteme eine ganz wesentliche Rolle bei der Erklärung der semantischen Interpretation natürlicher Sprache, da in ihnen die Voraussetzungen liegen, mit denen eine semantische Interpretation überhaupt erst möglich wird. Die damit verbundenen und bislang nur zum Teil bekannten Probleme, auf die in diesem Beitrag eingegangen wird, werden nur dann gelöst werden können, wenn es zuvor gelingt, Erklärungen für die Organisation und Funktionsweise natürlicher Wissenssysteme zu finden. Um letzteres zu erreichen, spielen wiederum die natürliche Sprache als Untersuchungsgegenstand, die Erkenntnisse der ( Computer-)Linguistik und die der Sprachphilosophie eine gewichtige Rolle, u. a. gerade deswegen, weil sie Rückschlüsse auf die kognitiven Konzepte und das Denken der Menschen zulassen. Nun ist die Erforschung von Wissenssystemen mit einer Vielzahl von Schwierigkeiten behaftet, von denen eine die ist, daß man das einzelne Wissenssystem nicht direkt ( quasi mit Skalpell und Lupe) untersuchen kann, sondern daß man immer ( wie über die Sprache) nur einen indirekten Zugang zu ihm findet, wie dies generell für die Beobachtbarkeit mentaler Prozesse gilt. Eine andere Schwierigkeit besteht darin, daß individuelle Ausprägungen von Wissenssystemen den Blick für die universellen Eigenschaften und Konzepte verstellen. Die Suche nach den kognitiven Universalien entspricht der Suche nach den sprachlichen Universalien innerhalb der Linguistik, wobei man sich dort mit den Eigenschaften und dem Inhalt einer Uni-

VIII. Computer Simulation of Language II: System Components

434

versal- ( oder Kern-) Grammatik ( vgl. Chomsky 1981, 93 ff.) auseinandersetzt. Eine dritte Schwierigkeit besteht darin, daß sich der Untersuchungsgegenstand ( die Wissenssysteme) durch die Untersuchung und die sich daraus ergebenden Ergebnisse bereits verändern kann (’Unschärferelation’).

2.

Notwendige Voraussetzungen für die semantische Interpretation natürlicher Sprache

Eine Reihe von Eigenschaften, denen man einen universellen Charakter zusprechen kann und die für eine erfolgreiche semantische Interpretation natürlicher Sprache notwendige Voraussetzungen darstellen, können bereits benannt werden. Sie bilden inzwischen eigene Schwerpunkte in der Disziplin KI und sollen hier in ihrem Verhältnis zum Sprachverstehen kurz beleuchtet werden. Um in der Welt ( sprachlich) handeln zu können, muß man wissen, wie die Welt ’funktioniert’, was besagt, daß es die wichtigste Aufgabe des Wissenssystems ist, ein Modell der Welt repräsentieren und dem Individuum zugänglich machen zu können. Anhand dieses Modells können Planungen durchgeführt und Entscheidungen getroffen werden. Da der Mensch nicht mit einem voll ausgearbeiteten Modell das Licht der Welt erblickt, muß es ( langsam) aufgebaut werden: Der Mensch muß lernen. In Entsprechung hierzu gibt es innerhalb der KI die Forschungsrichtung ’Wissenserwerb und Lernen’, die sich mit den Problemen des induktiven und konzeptgesteuerten Lernens, des Lernens durch Analogie und vielen weiteren Arten von Lernen beschäftigt ( für einen Überblick siehe den Sammelband von Carbonell/Mitchell/Michalski 1983, 7 f.). Ein weiterer, direkt mit der Notwendigkeit des Lernens verbundener Aspekt ist die zwangsweise Unvollständigkeit der Wissenssysteme, und dieses gilt ebenso für die Sprache: es wird z. B. keinen Menschen mit einem vollständigen Lexikon geben. Dies gilt nicht nur in einem umfassenden Sinn, sondern auch im Detail. Es muß als eine der erstaunlichsten Leistungen der Menschen betrachtet werden, gerade bei unvollständigem Wissen optimal handlungsfähig zu sein. Die Unvollständigkeit eines natürlichen Wissenssystems, die sich darin ausdrückt, ( daß es weiß,) daß es sehr viel nicht weiß, ist mitverantwortlich dafür, daß im Hinblick auf

( in Relation zum Wissenssystem) bestimmte Aussagen nicht mit völliger Sicherheit entschieden werden kann, ob sie ( in der Realität) zutreffen oder etwa nicht. Dies bedeutet, daß das System Unsicherheiten darstellen und verarbeiten können muß. Von ’unsicherem Wissen’ zu unterscheiden ist ’vages Wissen’, das sich in vagen Prädikaten ( wie ’groß’ oder ’schnell’) ausdrückt und das sich im Rahmen der Fuzzy-Logik ( Zadeh 1971, 159 ff.) formal behandeln läßt. Die Weltmodelle, die durch die natürlichen Wissenssysteme gegeben sind, sind also hinsichtlich mindestens dreier Dimensionen unexakt: Die Dimension der Unvollständigkeit, die der Vagheit und die der Unsicherheit. Diese Formen der Unexaktheit können in der natürlichen Sprache hervorraged repräsentiert werden, aber es liegt keineswegs eine Lösung für deren Behandlung im Rahmen formaler Repräsentationssprachen und für die dazugehörigen Interpretationsmechanismen vor. Da es prinzipiell nicht ausgeschlossen ist, daß ein Weltmodell in dem Sinne fehlerhaft ist, daß es die Realität nicht adäquat beschreibt, kann jederzeit die Situation eintreten, daß das Weltmodell korrigiert werden muß. Anlaß für eine Korrektur kann dadurch gegeben sein, daß durch die Wahrnehmung festgestellt wird, daß das Weltmodell fehlerhaft ist, oder daß ein Bericht über die Realität im Widerspruch zum Weltmodell steht, oder aber, daß das Weltmodell in sich unstimmig war, dieses aber erst durch eine neue semantische Interpretation festgestellt worden ist. Gerade die letzte Möglichkeit weist auf eine wichtige und interessante Eigenschaft natürlicher Wissenssysteme hin: Sie können inkonsistent sein und mit diesen Inkonsistenzen insofern sehr gut umgehen, als sie die infizierten Fakten isolieren bzw., wenn eine Möglichkeit dazu besteht, korrigieren. Dabei verfügt das System sehr wohl über Verfahren, mit denen die Gründe für Widersprüche untersucht werden können. Dies ist insofern keineswegs trivial, als diese Gründe sowohl im Bereich des regelhaften ( inferentiellen) Wissens liegen können als auch im Bereich des Faktenwissens. Die Gründe können ( z. T.) nur dadurch gefunden werden, daß man Wissen von einer Meta-Ebene aus betrachtet und untersucht. Die Strukturierung von Wissen in Ebenen unterschiedlicher Allgemeinheit ( z. B. Fakten vs. Inferenzregeln) ist einerseits ein Kernpunkt bei der Analyse von konkreten Wissensbereichen und führt andererseits zu einer bemerkenswerten Lei-

33.  Semantischen Interpretation

stungsverbesserung, etwa in der Weise, wie sie Mitchell in seinem Aufsatz ’Learning and Problem Solving’ ( Mitchell 1983, 1148) beschreibt. Dort wird die Leistungsverbesserung dadurch erreicht, daß dem System als Meta-Wissen das Lernziel und die Möglichkeit, dieses zu seiner potentiellen Handlungsfähigkeit in Beziehhung zu setzen, zur Verfügung gestellt wird. Darüber hinaus können auch Wahrnehmung und Berichte von anderen fehlerhaft ( verrauscht) sein. Als wesentliche Eigenschaften sind somit festzuhalten, daß natürliche Wissenssysteme ihr Wissen ( auf allen Ebenen) revidieren können und daß die Systeme immer nur partiell konsistent ( soweit, wie die Zusammenhänge ’überblickt’ werden können), jedoch nie total sind. In enger Beziehung zu diesen Eigenschaften steht die Fähigkeit, mit Standardannahmen erfolgreich hantieren zu können. Wenn das Weltmodell an einem Punkt unvollständig ist, der für die Ableitung einer Wissensentität ( z. B. einer Aussage oder einer möglichen Handlung) wichtig wäre, dann behilft man sich damit, Standardwerte ( Defaults) — soweit vorhanden — einzusetzen und mit diesen Annahmen weiterzuarbeiten. Wenn sich herausstellt, daß die Realität anders geartet ist, als zunächst angenommen, dann ist man gezwungen, die zunächst durchgeführten Schlüsse wieder zurückzunehmen. D. h. aber, daß ’Default-Reasoning’ die Revisionsfähigkeit von Wissenssystemen voraussetzt. Systeme, die sich in dieser Weise verhalten — und für natürliche Wissenssysteme ist man sich da weitgehend sicher —, werden als nichtmonoton bezeichnet, und es wird versucht, solche Systeme durch nichtmonotone Logiksysteme zu beschreiben ( vgl. Reiter 1980, 81 f.; McDermott/Doyle 1980, 41 f.). Nichtmonotone Logiken zeichnen sich gegenüber monotonen Logiken ( wie z. B. der Prädikatenlogik) dadurch aus, daß durch das Hinzufügen eines Axioms in die Axiomenmenge Theoreme, die bislang ableitbar waren, es nun nicht mehr sein müssen ( da z. B. mit dem neuen Axiom eine Folgerung aufgrund einer Standardannahme widerlegt wurde). Neben diesen grundlegenden Eigenschaften und Fähigkeiten sei noch auf den Aspekt des Gedächtnisses selbst hingewiesen. Die Unterscheidung in Ultrakurzzeitgedächtnis ( oder sensorischen Speicher — Lindsay/ Norman 1977, 261), Kurzzeit- und Langzeit-

435

gedächtnis ist hinlänglich bekannt ( vgl. Vester [1975] 1978, 43 f.). Allerdings fehlt es bislang an formalisierbaren Erkenntnissen und Theorien, die sich mit dem Prozeß ( der Verarbeitung von Information), der die Übergänge zwischen diesen drei Gedächtnisformen reguliert, in geeigneter Weise auseinandersetzen. Die Entscheidung darüber, was z. B. vom Kurzzeitgedächtnis ins Langzeitgedächtnis ’übernommen’ wird, ist nicht rational gesteuert, sondern wird von Bewertungen abhängig sein, in denen sich Wichtigkeiten, Vorlieben, Abneigungen und Interessen widerspiegeln werden. Eine ebenso wesentliche Fähigkeit natürlicher Wissenssysteme wie die, sich Information ( als Teil eines Weltmodells) merken zu können, ist die, vergessen zu können. Auch hierzu fehlen bislang formalisierbare Theorien. Diese sicherlich unvollständige Liste von Eigenschaften und Fähigkeiten natürlicher Wissenssysteme ist verbunden mit einer Liste von Repräsentationsproblemen, die sich direkt aus den skizzierten Eigenschaften ergeben. Die ’interne’ Repräsentationssprache muß atomare Konzepte und Konstruktionsregeln zum Aufbau komplexer Konzepte zur Verfügung stellen, die die angesprochene Performanz der natürlichen Wissenssysteme erst ermöglichen. So müssen z. B. Ableitungswege ( als Wissensspuren) abgelegt werden, um über die erfolgten Ableitungen ’nachdenken’ zu können, wenn man eine Begründung abzugeben hat oder wenn man die Konsequenzen einer falschen Annahme wieder rückgängig machen möchte. Des weiteren müssen Unsicherheiten adäquat dargestellt werden, so daß man sowohl eine Unsicherheit im Kontext, in dem sie aufgetreten ist, betrachten kann, als auch als Eigenschaft einer einzelnen Aussage. Das entsprechende gilt für die Behandlung vager Ausdrücke. Ferner muß der Repräsentationsformalismus einerseits die Behandlung von Zeit und zeitlichen Phänomenen erlauben, andererseits das Aufstellen von Hypothesen über z. B. mögliche Zukünfte, und diese auch als solche kennzeichnen. Schließlich müssen die unterschiedlichsten Formen der Kausalität berücksichtigt werden, wie sie sich sich in den natürlichsprachlichen Satzverknüpfern ausdrücken, um nur einige wenige Repräsentationsprobleme zu nennen, mit denen sich die Künstliche Intelligenz auseinandersetzt und die gleichzeitig zu den schwierigsten zählen.

VIII. Computer Simulation of Language II: System Components

436

3.

Semantische Interpretation zeitlichen Wissens

Sowohl unmittelbar wahrnehmbare Objekte der Realität als auch weniger faßbare Entitäten wie Ereignisse, Zustände, Handlungen und dergleichen haben in aller Regel eine begrenzte, eindeutige — wenn auch zum Teil nicht genau bestimmbare — Lebenszeit. Diese gehören — ebenso wie die Intervalle der öffentlichen Zeitachse zur potentiellen Klasse der ( formalen) Zeitobjekte, und können in eigenen zu entwerfenden Datenstrukturen — z. B. Zeitnetzen ( Günther/Habel/ Rollinger 1983, 48 f.) — angeordnet und mit Merkmalen versehen werden. Diese geben z. B. darüber Auskunft, ob es sich um ein Zeitobjekt der öffentlichen Zeit oder eines Ereignisses handelt, in welcher Beziehung es zu dem zeitdeiktischen Nullpunkt steht, also ob es sich um Vergangenheit, Gegenwart, Zukunft oder eine Mischform handelt, und ob es sich um ein punktförmiges oder ein ausgedehntes Zeitobjekt handelt; weitere Merkmale sind denkbar. Die Interpretation ( hier auch Weiterverarbeitung) derartiger Datenstrukturen kann als ’zeitliches Schließen’ bezeichnet werden. Auch und gerade in diesem Problembereich stehen wir vor der Frage, wieviel Semantik innerhalb des Analyseprozesses bereits berücksichtigt werden muß, d. h. welche semantischen Interpretationen notwendig sind, damit eine syntaktische Analyse ausoder weitergeführt werden kann. Spezieller ist das Problem der Granularität der Repräsentation; wie detailliert oder wie grob soll zeitliches Wissen dargestellt werden, bei welcher Sichtweise wird aus einem punktförmigen ein ausgedehntes und bei welcher aus einem ausgedehnten ein punktförmiges Ereignis? Wie sehr soll ein zusammengesetztes Ereignis in eine zeitliche Sequenz von Teilereignissen auseinanderdividiert werden? Auch die Einordnung von Ereignissen oder Zuständen jeder Art in die öffentliche oder eine sonstige Zeitachse geht nicht ohne ein gewisses Maß an Inferenzen; ebenso wird der Gebrauch von Frequenz-Adverbien und der Negation nur mit den Mitteln des Default-Reasoning adäquat behandelt werden können; gleiches gilt für das Füllen von Lücken in der Zeitstruktur, Lücken, die durch implizit erwähnte Ereignisse entstehen können. Wie also muß eine semantische Interpretation beschaffen sein, die all dieses leistet und den Anforderungen gerecht wird, die man be-

rechtigtermaßen an eine Theorie stellt? Bis zum Anfang der 80er Jahre wurden innerhalb der Linguistik Interpretationen von derartigen Zeitstrukturen im Rahmen der modelltheoretischen Semantik vorgenommen, wobei man sich auf die Zeitstrukturen von Einzelsätzen beschränkte. Seit Beginn der 80er Jahre werden nun Zeitstrukturen kontextbezogen interpretiert, es werden also der vorangegangene Diskurs sowie Hintergrundwissen bei der Interpretation berücksichtigt. Dies ist z. B. im Rahmen der Diskursrepräsentationstheorie ( Kamp 1981, 277 ff.) oder Situations-Semantik ( Barwise/ Perry 1983, 7) möglich, wenngleich auch nicht gelöst. Innerhalb der KI hat man sich z. B. mit Ereignislogik ( Kowalsky/Sergot 1985, 4) oder mit Zeitlogik für Prozesse und Pläne ( McDermott 1981, 42 f.) auseinandergesetzt, ohne dabei auf sprachbezogene Prozesse einzugehen.

4.

Semantische Interpretation räumlichen Wissens

Nicht nur die zeitliche Einordnung konkreter und nicht konkreter Objekte und Ereignisse, sondern auch deren räumliche Zuordnung und Beschreibung kann und wird natürlichsprachlich vollzogen. Hierfür stehen räumliche Konzepte zur Verfügung, die vom natürlichen Sprecher-Hörer ausgezeichnet interpretiert werden können. Diese räumliche Informationen stehen in engem Zusammenhang mit Problembereichen, die andere ( z. B. zeitliche) Phänomene betreffen, wie Wunderlich ( 1982, 1 ff.) zeigen konnte. Man denke nur an die deiktischen Ausdrücke, mit denen ein Sprecher auf zur Sprache gebrachte Personen, Gegenstände oder Ereignisse Bezug nimmt und diese raumzeitlich bestimmt. Nun ist bislang noch weitestgehend ungeklärt, in welcher Weise räumliches Wissen formal darzustellen ist, so daß in einer einem natürlichen Sprecher-Hörer entsprechenden Weise dieses Wissen interpretiert werden kann. Hierzu gehört insbesondere die Fähigkeit der räumlichen Vorstellungen und die Möglichkeit, mit diesen zu operieren. Derartiges durch propositionale Repräsentationen zu erreichen, erscheint wegen der Unangemessenheit des Berechnungsaufwandes unrealistisch und nicht kognitiv adäquat zu sein. Daher stellt sich in der Cognitive Science bzw. der kognitiven Psychologie die Frage nach einem spezifischen Repräsentationsformat für räumliche Vorstellungen, das

33.  Semantischen Interpretation

von propositionalen Repräsentationen verschieden ist ( Pinker 1984, 1 ff.). Damit soll nicht ausgeschlossen sein, daß Anteile auch propositional repräsentiert sind und durch eher traditionelle Inferenzprozesse ausgewertet werden können. Die Existenz zweier unterschiedlicher Repräsentationsformate wirft aber im Rahmen der semantischen Interpretation eine Reihe von Fragen auf ( vgl. Fürnsinn/Khenkàr/Ruschkowski 1984, 172—173): — Welche Mächtigkeit bzw. Ausdrucksstärke besitzen die jeweiligen Sprachen? Kann alles das, was in dem einen Repräsentationsformat ausgedrückt werden kann, auch in dem anderen ausgedrückt werden? Es gibt Indizien, die gegen eine solche Annahme sprechen; so ist es schier unmöglich, ein abstraktes Gemälde von z. B. Kandinsky, ausgehend von einer bildhaften Vorstellung, einem Gesprächspartner verbal so zu beschreiben, daß dessen aufzubauende bildhafte Vorstellung mit der des Sprechers weitgehend deckungsgleich wird. Die Ursache hierfür mag aber auch in unserer Unfähigkeit liegen, nicht alles propositional repräsentierte Wissen auch verbalisieren zu können. Die verbale Beschreibung von ( Fernseh-)Bildern ist Gegenstand erster grundlegender Arbeiten innerhalb der sprachorientierten KI-Forschung (Neumann 1984, 169). — Die Repräsentationsformalismen verfügen über voneinander verschiedene, spezifische Interpretationsverfahren. Es ist davon auszugehen, und nur dieses läßt die These zweier Formalismen sinnvoll erscheinen, daß es Probleme gibt, die in dem einen Formalismus einfach zu lösen sind, während sie in dem anderen nur schwer oder aber gar nicht lösbar sind. Damit wird die Übersetzung von dem einen in den anderen Formalismus ein zentraler Punkt für die semantische Interpretation räumlichen Wissens. Welche Interpretationen werden in welchem Formalismus vorgenommen? Woher weiß man, daß ein Problem in dem anderen Formalismus einfach( er) zu lösen ist? Wie groß ist der Übersetzungsaufwand in den anderen Formalismus? Wie groß ist der jeweilige Problemlösungsaufwand? Inwiefern werden diese tatsächlich berücksichtigt?

5.

Semantische Interpretation und ’neue’ Bedeutungen

Die semantische Interpretation von Bedeutungsrepräsentationen führt unter normalen

437

Bedingungen zu einer Veränderung des Wissenssystems, das die Interpretation vornimmt, da im Zuge der Interpretation neues Wissen mit bestehendem Wissen in Beziehung gesetzt wird. Nur damit kann erklärt werden, warum die Aufforderung, eine Bedeutungsrepräsentation ein zweites Mal zu interpretieren, manchmal zu einem anderen Ergebnis führt als beim ersten Mal, auf jeden Fall aber der Interpretationsprozeß ein anderer ist. Bei diesen Wissensveränderungen kann es sich sowohl um monotone als auch um nichtmonotone Veränderungen handeln, induziert durch Sprache. Es gilt aber auch die umgekehrte Richtung: Wissen und Wissenssysteme verändern die Sprache. Auch diese ist ein dynamisches Gebilde, das auf neue Gegebenheiten — z. B. auf neues Wissen — reagiert, was üblicherweise im Sprachwandel seinen Ausdruck findet. Damit liegen aber zwei dynamische Gebilde vor, deren Beziehung zueinander gerade von der semantischen Interpretation bestimmt wird, die somit der Dynamik der Sprache als auch der des Wissenssystems gerecht werden muß. Ein Aspekt des Sprachwandels ist die Bedeutungsveränderung von Worten, wie zum Beispiel bei ’frugal’, dessen Bedeutung sich von ’mäßig, einfach’ in ’üppig, schlemmerhaft’, also das Gegenteil, verändert hat. U. a. ist es die semantische Interpretation, mit der solche Bedeutungsverschiebungen erkannt werden müssen, damit dann eine Lexikalisierung bzw. eine Änderung des Lexikons im Hinblick auf seine Einträge oder seine interne Struktur ( Bar-Hillel 1969, 294) vorgenommen werden kann. Dabei spielen die sicherlich vorhandenen Gründe für eine solche Bedeutungsveränderung noch gar keine Rolle. Hier ist auch der große, für das Deutsche so charakteristische Bereich der Komposita anzusiedeln. Durch die semantische Interpretation muß einerseits die Analyse neuer, bislang nicht bekannter, Komposita geleistet werden, und andererseits müssen die Grundlagen dafür gelegt werden, daß auf Veränderungen im Wissenssystem mit sprachlichen Mitteln — in diesem Fall durch geeignete Komposita — adäquat reagiert werden kann. Wenngleich der Bereich der semantischen Analyse insbesondere von Nominalkomposita durch z. B. die Arbeiten von Kanngießer ( 1985, 134 ff.) relativ gut untersucht ist, wobei die allgemeinen Prinzipien der Erschließung der Bedeutung stark ’weltwissensabhängiger’ Komposita sowie kontextabhängiger adhoc

VIII. Computer Simulation of Language II: System Components

438

Komposita ausstehen, gilt dieses nicht für die Generierung von Komposita, da weder geklärt ist, wann eine solche Komposition vorgenommen wird, noch, nach welchen Kriterien die Alternativenmenge der potentiellen Komposita gebildet werden soll. Auch die Auswahl eines Kandidaten aus dieser Menge ist ungeklärt.

6.

Semantische Interpretation von Referenzbeziehungen

Referenzbestimmung befaßt sich mit der Fähigkeit, einerseits diejenigen Konstruktionen innerhalb eines sprachlichen Kontextes ( z. B. eines Textes) erkennen zu können, auf die prinzipiell an anderer Stelle im Diskurs Bezug genommen werden kann, und andererseits diejenigen Konstrukte feststellen zu können, mit denen auf ein und dieselbe Entität referiert werden kann. Welches Konstrukt von einem Textproduzenten gewählt wird, um auf eine Entität zu referieren, hängt bis zu einem bestimmten Grad von der Art dieser Entität ab. Es können zwei große Klassen linguistischer Referentialität unterschieden werden: Objekt-Referenz, d. h. der sprachliche Bezug auf Individuen, Mengen, Prototypen und generische Objekte ( vgl. Webber 1979, 3—1 ff.; Habel 1985 b, 106 ff.) und Ereignis-Referenz, d. h. der sprachliche Bezug auf Handlungen, Ereignisse, Zustände, Propositionen, Relationen, Eigenschaften, Positionierungen in Raum und Zeit, usw., der z. T. durch Satzverknüpfungen realisiert werden kann. Die Referenzbestimmung fällt insbesondere dann in den Bereich der semantischen Interpretation, wenn diese nur mittels Weltwissen erfolgreich durchführbar ist. Bei der Objekt-Referenz stehen dabei z. B. folgende Fragen im Vordergrund: Unter welchen Umständen bildet eine Nominalphrase eine referierbare Entität, einen sogenannten ’Diskus-Referenten’ ( Kamp 1981, 282 f.)? Wie lange kann in einem Text auf einen Diskurs-Referenten Bezug genommen werden bzw. wann entschwindet er aus dem Fokus? Wie kann aus einer Menge möglicher Kandidaten eines anaphorischen Elements der ’richtige’ Kandidat ausgewählt werden? Einige klassische Probleme der Referentialität, die damit auch zu Problemen der semantischen Interpretation werden, sind die folgenden: Einerseits können wir mit Namen und definiten Beschreibungen auf Objekte referieren, die nicht existieren oder existiert haben, während andererseits Namen ( z. B.

Vor- und Familiennamen) in fast allen Fällen auf mehr als ein Objekt der Realität zutreffen und somit die Unitätsbedingung an die Individuenkonstanten und den Iota-Operator der Logik verletzen. Wir können auf Objekte Bezug nehmen, die aus mehr als einem Teil bestehen, z. B. auf ’Fritz und Franz, die ein Klavier tragen’. Dieser plurale Referent kann im Zusammenhang des Tragens eines Klavieres nicht zergliedert werden, im Zusammenhang des Tragens von Kaffeetassen jedoch ohne weiteres. Auch generische Kennzeichnungen stellen eine nicht gerade beliebte Klasse von Spezialfällen dar. Noch schlimmer ist es mit Objekten wie ’niemand’, die nicht nur nicht existieren, sondern die auch noch eine Negation beinhalten. Keine bislang vorgestellte Theorie der Referentialität löst alle diese und alle hier nicht angesprochenen Problemfälle zufriedenstellend und umfassend. Entsprechend fehlt bislang auch eine Theorie der semantischen Interpretation der Referentialität, die diesen Ansprüchen gerecht wird.

7.

Semantische Interpretation der Satzverknüpfung

Diejenigen sprachlichen Mittel, mit denen Propositionen — sprachlich realisiert durch Sätze, Nebensätze oder Satzfragmente — zueinander in Beziehung gesetzt werden können, also die Konnektive, stellen eine der wesentlichen Grundlagen für die Erschließung der Kohärenzstruktur von Texten, aber auch von Dialogen, dar ( Lang 1984, 124 ff.). Üblicherweise werden sie den allerdings sehr groben Klassen ’Konjunktion’, ’Disjunktion’, ’Kontrastiv’, ’Temporal’ und ’Kausal’ zugeordnet ( van Dijk 1980, 29 f.). Eine eindeutige Zuordnung ist jedoch nicht möglich. So gehört ’aber’ sowohl der Klasse ’Kontrastiv’ als auch der Klasse ’Konjunktion’ an, wie man sich leicht an Beispielen deutlich machen kann. Des weiteren ist es bislang nicht gelungen, die zweifelsfrei vorhandenen Bedeutungsunterschiede zwischen den Elementen einer Klasse vollständig und einheitlich zu explizieren ( Versuche hierzu werden z. B. in Lang [1984, 132] und in Rollinger [1984 a, 161 f.] vorgenommen). Bei der semantischen Interpretation der Satzverknüpfung steht man nicht nur vor dem Problem, die intendierte Bedeutung eines explizit verwendeten Satzverknüpfers zu erkennen, also die richtige kategorielle Zuordnung vorzunehmen. Üblicherweise stellt

33.  Semantischen Interpretation

sich auch die Frage, welche Propositionen durch diesen Satzverknüpfer eigentlich zueinander in Beziehung gesetzt werden sollen. Da die Beantwortung dieser Frage oft von der dem Satzverknüpfer zugedachten Semantik abhängt, bietet sich bereits hier die Möglichkeit alternativer Interpretationen, aus denen dann die ’geeignetste’ ausgewählt werden muß. Aber auch die Zusammenstellung einer Menge von Propositionen als Antezedenzanwärter eines Satzverknüpfers und die Auswahl der geeigneten Proposition kann keineswegs als gelöst betrachtet werden, zumal der Fall, daß eine Proposition durch einen Satzverknüpfer mit einer nur implizit gegebenen Proposition in Beziehung gesetzt wird, im Vergleich zur Objektreferenz — wenn auf nicht erwähnte Objekte verwiesen wird — relativ häufig vorkommt. Zwar spielen Konzepte wie Fokussierung, Entfernung auf der Oberfläche, Einbettungstiefe in der Oberfläche, referentielle Verkettung von Propositionen sowie die thematische Zusammengehörigkeit von Ereignissen ( z. B. Scripts, vgl. Schank/Abelson 1977, 36 f.) eine Rolle, deren Eigenschaften und Abhängigkeiten voneinander beginnen jedoch erst in den letzten Jahren Forschungsgegenstand zu werden. Die Erkenntnisse über Objektreferentialität können nur sehr eingeschränkt auf diese auch als Ereignisreferenz bezeichenbare Problemstellung übertragen werden, wie dies bei der Diskursrepräsentationstheorie auch deutlich wird, die hierfür bislang keine Lösung anbietet. Der Sachverhalt ist hier auch insofern komplizierter, als Satzverknüpfungen häufig nur implizit vorgenommen werden. Dieses ist dann gerechtfertigt, wenn der Textproduzent davon ausgehen kann, daß der Leser ( Hörer) des von ihm produzierten Textes in der Lage sein wird, im Zuge seiner semantischen Interpretation die impliziten Verknüpfungen zu explizieren. Die Entscheidung über explizite oder implizite Verknüpfung wird von dem Produzenten von seiner Annahme über das Wissen des ( oder der) Textrezipienten abhängig gemacht. Die Beziehung zwischen dem beim Hörer vorausgesetzten Wissen und dem vom Sprecher mitgeteilten Wissen machen Clark/Haviland ( 1977, 1 ff.) zur Grundlage der — hier eindeutig wissensbasierten — semantischen Interpretation und somit verantwortlich für deren Ergebnis.

439

8.

Weitere Probleme und Zusammenfassung

Ohne Vollständigkeit erreichen zu können, sollen doch noch einige weitere relevante Problembereiche, die die semantische Interpretation betreffen, zumindest Erwähnung finden. Diese liegen zum Teil sicherlich auf der Grenze zwischen Semantik und Pragmatik, da jedoch unter Sprachverstehen die Ermittlung der gemeinten Bedeutung eines sprachlichen Ausdrucks fällt und hierfür die semantische Interpretation eingesetzt wird, müssen diese Problembereiche hier zumindest erwähnt werden. Dazu gehört, daß ein Sprechakt z. B. als indirekt erkannt und die ihm zugrunde liegende — also die gemeinte — Bedeutung erschlossen werden muß ( Wunderlich 1976, 185 f.; zur Sprechakttheorie vgl. Searle 1969, 22 f.). Neben diesen — in der Kommunikationspsychologie als Sachinhalt und Appell bezeichneten — Aspekten einer sprachlichen Äußerung kann aus dieser auch auf den Produzenten zurückgeschlossen werden — er sagt etwas über sich selbst — sowie auf die Beziehung zwischen Produzent und Empfänger ( siehe hierzu Schulz von Thun 1977, 18 f.). Auch diese Aspekte, ebenso wie die Partnermodellierung ( vgl. Morik 1982, 61 f.), müssen im Rahmen der semantischen Interpretation einer Lösung zugeführt werden. Bei der Interpretation sprachlicher Äußerungen muß auch die Überlegung eine Rolle spielen, inwiefern der Produzent den Griceschen ( Grice 1975, 41 ff.) Konversationsmaximen der Quantität, der Qualität, der Relation und der Art und Weise Rechnung getragen hat. Deren Beachtung muß insbesondere bei der Sprachproduktion, und da wiederum bei der Beantwortung der Frage ’Was soll ( hierauf) gesagt werden’, gefordert werden. Letztlich sei auf das Verstehen metaphorischer Ausdrücke ( „Das Wasser steht mir bis zum Hals„) sowie das Verstehen von Analogien ( „Boris Becker ist der Beckenbauer des Tennis„) hingewiesen. Auch in diesen Fällen fehlen Theorien, die diese Phänomene befriedigend erklären. Diese lange und doch unvollständige Liste sehr großer Problembereiche der semantischen Interpretation mag den Eindruck erwecken, daß die Computersimulation von Sprachverstehen oder gar von Sprachbeherrschung ein schier aussichtsloses Unterfangen ist. Auf all den angesprochenen Bereichen werden jedoch in z. T. sehr großem Umfang

VIII. Computer Simulation of Language II: System Components

440

( interdisziplinäre und problembereichsübergreifende) Forschungsprojekte durchgeführt, und für die kurze Tradition dieser Forschungen liegen doch bereits beachtliche Ergebnisse vor.

9.

Literatur (in Auswahl)

J. Barwise/J. Perry 1983 · Y. Bar-Hillel 1969 · J. Carbonell/R. S. Michalski/T. Mitchell 1983 · N. Chomsky 1981 · H. H. Clark/S. E. Haviland 1977 · T. A. van Dijk 1980 · M. Fürnsinn/M. Khenkàr/ B. Ruschkowski 1984 · S. Günther/C. Habel/C.-R.

Rollinger 1983 · H. P. Grice 1975 · Ch. Habel 1985 b · H. Kamp 1981 · S. Kanngießer 1985 · R. Kowalski/M. Sergot 1985 · E. Lang 1984 · P. H. Lindsay/D. A. Normann 1977 · J. Lyons 1977 · D. McDermott 1981 · D. McDermott/J. Doyle 1980 · T. Mitchell 1983 · K. Morik 1982 · B. Neumann 1984 · S. Pinker 1984 · R. Reiter 1980 · C.-R. Rollinger 1984a · R. Schank/R. Abelson 1977 · F. Schulz von Thun 1977 · J. A. Searle 1969 · F. Vester 1978 · B. L. Webber 1979 · T. Winograd 1972 · D. Wunderlich 1976, 1982 · L. Zadeh 1971.

Claus-Rainer Rollinger, Stuttgart (Bundesrepublik Deutschland)

34. Simulation of Language Understanding: Semantic Models and Semantic Interpretation 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13.

The Organization of the Chapter Communication Patterns Deep Case Semantic Markers Conceptual Dependency Theory Semantic ATN’s Semantic Nets Word Experts Scripts and Frames Semantic Interpretation of Syntactic Structures Formal Logic Conclusion Literature (selected)

1.

The Organization of the Chapter

This paper is organized accordingly to different kinds of semantic mechanisms postulated either as final representations at which a language understanding system should aim, or as tools to be used in arriving at an analysis. The order is, in a sense, chronological, but only in a sense, since many of the mechanisms described are foreshadowed in the literature before they became well-known, and even more live on afterwards in one form or another in later systems. Perhaps most noticeable in this respect is the use of logic, both as a tool and as a representation. Many systems of the ’60’s made heavy use of logic, after which it went rather into disrepute. More recently, in the form of logic programming, attention has turned again to the use of logic: thus it finds its place here at the end of the chapter. Many systems make use of more than one

of the techniques here separated out: sometimes this is remarked on in the text, sometimes not. The reader should not therefore assume than an exhaustive list of systems using any individual technique is given. Indeed, this leads us to a general point about completeness. Even with quite a large amount of space at disposal, it is simply not possible to be other than selective. Therefore, an attempt has been made to pick out clear cases to illustrate a technique, sometimes at the expense of ignoring quite well-known work or more recent work on similar lines. The basic aim here has been to give the reader enough information to allow him to read further on his own. One final preliminary remark: a distinction is often made between computational linguistics and artificial intelligence. The use of semantics falls into the overlap between the two. There is therefore no attempt made here to force an artificial distinction, other than that techniques found more frequently in classic computational linguistics systems are, roughly, gathered together more toward the first half of the chapter, those most commonly associated with artificial intelligence towards the end.

2.

Communication Patterns

In the sense used here, a communication pattern is a straightforward linear structure composed of elements closely resembling ordinary words. Analysis of the input text tries to pick out the occurence of such patterns in the text, mapping the text onto the pattern as the final representation.

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

One of the first systems using this approach was Colby’s dialogue system PARRY ( Colby 1975), which simulates a dialogue with a paranoid patient. An example dialogue is reproduced below ( PARRY is upper case): Have you been hospitalized before? THIS IS THE FIRST TIME How long have you been here? ABOUT TWO WEEKS Any headaches? MY HEALTH IS FINE Are you having any dif f iculty with your memory? NO Then perhaps you can tell me who is the President of the United States? NIXON IS PRESIDENT What day is it to-day? TODAY IS THURSDAY What season is it? LET’S GET ON WITH THE INTERVIEW The linguistic technique underlying this dialogue is very simple. About 1 700 patterns are stored in a list in PARRY’s memory. The input text is segmented by a heuristic that breaks it at any occurrence of a range of key words. Patterns are than matched with each segment. Matching is done directly against the input string, with very little preliminary manipulation. So, for example, What is your main problem has the root be substituted for is and the generic you substituted for your. It is then matched against the list of stored patterns. If a match is not found, one word in turn is deleted from the initial input string, and a new attempt fo find a match is made. Thus, the example would give rise, by successive deletion, to the following potential matches: BE YOU MAIN PROBLEM WHAT YOU MAIN PROBLEM WHAT BE MAIN PROBLEM WHAT BE YOU PROBLEM WHAT BE YOU MAIN The last but one of these ( WHAT BE YOU PROBLEM) exists as a pattern in the stored list, and is therefore matched. Stored in the same format as the patterns are rules expressing the consequence for the ’patient’ of detecting aggression or over-friendliness in the interviewer’s questions or remarks. The matched patterns are than tied directly, or via these inference rules, to response patterns which are generated. The representation used here, and the associated parsing algorithm

441

are about as simple as they possibly could be: it is interesting to remember that Colby’s program enjoyed considerably popularity, thus suggesting that even very simple methods can be quite powerful. Wilks’ ( 1973, 1975) machine translation system uses, as one of its mechanisms, what he calls ’template’ matching, which is in some ways quite similar to Colby. Each word sense in the dictionary is coded with an associated semantic formula ( see also section 3.), of which one element, the head, is distinguished as being the main semantic category of that sense of the word. The system also contains a partially ordered list of bare templates which are agent-action-object triples, where the elements of the template are semantic primitives drawn from the class used as heads. Analysis begins by fragmenting the text into segments, using as a basis for the fragmentation a list of key-words plus some information drawn from the semantic formula. For example The sort of man/ that dogs like/is kind would be segmented as shown: segmentation before the that depends on using the semantic formulae to see that that here is a relative rather than a qualifier or complementiser. The analyser then looks at the sequence of heads attached to the words in each segment, looking for a match with the bare templates. The match process is more complex than simply looking for triples, since it must take account of the possibility of not all elements of the template being present, of their not necessarily being in the right order, of lexical material intervening between the elements of the triple, and so on. It is partly to account for these complexities that the list of templates is a partially ordered list. Once a match is found, the bare template is filled out with the corresponding semantic formulae, and the result is the representation fed into subsequent processing. There are about a thousand bare templates in the system, triple patterns of primitives like ( MAN GET THING) each of which will match onto a wide variety of clauses like John f ound a toy, The driver accepted a cash present and so on. The similarities between Wilks’ templates and Colby’s patterns are obvious. It may be worth pointing out some of the differences. Superficially, the most evident might seem that Colby’s patterns correspond to words, whilst Wilks’ template elements are semantic primitives. However, Wilks himself ( 1975 a) has argued that there is no fundamental difference between primitives and words, and

442

VIII. Computer Simulation of Language II: System Components

that his set of primitives constitute only a primitive vocabulary, in terms of which all other words are defined, which somewhat removes this difference; only partially, however, since the bare templates do match onto parts of semantic formulae rather than onto surface words. Wilks’ bare templates do not, as do Colby’s patterns, constitute in themselves a representation. They serve only as devices by which the full templates can be created. Another pattern based system ( PHRAN: Wilensky/Arens 1980) will be discussed later. For the moment enough has been said.

not, normally, seen as a way to drive the analysis, replacing more conventional syntactic techniques, but as a supplement. Thus, a constituent structure of some kind is built, and this is then mapped onto a representation containing deep case information. Mu, whilst making use of both morphological and syntactical information to determine structure, interleaves the use of semantic information with the use of the other types of information. Reflecting this, the data structure used throughout the system to express intermediate results is a single annotated tree, expressing various levels of information including morphological, syntactic, semantic and logical. This tree can be manipulated at any time during analysis. The grammatical rules manipulating the tree are described in the form of tree-to-tree transformations with each node annotated. The system distinguishes between inner and outer case relations. The inner cases are those which can be predicted from the verb itself. For example sleep in English predicts only one deep case, as in The baby is sleeping where recommend ( in one of its uses) predicts three, as in I recommend you to do it. For verbs which have a limited range of usages ( corresponding to different meanings), each verb is coded in the dictionary with a series of case frames, each frame corresponding to a different use. A case frame is represented as a set of triples like: ( SURFACE-CASE-MARK DEEP-CASE CONSTRAINTS-ON NP) The surface case mark is a set of postpositional case particles, one of which follows the noun phrase filling the case slot. The constraints are a set of semantic markers ( see section 3.) that the noun phrase to fill the case should have. Note that the deep case interpretation of the same surface particle changes depending on the verb. The systems accounts for 103 postpositional case particles, 33 deep case relations in Japanese and 32 deep cases in English. The case relations for English are shown in the table below (fig. 34.1).

3.

Deep Case

Fillmore ( 1968) introduced the notion of deep case into work on Computational Linguistics. The basic insight is again quite simple: many languages exhibit surface case phenomena, which are expressed via inflection ( e. g. Latin, Greek, German), by the use of prepositions ( English, French), by particles ( Japanese) and perhaps in other ways unknown to the present author. Fillmore distinguished between these surface cases, and a notion of ’deep case’, where the deep case reflects the semantic role of a noun group with respect to a predicate. Thus, in terms of deep case, John, the door and the key preserve their semantic role in all of the following sentences, despite the differences in surface structure: John opened the door with the key The key opened the door The door opened with the key The door opened The door was opened by John The door was opened by John with a key etc. Many systems make use of deep case, amongst others, Wilks’ bare templates directly reflect deep case roles, and the formulae also contain case information, as does the final representation produced by analysis; also the notion of conceptual case to be found in conceptual dependency theory ( see 4.) is very close indeed to Fillmore’s deep cases. Here we shall look at just one system, the Japanese government machine translation project, Mu ( Nagao/Tsujii/Nakamura 1985) which makes a very direct use of deep cases. The most common use of deep case within translation systems is as a way to neutralize, as much as possible, the differences between the languages being treated. Deep cases are

1. 2. 3. 4. 5. 6. 7. 8.

AGenT Causal-POtency EXPeriencer OBJect RECipient ORIgin SOUrce GOAl

9. 10. 11. 12. 13. 14. 15. 16.

COntent PARtner OPPonent BENificiary ACCompaniment ROLe DEGree MANner

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

17. 18. 19. 20. 21. 22. 23. 24.

RANge COmpaRison TOOl PURpose Space-FRom Space-AT Space-TO Space-THrough

25. 26. 27. 28. 29. 30. 31. 32.

Time-FRom Time-AT Time-TO DURation CAUse CONdition RESult COnCession

Fig. 34.1: Case relations in English (from Nagao/ Tsujii/Nakamura 1985) Since each case frame corresponds to a single usage of the verb, the lexical properties of the verb are represented as properties of the case frame. These properties include aspectual features ( stative, semi-stative, durative, resultant, transitional), volition ( volitional, non-volitional), possible transformations of surface case markers, semantic class ( e. g. mental-action, physical-transfer, etc.), a reference to the relevant entry in the transfer dictionary, information on possible idiomatic expressions the verb can enter into. These dictionary codings are expanded automatically into grammar rules with unrestricted word order to obtain a match with the input sentence structure. Certain verbs have too wide a range of meanings to allow for comfortable coding in terms of the fixed format described above. Typically, the rules for these verbs need to make use of a wide range of heuristic information. The grammar rules for these verbs are written directly in the normal formalism, by-passing the fixed format. The outer cases are those which, in English, are marked by subordinators and co-ordinators like although, in order to, and, and so on. ( The number of cases suggested by Fillmore was quite small, around seven. Mu is typical of computer based systems using case also in enlarging the case set considerably both by increasing the number of inner cases and by treating as cases, unlike Fillmore, what are being called outer cases here.) Some postpositional particles in Japanese express several different semantic relationships between sentences, and therefore should be translated into different subordinators in English. For example the particle ’tame’ can express either a ’purpose-action’ relationship or a ’cause-effect’ relationship. To deal with such cases, lexical rules are coded in the dictionary. For ’tame’, the rules would be roughly as follows, where the sequential form (S1, S2) is assumed: ( i) If S1 expresses a completed action or a

443

stative assertion, the relationship is ’causeeffect’. (ii) If S1 expresses neither a completed action nor a stative assertion, and S2 expresses a volitional action, the relationship is ’purpose-action’. The nature of S1 is determined in a previous phase by using rules that make use of the aspectual features of the verb described in the dictionary, and auxiliary verbs following the verb. Then rules like the above are used to determine the semantic relation. ( The reader who knows something of Wilks’ work will notice the resemblance here to his paraplates, just as the tight association of predicate and inner cases described earlier bears a close resemblance to one aspect of conceptual dependency theory.) Postpositional particles are also very ambiguous in that they express several deep cases. Although the interpretations of inner case elements are given directly in the dictionary as a mapping between surface case markers and deep case, the outer case elements have to be interpreted by refering to the semantic categories of nounphrases and the verb-properties. Mu makes use of other semantic devices than case, just as other systems quoted elsewhere also use case. But by limiting ourselves to this one aspect for the moment, it has been possible to look at a clear and fairly typical example of how case is used in existing systems.

4.

Semantic Markers

Semantic markers were introduced into theoretical linguistics through the work of Katz/ Fodor ( 1963). Semantic markers can be thought of in two quite distinct ways, although there is a frequent and unfortunate confusion between the two. Both can be found in the original Katz and Fodor proposal. First, semantic markers are intended to represent the meaning of individual words. Secondly — and, conceptually, this is quite a distinct notion — semantic markers are used to encode selectional restrictions, and thus to inhibit the co-occurence of certain words. As an example, take the dictionary entry for ball Ball → concrete noun → ( social activity) → (large) → (assembly) → [dance] Ball → concrete noun → ( physical object) → [sphere]

444

Ball → concrete noun → ( physical object) → [cannon-ball] (Katz/Fodor 1963.) The objects in round brackets are the semantic markers, the objects in square brackets ’distinguishers’. The basic notion of selectional restrictions is very simple: it rests on the observation that some word senses which are fundamentally predicates or relations may only predicate on or relate objects having certain properties. Thus, the verb kick for example, in the ordinary sense of propel by use of a foot or a hoof requires an ( animal) as subject and a ( physical object) as object. So, in the sentence The page kicks the ball, the sense of page as the page of a book is ruled out by the requirement that the subject must have a marker ( animal), and the first of the three senses of ball in the example is ruled out by the requirement that the object must have (physical object). The distinguishers are intended to contain the remnant of the meaning of a particular word sense which is not already accounted for by the semantic markers in the entry for that sense. They do not, though, interact with the selectional restrictions, which operate only in terms of the markers. However, markers and distinguishers together should capture the meaning of the word.

Fig. 34.2: Winograd’s blocks world

VIII. Computer Simulation of Language II: System Components

In examining the use of markers within systems, it will be convenient to separate out their two uses. First, let us consider their use as a means of capturing meaning, calling them, in this context, semantic primitives in order to avoid confusion. Perhaps their most well-known use for this purpose is within conceptual dependency theory ( see, for example, Schank 1975 and see also art. 20, 29, 2.4.2.). The basic notion here is that sentences can be mapped onto ’conceptualizations’ which are language independent meaning representations made up of primitives and of deep case relations. We shall describe the theory in the next section, and concentrate our attention here on the use of markers as selectional restrictions, i. e. as ways to aid disambiguation by inhibiting ( or forbidding) the co-occurrence of certain words. A first, fairly simple, illustration of the use of semantic markers can be found by looking at Winograd’s SHRDLU program ( Winograd 1972; 1973). The system runs as a dialogue, in real time, between a human operator who types in messages, and the system proper, which displays on the screen pictures of a closed world of coloured blocks and pyramids, a box into which they can be put, and an arm which can move the objects about.

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

The dictionary contains definitions for simple words, where the first part of the definition is based on simple semantic markers. For example, the definitions for ’cube’ and ’contain’ are as follows ( from Winograd 1973):

Fig. 34.3: Dictionary definitons for ’cube’ and ’contain’ in Winograd (1973)

Details of the notation are not important. The first of these definitions say that a cube is a ’manipulable rectangular object’, which can be recognized by the fact that it is a ’block’ and ’equidimensional’. These features make a rough categorization of objects in the model, and the system uses this categorization in order to make quick checks whereby certain combinations are ruled out on the basis of simple tests like ’this meaning of the adjective applies only to words which represent physical objects’. The definition for ’contain’ shows how markers may be used to choose between possible word meanings. If applied to a ’container’ and a ’physical object’ as in The box contains three pyramids the

445

word has one sense, if applied to a construct and a physical object, it has the sense exemplified by The stack contains a cube. It is quite hard to work out in any more detail exactly how Winograd’s markers are used: but enough has been said for the reader to get the flavour. Before turning to another use of markers, though, it is worth pointing out that Winograd’s semantics is interpretive, in the sense that it first builds syntactic constructs and then tries to find a semantic interpretation for them, rather than trying to avoid any explicit use of syntax, as is the case with some of the other systems mentioned in 2. (Wilks) and in 5. (Schank). Winograd’s use of syntax is interesting, though, in that the choice both of syntactic representation and of analysis technique is heavily influenced by the needs of the semantic interpreter. Thus, the representation is organised around units which play a primary role in determining meaning. The figure below shows the parse tree for The three big dogs ate a raw steak. The noun groups ( NG) correspond to the description of objects, whereas the CLAUSE is a description of a relation or of an event. For each unit, there is a syntactic program which operates on the input string to see whether it could represent a unit of that type. In doing so, it will call on other syntactic programs and possibly on itself recursively. More detail about SHRDLU’s syntactic analysis can be found in Winograd (1973). The semantic programs are organised into groups of procedures, each of which is used for interpreting a certain type of unit as identified by the syntactic analyser. One of the claims embodied in SHRDLU is the claim that understanding ( and knowledge representation within a computer system) is procedural in nature rather than de-

Fig. 34.4: The form of syntactic representation in Winograd (1973)

446

clarative: that is, that knowledge should be expressed in the form of programs, thereby explicitly expressing also the connections between different parts of the system’s knowledge, rather than in the form of static rules manipuled by some independent inference making procedure. The controversy about the appropriate way to represent knowledge continued throughout much of the ’70’s. Discussing SHRDLU has taken us rather a long way from the use of semantic markers as an aid to disambiguation. Returning to that topic, let us take a closer look at Wilk’s semantic formulae. ( See also art. 29, 2.4.3.) The reader will remember that each word sense is coded in the dictionary with a semantic formula: the formulae are structure sets of semantic markers; for example, the diagram below ( from Wilks, 1978 b) shows two senses of the word ’grasp’, grasp as understanding an idea and as taking hold of a physical object.

Fig. 34.5: Word senses in Wilks (1978 b)

VIII. Computer Simulation of Language II: System Components

Items marked with a star ( e. g. *ANI) are a short-hand device indicating a finite set of markers: for example MAN falls within ANI. Deep cases are given with what looks like a selectional restriction ( e. g. *ANI SUBJ). But, in fact, these are ’preferences’ rather than binary exigencies: given a choice, ’grasp’ in the first sense will prefer to be associated with an animate subject. If no animate subject can be found ( as in The essay grasps the essential point of the theory) the system will take what it can get and accept a non-animate subject. When a bare template has been matched onto the incoming text, it is filled with the semantic formulae whose heads have been used in the successful match. As an example Fig. 34.6 shows the full template for John shut the door (from Wilks 1983 a). Usually, for any given fragment, there will be more than one full template possible. The system looks for those templates where the internal preferences of formulae ( for neighbouring formulae) are in fact satisfied. Com-

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

447

Fig. 34.6: The template for John shut the door in Wilks (1983 a)

peting templates have their satisfied preferences added up, and the one with the greatest number is selected as the template for the fragment. This notion of always taking the representation with the greatest ’semantic density’ of satisfied connections is the general rule driving the whole parsing. Thus, it is used again when fragments are tied together to determine the case relations linking the fragments. We have seen two examples of the use of the semantic markers, one very straightfor-

ward, one rather more complex. As always, other systems make use of them too: for example, we have already seen markers as selectional restrictions in Mu. They are also very commonly used in machine translation systems as an aid to choosing the correct target language equivalents for source language words ( see, for example Mu ( Nagao 1985), METAL ( Bennett/Slocum 1985), EUROTRA ( King/Perschke 1987). In this use, they simply serve as conditions on the choices made ( e. g. paper ( + physical object) trans-

VIII. Computer Simulation of Language II: System Components

448

lates as papier, paper ( + abstract) translated as article.) Both case relations ( discussed in 3.) and markers are problematic if considered as language independent primitive meanings, as is the question of whether it is possible to define a universal adequate set. Even when considered as a kind of primitive vocabulary, no different in theoretical status from ordinary words, the question of how to define an appropriate set arises. ( Discussion of these and related questions can be found in Wilks 1975, 1976 b, 1977; Ritchie 1983 a; King 1987. A full discussion of case systems and their use can be found in Somers 1986.)

5.

Conceptual Dependency Theory

Conceptual dependency theory ( CD) was developed within CL rather than being taken over by CL from theoretical linguistics. Its links, though, with both semantic markers ( as primitives) and with case theory will be clear. Schank ( 1975) gives a very full account: the examples here are taken from the very clear summary in Schank/Rieger ( 1974); ( see also 33.2.4.2.). CD theory is meant to be a language independent meaning representation. The representation consists of ( the names of) conceptual relationships and of conceptual categories which they relate. The conceptual categories correspond to real world objects, real world actions, attributes of objects, attributes of actions, times and relations. These categories can only be linked together in a small number of fixed ways, covering, for example, action by an actor, or a relationship of causality between two conceptualizations ( = a propositional structure). Certain kinds of aspect and modality are given by markers within the representation. The representation for John prevented Mary f rom giving a book to Bill is in Fig. 34.7. This can be read as ’John, in the past ( p) did something ( *DO*) which caused ( ) that Mary did not ( p,c/) transfer possession ( *ATRANS*) of an object ( O), a book, from Mary to recipient (R), Bill’. The conceptualizations are structured round primitive actions, which form a small and finite set ( roughly a dozen, although the number varies slightly from account to account). Associated with each primitive act are either two or three of the four conceptual cases ( objective, recipient, directive, in-

Fig. 34.7: The form of CD representation in Schank/Rieger (1974)

strumental). The associated cases are obligatory, and must always appear in the representation, whether or not they appear in the input text. There is a general selection restriction that only animate objects may serve as actors associated with primitive acts, except for PROPEL. One of the primary motivations behind CD theory is that the representation should support inferencing ( see also art. 35.). Thus, particular types of inference are associated with particular primitive acts. As an example, three primitive acts refer to transfer of one sort or another. Any one of these three licenses a result-inference unless there is specific information in the text which would contradict the inferenced result. Thus, whenever the primitive act denoting the transfer of physical location of an object ( PTRANS) is present, the inference is made that the location of the object of PTRANS is now the directive case of the same PTRANS. Similarly, from John told Mary that he wanted a book it is inferred that ’John wanted to read a book’. It is important to realize that no claim is made that the inferences will always be correct: rather they are plausible inferences which will usually turn out to be correct. CD, unlike case and semantic markers, is the definition of a representation which is to serve as the end-point of analysis rather than as a means towards it. It is therefore interesting to look at how a parser would map onto a CD representation. The first such parser ( Riesbeck 1975) was part of the MARGIE system. The parser built a CD structure whilst scanning a sentence from left to right. The processing rules are in the form of ’requests’ which are pairs of a ’request’ and an ’action’, and each word has a set of requests stored in its lexical entry. The

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

analyser, whilst scanning the sentence, maintains a list of ’active requests’, and the requests of each input word are added to this list as the words are encountered. Whenever the test of an active request is found to be true, the resulting action is executed. The Fig. 34.8 shows what would happen as the parser analysed John gave Mary a beating. Initially, before parsing starts, the system expects to find a noun group. When John is read, this request ( 1) is still active; its test is true, since John is a noun group, and the associated action is triggered. Reading gave puts all of requests 2, 3, 4 and 5 onto the list STEP

WORD READ

0 1

none John

1 — is there an NP? 1 — is there an NP?

2

gave

3

Mary

4

a

5

beating

6

period

7

none

2 — is the current NP a human? 3 — is the current NP an object? 4 — is the current NP an action? 5 — true 2 — is the current NP a human? 3 — is the current NP an object? 4 — is the current NP an action? 3 — is the current NP an object? 4 — is the current NP an action? 6 — true 7 — does the current word end an NP? 7 — does the current word end an NP? 3 — is the current NP an object? 4 — is the current NP an action?

REQUESTS WAITING

449

of active requests. There is no current noun group ( John has been used up), so only 5 which is always true will pass the test. The action associated to 5 is therefore triggered, whilst 2, 3, 4 stay on the active list ( 5 & 6 are simply default requests which are always satisfied if nothing above them is). When Mary is read, request 2 is satisfied: the associated action is based on the prediction that, since Mary is human, the sentence will be a sentence like John gave Mary a dollar. The system will go on believing this until requests 3 and 4 are re-instated at step 7, and request 4 is satisfied rather than request 3. ( Request 3 REQUESTS TRIGGERED none 1 5

ACTIONS TAKEN none assume John is subject of the verb to follow. assume the word ’to’, if it appears, introduces the recipient of the ’giving’.

2

assume Mary in the recipient of the ’giving’.

6

save the current list of requests and replace it with: 7 — does the current word end an NP?

none 7 4

Fig. 34.8: Parsing of the sentence John gave Mary a beating in Riesbeck (1975)

none build the NP ’a beating’ and reset the list of requests assume the NP action is the main action of the clause, the subject (John) is the actor and the recipient (Mary) is the object.

450

would have been satisfied if Mary had been given a dollar.) The action taken at step 7 completely restructures the representation, basing it not on ATRANS ( transfer of possession) but on PROPEL ( application of physical force to an object), making Mary the object of PROPEL rather than the recipient of ATRANS. Disambiguation is done during parsing, since the only sense of a word which will be seen by the analyser is that for which some currently active request ( activated by the previous context) is testing. ( Hayes 1976, points out that this technique would break down quite quickly. Ritchie 1983 a, contains some further discussion.) An interesting parser which combines several of the tools and representations we have seen up till now is PHRAN ( Wilensky/Arens 1980). Like Riesbeck, Wilensky and Arens aim to produce a conceptual dependency representation direct from English text without passing through a syntax analysis. One of their main inspirations is Becker ( 1975) who argued that many of the constructs in natural language are ’phrasal’, in the sense that they are idioms, or clichés of various types: strings whose meaning is not directly computable from representations for the constituent words. Wilensky/Arens insist quite strongly that the system is not word-based ( see 7.) but contains items at a level higher than words, which they call ’patterns’. These patterns can be any of a large variety of things: they can be strings of surface words ( as in f or example), partial patterns ( such as ’X in and X out’, where X can be replaced by day, garbage etc.) or patterns of semantic markers or semantic structures, such as 〈PERSON〉 〈active-EAT〉 〈FOOD〉 which need not correspond to any specific word in a matching surface string, such as John ate breakf ast. The data base is made up of pairs, where the first element of each pair is a pattern, the second a ’conceptual template’. The conceptual template corresponding to the pattern above would be ( INGEST ( ACTOR 〈first term〉) ( OBJECT 〈third term〉 if present, else FOOD)). ( The reader can see that this is a linearized version of a CD representation.) The final representation is computed from the conceptual template, by filling in the slots ( for ACTOR and OBJECT in the example) from the text via the pattern. The similarities to Riesbeck’s work are obvious: the basic difference being that the patterns are not simply word-indexed. There are

VIII. Computer Simulation of Language II: System Components

also similarities with the work of Colby and Wilks described earlier. Wilks ( 1983 a) discusses these similarities, as well as some of the limitations of the approach. Since CD theory is intimately related to the use of semantic primitives and of deep case, it shares some of the problems mentioned at the end of 4. However, the theory introduces a new element, in that one of its primary motivations is as a support for inference making. Here, two new questions arise. The first is when inferencing should be done: should all the inferences that can be made on the basis of a piece of text plus its representation be done as soon as the text is read, or should inferencing wait until a problem is encountered? This question is discussed in Charniak ( 1976). The second is the question of when inferencing should stop: in the theory as described in Schank ( 1975), inferencing could, theoretically, become infinite, since the instrument case is itself a propositional structure, and therefore licenses the making of more inferences. Even without this extreme case, the question of determining an appropriate amount of inferencing is important. ( For further discussion, see Wilks 1977 b).

6.

Semantic ATN’s

The ATN grammar mechanism ( described in detail in chapter 31/32) was originally introduced for the writing of syntactic recognition grammars, but their use for semantic processing has also been proposed ( e. g. Burton 1976; Woods/Bates/Brown et al. 1976). Here, the arc and state labels in the ATN grammar are no longer simply syntactic categories, but can include semantic categories indicating the items which the words and phrases may refer to. Consider the ATN representation in Woods/Bates/Brown et al. ( 1976) in Fig. 34.9. The computational mechanisms used here are closely parallel to those used for syntactic ATN’s, ( see art. 31/32) and will not, therefore, be discussed further here. Semantically, it is very clear how such a net works. Semantic categories are taken to be very similar to syntactic categories in their nature, and are therefore treated in much the same way. The main problem with this kind of semantic interpretation is that syntax and semantics are tied very closely together. This makes it difficult to state certain syntactic generalisations ( e. g. the structure of a noun phrase) in-

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

451

Fig. 34.9: The form of ATN representation in Woods/Bates/Brown et al. (1976)

dependently of much more detailed semantic tests. Although King ( 1987) argues for a close parallelism between syntactic and semantic categories, she also points out that both can be defined only in terms of a linguistic theory using the categories. This, for semantic categories, may easily lead to the definition of a set far larger than the set of syntactic categories, thus impeding the expression of syntactic generalisations as we have noticed. Ritchie ( 1978 a) discusses these problems specifically in relation to semantic ATN formalisms. He also makes the main point rather succinctly in Ritchie ( 1983 a), referring both to Riesbeck’s parser ( 4.) and to semanic ATN’s, where he points out that after a parser has processed John swallowed ..., it may be able to make the following predictions about what will follow: a) surface abstract syntax: an item to be the surface object b) deep abstract syntax: an item to fill the ’patient’ case role c) referential semantics: an item which can refer to an ’ingestible’ material. The object phrase could take any of several forms: a. ... a biscuit b. ... what he had in his hand c. ... the contents of the bag Thus, although the predictions given may serve to activate certain checking routines, it is unrealistic to expect them to start up specific low-level parsing strategies. There will have to be a concrete syntactic parse ( perhaps bottom-up) before these top-down expectations can take effect. ( See also Ritchie 1978 b.)

7.

Semantic Nets

The term semantic nets covers a multitude of

representations, sharing in common only that each network is made up of nodes connected by links, and that both nodes and links are intended to represent semantic notions. Apart from these rather general resemblances, in particular kinds of nets the nodes and links are interpreted in different ways, so that it is rather difficult to present a general theory of semantic nets. Instead, two examples will be offered, that have been picked out as illustrating some of the characteristics of semantic nets that have spread outside net representations into other kinds of semantic representations. For a much more detailed survey, the reader is referred to Brachman (1979). The first example is the network representation used by Collins/Quillian ( 1969) in a series of experiments intended to check the psychological plausibility of,the network. The Fig. 34.10 shows a part of such a net. The basic notion is intuitively clear. The structure is a very straightforward hierarchy, the relation between mother and daughters of the hierarchy is that of a super-set-sub-set. The item in italics on the left of each node is the name of the concept represented by that node. On the right are a set of properties associated with that concept. The set of properties associated with the superset concept are automatically true of its subsets, unless there is explicit confirmation to the contrary. Thus, salmon, in addition to being pink, edible, swimming upstream to lay its eggs, also has fins, can swim, has gills ( from the f ish node), and has skin, can move around, eats and breathes ( from the animal node). On the other hand, an ostrich can’t fly, although birds in general can. This quite simple example illustrates two characteristics which are common in semantic representations. The first is the inheritance of properties, i. e. the passing of properties from more general classes to more specific

452

VIII. Computer Simulation of Language II: System Components

Fig. 34.10: The representation of feature hierarchies by network in Collins/Quillian (1969)

classes. The second, closely connected, is the explicit treatment of exceptions. Any representation dealing in generalisations must make some provision for those cases for which the generalisation does not hold. The second example pre-dates the first. It was originally developed by Quillian ( 1967), who may be regarded as the founding father of network representations, and it illustrates may of the points relevant to them. Again, Quillian’s network was intended as a memory-model. Definitions from an ordinary dictionary were re-coded into a network, and the resulting model tested via a program which was asked to compare word senses. Fig. 34.11 is a sample from Quillian ( 1967). ( The comments in lower case are Quillian’s.) Fig. 34.11:Compare: PLANT, MAN A. 1st Intersect: ANIMAL (1) PLANT IS NOT A ANIMAL STRUCTURE. (2) MAN IS ANIMAL. B. 2nd Intersect: PERSON. (1) TO PLANT3 IS FOR A PERSON SOMEONE TO PUT SOMETHING INTO EARTH. (2) MAN3 IS PERSON. (Here the program is treating „person” as an adjective modifier of „someone.”) Compare: PLANT, INDUSTRY A. 1st Intersect: INDUSTRY (1) PLANT2 IS APPARATUS WHICH PERSON USE FOR5 PROCESS IN INDUSTRY. Fig. 34.11: The semantic representation in Quillian (1967).

Before we go further, an important distinction must be introduced, that between types and tokens. The easiest way to grasp the distinction intuitively is to think of ordinary text. In any text, a particular string of characters, say ’semantics’ may occur many times: each of these occurrences is a ’token’. The word ( or concept, avoiding some important issues) ’semantics’ taken in isolation is the ’type’. The type-token distinction, generalized in a variety of different ways, is also used in many different representations. The nodes of Quillian’s network are either token nodes or type nodes, although both can be thought of as named by English words. The difference between them is in how they relate to the meaning of the name word. Type nodes do this directly: their links lead directly into a configuration of other nodes that represent the meaning of the type node. Token nodes have one special kind of link that points to the token’s type node. This description affords us another way of looking at the type-token distinction. The type nodes can be thought of as constituting a primitive vocabulary in the sense of 2. In Quillian’s model, the meaning of a concept is represented by a structured configuration of token nodes: what he calls a ’plane’. Every token node lies in such a plane, has its special associative link pointing out of the plane to the type node, and other associative links pointing on within the plane to other token nodes making up the configuration. In our first example, there was only one

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

kind of link in the network, which represented the superset-subset relation. Already here we have seen two kinds of links, the special link between a token and its type, and the links between tokens. In fact, the links are further specified. Thus, a further link between type and token expresses that the token names a class of which the type is a sub-class. Another kind of link expresses modification of a token by another token. Two further types allow representation of the fact that a set of nodes forms a conjunctive or a disjunctive set. Yet another kind of link expresses a (named) relationship between the two nodes. Fig. 34.12 is the plane representing ’food’, defining it to be that which a living being has to take in to keep it living and for growth, or things forming meals, especially other than drink. The circled node ’food’ is a type node. All the others are tokens. Dotted arrows are links leading out of the plane to the type definition

453

of the token where they originate. The single letters ‘A’ and ’B’ act as indices. The diagonal double arrows show a relationship holding between the items at their heads ( e. g. at the end of the first ’or’ link, food is defined as a thing forming a meal). The program using this net searched for associations between word concepts. The computational technique used to find the associations was that of a spreading activation intersection search: given two words, possible relations are inferred by an unguided, breadth-first search of the area surrounding the planes. Thus, the search fans out through links from the two planes to all planes pointed to by the originals until a point of intersection is found. The paths from the source nodes to the point of contact is taken to indicate a potential relationship between the two concepts. Spreading activation has become an important search technique, especially in models intended to test psycho-

Fig. 34.12: Different types of links in networks

logical theories ( see, for example, Feldman/ Ballard 1982). As mentioned in the introduction to 6.,

many and various representations have gone under the name of semantic networks. Brachman ( 1979) offers the following classifica-

454

tion, which is based on the nature of the primitives used. a) implementational: in this kind of net, the net itself is seen as an implementational mechanism for a higher-level logical language. The links are merely pointers, and nodes are simply destinations for links. The network serves as a data structure out of which to build logical forms, and says nothing about factoring of knowledge. b) logical: in this kind of net, nodes represent predicates and propositions. The links represent logical relationships like AND, SUBSET and THERE-EXISTS. For those working on this hypothesis, logical adequacy, including quantificational apparatus, is taken to be the responsibility of the representation. Such schemes, at least tacitly, depend on predicate calculus for knowledge factoring and use networks as organising principles over normally non-indexed predicate calculus statements. c) conceptual: this is perhaps the most prevalent view, and is that represented by our two examples. This type of net has a small set of primitive object and action-types and a small set of conceptually primitive relationships ( akin to deep cases, sometimes explicitly so), out of which all expressible concepts can be constructed. The CD can be thought of as an example of a semantic net of this type. d) linguistic: the primitives in this kind of net are language specific. The links stand for arbitrary relationships in the world being represented and the primitives, since they are language dependent, are expected to change in meaning as the language grows. Brachman, in the same paper, proposes an intermediate level instantiated in a network language ( KLONE, Brachman 1978 a, 1978 b) which would allow for the organisation of conceptual knowledge into units more structured than simple nodes and links, and the possibility of processing over larger units than single network links. Similarly, the network language ( based on epistemological primitives) makes explicit the handling of attribute/value inheritance, multiple description and so on. In summary, as both Brachman ( 1979) and Woods ( 1975 b) point out, the primary requisite for a semantic network representation, as for any other representation, is that the representation itself should have a clean, well-defined semantics.

VIII. Computer Simulation of Language II: System Components

8.

Word Experts

One type of semantic network distinguished in the last section was a linguistic network, where the primitives were the individual lexical items of a particular language and the links were arbitrary relationships reflecting the world being talked about. A rather similar approach to semantic processing, but outside the network paradigm, can be found in word expert systems ( Small 1983). In such systems, the basic notion here is that language is essentially idiomatic in the sense of Bolinger ( 1975), who asks ’whether everything we say may be in some degree idiomatic: that is, whether there are affinities among words that continue to reflect the attachments the words had when we learned them, within larger groups’. In this perspective, words have associated with them what are called word ’experts’ which contain information about how words can combine with other words. The type of information can be very varied, ranging from the simple direct knowledge that some word sequence represents some remembered concept to the more analytical knowledge that particular kinds of lexical sequences often represent certain classes of conceptual notions. The analysis of a text is then made via the interactions between the experts associated with the individual words in the text and, in a larger system, through the interactions of the word experts and other memory processes. ( We shall mostly neglect this latter aspect here.) Small’s system allows four kinds of interaction between word experts. The first of these, idiosyncratic, is the least general. Idiosyncratic interactions are word-specific and arise through simple recall memory. This type of interaction allows the analysis of idiomatic fragments. General knowledge about the syntax and semantics of some particular language gives rise to linguistic interactions, which are crucial to the understanding of lexical sequences not previously seen. At a more general level, words may interact with processes monitoring the development of an entire text: these are discourse interactions. Finally, there are logical interactions between words and general cognitive processes such as perceptions about the world, beliefs, inference-making skills, rote memory and so on. A word expert, then, is not a representation of the various meanings or roles of a word in context, but is a declarative represen-

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

tation of a process whereby the meaning contribution of the word in context may be determined. As might be expected with a system that depends on very detailed description of individual words, it is quite difficult to give a brief but clear example of how such a system works. The following is based on Small ( 1983), to which the reader is referred for a much fuller account. The sentence to be parsed is The man throws in the towel. The parser scans the sentence from left to right, activating the word expert for each word encountered. The THE expert, working on the assumption that what follows will be a noun phrase, begins construction of a concept structure to represent that noun phrase and then pauses. The word expert for MAN receives a signal from the THE expert that it expects an entity to be constructed, and on this basis completes the concept structure adding that man denotes a human adult male. The THE expert was waiting for a report that a concept structure has been built. It now resumes its execution, to determine whether the new description has a referent in the existing context or not. In this example, there is no referent. throws is the next word to be processed: it activates two experts, one for the suffix S, one for THROW. The first executes before the second, and determines that the input is beginning to describe an action, and so broadcasts an action-construction signal to the rest of the system. The THROW expert starts the construction of an action concept, and first tries to refine it by searching the local active memory for a potential agent of the action. It finds the man as a prospective match. The THROW expert now asks for the next word to be read, since its immediate successor often has a fundamental effect on its own meaning. The IN expert thus begins its execution with a particle control signal. The signal asks in to decide if it is a particle or not. The IN expert must, however, wait for the execution of subsequent experts. If the next expert begins construction of an entity concept structure ( i. e. representing a noun phrase), IN waits for the report of that structure. If it does anything else, IN continues its processing. In our example, of course, the THE expert, as before, immediately broadcasts the entity-construction signal and pauses. The IN expert resumes processing, prepares to receive a concept structure, and pauses again. The THE expert resumes, and begins to construct the concept structure: towel is read, its expert activated, and the

455

concept structure built. Many suspended experts were waiting for the concept structure, and now come back to life. The THE expert tries to find an already existing referent, and fails, passing the concept structure to the other waiting experts. The IN expert can now decide whether or not it is a particle. It does this by asking whether the towel resembles a physical object, an idea, a gear or a machine ( in which case it accepts the particle role), or a time, state or volume in which case it does not ( cf., for ex., in the morning). With INs acceptance of the particle role ’throw’ can now continue to disambiguate itself. By asking a series of questions about the nature of what is thrown, about what is in the focus of attention, about whether a machine is involved and so on, it finally arrives at the idiomatic interpretation of throw in the towel. The main problems of this kind of system can be deduced from the description above. Since it uses mechanisms such as semantic markers and deep cases, it will have the associated definition problems, but the main difficulty is the level of detail at which the constructor of the system has to work. With an enormous amount of detail to control, in any realistically sized system it will be hard to ensure consistency and to keep control ( both intellectually and in practice) of the system as a whole. Nonetheless, the system does reflect a growing tendency in both computational and theoretical linguistics to believe that far more is determined by the lexicon and by rules associated with lexical items that has previously been thought (Bresnan, ed., 1982).

9.

Scripts and Frames

The notion of a FRAME was first introduced by Minsky, in a paper that was circulated in several versions. The most easily accessible version is Minsky ( 1981). We shall not go into great detail here, since frames will be discussed elsewhere in this volume, ( see Arts. 29, 33), but will concentrate on their use as a semantic representation within language understanding systems. To do this, we shall first make a distinction between frames used as an aid to parsing a clause or a sentence, and frames used to provide a text structure directly. For the first purpose, a frame can be considered to be a set of predicates, where each predicate can have type restricted variables, along with default information ( See Fig. 34.13.)

VIII. Computer Simulation of Language II: System Components

456

CAUSE-MOVE CAUSE-MOVE CHANGE

(OBJECT1 (FROM (TO (OBJECT2 (FROM (TO (RESULT (INSTRUMENT

(+ plant material, DEFAULT = cigarette)) (+ container, DEFAULT = packet)) (+ location, DEFAULT = mouth)) (+ plant material, DEFAULT = match)) (+ container, DEFAULT = matchbox)) (Object1)) (lit OBJECT1)) (OBJECT2))

Fig. 34.13: The representation of ’smoking’ is the FRAME used by Wilks (1983). As can be seen, the basic idea is to represent a stereotyped version of the event: here the stereotypy appears in three ways. First via the ordering of the predicates ( the cigarette is put in the mouth before it is lit), secondly by the type/feature restrictions, which can be over-ridden ( cigarettes can be lit with things other than matches), and thirdly by the default information, which, again, can be overridden. A parser using FRAME ( or SCRIPT — the distinction between the two is not important for our purposes) information gains additional power in two ways. First, episodic facts can become a part of the memory. For example, John went to the store f or his mother could mean either ’John went to the store on behalf of his mother’ or ’John went to the store to fetch his mother’. Deciding between the two can be done only on the basis of facts about the current situation, which might be contained in a script called, say, MOTHER, of which a particular instantiation records what is known about ’John’s mother’. Secondly, scripts can be used to provide global semantic resolution. In the famous Schankian example ( Schank/Abelson 1977) the restaurant script can be used to disambiguate bill in John paid with a large bill, simply because the system follows the story line through the script, and thus expects John to offer money of some sort when he is paying. Where frames are used to provide a text structure directly, avoiding any intermediate representations between the text and such a frame, the frame becomes a kind of text grammar. De Jong’s FRUMP ( de Jong 1979 a) uses what he calls ’sketchy scripts’ in this way to achieve partial parsing of a text. The system skims new stories, aiming at avoiding syntactic analysis completely, making immediate choices between alternatives

and following no parallel paths. The most frame-like objects are called ’issue skeletons’. The issue skeletons are based on a notion of temporal/causal order and are organised into frame systems, with pointers from one issue skeleton to other high level items (see Fig. 34.14). !TERRORISM (AUTHORITY TERRORISTS) TERRORISTS DEMANDS(CDI) TERRORIST INCIDENT ($HIJACK $TERROCCPY1) MEDIATION ATTEMPTS (... AUTHORITY RETALIATIONS (... OUTCOME (... Fig. 34.14: Issue skeletons used for the description of terrorism by de Jong (1979 a). However, these high level items are not mapped directly onto the text: the mapping is mediated via the sketchy scripts. Fig. 34.15 is the sketchy script for ’nationalize’. ⇔ MANNER ACTOR OBJECT TYPE PART TO FROM

ATRANS FORCED POLITY CONT ECONOMIC SPEC INDUSTRY POLITY POLITY

Fig. 34.15: Sketchy script for ’nationalize’. The reader will see that this is basically a predicate-deep case structure. The predicate ( ATRANS) is the CD theory primitive act denoting transfer of possession. POLITY is a public institution of some kind. If the sentence to be analyzed is Uganda took control of a US oil ref inery, the above sketchy script will be called, since it is also a specialized sense of ’take’ in the dictionary. The basic analysis mechanism is what de Jong calls prediction and substantiation. With our example, the

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

predictor will predict, on the basis of the sketchy script, that the ’from’ role will be filled by an element of the list POLITY. The substantiator then takes over, and discovers that there is nothing in the text that can directly be used to add ’from’. It then uses inference routines to infer that the modifier of oil will be able to fill the role, on the grounds, presumably, that ’US’ is of the appropriate semantic type. The problems associated with frames and scripts are by now fairly well-known. Whilst they help to avoid some of the combinatorial problems of undirected inferencing in theories like CD theory, they suffer from the fact that they are designed to represent stereotypic situations, and thus find it hard to deal with texts where the actors deviate from the sterotype. Also, it is quite hard to know what frames to activate and when to activate them, as, inversely, it is hard to know when to kill off an active frame. Much later work in this same tradition has concentrated on trying to resolve such questions. For fuller discussion, and for description of some proposed remedies, the reader is directed to Dyer ( 1983) and Schank ( 1982 a). Metzing ( 1980) contains a useful collection of papers on frames.

10. Semantic Interpretation of Syntactic Structures Most of the semantic representations discussed so far have been intended by their originators to be independent of syntactic analysis of the text. The basic intuition was that traditional syntactic representations are in a sense redundant, if what is aimed at is the computation of meaning. However, there is quite a different and very strong tradition which would regard this view as mistaken, and would argue that the hierarchical grouping of linguistic constituents is a useful ( even necessary) preliminary step to applying hierarchically organized semantic rules. This view is extremely common in theoretical linguistics ( cf., e. g. Chomsky 1981; Bresnan, ed., 1982; Jackendoff 1983). In these theories, however, the semantic interpretation aimed at is not very deep; indeed Chomsky explicitly contrasts it with ’real semantics’, which would involve an interpretation in terms of the external world. Most of the interpretations are logic-like in flavour, picking out a predicate and its arguments: few go so far as

457

the set-theoretic logic interpretations of Montague (1968). Ritchie ( 1980) describes a classic version of a semantic interpretation of structures scheme. There, a classic ATN builds a surface structure tree, ( for ATN-s see Art. 31/32), placing on each non-terminal node a ’combining rule’ specifying how the semantic structures of the daughter nodes are to be merged to form the ’meaning’ for that node ( cf. Montague’s rule-trees). Each combining rule is executed as soon as all its arguments ( i. e. the interpretation of the daughter nodes) are available, and the result made available for the next higher node. The difficulty with such a scheme, as Ritchie ( 1983 a) points out, is that since the interpretations of all daughters have to be available before a rule can execute, a large subtree might remain unprocessed if any of its sub-trees are incomplete. Ritchie reports an attempt to limit the problems thus caused by dividing the combining rules into components, one for each argument place, but points out that this, in general, does not solve the problem. Sondheimer/Weischedel/Bobrow ( 1984) describes another system which partially, at least, avoids the difficulty. The system uses KL-ONE ( Brachman/Schmolze, eds., 1982) to represent both the syntactic and semantic analyses. The semantic interpretation is in terms of a closed world, that of a computer mailing application. The semantic interpreter proceeds incrementally as the grammar proposes the syntactic function of an immediate constituent. The interpretation is based on the use of an extended case frame formalism. ( Note that ’frame’ here is used in the sense of a set of slots associated with particular types of phrases, not in the sense of a representation of a stereo-type situation or event, as in the last section.) A frame is used for each semantically distinguished type of phrase, i. e. one for each class of phrases having a unique combination of a) semantic distribution, b) selectional restrictions on constituents making up the phrase, c) assignment of semantic relations to syntactic functions. For each frame, each possible immediate constituent is associated with a slot ( e. g. noun phrase frames have slots for the head, adjective modifiers, articles, etc.). Constraints on the fillers of slots are stated in terms of other frames, in terms of word senses and categories of these senses ( i. e. markers showing

458

that the item belongs to a specific semantic category, such as MESSAGE-NOUN ( letter, message) or TRANSMISSION-VERB ( send, forward). A phrase instantiates a given frame if its immediate constituents satisfy the restrictions specified for each of the roles in the case frame. The problem pointed out by Ritchie is avoided by allowing different kinds of translation rules, the rules that map a syntactic constituent onto a semantic interpretation. Translation rules are associated with individual frames. Each frame has associated with it a KL-ONE concept representing the main predicate of the translation: for example, the translation of the send-clause frame is the concept send-mail. The translation rules themselves can be associated with individual case slots. It can happen ( via KL-ONE’s inheritance mechanisms) that more than one translation rule is available for a case slot. In this situation, the one originating from the most specific frame in the hierarchy is selected. Translation rules may map a constituent in the frame onto a semantic role in the translation, or pass a semantic function from the embedded constituent to its matrix phrase. There is also a very general form of translation rule which allows reference in the source to arbitrary constants and concepts and to a path through the concepts, roles and attached data in the net. The goal formalism also shows a path through the network and may specify the establishment of additional roles. A separate test can be associated with a translation rule which states conditions on the applicability of the rule. These conditions test whether particular roles are filled, whether they are empty or whether the filler is of a particular class. Since the conditions are always expressed in terms of role names, they can be used to state cross-dependencies between roles. It can be seen that these rules are sufficiently powerful to be able, in the limit, to ensure that some translation is always obtained, thus avoiding the situation where processing is held up because some sub-part has not achieved an interpretation. Of course, as Sondheimer/Weischedel/ Bobrow point out, even with the introduction of quite powerful mechanisms ( there are others, too, which have been omitted fom the cursory description given here), there remain problems specific to the particular technique, such as that of providing a robust treatment of unknown words. But the main difficulty with such approaches is more general: se-

VIII. Computer Simulation of Language II: System Components

mantic interpretation is tied very closely to syntactic representation, in the limit being a straightforward projection of it. Although syntactic analysis may well be a useful starting point for semantic interpretation, so intimate a link between the two may put undesirably strong constraints on the final semantic representation.

11. Formal Logic As we mentioned in the introduction, the history of formal logic ( usually first order predicate calculus, FOPC) as a semantic representation language is rather curious. In the early days of work in AI, logic was used very heavily, especially in work based on theorem proving. Then, a quite strong anti-logic movement appeared: Charniak ( 1976), for example, criticises FOPC strongly and he is representative there of many others. ( We shall return to some of the criticisms in the discussion section.) More recently, perhaps as a result of the growing realisation that a semantic representation language must itself have a clear and well-defined semantics, and with efficient implementation of programming languages based on FOPC, such as PROLOG, attention has turned again to the use of logic as a semantic representation scheme. ( In fairness, it should be pointed out that there were those who believed all along that many of the attacks on FOPC were ill-founded: see, for example, Hayes ( 1974; 1980)). As an example of a logic based system, let us consider Simmons ( 1982). The general approach is to construct a schema according to which the sentences of a particular kind of narrative text can be organised into an outline form. The example given is a flight schema, which could be used variously for rockets taking off, for bees flying or for flying boats. The schema is then programmed as a set of Horn clauses ( a restricted subset of FOPC). This gives a hierarchical set of conditional assertions; the top two levels of the set are shown very informally below: A FLIGHT of (x) occurs: IF there is a FLIGHTSYSTEM about ( x) AND an ASCENT of (x) A FLIGHTSYSTEM is described in a sentence: IF the FOCUS of the sentence is an instance of (x) AND (x) can fly AND the verb of the sentence is an ins-

34.  Simulation of Language Understanding: Semantic Models andSemantic Interpretation

tance of POSITION, WEIGHT, or SUPPORT AN ASCENT of (x) occurs: IF the FOCUS of the sentence is an instance of the (x) AND the verb is an instance of RISE ( x) is a variable whose value is the focus of the first sentence in the text. The condition ’( x) can fly’ is satisfied by matching the assertions ’ROCKET CAN FLY’ ’HONEYBEE CAN FLY’ etc. ( The reader will recognize a similarity between the ( partial) scheme above and what we earlier referred to as ’frames used as text grammars’.) The sentences of the input text are first analyzed into a case relation representation. As a simplified example, the two sentences A V-2 rocket stood in the desert. For f uel it carriied eight tons of alcohol and liquid oxygen would be parsed into the following abbreviated case relations ( STAND AE ( ROCKET TYPE V-2 ...) LOC (DESERT ...)) ( CARRY INSTR IT PU ( FUEL PREP FOR) AE (ALCOHOL ...)) where AE stands for affected entity, LOC for location, INSTR for instrument, PU for purpose and PREP for preposition. Instantiating the schema is done by passing the list of parsed sentences to the top level assertion, FLIGHT, and trying to prove that assertion by the antecedents, FLIGHTSYSTEM and ASCENT. These in their turn are proved, this involving proof of other assertions. During the proof procedure, certain assertions will examine the parsed version of the sentences, and remove them, on success, from the list of sentences. The proof procedure finishes when no more assertions need proving and when no more text remains to be inspected. The result will be a structured set of assertions about a particular flight event, which can then be used as the basis for providing a summary of the text or answering questions. One of the problems most frequently pointed out about FOPC is what it is not possible to express in it. Thus, Colmerauer ( 1982) argues that, in order to express quite common features of natural language, properties must be allowed to apply to sets rather than to individuals. This is a harmless extension, given that an individual can always be treated as a singleton set. The other extension Colmerauer proposes, the use of three truth values rather than two, is considerably more radical. King ( 1977) discusses the problem of presupposition ( which Col-

459

merauer uses to argue for three truth values) and some of the problems of a three-valued logic. However, these are rather minor problems when one thinks that most texts do not talk about knowledge, but about beliefs, intentions and modalities. These are aspects of language notoriously difficult to represent in a formal calculus. ( It was considerations like these which led Minsky ( 1981) to attack logic representations very strongly if they were considered as models of the mind.) Similarly, many texts require a notion of temporality, again a notorious problem for first-order logics. On the technical side, logic based systems tend to be difficult to control. FOPC itself contains no mechanisms to guide a search for the particular facts needed to prove particular assertions. Over a large knowledge base, this can rapidly lead to damaging combinatorial explosion. This question, and the question of how much FOPC can be thought of as a semantic representation language rather than as a pure inferencing mechanism, is discussed at length in Charniak (1976).

12. Conclusion This chapter, very sketchily, has tried to introduce a variety of different semantic representations and to show how they are used within computational systems aimed at understanding natural language. The discussion has shown that there is no ideal perfect solution. It has often been difficult to separate out individual issues: apologies should go to those who have been misrepresented either through enforced brevity or by the attempt to talk about one thing at a time. Acknowledgement Whilst writing this I became conscious of how much I have learnt over the years from Yorick Wilks who first introduced me to the problems of semantics within the computational paradigm. Whilst I am sure that the quality of the chapter does not adequately reflect the quality of his instruction, I nonetheless wish to record my thanks.

13. Literature (selected) J. D. Becker 1975 · W. S. Bennet/J. Slocum 1985 · D. Bolinger 1975 · R. J. Brachman 1978 a · R. J. Brachman 1978 b · R. J. Brachman 1979 · R. J. Brachmann/H. J. Levesque ( eds.) 1985 · R. Brachman/J. Schmolze ( eds.) 1982 · J. Bresnan ( ed.) 1982 · R. R. Burton 1976 · E. Charniak 1976 · E. Charniak/Y. Wilks ( eds.) 1976 · N. Chomsky

VIII. Computer Simulation of Language II: System Components

460

1981a · K. L. Clark/S. A. Tärnlund ( eds.) 1982 · K. Colby 1975 · A. M. Collins/M. R. Quillian 1969 · A. Colmerauer 1982a · G. de Jong 1979a · N. G. Dyer 1983 · J. A. Feldman/D. Ballard 1982 · C. J. Fillmore 1968 · N. V. Findler ( ed.) 1979 · P. J. Hayes 1976 · P. J. Hayes 1980 · P. Hayes 1974 · R. Jackendorff 1983 · J. J. Katz/J. A. Fodor 1963 · M. King 1977 · M. King ( ed.) 1983 · M. King ( ed.) 1987 · M. King/S. Perschke 1987 · D. Metzing ( ed.) 1980 · M. Minsky 1981 · R. Montague 1968 · M. Nagao/J. I. Tsujii/J. I. Nakamura 1985 · M. R. Quillian 1967 · C. K. Riesbeck 1975 · G. D. Ritchie 1978 a · G. D. Ritchie 1978 b · G. D. Ritchie 1980 · G. D. Ritchie 1983 a · R. C. Schank ( ed.) 1975 · R.

C. Schank 1982 a · R. C. Schank/R. Abelson 1977 · R. C. Schank/K. M. Colby ( eds.) 1973 · R. C. Schank/C. J. Rieger 1974 · R. F. Simmons 1982 · S. Small 1983 · H. L. Somers 1986 · N. K. Sondheimer/R. M. Weischedel/R. J. Bobrow 1984 · R. Wilensky/Y. Arens 1980 · Y. Wilks 1973 · Y. Wilks 1975 d · Y. Wilks 1975 e · Y. Wilks 1976 b · Y. Wilks 1977 b · Y. Wilks 1977 a · Y. Wilks 1978b · Y. Wilks 1983 a · T. Winograd 1972 · T. Winograd 1973 · W. A. Woods 1975 b · W. A. Woods/ M. Bates/G. Brown/B. et al. 1976 · A. Zampolli (ed.) 1977

Margaret King, Geneva (Switzerland)

35. Inferenzen in sprachverstehenden Systemen 1. 2. 3. 4. 5. 6.

1.

Einleitung Inferenz Inferenzen in Frage-Antwort-Systemen Inferenzen in Textverstehens-Systemen Simulation von Inferenzprozessen Literatur (in Auswahl)

Einleitung

In der Künstlichen Intelligenz wie in der Computerlinguistik ist es inzwischen gängiger Brauch, von einem operationalisierten Begriff von Sprachverstehen auszugehen. Dieser operationalisierte Sprachverstehensbegriff kann durchaus verschiedene Ausprägungen aufweisen; etwa: ein System versteht Sprache dann, wenn es einen Text einer Quellsprache Q in eine Zielsprache Z zu übersetzen in der Lage ist; ein System versteht sprachliche Eingaben dann, wenn es in der Lage ist, die natürlichsprachlich formulierten Eingaben als Aufforderungen zu interpretieren und in entsprechende Handlungen zu überführen ( z. B. im Rahmen der Steuerung von Handhabungssystemen); ein System versteht sprachliche Äußerungen dann, wenn es sie paraphrasieren und/oder komprimieren kann; ein System versteht sprachliche Äußerungen dann, wenn es Fragen über ein Sachgebiet oder einen Text zu beantworten in der Lage ist; ein System versteht sprachliche Äußerungen dann, wenn es in der Lage ist, aus einer Menge möglicher Reaktionen die kommunikativ-adäquate auszuwählen ( vgl. Wahlster 1982 b, 207). Was nun diesen verschiedenen Ausprägungen des operationalisierten Sprachverstehens-Be-

griffs zugrunde liegt, haben Charniak/ McDermott ( 1985, 555) auf den Punkt gebracht: ’the principal component of understanding is the extraction of as many correct and usef ul inf erences as possible from an utterance or text’ [’der Hauptteil des Verstehens besteht darin, so viele korrekte und nützliche Schlüsse als möglich aus einer Äußerung oder aus einem Text zu erzielen’] und sofort eingestanden, daß es derzeit schwer, wenn nicht unmöglich ist, in einem strengen Sinne anzugeben, was ’korrekt’ und ’nützlich’ in diesem Zusammenhang heißen soll. Der gegenwärtige Stand der Kunst findet seine Widerspiegelung in diesem Artikel mindestens insofern, als die Problematik der Inferenz in sprachverstehenden Systemen weder in vollständiger Breite noch in wünschenswerter Tiefe behandelt werden kann. Dementsprechend werden nach einer versuchsweise systematischen Darstellung der Verwendungsweisen des Begriffs Inferenz zwei Bereiche von Sprachverstehenssystemen in bezug auf ihre Behandlung bzw. Einbeziehung von Inferenzen betrachtet werden, nämlich Frage-Antwort-Systeme ( FAS) einerseits und Textverstehenssysteme ( TVS) andererseits. Diese beiden Klassen von Systemen illustrieren nämlich ein sehr unterschiedliches Umgehen mit Inferenzen — sowohl was das Erkenntnisinteresse als auch die eingesetzten Methoden angeht. FAS funktionieren in der Regel als Auskunftssysteme über ein mehr oder minder komplexes Sachgebiet. Die Beantwortung einer Frage eines Benutzers an das FAS reduziert sich — vergröbert — auf das Auffinden von bereits vorhandener Information, die eine Antwort

35.  Inferenzen in sprachverstehenden Systemen

461

auf die Frage darstellt, oder auf das Erzeugen ’neuer’ Information aus vorhandener Information, um eine Antwort auf die Frage geben zu können. Bei diesem Prozeß der Explizierung impliziter Information kann man immer auf aus der mathematischen Logik wohlbekannte deduktive Schlußregeln ( Inferenzen) zurückgreifen und ist ’nur’ gezwungen, die Fakten und Verhältnisse des Sachgebiets in Form von sog. nicht-logischen Axiomen und/oder Regeln im Rahmen eines logischen Kalküls zu modellieren und zu formulieren. Für TVS reicht dieser Ansatz allem Anschein nach nicht aus, bzw. er wird als dem menschlichen Verstehen inadäquat betrachtet ( Johnson-Laird 1983, 41). Der Schwerpunkt liegt hier auf Schlußfolgerungen auf der Basis von unvollständigem Wissen, die nur präsumptiv oder plausibel sind, und sich deshalb — in Abhängigkeit von dem fortschreitenden Verstehensprozeß — als irrig herausstellen können und folglich rücknehmbar sein müssen. Man kann Textverstehen als einen Spezialfall von common sense reasoning sehen ( vgl. Winograd 1980, 5 f.), und wenn man das tut, ist der Unterschied zu FAS deutlich. Wenn hier FAS und TVS pointiert einander gegenübergestellt werden, so hat dies nur den Zweck, die Typik von Inferenzen in sprachverstehenden Systemen herauszuarbeiten. Es soll damit keineswegs behauptet werden, daß es keinerlei Beziehungen und Übergänge zwischen diesen beiden Klassen von sprachverstehenden Systemen gäbe.

(Deduktion:)

2.

(Abduktion:)

Inferenz

Ganz allgemein gesprochen versteht man unter Inf erenz ( Folgerung; in Zeichen: =) die Beziehung zwischen den Inhalten einer Menge von Aussagen einerseits und dem Inhalt einer Aussage andererseits. Formal ausgedrückt: {A1, A2, ..., An} = An + 1 Mit welchen Mitteln die Inhalte jeweils formuliert sind, d. h. ob sie mittels natürlicher oder künstlicher Sprache dargestellt sind, ist dabei sekundär. Die verschiedenen Folgerungsbegriffe lassen sich grob unterscheiden nach Umfang und Qualität der hinter Ai verborgenen Beschreibung einerseits und nach dem semantischen Typus der Folgerung selbst andererseits. Mit ’Umfang’ ist das Problem angesprochen, ob Wissen vollständig oder unvollständig beschrieben ist, mit ’Qualität’ das Problem, ob das beschriebene Wissen konsistent

oder inkonsistent ist oder aber sicher oder unsicher oder aber eindeutig oder vage. Aus diesen Fallunterscheidungen läßt sich ablesen, daß die Geltung/der Wert des Ergebnisses einer Folgerung entscheidend beeinflußt wird von Umfang und Qualität des Wissens, über dem Folgerungen durchgeführt werden. Die Semantik des Folgerungsbegriffs selbst ist typisierbar danach, ob mit der Folgerung eine Kausalbeziehnung, eine zeitliche Beziehung, eine Ableitbarkeitsbeziehung u. ä. ausgedrückt werden soll. Daneben findet sich eine andere Systematisierung, die die Art der Kombination der drei Glieder, die im klassischen Syllogismus aristotelischer Tradition auftreten, berücksichtigt. Diese drei Glieder sind nach Charles S. Peirce ( vgl. Braun/Rademacher 1978, 13): ein genereller Satz G, eine Spezialisierung S und ein Resultat R. Die daraus zu bildenden Kombinationen sind: 1. Inferenztyp: G . S ∴ R 2. Inferenztyp: S . R ∴ S 3. Inferenztyp: R . G ∴ S Dem. 1. Inferenztyp entspricht die Deduktion, dem 2. Inferenztyp die Induktion, dem 3. Inferenztyp die Abduktion. Gemeinhin werden Induktion und Abduktion als synthetisch, Deduktion als analytisch charakterisiert. Diese drei Inferenztypen lassen sich durch folgende Inferenzschemata und Beispiele illustrieren:

(Induktion:) (Deduktion:) (Abduktion:) (Induktion:)

G:a→b S:a R:b R:b G:a→b S:a R:b G:a→b x M(x) → S(x) M(sokrates) S(sokrates) S(sokrates) x M(x) → S(x) M(sokrates) M(sokrates) S(sokrates) x M(x) → S(x)

Umgangssprachlich den Reihenfolge: (Deduktion:)

in

der

entsprechen-

Alle Menschen sind sterblich. Sokrates ist ein Mensch. Also ist Sokrates sterblich.

VIII. Computer Simulation of Language II: System Components

462

(Abduktion:)

(Induktion:)

Sokrates ist sterblich. Alle Menschen sind sterblich. Also ist Sokrates ein Mensch. Sokrates ist ein Mensch. Sokrates ist sterblich. Also sind alle Menschen sterblich.

Für die Deduktion gilt nun: sind die beiden Prämissen wahr, so ist auch die Konklusion wahr ( vorausgesetzt natürlich, daß die Inferenzregel — hier: modus ponens — korrekt angewendet wurde). Diese Eigenschaft trifft nun auf Abduktion und Induktion keinesfalls zu. Dies ist aus dem angegebenen Beispiel für den Induktionsfall offensichtlich; für den Abduktionsfall ist es aus der Form des generellen Satzes herleitbar. Die Konklusion wäre nur dann allgemeingültig, wenn der generelle Satz die Form einer Äquivalenz, nicht die einer Implikation hätte. Deduktive Inferenzen sind also wahrheitswerterhaltend; in diesem Sinne sind sie legale Inferenzen — im Gegensatz zu abduktiven und induktiven Inferenzen. Abduktion und Induktion lassen falsche Schlüsse zu, auch für die Fälle, in denen die in ihnen benutzten Prämissen wahr sind, d. h. ( verschärft): unabhängig von Wahr- oder Falschheit der Prämissen. Deduktiv erzielte Schlüsse sind unter dem Gesichtspunkt der truth-maintenance zwar sicher, unter dem Gesichtspunkt der Erzeugung ’neuer’ Information hingegen trivial ( da analytisch). Mit Hilfe deduktiver Inferenzen läßt sich bestenfalls implizite Information explizieren. Induktiv oder abduktiv gewonnene Schlüsse sind unter dem Aspekt der truthmaintenance unsicher, unter dem Aspekt der Erzeugung ’neuer’ Information hingegen interessant ( da synthetisch). Mit Hilfe induktiver oder abduktiver Inferenzen läßt sich ’neue’, d. h. noch nicht vorhandene Information einführen. Im Falle von Induktionsschlüssen spricht man deshalb auch von Erweiterungsschlüssen. In allen drei Inferenztypen spielt der generelle Satz G eine jeweils besondere Rolle. Die deduktive Logik beschäftigt sich nicht mit dem Problem, unter welchen Umständen die Prämissen wahr sind, sie ist vielmehr eine widerspruchsfreie und vollständige Theorie gültiger deduktiver Schlußregeln, die auf der Wahrheit der Prämissen und Korrektheit der Schlußregeln basiert und auf diese Weise — vereinfacht gesagt — den semantischen Be-

griff der Folgerung ( ) auf den syntaktischen Begriff der Ableitbarkeit ( ) zurückführt ( vgl. Bibel 1985, 5). Das Problem, wann es gerechtfertigt ist, eine Aussage als generellen Satz in seiner Funktion als Prämisse in eine deduktive Inferenz einzuführen und unter welchen Bedingungen der Inhalt dieser Prämisse wahr ist, liegt außerhalb des deduktiven Kalküls als Theorie, ist Gegenstand einer Metatheorie ( vgl. Habel 1983, 139 f.). Der Geltungsbereich sog. genereller Sätze ist dann über die ( semantische) Interpretation bezüglich eines Individuenbereichs, einer Welt U, anzugeben. Sei A ein Kandidat eines generellen Satzes, dann heißt A erf üllbar genau dann, wenn es eine Interpretation U gibt, so daß U( A) wahr ist. Sei A ein Kandidat eines generellen Satzes, dann heißt A allgemeingültig genau dann, wenn für jede Interpretation U gilt, daß U( A) wahr ist ( vgl. Schneider/Eimermacher/Günther et al. 1981, 64). Daraus läßt sich zweierlei ablesen. Zum ersten: das Wahrsein eines generellen Satzes ist relativ zu sehen zu U. Zum zweiten: allgemeingültig ist die stärkere Aussage bezüglich eines generellen Satzes, da das Prädikat sich auf alle U bezieht. Weder die Theorie noch die Metatheorie der deduktiven Logik beschäftigt sich mit dem Phänomen, auf welche Weise generelle Sätze entstehen. Im alltäglichen Leben entstehen derartige Sätze meist über Beobachtungen von Ereignissen und deren zeitlichen Zusammenhang. Die Häufigkeit wiederkehrender Ereignisfolgen führt einmal zu einer bestimmten Interpretation der Konnexion eigentlich nur zeitlich zusammenhängender Erscheinungen, in dem Sinne, daß die Aufeinanderfolge von Ereignissen ( Beispiel: E1 = ’Peter raucht’, E2 = ’Peter hustet’) nicht zufällig ist und daß aus den zugehörigen Protokollsätzen Peter raucht und Peter hustet die Beschreibung einer Kausalbeziehung (Peter hustet, weil er raucht) konstruiert wird; sie führt zum zweiten zu einer Generalisierung (Wer raucht, hustet) aufgrund von Beobachtungen wie ’Hans raucht und Hans hustet’, ‚Ilona raucht und Ilona hustet’, ... Solche generellen Sätze können nun wieder im Rahmen einer Abduktion als Erklärung für z. B. Erwins Husten benutzt werden, gerade dann, wenn Erwin nicht beim Rauchen beobachtet wird. Bestätigt sich nun im nachhinein, daß Erwin Raucher ist, ist damit nicht nur — ebenfalls im nachhinein — gerechtfertigt, gerade diesen generellen Satz (Wer raucht, hustet) als Prämisse ins abduktive Inferenz-

35.  Inferenzen in sprachverstehenden Systemen

schema eingeführt zu haben und keinen anderen ( wie: Wer Grippe hat, hustet), sondern auch der — durch Induktion gewonnene — generelle Satz selbst (Wer raucht, hustet) ist ein weiteres Mal praktisch bestätigt, seine ’Generalität’ erhärtet worden. Die Tatsache, daß der in einem abduktiven Inferenzschema ( als zweite Prämisse) benutzte generelle Satz nicht die Erklärung für die erste Prämisse sein muß, macht deutlich, daß die Abduktion selbst kein allgemeingültiges Schlußschema ist, sondern daß der in ihr benutzte generelle Satz in einer Indiz- oder Hinweisrelation zur anderen Prämisse steht. Ein weiterer Aspekt der Problematik genereller Satz stellt sich ein, wenn sich herausstellt, daß die Formulierung dieses Satzes eine All-Aussage suggeriert, während es sich bei näherer Betrachtung erweist, daß es sich um etwas handelt, was typischerweise oder meist der Fall ist ( vgl. dazu Habel 1983, 127). Die Einbeziehung solcher Sätze im Rahmen einer deduktiven Inferenz führt zu Schwierigkeiten, wenn sich herausstellt, daß Manfred zwar Raucher ist, aber nicht hustet. Derartige Sätze lassen sich in normalen monotonen Logiken nicht bzw. nur inadäquat behandeln. Sie verletzen die Monotonie-Eigenschaft bzgl. der Prädikatenlogik 1. Stufe (PL1S): Bezeichne A eine Menge von Sätzen und B eine zweite Menge von Sätzen, sei s ein weiterer Satz. Falls A \E163 s, gilt auch: A ⋃ B \E163 s. Wenn man nun diese Eigenschaft unter dem Aspekt dessen, was mit den Sätzen an semantisch-pragmatischem Gehalt ( Information) transportiert wird, interpretiert, so ergibt sich aus dieser Monotonie-Eigenschaft, daß aus A abgeleitete Information, also s, aufgrund hinzugenommener Information, nämlich B, nicht revidiert wird. Seien A1: x R(x) → H(x) A2: R(manfred) A3:  H(manfred) drei Axiome (im Rahmen einer PL1S) und DIR: p → q, p \E163 q eine deduktive Inferenzregel im Rahmen eines Systems U1, dann ist U1 widersprüchlich, da aus A1 und A2 mit Hilfe von DIR das in Widerspruch zu A3 stehende T1: H(manfred) abgeleitet werden kann. Seien nur A1 und A2 die Axiome zusammen mir DIR im Rahmen eines Systems U2, so wird dieses System widersprüchlich ( und verliert dann die Mono-

463

tonie-Eigenschaft), wenn A3 hinzugenommen wird. Die Beobachtung, daß A1 und entsprechende Darstellungen für analoge Sätze ( wie Vögel können f liegen) keine adäquate Darstellung eines ( pseudo-)generellen Satzes ist, haben in den letzten Jahren zur Entwicklung von nicht-monotonen Logiken ( vgl. dazu Habel 1983 und Bibel 1985 mit Verweisen auf die Originalarbeiten) mit unterschiedlichen Lösungsansätzen geführt, etwa mittels negation as f ailure ( dabei wird der generelle Satz in Form einer Regel-und-Ausnahme-Regel dargestellt) oder mittels circumscription (dabei wird die Aussage des generellen Satzes mit Hilfe eines Ausnahme-Prädikats formuliert, das auf die die Ausnahme betreffenden Eigenschaften eines Individuums angewendet wird) oder modallogisch ( die ’Generalität’ wird durch den Möglichkeitsoperator ausgedrückt) oder mit Hilfe der f uzzy logic ( der All-Quantor wird z. B. durch einen M( eist)-Quantor ersetzt) oder mittels reasoning by def ault ( die Pseudo-Generalität wird durch eine default-Regel erfaßt, in der ein M-Operator zu interpretieren ist als ’es ist konsistent zum vorhandenen Wissen anzunehmen, daß ...’, also als eine Standardannahme, die die Voraussetzung dafür darstellt, daß vorhandene und als zutreffend bewertete Information aufgrund neu hinzukommender Information zurückgenommen werden kann, wenn die neue Information in Widerspruch zu angenommener ’alter’ Information gerät). Alle diese Ansätze haben Vor- und Nachteile bzgl. der Adäquatheit der Darstellung des Inhalts des generellen Satzes und bzgl. des Typs von Logik bzw. der Eigenschaften des LogikTyps, den sie zur Konsequenz haben ( vgl. Habel 1983, 138). Sie decken aber allesamt auf, daß die Inferenz-Problematik in engem Zusammenhang mit der Auswahl des Repräsentationsformalismus steht. Darüber hinaus hat die logic for default reasoning noch mindestens die folgenden bemerkenswerten Aspekte, die hier kurz genannt seien, weil sie den Unterschied zu klassischen Logiken gut illustrieren: die im Rahmen dieser Logik abgeleiteten Sätze haben den Status geglaubter Inf ormation, sie müssen also vor allem zurücknehmbar sein; M ist ein ’kontextabhängiger Operator’, denn M bezieht sich auf Zustände von U. ’Man beachte, daß in klassischen logischen Systemen ein Begriff wie ’die Menge der gegenwärtig abgeleiteten Theoreme’ keine sinnvolle Anwen-

464

dung finden kann. ( Dort sind die ableitbaren Theoreme von Interesse.).’ (Habel 1983, 133) An dieser Stelle ist festzuhalten: der in einem logischen Schlußschema benutzte generelle Satz G ( im Sinne von Peirce) ist generell, relativ zu den beiden anderen Sätzen des jeweiligen Schlußschemas. Die Generalität eines derartigen Satzes ist also nicht zu verwechseln mit der Vollständigkeit und/oder Exaktheit des darin ausgedrückten Wissens noch mit der Eindeutigkeit und/oder maximalen Präzision der Beschreibung dieses Wissens im Rahmen dieses Satzes noch mit der Gültigkeit bzgl. U oder gar seiner Allgemeingültigkeit. Zu Beginn dieses Abschnitts wurde unterschieden zwischen Inferenztyp ( Deduktion, Induktion, Abduktion) und Inferenzschema ( in den Beispielen wurden nur Schemata mit zwei Prämissen und einer Konklusion benutzt). Eine weitere Betrachtungsweise sieht den generellen Satz unabhängig von seiner Verwendungsweise in den drei verschiedenen Inferenztypen und interpretiert ihn als Inferenzregel. Eine Inferenzregel ist dann dadurch gekennzeichnet, daß sie als offene Formel formuliert ist. Werden die Variablen der offenen Formel durch Konstanten substituiert, entsteht eine geschlossene Formel; das aus dem Vorgang der Substitution resultierende Ergebnis wird dann Inf erenz genannt (Habel 1982 a, 10 f.) Der Unterschied zwischen Inferenzregel und Inferenz sei am Beispiel eines berühmten meaning-postulate verdeutlicht: Inferenzregel: Junggeselle (x) → Unverheiratet (x) Substitution: x = udo Inferenz: Junggeselle (udo) → Unverheiratet (udo) Für diese Art von Inferenzregeln kann nun festgelegt werden, daß es sich bei der mit ’→’ bezeichneten Beziehung um eine Relation zwischen zwei Prädikatsbegriffen ( ’Junggeselle’, ’Unverheiratet’), also um conceptual entailment handelt, wohingegen mit ’→’ in der Inferenz eine Beziehung zwischen Fakten beschrieben wird. Habel ( 1982 a, 11; 1984 a, 16) notiert deshalb diesen Unterschied durch Junggeselle (x)  Unverheiratet (x) Junggeselle (udo)  Unverheiratet (udo) Andere Arten von Inferenzregeln sind z. B. Gesetze, Konventionen, die ’ist-einTyp’-Relation. Durch die Untersuchung dieser Arten von Inferenzregeln gelangt man nun nicht nur zu einer näheren inhaltlichen Charakterisierung dieser Regeln, sondern

VIII. Computer Simulation of Language II: System Components

auch wiederum zu einer Typisierung der generellen Sätze hinsichtlich ihrer Generalität. So läßt sich etwa aus den beiden folgenden Regelschemata bzgl. Transitivität bzw. Konversität p(x, y) ⋀ p(y, z)  p(x, z), falls TRANS (p) und p(x, y)  q(y, x), falls CONV (p, q) eine meta-conceptual-entailment-Regel TRANS (p) ⋀ CONV (p, q) M TRANS (p) bilden ( vgl. Habel, 1984 a, 18; zu weiteren Beispielen vgl. Habel/Rollinger 1981, 91 f.).

3.

Inferenzen in Frage-AntwortSystemen

Welche Arten von Schlußfolgerungen und Annahmen im Rahmen von Frage-AntwortSystemen ( FAS) zu berücksichtigen sind, hängt entscheidend von den Forderungen ab, die an ein FAS gestellt werden. Da der Terminus FAS in der Literatur alles andere als einheitlich gebraucht wird, sei eine für den Zweck dieses Abschnitts dienliche Festlegung getroffen. Unter FAS sei ein natürlichsprachliches Informationssystem ( NIS) ( Wahlster 1982 b, 206) verstanden, das dem Benutzer vorrangig den Frage-/Aufforderungs-Modus und dem System vorrangig den Antwort-Modus zuweist und das keinen Initiativewechsel erlaubt/vorsieht; damit ist ein FAS abgegrenzt gegen ein natürlichsprachliches Dialogsystem, das eben durch die ’Fähigkeit’ zum Initiativewechsel gekennzeichnet ist. Ein FAS hat — wie andere natürlichsprachliche Systeme auch — den Bedingungen der Kooperativität zu genügen, d. h., es hat die Eigenschaften der natürlichen Sprache im kommunikativen Gebrauch unter dem Postulat, kooperativ zu sein, zu berücksichtigen und konsequenterweise so weit als nur möglich zu modellieren ( vgl. Kaplan 1983, 205). FAS sind in der Regeln aufgaben-orientiert und vollständig benutzer-orientiert ( vgl. Berry-Rogghe/Kolvenbach/Lutz 1980, 140) und als Auskunftssysteme in das Frage-Antwort-Spiel ’Informationssuche’ eingebunden. Darüber hinaus sei hier nur der Fall betrachtet, daß es im Rahmen der Informationssuche um Fakten-Retrieval geht. Daraus läßt sich bereits ablesen, daß es bei FAS dieser Auslegung nicht um Sprachverstehen im umfassenden Sinne gehen kann, sondern vordringlich nur um Frage-Verste-

35.  Inferenzen in sprachverstehenden Systemen

hen. Bezüglich des kommunikativen Aspekts der Kooperativität heißt dies vor allem, daß ein FAS die impliziten Annahmen eines fragenden Benutzer zu erschließen, zu inferieren hat, um nicht nur logisch korrekte, sondern pragmatisch sinnvolle und auch kommunikativ adäquate Antworten zu produzieren ( vgl. zu den möglichen Abstufungen etwa Wahlster 1981, 137—144). Einer Frage zugrundeliegende Annahmen reichen von Existenzpräsuppositionen bzgl. Entitäten über logisch präsupponierte Aussagen bis zu logisch erforderten Aussagen ( entailment als schwächere Form der logischen Präsupposition) und zu pragmatischen Präsumptionen ( vgl. BerryRogghe/Kolvenbach/Lutz 1980, 148 ff.). Bestimmte Annahmen des Benutzers lassen sich an der Frage-’Oberfläche’ ablesen ( definite Nominalphrasen z. B. setzen im Kontext eines kooperativen Frage-Antwort-Spiels bezogen auf Fakten die Existenz der mit der Nominalphrase bezeichneten Entität( en) voraus, bestimmte Verbsubklassen sind implikativ im Sinne von logical entailment), pragmatische Präsumptionen lassen sich dagegen in der Regel nicht an der Oberfläche einer Frageformulierung festmachen, sie sind verankert in dem Weltwissen, das in der Wissensbasis des FAS dargestellt ist und bezüglich dessen es zum Konflikt mit dem Weltwissen des Fragers kommen kann. Ausgehend von dem Kooperativitätspostulat und der daraus abgeleiteten Forderung, daß die mit einer Frage notwendigerweise transportierten Annahmen aufzudekken sind, lassen sich nun Antwort-Typen aufstellen, die auf die Gültigkeit der in der Frage vorhandenen Annahmen in bezug auf die Wissensbasis des FAS rekurrieren. Direkte Antworten sind dann möglich, wenn alle in der Frage implizit vorhandenen Annahmen bezüglich des Wissens des FAS zutreffen; indirekte Antworten sind dann nötig, wenn der Frager Annahmen gemacht hat, die bzgl. des Weltwissens des FAS nicht zutreffen. Je nach Typus der Präsumptionsverletzung wird es sich um ( indirekte) korrigierende oder ( indirekte) empfehlende Antworten handeln ( vgl. Berry-Rogghe/Kolvenbach/Lutz 1980, 194 f.; Kaplan 1983, 180—187). Bei der Analyse der Präsumptionsverletzungen zeigt sich — als Nebeneffekt —, daß sich bei einem FAS der vorgenommenen Auslegung die Behandlung der Annahmen einschränken läßt auf Präsupposition und pragmatische Präsumption ( zur Begründung vgl. BerryRogghe/Kolvenbach/Lutz 1980, 150).

465

Die Notwendigkeit, implizite Annahmen aufzudecken und ihre Gültigkeit anhand der Wissensbasis des FAS überprüfen zu müssen, um ein kooperatives Antwort-Verhalten des FAS zu gewährleisten, hat zur Folge, daß Benutzerfragen in einer Art und Weise repräsentiert werden müssen, die diese Überprüfung mit der jeweils adäquaten Konsequenz überhaupt zulassen. Interpretiert man eine Frage nach einer Information x an ein FAS als äquivalent zu der Aufforderung an das FAS, eine Formel F, die x repräsentiert, mittels der Wissensbasis des FAS zu beweisen, so kommt der Inferenztyp der Deduktion ins Spiel. FAS, die eine Frage des Benutzers in dieser Weise interpretieren, heißen deshalb auch deduktive FAS. Aus diesem Blickwinkel lassen sich nun drei Inferenzregel-Mengen in einem FAS unterscheiden, die verschiedene Funktionen im Frage-Beantwortungsbzw. Beweisprozeß übernehmen: syntaktische Inf erenzregeln (logische Axiome, deduktiv-logische, also wahrheitswert-erhaltende Umformungsregeln wie modus-ponens-Regel, Substitutionsregel, d. h. generelle Sätze bzgl. der Ableitbarkeit), semantische f In erenzregeln (nicht-logische Axiome bzw. nicht-logische Regeln, die auch generelle Sätze sein können — wie etwa meaning postulates ( für nominale wie prädikative Konzepte, vgl. Habel, 1985 a, 455 ff.) —, nun aber in dem Sinne, daß sie auf den ( Individuen-)Bereich eingeschränkt sind, innerhalb dessen das Informationssuche-Spiel stattfinden kann, also aufgaben-orientierte Regeln, u. a. zur Aufdeckung von Präsuppositionen; hierzu können auch die nicht-klassischen logischen Inferenzregeln für die Beziehungen zwischen den klassischen logischen Quantoren und den nicht-klassischen Quantifikationen bzw. Deskriptions-Operatoren ( vgl. Habel 1980, 103—106) gerechnet werden) und pragmatische In f erenzregeln ( nicht-logische Axiome bzw. nicht-logische Regeln zur Aufdeckung von pragmatischen Präsumptionen). Damit ist nun nicht gesagt, daß diese drei Regel-Mengen uniform behandelt werden ( müssen). So sind etwa die nichtlogischen Regeln für das System BACON ( Schneider/Eimermacher/Günther et al. 1981) in einem Inferenzlexikon ( deklarativ) abgelegt, während der implementierte Inferenzmechanismus eine ( prozedurale) Realisierung logischer Regeln ( hier im wesentlichen modus ponens und Substitution) darstellt. Wann im Verlaufe des Beantwortungsprozesses für eine Frage die einzelnen Infe-

466

renzregeln ins Spiel kommen, ist im wesentlichen abhängig vom Aufbau des FAS, dem zugrundeliegenden Repräsentationsformalismus und der Ausgestaltung des Überführungsprozesses von einer natürlichsprachlich formulierten Anfrage in eine interne Repräsentation ( vgl. dazu etwa Berry-Rogghe/Kolvenbach/Lutz 1980, 192 ff.). Es ist damit auch nichts gesagt über die Suchstrategie innerhalb des eigentlichen Beweisprozesses, also über das Problem, welche Prämissen aufgrund welcher Kriterien ( syntaktische Heuristiken, semantische Heuristiken u. ä.) ausgewählt werden, um die Formel F als gültige Konklusion anhand der Wissensbasis des FAS abzuleiten ( vgl. zu verschiedenen Möglichkeiten Berry-Rogghe/Kolvenbach/ Lutz 1980, 196 ff.; Klahr 1977; Klahr/Travis/Kellog 1980 mit weiterführender Literatur). Die zu Beginn dieses Abschnitts vorgenommene Auslegung eines FAS legt den Benutzer dahingehend fest, daß er an das FAS nur Fragen stellen kann. Diese Einschränkung läßt sich abmildern derart, daß dem Benutzer auch die Möglichkeit eingeräumt wird, Informationen/Fakten in Form von Aussagen an das FAS zu geben — ohne daß damit das hauptsächliche Charakteristikum ( kein Initiativewechsel zwischen Benutzer und FAS) aufgegeben würde. Mit dieser Erweiterung der Interaktionsmöglichkeiten von seiten des Benutzers entsteht nun aber eine Situation, die nicht mehr unter dem Aspekt der Kooperativität des FAS bezüglich der vom Benutzer gestellten Fragen behandelt werden kann. Die veränderte Situation drückt sich vielmehr darin aus, daß nun Fragen der Konsistenzerhaltung der Wissensbasis des FAS in den Vordergrund rücken und daß sich die Inferenzproblematik zu der Frage hin verschiebt, wann welche Inferenzen vom System vorgenommen werden sollen — zur read-time ( also dann, wenn der Benutzer Fakten eingibt, aus denen mit Hilfe von Inferenzregeln ’neue’, d. h. in der Wissensbasis des FAS noch nicht explizit abgelegte Fakten gefolgert werden können) oder zur question-time ( wenn der Benutzer eine Frage stellt, deren Beantwortung nur aufgrund von Fakten möglich ist, die mit Hilfe der Inferenzregeln aus den in der Wissensbasis des FAS vorhandenen Fakten gefolgert werden können). Der Inferenzprozeß, d. h. die Anwendung von Inferenzregeln auf eine Menge von ( Fakten repräsentierenden) Formeln, um eine weitere ( ein Faktum repräsen-

VIII. Computer Simulation of Language II: System Components

tierende) Formel ( oder Mengen derartiger Formeln) abzuleiten, verläuft ’zielgerichtet’ im Falle von question-time-inf erencing (die Formel, die die Informationsfrage des Benutzers darstellt, ist als aus der Wissensbasis ableitbar zu beweisen). Im Falle von read-timeinf erencing verläuft der Inferenzprozeß hingegen ’ziellos’, ’da alles Ableitbare auch abgeleitet wird’ ( Rollinger 1980, 126). In diesem Zusammenhang argumentiert Rollinger ( 1980) dafür, nur die Inferenzen zur readtime durchführen zu lassen, die sich mittels Inferenzregeln für nicht-negierte Bedeutungspostulate, für deontische Operatoren, für ’personenbezogene, Sachverhalte einbettende Operatoren’, für logische und nicht-negierte außerlogische Junktoren und für ’Tatsachen als Prämissen’ ( logical entailment) ziehen lassen, um ein schnelles Reagieren eines FAS zur question-time sicherzustellen und gleichzeitig die Konsistenzüberprüfungsmechanismen überschaubar zu halten.

4.

Inferenzen in TextverstehensSystemen

Textverstehende Systeme ( TVS) sind eine spezielle Ausprägung von natürlichsprachlichen ( Informations-)Systemen, die sich von FAS und Dialogsystemen insofern unterscheidet, als das Frage-Antwort-Spiel nur eine Möglichkeit des Testens der Verstehensleistung eines TVS ist, die kooperative Kommunikation also nicht der zentrale Aspekt eines TVS ist ( zur Beziehung natürlichsprachliche Systeme — TVS vgl. Habel 1982 b, 7). Die Aufgabe eines TVS besteht in der Aufdeckung und Repräsentation des Inhalts von Texten mit dem Ziel, aus Texten Wissensbasen aufzubauen und für die weitere Nutzung ( z. B. im Rahmen von Expertensystemen, im Rahmen von maschinellen Übersetzungssystemen) verfügbar zu machen. Der Aufbau von Wissensbasen aus Texten läßt sich als schrittweise Integration ( der Repräsentation) von Textteilen in eine bereits erzeugte Repräsentation von Textteilen, eine Teilrepräsentation des Textes, verstehen. Sowohl das Erstellen der Repräsentation eines Textteils wie die Einbindung von Textteil-Repräsentationen in eine existierende Teilrepräsentation des Textes muß auf Vorwissen zurückgreifen, und zwar auf generelles Weltwissen wie auf Diskurswissen, ’das sich auf den aktuell zu verarbeitenden Text bezieht’ ( Habel 1984 a, 21). Das Wissen eines TVS, das das Verstehen eines Textes durch einen Leser nachvollzie-

35.  Inferenzen in sprachverstehenden Systemen

hen soll, läßt sich differenzieren in sog. Objektwissen ( Wissen über Gegenstände und Personen in der Welt), sog. faktuelles Wissen ( Wissen, Annahmen über Sachverhalte, Zustände, Situationen und Ereignisse in der Welt) und sog. regelhaftes Wissen ( Wissen über regelhafte Beziehungen zwischen Objekten der Welt, zwischen Sachverhalten, Zuständen, Situationen, Ereignissen in der Welt u. ä.) ( vgl. Habel 1984 a, 19). Das regelhafte Wissen, das zwischen referentiellem ( d. h. Objekt-)Wissen und faktuellem Wissen vermittelt, läßt sich auch als inf erentielles Wissen bezeichnen. Gerade im Bereich des Textverstehens hat der deduktiv-logisch induzierte Begriff der Inferenz ( mit seiner Bedeutung ’wahrheitswert-erhaltende Umformung’) schon immer eine Ausweitung erfahren: zum einen in die Richtung von bewertenden Inf erenzen, um auch Phänomene unsicheren und partiell bzw. potentiell inkonsistenten Wissens und ihre Integration in die Wissensbasis behandeln zu können ( vgl. Wahlster 1981, 99 f.; Habel 1984 a, 20 f.; Rollinger 1984 b; Schmiedel 1984); zum anderen in die Richtung von expectation-driven reasoning ( im Bereich des story comprehension vor allem, vgl. dazu Charniak/McDermott 1985, 555 ff.). Im Rahmen dieses Ansatzes lassen sich Erwartungen, seien sie nun formuliert als frames ( die auf stereotype Objekte und ihre Verbindungen Bezug nehmen) oder als scripts (die stereotype Ereignisfolgen für bestimmte Episoden beschreiben) oder als plans ( die die Elemente zur Erreichung eines Ziels aufzeigen), als Erklärungen im Sinne des abduktiven Inferenztyps auffassen. Ein script etwa ist dann zu interpretieren als ein ’genereller Satz’ ( im Peirce’schen Sinne), ein Textteil als ein ’Resultat’ ( ebenfalls im Peirce’schen Sinne) und die aus den beiden Prämissen zu ziehende Konklusion als eine Spezialisierung der Art, daß nun ein ( teil-)instantiiertes script das Ergebnis der Abduktion darstellt. Ob nun die Verarbeitung eines Textes content-driven oder strategy-driven verläuft, in welchem Ausmaß intratextuelles bzw. extratextuelles Wissen herangezogen wird, ob prädiktive Inf erenzierung ( im Sinne von Plänen als Prädiktion von goals durch Vorausschau im Text) oder postdiktive Inf erenzen ( im Sinne der Verifizierung von goals durch Rückschau im Text) eingesetzt werden ( vgl. dazu Granger/ Eiselt/Holbrook 1983), dies sind Probleme der Strategie im Rahmen der Integration von new knowledge in given knowledge, die zur

467

Klassifizierung von TVS ( vgl. Habel 1984 b) und zur Klärung der Frage der Typisierung von Textverstehensstrategien beitragen. Gemeinsam ist diesen verschiedenen Ausprägungen aber immer der Inferenztyp der Abduktion ( vgl. Schank/Rieger 1974, 374 f.). Gemeinsam ist ihnen folglich auch, daß es sich bei dem jeweiligen ’generellen Satz’ immer um präsumptive, plausible Erklärungen ( Hypothesen) handelt, die aufgrund dieser Charakterisierung rücknehmbar sein müssen. Ein kruziales Problem in diesem Zusammenhang ist: Was geschieht, wenn sich Erwartungen/Erklärungen/Hypothesen als unzutreffen erweisen ( vgl. Granger 1980)? Der ursprüngliche Ansatz, dieses Problem nämlich zu umgehen, indem alle möglichen Inferenzen dieser Art als Ergebnis der Verarbeitung eines Textteils gezogen werden ( relativ unbeschränktes f oreward inf erencing: vgl. Rieger 1974, 384), wurde bald als unrealistisch erkannt und ersetzt durch den frame-Ansatz ( vgl. Charniak 1976, 150) und den script-Ansatz ( vgl. Schank 1982 a, 3) einerseits und durch den goal-Ansatz ( vgl. Wilenski 1983, 42) andererseits (vgl. Dyer 1983, 11—16) Eine andere Frage dabei ist, wieviel an sprachlichem Wissen in den Textverstehensprozeß eingehen soll ( und damit ist auch Wissen bzgl. Textorganisation gemeint, vgl. Quasthoff 1985, 216 ff.) und ob sich dieses Wissen nicht wieder als Regelwissen, nun hinsichtlich einer Textgrammatik etwa und der ’argumentativen Struktur’ von Texten bzw. Textsorten, formulieren läßt ( vgl. Rollinger 1983 b; Habel 1984 a, 23; Rollinger 1984 b; Dyer 1983, 16 f.), und zwar in einer Art und Weise, die die Ad-hoc-Behandlung von Erwartungen mit Bezug auf nicht-authentische stories zu überwinden zuläßt ( vgl. Habel 1984 b, 17 f.). Allerdings stellt sich auch hier das Repräsentationsproblem als der zentrale Punkt heraus, nicht nur im Hinblick auf die Formulierung von Inferenzregeln im Rahmen der Abduktion, sondern auch im Hinblick auf die Darstellung von Textteilen. Im Rahmen von TVS ist es unstreitig notwendig, der Teilklasse von semantischen Inf erenzregeln ( die im Rahmen von FAS der oben spezifizierten Auslegung vollständig ausgespart bleiben konnte), nämlich der Teilklasse der logical entailment beschreibenden Inferenzregeln, besondere Aufmerksamkeit zu schenken. Dabei geht es vor allem um die regelhafte Beschreibung von kausalen, temporalen, intentionalen, affektiven/emotiven

468

und ähnlichen Relationen auf der Basis von explizit an der Textoberfläche vorhandenen Indikatoren ( Satzverknüpfer, Einstellungswörter, Kausativa, Resultativa, implikative Verben u. ä.). Im Bereich der pragmatischen Inf erenzregeln sind einerseits notwendig textsorten-abhängige Relationsbeschreibungen, etwa vom Typ ’naive Meteorologie’ für Wettermeldungen ( vgl. Habel 1982 b, 7) oder ’naive Gemütskunde’ für Scheidungsberichte ( vgl. Dyer 1983, 103), andererseits aber auch Regeln, die die Beziehung Textproduzent — Textrezipient thematisieren ( bis hin zu Konversationsmaximen etwa Grice’scher Art wie ’principle of cooperation’, ’principle of politeness’, ’principle of being informative’), um die ( implizite) Kohärenz nicht explizit verknüpfter Textteile aufdecken zu können (vgl. Saluveer/Õim 1986, 151 ff.). Die letztgenannten Regeln ließen sich auch interpretieren als kommunikative Inf erenzregeln, zusammengefaßt als Stereotypik eines spezifischen Weltwissens, nämlich bezüglich des Umgangs mit Texten bzw. über Textproduzenten ( als einem ’Partnermodell’ eines TVS, vgl. Morik 1984, 262). In diesen Bereich des Kontrakts zwischen Textrezipient ( TVS) und Textproduzent ( Partnermodell des TVS) fallen auch Regeln zur referentiellen Analyse und Anaphernauflösung, die — bei Vorhandensein einer geeigneten Darstellungsmethode und -weise ( etwa in Form eines referentiellen Netzes, vgl. Habel 1984 c, 126 ff.) für die im Text referierten Objekte ( im weitesten Sinne) — sich wiederum als pragmatische Inf erenzregeln darstellen lassen (vgl. Nash-Webber 1978, 9, 12 ff.). Gleichgültig, wie tief die Ausdifferenzierung der verschiedenen Inferenzregel-Klassen vorgenommen wird, bestehen bleibt die Verschiedenartigkeit der Rolle, die Inferenzregeln in den drei unterschiedenen Inferenztypen spielen; bestehen bleibt auch die Charakteristik der mit den Inferenzschemata erreichten Konklusionen. Dem Erschließen implizit vorhandener Information aus vollständigem Wissen im Rahmen der Deduktion steht das Erschließen implizit vorhandenen, aber stillschweigenden Wissens auf der Basis von unvollständigem und teilweise sogar inkonsistentem Wissen ( vgl. Habel 1984 c, 133 ff.) im Rahmen der Abduktion gegenüber. ( Die Induktion konnte hier nicht betrachtet werden, obwohl es offensichtlich ist, daß sie auch im Bereich der TVS bei der Bildung von Inferenzregeln mit Hilfe von Meta-

VIII. Computer Simulation of Language II: System Components

Regeln (learning by example, learning by analogy) in Zukunft eine herausragende Rolle spielen kann, vgl. Habel 1982 b, 8). Mag der extensionale Aspekt im Falle der FAS derzeit noch im Vordergrund stehen, so besteht doch kein Zweifel, daß den intensionalen und intentionalen Aspekt berücksichtigende Inferenzregeln für TVS und Dialogsysteme ( als nicht nur den Bereich des FrageVerstehens abdeckende Systeme) unausweichlich notwendig sind.

5.

Simulation von Inferenzprozessen

Was nun das Problem angeht, inwieweit künstliche Systeme — wie Sprachverstehenssysteme — natürliche Systeme in Hinblick auf Inferenzen simulieren bzw. zu simulieren in der Lage sind, gibt es mehr offene als beantwortete Fragen. Das beginnt bereits beim Begriff Simulation: Ist — bezogen auf Sprachverstehenssysteme — mit ’Simulation’ die leistungsmäßige, input-output-kongruente Nachbildung oder aber eine funktionsäquivalente Nachahmung der natürlichen Fähigkeit des Schlußfolgerns gemeint? Auf diesem Hintergrund ist der Inferenzbegriff neu zu diskutieren. Es stellt sich dabei weniger die Frage ’Was ist eine Inferenzregel?’ oder ’Welchen Status hat bzw. welche Rolle spielt eine Inferenzregel im Rahmen eines Inferenzschemas?’, sondern es stellt sich vielmehr die Frage nach dem Inferenzprozeß, und — je nach dem, wie die oben gestellte Frage nach dem Zweck der Simulation ( als Leistungsmodell oder als Funktionsmodell) beantwortet wird — auch die Frage nach dem kognitiven Status des Inferenzprozesses und nach seiner Beziehung zur psychologischen Realität. Für die funktionalistische Perspektive ergibt sich dann nicht nur die Notwendigkeit, eine Antwort auf die Frage zu finden, wie eine wie immer geartete psychologische Realität in einem Artefakt abgebildet wird, sondern vorgängig die Aufgabe, aufzuzeigen, wie es möglich ist, die psychologische Realität von Inferenzprozessen in natürlichen Systemen aufzudecken, um sie dann in einem Artefakt nicht nur leistungsmäßig, sondern auch funktionalistisch abzubilden. Damit ist auch die Frage gestellt, ob die psychologische Realität eines bestimmten Inferenzprozesses nur behauptet wird, oder aber, ob es eine empirisch fundierte Absicherung bzw. Legitimierung einer derartigen Behauptung gibt.

35.  Inferenzen in sprachverstehenden Systemen

Aus traditioneller Sicht der KünstlichenIntelligenz-Forschung war und ist das zentrale empirische Kriterium die ’Lauffähigkeit’ und die Performanzleistung eines sprachverstehenden Systems. Als bekanntes Beispiel kann in diesem Zusammenhang das System PAM ( Plan Applier Mechanism) von Wilensky dienen. Nach der Eingabe eines Textes durch einen Benutzer kann der Benutzer nach Erklärungen für in dem Text beschriebene Handlungen fragen. Das Sprachverstehen und damit auch die Inferenzleistung wird überprüfbar über die Antworten des Systems, die durch den Text nicht explizit vorgegeben sind, sondern vom System erschlossen werden: TEXTEINGABE Ben.:Peter wollte das Fahrrad von Uwe. Er ging zu Uwe und fragte ihn, ob er es ihm gibt. Uwe lehnte das ab. Peter sagte Uwe, er würde ihm dafür 20 DM geben, aber Uwe war damit nicht einverstanden. Dann sagte Peter, er würde ihm den Arm brechen, wenn er es ihm nicht überlassen würde. Uwe gab ihm das Fahrrad. FRAGE-ANTWORT-MODUS Ben.: Warum ging Peter zu Uwe? PAM: Weil er sein Fahrrad haben wollte. Ben.: Warum gab Uwe Peter sein Fahrrad? PAM: Weil er nicht verletzt werden wollte. Ben.: Was hatte es für Konsequenzen, daß Peter zu Uwe ging? PAM: Dies ermöglichte ihm, Uwe um sein Fahrrad zu bitten. Ben.: Was waren die Konsequenzen von Peters Frage an Uwe, ihm Uwes Fahrrad zu geben? PAM: Uwe sagte ihm, daß Uwe ihm nicht sein Fahrrad geben würde. ( zitiert nach Wahlster 1982b, 208). So eindrucksvoll derartige Performanzleistungen von sprachverstehenden Systemen sein mögen, so lassen sie nicht ohne weiteres den Rückschluß darauf zu, daß die Leistungen auf einer generellen und adäquaten Behandlung von Schlußfolgerungsmechanismen bzw. Inferenzprozessen basieren, noch sagen sie etwas aus über die kognitive oder gar psychologische Relevanz der Inferenzprozesse, die benutzt wurden, um diese Systemleistung zu erreichen. Aus funktionalistischer Sicht muß zu dem Kriterium der ’Lauffähigkeit’ noch das Kriterium der Übereinstimmung von System-An-

469

nahmen mit der psychologischen Realität, vermittelt über empirisch gewonnene Beobachtungsdaten, treten. Tergan ( 1986, 196 f.) stellt in diesem Zusammenhang fest, ’daß insbesondere die Beantwortung der Frage nach der Interaktion zwischen dem Wissen über Fakten und dem Wissen über den Umgang mit diesen Fakten und deren Abbildung in theoretischen Modellen sowie die Frage der Abbildung der aktuellen Gedächtnisprozesse, die auf der Grundlage dieser Wissenskomponenten ablaufen, weiterhin große Schwierigkeiten bereitet’. Insonderheit weist er auf die Probleme hin, die mit der Gewinnung von empirischen Daten verbunden sind ( Tergan 1986, 198 ff.). In diesem Zusammenhang wird man allerdings differenzieren müssen und zu unterscheiden haben zwischen Inferenzprozessen, in denen nominale Konzepte einbezogen sind, und solchen Prozessen, die sich auf Beziehungen zwischen prädikativen Konzepten beziehen, und solchen Inferenzprozessen, in denen nicht nur objektbezogene, sondern auch episoden( d. h. kausal und/oder temporal)begründete Konzepte eine Rolle spielen. Die Untersuchung der Beziehung zwischen nominalen Konzepten hat in der ( Kognitions-)Psychologie schon einige Tradition. Die Organisation dieser Wissensstrukturen in sog. semantischen Netzwerken, die per Klasseninklusion hierarchisch strukturiert sind und die den durch IS-A-Kanten verbundenen KonzeptKnoten noch Eigenschaften/Merkmale via HAS-PROP-Kanten zuordnet, beinhaltet implizit unter der Annahme einer kognitiven Ökonomie einen Inferenzmechanismus zur Vererbung von Eigenschaften bzw. zur Blokkierung dieser Vererbung ( vgl. Wessells 1984, 253 ff.; Habel 1985 a, 450 ff.). Dergestalt organisierte Netzwerke erlauben es darüber hinaus, einen semantischen Abstand zwischen nominalen Konzepten zu definieren und damit die unterschiedliche Latenzzeit bei Inferenz-Experimenten zu erklären ( vgl. Wessells, 1984, 254 f.). Experimente mit diesem strengen Ansatz der kognitiven Ökonomie ( d. h. der redundanzfreien Speicherung von Eigenschaften bzgl. einer Hierarchie nominaler Konzepte) haben nicht nur gezeigt, daß dieser Ansatz die Typizität bzw. Prototypik von nominalen Konzepten außer acht läßt ( vgl. Wessells 1984, 255 f.), sondern vor allem das diagnostische Problem sichtbar gemacht, daß von Latenzzeiten nicht unbedingt eindeutig rückgeschlossen werden kann auf die Art der Manifestation von Wissen und

470

seiner Verarbeitung, z. B. mit Hilfe eines in jedem Fall nötigen Inferenzmechanismus (vgl. Tergan 1986, 200; vgl. Art. 29). Im Rahmen von Textverstehen ist der Ansatz der semantischen Netzwerke ( für nominale Konzepte) aber auch unter dem Aspekt von Bedeutung, daß er die Möglichkeit eröffnet, den Umfang von Vorwärtsinf erenzen zu bestimmen ( vgl. Habel 1985 a, 453). Überträgt man diesen Ansatz nun auf prädikative Konzepte, etwa im Sinne der ConceptualDependency-Theory von Schank ( ed., 1975), so lassen sich auch dabei Inferenzprozesse formulieren, die nun allerdings komplexer ausfallen und deshalb als auf einer höheren Ebene als der Vererbungsinferenzmechanismus für nominale Konzepte angesiedelt betrachtet werden können ( vgl. etwa das Zusammenspiel der zwölf verschiedenen Inferenztypen bei Schank/Rieger 1974). Über die kognitive Ökonomie oder gar die psychologische Realität derartiger Inferenzprozesse liegen kaum experimentelle Daten vor. Für die Inferenzprozesse der nächsthöheren Stufe, also die Inferenzprozesse, in denen auch episoden-begründete Konzepte eine Rolle spielen, gibt es experimentell abgesicherte Hinweise, daß diese Inferenzprozesse gesteuert verlaufen. Frame- oder script-basierte Textverstehenssysteme haben sich eben dieser Möglichkeit bedient, die Menge der Inferenzen, die aufgrund nominaler und prädikativer Konzepte möglich sind, kontrolliert einzuschränken. Dabei legen sie in der Regel eine einsträngige Strategie zugrunde: ’1) While reading a sentence, make as many inferences as possible. 2) Connect inferences from the two sentences.’ [’1) Während du einen Satz liest, ziehe so viele Inferenzen als möglich. 2) Verbinde die Inferenzen aus den beiden Sätzen.’] ( Granger/Eiselt/Holbrook 1983, 139). Aufgrund dieser Strategie ’verstehen’ Systeme wie PAM oder BORIS ( Dyer 1983) den Text Nancy went to see a romantic movie. She was depressed. in der Weise, daß Nancy das Ziel verfolgte, sich zu amüsieren, und daß Ins-Kino-Gehen ein Plan ist, um dieses Ziel zu erreichen, daß dieses Ziel aber nicht erreicht werden konnte, da der Film nicht unterhaltend war, was zur Folge hat, daß Nancys Niedergeschlagenheit durch das Nichterreichen ihres Ziels ( sich unterhalten zu lassen) erklärt wird. Granger/Eiselt/Holbrook ( 1983, 139) haben nun die Beobachtung gemacht, daß nicht

VIII. Computer Simulation of Language II: System Components

alle Versuchspersonen, denen sie den Text zu lesen gaben, diese Interpretation für den Text produzierten. Es wurde vielmehr noch eine zweite Interpretation vorgelegt: Irgend etwas vo r Nancys Kinobesuch hat Nancys Niedergeschlagenheit verursacht, und um diese Niedergeschlagenheit zu überwinden, ist Nancy ins Kino gegangen, um sich einen romantischen Film anzusehen. Vordergründig wird in beiden Interpretationen der Inhalt des ersten Satzes als Erklärung für die inhaltliche Aussage des zweiten Satzes genommen, aber die Argumente der kausalen Relation sind vertauscht. Beide Interpretationen lassen sich nach Granger/Eiselt/Holbrook auf zwei verschiedene Inf erenz-Anwendungsstrategien zurückführen, die zwar aus denselben Teil-Inferenzprozessen aufgebaut sind, sich aber in den Anwendungsregeln für diese Teil-Inferenzprozesse unterscheiden. Sog. ’Preseverers’ — sie liefern die erste Interpretation — folgen der globalen Strategie: Wenn noch kein Vorkontext existiert, ziehe default-Inferenzen und zwar so spezifisch wie möglich. Sog. ’Recencies’ — sie liefern die zweite Interpretation — verzögern dagegen den Inferenzprozeß und verfolgen demnach die Strategie: Wenn noch Text folgt, ’leave a loose end’ und mache Inferenzen erst dann, wenn genügend Information zur Verfügung steht. Neben dem Befund, daß es nicht nur eine Inf erenzstrategie gibt, sondern mehrere, die nicht idiosynkratisch, sondern typisierbar sind ( neben den beiden genannten setzen Granger/Eiselt/Holbrook 1983, 146 noch den Typus des ’Deferrer’ an und sprechen darüber hinaus von einer ’range of strategies’), ist auch die Beobachtung interessant, daß eine Versuchsanordnung für Inferenzexperimente, die von den Versuchspersonen verlangt, ihre Schlußfolgerungen nach jedem Satz eines Textes sofort zu verbalisieren ( ’a-line-at-a-time’-Methode), die Unterschiede zwischen beiden Strategien nicht aufzudecken in der Lage ist, ja die Aufdeckung der Unterschiede geradezu verhindert ( vgl. Granger/Eiselt/Holbrook 1983, 145). Eine funktionalistische Sicht muß nicht nur die Frage, welche Inferenzprozesse bei natürlichen Systemen vorliegen, entscheiden und empirisch zu untermauern in der Lage sein, sondern auch die Frage, welche Art von Inf erenzmechanismen bei diesen Inferenzprozessen eine Rolle spielen, in analoger Weise behandeln. Einen Schritt in diese Richtung stellt die Theorie der mental models von Johnson-Laird dar, der gegen die Vorstellung argumentiert, daß der grundlegende Infe-

471

renzmechanismus nichts anderes als die mentale Implementierung eines aussagenlogischen Kalküls, eine ’mental logic’ sei ( vgl. Johnson-Laird 1983, 24 f.). ’Reasoning is not a matter of recovering the logical forms of the premises and then applying rules of inference to them in order to derive a conclusion [...] The heart of the process is interpreting premises as mental models that take general knowledge into account, and searching for counter-examples to conclusions by trying to construct alternative models of the premises.’ [’Schlußfolgern ist nicht eine Sache des Aufdeckens der logischen Form von Prämissen, der dann folgenden Anwendung von Schlußregeln auf diese Prämissen, um dann eine Konklusion abzuleiten [...] Das Kernstück des Prozesses ist es, Prämissen als mentale Modelle, die Allgemeinwissen hinzuziehen, zu interpretieren und nach Gegenbeispielen für Konklusionen zu suchen, indem versuchsweise zu den Prämissen alternative Modelle konstruiert werden.’] ( Johnson-Laird 1983, 54) Die zentrale Rolle, die dem Schlußfolgern im Verstehensprozeß und damit auch bei sprachverstehenden Systemen zuzuweisen ist, und die Feststellung, daß dieses Schlußfolgern im Alltag mit unvollständigem und unsicherem, weil erfahrungsabhängigen Wissen umgeht, sollte — neben allen ’technischen’ Problemem — erkennen lassen, daß bei der Erforschung und Entwicklung von sprachverstehenden Systemen Sprache nicht nur als Transportmittel für Information fungiert, sondern auch — wenn auch oft nicht wahrgenommen oder aber verdeckt — zur Verständigung ( ssicherung) im Rahmen der Kommunikation über einen Sachverhalt ( in einem sehr allgemeinen Sinne) dient. Sachverhalte werden formuliert nicht nur in Abhängigkeit von Vorstellungen und Einschätzungen bzgl. des Sachverhalts, sondern auch in Abhängigkeit von den Vorstellungen und Einschätzungen bzgl. dessen, dem gegenüber sie formuliert werden. Das heißt in letzter Konsequenz, daß ein System, das dies mo-

dellieren will, nicht nur in die Lage versetzt sein muß, Inferenzen rückgängig zu machen, es muß darüber hinaus in die Lage versetzt sein, Inferenzregeln zurückzuziehen, Inferenzschemata zu suspendieren, Prämissen zu verwerfen, Inferenzprozesse zu modifizieren, Inferenzstrategien zu ändern, sein Partnermodell zu revidieren, d. h., jede Art von Annahme zurückzuziehen bzw. zu korrigieren. Aber was heißt dies alles für die Konstruktion von Sprachverstehenssystemen und ihre Modellbeziehung zu einer Theorie sprachverstehender Systeme? ’That is the nature of many problems about the mind: we are so familiar with the outcome of its operations, which are for the most part highly successful, that we fail to see the mystery.’ ( JohnsonLaird 1983, X)

6.

Literatur (in Auswahl)

G. L. Berry-Rogghe/M. Kolvenbach/H. D. Lutz 1980 · W. Bibel 1985 · E. Braun/H. Rademacher ( ed.) 1978 · E. Charniak 1976 · E. Charniak/D. McDermott 1985 · M. G. Dyer 1983 · R. H. Granger 1980 · R. H. Granger/K. P. Eiselt/J. K. Holbrook 1983 · C. U. Habel 1980 · C. U. Habel 1982 a · C. U. Habel 1982 b · C. U. Habel 1983 · C. U. Habel 1984 a · C. U. Habel 1984 b · C. U. Habel 1984 c · C. U. Habel 1985 a · C. U. Habel/C.-R. Rollinger 1981 · P. N. Johnson-Laird 1983 · S. J. Kaplan 1983 · P. Klahr 1977 · P. Klahr/L. Travis/ Ch. Kellog 1980 · K. Morik 1984 · B. L. NashWebber 1978 · U. M. Quasthoff 1985 · Ch. J. Rieger 1974 · C.-R. Rollinger 1980 · C.-R. Rollinger 1983 b · C.-R. Rollinger 1984 b · C.-R. Rollinger 1984 c · M. Saluveer/H. Õim 1986 · R. C. Schank ( ed.) 1975 · R. C. Schank 1982 a · R. C. Schank/ Ch. J. Rieger 1974 · A. Schmiedel 1984 · H.-J. Schneider/M. Eimermacher/S. Günther et al. 1981 · S.-O. Tergan 1986 · W. Wahlster 1981 · W. Wahlster 1982 b · M. G. Wessells 1984 · R. Wilensky 1983 · T. Winograd 1980.

Hans Dieter Lutz, Koblenz (Bundesrepublik Deutschland)

36. Language Generation Systems 1. 2. 3. 4. 5. 6.

Goals and Applications Projects and Capabilities Knowledge Sources Architectures Prospects and Priorities Output Samples

7.

Literature (selected)

It is gradually being recognized that language generation is a very intricate type of behavior, comparable in complexity with language understanding. The capabilities of computerbased language generators are rapidly expanding in response to intensified theoretical

VIII. Computer Simulation of Language II: System Components

472

efforts and growing needs for intelligent human-computer interaction. My survey of this multi-faceted research area is divided into three parts. In the first two Sections I present an overview of prominent projects, ideas and systems which saw the light during the past two decades. Sections 3 and 4 concentrate on theory: which knowledge sources are needed, how can language generation be decomposed into subtasks ( modules), and what are their interrelationships? Basing on the insights gained here I will then, in the final Section, work out some prospects and priorities for future research. Not surprisingly, students of language generation borrow numerous concepts and techniques from other fields within computational linguistics and from other disciplines. In view of the limited space available I will occasionally refer the reader to other Chapters of this volume or to other recent handbooks ( e. g. Winograd 1983) for further information. This applies in particular to computational and linguistic formalisms at word and sentence level, which I cannot review here.

1.

Goals and Applications

Language generators have been designed to fulfill a variety of functions. The following seven categories cover most of them: (1) Planning natural language utterances (phrases, sentences, texts) in human-computer dialogues. (2) Planning connected discourse (e. g. narrative or expository texts). (3) Psycholinguistic modeling (i. e. building computational models of human language production processes). (4) Evaluating linguistic grammars (e. g. checking the consistency and completeness of a proposed set of syntactic rules). (5) Composing target language texts in machine translation systems. (6) Language and grammar teaching (e. g. programs which can paraphrase or otherwise transform sentences). (7) Linguistic functions in wordprocessors (e. g. programs which automatically compose semi-standard documents). The first two categories represent the core functions that language generators serve: to act as speaker or writer in goal-directed communication. Together with the third category,

they embody a rich body of theoretical knowledge which can be put to a multitude of practical uses in the area of human-computer interaction ( question-answering systems, natural-language interfaces, the dialogue component of expert systems) and in the categories numbered 4 through 7.

2.

Projects and Capabilities

Fig. 36.1 lists 16 prominent language generation projects carried out over the past 15 years. Authors 1.Simmons & Slocum (1972) 2.Goldman (1975) 3.Meehan (1976) 4.Davey (1979) 5.McDonald (1980) 6.Swartout (1981) 7.Mann (1983) 8.Kukich (1983) 9.Sigurd (1983)

Name

BABEL TALESPIN PROTEUS MUMBLE XPLAIN PENMAN ANA COMMENTATOR 10.Kempen & Hoenkamp (1984) IPG 11.Busemann (1984) SUTRA 12.Hovy (1985) 13.Appelt (1985) KAMP 14.McKeown (1985) TEXT 15.Danlos (1985) KING 16.Jacobs (1985)

Fig. 36.1: Language generation systems The selection represents the major research issues addressed during this period. It does not include generators running in systems for machine translation ( e. g. Laubsch/Roesner/ Hanakata et al. 1984; Ishizaki 1983), for grammar testing ( Friedman 1969 a), or language teaching ( Bates/Ingria 1981). Most systems produce written English text, sometimes adding limited second-language capabilities. Systems primarily intended for other languages than English were developed by Sigurd ( 1983, Swedish), Kempen/Hoenkamp ( 1984, Dutch), Busemann ( 1984, German) and Danlos (1985, French). Very little attention has been given to spoken output. Simply feeding a generator’s written output into a text-to-speech system is not a very attractive solution even if the speech quality obtained would be high. ( See Müller, article 48 in this volume, for a survey of speech synthesis research.) One reason is that substantial parts of the generator’s work

473

will be redone during wave-form computation. For example, the text-to-speech converter will have to reconstruct the syntactic structure of an input sentence for the purpose of computing acceptable intonation contours and other prosodic features ( Sigurd 1984; Danlos/Emerard 1985). Such redundancies can be avoided by establishing an intimate connection between language generator and speech synthesizer. Van Wijk/Kempen ( 1985 a) have designed and implemented an algorithm for computing intonation contours for Dutch sentences. It presupposes the IPG ( Incremental Procedural Grammar) language generator. Most of the 16 projects have resulted in fairly sophisticated generators in the sense that they can produce a variety of sentences on the basis of conceptual or perceptual input data ( intentions, visual scenes, logical formulae, semantic representations). Section 6 illustrates their capabilities by means of some samples of machine-generated texts. The fragments stem from systems developed around 1982—83 but were mostly published in more recent years. In Fig. 36.2 I have indicated, for each of the projects, the theoretical issues that were central to the generator’s design. At the top of Fig. 36.2 we find systems which produced simple stories ( Meehan, Hovy, Danlos) or running commentaries of ongoing events ( Davey, Sigurd). Meehan’s

program was capable of planning interesting plots. Davey, Sigurd and Danlos used elementary discourse grammars to obtain well-organized narratives. Hovy worked out strategies for taking into account the storyteller’s relationship to his/her audience ( the hearer’s knowledge, interests, sympathies and antipathies, emotional state, etc.). Much effort has recently been put into the generation of expository texts. Swartout was concerned with the problem of how expert systems can explain and justify their reasoning as opposed to simply describing it. His solution hinges on a special knowledge representation framework capturing the principles and strategies behind the reasoning steps. Knowledge items of this type provide the conceptual contents for understandable and informative explanatory texts. Kukich wrote a program which extracts interesting facts from a daily stock quotes database and produces a stock market summary as output. Mann and McKeown concentrated on the rhetorical organization of expository discourse. They designed ’rhetorical schemas’ governing structure ( and sometimes content) of multisentential text. McDonald used somewhat similar ’text plans’ but added a layer of stylistic decisions. These suggest ’points of attachment’ for new content items and thereby exert certain control over their linguistic expression ( McDonald/Pustejovsky 1985 a). The stylistic component pre-

Fig. 36.2: Central issues addressed in various language generation projects

474

scribes, for example, whether a new content item will be realized as a separate main clause or embedded in another sentence at a designated position. The dialogue situation imposes special requirements upon the generator’s capacity to interact with conversational partners. Appelt developed an approach to language generation based on the assumption that speaker and hearer are agents cooperating to satisfy goals. Language behavior is viewed as controlled by the same general planning mechanism which also regulates non-linguistic actions by the dialogue partners. The language generator built by Appelt is driven by a multiple-agent planning system which can draw upon a repertoire of linguistic actions: speech acts ( illocutionary acts, surface speech acts), concept activations ( resulting in referential descriptions), and utterance acts ( determining choice of words and syntactic constructions for realizing the descriptors). The planner takes into account the knowledge that is available to each of the agents, and their goals. Its plans may also involve a mixture of linguistic and non-linguistic ( physical) actions, for example, an utterance act combined with pointing to an object. Other aspects of speaker-hearer interaction were modeled in the HAM-ANS question-answering system ( Wahlster/Marburger/Jameson et al. 1983; Jameson 1983). The generator constructed as part of this project ( SUTRA; Busemann 1984) attempts to anticipate the hearer’s reactions to a conceived answer and to expand or modify the overt answer accordingly. For instance, the generator avoids elliptical answers which might be ambiguous. If certain follow-up questions are expected, it tries to precompute their answers and to include them in the current answer. Jameson was specifically concerned with subjective speaker bias ( ’impression formation’). The system he built can volunteer unsolicited comments meant to influence the user’s evaluation of objects under discussion. In order for the HAM-ANS generator to foresee the effects of its utterances upon the user it cooperates with the parser/understander. This component interprets answers proposed by the generator and evaluates them from the user’s point of view. The conclusions reached in this ’anticipation feedback loop’ form the basis for adjusting the generator’s overt answer ( Wahlster/Kobsa 1985; see also Habel/Pribbenow, article 57 in this volume, for a discussion of the promi-

VIII. Computer Simulation of Language II: System Components

nent role the parser/understander has to play here). The large majority of publications in the language generation literature deals with issues at the sentence level, i. e. with computing individual sentences and two- or three-sentence paragraphs. Various linguistic formalisms for representing and manipulating linguistic knowledge have been applied. Most popular were Systemic Grammar and Functional Grammar ( see Winograd 1983 for detailed explanations). Two recent grammar formalisms are being explored but have not yet been incorporated into large-scale generators: Gazdar’s Generalized Phrase Structure Grammar ( GPSG; Gazdar/Klein/Pullum et al. 1985) and Joshi’s Tree Adjoining Grammar ( TAG; Vijay-Shankar/Joshi 1985; see also McDonald/Pustejovsky 1985 b). Were ATNs ( Augmented Transition Networks) the dominating computational mechanism in the seventies, in the eighties they were superseded by Functional Unification Grammar, a formalism developed by Kay ( 1979; 1984 a). Other computational models of grammar were inspired by psycholinguistic considerations. ( Fig. 36.2 lists the grammar types used by most projects in Fig. 36.1.) A central problem — hardly addressed by theoretical linguists — is lexicalization: choosing words and idioms which ( a) render the speaker’s intentions and ( b) fit into the prevailing context ( syntactic, discourse, conversational). Human speakers are remarkably flexible and creative wordfinders, thanks to their capacity of viewing an event or a state of affairs from many different angles ( cf. metaphors). For the computer to mimick such versatility depends only in part on size and organization of its lexicon. Even more critical is the structure of the semantic representations in which the speaker’s intentions are couched. Two important studies — about 10 years apart — were carried out by Goldman ( 1975) and Jacobs ( 1985). The former concentrated on lexical paraphrases, the latter on metaphors and idiomatic expressions.

3.

Knowledge Sources

The capabilities exhibited by present-day language generators are based upon a variety of knowledge and information sources. Fig. 36.3 shows 14 different categories. In this Section I will elaborate on this list, particu-

36.  Language Generation Systems

larly on those items which I did not cite so far. This survey of knowledge sources also provides the opportunity to cover several important projects which examined individual aspects of the language generation process rather than building a full-scale generator. Fig. 36.3: A. Discourse Structure 1. Domain Knowledge 2. Intentional Structure 3. Discourse Segment Structure 4. Focusing Structure B. Model of the Hearer 1. Informational State 2. Affective State 3. Social Relationship C. Grammatical Structure 1. Semantics 2. Lexicon 3. Syntax 4. Morpho-phonology 5. Intonation/Punctuation 6. Articulation/Orthography Fig. 36.3: Knowledge and information sources needed in language generators The division under heading A in Fig. 36.3 derives from recent work by Grosz/Sidner ( 1985). These authors lay out the foundations for a computational theory of discourse which builds on their extensive earlier studies of focusing in discourse and on task-structure in task-oriented dialogues. Discourse structure, according to Grosz/Sidner, consists of three interacting components: linguistic structure, intentional structure, and attentional state. The term linguistic structure, which applies to sequences of utterances rather than to single sentences, refers to the aggregation of utterances into discourse segments. Special linguistic devices are available to the speaker for marking boundaries between segments ( e. g. phrases such as ’in the first place’, or ’by the way’, and more subtle cues such as a change of tense or of intonation). Discourse segments are not simply juxtaposed but enter into certain relationships to each other and to the overall discourse ( cf. the relation between phrasal constituents and the sentence they belong to). Associated with each discourse segment are a discourse segment purpose ( DSP) and a focus space ( FS). A DSP is an intention ( of the speaker) which directly or indirectly helps attaining the purpose ( intention) of the overall

475

discourse ( DP = discourse purpose). Some of Grosz/Sidner’s examples are: — intend that some agent intend to do some physical act ( e. g. intend that Ruth intend to fix the flat tire); — intend that some agent believe some fact ( e. g. intend that Ruth believe the campfire is started). There are no principled differences between DPs and DSPs. A focus space is a collection of entities ( objects, attributes, relations, intentions, etc.) which are related to the D( S)P of the current discourse segment. The D( S)P itself also belongs to the focus space. For example, if speaker intends that hearer believe some facts about John ( e. g. his coming by and leaving the groceries), then the focus space contains at least the following items: the speaker’s intention, John, groceries, and John’s coming by. The discourse segment produced by the speaker might read ’John came by and left the groceries. I put them away’. As the discourse unfolds, more and more focus spaces are subtended. However, most of these are quickly relegated to oblivion. The mechanism determining which FSs are saved and which are discarded, makes use of a push-down stack. Each time a new discourse segment is entered, its FS is pushed onto the stack. But first the relation between the new DSP and that of the preceding discourse segment is checked. If the new DSP contributes to ( i. e. helps satisfy) the current top FS, the latter is allowed to stay on the stack ( now in second position). If, on the other hand, the new DSP contributes to a D( S)P lower in the stack, all intermediate FSs are popped and discarded. A set of FSs saved on the stack constitutes the f ocusing structure of that point in the discourse. Entities forming part of an FS high on the stack are more salient and more readily available than entities occupying lower stack positions. Entities belonging to FSs which have been removed from the stack are inaccessible until being pushed onto the stack again. The attentional state, which records the continually changing focusing structure as the discourse proceeds, controls important features of the linguistic structure. One specimen, already hinted at, is the insertion of special markers signaling discourse segment boundaries. Another example concerns anaphorical — in particular pronominal — references. The entities they refer to must belong to the current focusing structure, preferably to the most salient ( topmost) FS. ( Take for instance the interpretation of ’them’ in the

476

above example.) A further focus phenomenon has become known by the name centering. The center of an utterance is ’the single entity that the utterance most centrally concerns’ ( Grosz/Joshi/Weinstein 1983). Typically the center is realized by an NP. When going from one sentence to the next, the speaker may continue talking about the same entity or move the center to another entity in the focusing structure. There are fairly strict rules governing the movement of the center between consecutive sentences in a discourse segment. In addition, other rules constrain the choice of expressions referring to the centered entity. For example, if the center of two successive sentences is the same, then the second sentence preferably uses a pronoun to refer to it (see also Sidner 1983 a). This brief and simplified outline of Grosz/Sidner’s discourse theory provides some background for entries A2—A4 in Fig. 36.3. I have singled out knowledge about the domain under discussion ( Al) as a separate knowledge source which can be consulted by the components responsible for planning intentional and discourse segment structure. Sophisticated knowledge representation systems in these areas make part of the KAMP, TEXT and PENMAN generators. TEXT and PENMAN make use of rhetorical techniques, i. e. more or less conventional plans for designing ( aspects of) an intentional structure and its concomitant discourse segment structure. TEXT and KAMP contain rules controlling focus movements. Entries B1—B3 in Fig. 36.3 name three knowledge sources needed in a model of the hearer. The hearer’s informational state summarizes his/her current knowledge and the kinds of questions or interests which motivated him/her to engage in the conversation or to read a text ( Wahlster/Marburger/Jameson et al. 1983, Bunt 1981). The affective state refers to hearer/reader’s sympathies, antipathies, attitudes, feelings, etc. The social relationship between speaker and hearer concerns their relative status, their goals vis-à-vis each other, their beliefs about each other’s goals, etc. ( Jameson 1983, Hovy/Schank 1984). The development of hearer modeling components in language generation systems has barely begun. Work on user modeling — currently a very active research area — is likely to provide theoretical impulses ( cf. Wahlster/Kobsa 1985). The third rubrique in Fig. 36.3 lists six types of knowledge which hardly need fur-

VIII. Computer Simulation of Language II: System Components

ther elaboration. They are relevant to computing individual sentence forms, spoken as well as written. Entry C1 ( semantics) is intended to cover not only the representation of sentence meanings but also the selection of referential expressions ( Granville 1984) and various determinants of style ( influencing, for instance, choice of words and the combination of meaning units into more or less complex sentences; cf. McDonald/Pustejovski 1985 a). The next Section addresses the problem of integrating such a heterogeneous collection of knowledge sources into the blueprint for a fluent language generator.

4.

Architectures

When comparing the organization of the language generation process in the systems discussed here one discovers a remarkable variability. Beyond a global partitioning into a strategic and a tactical component ( Thompson 1977) — the former determining ’what to say’, the latter ’how to say it’ — little similarity is discernible. And even if the modules used in two generators overlap to some degree, then the flow of control between them may be widely different. This section highlights four design issues which are being discussed in the literature. Danlos ( 1985) argues that conceptual decisions ( what information should be expressed, and in what order) and linguistic decisions ( what lexical items to select, and what syntactic constructions) are strongly dependent upon each other. One-way traffic from a strategic to a tactical component will not lead to a sufficiently flexible and powerful generator. Similar views have been expressed by Appelt ( 1985 b) and Hovy ( 1985). Other researchers, notably McDonald ( 1983), Kempen/Hoenkamp ( 1984) and McKeown ( 1985), depart from the opposite standpoint. Their systems were built on the assumption that feedback from the tactical to the strategic component would be exception rather than rule. An allied issue concerns homogeneity versus heterogeneity of the generator’s architecture. The clearest example of a homogeneous generator design is KAMP: one general planning device takes care of both conceptual planning and shaping linguistic utterances. Reasoning about syntactic, lexical, etc., choices is fully integrated with planning communicative and physical actions. On the

36.  Language Generation Systems

other hand, MUMBLE and TEXT exemplify heterogeneous designs because the workings of their strategic and tactical components are very different. Within the tactical component one finds a comparable situation. For instance, PENMAN has one general mechanism ( based on Systemic Grammar) for making choices at the syntactic and morphological levels. Yet IPG has autonomous syntactic and morphological modules which operate according to very different principles. KING applies a uniform hierarchical knowledge representation system for encoding different types of knowledge ( conceptual, syntactic, lexical, etc.). But IPG has at least two different representation schemes ( one procedural, one declarative) even within the syntactic domain. The homogeneity versus heterogeneity issue relates to J. Fodor’s ( 1983) distinction between ’modular’ and ’isotropic’ cognitive systems. Modular systems consist of components whose modes of operation may be radically different. These components have no access to each other’s inner workings ( e. g. to informational structures used) and communicate through narrow input-output channels. In isotropic systems, however, the components are transparent and strongly interactive. In terms of this contrast one can characterize KAMP and KING as more isotropic and less modular than MUMBLE, TEXT and IPG. Fodor does not consider language generation directly but produces extensive empirical arguments in favor of the position that natural language understanding in humans is based on a modular system. This suggests that — to the extent that language generation shares modules with language understanding — a modular approach to the construction of a fluent language generator will be more profitable in the long run. A third dividing line running across generator designs concerns incremental generation ( Kempen/Hoenkamp 1982; 1984). The strategic and tactical components in human speakers operate in parallel rather than in sequence. Conceptual and linguistic structures are elaborated and refined simultaneously, and the production of overt output need not wait till the conceptual structure is rounded off by the strategic component. Utterances can thus be generated incrementally, in a piecemeal fashion. Most artificial generators, however, first have the strategic component compute the conceptual structure in full detail before activating the tactical com-

477

ponent. Only IPG, MUMBLE and KAMP are capable of generating incrementally, be it in very different ways. The last issue to be raised in this Section concerns monitoring. Very few generator programs enlist the services of a monitor or editor component evaluating utterances which have been or are about to be produced. The only exceptions are Gabriel ( 1981) and Wahlster/Marburger/Jameson et al. ( 1983; see the anticipation feedback loop discussed in 2.). This contrasts sharply with the detailed attention given to monitoring and self-correction in the psycholinguistic literature on language production ( cf. Levelt 1983, Van Wijk/Kempen 1985 b). Nevertheless, the addition of a monitor may contribute to the solution of practical and theoretical problems significantly. Take for example the above issue of one-way versus two-way traffic between strategic and tactical components. Suppose the monitor can intercept the linguistic output from the tactical component ( preferably before the point of speech) and feed it into a parser/understander. The latter evaluates the generator’s utterances from relevant viewpoints and informs ( via the monitor) the strategic component of its diagnosis ( Hoenkamp 1980). This would establish the line of communication postulated by Danlos and others without complicating the generator’s design — the parser is needed anyway. In this Section we have touched upon some of today’s active research topics. Let us now take a glance at tomorrow’s trends.

5.

Prospects and Priorities

Language generation research is in good shape. From all relevant scientific disciplines ( linguistics, logic, psychology, phonetics, Artificial Intelligence, computer science) competent investigators are moving into the field. Their combined efforts will rapidly raise it to the standards of language understanding research. Practical applications in machine translation systems, natural language interfaces, intelligent word and text processors, language teaching programs, etc., are on the horizon. What are high-priority research aims for the near future? At the risk of falling victim to my own biases I have tried to identify the most urgent needs: — Topping the list is a computational model of discourse — along the lines of Grosz/Sid-

VIII. Computer Simulation of Language II: System Components

478

ner ( 1985) or otherwise — embodied in an efficient implementation. — At the sentence level high-performance syntactic, morphological and lexical processors are needed which can do their job many times faster that current versions. — Practical applications presuppose a user modeling component optimizing the interplay between generator and hearer/reader. — The relative merits of homogeneous versus heterogeneous architectures should be explored, preferably in conjunction with one or more of the preceding topics. It will come as no surprise that these recommendations are not unlike a list compiled a few years ago by a group of American experts ( Mann/Bates/Grosz et al. 1982). The most striking difference lies in my emphasis on performance factors versus their accentuating knowledge representation and structure. I hope this reflects an advance during the past period rather that a personal bias.

Question: What is the dif f erence between a destroyer and a bomb? Answer: A destroyer is a surf ace ship with a DRAFT between 15 and 222. A ship is a vehicle. A bomb is a free falling projectile that has a surf ace target location. A f ree f alling projectile is a lethal destructive device. The bomb and the destroyer, theref ore, are very dif f erent kinds of entities. ( 2) MUMBLE ( McDonald 1983) generated the following description of the Barber Proof. line 1: line 2: line 3: line 4: line 5:

6.

Output Samples

From six projects I have selected brief output samples which illustrate the capabilities of the generators. The first four samples are in English, the other ones in French and German respectively. The texts represent the state of the art in 1982—1983. Samples published later were hardly available at the time of writing (December 1985). ( 1) TEXT ( McKeown 1985) was implemented as part of a natural language interface to an ONR ( Office of Naval Research) database containing information about vehicles and destructive devices. Question: What is a guided missile? Answer: A guided projectile is a projectile that is self-propelled. There are 2 types of guided projectiles in the ONR database: torpedoes and missiles: The missile has a target location in the air or on the earth’s surface. The torpedo has an underwater target location. The missile’s target location is indicated by the DB attribute DESCRIPTION and the missile’s f light capabilities are provided by the DB attribute ALTITUDE. The torpedo’s underwater capabilities are provided by the DB attributes under DEPTH f( or example, MAXIMUM OPERATING DEPTH). The guided projectile has DB attributes TIME TO TARGET & UNITS, HORZ RANGE & UNITS and NAME.

line 6:

line 7:

premise ∃ x (barber(x) ⋀ ∀ y(shaves(x,y) ↔  shaves (x,y))) existential instantiation barber(g) ⋀ ∀ y(shaves(g,y) ↔  shaves(y,y)) tautology ∀ y (shaves(g,y) ↔  shaves(y,y)) universal instantiation shaves(g,g) ↔ shaves(g,g) tautology shaves(g,g) ⋀  shaves(g,g) conditionalization ∃ x (barber(x) ⋀ ∀ y(shaves(x,y) ↔  shaves(y,y))) ⊃ (shaves(g,g) ⋀  shaves(g,g)) reductio ad absurdum  ∃ x (barber(x) ⋀ ∀ y(shaves(x,y) ↔  shaves(y,y)))

MUMBLE’s version: Assume that there is some barber who shaves everyone who doesn’t shave himself (and no one else). Call him Giuseppe. Now, anyone who doesn’t shave himself would be shaved by Giuseppe. This would include Giuseppe himself . That is, he would shave himself , if and only if he did not shave himself , which is a contradiction. This means that the assumption leads to a contradiction. Therefore, it is false, there is no such barber. Compare this text to the version created by an early generation program written by Chester (1976): Suppose that there is some barber such that for every person the barber shaves the person iff the person does not shave himself . Let A denote such a barber. Now he shaves himself if f he does not shave himself , theref ore a contradiction f ollows. Theref ore if there is some barber such that for every person the barber shaves the person if f the person does not shave himself then a contradiction f ollows. Thus there is no barber such that f or every person the barber

36.  Language Generation Systems

shaves the person if f the person does not shave himself. ( 3) Hovy’s generation system can produce different versions of a story in response to the speaker’s goals and to characteristics of the hearer. The following story about IRA terrorism in Northern Ireland was told to two characters, a British soldier ( John Brown) and an IRA terrorist (Sean O’Flanahan). O’Flanahan: interests: British losses sympathies: IRA successes antipathies: anything British, authorities emotion: tense, angry knowledge: terrorism in detail interests: weaponry Brown: sympathies:British successes, authorities antipathies: IRA successes emotion: tense, irritated knowledge: military action in detail The four versions were published, along with a few others, in Hovy/Schank (1984). Hearer is: (John Brown) Input concepts are: (SHOOTING1) Concentrating on: INTERESTS A seventy calibre semi-automatic Belgian rif le was used by two gunmen to shoot and to kill a f orty year old British soldier f rom Leeds, a city, Bill Smith. He will be buried tomorrow. The rif le was used by them to shoot and to wound a twelve year old girl, Mary, yesterday at Belf ast Football Stadium. She was taken to Mary Magdalene Hospital and treated and discharged. She is an orphan at present. The rif le was used by them to shoot and to kill a twenty-f ive year old passerby woman, Rosie Areas. She will be buried in Belf ast Cemetery three days f rom now. An Austin car was used by them to escape. Hearer is: (John Brown) Input concepts are: (SHOOTING1) Concentrating on: SYMPATHY A f orty year old Englishman f rom Leeds, a city, Bill Smith, was shot and killed with a seventy calibre rif le at Belf ast Football Stadium yesterday. The soldier will be buried tomorrow. A twelve year old girl, Mary, was shot and wounded. She was taken to Mary Magdalene Hospital and treated and discharged. She is an orphan at present. A twenty-f ive year old passerby woman, Rosie Areas, was shot and killed. She will be buried in Belf ast Cemetery three days f rom now. An Austin car was

479

used by two gunmen to escape. Hearer is: (Sean O’Flanahan) Input concepts are: (SHOOTING1) Concentrating on: INTERESTS A f orty year old British soldier f rom Leeds, a city, Bill Smith, was shot and killed with a seventy calibre rif le at Belf ast Football Stadium yesterday. He will be buried tomorrow. Two f reedom-f ighters shot and wounded a twelve year old girl, Mary. She was taken to Mary Magdalene Hospital and treated and discharged. She is an orphan at present. A twenty-f ive year old passerby woman, Rosie Areas, was shot and killed. She will be buried in Belf ast Cemetery three days f rom now. They escaped with an Austin car. Hearer is: (Sean O’Flanahan) Input concepts are: (SHOOTING1) Concentrating on: SYMPATHY An Austin car was used by two f reedomf ighters to escape f rom Belf ast Football Stadium yesterday. A twelve year old girl, Mary, was shot and wounded with a seventy calibre rif le. She was taken to Mary Magdalene Hospital and treated and discharged. She is an orphan at present. A f orty year old British soldier f rom Leeds, a city, Bill Smith, was shot and killed. He will be buried tomorrow. A twenty-f ive year old passerby woman, Rosie Areas, was shot and killed. She will be buried in Belfast Cemetery three days from now. ( 4) ANA ( Kukich 1983 a) generated the following stock market summary ( 2 versions) in response to actual data submitted for January 12, 1983. DOW JONES INDUSTRIALS AVERAGE — 01/12/83 01/12 CLOSE 30 INDUS 1083.61 01/12 330PM 30 INDUS 1089.40 01/12 3PM 30 INDUS 1093.44 01/12 230PM 30 INDUS 1100.07 01/12 2PM 30 INDUS 1095.38 01/12 130PM 30 INDUS 1095.75 01/12 1PM 30 INDUS 1095.84 01/12 1230PM 30 INDUS 1095.75 01/12 NOON 30 INDUS 1092.35 01/12 1130AM 30 INDUS 1089.40 01/12 11AM 30 INDUS 1085.08 01/12 1030AM 30 INDUS 1085.36 01/11 CLOSE 30 INDUS 1083.79 CLOSING AVERAGE 1083.61 DOWN 0.18 Version 1: Af ter climbing steadily through most of the morning, the stock market was pushed downhill late in the day. Stock prices posted a small

480

loss, with the indexes turning in a mixed showing yesterday in brisk trading. The Dow Jones average of 30 industrials surrendered a 16.28 gain at 4pm and declined slightly, f inishing the day at 1083.61, of f 0.18 points. Version 2: Wall Street’s securities markets rose steadily through most of the morning, bef ore sliding downhill late in the day. The stock market posted a small loss yesterday, with the indexes finishing with mixed results in active trading. The Dow Jones average of 30 industrials surrendered a 16.28 gain at 4pm and declined slightly, to finish at 1083.61, off 0.18 points. ( 5) The French language generator implemented by Danlos ( 1985) produced five versions of a newspaper story. Version 1: Aujourd’hui à Paris, un policier a été tué et quatre autres blessés par des anarchistes qui ont f ait exploser une bombe télécommandée sous le camion dans lequel ils allaient de leur bureau à un restaurant. La bombe contenait deux kilos de dynamite. Version 2: Un policier a été tué et quatre autres blessés aujourd’hui à Paris. Des anarchistes ont f ait exploser une bombe télécommandée sous le camion dans lequel ils allaient du bureau à un restaurant. La bombe contenait deux kilos de dynamite. Version 3: Un policier a été tué et quatre autres blessés par des anarchistes aujourd’hui à Paris. Ils ont f ait exploser une bombe télécommandée sous le camion dans lequel ils allaient du bureau à un restaurant. La bombe contenait deux kilos de dynamite. Version 4: Aujourd’hui à Paris, des anarchistes ont tué un policier et en ont blessé quatre autres en f aisant exploser une bombe télécommandée sous le camion dans lequel ils allaient du bureau à un restaurant. La bombe contenait deux kilos de dynamite. Version 5: Des anarchistes ont tué un policier et en ont blessé quatre autres aujourd’hui à Paris. Ils ont f ait exploser une bombe télécommandée sous le camion dans lequel ils allaient du bureau à un restaurant. La bombe contenait deux kilos de dynamite. ( 6) Busemann’s ( 1984) German language generator SUTRA can deliver sentences such

VIII. Computer Simulation of Language II: System Components

as the following. ( They are unrelated, except for the first pair: pronominalisation.) Chess is the content domain. — Der Grossmeister gab dem Gegner ungewollt einen grossen Zeitvorteil, weil er den Partiebeginn verschlafen hatte. — Hat er ihn ihm wirklich unf reiwillig gegeben? — Der gefesselte Springer auf der langen Diagonale wird von der gegnerischen Dame erbeutet werden. — Der gespielte Zug gewann am einf achsten, obwohl elegantere Möglichkeiten in der Stellung steckten. — Er behauptete nach der Niederlage, dass die Zeitnot die Ursache des Debakels gewesen sei.

7.

Literature (selected)

D. E. Appelt 1985 b · M. Bates/R. Ingria 1981 · H. C. Bunt 1981 · St. Busemann 1984 · D. Chester 1976 · L. Danlos 1985 · L. L. Danlos/F. Emerard 1985 · A. Davey 1979 · J. A. Fodor 1983 · J. Friedmann 1969 · J. Friedmann 1971 · R. P. Gabriel 1981 · G. Gazdar/E. Klein/G. Pullum et al. 1985 · N. M. Goldman 1975 · R. Granville 1984 · B. J. Grosz/A. K. Joshi/S. Weinstein 1983 · B. J. Grosz/C. L. Sidner 1985 · E. Hoenkamp 1980 · E. Hovy 1985 · E. H. Hovy/R. C. Schank 1984 · Sh. Ishizaki 1983 · P. S. Jacobs 1985 · A. Jameson 1983 · M. Kay 1979 · M. Kay 1984 a · G. Kempen/E. Hoenkamp 1982 · G. Kempen/E. Hoenkamp 1984 · K. Kukich 1983 a · J. Laubsch/D. Roesner/K. Hanakata et al. 1984 · W. Levelt 1983 · W. C. Mann 1983 · W. C. Mann/M. Bates/B. J. Grosz et al. 1982 · D. D. McDonald 1980 · D. D. McDonald 1983 · D. D. McDonald/J. D. Pustejovsky 1985 a · D. D. McDonald/J. D. Pustejovsky 1985 b · K. R. Mckeown 1985 · J. R. Meehan 1976 · C. L. Sidner 1983 a · B. Sigurd 1983 · B. Sigurd 1984 · R. F. Simmons/J. Slocum 1972 · W. Swartout 1981 · H. Thompson 1977 · K. Vijay-Shankar/A. K. Joshi 1985 · C. van Wijk/G. Kempen 1985 a · C. van Wijk/G. Kempen 1985 b · W. Wahlster/A. Kobsa 1985 · W. Wahlster/H. Marburger/A. Jameson et al. 1983 · T. Winograd 1983.

Gerard Kempen, Nijmegen (The Netherlands)

481

IX. Application Fields of Computational Linguistics I: Basic Problems Anwendungsgebiete der Computerlinguistik I: Grundprobleme

37. 1. 2. 3. 3.1.

Grundprobleme der Anwendungen in der Computerlinguistik

5. 5.1. 5.2. 6. 7.

Wissenschaft und Anwendungen Machbarkeit Wissenschaftliche Grundlagen der CL Übergang statt Polarisierung: Theorie und Anwendung Das Konzept der Grundlagenwissenschaften Technologische Entwicklung, Nutzung, Anwendung und Marketing Anwendungsfelder und Grundlagen der CL Die prototypischen Anwendungen der CL Der Grundlagenbereich der CL Entwicklungsperspektiven Literatur (in Auswahl)

1.

Wissenschaft und Anwendungen

3.2. 4.

Die CL versteht sich als eine wissenschaftliche Disziplin, deren Zielsetzung im weitesten Sinne die Vermehrung oder Vertiefung unseres Wissens über die natürlichen Sprachen ist. Es ist gleichzeitig korrekt, daß die von der CL gelieferten Erkenntnisse mit der aktuellen Entwicklung der Sprach- und Wissensverarbeitungstechnologie eng und schwer trennbar verbunden sind, und daß die sprachorientierten Anwendungen die CL besonders stark geprägt haben. Die Anwendungsbezogenheit macht es verständlich, daß die Diskussion über die CL nicht allein auf der epistemologischen Ebene geführt werden kann, sondern auch Faktoren der wissenschaftlichen Infrastrukturen (Förderung und auch potentielle Nutzung) berücksichtigt werden müssen. Die einseitige Betonung des Anwendungsbezugs (Bott 1972; Straßner 1977b; Ch. J. Rieger 1978; Krause 1982b; Figge 1986) kann allerdings Fehleinschätzungen hervorrufen, die u. U. unbeabsichtigt eine falsche Bewertung der CL mit sich ziehen: (1) Eine Unterbewertung der CL insgesamt, wonach die CL eine ’Kunst des Machbaren’ sei, und

(2) Eine Überbewertung der Anwendungen gegenüber der Theorie. Beide Ansichten sind verfehlt. Die erste Fehleinschätzung basiert auf der ingenieurwissenschaftlichen Einstellung der Lösungsoptimierung: man sucht nicht die absolut beste Lösung, sondern die bestmachbare. Die zweite Ansicht — besonders häufig und psychologisch verständlich unter den Mitarbeitern von CL-Entwicklungsprojekten — läßt sich knapp als die Summenformel der CL beschreiben (CL = Summe aller Anwendungen), wobei die eigene Projektarbeit oft mit dem ganzen Forschungsfeld gleichgesetzt wird. Die letztere Fehleinschätzung (also die Überbewertung der Anwendungen) beruht auf dem mangelnden Verständnis der Beziehung zwischen Anwendungen und Theorie und wird unten in 3 .2. systematisch entkräftet.

2.

Machbarkeit

Die Fehleinschätzung der CL, wonach das Hauptmerkmal der auf Computer ausgerichteten Sprachforschung die Machbarkeit sei, beruht auf der oberflächigen Kenntnis der Fragestellung, Methoden und Themen der CL und stützt sich möglicherweise auf eine analoge aber ebenfalls verfehlte Mathematikeransicht, wonach die Informatik die Mathematik des Machbaren sei. Diese Reduktion des Problembereichs der CL ist gänzlich unzutreffend und sinnlos: (1) Jede Wissenschaft ist angehalten, ihre Untersuchungen realisierbar zu gestalten und nur machbare Aufgaben auf sich zu nehmen. Es lohnt sich, nur solche Hypothesen verifizieren/falsifizieren zu wollen, für die aussagefähige Testreihen durchgeführt werden können, oder ein Historiker wird nur solche Fragen zu beantworten zu versuchen, für die

482

IX. Application Fields of Computational Linguistics I:Basic Problems

Quellen in Archiven vorhanden sind. Die CL unterscheidet sich von den anderen Wissenschaften nicht, indem sie sich auf Fragestellungen beschränkt, die auf einer gegebenen technologischen Entwicklungsstufe machbar sind, und andere zurückstellt. In der Astronomie untersucht man auch nur die Sterne, die mit den verfügbaren Teleskopen erreichbar sind. Ein anderes Vorgehen wäre ein unsinniges Vergeuden von Kräften und Forschungsmitteln. (2) Forschungsziele bestimmen die Forschungsinstrumente und nicht umgek ehrt. Ein wissenschaftliches Vorhaben wird als eine Problemstellung definiert, die gelöst werden muß. Dies gilt generell und auch in der CL. Gesucht wird die Antwort auf eine Frage, und hierfür können theoretisch beliebige Mittel benutzt werden, wobei die Mächtigkeit, Auflösungsvermögen, Schnelligkeit, und nicht zuletzt die Kosten der verwendeten Mittel ausschlaggebend sind. Die Forschungsinstrumente müssen so gewählt werden, daß die Aufgabe realistisch gelöst werden kann. Für die Untersuchung von Bakterien wird man kein Elektronenmikroskop benötigen, und für die einmalige Errechnung eines Durchschnittswertes wird man keinen Computer einsetzen. Es gibt natürlich auch eine mögliche Rückwirkung der Instrumentation der Forschung auf die Ergebnisse, und sie muß berücksichtigt werden. Die bedeutet jedoch selbstverständlich nicht, daß hierdurch die Forschungsinstrumente die Forschungsziele frei bestimmen oder steuern. Dies gilt im Prinzip für technische Aufgaben, auch wenn dort durch die Forderungen der Praxis Kompromisse notwendig sind, und die Zielvorstellungen in den Endprodukten nicht immer voll verwirklicht werden. Die Marketing-Vorstellung, daß zu vorgegebenen Instrumenten die passenden Forschungsziele gesucht werden, ist in der Wissenschaft absurd. Marketing und wissenschaftliche Forschung haben entgegengesetzte Kausalitäten: Um Maschinen zu verkaufen, benötigt man im Marketing Anwendungen, und um Anwendungen zu realisieren, benötigt man in der Wissenschaft Maschinen. (3 ) Es ist eine philologische Verkennung der Situation anzunehmen, daß die CL sich auf einfache Fragen, die für die Computerbehandlung besonders präpariert sind, beschränkt, wie etwa statistische Auszählungen, Sortieraufgaben aus der Lexikographie u. ä., bei deren Ausführung noch einige Unzulänglichkeiten, wie Fehlen von diakritischen Zeichen und falsche Silbentrennung, in Kauf ge-

nommen werden müssen. Die Forschung (sowohl generell als auch speziell in der CL) wird nicht durch die Unzulänglichk eiten der Computer gehemmt, sondern gerade umgek ehrt, durch unsere menschliche Unfähigk eit, die zur Verfügung stehenden Computerpotenz (Hardware und Software) sinnvoll zu nutzen. Machbarkeit ist also kein besonderes, hervorstechendes Merkmal der CL, sondern vielmehr ist sie ein unumgängliches Leitprinzip für jegliche wissenschaftliche Forschungsorganisation, die durch individuellen Mißbrauch und Entgleisungen nicht außer Kraft gesetzt werden kann.

3.

Wissenschaftliche Grundlagen der CL

3.1. Übergang statt Polarisierung: Theorie und Anwendung Die CL wird oft als Angewandte Wissenschaft (neben Sprachdidaktik oder Patholinguistik) vorgestellt und mit der epistemologisch eigenständigen Linguistik kontrastiert. Die Bezeichnung ’Angewandte Wissenschaft’ suggeriert, daß man für die Bewältigung der Aufgabenstellung auf bereits vorhandene Wissensbestände der jeweiligen Mutterdisziplin zurückgreifen kann, wie etwa im Flugzeugbau auf die Ergebnisse der Aerodynamik. Diese Polarisierung beruht auf unzulänglichen Kenntnissen über das Wesen der CL und kann systematisch nicht verteidigt werden. Der Übergang zwischen einer theoretischen Wissenschaft und einer angewandten Wissenschaft ist stufenlos, erstens, weil theoretische Erkenntnisse praktische Anwendungen hervorrufen können und zweitens, weil sich die Praxisbezogenheit die Erkenntnisse auch im Laufe der Zeit verändern kann. Man könnte höchstens die Distanz zwischen theoretisch gewonnenen Erkenntnissen und ihren praktischen Anwendungen nehmen und die Praxisbezogenheit der einzelnen Wissensgebiete ermitteln. Im Extremfall sind alle Erkenntnisse anwendungsrelevant; die Frage ist lediglich, wieviel Zeit verstreichen wird, bis eine theoretische Untersuchung ihre praktischen Früchte zu tragen beginnt. 3.2. Das Konzept der Grundlagenwissenschaften In der wissenschaftstheoretischen Diskussionen der 70-er Jahre wurde ein Konzept der

483

Grundlagenforschung entwickelt, das die theoretische und angewandte Forschung nicht in verschiedenen, einander wechselseitig ausschließenden Bereichen angesiedelt, sondern als zwei Phasen einer Entwicklung ansieht, nämlich als die Phase der Grundlagenforschung in der das für die Problemlösung erforderliche Vorwissen akkumuliert wird, und als die Phase der Anwendungen, in der die angestrebte Problemlösung effektiv erfolgt (Hubig/Rahden 1978; Wunderlich 1976). Man ging davon aus, daß die Wissenschaft kein Selbstzweck ist, sondern stets gesellschaftlichen Interessen dient, selbst dann, wenn diese Abhängigkeiten nicht transparent sind. Die Steuerung der wissenschaftlichen Forschung darf dem Gruppenegoismus nicht überlassen werden und daher ist es notwendig, daß die Verantwortung der Wissenschaft auch auf die der eigentlichen Forschung vorangehende Konstitutionsphase ausgedehnt wird. Demnach verläuft die Entwicklung der Wissenschaft in drei Phasen: 1. In der Konstitutionsphase erfolgt die Festlegung der Forschungsziele und die allgemeine gesellschaftliche Einbindung der Forschung. Dies ist eine politische Entwicklungsphase. Diese Festlegungen sind entscheidend und prägen latent die Ergebnisse und den Nutzen der nachfolgenden Phasen. 2. Die eigentliche wissenschaftliche Forschung erfolgt in der zweiten als Grundlagenforschung bezeichneten Phase. Die Entwicklung wird durch die feldimmenante Proble-

matik gesteuert. Gesellschaftliche Zwänge und Anwendungsinteressen spielen direkt keine Rolle (sie sind lediglich in den generellen Forschungszielen enthalten). Ziel der Grundlagenforschung ist, die Erstellung einer theoriebasierten Erklärung des Objektbereichs, die die Realisierung von Anwendungen ermöglicht. Grundlagenforschung liefert also die Voraussetzungen für die Anwendungen. 3 . Die Phase der Wissenschaften ist, die Finalisierung d. h. die Nutzung des (bereits vorhandenen) Wissens in dem konkreten Anwendungszusammenhang (siehe Abb. 37.1). Entscheidend ist die Umsetzung der theoretischen Vorleistungen in gesellschaftlich nutzbaren Anwendungen. Die Finalisierung kann dann erfolgen, wenn die Grundlagenforschung einen Reifezustand erreicht hat, insbesondere eine abgeschlossene Theorie vorhanden ist, die die folgenden drei Forderungen erfüllt: 1. die wichtigsten Variablen des Feldes verbindet, 2. mindestens eine erfolgreiche Anwendung aufweist und 3 . die Übertragbarkeit der Musterlösung auf andere Bereiche plausibel macht (Böhme 1978). Die Anwendung des wissenschaftstheoretischen Dreiphasenmodells auf die linguistische Forschung erwies sich als schwierig (Kanngießer 1976). In der Diskussion blieb offen, ob in der Linguistik ein finalisierbares Modell vorliegt. Nach Kanngießers Analyse sind die formal adäquaten Modelle (z. B. das Syntax-Modell von Chomsky) inhaltlich unzulänglich, da sie wesentliche sprachliche Variablen (nämlich die semantischen, pragmati-

Abb. 37.1: Das Dreiphasenmodell der Wissenschaft (nach Andersson 1978)

484

IX. Application Fields of Computational Linguistics I:Basic Problems

schen und soziolinguistischen) nicht verbinden. Die Modelle, die (nach Kanngießer) umfassend sind, zeigen andererseits die erforderliche formale Reife (noch) nicht. Kanngießers Zurückhaltung über die Finalisierbarkeit der linguistischen Forschung kann man im Rahmen des Dreiphasenmodells nur zustimmen. Allerdings geht Kanngießer auf die Konstitutionsphase der linguistischen Forschung überhaupt nicht ein, er registriert lediglich, daß „die Computer-Linguistik ..., so scheint es, keinerlei Einfluß auf die Theoriebildung [hat]“ (Kanngießer 1976, 140). Wenn aber die initiale Einflußnahme der Anwendungen auf die linguistische Forschung fehlt, wird die Finalisierbarkeit der linguistischen Forschung grundsätzlich gefährdet, zumindest im Sinne des Dreiphasen-

modells. Aus der Perspektive der CL ist das Dreiphasenmodell unzulänglich: 1. Es ist befremdend, die Forschung als „abgeschlossen“ zu betrachten und festzulegen, daß die Theorie in der Anwendungsphase keine Änderungen mehr erfahren darf. 2. Anwendungen haben auch Rückwirkungen auf die theoretischen Fragestellungen und 3 . Verwertung von wissenschaftlichen Erkenntnissen ist auch ohne eine abgeschlossene Theorie möglich. Da eine linguistische Theorie erst jetzt aufgebaut wird, müssen semi-formale linguistische Deskriptionen verwertet werden können, wenn man in der CL nicht gänzlich auf die linguistische Fundierung verzichten will. Adäquater scheint für die CL das kritizistische Modell von Andersson (1978, 60):

Abb. 37.2: Kritizistisches Modell der Wissenschaft nach Andersson (1978, 66)

Wesentlich ist die explizite Rückkopplung in dem kritizistischen Modell, d. h. die eigenen bewährten Hypothesen werden in die theoretische Fundierung aufgenommen und sie tragen genauso zu der Problemlösung bei, wie das aus anderen Wissensbereichen bezogenes Hintergrundwissen. Es ist klar und durchaus wünschenswert, daß formale, theoretisch fundierte Beschreibungen vorteilhaft sind, aber wenn keine solchen Ergebnisse vorliegen, en auch weniger präzise, u. U. widerspruchsvolle, unvollständige Erkenntnisse verwertet werden können. Das kritizistische Modell ist ’schwächer’ und dadurch realistischer als das Finalisierungkonzept bei Böhme (1978), Kanngießer (1976) und Kühlwein (1987). Es läßt nämlich offen, ob linguistisches Wissen, das im Rahmen einer nicht abgeschlossenen Theorie gewonnen worden ist (also im Sinne von Böhme nicht finalisierbar ist), in einem aktuellen Anwendungszusammenhang verwertet werden kann oder nicht. Die Übernahme von linguistischen Beschreibungen, die im Rahmen von abgeschlossenen Theorien entstan-

den sind, ist zweifelsohne die optimale Lösung, leider liegen linguistische Beschreibungen in dieser Form nur selten, wenn überhaupt vor. Insoweit linguistische Wissensbestände lediglich aus unvollkommen formalisierten Beschreibungen übernommen werden können, muß diese Möglichkeit der interdisziplinären Kooperation offengelassen werden. Eine durch die Finalisierung implizierte kategorische Leugnung der Möglichkeit, daß linguistisches Wissen in natürlichsprachlichen Anwendungssystemen auch ohne vollständige theoretische Fundiertheit einbezogen werden kann, scheint zu restriktiv zu sein und würde die Linguistik unnötig isolieren. Als die ersten natürlichsprachlichen Anwendungssysteme der CL in Angriff genommen worden sind, fehlte nicht nur eine abgeschlossene linguistische Theorie (im Sinne von Kanngießer 1976), sondern mangelte es selbst an geeigneten informellen Sprachbeschreibungen überhaupt. Die defizitäre Forschungslage im Bereich der formalen Sprachbeschreibung ist aus der Sicht der traditionellen Sprachwissenschaft

37.  Grundprobleme der Anwendungen in der Computerlinguistik

völlig verständlich. Denn bis zu dem Erscheinen der programmierbaren Elektronenrechner bestand kein Bedarf an umfassenden, kohärenten formalen Sprachbeschreibungen. Die Sprachwissenschaft wandte sich letztlich an den (muttersprachlichen und nichtmuttersprachlichen) Sprachbenutzer und sie sollte die erfaßten sprachlichen Gesetzmäßigkeiten mit dem für den Menschen angemessenen Präzisionsgrad präsentieren. Das Streben nach Explizitheit und beschreibungstechnischer Präzision über das psychologisch realisierbare hinaus wäre vergleichbar sinnlos, wie etwa die Berechnung der Entfernung von Paris und Moskau auf Millimeter genau für normale Autotouristik. Der aktuelle Bedarf an einer expliziten Sprachbeschreibung ergab sich erst durch das Aufkommen der Computerlinguistik. Eine umfassende, kohärente und formale Sprachbeschreibung wird erst in der modernen Linguistik angestrebt. Inzwischen sind zweifelsohne Ergebnisse der linguistischen Forschung vorhanden, die in natürlichsprachlichen Computeranwendungen verwertet werden können, und zwar unabhängig davon, wie Linguistik aus der wissenschaftstheoretischen Perspektive beurteilt wird.

4.

Technologische Entwicklung, Nutzung, Anwendung und Marketing

Man kann die sprachorientierten Computeranwendungen nicht vollkommen von der generellen Entwicklung der Computertechnologie trennen. In diesem Zusammenhang kann dies allerdings nicht erschöpfend behandelt werden; lediglich einige relevante Aspekte sollen hervorgehoben werden. Die Elektronenrechner eröffneten bereits in den 50-er Jahren Perspektiven, die über ihren unmittelbar nutzbringenden Einsatz weit hinausgingen. Es entstand ein Hilfsmittel für die geistige Arbeit, dessen Potential am Anfang nur erahnt wurde und für die Wissenschaft eine einmalige Herausforderung bedeutete, nämlich die Herausforderung dieses ungeheuer große Potential in der Forschung auch sinnvoll zu nutzen. Um die Mächtigkeit der Computer zu demonstrieren, suchte Warren Weaver 1949 anspruchsvolle Einsatzmöglichkeiten und rief die Wissenschaftler auf, Sprachübersetzung mit Hilfe der Computer zu versuchen. Sein Aufruf ist ein seltsames Beispiel von ’wissenschaftlichem Marketing’: die Suche nach

485

neuen wissenschaftlichen Aufgaben, um ein vorhandenes Instrument nutzen zu können. Die Grenzen der Nutzung der Computer sind übrigens nach 40 Jahren Entwicklung in der wissenschaftlichen Forschung immer noch nicht in Sicht. Wir leben seither mit dieser Herausforderung, der aber nicht direkt begegnet werden kann. Auslastung für vorhandene Instrumente zu suchen (also die Forschungsziele nach den Forschungsinstrumenten zu richten) ist nicht nur für die Wissenschaft absurd, sondern auch als Marketingstrategie befremdend. Die Anbieter auf dem Computermarkt versprechen sich mehr von einem weniger direkten Vorgehen. Es erwies sich als günstiger, nicht die mannigfaltige Nutzung des Rechners zu demonstrieren, sondern überzeugende Problemlösungen anzubieten: Dementsprechend setzte man sich nicht (oder nicht nur) mit der Computernutzung auseinander (bei der sich die Aufmerksamkeit auf die Hardware, d. h. auf den Computer selbst richtet), sondern mit der Computeranwendung (bei der sich die Aufmerksamkeit auf die Software, d. h. auf die Problemlösung für die Anwendungen, richtet). Die sprachorientierten Anwendungen, Maschinelle Übersetzung (= MÜ), Automatische Dokumentation (engl. information retreaval = IR) wurden zu Anwendungsgebieten aufgewertet. Den Anbietern kann natürlich nicht untersagt werden, selbst für die mögliche Nutzung ihrer Produkte zu sorgen und Entwicklung (und auch Forschung) im Bereich des Automatischen Indexings, der Automatischen Dokumentationen, der Frage-Antwort-Systeme (= FA-Systeme), usw. zu betreiben und die Ergebnisse für ihre Produktentwicklung zu nutzen. (Für eine erfrischend neue Sicht über die Problematik von Research and Development (= R & D) siehe Karlgren in Art. 8). Die anwendungsorientierte Sprachforschung in den R & D-Abteilungen (vor allem der Großunternehmer IBM, SIEMENS, FUJITSU usw.) brachte durchaus interessante Beiträge, deren Signifikanz über die aktuellen, vermarkteten Programmprodukte weit hinausging, und nicht als indirekte Verkaufsförderung durch Anwendungsentwicklung entwertet werden darf (vgl. Zoeppritz 1984; Slocum 1985 a; Gerhardt 1986). Allerdings gingen wenig integrative Impulse für die CL aus der Arbeit in den R & D-Abteilungen aus: Für die Manager blieben die einzelnen Anwendungstypen (Übersetzungssy-

IX. Application Fields of Computational Linguistics I:Basic Problems

486

steme, Dokumentationssysteme, Expertensysteme, Dialogsysteme, ’tools’ für Maschinelle Lexikographie usw.) distinkte, unter sich nicht verbundene, potentielle Programmprodukte. Die Interessenverlagerung auf die FASysteme hatte auch Folgen für das Marketing. FA-Systeme forderten eine ganz neue Marketing-Strategie: Die FA-Systeme sind nämlich neuartige Entwicklungen, die sich von MÜ und IR vor allem durch ihre Novität unterscheiden. Während MÜ und IR bereits praktizierte menschliche Verfahren zu mechanisieren und auf Maschinen zu übertragen versuchten, strebte man hier die Implementierung von neuen, vorher noch nicht dagewesenen Systemen an. Frage-AntwortSysteme befriedigen keinen bestehenden Bedarf, sie sind eine neue Art von Computernutzung, die allerdings neue Leistungsqualität versprechen. Wesentlich ist dabei die Änderung der Art der Nutzung der natürlichen Sprache in Computeranwendungen: Während vorher die natürlichsprachliche Formulierung als ein Hindernis begriffen worden ist, das die Rechnerbenutzung nur erschwert, so argumentierte man jetzt, daß für die neuen, zuk unftsträchtigen, benutzerfreundlichen Systeme die formale Erschließung der natürlichen Sprach unumgänglich sei. Die Sprachverstehenssysteme sind nicht nur interessante Anwendungen in sich, sondern sie haben eine Schlüsselstellung für die gesamte Mensch-Maschine-Interaktion und somit für die Verbreitung der Computernutzung überhaupt.

5.

Anwendungsfelder und Grundlagen der CL

Neben den Anwendungsfeldern wird in der CL ein Grundlagenbereich abgegrenzt. Die beiden Bereiche sind miteinander eng und mannigfaltig verbunden. (Thompson (1983 b) bezeichnet die zwei Bereiche als ’Applied CL’ und ’Theory of Linguistic Computation’.) Der Anwendungsbereich kann wiederum als wissenschaftsextern, auch kommerziell verwertet oder verwertbar, und wissenschaftsintern geteilt werden, wobei das Spektrum der wissenschaftsinternen Anwendungen breiter ist als das der wissenschaftsexternen (Lenders 1980, 225). Wissenschaftsinterne CLAnwendungen sind thematisch nicht beschränkt, sie können überall angesiedelt werden, wo in den Textwissenschaften mit Com-

putern Erfahrungen gesammelt und systematisiert werden. Besonders früh hat die maschinelle Lexikographie eine klare Ausprägung erlangt (vgl. Art. 3 8 und 3 9). In der Anwendungsdomäne spielen drei Anwendungstypen: die Maschinelle Sprachübersetzung, Maschinelle Dokumentation und Frage-Antwort-Systeme eine maßgebende Rolle (vgl. Grishman 1986). Alle drei prototypischen Anwendungen vereinigen verschiedene Kombinationen von jeweils vier Kompetenzbereichen: (1) Da es sich hier um Computeranwendungen handelt, ist es unmittelbar einsichtlich, daß Informatikkenntnisse notwendig sind. (2) Bei der Lösung der Aufgaben wird man immer wieder mit sprachlichen Problemen konfrontiert, für deren Bewältigung linguistische Kenntnisse benötigt werden. (3 ) Die Anwendungen haben ihre eigentliche Aufgabenstellung, wofür domäneneigene Fertigkeiten erforderlich sind (bibliothekarisches Wissen für IR, praktische Sprachkenntnisse und translatorisches Knowhow in MÜ usw.). (4) Die Anwendungen haben eine thematische Bindung: die bearbeiteten Texte stammen aus unterschiedlichen Fachgebieten, wie Plasmaphysik, Gewässerschutz oder die Zollbestimmungen der EG. Ohne Kenntnisse der Fachthematik ist ein kontrollierbares Problemlösen undenkbar. Die CL-Anwendungsfelder erhalten eine unterschiedlich große linguistische Komponente; sie ist in MÜ-Systemen sicherlich größer als in IR-Systemen. 5.1. Die prototypischen Anwendungstypen Die drei prototypischen Anwendungsbereiche gehen zeitlich dem CL-Feld voran und bewahren innerhalb (bzw. gegenüber) der CL auch später unverändert ihre Eigenständigkeit. Bedingt durch ihre Aufgabenstellung richtet sich die Verarbeitung auf verschiedene Aspekte der Sprache. Sie trugen daher zur Ausprägung der CL-Grundlagen unterschiedlich bei: (1) MÜ, wie auch Übersetzung generell, ist eine Code-Zuordnung. Gegeben ist ein Code und zu diesem Code soll ein alternativer, zielsprachlicher Code gefunden (ermittelt, bestimmt) werden. Insoweit diese Zuordnung als geglückt angesehen wird, ist die Aufgabe gelöst. Es ist dabei nicht gefragt, ob die Äquivalenz zwischen Quellentext und

37.  Grundprobleme der Anwendungen in der Computerlinguistik

Zieltext anhand von rein formalen Eigenschaften der beiden Codes, oder aber mit Heranziehung von anderen (semantischen und pragmatischen) Schlüsseln bewerkstelligt worden ist. Eine Bezugnahme auf die Inhalte ist bei der Übersetzung (und insbesondere auch bei MÜ) aus der Perspektive der Aufgabenstellung her nicht zwingend. Übersetzung ist daher immanent eine syntaktische Aufgabe. Insoweit die Überführung Code1 ⇒ Code2 auf der horizontalen (gleichen) Ebene zufriedenstellend ausfällt, ist das Hinuntersteigen auf tiefere Analyse-Ebene nicht notwendig. Andererseits ist für die MÜ die Bewältigung der uneingeschränkten sprachlichen Variabilität entscheidend. Ein System wird erst dann interessant, wenn es das ganze Spektrum der sprachlichen Eingabe verkraftet. Das Interesse richtet sich wieder auf die syntaktische Problematik (Wohlgeformtheit), während eine tiefergehende, inhaltliche Analyse — so hofft man — durch Ausnutzung der latenten Ähnlichkeiten unter den menschlichen Sprachen überbrückt werden kann (Rohrer 1986; Hauenschild 1986; vgl. hierzu die Art. 49—54). (2) IR ist um Unterschied zu MÜ (bzw. zur Übersetzung generell) die Suche in der vertikalen Richtung: Die Zuordnung zwischen Dokumenten und ihren Deskriptoren ist inhaltlicher Art. Die Deskriptoren liegen auf einer anderen Ebene als die Dokumente selbst. Die Sprachzeichen, Wörter sind hier interessant als Träger von Informationen (Inhalten) und nicht in sich oder für sich selbst. Die Bewältigung der Aufgabe erfolgt auf der tieferen, begrifflichen Ebene, wobei gelegentlich übersehen wird, daß es nicht die Wörter selbst sind, die ein IR-System manipuliert, sondern die von ihnen getragenen Informationen. Zwingend ist hier der Anschluß an eine Informationsquelle (Datenbasis), die bei Informationsanforderung konsultiert werden kann. Die Datenbasis ist normalerweise nicht natürlichsprachlich kodiert; die natürlichsprachlichen Fragen (Informationsanforderungen) müssen in die Repräsentationform der Datenbasis überführt werden. Es handelt sich also um ein immanent semantisches Problem, während die syntaktische Strukturierung im Hintergrund bleibt. Entscheidend ist auch hier die vollständige Sprachabdeckung, die sich allerdings für die IR in der lexikalischen Erfassung erschöpft. Eine vertiefte linguistische Analyse im Syntaxbereich wird aus Gründen der Machbarkeit nicht angestrebt

487

oder gänzlich zu meiden sein (Krause 1983 ; vgl. die Art. 55 und 56). (3 ) Die FA-Systeme sind primär mit einem Kommunikationsproblem konfrontiert: Sie müssen die natürlichsprachlich formulierte Problemstellung dem System vermitteln und umgekehrt, das Ergebnis dem Benutzer rückvermitteln. Ihre oberste Zielsetzung ist die Zufriedenstellung der Benutzer. Die eigentliche Leistung des Systems liegt auf der Ebene der Problemlösung und setzt bei natürlichsprachlicher Eingabe Sprachverstehen voraus. Weder die oberflächlichen (syntaktischen) Äquivalenzrelationen, noch die inhaltlichen Angaben im Sinne von IR reichen allein für die Bewältigung der Aufgabe aus, sie werden jedoch vorausgesetzt. Die FA-Systeme (Auskunftssysteme, Dialogsysteme, Expertensysteme) operieren mit einem Verstehensbegriff, der über die lexikalische Semantik und über die Verwertung von strukturellen Informationen hinausgeht und auch kommunikative (handlung-, diskurs-, partnerbezogene) Steuerungsfaktoren einbezieht (zum Verstehensbegriff im Allgemeinen vgl. Art. 23 ). Im Allgemeinen steigen die FA-Systeme tiefer in die Analyse als die beiden anderen prototypischen Anwendungen. Um die aufwendige Tiefenanalyse realisieren zu können, gehen sie jedoch der Konfrontation mit der unkontrollierten Vielfalt der sprachlichen Eingabe durch selbstauferlegte syntaktische Einschränk ungen und Domänenspezifizität aus dem Wege, wodurch sie mit dem (nicht leichter lösbaren) Problem der Übertragbarkeit (Portabilität) konfrontiert werden (Waltz 1981; vgl. Art. 57 und 58). Der Anwendungsbereich der CL enthält auch andere Anwendungstypen, die u. U. nicht weniger eigenständig sind, die jedoch zu der Entwicklung der CL weniger beigetragen haben. Hier ist vor allem die Automatische Lexikographie zu nennen: Die Nutzung der Rechenanlagen in der lexikographischen Arbeit wurde bereits am Anfang der 50-er Jahre angestrebt: Pater Roberto Busa S. J. richtete als erster ein großangelegtes Projekt mit internationaler Kooperation für die Erstellung eines kompletten Wortindex zu den Texten von Thomas von Aquin ein. Maschinelle Lexikographie findet inzwischen auch außerhalb der akademischen Forschung zunehmende Beachtung (siehe 13 .4.6.1 und vgl. Art. 38 und 39). Computerunterstützter Unterricht (vgl. Art. 60) und Büroautomation (vgl. Art. 59) sind als potentielle CL-Anwendungsgebiete

488

IX. Application Fields of Computational Linguistics I:Basic Problems

durchaus vorstellbar, bis jetzt sind sie jedoch eher periphär geblieben. 5.2. Der Grundlagenbereich der CL Der Grundlagenbereich der CL enthält Verallgemeinerungen, die für die Konstruktion von (allen) Sprachverstehenssystemen relevant sind. Die (allgemeinen) Grundlagen der CL verbinden erstens die Anwendungstypen unter sich und fördern den feldinternen Erfahrungsaustausch; zweitens eröffnen sie neue Perspektiven für bestehende Vorhaben und/oder regen neue Anwendungen an, z. B. in dem Bereich der Büroautomatisation (vgl. Art. 8 und 59). Die eigenständigen CL-Grundlagen liegen in drei Bereichen: 1. Syntax, 2. Semantik und 3. Mensch-Maschine-Interaktion. (1) Die syntak tischen Grundlagen und Parsing sind am besten aufgearbeitet, dies ist zugleich der traditionsreichste Teil der CL, der bereits in der ersten Entwicklungsphase in den 60-er Jahren solide Ergebnisse aufgewiesen hat (formale Sprachen, Sprachenhierarchie von Chomsky, Parsing Algorithmus von Early, usw.). Auch wenn die syntaktische Problematik in den nachfolgenden Jahren etwas in den Schatten der Semantik geraten ist, liegt hier eine ununterbrochene organische Feldentwicklung von einem Vierteljahrhundert vor. Der Syntaxbereich verfügt über substantielle Erkenntnisse über die syntaktische Verarbeitungsproblematik, über Parser, Parsing Strategien, Parser-Generatoren, Netzwerke usw. (siehe Art. 18, 31 und 32). (2) Die semantischen Grundlagen rückten erst intensiv in den 70-er Jahren in den Mittelpunkt des Interesses, als die MÜ thematisch durch die Frage-Antwort-Systeme abgelöst wurde. Die paradigmatischen Rahmen sind hier weniger fest, aber es gibt auch hier konsensfähige Grundlagen, die für die weitere Entwicklung unverzichtbar zu sein scheinen, vor allem im Bereich der semantischen Netze (vgl. Art. 33). (3 ) Jünger und paradigmatisch weniger befestigt sind die Grundlagen im Bereich der Mensch-Maschine-Interaktion. Sie wurden erst dann in Angriff genommen als es sich herausgestellt hat, das Sprachverstehen sich als Reduktion auf eine DB-Repräsentation nicht begreifen läßt, wie man dies vorher annahm. Manche Kategorien des Diskursbereichs, wie Inferenzen (Art. 3 5), und Partnermodelle (Art. 25) sind inzwischen erheblich substantiiert worden. Es gibt jedoch auch Bereiche wie etwa Textorganisation, (vgl.

Art. 19), in welchen man sich notgedrungen mit Aufstellung von exemplarischen Rahmenparadigmen begnügt. Es muß hier hervorgehoben werden, daß der Mensch-Maschine-Interaktionsbereich den höchsten Grad von Eigenständigkeit innerhalb der CL aufweist, da das Interaktionsproblem zwischen Mensch und Maschine sonst weder in der Linguistik noch in der Informatik behandelt wird. Die Wichtigkeit der kommunikativen Grundlagen kann für die CL kaum überschätzt werden: Es handelt sich hier um die Problematik der natürlichsprachlichen Mensch-Maschine-Interaktion, die sonst weder in der Informatik, noch in der Linguistik behandelt wird und allein in die Zuständigkeit der CL gehört (Lutz/Schmidt 1982, 169; Vorschläge 1987).

6.

Entwicklungsperspektiven

Das Anwendungsfeld der CL hat noch nicht die paradigmatische Festigkeit erreicht (im Sinne von Kuhn), die Prognosen erlauben würde. Perspektiven werden vor allem im Bereich der Mensch-Maschine-Interaktion eröffnet, aber die Problematik ist hier oft so neu, daß selbst die Zielsetzungen nicht immer klar formuliert werden können. Benutzerfreundlichk eit — um ein Beispiel zu nennen — wurde vor einiger Zeit argumentativ mit der Fähigkeit des natürlichsprachlichen Textverstehens verbunden (vgl. Tábory/Peters 1967; Andrada et al. 1969, 4). Ein benutzerfreundliches System wurde demnach als ein System vorgestellt, das freie Texteingabe ’versteht’. Dies ist jedoch eine Fehlannahme, da es sich herausgestellt hat, daß der Benutzer sprachfaul ist und natürlichsprachliche Texteingabe als belastend empfindet (Thompson 1983 b, 29; Blaser/Zoeppritz 1983 ). Benötigt wird ein flexibles System, so fordert man jetzt — vor allem in der führenden sprachorientierten KI-Forschung — kooperative Systeme (Kaplan 1983 ). Es ist allerdings nicht auszuschließen, daß auch andere noch nicht berücksichtigte Leistungen oder Interaktionsmodalitäten von dem System erwartet werden, so daß hierfür ein lernfähiges System erforderlich sein wird (Langley/Carbonell 1984). Letztlich ist über das kommunikative Verhalten des Menschen mit Maschinen recht wenig bekannt, so daß hier eigentlich Evaluierungsstudien über Benutzerverhalten erstellt werden sollten, damit wir erfahren, was der Endbenutzer bevorzugt (Krause 1982 a, vgl. auch Art. 10). Hier steckt aller-

37.  Grundprobleme der Anwendungen in der Computerlinguistik

dings eine gewisse Zirkularität, da selbst für derartige Benutzerstudien vorangehende exemplarische Implementierungen notwendig sind. Der Weg führt hier (über die Simulationsmodelle) zurück zu einem der bereits problematisierten Systemtypen. Weiterhin ist es nicht immer zwingend anzunehmen, daß der Benutzer spontan den für ihn perspektivisch optimalen Weg befolgt; d. h. selbst die Verhaltensstudien müssen evaluiert und relativiert werden. Die bisherige Forschungsförderung hat wiederholt gezeigt, daß eine forcierte unmittelbare Anwendungsentwicklung ohne vorausgehenden (bzw. bereits vorhandenen) Grundlagenbereich wenig erbringt und durch ihre Erfolgslosigkeit lediglich die Beteiligten diskreditiert. Die Anwendungser-

489

folge der CL sind bisher bescheiden geblieben, die Einlösung der Versprechungen hängt entscheidend von den Vorleistungen im Grundlagenbereich ab.

7.

Literatur (in Auswahl)

G. Andersson 1978 · I. S. Bátori 1977 · I. S. Bátori/ J. Krause/H. D. Lutz 1983 · I. S. Bátori/H. Weber 1986 · A. Blaser/M. Zoeppritz 1983 · G. Böhme 1978 · R. Grishman 1986 · W. J. Hutchins 1986 · S. Kanngießer 1976 · S. J. Kaplan 1983 · J. Krause 1983 · Th. S. Kuhn 1973 · W. Lenders 1980 · van de Velde 1974 · D. L. Waltz 1981.

István S. Bátori, Koblenz (Bundesrepublik Deutschland)

490

X. Application Fields of Computational Linguistics II: State of the Art and Perspectives of Computer-Aided Description of Natural Language Anwendungsgebiete der Computerlinguistik II: Stand und Perspektiven der computergestützten Beschreibung natürlicher Sprache

38. Computer-Aided Lexicography: Indexes and Concordances 1. 2. 3. 4. 5. 6. 7. 8. 9.

1.

Introduction Indexes and Concordances in Research The Making of a Concordance Auxiliary Information Using Concordances Concordance Software Interactive Concordances Conclusion Literature (selected)

Introduction

The advent of modern computing technology has greatly simplified the production of research tools useful in the analysis of texts. Scholars in many fields are highly dependent upon information contained in the pages of books, journals, etc. for their research, and valuable time is often spent carefully scanning pages for the separate pieces of information which will eventually contribute to their work. The computer is capable of assuming much of this task of scanning, thus leaving the scholar more time for analysis. The text must, of course, be in a form that the computer can understand, and the necessary software must exist to retrieve the desired information from the text. One of the computer’s important roles in the analysis of texts has been associated with the automatic production of indexes and concordances. The computer is very adept at rearranging data and displaying them in a variety of formats. An index is an alphabetical listing of the words in a printed document together with information about where those words occur. An index is thus a type of lexical road map to a document. As long as the need-

ed information can be sought through specific words, an index provides direct access to the text. Fig. 38.1 shows a section of a word index or index verborum to the Gothic Bible. To the right of each word one can see references telling where the word occurs in the Gothic Bible as well as a code showing the manuscript from which the text is taken. Although the complete corpus of Gothic material is relatively small, such an index can nevertheless save the user countless hours by pointing immediately to the location of every word in the Bible. A concordance differs from an index in that a portion of the context in which the word occurs is also provided. Figures 38.2 and 38.3 show a section of a concordance to Beowulf, one created by hand in 1911, the other by computer in 1969. N ote that after each headword there are one or more lines of the text containing that headword. This addigabaurans

2

A

Jhn 9 19 A Jhn 9 20 A

Jhn 9 34

Jhn 9

A

Jhn 16 21 A Jhn 18 37 A

Luk 2 11

A

Gal 4 23

B

gabaurgjans Eph 2 19 AB* gabaurjaba Mrk 6 20 2Cr 12 Phm

9

14

gabaurjoÞum Luk 8 14 gabauros gabaurÞ gabaurÞai

A Mrk12 37

g A A

1 Tm 2 15 AB Skr 2 Jhn 9

A

8

E Skr 2 23

E

Luk 1

14

A Luk 4 23 A

Luk 4 24

A Mrk 6

4

A Mrk 7 26 A

Mrk 8 38

A Rom11 21 A

1

A

gabaurÞiwaurde

gabeidiÞ

=

Gal 5 21 AB

gabaurÞais Mrk 6 21

gabei

A Mrk14 65 A

AB 2Cr 1215 g A 2Cr 1215 g B

1Tm 1

4

Rom 11 12

A2 Rom11 15

1Cr 13

A

7

AB A Eph 1 18 AB

Fig. 38.1: Word Index to the Gothic Bible (de Tollenaere/Jones 1976)

491

2.

Fig. 38.2: Concordance to Beowulf (hand) (Cook 1911)

Indexes and Concordances in Research

A survey of the listings under the headings “concordance,” “Konkordanz” etc. in the card catalogue of any research library will reveal literally hundreds of volumes. Add to these the concordances that have been produced but never published and we can conclude that the total number probably exceeds a thousand. The value of a good concordance as a tool in the understanding of a text cannot be denied. It provides the user with a new perspective that is otherwise impossible. In addition to its function as an extended index it brings to light new uses of words, points out unusual frequency, and shows how the author uses specific words to produce unusual effects. Indeed writers themselves have benefited by using concordances to their own works. 2.1. Early Concordances Raben (1969, 62) suggests that the concept of a concordance has its roots in the late middle ages, at a time when the influence of the Renaissance aroused curiosity among theologians about variations in the accounts of the life of Jesus in the four gospels. In spite of the incredible amount of effort required to concord even a small text, the interest continued and even increased in subsequent centuries. Alexander Cruden’s 1769 Bible concordance (Fig. 38.4) remains today a significant piece of work (Hockey 1980b, 79). By the nine-

Fig. 38.3: Concordance to Beowulf (computer) (Bessinger/Smith 1969) tional information is extremly valuable in showing more or less exactly how each listed word is used. If a user is looking for a specific citation the concordance is by far the more valuable tool. This additional information, however, does have a price, viz. the size of the printed concordance will be considerably greater. Each concorded word in the original text will require one complete line in the printed concordance. In most cases the value of the information contained in the context is worth the increase in book size.

Fig. 38.4: Concordance to the Bible Cruden, 17

492

X. Application Fields II

Fig. 38.5: Concordance to Shakespeare (Bartlett 1889)

teenth century the interest in concordance making extended to secular texts, especially literature. John Bartlett, perhaps best known for his work on compiling familiar quotations, publisched in 1894 his New and Complete Concordance or Verbal Index to Words, Phrases and Passages in the Dramatic Works of Shakespeare (Fig. 38.5). The dedication of those who spent so much of their lives writing numerous citations from books in order to produce a concordance is almost inconceivable. It is therefore little wonder that by far the majority of even monumental works of literature remained unconcorded until the age of the computer. The Concordance to the Divine Comedy of

Fig. 38.6: Concordance to Matthew Arnold (Parrish 1959)

Dante Alighieri by Wilkins and Bergin (1965) may be the last hand-made concordance to a major author. Or possibly, as Raben suggests, Ione Dodson Young has the distinction of having been the editor of the last hand-made concordance, to the poetry of Byron. In her introduction she makes reference to the computer with a mixture of admiration and contempt. “N ow that machines perform with phenomenal speed and accuracy the tedious task of compiling and checking data, it seems unlikely that anyone would undertake to prepare a concordance without the aid of a computer, even though much pleasure would be lost on the unfeeling machine” (Raben 1969, 61).

38. Indexes and Concordances

2.2. Computer Generated Concordances Beginning in the 1950’s concordances began to be produced using the electronic computer, and in each succeeding year the number of concordances which appeared increased dramatically. It would be safe to say that between 1960 and 1970 more concordances were published than in all previous years combined. Father Roberto Busa is credited with being the first to recognize the value of the computer as an aid in the creation of indexes and concordances (Burton 1981 a, 1 ff.). In 1951 he published a word index and concordance to four hymns by Thomas Aquinas. The work was not actually done on a computer, but rather using a card punch, sorter, and tabulator (Burton 1981 a, 2; Busa 1951). Beginning in 1974 his monumental Index Thomisticus began to appear, two major concordances based on texts of approximately 10, 600, 000 words (Burton 1981 a, 3; Busa 1974). The first printed computer-generated concordance was that of the Revised Standard Version Bible in 1957 (Ellison 1957). 1959 marked the publication of Stephen Parrish’s Matthew Arnold Concordance (Fig. 38.6), the first computer-generated literary concordance and the beginning of the important Cornell Concordance Series.

3.

The Making of a Concordance

The basic procedure for making a concordance with the computer is rather simple.

Fig. 38.7: Concordance to Macbeth (Horward-Hill 1971)

493

First, put the text into a form the computer can understand. N ext, process the text by extracting the words, saving a brief context for each word as well as information about where in the text it occurs. Finally, sort the words and print them out together with the reference information and context. In fact, there are numerous issues associated with the making of a concordance that must be carefully considered. Which edition of a text should be used? How can the text be entered into the computer? How should the text be encoded? What information is important for the reference? How much context is necessary and how should it be displayed? Should all of the words in the text be concorded, and if not which ones should be omitted? What does one do about homographs and inflected forms of words? What are the options for printing the final output? There are few clear answers, as a trade-off between labor and utility is often at issue. Reviews of concordances are full of criticism about features that could have been done differently. In many cases these criticisms are justified, but sometimes they are merely a difference of opinion or wishful thinking. 3.1. The Text Edition Most published works worthy of being concorded exist in more than one edition. The actual text of many editions of the same work are virtually identical, save for a few differences which reflect the work of the editor. Sometimes typographical errors are more numerous in less expensive editions, e. g. paper-

494

X. Application Fields II

Fig. 38.8: Concordance to Shakespeare (Spevack 1969)

back, but not always. One significant difference among the various editions of the same work is the pagination. Frequently the page number is used as part of the reference of the concordance, thus it is valid only for the edition which was selected. Perhaps the most important consideration in selecting a text edition is its availability to the potential users of the concordance. In most cases a concordance is used side by side with the published text, and if the edition on which the concordance is based is not readily available its usefulness is diminished. For an edition of Goethe to be scanned electronically and ultimately concorded the Hamburg Edition was selected, primarily because it is so readily available throughout the world at a reasonable cost (Sondrup/Chisholm 1986). It is not considered the definitive edition of Goethe, but it contains all of the major works, and can be found on the shelves of virtually every student of Goethe. An interesting difference of opinion about the selection of an edition resulted in the publication of two separate concordances to the works of Shakespeare (Howard-Hill 1969—72; Spevack 1968—75). Trevor H. Howard-Hill based his concordances on facsimiles of the unedited early quarto and Folio texts of Shakespeare, the same texts used by Alice Walker for her Oxford Old S pelling Shakespeare edition (Fig. 38.7). Marvin Spevack, on the other hand, chose the recent Riverside edition with its modernized spelling (Fig. 38.8). Howard-Hill chose to concord each of the plays separately, while Spevack combined them. The two concordances (or sets of concordances), although in some ways redundant, complement each other in that they represent two quite different texts and have their own unique features. Both have received excellent reviews and have been received enthusiastically by Shakespeare scholars the world over.

3.2. Encoding Standards Unfortunately but not surprisingly, there has never emerged an accepted standard for the encoding of machine readable texts; unfortunate for obvious reasons and not surprising because the issue is simply too complex. In the early days of six bit machine words there just were not enough codes to take care of the basic set of alphabetic characters, numbers, and punctuation marks. Computers then were used primarily for numerical processing, so it really did not matter that everything was in upper case. With the introduction of the eight bit machine word there were plenty of codes available for all of the standard text characters, but key punch machines did not easily allow the typing of lower case and foreign characters. With today’s technology it would seem that encoding standards would not be an issue. There are, however, still many unresolved problems. For example, should the same character be used to represent the period (final stop) as well as an abbreviation? Should words that are capitalized by virtue of their position in a sentence be marked differently than proper nouns? Is it desirable or even necessary to reflect the page format of a text? Should one encode Italic and boldface characters and changes in type size in a special way? For the making of concordances most of these issues are not problematic. However, the degree to which the electronic versions of a text reflects the information in the printed version may be very important in some applications. 3.3. Lemmatization and Homographs While the computer may be very adept at gathering and processing the words in a text to create a concordance, it is not easily able to make decisions about how the words should be ordered. Obviously the words summer and Summer are the same, as the latter is

495

capitalized only by virtue of its position in the sentence. But the computer will treat them as separate words unless told to do otherwise. This problem is easily dealt with, and virtually all concordance software has a facility to merge such forms. More difficult is the problem of lemmatization, i. e. assigning all inflected forms of a word to the same entry. The forms am, are, is, was and were are not really separate words but belong to the headword be. Most concordance programs do not attempt to deal with this problem. Each form is listed separately and it is up to the user to pull them all together. There are, however, several possible procedures for lemmatizing words for a concordance. One approach is to tag all words in the text that belong to a different form so that the computer will assign them according to the tag. Thus the word am might appear as am[be]. There are some obvious problems with this procedure. First, it would require a significant amount of time to tag all of the necessary forms. Second, it is not possible to know ahead of time which forms need to be tagged, thus making it necessary to examine every word in the text. Finally, it would be necessary to remove the tags at some point before the contexts are printed out. A second method is to build a dictionary that contains all inflected forms together with the appropriate headwords. As each word in the text is processed the dictionary is consulted and the word is assigned to its appropriate base form. It is a fairly simple and straightforward process but not quite perfect. Once again, it would mean that one would have to know in advance which forms to put in the dictionary. Then, there are in most languages numerous homographs which have different meanings or may even belong to different parts of speach. The English form does, might

Fig. 38.9: Intermediate output for lemmatizing

be the third person singular form of the verb to do or the plural form of the noun doe. The noun lead and the verb of the same spelling can be distinguished only by usage. A simple look-up dictionary is not sufficient to determine the classification. In order to disambiguate these forms some kind of syntactic parser would be necessary. A third way of lemmatizing words for a concordance is to run the program in two steps. In the first step the computer generates two word lists, each containing identical forms of the words, and a brief context for each word. The programmer then checks each entry and makes necessary changes in the second list to reflect the correct headword (Fig. 38.9). In preparing the concordance to Faust I Sondrup used a combination of all three approaches. A concordance based strictly on orthographic considerations was generated and used as a basis for rigorous homographie disambiguation. The word an as a preposition was differentiated from its use as verbal particle; weiß as a verb was separated from its adjectival function; the German sense of dies was distinguished from the Latin. All of these homographs were marked with special codes in the text. The concordance was also used as a tool for preparing a lemmatization dictionary in which the print form, the sort form, and the lemma of any inflected form were given. The concording program could then be run a second time using the text to which the code for necessary homographic disambiguation had been added along with the lemmatization dictionary to produce a version of the concordance in which the attestation of all words appear under the appropriate, more or less univalent, lemma (Fig. 38.10). Writers who use dialect or other non-standard word forms present a special

X. Application Fields II

496

Fig. 38.10: Concordance to Faust I (Chisholm/Sondrup 1986)

Fig. 38.11: Concordance to Cummings’ Poetry (McBride/Parrish 1988)

problem for concordance editors. The poetry of E. E. Cummings, for example, is full of bizarre words that are often complete phrases of dialect forms. Should one concord the word yoozwidduhpoimnuntwaiv (Fig. 38.11) as a single word, as separate dialect words (yooz wid duh poimnunt waiv) or as separate standard words (you with the permanent wave)? McBride and Parrish chose to include the complete word as it appears in the text, then

use cross references from the standard individual forms. 3.4. Word Selection The index found at the end of most books contains merely a fraction of the words in the text. Only key words are included, and not all of the locations of these words are cited. A concordance, especially a computer-generat-

38. Indexes and Concordances

ed concordance, is usually much more complete. Often however, high frequency function words are omitted in order to conserve space. Many concordances exclude such categories as articles, auxiliary verbs, personal pronouns and some prepositions and conjunctions. Ellison omitted 136 words from his concordance to the Revised Standard Version of the Bible and reduced the size of the concordance by 59% (preface). In the concordance to Freud 159 words were not included, thereby cutting the volume of concorded material in half (Guttman/Jones/ Parrish 1980). There is by no means unanimous opinion, however, that high frequency function words should be excluded from concordances. Burton points out that for linguists these are often the words that are most interesting. “They mark syntactic relations and give formal information about the language as such rather than about the content” (Burton 1968, 145—46). Spevack finds it paradoxical that even though the computer is thorough and complete, we take extra steps to avoid completeness. “It is one of the delightful ironies of data processing that in many instances omission requires more effort in the way of programming, if not computing time, than completeness” (Spevack 1973 b, 17; cf. also 5.1.4.). A bizarre side effect of word omission is the elimination of homographs which are not intended to be excluded. The words may, might, and will are all forms of high frequency auxiliary verbs, but they are also nouns. Unless the software for generating the concordance is able to deal with lemmatization and homographs, it might be best not to blindly exclude words that are considered ’unimportant’ for content analysis. 3.5. Displaying the Context It was mentioned in 1. that the principal difference between an index and a concordance is that a concordance provides a brief context to illustrate how each word is used. This feature increases the usefulness of the concordance significantly, but it also increases the size of the publication. If each word in the original text requires an entire line in the concordance, the difference in size between the two volumes could be a factor of at least five and as much as fifteen. The programmer is thus faced with the task of providing sufficient context without wasting space.

497

In the days of handmade concordances a logical segment of context could easily be selected. The computer, however, is not well qualified to determine what that piece of text should be. Most computer-generated concordances thus display either a line or sentence from the text or else locate the keyword in the middle of a section of context. The line concordance is well suited to poetry and dramatical verse, as the lines are generally of uniform length and a single line is usually sufficient to show the function of the word. For prose, however, the line concordance is often unsatisfactory. The keyword may be the first word in the line but the last word of a sentence, making the context which follows almost useless. To use an entire sentence for context is not practical, as sentences vary so widely as to their length. The KWIC (Key Word In Context) has thus become a standard style for concording prose. The keyword is always in the middle of the page with a space to the left and a balanced portion of context to the left and right. The words may be sorted according to their occurrence in the text, or the entire second part of the context line may be sorted as a whole. By sorting the entire second half of the line whole phrases are grouped together, thus providing information beyond a single word (See e. g. Figures 38.12 and 38.13). Spevack successfully used a complex system in his Shakespeare concordance to achieve a logical context (Fig. 8). It is not a KWIC concordance, but it likewise is not a line concordance. He located the keyword approximately in the middle of a 48-line sequence of characters. However, if a punctuation mark occurred in that string he would adjust the context left or right accordingly. A detailed explanation of this algorithm is contained in the preface to Volumes 4—6. 3.6. Reference Information Information about where a particular word occurs in the text is an essential part of both an index and a concordance. The format may vary depending on the genre of the original text, but there should be sufficient information to allow the user to find the exact location in the text with relative ease. For a novel the page and line number are usually sufficient but chapter number can also be useful. For a play the act, scene, line number and speaker are important. For a collection of poetry the name of the poem and a line number is usually all that is required. For an epic

Fig. 38.12: Concordance to Livy (Packard 1968)

498 X. Application Fields II

499

poem such as Beowulf the line number alone is sufficient (Figs. 38.2, 38.3). For a work that is spread over several volumes, e. g. the works of Freud, the volume number is important (Fig. 38.13). In the Gothic word index it was necessary to reference the manuscript, as the Streitberg edition often has parallel texts from two separate manuscripts (Fig. 38.1). The working principle should be to provide as much information as possible in the least amount of space. In many cases some of the information in the reference field is redundant. For example, in the Freud concordance the reference field includes volume, page, section on the page, an abbreviated title of the work, and the year of publication. The volume and page numbers alone would be sufficient to determine the rest of the information, but by having it in the concordance the user is spared the task of having to look it up. 3.7. Printing the Concordance When the time comes to commit the final version of a concordance to hard copy, numerous possibilities exist. Available resources dictate whether the published version will be produced from pages printed on a line printer, output from a sophisticated photocomposition system, or something in between. The 1959 Matthew Arnold concord-

Fig. 38.13: Concordance to Freud (Guttman/Jones/Parrish 1980)

ance was published from output printed on a standard line printer before the days of the American Library Association (ALA) print train (Fig. 38.6). For that reason it has only upper case characters and little punctuation. The 1969 Beowulf concordance in the same series was printed on an IBM Selectric typewriter with a special typing element (Fig. 38.3). It has not only upper and lower case, but the special characters necessary for Old English. The programmer, Philip H. Smith, Jr., had to sit at the typewriter for more than twenty-four hours as the concordance printed to make sure the paper did not jam. Packard’s 1968 Livy Concordance (Fig. 38.12) was one of the first to use a photocomposition device, and therefore has the appearance of being typeset. The Freud concordance was also prepared using computer input to a photocomposition device and includes Italic as well as Roman characters (Guttman/Jones/Parrish 1980). The Faust I concordance (Fig. 38.10) was printed on a XEROX 9700 laser printer using a monospaced font with special characters for German. (Chisholm/Sondrup 1986). With the advent of sophisticated word processors, desktop publishing software and high quality laser printers for the microcomputer, many new avenues for printing concordances have been made possible. The

X. Application Fields II

500

Cummings concordance (Fig. 38.11) was generated on a mainframe computer, then ported to an IBM PC, massaged using WordPerfect and printed on a Hewlett Packard LaserJet Plus. With software such as Ventura and Pagemaker even greater versatility is now possible. The new sophistication does, however, come with its share of problems. For example, many of the fonts available on laser printers are variable spaced, i. e. each letter requires a different amount of horizontal space. A KWIC concordance which has been formatted according to a specified number of characters to the left and right of the keyword will come out without the characteristic ’gutter’ in the middle of the page. It thus becomes necessary to process each field separately, e. g. the context preceding the keyword right justified, the keyword and context following left justified, each section of the reference field, etc. The concordance editor must therefore be prepared to add to his areas of expertise. Because of the high cost associated with the publishing of a printed concordance, other methods of distribution are also occasionally used. The simplest approach is to make available output directly from the computer. It is not as elegant and easy to use as a published version, but it contains the same information and saves a great deal of money. A microfiche version is relatively inexpensive to produce and can be generated on demand. Unfortunately, reading microfiche cards for any period of time can be quite tiring. The ICAME group in Bergen, N orway make available a concordance of the Brown English Corpus on tape. The user can then print it out or simply use it on line.

4.

Auxiliary Information

In the production of computer-generated concordances additional useful information is often made available with little or no extra effort. Many concordance editors have chosen to include some of these auxiliary lists in the printed volume. Most common among them are frequency lists and reverse word lists. 4.1. Frequency Lists Information about word frequency can be valuable for a number of applications. Literary scholars want to see which words are used

more or less frequently than would otherwise 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20.

jah in ni du izwis iÞ ei ist Þatei imma Þan is qaÞ im Þata unte ina bi us sa

4429 2315 1507 1061 873 688 653 652 651 597 525 515 485 484 483 461 460 437 391 368

4429 6744 8251 9312 10185 10873 11526 12178 12829 13426 13951 14466 14951 15435 15918 16379 16839 17276 17667 18035

Fig. 38.14: Frequency List to the Gothic Bible (de Tollenaere/Jones 1976) be expected; language teachers are interested in teaching vocabulary on the basis of actual frequency of usage; historians have interest in the development of concepts over a certain period; lexicographers earn their bread and butter by dealing with word frequency; and authors are curious as to how frequently they use certain words. Information about word frequency can be made available in a variety of ways. Many concordances list the frequency of each word as part of the head word (e. g. (Figs. 38.3, 38.10, 38.13)). In some cases a separate frequency list is included as an appendix, ordered either alphabetically or according to frequency (Fig. 38.14). 4.2. Reverse Word Lists For the study of suffixes, especially in highly inflected languages, a reverse word list is extremely useful. Figure 38.15 shows a section of a reverse word list of the Gothic Bible (de Tollenaere/Jones 1976). The words are right justified and sorted from right to left, thus grouping together identical endings. If such a reverse word list is included in the same volume as an index or concordance it is usually sufficient to list only the words, as their exact reference can be found elsewhere. Some editors, however, generate a complete reverse

38. Indexes and Concordances

Þus liÞus wriÞus wulÞus dauÞus SkwÞus manwus triggws untriggws snaiws lasiws Lwstrws at (. -uh-Þan-gaf) at bigat plat mat gamat Fig. 38.15: Reverse Word List to the Gothic Bible (de Tollenaere/Jones 1976) word index, i. e. they include the reference information.

5.

Using Concordances

While the enthusiasm of many scholars for using technology in the preparation of research tools equals or outstrips that of their predecessors, the creative and innovative use of such tools has not kept pace with the advances that facilitate their production. For some the creation of a computer concordance becomes an end in itself. The experience of generating such a sophisticated tool is so satisfying that to actually use it is rather anticlimactic. Other scholars with more traditional humanistic backgrounds sometimes resent the intrusion of technology into their otherwise peaceful lives. A concordance is a tool which gives the user the capability of accessing information in text in ways that are otherwise not possible. It cannot replace the text, but it can provide new and potentially important ways of seeing and, thus, interpreting the text. Applied to even the most frequently studied texts a concordance will often reveal facets and dimensions that have otherwise remained unnoticed. 5.1. Literature By far the greatest use of concordances has been in the field of literature. Concordances

501

now exist for most of the well-known literary monuments of the Western World, and the day may yet come when all published works of literature in all languages will be concorded. As Kleinman jocularly noted, “The supreme tribute to a poet’s memory in our time is not an epitaph carved in Pentelic marble, nor even an endowed university chair in his name; instead it is electronically computerized immortality in the form of a concordance to his poems” (1970, 275). 5.1.1.  The point of departure within a concordance is words as opposed to more abstract notions of style, mood, etc. Hofmannsthal came to the conclusion that words themselves are everything (“die Worte sind alles”, Hofmannsthal Werke, 1956, 236). Perhaps more to the point, Valéry has written of words in the work of any particular author whose frequency reveals that they are uniquely endowed with resonances that give them a creative power that they do not generally have (Valéry 1945, 318). The accuracy of Valéry’s observation can be seen by examining the five most frequently used nouns, verbs, adjectives and adverbs in the lyric lexicon of three modern German poets. The words blau, dunkel, leise, Nacht, and schwarz suggest to anyone even moderately familiar with modern German poetry the work of Georg Trakl. Similarly, it would not be difficult to recognize in the words Blut, Meer, Nacht, S tunde and Welt the poetry of Gottfried Benn. Auge, Leben, Nacht, S eele and Traum clearly evoke the lyric world of Hugo von Hofmannsthal. Words in general and particularly those with marked poetic import are not static lexical items with universally accepted and eternally unvarying conceptual content, especially when the question of connotative and associative power is considered. In the case of a particular poet, the ’meaning’ of a given word may be extended or limited, enriched or impoverished, expanded or contracted in any of a variety of ways. Computer-generated concordances, and particularly those providing rather extensive context, are ideal tools for examining important words and for identifying the highly individualistic and personal ways a poet uses these words and shapes their communicative potential. Almost at a glance it can be determined whether a significant lexical item tends toward rather general usage or toward comparatively restricted aplication; whether it has a relatively rich series of associations or typically a narrow focus.

502

5.1.2.  Although most studies of literary vocabulary have been primarily concerned with the words that appear most frequently, words that appear surprisingly infrequently can also be a source of insight. Benn, for example, has often been discussed as a nihilistic poet, and his own statements about his poetry have surely contributed to this assessment. In his poetry, however, the word nicht appears a total of 306 times, representing 0.6% of the total vocabulary. By contrast, nicht accounts for 0.8% of Hofmannsthal’s vocabulary and has a listing of 1.0% in Meier’s Deutsche S prachstatistik. These facts do not necessarily suggest that Benn’s attitudes are less nihilistic than has been supposed, but rather that they cannot be accounted for or explained in this rather simplistic way. The conclusion invites the researcher to attempt to explain this feature of style in terms of other criteria. Going one step beyond an examination of words that appear infrequently, one may ask whether there are common words or classes of words that are totally missing from a corpus. It can be an interesting exercise to identify those terms that one would expect to appear in a given text but do not, then suggest some reason for their absence. 5.1.3.  In addition to being useful in identifying and analyzing important words that both occur and do not occur in a literary work, a concordance can aid in determining and describing how significant words appear. Just as nonces as a class may be more or less equally distributed throughout a corpus, or may appear in spurts, or may be concentrated in one part of the corpus, classes of words or individual frequently appearing words manifest revealing occurrence patterns. To expose these patterns a corpus may be examined in terms of a wide variety of categories: early works as opposed to late, published works as opposed to unpublished, first drafts as opposed to later versions, poetry as opposed to prose, or one genre as opposed to another. The case of Trakl illustrates the principle with reference to a class of words. His late poetry tends toward more ’definiteness’ — more pronounced use of definite articles and other means of noun specification—but significantly fewer deictic references than in his early poetry (Calbert 1974, 115; 182 ff.). 5.1.4.  Although it is typically the content

X. Application Fields II

words—nouns, verbs, adjectives and adverbs—that first attract attention in the analysis of a work, it would be a grave error to assume that the function words—pronouns, determiners, prepositions, conjunctions and particles—are unimportant and can be ignored. Regrettably, some concordances omit many of these words and thereby detract from their research potential. Since such words belong to a closed and comparatively small inventory of lexical items, they can be expected to appear with a regular and considerable frequency in any text, and consequently are deemed the most predictable part of the lexicon. It is precisely because they are generally so predictable in the occurrence and function that any deviation is especially arresting and has the potential for considerable poetric impact. The communicative power of poetry is not just the result of the semantic content of a passage, but also a function of the peculiar and often unique organization of the content which is substantially determined by the use of function words (Calbert 1974, 137 ff.). Burton has reported on a study of the style in Shakespeare’s Richard II and Antony and Cleopatra, using what she calls a grammatical concordance (1968, 145 ff.). The two works represent different stages in Shakespeare’s style, and her hypothesis was that this difference would be reflected in the grammar as well as in rhythm or vocabulary. She assumed that this grammatical difference would be reflected in the use of structure words that mark syntactic relationships (146). Using a concordance the critic may begin by considering the relationship between coordinating and subordinating conjunctions. When, where, and to what end are conjunctions used? What kind of structures are most frequently linked? Are conjunctions most often used to join small grammatical units to form compound subjects and verbs, to create compound sentences, or to create complex sentences? The same analysis can be applied to the use of other function words. Many other similar questions could be formulated, and surely the answers to these with reference to a given work, author, genre or period would generate other lines of investigation. 5.1.5.  Beyond these relatively simple applications of concordances to the study of literature, many possibilities for ever more sophisticated analysis can be devised, even by the scholar without special linguistic or statistical

38. Indexes and Concordances

training or interest. By using concordances to examine co-occurrences of words and ideas, to untangle complex referential and symbolic networks, and to trace involuted patterns, even the most opaque of the contemporary hermetic poems may be coaxed to yield up new insights. Lest the literary critic be put to shame by the technological advances upon which the preparation of modern literary concordances is based, he must find ever new and increasingly productive methods of using concordances and enlarging on their potential. Ultimately the innovative and enlightening use of concordances and other lexical aids is the only justification for their production. 5.2. Linguistics Linguistic research is highly dependent upon the understanding of words and how they are used in a language. Some linguists formulate a hypothesis based on their own intuitive understanding of a language, then find (or make up) examples to support the hypothesis. Others make a careful study of existing texts, and then formulate a hypothesis according to what actually has been written or said by speakers of the language. For the latter approach a concordance can be an extremely valuable tool. 5.2.1.  Concordances of literary works—especially prose—can be of great use to the linguistic scholar. Although the language of literature may not be the same as that spoken or written by the average person, it nevertheless reflects a standard variety that can be of interest to the linguist. Even concordances to literary figures of earlier periods are useful in tracing the development of the language. For example, concordances of Shakespeare’s plays provide a wealth of information about the use of the second person pronouns in English: ye, you, your, yours; thou, thee, thy, thine. By examining the circumstances under which the pronouns are used we can formulate an interesting socio-linguistic hypothesis, e. g. who is the speaker, to whom is the speaker speaking, what is the occasion for the conversation, etc. From Goethe’s work we can learn about developing trends in the German language over the past 200 years. For example, the word Knabe occurs much more frequently in Goethe than in the works of modern authors. The use of the genitive is another example. By using a concordance to locate occurrences of

503

genitive determiners such as des, eines, meines, etc. we can contrast them with the use of von plus dative, a more common form in modern German. There are many other types of grammatical constructions whose study is facilitated by the use of literary concordances. 5.2.2.  Many linguists use concordances which are based on a specially prepared language corpus, i. e. a large collection of language samples representing a variety of styles, levels, and authors. The Brown corpus, perhaps the first language corpus to be produced, was created under the direction of Henry Kucera and W. N elson Francis of Brown University (Francis/Kucera 1964). It contains approximately one million words of written American English taken from 500 texts that were published in 1961. The texts were all carefully selected to represent a wide variety of the language, e. g. journalism, fiction, scientific writing, etc. There have been numerous linguistic studies of American English that are based on the Brown Corpus, most of which used concordances to access the data. Other useful corpora that have been concorded include the LOB (Lancaster-Oslo-Bergen) Corpus of written British English (Johansson/ Leech/Goodluck 1978), the London-Lund Corpus of spoken British English (Quirk/ Svartvik 1979), the LIMAS Corpus of written German (Glas 1974), and the Pfeffer Corpus of spoken German (Pfeffer 1975). 5.2.3.  A concordance of the LIMAS Corpus was the basis of a recent interesting research project by Marvin Folsom. He made a careful analysis of the so-called dative/accusative preposition in German, i. e. an, auf, hinter, in, neben, über, unter, vor, and zwischen. These nine prepositions belong to the same class because they can govern either the accusative or the dative case. Traditionally the determination of the case has been described on the basis of direction (accusative) vs. location (dative). Folsom studied these prepositions on the basis of frequency, function and the verbs with which they occur. He found, for example, that in the majority of cases in the LIMAS Corpus the prepositions are used in functions other than direction or location, so the traditional explanation does not even apply. He discovered that in accounts for more than half of the occurrences of all nine prepositions, and that hinter accounts for less than

X. Application Fields II

504

1%. Most important, the verb with which the preposition occurs is the best indication of case, e. g. bleiben, liegen, sein, sitzen, stehen, wohnen with dative and bringen, gehen, kommen, stellen, legen with accusative. Folsom’s study is a good example of what can be done with a large data base and a concordance program. Even as native speakers of a language it is difficult for us construct in our minds how certain grammatical structures function. By analyzing a large number of authentic examples we can form a hypothesis which reflects the language as accurately as possible.

6.

Concordance Software

In addition to the hundreds of computer-generated concordances which have been produced since 1957 there is an almost equal number of concordances programs; in the early years of concordance making it was rare that the same program was used to produce more than one concordance. This apparently needless duplication of effort was principally the result of two factors. First, portability, i. e. moving a program from one machine to another, was very difficult in the early days of the mainframe computer. Many concordance editors learned that it was easier to write their own program than to implement one from another installation. Secondly, most programs were designed to expect one type of input format and to produce one type of output. Each concordance editor had slightly different ideas of as to how the input text should be prepared and what the final product should look like. Again, it was in most cases easier to start from the beginning than to try to adapt an existing program. Gradually general purpose concordance programs began to emerge and the operating systems on mainframe computers became much more flexible, making portability much easier. Today there are several good general concordance programs available, of which two will be discussed here for illustration. 6.1. The Oxford Concordance Program Perhaps best known among humanities computer users is the Oxford Computer Program or OCP. The OCP is the heir to a series of programs that date back more than 25 years (Burton 1981 c, 150). In 1964 Paul Bratley wrote a program to concord A. J. Aitken’s Dictionary of the Older S cottish Tongue

(DOST). Influenced by Bratley’s DOST program, D. B. Russell of the Atlas Laboratory in Oxford designed in 1967 a program to concord texts in a variety of languages which he called COCOA (A Word Co unt and Co ncordance Generator on A tlas) to run on the Atlas 1 computer (Berry-Rogghe 1973, 29). In 1968 N eil Hamilton Smith of the Edinburgh Regional Computing Centre used COCOA as a basis and wrote CON CORD, which introduced even more features, especially for dealing with such units and suffixes and phrases (Burton 1981 c, 150). COCOA was then completely rewritten to incorporate many new features, some of which were borrowed from CON CORD. In 1978—80 Susan Hockey and Ian Marriott developed OCP, partially in response to many of the weaknesses inherent in COCOA. In 1985—86 the code for OCP was completely rewritten, adding new enhancements and improving the speed. According to Hockey and Marriott, the new OCP was “intended to become the standard in the academic world. The primary function of the program is to make concordances and word indexes from texts in as many languages and alphabets as possible. It is designed to be completely machine independent ...” (Hockey/Marriott 1979 a, 35). OCP was designed for all types of users, including those who have had little experience with a computer. The twenty or so instructions in the command language resemble English and are relatively easy for the novice to learn. The instructions in OCP fall into four categories: IN PUT, WORDS, ACTION and FORMAT. The user thus has almost limitless flexibility to perform a variety of tasks on virtually any kind of text. For example, using the IN PUT commands one can specify the length of an input record, which columns on the record are reference information and which are text, which caracters are used to mark text that is not be concorded (e. g. comments, stage directions, etc.), and how much of the text is to be concorded. The WORDS commands allow the user to define the alphabet, the sorting order, special characters (e. g. accented characters, umlauts, etc.) and characters that are to be ignored. The ACTION commands are by far the most numerous. They define the nature of the task (make a concordance, make an index, etc.), and specify which words are to be included or omitted, as defined by full words,

38. Indexes and Concordances

substrings, alphabet range, frequency or length. Action commands also provide a method for grouping a list of words under the same keyword, e. g. for lemmatization. The context line can be defined with precision, and even the method of sorting can be specified. Finally, the FORMAT commands assist the user in laying out the final page for printing. It is also possible to terminate the program after sorting and write your own output program. The OCP is currently used in more than 230 educational establishments in some 22 countries. A new version for the IBM PC and compatible microcomputers will be available in late 1987. It is based on version two of the mainframe program and includes all of the facilities. It requires DOS 3.0 or higher, 512KB of RAM and a hard disk. 6.2. WATCON WATCON (Waterloo Concordance) likewise has a rather long genealogy, also dating back to approximately 1964. Kenneth F. Scharfenberg and Philip H. Smith, Jr. wrote the first version for the IBM Russian English mechanical translation project (Scharfenberg/Smith/Villani 1964). Smith continued work on the program while at N ew York University, calling it the ICRH (Institute for Computer Research in the Humanities) Concordance Generator (P. Smith 1969). When he moved to Waterloo University in 1969 the concordance program went with him, receiving a new name and new enhancements. WATCON runs only on an IBM mainframe, but within that constraint it is very flexible. It consists of six separate programs: CO N TROL, WORDS, FREQ, MERGE, LOOKUP and PRIN T. The IBM SORT/ MERGE program is used between the WORDS and FREQ steps. Smith designed WATCON as a series of modules with the purpose in mind of checking the results at each stage. This feature allows greater control on the part of the user, and can save a significant amount of time and money if there is an unforseen problem that occurs during one of the steps of the program. Furthermore, it allows the user to perform other tasks that are not possible if all of the steps are run sequentially without stopping. CON TROL allows the user to define the input format and the character set, e. g. the length and position of the reference fields, the alphabet of the text, special sorting considerations, stopwords and text not to be

505

concorded. It does not have the rich variety of OCP, but for most purposes it works very well. CON TROL generates a special file which is consulted in subsequent steps. WORDS is the heart of WATCON . It processes the text and generates a long record containing all of the information necessary for a variety of later options. One very useful feature unique to WATCON is the option to divide the output into more than one file depending on the beginning letter of each word, e. g. A — H, I — P, Q — Z. This is essential for large input files which may exceed the capacity of the SORT/MERGE program. FREQ generates statistical information, and MERGE combines the output from WORDS and FREQ into one file. WATCON has been used to generate several published concordances, including A Concordance to Beowulf (Bessinger/Smith 1969), A Concordance to the Plays and Poems of Federico Garcia Lorca (Pollin 1975), A Concordance to the Anglo-S axon Poetic Records (Bessinger/Smith 1978), and The Concordance to the S tandard Edition of the Complete Psychological Works of S igmund Freud (Guttman/Jones/Parrish 1980). The Freud concordance may well be the largest single concordance ever published, merging more than forty separate concordances of individual works into one final integrated concordance. This was accomplished by processing each separate work through all of the steps of WATCON , but saving the output from SORT/MERGE in each case. The individual concordances were then examined and a list of errors was made. Each of the SORT/MERGE output files was then divided into six smaller files according to the initial character of each word. The forty plus files for each alphabet sequence were then merged in a three-step hierarchical procedure yielding a single very large file that required six tapes. The contents of the single file was then divided up into approximately forty smaller files which were corrected on line and sent through the FREQ, MERGE and PRINT steps. WATCON has not gained the attention it deserves, mainly because it has not been actively promoted. It is, however, installed on a number of computers throughout the world and continues to be used to generate concordances. One of its most attractive features is that it can be obtained at no cost by writing to Philip H. Smith Jr., University of Waterloo, Ontario, Canada. Smith is cur-

X. Application Fields II

506

rently working on an interactive version for the IBM PC.

7.

Interactive Concordances

In 1969 Raben discussed the transition from hand-made to computer-generated concordances. At the end of the article he predicted that with the advent of the CRT (cathode ray tube) we may some day witness an end to the printed concordance. “Gradually the production of printed concordances will die off, to be replaced by the infinitely potential text in storage retrievable at will in any new format. The very technology that has made possible more and better concordances will very soon be responsible for their death” (69). Although it is unlikely that there will soon be an end to the printed concordance, Raben’s prophecy has in part come true. As valuable as computer generated printed concordances are, they do have some major limitations. The information contained in them is static. To see context beyond what is printed, to gather references to a list of related words, to locate phrases, or to find collocations of words all require a great deal of additional effort. After information is found it must be copied out in some way, often going through several generations before it ultimately finds its place in the final draft of a manuscript. Leaving the text in the computer and using a program to retrieve it is one way of dealing with these problems. Enter the interactive concordance. 7.1. ARRAS John Smith of the University of N orth Carolina was one of the first to recognize the reality of Joseph Raben’s prophecy. It seemed wasteful to spend so much on the publication of concordances when more information could be accessed directly from the computer. His ideas eventually evolved into a system called ARRAS (ARchive Retrieval and Analysis System), which “emphasizes fast, flexible, open-ended analysis of individual texts” (J. Smith 1984, 20). ARRAS is designed for an IBM mainframe computer operating under CMS, and is currently running at several universities and is also available through the EDUCOM network. ARRAS consists of three components: a collection of texts, an internal self-instruction system, and the analysis system. The texts must be in machine readable form and are

processed by the ARRAS program to produce the necessary file structure. The text can be any kind of document, report, novel, etc. The principal application of ARRAS thus far has been with the Archive for Research on the Treasury of the French Language (ARTFL), a data base of more than 1,000 French literary texts at the University of Chicago. The processing program runs in background and needs to be executed just one time for each text. It produces an inverted file which is used by the analysis program. ARRAS was designed to be used by individuals who may not have extensive experience with the computer. The internal selfinstruction component is an on-line tutorial as well as a series of prompts to provide assistance as the program is being used. The individual commands consist of three parts: the format of the command with examples, a narrative description, and a list of options. Help is provided if the user uses a command incorrectly. The text retrieval and analysis component has been designed to work in a conversational mode. For example, the user might write, “Please display a concordance for the word: fire.” ARRAS would then respond by doing just that, i. e. displaying each sentence in which the word fire appears. The program recognizes key words, so that same command could be phrased in a variety of ways. The user could also ask for a range of words, e. g. fire — firez, in which case any word within that range would be displayed. ARRAS allows a great deal of flexibility to the user. For example the context can be expressed in terms of words, sentences, paragraphs, chapters or volumes. This can be adjusted for individual occurrences. Semantic categories can be defined, and statistical information can be displayed by means of a bar graph. A very useful and powerful feature of ARRAS is the configuration option, which allows for the use of Boolean combinations of words or categories, e. g. all sentences in which any word from the fire category occurs with any word from the water category. Smith points out that “when researchers are able to use ARRAS with large data bases of texts, they may gain a different sense of historical development. Scholars will be able to examine patterns or themes, stylistic traits, grammatical forms, and other features in a longitudinal way that is not practical without the computer” (J. Smith 1984, 30). In other words, programs such as ARRAS can give us

38. Indexes and Concordances

an entirely new perspective on the information we are studying in texts. Just as a printed concordance provides a new dimension, a powerful, interactive information retrieval program can increase our vision even more. One final note: a PC version of ARRAS is now being written and should be available soon. 7.2. WordCruncher In 1984 Monte Shelly and James Rosenvall of Brigham Young University began work on an interactive computer program for the IBM PC. They sought to combine features already available in mainframe concordance programs as well as in on-line text retrieval software. Their first attempt was called BYU Concordance, and within two years was being used at more than 200 sites around the world. In late 1986 Brigham Young University sold the rights to market the program to Electronic Text Corporation (ETC) of Provo,

507

Utah. The program was enhanced and the name changed to WordCruncher (Jones 1987). WordCruncher consists of two separate programs: IndexETC and ViewETC. Index processes a DOS ASCII file and creates a second file containing pointers to the various words in the text. The user has the option of adding three levels reference codes to the text, e. g. Chapter/Page/Line, Act/Scene/ Line, Author/Title/Verse, etc. but this is not required. It is also possible to compile an optional list of stopwords, i. e. words that are not to be concorded. At the beginning of the IndexETC program the user can define the character set and its sorting order, decide whether or not to index numbers, give information about the stopword file, and supply the reference code information. The IndexETC program is then run in batch mode requiring approximately twenty minutes for every 100 KB of text.

Fig. 38.16: WordCruncher View Reference List, forms of heilig in Goethe’s Faust

508

With View the user can locate information in the text. For the purpose of illustration, let us use the German drama Faust. When View is first entered, the screen contains a window showing eight of the more than 13,000 headwords from Faust arranged alphabetically with the respective frequencies. One can move around in the list by using the up and down arrow keys, the Pg Up and Pg Dn keys, the Home and End keys, or by typing in a specific word. When the desired word is next to the cursor in the window, the RETURN key can be pressed and the first occurrences of the word together with context are displayed (Fig. 38.16). It is also possible to use simultaneously up to fifty words from the headword list and view all of their attestations at the same time. Let us assume that we want to look at various words that relate to the night. We can put in our list Abend and Nacht as well as all inflected and compound forms. Our list would include 112 examples of 21 different words. Phrases can be located by selecting each

X. Application Fields II

word individually then pressing the space bar after each word. The computer first finds all intersections of the first two words, then that group with the third word, and so on until the phrase is complete. The search speed is very fast. For example, all 13 occurrences of the phrase doch nicht were located in less than two seconds. For many types of literary and linguistic research it is useful to be able to find parts of words, e. g. suffixes. View allows the user to specify a substring, then specify whether the substring is to be anywhere in a word or only at the end. The headword list is then scanned to find the first occurrence. If we select the substring -ung and specify that it may occur anywhere in a word, the first occurrence is abgerungen, followed by Affenjunge, Ahnung, etc. Once again, the context of each selected word may be viewed separately, or selected words may be put into a list to be viewed together. One of the very powerful features of View is its ability to locate very quickly two or

Fig. 38.17: WordCruncher View Reference List, combination of Gott etc. and Mensch etc. in Goethe’s Faust

38. Indexes and Concordances

more words in a specified context. Let us look once again at the words doch and nicht. In addition to occurring contiguously, we are interested in any context in which the two words occur in close proximity. We specify the size of the context, e. g. within 20 characters of each other, and the position of the words with respect to each other, e. g. doch only before nicht, nicht only before doch, or either. This time we find 72 instead of 18 examples. It is also possible to search for collocations of words within two lists, i. e. any word from list A in a specified context of any word in list B. Figure 38.17 shows the results of searching for all forms of Mensch in the proximity of all forms of Gott. View has the ability to process the information derived from a search in a variety of ways. It can be transferred directly to a printer, stored in a DOS file for later processing, or with the appropriate shell program it can be placed on a clipboard for direct transfer to a word processing program. N umerous options exist for formatting the data within View before it is transferred

8.

Conclusion

From the Middle Ages to the middle of the 20th Century the process of making a concordance remained virtually unchanged. With the advent of the electronic computer rapid change became the norm. The manner of inputting and encoding texts, the sophistication of the software and the possibilities for printing the output have developed so rapidly over the past thirty years that the early computer-generated concordances seem almost primitive. But they are the results of pioneering efforts, the beginning of an important evolution which is still taking place. Perhaps Raben was right. The next generation could be virtually paperless, with all of the information contained in all books available to us through a complex electronic network. The concept of the concordance as we

509

now understand it may change to the point that it will be simply a small part of a much larger system of information access. Our challenge as scholars will be to learn how to use this system properly. N o matter how complex and sophisticated our information retrieval tools become, we must always remember that they are just that—tools. If they do not help us become more productive in our research then they are of little use to us.

9.

Literature (selected)

John Bartlett 1894 · G. L. M. Berry-Rogghe 1973 a · J. B. Bessinger/Ph. H. Smith Jr. 1969 · J. B. Bessinger/Ph. H. Smith Jr. 1978 · D. M. Burton 1968 · D. M. Burton 1981 a · D. M. Burton 1981 b · D. M. Burton 1981 c · D. M. Burton 1982 · R. Busa 1951 · R. Busa 1974 · Chr. Butler 1985 b · J. Calbert 1974 · A. T. Crosland 1975 · A. Cruden 1979 · J. W. Ellison 1957 · P. R. Feldman/B. N orman 1987 · M. H. Folsom 1981 · W. N . Francis/H. Kucera 1964 · W. N . Francis 1965 · R. Glas 1975 · S. A. Guttman/R. L. Jones/St. M. Parrish 1980 · S. M. Hockey/I. Marriot 1979 · S. M. Hockey/I. Marriot 1980 · S. M. Hockey 1980 · H. von Hofmannsthal 1956 · A. Hoppe/B. Schaeder 1973 · T. H. Howard-Hill 1969—72 · T. H. Howard-Hill 1979 · W. Ingram 1974 · St. Johansson/G. N . Leech/H. Goodluck 1978 · R. L. Jones 1987 · H. H. Kleinman 1970 · W. Krause/G. Willée 1981 · H. Kucera/N . Francis 1967 · H. P. Luhn 1966 · H. Meier 1967 · R. L. Oakman 1980 · D. W. Packard 1968 · St. M. Parrish 1962 · St. M. Parrish 1967 · St. M. Parrish 1970 · J. A. Pfeffer 1975 · A. M. Pollin 1975 · R. Quirk/Jan Svartvik 1979 · J. Raben 1969 · K. F. Scharfenberg/Ph. H. Smith Jr./R. D. Villani 1964 · J. B. Smith 1984 · Ph. H. Smith Jr. 1969 · Ph. H. Smith Jr. 1980 · St. P. Sondrup/C. M. Inglis 1982 · M. Spevack 1968—75 · M. Spevack 1973 a · M. Spevack 1973 b · J. Svartvik 1982 b · L. Ule 1973 · P. Valéry 1945 · E. H. Wilkins/Th. G. Bergin 1965 · R. A. Wisbey 1962 · I. D. Young 1965.

Randall L. Jones/ Steven P. Sondrup, Provo, Utah (USA)

X. Application Fields II

510

39. Computer-Aided Lexicography: Dictionaries and Word Data Bases 1. 2. 2.1. 2.2. 3. 3.1. 3.2. 3.3. 4. 5. 6.

1.

Introduction Classification and Characterization of Machine Readable Dictionaries Typology Main Characterizing Elements Machine Readable Dictionaries Towards Lexical Data Bases Data Base Organization Access to the Data and Relations Among Words Multiplication of Information in a Lexical Data Base Bilingual Computerized Dictionaries Lexical Data Bases and a New Lexicography Literature (selected)

Introduction

The impact of information science and computational technology on the treatment of the lexicon and of lexical entries should be considered from two main points of view: on the one hand, the possibilities offered by the computers for lexicography, i. e. for dictionary making; on the other hand, the utilization of the computer to improve lexicological research, and to create newly designed electronic dictionaries or lexical data bases. The two viewpoints on the interplay between dictionary data and computational techniques are strongly associated and have a direct influence on one other. It is almost impossible nowadays to deal with the first issue without considering the second, i. e. without describing how a well-developed lexical data base can provide new insights into lexical data that can be of great help to the lexicographer. Therefore the following discussion will start with an examination of machine readable dictionaries, considered as simple transcriptions in machine-readable form of standard lexicographical products. In a second point their evolution, through gradual development, towards a more complex and structured form, and towards the recent creation of conceptually new types of lexical data bases, conceived also in view of a wide range of applications will be considered. Finally, one of the possible applications of lexical data bases, i. e. their usefulness in a new concept of a more extensively automatized lexicography will be presented.

2.

Classification and Characterization of Machine

Readable Dictionaries 2.1. Typology It is possible to distinguish among a wide variety of machine readable dictionaries, ranging from the simple to the most structured, with different degrees of complexity, both in terms of the linguistic data recorded and their internal organization, and also in terms of the computational technology and software involved. We shall try to draw a tentative typology on the following lines: (1) Source of the data: textual material. (1 a) Machine Readable Lexicons, which are extracted from a corpus of texts and are often compiled from the material of single authors. These lexicons are the result of textprocessing procedures and are usually combined with concordances, indexes of various types, frequency lists, etc. The project of the Swedish Lexical Database, which is carried out at the University of Göteborg (Allèn 1983, 51—64), is one of the most advanced in this sense: its aim is to create a well-structured lexical data base based on a corpus of some 30 million running words. (1 b) Machine Readable Word Frequency Lists, produced on the basis of carefully selected portions of textual material assembled so as to be representative samples of a variety of literary genres and styles. As examples we can cite the pioneer Brown Corpus of present day American English (Kučera/Francis 1967), recently tagged with grammatical and morphological category codes (Francis 1980, 192—209), the Lancaster/Oslo-Bergen LOB Corpus of Modern English (Hofland/Johansson 1982; Leech/Garside/Atwell 1983), the London-Lund Corpus of S poken English (Quirk 1968; Svartvik/Quirk 1980; Svartvik/ Eeg-Olofsson 1982, 85—109), the Italian Frequency Lexicon (Bortolini/Tagliavini/Zampolli 1971). (2) Source of the data: existing printed dictionaries. (2 a) Printed Dictionaries stored in Machine Readable Form, nowadays mainly prepared for electronic type setting. These are simple transcriptions of the content of printed dictionaries, obviously with all the appropriate control characters which are

39.  Dictionaries and Word Data Bases

necessary to mark font changes, page formats, etc. It usually takes some work to decipher the meaning of these symbols, to eliminate their ambiguity and inconsistency, to suppress them where necessary, and to extract the information they convey on the different types of data. The first electronic versions of printed dictionaries can be dated back to the sixties when the Merriam-Webster S eventh New Collegiate Dictionary and the Merriam-Webster New Pocket Dictionary were put into machine-readable form by Olney and Ziff (Olney/Ramsey 1972, 213—220); other efforts in this sense were made for The Random House Dictionary of the English Language — The Unabridged Edition which was prepared using computers extensively (Urdang 1985, 155). (2 b) Machine Readable Dictionaries with linguistic codes and classifications. An example is the Longman Dictionary (LDOCE 1981) where suitable information on the syntactic environment is given in explicit and coded format for each entry and when necessary for each sense. Some very simple semantic information is also coded in the tape version of the dictionary. (2 c) Machine Dictionaries, classified, encoded, and with selected information. Their minimal content is the lemma-word, the partof-speech, the morphological categorization of word-forms. An example of this type could be the ’Dizionario Macchina dell’Italiano’ in its version on tape (cf. Gruppo di Pisa 1979, 683—707). The dictionary was prepared collecting the data from a number of printed dictionaries, and some intervention was made on the data especially for both standardization in the definition field, and codification of some types of information not explicitly given by the source dictionaries. These dictionaries are mainly designed for semi-automatic lemmatization in literary text-processing, data collections, etc. The technique is in principle very simple, although some problems arise also in this context. After alphabetical sorting, each word of the text is confronted with the forms (actually or potentially) listed in the dictionary (according to its organization in word-forms, or themes and endings). One of the following cases may occur: (i) the word of the text does not exist in the dictionary: it may be misspelt, and in this case must be corrected, or it may be a new

511

word, and its insertion in the dictionary taken into consideration; (ii) the word-form exists and is unique: its referenced lemma and eventual part-ofspeech are associated to the word-form; (iii) the word-form exists but is a homograph: the machine dictionary provides all the possible lemmas, and parts-of-speech, and inflection codes, and the lemmatizer must choose manually the appropriate lemmatization for each context in which the word-form occurs. Shortcuts to this procedure are considered in Choueka (forthcoming). The use of machine dictionaries in lemmatization, besides the obvious advantage of reducing time and costs, and minimizing human intervention, has the further advantage of providing a certain standardization to the lemmatization criteria. Flexibility is however granted to meet individual requirements, e. g. by grouping certain codes when more specific distinctions are not needed. (2 d) Machine Dictionaries for full-text information retrieval. The content is mainly constituted by thesaurus-like structural relations, codes of technical fields, synonyms, etc. (2 e) Word Lists for Spelling Checkers, which are usually a simple collection of word-forms, or stem-like forms with inflectional endings. Text verification to find spelling errors is becoming one of the major applications of computerized dictionaries in the commercial environment. Some systems are also able to suggest the proper corrections to be made, displaying in a window on the screen some suitable neighbour words among which to choose. This simple application, certainly not the most interesting from a theoretical point of view, however requires some research to gain sophisticated techniques of compression of words (organization in a tree structure, hashing functions, etc.) in order to store increasingly larger dictionaries on diskettes for small personal computers. It also uses statistics regarding the most common types of misspelt words and of typos, as determined for example by keyboard layout, or by pronunciation in a language. Positive results have been obtained in this area, and some systems available for several languages are valuable tools in detecting typing errors, and extremely helpful and timesaving when combined with one of the many word processors already available on the market.

512

Other more ambitious projects have developed from these first simple spelling correction systems: they aim at being more complex aids in writing and composition, using several functions accomplished by different modules. The Epistle project, developed at IBM Yorktown (Heidorn/Jensen/Miller et al. 1982, 305—326), and the Writer’s Workbench, designed at Bell Laboratories (MacDonald/Frase/Gingrich et al. 1982, 105—110) are two important examples worth mentioning. Other components which are envisaged for systems of this kind are: a syntactic parser to detect grammar errors, a synonym dictionary to choose more suitable or alternative ways to express an intended concept, a general computerized dictionary to check the actual meaning of a word, a stylistic analyzer to eliminate simple stylistic errors, a statistic component to calculate e. g. the number of words, either too vague, or too difficult or rare, etc. (2 f) Lexical Data Bases, containing structured and formalized information at many descriptive levels. These data bases make effective use of increasingly sophisticated computational technology, and appear to be the most promising field of research. Their aim is in fact to extend and to develop the scopes of early machine dictionary projects, owing to their wide range of application areas. Section 3. will be devoted to lexical data bases. (3) Source of the data: competence of the linguist. (3 a) ’Computational Linguistics’ Dictionaries, by which dictionaries for parsing systems, for Artificial Intelligence, for Machine Translation, for Question Answering, etc. are intended. These are usually rather complex in terms of content, but very limited in extent, and it seems very difficult to transfer the information designed for a very specific ’microworld’ to other domains. 2.2. Main Characterizing Elements For classificatory purposes we can define the following as the main elements of machine readable dictionaries: (a) the data, (b) the source of the data, (c) the search methods, (d) the information, (e) the uses and the users. 2.2.1. The Data Bare word lists as (1 a) and (1 b) (cf. 2.1.) contain only base forms (plus possible gram-

X. Application Fields II

matical and morphological codes), while the data contained in machine readable dictionaries of types (2 a), (2 b), (2 c) do not essentially differ from those contained in printed dictionaries: lemmas, grammatical categories, definitions, synonyms, etc. The additional information generally consists of the entire set of possible word-forms, either as a complete list, or as word-stems, inflectional tables or systems of endings, and a collection of morphological rules. The problem of an exhaustive formal description and representation of morphological information, and of the implementation of efficient computer programs for word-form recognition and production (cf. Koskenniemi 1985 a, 1—18; Ritchie/Black/Pulman et al. 1985, 8—9) is one of the issues highlighted by those research groups that are now beginning to develop large machine dictionaries. These descriptions intend to be not only operational and economical, but also linguistically wellmotivated. The data contained in computational linguistics dictionaries of type (3 a), i. e. in dictionaries as lexical components of natural language processing systems, are much more elaborate and detailed. It is possible to find the following types of data associated with their lexical entries: morphological information, strict subcategorization features, syntactic properties, case-frames, predicate-argument structures, selection restrictions, semantic preferences, semantic features or semantic primitives, collocations, indiosyncratic information, formal meaning representation, equivalents for transfer, etc. But the machine dictionaries so far available for natural language processing are usually small experimental samples; moreover, each natural language processing project has its own dictionary, strongly finalized to the parser which will use it. It follows that in this field the informational content is to some extent always different from one system to the other, and in any case it is represented with different formalisms according to the different linguistic theories embedded in the systems. The data contained in a lexical data base of type (2 f) should combine the ’neutrality’ of the first group of dictionaries with the ’linguistic complexity’ of the second. This complexity should be obtained both in depth within the lexical entry and in extensive coverage of linguistic properties.

39.  Dictionaries and Word Data Bases

2.2.2. The Sources The construction of machine dictionaries is doubtless a very time-consuming task. The products of the lexicographic tradition, i. e. printed dictionaries, are now widely recognized not only as one ot the main sources of data and information about a language, but also as important banks of general knowledge, owing to their social impact and to the important cognitive role they play as organizers of the universe of experience of the speakers. Many research groups all over the world have recently focused their attention on the possibility of manipulating the data contained in printed dictionaries — transferred into machine readable form — to obtain usable and explicit information on the lexicon. Among the groups involved in research projects of this kind, we can mention those at the University of Bonn (Brustkern/Hess 1983, 77—94; Brustkern/Schulze, 1984), at the University of Liège (Michiels 1982; Michiels/Mullenders/N oèl 1981, 43—83; Michiels/N oèl 1982, 227—232), at the University of Pisa and at the Institute for Computational Linguistics of Pisa (Calzolari 1977, 118—128; 1982, 61—64; 1983 a, 47—50; 1983 b, 225—233; 1984 a 179—173), at Bell Laboratories (Amsler 1980), at IBM Yorktown (Byrd 1983). The last authoritative enterprise, representing perhaps the best illustration of a general trend, is the project of computerization of the Oxford English Dictionary, which is being carried out partly at Oxford University Press and partly at the University of Waterloo (cf. Hultin/Logan 1984, 182—198). In these attempts, however, a number of problems persist, among which we can enumerate the following: — which is the best way to fully exploit existing dictionaries? — is it possible to integrate different lexical resources (e. g. different types of machine dictionaries)? — is it possible to envisage lexical data bases which are multifunctional and, furthermore, partially independent of different system theories? — is it possible to solve the copyright problem, which is present in a much wider context for electronic data? 2.2.3. Search Methods Differences in searching techniques can be referred to the two main ways of accessing a

513

file, i. e. sequential reading vs. direct or random access. The first technique has to be used with (2 a), (2 b), (2 c), while the second one with (2 f) and (3 a). The access issue is very important when organizing a lexical data base and will be discussed in further detail in section 3.2. Different search methods applied to the same data can generate completely different information, and different purposes or utilizations of machine readable dictionaries or lexical data bases can require different searching techniques when specific tasks are to be carried out with utmost efficiency. In this respect, it is the task of computational linguists to imagine new search strategies in the look-up process. Computational linguists should be able to understand the potential needs both of the specialist and the normal user, and their requirements when consulting a dictionary, so that this relatively new discipline, namely ’computational lexicology’, may satisfy new demands using new methods of exploring an old familiar obejct, i. e. the dictionary. 2.2.4. Resulting Information The information generated depends not only on the type of data, but also on the techniques used to store the data, on the access methods, on the type of processing. The information is arranged on various layers ranging from phonetics to semantics, and each layer can be composed of different ’building blocks’ or chunks of information, according to different goals or to different underlying linguistic theories. 2.2.5. Uses and Users The purposes can also vary and they range from simple spelling verification to lemmatization, to lexicological research and lexicographical practice (e. g. to improve the coherence and consistency in dictionary making), or to a number of computational linguistics applications, such as questionanswering systems, machine-aided translation, automatic indexing, information retrieval systems, man-machine communication, speech synthesis and speech understanding, office automation, content analysis, computer assisted instruction, etc. The lexicon can in fact be conceived as the point of conjunction of the different types of information to which any natural language processing system must have access: morphological, syntactic, semantic, pragmatic. Each different application sets some different demands

X. Application Fields II

514

on the content and the structure of the lexical entry, all of which should be taken into consideration. The users can be distinguished in human users (specialists or normal users), and other procedures (when the machine dictionary is for example an input for lemmatizing procedures, or for parsers, or for machine translation, etc.). 2.2.6. Minor Classificatory Criteria Machine dictionaries can also be classified according to other minor parameters: the quantity of the data, the physical device on which they are stored (tape, disk, mass storage system, diskette, etc.), the look-up algorithm, the internal organization (i. e. list of word-forms, or stems, endings, and rules). 2.2.7. Problems It is also necessary to mention some of the problems which are still present in this field: — neutrality of the data, with respect to different linguistic theories and different applications; — normalization and standardization of different machine dictionaries, at the level of data, of structure, of format, etc.; — adequateness from the point of view both of description and representation, and also of the results obtained; — dissemination, possibly free, of the information, at least for scholarly use and for scientific purposes: some publishing houses are in these years becoming aware of this exigence; — protection of copyright, as a guarantee for the publishing houses.

3.

Machine Readable Dictionaries Towards Lexical Data Bases

3.1. Data Base Organization In order to improve accessibility to dictionary data — whatever the applications — an efficient way to store or to retrieve highly structured information, as dictionary information certainly is, consists in using methodologies and techniques which are typical of data bases. A data base management system provides the user with tools which enable him to access the data without necessarily being familiar with their internal or physical organisation, but only with the type of informa-

tion he can retrieve. The user can communicate with the data base system using a query language which can be very close to natural language. Commercial data base systems, however, seem unable to meet the demands of linguistic or lexical data processing. In order to improve the processing of these complex data, it is therefore necessary to develop a suitable data base structure. The implementation of a data base containing the data of a machine dictionary first requires the design of an ad-hoc data structure, and also the employment of procedures modelled after the methods used in data base management systems. Logical organization of the data requires the creation of a model of the reality or of the world involved, in this case the lexical world. The model, or conceptual schema, is defined after the following have been established: (i) the object types or entity sets (each entity is an element characterized by a name, e. g. WORD-FORM, and identified by properties which are known as attributes: e. g. LEMMA, INFLEX. CODE, USAGE. CODE, etc.); (ii) The possible relationships and associations between properties of the same set or entities of different sets. The relational rather than hierarchical data model appears to be much more suitable for the logical structuring of the ’lexical world’. The choice of the relational data model presents the following advantages: — it is possible to increase the independence of the applications from the physical organization of the data base and from any changes which can be made within the data base structure; — the user does not necessarily have to be acquainted with the real physical organisation of the data and he can use quite simple languages for data description and data manipulation, based on the rules of relational algebra. The design of a relational data base consists in the definition of a set of relations which describe the facts to be represented and which act as the user interface to the data base. The entity-relationship model corresponds roughly to a non-hierarchic file or set of files. Each entity forms an n -tuple, and the tuples which form a relation correspond to records; the elements of the tuples are called ’attributes’ and correspond to different fields of the record. A relation is usually rep-

39.  Dictionaries and Word Data Bases

resented as a table where each row represents a tuple and each column an attribute. The set of lemmas of the dictionary, which is one of the basic entities of the lexical world, constitutes one of the fundamental relations of the data base. This set is directly connected to almost all the other relations. All information regarding the entities can be in the form of values describing qualitatively and/or quantitatively the set of attributes which are significant within the system to describe the entity. For the efficiency of immediate data retrieval procedures it is important to be able to construct some ’alternate indexes’ on the relations, using the method of the ’inverted lists’ or ’inverted files’. This method is also useful to link different relations. These indexes are degree 2 or binary relations, used as ’inversions’, and they provide direct and immediate access to the n -tuples using the values of any attribute as ’alternate keys’. Thus it is possible to generate multiple local views of the same data, in addition to the global overview, so that the acquisition of different information concerning the same data item is facilitated. The data can be ordered in such a way as to be all accessible or so that only occurrences or n -tuples which satisfy one or more conditions on one or more attributes can be accessed. Through the combination of primary and secondary keys, i. e. of physical and virtual links procedurally activated at the query moment, the data can in fact be accessed by any of the search keys definable in terms of the attributes present in the entity. In this structure, where pointers play an important role, links can be established which clearly could not emerge from the simple alphabetical order in which voices of a printed dictionary or the entries of an automatic sequentially memorised lexicon are recorded. The data can be easily rearranged automatically, the order being determined by the sort-key selected. The sort-key can for example coincide with the part-of-speech atrribute, so that the part-of-speech label becomes the selection or grouping criterion: it is possible either to retrieve all the adjectives together, or all and only the intrasitive verbs which govern a thatclause, or all the feminine nouns used in locutions, etc. By means of virtual groupings of subsets of data of this type, dictionary information is virtually organized from time to time according to different criteria. This organisation therefore allows immediate direct access to all the data types contained in the

515

base clusters (also useful to update the main relations and the indexes, or for deletion, modification, etc.). A lexical data base should be created bearing in mind that it must serve as a tool for various types of linguistic applications and will also be used for research in the lexical field. The user is not expected to be an expert in the field of electronic data processing or even familiar with computer usage in general. Thus, one of the principle aims is to create a system particularly suitable for the ’linguist’ user who needs not learn special computer techniques. This implies that: (a) the user only needs to be acquainted with the objects described in the data base, and not concerned with details on the physical organisation of the data or their logical structuring; (b) the user must be able to extract linguistic information from a large data base without specifying the particular retrieval mode to be used by the system. This means that the query language should preferably be of the ’non-procedural’ type. In fact, for the end-user of a data bank, the actual choices of particular physical structures need to be transparent (the socalled ’data independence’) as the user must not be worried with internal details. Queries must be independent of the storage structures and access methods chosen by the data base designer. Furthermore, different users of the same data base require different subsets of the entire data universe. The different views of a data base, or subschemata, exist virtually: in reality they are defined in terms of ’data base retrieval functions’. Each alternative view of the data provided to the user can be considered as a dynamic ’window’ on the data base. The definition of a view is simply a process of derivation of one relation from a set of relations. This means that the same data can be accessed in various ways, using different paths, and that multiple views can be generated for the same data. The data base must also be implemented so that it can be queried by different users contemporarily, and accessed from within other programs. One objective is to model a lexical data base so that it may become a reference point both for research work and for linguistic applications at various levels (e. g. studies on the lexical system, automatic translation, processing and analysis of literary text, computer-aided instruction, etc.).

516

3.2. Access to the Data and Relations Among Words The ’word access issue’ is essential in the project of a lexical data base, where the computational organization must reflect the different layers of linguistic information. A dictionary organized in data base form will obviously overcome all the restrictions imposed by the sequential alphabetical organization of the lexical entries. In this context, it is fundamental to study the best procedures able to change the implicit information contained in the printed dictionary into explicit relations in the data base, along with the acquisition of new and linguistically relevant search methods. This requires an accurate preliminary analysis of the implicit structure of the lexical entry, and an evaluation of its basic data elements, so as to trace a preliminary working hypothesis for the formalization of an ’ideal lexical entry’ with the relevant categories of information in the data base. Some categories of information such as usage labels or subject fields are very easy to structure, as they have already been coded in the printed dictionary. This also applies to the lemma or to the grammatical information, although in a slightly more complex manner. In the same way as it is possible to have a rather easy access to the dictionary by the lemma or base-word (so that morphological families can be quite easily recomposed, starting with any one word), or to use grammatical categories as access points (e. g. for the retrieval of all the subordinative conjunctions), semantic relations can also be traced. In this respect, far greater advantages and significant gains can be obtained if definitional data of standard printed dictionaries are also used to construct ’semantic’ equivalence classes. The possibility of establishing interesting correspondences between lexical and/or syntactic schemata of definitions on the one side (e. g. ’with the purpose of’, or ’used for’), and semantic or pragmatic relationships on the other (e. g. GOAL, IN STRUMEN T) must be exploited. Working with appropriate procedures and filiation techniques on lexicographical definitions it is possible to construct virtual IS-A hierarchies, or to implement other taxonomies based for example on the ’Part-Whole’, or ’Set-of’ relations, which help us to disclose many dimensions of ’relatedness’ between words in the lexicon. A

X. Application Fields II

different data structure must be designed for each different relationship. A different index to the dictionary is also required. It is then possible to grasp the semantic relations between the members of a connected set of words, and to recognize a complex network of relationships among words at various levels. The virtual re-structuring of the data for the dictionary user depends on the different semantic relations requested when querying the lexical data base. In this way the computer is essential to increase the dynamism and the pluralism of a given set of data. We have in fact a dynamic approach to the semantic meaning of a word in terms of interrelations between word elements, when combinations of words grouped according to semantic criteria can be searched and produced. One can query a lexical data base, ordered by ideas, to find not only a word, but in a certain sense also the meaning he has in mind. This can be achieved in an efficient and interactive manner through various explorations of all the possible paths which relate this general meaning to all its proximate correlates, according to the different kinds of selected relations. Travelling in this way through the dictionary we are provided with a range of perspectives under which the first meaning can be considered. One can start with the notion of ’instrument’, and look for all the types of instruments, or narrow the search to ’musical instrument’, or search for verbs meaning ’to work with an instrument’ (e. g. ’to hammer’), or look at the adjectives which can be best associated with names of instruments, and so on. This method of grouping entries into thesauric sets and subsets is a valuable means of studying the lexical structure, and can be considered as a stimulus for further research in the investigation of lexical phenomena. Work on natural language definitions of standard dictionaries is performed with many types of procedures to obtain a tool of the type described above. With this approach we are moving towards the transformation of the metalanguage of definitions into a first nucleus of an extended Knowledge Base, where techniques developed in Artificial Intelligence (such as semantic network structures) or in Data Base Management Systems must be taken into serious consideration. While designing a logical structure for the lexical data, with many access points, i. e. with many types of correlations, we are also

39.  Dictionaries and Word Data Bases

tending towards a simulation of memory organization, where the theories, methods, and techniques involved in Psycholinguistics are certainly very important. 3.3. Multiplication of Information in a Lexical Data Base A true lexical data base can also be characterized as a ’multifunctional’ object (cf. Zimmermann 1983, 279 ff.), and in a certain sense also as a ’multidimensional’ dictionary, where one can search for different word aspects by simply following different paths within the data base. A computerized dictionary, where the original data can be viewed under a variety of different perspectives, also has the property of ’multiplying’ the information offered by the same set of data. The multiplying factor is given by all the distinct views, or distinct search strategies, which enable the user to approach the lexical entries, in other words by the various correlations which can be established among the data. Furthermore, in this lexical interconnected structure, the same piece of information can be reached starting from a number of different locations within the lexicon and traversing distinct paths from each one. Each way of reaching a word corresponds to a different way of interpreting the word itself, according to the links and the pointers traversed and exploited in the search: in fact each path captures a different distinctive feature. The property of ’multifunctionalism’ consists in the possible use of a lexical data base for several purposes either in different applications or by different types of users. Very interesting in this framework is the notion, developed by Kay (1983 a, 10), of a ’dictionary server’, which is able to answer requests from other devices for data retrieval. According to this concept, different procedures should be able to make use of different parts of the dictionary content in specific applications, by means of different interfaces. Each user (human or procedural) views only those data which are relevant to his purposes, and can ignore those aspects which concern the internal organization, such as physical pointers, storage devices, ways of indexing, etc. Furthermore, a good automatized general dictionary — as a result of the property of multiple access — makes it possible to produce many virtual secondary sub-lexicons, which include specifically selected portions of the dictionary, such as terminological or

517

specialized sub-dictionaries, reverse dictionaries, synonym dictionaries, conceptual dictionaries or thesauri, etc. These valuable byproducts only differ in the way the original data are selected, sorted and interrelated, and they depend on the way in which the data are indexed. Each of these ancillary research tools may satisfy the needs of different types of scholars, or may be employed in specific applications. Consequently, also the traditional distinction between ’dictionary’ and ’thesaurus’ can be overcome by an appropriate utilization of the computational tool, since both the dictionary and the thesaurus are embodied in the same automated object, which becomes the repository of all the relevant information on the lexical facts. Thesaurus and dictionary structures are no longer incompatible structures in the multidimensional perspective provided by the ’multiple access paradigm’. Furthermore, when designing and implementing new models of lexical data bases, we must consider the possibilities of integration and cooperation within and between different fields, and keep in mind the implications for connected research areas as lexicology, lexicography, dictionary design, natural language processing systems, knowledge based systems, machine translation, language teaching, etc.

4.

Bilingual Computerized Dictionaries

The research community has so far paid little attention to the area of bilingual machine readable dictionaries. The use of the computer in this field is limited to the setting of bilingual dictionaries on tapes for photocomposition, or to the compilation of lists of corresponding words for Machine Translation, or to the creation of term banks and terminological glossaries with translation equivalents in many languages. This could instead be a very interesting field to explore in the next years, both for theoretical and for applicative reasons. Its development will certainly have an important impact on many application areas demanding new types of access also to bilingual data. Moreover, research in the logical design of a bilingual lexical data base stimulates considerations in the related fields, and raises interesting issues in epistemology, knowledge representation, sociolinguistics, contrastive linguistics, etc.

X. Application Fields II

518

Other important points to explore are the following: — whether printed bilingual dictionaries are a useful source of information for the implementation of bilingual lexical data bases, as ascertained for monolingual printed dictionaries; — whether there is a need for other sources of information; — whether it is possible to extend the computational methods used for monolingual data bases also to bilingual ones; — whether the structure of conventional bilingual dictionaries can be exploited computationally in order to generate correct and valuable links not only between lexical words, but also lexical concepts (this is important to avoid, for example, semantically anomalous sentences); — whether bilingual dictionaries are useful to connect two monolingual lexical data bases. All these questions, and others, demand further investigation, if we conceive the bilingual dictionary not only as a repository of static equivalences between isolated lexemes, but also as a means to evidence the dynamic system of relationships within and between different lexical systems.

5.

Lexical Data Bases and a New Lexicography

The development of large lexical data bases with multiple access points and possibility of many dynamic views, with the parallel development in the field of on-line full-text retrieval systems, represents a turning-point towards a new type of lexicography. Storage capacity is becoming a minor problem because of new devices such as mass storage systems. Large textual archives are now interactively accessible and allow to have the whole collection of citation examples in the form of a computer data base. We can summarize the various phases of traditional lexicographic work in (i) documentation, (ii) compilation, (iii) editing, and consider the different ways in which the type of lexical data base here envisaged can influence all aspects of dictionary preparation, especially if connected to large textual data bases. We can imagine the lexicographer, in the process of collecting and analyzing the data, sitting in front of the terminal screen, where in many windows different pieces of information are contemporarily displayed for better

consultation. He can look up on-line the textual corpora and the collection of citations by activating different access routines resulting in a variety of search strategies. In an almost unlimited way both as to extension and depth of analysis, the lexicographer can ask for concordances, for distributional and statistical information, not only of single raw word-forms but also of collocations or co-occurrences of words. Moreover, he can draw upon all the explicit or implicit information contained in an online computerized dictionary. The lexical data base becomes a powerful tool to expand the user’s request to a higher level than that of simple word-form. The input query is generally submitted to the dictionary specifying the desired level of expansion; the dictionary reformulates the original query as a disjunction of different search keys (furthermore decomposed in lemmas and their wordforms). The simplest way of using the dictionary is obviously to employ the lemma as a searchkey to find all the contexts where an inflected word-form of its paradigm occurs, i. e. to obtain lemmatized contexts. Furthermore, all the graphical variants of a word, or all the words with the same suffix, or all the contexts where a spatial preposition is used can be queried and searched in the textual corpus. A consistent improvement is obtained when the computerized dictionary is used as a thesaurus reflecting its semantic structures onto the running texts, without any previous formatting, codifying, or indexing of the texts. This allows to evidence — according to the criterion chosen by the user — semantically related series of words, or hierarchies of hyponyms, or synonyms, etc., by which the research procedure onto the texts is activated. In this way the lexicographer is able to handle families of related entries contemporarily, in order to treat them all in the same way and to avoid contradictions. It is possible to analyze the different shades of meaning of one term in comparison with other terms belonging to the same semantic field, the collocations or idiomatic usages in which they are included, their relative frequencies, the syntactic constructions in which they are employed. Other obvious practical advantages of the computer in dictionary making are the following: — to check exhaustively the various types of cross-references,

40.  Computergestützte Grammatikographie

— to control the coherence of metalanguage, — to verify that there are no hidden entries, — to normalize the definitional language, — to analyze the consistency among related pieces of information, — to avoid circular definitions. Editing of dictionary articles can obviously be carried out on-line, and handled using standard procedures. Finally, the end-product of the lexicographer’s effort can be — besides the static printed version of the dictionary — a highly dynamic ’teledictionary’ (cf. Quemada 1983, 30). Owing to modern technology, the ’dictionary of the future’ for general consultation here envisaged will shortly become the ’dictionary of the present’. It will probably be available to the normal user in the next ten years, either in the form of magnetic tapes or diskettes, or possibly distributed as a computer service to which individual users may subscribe and have access from their own home computers.

6.

Literature (selected)

A. J. Aitken 1983 · S. Allén 1980 · S. Allén 1983 · H. Alshawi/B. Boguraev/T. Briscoe 1985 · R. A. Amsler 1980 · R. A. Amsler 1982 · R. A. Amsler 1984 · U. Bortolini/C. Tagliavini/A. Zampolli 1971 · P. Bratley 1983 · J. Brustkern/K. D. Hess 1983 · J. Brustkern/W. Schulze 1984 · R. J. Byrd 1983 · N . Calzolari 1977 · N . Calzolari 1982 · N . Calzolari 1983 a · N . Calzolari 1983 b · N . Calzo-

519

lari 1983 c · N . Calzolari 1983 d · N . Calzolari 1984 a · N . Calzolari 1984 b · N . Calzolari 1984 c · N . Calzolari/M. L. Ceccotti 1981 · N . Calzolari/ M. L. Ceccotti/A. Roventini 1984 · N . Calzolari/ E. Picchi 1984 · E. M. Dandien 1985 · M. W. Evens/B. E. Litowitz/J. A. Markowitz et al. 1980 · W. N . Francis 1980 · Gruppo di Pisa 1979 · R. R. K. Hartmann (ed.) 1983 · R. R. K. Hartmann (ed.) 1984 · G. E. Heidorn/K. Jensen/L. A. Miller et al. 1982 · K. Hofland/S. Johansson 1982 · N . C. Hultin/H. M. Logan 1984 · S. Johansson (ed.) 1982 · M. Kay 1983 · B. Kipfer 1983 · F. Knowles 1983 · K. Koskenniemi 1985 · H. Kučera/W. N . Francis 1967 · LDOCE 1981 · G. Leech/R. Garside/E. Atwell 1983 · N . H. MacDonald/L. T. Frase/P. S. Gingrich et al. 1982 · W. J. R. Martin/B. P. F. Al/ P. J. G. van Sterkenburg 1983 · A. Michiels 1982 · A. Michiels/J. Mullenders/J. N oël 1981 · A. Michiels/J. N oël 1982 · M. N agao/Y. Tsujii/K. Mitamura et al. 1980 · M. N agao/J. Tsujii/Y. Ueda et al. 1982 · J. Olney/D. Ramsey 1972 · E. Picchi 1983 · E. Picchi/N . Calzolari 1985 · B. Quemada 1983 a · R. Quirk 1968 · B. Ralph 1980 · G. D. Ritchie/A. W. Black/S. G. Pulman et al. 1985 · J. Svartvik/M. Eeg-Olofsson/Forsheden et al. 1982 · J. Svartvik/R. Quirk (eds.) 1980 · L. Urdang 1985 · D. E. Walker/R. A. Amsler 1984 · A. Zampolli 1983 · A. Zampolli/N . Calzolari (eds.) 1977 · A. Zampolli/N . Calzolari (eds.) 1980 · A. Zampolli/ N . Calzolari 1985 · A. Zampolli/A. Cappelli (eds.) 1983 · H. H. Zimmermann 1983.

Nicoletta Calzolari, Pisa (Italy)

40. Computergestützte Grammatikographie. Eine Fallstudie 1. 2. 3. 4. 5.

1.

Vorbemerkung Traditionelle und computergestützte Grammatikographie Ansätze computergestützter Grammatikographie Fallstudie: Grammatik des Frühneuhochdeutschen Literatur (in Auswahl)

Vorbemerkung

Wenn Grammatikographie (zum Stichwort s. Cherubim 1980) analog zum Terminus Lexikographie bestimmt wird, erscheint der Mangel an einer praktischen Grammatikographie und ihrer theoretischen Grundlegung besonders deutlich. Grammatikographie meint im folgenden die Praxis des schriftlichen Abbildens von Grammatik, gleich welcher Me-

thode die Darstellung verpflichtet ist. Es bedarf noch einer genaueren theoretischen Klärung, von welchem Grad der Vollständigkeit der Beschreibung einer Sprache an man den Begriff Grammatikographie gelten läßt, doch sollte Vollständigkeit zumindest intendiert sein. Computergestützte Grammatikographie wird somit verstanden als das auf Vollständigkeit bedachte schriftliche Abbilden eines grammatischen Systems/Teilsystems mit Unterstützung eines Rechners.

2.

Traditionelle und computergestützte Grammatikographie

Die Computerunterstützung bedeutet im Rahmen der Grammatikographie — wie auch in anderen Bereichen — weitgehend

X. Application Fields II

520

eine Ersetzung traditionell manuell durchgeführter Arbeitsschritte durch maschinelle. Die elementaren Arbeitsschritte der Grammatikographie sind: 1) die Beschaffung der Materialbasis; 2) die Aufbereitung und Bereitstellung des jeweils relevanten Materials, die traditionell in Form eines Zettelkastens erfolgen; 3) die Analyse der Elemente und Regeln der Grammatik und 4) die Darbietung der Ergebnisse in einer mehr oder weniger bewußt und mehr oder weniger geschickt didaktisierten Form. Im Falle des computerunterstützten Vorgehens ist der erste o. g. Arbeitsschritt der Materialgewinnung als Vorstufe zu betrachten (die Möglichkeit, daß es bereits ein einschlägiges maschinell gespeichertes Korpus für eine bestimmte Sprache/Sprachstufe gibt, entkräftet dies nicht). Es folgt ein Arbeitsschritt, der in der traditionellen Vorgehensweise keine Parallele hat — die maschinelle Speicherung des Korpus durch Eingabe ganzer Texte oder des für die Untersuchung relevanten Materials im engeren Sinne (bestimmte Wortklassen etc.) und dessen Codierung. Dieser in der Regel zeit- und arbeitsaufwendige Vorgang bereitet die weiteren Arbeitsgänge in der Weise vor, daß die hier eingebrachten Investitionen durch die Maschinenunterstützung bei den folgenden Arbeitsschritten wieder wettgemacht werden (sollten). Der oben unter 2) genannte Arbeitsschritt ist damit der erste, der maschinengestützt ablaufen kann. Die Ersetzung des traditionellen, häufig schwerfällig handhabbaren, relativ fehleranfälligen Zettelkastens durch ein maschinell gespeichertes und verfügbares Material gehört zu den elementarsten Bereichen der Computeranwendung in der Linguistik. Dabei steigt der Grad an Effizienz des computergestützten Vorgehens mit der Anzahl der Einträge, die im Verlauf der weiteren Arbeit als Sortierkriterium dienen sollen. Die notwendigen Programme, mit deren Hilfe einfache Operationen wie Sortieren, Zählen, Vergleichen etc. durchgeführt werden können, sind entsprechend elementar. Die Ersetzung des oben unter 3) genannten Arbeitsschrittes, der philologischen Analyse der Materialgrundlage, d. h. die automatische Ermittlung von Elementen und Regeln einer Grammatik, setzt dagegen bereits komplexe Programme, und diese setzen wiederum ein gewisses Mindestmaß an Vorwissen über die zu erwartenden Ergebnisse vor-

aus. Entweder werden die notwendigen Programme auf der Basis einer Pilotstudie entwickelt und zunehmend optimiert, oder sie werden ex post geschrieben, um sie auf andere, vergleichbare Unternehmen anzuwenden. N ur in ganz seltenen Fällen ist eine Programmierung a priori in diesem Bereich möglich. Den oben unter 4) genannten und letzten Arbeitsschritt, die Darstellung der Ergebnisse, zu automatisieren, ist nur in wenigen Fällen sinnvoll, obgleich die Programme hierfür wieder elementar sind und ein größerer Aufwand nur in der Programmierung des Layouts besteht. Dies sind Tabellen, Abbildungen etc., die direkt in eine Grammatikdarstellung übernommen werden können (vgl. etwa Abb. 40.2 und 40.3). Versuche hierzu sind in größerem Ausmaß bisher nur aus dem Forschungsunternehmen Grammatik des Frühneuhochdeutschen publiziert (Moser/Stopp/Besch 1987 f.; vgl. auch Lenders/ Wegera 1982; s. ebd. S. 5 ff. zum Gegensatz manuellen vs. maschinellen Vorgehens).

3.

Ansätze computergestützter Grammatikographie

Grammatikographische Unternehmen mit Computerunterstützung sind (noch) selten. Zwar existieren zahlreiche Programme zur grammatischen Analyse, doch dienen diese kaum grammatikographischen Zwecken, sondern sind entweder Teil umfassender Verarbeitungssysteme mit anderen Zielsetzungen oder sie sind bisher nicht über das Stadium der Analyse hinausgelangt. So ist etwa auch das von Eggers in den fünfziger Jahren initiierte erste größere computergestützte linguistische Vorhaben in der Bundesrepublik, das eine deskriptive Syntax des Deutschen anstrebte, nur zu Ansätzen einer operativen Grammatik gelangt (vgl. dazu Eggers 1969). Prinzipiell ist zu unterscheiden, ob es sich bei einem Unternehmen um die wiederholte Beschreibung eines grammatischen (Teil)Systems handelt oder um eine erstmalige Erarbeitung eines solchen. Im ersten Fall können die Regelsysteme und Elemente als bekannt vorausgesetzt werden, so daß das Forschungsinteresse nicht primär auf die Grammatikographie gerichtet ist. Die Zielsetzung solcher Unternehmen ist etwa die automatische Indexierung/Lemmatisierung, für die die automatische Deflexion nur eine Voraussetzung für das eigentliche Ziel darstellt (vgl.

40.  Computergestützte Grammatikographie

u. a. von Hahn/Fischer 1975; von Hahn/ Hoeppner 1975; Schott 1975; 1978). Im zweiten Fall sind die Elemente und Regeln nicht oder nur teilweise bekannt und stellen erst das Ergebnis der Analyse dar; hier beschränkt sich die Computerunterstützung — bis auf geringe Ausnahmen — weitgehend auf die automatische Materialgewinnung und Bereitstellung. Analysen, die bisher nicht zu Beschreibungen geführt haben, sind inzwischen auf allen grammatischen Ebenen versucht worden (vgl. die Übersicht bei Lenders 1980; danach: Wothke 1983; 1985; Winkelmann 1980; Schuhmacher 1982; Zoeppritz 1984). Dagegen sind Unternehmen, die über die Analyse hinaus zu (publizierten) Beschreibungen geführt haben, zumindest für das Deutsche rar und beschränken sich auf die Erforschung historischer Sprachstufen und hierbei besonders auf das Frühneuhochdeutsche. Im Bereich der Graphematik sind Arbeiten von Piirainen (1968) und Straßner (1977 a) erschienen, wobei Piirainen sich auf einen Autor (Hans Ulrich Krafft) beschränkt (vgl. Art. 15). Zur Morphologie (einschließlich Wortbildung) ist bisher lediglich das Forschungsunternehmen Grammatik des Frühneuhochdeutschen in Bonn gut dokumentiert, das in einer Fallstudie im folgenden Kapitel vorgeführt wird. Im Bereich der Syntax ist der Ansatz von Rössing-Hager zu erwähnen (vgl. Rössing-Hager 1970, 1978, 1980). Die anhand frühneuhochdeutscher Flugschriften (Johann Eberlin von Günzburg) vorgeführten syntaktischen Deskriptionen sind bisher jedoch nicht auf andere Texte übertragen worden (vgl. dazu auch Lenders 1980, 236).

4.

Fallstudie: Grammatik des Frühneuhochdeutschen

Im Forschungsunternehmen Grammatik des Frühneuhochdeutschen in Bonn (vgl. Graser/ Wegera 1978, Lenders/Wegera 1982) wurde der Computer für die Erarbeitung der frühneuhochdeutschen Flexionsmorphologie von der Analyse des Materials bis hin zur Darbietung der Ergebnisse genutzt. Da hier die Computerunterstützung weiter als in allen bisher bekannten Unternehmen zur Grammatikographie genutzt wurde, soll das Unternehmen exemplarisch vorgeführt werden. 4.1.  Das Ziel des Forschungsvorhabens war die Erarbeitung der Teile ’Flexion der Substantive’ und ’Flexion der starken und schwa-

521

chen Verben’ der ’Grammatik des Frühneuhochdeutschen’ (vgl. unter 5.). Die Materialbasis stellte ein Korpus von 40 Originalquellen aus der Zeit von ca. 1350 bis ca. 1700, verteilt über die verschiedenen hochdeutschen Sprachlandschaften, dar (vgl. Graser/ Wegera 1978). Das Frühneuhochdeutsche bietet — wie im übrigen mehr oder minder alle historischen Sprachstufen des Deutschen — ein hohes Maß an graphischer und morphologischer Variabilität, deren Elemente vorab nicht bzw. nur zu einem Teil bekannt und somit erst zu ermitteln waren. Dies ergab einige Probleme für den Computereinsatz; und hierin liegt ein wesentlicher Unterschied zu den Verfahren, die an normierten Sprachen wie der neuhochdeutschen Standardsprache mit nur geringer und zudem hinlänglich bekannter Variabilität erarbeitet und erprobt wurden. 4.2. I. Stufe: Computerunterstützte Herstellung grammatisch klassifizierter Belegregister Das Ziel der ersten Stufe war die Ersetzung des Zettelkastens durch ein mit Unterstützung des Rechners erstelltes, maschinell bereitgehaltenes Material. Das Ergebnis sollte eine Datei sein, die zu jedem für das Vorhaben relevanten Beleg eine Reihe von vorher festzulegenden Informationen enthielt. Diese Informationen, deren philologische Begründung hier im einzelnen nicht genannt zu werden braucht, sind bedingt durch den Gegenstand der Untersuchung — die Flexionsmorphologie. 1. Schritt (manuell): Es wurden 40 Texte des Zeitraums von ca. 1350 bis ca. 1700 — verteilt über die verschiedenen hochdeutschen Sprachlandschaften — maschinenlesbar gespeichert und bei der Eingabe mit Markierungen der jeweiligen Wortarten versehen. Die Texte wurden diplomatisch getreu eingegeben und gegebenenfalls codiert. Zusätzlich erhielt jede Zeile des Textes einen sogenannten Ordnungsteil, bestehend aus zwei Informationsteilen: 1. einem Zahlenschlüssel, der eine Art Textnummer darstellt und der es ermöglicht, die Texte hinsichtlich der räumlichen Herkunft und Entstehungszeit zu sortieren und in jeder wünschenswerten Weise zu kombinieren (alle Texte eines Zeitraums oder alle Texte aus dem Mittelbairischen etc.), 2. die dem Original entsprechende Angabe der Seite, Spalte und Zeile (vgl. Abb. 40.1, jeweils Punkt 2).

X. Application Fields II

522

Aufbau der Substantivdaten Bezeichnung der Merkmalfelder 1. Beleg in Originalschreibung 2.Ordnungsteil a) Textnummer Seiten- (bzw. Blatt- u. Zeilenangabe b)u. Substantivnummer in der Zeile

Bemerkungen Beispiel Beschreibung kodiert 145 51R061

3.grammatische Formenbestimmung

112

4.Grundform (= Sortierform) 5.’Präfix’ 6.Satzzeichen, das dem Beleg folgt 7. Stammvokal 8.Derivationssuffix 9.Sonderzeichen

Schreibung Be =

= Schlüssel für Teilkorpus (= 1), Landschaft (= Obersächsisch), Zeitraum (= 1550—1600) Blatt 51 Recto, 6. Zeile, 1. Substantiv = Schlüssel für Kasus (= Nom.), Numerus (= Sg.) u. Genus (= Fem.) hier keines vorhanden

ei ung F (= fremdsprachlich), hier nicht notwendig

Aufbau der Verbdaten Bezeichnung der Merkmalfelder 1.Beleg in Originalschreibung 2.Ordnungsteil a)Textnummer

Beispiel erinnerte

Bemerkungen kodiert

117

b)Seiten- (bzw. Blatt-) u. Zeilenangabe u. Verbnummer in der Zeile 3.grammatische Formenbestimmung

50X031

= Schlüssel für Teilkorpus (= 1), Landschaft (= Mittelbairisch), Zeitraum (= 1650—1700) = Seite 50 in einem einspaltigen Text (= X), 3. Zeile, 1. Verb = Schlüssel für Person (= 3.), Numerus (= Sg.), Tempus (= Prät.), Modus (= Ind.)

4.Grundform (= Sortierform) a)mit ’Präfix’ b)ohne ’Präfix’ c)’Präfix’ 5.Flexionsklasse 6.Stammvokal 7.Stammnebensilbenvokal 8.Stammauslaut 9.belegter Endungsvorsatz (Präteritalsuffix) belegte Endung 10.

3122

erinnern innerner2

= Schlüssel für schwaches Verb (= 2)

e r -t-e

nichtverbale Zusätze 11.

etwa Deklinationsendungen (hier nicht vorhanden)

Sonderzeichen 12.

etwa F (= fremdsprachlich), hier nicht notwendig

’normalisiert’ 9. 13.

-t-

im Falle von -d- würde hier zu -tnormalisiert

’normalisiert’ 10. 14.

-e

im Falle eines vollen Nebensilbenvokals würde zu -e normalisiert

Silbenzahl (ohne Präfix) 15.

2

Eintrag nur, wenn Lexem mehrsilbig

Abb. 40.1: Aufbau der Belegdaten

523

2. Schritt (maschinell): Zur philologischen Bestimmung der weiteren Informationsblöcke (Abb. 1, 3—9 bei den Substantiven bzw. 3—15 bei den Verben) wurde ein KWIC-Ausdruck der jeweiligen Wortart erstellt (alphabetisch sortierte Belege mit dreizeiligem Kontext und freien Feldern für die jeweiligen Einträge).

Abb. 40.2: Ausdruck zur Auswertung der Substantivdaten

3. Schritt (manuell): Der dritte Schritt der ersten Stufe umfaßte die Eintragung der im Blick auf die Flexionsmorphologie der Substantive und Verben für notwendig erachteten Daten und deren Speicherung in eine von der Textdatei getrennte Datei; der kombinierte Zugriff auf beide Dateien ist über den gemeinsamen Ordnungsteil gesichert.

X. Application Fields II

524

4. Schritt (maschinell). Es wurden — getrennt nach Wortarten — Ausdrucke der Substantiv- bzw. Verbdateien nach verschiedenen Sortierungen hergestellt. Als besonders zweckmäßig erwiesen sich dabei — neben den alphabetischen Sortierungen nach Lemmata — die Sortierungen nach flexionsmorphologisch relevanten Blöcken; bei den Substantiven: nach N umerus, innerhalb jedes N umerus getrennt nach Kasus und Genus; bei den Verben: nach Tempusstufen, innerhalb der jeweiligen Tempora getrennt nach N umeri und innerhalb der N umeri nach Personen, innerhalb der Personen nach Modi. Eine formale Simulation der traditionellen Karteizettel mit Hilfe eines ausgedruckten Formulars wurde erwogen, aber aus Effizienzgründen verworfen. 4.3. 2. Stufe: Computergestützte Auswertung der Verb- bzw. Substantivdaten Ziel der zweiten Stufe war die maschinelle Erstellung von Einzeltextgrammatiken im Bereich der Flexionsmorphologie. Das Ergebnis sollten maschinell erstellte ’Bausteine’ der zu erarbeitenden Endfassung einer Grammatik sein. Diese Bausteine wurden zunächst einzeltextbezogen erarbeitet; später wurden Texte nach verschiedenen Gesichtspunkten kombiniert. Als Bausteine galten: für Verben: — Übersicht über alle Verbendungen — Übersicht über die Flexive und deren Varianten (bes. -e/-Ø- Verteilung) — Übersicht über den Wechsel des Stammvokalismus (Ablautreihen) für Substantive: — Übersicht über alle Substantivendungen — Übersicht über die Flexive und deren Varianten — Übersicht über die Flexionsparadigmen — Übersicht über den Wechsel im Stammvokalismus (Umlaut) — Übersicht über den Genuswechsel. Als Beispiel für derartige Bausteine der Grammatik sei hier die Übersicht über den Vokalwechsel bei der Pluralbildung (Umlaut) aus dem Bereich der Substantive angeführt (vgl. Abb. 40.2). Eingabedaten sind die Substantivdaten eines Textes mit folgender Sortierung der Merkmalfelder: Textnummer, Lemma, grammatische Formenbestimmung N( umerus, Kasus), Stammvokal. Der Output besteht aus einer Übersicht über den Vokalwechsel zwischen Singular und Plural und die Vokalvarianz innerhalb eines Numerus. Diese Darstellung könnte nun bereits in

eine Grammatikdarstellung übernommen werden. Im Forschungsunternehmen Grammatik des Frühneuhochdeutschen dienten solche Darstellungen jedoch lediglich der Auswertung. Anhand dieser Abbildung sind folgende Aussagen zur Pluralbildung möglich: — in Text X sind 7 Lexeme mit Stammvokalwechsel zwischen Singular und Plural belegt; — Der Umlaut von u, o, a wird durch Diakritika graphisch angezeigt (was im Frühneuhochdeutschen in großen Teilen des deutschen Sprachgebietes durchaus noch nicht die Regel ist); — Die Bezeichnung des Umlautes von u ist ü; ů dagegen ist eine graphische Variante zu u (aus ehemals uo ) im Singular; — Die Umlautsbezeichnung von o und a ist variabel ( ö~, bzw. e~ ); — Ein Beleg tritt im Plural ohne Umlautbezeichnung auf ( Gotter ), obwohl ansonsten bei dem Substantiv Gott im Plural der Umlaut bezeichnet wird.

Durch Änderung der Eingabesortierung können nun auch entsprechende Übersichten auf der Basis mehrerer oder aller Texte ausgedruckt werden, etwa um den Umlaut bei einzelnen Lexemen, in einer Landschaft oder einem Zeitraum beschreiben zu können. In dieser Phase der Arbeit zeigte sich, daß das Ergebnis nicht in jedem Fall den relativ hohen Programmieraufwand rechtfertigt. So erwies sich in einigen Fällen die Arbeit mit Ausdrucken sortierter Listen als effizienter. 4.4. 3. Stufe: Automatische Datengewinnung Ziel der dritten Stufe war die Überführung linguistischer Grundoperationen — konkret der strukturalistischen Operationen der Belegsegmentierung und der Klassifizierung — in maschinell durchgeführte Verfahren. Ergebnis sollten maschinell erzeugte Übersichten über die Morpheminventare, Paradigmen und Flexionsklassen sein. Dabei wurde bei Verben und Substantiven unterschiedlich verfahren. 4.4.1. Segmentierung und Klassifizierung der Verben Bei den Ve r b e n gehörten die Belegsegmente, die durch die philologische Bearbeitung zuvor ermittelt und dann gespeichert wurden, von Beginn an zur Datei (vgl. Abb. 40.1 die Punkte 5—11 der Verbdatei). Ebenso wurde zu jedem Beleg eine Klassenangabe eingegeben, wobei keine strukturelle Klassifizierung vorgenommen wurde — das war bei diesem Stand der Arbeiten noch nicht mög-

525

lich —, sondern es wurde die Klassenangabe nach der Mittelhochdeutschen Grammatik (Paul/Moser/Schröbler, eds., 1975) in modifizierter Form übernommen. Die Auswertung konnte entsprechend den Stufen 1 und 2 vorgenommen werden. Auf der Basis der Dateien von 40 Texten wurde nun ex post ein automatisches Segmentierverfahren entwikkelt, so daß mit Hilfe der gespeicherten Informationen die Segmentierung maschinell noch einmal vollzogen werden kann, was wenig effektiv für das Forschungsvorhaben selbst war, das es aber erlaubt, die Qualität des Programms und vor allem dessen Sicherheit zu überprüfen. Dieses Programm, dem das — für die Zwecke der morphologischen Analyse modifizierte — Konzept eines Augmented Transition N etwork Parsers zugrunde liegt (vgl. Dammers/Frackenpohl/ Gehrke 1982), ist aus verschiedenen Programmen zur Prüfung der Datenkonsistenz erwachsen. Diese logische Weiterentwick-

lung kann natürlich auch auf andere Texte, andere Forschungsvorhaben und prinzipiell auch in ganz anderen Feldern angewendet werden (so z. B. bereits erfolgreich in der anorganischen Chemie). Das Programm ist in zwei Bereiche unterteilt; der erste prüft zunächst generell, ob eine zuvor im Maximalrahmen festgelegte Segmentkategorie im Beleg vertreten ist (Verteilungsnetzwerk). Ist dies der Fall, wird durch den zweiten Programmteil die automatische Segmentierung vorgenommen (Teilnetzwerke) (zu den Einzelheiten s. ebd. S. 162 ff.). Auf dieser doppelt (manuell und maschinell) ermittelten Basis wurden nun zahlreiche Auswertungsprogramme erstellt: — Übersicht zur Belegung der Lemmata mit Tempuswechsel; — Übersicht zur Verteilung des Part. Prät.-Präfixes (ge- vs. Ø -; geworden vs. worden etc.) — Übersicht zur Belegung der Stammgraphien (insbes. Stammvokale);

Abb. 40.3: Ausdruck einer Übersicht über die automatisch ermittelte Belegung in den einzelnen grammatischen Positionen

526

— Übersicht zu den Flexiven, und zwar — Übersicht über das Gesamtinventar der Flexive und ihrer Varianten; — Übersicht über die Kombination von sog. Präteritalsuffixen (-(e)t-) und anderen Flexiven; — Übersicht zur -e/-Ø- Verteilung (etwa -en vs. -n); — Übersicht über die Belegung in den einzelnen grammatischen Positionen (vgl. Abb. 40.3); — Übersichten über die Klassenzugehörigkeit der einzelnen Verben; — Übersichten zur Belegung der einzelnen Flexionsklassen.

4.4.2. Segmentierung und Klassifizierung der Substantive Bei den S u b st a n t i ve n gehörten manuell vorgenommene Segmentierungen nicht zur Basisdatei — wie dies bei den Verben der Fall war. Aufgrund projektgeschichtlicher Voraussetzungen einerseits und der strukturellen Gegebenheit, daß die Flexive der Substantive weit weniger Varianten aufweisen als die der Verben, wurde eine automatische Segmentierung und Klassifizierung von Beginn an anvisiert. Das umfangreiche Programmpaket (vgl. Berg/Frauenknecht 1982, 122 ff.) besteht aus drei größeren Teilen; es leistet 1. die Segmentierung der Belege, 2. deren Zusammenführung zu strukturell definierten Klassen und 3. die Ermittlung der Verteilungsregeln von -e und -Ø in - (e)r, -(e)n, -(e)s. Bei der Entwicklung dieses Programms im Jahre 1976 lagen zwar bereits einige Algorithmenvorschläge zur automatischen Segmentierung vor, doch beziehen sich diese auf normierte und hinlänglich bekannte Sprachstufen und können so ganz anders verfahren als dies im hier beschriebenen Fall möglich war (vgl. Bunting 1966; Kunze/Rüdiger 1968; Lenders 1972 b; Krumnack 1978; Schluroff 1974; v. Hahn/Fischer 1975; Schott 1975; Weber 1976). Die meisten dieser Ansätze basieren letztlich auf einem eingegebenen Lexikon: entweder auf Stammlexika plus Lexika der Flexive oder auf umfangreichen morphologischen Wörterbüchern. Dies war im Forschungsunternehmen Grammatik des Frühneuhochdeutschen aufgrund der besonderen Ausgangssituation ausgeschlossen: es konnte weder ein Stammlexikon noch ein Lexikon der Flexive vorgegeben werden, da beides erst Ergebnis des Unternehmens war. Deshalb wurde in Anlehnung an das von Braun (1974) skizzierte Verfahren der maschinellen

X. Application Fields II

Suche der Segmentgrenzen von rechts nach links ein vergleichbares Verfahren entwikkelt. Dabei erwies es sich als günstig, daß sich in der deutschen Substantivflexion definierbare Informationsblöcke konstruieren lassen. Seit dem Ahd. ist durch die Abschwächung der N ebensilbenvokale zu e/ǝ/ und der damit verbundenen Auflösung der ahd. Portmanteaumorpheme das substantivische Flexionssystem relativ einfach strukturiert. Der N ominativ Singular ist formal identisch mit dem Stamm. Dies bedeutet nicht eine echte Identität (strukturell wäre zu scheiden zwischen wort- (= Stamm) und wort-Ø (= N ominativ Singular), aber eine ausdruckseitige Gleichheit, die für die automatische Segmentierung genutzt werden kann. Damit hat man zugleich ein kleines Stammlexikon (alle belegten N ominativ-Singularformen). Da die Belege hinsichtlich des N umerus mit einer Information in der Datei versehen sind, kann nun auch ein sog. Pluralstamm definiert werden, der sich zusammensetzt aus dem Singularstamm (= N om. Sing.) und einem Pluralflexiv. Dieser Pluralstamm ist dann das Invariante im Plural. Damit können sämtliche Zusätze in den einzelnen Kasus als Kasusflexive interpretiert werden: alle Zusätze im Singular zum N ominativ Singular sind automatisch Singular-Kasusflexive; alle Zusätze im Plural zum N ominativ Plural sind automatisch Plural-Kasusflexive. Die N umerusflexive lassen sich ebenfalls leicht ermitteln: alle Zusätze im N ominativ Plural, die den N ominativ Singular erweitern, sind automatisch N umerusflexive. Da dies nur funktioniert, wenn der N ominativ Singular zu einem Lemma belegt ist, diese Bedingung aber nicht ausreichend häufig erfüllt ist, müssen weitere Möglichkeiten zugelassen werden, deren abnehmender Grad an Zuverlässigkeit jedoch zu berücksichtigen ist. So kann der Akkusativ Sing., der ja bis auf die sog. schwachen Substantive mit dem N ominativ Singular formal identisch ist, ebenfalls als ’Ersatzstamm’ eingesetzt werden. Der Analyseweg wird in Abb. 40.4 deutlich. Von Merkmalwerten ausgehend (M 1 = Singular; M 2 = Plural; M 3 —M 6 = Kasus in der Abfolge N ominativ, Akkusativ, Dativ, Genitiv) wird die Analyse über verschiedene Entscheidungsknoten geführt. Dabei bedeuten die Siglen B = Beobachtungseinheit (B 1 = Singularstamm, B 2 = Pluralstamm, B 3,1 —B 3,3 = Singularflexive (Akk., Dat., Gen.), B 4,1 —B 4,3 = Pluralflexive, B 5 = Protokoll; EK = Entscheidungsknoten (1 =

40.  Computergestützte Grammatikographie

527

Abb. 40.4: Entscheidungsbaum der automatischen Segmentierung der Substantive (aus: Berg/Frauenknecht 1982, 128)

Merkmal vorhanden, O = Merkmal nicht vorhanden). Die automatische Klassifizierung der Substantive erfolgt über ein einfaches Unterprogramm. Eine Substantivklasse wird definiert durch das Genitiv-Singularflexiv und das Numerusflexiv; insofern muß das Programm lediglich die Kombination der beiden Segmente leisten. Das komplette Segmentier- und Klassifikationsprogramm besteht aus drei Teilen. Der erste Teil dient der automatischen Segmentierung und Klassifikation — wie beschrieben; der zweite Teil dient der maschinellen Erstellung von Übersichten über die verschiedenen Flexionsparadigmen auf der Basis der im ersten Teil gewonnenen Daten. Der dritte Teil ermöglicht es, die Verteilung von -e/-Ø in den Flexiven -(e)n, -(e)sund -(e)r zu ermitteln.

5.

Literatur (in Auswahl)

Arbeitsgruppe MasA 1974· I. Bátori 1981 a · E. Berg 1982 · E. Berg/H. Frauenknecht 1982 · H. Bergenholtz/B. Schaeder 1978 · M. Boot 1979 · St.

zing 1979 · T. Christaller/D. Metzing 1980 · U. Dammers/G. Frackenpohl/M. Gehrke 1982 · R. Dietrich/W. Klein 1974 · H. Droop/W. Lenders/ M. Zeller 1976 · Eggers 1969 · P. Eisenberg 1976 · Forschungsgruppe Frühneuhochdeutsch 1980 · G. Frackenpohl/H. Frauenknecht/M. Gehrke 1980 · G. Frackenpohl/H. Frauenknecht 1982 · J. Friedman 1971 · J. Friedman 1978 · Moser/Stopp/ Besch (eds.) 1987 f. · H. Graser/K.-P. Wegera 1978 · W. v. Hahn/H. Fischer 1975 · W. v. Hahn/W. Hoeppner 1975 · W. v. Hahn/A. Jameson/W. Hoeppner 1980 · D. Koch 1979 · M. Kolvenbach/ A. Lötscher/H. D. Lutz 1979 · U. Krumnack 1978 · R. Kuhlen 1977 a · J. Kunze/B. Rüdiger 1968 · W. Lenders 1972 a — W. Lenders 1980 · W. Lenders/K.-P. Wegera 1982 · W. Lenders/G. Willée 1986 · W. Lenders/H. D. Lutz/R. Römer 1969 · Paul/Moser/Schröbler eds., 1975 · I. T. Piirainen 1968 · W. Putschke/M. Rössing-Hager/L. E. Schmitt 1969 · M. Rössing-Hager 1970 · M. Rössing-Hager 1978 · M. Rössing-Hager 1980 · M. Schluroff 1974 · G. Schott 1975 · G. Schott 1978 · H. Schumacher 1982 · E. Straßner 1977 a · H. J. Weber 1976 · K.-P. Wegera 1982 · G. Willée 1979 · O. Winkelmann 1980 · W. A. Woods 1969 · K. Wothke 1983 · K. Wothke 1985 · H. Zimmermann 1972 · M. Zoeppritz 1984.

Klaus-Peter Wegera/Eckhard Berg, Bonn

Braun 1974 · K.-D. Büntin 1966 · K.-D. Büntin 1970 · D. Cherubim 1980 · T. Christaller/D. Met(Bundesrepublik Deutschland)

X. Application Fields II

528

41. 1. 2. 2.1. 2.2.

Computergestützte Philologie: Bestimmung der Echtheit und Datierung von Texten

2.5. 3. 4. 5.

Einführung Das Echtheitsproblem Das statistische Grundkonzept Vielvariablenanalyse, Trennung von Stichproben Variablenzahl versus Freiheitsgrade, Textsegmentierung Struktur der Grundgesamtheit — der Texte, der Textsegmente Kontrollmöglichkeiten der Testergebnisse Das Datierungsproblem Notorischer Datenmangel Literatur (in Auswahl)

1.

Einführung

2.3. 2.4.

Unter dem Echtheitsproblem versteht man in Version 1 das Problem, die Verfasserschaft eines (ganzen) Textes aufzuklären, und in Version 2, die Frage zu beantworten, ob ein gegebener Text einheitlich aus der Feder eines einzigen Verfassers stammt. Beispiel für Version 1 ist die unbekannte Verfasserschaft des Romans der deutschen Frühromantik Die Nachtwachen. Von Bonaventura, dessen Einheitlichkeit nicht angezweifelt wird; Bonaventura ist jedoch ein Pseudonym, hinter dem die Literaturwissenschaft seit der Entstehungszeit des Romans, dem Beginn des 19. Jh., in nicht abbrechender Folge namhafte und weniger namhafte Verfasser vermutet hat. Beispiel für Version 2 ist das 1. Buch Moses’, die Schöpfungsgeschichte, die nach der Überlieferung und nach orthodoxer Auffassung von einem Mann geschrieben ist, während seit etwa 200 Jahren die Quellenscheidungstheorie, im folgenden mit QT abgekürzt, mehr und mehr favorisiert wird, die in verschiedenen Ausprägungen behauptet, der Text sei ein Kompilat aus mehreren vormosaischen Quellen. Echtheitsprobleme und Probleme der Datierung von Texten sind in den Literatur- und Geschichtswissenschaften von Interesse sowie im forensischen Bereich, in dem etwa die Klärung der Verfasserschaft eines Schriftstücks einen Angeklagten zu be- oder entlasten vermag. Der Struktur nach vollkommen gleich und somit auch methodisch gleich zu behandeln sind Echtsheits- und Datierungsprobleme in den Musikwissenschaften, indem lediglich ’Text’ durch ’Partitur’ zu ersetzen ist; wir werden jedoch wegen der unter-

schiedlichen Aufbereitung der Ausgangsdaten hier nicht darauf eingehen. Man wird zur Bestimmung der Echtheit oder zur Datierung eines Textes zunächst nach äußeren Indizien Ausschau halten, nach Beweisen oder Hinweisen, die direkte Aussagen über seine Herkunft ermöglichen. Unter dem Echtheits- bzw. Datierungsproblem ist jedoch hier stets die Situation gemeint, in der derartige Informationen unzulänglich sind oder gar fehlen, die Situation also, in der sich das angestrebte Urteil lediglich auf werkimmanente Indizien stützen muß. Die Annahme der Lösbarkeit der anstehenden Probleme ist gleichbedeutend mit der Annahme der Existenz von erkennbaren, speziellen Regelhaftigkeiten im Gebrauch von Sprache, und zwar ist es im Bereich der Echtheitsprobleme die Annahme, daß es autorspezifisches Sprachverhalten gibt, und im Bereich der Datierungsprobleme die Annahme, daß es — bei ein und demselben Autor — zeitabhängiges Sprachverhalten gibt, das sich in relativ einfacher Weise ausdrückt, etwa in der stetigen Zu- bzw. Abnahme der N eigung des Autors, gewisse Sprachvariable im Laufe seiner Lebenszeit zu verwenden, so daß die Einordnung eines undatierten Werkes in die Reihe der übrigen Werke bekannter Entstehungszeit möglich wird. Kann im besonderen von einer linearen Abhängigkeit gesprochen werden, dann ist die (konstante) Steigung der sie darstellenden Geraden Ausdruck dieser Regelhaftigkeit. Wir haben die Überzeugung, daß es solche Regelhaftigkeiten tatsächlich gibt, wenn wir auf eine so eigentümlich ganzheitliche Weise, ohne uns der Menge der sprachlichen Ausformung im einzelnen bewußt zu sein, von einem Text glauben sagen zu können, daß er typisch oder auch untypisch für einen Autor A sei, daß er eher ein Alters- als ein Jugendwerk von A sei, usw. Solche Urteile sind notwendigerweise Wahrscheinlichkeitsaussagen, allerdings informelle: “Typisch für“, „eher ... als ...“ sowie das intuitiv verwendete „wahrscheinlich“ sind nicht definiert. Demgegenüber verfolgt eine statistische Methodik das Ziel der intersubjektiven Anerkennung ihrer Urteile, und zwar durch eine möglichst weitgehende Formalisierung der verwendeten Begriffe und deren Beziehungen.

41.  Computergestützte Philologie: Echtheit und Datierung

2.

Das Echtheitsproblem

2.1. Das statistische Grundkonzept Das Rahmenkonzept ist das des Signifikanztests. Es wird eine Prüfgröße entwickelt, die so etwas wie einen Abstand zwischen zwei Textgruppen T 1 und T 2 bemißt. Wir lassen offen, ob die Elemente der Textgruppen ganze Texte oder Textsegmente sind, und nehmen an, daß T 1 n 1 und T 2 n 2 Elemente umfaßt. In einem Version 1 -Problem besteht T 1 zumeist aus nur einem Text, nämlich aus dem Text des unbekannten Verfassers A, während T 2 die zur Untersuchung verwendete Menge von Vergleichstexten des vermuteten Verfassers B bezeichnet. In einem Version 2- Problem wird die Einheitlichkeit eines Textes angezweifelt, indem dessen Zusammensetzung aus Textpassagen behauptet wird, die wenigstens zwei verschiedenen Quellen zugeordnet sind. Indem jedes Paar der vermuteten Quellen gesondert untersucht wird, steht nun T 1 für die eine und T 2 für die andere Textpassage, wobei n 1 und n 2 die Anzahlen der Textsegmente sind, in die die Textpassagen aufgeteilt worden sind (vgl. 2.4). Man geht nun aus von der Nullhypothese, daß T 1 und T 2 zufällige Stichproben aus ein und derselben Grundgesamtheit der Elemente sind. Diese ist intensiv definiert, nicht extensiv über das, was tatsächlich verfaßt wurde und uns möglicherweise überliefert ist, sondern über Eigenschaften der die Elemente produzierenden Quelle: über die Schreibdisposition des die Texte bzw. Textsegmente produzierenden Autors. Sie ist eine fiktive, unendliche Menge, wie jede intensiv definierte Menge. Schreibdisposition ist potentieller Stil, oder umgekehrt ausgedrückt: Stil ist verwirklichte Schreibdisposition. Sie und damit auch er ändern sich: von Autor zu Autor (dies ist Voraussetzung für den Erfolg einer Echtheitsuntersuchung), aber auch von Gattung zu Gattung, von Werk zu Werk und im Laufe eines Lebens ein und desselben Verfassers: Die Grundgesamtheit, aus der die Elemente „gezogen“ sind, ist zusammengesetzt; wir kommen in 2.4 darauf zurück. Die erwähnte Prüfgröße wird in 2.2 des näheren betrachtet; sie wird ’Verallgemeinerter Abstand’ heißen mit der Bezeichnung D 2 . Entscheidend ist, daß die Wahrscheinlichkeitsverteilung F ( D 2 ) bekannt ist. Trifft die H 0 ( A = B bzw. Quelle 1 = Quelle 2 ) zu, dann sind kleine D 2 -Werte zu erwarten; große D 2 -Werte werden — in gedachter Wiederholung der Stichprobenentnahme — selten sein: Sie werden mit geringer Wahrschein-

529

lichkeit erwartet. Man hat die freie Wahl festzulegen, was „gering“ heißen soll; üblich sind die Werte α = 0.05 und α = 0.01. Mit α ist über F(D 2 ) der kritische Bereich C festgelegt, der Bereich der großen (seltenen) D 2 - Werte, und zwar gilt: P(D 2 ε C) = α, in Worten: Die Wahrscheinlichkeit, daß bei Gültigkeit der H 0 aus der Grundgesamtheit ein Stichprobenpaar T 1 , T 2 gezogen wird, aus dessen Daten sich ein D 2 errechnet, das in den kritischen Bereich C fällt, beträgt α. Ist nun in konkreter Situation ein solch seltenes Ereignis eingetreten, so wird man informell schließen, daß die Voraussetzung des Kalküls, nämlich die H 0 , wahrscheinlich falsch ist. Der hier verwendeten Methodik liegt das übliche, sog. klassische Konzept von Statistik zugrunde, dessen Fundament der Wahrscheinlichkeitsbegriff in seiner frequentistischen Deutung ist: Wahrscheinlichkeit ist der Grenzwert der relativen Häufigkeit. So ist auch α frequentistisch zu verstehen zusammen mit der Vorschrift, die H 0 immer dann zurückzuweisen, wenn die jeweils relevante Prüfgröße in den kritischen Bereich fällt. In fortgesetzter Wiederholung derartiger Versuche wird sich der Anteil der Versuche, in denen die H 0 fälschlicherweise zurückgewiesen wird, der Wahrscheinlichkeit α nähern. Wichtig ist zu erkennen, daß die Vorschrift nur einen long-run- Sinn hat; die Frage, ob je im Einzelfall die H 0 wahr ist, wird nicht gestellt. So kann dies Verfahren nur sinnvoll in long-run- Versuchen durchgeführt werden, etwa bei der Qualitätskontrolle, wo ein Warenlos jeweils zurückgewiesen werden kann. In unserem Problemkreis handelt es sich hingegen um historische, unwiederholbare Einzelversuche, in denen eine Aussage über die H 0 zu machen doch gerade das Untersuchungsziel ist. Hier versagt das klassische Konzept. Es gibt jedoch eine fundamental andere Art, die Dinge zu sehen, nämlich die der BayesStatistik, fundamental, weil sie auf einem anderen Fundament ruht, nämlich dem Wahrscheinlichkeitsbegriff in der Deutung als Maß für Unsicherheit, also nicht objektivistisch als (zwar unbekannte, aber) feste Eigenschaft eines stochastischen Systems, sondern stets bezogen auf den aktuellen Kenntnisstand: Wahrscheinlichkeit ändert sich mit zunehmender Erfahrung. Hier ist es möglich, einer Hypothese eine Wahrscheinlichkeit zuzuordnen, den quantitativen Grad, mit dem man die anstehende Hypothese für gesichert hält — genau das also, was in unserem Kontext anzustreben wäre. Die Bayes-Statistik ist von ihrem Ansatz her intuitiver als die klassische und hat auch ein weiteres Anwendungsfeld, eben auch das Feld der Unsicherheit im Einzelversuch. Eine gute Einführung in die hier relevante Methodik gibt Broemeling (1985). Soweit bisher bekannt, wurden jedoch noch keine derartigen Textanalysen durchgeführt, wes-

530

halb wir uns auf klassische Verfahren, insbesondere den Signifikanztest, hier beschränken. Dann ist man jedoch gezwungen, dem klassischen, frequentistischen Geist am Ende untreu zu werden: Falls das seltene Ereignis D 2 ε C eingetreten ist, werden wir die H 0 nicht zurückweisen (das gibt keinen Sinn), sondern informell schließen, daß die H 0 „wahrscheinlich“ falsch ist, wobei dies „wahrscheinlich“ nicht über die alltägliche Verwendung hinausgeht, also auch nicht „quantifiziert“ ist.

2.2. Vielvariablenanalyse, Trennung von Stichproben Die Frage statistisch zu untersuchen, ob der Verfasser A von T 1 mit dem Verfasser B von T 2 identisch ist, ist eine typische Aufgabe für eine Diskriminanzanalyse, die in den verschiedensten Wissensgebieten Anwendung findet. Sie ist strukturell gleich etwa der paläanthropologischen Frage, ob (zwei) an verschiedenen Orten gemachte Schädelfunde derselben Rasse zuzuordnen sind, oder der klinischen Frage, in welcher Weise Patienten, die in (zwei) verschiedene Kategorien psychischer Krankheiten eingeordnet wurden, sich hinsichtlich ihrer Symptomatik unterscheiden. Dabei sind die Gruppen (zwei) Stichproben aus je näher zu charakterisierender Grundgesamtheit, und die Stichprobenelemente (items) sind die Texte, die Schädel, die Patienten, an denen Beobachtungen gemacht werden; Beobachtungen sind Realisationen x k von Zufallsvariablen X k . Haben wir in 2.1. von Stil als realisierter Schreibdisposition gesprochen, so muß der Begriff nun präzisiert werden. Mit Fucks (1955, 19) fassen wir in hier gegebenem Kontext Stil auf als „die Gesamtheit aller quantitativ faßbaren Gegebenheiten in der formalen Struktur eines Textes“. Diese Gesamtheit ist offen zu verstehen; für eine konkrete Untersuchung wird man sich auf eine Teilmenge, etwa vom Umfang K, beschränken müssen; es sind dies die Beobachtungen x k der K Variablen X k sowie deren Korrelationen. Die X k sind auf die Textlänge bezogene relative Häufigkeiten — fortan mit rH abgekürzt — oder Funktionen derselben, die von Text zu Text schwanken; demgegenüber machen die zugehörigen — unbekannten — Erwartungswerte μ k , die Parameter der Grundgesamtheit sind, die Schreibdisposition aus: Die μ k sind der quantitative Begriff für die Stärke der N eigung (K. R. Popper: propensity ) des Autors, die K Variablen Xk zu verwenden. Somit präzisieren wir die H 0 : A = B zu μ Ak = μ Bk , für alle k. Erfreulicherweise

X. Application Fields II

zeigt nun die Ableitung von F(D 2 ), daß unter noch zu nennenden Voraussetzungen die unbekannten μ k unbekannt bleiben können: sie gehen nicht als Parameter in F(D 2 ) ein. Beispiele für solche Textvariable sind: Die rH von Wörtern bestimmter Bedeutung, die mittlere Wortlänge (mittlere Anzahl der Silben, der Morpheme, der Phoneme, der Buchstaben je Wort — möglicherweise je getrennt nach Wortarten), die Verteilung der Wortarten (= so viele rH’en, wie Wortarten definiert wurden), die Verteilung der Wortartübergänge (wie oft die Wortart w auf die Wortart v folgt), die mittlere Satzlänge, die rH syntaktischer Formen, der hypotaktische Verschachtelungsgrad, der Reichtum des Wortschatzes (vocabulary richness), die Konzentration des Wortschatzes (vocabulary concentration), die rhetorischen Figuren (s. z. B. Burwick, 1969), die Momente und die Entropie zur Beschreibung von Verteilungen im allgemeinen. In gebundener Sprache wird man metrische Merkmale hinzunehmen. Diesen Variablen analog sind die Schädelmaße bzw. die Krankheitssymptome (Angstgefühle, motorische Verlangsamung, Maniriertheit ..., deren Ausprägung ein Zahlenwert auf einer Meßskala ist). Allgemein ist die geeignete Auswahl aus den möglichen, denkbaren Variablen, d. h. diejenige, die die Gruppen am besten charakterisiert, sie also am besten trennt, mit dem jeweiligen Problem nicht mitgegeben. Sie wird teils aus Sach- und Fachkenntnis nahegelegt, teils durch Erprobung ermittelt. Hierzu können Verfahren der Explorativen Datenanalyse, vor allem Verfahren der Automatischen Klassifikation, im besonderen der Clusteranalyse oder der umgekehrten Faktorenanalyse (der sog. Q-Technik) verwendet werden, die zum Ziel haben, Strukturen in Datenmengen freizulegen. In unserem Kontext wird man von verschiedenen Autoren je einige Texte (gesicherter Herkunft) auswählen und die Menge dieser Texte einem dieser Klassifikationsverfahren unterziehen. Dann sollten sich, falls der gewählte Variablen set im genannten Sinne geeignet ist, genau so viele Textgruppen (Klassen) ergeben, wie man verschiedene Autoren gewählt hat. Durch Wiederholung der Prozedur jeweils mit verschiedenen in Frage kommenden Variablen sets läßt sich der unter diesen geeignetste, der am besten die Gruppen trennende Set ermitteln. Ein solches ’Durchspielen’ auf einem Computer stellt heutzutage kein praktisches Problem mehr dar; allerdings ist der Anfang des Unternehmens, nämlich die Textkodierung

41.  Computergestützte Philologie: Echtheit und Datierung

und die Übertragung des Kodes auf Datenträger — wohl bis auf weiteres — der mühsamste Teil des Geschäfts, wiewohl auch hier Fortschritte zu verzeichnen sind, etwa im Bereich der automatischen Syntaxanalyse. In unserem Problemkreis handelt es sich zumeist um die Trennung zweier Stichproben, nämlich T 1 von T 2 , während die Diskriminanzanalyse allgemeiner prüfen kann, ob eine beliebige Anzahl von Stichproben aus ein und derselben Grundgesamtheit stammt. Die komplexe Analyse ist vollständig algorithmisiert und mit verfügbaren Programmsystemen automatisch durchführbar. Das Resultat besteht in der Mitteilung, daß das vieldimensionale Ereignis des Textbefundes (die Wertekonstellationen der K Variablen in den untersuchten Texten) unter Voraussetzung der Gültigkeit der H 0 ein im explizierten Sinne seltenes Ereignis ist oder nicht. Die Kernidee der Diskriminanzanalyse ist am besten geometrisch vorstellbar: Im Kdimensionalen Variablenraum ist jedes der n 1 + n 2 Elemente der Stichproben T 1 und T 2 durch einen Punkt repräsentiert; die K Koordinaten eines Punktes sind die Realisierungen x k der K Variablen X k . T 1 und T 2 bilden zwei sich teilweise durchdringende Punktwolken aus n 1 bzw. n 2 Punkten. Je weniger sie sich durchdringen, umso wahrscheinlicher liegt ein nicht-zufälliger, ein systematischer Unterschied zwischen T 1 und T 2 vor, was heißt: umso wahrscheinlicher stammen sie aus verschiedenen Grundgesamtheiten. Ein solcher „augenscheinlicher“ Abstand zwischen den Stichproben läßt sich algebraisch ausdrücken, wobei die Korrelationen zwischen den Variablen (die Orientierungen der Punktwolken im Raum) mit berücksichtigt sind. Der algebraische Ausdruck heißt ’Verallgemeinerter Abstand’ (auch ’Mahalanobis-Distanz’) mit Bezeichnung D 2 („Quadrat“ wegen der quadratischen Form der Varianzen, von denen das Maß abgeleitet ist). Ein solches D 2 läßt sich immer bestimmen. Als eine der großen Leistungen der mathematischen Statistik ist die bereits erwähnte Herleitung der Verteilung F(D 2 ) anzusehen. Allerdings ist dabei vorauszusetzen, daß die Variablen normalverteilt sind, was für Textvariable jedoch vorderhand nicht gilt. Man kann dann zweierlei tun. Zum einen lassen sich Verteilungen, die links durch 0 begrenzt sind und nach rechts relativ flach auslaufen — so sind die rH’en linguistischer Variablen meist verteilt —, durch eine Transformation, etwa die arcsin -Transformation, in eine N ormal-

531

verteilung überführen. Zum anderen sind rH’en mit gewissen minimalen Erwartungswert genügend genau normalverteilt. Hat man zahlreiche Variable definiert, so kann man sich entschließen, auf die Variablen mit geringer Belegung (deren Erwartungswert unterhalb des Minimums liegt) zu verzichten. 2.3. Variablenzahl versus Freiheitsgrade, Textsegmentierung F(D 2 ) hat die Freiheitsgrade f 1 = K und f 2 = n 1 + n 2 — K — 1. Aus letzterem ist abzulesen, daß f 2 bei vorgegebenen n 1 und n 2 mit wachsender Variablenzahl K abnimmt: Durch die Kovarianzbildung mit den übrigen Variablen geht für jede Variable ein Freiheitsgrad verloren. Hier stößt man auf eine sehr unangenehme Einschränkung: Da f 2 ≥ 1 gelten muß, folgt: K ≤ n 1 + n 2 — 2; in Worten: Die Anzahl der Variablen darf höchstens so groß sein wie die Summe der Stichprobenumfänge vermindert um 2. Hat man es mit dem Echtheitsproblem der Version 1 zu tun, dann liegt in der Regel nur ein Text des unbekannten Verfassers A vor, der mit einigen wenigen Texten eines B verglichen werden soll; also ist n 1 = 1 und n 2 eine kleine Zahl. Demgegenüber lassen sich ohne weiteres an die fünfzig und mehr linguistische Variable definieren. Das ganze Unternehmen wäre als witzlos zu bezeichnen, wenn nun der größte Teil der möglichen Variablen gestrichen werden müßte. Ein möglicher Ausweg ist die Vergrößerung der Summe n 1 + n 2 . Zwar lassen sich die Texte selbst nicht vermehren, jedoch können sie in eine genügend große Zahl von Segmenten aufgeteilt werden, so daß nun die Segmente die Stichprobenelemente sind. Andererseits kann man die Vermehrung der Segmente nicht beliebig weit treiben, da mit der Abnahme der Segmentlänge auch die Abnahme der rH’en einhergeht. Denn auch eine N ormalitätstransformation verliert ihren Sinn, wenn die Variablen fast überall 0 realisieren. Also müssen, angefangen mit den dünn belegten, fortschreitend Variable eliminiert werden. Es stellt sich so die Frage nach einer optimalen Segmentlänge und allgemeiner nach dem günstigsten Kompromiß zwischen Stichprobenumfang und Variablenzahl. Hier kann nicht näher darauf eingegangen werden (s. z. B. Sammon/Foley/Proctor 1970). Der Weg der Aufteilung in Segmente wurde in einer Untersuchung über die Einheitlichkeit des ersten Buches des Pentateuch

532

gewählt (Radday/Shore u. a. 1985, Part III). Hier geht es, wie bekannt, um ein Echtheitsproblem in Version 2. Gemäß der QT (in der Wellhausenschen Fassung) hat ein Redaktor R den überlieferten Text aus drei Quellen mit den Siglen E, J und P, deren Verfasser hiermit E’, J’ und P’ bezeichnet seien, zusammengestellt. Ihr gegenüber steht die Einheitlichkeitshypothese: E’ = J’ = P’ , deren Prüfung allerdings auf E’ = J’ beschränkt werden muß, da die Priesterquelle P hinsichtlich der Gattung eine Sonderrolle spielt. Wichtig ist, daß E’ = J’ dasselbe behauptet wie: „Die Textpassagen E und J stammen nicht nur von ein und demselben Verfasser, sondern sind auch Stichproben aus ein und demselben Werk.“ 2.4. Struktur der Grundgesamtheit — der Texte, der Textsegmente Dürfen auch die Texte eines Version 1 -Probems in Segmente aufgeteilt werden? Hier stellt sich die Frage nach der korrekten Stichprobenentnahme aus einer zusammengesetzten Grundgesamtheit. In 2.1. wurde darauf hingewiesen, daß der Stil eines Textes verschiedenen Faktoren unterliegt: Der Autor, die literarische Gattung, in der er schreibt und die Entstehungszeit sind den Stil beeinflussende Faktoren — Stil selbstverständlich auch im formalen Verständnis (vgl. 2.2.). Soll eine eventuelle Signifikanz des Testergebnisses eindeutig auf Autorverschiedenheit hinweisen, dann müssen die zum Problemtext T 1 herangezogenen Vergleichswerke T 2 offenbar von der gleichen Gattung sein und zu (etwa) gleicher Zeit entstanden sein. Die H 0 : A = B besagt demnach, daß T 1 und T 2 zwei Stichproben aus der (fiktiven) Menge aller Werke ist, die B von der Gattung des Problemwerkes zur Entstehungszeit desselben hätte verfassen können (wenn sozusagen diese Zeit stehen geblieben wäre). Die beobachteten Unterschiede zwischen den Realisationen der der Untersuchung zugrunde gelegten Variablen in den n 1 + n 2 Werken werden als nicht weiter erklärbare (oder zumindest nicht weiter erklärte) Reststreuung aufgefaßt. Sind demgegenüber nicht die Werke als ganze, sondern Segmente aus ihnen die Stichprobenelemente, dann ist zu prüfen, ob nicht auch mit einem Werk-Faktor zu rechnen ist, der sich in einem systematischen Unterschied der Variablenrealisationen in den Segmenten zwischen zwei Werken (derselben Gattung, derselben Entstehungszeit, desselben Autors) manifestiert. In die-

X. Application Fields II

sem Fall bildeten die Segmente in T 1 keine zufällige Stichprobe, da sie aus immer demselben Werk „gezogen“ würden, so daß eine eventuelle Signifikanz ebenso durch den Werk-Faktor erklärbar wäre. Die Antwort ist möglicherweise für verschiedene Variablensets nicht gleichlautend. Wickmann (1969) hat die Wortartübergänge daraufhin untersucht. Er fand, daß sie autorspezifisch sind (demonstriert an Werken bekannter Herkunft, vgl. 44 ff.), daß Gattungsunterschiede bestehen (Vergleich von Stichproben aus Goethes Dichtung und Wahrheit mit seiner Farbenlehre, vgl. 17 f.), daß die Entstehungszeit zu berücksichtigen ist (innerhalb von Dichtung und Wahrheit das früher entstandene Märchen Der neue Paris, vgl. 17 f.) und im besonderen, daß signifikante Unterschiede zwischen Werken bestehen, vgl. 31 f.). Aus letzterem folgt, daß in einem Version 1 -Problem die Werke nicht in Segmente aufgeteilt werden dürfen — was in statistischen Verfasserschaftsuntersuchungen oft nicht gebührend beachtet worden ist. (Man vergegenwärtige sich dem gegenüber die Version 2-Situation.) Es folgt also, daß wegen der f 2 -Bedingung K ≤ n 1 + n 2 — 2 eine übliche Diskriminanzanalyse ohne großen Informationsverlust nicht durchführbar ist. Gleichzeitig weist diese durch die Korrelationen entstandene Bedingung auf einen weiteren Ausweg hin: Kann in einer vorgeschalteten Überprüfung gezeigt werden, daß die Korrelationen zwischen den einzelnen Variablen nicht „zu groß“ sind (bei starker Korrelation kann eine Variable des Variablenpaars eliminiert werden), dann läßt sich eine andere, ebenfalls die K Variablen zusammenfassend beschreibende, nun deren Unkorreliertheit voraussetzende und daher nicht der f 2 -Einschränkung unterworfene Prüfgröße definieren, deren Verteilung bekannt ist (Wickmann 1969, 32 ff.). Kann ein Autor A nicht „seinen“ Faktor bewußt leugnen, indem er B imitiert oder Plagiate im Stil von B verfaßt? Freilich hängt die Antwort von den betrachteten Variablen ab; es zeigt sich jedoch, daß Plagiate auf einer hohen Stufe sprachlichen Formulierens angesiedelt sind, die nicht notwendigerweise auf die in statistischen Analysen meist verwendeten Variablen durchschlägt. Zum Beispiel zeigt Wickmann in der mit den Wortartübergängen durchgeführten Bonaventura-Untersuchung (1969), daß der Test „Nachtwachen / Werke von Jean Paul“ signifikant ist, obwohl

41.  Computergestützte Philologie: Echtheit und Datierung

Jean Paul selbst die Nachtwachen für eine „vortreffliche N achahmung“ seines Gianozzo hält. — A. Q. Morton hat in einer kleinen ad-hoc-Untersuchung, die sich nur auf drei Verwendungen des Artikels the stützt, gezeigt, daß zwei anerkannte Imitatoren des Stils von Sherlock Holmes sich voneinander und von Holmes unterscheiden (Morton 1979, „A Word from Baker Street”; Morton weist auf das gleiche Ergebnis einer “fullscale investigation” hin). 2.5. Kontrollmöglichkeiten der Testergebnisse Es werden Hypothesen statistisch getestet, die auf nicht-statistische Weise aufgekommen sind. Andererseits werden mit ’Explorativer Datenanalyse’ (vgl. 2.2.) zusammenfassend statistische Methoden bezeichnet, die es erlauben, aufgrund des Datenbefundes Hypothesen aufzustellen (pattern recognition); sie arbeiten quasi in dem Hypothesentesten entgegengesetzter Zielrichtung. So kann eine klassifikatorische Untersuchung mit dem Ergebnis derselben Gruppierung, die auf nichtstatistische Weise nahe gelegt wurde, als eine Bestätigung der Gruppierung angesehen werden (s. z. B. Radday/Shore u. a. 1985, Abschnitt 3.3., 122—179).

3.

Das Datierungsproblem

Im Datierungsproblem tauchen mutatis mutandis dieselben Schwierigkeiten auf, so daß wir uns kurz fassen können. Die Analyse läuft hier im wesentlichen auf die Bestimmung einer Regressionsgeraden hinaus, die durch das Punkteensemble der zuverlässig datierten Werke im Variablenraum gelegt wird. Sodann wird man umgekehrt den Punkt des undatierten Werks auf der Geraden lokalisieren und die zugehörige Zeitkoordinate mit Berücksichtigung des Konfidenzintervalls ablesen: Das Datierungsproblem ist ein Schätzproblem. Auf der Suche nach möglichst zeitspezifischen Variablen hat man sich zunächst zu vergewissern, daß keine anderen Faktoren mit im Spiel sind; man wird im besonderen auf Gattungsgleichheit der Werke achten müssen. Diejenigen linguistischen Variablen sind zur Datierung am besten geeignet, die zur (unabhängigen) Variablen ’Zeit’ die höchste Korrelation aufweisen. Auch hier tritt das bereits bekannte Dilemma auf: Einerseits ist die Einbeziehung einer möglichst

533

großen Variablenzahl wünschenswert, andererseits soll die statistische Ungenauigkeit möglichst verringert werden, was durch einen hohen Freiheitsgrad zu erzielen ist. Der Freiheitsgrad des Maßes für Fehlschätzung, nämlich der Standardabweichung der geschätzten von der ’wahren’ Datierung, ergibt sich zu n-K-1, d. i. Stichprobenumfang der sicher zu datierenden Werke minus Anzahl der Variablen minus eins; also: Je größer die Variablenzahl, desto kleiner der Freiheitsgrad. Hier ist der Sachverhalt jedoch von dem analogen im Echtheitsproblem insofern verschieden, als dort Autorspezifität der Variablen nichts über deren wechselseitige Korrelation aussagt, während hier Zeitspezifität der linguistischen Variablen gerade durch hohe Korrelation mit der Variablen ’Zeit’ definiert ist, was zur Folge hat, daß die ’zeitspezifischen’ Variablen auch untereinander korreliert sind. Man kann sich also ohne großen Informationsverlust auf einige wenige Variablen beschränken und damit den Freiheitsgrad erhöhen. Verwandt mit diesem Vorgehen, jedoch systematischer als dieses, ist die Hauptkomponentenanalyse, deren Ziel es ist, die Gesamtvariation der Wolke aus n Punkten im K -dimensionalen Variablenraum durch die Variation der Projektionen dieser Punkte in einen niedriger dimensionalen Raum „genügend genau“ zu beschreiben. Bei hohen Korrelationen können auf diese Weise die K Dimensionen drastisch reduziert werden, sagen wir auf die Anzahl K’. Man wird dann die Regressionsgerade ohne nennenswerten Informationsverlust als Funktion dieser K’ Linearkombinationen aus den K ursprünglich „vorgesehenen“ Variablen bestimmen, um so an statistischer Genauigkeit zu gewinnen. — Das Datierungsproblem ist von Brainerd (1980) klar dargestellt; die skizzierte Methodik wird dort auf Shakespeare’s Schauspiele angewandt. Insbesondere können die dort verwendeten Variablen über die Hauptkomponentenanalyse auf eine einzige Linearkombination reduziert werden. — Freilich kommen auch andere Variable als zeitspezifische Kandidaten in Frage. H. Weiß (1967, 93 ff.) hat die zeitliche Veränderung der Satzlängen bei Th. Mann aufzeigen können. Er bemerkt, daß der von der Regressionsgeraden „abseits“ liegende, 1954 erschienene Roman Felix Krull eine Erweiterung eines bereits 1922 verfaßten Entwurfs ist; nach Verschiebung von 1954 nach 1922 liegt Felix Krull in der N ähe der Geraden. — Auf den Einfluß des Faktors Zeit auf die

X. Application Fields II

534

Wortartübergänge wurde bereits hingewiesen (vgl. 2.4.; Wickmann 1969, 17 f.).

4.

Notorischer Datenmangel

Die Darlegungen sollten implicite auch deutlich machen, in wie wenigen Situationen sowohl von Echtheits- wie von Datierungsproblemen sich die diversen statistischen Konzepte verwirklichen lassen, nicht mangels guter Methoden, sondern wegen fehlender Information: Die Texte sind meist zu kurz, und zum Vergleich stehen meist zu wenige Texte zur Verfügung, die die einschränkenden Bedingungen erfüllen. Im besonderen trifft dies auf Schriftstücke von forensischem Interesse zu. Das in der Fachliteratur zur formalen Stilanalyse des öfteren verwendete Bild des Fingerabdrucks, den es in den Werken eines Verfassers zu entdecken gilt, paßt nicht, da die eventuellen Unterschiede nicht scharf, sondern fließend sind; der unverwechselbare Fingerabdruck entspringt einem Wunsch-

denken. Eher paßt das Bild des parametrischen Verstärkers, eines statistisch-physikalischen Geräts, das schwache Signale aus einem stark verrauschten Informationskanal herausfiltert. Das gelingt immer — wenn man lange genug wartet; nur: Des Physikers N achrichtenquellen sprudeln mit vergleichsweise großer Ergiebigkeit.

5.

Literatur (in Auswahl)

R. W. Bailey 1979 · R. W. Bailey 1980 · N . Boltz 1978 · H. Boreland/P. Galloway 1980 · B. Brainerd 1980 · L. D. Broemeling 1985 · F. L. Burwick 1969 · F. J. Damerau 1975 · W. Fucks 1955 · T. Merriam 1982 · S. Michaelson/A. Q. Morton 1972 · A. Q. Morton 1979 · Y. T. Radday/H. Shore u. a. 1985 · J. D. Sammon/D. Foley/A. Proctor 1970 · L. Ule 1982 · S. Usher/D. N ajok 1982 · H. Weiß 1967 · D. Wickmann 1969 · D. Wickmann 1974.

Dieter Wickmann, Aachen (Bundesrepublik Deutschland)

42. Computer-Assisted Reconstruction of Texts 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.

12. 13.

Traditional Approaches Historical Remarks on Algorithmic Approaches to Stemma Construction The Data Used A Method Based on an Intermediacy Relation Methods Based on Manuscript Groups Methods Based on Dissimilarity Measures Three Possible Criteria: Compatibility, Parsimony and Maximum Likelihood Special Probabilistic Approaches Reliability Studies Computer Assisted Editions The Environment of Stemma Construction: Automatic Collation, Text Reconstruction and Layout Further Reading Literature (selected)

Critical text editions, especially in cases of manuscript tradition, require the establishment of a text version as close to the supposed original as possible (text-reconstruction, emendation) and the compilation of a critical apparatus documenting variant readings in the manuscript copies. Since the solution of these problems depends largely on the position of the various copies in the tradition-

process, philologists, theologians and mathematicians have proposed various methods of recovering from the variant readings the dependency relations between the copies. The present article decribes the main lines along which such methods have been developed.

1.

Traditional Approaches

A family tree or stemma of the copies of one original text often determines the text version of the archetype, i. e. of the latest common ancestor of all extant copies. Thus a stemma may help to evaluate readings and to prepare a critical edition of the text. As to the construction of stemmata, the usual assumptions are that every scribe introduces errors in his copy and that coincidence of errors in independent manuscripts is rare. Corrections may occur, even concentrated in single carefully written manuscripts, but they will hardly exceed the number of new errors. An error may also be replaced by another non-original reading, e. g. by unsuccessful conjecture. In general an increase of errors and a concentration of singular readings in terminal manuscripts can be observed. Sometimes one must also assume that a copy reproduces readings

42.  Computer-Assisted Reconstruction of Texts

from more than one model text (contamination). A tradition will be called simple, if contamination, correction and coincidence of error do not occur and if each variant passage has exactly two readings. Sometimes the manuscript tradition is based on different branches of oral tradition, which of course may be heavily contaminated (Callewaert 1987). In the case of parallel text components, such as words and music, the components may also have different stemmata. — For more than a century the traditional approach to stemma construction has been to select some significant errors or ’Leitfehler’, that characterize certain groups of manuscripts. An error shared by a group of manuscripts (called error group ) was ascribed to a common ancestor of the group. The ancestor was regarded as lost, unless a member of the group was (almost) free from errors not shared by the whole group; such errors should not occur in a common ancestor, whose errors should rather be inherited by the whole group. These are the essential arguments of traditional stemma construction, as developed in the first half of the 19th century by scholars such as Schlyter, Ritschl, Madvig and Lachmann (Timpanaro 1981) and later more systematically described by Maas (1927). — In more irregular traditions, however, i. e. in cases of abounding error coincidence, correction, and especially contamination, the genealogical method must fail. For such cases, Bévenot (1961) developed a different approach, that aims to evaluate readings without stemma construction: Two manuscripts which do not (or seldom) err together, wherever the original reading can be identified, i. e. in the determinate variant passages, are called opposed; at an indeterminate passage, a reading attested by two opposed manuscripts, or better by a team of more than two pairwise opposed manuscripts, should prevail over other readings (principle of opposed pairs). West (1973), in a complementary approach, defined a team as the smallest group containing all identifiable archetypal readings. West’s team should provide a rather sufficient base for text reconstruction.

2.

Historical Remarks on Algorithmic Approaches to Stemma Construction

The initial attempt to systematize stemma construction was made by Quentin (1922). His basic operation, a comparison by three

535

manuscripts, makes sense, but the method is insufficient for the reconstruction of traditions with lost manuscripts. Only Froger (1968) solved this problem, by an algorithm based essentially on the traditional genealogical method. The algorithm requires, however, that the tradition be simple. At about the same time, general grouping techniques (spectra, maps derived from factor analysis, hierarchical clustering schemes) were first applied to manuscripts traditions (Canivet/ Malvaux (1964), Griffith (1969)). Text tradition and biological evolution were recognized to be comparable phenomena; one of the best methods, that of Buneman (1971), was developed for the construction of both manuscript stemmata and biological phylogenies. Indeed the analogy is farreaching: the subjects considered, manuscripts as well as taxa, may be regarded as sequences of symbols, for readings or, e. g., for nucleotides; variant passages correspond to characters, readings to character-states, original readings to ancestral states, double readings, such as interlinear versions, to polymorphism; error corresponds to mutation, correction, or falling back into an earlier error, to back mutation, coincidence of error (polygenesis) to parallel mutation (homoplasy), and contamination to hybridization. Even the method of Froger (1968) has its biological analogon, viz. that of Hennig (1950); this method is simpler in so far as all given subjects are terminal points of the family tree and an arbitrary hypothetical orientation of the tree need not to be taken into account, but otherwise the methods coincide. In particular Hennig’s premises correspond to Froger’s assumption of a simple tradition. Hennig’s method is regarded today as a rudimentary predecessor of compatibility and parsimony methods, and its logic is traced back to the beginning of our century (Mitchell 1901).

In general the analogy of the philological and the biological reconstruction problem is limited by the fact that in biology only terminal points of the phylogeny are known and that hybridization is usually not taken into account. N evertheless some of the methods proposed can cope with extant inner nodes. Furthermore, every contaminated tradition contains a tree of the main lines of information flow, so that mere tree-constructing methods have a certain justification as well. Especially in the last decade, substantial methodological progress has been made in biology, so that this article must include a few methods, which have not yet been considered for application to manuscript traditions.

X. Application Fields II

536

3.

The Data Used

The main result of manuscript collation, manual or automatic, is a list of the readings of all manuscripts at the variant passages. For reconstruction algorithms, these data are usually further reduced (cf., e. g., Ott 1978) in one or more of the following three steps: (1) At each variant passage, the readings are numbered. These numbers, in place of the readings, are grouped in a table, with each line corresponding to a specific manuscript, and the columns corresponding to the variant passages in natural sequence, as shown in figure 42.1: vp

1

2

3

4

1 2 2

0 0 1

2 1 3

1 0 2

ms 1 2 3

Fig. 42.1: Table of reading numbers (vp: variant passage, ms: manuscript) If the original reading can be identified at the outset, it may be distinguished by a special number, e. g. 0, and heavy errors may be assigned high numbers (weights). Thus evaluative information may be included in the table, while the concrete readings are dismissed. In particular the table contains all information on manuscript grouping. Each variant passage partitions the set of manuscripts into subsets with equal reading numbers. Such subsets or groups of manuscripts are sometimes called constellations. The table allows to limit the reconstruction to continuous text portions. (2) Equal manuscript groups may be accumulated in a single column with the sum of their weights, i. e. variant passages are no longer distinguished, and natural text order is dismissed. (3) From tables (1) or (2), a measure of dissimilarity may be derived for each manuscript pair, e. g. the number of variant passages where they differ. The dissimilarities are presented in a triangular table as shown in figure 42.2: ms

1

2

3

0

3 0

4 3 0

ms 1 2 3

Fig. 42.2: Table of dissimilarities

In general the manuscript groups cannot be recovered from the dissimilarities. In simple traditions, however, the dissimilarities constitute an additive tree metric (cf. 6.1.) with a uniquely determined and reconstructable tree, that allows to derive an equivalent system of manuscript groups. Thus the loss of information in dissimilarity tables may be moderate, depending on the degree of irregularity of the tradition. Only few methods require additional information. Kochendörfer/Schirok (1976) include a collection of statements on the priority of readings, which might be expressed in the numbering system (e. g. 0 prior to 1, 1 prior to 1.1 and 1.2, the relation between 1.1 and 1.2 remaining undetermined). While this approach leaves much room for open decisions, the maximum likelihood method requires the specification of transition probabilities for each pair of readings, i. e. the establishment of a quadratic matrix of transition probabilities for each variant passage. Such probabilities are less rigid than priority statements, but they are more difficult to obtain. On the level of transition probabilities or priority statements, paleographical details of the readings can also be taken into account. A relative chronology of manuscripts, even if partial, provides valuable data at least for the maximum likelihood method. One may conclude that, in general, dissimilarity methods use less information than methods based on the direct comparison of manuscript groups, and that the maximum likelihood approach requires the most detailed data.

4.

A Method Based on an Intermediacy Relation

Quentin (1922) observed that if three manuscripts are connected by an undirected path a--b--c, in a simple tradition a and c will never agree against b. Conversely he assumed that a manuscript y is intermediate between manuscripts x and z , if x and z never or, in the presence of rare irregularities, seldom agree against y. Proceeding accordingly, he would check all manuscript triplets and combine the resulting intermediacy relations in a common undirected network. The merits of the method are that it operates locally, the basic assumption being better fulfilled in short paths a--b--c than in long ones, and that contamination may appear in the final network. However, the method is

42.  Computer-Assisted Reconstruction of Texts

not capable of introducing lost manuscripts in a systematic way: in a simple tradition where all extant manuscripts are terminal, not a single intermediacy relation will be found. Since the result is null in this case, it is clear that Quentin exploits only partial information. A modern programmed version (Zarri 1976) aims at interactive exclusion of inconsistencies: a path a--b--c--d with apparently inconsistent readings 0--1--1--0 may have resulted from the combination of regular paths a--b--c and b--c--d.

5.

Methods Based on Manuscript Groups

5.1. The Method of Froger The algorithm of Froger (1968) is a systematization of the traditional genealogical method, which can be regarded as the first successful attempt at formalized stemma construction. The data used may be imagined as a list of all constellations defined by hypothetically non-original readings. While Froger gave a more intuitive description, the algorithm consists essentially of two rules: (1) Each constellation is associated with a local root. The root is assumed to be a lost manuscript, if the constellation is exhausted by its proper subconstellations; if it is not exhausted, the remaining copy — Froger assumed that only one can remain — is used as its root. (2) The root of a constellation A is assumed to be an immediate successor of the root of a constellation B, if, and only if, A is a proper subset of B, but not of a constellation B’ that is itself a proper subset of B. Again B is assumed to be uniquely determined. The method works correctly, if the tradition is simple (cf. 1.). Assuming simplicity, each extant manuscript may be regarded hypothetically as original (for the definition of hypothetical error groups): the resulting trees will differ only in orientation, being suspended from the hypothetical original. Froger also gave a detailed account of the errors which may arise, if the simplicity conditions are not fulfilled. N ote that a somewhat generalized version of Froger’s algorithm is applicable to a contaminated tradition, if only the remaining simplicity conditions are fulfilled, i. e. if a contaminated text in particular reproduces the errors of all its ancestors: In this case, set B of rule (2) is not uniquely determined.

537

5.2. The Method of Dearing Based on the traditional genealogical approach, in particular on the book of Greg (1927), Dearing (1974) developed a method, that is very similar to the method of Froger in its essential logic. Dearing’s approach differs, however, in three steps of data preparation: (1) Of the two manuscript groups of a given bipartition, Froger would choose the hypothetical error group, while Dearing chooses the smaller group. The latter policy corresponds, roughly speaking, to choosing a hypothetical archetype near the centre of the tree. (2) Multipartitions are replaced by combinations of bipartitions which should produce, according to Dearing, the same result: each non-singleton group of a multipartition is treated as one part of a specific bipartition. For a large given group, this procedure results in the dilemma that if the given group is chosen, the principle of the foregoing step is violated, whereas non-original groups may be introduced, if the small complementary group is chosen. It may be suggested, therefore, to follow here, in place of steps (1) and (2), the strategy inspired by Froger (1968) and applied in the method described in section 5.4. below: choose an extant manuscript x with few singular readings and few errors in the determinate variant passages as hypothetical archetype, discard from every bipartition or multipartition the manuscript group which contains x, and retain the remaining groups as hypothetical error groups for reconstruction.

(3) Dearing attempts to resolve incompatibilities of partitions by splitting certain manuscript groups which would induce cycles (i. e. contamination) in the manuscript tradition, the justification being that abnormally large groups may arise by contamination, correction and coincidence of error. Although Dearing splits the least frequently attested groups, some of the resulting smaller groups can be expected to add a bias to the original data. Rigorous splitting also excludes the chance to locate contamination. In sum we may assume that while some difficulties are eliminated by the preparatory steps, others are created. Confer also the review of the method by Weitzman (1977). The proper reconstruction algorithm comes very close to that of Froger, except that Dearing proceeds locally: Whenever the predecessor, lost or extant, of a smallest group of manuscripts, e. g. of a and b, has been determined, the terminal manuscripts

X. Application Fields II

538

involved are eliminated. A lost predecessor γ would occupy henceforth the place of the first terminal manuscript, e. g. of a , and larger groups containing a would thus be treated as containing both a and b. The arbitrary choise of a may compensate for irregularities as well as increase them: if a is an irregular member of a group not containing b, and b a regular member of another group, then b is trapped by the irregularity of a. If, however, a is a regular member of a group and b is absent from the group on account of irregularity, then γ compensates for the irregularity. Apart from this subsumption problem, the successive removal of terminal manuscripts will gradually resolve incompatibilities of manuscript groups. This effect is the main advantage of the method. Thus the value of the preparatory step (3) appears even more questionable. 5.3. The Method of Kochendörfer/Schirok Kochendörfer/Schirok (1976) developed the concepts of Greg (1927) and Dearing (1974) into their own method, that in effect, comes close to Froger’s (1968). The proper evaluation procedure is embedded in automated collation, text reconstruction and compilation of a critical apparatus (cf. 10). In their model of text tradition, Kochendörfer/Schirok distinguish identical reproduction by at least one copyist (’Textvervielfältigung’; a (b, c, d) denotes that b, c, d are identical copies of reading a) from textual change (’Textentwicklung’; β > β′ denotes that β was read, but β′ was written). Identical reproduction and change are combined in formulae such as α > α′ (β > β′ ( a ), γ > γ′ (δ > δ′ (b ), ε > ε′ ( c ))), subsequently written ((a) ((b) (c))). The latter form corresponds to the known representation of trees by parentheses, but Kochendörfer/Schirok avoid the concepts of graph theory. In general, (1) identical reproduction is inferred (so too Froger) from identity of readings, i. e. from constellations, and (2) change from observations of priority among readings. Since (3) at least neighbouring variant passages are assumed to result, in general, from the same copying process, the manuscript groupings of the variant passages considered are initially grouped to constitute a single system of constellations. N ote that assumptions (1) and (2) correspond largely to the assumption of a simple tradition. There

are two main differences from Froger. First, the method accepts more than two readings at any variant passage; a one word passage may even be split into separate features, say lemma, orthography and grammatical form, which may define different partitions of the set of manuscripts. Second, while Froger would infer lost branch-points only if suggested by a given constellation, Kochendörfer/Schirok first supply all binary trees not in contradiction with the constellations and the assumption that identity of features results from identical text reproduction. Given, e. g., three manuscripts with three different readings a : b : c, Froger would assume ((a) (b) (c)) only, but Kochendörfer/Schirok supply (a) ((b) (c))), ((b) ((a) (c))) and ((c) ((a) (b))). In a later step, they exclude all trees contradictory to priority observations; so c prior to a and b, with a = b, would exclude the tree ((a) ((b) (c))). If no tree remains, correction or coincidence of error must be assumed for some variant passages, or different trees must be assumed for different parts of the text (contamination). 5.4. The Method of Najock N ajock (1979) essentially limited a generalized version of the method of Froger (cf. 5.1.) to local application. The algorithm operates on minimal intersecting subgraphs defined as follows: let X denote the set of extant manuscripts; the X-succession of an extant manuscript a is the graph consisting of all paths from a down to its first extant successors; the X-succession is called terminal, if all its extant manuscripts except a are terminal points in the graph. A terminal X-succession is usually associated with a constellation that contains exactly one non-terminal and at least one terminal manuscript, and that does not contain a proper subconstellation with the same properties. This argument yields a criterion to identify the set of manuscripts to be considered for local stemma construction. The construction of a terminal X-succession can be based on constellations of terminal manuscripts only, so that certain irregular constellations can be bypassed. Whenever a terminal X-succession has been constructed (by the generalized version of Froger’s algorithm), its terminal points are eliminated and its extant root becomes terminal. The method requires that (1) within the X-succession of any extant manuscript a, coincidence of error does not occur and new errors, except some errors of a, are reproduced down to the first extant successors of

42.  Computer-Assisted Reconstruction of Texts

a , and that (2) most new errors of a lost manuscript are reproduced also by its second extant successors. Thereafter errors may be replaced by correction, contamination or further error. N ote that more than two readings and certain types of correction and contamination may occur even within an X-succession. The result is a substantial reduction of the unrealistically rigid restrictions contained in Froger’s simplicity conditions. The method tends to construct the tree representing the main lines of information flow; contamination is detected mainly within X-succession, i. e. if it is of local importance only. In large X-successions, the localizing effect diminishes, and irregular constellations may cause the appearance of too many lost manuscripts.

6.

Methods Based on Dissimilarity Measures

6.1. General Grouping Methods

539

d ( x, v ) + d ( y, u )} and that it is ultrametric, if for all x, y, z d ( x , y ) ≤ max {d ( x, z ), d ( y, z )}

An ultrametric tree, as a special additive tree, is obviously less flexible: it will reflect the given dissimilarities less adequately. Furthermore, additive trees, unlike ultrametric ones, may contain extant manuscripts at interior points. Thus an additive tree is not only the superior grouping technique, but also an adequate structure for representing manuscript traditions. — One may conclude that spectra and maps derived from factor analysis can be discarded, and that hierarchical clustering should be applied only to large traditions, where the additive tree methods of Buneman (1971) or Sattath/Tversky (1977) become computationally impracticable. 6.2. The Method of Weitzman

A spectrum is an arrangement of manuscripts in a sequence such that similar ones stand close together (applied by Griffith (1969)). As a one-dimensional mapping with unquantified distances, a spectrum is obviously less informative than a metric map in two or three dimensions. Such maps were derived mainly by factor analysis, the factor loadings of the first two or three factors being used as coordinates (applied by N ajock (1973), Monat (1975)). But further dimensions had to be neglected, even though they may contain considerable factor loadings (cf. the example of Griffith (1979, 78). This difficulty is overcome by cluster analysis (applied by Canivet/Malvaux (1964), Galloway (1979)); but here individual dissimilarities, i. e. dissimilarities of pairs of manuscripts, are successively replaced by group dissimilarities (defined as minimum, maximum or average of the individual dissimilarities involved), so that the metric of the resulting binary tree may differ considerably from the given dissimilarities. In fact the clustering tree is bound to be ultrametric: an additive tree is a tree with a metric in which the distance of two vertices (here manuscripts) is the sum of the edge-lengths (i. e. of the connecting lines) between them, and an ultrametric tree is an additive tree with a distinguished vertex, the root, that is equidistant from all terminal vertices.

The approach of Weitzman (1985) is based on an algorithm by Roskam/Lingoes (1970), that aims to preserve the rank ordering of the given manuscript dissimilarities in the Euclidean distances of the two-dimensional map derived. The map includes a hypothetical manuscript ω defined as non-erring in the determinate variant passages and corresponding to the archetype. Weitzman concludes that two manuscripts subtending an obtuse angle at ω will only seldom err together; if they agree in an indeterminate passage, ω probably shares their reading (principle of opposed pairs); in particular, a reading attested by a group of manuscripts which form a polygon including ω should be preferred. Obviously the map may assist in the evaluation of readings; but Weitzman is also aware of the limitations of the method: it may be impossible that a two-dimensional map reflects the rank ordering adequately, the obtuse angle argument is not stringent, and the principle of opposed pairs may fail. N evertheless the method is better justified than the application of other scaling techniques — such as spectra or maps derived from factor analysis — to manuscript traditions. To date it is the only computerized method to assist evaluation of readings without explicit or implicit stemma construction, apart from the simple tabulation of the numbers of pairwise common errors in the determinate passages.

N ote that a tree is additive, if for all vertices x, y, u, v

6.3. The Method of Buneman

d (x, y ) + d (u, v ) ≤ max{

According to this method, a tree with an ad-

d ( x, u ) + d ( y, v ),

X. Application Fields II

540

ditive metric is derived from an arbitrary dissimilarity measure. First note that (1) each edge of a tree induces, by the possibility of being removed, a bipartition or split σ = (S 0 , S 1 ) of its extant points or vertices (here manuscripts); (2) the splits induced by the edges incident to a branch-point differ, even if the branch-point is a lost vertex; (3) for splits ( , ) and ( , ) induced by distinct edges, possibly after interchanging the names of the parts of a split, includes and includes , so that and are disjunct; (4) a vertex can be associated in a natural way with that part of each split which covers the vertex in the tree; the intersection of all such parts contains just this vertex, and it is empty in the case of a lost vertex; (5) neighbouring vertices are associated in this way with identical parts of splits, except for the split defined by the edge between them. Led by such considerations, Buneman (1971) passed from the original tree structure to the induced split system, that contains the same information: calling two splits σ i and σ k compatible, if they contain disjunct parts ∈ σ j and ∈ σ k (note that i j and i k equal 0 or 1), he proved that any set of pairwise compatible splits, e. g. (σ 1 , ..., σ m ), constitutes a tree, whose vertices are sets ( , ..., ) with nonempty intersections ⋂ , and whose edges are unordered pairs of vertices differing in just one ; the intersection of the elements of a Buneman-vertex, i. e. of the sets , is called its support. If the edges of a normal tree T are used to induce a set of (obviously compatible) splits, the resulting Buneman-tree reproduces T, but the Buneman-tree is less structured, if it does not contain all splits induced by T; in such cases, the support of a Buneman-vertex may contain several normal vertices, both extant and lost. — Obviously these considerations provide an algorithm which, given a suitable system of splits, constructs a tree that explains the splits. A suitable system might consist in the complementary constellation pairs of a simple tradition, or, in case of irregularities, in a collection of the most important complementary constellation pairs, which is augmented as long as compatibility is not violated. But Buneman provided a more elegant solution. First note that (1) in a given tree, any four vertices a, b, c, d, possibly after renaming, are connected as shown in figure 42.3,

Fig. 42.3: four points in a tree, (α) = (β), a = (α) etc. possible. and (2) that if δ is a dissimilarity measure strictly additive along the branches of the tree, then δ(α, β) = ½(δ(a, c) + δ(b, d) — δ(a, b) — δ(c, d)) for all a and b separated by (α)--(β) from c and d. — Considering an arbitrary dissimilarity measure d and defining for every split σ = (S 0 , S 1 ) the quantity μ σ = min ½ ( d ( a, c ) + d ( b, d ) — d ( a, b ) — d ( c, d )) a, b ∈ S 0 , c, d ∈ S 1 Bunemann could show that the splits with positive μ σ are compatible (thereby constituting a tree), and that μ σ δ σ (a, b) with δ σ ( a, b ) = 1 if σ separates a from b 0 otherwise is an additive tree metric. This method transforms every dissimilarity measure, and thus every more or less distorted tree metric into a strictly additive one; thereby it compensates for moderate distortions but will give misleading results, if the dissimilarity measure given does not roughly reflect the real tree structure. N ote that if n is the number of extant manuscripts, μ σ has to be computed for 2 n—1 — 1 splits a, so that the method cannot be applied to a large tradition as a whole. Buneman showed that an additive tree metric is associated with exactly one tree, but he did not specify an algorithm by which the tree can be inferred. This can be achieved, however, by an algorithm, which I developed 1977, unpublished) from a partial solution of Plain-Switzer (1974, unpublished): Find a terminal point a by maximum distance. If there is a point b such that δ ( a, x ) — δ ( b, x ) = δ ( a, b ) for all extant points x except a and b, then b is neighbour of a; store the edge a — b, remove a and repeat. Otherwise find b such that for all x, except a and b, δ ( a, x ) — δ ( b, x ) is constant and — δ ( a, b ) < δ ( a, x ) — δ ( b, x ) < δ ( a, b ); then b is a terminal point with lost neighbour γ, which also neighbours a; store the edges a — γ, b — γ, define the distance of y to extant vertices x other than a and b by δ (y, x ) = ½ (δ ( a, x ) + δ ( b, x ) — δ ( a, b )), remove a and b and repeat. If no such b can be found, begin with other a.

It is not difficult to prove that this algo-

42.  Computer-Assisted Reconstruction of Texts

rithm finds the tree uniquely determined by an additive tree metric. 6.4. The Method of Sattath/Tversky Like Buneman (1971), Sattath/Tversky (1977) derive a tree with additive metric from an arbitrary dissimilarity measure d, but they first construct the tree and then furnish it with an additive metric defined by minimum deviation (least squares) from d. — Sattath/Tversky note that, in a given tree, any four points a,b,c,d appear in one of the three configurations of figure 42.4,

541

possible, so that (1) terminal points may be identified with inner nodes, (2) an identification of inner nodes may result in multifurcations, and (3) an inner node may contain several manuscripts. Thus the result is ultimately of the same type as that of Buneman (1971). A similar method, albeit more elaborate in the treatment of irregularities, has been recently proposed by Bandelt/Dress (1986).

7.

Three Possible Criteria: Compatibility, Parsimony and Maximum Likelihood

7.1. The Compatibility Criterion

Fig. 42.4: Configurations of four points.

and that an additive tree metric δ on these configurations implies (1) δ (a, b) + δ (c, d) or (2) δ (a, d) + δ (b, c) or (3) δ (a, c) + δ (b, d)

< δ (a, c) + δ (b, d) = δ (a, d) + δ (b, c) < δ (a, c) + δ (b, d) = δ (a, b) + δ (c, d) < δ (a, d) + δ (b, c) = δ (a, b) + δ (c, d).

Furthermore, Sattath/Tversky observe that any four points u, v, x, y can be relabelled a, b, c, d so that, for any dissimilarity measure d, d ( a, b ) + d ( c, d ) ≤ d ( a, c ) + d ( b, d ) ≤ d ( a, d ) + d ( b, c), a dissimilarity pattern best explained by configuration 42.4 (1), with relabelled points. Since configuration 42.4 (1) separates a and b from cand d (in reality e. g. u and x from v and y ), one may call (unlike Sattath/Tversky) a and b contraposed to c and d (denoted by ab ǁ cd), if the above inequality holds (clearly uv ǁ xy or ux ǁ vy or uy ǁ vx). N ow for each pair u, v all pairs x, y are examined and the number of quadruples with uv ǁ xy is determined. The pair u, v with the highest score is replaced by a new element γ, after the edges u—γ and v—γ have been established and after the dissimilarities of γ to all points z have been set equal to ( d ( z, u ) + d ( z, v))/2. Obviously this method treats all extant points as terminal and constructs only bifurcations at branch-points. But edge-length 0 is

A set of constellations is called compatible, if there is a tree T such that each constellation occupies a connected subgraph of T, i. e. if the constellations are convex on T. Compatibility methods aim at identifying the largest set of variant passages with compatible constellations. Consider a graph whose points are constellations, and let two constellations be connected by an edge, if their intersection is nonempty. This graph is called a constellation-intersection graph, and it is said to be chordal, if every cycle of length four or greater has a chord, i. e. a line not in the cycle that connects two points of the cycle (thus cycles are composed of triangles in a chordal graph). Both Buneman (1974) and Gavril (1974) have shown that manuscript partitions into constellations are compatible, if, and only if, the constellation-intersection graph is chordal (or can be made chordal by adding chords between constellations of different variant passages). So far, this provides a test for constellation compatibility. If a chordal intersection graph is found, an algorithm of Gavril (1974) can derive the tree on which the constellations are convex. It remains more difficult, however, to check whether a non-chordal intersection graph can be made chordal by the addition of chords, i. e. by the assumption of lost manuscripts at branch-points. For this problem cf. Meacham (1983), but note that if n is the number of extant manuscripts, at most n —1 branch-points need to be added. — Both because of the direct use of constellations and of the criterion of maximum convexity, i. e. of regularity of the tradition, the compatibility approach appeares as a natural generalization of Froger’s method (cf. 5.1.); this applies equally to the necessity of discarding certain variant passages. Felsenstein (1979) showed

X. Application Fields II

542

that compatibility methods will yield maximum likelihood results only, if most variant passages have low and a few have high probabilities of change, and that (Felsenstein 1978) a compatibility result is not necessarily a statistically consistent estimate of the real family tree. 7.2. The Parsimony Criterion Parsimony methods aim at finding the tree requiring the fewest substitutions of readings. Up to now, only a single method can guarantee the determination of most parsimonious trees, viz. checking all possible trees, with all possible combinations of readings at lost branch-points. Indeed global optimality, in terms of parsimony, does not imply local optimality on subtrees. More practicable, but less reliable methods check a smaller number of plausible trees as suggested, e. g., by clustering algorithms. N ote that the assumption of a simple tradition or, more generally, of a tree with convex constellations only, agrees with the parsimony criterion, however, in a rather restrictive way. Felsenstein (1973) could show that the most parsimonious tree is not always the most likely one, but that parsimony and maximum likelihood converge when the probabilities of change become very small; the parsimony result is not necessarily statistically consistent (Felsenstein 1978). 7.3. The Maximum Likelihood Criterion Both by its generality and the statistical consistency of the results, maximum likelihood seems to be the best criterion for stemma construction. The probability of a given tree T with given readings at all points (inclusive lost ones) is

Here the outer product extends over all variant passages k, p (r k ) denoting the initial probability of the reading of the root r at the k th variant passage. The inner product extends over all arcs a → b of T, a k and b k are the readings of a and b at the k th variant passage, and p ( a k , b k ) is the probability of transition from a k to b k . One has to maximize this expression over all possible tree structures for n given manuscripts and between 0 and n —1 lost ones, and over all possible combinations of readings in the lost ones. Here I differ from Felsenstein (1981), who in-

cluded the summation over the possible texts of unknown branch-points in the above formula, thereby searching for the tree structure that unites a maximum amount of probability contributed by various textually fixed traditions. But this may be a misleading philosophy, since the real tradition, textually fixed, was unique.

Up to now the computational burden (there are n n— 2 trees with n vertices) restricts the maximum likelihood method to small traditions with tree structure.

8.

Special Probabilistic Approaches

Haigh (1971) and N ajock/Heyde (1982) used the simple stochastic model that a scribe, before writing down his copy, chooses the model text among all prior copies with equal probability. Haigh derived an algorithm to find the maximum likelihood root of a given unrooted tree. N ajock/Heyde derived the most likely number of terminal copies in a tradition of unknown tree structure and a statistical test for hypotheses on that number; furthermore, they gave hints on how to use this number for a reconstruction algorithm. Weitzman (1982) investigated, by simulation of about 50 traditions with realistically estimated rates of reproduction and extinction of manuscripts, the expectable rates of post-original archetypes, bifid stemmata, codices descripti etc. His results come close to the traditional scholarly observations.

9.

Reliability Studies

The reliability of the methods described can be judged by the conditions under which correct and incorrect results are obtained. These conditions, however, are not always known, and if known, they are sometimes difficult to compare. However, we can state today that (1) hierarchical clustering is less general, and hence less reliable, than additive tree methods or parsimony and compatibility methods, (2) Froger’s global procedure is less general than the local algorithm described in section 5.4., and (3) both compatibility and parsimony methods are less general than the maximum likelihood method: The former implicitly presuppose that coincidence of error is rare, compatibility being supported, if such coincidences are concentrated in few variant passages, and parsimony, if they are scattered at random (Felsenstein 1982). Many questions still remain unanswered — one knows, e. g., that if the given dissimilarities are already the path-lengths of a tree, the methods of Buneman and Sattath/Tver-

42.  Computer-Assisted Reconstruction of Texts

sky will reproduce that tree. But how far may the dissimilarities deviate from the pathlengths? For the method of Buneman, e. g., it is not sufficient that the dissimilarities somehow increase with the path-lengths. Theoretical considerations can be complemented by empirical reliability studies. One way is the comparison of a manually obtained and presumably correct stemma with computer results based on exactly the same data. Such an experiment was carried out for the algorithm described in section 5.4. (N ajock 1980): A first program run, with about the first half of the variant passages, gave exactly the stemma obtained in the traditional way, but later runs with all variant passages introduced too many lost hyparchetypes. Such results are encouraging, but limited to a single tradition. More promising is the comparison of a large number of artificially generated traditions with the corresponding results of automated reconstruction methods. Simulation of genetic branching processes by Kidd/Cavalli-Sforza (1971) has shown, e. g., that the best procedures then available in biology yield the correct tree only in ca. 80 out of 100 experiments. Similar simulation studies with realistic models of text tradition would be welcome.

10. Computer Assisted Editions The edition of a sample of 300 Parzival verses by Kochendörfer/Schirok (1976) was intended to show the practicability of the method. In three editorial projects, however, the computer is used as a subsidiary tool of textual criticism: (1) Ritter (1980), in the preparation of his part of the forthcoming Editio critica maior of the works of PseudoDionysius Areopagita, followed Canivet/ Malvaux (1964) in using cluster analysis to find tentative groupings of 57 manuscripts. Of practical interest is the variety of dissimilarity measures applied. (2) For a planned Editio critica maior of the Catholic Epistles of the N ew Testament, by members of the Institut für N eutestamentliche Textforschung at Münster, the computer is used by Benduhn-Metz (1985) and Mink (1982) for stemma construction. The policy is to prepare manually for each variant passage a stemma of readings, to establish on this base lists of possible and necessary predecessors for each of the ca. 540 manuscripts, and to find the simplest directed graph of manuscripts compatible with the stemmata of readings. N ote

543

that the stemmata of readings largely correspond to the priority statements of Kochendörfer/Schirok (cf. 5.3.). It remains unclear, however, how lost manuscripts at branchpoints can be found in this way. (3) The forthcoming publication of Viré (1986), preceding a critical edition of Hyginus’ De astronomia, will also be of practical interest.

11. The Environment of Stemma Construction: Automatic Collation, Text Reconstruction and Layout Automatic collation presupposes the existence of the complete text versions in machine-readable form and requires a formal definition of the bounds of a variant passage. While the first requirement seems to be merely uneconomic, the second excludes philologically and linguistically based decisions which cannot be automated (cf. 5.3.). Thus automatic collation can at most provide a list of raw data requiring much manual elaboration (cf. Gilbert (1979)). It can be recommended, however, that the data gathered by manual collation be made machine-readable in some economic form, as, e. g., in a list of all variants with an indication of the associated manuscripts. Such a list, together with a stemma or other means for the evaluation of readings, can serve as a base for semi-automated text, reconstruction (Kochendörfer/Schirok 1976) and fully automated compilation of critical aparatuses (Kochendörfer/Schirok 1976, Gilbert 1979, Ott 1978, 1979). Finally, layout and encoding programs for photocomposition may assist the editorial process (Ott 1978, 1979). Obviously editorial corrections can be handled easily both by means of the normal editing facilities of current operating systems and by the possibility of re-running, e. g., a layout program.

12. Further Reading While I have tried to describe the main lines of methodological development, it is not possible to cover all approaches here. The reader is therefore referred primarily to the articles of Felsenstein (1982) and Weitzman (1985), which contain a number of pertinent remarks on various methods and further references. A representative collection of articles was published in the proceedings of the international colloquium ”La pratique des

X. Application Fields II

544

ordinateurs dans la critique des textes„ sponsored by the Centre National de la Recherche Scientifique and held at Paris in 1978 (Irigoin/Zarri, eds., 1979). For the philological literature up to 1983 cf. also the bibliography of Ott (1980).

13. Literature (selected) H.-J. Bandelt/A. Dress 1986 · A. Benduhn-Metz 1985 · M. Bévenot 1961 · P. Buneman 1971 · P. Buneman 1974 · W. M. Callewaert 1987 · S. P. Canivet/P. Malvaux 1964 · V. A. Dearing 1974 · J. Felsenstein 1968 · J. Felsenstein 1973 · J. Felsenstein 1978 · J. Felsenstein 1979 · J. Felsenstein 1981 · J. Felsenstein 1982 · J. Froger 1968 · P. Galloway 1979 · F. Gavril 1974 · P. Gilbert 1979 ·

W. W. Greg 1927 · J. G. Griffith 1969 · J. G. Griffith 1979 · J. Haigh 1971 · W. Hennig 1950 · J. Irigoin/G. P. Zarri, eds., 1979 · K. K. Kidd/L. L. Cavalli-Sforza 1971 · G. Kochendörfer/B. Schirok 1976 · P. Maas 1927 · Ch. A. Meacham 1983 · G. Mink 1982 · P. C. Mitchell 1901 · P. Monat 1975 · D. N ajock 1973 · D. N ajock 1979 · D. N ajock 1980 · D. N ajock/C. C. Heyde 1982 · W. Ott 1978 · W. Ott 1979 · W. Ott 1980 · H. Quentin 1922 · A. M. Ritter 1980 · E. E. Roskam/J. C. Lingoes 1970 · S. Sattath/A. Tversky 1977 · S. Timpanaro 1981 · G. Viré 1986 · M. P. Weitzman 1975 · M. P. Weitzman 1977 · M. P. Weitzman 1982 · M. P. Weitzman 1985 · M. L. West 1973 · G. P. Zarri 1976.

Dietmar Najock, Berlin (West)

43. Computer-Aided Stylistic Analysis. A Case Study of French Texts 1. 2. 3. 3.1. 3.2. 3.3. 4. 5.

Introduction Brief History Stylo-Statistics Theoretical Stylo-Statistics Applied Stylo-Statistics Statistical Support for Stylistic Studies Conclusion Literature (selected)

1.

Introduction

The original scope of this paper was to include computer-aided stylistic analysis of both French and Spanish texts in machinereadable form. As pointed out below, there are far fewer scholars working in this field than one would expect and, judging by publications of papers on computer-aided stylistic studies, the number in Spanish is virtually nil. There are areas in Spanish where the basic materials are available, e. g. the middle-ages with the work being carried out by the Seminary of Medieval Spanish Studies at the University of Wisconsin, where the dictionary of the old Spanish language (DOSL) is being created. As a by-product, the seminary makes available to scholars texts in machine readable form and concordances of the texts. The Menendez Pidal Archives, in Madrid, Spain, collects, stores, and studies the Spanish romancero, yet publications of computeraided stylistic analysis are difficult to find. N one has appeared in the Bulletin or Journal of the ALLC, and none in the journal CHUM. N o papers in Spanish stylistic studies were presented at the conferences

held by ICCH. It appears difficult to believe that there are no scholars engaged in Spanish computer-aided stylistic studies. Unfortunately, publications reporting on such activities have not appeared in the accepted professional journals for computing in the fields of language and literature and in the humanities in general. Consequently the scope of this paper has been restricted to French computer-aided stylistic analysis.

2.

Brief History

The first use of the computer as an aid to stylistic studies dates back to the early 1950s and the work of Robert Busa to create a concordance to the works of Thomas Aquinas. Although the first volume to the concordance was not published until 1973, other concordances appeared in the last half of the 1960s, among them Bryant C. Freeman’s Concordance du théâtre et des poésies de Jean Racine (1968), the first in a series of computer-created concordances published by the Cornell University Press. During the 1970s a multitude of concordances were published. By the beginning of the 1980s archives had been created that made texts in machinereadable form available to scholars, while at the same time a general-purpose concordance also became available, both from the Oxford University Computing Service. (For further details concerning concordances, see the bibliography in Robert L. Oakman’s Computer Methods for Literary Research [1984].)

43.  Computer-Aided Stylistic Analysis

Texts in machine-readable form and concordances are the basic tools for stylistic studies. Considering the work that has gone on and the material that is now available to scholars, one wonders why more scholars are not working with the computer in their stylistic analyses. Although attendance at computer conferences is increasing each year, the number of papers on stylistic analyses that are presented there are indeed few. For instance, at the Sixth International Conference on Computers and the Humanities, held at Raleigh, N orth Carolina, U. S. A., in 1983, of 121 papers presented, only four pertained to stylistic analysis, and at the Seventh International Conference on Computers and the Humanities, held at Provo, Utah, U. S. A., in 1985, four papers out of 106. At the XII International ALLC Conference on “Méthodes Quantitatives et Informatiques dans l’étude des Textes,” held at N ice, France, in 1986, only one fifth of the papers pertained to stylistics. Michel Lenoble, a speaker at the ALLC conference commented that, “force nous est de constater qu’une imposante majorité de ces travaux (traitement informatique des textes littéraires) portent sur les aspects non-littéraires: datation et filiation de manuscrits, attribution d’auteur et édition critique.” (Abstract printed in the Livret du Colloque, p. 147.)

One might add to this list of non-literary topics, computer aided instruction, and description of software and databases. One may wonder why more literary and linguistic scholars are not working with so powerful a tool as the computer. One of the reasons undoubtedly is the difficulty of finding or creating texts in machine-readable form. The text one would like to work with may not be in an archive. Another is the difficulty that many humanists have in interacting with computer machinery and working with computer software. There are any number of reasons one can find for explaining that feeling of antagonism detected in colleagues who recoil in horror at the mere mention of the computer. What the computer demands of the humanists runs contrary to their habitual mode of thinking: the computer’s insistence upon rigid preciseness versus the general concepts favored by most humanists, the concrete versus the abstract, the empirical versus the intuitive. The rare scholar who can balance the two tendencies can work in harmony with the computer. Balance it we must in our computer-aided stylistic studies. The computer demands pre-

545

cise, detailed definitions, beginning with the subject of this paper — “style”. In defining “style” the history of the meaning of this word shall not be discussed; Pierre Guiraud et Pierre Kuentz, co-authors of La S tylistique (1975), have covered the subject quite thoroughly. The term shall be defined from a computational-linguistic viewpoint. — Style is a person’s means of expressing him or herself. — The means of expression is language. — Language can be described in terms of its linguistic structures, their possible combinations, and the meaning derived thereof. — Therefore style can be defined in terms of linguistic structures, their possible combinations, and the meaning derived thereof.

This may be considered the kernel definition, for there are other definitions which expand upon this one. In literary stylistic studies, scholars are not only interested in identifying the linguistic structures, many also want to know what effect the use of those structures has upon the reader. “We normally study style because we want to explain something, and in general, literary stylistics has, implicitly or explicitly, the goal of explaining the relation between language and the artistic function” (Leech, Geoffrey N . and Short, Michael H. Style in Fiction, p. 13) (1981).

If this were not so, if we were to describe style only in terms of the linguistic structures and their possible combinations, we would be doing little more than creating a dictionary. Consequently the definition of style should be modified to read: Style can be described in terms of linguistic structures, how they are arranged in the text, the meaning derived thereof, and how they are used to create an effect upon the reader.

Another extension of the definition refers to style in terms of linguistic structures that deviate from the norm. This definition restricts the scope of stylistic studies to structures that are characteristic of the text. More will be said below about this definition. Having defined style we should now ask if there is any difference between computeraided stylistic studies and non-computer-aided stylistic studies. For studies of small texts such as a short poem, it is doubtful that the computer will make any difference, but for large texts, such as plays or novels, it can make a significant difference. For instance, in the 1960s, this writer conducted a stylistic study of the adjectives occurring in approximately 95,000 words of text in each of three

546

nineteenth-century French novels. Without the aid of a computer the collection of data required two years. The results of the study appeared so rewarding that it was decided to follow it up with one on the nouns that occurred in the same texts. To do this by hand proved impossible, at least for this writer. It wasn’t feasible to keep track of all the data because there are approximately three times more nouns than adjectives in the average novel, 45,000 nouns versus 15,000 adjectives. Consequently, the decision was made to work with a computer. Texts were put into machine-readable form and programs were written. When everything was completed it was possible to feed the program and texts into the computer and retrieve data on all grammatical categories in one pass through the computer. The time required for retrieving the data was less than ten minutes. The computer can be programmed to identify any linguistic structures that a scholar can identify himself: phone, or phoneme, prosodic elements, syllables, morphemes, words, syntactic structures, phrases, clauses, sentences, etc. It can identify co-occurrences, alliteration, prefixes, infixes, and suffixes, and keep count of everything that has been identified, while at the same time keeping track of where each linguistic structure occurs in the text. The retrieval of such information from large bodies of texts would be virtually impossible without the aid of a computer. All the linguistic structures mentioned above, except the phonological and prosodic structures, can easily be identified by concordance programs that are presently available. The designation of concordance program is, however, a misnomer, for the program does far more than establish a concordance. One usually thinks of a concordance as a list of words, with a line of context included for each occurrence of the word in the text, but the concordance programs that are presently available do this and much more. In addition to identifying linguistic structures other than the word, they maintain a statistical ledger of the occurrences, sorts the output either alphabetically or numerically, in an ascending or descending order, and can even produce reverse sorts. Where the earlier concordance programs produced a line of context, which many scholars thought was inadequate (consider the situation where the word is the last one in the sentence, but the first in the line of context), the latest ones provide

X. Application Fields II

for the possibility of printing either the sentence where the linguistic structure occurs or a line of text that contains the linguistic structure along with a fixed number of words that occur before and after it. In the latter case the number of words that preceded and followed the structure could create a context larger than a line of context. Since concordance programs are general programs applicable to any language, they do not lemmatize the vocabulary of the text. Depending upon the research that one is doing, this may or may not be a shortcoming. For further information on concordances, consult Susan Hockey’s A Guide to Computer Applications in the Humanities (1980), or the above-mentioned work by Oakman. Once one has the basic materials, i. e., the machine-readable text and the sofware, the model that the research will follow can take any one of several forms. The following example of work by Paul Fortier’s describes the dominant theme of La Jalousie by Alain Robbe-Grillet. This model uses, in addition to the concordance, a thesaurus and a synonym dictionary. Following the creation of an alphabetized concordance, a program establishes a record for each word which contains its grammatical category, its lemma or base form, and location within the text. A list of theme words is drawn up, chosen by Fortier after a careful reading of the text. For instance, upon reading La Jalousie, he noted certain inconsistencies which created a feeling of uncertainty: Dès le premier paragraphe de La Jalousie, il se crée une atmosphère où une précision en apparence très grande finit par jeter une voile d’incertitude sur ce qui est décrit (Fortier 1981, 27). Le lecteur de romans est habitué à trouver, dans les textes qu’il lit, une cohérence interne. Ici, le narrateur de La Jalousie abolit cette cohérence, car après avoir évoqué un détail, il affirme, tout de suite après, que ce détail ne peut être connu (Fortier 1981, 31). On ne voit pas le narrateur ... Mais il est maintenant possible de voir comment fonctionne son esprit il cherche toujours et partout la précision et ne trouve que l’incertitude, ce va-et-vient entre la soif de la certitude et le doute toujours renaissant est caractéristique de l’émotion suscitée par la jalousie (Fortier 1981, 32) .

Consulting a thesaurus and a synonym dictionary that have been built up over the years, Fortier came up with a list of words related to the concept of l’incertitude. He then checked the concordance to see if the words occurred in the text and those that were so

43.  Computer-Aided Stylistic Analysis

547

identified constituted the list of words that contribute to the theme. Below we see this list of words that evoke the theme of “uncertainty,” drawn from Fortier’s book, Structures et communication dans “La Jalousie” d’Alain Robbe-Grillet, (1981), 118. The Centre de Lexicologie et Textes Politiques of the Ecole Normale S upérieure de Mot Aléa Ambiguïté Brouiller Cependant Confus Conteste Devoir Discuter Doute Flou F. Imprécis Imprévisible Imprévu Incertain Incertitude Instable Mais Obscurcir Obscurité Ou Paraître Peut-être Possibilité Possible Pourtant Pouvoir Probable Probablement Problématique Problème Risque Risquer Sembler Supposer Supposition Suspect Tâtonnement Vague Vague Vaguement Vraisemblable Vraisemblablement Vraisemblance Total

Partie du Fréquence Discours N. M. 2 N. F. 1 V. Tr. 1 Conj. 19 Adj. 1 Adv. 1 V. Tr. 44 V. 2 N. M. 19 Adj. 3 1 Adj. 1 Adj. 1 Adj. 1 Adj. 4 N. F. 1 Adj. 1 Conj. 157 V. Tr. 2 N. F. 12 Conj. 160 V. Intr. 18 Adv. 21 N. F. 1 Adj. 15 Adv. 16 V. Tr. 41 Adj. 5 Adv. 8 Adj. 1 N. M. 1 N. M. 2 V. Tr. 4 V. Intr. 23 V. Tr. 1 N. F. 1 Adj. 1 N. M. 1 Adj. 1 N. M. 1 Adv. 1 Adj. 2 Adv. 2 N. F.

2 563

Fig. 43.1: Words evoking the theme of l’incertitude

Saint-Cloud, in France studies the language and style of political texts. Among the various approaches that is used at the Center, the studies of co-occurrences is of particular interest. (The term “co-occurrences” refers to words — usually two — that occur one next to the other or in close proximity to each other.) A group from the center, Annie Geffroy, Pierre Lafon, Gill Seidel, and Maurice Tournier studied examples of co-occurrences in two corpora of political tracts published in Paris during the uprising of May 1968 by overtly left-wing groups (GP) that were nationally organized, and Action Committees (CA) that were mostly spontaneous grassroot organizations. Since the subject that both groups were writing about was the same — the conflict between workers and the establishment — and the vocabulary was the same, the goal of the research group was to see if there wasn’t a difference in the co-occurrences of the vocabulary that was basic to the subject under study. Because of a high degree of redundancy, or repetition, the political tracts proved to be ideal texts for this study. Working with texts of equal length, the researchers chose the sentence as the unit of study. All occurrences of function words (all parts of speech except nouns, adjectives, verbs, and adverbs) and of avoir and être were removed from the text. The distance between the co-occurrences, made up of a node and one or two co-occurring words, was measured in both directions — the direction preceding the word and the direction following the word. The position of the node within the sentence was also calculated so as to indicate whether the node occurred at the beginning, the middle, or the end of the sentence, thereby showing whether the node was the subject, performing the action, or the object, receiving the action. Among the principal nodes were: travailleurs, ouvriers, étudiants, lutte and grève. An example of the co-occurrences with the node travailleurs follows, drawn from “Lexicometric Analysis of Cooccurrences”, The Computer and Literary Studies, Geffroy/Lafon/Seidel et al. 1973, 118. The research group noted that the Groupes Politiques had co-occurrents that were more abstract and that the co-occurrents of ouvriers: forces, luttes, organisations, had cooccurrents: démocratique, union, travailleurs, peuple, syndicales, politiques, ouvrières, indicative of organizational mentality, while the

X. Application Fields II

548

—— 1 and another one from the between-template transition rules for j = 1. At the potential word boundaries, i. e. at the start of each reference pattern k with j = 1, we have: D (i, 1, k) =d (x (i) | 1, k) + min {D (i — 1, 1, k) + T (1 | 1, k); D (i — 1, J (k′), k′) + T (1 | J (k′), k′): k′ = 1, ..., K} In the word interior with j > 1, we have: D (i, j, k) =

d (x (i) | j, k) + min {D (i — 1, j′, k) + T (j | j′, k): j′ = 1, ..., j}

The recursive evaluation is carried out in three loops each over the input frames, the templates and the template frames. After the final input frame has been processed, the optimal path is constructed by tracing back the optimal decisions taken at each of the local optimization steps. Thus the word sequence that best matches the input pattern is determined. The technique of delayed decisions as described above and its efficient algorithmic implementation in both software and hardware form the basis of the more advanced commercial systems for connected word rec-

47.  Automatic Speech Recognition

ognition. The word error rates of these systems are typically in the range of 1% for the speaker dependent recognition of the digit vocabulary. Refinements and details of the implementation of the algorithm are given in the references.

7.

Continuous Speech Recognition

Continuous speech recognition is more complex than connected word recognition for several reasons: the vocabulary is larger, the words are pronounced less carefully, and the sentences have a syntactic-semantic structure that must be taken account of by the recognition system. As a consequence, the recognition process has to deal with a larger search space, i. e. the number of hypotheses to be formed about words and sentences, and to take account of high level constraints as given by syntax and semantics. Useful criteria to systematically classify system architectures are the way in which the ambiguity problem of the hypotheses is handled and the organization of the search procedure. M any of the system architectures still in use today have been developed during the ’Speech Understanding Project’ (SUR) sponsored by the U. S. Department of Defense’s Advanced Research Project Agency (ARPA) (Lea 1980). A number of details on system architectures can be found in the books by Lea (1980), by Haton (ed.) (1982) and by de M ori/Suen (1985). Often system architectures are classified according to whether hypotheses are constructed in a ’bottom-up’ or ’top-down’ manner. The attributes stem originally from the parsing of nonprobabilistic context free grammars (Hopcroft/Ullman 1979). In a ’bottom-up’ approach, the recognition at the subword or the word level operates independently of the high level components in order to produce subword word hypotheses. In a ’top-down’ approach, the high level components predict certain subwords or words according to the portion of the input sentence already processed and to the knowledge about syntax, semantics and pragmatics and propose them to the acoustic level to evaluate their likelihoods. A number of systems are based on a hierarchical structure that can be derived directly from Fig. 47.1. A hierarchy of processing levels with corresponding knowledge sources is defined, and interactions take place only between adjacent levels. Ideally, as many hypotheses as

595

possible should be passed on from one level to the next in order to make sure that the correct hypothesis is not likely to be missed. A suitable approximation to a complete set of hypotheses could amount to a table of hypotheses scores depending on three parameters: the beginning and ending points of the sentence portion under consideration and the subword, word or word group being hypothesized. However due to memory and computer time limitations, usually a number of short cuts are applied, which effectively results in preliminary decisions that may be difficult to correct in later processing stages. Typically an explicit segmentation is performed to produce a comparatively small number of subword hypotheses for each segment portion. Examples of systems relying on a hierarchical structure are HWIM (Lea (ed.) 1980), KEAL (M ercier 1982) and M YRTILLE (Haton/Pierrel/Sabbagh 1982). A completely different approach was employed in the HEARSAY system (Lea 1980). HEARSAY is based on a set of cooperating independent knowledge sources that communicate through a global data base called blackboard. This blackboard is basically made up of all hypotheses produced by the knowledge sources during the recognition process. Each knowledge source has access to the data base and can create, modify or complete hypotheses. At present, there are quite a number of research groups that focus on a HEARSAY-like approach and attempt to extend it by including concepts such as rule based systems and expert systems for both acoustic-phonetic recognition and modelling of high-level constraints (de M ori/Suen 1985). Still other systems rely heavily on the statistical decision theory which is considered in more detail. In order to minimize the probability of error according to the Bayes’ decision rule (Fukunaga 1972), the task of a speech recognizer must be to determine that sequence of words w (1), ..., w (n), ..., w (N): = w [1 : N] (of unknown length N) that has most probably caused the observed sequence of measurements x (1), ..., x (i), ..., x (I): = x [1 : I]. Using the Bayes’ theorem (Fukunaga 1972), we can cast it into the form: Determine that sequence of words w [1 : N] that maximizes (Pr (w [1 : N]) * Pr (x [1 : I] | w [1 : N]). This important equation highlights the interaction between the observed data and the knowledge sources of the system: the deci-

596

sion must lead to the best compromise between the observed data and the knowledge sources. At the same time, the equation allows a clear border line to be defined between the acoustic-phonetic knowledge sources and the higher level knowledge sources. The first term, Pr (w [1 : N]), is the a-priori probability of the word sequence w[1 : N]. It is independent of the acoustic observations and completely specified by the higher level knowledge sources. In other words, the high level knowledge sources syntax, semantics and pragmatics are equivalent to the knowledge of the a-priori probabilities Pr (w [1 : N]) of all word sequences w [1 : N]. The second term, Pr (x[1 : I] | w[1 : N]), is the conditional probability of observing the sequence x[1 : I] when the word sequence w[1 : N] has been uttered. It must reflect the acoustic-phonetic and lexical knowledge sources. Once the probability functions of the language and of the acoustic-phonetics are known, it is in principle possible for a given sequence of measurements x [1 : I] to evaluate Pr (w [1 : N]) * Pr (x [1 : I] | w[1 : N]) for each word sequence w[1 : N] and to determine the most likely word sequence directly. Thus from the point of view of the statistical decision theory, the distinction between ’top-down’ and ’bottomup’ approaches is irrelevant. What matters is the search procedure for finding the most likely word sequence. Since the computational expenditure of an exhaustive search is far too high, special nonexhaustive search procedures are utilized, e. g. stack decoding (Bahl/Jelinek/M ercer 1983), dynamic pro-

Fig. 47.5: Search procedure continuous speech recognition

XI. Application Fields III

gramming (Baker 1975 a, b), beam search (Lowerre 1976) and ordered search (Nilsson 1982). In order to reduce the combinatorial complexity of the optimization problem, approximations are often employed such as replacing the most likely word sequence by the most likely state sequence in the search space (Baker 1975 b). Fig. 47.5 depicts a search produce that is based on statistical principles and can be viewed as a conceptionally straightforward extension of the dynamic programming algorithm for connected word recognition as described in Section 6 (Ney/ M ergel/Noll et al. 1987). It is a strictly left-toright search where hypotheses about the spoken word sequence are formed in parallel and in time synchronisation with the time axis of the input utterance. The search makes use of three knowledge sources: the inventory of subword units, the pronunciation lexicon and the language model. The language model is closely related to the complexity of a recognition task which is not necessarily correlated with the size of the vocabulary. One way to measure the complexity of the recognition task or, in other words, the degree of constraints imposed by the high level knowledge sources is the socalled branching factor or perplexity, which is the average number of words that could appear next in an allowable sentence. If all legal sentences are equiprobable and the language perplexity is p, there are a total of p n different sentences for a given length of n words per sentence. An example of such an artificial language is shown in Fig. 47.6 for

Fig. 47.6: Example of a finite state network as language model (after Jelinek 1976)

47.  Automatic Speech Recognition 597

XI. Application Fields III

598

the so-called ’New Raleigh Language’ (Jelinek 1976). Each path through the network results in a legal sentence, which in Fig. 47.6, however, does not imply semantic correctness. Although the vocabulary comprises 250 words in Fig. 47.6, the average number of choices at each state is only between 7 and 8. Thus from the acoustic recognition point of view, a task in continuous speech recognition can be simpler than the recognition of digit strings if the average branching factor is smaller than 10. Techniques for setting up artificial language models designed by the experimenter and natural language models extracted from observed data are described in (Bahl/Jelinek/M ercer 1983). Other models can be based on the stochastic variants of context free grammars (Hopcroft/Ullman 1979) or augmented transition network (ATN) grammars (Woods 1970). Prominent examples of a statistically oriented approach are the HARPY system (Lowerre 1976; Lea 1980), the DRAGON system (Baker 1975 a) and the IBM system (Jelinek 1976). A similar approach has been employed by Vintsyuk (1982). The theoretical foundations for the HARPY type of knowledge representation were originally developed in the DRAGON system by Baker (1975 a). HARPY merged lexical knowledge, phonological rules, syntactic and semantic knowledge into a unified network. The most consequent exponent of statistically based recognition is Jelinek’s group at IBM (Bahl/Jelinek/M ercer 1983). Their goal is the transcription of a limited natural language for the dictation of office correspondence. They take the probabilistic approach so far that nearly every piece of knowledge about both the speech signal and the language structure is extracted automatically from a sufficient amount of training data. In order to simplify the recognition task, the emphasis of research was placed on isolated word input rather than continuous speech input (Jelinek 1985). A PC-based demonstration system has been built that recognizes isolated speech input from 20 000-word vocabulary in real time (Averbuch/Bahl/Bakis et al. 1987). Recently, a number of government funded research projects on continuous speech recognition have been started, in both the United States and in Europe. These projects concentrate on continuous speech recognition for large vocabularies and high language perplexities and on the integration of

speech recognition and natural language analysis. Two systems, BYBLOS and SPICOS, shall be mentioned here. Both systems are based on statistical global decision criteria, a time-synchronous left-to-right search strategy and the exploitation of knowledge sources as shown in Fig. 47.5. In BYBLOS, the BBN continuous speech recognition system, the vocabulary size is about 350 words; speaker dependent and speaker adaptive recognition techniques are investigated (Chow/ Dunham/Kimball et al. 1987). The acronym SPICOS stands for Siemens-Philips-IPO continuous speech recognition and understanding (Ney/M ergel/Noll et al. 1987). The goal of this project is a man-machine dialogue system that is able to recognize and understand fluently spoken German sentences and thus to provide access to a data base. The vocabulary comprises 917 complete word forms that are made up from 420 word stems. The language model is derived from generalizations of the linguistic phenomena found in a representative set of 200 sentences that characterize the task domain. These generalizations are manually set up as rules in a context free notation, which are then compiled into a finite-state network (M ergel/Paeseler 1987). The acoustic modelling is based on an inventory of 44 phoneme models (Ney/Noll 1988).

8.

Conclusions

The acoustic-phonetic recognition of speech, which essentially amounts to the mapping of the acoustic speech signal onto discrete phonetic units, is still the bottleneck in each automatic system for speech recognition. A number of techniques have been developed to deal with the problems of acousticphonetic recognition such as statistical techniques and delayed decision techniques. In particular in the case of continuous speech recognition, the interaction of the acousticphonetic recognition with the high-level knowledge sources is important and can be used to drastically improve the recognition reliability. At present, a number of research groups attempt to better understand the relation between the sound symbols and their realizations in the acoustic signal and concentrate on the representation of such knowledge and its formulation in rules. This paper is partly adapted from an article written by the author for: A. E. Cawkell (ed): Handbook of Information Technology and Office Systems’, North-Holland, Amsterdam, pp. 735—762, 1986.

48.  Automatische Sprachsynthese

9.

Literature (selected)

A. Averbuch/L. Bahl/R. Bakis et al. 1987 · L. R. Bahl/F. Jelinek/R. L. M ercer 1983 · J. K. Baker 1975 a · J. K. Baker 1975 b · R. Bellman 1957 · H. Bourlard/Y. Kamp/H. Ney et al. 1985 · J. S. Bridle/M . D. Brown/R. M . Chamberlain 1982 · P. F. Brown/C.-H. Lee/J. C. Spohrer 1983 · Y. L. Chow/M . O. Dunham/O. A. Kimball et al. 1987 · G. R. Doddington/T. B. Schalk 1981 · K. Fukunaga 1972 · J.-P. Haton (ed.) 1982 · J.-P. Haton/J. M . Pierrel/S. Sabbagh 1982 · J. E. Hopcroft/J. D. Ullman 1979 · F. Itakura 1975 · F. Jelinek 1976 · F. Jelinek 1985 · M . H. Kuhn/H. Tomaschewski 1983 · W. A. Lea (ed.) 1980 · B. T. Lowerre 1976 ·

599

G. M ercier 1982 · D. M ergel/A. Paeseler 1987 · W. M eyer-Eppler 1959 · R. de M ori 1983 · R. de M ori/C. Y. Suen (ed.) 1985 · C. S. M yers/L. R. Rabiner 1981 · H. Ney 1982 · H. Ney 1984 · H. Ney/D. M ergel/S. M . M arcus 1986 · H. Ney/D. M ergel/A. Noll et al. 1987 · H. Ney/A. Noll 1988 · N. J. Nilsson 1982 · L. R. Rabiner/S. E. Levinson 1981 · L. R. Rabiner/R. W. Schafer 1978 · D. R. Reddy 1976 · H. Sakoe 1979 · J. C. Spohrer/P. F. Brown/P. H. Hochschild et al. 1980 · T. K. Vintsyuk 1971 · T. K. Vintsyuk 1982 · W. A. Woods 1970 · V. W. Zue 1985 · V. W. Zue/R. M . Schwartz 1980.

Hermann Ney, Hamburg (Federal Republic of Germany)

48. Automatische Sprachsynthese 1. 2.

13.

Grundproblem Verschiedene Konzepte und Methoden der Sprachsynthese Hardware- und Softwarekomponenten von Sprachsynthesesystemen Übersicht über verfügbare Geräte (Auswahl) Probleme der heute verfügbaren Geräte Softwareprobleme Qualitätstests, Akzeptanz Heutige Anwendungen Künftige Anwendungen Stand der Synthese von verschiedenen Sprachen Forschungsthemen Zur geschichtlichen Entwicklung der automatischen Sprachsynthese Literatur (in Auswahl)

1.

Grundproblem

3. 4. 5. 6. 7. 8. 9. 10. 11. 12.

M öglichst naturgetreue Nachbildung des menschlichen Sprechens mit technischen Mitteln für technische Zwecke: (a) der Teil einer sprechend/hörend geführten Interaktion zwischen M enschen und technischen Systemen, bei dem das technische System spricht; Ziel der Nachbildung ist es meist, das menschliche Sprechen in allen seinen Ausprägungen möglichst perfekt nachzubilden; Lautqualität, Wortintonation und Satzintonation sollen der pragmatischen Situation entsprechen, auf die sich die sprachliche Äußerung bezieht; es gibt auch die M einung, daß eine gewisse auditiv empfundene Künstlichkeit der synthetisierten Sprache bei solcher, nicht face-to-face stattfindender Kommunikation eher nützlich ist;

(b) die Rückgewinnung eines angemessen verständlichen Sprachsignals aus einer für den Transport über einen technischen Kanal besonders geeigneten Form; hierbei sind die M inimierung der pro Sekunde Sprachsignal benötigten Bits, geringe Anfälligkeit gegen Störungen während des Transports, Realzeitverhalten und Erhalten der individuellen Merkmale einer Stimme die Ziele. Die elektrotechnischen Verfahren für (a) und (b) sind z. T. dieselben; im folgenden soll die Sprachsynthese hauptsächlich aus dem Blickwinkel des linguistisch begründeten Einsatzes von Computerverfahren betrachtet werden, so daß auf die mit (b) zusammenhängenden Probleme nur verwiesen werden kann. Die Verfahren für (a) lassen sich nach der Art und Weise der Produktion des Sprachsignals unterscheiden: Wenn das Sprachsignal aus diskreten Lauten oder Lautübergängen zusammengesetzt wird, spricht man von Vollsynthese; davon unterschieden werden müssen Verfahren, die ganze Sprechnachrichten digitalisiert abspeichern oder aus digitalisiert abgespeicherten Woörten zusammensetzen. — Die lautorientierten Verfahren benötigen als Eingabe (s. Abb. 48.2) Lauttexte, die aus Lauten des von dem jeweiligen Verfahren verarbeitbaren Lautinventars bestehen. Sollen schriftsprachlich vorliegende Texte mit Hilfe solcher Verfahren und Geräte ausgesprochen werden, so müssen diese in entsprechende Lauttexte umgewandelt werden. In der Praxis geschieht dies oft über die Zwischenstufe der Umwandlung des schriftsprachlichen Textes in einen allophonisch/phonetischen Text. Diese Umwandlung wird im Artikel 16

XI. Application Fields III

600

„Computergestützte Verfahren zur phonologischen Beschreibung von Sprache“ behandelt. Hier wird auf die Probleme der Umwandlung von allophonisch/phonetischen Texten in die von Sprachsyntheseverfahren und -geräten vorausgesetzten Lauttexte eingegangen. Als besonders schwierig hat sich in der Praxis der Sprachsynthese die Satzintonation erwiesen. Die zur Sprachsynthese verwendeten Lauttexte müssen suprasegmentale Angaben enthalten. Bei der Synthese von schriftsprachlichen Texten über eine allophonische Zwischenstufe müssen diese ebenfalls aus dem Text abgeleitet werden. Auch bei wortorientierten Sprachsyntheseverfahren müssen Vorkehrungen getroffen werden, damit aus isoliert angemessen wiedergebbaren Wörtern auch längere Passagen mit angemessener Intonation zusammengestellt werden können. Sprachsynthese wird allgemein als ein wünschenswerter und nützlicher Teil der Kommunikation zwischen M ensch und M aschine angesehen, der Benutzerbarrieren abbauen hilft. Eine besondere Attraktivität bekam die Sprachsynthese dadurch, daß sich mit ihr das weltweit vorhandene Telefonnetz für neue Computeranwendungen zu öffnen schien. Auf den ersten Blick gesehen hat sich das Problem der Synthese von gesprochener Sprache als deutlich weniger schwierig erwiesen als das Problem der Analyse von gesprochener Sprache; vordergründige technische Erfolge können bei der Sprachsynthese schneller erzielt werden; insgesamt gesehen ist aber die Sprachsynthese ein technisches Ziel von hoher Komplexität (vgl. Art. 47). Die folgende Beschreibung der automatischen Sprachsynthese deckt schwerpunktmäßig den Zeitraum von 1976—1985 ab. Über den Problembereich kann man sich u. a. in folgenden Lehrbüchern, Einführungen und Überblicken informieren: (M eyer-Eppler 1967): älterer Handbuchartikel, nachrichtentechnisch; (Flanagan 1972): älteres Lehrbuch, nachrichtentechnisch; (Flanagan 1976): allgemeine Einführung; (Rice 1976): populäre Einführung; (Rabiner/Schafer 1978): Lehrbuch; (Busch/ Kansy/M üller et al. 1982): allgemeine Einführung, speziell für Anwendungen im Bürobereich; (CNET 1982): Broschüre, allgemeine Einführung; (Witten 1982 a): relativ umfassendes Lehrbuch, Schwerpunkte nachrichtentechnische Verfahren, Verknüpfung von Sprecheinheiten, Satzintonation; (Lee/

Lochovsky 1983): state-of-the-art-Bericht; (Sclater 1983): allgemeine Einführung, speziell für M ikroprozessor-Anwender; (Sickert (ed.) 1983): Lehrbuch, Grundlagen, Anwendungen, nachrichtentechnisch; (Fellbaum 1984): Lehrbuch, nachrichtentechnisch; (Hein 1985): allgemeine Einführung; (Allen 1985): allgemeine Einschätzung des state-ofthe-art, Forschungsstrategie; (Chiba 1985): state-of-the-art in Japan; (M ariani 1985; M ariani 1986): materialreicher state-of-the-artBericht für Europa. Als Sammlungen von Aufsätzen zu einzelnen Aspekten des Problembereichs sind zu nennen: (SPEECH TECH 1984; SPEECH TECH 1985) M[ üller, (ed.) 1985]. Zu einer Darstellung der Automatischen Sprachsynthese, die alle Aspekte berücksichtigt, und zur Forschung und Entwicklung auf dem Gebiet bedarf es eines in hohem M aße interdisziplinären Ansatzes; einbezogen werden müssen Akustik, Informatik, Nachrichtentechnik, Linguistik, Phonetik, Psychologie (Thomas 1984; Allen 1985). Die folgende Beschreibung wird diesem Anspruch nicht gerecht; sie bleibt auf wenige, subjektive Einschätzungen widerspiegelnde Aspekte beschränkt.

2.

Verschiedene Konzepte und Methoden der Sprachsynthese

Die M ethoden der Sprachsynthese lassen sich unterscheiden nach — der sprachlichen Einheit, die in eine gesprochene Form überführt werden soll (was gesprochen werden soll). — den Zw ischenschritten, die zur Überführung der sprachlichen Einheiten in die gesprochene Form nötig sind (wie auf das eigentliche Sprechen vorbereitet werden muß). — dem elektrotechnischem (nachrichtentechnischem) Verfahren, mit dem das akustische Signal erzeugt w ird (mit welchen technischen Mitteln gesprochen wird). — der Anwendungsklasse (wofür gesprochen wird). Als sprachliche Einheiten sollen in diesem Zusammenhang angesehen werden: „das Gemeinte“, „idea“ (Umeda 1976), „was gesagt werden soll“ (Hein 1985), Sprechakte, pragmatisch/semantisch eine Einheit bildende Repräsentationen von Sprachäußerungen, schriftsprachliche Texte,

48.  Automatische Sprachsynthese

Sätze, Wortfolgen, Wörter, in Lautschrift dargestellte Laute. Die sprachlichen Einheiten müssen je nach dem verwendeten nachrichtentechnischen Verfahren transformiert werden in: (a) Steuersymbole für vorgesprochene Sätze, Wortfolgen, die im System abgespeichert sind; (b) Steuersymbole für vorgesprochene Wörter, die im System abgespeichert sind; (c) Lautkommandos, (d) Steuerkommandos für Lautübergänge (Diphone) oder Lautgruppen, (e) Steuerparameter für ein elektronisches Artikulationsmodell. Bei manchen Verfahren sind Hilfstransformationen zwischengeschaltet, die die sprachlichen Einheiten in „tiefere“ sprachliche Einheiten umwandeln und aus diesen erst in die gerätenahe Form (a) bis (e). Die z. Z. bekanntesten nachrichtentechnischen Verfahren sind: Basisverfahren: (1) PCM „Pulse-Code-Modulation“ (Signalformcodierung) (2) Delta-Modulation (Signalformcodierung) (3) ADPCM „Adaptive Differential Pulse Modulation“ (Signalformcodierung) (4) CVSD „Continuously Variable Slope Delta Modulation“ (Signalformcodierung) (5) Mozer-Codierung (Signalformcodierung/Quellencodierung) (6) LPC „Linear Predictive Coding“, PARCOR „Partial Correlation“ (Quellencodierung) (7) Formantsynthese (Quellencodierung) (8) artikulatorische Synthese (Quellencodierung) Mit verschiedenen Basisverfahren realisierbar: (9) Lautsynthese (10) Diphonsynthese (11) word concatenation (Young/Fallside 1980) Die Anwendungen lassen sich in folgende Anwendungsklassen zusammenfassen: (i) voice messaging, voice store-and-forward, speech filing; (ii) voice response; (iii) text-to-speech; (iv) concept-to-speech (erst im Entstehen begriffen). Die Zusammenhänge zwischen den einzelnen Parametern, die ein Sprachsynthese-

601

system charakterisieren, sind in Abb. 48.1 im

Abb. 48.1: Sprachsynthese (Ablaufdiagramm)

Überblick dargestellt und in Abb. 48.2 im Detail. Eine andere Einteilung ist in (Lee/Lochovsky 1983) zu finden (362): danach sind die Sprachsynthesesysteme gekennzeichnet durch die Größe ihres Wortschatzes, die Sprachqualität, die Kosten und durch ihre Flexibilität (Grad der Leichtigkeit von Änderungen am Umfang des Wortschatzes und an einzelnen Elementen des Wortschatzes); wobei die Kosten sich u. a. aus der Datenrate und der Verarbeitungskomplexität des verwandten nachrichtentechnischen Verfahrens zusammensetzen. Die Flexibilität, die Wortschatzgröße und die Sprachqualität hängen ebenfalls stark vom nachrichtentechnischen Verfahren ab. 2.1. Zu synthetisierende sprachliche Einheiten Das, was von einem Sprachausgabegerät gesprochen werden soll, kann in schriftlicher

602

XI. Application Fields III

Abb. 48.2: Detaildiagramm „Methoden der Sprachsynthese“

Form vorliegen (β), (y), (d) oder als bloßes Konzept, als interne, sprachlich noch nicht geformte ’Vorstellung’ (a). Solche Konzepte können entweder direkt in Steuersymbole oder Lautkommandos umgewandelt werden, oder aus ihnen werden schriftsprachliche Zwischenformen erzeugt. Schriftsprachliche Einheiten werden entweder direkt in Steuersymbole oder Lautkommandos umgewandelt oder in sprachhierarchisch tiefere schriftsprachliche Einheiten. Auf jeder Hierarchieebene lassen sich Informationen gewinnen, die für die spätere Aussprache von Bedeutung sind: so hängt z. B. die Satzintonation von der Satzstruktur ab, die Vokalqualität von der morphologischen Zuordnung des Segments, in dem der Vokalgraph auftritt. Diese Informationen müssen von Ebene zu Ebene weitergegeben werden und beeinflussen auf tieferen Ebenen den Syntheseprozeß. Aus praktischen Gründen wird oft nicht direkt in Steuerkommandos umgewandelt, sondern in eine lautschriftliche Zwischenform. Diese Zwischenform kann der Systementwickler meist leichter lesen als Strings aus Steuerkommandos. Jedem Element der lautschriftlichen Zwischenform sollte eine feste Steuerkommandofolge entsprechen. Manchmal wird in eine phonemische Zwischenform umgewandelt (vgl. Artikel 16) und aus dieser erst in eine phonetische, allophoni-

sche Zwischenform (z. B. (Hertz/Beckman 1983)). Läßt es das Synthesegerät zu, so sind auch Darstellungsformen auf dem Niveau von distinktiven Merkmalen und von Parametern für die Dauer von Segmenten und für Intonationsverläufe möglich (so in Experimentalsystemen wie SRS von (Hertz 1982)). Neben den oben aufgeführten sprachlichen Einheiten ließe sich an die Verwendung von M orphemen denken. Ihre Häufigkeit (im Deutschen ca. 10 000, im Englischen ca. 12 000) ist größer als die der Diphone (Dt. 2 500), aber geringer als die der Wörter. 2.2. Steuersymbole und Lautkommandos Steuersymbole und Lautkommandos sind die Zeichenfolgen, mit denen das Sprachsynthesegerät angesprochen wird. Ihre Struktur und die Reaktion, die sie auslösen, hängen vom nachrichtentechnischen Syntheseverfahren des Gerätes ab. Grob lassen sie sich einteilen in Kommandos für — den Abruf von vorgespeicherten längeren Passagen gesprochener Sprache, — Lautfolgen und Einzellaute, — Lautteile und Beschreibungen von Lautproduktionen. 2.3. Nachrichtentechnische Verfahren Die nachrichtentechnischen Verfahren sind z. B. beschrieben in (Rabiner/Schafer 1978),

48.  Automatische Sprachsynthese

(Witten 1982 a), (Sickert 1983), (Fellbaum 1984). Es sind zwei Klassen von nachrichtentechnischen Basis-Verfahren zu unterscheiden (vgl. z. B. Sickert 1983, 183 ff.; Lee/Lochovsky 1983, 352 ff.; Rabiner/Schafer 1976, 418 ff.): Bei der Signalformcodierung wird das Sprechsignal seiner Form nach digitalisiert und nach unterschiedlichen Verfahren komprimiert abgespeichert (PCM , Delta-M odulation, ADPCM , CVSD, Verfahrenskomponenten der Mozer-Codierung). Bei der Quellencodierung wird eine elektronische Nachbildung der Sprachquelle, des Sprechapparats mit seinen Resonanzräumen, über Parameter angesteuert (Verfahrenskomponenten der M ozer-Codierung, FormantSynthese, LPC-Verfahren, artikulatorische Synthese). Bei beiden Codierungsarten muß das zu synthetisierende Sprechsignal zuvor analysiert werden. Es sind ein Sprechsignal reproduzierende Verfahren. M it den gleichen Basistechniken lassen sich auch Verfahren realisieren, bei denen das Sprechsignal aus Sprechelementen zusammengesetzt wird (Laut-, Diphonsynthese), wobei nicht alle Basistechniken gleich geeignet sind für die Erzeugung der Sprechelemente. Digitalisierte Sprache nach dem Prinzip der Signalformcodierung: Auf verschiedenen M odulationsverfahren beruhende digitale Darstellungen von Sprechsignalen in den zwei Klassen Frequenzbereichsverfahren (es wird eine Sinusschwingung moduliert) und Zeitbereichsverfahren (es wird ein in festen zeitlichen Abständen wiederkehrender Trägerimpuls moduliert) (Steinbuch 1977). Ziel der Verfahren ist die Reproduktion von Sprechsignalen. Dazu werden die Amplitudenwerte des Sprechsignals, die in bestimmten Zeitabständen gemessen werden (z. B. 8 Hz), nach unterschiedlichen Verfahren weiter komprimiert. Die Datenraten liegen zwischen 8 (CVSD) und 64 kbit/s und höher (PCM ) (zum ADPCM : Flanagan 1976, 406 f.; Rabiner/Schafer 1976; Lee/Lochovsky 1983, 354 ff.). Die Mozer-Codierung kommt mit geringeren Datenraten (bis herab zu 1,7 kbit/s) aus; die Datenkomprimierung geschieht in mehreren Schritten, von denen einige der Signalformcodierung zuzurechnen sind, andere der Quellencodierung (Costello/Mozer 1982). Auf dem Prinzip der Quellencodierung beruhende Sprachsyntheseverfahren:

603

Linear predictive coding (LPC): LPC-Verfahren können zur Reproduktion oder zur lautorientierten Synthese von Sprechsignalen verwendet werden. Aus dem Sprechsignal werden die Parameter für einer Sonanz- und eine Frikativquelle und für deren M odulierung mit Hilfe von 10 Filtern gewonnen und abgespeichert. Diese Parameter verändern sich in kurzen Zeitabständen nur wenig, so daß eine starke Komprimierung möglich ist (1,2—4,8 kbit/s und höher). Die PARCORSynthese ist eine Ausprägung des LPC-Verfahrens (M arkel/Gray 1976; Tremain 1982; Lee/Lochovsky 1983, 359 ff.). Formant-Synthese: Zur Synthese eines Lautes benötigt man Parameter für eine Sonanz- und eine Frikativquelle und für die Steuerung von Filtern für die tieferen Formanten des Sprechsignals. Datenrate: 600—800 Bits pro Sekunde und höher (Flanagan 1976; Lee/Lochovsky 1983, 356 ff.). Lautsynthese: M it unterschiedlichen Basisverfahren realisierbare Synthese aus Sprechelementen. Bei der lautorientierten Synthese mit LPC-Synthetisatoren müssen die den Lautbausteinen entsprechenden Parametersätze abgespeichert werden; entsprechend bei der Lautsynthese mit FormantSyntheseverfahren. Bei der Lautsynthese muß durch geeignete Interpolationsverfahren für die Anpassung an den nachfolgenden Laut gesorgt werden. Es gibt auch Lautsyntheseverfahren nach dem Prinzip der Signalformcodierung. — Bestimmte Laute können auch durch die Wiederholung kleinerer periodischer Anteile synthetisiert werden (Kielczewski 1978). Diphon-Synthese: M it unterschiedlichen Basisverfahren realisierbare Synthese aus Sprechelementen. Die Parameter-Verläufe für den Bereich von der M itte eines Lautes bis zur M itte des Folgelauts (Diphone, Dyaden) dienen als Bausteine, aus denen das Sprechsignal synthetisiert wird; Vorteil: natürlichere Lautübergänge; für die Synthese des Deutschen sind ca. 2000 Diphone nötig; extrem kleine Datenrate: 150 Bits pro Sekunde; z. B. realisiert auf der Basis eines Formant-Synthese-Verfahrens (Wolf 1985), eines LPC-Verfahrens (Chollet/Galliano/Lefevre et al. 1983). Bisher meist nur Prototypentwicklungen (Lenders/Stock 1984). Word Concatenation: M it unterschiedlichen Basisverfahren realisierbare Synthese aus Sprechelementen. Es werden vorgespeicherte Wörter modifiziert und zu Sprechäußerungen zusammengesetzt. An den Wort-

XI. Application Fields III

604

grenzen werden Koartikulationsangleichungen vorgenommen; wünschenswert ist auch die Steuerung des Tonhöhenverlaufs und der Silbenlänge (Olive/Nakatani 1974; Olive 1975; Rabiner/Schafer 1976; Young/Fallside 1980). Artikulatorische Synthese: Verfahren die über die schon genannten Verfahren mit Quellencodierung hinausgehen, deren Ziel eine möglichst genaue Nachbildung des Sprechtraktes mit elektronischen M itteln ist; z. B. zweidimensionales, dynamisches M odell des Artikulationsablaufs; Schnittfläche des Sprechtrakts als Resonanzfläche (Heike/ Philipp 1985). Bisher nur Prototypentwicklungen (Coker 1976; Flanagan 1976; Jonsson/Hedelin 1983). 2.4. Anwendungsklassen Die Anwendungen von Sprachsynthese lassen sich in Klassen einteilen, die in der Literatur unterschiedlich bezeichnet werden; die hier verwendeten Bezeichnungen haben sich in den letzten Jahren in der Praxis gefestigt oder herausgebildet. Die Anwendungsklasse „Concept-to-speech“ jedoch wird hier für Anwendungen eingeführt, von denen vermutet wird, daß sie in Zukunft an Bedeutung gewinnen werden. — Bei den folgenden Kurzcharakterisierungen der Anwendungsklassen werden auch andere und anderssprachige Bezeichnungen (ohne Anspruch auf Vollständigkeit) aufgeführt. `Bestimmte Sprachsynthesemethoden, gekennzeichnet durch das angewendete nachrichtentechnische Verfahren und die sprachlichen Einheiten, die verwendet werden, eignen sich für bestimmte Anwendungsklassen mehr als andere. 2.4.1. Voice messaging In voice messaging systems (Sprachspeichersysteme, voice mail/message systems, speech filing systems (Kansy/M üller 1982; Lyman 1984; Drinkwater 1984; Berney 1985)) werden gesprochene Nachrichten mit Kenndaten über den Absender, das Thema, das Datum u. ä. versehen und digital abgespeichert. Sie können über die Kenndaten zeitversetzt abgerufen werden, ähnlich einem Telefonanrufbeantworter; beim voice messaging sind die gesprochenen Nachrichten jedoch im Direktzugriff verfügbar. Als Vorteile gegenüber dem direkten Telefongespräch werden genannt, daß der Adressat nicht an seinem Arbeitsplatz anwesend zu sein braucht und daß

der Empfänger die Nachrichten in einer ihm genehmen Reihenfolge abhören kann. Kommunikationsschwierigkeiten, die durch Zeitzonen entstehen, können entschärft werden. — Zu den voice messaging systems können auch M ultimediasysteme gezählt werden, bei denen Texte mit gesprochenen Kommentaren versehen und über Netze verschickt werden können. Voice messaging systems stellen keine computerlinguistisch relevanten Ansprüche an die ihnen zugrundeliegenden Sprachsyntheseverfahren. Sie müssen mit reproduzierenden Syntheseverfahren realisiert werden, die eine möglichst hohe Datenkompression erreichen, bei gleichzeitig möglichst guter Bewahrung der individuellen Sprecheigenschaften der Absender. 2.4.2. Voice Response Bei voice response systems (Rabiner/Schafer 1976; Takahashi/Tozuka/Tsukui et al. 1985; Leander 1986; M oosemiller 1986; Oltmanns/Denton 1986) werden meist kurze Passagen gesprochener Sprache synthetisiert, wobei in der Anwendungssituation aus einer festen oder sich nur in größeren Zeitabständen verändernden M enge solcher Sprechpassagen ausgewählt wird. Der Auswahlvorgang ist meist direkt (Angabe einer Adresse, unter der die Sprechpassage abgespeichert ist). Voice response systems werden häufig über Telefonleitungen betrieben, wobei zur Dialogführung (mangels geeigneter Spracherkennungstechniken) touch-tone-Techniken verwendet werden, auf das Telefon aufgesetzte tonerzeugende Spezialtastaturen oder Wähltöne bei neueren Telefonsystemen. Die Sprachsynthese kann theoretisch mit allen bekannten M ethoden erfolgen, in der Praxis werden jedoch meistens vorgesprochene, digital abgespeicherte Sprechpassagen reproduziert. — Dort, wo für Text-to-speechVerfahren geeignete Systeme verwendet werden, werden die Sprechtexte auf Lautkommandoebene optimiert, d. h. die Systeme werden nicht im eigentlichen Text-to-speechModus verwendet. Voice response systems sind computerlinguistisch gesehen im wesentlichen uninteressant. Problematisch sind die satzintonatorischen Übergänge bei voice response systems, die längere Sprechpassagen aus kürzeren zusammensetzen. Als Abhilfe werden die Sprechbausteine mit verschiedener Intonation vorgesprochen. Von Text-to-speech-Systemen unterschei-

605

den sich voice response systems dadurch, daß in ihnen keine freien, häufig wechselnden, in ihrer Form nicht vorhersehbaren Sprechtexte vorkommen. — Von voice messaging systems unterscheiden sie sich im wesentlichen durch die Länge der vorspeicherbaren Sprechtexte und dadurch, daß sie bloße sprachausgebende Systeme sind, während zu voice messaging systems auch die Spracheingabe (der Nachricht der Benutzer) gehört. 2.4.3. Text-to-speech Bei Text-to-speech-Systemen (Vollsynthese, synthesis by rule (Flanagan 1976; Hertz 1982; Lee/Lochovsky 1983, 365 ff.; Wolf 1984)) werden schriftlich vorliegende natürlichsprachliche Texte synthetisch gesprochen (vorgelesen). Text-to-speech-Systeme setzen lautnahe nachrichtentechnische Verfahren voraus. Die schriftsprachlichen Texte werden in lautsprachliche Texte umgesetzt. Dies geschieht oft nur nach Regeln, die die Syntax und Semantik der jeweiligen Sprache nicht berücksichtigen (’M imikri’-Aussprache). Bei einigen Verfahren wird auch versucht, die Satzintonation aus den Texten zu erschließen. Text-to-speech-Systeme kommen wegen der bei ihnen verwendeten lautorientierten Verfahren mit kleinen Bitraten aus (200— 2000 bit/s). — Wesentliches M erkmal von Text-to-speech-Systemen ist ihre prinzipielle Offenheit bezüglich der auszusprechenden Texte (kein abgeschlossener Vorrat an Sprechpassagen). Sie stellen hohe Ansprüche an die ihnen zugrundeliegenden computerlinguistischen Verfahren. Bekannte Systeme für die Synthese des Englischen sind: das NRL-System, das System von M cIlroy, M ITalk (Lee/Lochovsky 1983), Klattalk (s. a. 10.). Für das Französische: Icophone, Sparte (M ariani 1985). Für das Deutsche: SIZ (Großmann 1976), SPRAUS-VS (Class/Stall/Zelinski 1983), SAM T (Wolf 1985), PHONTEXT (Willée 1985). Text-to-speech-Systeme sind für viele Sprachen und Anwendungen entwickelt worden (Kielczewski 1978; M angold/Stall 1978; Chollet/Galliano/Lefevre et al. 1983; Jonsson/Hedelin 1983; Lesmo/ M ezzalama/Torasso 1978; Omotayo 1984; Slaby/Spellmann 1980; Kommenda/Kubin/Doblinger 1985; M üller 1985; Pounder/Kommenda 1986). Die leichte Veränderbarkeit der auszusprechenden Texte hat in letzter Zeit dazu geführt, daß Text-to-speech-Systeme in die

traditionell von Voice-response-Systemen besetzten Anwendungen vorzudringen versuchen (Leonard 1986; Feldmann 1986). 2.4.4. Concept-to-speech Synthese von gesprochener Sprache aus nichtsprachlich codierten Informationen, die den semantischen und pragmatischen Gehalt der zu generierenden Sprachäußerungen beschreiben (speech synthesis from concept, task-to-speech, data-to-speech; (Umeda 1976, 443; Lee/Lochovsky 1983, 369; Wolf 1984, 7; Danlos/Laporte/Emerard 1986). Es wird unterstellt, daß aus solchen Informationen kommunikativ adäquate und insbesonders in ihrer Satzintonation hochqualitative Sprachäußerungen generiert werden können. Die korrekte, syntaktische, semantische und pragmatische Beschreibung des Textes, die bei der Anwendungsklasse „Text-to-speech“ nötig ist, gegenwärtig jedoch noch nicht in großem Umfang geleistet werden kann, entfällt hier weitgehend. Diese Informationen liegen bereits vor; sie sind Bestandteile des Systems, das sich in gesprochener Sprache äußern soll. Systeme aus dem Bereich der Künstlichen Intelligenz gehören hierzu oder werden in Zukunft dazugehören. Roboter sind die augenfälligsten Systeme, bei denen zum Zurechtfinden in der Welt und zum Problemlösen intern Informationen (Konzepte) nötig sind, die auch zur Sprachsynthese herangezogen werden könnten. Aber auch in weniger anspruchsvollen Anwendungen (Informationssystemen, Datenbanksystemen) läßt sich diese M ethode anwenden (Young/Fallside 1979). Abb. 48.3: input concept: (.BE, SUB, OBJ, QUAL); (CITEM 1, LOC) SUB; (reservoir, level) ITEM 1; (.AT, Great Alne) LOC; (NUM, percent) OBJ; (60.6) NUM; (.REAL, NUM); (.ON, DATE) QUAL; (7,3) DATE; (.DATE, DATE); (.VERB, PAST); output sentence: „Great Alne reservoir level was sixty point six percent on the 7th of March“ Abb. 48.3: Beispiel für Sprachsynthese nach dem Verfahren Concept-to-speech (nach Young/ Fallside 1979, 688)

XI. Application Fields III

606

Concept-to-speech-Systeme stellen hohe Ansprüche an die für sie nötigen computerlinguistischen Verfahren. Young/Fallside (1979) arbeiten mit einer Transformationsgrammatik zur Erzeugung gesprochener Auskünfte über Wasserversorgungsdaten; aus der Antwort auf eine Datenbankanfrage wird das ’input concept’ für die Sprachsynthese erzeugt (s. Abb. 48.3).

3.

Hardware- und Softwarekomponenten von Sprachsynthesesystemen

Sprachsynthesesysteme setzen sich aus der eigentlichen Synthesehardware und der Software, die diese Hardware ansteuert, zusammen (vgl. Abb. 48.4). Die Synthesehardware besteht aus den Komponenten Steuersignalverarbeitung, Signalsyntheseeinheit und Lautsprecheran-

steuerung. Die Steuersignalverarbeitung nimmt Daten über die auszusprechende Spracheinheit (Satz, Wortfolge, Wort, Laut) und über suprasegmentale Eigenschaften, die das zu synthetisierende Sprechsignal haben soll (Tonhöhe, Sprechgeschwindigkeit, Lautstärke), entgegen. In der Signalsyntheseeinheit wird gemäß den Angaben der Steuersignalverarbeitung ein Sprechsignal aufgebaut und an die Lautsprecheransteuerung übergeben. Die Struktur der Hardwarekomponenten hängt von dem zugrundeliegenden Syntheseverfahren ab (vgl. 2.). Von dem gewählten Verfahren, den anfallenden, auszusprechenden Daten und den Ansprüchen an die Qualität des Syntheseergebnisses hängt es auch ab, welche Transformationen durchgeführt werden müssen, bevor die geeigneten Steuersignale an die Synthesehardware abgegeben werden können. Diese Transformationen geschehen durch die Softw arekomponenten eines Sprachsynthesesystems. Die Transformationen wandeln den auszusprechenden ’Text’ in eine hardwaregerechte Form (Lautkommandos o. ä.) um (Hilfstransformationen), wandeln nicht ’direkt aussprechbare’ Partien wie Ziffernfolgen, Abbkürzungen und optische Merkmale eines schriftsprachlichen Textes (Layout, Fontwechsel, Unterstreichungen, u. ä.) in eine aussprechbare oder direkt in die hardwaregerechte Form um (Vortransformationen). Für eine Anwendung können mehrere Vortransformationen nötig sein. Neben der eigentlichen Sprachsynthesehardware gibt es noch (für die entsprechenden Syntheseverfahren) Trainingshardware, mit der optimale Sprechsequenzen vom Benutzer interaktiv erzeugt und der eigentlichen Syntheseeinheit überspielt werden können. 3.1. Transformation der alphabetischen Teile

Abb. 48.4: Komponenten von Sprachsynthesesystemen

Das Ansteuern von Sprachsynthese geschieht durch Steuer-/Laut-Kommandos. Bei reproduzierenden Sprachsynthesesystemen werden die vorgesprochenen Sprechpartien durch ein adressenähnliches Steuersignal abgerufen. Die Sprechpartien sind oft unter Laborbedingungen erzeugt und im Gerät abgespeichert worden. Die Hilfstransformation besteht darin, diese Adressen gemäß den Notwendigkeiten der Anwendungssituation zusammenzustellen. Bei Anwendungen mit lautorientierten

48.  Automatische Sprachsynthese

Verfahren, bei denen ein fester kleiner Wortvorrat verwendet wird (also nicht bei Text-tospeech-Anwendungen), werden in Abhängigkeit von der Anwendungssituation Folgen von solchen Steuersignalen aus der Vorratsliste geholt und zu dem Gerät geschickt. In dieser Liste sind stehen meist experimentell ermittelte, in den Grenzen des Geräts auditiv optimierte Steuersignalfolgen. Die Hilfstransformation besteht darin, die Pointer auf die Listeneinträge entsprechend der Anwendung zusammenzustellen. Bei Anwendungen mit großem, häufiger wechselndem Wortschatz und bei Text-to-speech-Anwendungen kann nicht mit festen Einträgen in Listen gearbeitet, muß die lautsprachliche Form aus der schriftsprachlichen Form algorithmisch abgeleitet werden (vgl. Artikel 16). In dieser Situation werden sinnvollerweise lautorientierte Synthesegeräte verwendet. Bei der regelgesteuerten Umsetzung des Textes kann auf ein Wörterbuch, in dem die häufiger verwendeten Wörter oder Ausnahmen von den Regeln stehen, nicht verzichtet werden. Besondere Probleme bereitet die regelgesteuerte Aussprache von Namen und fremdsprachlichen Passagen in Texten und vor allem die regelgesteuerte Satzbetonung.

607

Bei der Umsetzung wird oft ein phonetischer oder phonemischer Zwischencode erzeugt, der sich in der Praxis auch als nützlich für die Erstellung von Wörterbüchern erwies; die so gewonnenen Rohumsetzungen müssen auditiv überprüft und postediert werden. 3.2. Transformation der nichtalphabetischen Teile Schriftsprachlich vorliegende und für den optischen Gebrauch bestimmte Texte enthalten eine Vielzahl von Komponenten, die beim Lesen erst in Wörter umgesetzt werden, die zur Bestimmung der Satzintonation herangezogen werden, die den pragmatischen Kontext näher bestimmen oder zum Verstehensprozeß beitragen. Abkürzungen, Ziffern und Ziffernfolgen sind solche Textteile, die vortransformiert werden müssen. Eine kommunikativ möglichst äquivalente lautsprachliche Form wird durch die Vortransformation der nichtalphabetischen Textteile erzeugt. In manchen Fällen muß der optische Textteil getilgt werden, eventuell unter Generierung eines Hinweises im Akustischen (z. B. bei Abbildungen). In der Zusammenstellung in Abb. 48.5 werden unterschieden:

Textelement Angaben zur Umsetzung Abkürzungen Tachygraphe nach Liste in Lautfolge umwandeln Initialabkürzungen nach Regeln in Lautfolge umwandeln Ziffern (Logogramme) feste Lautfolge Ziffernfolge (Tachygraphe) nach Regeln in Lautfolge umwandeln Sonderzeichen, einzelnstehend (Logo- feste Lautfolge gramme) nach Regeln in Lautfolge umwandeln Sonderzeichen als Wortbestandteile Einfluß auf suprasegmentale Struktur Satzzeichen Buchstaben, einzelnstehend (auch frem- feste Lautfolge der Graphien, auch als Wortbestandteil) Einfluß auf suprasegmentale Struktur, Pause Titel, Überschriften Abbildungsbezeichnungen hinweisgenerierend tilgbar, Text der Abbildungsbezeichnung wird verwendet Einfluß auf suprasegmentale Struktur, pragmatische InterpretaSchriftart, Schriftgröße, Schriftartwech-tion, u. U. lautsprachlich nicht adäquat darstellbar, Textreformulierung sel, Schriftgrößenwechsel Unterstreichungen Einfluß auf suprasegmentale Struktur Absätze, Spiegelstriche, Einrückungen Einfluß auf suprasegmentale Struktur, Pause, u. U. lautsprachlich nicht adäquat darstellbar, Textreformulierung Abbildungen ersatzlos/hinweisgenerierend tilgbar, lautsprachlich nicht adäquat darstellbar, Textgenerierung Anordnung in Spalten Neuanordnung des Textes Abb. 48.5: Zur Umsetzung schriftsprachlicher und optischer Eigenschaften von Texten in lautsprachliche/ akustische Formen

XI. Application Fields III

608

— in Lautsequenzen direkt umsetzbare Textteile und -eigenschaften, — die suprasegmentale Struktur des synthetischen Sprechsignals beeinflussende Textteile und -eigenschaften — die semantisch/pragmatische Interpretation des Textes beeinflussende Texteile und -eigenschaften, — ersatzlos und hinweisgenerierend tilgbare Textteile und -eigenschaften. Die Vortransformation nichtalphabetischer und optisch hervorgehobener Textteile ist entscheidend für die Qualität des synthetischen Sprechproduktes. Die bekannteste Vortransformation ist die Umwandlung von Ziffernfolgen in das entsprechende Zahlwort. M O’ ally/Larkin/Peters (1986) weisen darauf hin, daß die Auflösung von M ehrdeutigkeiten bei der Vortransformation von der Dialogsituation abhängt.

4.

Übersicht über verfügbare Geräte (Auswahl)

Der M arkt für Geräte zur automatischen Spracherkennung und Sprachsynthese befindet sich ständig in Bewegung. Die neueren Techniken zur Produktion von elektronischen Bauteilen haben vieles auch zu günstiFirma Name lautorientierte Sprachsynthese Artic Technologies SynPhonix 100 board

gen Preisen machbar erscheinen lassen. Oft sind die Produkte jedoch nur kurzlebig. Es gab manche M arkt-Prognosen, deren optimistische Aussagen über die Absatz- und Einsatzentwicklung von Hardware, die gesprochene Sprache verarbeitet, sich später nicht bestätigt haben. Eine Übersicht über verfügbare Geräte zur Sprachsynthese kann daher nur eine kurzlebige M omentaufnahme sein. Unter Zuhilfenahme der M arktübersichten der Zeitschrift Speech Technology wurde die Übersicht in Abbildung 48.6 erstellt. Der Thematik dieses Handbuches entsprechend wurden hauptsächlich solche Geräte aufgenommen, die eine computerlinguistische Programmierung erlauben. Es sind dies im wesentlichen Geräte für die Anwendungsklasse Text-tospeech. Anwendungen im Bereich Conceptto-speech lassen sich ebenfalls mit diesen Geräten durchführen. Inwieweit in Zukunft auch die Anwendungsklassen voice response und voice messaging aus der Sicht einer mit computerlinguistischen M itteln arbeitenden Sprachsynthese interessant werden, ist noch nicht abzusehen (vgl. 8. und 9.). — Ältere Geräteverzeichnisse oder -beschreibungen sind zu finden in: Busch/Kansy/M üller et al. 1982; Sclater 1983; Sickert 1983; ein neueres Verzeichnis der europäischen Geräte in M ariani 1985; Mariani 1986. Funktion

Quelle ST 2 (1984) 3, 110

General Instrument Votrax

SP-0256 SC-01 Speech PAC VSM/1

Ackerman Digital Systems Signetics Philips/Valvo

Synthetalker S-100

SSI263 phon. synth., speech operating system, vocabulary (for Apple II (II e )) formant synth. chip, formant synth. s. Silicon Systems Phoneme Access Controller, board Versatile Speech Module, board Votrax chips

MEA-8000 PCF8200

formant synth. formant synth.

GERB ELEKTRONIK

SIZ Sprachausgabegerät Lautsynthese, Signalformcodierung im Zeitbereich, dt. Diphonsynthese, dt. SAMT (nicht kommerziell)

Deutsche Bundespost (FTZ)

(May 1982) (Sclater 1983), 91

(ten Have, den Ouden 1985) (Sickert 1983), 206 (Wolf 1985)

48.  Automatische Sprachsynthese

609

Firma Silicon Systems

Name SSI 263A

Funktion phon. synth., steuerbar u. a.: pitch, speech rate, amplitude, phon. duration (Nachfolger von Votrax SC-02), engl., einige dt. Laute

Quelle

Text-to-speech Intex

Intex-Talker

ST 2 (1984) 3, 111

Speech Plus Visek-Maggs

CallText 5000 —

Votrax Ackerman Digital Systems Telesensory Speech Systems Texas Instruments

TYPE ’N TALK Phrasemaster

exception table to bypass text-to-phoneme algorithm — text-to-speech engl., span., franz., dt. text-to-speech terminal text-to-speech (Votrax chips) text-to-speech board

Prose 2000 TTS Text to Speech

ST 2 (1984) 3, 111 ST 2 (1985) 4, 8

(Groner/Bernstein/Ingber et al. 1982

(Sickert 1983), 208 f. verwendet TMS 5220 LPC synthesizer, allophonisch, engl. integriertes board, voice (Martin/Pursley TI-Speech I/O 1985) (Gutcho 1985) GERB ELEKTRONIK SIZ Sprachausgabegerät text-to-speech, dt. Deutsche Bundespost SAMT text-to-speech, dt. (nicht (Wolf 1985) (FTZ) kommerziell) Digital Equipment DECtalk text-to-speech terminal, (Bruckert 1984) verwendet TMS32010, 7 Stimmen, engl. phon. synth. terminal, AEG-Telefunken SPRAUS-VS Sprachausgabe Vollsynthese verwendet VOTRAX VS-06G, dt. First Byte Smoothtalker software text-to-speech, für Macintosh D/A-Wandler, engl., männl. u. weibl. Stimme Berkeley Speech Techno- T-T-S (Peters 1986) logies Street Electronics Echo PC2 für IBM PC, TMS5220 (Adler 1985) LPC Gould AMI LPC ST 2 (84) 3, 109 S3260 LPC-10 (Jordan/Charbonneau/Spangler 1984) (Sclater 1983), 78 ff. Texas Instruments LCP, allophon. Ge(Sclater 1983), 43 ff. TMS 5110 brauch möglich TMS 5220 E-Systems — LPC-10 vocoder Vynet V200-VSM LPC Voice Synthesis Module Time and Space Proces- Series 1000 Voice Digiti- 2400/4800 bit/s (Radin 1983) sing zers Telesensory Speech Speech 100 LPC, board (Sclater 1983), 102 ff. Systems AEG-Telefunken SPRAUS LPC, max. 128 min

XI. Application Fields III

610

Firma Motorola Street Electronics Sanyo Semiconductors

Name LPC-10 ECHO, ECHO +, Cricket LC8100

ITT

Funktion

Quelle (Fette/Crain 1983) (Street/Adler 1983) TI TMS5220 (Kory 1984) PARCOR, 28 s ST 2 (1984) 3, 114 (Ikeguchi 1985) integriertes board, voice (Greer 1985) I/O, LPC 10, TMS320

digitalisierte Sprache Oki Semiconductors Datavoice

ADPCM, 12—40 s ST 2 (1984) 3, 112 boards chip chip, Mozer time(Sclater 1983), 73 domain synthesis DIGITALKER board NEC America AR-10 ADPCM audio response AR-100 board, voice output terminal Computalker Compu Fone IEEE-696 board Infovox SA 201 — Intel iSBC 576 Speech Trans- — action board Vynet ADPCM Playback V200-SPM Module IBM Cognitronics Voice Response Systems — Covox Voice Master — Telesensory Speech Series III Speech Synboard Systems thesizer Module Votan 3 compression rates (Gill 1982) V5000 Voice Computer Techno- VCT Series 2000 (Leander 1986) logy AT&T CONVERSANT I (Moosemiller 1986) MSM6202, MSM6212 Cheaptalk, Voice-Alive Voice-Chip National Semiconductors SPC

Abb. 48.6: (ST = SPEECH TECHNOLOGY) Abb. 48.6: Geräte zur Sprachsynthese (Stand Sommer 1985, ergänzt 1986)

Größe des Vokabulars klein groß

Ansprüche an die Qualität synthetischer Sprache gering

mittlere Gerätekosten, geringe Kosten pro synthet. Wort/Satz, sofort lieferbar

hoch geringe Gerätekosten, mittlere Kosten pro synthet. Wort/Satz, sofort lieferbar hohe Gerätekosten, hohe Kosten pro synthet. Wort/Satz, lange Lieferzeiten

Abb. 48.7: Kosten heutiger Sprachsyntheseanwendungen (nach Sclater 1983)

48.  Automatische Sprachsynthese

Die Abb. 48.6 ist nach Geräteklassen eingeteilt, die im wesentlichen das zur Sprachsynthese verwendete nachrichtentechnische Verfahren angeben: Text-to-speech-Geräte bilden eine eigene Klasse; es wird angegeben, ob es sich bei dem Gerät um ein chip, board, eigenständiges Geräte, Terminal handelt. Entwicklungssysteme zum Aufbau von Wortvorräten sind nicht aufgenommen worden. Die Tabelle enthält im wesentlichen Geräte, die in M arktübersichten der Jahre 1984 und 1985 erwähnt wurden und die in einem Artikel (auch aus den Vorjahren; diese Geräte sind u. U. nicht mehr am M arkt) beschrieben sind. In Abb. 48.7 ist der Zusammenhang zwischen dem Gerätetyp, der geplanten Anwendung, dem Entwicklungsaufwand und den Kosten dargestellt.

5.

Probleme der heute verfügbaren Geräte

Der Einsatz von heute verfügbaren Sprachsynthesegeräten ist keineswegs problemlos. Die Akzeptanz läßt zu wünschen übrig, weil — Sprachsynthese weitgehend noch eine isolierte Sprechtechnologie ist, der der Gegenpart, die problemlose Erkennung (kontinuierlich) gesprochener Sprache, fehlt (fehlerhafte pragmatische Einbettung), — die Qualität der synthetisierten Sprachelemente (Laute, Wörter) zu wünschen übrig läßt (fehlerhafte ’Artikulation’ (Signalproduktion)), — weil insbesondere die Intonation von Sätzen, von Wortfolgen und von zusammengesetzten Wörtern (spezielles Problem im Deutschen), noch inadäquat ist (fehlerhafte Behandlung von suprasegmentalen Eigenschaften). — weil der zu sprechende, schriftsprachlich vorliegende Text unzureichend aufbereitet wurde (fehlerhafte Vortransformation). Zum Teil entstehen diese Akzeptanzprobleme auch durch mangelhafte Software (vgl. 6.); die Intonationsprobleme zählen weitgehend dazu. Zur Feststellung der Defizite werden u. a. Qualitätstests eingesetzt (vgl. 7.). Um den Stand der Entwicklung der Hardware richtig einzuschätzen, ist es nützlich, sich das Vorbild immer wieder vor Augen zu führen, das mit elektronischen M itteln nachgebildet werden soll: den menschlichen Sprechapparat. Die Sprachproduktion beim M enschen ist ein kontinuierlicher Vorgang von hoher Flexibilität; Sprechsignale sind

611

charakterisiert durch Veränderungen des Luftstroms aus der Lunge, der Glottis, der Resonanzräume des Sprechtraktes, der Artikulationsstellen und -formen. Alle bekannten Sprachsynthesegeräte sind mehr oder minder starke Vereinfachungen, die sich diesem Ideal oft unter Nebenbedingungen zu nähern suchen, die dem Ziel perfekter Sprachqualität abträglich sind. Die Hardwareverfahren lassen sich wie folgt einteilen (s. a. 2.): (a) Sprachsynthese durch Imitation der Artikulation und Phonation (1) Feinmodell des Sprechapparates, das alle Eigenschaften des menschlichen Sprechapparates besitzt (2) Grobmodell eines Sprechapparates (Einschränkungen hinsichtlich einer oder mehrerer Eigenschaften des menschlichen Sprechapparates) (b) Erzeugung eines Sprechsignals, das auditiv so empfunden wird, als ob es von einem menschlichen Sprechapparat erzeugt wurde (1) täuschend ähnliche Sprechsignale (2) verständliche Sprechsignale Während bei Hardwareverfahren vom Typ (a) natürliche und synthetische Sprechsignale in gewissen Grenzen meßtechnisch miteinander verglichen werden können, sind die für die Verfahren des Typs (b) nötigen Daten nur über die Befragung von Versuchspersonen zu erhalten (Umeda 1976, 450 f.). 5.1. ’Artikulations’-probleme Synthetisch gesprochene Sprache ist bei der Verwendung von reproduzierenden Komprimierungstechniken (PCM , ADPCM , ADM , o. ä.) gut verständlich. M it geringen Bitraten arbeitende LPC-Verfahren ergeben eine schwerer zu verstehende Sprache. Auf Lautsynthese abzielende Verfahren erzeugen die am schlechtesten verständliche synthetische Sprache, werden aber wegen ihres erheblichen Anwendungsvorteils, nämlich der M öglichkeit, beliebige Texte zu synthetisieren, trotzdem angewendet. Auch in die schlecht verständliche Sprechweise von Sprachsynthetisatoren „hört man sich ein“. Die Akzeptanz wird immer dann größer sein, wenn die Sprechanwendung für den Benutzer von großer Bedeutung ist, etwa dann, wenn andere Nachrichtenkanäle nicht zur Verfügung stehen, nur umständlich benutzt werden können oder überlastet sind. — Es gibt Anwendungs-

612

situationen, in denen auch die schlechter verständliche, ’roboterhaft’ klingende Sprache eines Anwendungssystems akzeptiert wird, z. B. wenn das technische System als solches erkennbar bleiben soll. Bei anderen Anwendungen mag schon die Tatsache stören, daß mit dem gewählten Syntheseverfahren keine Flexibilität hinsichtlich der Individualität der Stimmen (Sprecher) besteht: bei Lautsyntheseverfahren z. B. gibt es oft nur eine Stimme, manchmal kann zwischen mehreren vorgegebenen Stimmen gewählt werden, nie kann man eine selber ausgewählte Stimme unterlegen (Eulenberg/Finkelstein 1985; Bruckert 1984; Gutcho 1985). Ein nach wie vor großes Problem der Sprachsynthese auf Lautbasis ist die angemessene Beherrschung der Koartikulation. Durch die Zusammenstellung genügend reichhaltiger Allophonvorräte und mit der Diphonsynthese versucht man, hier zu Verbesserungen zu kommen. In jedem Fall müssen in den Übergangsbereichen Interpolationsverfahren angewendet werden (Wolf 1984). Lautverzeichnisse von Synthesegeräten sind zu finden in: (Witten 1982 b) für VOTRAX M L-1, (Wolf 1984) für SAM T. Es fehlt an systematischen phonetischen Beschreibungen synthetischer Sprache. Zu den typischen Defiziten synthetischer Sprache gehört das sog. ’Quantisierungsrauschen’, das bei der Signalformcodierung auftritt (Sickert 1983). Das zugrunde gelegte Sprachproduktionsmodell muß auch die auditiv als natürlich empfundenen Effekte des Frequenz- und Lautstärkezitterns (jitter) und des ’jimmer’ richtig nachbilden können (Hein 1985). Dies gelingt in heute verfügbaren Geräten wegen des zu einfachen Glottismodells nicht (Yea/ Krishnamurthy/Naik et al. 1983; Jonsson/ Hedelin 1983). 5.2. Hardwareprobleme bei der Intonation Bei der Benutzung von reproduzierender Synthesehardware (eingeschränkte vorgesprochene Wortvorräte) wird das Problem der Intonation mehr oder minder auf den Sprecher verschoben, der den in der Anwendung gebrauchten Wortschatz vorspricht. Eine Verkettung der Einzelwörter zu Sätzen wird so stets unzulänglich bleiben, auch wenn die einzelnen Wörter in mehreren Betonungsformen vorgesprochen werden. Das Problem wird geringer, wenn längere Passagen aneinandergereiht werden. Betrachtet man die oben eingeführten Ge-

XI. Application Fields III

räte vom Typ (a 2) „Grobmodell des Sprechapparates“ hinsichtlich der Erzeugung einer natürlichen Prosodie näher, so kann man unterscheiden: — Grobmodelle des Sprechapparates mit kontinuierlicher Ansteuerung (der im M odell berücksichtigten Parameter) — Grobmodelle des Sprechapparates mit Ansteuerung durch Segmente und Interpolation zwischen den Segmenten — genügend reichhaltiges Repertoire an Segmenten — eingeschränktes Repertoire an Segmenten Beide Formen der Grobmodelle lassen sich hinsichtlich der — vergröbernden Annahmen über Teile der Sprachproduktion (Anregung, Resonanz, Verlustfreiheit, Artikulationsform, u. a.) näher kennzeichnen. Neben diesen Unterscheidungsmöglichkeiten kann noch nach den Spracheinheiten differenziert werden, auf die sich die Intonation bezieht: — Tonhöhenverlauf über den Satz hinweg — Wortgruppenintonation — Wortintonation Dabei können nur eine oder mehrere Formen der Intonation realisiert sein und sprachhierarchisch höhere Formen durch Aneinanderreihung oder Verschmelzung von niedrigeren entstehen. Zur Erzeugung einer angemessenen Wortund Satzintonation müssen bei lautorientierten Geräten die Parameter Tonhöhe, Lautstärke und Sprechgeschwindigkeit per Programm steuerbar sein. Erst bei den neueren Geräten ist dies der Fall. Von der Hardwareseite bestehen heute kaum noch Probleme, eine für viele Zwecke ausreichende Wortund Satzbetonung zu erzeugen. Das Problem liegt in der textgerechten Ansteuerung der Geräte, also letztlich in der linguistischen Analyse des auszusprechenden Wortes oder Satzes (Akers/Lennig 1985; s. 6.1.). Einige Satzintonationsverfahren arbeiten mit Texten, in die Betonungszeichen eingefügt wurden (Präedition). Dies führt zu Anwendungseinschränkungen. Die Präedition ist bei Anwendungen möglich, bei denen nur wenige, möglichst kurze Texte gesprochen werden müssen. Neue Texte können nicht unter sensiblen Zeitbedingungen dem System bekannt gemacht werden. Die Satzintonation durch Präedition steht dann aber im Konflikt mit reproduzierenden Sprachsynthesetechni-

48.  Automatische Sprachsynthese

613

ken, mit denen die Anwendung u. U. genauso gut durchgeführt werden kann (Lesmo/M ezzalama/Torasso 1978; Witten/Abbess 1979; Witten 1982 b; Wolf 1984).

6.

Softwareprobleme

Softwareprobleme bei Sprachsynthesesystemen lassen sich einteilen in: — Probleme, die mit dem eigentlichen Syntheseprozeß zusammenhängen (6.1.), — Probleme, die die Anwendungsprogrammierung betreffen (6.2.), — Probleme, die durch unzureichende Softwaremittel entstehen (6.3.). 6.1. Softwareprobleme beim Syntheseprozeß 6.1.1. Softwareprobleme bei der Intonation Die Synthese der korrekten Wort- und Satzintonation ist ein Problem der Software, die ein geeignetes, wohl lautorientiert arbeitendes Gerät ansteuert. Bei der Wortbetonung muß die richtige Betonungsstelle gefunden werden, eventuell auch Nebenbetonungsstellen (Yokoyama 1980). Zu unterscheiden ist zwischen der Wortbetonung bei isolierter Aussprache und der Wortbetonung im Satzzusammenhang, wo Pro- und Enklise-Effekte mit dem Gesamtverlauf der Satzmelodie in Einklang gebracht werden müssen. Bei der Wortbetonung im Satzzusammenhang können verschiedene Grade der Verschleifung unterschieden werden (solche Subtilitäten gehören wohl aber bei aller gewünschten kommunikativen Angemessenheit der synthetischen Sprache eher in eine fernere Zukunft der Sprachverarbeitung). In Abbildung 48.8 wird versucht, die Abhängigkeiten zwischen Wortund Satzbetonung zu veranschaulichen. Die für die Satzbetonung maßgeblichen Parameter sind: Tonhöhenverlauf, Lautdauer, Pausen (von großem Einfluß und daher in den meisten Systemen bevorzugt berücksichtigt), Lautstärke, Lautqualität (von geringerem Einfluß). Zur Bestimmung der Satzbetonung kann man je nach Anspruch auf Korrektheit der resultierenden Aussprache verschieden komplexe Verfahren anwenden: (a) mit Präedition arbeitende Verfahren: Der Eingabetext wird mit mehr oder minder vielen Steuerzeichen für die Satzintonation versehen (z. B. Hertz/Beckman 1983; Wolf 1984).

Abb. 48.8: Zusammenhang zwischen Wortbetonung und Satzbetonung bei der Sprachsynthese

(b) automatische Verfahren: (1) Bei den schematischen Verfahren wird dem Satz nach grober Analyse seines Intonationstyps (meist aufgrund der Interpunktion) eine starre Intonationskurve zugrundegelegt, und die Tonhöhen der einzelnen Wörter werden dieser Kurve angepaßt (z. B. Kielczewski 1978; Müller 1985). (2) Bei den syntaktischen Verfahren werden die Satzintonationsparameter aus einer Syntaxanalyse des Einzelsatzes abgeleitet (z. B. Class/Stall/Zelinski 1983; Wolf 1984; Kulas/Rühl 1985; van Wijk/ Kempen 1985; Zinglé 1985 a; Zinglé 1985 b).

XI. Application Fields III

614

(3) Die semantisch/pragmatischen Verfahren versuchen die Bestimmung der Satzintonationsparameter durch Analyse der semantischen und pragmatischen Verhältnisse innerhalb des Satzes und im Textund Handlungszusammenhang (allererste Ansätze im Bereich Concept-to-Speech [Young/Fallside 1980], begünstigt durch verstärkte Forschung zur Generierung von schriftsprachlichen Äußerungen [Danlos/Laporte/Emerard 1986]). Die in einem Kontinuum stattfindenden Parameterveränderungen werden oft auf eine kleine Anzahl von M ustern reduziert, die annähernd die Phänomenvielfalt beschreiben sollen. Das (computer)linguistische Wissen über die Intonationsverhältnisse ist noch unzureichend. Ein vollständiges M odell der Satzintonation, nach dem es möglich wäre, in einem Satz die richtigen Pausen einzusetzen und die richtigen Vokal- und Konsonantenlängen (’temporal control’) sowie die richtige Grundfrequenz (’pitch control’) zu wählen, liegt noch nicht vor (Allen 1976, 440). Eine Reihe von Forschungsaktivitäten ist zu verzeichnen (Itahashi 1980; Eady/Cooper 1986). Die derzeit in Sprachsynthesesystemen angewendeten Verfahren sind Näherungsverfahren, die auf unterschiedlichen Satzintonationstheorien basieren; einige Ansätze seien stellvertretend genannt: Die teilweise automatische Bestimmung der Satzintonation bei SAM T beruht auf der Gruppenakzenttheorie von Zinglé für das Deutsche (Zinglé 1985 a); nach ihr lassen sich Sätze in Akzentgruppen einteilen, die durch bestimmte Anordnungen von Wortklassen, daraus gebildeten Wortgruppen und Satzzeichen definiert sind; jede Akzentgruppe erhält nach festen Regeln einen Gruppenakzent, Nebenbetonungen werden berücksichtigt; für jede Akzentgruppe wird ein Kadenztyp bestimmt (M elodieverlauf und Länge der darauffolgenden Pause). Van Wijk/Kempen (1985) arbeiten mit der von t’Hart/Collier für das Niederländische entwickelten Intonationsgrammatik. Aus einem Inventar von je fünf steigenden und fallenden Pitchveränderungen werden drei Typen von Intonationsblöcken zusammengesetzt, Präfix-, Fortsetzungs- und Endblöcke; die Intonationsverläufe werden durch verschiedene Anordnungen von Präfix- und Fortsetzungsblöcken, gefolgt von einem Endblock, beschrieben. Vorausgesetzt wird in dem Verfahren von van Wijk/Kem-

pen, daß der Satz syntaktisch analysiert vorliegt. 6.1.2. Softwareprobleme bei der Vortransformation Eine systematische Darstellung der Vortransformationen, denen ein schriftlich vorliegender Text unterworfen werden muß, ehe er ausgesprochen werden kann, fehlt. In Abbildung 48.5 sind, ohne Anspruch auf Vollständigkeit und textlinguistische Aufarbeitung, einige Phänomene aufgeführt. Nicht immer ist eine zwangsweise Vortransformation erwünscht; sie sollte wählbar sein (Omotayo 1984). 6.2. Probleme bei der Anwendungsprogrammierung Von Computersystemen gesprochene Sprache hat für sich genommen ohne die Ergänzung durch eine möglichst perfekte Spracherkennung nur ein eingeschränktes Anwendungsfeld. Das mehr oder minder korrekte synthetische Sprechen des Computersystems ruft beim Benutzer den Wunsch hervor, auch sprechend antworten zu können; ist dies nicht oder nur eingeschränkt möglich, so wird er das System nicht recht akzeptieren. Syntheseanwendungen werden dann relativ erfolgreich sein, wenn bei der Anwendung nur wenig Input nötig ist (z. B. bei Alarmmeldungen, Vorlesen längerer Texte). 6.3. Programmiertechnik Die beim Einsatz von Sprachsynthesegeräten nötigen Programmierarbeiten lassen sich unterteilen in: — betriebssystemnahes Programmieren; dazu zählt die Erstellung eines Driver für das u. U. exotische Gerät; die anzuwendende Programmiersprache ist vom Betriebssystem abhängig; — gerätenahes Programmieren; darunter soll die anwendungsunabhängige, aber für den Betrieb des Gerätes allgemein notwendige Programmierung verstanden werden; hierzu zählen Programme zur Pflege von Wortvorräten, allgemein verwendbare Parser für die Vortransformationen und Hilfstransformationen, u. ä. Als Programmiersprachen eignen sich hierzu besonders solche, die gute Patternverarbeitungsmöglichkeiten anbieten (LISP, PROLOG, SNOBOL 4). Es hat sich als fruchtbar erwiesen, einen stark datenorientierten Ansatz für das Erstellen von Regeln zu wählen (Hertz 1982; Hertz/Kardin/

48.  Automatische Sprachsynthese

Karplus 1985). Gute Erfahrungen liegen auch mit Parsergeneratoren wie LEX und Compiler-Compilern wie yacc vor (beide unter UNIX verfügbar) (M üller 1985). — Fisher (1983) experimentiert mit kompilierbaren Regelsätzen, der entstehende Objektcode wird interpretiert. — anw endungsnahes Programmieren, Einbettung allgemeiner Sprachsyntheseprogramme in die Anwendung, Anpassung an die besonderen Verhältnisse der Anwendung. Hier müssen die aus Akzeptanzgründen (7.2.) und wegen allgemeiner Eigenschaften von Sprachausgabe wichtigen Besonderheiten (9.1.) berücksichtigt werden.

7.

Qualitätstests, Akzeptanz

Die Einschätzung der Qualität synthetischer Sprache ist zu unterscheiden von der Einschätzung der Qualität von Sprachsynthesesystemen in Hinblick auf die Ziele einer bestimmten Anwendung. Steht die Anwendung im Vordergrund, müssen die in der Softwaretechnologie und Softwareergonomie üblichen Verfahren herangezogen werden (7.3.); sozialpsychologische Überlegungen aus dem Umfeld „Gebrauch von gesprochener Sprache in der Technik“ können ebenfalls dafür von Nutzen sein (7.2.). Soll die Qualität der synthetischen Sprache selbst beurteilt werden, so muß man auf Verfahren aus der Phonetik und der Psychologie zurückgreifen. Eine genaue Darstellung der Tests selber und eine Einschätzung der Relevanz der Ergebnisse können hier nicht gegeben werden. Eine Einführung hierzu gibt Voiers (1983), mit besonderer Betonung des Diagnostic Rhyme Tests, der es erlaubt, Verständlichkeitstests bezogen auf distinktive M erkmale durchzuführen. Bell/Becker (1983) beschreiben die mit dem Aufbau von anwendungsnahen Tests verbundenen Probleme. Erheblich komplexer wird die Testsituation, wenn Systeme mit Sprachausgabe und Spracheingabe bewertet werden müssen. Es gibt Bestrebungen zur Standardisierung von Tests, nicht zuletzt mit dem Ziel, den Gerätemarkt transparenter zu machen (Rubincheck 1983). Im folgenden Abschnitt (7.1.) sollen einige Ergebnisse von Qualitätstests dargestellt werden. Nicht eingegangen werden kann hier auf Qualitätseinschätzungen durch nachrichtentechnische Überlegungen („objektiv ermittelbare“ Qualität); hier soll über „subjektive Einschätzungen“ der Qualität berichtet werden (Lee/Lochovsky 1983, 352 f.).

615

7.1. Ergebnisse von Qualitätstests Bei der Darstellung der Ergebnisse von Qualitätstests konnten Einschränkungen, die durch den Testaufbau gegeben waren, nicht aufgeführt werden; es können also nur Beschreibungen von Tendenzen gegeben werden und auch diese nur mit Vorbehalten. Beim Vergleich mit Spracheingabesystemen werden Sprachsynthesesysteme von Testpersonen als „zuverlässiger und genauer“ eingeschätzt (Dintruff/Grice/Wang 1985). Zur Qualität von Text-to-speech-Systemen gibt es folgende Ergebnisse (es sind nur solche Ergebnisse genannt, die auditiv ermittelt wurden, nicht etwa durch Analyse eines phonetischen Zwischencodes; s. hierzu Lee/Lochovsky 1983, 365 f.): Wortverständlichkeit: („in meaningful sentences“) NRL 90%, M cIlroy 88%, M ITalk 93%, DECtalk Stimme „Paul“ 95%, natürliche Sprache 99%; („in anomalous sentences“) M ITalk 78%, DECtalk Stimme „Paul“ 86%, natürliche Sprache 97%. — Die Performanz beim Wortverstehen von synthetischer Sprache ist bei Einbettung in anomalen Sätzen deutlich schlechter. Phonem-Erkennung: M ITalk 93%, DECtalk Stimme „Paul“ 96%, Prose 2000 94%, Infovox 87%, natürliche Sprache 97% (Pisoni 1982; Pisoni/Nusbaum/Greene 1985; Pisoni/Greene/Nusbaum 1985). Zum Vergleich einige Angaben über die Qualität reproduzierend gebrauchter Sprachsyntheseverfahren: M it dem Diagnostic Rhyme Test wurde für das LPC-Verfahren (2,4 kbit/s) und das CVSD-Verfahren (16 bzw. 32 kbit/s) eine Verständlichkeit um 80% bis nahe 100% ermittelt. Die besten Werte wurden von CVSD mit 32 kbit/s erreicht. Die Werte für LPC liegen bei 75% bis 93%, je nach betrachtetem, distinktivem Merkmal (Voiers 1983). Satzpassagen: M ITalk 70%, Prose 2000 65%, natürliche Sprache: gehört 67%, gelesen 77%. Deutlich schlechtere Performanz, auch bei nicht-synthetischer Sprache. Die Verstehbarkeit von synthetischer Sprache nimmt zu, wenn man ihr länger zuhört (Pisoni/Nusbaum/Greene 1985). Einfluß von Satzintonation auf die Verständlichkeit: Falsche Intonation verschlechtert die Verständlichkeit von synthetisch gesprochenen Sätzen (M cPeters/Tharp 1984), auch von ansonsten „richtig übersetzten“. Qualität von synthetischer Sprache mit

XI. Application Fields III

616

Satzintonation: Hinsichtlich der Satzbetonung manuell optimierte Sätze (unter Verwendung des Lautvorrats eines Synthesegerätes) zeigen bessere Ergebnisse als automatisch behandelte. 7.2. Sozialpsychologische Aspekte des Gebrauchs von synthetisch gesprochener Sprache in technischen Systemen Je weniger der akustische Zugang zu einem technischen System von der Anwendung her zwingend ist (weil er der einzige, der wirtschaftlichere, der die Kommunikation verbessernde Weg ist), um so größere Akzeptanzprobleme werden sich ergeben. Da technische, akustische Kommunikationsverfahren in eine Domäne der menschlichen Kommunikation „einbrechen“ (70% der Büroarbeit z. B. wird akustisch geführt), ist eine hohe Sensibilität hinsichtlich der Akzeptanz zu erwarten. Im Falle der Sprachsynthese ergeben sich Fragen wie: Welches ist der individualpsychologische Status von technisch vermitteltem Sprechen im Vergleich zum Lesen vom Bildschirm? Gibt es Aversionen gegen das Sprechen von technischen Geräten? Gibt es sinnespsychologisch begründete Vorteile des Hörens von mit technischen M itteln gesprochener Information gegenüber dem Lesen von Information, die durch Geräte vermittelt oder erzeugt wird? Welches ist die sozialpsychologische Rolle des Sprechens und Hörens, kann eines alleine ohne das andere durch technische M ittel unterstützt oder gar ersetzt werden oder, wenn überhaupt, nur beide zugleich? Sind die in ’natürlichen’ Kommunikationssystemen sprechend/hörend ausgeführten Kommunikationsvorgänge von einer Qualität, daß der gesprochene Anteil teilweise von Sprachsynthesegeräten übernommen werden kann? Peacock (1984) berichtet über Schwierigkeiten bei der Akzeptanz von synthetischen Ansagen in einem Klinikfahrstuhl: die regelmäßigen Fahrstuhlbenutzer störten die Ansagen bald nach der Einführung des Systems. Uenohara (1985) berichtet von der Belästigung durch sprechende Verkaufsmaschinen in Japan. 7.3. Einsatzeffektivität von Sprachsyntheseanwendungen Wie jede Computeranwendung können auch Sprachsyntheseanwendungen auf ihre Einsatzeffektivität hin untersucht werden. Für

die Lernhilfe „Speak’n Spell“ von Texas Instruments wurde ermittelt, daß die Verbesserung der Rechtschreibfähigkeit von Kindern sich nur auf die im Gerät vorgesehenen Wörter bezog und nicht permanent war, sondern sich bei Nichtbenutzung des Gerätes wieder verlor (Terrell/Linyard 1982). In diesem Zusammenhang müßten auch die Forschungsergebnisse zum Verhältnis von Hören und Lesen betrachtet werden. Ein Detail dazu findet sich bei Pisoni/Nusbaum/ Greene (1985): Wenn Satzpassagen vorgelesen werden, so werden sie zu 67% aufgefaßt; wird ihre Schriftfassung gelesen, so werden die Satzpassagen deutlich besser, nämlich zu 77%, aufgefaßt. Daraus könnte man schließen, daß die Einsatzeffektivität von Sprechanwendungen immer geringer sein wird als von Leseanwendungen, sofern der Output aus Satzpassagen besteht.

8.

Heutige Anwendungen

Neben einer Klassifizierung der heutigen Anwendungen sollen hier der Stellenwert der heutigen Anwendungen aus praktischer Sicht und aus der Sicht der Computational Linguistics dargestellt werden. Eine mehr theoretische Einschätzung der praktischen Relevanz und Kriterien für den sinnvollen Einsatz der automatischen Sprachsynthese findet sich in Abschnitt 9. Grundlage der Darstellung ist u. a. die Liste ausgewählter Anwendungen in Tabelle 48.9. Über Anwendungen zu voice response s. (Rabiner/Schafer 1976, 426 ff.; Emerson 1983). 8.1. Klassifizierung der heutigen Anwendungen Die heutigen Anwendungen der Sprachsynthese lassen sich wie folgt einteilen (s. a. Anonym 1985; Zimmermann 1986): — in Geräten in Spielzeug in Haushaltsgeräten in elektronischen Geräten (Unterhaltungselektronik, Computerterminals o. ä.) in Fahrzeugen, Flugzeugen, Booten, Fahrstühlen in Verkaufsmaschinen — in Großgeräten, Kraftwerken, Fabriken o. ä. — in Gebäuden — über Telefon — für Behinderte

48.  Automatische Sprachsynthese

Anwendung Quelle Wetternachichten über (Gerald 1984) Telefon im Flugzeug Texte in einem Mailsy- (Schmandt 1984) stem vorlesen (Berney 1985) Anzeigen/Statusmel(Mulla 1984) dungen in Nebenstellenanlagen Sprechendes Schulungs- (Fertner 1984) material (Spezialgerät) Ansagen/Meldungen (Finkelstein 1983) im Auto Ansagen/Meldungen (Peacock 1984) im Fahrstuhl Kaufaufforderung und (Uenohara 1985) Bedanken in Verkaufsmaschinen Sprechgerät für Stumme (Stoughton 1983) (Eulenberg/Finkelstein 1985) (Eulenberg/Gou 1985) Dialog mit Diagnose- (DeSipio/Fry 1983) einheit eines Flugzeuges Sprachunterricht Espe- (Sherwood/Sherwood ranto 1982) Blindenarbeitsplatz (Williams 1982) (Omotayo 1984) (Frank 1985) (Magnusson/BlomSprechhilfen für berg/Carlson et al. Stumme 1984) Meldung von Bedie(Yoshimura/Yoshida nungsfehlern in Nähma- 1985) schinen Militärflugzeug: (Westerhoff/Reed taktische Meldungen, 1985) Treibstoffanzeige, Checkliste Flugsimulator (Laporte 1985) Sprechende Wartungs- (Rizzo 1985) unterlagen (Spezialgerät) Abfrage einer Daten- (Young/Fallside 1979) bank über die Wasserversorgung Bankauskünfte (Leonard 1986) Immobilienauskünfte (Feldman 1986) Zugauskunft (Peckham 1986) Überprüfung von lin- (Hertz 1982) (Gooding 1985) guistischen, phonetischen Modellen Echo bei akustischer (Van Peursem 1985) Dateneingabe Abb. 48.9: Sprachausgabeanwendungen

617

Vorlesegeräte, Terminals für Blinde Sprechhilfen für Stumme — für Bedienungspersonal Lehr- und Lernhilfen Handlungsanweisungen (aktive Checkliste) Warnung bei Fehlbedienung — Warnungen, Hinweise in Gefahrensituationen bei Fehlbedienung — Auskünfte, Ansagen über Verkehrsbedingungen, -möglichkeiten über Kaufmöglichkeiten, Lagerbestände über Wetter, Gezeiten, natürliche Ressourcen Immobilien-, Bankauskünfte — Echo bei Dateneingabe — Vorlesen von schriftlichen Nachrichten in Mailsystemen — als Forschungswerkzeug in der Linguistik und Phonetik 8.2. Praxisrelevanz Die automatische Sprachsynthese hat trotz ihres relativ weit entwickelten technischen Status und trotz relativ geringer Preise der Synthesehardware noch keine weite Verbreitung gefunden. Die Gründe dafür sind nicht ausreichend analysiert. Einiges spricht dafür, daß der praktische Nutzen der meisten Anwendungen eher als gering anzusehen ist. Es gibt für die Sprachausgabe, auch für die hochqualitative, nicht genügend viele Anwendungen, die ohne gleichzeitige leistungsfähige Spracheingabe auskommen. Die Sprachqualität mancher Verfahren ist nicht so überzeugend, daß sie bei gleichzeitig geringem Nutzen der Anwendung akzeptiert wird. 8.3. Relevanz aus der Sicht der Computerlinguistik Die wenigsten der heutigen Anwendungen sind aus der Sicht der Computational Linguistics als anspruchsvoll zu bezeichnen. Computerlinguistisches Wissen ist in die Text-to-speech-Verfahren und die Satzintonationsverfahren eingegangen (vgl. Artikel Nr. 16 und die Abschnitte 2, und 8.1. dieses Artikels). Selbstverständlich sind die Verfahren zur eigentlichen Sprachlautproduktion nicht ohne die Ergebnisse der Phonetik denkbar. Die heutigen Anwendungen in den Be-

XI. Application Fields III

618

reichen voice response und voice messaging sind als wenig relevant anzusehen.

9.

Künftige Anwendungen

Technologieprognosen, wie man sie in diesem Abschnitt erwarten könnte, teilen das Schicksal jeglicher Prognosen: ihre Unzuverlässigkeit. Zudem werden sie nicht wertfrei erstellt, d. h. die Prognostiker unterliegen leicht der Versuchung, ihre eigenen Wünsche als Prognosen auszugeben. In den frühen 80er Jahren wurden sehr euphorische Prognosen bezüglich der Entwicklung des Sprechtechnologiemarktes abgegeben. Die Bürokommunikation wurde als großes Anwendungsfeld identifiziert. Dem Voice M essaging (Speech Filing) wurde eine große Zukunft vorausgesagt. Aus der Sicht des Jahres 1986 muß gesagt werden, daß die Prognosen sich nicht in dem erwarteten Umfang bestätigt haben (Joost/James/M oody 1986). Die Sprachsynthese ist eine etablierte Technologie, der es an ernsthaften, breites Interesse findenden Anwendungen mangelt (vgl. 8.). Statt einer eigenen Prognose über künftige Anwendungen sollen hier Kriterien für die vorteilhafte Anwendung der Sprachsynthese angegeben werden (9.1.), und nur in zweiter Linie soll versucht werden, aus diesen Kriterien konkrete Anwendungen oder Anwendungsbereiche abzuleiten (9.2.). In der Literatur zitierte Prognosen sind im Abschnitt 9.3. zusammengestellt. 9.1. Kriterien für die Anwendung von Sprachsynthese Im Vergleich zur optischen Ausgabe von Informationen hat die Sprachsynthese bei Verwendung eines Lautsprechers die Vorteile der — Nebenläufigkeit (optischer Kanal belegt, „eyes busy“) — Omnipräsenz — überall ist der Benutzer erreichbar (nicht nur vor dem Display) — alle in einem Raum Anwesenden sind gleichzeitig erreichbar (Nachteil: Lärmbelästigung) Bei Telefonausgabe: — ebenfalls Nebenläufigkeit — Zugriff auf Systeme über das weltweite Telefonnetz — schon gegenwärtig weitverbreitetes ’Terminal’ Sprachsynthese bietet sich als vollwertiger sprachlicher Outputkanal an (Bedingung dafür: vollwertiger sprachlicher Inputkanal

’Spracherkennung’) oder als zusätzlicher Outputkanal. Hochqualitative Sprachsynthese ist insbesondere dann möglich, wenn Konzepte vom System zu seiner normalen, nicht mit dem Dialog nach außen zusammenhängenden Funktion ohnehin benötigt werden (Datenbanksysteme, KI-Systeme, Roboter) und „nur“ auch noch zur Generierung von Sprechtexten herangezogen werden brauchen. Sprachsynthese ist ein wesentlicher Bestandteil eines anthropomorph zu gestaltenden Systems. — In jedem Fall sollte die von Joost/James/ M oody (1986) aufgestellte Grundregel beachtet werden: „The system must reduce the perceived effort required for the task.“ 9.2. Aus den Kriterien ableitbare Anwendungen M it den Verbesserungen auf dem Gebiet der Spracherkennung werden M ischanwendungen entstehen, bei denen die vom Benutzer gesprochenen Partien inhaltlich zunehmend besser analysiert werden können und weniger stereotyp durch synthetisch gesprochene auf sie reagiert werden kann. Die Fortschritte im Bereich der Natürlichsprachlichen Systeme können dann auf gesprochene Dialoge übertragen werden. Bei der Anwendungsklasse voice messaging können dann aus der Sprechnachricht die Hinweise auf den Absender extrahiert werden. Die Telefonanwendungen können im Zusammenhang mit Fortschritten bei den local area networks, den weltweiten Rechnernetzen sowie bei Bildschirmtext weniger attraktiv werden. Sprachsynthese wird für Behinderte weiterhin eine nützliche Technologie bleiben. Sie wird auch weiterhin in Situationen, wo andere Nachrichtenkanäle überlastet sind, herangezogen werden. 9.3. Prognosen über die Anwendung der Sprachsynthese An künftigen Anwendungen in bestimmbaren Anwendungsbereichen werden beschrieben: space shuttle (Hoskins 1984), space station (Castiglione/Goldman 1984), remote calendar management, document playback via telephone (Drinkwater 1984), Literaturrecherche in zeitkritischen Situationen wie im Operationssaal (Schroeder 1984). Es finden sich allgemeine Aussagen wie:

48.  Automatische Sprachsynthese

Sprache Englisch

Deutsch

Schwedisch Dänisch Niederländisch Französisch

Spanisch

Italienisch Polnisch Finnisch Chinesisch Japanisch Esperanto

Synthesesystem (Gerät/Programm) SA 101 Visek-Maggs NRL McIlroy MITalk Klattalk — SRS Microspeech SA 101 Visek-Maggs SIZ SAMT Votrax VS-6G2 SPRAUS-VS Votrax ML-1 Votrax SC-01 TI TMS 5220 Bochumer Vorleseautomat

619

Quelle

(Magnusson/Bomberg/Carlson et al. 1984) SPEECH TECH 2 (1985) 4, 8 (Lee/Lochovsky 1983), 366 (Lee/Lochovsky 1983), 367 (Lee/Lochovsky 1983), 368 — (Omotayo 1984) (Hertz 1982) (Mariani 1985) (Magnusson/Blomberg/Carlson et al. 1984) SPEECH TECH 2 (1985) 4, 8 (Großmann 1976) (Wolf 1984) (Willée 1985 b) (Müller 1985) (Class/Stall/Zelinski 1983) (Slaby/Spellmann 1980) (Kommenda/Kubin/Doblinger 1985) (Kommenda/Kubin/Doblinger 1985) (Pounder/Kommenda 1986) (Kulas/Rühl 1985) — (Bullinger/Faehnrich/Hoepelmann et al. 1985) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 — (Jonsson/Hedelin 1983) — (Mariani 1986) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 SRS (Hertz 1982) — (Mariani 1986) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 Visek-Maggs SPEECH TECHNOLOGY 2 (1985) 4, 8 — (Chollet/Galliano/Lefevre et al. 1983) — (Danlos/Laporte/Emerard 1986) Sparte, Icophone 5, Ico- (Mariani 1985) log, PROSIT 400, SARA, F5000, DICTON, ICO85, Synthe (Magnusson/Blomberg/Carlson et al. 1984) SA 101 Votrax ML-1 (Sherwood/Sherwood 1982) Visek-Maggs SPEECH TECH 2 (1985) 4, 8 SRS (Hertz 1982) — (Mariani 1986) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 — (Lesmo/Mezzalama/Torasso 1978) (Mariani 1986) — (Kielczewski 1978) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 Synthe I/II (Mariani 1986) (Magnusson/Blomberg/Carlson et al. 1984) SA 101 (Eulenberg/Gou 1985) TMS5220C SRS (Hertz/Beckman 1983) — (Chiba 1985) (Sherwood/Sherwood 1982) Votrax VS-6

Abb. 48.10: Synthetisierte gesprochene Sprachen

620

„Sicher ist nur, daß wir heute am Anfang eines starken Wachstumsgebietes stehen ...“ (Sickert 1983, 155).

10. Stand der Synthese von verschiedenen Sprachen Sprachsynthesesysteme, die von einer Einzelsprache abhängige Komponenten enthalten (Lautvorräte, text-to-speech-Regeln o. ä.), sind für eine Reihe von Sprachen mit Buchstabenschriften entwickelt worden. Bei den von der Einzelsprache abhängigen Problemen handelt es sich vor allem um die Umsetzung einer Phon- oder Phonemdarstellung des Textes in Anweisungen zur Produktion synthetischer Laute (vgl. Art. 16). Ein Spezialproblem, was in diesen Kontext gehört, ist die Darstellbarkeit von Sprachen mit den synthetisch-phonetischen M itteln einer anderen Sprache (Verwendung von Geräten, die an sich für andere Sprachen ausgelegt sind) (Bullinger/Faehnrich/Hoepelmann et al. 1985). Abbildung 48.10 enthält eine nach Sprachen sortierte Aufstellung von Sprachsyntheseverfahren. Zu den besonderen Problemen des Englischen zählt die Ferne der Orthographie von den phonologischen Verhältnissen. Allen (1976) hat einen Regelapparat entwickelt, der mit einer stark ausgearbeiteten morphologischen Analyse arbeitet. Im Deutschen ist die Wortkomposition eine Barriere für Text-to-speech-Regelapparate. Hier könnte mit stärker ausgearbeiteten morphologischen Verfahren eine Verbesserung der bisherigen Verfahren erreicht werden. M it der Umsetzung der Ideographen aus der von Karl Blitz („Semantographie“) entwickelten Welthilfssprache wurde im Bereich der Sprechhilfen für Stumme experimentiert (Bliss symbols) (z. B. in Schweden [M agnusson/Blomberg/Carlson et al. 1984], in Frankreich [M ariani 1985]). Dabei treten ähnliche Probleme auf wie bei der Anwendungsklasse Concept-to-speech.

11. Forschungsthemen Aus strittigen Fragen, ungeklärten Problemen und noch nicht betrachteten Aspekten des Problems der automatischen Sprachsynthese ergeben sich viele Forschungsthemen, von denen hier allerdings nur eine subjektive Auswahl kurz genannt werden kann. Die

XI. Application Fields III

Fülle der Themen in den zur Sprachsynthese beitragenden Disziplinen kann hier nicht genannt werden. Forschungsmethodik: Die Vielfalt sprachlicher Formen ist durch eine Vielfalt von Abhängigkeiten (Constraints) der Einzelerscheinungen untereinander gekennzeichnet; unser Wissen darüber ist rudimentär; eine zusammenschauende, breit angelegte Forschung ist nötig; halbautomatische Entdeckungsverfahren wären hilfreich (Allen 1985). Theorie der Sprachsynthese: Für die Linguistik eröffnet sich durch die akustische Sprachsynthese ein neuer Arbeitsbereich: die Beschreibung von synthetischen, die menschliche Sprache imitierenden Sprachen. Dies kann auf verschiedenen Beschreibungsebenen geschehen. In (M üller 1984) wird z. B. versucht, den phonetisch-phonologischen Status insbesondere von lautorientierter, synthetischer Sprache genauer zu bestimmen (s. a. Witten 1982 b). Nicht zuletzt können solche Bemühungen zu einer präziseren Verwendung von Fachtermini in diesem interdisziplinären Gebiet führen. Text-to-speech-Verfahren stoßen schnell an ihre natürlichen Grenzen, wenn sie die Wort- und Satzanalyse nur auf die Oberfläche beschränken. Der optimalen Analyse, die auf diesem Weg erreicht werden kann, könnte man sich dadurch nähern, daß pro Sprache die Regelapparate der einzelnen Systeme offengelegt und zu einem Regelapparat verschmolzen werden. Andere Quellen, z. B. Wörterbücher, könnten genutzt werden, um Regeln halbautomatisch zu erzeugen (wie schon bei Klatt/Shipman 1982). Will man über die damit erreichbare Qualität hinauskommen, muß man mit den analytischen M ethoden der M ethoden der Computerlinguistik und der Künstlichen Intelligenz versuchen weiterzukommen. Für Concept-to-speech-Verfahren gibt es erst Prototypen (Young/Fallside 1979; Danlos/Laporte/Emerard 1986). In geeigneten Anwendungssituationen (vornehmlich wohl aus dem Bereich der Künstlichen Intelligenz) sollte dieser Weg verstärkt beschritten werden. Unterstützung findet man dabei in dem sich rasch entwickelnden Bereich der Synthese von natürlicher Schriftsprache. Im Bereich der Syntheseverfahren lassen sich Qualitätsverbesserungen wahrscheinlich auf mehreren Wegen erreichen. M it zunehmender besserer Verfügbarkeit von preisgünstigeren Speichern entfällt für reproduktive Anwendungen die Notwendigkeit, mit gerin-

48.  Automatische Sprachsynthese

gen Datenraten auszukommen. Es ist möglich, daß mit neuen Techniken auch datenintensive Verfahren (z. B. die beim CD-Player verwendeten Lasertechniken) für die Sprachdatenverarbeitung genutzt werden können. Wieweit mit computerlinguistischen M itteln auf solche mit hohen Bitraten arbeitende Verfahren Einfluß genommen werden kann, bleibt abzuwarten. Im Bereich der Quellencodierung sind Qualitätsverbesserungen durch neue artikulatorische Syntheseverfahren zu erwarten (Almeida 1985). Akzeptanz: Forschungen im Bereich der akustischen M enschM aschine-Kommunikation müssen u. a. die folgenden drängenden Fragen beantworten: — Warum kommt es zur Angst vor der Computerstimme (Erfahrungen mit Telefonanrufbeantwortern)? Wie kann sie überwunden werden? Durch Gewöhnung? — Welches sind die ergonomischen Begründungen für den Einsatz von synthetischer, gesprochener Sprache? In Alvey Workshop Speech Technology (1984) und Holmes (1985) werden für das Alvey-Forschungsprogramm als Forschungsthemen u. a. genannt: Verbesserung der Verständlichkeit und Natürlichkeit synthetischer Sprache, wozu akzeptable Prosodie, verschiedene Stimmen und dialektale Färbungen gehören; auf jeden Fall sollte ausgehend von Texten oder Konzepten synthetisiert werden.

12. Zur geschichtlichen Entwicklung der automatischen Sprachsynthese Das Interesse an künstlich erzeugten menschlichen Sprachlauten hat relativ früh zu technischen Lösungsansätzen geführt. Ende des 18. Jahrhunderts führten Kratzenstein und von Kempelen unabhängig voneinander mechanische M odelle vor (Flanagan 1972; Textprobe zu Kratzenstein bei M aggs 1984). Wie diese wurden auch später Geräte mit elektrisch erzeugten Lauten manuell gesteuert (VODER 1936, OVE I um 1960). Ab 1960 wurden Spracherzeugungsgeräte mit elektr(on)ischer Steuerung entwickelt. Eine andere Entwicklungslinie beginnt mit dem Vocoder in den 30er Jahren: Sprache wird mit Hilfe von elektrischen Filtern analysiert, ihre Frequenzbandbreite verringert und nach der Übertragung über (Telefon)leitungen wieder synthetisiert. Ebenfalls in den 60er Jahren beginnt der Einsatz von Computern im Zusammenhang mit der automatischen

621

Sprachsynthese. Die Entwicklung der Sprachsynthese mit vorelektronischen und elektronischen M itteln ist öfter (mehr oder minder ausführlich) dargestellt worden (M eyer-Eppler 1967; Flanagan 1972; Sclater 1983; Lenders/Stock 1984); eine systematische technikgeschichtliche Darstellung fehlt. Verstreut in der Literatur finden sich Hinweise zu einzelnen Aspekten der geschichtlichen Entwicklung: Lenders/Stock (1984) geben Hinweise zur Rolle des Instituts für Kommunikationsforschung und Phonetik an der Universität Bonn in der Geschichte der Sprachsynthese. Flanagan (1976) weist darauf hin, daß das nachrichtentechnische Know-how zur Bandbreitenverringerung beim Transport von Sprachsignalen seit 1970 verstärkt auf die Sprachsynthese mit Computern angewendet wurde; durch neuere Technologien hatte es im alten Anwendungsgebiet an Bedeutung verloren. Umeda (1976) unterscheidet drei Phasen der Entwicklung der regelgesteuerten Sprachsynthese aus Texten unter Einbeziehung der Prosodie: 1964—70 Pioneerzeit: „Ist Sprachsynthese aus Texten überhaupt machbar?“ 1970—75 Verbesserung der Lautqualität 1975—ff. Ableitung von Regeln aus der Analyse von Sprechdaten Uenohara (1985) berichtet von der geschichtlichen Entwicklung in Japan.

13. Literatur (in Auswahl) B. Adler 1985 · G. Akers/M . Lennig 1985 · J. Allen 1976 · J. Allen 1985 · A. Almeida 1985 · Alvey Workshop Speech Technology 1984 · Anonym 1985 · D. W. Bell/R. W. Becker 1983 · C. L. Berney 1985 · L. Bolc 1978 · E. Bruckert 1984 · H. J. Bullinger/K. P. Faehnrich/J. P. Hoepelmann et al. 1985 · M . Busch/K. Kansy/B. S. M üller et al. 1982 · G. L. de Campos 1985 · D. Castiglione/J. Goldman 1984 · S. Chiba 1985 · G. Chollet/J. F. Galliano/J. P. Lefevre et al. 1983 · F. Class/D. S. Stall/ R. Zelinski 1983 · CNET 1982 · C. H. Coker 1976 · COLING 1986 · B. Costello/F. S. M ozer 1982 · L. Danlos/E. Laporte/F. Emerard 1986 · R. G. DeSipio/E. Fry 1983 · D. L. Dintruff/D. G. Grice/ T.-G. Wang 1985 · L. Drinkwater 1984 · S. J. Eady/W. E. Cooper 1986 · S. T. Emerson 1983 · J. B. Eulenberg/S. Finkelstein 1985 · J. B. Eulenberg/D. Gou 1985 · D. Feldman 1986 · K. Fellbaum 1984 · K. S. Fertner 1984 · B. Fette/V. Crain 1983 · S. Finkelstein 1983 · W. A. Fisher 1983 · J. L. Flanagan 1972 · J. L. Flanagan 1976 · D. Fradin 1985 · J. Frank 1985 · J. Gerald 1984 · S. Gill 1982

XI. Application Fields III

622

· F. Gooding 1985 · D. Greer 1985 · G. F. Groner/ J. Bernstein/E. Ingber et al. 1982 · E. Großmann 1976 · L. Gutcho 1985 · M . ten Have/J. den Ouden 1985 · G. Heike/J. Philipp 1985 · H.-W. Hein 1985 · S. R. Hertz 1982 · S. R. Hertz/M . Beckman 1983 · S. R. Hertz/J. Kadin/K. J. Karplus 1985 · J. N. Holmes 1985 · J. W. Hoskins 1984 · ICASSP 1983 · S. Itahashi 1980 · A. Jonsson/P. Hedelin 1983 · M . G. Joost/F. G. James/T. M oody 1986 · B. Jordan/S. Charbonneau/S. Spangler 1984 · K. Kansy/B. S. M üller 1982 · G. Kielczewski 1978 · D. H. Klatt/D. W. Shipman 1982 · M . Kommenda/K. Kubin/G. Doblinger 1985 · F. Kory 1984 · W. Kulas/H.-W. Rühl 1985 · C. Y. Laporte 1985 · M . Leander 1986 · D. L. Lee/F. H. Lochovsky 1983 · W. Lenders/D. Stock 1984 · T. M . Leonard 1986 · L. Lesmo/M . M ezzalama/P. Torasso 1978 · G. C. Lyman 1984 · P. B. M aggs 1984 · L. M agnusson/M . Blomberg/R. Carlson et al. 1984 · H. M angold/D. S. Stall 1978 · J. M ariani 1985 · J. M ariani 1986 · J. D. M arkel/A. H. Gray 1976 · G. M artin/R. Pursley 1985 · J. G. M ay 1982 · D. L. M cPeters/A. L. Tharp 1984 · M eyer-Eppler 1967 · J. P. M oosemiller 1986 · B. S. M üller 1984 · B. S. M üller 1985 · B. S. M üller (ed.) 1985 · H. M ulla 1984 · J. P. Olive 1975 · J. P. Olive/L. H. Nakatani 1974 · S. Oltmanns/L. W. Denton 1986 · M . H. O’M alley/D. K. Larkin/E. W. Peters 1986 · O. R. Omotayo 1984 · G. E. Peacock 1984 · J. Peckham 1986 · E. W. Peters 1986 · R. S. Van

Peursem 1985 · D. B. Pisoni 1982 · D. B. Pisoni/B. G. Greene/H. C. Nusbaum 1985 · D. B. Pisoni/H. C. Nusbaum/B. G. Greene 1985 · A. Pounder/M . Kommenda 1986 · L. R. Rabiner 1976 · L. R. Rabiner/R. W. Schafer 1976 · L. R. Rabiner/R. W. Schafer 1978 · L. Radin 1983 · D. L. Rice 1976 · W. A. Rizzo 1985 · B. Rubinchek 1983 · C. Schmandt 1984 · M . R. Schroeder 1984 · N. Sclater 1983 · J. N. Sherwood/B. A. Sherwood 1982 · K. Sickert 1983 · W. A. Slaby/F. P. Spellmann 1980 · Speech Research 1980 · SPEECH TECH 1984 · SPEECH TECH 1985 · K. Steinbuch (ed.) 1967 · K. Steinbuch 1977 · A. M . Stoughton 1983 · M . Street/B. Adler 1983 · T. Takahashi/H. Tozuka/A. Tsukui et al. 1985 · C. D. Terrell/O. Linyard 1982 · J. Thomas 1984 · T. E. Tremain 1982 · M . Uenohara 1985 · N. Umeda 1976 · W. Voiers 1983 · C. J. Westerhoff/L. Reed 1985 · C. van Wijk/G. Kempen 1985 b · G. Willée 1985 b · J. M . Williams 1982 · I. H. Witten 1982 a · I. H. Witten 1982 b · I. H. Witten/J. Abbess 1979 · H. E. Wolf 1981 · H. E. Wolf 1984 · H. E. Wolf 1985 · J. J. Yea/A. K. Krishnamurthy/J. M . Naik et al. 1983 · S. Yokoyama 1980 · M . Yoshimura/N. Yoshida 1985 · S. J. Young/F. Fallside 1979 · S. J. Young/ F. Fallside 1980 · R. Zimmermann 1986 · H. Zinglé 1985 a · H. Zinglé 1985 b.

Bernd S. Müller, St. Augustin (Bundesrepublik Deutschland)

49. Machine Translation: General Development 1. 1.1. 1.2. 1.3. 1.4. 2. 2.1. 2.2. 2.3. 2.4. 3. 3.1. 3.2. 3.3. 3.4. 3.5. 4. 4.1. 4.2. 4.3.

Components Needed in Models Representation Process Eclectic Systems Need for an Evaluation Framework A Framework for Evaluating Models Models and Their Tasks Tasks of Translation Models Early Translation models in MT Evaluation Through Data on Failure Common Features: Constituent Structure and Dependency Structure in MT Tree Representations Stratification Sentence Structure Preference Recent Directions Models Used in Particular MT Projects Traduction Automatique de l’Université Montréal Groupe d’Etudes pour la Traduction Automatique (Grenoble) Interactive Translation System (Brigham Young University, Provo)

4.4. 4.5.

4.7. 5. 6.

University of Texas, LRC: METAL The MT Project of the European Communities: EUROTRA Buro voor SysteemOntwikkeling, Utrecht: Distributed Language Translation An Artificial Intelligence Project Conclusion Literature (selected)

1.

Components Needed in Models

4.6.

1.1. Representation There is very little agreement on the role of linguistic models in M achine Tanslation (M T). Granted, nearly all M T systems have adopted some notions from traditional linguistics, such as the assumption that a text consists of sentences, which are linear sequences of words, which are composed of morphemes. Beyond that meager basis, however, there is considerable divergence of opinion on how information about sentences should be represented. A major question is whether the representation should be prima-

49.  Machine Translation: General Development

623

rily syntactic or semantic. M ost M T systems use a syntactic representation augmented with semantic features, but a few use a semantic representation borrowed from Artificial Intelligence. 1.2. Process Besides the question of representation, there is the question of the model of translation process. All M T systems include analysis and generation components, and many include a transfer step in between analysis and generation. But once one goes into more detail, there is considerable variety in the process model. M ost M T systems use one of three process models (1) direct, (2) transfer, or (3) interlingual: — In the direct model, used by the early M T systems, each sentence of source text is divided into a sequence of words or morphemes, and the sequence is progressively manipulated. At some point, target language words are substituted for source language words but all rules are potentially bilingual in the sense of referring to both source and target languages. — In the transfer approach, the analysis step does not refer explicitly to the target language nor does generation refer to the source language, so only the middle step (transfer) contains bilingual rules. — In the interlingual approach, analysis produces a representation which contains semantic primitives rather than words of a particular language. This representation is used directly by generation to produce a target language text, so there is no transfer component and there are no bilingual rules. Clearly, the choice of a representation model and the choice of a process model are not independent. For example, an interlingual approach requires a semantic representation. And a particular representation will normally fit better with one process model than the others. 1.3. Eclectic Systems M ost systems developed since the Alpacreport (1966) use the transfer approach and, as mentioned before, a syntactic representation augmented by semantic features, so this is the combination focused on this article. (See Fig. 49.1). Unfortunately, linguistics has generally neglected translation and so there is no formal linguistic model which includes all the components needed to implement a syntactic transfer approach. For example, Trans-

Fig. 49.1: The most common model for machine translation systems

formational Generative Grammar (TGG), the dominant linguistic model in the United States since the 1960’s, provides a representation (syntactic deep structure) and a procedure for generation (transformations) but does not provide a procedure for analysis or transfer, nor a representation with transfer in mind. Therefore, linguistic models for machine translation are eclectic, typically using a representation which combines several models and borrowing parsing and generation techniques from monolingual systems. Transfer generally consists of lexical transfer (the actual translation of words and phrases) and structural transfer (adjustments where a source language structure is incompatible with the target language). The theoretical basis for transfer should come, from contrastive linguistics, but contrastive studies are generally not formal and are not amenable to implementation in computational models. Furthermore, they are generally not correlated with a particular computable model of syntax and semantics. 1.4. Need for an Evaluation Framework The picture of linguistic models painted in this section is admittedly bleak. There is a lack of linguistic models which provide all that is needed for translation and a lack of agreement on how pieces of existing models should be used as components in an M T system. However, this does not mean there is little in linguistics of use to machine translation. It simply means one needs a framework for evaluating linguistic models for use in machine translation. Section 2 will suggest one such framework based on how the model in question handles certain aspects of the task of translation. The section will begin with a discussion of translation as a task to be performed. To give the reader courage to con-

XI. Application Fields III

624

tinue in the search for better models, we quote M arčuk, Director of the All-Union Center for Translation in M oscow, who said, “An increase in the quality of the modern M T system is connected inseparably with the nature of the translation models in use.” (M arčuk 1984, 39)

2.

A Framework for Evaluating Models

2.1. Models and Their Tasks Some models are labelled theoretical and are supposedly independent of any particular practical task. However, upon reflection, we realize that every model must accomplish some task, however artificial it may be; the usefulness of the model depends in part on how the model’s task is related to useful tasks. For example, the self-imposed task of TGG is to define, using a finite formal system, an infinite set of strings of words which are judged by native informants to be sentences of their language. This task is certainly challenging, but even if it is accomplished, it is not guaranteed that the model will make it clear how to translate sentences. 2.2. Tasks of Translation Models Consider the following definition of translation: Given a specification of type of translation (there are of course many types), produce a set of pairs of strings of words such that native informants judge them to be translations of the specified type. A model which accomplishes that task would surely be interesting but may or may not be directly applicable to an M T system. Here is an alternative task: Given a finite set of strings of words (i. e. a ’source text’) and given a specification of type of translation, produce a set of pairs of strings such that the first elements of the pairs are the strings of the input text and that native informants judge the paired strings to be translations of the specified type. Such a model would certainly have a better chance of providing the basis for an M T system than the first model suggested. Linguistic research on such a model should be encouraged. In the meantime, however, until a linguistic model has a task compatible with the task of assigning a translation to a source text, how could one proceed to evaluate existing models for use as components in a machine translation system?

2.3. Early Translation Models in MT Early machine translation projects, lacking an appropriate model of translation, developed their own roughly as follows. They divided a source sentence into words, looked up each word in a bilingual dictionary, and substituted word for word. This of course, did not work very well, and they began analyzing the ways in which a word for word translation fails. One of the first observations made in the 1950’s must have been that the category of a word often makes a difference in its translation (e. g. fish as noun or verb). This led to homograph resolution routines. The problem was that the routines were based on local context (a word or two on either side) and did not fit in to any general procedure. Some of the early systems became heaps of ad hoc solutions to specific problems and were consequently very difficult to modify because one new solution may interfere with several previous solutions. Some relief came with more modular systems. In fact, it is somewhat controversial whether second generation systems, in which each sentence receives a full syntactic analysis, produce output clearly superior to modular first generation systems. Therefore it may be reasonable to gather data about model selection by looking at various ways in which a word for word translation fails and categorizing those failures. 2.4. Evaluation Through Data on Failure Given data about how word for word translations fail, linguistic models could be evaluated in terms of how they address the categories of failures. A few examples of this procedure will be given. Consider the following pairs of translations which are produced by the word for word model. While (1 b) is correct, (2 b) is wrong, (2 a) should be translated correctly as (2 c): (1 a) French: C’est le chat qui mangea l’oiseau . (1 b) English: It’s the cat that ate the bird . (2 a) French: C’est le sègle que mangea l’oiseau . (2 b) English: It’s the rye that ate the bird . (2 c) It’s the rye that THE BIRD ATE Here we see that the English word order depends on the relation between “l’oiseau” and the rest of the clause. If it is the subject, it precedes the verb; if it is the object, it follows the verb. Any syntactic transfer system will need to deal with the relationships between the relative pronoun ( qui or que ), the verb ( mangea, but potentially more complex), and

49.  Machine Translation: General Development

the noun phrase (l’ oiseau, potentially with modifiers). M any other examples of this kind could be given to show that any linguistic model used in a syntactic transfer M T system must identify noun phrases and verb phrases including their modifiers, so that transfer can reorder these elements, including their modifiers, as needed. This syntactic information is probably the best known and best understood requirement for a model used in MT. Another failure of word for word translation is the handling of pronouns and relative pronouns. The problem, of course, is that pronouns in many languages reflect the gender of the anaphoric referent. Consider the problem of assigning pronoun reference in the following sentences: (3) When some citizens of Side Lake decided to organize a civic association to promote local projects, they turned to the fire department for help. When nearby tow ns turn to the firemen for help, they usually respond willingly . A purely syntactic representation will not even show anaphoric reference. This can easily be rectified by augmenting a representation with a system of pointers or indices. The hard part is defining the process of assigning anaphoric reference pointers or indices. Besides identifying noun and verb phrases and their relationships, and besides indicating anaphoric reference, a linguistic model for machine translation also needs to include at least the following capabilities: — It should assist in mapping verb tenses between languages. For example, the French passé composé can map into the English simple past or present perfect, and the French imparfait can be rendered as used to + verb or as a progressive, depending on the contextual meaning. — It should assist in choosing an appropriate target language word order for adverbs, e. g. before or after the verb. — It should assist in producing a paraphrase translation when a direct translation is unacceptable. — It should assist in assigning definite, indefinite, or no article to a noun coming into a language such as English from a language which does not have articles or uses them differently. — It should assist in producing appropriate translations for words and phrases (lexical transfer) when multiple non-interchangeable options exist in the same syntactic environment. — It should be able to deal with changes in a

625

language. For example, in a report on machine translation in the 1960’s (RAND 1961), false stems were called cran forms, because cran cannot combine with other morphemes than berry . However, in the United States today, we see on the grocery shelves cranapple, cranicot, and other mixed juices. Similarly, an early article by Lehmann (Lehmann 1965) mentioned that a model of language should note impossible generalizations, such as brakeman not generalizing to walkman. However, we see many people jogging while listening to music from a Sony walkman . Clearly, no linguistic model will qualify on all these counts, but at least they form a framework within which to evaluate linguistic models used in machine translation.

3.

Common Features: Constituent Structure and Dependence Structure in MT

3.1. Tree Representations We mentioned in 1.1. that there is little agreement on how language should be represented in a machine translation system. We can, however, say that nearly all machine translation systems beyond the first generation use some form of tree to represent the structure of the sentence being translated. There are two basically different types of tree representations: constituent and dependency. In the constituent method, one would typically see a non-terminal node labelled Verb Phrase (VP) dominating a verb and a noun phrase. In the dependency method, one would typically see a non-terminal node labelled Verb dominating several noun phrases (e. g. the subject and the direct object). To simplify linguistic history, we will say that the constituent method comes from American Structuralism via Generative Grammar and the dependency method comes from the European tradition through such linguists as Tesnière. In machine translation representations, trees almost always have labels on nodes. In fact, it is common for a single node to have many labels showing its category, certain features, and specific relationships to other elements in the sentence not shown by the structure of the tree itself. 3.2. Stratification Another notion from linguistics that has found widespread acceptance in machine

XI. Application Fields III

626

translation is multiple strata. A major proponent of strata is Syndey Lamb, who developed Stratificational Grammar (Lamb 1966). On the European side, the linguistic work for Igor M el’čuk has influenced a number of machine translation systems (M el’čuk/Žolkovskij 1970). In many machine translation systems, a source sentence goes through an evolution from an initial stratum that is basically a list of the words in the sentence, to a stratum showing the elements of noun phrases grouped together, to a stratum showing a complete syntactic structure for the sentence, to a stratum showing logical relations, to a stratum showing semantic relations. There is little agreement on which and how many strata there should be. 3.3. Sentence Structure Although most projects accept, rather blindly, either a dependency representation or the traditional division of a sentence into a subject and a predicate, sometimes both of these options are rejected. For example, Jean-M arie Zemb, a linguist who was recently elected to the prestigious Collège de France, has suggested that the subject/predicate division is counter-productive and should be replaced with a three-way division: rhema/thema/phema, somewhat based on Aristotle’s view of language (Zemb 1987). 3.4. Preference In theoretical models, such as Generative Grammar, there has been a tendency to set up rules called selectional restrictions, such as a requirement that the subject of the verb eat be animate. However, an inefficient car can be described as eating gasoline and acid can be described as eating metal . Wilks (1973) has proposed a much better approach in which lexical items are assigned preferences that help make choices between alternatives but which are not strictly enforced. This flexibility is very important in machine translation since real texts often do not behave as they are described in textbooks. 3.5. Recent Directions There is a direction in linguistic models which is more oriented to computation. Three models which may eventually merge are: Static or Tree Correspondence Grammars from the University of Grenoble group (Zaharin 1986), Unification Grammar from M artin Kay (1985 b), and Lexical Functional Grammar from Joan Bresnan and Ronald

Kaplan (Bresnan 1982). We do not have the space to go into these new models in detail, but we can say that they all take into account the task of analyzing input text, rather than ignoring that task like Generative Grammar has. This is encouraging.

4.

Models Used in Particular MT Projects

We cannot possibly cover all linguistic models and all machine translation projects in this short survey. However, all subsets will be unfair in some way. So, without pretending to be fair or comprehensive, we will look at a few machine translation projects and their linguistic models. After a brief introduction, each description will emphasize linguistic choices made in each project. 4.1. Traduction Automatique de l’Université Montréal One of the oldest and most respected, though currently inactive, machine translation projects was the TAUM project of the University of Montreal, Canada. In 1970, the TAUM project began using the Q-System (for Quebec-System), a programming language designed and written especially for natural language processing by Alain Colmerauer (Colmerauer 1970), who later designed and wrote PROLOG. After three years of work on an M T system based on Q, the TAUM project published a report TAUM 73 1973) which described the design of the system and included a complete listing of the source code of the system in Q. This is an excellent reference for someone who wants to study the details of an M T system. The Q-System imposes a certain linguistic framework on the researcher, such as a representation consisting of n-ary trees. The QSystem inputs a sequence of trees and outputs a sequence of trees, and it consists of a number of groups of un-ordered rules. A rule consists of a pattern on the left which, if it matches the input, causes a substitution with the right side of the rule by producing an arc which suppresses the subarcs. There is also an optional condition element at the end of the rule. A parse is considered successful when an arc suppresses the entire sequence of trees. Some call this or any similar approach a chart grammar. The translation process in TAUM 73 consists of English analysis (morphological then syntactic), transfer, and French generation

49.  Machine Translation: General Development

(syntactic then morphological). Some of the linguistically relevant features placed on nodes in TAUM 73 are: animate, concrete, abstract, time, and collective (for nouns); nationality and degree (for adjectives); and stative, durative, perfective, and motion (for verbs). The result of analysis is roughly a TGG deep structure, since a number of the rules standardize and simplify the input structures. Beyond these items, the system is mostly based on practical experience rather than on theoretical considerations. After the 1973 version, the TAUM project produced the M ETEO system, which is still in daily use translating Canadian weather bulletins from English to French with little post-editing required. Then the TAUM project developed a system (called AVIATION) to translate the maintenance manuals for a jet aircraft purchased by the Canadian government (Isabelle/Bourbeau 1984). The linguistic shape of the AVIATION system is similar to the TAUM 73 system, but new linguistic programming languages were developed for the AVIATION system, including an ATN (Augmented Transition Network) parser and a special language for lexical transfer which did not require a complete match beginning with the root of a tree but rather with a lexical item. 4.2. Groupe d’Etudes pour la Traduction Automatique (Grenoble) Another long-standing and well-respected M T project is the GETA project (Groupe d’Études pour la Traduction Automatique) at the University of Grenoble, France. Since the mid-1960’s, until his recent untimely death, this project was under the direction of Bernard Vauquois (for further information on GETA see art. 53 and 50.2.3.) One important contribution of Vauquois was the development of the notion of “decorated trees” which combine various strata in one representaion (Vauquois 1977). The basic structure of the tree is a fairly simple surface structure. Then, deeper and more sophisticated strata, rather than being separate representations, each one based on the former, are represented as features on the original tree. This way the entire system is less fragile. With successive representations, a single rule which fails can block the output of the entire tree for all subsequent strata. This is not consistent with a design that calls for a reasonable output for every sentence of input.

627

4.3. Interactive Translation System (Brigham Young University, Provo) The ITS system (Interactive Translation System) was developed at Brigham Young University (in Provo, Utah USA) from 1970 to 1980. In 1980, most of the members of the ITS team left the University and formed ALPS, which now has a commercial system on the market. The ITS system was distinctive in two ways: (1) it was based on a single linguistic model (Junction Grammar = JG) and (2) it used interaction during the analysis phase (and later during transfer also). See Lytle/ Packard/Gibb et al. (1975) and M elby (1978 and M elby/Smith/Peterson 1980) for further descriptions of ITS. Whereas the TAUM and GETA projects have been eclectic in their linguistic models, the ITS project tried to implement all and only JG. One area where JG was lacking was in lexical transfer. By postulating that each lexical item had a predetermined list of possible word senses, and by further postulating that each word sense was universal, in that it mapped directly to one translation in any target language, the project put a straight jacket on itself which turned out to be too tight. Nevertheless, JG is an interesting representation, which integrated many aspects of syntax and semantics before that was fashionable. For example, JG distinguishes restrictive (the book I w as reading), non-restrictive (the mailman, w ho comes every day), and frame II ( Only the boys) modifiers as different types of junction relations between the modifier and the head. And JG included a form of X-bar syntax from its beginnings in the late 1960’s, by providing a general J-rule schema that generalizes across category boundaries (see Lytle 1974 and 1980). 4.4. University of Texas, LRC: METAL Another long-standing machine translation system is M ETAL, developed in several major versions at the Linguistic Research Center of the University of Texas at Austin, starting in 1961 and completely revamped starting in 1979 with funding from the SIEM ENS company. See Bennett/Slocum (1985) and 50.3.3 for a description of the project. The new version of M ETAL translates German into English using a phrase structure grammar with syntactic features, semantic features, and transformations indexed to spe-

628

cific rules. Various ambiguities result in multiple analyses and the analyses are scored for probable correctness and the best score wins. This project is an example of applying fairly standard techniques to a restricted domain of discourse for the texts (namely documentation for a digital telephone switching system) and achieving good results through careful engineering and attention to such factors as (1) re-integration of the translations into the format of the source text and (2) partial automation of the dictionary building process by simply writing a program to compute default values for dictionary features. 4.5. The MT Project of the European Communities: EUROTRA Eurotra is a large machine translation project sponsored by the European Communities (Arnold/Tombe/Jaspaert et al. 1985 and Arnold 1986). It is unusual in that it is designed to translate many-to-many, that is from and to Danish, Dutch, English, French, German, Greek, and Italian. The prototype system should be ready in 1988 with 20 000 dictionary entries per language, one analysis per source language no matter what the target language, one generation per target language, no matter what the source language, and one transfer for each pair of languages in each direction. A standard analysis, transfer, generation process is used. The linguistic strata in Eurotra, as of late 1985, are (1) ENT: Eurotra normalized text, (2) EM S: Eurotra morphological structure, (3) ESS: Eurotra surface syntax, (4) EDS: Eurotra deep structure, and (5) IS: Interface structure. In these various strata, there are two types of contructions: dependency and coordination. The basic representation is a labelled tree with the addition of pointers for anaphoric reference and understood subjects. For example, Kim tried to go would be represented as Kim[i] tried empty[i] to go . The interface structure (IS) does not attempt to integrate real-world knowledge, but it does normalize according to linguistic relations. For example, the sentence Who do you think he saw ? would be represented as [you think [he saw who]] . Tense/aspect connections across languages is dealt with by using the Reichenbach tradition (see details in Bruce 1972). The relations between linguistic elements is based on Longacre (1976), and it is the intent of the

XI. Application Fields III

Eurotra project to use these relations in lexical transfer, especially for prepositions. 4.6. Buro voor Systeem Ontwikkeling, Utrecht: Distributed Language Translation Another project that aims at many-to-many translation among Western European languages and which is on-going is the DLT (Distributed Language Translation) project of the BSO company in Utrecht, The Netherlands (Witkam 1984). Whereas the Eurotra system is designed to run without human intervention until post-editing, the DLT system is designed to interact with a human during analysis, as in the ITS project. The translation process is not the standard analysis, transfer, generation, but rather uses a formalised Esperanto as the intermediate language. There is a sort of analysis-transfergeneration going from the source language to the intermediate representation and between the intermediate representation and the target language, but, setting that aside, the DLT system uses the interlingual process model. It will be fascinating to compare the results of the Eurotra and DLT projects in a few years. 4.7. An Artificial Intelligence Project Based on the Conceptual Dependency (CD) model of Roger Schank, Lytinen (1985) has developed a system at Yale University which inputs text in one language, converts it into a language-independent CD representation, and outputs it in the same or another language. This is clearly an interlingual approach. There are two main issues related to such an approach: (1) can the CD representation be extended from its current application to micro-worlds to more substantial sublanguages or even general language? and (2) when is the paraphrase-type translation produced useful and can it be made to resemble standard human translation more closely? These questions may not be answered for some time, but Lytinen comes to an interesting intermediate conclusion: even in an artificial intelligence approach, there is a need for both a syntactic and a semantic representation. However, instead of producing one and then the other, he has his system produce them both in parallel, interacting and helping each other. This may be closer to the way humans work than the sequential models currently in use.

50.  Machine Translation: Active Systems

5.

Conclusion

One conclusion that we can draw is that available linguistic models are far from being an adequate base for machine translation. They generally fail to directly address the task of translation and fail to handle important components of the framework for evaluation described in Section 2. Raskin (1985, 279) proposes the realistic but somewhat unsatisfying approach of assuming that linguistics will continue to deal with the artificial task of defining an infinite set of acceptable sentences without unacceptable ones, and he claims that translation is outside the domain of linguistics proper. Another approach would be to request of linguists that they consider working on models that more directly address the tasks faced by

629

machine translation.

6.

Literature (selected)

Alpac-Report 1966 · D. Arnold/L. des Tombe/L. Jaspert et al. 1985 · D. Arnold 1986 · W. S. Bennett/J. Slocum 1985 · J. Bresnan 1984 · B. Bruce 1972 · J. Hutchins 1984 · M . Kay 1985 b · S. Lamb 1966 · W. P. Lehmann 1965 · R. E. Langacre 1976 · St. L. Lytinen 1985 · E. Lytle/D. Packard/D. Gibb et al. 1975 · Ju. N. M arčuk 1984 · A. M elby 1978 · A. M elby/M . R. Smith/J. Peterson et al. 1980 · I. A. M el’čuk 1970 · M . Nagao 1985 · RAND 1961 · V. Raskin 1985 · B. Vauquois 1977 · A. P. M . Witkam 1984 · Y. Zaharin 1986 · J.-M . Zemb 1987.

Alan Melby, Provo, Utah (USA)

50. Machine Translation: A Survey of Active Systems 1. 2. 3. 4. 5. 6.

Introduction Western Europe North America The Far East The State of the Art Literature (selected)

1.

Introduction

This article constitutes an overview of active machine translation systems in Western Europe, North America and the Far East. (For Eastern Europe see art. 52.) Systems are classified along various dimension in order to aid in their objective comparison. Key items of information include the hardware execution environment, performance (speed and cost, especially for the new Japanese systems), and such details of software architecture and linguistic orientation as are available. For most commercial systems, the latter kinds of information are considered secret, except in outline form, thus precise specifications (and comparisons) are not accessible. 1.1. System Restrictions We restrict our attention to full-fledged M achine Translation (M T) systems: we exclude translation aids (human-aided [interactive] M T and machine-aided human translation environments). Essentially, this boils down to computer systems that translate in batch

mode, without human intervention — at least at the full sentence, if not text, level. Systems that impose text input restrictions, including pre-editing, are not [for that reason] excluded, nor are those for which output post-editing is expected, as these are typical of M T systems in one way or another, major or minor. 1.2. Status Restrictions We also restrict our attention to production systems (those marketed commercially, and/ or used in-house), and substantially advanced prototype systems (especially those that are production-ready, or undergoing final preparation for practical use). Earlystage, or experimental, systems are not covered, though some will be mentioned, because there are too many to be discussed in the available space, and in any case early experimental (especially small-scale) systems prove little or nothing about the practical applicability of their techniques: the M T field is littered with the corpses of experimental systems for which great claims were once advanced. The exception is EUROTRA: though nowhere near practical use, the mere manpower and longevity of the project, to say nothing of its ambitions and design sophistication, command attention; with respect to its research base, at least, it is clearly a largescale effort, now in the experimental prototype implementation phase.

XI. Application Fields III

630

1.3. Geographic Restrictions The commercially available M T systems are concentrated currently in Western Europe, North America, and the Far East (essentially, Japan). (For Eastern Europe see 51.) The following three sections (2—4) of this overview consider those three locales in order. Given that the volume of information generally available for systems in the West greatly exceeds that for systems in the East, while the bulk of recent commercial activity has transpired in the East (i. e., Japan), we will give relatively greater attention to critiques of the Western systems, and to factual expositions of the Japanese projects. This should answer spoken and unspoken requests for information concerning the current MT “hot spot.”

Some groups have been effective in the sense of producing systems admitting practical application, and others not; but failures occur in all research areas, not just M T. Indeed, lack of success is not always complete: one early group — CETA at Grenoble — failed in its original mission, but learned from its mistakes and, reinstituted as GETA, adopted another approach; this eventually resulted in a prototype now undergoing production implementation in the French national project ESOPE. So far, not many European projects have spawned production systems. We will discuss here those that have done so, after overviewing a few systems of general interest that do not qualify as fullfledged, production(-ready) MT systems. 2.1. Overview

2.

Western Europe

Europeans have for millenia coped with language problems. Normal commerce requires the ability to communicate in several languages, and companies traditionally use both in-house and outside translators to supply documents to customers. With the establishment of the European Economic Community (EEC), and its subsequent expansion from four to nine official languages, the growth in demand for governmental translation has been staggering. In 1986 the European Parliament spent nearly half its budget for translation and interpretation services. The Council of M inisters employs over 700 translators, and the cost of translation in the Commission exceeds that of Commission-supported research. In such an environment, it is easy to see how interest in M T can flourish as it does. Accordingly, individual European companies and governments, to say nothing of the EEC itself, are willing to invest large sums in techniques that promise to deal with translation demands more effectively. As a result, there are a number of projects scattered about Europe whose goals are to ameliorate the translation problem in one way or another. Some government-supported projects have been large, and of long standing: the Group d’Étude pour la Traduction Automatique (GETA), at Grenoble, and its sister group at the University of the Saar, in Saarbrücken, come to mind. Others groups, some supported by government and some by industry, have been smaller.

The SALAT project, instituted at the University of Heidelberg in 1973, and the Rosetta project, established at Philips Research Laboratories in Eindhoven in 1980, are both taking the interlingua approach to [eventually multilingual] translation — interlingual with respect to syntactic and structural (but not lexical) relations in the former case, and (M ontague-inspired) logical derivation trees in the latter. Both of these systems are in their early experimental stages, and hence do not qualify as (near-)production systems. See Hauenschild/Huckert/M aier 1978; 1979 and Apello 1986. The M T group at the University of the Saar in Saarbrücken, home of ASCOF, SUSY, and earlier projects dating back to 1967, has recently been disbanded; details of ASCOF, the most modern of these systems, appear in (Biewer/Feneyrol/Ritzke et al. 1985, 137—154 and Luckhardt/Thiel 1986). As it would appear, however, that the Saarbrücken systems are effectively dead, we will not consider them further. The Distributed Language Translation (DLT) system, under development at the Buro voor Systeemontwikkeling (BSO) in Utrecht since 1979, adopts the interlingua approach — with the novel twist of using Esperanto as the intermediate representation language. Since standard Esperanto, like any natural language (if it can be called such), has a number of deficiencies for this purpose — notably various forms of inherent ambiguity — certain remedies have been adopted, or suggested; but others are still lacking. Whatever the merits of this project (and there are strong arguments against both its theoretical

50.  Machine Translation: Active Systems

and practical foundations), the effort is in its early stages; in addition, the present system design is highly interactive, thus we will not dwell on it here. The interested reader is referred to the original feasibility study (Witkam, 1983) for comprehensive details, or (Hutchins 1986, 287—291) for an overview. Neglecting other systems in Western Europe not qualifying as (near-term) practical applications, we are left with a pair of in-house production systems (TITUS and EEC SYSTRAN), two advanced prototypes nearing production status (GETA’s Ariane and Siemens’ M ETAL) plus the research project EUROTRA. 2.2. Production Systems TITUS, now in its fourth incarnation, makes intelligent use of tight constraints on both the vocabulary and syntax of the texts. It was developed by the French textile industry, starting in 1970, for the quadrilingual (English, French, German, and Spanish) translation of abstracts. After reading an abstract, and prompting enterers for corrections where the input restrictions are violated, TITUS produces an “interlingual” representation from which it can automatically generate texts in any of the four languages, upon demand. Thus, there is no need for human assistance during translation, as all problems are dealt with via enforced restrictions on the original input. Such an approach is not feasible in many contexts, but works well in this situation (Zingel 1978). The EEC faces a far broader demand for translation, and there are no solutions whatever in the realm of unaided human translation: machines simply must bear an increasing share of the burden. As a long-range solution, the EEC set up the EUROTRA project, but a shorter-range solution was already under development. In 1976 the Commission of the European Communities (CEC) purchased an English-French version of SYSTRAN for evaluation and potential use. Unlike the U.S. Air Force, NASA, and EURATOM installations of SYSTRAN, where the goal was information acquisition, the intended use by the Commission was for information dissemination — meaning that the output was to be carefully edited before human consumption. SYSTRAN is probably the oldest M T system in current use: its origins date back to the Georgetown Automatic Translation project in the early 1960’s. However, the system

631

architecture has been greatly improved by attention to software engineering principles, notably strong modularity, and the gradual evolution of SYSTRAN away from the direct approach, toward the transfer approach. It runs on IBM mainframes, or the equivalent, and is extraordinarily fast: the bottleneck appears in editing its output, not running the system per se. For more details on system architecture, see (Hutchins 1986, 209—218). Early evaluations of the English-French SYSTRAN inside the Commission were negative, but the existing and projected overload on CEC human translators was such that investigation continued in the hope that dictionary additions would improve the system to the point of usability. Development of additional versions was initiated (French-English in 1978, English-Italian in 1979), and production translation using these systems commenced in 1981 (Hutchins 1986, 259). Even the modest success thus achieved was sufficiently encouraging to warrant development of French-German and English-German versions starting in 1982. Currently, CEC translators in Luxembourg are using SYSTRAN on a Siemens 7740 computer for routine translation. One factor accounting for success is that the English and French dictionaries now consist of well over 100 000 entries in the limited technical areas for which SYSTRAN is being employed, due to a sustained dictionary expansion effort on the part of CEC translators and terminologists. Another factor is apparently the careful selection of texts to be translated; of course, any current M T system would benefit from similar selectional care. Later, in section 3.2., we will return to our discussion of SYSTRAN. 2.3. Advanced Prototypes In reaction to the failure of CETA’s interlingual approach, GETA adopted the transfer approach. The former software design was largely discarded, and a software package supporting a new style of processing was substituted. The core of the GETA translation system, Ariane-78, is composed of three types of programs: one converts strings into trees (for, e. g., word analysis), one converts trees into trees (for, e. g., syntactic analysis and transfer), and the third converts trees into strings (for, e. g., word synthesis). (A fourth type exists, but may be viewed as a specialized instance of one of the others.) The overall translation process is composed of a

632

sequence of stages, wherein each stage employs one of these programs. Other modules in Ariane-78 support editing and system maintenance functions (Vauquois/Boitet 1985, see also Art. 53). One of the features of Ariane-78 that sets it apart from other M T systems is the insistence on the part of the designers that no stage be more powerful than is minimally necessary for its proper function. Thus, rather than supplying the linguist with programming tools capable of performing any operation whatever (e. g., the arbitrarily powerful Q-systems of TAUM ), Ariane-78 supplies at each stage only the minimum capability necessary to effect the desired linguistic operation, and no more. This reduces the likelihood that the linguist will become overly ambitious and create unnecessary problems, and also enables the programmers to produce software that runs more rapidly than would be possible with a more general scheme. A “grammar” in the ROBRA subsystem is actually a network of subgrammars; that is, a grammar is a graph specifying alternative sequences of applications of the subgrammars and optional choices of which subgrammars are to be applied (at all). The top-level grammar is therefore a “control graph” over the subgrammars that actually effect the linguistic operations — analysis, transfer, etc. Ariane-78 is sufficiently general to allow implementation of any linguistic theory, or even multiple theories at once (in separate subgrammars) if such is desired. Thus, in principle, it is completely open-ended and could accommodate arbitrary semantic processing and reference to ’world models’ of any description. Such theoretical flexibility [and the availability of the software] has led to Ariane’s use at times by other M T groups (Saarbrücken and Nancy), to its design being partly adopted in the Kyoto University M u project (see section 4.3.), and to its wholesale adoption by the University of M alaysia in Penang for their experimental English-M alay project (Hutchins 1986, 247—248). In practice, however, the story is more complicated. In order to increase the computational flexibility, as is required to take full advantage of substantially new linguistic theories, especially ’world models’, the underlying software would have to be changed in many various ways. Unfortunately, it is rigid (written in low-level languages), making modification extremely difficult. As a result,

XI. Application Fields III

the GETA group has been unable to experiment with any radically new computational strategies. Back-up, for example, is a known problem: if the Ariane system pursues a wrong path through the control graph of subgrammars, it can undo some of its work by backing up past whole graphs, discarding the results produced by entire subgrammars; but within a subgrammar, there is no possibility of backing up and reversing the effects of individual rule applications. Until it can be rewritten in a high-level language, facilitating present and future redesign, the GETA group is “stuck” with the current software — now showing clear signs of age, to say nothing of nontransportability (to other than IBM machines). As it happens, the French government has launched a major application effort with industrial collaboration — ESOPE — to commercialize the GETA system, in which the implementation language is LISP. This effort, aside from offering the advantages of the first full-scale, large vocabulary production test of Ariane (which has always been terminologically impoverished), will result in a system more amenable to modification. This, in addition to the popularity of the GETA approach, would seem to secure the future of GETA. Siemens NV of Belgium, encouraged by the success of the M ETAL German-English project in the U.S. (see section 3.3.), has embarked on an application for Dutch-French and French-Dutch translation; the Catholic University of Louvain, the University of Liege, and the international interpreting school at the University of M ons are providing linguistic expertise. In addition to direct financial support, Siemens supplies the M ETAL system software originally developed at the University of Texas, and the Lisp Machine hardware on which it runs. Formulation of the grammars and dictionaries for Dutch and French is well underway at the collaborating universities, where experimental translations have already been produced; nevertheless, it is fair to say that, while the underlying software system is quite mature, production versions of the linguistic rules do not yet exist. These systems, like the German-English M ETAL system, adopt the transfer approach. Thus, there will be three dictionaries (Dutch and French monolingual, and Dutch-French bilingual); and six grammars: analysis, transfer, and synthesis for each translation direction. (The grammars

50.  Machine Translation: Active Systems

are not reversible, but then the transfer — and especially synthesis — grammars are not likely to be large, given METAL’s design.) 2.4. EUROTRA EUROTRA is easily the largest M T project in the Western world (des Tombe/Arnold/Jaspaert et al. 1985 and other contributions on EUROTRA in Nirenburg 1985). It is the first serious attempt to produce a large multilingual system, in this case intended for all nine EEC languages. The justification for the project is simple, inescapable economics: the high cost of writing SYSTRAN dictionary entries is presently justifiable for reasons of speed in translation, but this situation is not viable in the long term; and the EEC translators, faced with their burgeoning loads, must have superior quality M T output to edit in order to increase their post-editing speed. EUROTRA is a true multi-national development project. There is no central laboratory where the work will take place, but instead designated University representatives of each member country will produce the analysis and synthesis modules for their native language. The transfer modules will be built by collaborating bilingual groups, and are intended to be as small as possible, consisting of little more than lexical substitution. Software development will be almost entirely separated from the linguistic rule development; indeed, the production software, though formally specified by the EUROTRA members, will eventually be written by whichever commercial software house wins the contract in bidding competition. Several co-ordinating committees are working with the various language and emphasis groups to ensure co-operation. With respect to its theoretical linguistic basis, EUROTRA is currently undergoing considerable change. We are forced to characterize an older design, which is well described, if not publicly documented in detail, since the new design seems unattested, and in any case is in flux. One would not normally expect fundamental changes in the linguistic design of a project intended to be this far along toward prototype implementation, but then EUROTRA has always been considered a research project as much as a prototypedevelopment project, and it has never been charged with developing a production system. Since we cannot discuss a currently accepted design, we will characterize the older design, but not in depth. The general level we

633

adopt at least offers the advantage that it may not be too inaccurate with respect to a new design, which is presumably about to crystalize. The early linguistic basis of EUROTRA is not entirely novel. The basic structures for representing ’meaning’ are dependency trees, marked with feature-value pairs partly at the discretion of the language groups writing the grammars (anything a group wants, it can add), and partly controlled by mutual agreement among the language groups (a certain set of feature-value combinations has been agreed to constitute minimum information; all are constrained to produce this set when analyzing sentences in their language, and all may expect it to be present when synthesizing sentences in their language). This is not to say that no new linguistic knowledge is being gained, for, aside from the test of linguistic theory that EUROTRA is about to perform, there is the very substantial matter of the contrastive linguistic work that has been in progress since as early as 1978. In one sense, the software basis of early EUROTRA would not be novel either. The basic rule interpreter will be a general rewrite system with a control language over grammars/processes. As with Ariane-78, the linguistic rules can be bundled into packets of subgrammars, and the linguists will be provided with a means of controlling which packets of rules are applied, and when; the individual rules will be non-destructive rewrite rules, so that the application of any given rule may create new structure, but will never erase any old information. In another sense, however, the software basis of early EUROTRA is quite remarkably different from systems that have preceded it. The analysis, transfer, and synthesis strategies will not be incorporated into algorithms that the programmers implement; rather, they will be formulated by linguists and represented in a special control language (not the rule-writing language, which is algorithm-independent). This formulation of the dynamic control strategies will be compiled into a program that will then interpret the static rules describing the linguistic facts. This is a bold step. There are, of course, pitfalls to any such action. Aside from the usual risk of unforeseen problems, there are two rather obvious unresolved issues. First, it remains to be seen whether linguists, trained mostly in the static, descriptive framework of linguistics (modern or otherwise), can ac-

XI. Application Fields III

634

commodate themselves to the expression of dynamic algorithms — a mode of thinking that programmers (including most computational linguists) are far more adept at. Second, it also remains to be seen whether the system can be designed sufficiently flexibly to adjust to the wide range of experimental strategies that is sure to come when the staff is given such a large degree of freedom (remembering that the software implementation is seen as an essentially one-shot process to be performed on contract basis), while at the same time retaining sufficient speed to ensure that the computing requirements are affordable. Affordability is not merely an issue belonging to the ultimate production system! On the contrary, it is critically important that a development group be able to conduct experiments that produce results in a reasonable amount of time. After too long a delay, the difference becomes one of category rather than degree, and progress is substantially — perhaps fatally — impeded. The EUROTRA charter requires delivery of a small representative prototype system by late 1987, and a prototype covering one technical area by late 1988. As of this writing, it is not clear that any non-trivial translation has been produced by EUROTRA components. Experiences with other M T systems indicate that years are likely to elapse between the demonstration of a significant volume of decent translation (tens of pages) and the delivery of a production-prototype version for even a single domain. It will be interesting to see whether EUROTRA, the most ambitious of all M T projects, eventually succeeds; either way, the consequences promise to be noteworthy.

3.

North America

North America, particularly the U.S., was until recently rather isolated, even insular. The economies were largely domestic and, in the case of Canada and the U.S., English was sufficient for virtually all government and commercial purposes. With the adoption of French as an official national language, the situation in Canada began to change: the amount of translation required grew dramatically, and translation bureaus soon could not adequately cope with the volume. Thus, a serious interest in M T arose in that country, resulting in part in the TAUM project at the University of Montreal. Although, through demographic studies,

one can foresee potential for the promotion of Spanish as an official national language of the U.S., that time is well into the future. Only with the recent shift of the U.S. from a domestic toward an international economy has there been a nascent perception of translation services as a serious need. Heretofore, U.S. industry — to the extent that it dealt with foreign concerns at all — has generally succeeded in requiring customers to interact in English, and accept English documentation; the translation bureaus of major firms sometimes consisted of no more than a few bilingual secretaries — and those, of course, having no training as translators. As the U.S. has begun turning to foreign markets — and meeting with stiff competition from international companies which, among other things, are willing and able to deal in customers’ native languages — the interest in translation has increased. This trend, however, is only recent, and quite small; frequently it is not even perceived until one points out evidence such as the recent establishment of M T projects inside several U.S. computer companies. Even in the last few years, major commercial M T vendors have reduced their domestic staffs and further increased their attention to foreign markets. The only large academic M T project in the U.S., at the University of Texas, receives its entire support from Siemens, a West German firm; a related, but purely research project at the same institution, receives its funding from Hitachi, a Japanese firm. It is a paradox, then, that — until two years ago — the major commercial M T firms had all arisen in the U.S., even though their markets lay elsewhere; perhaps this is a testament to the American entrepreneurial spirit. In any case, this situation too has changed. M ore than a dozen Japanese companies have announced commercial M T systems, or production-prototypes, since 1984, and the customer base already numbers in the hundreds. At a time when the need for translation is finally becoming apparent, the U.S. is rapidly losing any edge it may have had in this field. 3.1. Overview There are two U.S. companies whose systems we will not treat at length. (See however Art. 49.) The ALPS system is intended to work on any of three “levels” — providing capabilities from multilingual word processing and dictionary lookup, through word-for-

50.  Machine Translation: Active Systems

word (actually, term-for-term) translation, to highly-automated (though human-assisted) sentence-level translation. The latter mode of operation, judging by demonstrations and the reports of users, is seldom if ever employed. The central tool provided by ALPS is a menu-driven word-processing system coupled to the on-line dictionary; so in practice the system is interactive in all respects, and does not seriously pretend to perform autonomous translation. As a translation aid, then, it falls outside the scope of our survey. The Smart system is virtually undocumented. The developer felt that linguistic approaches to M T were misguided, and set about building an expert system for translation; Hutchins (1986, 294) also indicates that the system was first marketed in 1978, and not fully operational until 1983. No other installation is mentioned, and it is characterized as a computer-aided system. Hence, there is little one can say about it. There are four academic M T research projects that will not receive serious attention here. The XTRA project, begun at the University of Essex and now located at New M exico State University, adopts an interlingua approach to English-Chinese translation (Huang 1985, 135—44). The TRANSLATOR quadrilingual project at Colgate University also employs the interlingua approach, but claims to add special modules intended to incorporate the expertise of human translators (Nirenburg/Raskin/Tucker 1985, 224—244). A small Ukranian-English system being experimented with at Georgia Tech University constitutes yet another interlingua approach, this time based on conceptual dependency structures (Cullingford/Onyshkevych 1985, 75—115). All of these projects are too small, and their ideas therefore insufficiently tested, to support more than idle speculation about their implications for practical systems. The fourth project, in addition to suffering from this objection, is predicated on an interactive scenario: the Carnegie-M ellon University project will investigate methods for human disambiguation during sentence analysis, followed by unaided synthesis (Carbonell/Tomita 1985, 59—74). We will consider, below, three U.S. commercial systems (SYSTRAN, LOGOS, and Weidner), the lone operational Canadian system (TAUM -M ETEO), two in-house systems not intended for the market (SPANAM and ENGSPAN), and a production-ready system developed in a university setting (METAL).

635

3.2. Production Systems SYSTRAN was one of the first M T systems to be marketed; the first installation replaced the IBM M ark II Russian-English system at the U.S. Air Force Foreign Technology Division (FTD) in 1970, and is still operational. SYSTRAN was made available to NASA in 1974 for the translation of materials relating to the Apollo-Soyuz collaboration, and EURATOM replaced the Georgetown University Automatic Translation system (= GAT) with SYSTRAN in 1976. Also by 1976, FTD was augmenting SYSTRAN with wordprocessing equipment to increase productivity (e. g., to eliminate the use of punch-cards). The system has continued to evolve, for example by the shift toward a more modular design and by the allowance of topical glossaries (essentially, dictionaries specific to the subject area of the text). The system has been argued to be ad hoc — particularly in the assignment of semantic features (Pigott 1979). The FTD dictionaries number over a million entries; Bostad (1982, 130) reports that dictionary updating must be severely constrained, lest a change to one entry disrupt the activities of many others. (A study by Wilks (1978) reported an improvement/degradation ratio [after dictionary updates] of 7:3, but Bostad (1982, 133) implies a much more stable situation after the introduction of stringent quality control measures.) In 1976, General M otors of Canada acquired SYSTRAN for translation of various manuals (for vehicle service, diesel locomotives, and highway transit coaches) from English into French on an IBM mainframe. GM ’s English-French dictionary had been expanded to over 130 000 terms by 1981 (Sereda 1982, 121). Subsequently, GM purchased an English-Spanish version of SYSTRAN, and began to build the necessary [very large] dictionary. Sereda (1982, 120) reports a speed-up of 3—4 times in the productivity of his human translators (from about 1000 words per day); he also reveals that developing SYSTRAN dictionary entries costs the company approximately $ 4 per term (word- or idiom-pair). While other SYSTRAN users have applied the system to unrestricted texts (in selected subject areas), Xerox has developed a restricted input language (’M ultinational Customized English’) after consultation with LATSEC. That is, Xerox requires its English technical writers to adhere to a specialized

636

vocabulary and a strict manual of style. SYSTRAN is then employed to translate the resulting documents into French, Italian, Spanish, German, and Portuguese. Ruffino (1982, 60) reports “a five-to-one gain in translation time for most texts” with the range of gains being 2—10 times. This approach is not necessarily feasible for all organizations, but Xerox is willing to employ it and claims it also enhances source-text clarity. Xerox now uses SYSTRAN to translate approximately 90% of its technical documentation (around 55 000 pages/year). The EEC installations of SYSTRAN were discussed in section 2.2. Hutchins (1986, 209—218) discusses details of SYSTRAN’s architecture, to the extent that it is publicly known. Development of the LOGOS system was begun in 1964 (Wheeler 1986). The first installation, in 1971, was used by the U.S. Air Force to translate English maintenance manuals for military equipment into Vietnamese. Due to the termination of U.S. involvement in that war, its use was ended after two years. In 1978, Siemens AG began funding the development of a LOGOS GermanEnglish system for telecommunications manuals. After three years LOGOS delivered a “production” system, but it was not found suitable for use, due in part to poor quality of the translations, and in part to the economic situation within Siemens, which had resulted in a much-reduced demand for translation, hence no immediate need for an M T system. Eventually, LOGOS forged an agreement with the Wang computer company that allowed the implementation of the GermanEnglish system (formerly restricted to large IBM mainframes) on Wang office computers. This system reached the commercial market, and has been purchased by several multi-national organizations (e. g., Nixdorf, Triumph-Adler, Hewlett-Packard). Customer reactions seem positive, though users naturally point out that it performs less well on some texts than others. Development of other language pairs (e. g., English-French, English-German) is said to be underway. The linguistic foundations of LOGOS are not well advertised, for reasons involving trade secrecy, but it clearly adopts the transfer approach (perhaps with some interlingua flavor), and serious attention has been paid to a classification scheme that makes semantic information available for disambiguation at the lexical and syntactic levels of analysis.

XI. Application Fields III

Weidner Communications Corporation was established in 1977 by Bruce Weidner. In 1980, a group of Brigham Young University programmers joined the company, and helped develop the fully-automatic, direct Weidner M T system. (For the Weidner M T system see Hundt 1982.) Weidner delivered a production English-French system to M itel in Canada in 1980, and a beta-test EnglishSpanish system to the Siemens Corporation (USA) in the same year. In 1981 M itel took delivery on Weidner’s English-Spanish and English-German systems, and Bravice (a translation service bureau in Japan) purchased the Weidner English-Spanish and Spanish-English systems. In 1982, Weidner delivered English-German and GermanEnglish system to ITT in Great Britain. But there were some financial problems (a third of the Weidner employees were laid off that year) until a controlling interest was purchased by Bravice, one of Weidner’s customers. The Weidner system, though “fully automatic” during translation, is still marketed as a ’machine aid’ to translation (perhaps to avoid the stigma usually attached to M T). It is highly interactive for other purposes (the lexical pre-analysis of texts, the construction of dictionaries, etc.), and integrates wordprocessing software with external devices (e. g., the Xerox 9700 laser printer at M itel) for enhanced overall document production. Thus, the Weidner system accepts a formatted source document (actually, one containing formatting/typesetting codes) and produces a formatted translation. This is an important feature to users, since almost everyone is interested in producing formatted translations from formatted source texts. Translation (other than of Japanese) is performed in four independent stages: homograph disambiguation, idiom search, structural analysis, and transfer. These stages do not interact with each other, which creates more problems; for example, homographs are resolved once and for all very early on, without any higher-level context (it is not available until later) that would make this process much more sensitive. Analysis is local, usually confined to the noun phrase or verb phrase level (except for Japanese) — so that context available only at higher [clause or sentence] levels is not recognized. Yet even though the Weidner translations are of rather low quality, users nevertheless report economic satisfaction with the results: transla-

50.  Machine Translation: Active Systems

tion using the system is cost-effective, as well as faster in their environments. Ten language pairs are currently offered, and there are about 75 installations of these systems in the West. A significant portion of Weidner’s overall business now derives from its translation bureau in Chicago, where Weidner employees use the system to translate and post-edit texts for customers. In 1984 the new owner, Bravice, announced the world’s first Japanese M T system, based on the Weidner technology; this system will be discussed in section 4.2. We now turn from commercial to noncommercial systems, developed by (quasi-) governmental organizations for in-house use. TAUM -M ETEO is the world’s only example of a truly fully-automatic M T system (Thouin 1982; Isabelle/Bourbeau 1984). Developed as a spin-off the TAUM technology, at the University of M ontreal, it was fully integrated into the Canadian M eteorological Center’s (CM C’s) nation-wide weather communications network by 1977. M ETEO scans the network traffic for English weather reports, translates them into French, and sends the translations back out over the communications network automatically. Rather than relying on post-editors to discover and correct errors, M ETEO detects its own errors and passes the offending input to human editors; output deemed “correct” by M ETEO is dispatched without human intervention, or even overview. TAUM -M ETEO was probably also the first M T system where translators were involved in all phases of the design, development, and refinement process; indeed, a CM C translator instigated the project. Since the “restrictions” on input to M ETEO were already in place before the project started (i. e., M ETEO imposed no new constraints on weather forecasters), M ETEO cannot quite be classed with the Xerox SYSTRAN installation, which relies on artificial restrictions geared to the characteristics of SYSTRAN. But M ETEO, as a direct M T system highly tailored to one class of input text, is not extensible — though similar systems could be built for equally constrained textual domains, if they exist. One of the more remarkable side-effects of the M ETEO installation is that the translator turn-over rate within the CM C went from 6 months, prior to M ETEO, to several years, once the CM C translators began to trust M ETEO’s operational decisions and not re-

637

view its output. M ETEO’s input constitutes over 24 000 words/day, or 8.5 million words/ year. Of this, it now correctly translates 90—95% shuttling the other (“more interesting”) 5—10% to human translators. Almost all of these failures are attributable to communications noise (the CM C network garbles some traffic), misspellings (M ETEO does not attempt corrections), or words missing from the dictionary, though some failures are due to the inability of the system to handle certain linguistic constructions. M ETEO’s computational requirements total about 15 CPU minutes per day on a CDC 7600 (Thouin 1982). By 1981, it appeared that the built-in limitations of M ETEO’s theoretical basis had been reached, and further improvement was not likely to be cost-effective. Following a promising feasiblity study, the Pan American Health Organization (PAHO) in Washington, D.C., decided in 1975 to undertake work on a machine translation system by hiring some outside consultants. The official PAHO languages are English, French, Portuguese, and Spanish; Spanish-English was chosen as the initial language pair, based on the assumption that this combination requires fewer parsing strategies in order to produce manageable output (Vasconcellos 1985). Actual work on SPANAM started in 1976, and the first prototype was running in 1978, using punched card input on an IBM mainframe. After subsequent integration into a word processing network, limited production began in 1979. In 1980 the source code was delivered to PAHO, and its in-house staff assumed responsibility for continued development and operation of the system. SPANAM was then made available for use on a regular production basis. In its first major application, SPANAM reduced manpower requirements by 45%, resulting in a monetary savings of 61%. Since 1980, SPANAM has been used to translate over 2.5 million words of text, averaging about 6 500 words per day per post-editor. The post-editors have developed a “bag of tricks” for speeding the revision work, and special string functions have also been built into the word processor for handling SPANAM’s English output. Concerning the early status of SPANAM , sketchy details have implied that the grammar rules were built into the programs. The software technology was subsequently updated, the PL/I programs having been modularized later in 1980. From the reports avail-

638

able, SPANAM appears to adopt the direct translation strategy, and to settle for local analysis of phrases and some clauses via a sequence of independent processing stages. As of September 1985 the SPANAM dictionaries contained over 60 000 source entries. It is routinely used by PAHO translators in their work; indeed, the post-editing of SPANAM output is included as a duty in the translator job description. A follow-on project to develop ENGSPAN (for English-Spanish), underway since 1982 and partially funded by the U.S. Agency for International Development, has also delivered a production system — this one characterized by a more advanced design (e. g., an ATN parser), some features of which may find their way into SPANAM (Vasconcellos/ Leon 1985). As of September 1985 the ENGSPAN dictionaries had over 45 000 source and 47 000 target entries. As with SPANAM , PAHO translators routinely employ ENGSPAN in their work. The ENGSPAN experience is being reflected in major improvements to SPANAM . Based on the success of these two systems, development of ENGPORT (with Portuguese as the target language) has been initiated. 3.3. Advanced Prototypes There is one prototype application M T system in the U. S. — M ETAL, under development at the Linguistics Research Center (LRC) of the University of Texas, and funded by Siemens AG of West Germany. In 1984 the M ETAL German-English system was installed at the sponsor’s site in M unich for further testing and final development of a translator interface. Under the name LITRAS, it was introduced for sale at the Hanover Fair in April, 1985. Also in 1985, Siemens established a Dutch-French, French-Dutch application project in Belgium at the Catholic University of Louvain, sponsored in part by the Belgian government (details are provided in section 2.3.). The M ETAL dictionaries are now being expanded for maximum possible coverage of selected technical areas, and the system is already being used in M unich for in-house translation. Work on other language pairs has begun in earnest: at the LRC, translation from German into Chinese and Spanish, as well as from English into German, has already been demonstrated on an experimental basis. The German analysis module is based on

XI. Application Fields III

a context-free phrase-structure grammar, augmented by procedures with facilities for, among other things, arbitrary transformations. Analysis is completely separated from transfer, and the system is multi-lingual in that a given constituent-structure analysis can be employed for transfer and synthesis into multiple target languages. The transfer component of M ETAL includes two transformation packages, one used by transfer grammar rules and the other by transfer dictionary entries; these co-operate during transfer, which is effected during a top-down exploration of the ’most plausible’ tree produced in the analysis phase. The strategy for the top-down pass is controlled by the linguist who writes the transfer rules. These are most often paired 1—1 with the grammar rules used to perform the original analysis, so that there is no need to search through a general transfer grammar to find applicable rules (potentially allowing application of the wrong ones); however, the option of employing a more general transfer grammar is available, and is in fact used for translation at the clause level. As implied above, structural and lexical transfer are performed in the same pass, so that each may influence the operation of the other; in particular, transfer dictionary entries may specify the syntactic and/or semantic contexts in which they are valid. If no analysis is achieved for a given input, the longest phrases which together span that input are selected for independent transfer and synthesis, so that every input (a sentence, or perhaps a phrase) results in some translation. In addition to producing a translation system per se, the Texas group has developed software packages for text processing (so as to format the output translations like the original input documents), data base management (of dictionary entries and grammar rules), rule validation (to eliminate most errors in dictionary entries and grammar rules), dictionary construction (to enhance human efficiency in coding lexical entries), etc. Aside from the word-processing front-end for editing (developed by the project sponsor), then, the LRC group has developed a complete system, rather than a basic machine translation engine that leaves much drudgery for its human developers/users. Programmed is LISP, M ETAL runs on a Symbolics Lisp M achine, and translates at the rate of about one second (real time) per word, or 3 600 words/hour. See (Bennett/Slocum 1985,

50.  Machine Translation: Active Systems

111—121) for more details about, and unedited sample translations from, the M ETAL system.

4.

The Far East

Unlike the U.S., Far Eastern countries have not enjoyed the luxury of requiring potential customers to learn their languages. Especially for Japan, whose economy is founded upon the export trade, the ability to provide documentation in the customer’s language is of paramount importance. Contrary to popular belief (in the U.S., at least) about the propensity of the Japanese for learning foreign languages (English), most of them find it an arduous task, and even translation for information acquisition is therefore highly important. Translation in Japan now constitutes an annual market estimated at around one trillion (1 000 000 000 000) yen, with some of the larger industrial firms reporting individual translation budgets exceeding one billion (1 000 000 000) yen; perhaps 80% of this comprises technical texts for the export market, of which English accounts for about half (Philippi 1985, 4). This is a staggering demand, and the prospect of a trillion-yen market, which may double in 2—3 years, is dazzling. It is quite understandable, then, that no small number of Japanese companies are interested in developing, using, and marketing MT systems. 4.1. Overview One of the Far East systems located outside Japan is CULT (Loh/Kong 1979). Developed at the Chinese University of Hong Kong, this system has been used since 1975 to translate the Acta M athematica Sinica, published in Beijing, into English. Though successful in this application (the journal is sold), CULT is a highly interactive system, and so does not qualify for coverage here. The People’s Republic of China is once again interested in the topic of M T, and supports several projects for translation from foreign languages into Chinese. Details, however, are exceedingly scarce, and such information as is available comes from personal contacts. Following the hiatus caused by the Cultural Revolution, research began again in 1975, concentrating on translation from English, and to a lesser extent French, German, Japanese, and Russian. Some work on direct systems continues to this day (at least in the sense that the lexicons and grammar rules are

639

incorporated directly into the software), but the more modern systems separate linguistic rules from software, and some special-purpose programming languages have been developed for MT, as well. The total number of M T researchers (loosely defined) in the country seems not to exceed fifty. As well, the state of the art in Linguistics and Computer Science is particularly low. The former field is dominated by dialectology (there are hundreds of Chinese dialects); formal syntax, in particular, is apparently not taught anywhere. The largest computers available for M T research seem to be IBM PC’s or the equivalent. By and large, programmers know nothing of linguistics — and linguists, little about programming. There are no production M T systems, though there is hope for one in the near term (there are said to be written contracts calling for the delivery of applications in 2—3 years). The most advanced systems are to be found at the Chinese Academy of Social Sciences in Beijing. Programmed in COBOL (because “it looks like English”), JFY-4 is the latest in a series of systems designed to translate scientific and technical articles. It runs on an IBM PC-XT, apparently without human intervention, and has been applied to a few hundred sentences on an experimental basis. Linguistic analysis results in tree structures augmented by dependency, semantic, and logical information; these are skewed toward Chinese even during the analysis phase (implying direct M T), but this seems not to matter for their strictly circumscribed application: information acquisition. For extended treatment in this section, then, we will consider the advanced prototypes and production systems being developed and marketed in Japan. M ost of these projects are found in industrial firms (Fujitsu, Hitachi, Nippon Electric Company, Toshiba, OKI Electric, Nippon Telegraph and Telephone, IBM Japan, Sharp) or other businesses (Bravice, Nippon SYSTRAN), but there are notable university projects (Kyoto, Osaka) as well as an important government project (JICST). 4.2. Production Systems In June, 1984, Bravice International, a translation bureau, announced the world’s first Japanese M T system: M edium-PAK 11/73 for the VAX minicomputer. An outgrowth of the Weidner technology, M edium-PAK translates about 3 000 words/hour from Jap-

XI. Application Fields III

640

anese into English. A year later Bravice debuted the microcomputer version M icroPAK J/E, which runs on 16-bit M S-DOS machines and translates about 1 500 words/ hour. By mid-1986, Bravice had 435 installations in Japan and was planning a JapaneseKorean version. In September, 1984, Fujitsu announced ATLAS-I, a direct M T system resulting from a 7-year in-house development effort. Running on the FACOM -M series of Fujitsu mainframes, ATLAS-I, the world’s first commercial English-Japanese system, is claimed to translate at the rate of 60 000 words/hour; it is also available for the S-3000 series of Fujitsu super-minicomputers. It is programmed in PL/I. At the same time, Fujitsu announced ATLAS-II, programmed in SPL — a system for multilingual translation (initially Japanese-English), designed on entirely different principles. Whereas ATLAS-I is a direct M T system relying heavily on syntax, with some use of semantic features, ATLAS-II translates via a semantic network interlingua. However, since Japanese and English are such different languages, and the interlingua is not ’pure,’ some small amount of conceptual transfer [between, e. g., Japanese and English semantic net structures] may be performed in some cases (Uchida/ Hayashi/Kushima 1985, 322). ATLAS-II thus qualifies as a hybrid interlingual system: between analysis and synthesis lies a lowlevel transfer phase, invoked when the result of an analysis cannot be directly expressed in the target language. See (Uchida 1986, 95—100) for a more detailed description of ATLAS. Also in September 1984, Hitachi announced an application of ATHENE/E, an English-Japanese direct translation system under development for several years. Quotation Information Center, K. K. (QUICK), a market information company, and Hitachi jointly developed this system for translating economic news, stock market figures, and commodites quotes. Running on Hitachi’s M -240 H mainframe computer, ATHENE/E translates about 20 000 words/hour; on an M -280 H, the speed climbs to around 70 000 words/hour. In October of that year, Hitachi announced ATHENE/N for translating technical texts from Japanese into English, with deliveries scheduled to start in 1985. Running on Hitachi’s M -280 H mainframe, ATHENE/N (marketed as HICATS/JE) translates about 60 000 words/hour. Its lin-

guistic design seems to employ a version of conceptual dependency structures as an interlingua, with some transfer — another hybrid. In December, 1984, Nippon SYSTRAN announced the development of an EnglishJapanese system for the Fujitsu M -360 AP mainframe. A translation speed of a million words/hour was quoted for the system, to be installed for in-house use at the Technical Service translation company in Tokyo. In April, 1985, Sharp announced an English-Japanese system, running on the OA90 DX workstation. This M T system, like most others, is intended for scientific and technical materials; it employs the transfer approach (syntax tree to deep case structure), and translates about 5 000 words/hour. In September, 1985, OKI Electric announced the Rosetta Japanese-English translation system, implemented for its M otorola 68 000-based AI workstation. A translation speed of 4 000 Japanese characters/hour was quoted for the system, written in C for UNIX operating systems. Rosetta uses a deep-case oriented dependency structure as the analysis representation, which implies a transfer approach. In October, Toshiba announced its TAURAS English-Japanese system. 5 000 words/hour was quoted as the translation speed, when running on a UX-700 minicomputer. From obscure details, one can infer a direct design: the semantic analyzer, described as lexically driven but completely separate from the ATN syntactic analyzer, appears in operation to constitute a mapper from English trees straight into Japanese deep case predicates (Amano 1986, 121—123). NEC would appear to have the only bidirectional, interlingual Japanese-English system to date. Called VENUS during its research phase, the market name PIVOT was adopted in late 1985 to express the linguistic orientation of the system. A knowledge base assists in analyzing the source language input to produce a language-free representation of meaning, and in synthesizing target language output from the result (M uraki 1986, 117—119). 4.3. Advanced Prototypes In August, 1984, IBM Japan’s Science Institute announced SHALT: a prototype English-Japanese translation system for the 3081 mainframe. A translation speed of about 36 000 words/hour was quoted, but the system was then in its early development stages.

Fujitsu

MicroPAK ATLAS-I ATLAS-II

Hitachi

ATHENE /E ATHENE /N

PDP 11/73, VAX JE st IBM-PC ns etc. EJ st FACOM M,S JE st FACOM M EJ mk M-240H M-280H JE st M-280H

Sharp

EJ bs

Memory (in MB)

Operating Progr. System Language

core aux. .512 40

Basic Spec. RSX-11M FORt 60 8 2—8 2.18— VAX/ TRAN77 5.18M VMS MS-DOS C t 60 up to 630 1,8 OS IV/F4 PL/I d 50 250 up to 350K/ MSP, /X8 60 mo. OSIV/F4 SPL h 50 250 up to 550K/ MSP 60 mo. VOS3 PL/I d 70 70 not appl. VOS3 PL/I h 10

.640 20 3

10

3

30

3

30

OA-90DX 1.78 40

Toshiba OKI Electric

TAURAS EJ st Rosetta JE st

NEC

VENUS/ PIVOT SHALT

JE st 4 EJ EJ mn IBM 3081

(Mu)

JE st

IBM Science Institute JICST

Mitsubi- THALIA shi I/E Res. Inst. Cent. Res. FAI Lab. NTT LUTE KDD

KATE VALANTINE

UX-700 1000 UNITOPIA ACOS

2 8

OA/UX

Dictionary size (1000 words)

C

t 50

2@20

96 + OS/UX32 C 80 UniPlus C

d 30 t 50

2@50 20

50

i 50

var. ACOS

C

LISP

DEC 2060

LISP

t 15

JE st Symbolics EJ 3600 EJ mt Symbolics 3600 EJ bs VAX-II JE bs Symbolics 3600

LISP

t 3

LISP

d 15

JE st

Price (yen)

5 1M + HW 5 6M 4

3

500K/ mo.

LISP/VM t 100

(Symbolics 3600) COSMO902

JE st

translation speed (1000 WPH)

JE st ns

MediumPAK

Mainframes

641

MT methods

Bravice International

texts

Company System

language pairs

50.  Machine Translation: Active Systems

t 50

PROLOG t 60

LISP t 15 PROLOG t

Fig. 50.1: Overview of the operational Japanese MT systems JE: Japanese-English

approximate Translation speed:

subject to change EJ: English-Japanese Price: st: scientific-technical texts Dictionary size: approximate and subject to change ns: newspaper texts mn: IBM manuals mk: market data mt: CCITT material bs: general business

d: direct approach t: transfer method i:s interlingua method h: hybrid interlingua

XI. Application Fields III

642

Supplied details were scarce, but since the English analysis grammar is that of the EPISTLE system from IBM Yorktown Heights (Heidorn/Jensen/M iller et al. 1982), which produces syntax trees as its output, one can safely assume a transfer design. Another bonus of using the EPISTLE grammar is that certain kinds of syntax errors in the English input can be corrected automatically. SHALT is first to be used in-house for translating IBM computer manuals. Several Japanese industrial research laboratories are experimenting with systems running on Symbolics 3600 Lisp M achines. The Nippon Telegraph and Telephone (NTT) M usashino Research Laboratory has a transfer-based research system (LUTE) for translating scientific and technical literature from Japanese into English, and vice versa (Nomura/Iida 1986). The Kokusai Telegraph and Telephone (KDD) Research Laboratory also has two Symbolics 3600-based systems: KATE, a direct English-Japanese system, translates CCITT material; VALANTINE, a transfer-based Japanese-English system, translates general business materials. A distinguishing characteristic of this system is that, rather than employing unambiguous case role markers, as is so common in Japanese M T systems, it employs ’union-value structures’ that allow retention of certain semantic ambiguities that may exist in the original text (rather than forcing a disambiguation that may increase the potential for translation error). KDD has a third system, an English-Japanese implementation of VALANTINE on a VAX-11 minicomputer, that is to be re-implemented on the Symbolics 3600. M itsubishi Electric is experimenting with two Japanese-English transfer-based systems. FAI, written in LISP for a DEC-2060 in the Central Research Laboratory, is a small, interactive system used as a vehicle for basic research. THALIA, under development at the Information/Electronic Research Institute, is written in PROLOG for a COSM O902. This system has a rather large dictionary, and is near commercial introduction. In 1986, the Japan Information Center for Science and Technology (JICST) announced the application phase of the M u system, originally developed at Kyoto University (See also Art. 52; Nagao/Tsujii/Nakamura 1985, 91—110; 1986, 125—139). The first production use of M u is to be Japanese-English translation of the scientific and technical

abstracts in the JICST database; work on this phase has already begun. The second phase, to begin in 1987, will tackle English-Japanese translation of equivalent materials. While most Japanese commercial M T systems require that texts be pre-edited (see the discussion in 5.3.), the more advanced M u system eliminates any pre-editing requirement. The goal of the application project is, in addition to boosting the output quality, to increase the M u system’s speed by a factor of ten, to around 50 000 words/hour.

5.

The State of the Art

M achine Translation has long since reached the point of commercial viability: the 15—20 year longevity of some commercial vendors attests to this, as much as anything can. The feverish level of recent activity in Japan, as well as the expanding markets in the rest of the world, indicates that M T is in a growth phase. In this final section we critique the state of the art in terms of the current lines of research, areas receiving too little attention, some of the [still] controversial questions that plague the field, and some problems whose solutions, if available, would result in dramatic improvements. 5.1. Lines of Research A high level of interest has always existed for interlingual representations of meaning similar to or identical with those used in AI, and research continues along this front. There are two aspects of interlingua: structural, and lexical. So far, objectively discernable progress has been meager, and research has been plagued by some lack of awareness of the full import of the distinction above. Poor research on interlinguas, of which there is unfortunately too much (frequently conducted by monolingual language speakers, speakers of only closely related languages, or at best linguistically naive computer scientists) indicates nothing, of course. Also unfortunate are proposals to employ a natural language as an interlingua; competent translators must derive considerable amusement from such suggestions. The best research indicates clearly that far more work will be required before this question yields an answer. Another line of active research in M T concerns grammatical theories, and corresponding representations of grammatical knowledge (See Bátori/Weber 1986). Variations on

50.  Machine Translation: Active Systems

phrase-structure grammar, though criticized as weak, have been popular in the past due to their computational tractability and relative ease of maintenance; but while useful for analysis and synthesis, there is nothing in the theory that speaks to the problem of transformation — as is required for transfer, or conversion into a semantic representation (e. g., interlingua). Tree-to-tree transducers have been equally popular due to their greater power and straightforward transformation application, but have tended to suffer computationally as well as from maintenance problems. (Since anything is possible, it is hard to know where to start fixing a problem, or extending coverage.) Recently, interest has grown in variants of Functional Unification Grammar — especially within the EUROTRA project. Active investigation of this formalism is increasing, but it is not clear how the formalism could be used for, e. g., transfer. 5.2. Research Gaps Typically embodied in Functional Unification Grammar theory, as well as certain other theories of language, is the notion of Lexicon Grammar: rules of grammatical behavior are to be attached to lexical entries. This is all fine and well, provided one is willing to conduct the large-scale effort necessary to identify those behaviors. Unfortunately, far too few have shown such an interest, and this represents a major gap. Such work is detailed, perhaps to the point of monotony, but it must take place before one can responsibly claim a breakthrough in grammatical formalisms, or know whether a workable approach has been found. There have been too few (almost no) systematic contrastive studies of language; rather, it is too often the case that language differences are resolved in some ad hoc manner as they are encountered during the course of an M T application. The early EUROTRA work is a start in this direction, but very little of it has been published, and in any case this represents but a drop in the bucket for the nine EEC languages, to say nothing of the language families that are entirely neglected. This is another area where a large-scale, detailed effort is the only answer. Terminology represents another research gap in the sense that too few M T groups are concerned with it. Precious few M T projects have even considered employing existing term banks, much less investigated the extent

643

to which they might be useful. A frequently automatic assumption is that there is little if anything of value to be gained from the effort because of the naiveté of the linguistic knowledge contained. However, blindly acting on this assumption allows one to lose other perspectives — namely, that good term banks are not assembled casually: considerable attention is paid to several principles of their organization (hierarchical subject area coding, vendor/product-specific terminology, etc.), and M T workers would benefit from attending to them. 5.3. Controversial Questions One of the most obvious of the controversial questions surrounding M T is the matter of pre- and post-editing requirements. In the U.S., where ignorance of good translation practice is the rule, the very notion of postediting a translation is anathema. Human translators are imagined to work without benefit of editing, and thus M T systems are imagined to be acceptable only in an environment devoid of editing. Even if it were not the case that human translations are typically edited, this argument would not hold. What really matters, of course, is whether M T, including any post-editing, is cost-effective or justifiable on other grounds, like speed. Undeniably it is, which accounts for the substantial and growing interest in the technology. M T research efforts are concentrated on improving the speeds of M T systems, while at the same time reducing the amount of postediting required, in the interest of further improving the cost-benefit ratio. A related argument concerns pre-editing. Some form of pre-editing texts to be translated by machine is typical, even if confined to marking sentence boundaries or simply excising materials not to be translated (formulas, etc.). In the case of the Japanese commercial systems, such editing is far more involved, consisting of at least manually resolving lexical and structural ambiguities, if not indeed rewriting the text. No one in M T would like to claim that rewriting a text is desirable, but — again — the relevant question concerns the cost-benefit ratio. On less obviously practical grounds, the notion of an interlingua is controversial. First of all, there is the question of whether one can exist. Certainly none have been identified. Some Japanese systems are claimed to employ an interlingua, and were so credited in section 4 above. But when one reads their

XI. Application Fields III

644

descriptions including, most revealingly, the example-based arguments, it is clear that the Japanese “interlinguas” are, so far, ad hoc rather than theoretical solutions. In some cases this is admitted; in others, the writers presumably are not aware of the real issues. The second question related to the use of an interlingua concerns its desirability compared to the alternative (the transfer approach, since history has dealt with questions regarding the direct approach). The lessons of CETA should not be ignored: if a interlingual representation is actually achieved, one loses (by definition) all source language clues about how to stylistically render the translation — critical information, as any human translator will attest. Finally, there is the matter of practicality: do any benefits of the interlingua approach actually pay for the cost incurred? This question cannot definitively be answered until a true interlingua-based system is available; meanwhile, there is no compelling reason to assume the affirmative. A related question concerns the necessity for AI-ish techniques (e. g., world models). Whatever the arguments — and there are very good ones — for “full understanding” being prerequisite to “high quality” translation, it remains the case that translators to a considerable extent work by lexical substitution and syntactic rearrangement. That is, translation is not by any means a simple matter of understanding the source text, then reproducing it in the larget language — even though many translators (and virtually every layman) believe this is so. On the one hand, there is the serious question of whether, in for example the case of an article on front-line research in semiconductor switching theory, or particle physics, a translator really does fully comprehend the content of the article he is translating. One would suspect not. [Johnson, R. L. (1983 a, 37) makes a point of claiming that he has produced translations, judged good by informed peers, in technical areas where his expertise is deficient, and his understanding, incomplete.] On the other hand, it is also true that translation schools expend considerable effort teaching techniques for low-level lexical and syntactic manipulation — a curious fact to contrast with the usual AI “full comprehension” claim. In any event, every qualified translator will agree that there is much more to translation than simple analysis + synthesis (an almost prime facie proof of the necessity for Transfer). World models are not the solution

to all translation problems, as some AI proponents would have one believe; the question is whether, and to what extent, they constitute a necessary part of the solution. Finally, one must consider that even semiobjective M T evaluation and system comparison methods are at best suspect, and at worst nonexistent. Evaluation of translation is, to be sure, inherently subjective. But there has been virtually no effort on the part of M T workers, commercial or academic, to standardize evaluation techniques, and meaningful comparisons have not been performed. Vendors naturally advance performance figures, including translation accuracy, showing their systems to be the best (at least in some context), but such self-serving claims are not credible. The matter of what might constitute reasonable evaluation criteria, in the context of necessarily subjective judgements about translation quality, is thus very much open to question. 5.4. Unsolved Problems One of the major unsolved problems in M T (indeed, in AI applications more generally) concerns system construction efficiency. Highly trained experts spend much of their time trying to build these large, complex systems, while their efforts almost certainly could be simplified considerably by the existence and use of good system-building tools. Good general software development tools are just beginning to appear, as it is recognized that human costs — no longer machine costs — are the major contributing factor to system development expense. Certainly such tools would benefit M T system developers; but equivalent tools for linguists, who are charged with developing large, complex systems of linguistic rules, do not yet exist. A related problem concerns scale-up bottlenecks. Aside from the system maintenance aspects, discussed above, there are performance aspects. Small systems may appear to function perfectly adequately, in their limited environments; but unless there is some means of predicting behavior in a scaled-up implementation, trying to develop a fast production version is like shooting in the dark. M T workers could make good use of techniques for predicting future system performance, but none have yet been identified for systems of linguistic rules. For those involved in applications of current technology, there are linguistic problems related to case roles and semantic markers;

51.  Machine Translation: East-European Countries

specifically, which set to use. There is no standard repertoire. Ultimately the identification of such details becomes a research question, but there is a significant problem relating to the identification of a more-or-less standard collection for interim use, and each project mounts its own effort to select a set. Finally, there is the problem of world knowledge representation/use. Not only are there no standard representation schemes, but there is no consensus concerning their practical application. Ultimately this boils down to identifying the right questions to ask, before knowing how to search for the answers, so the solution is not soon forthcoming. However, if decent world knowledge representation/use schemes were in hand, there would remain the problem confronting M T developers now: how to integrate such schemes into an M T system, where linguistic knowledge is as important as so-called world

51. 1. 2. 3. 4. 5.

1.

645

knowledge, and is of a very different kind.

6.

Literature (selected)

S. Amano 1986 · I. S. Bátori/H. J. Weber 1986 · W. S. Bennett/J. Slocum 1985 · A. Biewer/C Feneyrol/J. Ritzke et al. 1985 · D. A. Bostad 1982 · J. G. Carbonell/M . Tomita 1985 · R. E. Cullingford/ B. A. Onyshekevych 1985 · G. E. Heidorn/K. Jensen/L. A. M iller et al. 1982 · X. Huang 1985 · W. J. Hutchins 1986 · R. L. Johnson 1983 · K. M uraki 1986 · M . Nagao/J. Tsujii/J. Nakamura 1985 · M . Nagao/J. Tsujii/J. Nakamura 1986 · S. Nirenburg/V. Raskin/A. B. Tucker 1985 · D. L. Philippi 1985 · I. M . Pigott 1979 · J. R. Ruffino 1982 · S. P. Sereda 1982 · B. Thouin 1982 · H. Uchida 1986 · H. Uchida/T. Hayashi/H. Kushima 1985 · M . Vasconcellos 1985 · Y. Wilks 1978 · A. P. M . Witkam 1983.

Jonathan Slocum, Austin, Texas (USA)

Machine Translation: Active Systems. East-European Countries The Present State of Machine Translation Active Production Systems of Machine Translation Current Research An Overview of Machine Translation Systems Literature (selected)

The Present State of Machine Translation in East-Europe

M achine translation research in East-Europe has produced considerable development over the last ten years. While in the handbook on machine translation by Bruderer (1978) there are only a few remarks on systems under development in the Soviet Union and Czechoslovakia, a number of systems are now in existence; they are either actually used production systems in the above countries, or represent projects under way in the Soviet Union, Czechoslovakia and Hungary, aimed at experimenting in the field of machine translation with the objective of designing a working system for regular use. The largest institution in East-Europe using machine translation in everyday practice is the Center for the Translating of Scientific and Technical Literature and Documentation of the Soviet Union in M oscow (VCP — Vsesojuznyj centr perevodov naučno-tehni-

českoj literatury i dokumentacii). (For the general development of M T in the USSR see 3.2.2.) It has been calculated that 25% out of a total of more than 1 million pages of text per year will be translated by machine translation in the USSR in the near future (M arčuk 1985, 182 ff.). M oreover, this 25% is restricted to translations froms West-European languages which comprise only 70% of all the translations carried out at VCP. It means that more than every third page written in a West-European language will be translated into Russian by computational systems. In addition, 40% of the remaining 75% of text is supposed to be translated with the help of automatic dictionaries. Thus, it is not surprising that three of the four active production systems of machine translation in East-Europe are to be found at VCP in Moscow. The fourth system is employed at Charles University in Prague, Czechoslovakia, where research into machine translation began as early as in the late 1950’s (Hajičová 1986). Apart from these two centers of machine translation, there are some others in the Soviet Union, Czechoslovakia and Hungary to be mentioned in section 3., but, as yet, they have not produced commercially available systems. Nevertheless, they do provide an insight into the diversity of orientations in the field of machine translation in East-Europe.

XI. Application Fields III

646

— The resolution of homography. This is

2.

Active Production Systems of Machine Translation

2.1. AMPAR and NERPA Among the three active systems of machine translation presently used at VCP in M oscow, AM PAR is the one applied for translation from English into Russian. It was adopted as the first Soviet machine translation system in 1979, and it has been used as an experimental production device since 1980. AMPAR (sistema Avtomatizirovannogo Mašinnogo Perevoda s Anglijskogo jazyka na Russkij — ’a system for automatic machine translation from English into Russian’) is organized in such a way that the translating process is divided into 11 steps (see Fig. 51.1). These steps involve the following operations (cf. Marčuk 1983, 92 ff.): — The preliminary processing of input text. This procedure involves search for wordforms of the input text in the dictionary of stems, together with morphological analysis (if the input word-form does not match the lexicon entry, the endings are cut off), and also the replacement of alpha-numeric codes of words by their numeric equivalents, as well as the selection of new words (which are provided with special numeric equivalents and morphological information is attached to them). As a result, the input text is converted into a series of pieces of information (called ’cells’ of information). Each word is equipped with one such cell. — The analysis of punctuation and new words. At this stage disjunctive features are assigned to the interpunctuation signs with only one syntactic function, i. e. a semicolon, a comma preceding a conjunction etc. By way of context analysis and on the basis of morphological data, a lexical-grammatical class for each new word is established. — The dictionary of set expressions. This step is used for selecting idiomatic word-combinations, each of which is provided with a numeric equivalent and is assigned a specific syntactic function. — The analysis of verb-forms ending in -ing. This process is confined to certain forms ending in -ing whose syntactic function can be determined relatively easily. These cases imply singling out nouns, or gerunds, on the basis of contextual criteria. The forms that are not analysable in this way are referred to the predicate scheme.

Fig. 51.1: The architecture of English-Russian MT in AMPAR (Marčuk 1983, 93)

done on the basis of word order and morphology. — The grammatical analysis preceding translation. At this stage, the words of a sentence are analysed in order to find their syntactic functions. Some grammatical categories of the English text are defined with a view to Russian synthesis at this level. E. g. the English verbs will be analysed also in view of aspect selection which is inescapable in Rus-

51.  Machine Translation: East-European Countries

sian. When these rules are inapplicable, the perfective aspect is chosen on the basis of the higher statistical probability. — The translation of monosemantic words. Those words which are marked to have only one translational equivalent in the given corpus of texts are translated according to the Table of Equivalents. One table contains a set of rules for translating nouns with an attribute feature whose equivalents are chosen from the corresponding table of adjectives with the same root, or some other solution is sought. — The translation of polysemantic words. This is done by a special algorithm for each polysemantic word. — The control translation of polysemantic words. This step is necessary in case the previous stage fails to give an unambiguous solution. In this case, a table of equivalents similar to that for monosemantic words is used with a selection of the most commonly found words and their equivalents. — The grammatical analysis following translation. During the analysis, grammatical categories for the synthesis of the Russian text are established relying on the translational numbers and on the permanent and variable information contained in the informational cell. It is at this stage that case, number, and gender are determined, verbal and adjectival forms are matched with nominal ones, and the antecedents of pronouns and pronominals are defined. This step results in the final filling of the informational cells of words. — The synthesis of Russian word-forms. Here the particular word-forms are generated according to the data obtained from the filled information cells. All paradigms are generated according to a set of rules applied in a series of operations (for details see M arčuk 1983, 97 f.) NERPA is a system principally similar to AM PAR both in approach and construction: It is designed for translation from German into Russian. The similarities and differences beween AM PAR and NERPA, and the peculiarities of German analysis in the latter can be seen in Fig. 51.2. The basic features setting NERPA aside from AMPAR are as follows: — At the first stage the German text is analysed for both information about capital letters and word stems in compounds. — Lexical-grammatical homonymy is resolved by analysis of endings. — The lexical-grammatical category of new words is defined on the basis of the presence,

647

Fig. 51.2: The architecture of German-Russian MT in NERPA (Marcuk 1983, 93)

or absence, of a capital letter and elements constituting the endings. — The translation of the stems of compounds is a separate step which involves transforming the given compound as adjective + noun, noun + noun in the genitive case with inversion of the compounds, and the like. — The transposition of verbs, predicates, adjectives, negatives and some other minor categories influencing word order is carried out in a strictly defined sequence.

XI. Application Fields III

648

The last stage of algorithm is common to both M A PAR and NERPA. The architecture of machine translation in AM PAR and NERPA has two specific properties. On the one hand, there is the distinction between thematic and dynamic components in the model. On the other hand, a ’contextological’ dictionary is used. The thematic component is that part of the model which shows what is to be translated. It consists of three subcomponents: wordstock, grammar, and semantics. Its translational units embody the three types of translational correlations: correlations of equivalence, variation, and transformation. The dynamic component is responsible for an answer to how the translation is to be carried out. It contains algorithmic and programming elements. The algorithmic part contains, apart from different kinds of algorithms, a translational grammar, which carries out the binary matching indispensable for the establishing of correlations between representations on different levels (Marčuk 1983, 58). The ’contextological’ dictionary incorporates algorithms for the disambiguation of polysemantic nouns, verbs, adjectives, and adverbs. It is claimed that the contextological dictionaries in AM PAR and NERPA are capable to disambiguate with as much as 95%

Fig. 51.3: Scheme of general design of MT with translational equivalents (Marcuk 1982, 106)

efficiency on the basis of the contextual features alone. This transfer-oriented organization of machine translation systems includes also much common sense language knowledge. 2.2. FRAP Although used also at VCP, the French-Russian machine translation system differs from AM PAR and NERPA both in its architecture and philosophy (see Leont’eva/Nikogosov 1982). FRAP was conceived as the first phase in a general information processing framework. The principal idea was to construct a machine translation system capable of capturing the overall sense of the input text with a view to an acceptable translation. The machine translation system thus constructed should, by virtue of the most detailed information acquired from the input text, be able to provide a basis for further logical-semantic analysis which, in the end, would be apt to retrieve and systematize the information needed. In the sense of the Al-orientation, translation is supposed to pass through the level of understanding. No doubt, the idea derives from the principle concerning the multiplicity of possible interpretations, with regard to the core meaning, or message, of a fragment of text. It follows from the above observation that an ’interpretation-driven’ translation can be achieved through information transformation which should be oriented at the goal of retaining only the basic content in the translation. FRAP represents an informational-logical system. Its main element is the semantic component which defines the structure and the boundaries of all the other components. The semantic component is based on a semantic language called ECHO. The present version of FRAP is not, as yet, capable of capturing the whole content of a text. ’Understanding’ is at present confined to the level of separate structures. This drawback is counterbalanced by a series of pragmatic solutions. FRAP contains four components: graphematic, morphological, syntactic, and semantic. Each of the components is equipped with a special set of grammars transforming the different elements of one level into elements of another one. The grammars work in a predefined order. The levels are interrelated so that information from one level can be used at another. The present version of FRAP is not sup-

Fig. 51.4: The architecture of French-to-Russian MT in FRAP (Leont ’eva/Nikogosov 1982, 144—145)

649

XI. Application Fields III

650

plied with a universal grammar but is rather oriented towards French and Russian. Nevertheless, the system cannot be thought of as binary inasmuch as French analysis and Russian synthesis are carried out independently of each other. Translation is performed by using an informational interlingua. Thus, both parts of the system (i. e. analysis and synthesis) can be combined with any other analysis, or synthesis, provided that the input and output representations conform the format specification of the informational interlingua. In this way, the performance of analysis and synthesis is available not only to translations but also to information processing in a broader framework. The architecture of FRAP is presented in Fig. 51.4. 2.3. APAC Since 1976, the time as machine translation research at Charles University in Prague, Czechoslovakia was resumed, there has been considerable development in the project of English-Czech automatic translation (APAC). (For the general development of M T in Czechoslovakia see 3.3.2.1.). The first experiment was carried out in close cooperation with the M ontreal University team in 1978. APAC then had a relatively small grammar designed by R. Kittredge, and the whole system resembled TAUM . (See art. 50, 3.2.). Later Z. Kirschner (1982; 1984) extended the grammar and, by 1982, the system, then referred to as APAC-2, had a number of features making it different from the first version. APAC-2 also uses Colmerauer’s Q-systems, but it differs from APAC-1 in the following respects (Hajičová 1986): — It has a full morphological analysis taken over mainly from TAUM 1973. — A kind of ’translational’ dictionary is added which translates international words in a ’czechized’ fashion; i. e. it supplies those words which are not included in the main dictionary with Czech suffixes and orthography. — Particular attention is paid to the syntactic analysis of nominal compounds with a view to conversion. — M ore rules analyzing different types of conjunction are added. — Wherever possible, Czech equivalents replace the English lexical values already at the initial stages of analysis; sets of indices required for the synthesis of Czech are supplied

already in the course of dictionary operations. — Preference is given to more general solutions; it is done with a view to retaining the ambiguity of the English sentence, leaving the task of finding the right interpretation to the reader rather than giving a false disambiguation. — Whenever a noun fails to become integrated in a given verbal complex if, for instance, it is not identified by any of the dictionary operations, a special Q-system, a kind of ’emergency’ grammar comes into force. The most prominent features of the current version of APAC-2 are the Q-systems, the dependency-based analysis, the ’quasi-direct’ approach of translation, the emergency measures, and the preferential and ambiguity-preserving parsing strategy.

3.

Current Research

Beyond the ever-growing need for faster, cheaper and more efficient translation services, M T presents a challenge also for the linguistic research to construct automatic dictionaries and testing them for the most appropriate combination of grammatical, mathematical and programming strategies. The following active research projects (with or without ambition of creating a M T production system in the near future) are known (see art. 3, 2.2.1.): 3.1.  The French-Russian M T system for mathematical texts (FR-P) is the oldest and the best known M T projects (documented since the fifties) in the USSR. It was designed at the Institute of Applied M athematics of the Academy of Sciences in M oscow under the guidance of O. S. Kulagina, who enjoys as one of the Soviet pioneers of M T research a world-wide reputation. After the publication of Kulagina (1982) no further details about the work on the projects are available. Originally FRAP (see 2.2.) intended to use the morphology of FR-P as a starting point, but apparently the cooperation has not been realised, as reported by Leont’eva/Nikogosov (1982, 166), owing to differences in the basic translation philosophy. 3.2.  ÉTAP. Another system for translation from French into Russian, constructed at ’Informelektro’ in M oscow. The first version was worked out between 1977 and 1980.

51.  Machine Translation: East-European Countries

651

ÉTAP-2 has been outlined in Apresjan/Cinman (1982) as a third generation machine translation system (the same as FRAP, which is also classified as a third generation system, whereas FR-P is considered as a second generation system). A thorough description of the dictionary of ÉTAP-2 is given in Apresjan (1982) and in Apresjan/Boguslavskij/Iomdin et al. (1982). 3.3.  ARAP. An English-Russian machine translation project led by Z. M . Shaljapina at the M achine Translation Laboratory of M oscow College of Foreign Languages (Šaljapina 1982). ARAP is a top-down machine translation system designed to make use of the overall sense of a sentence, or a text, and conceived to perform operations at the bottom level only when content transfer fails to provide the appropriate result at some higher level. 3.4.  The Czech-Russian machine translation project was started in 1985 in Prague as a result of close cooperation between Charles University and the Research Institute for Computer in Prague. The system is to be put to experimental use from 1990 (see Hajičová 1986). The program for Czech analysis was written in winter 1985/1986, the approach is Country

Place

USSR USSR USSR Czechoslovakia

VCP, Moscow VCP, Moscow VCP, Moscow Charles University, Prague Institute of Appl. FR-P Mathematics, Moscow Informelektro, ÉTAP Moscow MGPIIJA, ARAP Moscow

USSR USSR USSR

System name AMPAR NERPA FRAP APAC

’direct’, and the researchers intend to make use of the proximity of Czech and Russian, with a view to practical application. 3.5.  After the pioneering work on Hungarian-Russian M T in the fifties and sixties by M el’čuk (1958) and the general stagnation in the seventies, Russian-Hungarian M T has been resumed at the Research Institute for Computer Automation in Budapest in 1986. It is oriented towards dialog analysis and dialog interpretation and intends to use the results in the field of AI research. 3.6.  SZEHAT. An English-Hungarian machine translation project launched at the JATE University of Szeged, Hungary, in the fall of 1985. It is planned to make active use of knowledge representation and artificial intelligence. The final aim is a maschine translation system for translating scientific and technical papers which could be further elaborated for application in other fields as well.

4.

An Overview of the Current MT Systems in East Europe

M T is gaining importance also in East Europe due to its speed and capacity. Considering the progress of the last 10 years in the

Source/target languages English/Russian German/Russian French/Russian English/Czech

Subject matter of the texts computer science computer science technical texts integrated circuits

Design

French/Russian

mathematics

direct

French/Russian

electronics

3rd. generation

English/Russian

Czechoslovakia Charles Czech/Russian University, RI for Computers Hungary SZTAKI, Russian/ Hungarian Budapest Hungary JATE University, SZEHAT English/ Szeged Hungarian Fig. 51.5: Machine translation systems in East Europe

software technical texts scientific and technical texts

direct direct interlingua Q-systems, quasi-direct

transfer on higher levels of content direct, see also APAC content interpretation transfer by modular senserepresentation

XI. Application Fields III

652

field in general, and the decreasing cost in particular, M T appears to be a promising tool for fast information acquisition. Fig. 51.5 presents the M T systems discussed above in a concise form.

5.

Ju. D. Apresjan 1982 · Ju. D. Apresjan/L. L. Cinman 1982 · Ju. D. Apresjan/I. M . Boguslavskij/ L. L. Iomdin et al. 1982 · H. Bruderer 1978 · E. Hajičová 1986 · O. S. Kulagina 1982 · N. N. Leont’eva/S. L. Nikogosov 1982, 1983, 1985 · I. A. Mel’čuk 1958 · Z. M. Šaljapina 1982.

Károly Fábricz, Szeged (Hungary)

Literature (selected)

52. Machine Translation: Research and Trends 1. 2.

8. 9. 10.

Introduction Translation Between Japanese and Indo-Europeans Languages Basic Approaches Translation and Understanding Words and Concepts Implicit Information Layers of Understanding Knowledge and Translation Problems in the Future Conclusions Literature (selected)

1.

Introduction

3. 4. 5. 6. 7. —

We were engaged in the Japanese government machine translation project, the M U project (Nagao/Nishida/Tsujii 1984; Nagao 1985; Nagao/Tsujii 1986; Tsujii/Nakamura/Nagao 1984; Tsujii 1985; Nakamura/ Tsujii/Nagao 1984, 1986; Sakamoto/Satoh/ Ishikawa 1984), which was founded by a grant from the agency of Science and Technology through the Special Coordination Funds for the Promotion of Science and Technology, and was started in fiscal 1982. The purpose of the project was to demonstrate the feasibility of machine translation of abstracts of scientific and technological papers between English and Japanese, and as a result, to establish a fast information exchange system for these papers. The project term was from fiscal 1982 to 1985, and the project was completed by the end of M arch, 1986. The evaluation of the project will be performed by a neutral committee in 1986. On the other hand, another four year project has been already started at April, 1986, whose aim is to develop a practical M T system based on the results of the M U-project. A practical system means a system which will

be used for daily translation jobs in JICST (Japan Information Center for Science and Technology). Though we are rather satisfied with translation results of the M U systems, they have several defects as practical systems, such a rather low processing speed, poor intraction facilities, etc., which will be improved by the new project. Besides of these defects as practical systems, we have also noticed that the M U systems as they are cannot be extented to a future high quality translation system. It is obvious that the problems concerned with ’understanding texts’, which we could not take seriously in the M U project, cannot be avoided for future development of high quality translation systems. In this paper, we will discuss several problems concerned with ’understanding and translation’, especially how we can integrate the aspects of ’understanding texts’ with translation processes in M U-type systems, and the difficulties we might encounter in attempting such an integration.

2.

Translation Between Japanese and Indo-European Languages

The M T research and development activities in Japan including the M U project are distinguished from others in that they all aim to treat language pairs of quite different language families, i. e. Japanese and one of the Indo-European languages, typically English; most of the activities in other parts of the world, with few exceptions (Tong 1986; Loh 1975; Feng 1982), have focused on translation among Indo-European languages. Because Japanese is quite different from IndoEuropean languages in various aspects such as its lexical items, syntactic and semantic structures, etc., the translation process has to be much more sophisticated.

52.  Machine Translation: Research Trends

The experience of PAHO-SPANAM (Vasconcellos 1985) shows, for example, in the translation from Spanish to English, that translation results sufficient for native speakers of English to correct translation errors can be obtained even without having a separate phase (the analysis phase) of obtaining explicit representations of the syntactic structures of source sentences. In contrast to this, because Japanese and English have quite different phrase orderings, results of this standard cannot be obtained in Japanese-English translation unless the entire syntactic structure of the source sentences is captured. Furthermore, in Japanese-English translation, different syntactic interpretations of source sentences almost always lead to different translations so that we cannot expect syntactic ambiguities to be preserved in both languages. That is, although the M ETAL group (Bennett/Slocum 1985) reports that “We employ only the highest-scoring reading (i. e. syntactic interpretation) for translation ... Surprisingly often, a number of the higherscoring interpretations will be translated identical”, we can rarely expect this to happen in translation between Japanese and English. M oreover, certain syntactic concepts which are supposed to be common to all Indo-European languages are quite problematic in Japanese. For example, (1) We do not have in Japanese explicit marking of definite and indefinite distinctions among noun phrases by determiners, (2) Whether the concept of syntactic subject exists in Japanese or not is undetermined among Japanese linguists, (3) Although relative clause constructions in English and embedded clause constructions in Japanese roughly correspond to each other, the two constructions have quite different characteristics. Japanese embedded clauses should be translated into many other syntactic constructiions such as preposition + -ing forms of phrases which modify nouns, appositional phrases introduced by that, etc., depending on the semantic relationships between the modifying clauses (embedded clauses) and the modified nouns (Nagao/Nishida/Tsujii 1984; Nagao/Tsujii 1986). These facts indicate that capturing the syntactic structures of entire source sentences is necessary, although not sufficient, for the translation between English and Japanese. M oreover, we need a certain amount of change in the syntactic structures of source sentences in order to generate natural trans-

653

lations. It is obvious that translation between all language pairs requires more or less structural change, but to what extent such structural change is necessary and to what extent such structural change requires semantic or extralinguistic knowledge (and so, cannot be systematically formulated upon syntactic structures alone) is highly dependent of individual language pairs. Pairs such as Japanese and one of the Indo-European languages offer one of the extremes: we often have to refer to deeper structures than syntactic ones, such as the so-called semantic or conceptual structures of sentences, in order to obtain natural translations. That ’deeper’ understanding is relevant to high quality translations is intuitively obvious. However, the discrepancy between Japanese and Indo-European languages is so large that even a certain deeper levels the discrepacy still remains: (1) The correspondence of words in the two languages, English and Japanese, is not so straightforward. This implies that a set of semantic or conceptual units, from which deeper level representations of source sentences might be constructed, is difficult to define (see 4. below). (2) A single event in the real world is often captured differently in the two languages. For example, an event which is expressed in English by a sentence with a transitive verb is often expressed in Japanese by a sentence with an intransitive verb accompanied by a deep cause case element. Even deep semantic case relationships seem then to be dependent on individual languages. Although more or less the same phenomenon has been observed even in translation among Indo-European languages (for example, King 1986), the difference between Japanese and the Indo-European languages in terms of their deep case structures remains particularly large. These considerations have led the M T researchers in Japan to basic problems as to what kinds of ’understanding’ are relevant to translation, whether results of ’understanding’ sentences (texts) can be represented independently from individual languages, and finally, what ’understanding’ sentences can really mean. These issues should be made clear not only for translations of language pairs belonging to quite different language families but also for developing future high quality M T systems for any language pair. The Japanese M inistry of Post and Telecommunication, for example, recently an-

XI. Application Fields III

654

nounced a new, 15 year project for the simultaneous translation of telephone communication, in which ordinary dialogues will be translated. We cannot expect in such a system the heavy interventions of professional translators that most current M T systems presume. Raw translation results should be natural enough for people without any knowledge of the source languages.

3.

Basic Approaches

One of the recurring controversies among M T researchers has been between the adoption of the transfer approach and the adoption of the interlingual approach, and this seems extremely relevant to various issues of the possible relationships between ’understanding’ and ’translation’ in future M T systems. The transfer approach, originally proposed by GETA (Vauquois 1979) and adopted by many research and development groups including the M U project, EUROTRA (King 1981; Johnson/King/Tombe 1985), TAUM (Kittredge/Bourbeau/Isabelle 1976; Isabelle/Bourbeau 1985), M ETAL (Bennett/Slocum 1985), PAHO-ENGSPA (Vasconcellos/Leon 1985), ASCOF (Biewer/ Feneyrol/Ritzke et al. 1985) etc., is an approach in which translation is carried out essentially in three phases: analysis, transfer and generation. The second phase, transfer, is a contrastive phase where lexical items, stereotyped expressions, and the syntactic and semantic structures of two languages are compared so that both lexical items and certain levels of the linguistic structures of the source languages may be transferred to their ’equivalents’ in the target languages. The interlingual or pivot approach, which has been repeatedly advocated by researchers originally interested in natural language understanding (NLU) who take machine translation as one possible application (M uraki 1982, 1986; Lytinen/Schank 1982), instead performs translation through two phases, understanding and paraphrasing. The results of the first phase in this approach are supposed to be represented in the form of expressions of interlingua, from which the second phase may generate the target sentences. The expressions of interlingua are language universal in the sense that the second phase can generate target sentences from them without considering what the source language is. It is claimed that this approach is

Fig. 52.1: A naive schematic view of translation which is often used but quite misleading

superior to the transfer approach because of the following advantages: (1) M ulti-Lingual Translation: Because this approach does not have any phases dependent on language pairs, only two kinds of modules for transforming sentences of individual languages to expressions of interlingua and vice versa are necessary for multilingual translations. (2) High Quality Translation: Because this approach first understands source sentences and then paraphrases it in the target languages, the translation results are natural and easy to understand. Fig. 52.1 is a schematic view often used for explaining the relationship between the transfer approach and the interlingual approach (Vauquois 1979; Tucker/Nirenburg 1985). This figure shows that there is an abstraction hierarchy of descriptions such as surface word sequences, surface syntactic structures, deep syntactic structures, semantic structures, conceptual structures, etc. where, at the deeper levels, the descriptions of sentences of different individual languages become closer and finally, at the deepest level (the level of understanding), they converge. This figure is, however, misleading in that it suggests an interpretation where each level of the hierarchy may replace the shallower levels of description. This is to interpret the figure as showing that each level in the hierarchy can express in its own descriptive framework all aspects of the information conveyed by source sentences: once a description at the deeper level is achieved, it can replace the shallower, more surfaceoriented levels of description. This implies that the transfer approach is more a tentative solution only adopted until we develop technologies for ’understanding’ texts and the

52.  Machine Translation: Research Trends

frameworks for expressing the result of understanding, that is, interlingua. The early experiences of CETA, however, show that this naive view does not work well. The surface syntactic structures of sentences, for example, cannot be replaced fully by their deep case structures, because surface structures convey extra-information concerned with, for example, the focus of the discourse, the distinction of old/new information in the context, emphasized elements or phrases, etc., and such extra information is also relevant to the determination of the target sentence structures. Generally speaking, for translation, we have to extract from texts, not only what is described (the extra-linguistic aspects of texts) but also how it is described and how the texts are organized (the linguistic aspects of texts). The early, naive interlingual approach tended to put emphasis on just what is described. The same tendency may also be observed in some parts of linguistics and recent knowledge-based approaches to M T. Fillmore’s initial notion of cases (Fillmore 1968), for example, was proposed for retaining identities of events in the real world which are expressed differently in surface sentences, so that the sentences: John opened the door with the key. The key opened the door. The door opened. are all reduced to the same deep structures. However, even if they describe the small real world events, they describe those events from different view points. At least, the sentences may play different roles in discourse, and so, when they are put in a certain context, some of them may violate discourse coherency and be less natural than others. One could claim, as researchers of knowledge based approaches often do, that, because discourse roles of sentences should be determined during the generation (paraphrasing) phase by ’intelligent’ text generators, the analysis (understanding) phase does not need to extract keys relevant to discourse from source texts. It is probably true that some discourse factors and so some parts of surface linguistic structure should be determined during the generation phase of target texts. However, because the same sequences of events in the real world can usually be described by a number of different texts, each having its own coherent discourse structure, M T systems should be able to select one of them dynamically based on the text

655

structures of the source language. Certain factors concerned with the text organization of the source languages should be extracted during the analysis phase to facilitate such selection. Otherwise, however intelligent the text generators might be, they may always generate the same texts as translations of differently organized source texts whenever ’essentially’ the same sequences of events are described, albeit from different view points and attitudes. Although there are certain types of texts, such as ’factual’ newsreporting articles of newspapers e. g. on terrorism (Ishizaki/Isahara 1986; Lytinen/Schank 1982) in which only what events occured in the real world and in what order are important, there are, of course, far more varied types of texts to be translated. (Tucker 1984) also notes this points as follows. “In spite of its initial appeal, the knowledge-based approach ... raises some weighty questions, for example, ... To what degree are the scripts of knowledge-based machine translation well suited to ’non-story’ texts such as conference proceedings, scientific articles, and budget documents?” There is, however, another possible interpretation for Fig. 52.1. Here the hierarchy is taken as a hierarchy of the depth of processing during the analysis phase, according to what kinds of information are being explicitly extracted from source sentences at each level (Boitet/Gerber 1984). In this view, an analysis program which performs processing to a certain level gives as its output certain structural descriptions (or sets of structural descriptions) which contain explicit representations of information up to that level. An analysis program which processes sentences to the level of deep case structures, for example, outputs certain descriptions from which the other program, the transfer program, can retrieve information of, not only deep case relationships, but also surface syntactic structures and surface ordering of the words of input sentences, without any further linguistic processing. The current transfer-based M T systems usually stand on this view, where, based on the deep case structures and surface syntactic structures of source sentences revealed during the analysis phase, the transfer programs compute the most appropriate corresponding descriptions of target sentences. In the current transfer-based systems, however, discourse factors are not usually expressed ex-

656

plicitly in the descriptions but are implicitly preserved in the surface syntactic structures which preserve the surface orderings of phrases. The surface syntactic structures are then preserved during the transfer phase as much as possible so that discourse roles of elements in the sentences are presumably transferred to the target descriptions. This principle of ’using source sentences as moulds of target sentences’ works rather well in translation among languages with many similarities because the syntactic notions of one language such as syntactic subject often play almost the same discourse roles in the other languages. However, though the same principle works to a certain extent in the translation between Japanese and Indo-European languages, it does not work so well. In the translation of such a language pair, because surface syntactic structures of source sentences often have to be drastically changed in order to realize the deep case relations in the target,

Fig. 52.2: A schematic view of future MT systems

XI. Application Fields III

the principle itself becomes hard to follow. In addition, though the principle is based on the assumption that syntactic notions such as syntactic subject etc. play the same roles in the two languages, the assumption is not valid. The principle, therefore, tends to produce either understandable but unnatural translations, or to make the transfer component ad-hoc, complex, and difficult to maintain when we attempt to get natural translations. Furthermore, as can easily be seen, the principle is not even satisfactory for the translation of similar languages when we want to get high quality translations. It is obvious that we have to extract explicitly more kinds of information from source texts than deep case structures and utilize them to compute descriptions of the target sentences. Note that the requirement ’to extract more kinds of information explicitly during the analysis’ does not, in fact, necessarily mean ’to express such kinds of information in a language independent framework’ nor does it

657

imply that such extracted information can fully replace the shallower levels of description. Indeed, because the linguistic aspects concerned with ’how things are described’, ’how texts are organized’ etc. are more language-internal aspects than those of ’what are described’, it is likely that they are more difficult to express in a language universal framework. Our tentative view of future M T systems, which is based on the transfer approach and will be revised in a later section, is shown in Fig. 52.2. In this framework, the analysis phase is expected to extract explicitly many more different kinds of information other than deep case relationships. They are the factors which collectively determine the surface syntactic structures of source sentences. We neither expect, as described above, that such extracted information should be represented in a language universal manner, nor expect that they uniquely determine surface syntactic structures of source sentences. In this sense, they need not be a complete set of factors determining surface structures of source sentences and so the surface structures cannot be replaced by the set of these factors. They merely give us a framework which facilitates the systematic comparison of the two languages. Based on the set of these factors, the transfer phase computes corresponding factors of target sentences including discourse factors, semantic structures, syntactic structures, etc. from which the generation phase will generate target surface syntactic structures. As the extracted factors give the transfer component a constraint set which is to be satisfied if possible, the factors computed in the transfer give a similar set of conditions to be satisfied in the generation phase. Though our current view of future M T systems is based on the transfer approach, our objective in this section is not to claim that this approach is superior to the interlingual approach, but only to claim that the word ’understanding texts’ in the context of M T is quite vague and, therefore, that we have to examine and define what is really meant by the mythical word ’understanding’ before discussing the advantages and disadvantages of the two approaches. In fact, while several large and practival M T systems, including some commercially available, have been developed in Japan based on different approaches such as the ’Pivot approach’ (M uraki 1985), ’Conceptual Transfer Approach’ (Uchida/Sugiyama 1980; Uchida 1985; Amano 1985), ’Integrated Approach’

(Tanaka/Isahara/Yasukawa 1983), each of which puts emphasis on different aspects of translation processes, expecially on aspects of ’understanding’, when one closely examines the internal translation processes and what kinds of information are utilized in these systems, one in fact finds many similarities and fewer differences than one might have expected. Before ending this section, we would like to add some comments: First of all, we neither deny the existence of certain levels of understanding which are language universal nor their importance and relevance to translation. On the contrary, we are willing to accept such claims. Our objective is only to claim that such levels of ’understanding results’ should be integrated with other aspects of information conveyed by input texts. Second, though it is implicitly assumed by the researchers of the inter-lingual approaches that the transfer approach is incompatible with ’underestanding texts’, that assumption, as Fig. 52.2 shows, is simply wrong.

4.

Translation and Understanding

In order to discuss the problem on a more concrete basis, we will first see how ’understanding of a sentence’ has been conceived in conventional NLU frameworks. (See also art. 23.) Fig. 52.3 shows a simplified framework of an NLU system. In this framework, ’understanding of a sentence’ is regarded as a process of transformation from an input sentence S, a linear sequence of words, into a meaning representation M (S). The M (S), in turn, is used as an input to a certain scheme of ’internal processing’ such as a deductive inference, problem solving program, etc., which is actually implemented as a computer

Fig. 52.3: A simplified framework of an NLU

XI. Application Fields III

658

program to carry out a certain specific task. In this framework, the meanings of input sentences are defined in terms of the ’internal processing’ specific to individual ’understanding’ systems, and so the results of ’understanding’ are represented by symbolic expressions which can be interpreted by internal programs for specific tasks. An ordinary NL front end for a data base system, for example, transforms sentences into expressions of a certain query language such as SQL, an artificial language designed for data base accesses. The internal program in this case is the SQL interpreter which can execute the expressions to retrieve appropriate data. As an extreme example, the STUDENT system (Bobrow 1968), which solves exercises of arithmetic expressed in English, transforms texts into a simultaneous equation. In this system, the ’meaning’ of an input text is an equation. Such transformation from an input to the M (S) is essentially an information extraction process where only information relevant to specific tasks is extracted; it is not an information preserving process in the sense that exact surface sentences usually cannot be regenerated from information extracted. In other words, M (S) used so far represent the ’meanings’ of input sentences only from a certain point of view, that is, from the view point of ’internal processing’ for a specific task, and therefore, only preserve information relevant to that task. Though other frameworks which have been adopted by NLU researchers in certain fields such as ’text understanding’ seem to have different flavors, although the essential framework is almost the same. In these systems, ’understanding texts’ is taken to be a process or relating texts to internal ’knowledge’ called ’scripts’, ’frames’, ’schemas’ etc. prepared in the systems beforehand. Knowledge in these systems is claimed to imitate human conceptual memory formed through experiences in the real world and to be general in the sense that it is independent of specific tasks. Such systems, however, also have their own tasks such as ’paraphrasing’, ’summary generation’ etc. to show their understanding capabilities by external behaviour; these tasks implicitly define the content and descriptive frameworks of their knowledge so that the information to be extracted from texts is restricted. In addition, because the internal forms of knowledge to which input texts are related usually reflect situations (or sequences of

events) in the real world, they have nothing to do directly with linguistic texts. That is, ’understanding results’ in these systems often miss the linguistic aspects of texts. In contrast to a restricted approach to meaning extraction, however, the aim of translation is (A) to re-express by using sentences of target languages the information of all aspects contained in sentences of source languages, with as least distortion as possible. It is commonly recognized by linguists that all different surface sentences convey different information. If we share this understanding, the M (S) in M T should virtually retain information for re-generating exact source sentences. That is, we do not have any ’internal processings’ in M T by which we can define certain aspects of information conveyed by texts. The M (S) of source sentences in M T should preserve information of all kinds conveyed by source sentences, not only what is described by the texts but also how it is described, from what view points and by what attitudes. Such considerations have led us to the framework already shown as Fig. 52.2. In this framework, we abandon single layers of descriptions for representing ’understanding results’, and instead, have several layers of descriptions which collectively determine the surface syntactic structures of the source sentences and which are all to be utilized during the transfer. Based on this assumption of the multilayered description of source texts, we can think of certain layers of description which are language universal and which correspond to ’understanding results’ in conventional NLU systems. We will discuss in the following sections some of the problems in utilizing these extra-linguistic layers of ’understanding’ in translation processes and what roles these layers should play in the process as a whole.

5.

Words and Concepts

We will first examine the basic units from which complex expressions in these language independent layers might be constructed. The researchers advocating naive interlingual approaches have in mind such a view as shown in Fig. 52.4. In this view, each word of individual languages denotes a language independent or extra-linguistic concept, though some words are ambiguous and denote several different (mutually distinguishable) con-

659

10.5pt Fig. 52.4: A naive view of relationships between words and concepts cepts. Such concepts denoted by words in individual languages are the basic units of language universal description. In this view, words of individual languages are related to each other through the concepts, and translation of words from one language to another is to be performed straightforwardly through these concepts. This view is well-fitted for the terminological concepts and words in a scientific field. The word mass in physics, for example, denotes a certain concept called ’mass’ in English or shitsuryou in Japanese. The concept has its own definition in the theories of physics, which are, of course, language independent. The relationship between words and concepts here is similar to that found in Fig. 52.3, where the meanings of linguistic expressions (and so those of individual words) are related to symbolic expressions used in ’internal processing’. Theories of physics play the same role here as do ’internal processings’ in NLU (Fig. 52.5). In ordinary texts, even in abstracts of scientific and technological papers which our M U systems aim to translate, however, we

find a large number of ordinary words which lack such formal definitions and for which the above naive view of lexical translation does not work well. The concepts denoted by ordinary words such as to introduce, to produce, advantages, fields etc. do not have formal explicit definitions, even if we accept the existence of such denoted ’concepts’. Especially, as (Hobbs 1984) noted, verbs are usually used to describe quite different situations or events in the real world. He gives the following examples of usages of to produce in medical textbooks on hepatitis as follows. A disease can produce a condition A virus can produce a desease Something can produce a virus. Intesia flora can produce compounds etc. Note that, in Japanese, we have a verb tsukuridasu which roughly corresponds to to produce in English, but some of the above usages of to produce would need to be translated into a different Japanese verb, hikiokosu. In order to retain the simplicity of translation through extra-linguistic concepts,

10.5pt Fig. 52.5: Terminological words and concepts

660

we have to prepare at least two different concepts denoted by to produce which are denoted in Japanese by tsukuridasu and hikiokosu, respectively. M oreover, because we can easily recognize the differences among situations described by to produce in the above sentences, it is natural to imagine that there may be other languages which require further division of the concepts. The naive scheme in Fig. 52.4 may result in a proliferation of concepts and cannot explain the correspondence of words in different languages. Hobb’s answer (and, of many other researchers both in NLU and linguistics) to this question, which is intuitively reasonable, is: to produce in the above examples is not a polysemy, because all of the above usages share a certain core meaning in common such as ’X causes Y to come into existence’. This kind of approach, the lexical decomposition approach, not only can prevent the proliferation of concepts, but it also has another advantage in that it reduces the diversity of surface expressions by representing sentences with different surface verbs such as ’to produce’, ’to create’, ’to generate’ etc. by different combinations of the same primitives. Such a reduction is preferable for ’knowledge’ based processing which utilizes extra-linguistic knowledge, i. e. set of rules intrinsic to external worlds, because the processing is concerned with events or situations described by texts but not directly concerned with texts themselves. Though such reduction is inevitable for certain kinds of knowledge based processing, we have to notice that the lexical decomposition approach, by itself, does not explain anything about lexical correspondence among different languages. On the contrary, it may increase the difficulties of lexical choice in translation. In order to discriminate to assassinate from to kill, to murder etc., though we have a rather direct correspondence between to assassinate in English and annsatsusuru in Japanese, we have to encode many kinds of information other than ’X cause Y to become not to be alive’ such as Y’s social status, the reason of ’killing’ (political or not) and, in general, the speaker’s conception of the ’killing’ event in question. In other words, the description cannot replace surface lexical items unless a complete set of (cognitive or other) factors relevant to surface lexi-

XI. Application Fields III

cal choices are fully specified. The fact that most decompositionists have been only concerned with verbs shows that to specify such a set of primitives for expressing even only the core meanings of nouns is far more difficult. (Note that the word field should be translated into six or more different nouns in Japanese (Nagao/Tsujii 1986)). Furthermore, because the factors to be considered relevant, or the features of situations to be described that are considered to be relevant, to surface lexical choices are highly dependent on each lexical item (and so, of course, dependent on each language), we cannot expect to have a complete set of factors which can be applied to choices of every lexical item of every individual language. Trying to get such a language independent set may result in a proliferation of factors instead of the proliferation of extra-linguistic concepts found in the naive scheme. Again, note that we do not claim that the aspect of understanding captured by decomposition is irrelevant to translation. Instead, it constitutes one of several indispensable layers of description which facilitate systematic comparison of the two languages. In order to translate to assassinate correctly into Japanese, we have to discriminate the literal meaning and metaphorical meanings of the word (such as ’to hurt someone’s honor by a nasty trick or verbal abuse’), because the Japanese verb annsatsusuru not may express the latter, the metaphorical meaning. Such discrimination obviously requires understanding of what really happened in the real world, and the understanding at this level (contextual understanding level) should be expressed by a descriptive framework using a certain set of conceptual primitives (because understanding results of this level should be represented independently from surface diversified texts). We only claim that the description only expresses certain aspects of ’meanings’ of surface words and it cannot replace them. We also claim that any attempts to get a complete, language universal set of primitives for explaining lexical choices in any language will be in vain, and that what we really need at present is much more comprehensive comparative studies on lexical choices between languages in question in order to clarify what kinds of factors are relevant to the selection of appropriate target equivalents for each individual word of the source language.

661

6.

the nurse nurses the nurses

Implicit Information

The discussion in the last section can be summarized as follows: Because a continuously infinite physical/mental world is described by a natural language which has only finite words, words in individual languages are used to describe wide ranges of events/objects. That is, ’meanings’ of words are quite vague. This vagueness causes difficulties of lexical choice in translation by the fact that certain families of events/objects which can be described by the same words in one language should be described by several different words in other languages (Fig. 52.6). The same line of discussion can be applied to linguistic expressions in general. That is, the set of (cognitive or other) factors which determine surface expressions changes from one language to another. Or, even if similar factors work in the determination of surface expressions, they may be reflected by using quite different syntactic devices. M oreover, it often happens that to determine target surface expressions requires a set of factors which are not expressed at all in the source language or which are quite implicit, even if they are expressed. On the one hand, to translate Japanese to English, for example, we have to have information about plural-singular and definiteness-indefiniteness distinctions of noun phrases which are implicit in Japanese. The Japanese sentence watashi-ha kino kangofu-ni atta. [I] [yesterday] [nurse]

[to meet] [past]

may correspond to the following four sentences in English, depending on the context. I meta nurse yesterday

Because Japanese native speakers do not feel explicitly the above sentence lacks information, we can claim that the sentence is just vague as ’meanings’ of words are. That is, the sentence can describe a set of situations in the real world which share certain properties in common, but in English, the same set of situations should be expressed differently, depending on properties of situations which are not relevant to the selection of Japanese expressions and which therefore remain implicit in Japanese. On the other hand, Japanese is rich in honorific expressions and highly dependent on speaker-hearer’s social relationships. Therefore, in the translation from English to Japanese, we have to recover such information which is implicit in English. For example, a simple sentence such as I’ll come tomorrow may correspond to Japanese sentences such as asu oukagai itashimasu [the hearer is higher in the social position] asu oukaigai shimasu [the hearer is higher in the social position] [the speaker is intimate with the hearer] asu ikuyo [the speaker is intimate with the hearer] [the speaker is male] asu ikuwa [the speaker is intimate with the hearer] [the speaker is female] asu ikimasu [neutral] English native speakers certainly do not think that the sentence is ambiguous in the above sense. In this case, Japanese requires

10.5pt Fig. 52.6: Vagueness of word meanings

662

information about social status of speakers and hearers, which is not so relerant to the selection of English expressions. Speaker’s intentions, which recent researches of NLU (Brady/Berwick 1983; Appelt 1985; Grosz 1986), especially in dialogue systems, place a strong emphasis upon, are a typical example of implicit information, and we can easily imagine situations where it also plays an impotant role in translation, expecially in translation of dialogues such as the simultaneous translation of telephone communication. It is, however, not desirable for translation systems to translate sentences according to speaker’s intention alone. Translating It’s hot in this room to mado-o akete kudasai [Please open the window] probably commits too much as a translation system. The system should select natural expressions in target languages as long as they do not distort the ’meanings’ of source sentences too much. This implies that ’understanding of sentences’ and ’the meanings of sentences’ should be distinguished. What is meant by ’understanding of sentences’ is, as recent researches in NLU typically show, to understand the situations where certain utterances are given or the situations which texts describe, including such factors as speaker’s intentions, speaker-hearer’s social relationships, definiteness/indefiniteness of referenced objects, etc. Though these factors are relevant to the selection of target expressions, it is doubtful that all such derived information is a part of the description of source sentences which expresses various factors determining the surface expressions in the source language. Researchers in NLU often confuse understanding results with the description of input sentences. As noted before, the researches in NLU so far have revealed that ’understanding sentences’ cannot be defined, at least computationally, without considering certain specific internal tasks, and the task of M T, (see (A) above in 4) ”to re-express in target languages the information conveyed by sentences of source languages with as least distortion as possible“, by itself, does not define anything about what kinds of understanding are required in M T. Because the factors relevant to the determination of surface structures are dependent on each language, the exact requirements on what aspects of the situations described by source texts should be ’understood’ cannot be fixed unless the language to

XI. Application Fields III

which the texts are to be translated is specified. English native speakers, for example, can ’understand’ I’ll come tomorrow without any attention to the social relationships of the speaker and the hearer. Only when they are asked to translate the sentence into Japanese, must they consciously consider such factors to select the most appropriate Japanese expression. The same line of discussion can be applied to the problem of target word selection. We cannot enumerate, by monolingual thinking, different ’concepts’ denoted by the verb to produce. Only when we are asked to translate sentences containing the verb into another language, can we try to find appropriate target words. During this process, ’understanding of the sentences’ and so ’understanding of the situations described by the verb’ are promoted in such a direction that we can identify the most appropriate target expression. The above discussion implies that certain ’understanding processes’ are target language dependent, and cannot be fully specified in a mono-lingual manner. We have to separate, at least conceptually, bi-lingual processings from mono-lingual processings which extract explicitly a set of factors determining the surface structures of source texts. In the tentative framework in 2. above, the role of the transfer phase was restricted to computing factors for determining target structures from factors extracted from source texts including their surface structures. We assumed there that a set of factors for determining target surface structures could be computed from those extracted during the analysis phase, though the computation itself was dependent on language pairs. The discussion in this section shows that this assumption is not true. The transfer phase should do more than that. The revised framework is shown in Fig. 52.7. Though we adopt here the conventional division of phases in current transfer based systems, we do not claim that the three phase configuration is the best and that these three phases should be executed in order. Instead, we can think of a system in which the ’understanding’ phase extracts not only factors determining surface source texts but also factors for determining target structures. But even so, we claim that the understanding results in such a system have to be specific to language pairs and not language universal. Which configuration is superior to the other, the two phase configuration or the three

52.  Machine Translation: Research Trends

663

10.5pt Fig. 52.7: Understanding and surface structure determination in future MT Systems phase configuration, should be discussed from engineering points of view such as maintainability of grammars and dictionaries, efficiency of processing, etc. but not from the view point of ’understanding texts’.

7.

Layers of Understanding —

Knowledge and Translation The fact that ’understanding texts’ has been understood differently by different researchers in NLU implies that the ’knowledge’ to which text contents are to be related is different from one system to another. So far, quite different sorts of information prepared beforehand in systems have been called ’knowledge’. In 5., we discussed two different approaches to meanings of words which may lead us to quite different views of what ’knowledge’ is: One is to relate meanings of words to extra-linguistic, language independent concepts whose semantics are, in turn, given by certain theories (or formal systems), internal processing for specific tasks such as data base accesses, problem solving, etc. The other is to describe core meanings of words by relating the words to a certain set of primitives. The latter may be augmented by adding further description using cognitive, situational cor other features (as noted in 6., some of these may be language dependent) in order to specify what families of objects/events the words can describe. The knowledge described by this approach is essentially knowledge about possible usages of words and can

be utilized to translate words of certain types or to make general inferences on the situations described. On the other hand, ’knowledge’ which is often mentioned in fields such as knowledge engineering, expert systems and so forth refers to knowledge of specific fields, and is more easily expressed in the first approach. These two approaches are quite opposite. While the decomposition approach tries to discover a single description which covers possible usages of a word including its metaphorical usages (the decompositionalists may claim all usages are metaphorical), the extra-linguistic concept approach (the concept approach, in short) tries to enumerate a set of concepts denoted by the word. While the decomposition approach attempts to find internal structures of single words, the concept approach tends to identify even complex expressions such as ’diagrams on the plane of the celestial equator’ (note that this expression has a simple translation equivalent in Japanese like jizuhyou ) as single concepts. As noted in 5., the concepts approach, which we there called the ’naive approach’, cannot be used to express the whole meaning of texts, but this does not imply that knowledge expressed by this approach is irrelevant in M T. On the contrary, it often happens that we realize ’lack of knowledge’ in systems, when we find mistranslations of terminological words or when we find misunderstandings of source texts. Because the decomposition approach essentially captures possible usages of words, it cannot decide appropriate translations of ter-

664

minological expressions by itself. This is obvious because even human translators who have enough knowledge of language usages often mistranslate terminological words. The systems or human translators should have knowledge about relationships between words and extra-linguistic concepts in the subject fields. Because such relationships are a kind of conventions specific to each subject field, we simply have to know these conventions. Several current M T systems prepare certain frameworks for treating such conventions of term translations specific to individual subject fields such as the field code in the M U systems (Sakamoto/Satoh/Ishikawa 1984), the micro-glossaries in PAHO’s systems (Vasconcellos/Leon 1985), hierarchical organizations of dictionaries in GETA’s systems (Boitet/Guillaum/Quézel-Ambrunaz 1982), etc. However, though relating terminological expressions (or words) in different languages through extra-linguistic, language universal concepts has become a standard way of thinking in the field of terminology and already adopted by several multi-lingual terminology data banks (for example Goetschalckx 1974), they do not explicitly introduce the extra-linguistic concepts in their frameworks but instead, relate rather directly the terminological words or expressions of the different languages. (Uchida 1985) claims that we have to introduce extra-linguistic concepts even in M T systems, because (1) future M T systems should include not only knowledge of the correspondence of terminological expressions but also factual knowledge and knowledge about inference rules specific to the fields, etc. (2) Such extra-linguistic knowledge is language universal and, therefore, should be managed by different frameworks from general linguistic knowledge which is language dependent. Boitet/Gerber (1984) shows how factual knowledge in a specific subject field can be utilized to resolve certain syntactic ambiguities such as those of the scope of coordinations, determination of antecedents of relative clauses and pronouns, etc. For example, he discusses that determining the correct scopes of the coordinations (1) dangerous [cyanide and chlorine] fumes (2) [carbon and nitrogen tetraoxyde] requires factual knowledge of a specific level such as (3) cyanide fumes are dangerous

XI. Application Fields III

(4) there is no carbon tetraoxyde in normal chemistry. The sequences of cyanide and chlorine fumes and carbon and nitrogen tetraoxyde could not be differentiated, if we used only a rough semantic classification of nouns such as being the name of a chemical etc. (These examples, as Boitet notes, cannot be correctly interpreted by a simple method of preference semantics.) The necessity of detailed factual knowledge such as (3) and (4) is obvious, and, because such knowledge in chemistry is language independent, it should be represented in a language universal manner. Extra-linguistic concepts should play more important roles than mere links among the terminological terms of individual languages. However, although we completely agree that extra-linguistic knowledge should play more important roles in future high quality translation systems, we have to be very careful in the introduction of such knowledge into M T systems. First of all, as we have repeatedly claimed, the ’meanings’ extracted from sentences that can be related to knowledge of this kind does not at all exhaust the information conveyed by sentences that need to be ’transferred’ into target sentences. M oreover, because sentences even in specific subject fields consist of both terminological terms and ordinary words, we cannot expect to express all the results of understanding such sentences at the level of description using only the extra-linguistic concepts. We can only expect to express the understanding results of certain parts of sentences at this level and check whether the understanding results of those parts are compatible with common sense knowledge of the specific field. In other words, the processing at this level cannot play the main role in translation but can only play some roles to prevent certain kinds of ’misunderstanding’. (Boitet/ Gerber 1984) notes this point as “grafting on expert systems”. In addition to this, the boundary between terminological terms and ordinary words is not so clear. When we restrict terminological terms to names of chemical compounds, of mechanical parts, etc., the problem of the boundary might not appear so serious: but such restriction can lead to serious limitation on the availability of knowledge of this kind for forming selectional restrictions necessary for the disambiguation of source sentences. If we attempt to extend the range of ’terminological terms’, the problem of the boundary

52.  Machine Translation: Research Trends

between terminological terms and ordinary words arises. For example, Hobbs (1984) points out that, in a textbook on hepatitis, ordinary words such as human, animal, w ater, alcohol etc. have specialized meanings different from those in general fields; the concept denoted by ’human’, in this field, is not a lower concept of the concept denoted by ’animal’. We might then claim that these two terms are terminological terms of the field and that the denoted concepts have certain restricted relationships with the other concepts in the fields. Although such selectional restrictions specialized in certain subject fields might be very useful for resolving syntactic ambiguities of source sentences, problems here are how to find such restricted usages of ordinary words that are specific to certain fields, how to clarify the possible relationships among ’concepts’ in those fields (to create semantic models of the fields), etc. As the above example shows, even clarifying the hierarchy among concepts, which is one of the prevailing techniques for organizing ’knowledge’ in ordinary knowledge representation research, is not so easy when we have to deal with reasonably large subject fields. In order to utilize knowledge of this sort in the disambiguation process, we have to encode not only such hierarchical relationships among concepts but also many other kinds of factual knowledge about those concepts. Before claiming ’such-and-such factual knowledge can resolve certain specific ambiguities of given sentences’, we have to develop methodologies by which we can systematically clarify a set of concepts in the given fields and the relationships among those concepts, and can gather factual knowledge relevant to those concepts. The above discussion shows that there is not a clear boundary between terminological words and ordinary words; but instead, there is a continuous distribution of words from pure terminological words, such as names of chemical compounds, at the one extreme to pure ordinary words at the other. Though the pure terminological words have their own language universal definitions and can be related directly to extra-linguistic concepts, the ordinary words have only their usages in individual languages and we have to infer the denoted ’concepts’ from their usages. That is, as noted before, the denoted ’concepts’ of ordinary words are language internal and cannot be related directly to extra-linguistic

665

concepts. The selectional restrictions which ordinary words have, therefore, can only be captured by specifying what events/objects can be described by those words, and that specification might be language dependent. Some of the difficulties in M T are caused by the fact that most of the words in certain subject fields, even words which are usually taken as part of the terminology of those fields, are in-between the two extremes, and sentences usually contain words at various positions in the distribution. For example, a sentence such as (5) The mixture gives off dangerous cyanide and chlorine fumes contains two pure terminological words (i. e., cyanide, chlorine ), two ordinary words (i. e., to give, to be dangerous ) and two intermediate types of words (i. e., fume, mixture ). This fact requires us to prepare various sorts of description for the selectional restrictions among words (for the analysis phase) and also for the selection of target equivalent words (for the transfer phase). As selectional restrictions for disambiguation, we have to have factual knowledge of the fields (for restrictions among terminological words), restrictions specified by using cognitive, situational or other features (for restrictions among ordinary words — deep case frames with semantic restrictions on case fillers, which are specified in the verb dictionary, are one of the typical techniques found in current M T systems) and varied sorts of mixtures of these two extremes. On the other hand, for the selection of appropriate target word selection, we have to have several kinds of ’transfer’ mechanism using different sorts of information such as extra-linguistic concepts which link the words of individual languages, distinguishing features for described events/ objects, and so on. The situation becomes even more complicated due to the fact that a single word has often both specialized usages and general usages, even if we restrict our domain of translation to certain limited areas. The frameworks which current M T systems provide, such as semantic features, subject field codes, micro-glossaries specific to the fields, hierarchically organized dictionaries, etc., cannot capture the interwined relationships between ordinary words and terminological words, and between usages specialized in fields and general usages. We have to emphasize that there is no single layer of ’understanding’ exclusively

XI. Application Fields III

666

relevant to translation; only mutually related layers of understanding ranging from detailed understanding (related to factual knowledge in the field) to the vague and general understanding of situations. All these layers will need to contribute to high quality translation in the future.

8.

Problems in the Future

So far, we have discussed what makes M T research different from other frameworks in NLU, and we have stressed that one of the peculiarities of M T as an NLP application is that we cannot readily set up a particular task-oriented level of ’understanding’ in M T as we can in other applications. This peculiarity causes problems not encountered elsewhere, and we will list some of them since their resolutions seem particularly important in future, high quality translation systems. 8.1. Multi-Layer Representation The process of machine translation can be taken as a sequence of processes of the extraction of various factors which collectively determine the surface syntactic structures of source sentences, the computation of factors which are relevant to target sentence structures, and the realization of those factors as surface structures in the target language. Therefore, we need a certain descriptive framework in which we can express these various sorts of information and from which we can retrieve such factors. Annotated tree structures such as those used in the M U systems, GETA, M ETAL etc. are one of such currently available frameworks. Annotated trees as they are, however, have only single structures (trees) of nodes with various sorts of information described in the annotation parts. It is obvious that each different sort of information requires different geometrical structures so that the current annotated trees may not be sufficient for sophisticated processing required in the future M T systems. Though Kay’s notation in unification grammar (Kay 1984 a) is obviously one of the candidate frameworks, it is appropriate only for describing interpretations which have already determined by the analysis phase. Effective computational frameworks should be developed for producing such descriptions from source sentences which might be quite ambiguous. Techniques for sharing a partial description at a certain level by several different descriptions at different levels and for

maintaining the consistency of description when some parts of it are changed should be developed. 8.2. Integration of Understanding Levels As discussed in 7., we should be able to integrate several different levels of ’understanding’ with linguistic levels of description. The descriptive frameworks developed so far have confined themselves to either linguistic levels or to one of the specific understanding levels. Kay’s unification grammar, LFG, GPSG etc. are all concerned with the description of linguistic levels. All of them, for example, treat surface words as primitive units. On the other hand, most researches in NLU aim to relate texts to certain extra-linguistic knowledge so that the final understanding results are expressed independently from their linguistic source structures. In order to integrate understanding results with the translation process, we need further researches to clarify not only what levels of understanding are really relevant to translation but also how we are to coordinate such diversified levels of processing computationally. 8.3. Incompleteness of Texts and ’Knowledge’ Robustness of Processing Human translators can translate I’ll come tomorrow into Japanese without any knowledge about the social relationships of the speaker and the hearer. They will translate the sentence based on the default assumption that the relationship is neutral. It usually happens that, even for human translators, certain factors relevant to the determination of target structures cannot be obtained because of the incompleteness of texts and lack of necessary knowledge. The system should be able to determine the most feasible translations based on the incomplete factors extracted from source texts. Though establishing sets of factors which collectively determine the surface structures of the source and target languages may facilitate systematic contrastive studies of the two languages and make present ad-hoc transfer phase cleaner, we have to note that actual systems cannot always extract such factors from the source texts. Even in future systems, we will have to prepare heuristic guided transfer procedures based on lower level factors, such as syntactic structures, alone. That is, the idea of ’safety nets’ is indispensable, however intelligent the future M T system might be. Nishida/Takamatsu/

52.  Machine Translation: Research Trends

Kuroki (1980) discusses, in their M T system from English to Japanese, some techniques for calculating surface syntactic structures of Japanese which can preserve the discourse factors of English texts, without referring to such factors explicitly. These rules are a kind of heuristics but are not linguistically wellfounded. For this kind of processing, we may have to introduce other kinds of knowledge, for example, the expert knowledge of professional translators (Tucker 1984). 8.4. Easy Accomodation of Future Development of Theories As noted in 3., we cannot expect to have a complete set of factors which can uniquely determine the surface syntactic structures of a language. Because there is always possibility that future linguistic research will reveal factors which have not yet been noticed, the computational framework should be flexible enough for accommodating these factors. In this sense, to commit strongly to one linguistic theory at present seems dangerous for computational frameworks. Furthermore, though most linguistic theories aim to describe linguistic structures from a monolingual point of view, the factors to be extracted from source texts depend on the target language. Some of the factors relevant to translation can only be clarified through bilingual, contrastive studies of the two languages and by referring to the aspects of ’understanding’ which are obviously beyond the scope of current linguistic theories. We have to note that the computational frameworks for machine translation should be flexible enough for treating various sorts of phenomena which current linguistic theories do not cover. 8.5. Other Factors to Be Accommodated — Discourse Factors, Cognitive Factors The computational research in discourse analysis so far has put emphasis on a certain set of topics, such as resolutions of anaphoric expressions, recovering speakers’ intention from utterances, etc. Although these are more or less relevant to high quality translation in the future, we have to attack much wider ranges of problems concerned with discourse phenomena, that is, what kinds of discourse factors are relevant to the determination of surface sentence styles and in what manner. Though relevant topics have been treated in text linguistics and many useful ideas have been proposed already, many of them seem to be too vague to formalize computationally.

667

It is time to find computational formalization for them and to integrate them with translation processes. M T is one of the most promising application fields where the research results in text linguistics could be utilized. Ishiwata (1986) discusses how cognitive features are relevant to translation, especially word translation. By taking the French verb tomber and the Japanese translation equivalents taoreru and ochiru as a typical example, he shows that certain movements of objects which can be expressed by the verb tomber in French should be described differently by using either taoreru or ochiru. His claim is that such selection of target word depends on how the speaker recognize the movements of objects, that is, whether the motion is rather perpendicular (i. e. the stone falls) or not (i. e. the man fell over). That is, the selection of appropriate Japanese verbs depend on a certain kind of ’image’ level understanding of the event which the French verb describes. Whether such levels of understanding can be represented in a symbolic manner, and what kinds of such symbolic cognitive features are necessary, whether there is a set of cognitive features which is effective for any language pair, and so on are, of course, research topics in the future. However, we have to note that such cognitive levels of features are more useful than extra-linguistic knowledge in specific subject fields, for the choice of appropriate target equivalents for words with wide usages. 8.6. Setting Layers of ’Understanding’ As discussed in 6. and 7., we can distinguish at least the two extreme layers of understanding and knowledge relevant to M T. Whether these two kinds of understanding and knowledge can be represented in single frameworks, how they should be coordinated with linguistic processing (analysis, transfer, generation) computationally, to what extent these kinds of knowledge can really be encoded in systems, etc. have to be clarified. If the two kinds of knowledge should be represented separately, we have to clarify how many different layers exist and how they should be mutually related. We have listed above some of the problems caused by the peculiarity of M T that we cannot determine in advance a certain concrete level of ’understanding’. The other peculiarities of M T come from the fact that M T systems have to treat documents of much wider subject fields and of much more varied

668

text types than other applications. Our M U systems, for example, restrict the document type to abstracts of scientific and technological papers but treat scientific fields in general. The PAHO’s systems translate documents in more restricted fields but include very wide ranges of document types, including conference reports, budget proposals, letters etc. This fact, in combination with the difficulty of setting the understanding level, causes many practical difficulties. 8.7. Complexities of Semantic Models Wider subject fields imply more complexities in semantic models. In data base access, one only has to deal with a simple set of semantic classes such as ’name of companies’, ’person’s name’, ’salary’, etc. and their possible semantic relationships. However, as Bennett/Slocum (1985, 113) notes: “The thought of writing complex models of even one complete technical domain is staggering: one set of manuals we have worked with ... is part of a document collection that is expected to comprise some 100,000 pages. A typical NLP research group would not even be able to read that volume of manual, much less write the necessary semantic models, in any reasonable amount of time”. We have to treat much more complex semantic fields in M T. We have to develop methodologies to clarify the structures of such complex semantic models systematically for any given subject field. 8.8. Instability of Lexical Coding Wider subject fields imply a large amount of vocabulary, and high quality translation requires rich information to be coded for each lexical item. This means that we need many lexicographers for lexical coding, and the problem of consistency arises. High semantic complexities imply that criteria for lexical coding are not so evident. In the M U project, we prepared rather detailed manuals for lexical coding but they are still not sufficient for obtaining good quality codings. The semantic codes, for example, are often dependent on individual lexicographers and such inconsistency caused many troubles in grammar development and depressing translation errors. The problem of instability is not restricted to semantic coding but it is found in every section in the dictionary, when codings are performed by many people. We have to develop not only flexible software tools for facilitat-

XI. Application Fields III

ing lexical coding and consistency checking (Kogure/Yokoi et al. 1984; Boitet/Guillaum/Quézel-Ambrunaz 1982) but also effective linguistic checking procedures. 8.9. Weak Semantic Constraints The lack of concrete internal processing for specific tasks implies that the system cannot reject nonsense interpretations of input sentences. In other applications, certain syntactic interpretations are judged as nonsense when the internal processing cannot give any meaningful semantics to them. Furthermore, as Hobbs noted by the examples of to produce, wide subject fields imply that various usages of words which share a core meaning in common will appear in texts. That is, many usages which have metaphorical flavors (“The car drinks gas” is a well-known example given by (Wilks 1972)) will commonly appear in texts and make the rejection of syntactic interpretations on semantic grounds harder. In the M U systems, we prepared about 50 semantic categories for nouns, but most of them are not as effective as we had expected for preventing ’nonsense’ interpretations, though they are effective for certain kinds of semantic interpretation (for example, for deep case interpretations of prepositional phrases which are not strictly governed by their predicates) and target word selection to some extent. As noted in 7., though Wilks’ idea of ’preferential semantics’ is one of the possible solutions, we have to coordinate this idea with the other kinds of processing and with preferences of other levels. 8.10. Maintainability of Systems In the discussion of 8.3., we claimed that the transfer component should be robust and be able to compute the most feasible factors relevant to target structure determination, even if necessary factors cannot be given by the analysis phase. The same line of discussion can be applied to the entire process of M T. The analysis phase, for example, cannot expect that a full set of necessary information for interpretation of input sentences will always be accessible. This implies that, at each phase of translation, a certain number of rules, which are a kind of heuristics and not theoretically well-founded, should be prepared. Furthermore, to deal with wide subject fields implies that we have to treat varied types of linguistic phenomena, which again requires a large number of rules in those sys-

52.  Machine Translation: Research Trends

tems. Wider fields also increase ambiguities at each level of interpretation. in advance (for example, ship may only be used as a noun in a certain data base access system, though it has a verb interpretation). In order to prevent the proliferation of possible syntactic interpretation in M T, we need a certain number of disambiguation rules which are also heuristic based (Tsujii/Nakamura/Nagao 1984). In short, we have to manage a large number of rules whose mutual relationships are tighter than those found in most other rule based expert systems. We have to develop not only flexible software systems for managing such large rule based systems (Johnson, R. L./ Krauwer/Roesner et al. 1984; Nakamura/ Tsujii/Nagao 1986) but also methodologies by which we can systematically organize and integrate knowledge of quite different sorts.

9.

Conclusions

In this paper, we have concentrated on problems concerned with ’understanding and translation’ and have tried to clarify that the aspects of ’understanding’ relevant to M T are different from those in conventional NLU researches and their application fields. The relationships between linguistic expressions and their understanding results ar not as straightforward as most researchers in NLU have assumed. Though most researchers in NLU have focused on single aspects of understanding which are defined by ’internal processing’, we have to treat almost all aspects of ’understanding texts’ in M T, which are mutually intertwined in a complicated manner and have to be integrated into single computationally unified frameworks. Though this is an extremely hard task, the difficulties seem to be deeply related both to ’understanding texts’ in a true sense and to the essential properties of natural language. We would also like to claim that it is time to integrate these two fields with their different histories and different techniques, M T and NLU, and so to start to clarify what ’understanding texts’ really means. Although the views expressed in this paper are my

669

own, I would like to thank my colleagues of the M u-project who are engaged in developing the actual systems. In particular, I would like to thank Prof. M . Nagao, the director of the whole project, Assistant Prof. J. Nakamura who is responsible for software development, and M r. Y. Sakamoto (ETL) and M r. M . Sato (JICST) who is responsible for constructing dictionaries. I also wish to thank Dr. J. Bateman and Prof. M . Yamanashi (Kyoto Univ.) who are not official members of the project but whose critical comments improved the paper greatly.

10. Literature (selected) S. Amano 1985 · D. E. Appelt 1985 a · W. S. Bennett/J. Slocum 1985 · A. Biewer/C. Feneyrol/J. Ritzke et al. 1985 · D. Bobrow 1968 · C. Boitet/P. Guillaum/M . Quézel-Ambrunaz 1982 · C. Boitet/ R. Gerber 1984 · M . Brady/R. C. Berwick 1983 · J. Carbonell/R. Cullingford/A. Gershman 1978 Z. Feng 1982 · C. Fillmore 1968 · J. Goetschalckx 1974 · B. J. Grosz 1986 · J. Hobbs 1984 · P. Isabelle/L. Bourbeau 1985 · T. Ishiwata 1986 · S. Ishizaki/H. Isahara 1986 · L. Johnson/S. Krauwer/M . Rosner et al. 1984 · R. Johnson/M . King/L. des Tombe 1985 · M . Kay 1984 a · M . King 1981 · M . King 1986 · R. Kittredge/L. Bourbeau/P. Isabelle 1976 · K. Kogure/A. Yokoi et al. 1984 · S. C. Loh 1975 · S. Lytinen/R. Schank 1982 · K. M uraki 1982 · K. M uraki 1985 · M . Nagao 1983 · M . Nagao/T. Nishida/J. Tsujii 1984 · M . Nagao/J. Tsujii/J. Nakamura 1985 · M . Nagao/J. Tsujii 1986 · J. Nakamura/J. Tsujii/M . Nagao 1984 · J. Nakamura/J. Tsujii/M . Nagao 1986 · F. Nishida/S. Takamatsu/H. Kuroki 1980 · H. Nomura/S. Naito/Y. Katagiri et al. 1986 · Y. Sakamoto/M . Satoh/T. Ishikawa 1984 · R. Schank 1975 · J. Slocum 1985 a · J. Slocum 1985 b · H. Tanaka/H. Isahara/H. Yasukawa 1983 · L. C. Tong 1986 · J. Tsujii/J. Nakamura/M . Nagao 1984 · J. Tsujii 1985 · J. Tsujii 1986 · H. Uchida 1985 · H. Uchida/K. Sugiyama 1980 · A. B. Tucker 1984 · A. B. Tucker/S. Nirenburg 1985 · M . Vasconcellos/M . Leon 1985 · B. Vauquois 1979 · B. Vauquois/C. Boitet 1985 · Y. Wilks 1972 · Y. Wilks 1975.

Jun-ichi Tsujii, Kyoto (Japan)

XI. Application Fields III

670

53. Software and Lingware Engineering in Modern M(A)T Systems 1. 2.

3.1. 3.2. 3.3. 4. 4.1. 4.2. 4.3. 5. 5.1. 5.2. 5.3. 6. 7.

Introduction General Principles of Modern Second-Generation M(A)T Systems Types of Knowledge Used: Linguistic and Paralinguistic Transfer Approach Rather Than Interlingua Approach: Why? Use of Specialized Languages for Linguistic Programming Filtering or Treatment of Ambiguities Analogy and Difference With Compiler-Compiler Systems Analogy Differences Problems Specific to NLP Engineering Software Engineering Design Implementation Maintenance and Evolution Lingware Engineering Design Implementation Debugging, Maintenance and Evolution Future Directions Literature (selected)

1.

Introduction

2.1. 2.2. 2.3. 2.4. 3.

M achine Translation is now over forty years old. Some mature systems of the ’second generation’ begin to be available commercially, while ’first generation systems’ have long been on the market (see Art. 50). The ’third generation’ is still in its infancy. Here, we shall concentrate on the general design and specific features of modern second generation systems. While the general design is quite easy to present, the specific features may vary considerably among systems, such as TAUM M ETEO, TAU M -AVIATION M( ontréal), SUSY II (Saarbrücken), M ETAL (Austin), M U (Kyoto), or the GETA systems (Grenoble). Specific examples will be taken from systems best known by the author, but the presentation tries nevertheless to retain a general character. M achine (Assisted) Translation systems, or M (A)T systems for short, are a subset of the Computer Aided Translation (CAT) systems. Their aim is not to assist a human translator while he is translating, but rather to produce either a raw translation, input to one or more revision cycles, or a crude translation, which is not supposed to be revised, but to be

informative. The text is always divided in translation units, almost always sentences. Within the M (A)T approach, two strategies are possible. First, one can try to define some subset of a given natural language as a formal language. Then, an analyzer is built. If a given unit of translation is ’legal’, it will be translated. If not, it will be rejected. Hence, the automatic system is a ’partial system’, and the percentage of units it translates is one measure of its performance. TAUM -M ETEO, or the first CETA systems (before 1970) are good examples of this strategy. The second strategy, followed in all modern second generation M (A)T systems, including the new M ETEO system, is to build a ’total system’, which will always attempt to translate 100% of the input, even if it is partially ill-formed with regard to the implemented linguistic model, in which case it may insert special warning marks in the output.

2.

General Principles of Modern Second-Generation M(A)T Systems

Second generation systems, as well as their predecessors, use essentially linguistic knowledge. Their advantages lie in a more modular design, as well as in a usually better treatment of ambiguities. 2.1. Types of Knowledge Used: Linguistic and Paralinguistic For the linguist, there are three main viewpoints to describe natural languages: — the system of signs used, with its combinatorics; — the underlying system of concepts, a model of the universe of discourse; — the referents in some real situation. Hagège (1982) has called them, respectively, the morpho-syntactic, semantico-referential and enonciative-hierarchical levels. From an operational point of view, that is in the construction of NLP (Natural Language Processing) systems, distinctions are made according to the structure of the system and to the different types of knowledge used. A NLP system may be structured around one of the following three sets of components: — a formal language L, constructed as an approximation of (a subset of) a natural lan-

53.  Software and Lingware Engineering in Modern M(A)T Systems

guage, using a grammar and a dictionary. Knowledge about the universe of discourse may be expressed through semantic features. Understanding is implicit, in the sense that it occurs not in the system, but in the human receiving the output of the system. Second generation M (A)T systems are organized in this way. — a formal language L, a formal domain D, and an interpretation I from L to D. D represents some universe of disourse, and may be organized as a classical data base, or as an expert system. The important points here are that D is distinct from L and is not modified by the system, while processing some natural language input. Understanding is static and explicit, in the sense that the output of the analysis of a text or a statement is an interpretation of it in D. We may characterize these systems as performing expert understanding. Third generation M (A)T systems will some day be organized in this way (Gerber 1984, Boitet/Gerber 1984). — a formal language L, a formal domain D, a set S of situations on D, and an interpretation I from L to S. A situtation S on D is classically represented as a (partically) instantiated script or frame, where each participant may have its own representation (model) of D, which may be partial and not completely coherent with D. The important point here is that the system, processing some natural language input, creates and modifies the situation(s), producing a dynamic and explicit understanding. We may characterize these systems as performing pragmatic understanding. Fourth generation M (A)T systems would be organized in this way, and really perform ’intelligent’ translation. There are basically two types of knowledge used for building NLP systems: linguistic/paralinguistic and extralinguistic (domain/situation). The linguistic and paralinguistic knowledge are used to describe the language as a formal system (L). The atoms of this systems are of course of morpho-syntactic nature, but may also be taken from the semantico-referential and enonciative-hierarchical levels, if they correspond to linguistically marked concepts or types of situations. This is usually the case for linguistically motivated abstract notions such as: — the predicate/argument structure of verbs and adjectives; — certain semantic relations marked with prepositions, postpositions, and/or cases;

671

— actualisation (time, aspect, modality), determination, quantification; — enonciation and rhetorics: theme/rheme distinction, invocation, social difference. Knowledge about some statistical regularities observed in a certain typology of texts is called paralinguistic, in order to emphasize that it is valid only in certain well defined settings, but not in general. For example, B. Vauquois found the following rule for the ’Bulletin des Communautés Européennes’: if the antecedent of a pronoun is not found in the same sentence, then it is most probably the subject of the main clause of the first sentence of the same paragraph. Exactly as the very basic concepts in human life, like perception, judgement, movement, possession, number, sex or time, have often a direct linguistic expression, the social conditions of production of certain types of texts are reflected in their form. Paralinguistic knowledge is produced by the study of sub-languages rather than of the language in general. Extralinguistic know ledge of a domain of discourse may be represented as semantic features in a second generation M (A)T system, but only if the system is not going to be adapted to other domains. This is the case of the TAUM -M ETEO system. If the system is meant to be adaptable to several domains, for the same typology, like that of technical manuals, it is essential to keep it relatively domain-independent, or else the cost of conversion may be exceedingly high, because all dictionaries and grammars have to be modified. This is one of the conclusions of the TAU M -AVIATION effort (Isabelle/Bourbeau 1984). 2.2. Transfer Approach Rather Than Interlingua Approach: Why? At first glance, the interlingua approach seems best suited to the construction of multilingual M (A)T systems. The idea is to translate the input text into a pivot language, and then from this pivot into the target language. Three types of pivot languages have been proposed: (1) an existing or artificial natural language like English or Esperanto; (2) a formal language or pure pivot; (3) a formal language with the vocabulary of a natural language, or hybrid pivot. Taking an existing natural language as pivot leads to double translations for all pairs of languages which do not contain the pivot.

672

In human translation, this leads notoriously to a decrease in quality, as ambiguities and misunderstandings (misanalyses and mistranslations, in our case) may add. No experiments have been conducted yet in practice. If an artificial language is chosen, like Esperanto in the BSO project, the difficulty is augmented by the lack of sufficient technical vocabulary. There is an accepted mean figure of 50 000 terms in any typical technical domain. Taking a pure pivot may suppress the problem of adding ambiguities, but leaves the vocabulary problem intact. This idea has however been used successfully in practice, in the TITUS system of the ITF (Ducrot 1982). But, in this case, the input language is controlled in such a way that no ambiguity arises. In particular, the vocabulary is directly related with the concepts of the textile domain, in a one-to-one fashion. The hybrid pivot technique has been tried by the Grenoble group (CETA) between 1961 and 1970. For each pair of languages, a big transfer dictionary has to be constructed, but the grammatical structure, based on semantic relationships only, is invariant. However, translations obtained by this method cannot be really translations, because it is impossible to produce the desired parallelism in style, as all trace of the surface expression is erased. For example, it is not possible to translate the English passive by the French reflexive, in appropriate context (many equations are solved by iteration → beaucoup d’équations se résolvent par itération). Another severe problem with this approach is the ’all-or-nothing’ problem: no translation is possible if analysis has not produced a correct result in terms of semantic relationships, the most difficult task. If the size of the unit of translation becomes larger than one sentence, e. g. one or several paragraphs, it is almost certain that the result of analysis will not be complete, and hence that the majority of units will not be translated. For the reasons, the transfer approach is almost universally used. This means that the structure produced by the analyzer, usually a tree or a graph, with lexical and grammatical information attached to the nodes and/or the arcs, is sumbitted to a lexical and to a structural transfer, the latter incorporating some constrastive know ledge on the given language pair. Structural transfer is simpler if the level of (grammatical) interpretation obtained is higher. These levels are, in ascending order,

XI. Application Fields III

those of: syntactic classes (noun, verb, adjective ...), syntagmatic classes (nominal phrase, relative clause ...), syntactic functions (subject, object, attribute, circumstancial ...), logical relations (predicate, first argument, second argument ...), and semantic relations (process, state, location, cause, consequence, agent, patient, beneficiary ...). Analysis, in this framework, may be sequential or integrated. In the first case, the unit of translation is analyzed at each level of interpretation, the result being the representation of the unit at the last level for which analysis was successful. In this case, several structural transfers must be provided, one for each level of interpretation, or else a certain percentage of the input will not be translated (the ’all-or-nothing’ problem again). Of course, transfer at the syntagmatic level may be quite complicated, while it is quite simple at the last two levels, even if the two languages considered pertain to very different families. This technique has been chosen by the EUROTRA project, for reasons of modularity section (cf. 49.4.5 and 50.2.4). The alternative, integrated analysis, consists in letting the levels of interpretation interact during analysis, and in producing a multilevel structural descriptor as a result. Such a technique has been proposed by B. Vauquois in 1974, and has since been used in all M (A)T systems developed at GETA (Grenoble). All the computed levels are represented on the same graph, by the means of a ’decorated tree’ the geometry of which is obtained by a simple transformation from a (not necessarily projective) dependency structure. With this scheme, some semantic information may be used to disambiguate at the syntactic level, as in the following sentences: John drank a bottle of beer. John broke a bottle of beer. Also, it becomes possible to treat large units of translation, several praragraphs long, without encountering the ’all-or-nothing’ problem. If analysis at the highest levels of interpretation does not give satisfactory results on some part of the unit, this part, and only it, will be transferred on the basis of the lower levels, which act as safety nets (Vauquois/Boitet 1985). 2.3. Use of Specialized Languages for Linguistic Programming In principle, there are many ways to implement lexical and grammatical knowledge

53.  Software and Lingware Engineering in Modern M(A)T Systems

(linguistic and paralinguistic). In SYSTRAN and other first generation systems, the assembler or macro-assembler language is used (Slocum 1985 a). In the ’first and half’ generation systems, the language used by the linguists may be some high-level programming language, such as FORTRAN (SUSY I, Saarbrücken), COBOL (Saskatoon), PL/I (ITS), COM SKEE (SUSY II), etc. The drawbacks are evident. In particular, either linguists are burdened with ancillary task, such as implementing data and control structures, or they require some computer scientists as slaves to translate their wishes into working programs, with the result that their desires, incorrectly formulated, are also incorrectly translated. Nowadays, certain groups are trying to use (also directly) very high-level general programming languages, such as SETL (in Novosibirsk) (Narin’jani 1980), LISP at NTT (Nomura/Naito/Katagiri et al. 1986) or PROLOG at IBM (M cCord 1985). Not enough experience has yet been gained to say wether the above criticism on the use of general-purpose algorithmic languages applies or not at this level. In modern second generation systems, and in projected third generation systems, emphasis is placed on the use of Specialized Languages for Linguistic Programming (SLLP), which offer built-in data and control structures, with an underlying powerful mechanism (Vauquois/Boitet 1985). This is the case in all rule-based systems. They may be based on a variety of formal models: — (extended non-deterministic) finite-state transducers: ATEF (Chauché 1975), PIAF (Courtin 1973); — (extended) CF-grammars: first CETA analyzers (Vauquois 1975), first steps of analysis (Brockhaus 1976) at SFB 99 in Heidelberg, M ETAL analyzer (Slocum 1984 b), and ETL-Lingol (Tanaka/Isahara/Yasukuwa 1983); — ATNs (Woods 1970), modified at TAUM for MT (Stewart 1975); — adjunct grammars, at the LSP (Grishman/ Sager/Raze et al. 1973) and LADL (Salkoff 1973); — general tree rewriting rules: Q-systems (Colmerauer 1970), and other tree transducers (system of Friedman (cf. Art. 23), of Petrick, ROBRA at GETA (Boitet/Guillaume/ Quézel-Ambrunaz 1978), TRANSFO at SFB 99 (Brockhaus 1976)).

673

The built-in data structures are usually particular classes of graphs or hypergraphs, such as decorated trees, Q-graphs, charts (M IND by Kay 1973, 154—188), etc. Choosing one or more programming languages for implementing a SLLP is another matter. The most efficient, most portable and most reliable language of the highest possible level should be selected. This does not go without conflicts. Hence, compromises are made, sometimes by using several implementation languages. For example, Q-systems, first written in ALGOL, have quickly been rewritten in FORTRAN, and then in COM PASS (CDC assembler). Although the COM PASS version was of course faster, TAUM M ETEO uses the FORTRAN version, for portability and reliability (maintenability) reasons. At GETA, the ARIANE-78 system (Boitet/Guillaume/Quézel-Ambrunaz 1982) is programmed in ASM 360, PL360 and PL/I for the compilers and interpreters of the various SLLPs, and in PASCAL, or EXEC 2/XEDIT for the other tools, the management of the data-base and for the interactive interface (monitor). 2.4. Filtering or Treatment of Ambiguities In first generation M (A)T systems, ambiguities are solved as soon as they are encountered, and no backtracking is possible. Second generation systems, on the contrary, try to handle the ambiguity problem in better ways. Historically, the first idea is the ’filter’ technique, proposed by M el’čuk and Kulagina around 1956 (Kulagina/M el’čuk 1956; M el’čuk 1974; Kulagina 1979, 131 ff.). The analyzer builds all possible structures, at each level of interpretation, the hope being that constraints from higher levels will reduce the number of solutions. However, in practice, dozens or even hundreds of solutions may be produced for a sentence of average length, not speaking of the thousands or millions produced for one or several paragraphs treated as one unit. Also, the number of solutions may increase while trying to attain the highest levels of interpretation. The two examples above John drank/broke a bottle of beer) illustrate this point. In order to circumvent this problem, preference schemes have been developed, usually based on some weighting of the rules used during analysis. This is the technique employed, among others, by the M ETAL system (Slocum 1984 a). One drawback is that ambi-

XI. Application Fields III

674

guities are eliminated, but not recognized and treated as such: the output cannot give any indication that there were other interpretations, almost as likely to be correct. The last possibility is to treat the ambiguities, by representing them on the structure manipulated by the rule system. This is the technique employed in the systems built at GETA, which rely heavily on heuristic linguistic programming. The drawback here is that programming becomes more delicate, because the rules cannot be written in ignorance of the possible ambiguities. A current research topic consists in designing systems in which the ambiguities are directly represented, but in such a way that the main part of the rules could be written as if they wouldn’t exist, the other part being specialized in their treatment (Verastegui 1982).

3.

Analogy and Difference With Compiler-Compiler Systems

3.1. Analogy Compilers don’t understand the programs they compile: they can not tell which functions are computed by those programs. However, compilers can translate programs in other programs, which compute the same functions, hence preserving the meaning of the program. Translation of natural languages using implicit understanding relies on the same assumption that meaning can be preserved while transforming the form. Also, second generation M (A)T systems are often structured like multi-target compilers: analysis is independent of the target, transfer may be compared with translation of the abstract tree into an optimized representation for the target machine considered, and generation is analogous to code generation. As the grammars used to describe natural languages are not usually normative, but try to approximate the (sub)language considered, linguists change them frequently. This is why compiler-compiler systems have been developed for NLP earlier than for programming languages (Boitet/Guillaume/ Quézel-Ambrunaz 1982; 1985). These systems offer specialized languages in which linguists or computer scientists write their grammars and associated procedures. 3.2. Differences There are two main differences, however, between compiler-compiler systems for pro-

gramming languages and systems for developing M (A)T applications. First, the size and information content of the lexicon. No programming language provides for more than a few dozens of keywords, and lexical analysis is usually rather simple, given the definition of lexical items (keywords, identifiers, numbers, operators, literals, comments). This contrasts with the mass of information necessarily stored in the dictionaries of M(A)T systems. Second, the grammars cannot be constrained to be deterministic, because of the inherent ambiguities in natural languages. This means that the analyzers must provide facilities for handling non-determinism. (For a more detailed treatment of non-determinism see art. 31 section 4.5. and 18 section 3.4.1.). 3.3. Problems Specific to NLP Engineering M (A)T systems are mainly built by linguists and lexicographers, not by computer scientists, and their development require bigger teams, and for a longer time. This means that the programming environment must hide even more ancillary tasks from the users than compiler-compiler systems, and perhaps be in some respects less sophisticated. Another problem is the representation of the texts and lexical data in general, which are in several languages and character sets. Almost always. some transcription has to be used, even for languages written with the Roman alphabet, because of the diacritics and the case information. Input texts have to be transcribed into the internal format of the M (A)T system, and output texts must be transformed and formatted to appear as usual. In the ARIANE-78 system, for example, the sentence A Noël, M. LEGRAND a reçu le médecin. would be represented as *A!2 * NOE!4L, *M. **LEGRAND A REC!5U LE ME!1DECIN. No currently operational system is yet able to cope with multilingual texts in a way that respects the usual conventions concerning the character set(s) and their associated lexicographical orderings, but there is some active research in this direction.

4.

Software Engineering

Software engineering problems appear in the design, the implementation and the evolution of M(A)T systems.

53.  Software and Lingware Engineering in Modern M(A)T Systems

4.1. Design 4.1.1. Specialized Data-Base for Lingware Components and Texts The programming environment given to developers of M (A)T systems must include a data base for the lingware, as well as a data base for the test corpora. With the transfer approach, the lingware is necessarily organized around the three successive and independent steps of analysis, transfer and generation. Each step may be further divided into phases, such as morphological analysis, structural analysis, lexical transfer, structural transfer, syntactic generation and morphological generation (cf. the ARIANE-78 system Boitet/Guillaume/Quézel-Ambrunaz 1982). Very often, different phases of the translation process are written in different SLLPs (Q-systems, REZO and LEXTRA for TAU M -AVIATION, ATEF, ROBRA, TRANSF and SYGM OR for ARIANE-78). In turn, a step is frequently divided in physically separated components, containing for example (in ATEF) the declarations of grammatical properties (attribute/values), declaration of classes (templates or ’formats’ in French), the grammar(s) and the dictionaries. These components are mutually dependent, and any modification of a component leads to the decompilation of all depending components. These data bases of texts must also be kept coherent at all times, not an easy task, because a given text may give rise to several intermediate results, produced by different phases, in a multilingual (and multi-version) setting. These results should be erased whenever the phases which have produced them are modified, but the machine translations should be kept until the original text is modified, and the human revisions (or translations) should be even more protected from accidental destruction. For example, it often happens that some bugs are corrected in a grammar or a dictionary, or that spelling mistakes are corrected, for source texts which have already been translated and revised. The revised version then acts as a reference to evaluate the improvement in the machine translation. 4.1.2. Structure of the Specialized Languages As in other fields of AI, the declarative and procedural approaches are in competition. The declarative approach leads to rule sys-

675

tems with an underlying combinatorial algorithm, which produces a set or a subset of solutions in some fixed way. It is best exemplified by analyzers built on (extended) CFgrammars, or by the Q-systems. The main advantage is the relative ease of programming. But it is almost impossible to implement powerful heuristics, because, in essence, there is no way to control explicitely the computations of several possible interdependent solutions. The procedural approach has been followed in the more recent second generation M (A)T systems (which could be called the 2.5. generation type of systems). For example, the TAUM -Aviation system (Isabelle/Bourbeau 1984) uses REZO (Stewart 1975), which is a Q-graph transducer based on the ATN model. In ARIANE-78, ATEF and ROBRA give even more possibilities of heuristic programming. This added power, however, requires more programming skill. Let us detail those two SLLPs a bit, in order to be more specific. 4.1.2.1. ATEF In ATEF (Chauché 1975), the grammar describes a finit-state non-deterministic stringto-tree transducer. This grammar is implicitely divided into as many subgrammars as there are morphological formats (classes, or templates). Each item in a dictionary has such a format, which contains some static information, and is also referenced in the l. h. s. (left hand side) of one or several rules, which will be called in a non-deterministic way. The underlying mechanism for handling non-determinism is simple backtracking. However, heuristic functions may be called by the rules. Their effect is to prune the search space in several predetermined ways. For instance, one of these functions says: if the application of the current rule leads to some solution, then don’t compute the solutions w hich might be obtained from segments of strictly shorter length than the current one, beginning at the same character. Another heuristic function is used to simply state that, if the rule leads to some solution, this solution should be the only one: previously computed solutions are discarded, and further possibilities are not examined. 4.1.2.2. ROBRA In ROBRA (Boitet/Guillaume/Quézel-Ambrunaz 1978), and its predecessor, CETA

676

(Chauché 1974), there are several levels of control. First, a given transformational system (TS) has a given set of transformational rules (TR), which operate by substitution. Then there is a collection of grammars (TG), each made of an ordered subset of the TRs. The order is local to the grammar, and is interpreted as a priority order. Each TR may contain a recursive call to a (sub)TG or to a transformational subsystem (sub-TS). The top level of control corresponds to the TS (and its sub-TSs), and is described by means of a control graph (CG). The nodes of the CG are the TGs, and a special exit grammar (& NUL). Arcs bear conditions of the same type as l. h. s. of rules. ROBRA’s interpreter submits the input tree to the initial grammar of the current (sub)TS, and uses a built-in backtracking mechanism to find the first path leading from the initial node to the exit node, thereby applying the TGs found in the nodes, and traversing the arcs only if the attached conditions are verified by the current tree. In case of success, the result is the tree which reaches the ultimate exit grammar & NUL. In case of failure, the output is set equal to the input. A simple execution if a given TG is carried out in two steps. First, a ’parallel’ application of the TRs of the TG is performed, by selecting the maximal (according to some parameters attached to the TG) family of non-overlapping occurrences of rule schemas (1. h. s.) and applying the corresponding rules. Then, the recursive calls, if any, are executed, by submitting the appropriate subtrees to the called sub-TG or sub-TS. The execution of a TG in exhaustive mode consists in iterating simple execution of this TG until no rule is applicable any more. In controlled mode, a marking algorithm is used in order to strictly diminish the number of possible occurrences of rules at each iteration, ensuring termination of the process. Hence, it is possible for the compiler to statically detect possible sources of undecidability, just by checking the modes of the TGs, testing for loops in the CG, and verifying a simple condition on the form of the recursive calls. This kind of organization makes it possible to use text-driven strategies, which operate differently on different parts of the (tree corresponding to the) translation unit. GRADE (Nakamura/Tsujii/Nagao 1984) is another SLLP of the same structure. Why this trend from phrase-structure (PS)

XI. Application Fields III

rule systems to controlled production systems? Even with all (not so recent, see Veillon 1970) additions and niceties such as attributes, validation/invalidation between rules, attached transformations, etc., PS rule systems are not so adequate to the purpose of M (A)T. First, they may be used only for analysis. Second, the structures they attach to the strings are grammar-dependent, although language-dependent structural descriptors are sought. A third problem comes from the monolithic aspect of such grammars, which makes them very difficult and ultimately impossible to understand and modify, although everything seems right at the beginning, with a few hundred rules. Stratification of the grammar in the M ETAL sense (Slocum 1984) is a device allowing to preserve the results obtained in simple cases while rules are added to take care of more complex situations. Each rule has a degree, ranging from 0 to n, and expressing its ’difficulty’. The subgrammar Gi of degree i is made of all rules of degree j ≤ i. Analysis is performed with G0, G1, etc., until a success is obtained (by some Gi ), or until analysis fails with the Gn, in which case a minimal spanning forest is produced. For the complex cases, however, the grammar is just the collection of all rules, with no modularity. SLLPs such as ROBRA or GRADE offer several natural ways to program in a modular fashion: rules call on procedures, grammars group rules, transformational systems group grammars. Although procedural programming is notoriously more difficult than writing a collection of ’static’ rules used by a standard algorithm, leading to a yes-or-no answer, it seems better in a situation of incomplete and fuzzy knowledge typical in M (A)T. It happens that the same position has recently gained ground in AI, with the construction of expert systems, which embody a lot of procedural knowledge in their control and domain-specific heuristics. A last requirement of the SLLPs used for second generation M (A)T systems is to allow for some fail-soft mechanisms. The supercompilers built for natural languages should not stop and produce nothing if they encounter an ill-formed clause somewhere in the unit of translation. This leads to their design as transducers rather than analyzers: the result is neither a yes-or-no answer, nor the image of the process of acceptance or rejection, but a descriptor which should normally be defined in a functional way.

53.  Software and Lingware Engineering in Modern M(A)T Systems

4.1.3. Insertion in Larger Systems In a sense, a M (A)T system, with its own SLLPs and specialized data-bases, may be considered as a closed world. But translation does not occur in isolation. This is why the communication subenvironment is so important. At least, it must contain interfaces to convert texts from one outside format to the internal format, and conversely, to provide for the integration in documentation systems. This has lead to the development of yet another kind of specialized languages for transcription of texts at several places (Saarbrücken, Grenoble, see Lepage 1986). The M achine Translation system must provide facilities for the working translator to enable him to refine the translation by using full terminological support of a large terminological DB beyond the locally available terminology files (Melby 1982). 4.2. Implementation 4.2.1. Choice of Implementation Language(s) Given the size of the underlying software system, the choice of one or several implementation languages is not trivial, as has been said in 3.3. Even for preparing a lingware, some efficiency is needed. It is not possible to develop a M (A)T system if, as with the first versions of the EUROTRA software (Johnson/King/Tombe 1985), the translation of a short sentence, with a very small dictionary, takes almost one day. The same goes for the compilers, because life is not easy for developers if any change in a phase, or even a component, requires one hour of compilation. This is why the Q-systems have been rewritten in COM PASS at TAUM . For ARIANE-78, PL/I was once used (in 1976—77) for the SYGM OR interpreter (SYGM OR is the SLLP used for morphological generation). But the CPU time for this phase equalled the total for all other phases. A rewriting in assembler divided this CPU time by a factor of 40 or more. In 1986, it has similarly be decided by JICST (Tokyo) to rewrite the software of the M u-project (Nakamura/Tsujii/Nagao 1984) from LISP to PL/I (hopefully a faster version than the one available in Grenoble ten years ago!), because the translation by the prototype required almost 100 M ipw (million instructions

677

per word), 100 times more than with ARIANE-78 (or 40 times if subtracting the CPU time consumed for garbage collection and disk access), itself 40 times slower than SYSTRAN (because of ROBRA’s powerful pattern-matching mechanism). Nowadays, it seems that LISP may be best suited as the implementation language for the first version, because it has become reasonably efficient, portable and reliable, as many manufacturers support it. PROLOG is not yet a good candidate, but will certainly be one in 5 to 10 years from now. While programming the first version, however, software engineers should not think in ’pure lispian’ terms, but take essential decisions with ulterior optimization in mind. This optimization will consist in rewriting crucial parts in a lower level programming language, very portable, like ADA, FORTRAN-77 or C, or very specific and efficient, even going to macroassembler or microprogramming if necessary. 4.2.2. Usage of Existing Tools vs. System Independence In almost all cases, the developers of a M (A)T system have no time to write a whole system for their needs. This means that, even if they choose a portable programming language for the implementation, they rely on some system-provided utilities, like editors or formatters. Subsequently, a number of special facilities are developed with these tools, like functions for revision written in the macrolanguage of the editor (EXEC/REXX for IBM ’s XEDIT, the SHELL for UNIXbased editors, ...), or special formatting commands (e. g., for transliterations) written in the macrolanguage of the formatter (SCRIPT/VS, NROFF, TROFF, ...). Hence, although the SLLPs are sometimes implemented in a portable way, the environment of many M (A)T systems is systemdependent. The only way out, it seems, is to convert some existing editor and formatter to the chosen implementation language, and to write all utilities in this language. The fact is that the work is so big that no complete M(A)T system is truly portable today. 4.2.3. Text Representation in a Multilingual Setting A similar dilemma occurs for the representation and treatment of texts. As there are still no universal standards to represent multilingual texts, several transcriptions have to be used by a M(A)T system: (1) one or several input transcriptions, each

XI. Application Fields III

678

tuned to the character set available on a given input unit; (2) one w orking transcription, used for processing the texts; (3) one or several storing transcriptions (revised texts are easier stored in a transcription corresponding to some available keyboard than in some internal form like the minimal transcription of 3.3; (4) one or several output transcriptions, corresponding to the available output devices. In practice, documents have to be translated. They don’t contain only text, but figures, charts, formulae, ..., and their layout is of importance. Hence, the internal representation of the documents submitted to a M (A)T system should also contain some markups indicating the logical and the physical structure of the document. From the linguistic point of view, such marks may be quite useful in analysis. For instance, the elements of an enumeration denoted as begin_list < element1> ne w _elem < element2> ... end_list are usually grammatically homogeneous. Also, such markups may be used to construct a parallel presentation of the input and output document, especially if the unit of translation is not reduced to one sentence or one paragraph. 4.3. Maintenance and Evolution 4.3.1. Necessity of Upward Compatibility As said in 3.2. above, the development of a M (A)T system takes quite longer than that of a compiler, even more so in a multiligual setting, and involves considerably more people. These people must be trained to understand and use the basic software (SLLPs + environment) as well as possible, and this takes usually an important amount of time. This is why changes to the basic software must protect the investment of its users, hence be upward-compatible. This, of course, imposes some very strict contraints on the computer scientists in charge of the maintenance and evolution of the system. 4.3.2. Examples At Grenoble, for example, there has recently been some profound evolution in the basic software, from ARIANE-78 to ARIANE-85 (Boitet/Guillaume/Quézel-Ambrunaz 1985). A lingware written under ARIANE-78 has to

be submitted to only a few minor transformations to run under ARIANE-85. However, although tests are conducted internally since the end of 1985, the lingwares written by the French National M (A)T project (Boitet 1986 a) will be converted only in 1987, because the users, pressed for immediate results, would have no time to adapt to the changes in the new environment during the project. Apparently, the LOGOS system has recently undergone some similar transformations, to adapt it to WANG machines and then to IBM ’s VM /CM S system. It has been reported (Wheeler 1986) that the effort involved was quite important, although no major change in design was made. 4.3.3. Provision for New Technological Possibilities A particular challenge is posed by the emergence of new technologies, like window systems and graphic displays. If possible, changes have to be made gradually, while each time trying to make room for foreseeable technological advances. This is only possible if the developers keep abreast of current developments and research themes.

5.

Lingware Engineering

Lingware engineering may be viewed as an adaptation of classical software engineering. Basically, every phase of the translation process is constructed by successively writing two sets of descriptions. The first description is analogous to the set of specifications of a conventional program, and is often called the static description of the correspondence to be computed (partially) by the considered phase. This correspondence is usually many-to-many. The second or dynamic description, written in an approriate SLLP, specifies the process which will compute the correspondence in the desired direction. If choices have to be made by the process, they should also be described first in some static way (preferences). After the design phase is completed, implementation can begin. Grammars (dynamic) can grow quickly, but the bulk of the work is the construction of the M T dictionaries. Then comes the real touchstone period of debugging, maintenance and evolution, where good design, good tools and good methodology make all the difference.

53.  Software and Lingware Engineering in Modern M(A)T Systems

5.1. Design 5.1.1. Choice of the Representation System: Linguistic Properties and Structures The first tasks in designing a lingware are to specify the grammatical and the lexical systems. The grammatical system is defined as the collection of all attributes (reflecting natural language categories) which will be contained in dictionaries or computed by grammars, together with a precise explanation of the meaning of each attribute and each value it may take. For example, the system of semantic features should be organized in such a way that two lexicographers would attach the same set of features to the same term uniformly. Trivial as it may seem, this goal is rarely attained. To be more precise, there are two kinds of grammatical attributes. The first are purely linguistic, while the second are of a strategic nature, that is, they appear only in the specifications of the processes. For example, some attribute may encode the fact that a given ’valency slot’ has been filled. The lexical system is a set of conventions to define the lexical notions such as morphs, lemmas, terms and lexical units. Lexical units, such as defined by B. Vauquois (1975, 1979, 1983) are derivational families organized around one main lemma, each derivation being interpreted at the three levels of morphology (change of ending, root ...), syntax (change of class: verb → noun, ...) and semantics (defining paraphrase such as, for the passive potentiality: X-able ≃ which may be X-ed). Using lexical units as the basis of lexical transfer allows for a simpler structural transfer, and for more liberty to construct natural-looking paraphrases in generation. Following the grammatical and lexical systems have been defined, the form and content of the structural descriptors expected after each phase should be defined, with enough examples and readable comments. This is especially true for the intermediate structures produced by the analyzer and given to the generator, in order to make modular development by independent teams possible. 5.1.2. Grammars First, the core grammar of the language treated should be specified and implemented. It corresponds to the phenomena which appear in any typology. The closed classes of the lexicon (conjunctions, pronouns, auxiliaries,

679

modals, ...) are usually considered to be part of the grammar. Then, the phenomena specific to the typology of the sublanguage at hand are studied carefully, described, and preferably handled by specific grammar ’modules’, which should be as independent as possible of those corresponding to the core. Finally, the observed statistical regularities lead to the definition of preferences, implemented through appropriate weights, or disambiguation rules. In the CALLIOPEAERO system (Boitet 1986 a), for example, in the structural analysis of French, around 160 dynamic rules are concerned with the treatment of core and specific phenomena, while about 340 other rules are there for disambiguation purposes. The development of the dynamic grammars should be done in the time-honored way of stepw ise refinement, by decomposing the task into a few simpler tasks, defining first the upper levels of control, and proceeding down until the finest level of rules is attained. From this point of view, rules correspond to instructions of conventional programming languages. In order to be more specific, let us say a few words about the formalism of SCSG (Structural Correspondence Static/Specification Grammar) developed at GETA by B. Vauquois and S. Chappuy (Chappuy 1983; Vauquois/Chappuy 1985; Zajac 1986 b). This is the first such formalism used in large scale in M(A)T systems. A SCSG describes the correspondence between the strings of a natural language and the corresponding descriptive structures (also called structural descriptors or interface structures by B. Vauquois). Such a description is neutral with respect to analysis and generation, and does not express any particular strategy for computing the correspondence. The correspondence itself is defined constructively, by a context-free like mechanism. But the relation between a given tree and a given string in the correspondence is not necessarily projective, some elements of the string may have no counterpart in the tree, or there may be several corresponding nodes in the tree (e. g. in cases of elision), and so on. The elements of a SCSG are rules, called boards (planches), because of their twodimensional presentation. Each board is associated with a syntagmatic class, qualified as elementary, simple or complex. An elementary

XI. Application Fields III

680

class covers only the kernel of a construct, for example a noun, or a noun followed by a proper noun, for a nominal phrase. A simple class covers a construct which may contain constructs lower than itself in the hierarchy of classes declared in the formalism. For example, a simple nominal phrase may contain an adjectival phrase, but no nominal phrase. Complex classes may contain subconstructs higher than themselves in the hierarchy. Another kind of board, called ambiguity board, is used to express preference rules deduced from the observation of statistical regularities in the typology at hand. 5.1.3. Dictionaries Two types of dictionaries must be considered, on the top of the core dictionary mentioned in 5.1.1.: the general dictionary and the terminological dictionaries. The information which must be attached to lemmas (or lexical units) of the general vocabulary is complex, due to the variety of ways in which they can be used, and, as far as translation is considered, to their frequent polysemy. On the contrary, terminological terms exhibit a more restricted grammatical behavior, and the information attached to them in the M (A)T dictionaries is usually quite simpler than for the general terms. For example, safety valve will never be paraphrasable in translation as valve for safety or valve of safety : the equivalents are almost always lexically fixed. The problem of choosing which lexical units or terms to index in the M (A)T dictionaries is not trivial. Researchers like M . Gross (1986) have long insisted that all possible usages of all words of a language should be contained in the machine before any reasonable NLP application can succeed. This other form of the ’all-or-nothing’ approach has been demonstrated to be wrong by the very fact that many NLP systems are now in daily use, and prove useful, although their vocabularies are by no means complete. From a theoretical point of view, it seems also counterproductive to burden dictionaries with words or usages which will never appear in the envisaged application, because this may only increase the number of potential ambiguities. Then, if one must choose, how to choose? For both types of vocabulary, one may draw from existing dictionaries ( resources, see Walker 1985) and corpora of texts (sources), which are samples from the typology at hand. This gives rise to two extremes, the a priori and the a posteriori methods: either index the

words in the resources, or the words in the sources. In practice, it seems preferable to combine these two ideas, by indexing at first the terms belonging to both sources and resources, taking the most frequent in the corpora first, and then by indexing in parallel the other terms, giving priority to the terms most frequent in the corpora. Before actually constructing the M T dictionaries, a last task consists in defining the set of abbreviations (codes) which will be used, and to write indexing forms or indexing manuals. 5.2. Implementation 5.2.1. Grammars The development of large grammars is very much like that of a complex program. The main problem is to keep the perspicuity of the whole while it grows. Documentation aids seem unnecessary at the beginning, but are immensely useful later for large grammars. For example, the structural analyzer of CALLIOPE-AERO (Boitet 1986 a) was 18 000 lines long (in ROBRA) after 18 months of develoment. For this kind of work, a small team comprising computer scientists and computational linguists seems to be best suited. 5.2.2. Dictionaries: The Classical Way The classical way to build M (A)T dictionaries is to index the terms in all dictionary components of the system, using paper indexing manuals and/or machine aids (Bachut/Verastegui 1984). With the transfer approach, this means at least 3 different dictionaries, for analysis, transfer and generation. In each component, there may be several codes to associate to any given entry. As these codes are defined in other components, checking the correctness and the completeness of the indexing of a term or of a family of terms (lexical unit) is not easy. Another problem with this method is that the (monolingual) information countained in an analysis dictionary cannot, in general, be directly used to build a generation dictionary for the same language, and conversely. 5.2.3. Creation of Large, Specific Dictionaries From Lexical Data-Bases A first palliative to the drawbacks of the previous method consists in building a program showing all information related to a given set of terms, in a synthetic way. An example is

53.  Software and Lingware Engineering in Modern M(A)T Systems

given by the VISULEX system (Bachut/ Verastegui 1984) associated to the ARIANE78 and ARIANE-85 systems. But a far better solution is to construct lexical data bases, from which the actual M T dictionaries can be automatically produced. This is the approach taken by M ETAL (Slocum 1984 b), by the M U-project (Sakamoto/ Satoh/Yoshiyuki 1984) and by CALLIOPE (Boitet 1986 a). All these systems rely on some ’neutral’ dictionary for the monolingual information, and on a separate transfer dictionary for each language pair. However, these lexical data bases are specialized for the purposes of M T, and cannot easily be adapted to other uses. At several places, in particular in Japan (at ICOT) and in France (Boitet/Nedobejkine 1986), efforts are being made to specify integrated dictionaries or lexical data bases which would include all types of information used by normal readers, terminologists, translators, and computer applications such as voice synthesis, hyphenation, spelling correction, and of course M (A)T (Lexical Data Bases are treated in art. 39). 5.3. Debugging, Maintenance and Evolution As the grammars and dictionaries become eventually quite big and must be changed frequently to correct errors or to adapt to the ever-changing natural language input, good methods for debugging, maintaining and adapting a lingware are of primary importance. 5.3.1. Impossibility of the Proof Technique As the correspondence between an input text and its translation cannot be defined formally, because they are both forms of an implicit meaning, in the second generation paradigm, it is impossible in principle to prove formally the correctness of a M(A)T system. What could perhaps be done would be to prove that a given implemented analyzer or generator computes the correspondence described in its static specification, assuming the specification to be correct. But this needs a complete and precise formal definition of the semantics of the chosen specification language. Even if such a definition is available, the size of the specifications and programs under consideration make it unlikely that automatic proofs of correctness or incorrectness can be used in practice in the mid-term future.

681

What has just been said concerns mostly the grammars. For the dictionaries, where the information should be kept as ’static’ as possible, there are possibilities of a priori verification and a posteriori correction. 5.3.2. Techniques for a Priori Verification The idea is to scan (parts of) the dictionaries, using some filters, and to check the homogeneity of the terms whose features verify the filter condition. In practice, the codes (templates) themselves provide a good set of filters. Erroneously indexed terms become often quite conspicuous, if shown in the company of other terms having the same codes. Another method consists in building ad hoc grammars which generate all the forms associated to one or several terms, in order to check the coding of its flexion. For checking the equivalents, sorting by the source and the target terms is a simple way to exhibit splitted or converging translations. 5.3.3. Techniques for a Posteriori Correction Last, but unfortunately not least, the a posteriori method consists in recovering errors from the translations. It concerns both grammars and dictionaries. A good trace system must be provided, with various levels of detail and interactivity, in order to locate the source of the errors. This phase may last for the whole life of a system. This is why test corpora must be gradually constructed, and retranslated after any modification. It is often advisable to use two kinds of test corpora: (1) articial corpora made of short sentences, corresponding to types of constructs and/or of ambiguities; (2) real corpora, used for validating a new release of the lingware.

6.

Future Directions

The short term future will most probably involve two non exclusive kinds of efforts, the first to improve the design and operation of second generation M(A)T systems, the second to upgrade them in the direction of third generation systems. The most needed improvements are in the area of dictionary building, because, ultimately, this may represent up to 80% of the cost of a system. Research on (integrated) multipurpose lexical data bases is therefore important, as are efforts to prepare the ’skele-

XI. Application Fields III

682

ton’ of transfer dictionaries by some automatic processing of collections of pairs of source and translated text. As far as the increase in quality is concerned, new SLLPs should be constructed, to allow for ’encapsulating’ the representation and treatment of ambiguities. Also, better ways should be found to incorporate the contrastive know ledge of translators in a natural way, perhaps by designing natural language interfaces for the developers of M (A)T systems. Upgrading second generation systems in the direction of the third generation means to find ways to incorporate expert knowledge, or even pragmatic knowledge, in the process of translation. The most immediate possibility is to connect second generation M(A)T systems w ith domain-specific know ledge banks (KB) or expert systems (Gerber 1984, Gerber/ Boitet 1985). In situations where such a knowledge bank is developed and maintained for purposes other than translation, and where textual material (not produceable from the KB) have to be translated, this would amount to develop a small intelligent interface, relying on some knowledge of the structure and behaviour of both systems. Presented with an output from analysis, the interface would detect domain-related problems in it, convert them to questions to the KB, and use the answers to transform the linguistic descriptor in a suitable way. Another possibility is being investigated by the new M T research team at the Carnegie-M ellon University. The idea is to compile together the linguistic and extralinguistic know ledge into an integrated system (Tomita/ Carbonell 1986). This seems more difficult to realize than the interface idea, but should lead to better and faster systems in case of success, because the knowledge sources can be used in a cooperative way during the whole process. (For the AI approach to treat discourse see art. 25)

Last, but not least, there is the possibility to draw on the expert and pragmatic know ledge of the author of a document. This is a modernization of the idea of controlled languages, consisting in constructing a linguistic editor, parametrized by the grammar and dictionaries of the source language, and interacting with the author in order to produce very reliable, disambiguated interface structures, handed over to the transfer and generation components. The obvious advantage is that the analyzer may then rely almost exclusiveley on linguistic knowledge. Zajac (1986 a) has recently presented a detailed study of this approach.

7.

Literature (selected)

D. Bachut/N. Verastegui 1984 · C. Boitet 1976, 1985, 1986 a, 1986 b · P. Guillaume/M . QuézelAmbrunaz 1978 · C. Boitet/R. Gerber 1984 · C. Boitet/N. Nedobejkine 1981, 1983, 1986 · C. Boitet 1982, 1985 · Brockhaus 1976 · S. Chappuy 1983 · J. Chauché 1974, 1975 · A. Colmerauer 1970 · J. Courtin 1973 · J. M . Ducrot 1982 · R. Gerber 1984 · R. Gerber/C. Boitet 1985 · Grishman/ Sager/Raze et al. 1973 · M . Gross 1986 · J. P. Guilbaud 1984 · C. Hagège 1982 · Z. S. Harris 1962 · P. Isabelle/L. Bourbeau 1984 · Kulagina 1979 · Kulagina/M el’čuk 1956 · Y. Lepage 1986 · M . M cCord 1985 · A. M elby 1982 · J. I. Nakamura/J. Tsujii/M . Naqao 1984, 1986 · H. Nomura/H. Iida 1986 · Petrick 1965 · R. Rustin 1973 · Y. Sakamoto/M . Satoh/T. Ishikawa 1984 · M . Salkoff 1979 · J. Slocum 1984, 1985 · G. Stewart 1975 · H. Tanaka/H. Isahara/H. Yasukuwa 1983 · M . Tomita/J. G. Carbonell 1986 · L. C. Tong 1986 · B. Vauquois 1975, 1979, 1983 · B. Vauquois/S. Chappuy 1985 · B. Vauquois/C. Boitet 1985 · G. Veillon 1970 · N. Verastegui 1982 · D. E. Walker 1985 · P. Wheeler 1986 · W. Woods 1970 · R. Zajac 1986 a, 1986 b.

Christian Boitet, Grenoble (France)

54. Machine-Aided Translation: A Survey of Current Systems 1. 2. 3. 4. 5. 6. 7. 8. 9.

Routine and Creative Parts in Translation Translation Market Terminological Dictionaries Special Technology Special Problems of Machine Dictionaries A Powerful Instrument for Human Brain Basic Trends Microtranslators Literature (selected)

The concept of machine (automatic) translation provides for transfer of the basic translation functions and operations to a computer while leaving the functions of editing and updating of algorithms and dictionaries to humans. However, a computer may be also used as purely auxiliary means or a tool in the hands of a human-translator or editor who

54.  Machine-Aided Translation: Current Systems

performs basic operations during translation. When using an automatic dictionary or other brainwork mechanization means, these operations are defined as the machine-aided translation (MAT).

1.

Routine and Creative Parts in Translation

The machine-aided translation process is divided into a routine part and a creative part. The routine part is related to such operations as dictionary search, selection of translation equivalents, lemmatization, morphological analysis, error correction etc. These functions can be performed by a computer because they may be described by relatively simple algorithms. The operations of creative nature, such as formation of the syntactic structure of the output sentence in an exact correlation with its semantic contents, resolution of semantic ambiguities etc. will always be a man’s share of work. 1.1.  The use of computers for translation is a part of the complex theoretical problem of the automatic information processing contained in texts in the natural languages. Current scientific, methodological and practical aspects of this problem are discussed extensively in the literature (Kotov/Kurbakov 1983, 1). M achine dictionaries which form an essential part of the M AT systems give rise to an independent theoretical, methodological and practical set of problems. These dictionaries differ from ordinary ones compiled by man in a number of aspects: in selection of vocabulary, principles of formation, relation to standards and usage, and finally in the scope and structure of information attached to lexical units. A special branch of lexicography has been formed: computational lexicography, the subject matter of which is the construction of machine dictionaries (automatic dictionaries, M arčuk 1976, 17). 1.2.  Apart from other aspects, translation is a pragmatic problem: it is important to know what, for whom and how to translate. The answers to these questions form the theory of translation to a considerable extent. Not all texts can be efficiently translated by computers, therefore the theory of translation deals with types of texts. The machine-aided translation covers mainly the scientific and technological texts; that is why translation of the

683

latter constitutes the main amount of materials translated in the world. In addition, the scientific and technical texts are not homogeneous in terms of possibilities of using mechanical and computational means for rendering assistance to a human-editor or translator; therefore the typology of such texts has not only a scientific, but practical significance as well. Special research works on the problem of typology of the scientific and technological texts are conducted in the All-Union Centre of translation of scientific and technological literature and documentation (Vannikov 1984, 11). They are aimed to solve the question ’What to translate’. The questions ’For whom’ and ’How’ to translate are elucidated in a general context of the contemporary mass communication. The M oscow State University conducts special research works on the problems of mass communication from the point of view of the modern philological science. The information science constitutes an integral part of the mass communication. Philological problems of the information science are indissolubly related to an essentially new fracture of texts of the mass communication, to the progress of technical means, many of which are used in translation as one of the variants of the mass communication texts processing (Roždestvenskij 1979, 181).

2.

Translation Market

The modern pragmatic aspects of translation are expounded in a special research work conducted within the framework of the European Economic Community. In this study the present market of translated materials, growing demands for translations, economic and cultural connotations of the translation activity in Europe and in the world, prospects of the translation automatization and expansion of the market are described in detail (Slype/Guinet/Seitz et al. 1983, 135). M achine-aided translation was highly appraised by specialists who studied the translation market already in the 60-ies (Alpac-Report 1966; Krollmann/Schuk/Winkler 1965, see also Bruderer 1978). 2.1.  At present automatic dictionaries and systems of the machine-aided translation are widely used in translation services and organizations making translations. The process of automation of the translation process is most urgent for the multilingual countries or multilingual communities because M T is the

XI. Application Fields III

684

only efficient means to overcome the language barriers. The projects related to development and utilization of a universal language for the international communication have not yet been attempted on a larger scale. In the opinion of senior translation officials and information experts, the use of any natural language as a supernational interlingua could hardly be possible, since the growth of national self-consciousness and emergence of new states with their own national languages results in a situation when the higher is the progress of a certain language community, the bigger price it is ready to pay for the right to use its own language. For the bilingual or multilingual countries the problem of translation is the most acute. Canada is one of the leading countries in the fields of automation of polylingual translation. There are several systems with the automatic dictionaries in operation (Thouin 1983, 228). 2.2.  One of such systems, the Weidner system, has been installed and used for a considerable period of time by M itel Corporation and by 22 commercial enterprises throughout the world. Translation of the large files of text of standard contents is performed in a shorter time, insuring uniformity of the terminology and prompt proof-reading of texts in cases of rather frequent changes in descriptions as the terminology improves. The Weidner System is an example of the machine-aided translation operating on commercial basis without being specialized for a particular subfield. Operation of the ALPS system, which has been in use since 1982, illustrates the use of the automatic system at the specialized translation agency (Danik 1984, 4). Both systems provide for the following methods of operation: look-up in a dictionary entered into the computer memory for all words or for a certain list of words of the text to be translated, canonizing word-forms, and the determination of translation equivalents. A dictionary updating constitutes a considerable share of operations because the suppliers provide only a relatively small dictionary as a basic corpus. The user extends the dictionary by a special program adapting it to his own requirements. 2.3.  kind sian by a

A multipurpose dictionary is a special of an automatic dictionary. For the Ruslanguage such a dictionary is compiled group of researchers in Leningrad under

the guidance of R. G. Piotrovskij (Beljaeva/ Luk’janova/Piotrovskij 1976, 31). It is a universal storage of information for a machine-aided solution of various tasks beginning from a foreign language texts translation to an organization of a ’man-computer dialogue’. The semantic code contained in this dictionary embraces the following types of information: indication to a word terminologibility (non-terminologibility); semantic word characteristics; indication to an association of a concept expressed by the word with other concepts. A semantic code of a word implies its reliance to a certain lexicosemantic group. Such a code is formed relatively to every sublanguage using special classification graphs.

3.

Terminological Dictionaries

Terminological dictionaries are of a special importance in the scientific and technical translation. Terminological dictionaries are classified according to the same parameters as any other dictionaries. However, all of them have specific features which distinguish any terminological dictionary from a nonspecialized one. In the terminological dictionary the vocabulary of science, technology and business prose is the object of description. According to their purpose, dictionaries are subdivided into two types: 1. dictionaries intended for a direct utilization by man and 2. dictionaries which should meet the information requirements of man indirectly — through an automatic system. The dictionaries of the second type are intended for computers (Gerd/Kobrin/Lejčhik et al. 1983, 34). Among them, terminological data banks may be singled out. The terminological data bank makes the work easier for (1) translators, because it ensures for them a rapid access to the more modern dictionaries as compared to the use of ordinary dictionaries in the form of books. The data bank can be supplemented and updated immediately whereas the updating and republishing of an ordinary dictionary takes several years; (2) for translators and editors by ensuring for them a prompt access to the experience accumulated by their colleagues; a shift to new field is implemented more rapidly; and (3) for terminologists by providing for them a more flexible tool, than dictionaries and directories in a book form, and by simplifying considerably the transfer and exchange of terminology between different organizations and countries. If tradi-

54.  Machine-Aided Translation: Current Systems

tional dictionaries contain dozens of thousands of words, the terminological data banks are more extensive and can contain hundreds of thousands of lexical units. Thus, the terminological data bank of the LEXIS translation agency in West Germany contains approximately 850 thousand EnglishGerman lexical units, 300 thousand RussianGerman, 200 thousand French-German, 7,5 thousand Dutch-German, 6 thousand Portuguese-German, and 2,5 thousand ItalianGerman lexical units. EURODICATOM contains 163 thousand French terms, 159 thousand terms in English, 95 thousand terms in German, 80 thousand terms in Italian, 70 thousand terms in Dutch, and 67 thousand terms in Danish (Slype/ Guinet/Seitz et al. 1983, 89). The TEAM system (Terminology Evaluation and Acquisition M ethod), developed by SIEM ENS, renders assistance to a human translator in performing the following three basic options: (1) a compilation of a list of terms in the order of their occurence in the text; (2) a compilation of an alphabetical list of word-forms in a given technical field; and (3) a direct access to words or combinations of words using a display terminal.

4.

Special Technology

Text processors are wildly used presently. A text processor is equipped with a type-writer and with three additional functions: (1) text storing (from several lines to thousands of pages depending on the machine type): a text, originally typed by hand at a maximum rate of 2 characters per second, is stored and can be later retyped automatically at the rate of 15 to several hundreds of characters per second depending on the machine type; (2) updating, when a letter, a word, a combination of words or the whole sentence can be changed, deleted or appended to the text without retyping the entire text; (3) automatic type-setting including correction modification and other operations on the text, arranging it in columns etc. Such a computer may be used by a typist or a human translator. In the latter case the sequence of operations is the following: — typing the translated text in a consecutive order on the keyboard; — reading the text after translation from a display or printed form depending on the machine type;

685

— making corrections (by a human translator); — revising and amending if necessary (by a human editor); — final high-speed reprinting of the edited finished text. Displays connected to a computer allow the user to write, to check and to process several texts in parallel due to the fact that the display screen may be divided into several windows where an input text, a dictionary and an output text can appear simultaneously. 4.1.  The translation proper of the scientific and technical literature takes only about 20 percent of the working time of a human translator. 40 percent of that time is spent for searching terms and 40 percent is spent for retyping, arranging figures, making corrections etc. At the beginning of the automatic dictionary usage, the updating and search of terminology take 80 percent of the working time whereas a translation takes 20 percent. However, subsequently after the dictionary is saturated the updating takes only 5 percent of the working time while 95 percent is spent for translating, proof-reading. The productivity of labour may achieve 800 words per minute (Hundt 1982, 48). The automatic dictionary of the All-Union Centre for Translation has the English, German, French, Russian and Hungarian lexical files and is oriented at such topics as ’Computing technique’ and ’Aviation’. This dictionary has two modes of operation: a dialogue mode, which is implemented using a display, and a batch processing mode, when the alphanumeric printer is used to output the response messages. It is expedient to use the first mode when reading the scientific and technical literature, when editing and translating texts of small size. The second mode is beneficial when the translations are voluminous. The translator enters unfamiliar words and terms into a request form. When the request is processed, the translator obtains a list of terms with the corresponding translation equivalents in the target language. The lexical files are formed on the basis of the terminological standards, including new express-glossaries which are compiled upon examination of the text corpora. A lemmatization algorithm allows the user to convert a text of the request into a lexicographical one (Zdornych/Sokolova/ Ubin 1984, 68).

XI. Application Fields III

686

5.

Special Problems of Machine Dictionaries

The problems related to the structure of the automatic dictionaries of any natural language, such as lemmatization, the selection of word-changing and word-forming elements are elucidated systematically in the monograph by Heß/Brustkern/Lenders (1983) on the account of machine-readable dictionaries available in German. Lexical bonds are defined here by the means of macro- and microstructure. The macrostructure describes how the lexical units are to be arranged in the dictionary, the entries can be in an alphabetical order, in semantic groups or in frequency distribution. The microstructure defines the structure of individual lexical units of the dictionary, i. e. how the morphological, syntactical and semantic-information on the lexical entries is to be presented. 5.1.  The need for an automatic morphological analysis and an abbreviated recording of words of an input dictionary have lead to emergence of a new field of specialisation within lexicography-morphemography. The editors of dictionaries arrived frequently to an idea that it will be necessary to include information on morphemes, first of all derivational morphemes, into dictionaries. The information on derivathemes consists of a word-forming meaning, morphological variants, source of loan-words and synonymous affixes. In addition stylistic information of the affix, including its applicability in a certain terminological sphere, can be defined. 5.2.  M orphemography (esp. derivatography) of English, German and Russian was initiated in particular by the Soviet research workers. The object of morphemography is to describe the basic language and vocal characteristics of morphemes (including roots) both quantitatively and qualitatively, and not only in synchronic, but also in diachronic aspects taking into account the association with functional styles. In the English language, 96 English suffixes were described using 7 parameters, describing allomorphemes, phonematic variant, junction type, distribution, etc. A description of every German derivative is given in the form of a lexical entry containing information on 8 parameters (status, origin, derivative kind, etc.). The description operates with 770 affixes, semiaffixes, and parts of compounds engendering long chains of derivations. At present, this set of derivatives is unique considering the high number of af-

fixes described, and the completeness of description of their semantics. The Russian grammar contains the basic information on 87 prefixes and 530 suffixes (Bartkov 1982, 35). 5.3.  In the contemporary Soviet linguistics, great attention is paid to a semantic analysis of vocabulary. The methods of the semantic analysis allow us to compile specialized dictionaries for text processing in machine translation systems or for an independent usage in a computer-assisted translation mode. 5.4.  In the All-Union Centre of translations, the French-Russian machine-aided translation “FRAP” (French-Russian automatic translation) is being developed. The system relies on the usage of several dictionaries supported by a complete set of the linguistic information. (Leont’eva, Kudrjašova, Sokolova 1979, 33).

6.

A Powerful Instrument for Human Brain

M achine-aided translation relieves human translator (and editor) of the routine part of the translator’s job, i. e. the search for a word in the dictionary, selection of translation equivalents for individual lexical units, rewriting (retyping) of texts, insertion of updatings, compilation of auxiliary word lists (glossaries) etc. The human translator has now the opportunity to go over from the hand operated card-indices, pen and paper to a considerably faster and more efficient technology. It should be noted that the operation of text processors and other devices requires a special training although they are similar to type-writers. Nevertheless, according to all the information available, the translation process is accelerated after training by 50—58 percent with quality being improved.

7.

Basic Trends

There are two basic trends in machine-aided translation. The first trend involves a combination of lexical support to translation with machine translation. While earlier machine translation was developing separately and independently from the machine (automatic) dictionaries aiding human translators, now the rapproachment of the two lines of the computer usage can be witnessed. On the one

54.  Machine-Aided Translation: Current Systems

hand, the automatic dictionaries, based on ever growing potentialities of the computing technique and new I/0 and interactive devices, expand their capabilities by involving new algorithms and ensuring more complicated operations on dictionaries and texts. The lexicographic information is expanding, algorithms for canonizing word-forms are being developed, dictionaries are being provided with the capabilities to store combinations of words rather than to separate wordforms only, closest and somewhat divergent contexts can be considered during translation. On the other hand, the machine translation has undergone serious changes. A completely automated translation of high quality is neither the nearest nor even a more remote goal of the research because the majority of researchers have come to a conclusion that such an ideal cannot be achieved. The machine translation systems are being considerably simplified. One may affirm that the core of the M T analysis has shifted to the search for an optimum interactive technology insuring a dialogue between a man and a computer in the course of translation. This is the goal which is set before the editors of the machine dictionaries. M achine translation systems are discussed in the contemporary surveys jointly with the systems where the computers are used as an aid to human translators (Slocum 1984 a). 7.1.  As it has already been mentioned the ALPS system is a simplified version of the Brigham Young University M T system. Numerous capabilities of this system, in particular the sequence of a word-form processing, assignment of the information necessary for an analysis and translation to the lexicographic units, method of interaction between a man and a computer while translating and tuning the system in accordance with the text types, are based on the principles used in M T systems. 7.1.1.  The machine-aided translation system of the Pan American Health Organization has been in operation in Washington, D. C., USA, since 1980. The system translates any text of medical contents without pre-editing. By September 1983, 1 350 336 words were translated for 62 users according to 425 separate orders. The translation is performed in a batch processing mode. A text from the word processor (WANG OIS 140) is entered to the computer IBM 4341 using DOS/VSE and after processing it is transferred back to

687

the word processor. 2600—3200 words are processed per minute. This means that the central processor handles 768 pages per hour. Such a performance in a batch mode is very high and virtually eliminates the need in an interactive mode. The text is translated sentence by sentence. A number of modules perform grammatical analysis. Each module executes its own task, for example, one module resolves a grammatical homonymy, or it handles prepositions and articles, etc. The size of the program is about 210K and dictionaries occupy 17.4 M byte of the disk storage. After the M T-phase, the post-editor corrects the errors made by the machine and the corrections are entered the text using the word processor, and then the text is reprinted in the final form. 7.1.2.  Such a system is not a machine translation system in a current understanding because analysis and translation algorithms cannot execute the complicated tasks involving the resolution of a syntactic and semantic ambiguity. Complicated cases of translation are deliberately left to a human translator or an editor. Nevertheless, the machine takes a considerable share of work in spite of the fact that a part of machine ’decisions’ have to be corrected (Vasconcellos, 1984, 21). The first trend is the gradual combination of the machine translation and machineaided translation in terms of a technology and linguistic support. It is believed that at a certain optimum stage of such an interaction the problem of a “high quality machine translation” would be solved by itself. 7.2.  The second trend lies in the fact that the automatic dictionaries compiled to assist a human translator become more specialized and are adjusted to the needs of specific users. The modern technology allows the user to compile a dictionary efficiently during its utilization, to update it, and therefore, the suppliers of the automatic dictionaries do not need to include a great number of words at the beginning of their utilization. During compiling a dictionary, the lexicographic information required for resolving ambiguities will be provided for the new words automatically. The last case requires the knowledge of the basic principles of the system operation, the skill to input the necessary information using a display and to check for correctness of its storage and subsequent utilization. Therefore, a translator and an editor who

XI. Application Fields III

688

uses the automated system should learn the fundamentals of the computer operations. It takes some efforts to overcome a certain psychological barrier because linguists prefer to work traditionally using a pen and paper, rather than using the computer keyboard. The situation is changing, however, by proliferation of text and word processors.

8.

Microtranslators

A particular place is occupied by microtranslators which currently appeared on the market. They do not present any considerable interest to the professional translators or editors. One may believe that they are related to the problem of communication in an unknown language rather than to the problem of the machine-aided translation. However, some features of these microcomputers are interesting enough, especially those features that ensure a dialogue discourse, a transition to a search for the groups associated by word meanings etc. which requires a special semantic organization and its verbal expression, as well as the hierarhical order of voca-

bulary and word combinations. It is quite possible that the technology used in microtranslators may pertain in some aspects to the professional machine-aided translation systems M( alaškevič/Nechaj/Tribis 1983, 124—125; Somers 1983, 16).

9.

Literature (selected)

B. I. Bartkov 1982 · L. N. Beljaeva/E. M Louk’janova/R. G. Piotrovskj 1976 · H. E. Bruderer 1978 · A. Danik 1984 · A. S. Gerd/R. Ju. Kobrin/ V. M . Lejčik et al. 1983 · K. Heß/J. Brustkern/W. Lenders 1983 · M . G. Hundt 1982 · R. G. Kotov/ K. I. Kurbakov 1983 · F. Krollmann/H.-J. Schuk/ U. Winkler 1965 · Alpac-Report 1966 · N. N. Leont’eva/J. M . Kudrjašova/E. G. Sokolova 1979 · A. A. M alaškevič/O. A. Nekhaj/L. I. Tribis 1983 · Ju. N. M arčuk 1976 · Ju. V. Roždestvenskij 1979 · J. Slocum 1984 · G. van Slype/J. F. Guinet/F. Seitz et al. 1983 · H. L. Somers 1983 · B. Thouin 1983 · Yu. V. Vannikov 1984 · M . Vasconcellos 1984 · T. A. Zdornyh/E. N. Sokolova/I. I. Ubin 1984.

Yu. N. Marchuk, Moscow (USSR)

55. Information Retrieval: Verfahren des Abstracting 1. 1.1.

1.2. 1.3. 1.4. 2. 2.1. 2.2. 2.3. 3. 4.

1.

Die informationsmethodische Funktion von Abstracts Abstracting — eine Inhaltserschließungsform im Paradigma des Information Retrieval Historischer Exkurs Intellektuelles Referieren — ein Modell für das automatische Abstracting? Volltextinvertierung als Alternative zum Abstracting Methoden des automatischen Abstracting Einfache Oberflächenverfahren Syntaktische und semantische Ansätze Textlinguistische Methoden und Möglichkeiten der Wissensrepräsentation Graphische Alternativen Literatur (in Auswahl)

Die informationsmethodische Funktion von Abstracts

1.1. Abstracting — eine Inhaltserschließungsform im Paradigma des Information Retrieval Abstracting,

für sich und als Funktion des

Retrieval, steht im Zentrum des methodischen Interesses der Informationswissenschaft. Dies gilt gleichermaßen für die praktische Kunst des intellektuellen Referateerstellens und die theoretische Herausforderung, diese Kunst in Programme für Rechner zu überführen. Abstracting (in seinen Variationen im folgenden synonym mit ’Referieren’ verwendet) zählt neben Indexieren (d. i. das Zuteilen oder Ableiten von freien oder kontrollierten sprachlichen Ausdrücken — Stichwörter, Schlagwörter oder Deskriptoren in der linguistischen Form von Einzelwörtern oder Wortphrasen — zu/aus Texten) — und Klassifizieren (d. i. das Zuteilen von Inhaltsklassen repräsentierenden numerischen oder textuellen Zeichenketten) zu den klassischen Formen der dokumentarischen Inhaltserschließung. Zuweilen wird sogar behauptet, daß sich am Abstracting am ehesten die dokumentarische Kunst der Textverarbeitung zeigen lasse, die dem Ziel gewidmet sei, Texte — Dokumentare sprechen wenig leidenschaftlich von dokumentarischen Bezugseinheiten (DBE) — auf die wesentlichen inhaltskennzeichnenden Elemente zu reduzieren und deren Zweck in der Regel schon dann erfüllt

55.  Information Retrieval: Automatischen Abstracting

sei, wenn es gelänge, die Wege zur Information der Originaltexte offenzuhalten. Inhaltserschließung ist sicherlich in mancherlei Hinsicht auf dem Wege zu einer Repräsentation des in den DBEen niedergelegten Wissens. Indexieren, Klassifizieren und Referieren können als (Vor)Formen der Wissensrepräsentation verstanden werden, die sich auf konzeptuelle Sprachen wie den semantischen Netzwerken vergleichbaren Thesauri oder prozedural orientierte Indexingoder Abstracting-Regelwerke stützen. Vergegenwärtigt man sich jedoch die wesentlichen Aufgaben der Inhaltserschließung — Reduzierung der Ausgangstexte auf die als wesentlich erachteten inhaltskennzeichnenden Einheiten (wobei diese Auswahl eine höchst strittige Funktion der heterogenen Benutzerinteressen ist) und Verweis auf die Ursprungstexte —, so wird deutlich, daß Indexieren und Referieren systematisch und historisch die Formen der ’Wissensrepräsentation’ darstellen, bei denen gedruckte Texte (in der Regel Fachartikel) die Bewahrer des gesellschaftlich erarbeiteten Wissens sind und aus denen in der Auseinandersetzung mit ihnen neues Wissen abgeleitet wird. Die Funktion von Abstracts kann mit dem Begriff der Referenzinformation gekennzeichnet werden. Darunter wird eine solche Information verstanden, die zwar auch selber Information ist, aber darüber hinaus auf andere Informationen verweist. Ein typisches Beispiel für eine Referenzinformation ist ein bibliographischer Eintrag in einem Katalog oder in einer elektronischen Datenbank, der auf den Originalartikel verweist. Ein Referat, vor allem in seiner indikativen Gestalt, hat in der Regel diese referentielle Funktion, und zwar häufig genug schon in der Nullstufe, wenn die Information des Referats nämlich ausreicht, der Referenz wegen Irrelevanz nicht weiter nachzugehen. Neuere Techniken der Wissensrepräsentation zielen in der Ausrichtung auf FrageAntwort-Systeme, Expertensysteme oder Wissensbanken (Lenat/Prakash/Shepherd 1986) möglicherweise auf neue Formen im Umgang mit Wissen ab, die nicht mehr auf Texte im herkömmlichen Sinne angewiesen sind. Indexing und Abstracting hingegen sind Funktionen des (dokumentorientierten) Information Retrieval (Kuhlen 1979), und dieses, sofern es geglückt ist, also einschlägige Texte nachgewiesen hat, ist erst der Beginn der eigentlichen Informationserarbeitung, der Auseinandersetzung des ’Endnut-

689

zers’ mit dem Text. Natürlich sind auch hier die Grenzen fließend, und es spricht aus informationsmethodischer Sicht einiges dafür, den Referenz-Begriff des Information Retrieval zu erweitern (Hahn 1985; Kuhlen 1985). Aus Informationssystemen werden so tendenziell Wissensbanken. Daher spricht man heute beim Information Retrieval mit gewissem Recht von Wissensrepräsentation und Schlußfolgern. Ob dann noch Referate in ihrer textuellen Gestalt funktional sind, ist eine offene Frage, die in den gegenwärtig laufenden Abstracting-Projekten, die bezeichnenderweise ihre Tätigkeit auch eher als Textkondensieren begreifen (vgl. Hahn/Reimer 1986), diskutiert wird. Im Paradigma des Information Retrieval, das die Praxis der im Einsatz befindlichen und experimentellen Informationssysteme bestimmt (Kuhlen 1979; Salton/M cGill 1983), — und erst recht mit Blick auf die Formen der Referenzinformation, die der Elektronisierung vorangehen, wie z. B. Referateorgane, die dann in Informationsbanken überführt wurden — war das Referieren eine angemessene und herausragende Form dokumentarischer Inhaltserschließung. Bei dieser gewissen Sonderstellung des Referierens macht es durchaus auch Sinn — und ist nicht nur Ausdruck der methodischen und ökonomischen Problematik, mit Volltexten umzugehen —, wenn in der Geschichte des automatischen Indexierens bis heute (Lustig (ed.) 1987) Referate, und nicht die Volltexte selber, fast immer die Basis für den Automatisierungsprozeß der Inhaltserschließung waren. Dahinter steht die Hypothese, daß das Referateerstellen umfassenderes Textverstehen voraussetze und damit den Inhalt von Texten vollständiger und präziser wiedergeben könne als der Vorgang des Indexierens. Diese Hypothese konnte im übrigen durch Retrievalvergleichstests von automatischem Indexieren auf der Basis von intellektuell erstellten Referaten und intellektuellem Indexieren auf der Basis von Volltexten, die zumindest nicht zum Nachteil der automatischen Verfahren ausgingen, bestätigt werden. Zumindest der Anspruch der größeren Vollständigkeit von Referaten kann meßtheoretisch durch die durchgängig günstigeren Recall-Werte, welche eben diese Vollständigkeit messen, beweisbar gemacht werden (Tenopir 1985), mit der einleuchtenden Konsequenz, daß auch das auf Referaten basierende automatische Indexieren eher Recall-Vorteile erzielen kann (Fuhr/Niewelt 1983). Auch intuitiv leuchtet das Argument

690

ein, daß Indexate (als M enge der beim Indexieren gewonnenen ’sprachlichen Ausdrücke’) aus Referaten abgeleitet werden können, wohl kaum aber Referate aus Indexaten. Umstrittener ist die Reklamation der gegenüber Indexaten größeren Genauigkeit von Referaten. Diese kann sich im wesentlichen auf das textlinguistische Argument des Bewahrens von Kohäsions- und KohärenzInformation abstützen, da Referate in der klassischen Form zumindest textuell organisiert sind, wohingegen Indexate eventuell noch durch das Verwenden der pseudosyntaktischen M ittel der Rollen- und Verknüpfungsindikatoren (’roles’ und ’links’) Beziehungen zwischen Konzepten, also Kohäsionsstrukturen, bewahren, jedoch den Argumentationsverlauf von Texten nicht mehr widerspiegeln können. Ob dies allerdings mit Blick auf die wesentlich referentielle Funktion von Abstracts vonnöten ist, bleibt zumindest ungeklärt. Zuweilen gehen der theoretische Anspruch an Abstracts und wohl auch die Erwartungen von Lesern von Referaten weiter. Die einschlägigen Normen (DIN 1426 und ISO 214) und die meisten praktischen Regelwerke (vgl. Borko/Chatman 1963; Kuhlen 1986) unterscheiden zwischen indikativen und informativen Referattypen und legen für die Praxis M ischformen, eben indikativ-informative Referate, nahe. Informative Referate bzw. die informativen Teile von hybriden Referaten können Originale, die Volltexte, ersetzen, zumal dann, wenn sie, wie es in den Regeln in der Form von Positionsreferaten auch vorgesehen ist, normierend vorstrukturiert sind. Dann sind Referatesammlungen bzw. tabellarische Zusammenstellungen der wesentlichen Inhalte von Texten in der Tat unterwegs zu den Wissensbanken (Lenat/Prakash/Shepherd 1986), vor allem wenn auf sie interaktiv über Rechnersysteme zugegriffen werden kann. 1.2. Historischer Exkurs Historisch gesehen hat man mit Referaten auf die Notwendigkeit reagiert, die wissenschaftliche Produktion von Fachgebieten überschaubar zu halten. Dieses Bedürfnis artikuliert sich bis heute dann, wenn entweder der Umfang dieser wissenschaftlichen Produktion so erheblich wird, daß wichtige Arbeiten von an sich Interessierten gar nicht mehr wahrgenommen werden (das ist das quantitative oder wissenschaftsimmanente Argument für Referate), oder wenn es sich die Gesellschaft nicht leisten will, Ergebnisse

XI. Application Fields III

der Forschung auf ihre Verwertbarkeit nicht überprüfen zu können (das ist das qualitative oder Verwertungsargument). Nach allgemein anerkannter — und sowohl systematisch als auch historisch zu belegender — M einung (vgl. Borko/Bernier 1975; M athis/Rush 1985; Skolnik 1979) leiten sich verstärkte Anstrengungen, wissenschaftliche Untersuchungen in einen organisierten Zustand zu bringen, aus dem 17. Jahrhundert ab. Als wesentlicher Einschnitt wird Bacons Vorschlag zur Gründung eines ’college of research’ angesehen. Der Gründung der ’Royal Society of London’ (1665) folgten viele weitere europäische wissenschaftliche Gesellschaften. Die ersten ’Proceedings’ (’The Philosophical Transactions’) erschienen schon im Gründungsjahr. Zu Beginn des 19. Jahrhunderts (1821) ist mit der Publikation der ’Jahresberichte über die Fortschritte der physischen Wissenschaften’ durch Berzelius eine neue Systematisierungsform gefunden. Auch schon im 18. Jahrhundert gab es ähnliche Anstrengungen, z. B. das ’Berlinische Jahrbuch für die Pharmacie und die damit verbundenen Wissenschaften’, das bis 1840 erschien. Der erhöhte Bedarf nach kontinuierlicher Information in einem Fachgebiet findet seinen Niederschlag in den Abstracts des ’Pharmaceutischen Centralblattes’ (1830). Danach steigt die Zahl der Referateorgane kontinuierlich an. Bis in die M itte des 20. Jahrhunderts sind Referateorgane die beliebteste und vorherrschende Form der Referenzinformation (Baker/Horiszny/ M etanomski 1980). Interessanterweise hat das Aufkommen der Online-Informationsbanken die informationsmethodische Beschäftigung mit Referaten nicht eingeschränkt. Zwar mag es sein, daß Online-Informationsbanken das sukzessive Ende von Referateorganen in ihrer gedruckten Form bedeuten können, der Informationswert von Abstracts beim Überfliegen von Retrievalergebnissen scheint den Nutzern von Informationssystemen jedoch nach wie vor hoch zu sein. Entsprechend wird auch heute noch viel methodische Energie beim Formulieren von Regeln zum Referateerstellen aufgebracht. Viele Regeln aus der Dokumentationspraxis sind erst neueren Datums (vgl. Kuhlen 1986). 1.3. Intellektuelles Referieren — ein Modell für das automatische Abstracting? Das intellektuelle Referieren scheint gut erforscht und beherrscht zu sein (vgl. Wellisch

55.  Information Retrieval: Automatischen Abstracting

1980, 1984). Der Prozeß des Referierens hängt von der Vertrautheit des Referierers mit der Sprache des Originaldokuments, aber entscheidender noch von dem Wissen über den Gegenstandsbereich ab. Untersuchungen haben ergeben, daß Experten dazu neigen, zu wenig Information aus dem Text herauszuholen, Laien dagegen nur unzureichend zwischen wichtigen und bekannten Daten unterscheiden können. Am besten ist wohl eine mittlere Qualifikation zwischen den Extremen ’of expertise and passing knowledge’ (M athis/Rush 1975, 111). Sicherlich ist es leichter, Experten das Referieren beizubringen als Referierern Expertenwissen. Nicht unumstritten in der Literatur ist die These von M athis/Rush: ’Before any attempt is made to automate the process of abstracting, it is important to understand how humans produce abstracts’ (M athis/Rush 1985, 113), da weder die Äquivalenz in der Leistung eine Identität der dafür verwendeten M ethoden/ Algorithmen notwendig bedingt, noch es als gegeben angenommen werden kann, daß die menschliche Leistung beim Referieren dergestalt befriedigend ist, daß sie für maschinelle Verfahren als Vorbild und Anregung dienen müßte. Zumindest ist es schwierig, die für das Anfertigen von Referaten formulierten Richtlinien (von Regeln wagt man angesichts der Vagheit der meisten ’Anleitungen’ kaum zu sprechen) als Basis eines maschinellen M odells zu nehmen (Kuhlen 1986; EndresNiggemeyer 1985). Andere, den kognitiven Prozeß beim Verstehen und Zusammenfassen von Texten analysierende empirische Untersuchungen liegen kaum vor (Kintsch/ van Dijk 1978). Einige empirische Studien zeigen — und dies belegt die Vermutung, daß menschliches Referieren nicht unbedingt Vorbild für maschinelles sein muß —, daß es bei menschlichen Abstractern wenig Konsistenz bei der Selektion von Sätzen aus Texten für Abstracts gibt. Untersuchungen über die Konsistenz von Referaten, die nicht auf das Extraktionsprinzip beschränkt sind, liegen nicht vor, da identische Sätze bei Aufgabe dieses Prinzips von verschiedenen Personen wohl nur zufällig produziert werden und es kaum Kriterien für die Äquivalenz von syntaktisch unterschiedlichen Sätzen gibt. Die durchgeführten Konsistenzstudien erlauben aber einen Vergleich zum maschinellen Referieren, da dieses zumindest in den Anfängen auf Extrahieren beschränkt war. Diese Aussage gilt nach den Studien von Rath/Resnick/Savage (1961) sowohl für Vergleiche

691

zwischen verschiedenen Abstractern als auch für die Konsistenz identischer Referierer zu unterschiedlichen Zeiten. Allerdings sind die meisten bislang durchgeführten Studien wegen des beschränkten Umfangs kaum als repräsentativ anzusehen, so daß die Ergebnisse mehr intuitiv überzeugen als argumentativ beweisen (Edmundson/Wyllis 1961). Insgesamt kann gesagt werden, daß es bei den menschlichen Abstractern stärkere Abweichungen gibt als bei den (in der Frühzeit allerdings ähnlichen) maschinellen Verfahren (Mathis 1972). 1.4. Volltextinvertierung als Alternative zum Abstracting Alternativ zu bestehenden Inhaltserschließungsformen und attraktiv wegen der fortfallenden Kosten der intellektuellen Arbeit kommen in der Gegenwart zunehmend Freitextverfahren im Information Retrieval zum Einsatz. Beruht die dafür erforderliche Invertierung der Textwörter auf den Referatetexten, so ergibt sich eine beim Retrieval zuweilen nützliche Koalition zweier Verfahren; beruht sie auf den Volltexten selber, so entsteht eine in der Regel zuungunsten der Abstracts ausgehende Konkurrenz-Situation. Das Beharren der Datenbankanbieter auf FreitextRetrieval-Verfahren, die nicht zuletzt auch durch den zunehmenden Einsatz von CDROM (Volltextdaten mit entsprechender Retrievalsoftware auf optischen Speichern) attraktiv werden (vgl. Helgerson 1986), ist trotz der eindeutigen Warnungen aus der Forschung M( aron 1982; Karlgren/Walker 1983; Blair/M aron 1985; Kuhlen 1985; Tenopir 1985; PADOK 1986) wegen offensichtlicher Defizite der Volltextinvertierung verständlich — fehlen doch entsprechende einsatzbereite Verfahren der Volltext-Wissensrepräsentation oder der flexiblen Textkondensation. In dieser Situation können sich weitere Ersatzlösungen entwickeln, wie z. B. das Factfinder- System von M arkoff (1985).

2.

Methoden des automatischen Abstracting

Die Geschichte der Datenverarbeitung allgemein und der automatischen Sprachverarbeitung speziell kann sicherlich aus dem steigenden quantitativen und qualitativen Informationsbedarf moderner Gesellschaften begriffen werden. Die ersten ’Sprachverarbeiter’, die sich auf die Themen der automatischen

692

Übersetzung, des automatischen Indexierens und Referierens sowie des Information Retrieval allgemein konzentrieren, verstanden jedenfalls ihre Arbeit als Beitrag zur Lösung von Informationsproblemen. Deshalb sind die häufig überraschend simplen Verfahren der frühen sprachlichen Datenverarbeitung nicht nur Ausdruck theoretischer Defizite der damaligen Linguistik, sondern auch zum Teil bewußte Vernachlässigung theoretischer Stringenz und Eleganz zugunsten der vorgegebenen Ziele. Dies zeigt sich auch in der Entwicklung des Abstracting. Was zählte, war der funktionale Erfolg. War mit maschinellen Abstracts, erstellt auf der Basis einfacher statistischer und/oder sprachoberflächenorientierter Verfahren, die Referenz auf die Originale möglich, so war die erwünschte Leistung erreicht. Dieser Ansatz sei Performanz-Ansatz genannt. Zuweilen, aber nicht sehr häufig, wurde das Thema des Abstracting von (Computer)Linguisten aufgegriffen, um die Tragfähigkeit linguistischer Theorien, z. B. für die Generierung von Texten, auszutesten. Bei diesem sogenannten Test-Ansatz ist also das Ziel, das Erstellen von Abstracts, eher marginal. Und schließlich stellt in der neueren Zeit in der Forschung der Künstlichen Intelligenz das Abstracting (oder das ’text summarizing’), neben Frage-AntwortVerhalten oder Übersetzen, ein attraktives Beispiel für eine menschliche intelligente Leistung dar, die es auf Rechnern zu simulieren gilt, ein Ansatz, den man Simulations-Ansatz nennen kann. Auch hier steht nicht das Ziel, das fertige Abstract, im M ittelpunkt des Interesses, vielmehr das nach M öglichkeit dem M enschen nachgebildete Verfahren. Die Annahme, daß linguistisch fundierte und ’intelligente’ M ethoden auf lange Sicht auch die bessere (funktional definierte) Performanz aufweisen, kann sich auf einige empirische Befunde abstützen, bedarf aber weiterhin, vor allem unter Aufwandsgesichtspunkten, der praktischen Verifikation. 2.1. Einfache Oberflächenverfahren Die frühen Verfahren der sechziger Jahre beruhten auf einfachen statistischen Annahmen, z. B. daß die Häufigkeit eines Terms — sei es die absolute oder nach unterschiedlichen Algorithmen berechnete relative — in einem Text Rückschlüsse auf seine Bedeutung für den Text zulasse (z. B. auch, daß hochfrequente Wörter wegen geringen Informationswerts auszuschließen und sehr niedrigfrequente möglicherweise nicht signifikant

XI. Application Fields III

genug sind) oder daß die Kookkurrenz oder die Konzentration von Häufigkeitsterms in einem Satz mit dessen Signifikanz für den Gesamttext positiv korreliert. Beide Ansätze verwendeten also statistische M aßzahlen als semantische Indikatoren. War die erste Annahme ergiebig für das automatische Indexieren, so wurde die zweite in verschiedenen Variationen für das Abstracting als Extracting verwendet. Wyllis (1967) gibt einen Überblick über die frühen Verfahren seit den ersten Experimenten von Luhn (1958), Baxendale (1958), Doyle (1961). Das Verfahren war trotz mannigfacher Variationen immer ähnlich. Zunächst wurden nach statistischen Kriterien zentrale Wörter identifiziert, dann in einem zweiten Schritt die Sätze mit einer gewissen Konzentration signifikant häufiger Terms extrahiert. Ähnliche statistische Verfahren, allerdings mit zunehmender mathematischer Präzision und Variation (vgl. Rauch 1979), waren auch weiterhin im Einsatz, z. B. bei Dillon/M cDonald (1983) zur Buch-Indexierung. Generell kann man jedoch sagen, daß sich bei der Volltextverarbeitung — vielleicht im Gegensatz zur erfolgreicheren Anwendung beim automatischen Indexieren von Abstracts (Salton/M cGill 1983; Lustig 1987) — erhebliche Komplexitätsbarrieren, z. B. bei der Berechnung von Term-Assoziationsfaktoren auftun, die nur schwierig zu unterlaufen sind (vgl. Attar/ Fraenkel 1977). Statistische Verfahren, so attraktiv sie beim Indexing oder allgemein bei der Klassifikation von Terms sein mögen, sind offenbar Volltexten, auch wegen der völligen Preisgabe von Kohärenzstrukturen, nicht angemessen. Entsprechend wurde schon früh versucht, die statistisch begründete Signifikanz von Terms durch zusätzliche Indikatoren, wie vorab festgelegte Schlüsselwörter, Textwort als Titelwort, Gewichtung von Präpositionalphrasen, Gewichtung der Position eines Terms am Text-/Absatz-Anfang/Ende, Konzentration auf sogenannte Topic-Sätze, also solche, die zu Beginn und Ende von Absätzen vorkommen, anzureichern (Edmundson 1969; Karasev 1974, 1978). Verschiedentlich sind auch Experimente durchgeführt worden, bei denen ein Indikatoren-Ansatz zur Erkennung von zentralen Sätzen verwendet wurde (Paice 1981). Indikatoren sind bestimmte Reizwörter in stereotypen syntaktischen Umgebungen ( templates ), wie z. B. ’Der Zweck dieses Artikels ...’, ’Eine M ethode zur Beschreibung von ...’, aus denen

55.  Information Retrieval: Automatischen Abstracting

auf die zentrale Relevanz der daraus gebildeten Sätze geschlossen werden soll. Ergänzt wird dieses einfache Erkennungsverfahren durch ebenso einfache Aggregationsregeln, welche den Satzkontext der identifizierten Sätze berücksichtigen. Die Summe dieser so abgeleiteten Sätze stellt das Abstract dar. Der gewisse Erfolg solcher quasi-syntaktischtextuellen Verfahren begünstigte den Einsatz reicheren linguistischen Instrumentariums. 2.2. Syntaktische und semantische Ansätze Die linguistischen Verfahren bei der Volltextanalyse zum Zwecke der Textkondensierung spiegeln in ihrer Entwicklung den Stand der linguistischen Theorie von den strukturalistischen Theorien bis zu den textlinguistischen und kognitiven Verfahren der Gegenwart wider. Die frühen syntaktischen Verfahren (Climenson/Hardwick/Jacobson 1961; Rath/Resnick/Savage 1961) gingen davon aus, daß die syntaktische Struktur, sei es auf der Phrasen- oder gesamten Satzebene, Indikator für die Identifizierung von zentralen Sätzen sein könne. Ähnliche Überlegungen gelten im übrigen auch für die Volltext-Kondensierung zum Zwecke des Indexierens (vgl. Hoffmann/Jahl/Quandt et al. 1971; Felzmann et al. 1980). Bei den frühen syntaktischen Abstracting-Experimenten von Earl (1970, 1979) kamen zwei Extraktionsmethoden zum Einsatz: zum einen sollte die syntaktische Form von Sätzen direkt als Extraktionskriterium verwendet werden, zum andern wurden syntaktische und Häufigkeitskriterien zur Identifikation von Wörtern verwendet, die dann aufgrund anderer Kriterien (z. B. Cluster ) zur Selektion der Sätze führten. Earl folgte hier strukturalistischen Überlegungen, daß — analog zur Wortartenbestimmung über Affixe — die Wortklassenfolgen in Sätzen für die Signifikanz von Sätzen für Abstracts bedeutsam sein könnten. Dabei hoffte man, daß in Fachtexten eine endliche Anzahl von syntaktischen Strukturen — auf Wortphrasen- oder Satz-Ebene — verwendet würde. Die Experimente bestätigten die Annahmen keineswegs. Ohne das noch nicht vorhandene methodische Instrumentarium der generativen Transformationsgrammatik erschien die Vielfalt der empirisch ermittelten Strukturen zu groß, als daß Strukturen als Kriterium zur Extraktion von Sätzen hätten verwendet werden können. Als verallgemeinerbare Aussage ist aus diesen Experimenten abzuleiten, daß die Identifizierung syntaktischer M uster ohne semantische Filter schnell

693

an die Grenzen der Kontrollierbarkeit gerät, es sei denn die syntaktisch ermittelten Strukturen der Volltexte sind, wie es im ’Linguistic String Project’ (Sager 1982) vorgesehen ist, nach der Übertragung in eine Datenbank für die Auswertung durch Retrievaloperationen verfügbar. Die M öglichkeiten eines einfachen linguistisch fundierten Abstracting können am besten an den Arbeiten an der Ohio State University (Rush/Salvador/Zamora 1971, M athis/Rush/Young 1973; C. E. Young 1973; Strong 1974; Pollock/Zamora 1975) studiert werden. Im wesentlichen kamen ursprünglich vier M ethoden, Cue, Key, Title und Location, zum Einsatz, die allerdings später aufgrund von Kohäsionsüberlegungen durch einfache Transformationsoperationen ergänzt (M athis/Rush/Young 1973) und durch graphische Hilfsmittel erweitert wurden (Strong 1974, vgl. Abschnitt 3). M it Fortgang des Projektes wurde auch die linguistische Basis in syntaktischer und semantischer Hinsicht immer reicher. Titel- und SchlüsselwortM ethoden stehen im wesentlichen noch unter dem Eindruck der frühen Extracting-Experimente in der Nachfolge von Luhn und Baxendale. Die Cue -M ethode, die sowohl zur Selektion als auch zur Zurückweisung von Sätzen benutzt wird, beruht auf Wörterbucheinträgen (z. B. zur Ausgrenzung subjektiver Aussagen, die Wörter wie ’obvious’ oder ’believe’ enthalten) und syntaktischen M ustern (wie ’our work ...’, ’this paper ...’). Zur Auflösung von Anapherproblemen werden auch schon ’intersentence references’ berücksichtigt. In der Erweiterung des ursprünglichen Algorithmus von Rush/Salvador/Zamora (1971), in dem die erwähnten M ethoden zum Einsatz kommen, werden bei M athis/Rush/Young (1973) kohäsionsorientierte Transformationen über den Textfragmenten/Sätzen vorgeschlagen. Zu den Regeln gehören: Kombination von Sätzen durch ’coordinate’ und ’subordinate conjunction’; M odifikation von Sätzen durch eine graphische Referenztransformation; Kreation von Sätzen durch ’reference tabulation’ und Revision oder Löschen von Sätzen zur Kontextmodifikation. Oberflächentransformationen und -anpassungen an identifizierten Kern-Sätzen im Rumänischen werden auch bei Nistor/Roman (1971, 1978) vorgenommen. Hierbei können Sätze vereinigt, Sätze durch NPen ersetzt und diese in einen neuen Satz eingefügt, aber natürlich auch vollständig übernommen oder getilgt wer-

694

den. Im Ansatz des Bemühens um Textkohärenz berührt sich die kombinierte einfache Technik der Satzextraktion und -transformation mit der entwickelteren Forschung der Textgenerierung aus Wissensstrukturen (vgl. z. B. Kukich 1983; Tait 1985; M ann 1984 a; M cKeown 1985). Eine gewisse Sonderentwicklung stellen die Abstracting-Konzeptionen der sow jetischen strukturalistischen Linguistik dar (Berzon/Brailovskii 1979; Bondarenko 1976; Prikhod’ko/Skorokhod’ko 1982; Skorokhod’ko 1972), die versuchen — wenn auch experimentell wenig abgesichert —, aus Strukturierungselementen der Textkohäsion Teiltexte zu bestimmen, welche die Basis für Zusammenfassungen unterschiedlichen Niveaus sind. Nach Hahn (1986, 204) kann dieser spekulativen Tradition des automatischen Abstracting ’die Erweiterung der funktionalen Satzperspektive auf eine funktionale Textperspektive zugeordnet werden’ (vgl. Janos 1979). Bemerkenswert an diesen Ansätzen ist, daß auf fundierter theoretischer Basis textlinguistische Überlegungen in das Abstracting einbezogen wurden. 2.3. Textlinguistische Methoden und Möglichkeiten der Wissensrepräsentation Der entscheidende Paradigmenwechsel in der gegenwärtigen Beschäftigung mit der Textkondensierung besteht darin, daß nicht mehr versucht wird, die Überführung/Transformation der Ausgangstexte direkt über die Texte, also die sprachlichen Phänomene selber, zu leisten, sondern über den ’Umweg’ ihrer textuellen und semantischen Repräsentation. Hierfür steht der volle Reichtum gegenwärtiger Wissensrepräsentationssprachen (z. B. semantische Netze, prädikatenlogisch basierte Sprachen, Frame-Sprachen, Scripts, Templates) zur Verfügung, allerdings — jedenfalls bislang — um den Preis der quantitativen Beschränkung. Diese Komplexitätsbarriere zu überwinden, ist gegenwärtig zentrale Aufgabe. Wenn es auch den Anschein hat, daß die Überführung der Texte in ihre semantischen Strukturen andere Formen des Zugriffs auf Wissen ermöglicht (Frage-Antwort-Systeme, Fakt-Retrieval, Wissensbanken-Abfrage), als sie in der Referenzfunktion des Abstracting angestrebt wurden, so entstehen doch auch neue interessante Text-Abstracting-Varianten, wie z. B. das im POLYTEXT-System angestrebte ’passage retrieval’ (Karlgren/Walker 1983) oder der Nachweis von Textkohärenzmustern (Hobbs/Walker/

XI. Application Fields III

Amsler 1982; Hobbs 1983). Die einmal erarbeitete Wissensstruktur der Texte legt nahe, mit flexibleren Ausgabeformen zu experimentieren, als es mit der Zielsetzung des textuellen Referats möglich zu sein schien (vgl. Taylor 1974; Taylor/Krulee 1977; Fum/Guida/Tasso 1982, 1985; Hahn/Reimer 1986). Flexiblere Output-Realisationen wurden nicht nur durch die Verfügbarkeit reicherer, wenn auch domänenbeschränkter Wissensrepräsentationssprachen möglich, sondern auch durch die zunehmende Operationalisierbarkeit textlinguistischer Vorstellungen (z. B. van Dijk 1979), zumal dann, wenn sie auch kognitiv plausibel gemacht werden können (Rumelhart 1977; Kintsch/ van Dijk 1978). Schon bei Hutchins (1977) werden satzübergreifende Phänomene und Thema/RhemaM odifikationen für das Textzusammenfassen produktiv gemacht, wenn auch noch unter dem klassischen indikativen Ansatz der ’aboutness’. Als produktiv für die weitere Arbeit hat sich dabei vor allem die Unterscheidung von Textkohäsions- und Textkohärenzmustern/-strukturen herausgestellt. Erlauben die ersteren die Identifizierung von Themen, so bestimmen letztere die semantischen Beziehungen der Themen über den gesamten Text hinweg (vgl. Hahn 1987). Diese Texteigenschaften sind vor allem im TOPIC-System verwendet worden (Kuhlen 1983; Hahn/Reimer 1986), das sich auf ein Frame-Modell (Reimer 1987) und eine im Aktorenmodell formulierte Wortexpertengrammatik abstützt (Hahn 1987). Die eigentliche Textkondensierung verwendet wissensbasierte Clustertechniken, die in die Erzeugung von Textgraphen münden, welche Textkonstituenten zusammenfassen, die wiederum graphisch in unterschiedlichen Kaskadierungsstufen dargestellt werden (vgl. Abschnitt 3.). Die bisherige Vielfalt der Textverarbeitungsansätze, z. B. ’story grammars’ (Rumelhart 1977), M ikro-M akro-M odelle im SUSY-Abstracting-System (Fum/Guida/ Tasso 1982, 1985), ’sketchy scripts’ im FRUM P-System (DeJong 1979), Konnektivitätsmodelle der ’plot units’ (Lehnert 1982), ’narrative summaries’ (Cook/Lehnert/ M cDonald 1984). Aufdecken textsortenspezifischer Argumentationsstrukturen (Rösner/Laubsch 1982; Rösner 1985) lassen erwarten, daß in der näheren Zukunft robustere Typen der Textzusammenfassung (vgl. Tait 1982; 1985) über die Wissens- und textuellen Strukturen entwickelt werden. Es spricht einiges dafür, daß sich diese Bemü-

55.  Information Retrieval: Automatischen Abstracting

hungen mit denen um den Aufbau von enzyklopädischen Wissensbanken verbinden werden (Lenat/Prakash/Shepherd 1986).

3.

Graphische Alternativen

Haben Abstracts im wesentlichen referentielle Funktion, so gibt es keine zwingenden Argumente, bei der textuellen Form zu bleiben. Im Gegenteil, es sprechen einige Argumente dafür, daß eine graphische Darstellung komplizierte Sachverhalte, z. B. auch das Arbeiten in Wissensbasen, übersichtlicher machen kann (vgl. Zdybel/Greenfeld/ Yonke et al. 1981; Bertin 1982). Empirische Befunde von Kennedy (1983) lassen aus der Beobachtung, daß beim Textverstehen auch räumliche Informationen (die Position eines Wortes oder eines Knotens im semantischen Netz) gespeichert werden, den Schluß zu, daß strukturierte graphische Darstellungen den Verständnisprozeß fördern können (vgl. Hahn/Reimer et al. 1984, 60). Verbindet sich die Graphik noch zudem mit flexibler Output-Gestaltung (wie im System TOPOGRAPHIC, s. unten), so scheint die in Stibic (1985) aufgestellte Forderung nach Flexibilität als wichtigster innovativer Aspekt der Bildschirminformation realisierbar zu sein. Graphische Darstellung setzt Operationen über Texten voraus, wodurch die wesentlichen Strukturen nach ihrem semantischen Gehalt identifiziert werden können. Graphisches Kondensieren spiegelt daher konzentriert den historischen Stand der verfügbaren Analyse-Techniken wider, von der Oberflächen-Statistik der frühen 60er Jahre bis zu den wissensbasierten Ansätzen der Gegenwart. Schon in den frühen Arbeiten von Doyle (1961, 1962) wird versucht, Wissen in Assoziationsnetzen/-karten graphisch darzustellen, wobei die dermaßen kondensierte Darstellung gleich auf ganze Bibliotheken abzielte: ’using a computer to analyze text on a library-sized scale and to derive interpretable and usable condensed representations of libraries’ (Doyle 1962, 379). Die ’Wissens’netze sollten nach den oben eingeführten verschiedenen Assoziationsmaßen auf der Basis von Kookkurrenzen berechnet werden, wobei die Intensität einer relationalen Beziehung durch Entfernung der Knoten oder durch gewichtete und unterschiedlich graphisch gestaltete Kanten dargestellt wurde. Dienten die Netze zunächst der Orientierung im Retrieval über den Bestän-

695

den, so führte (oder sollte führen) das Retrieval zu diagrammatischen Repräsentationen individueller Dokumente (Doyle 1962, Fig. 3, 385), wobei auch hierfür einfache Stilmittel, wie unterschiedliche Fonts für die Knoten, die darzustellen sind, benutzt wurden. Semantische Beziehungen zwischen Wörtern und daraus abgeleitete intersententielle Strukturen sollten auch in Experimenten von Skorokhod’ko (1972) an russischen Texten graphisch dargestellt werden. M ehr Linguistik wird durch Strong (1974) eingebracht, wobei sowohl eine vollständige auf Young (1973) beruhende Syntaxanalyse zum Einsatz kommt als auch semantische Relationen auf der Basis der Fillmore’schen Kasusgrammatik, angereichert durch semantische M erkmale, verwendet und graphisch dargestellt werden. Hierbei werden als Stilmittel vor allem unterschiedliche Kantentypen verwendet. Allerdings beruhen die bei Strong (1974) im Anhang angeführten graphischen Surrogate der Texte zwar wohl auf algorithmischen Verfahren, sind aber graphisch nicht automatisch generiert. Ambitiöser noch waren die Arbeiten von Taylor/Krulee (1977) beim Abstracting von Kurzgeschichten aus einer Kinder-Enzyklopädie. Auch hier war die Fillmore’sche Kasusgrammatik die Basis für die Erstellung semantischer Netze. Aufgrund einfacher Erkennungs-/Vergleichsprozeduren sollten maximal verbundene Subgraphen aus dem gesamten Netz abgeleitet werden, wobei allerdings die Gefahr besteht, daß lediglich das Hauptthema eines Textes zur Geltung kommt. Der Tradition des klassischen Abstracting bleiben Taylor/Krulee insofern verpflichtet, als sie versuchen, aus den identifizierten Subgraphen natürlichsprachige Sätze, also letztlich wieder textuelle Surrogate, zu erzeugen. Im Anschluß an Arbeiten von CALIBAN (vgl. Frei/Jauslin 1983) zum Aufbau eines graphikgestützten Retrieval-Systems für Literaturdatenbanken (Basis: INSPEC mit dem entsprechenden Thesaurus) wurde in Ergänzung zum Textkondensierungssystem TOPIC (Hahn/Reimer 1986) das System TOPOGRAPHIC entwickelt (Heese 1983; Thiel/ Hammwöhner 1985; Hammwöhner/Kuhlen/Thiel 1987), das die durch TOPIC in Form von Textgraphen erarbeiteten Textwissensstrukturen nach dem Prinzip des kaskadierten Abstracting (Kuhlen 1984) und mit graphischer Unterstützung verwirklicht. Entsprechend flexibel wird in TOPOGRAPHIC das durch TOPIC erarbeitete Wissen präsen-

XI. Application Fields III

696

tiert, und zwar in Form von graphisch aufbereiteten Strukturen (hierarchisch geordnete Konzepte bis hin zu vollständigen Textgraphen), tabellarisch dargestellten Fakten, eingeschränkt natürlichsprachlichen Darstellungen der Wissenszusammenhänge durch Sprachmuster ( templates ) und schließlich durch das Hinführen auf zentral einschlägige Passagen der Ausgangstexte ( passage retrieval ), die in den zugrundeliegenden Volltextdatenbasen gespeichert sind. Noch einmal ist das Textkondensieren damit in den weiteren Kontext des Information Retrieval eingebettet.

4.

Literatur (in Auswahl)

R. Attar/A. S. Fraenkel 1977 · D. B. Baker/J. W. Horiszny/W. V. M etanomski 1980 · P. B. Baxendale 1958 · J. Bertin 1982 · V. E. Berzon/A. B. Brailovskii 1979 · C. D. Blair/M . E. M aron 1985 · G. V. Bondarenko 1976 · H. Borko/C. L. Bernier 1975 · H. Borko/S. Chatman 1963 · W. D. Climenson/N. H. Hardwick/S. N. Jacobson 1961 · M . E. Cook/W. G. Lehnert/ D. D. M cDonald 1984 · G. F. DeJong 1979b · T. A. van Dijk 1979 · M . Dillon/L. K. M acDonald 1983 · DIN 1426 1973 · L. B. Doyle 1961 · L. B. Doyle 1962 · L. L. Earl 1970 · L. L. Earl 1979 · H. P. Edmundson 1969 · H. P. Edmundson/R. E. Wyllis 1961 · B. Endres-Niggemeyer 1985 · F. W. Felzmann et al. 1980 · H. P. Frei/J. F. Jauslin 1983 · N. Fuhr/B. Niewelt 1983 · D. Fum/G. Guida/C. Tasso 1982 · D. Fum/G. Guida/C. Tasso 1985 · U. Hahn 1985 · U. Hahn 1986 · U. Hahn 1987 · U. Hahn/U. Reimer 1966 ·

U. Hahn/Reimer 1984 · R. Hammwöhner/R. Kuhlen/U. Thiel 1987 · C. Heese 1983 · L. W. Helgerson 1986 · J. R. Hobbs/D. E. Walker/R. A. Amsler 1982 · J. R. Hobbs 1983 · D. Hoffmann/ Jahl/Quandt et al. 1971 · W. J. Hutchins 1977 · ISO 214 1976 · J. Janos 1979 · S. A. Karasev 1974 · S. A. Karasev 1978 [russ.] · H. Karlgren/D. E. Walker 1983 · A. Kennedy 1983 · W. Kintsch/T. A. van Dijk 1978 · R. Kuhlen 1979 · R. Kuhlen 1983 · R. Kuhlen 1984 · R. Kuhlen 1985 · R. Kuhlen 1986 · K. Kukich 1983 · W. G. Lehnert 1982 · D. Lenat/M . Prakash/M . Shepherd 1986 · H. P. Luhn 1958 · G. Lustig (ed.) 1987 · W. C. M ann 1984a · J. M arkoff 1985 · M . E. M aron 1982 · B. A. M athis 1972 · B. A. M athis/J. E. Rush/C. E. Young 1973 · B. A. M athis/J. E. Rush 1985 · K. R. M cKeown 1985 · E. Nistor/E. Roman 1971 · E. Nistor/E. Roman 1978 · PADOK 1986 · C. D. Paice 1981 · J. J. Pollock/A. Zamora 1975 · S. M . Prikhod’ko/E. F. Skorokhod’ko 1982 · G. J. Rath/ A. Resnick/T. R. Savage 1961 · W. Rauch 1979 · U. Reimer 1987 · D. F. Rösner 1985 · D. F. Rösner/J. H. Laubsch 1982 · D. E. Rumelhart 1977 · N. Sager 1982 · L. E. Rush/R. Salvador/A. Zamora 1971 · G. Salton/M . J. M cGill 1983 · H. Skolnik 1979 · E. F. Skorokhod’ko 1972 · V. Stibic 1985 · S. M . Strong 1974 · J. I. Tait 1982 · J. I. Tait 1985 · S. L. Taylor 1974 · S. L. Taylor/G. K. Krulee 1977 · C. Tenopir 1985 · U. Thiel/R. Hammwöhner 1985 · H. H. Wellisch 1980 · H. H. Wellisch 1984 · R. E. Wyllis 1967 · C. E. Young 1973 · F. Zdybel et al. 1981.

Rainer Kuhlen, Konstanz (Bundesrepublik Deutschland)

56. Information Retrieval: Überblick über aktive Systeme und Entwicklungstendenzen 1. 2. 2.1. 2.2. 2.3. 2.4. 3. 4. 5. 6.

1.

Definition und Abgrenzung Funktionen des linguistischen Information Retrieval, Anwendungsrahmen Indexierungsfunktion Gewichtungs- und Klassifikationsfunktion Relationierung von Begriffen und Dokumenten Relevanzfeedback Computerlinguistische Lösungen in der Praxis des Information Retrieval Laborsysteme Entwicklungstendenzen Literatur (in Auswahl)

Definition und Abgrenzung

Es ist bezeichnend, daß es zu dem englischen Terminus Information Retrieval (im folgen-

den kurz IR) keinen schlüssigen deutschen Begriff gibt. Als eine deutsche Variante findet sich gelegentlich die Schreibweise Informations-Retrieval, hin und wieder auch die Umschreibung Ablage und (Wieder-)Auffinden von Information i. S. des weitergehenden englischen Terminus Information storage and retrieval. Damit wird zugleich ein grundlegender — auch in der vorliegenden Darstellung wesentlicher — Zusammenhang deutlich: es gibt kein IR ohne Verknüpfung mit der (vorherigen) Analyse, Verarbeitung und Speicherung bzw. Ablage von Daten. Eine Darstellung der Systeme und Entwicklung des IR muß daher stets vor dem Hintergrund der Datenerschließung und -ablage gesehen werden. M it dem Begriff ’Information’ wird zugleich ein inzwischen ziemlich ausgetretenes

56.  Information Retrieval: Aktive Systeme und Entwicklungen

Wortfeld angesprochen. Auch dieser Begriff bedarf daher hier einer knappen Präzisierung: in der informationswissenschaftlichen Forschung wird unter ’Information’ der Transfer von Wissen (d. h. der Prozeß der Wissensvermittlung) bzw. das Ergebnis des Wissenstransfers (also der veränderte Wissens zustand ) verstanden. Das (menschliche) Wissen ist bzw. wird u. a. in Form von gesprochener oder geschriebener Sprache festgehalten (gespeichert) und vermittelt. Auf diesen Teilaspekt, genauer: auf textbezogenes IR wird sich die vorliegende Erörterung im methodischen wie im anwendungsorientierten Teil beschränken. M it dieser Beschränkung ist jedoch ein Problem verbunden: In der praktischen Anwendung gibt es kaum ein Retrieval, das allein auf Sprachdaten aufbaut. Bereits in der Literaturdokumentation (d. h. dem sog. Referenz retrieval: Ziel ist das Auffinden von Fachliteratur auf der Basis von Titeln und Abstracts) spielen ’Fakten’, d. h. formal festgelegte Kategorien mit numerischen oder alphabetischen Werten (Jahreszahl, Autor ...) eine wichtige Rolle; auch die (Voll-)Textdokumentation ist in der Praxis (man vgl. z. B. die juristischen Informationssysteme) mit kategorial-numerischen Fakten kombinierbar. Schließlich muß festgehalten werden: je tiefer und präziser das in Texten, d. h. in natürlicher (Schrift-)Sprache ’oberflächig’ festgehaltene Wissen über geeignete Verfahren faktenbezogen erschlossen wird, um so weniger wird das auf die oberflächenorientierte Sprachdatendarstellung bezogene Retrieval relevant: linguistische bzw. computerlinguistische Verfahren dienen dabei allenfalls noch der Erschließung des Faktenwissens für hochkomplizierte Expertensysteme; die natürliche (gesprochene oder geschriebene) Sprache wird daneben als ein mögliches Interaktionsinstrument Bedeutung behalten (vgl. Art. 57). Es scheint jedoch, daß es bis zur Verwirklichung dieser Ziele noch ein weiter Weg ist. Nach wie vor sind Frage-AntwortSysteme und Expertensysteme, die natürlichsprachige Daten verarbeiten, nur für einen engumgrenzten Bereich und zudem meist nur experimentell einsetzbar. Was dem M enschen scheinbar so leicht fällt, nämlich der Umgang mit natürlicher Sprache, ist für den Computer eine Sisyphusarbeit: Kaum erscheint ein Problem in der Sprachdatenverarbeitung gelöst, so zeigen sich neue Gegenbeispiele oder auch weitere unüberwindlich er-

697

scheinende Hürden. Da in der Praxis zudem nicht einfach mit wenigen Satzbeispielen ’gerechnet’ werden kann, sondern eine Fülle von Daten kodiert und manipuliert werden muß, klafft inzwischen eine große Lücke zwischen den modellorientierten, in der Theorie, vielleicht auch noch im Labor experimentell vorstellbaren Konzepten einer tiefgehenden, wissens- und faktenorientierten Sprachdatenerschließung und der Wirklichkeit, d. h. der oberflächenorientierten Sprachdatenverarbeitung in der praktischen Information und Dokumentation bzw. der Bürokommunikation. Die Bedeutung natürlichsprachlicher Texte ist jedoch nicht vollständig analysierbar und beschreibbar, so daß die Texte bei ihrer Repräsentation (z. B. auch für ein Frage-Antwort-System) immer einer Vergröberung unterliegen. M it anderen Worten: Dokumente (d. h. natürlichsprachliche Texte) können nie ohne Informationsverlust in eine formale Sprache überführt werden (vgl. z. B. Cherniavsky 1978). Aufgrund dieser Tatsache unterscheiden sich DokumentRetrieval-Systeme essentiell von Fakten-Retrieval-Systemen (vgl. Cherniavsky/Schneider 1978): Bei letzteren liegt das Datenmaterial bereits in einer formalisierten Sprache vor, so daß sowohl die Speicherung der Daten als auch die Festlegung der Suchaspekte immer eindeutig erfolgen kann. (Dies schließt nicht aus, daß Teilaspekte eines Fakten-Retrieval in ein IR-System integriert werden können. (s. u.)). Hier ist jedoch der Gegensatz zu Dokument-Retrieval-Systemen festzuhalten: Bei Dokument-Retrieval-Systemen sind weder Informationen aus den Dokumenten noch das Informationsbedürfnis der Benutzer exakt als formaler Ausdruck in einer Repräsentationssprache dargestellt bzw. darstellbar (vgl. Jochum 1982, 18 ff.). In der Praxis der Textinformation und Kommunikation stellt sich u. a. das Problem der Bewältigung von M assendaten. Technisch betrachtet bildet die elektronische Erstellung, Speicherung und Vermittlung von Textdaten keine entscheidende Barriere mehr: M it den (elektronischen) Festplattenspeichern, zunehmend auch (Image-orientierten) Bildplatte bzw. der (optischen) Compact Disk (CD-ROM ) werden ’vor Ort’, d. h. am Arbeitsplatz, ausreichende Speichermöglichkeiten verfügbar; mit der sog. ’Paketvermittlung’ und den sich ausweitenden digitalen Vermittlungssystemen (vgl. z. B. das ISDNKonzept der Deutschen Bundespost) wird

XI. Application Fields III

698

daneben eine Datenfernübertragung (relativ) kostengünstig; die Satellitenkommunikation läßt weltweite Datenverbünde u. a. in der Fachkommunikation entstehen (ein Beispiel dafür ist das Scientific and Technical Network — STN — mit den z. Zt. 3 vernetzten Zentren in USA, Japan und der BRD). Die Technik des optischen Lesens unter Identifikation von Schriftzeichen ist daneben so weit fortgeschritten, daß Sprachtexte praktisch in beliebiger M enge zur Weiterverarbeitung verfügbar werden; zunehmend werden textuelle Daten zudem bereits über Texteditoren (auf PC) maschinenlesbar (und weiterverarbeitbar) erfaßt. Die noch bestehenden Probleme u. a. in Hinsicht auf den Austausch von Textdaten über Netze unter Bewahrung der ’logischen’ Datenstruktur ( Office Document Architecture -ODA-; Standard Generalized Markup Language -SGM L-) werden unter dem Einfluß des notwendigen weltweiten oder auch regional-branchenspezifischen Datenaustausches in Kürze gelöst sein. Dies alles bekräftigt den Eindruck, daß es nach wie vor für das IR von Text- und Sprachdaten eine praxisrelevante Aufgabe gibt: die in M assen anfallenden bzw. verfügbaren Daten in endlicher (d. h. ökonomisch vertretbarer) Zeit strukturell-inhaltlich so aufzubereiten und verfügbar zu machen, daß das darin gespeicherte Wissen bei informationellen Problemlösungen angemessen eingebracht werden kann. Der Bezug auf ’aktive’ Systeme im Titel des Beitrags deutet an, daß es eher um die Praxis als um theoretische M öglichkeiten gehen soll. Eine reine Deskription ist jedoch aus verschiedenen Gründen fehl am Platz: Einerseits soll ein Handbuch wesentliche Aspekte eher systematisch aufzeigen und an typischen Beispielen belegen. Andererseits versteht sich dieser Beitrag auch als ein Vermittlungsversuch zwischen der Praxis einerseits und der (informationswissenschaftlichen) Forschung und Entwicklung andererseits: es müssen daher auch konkrete M öglichkeiten aufgezeigt werden, die den Praktikern — aus welchen Gründen auch immer — nicht ausreichend bewußt sind (oder als nicht machbar erscheinen).

2.

Funktionen des linguistischen Information Retrieval, Anwendungsrahmen

Es wurde schon darauf hingewiesen, daß sich die Überlegungen auf die Speicherung und

das Wiederfinden geschriebener Sprache (d. h. auf textuelle Information und Kommunikation) beschränken. Der in der Forschung zunehmend interessanter werdende Bereich der Analyse und Ablage gesprochener Sprache wird also ausgeklammert: Hierzu wird vielleicht in den 90er Jahren etwas sinnvolles gesagt werden können. Die Anwendung linguistischer Verfahren muß jedoch allgemein im Zusammenhang mit statistischen M ethoden gesehen werden. Geht man von den zwei wichtigsten Bewertungskriterien für ein IR-System (bzw. für die Recherche in einem solchen System) aus, d. h. vom Recall -Koeffizienten (dem M aß für die Vollständigkeit des Suchergebnisses) und von der Precision (dem M aß für die Genauigkeit des Suchergebnisses), sollen die statistischen M ethoden für die Indexierung und Recherche vor allem den Recall -Parameter verbessern, während von den linguistischen (syntaktischen) M ethoden die Verbesserung der Precision erwartet wird (vgl. auch Salton 1986). Unterscheidet man z. B. bei der Recherche zwischen einer Grob- und einer Feinrecherche, spielen die statistischen M ethoden vor allem bei der Grobrecherche eine wichtige Rolle, während u. a. die komplexeren linguistischen Verfahren in der sog. Feinrecherche verwendet werden, d. h. nach einer ersten — groben — Vorauswahl zum Einsatz kommen. Aus der Sicht der praktischen Anwendung läßt sich der Einsatzbereich computerlinguistischer Verfahren im IR etwa wie folgt abgrenzen: An dem einen ’Ende’ des Spektrums steht das sog. Referenz-Retrieval, d. h. die Integration von Funktionen der Sprachdatenverarbeitung bei der Suche nach Texten oder genauer: ’Dokumenten’. Bei der Suche werden Wörter (Stichwörter) benutzt, die im Titel oder auch Abstract eines Dokuments vorliegen, bzw. Schlagwörter verwendet, die zuvor durch einen (menschlichen) Indexierer — evtl. unter Heranziehung eines ’Thesaurus’ intellektuell (z. B. durch Lesen des Textes) als wichtig für die Suche ermittelt werden. In der M itte des Funktionsspektrums liegt das Volloder Freitextretrieval: hierbei ist der gesamte (Quell-)Text elektronisch gespeichert und kann mit geeigneten Verfahren zur Suche erschlossen werden. Am anderen Ende des Anwendungsfeldes stehen die Frage-AntwortSysteme und Verfahren der Textkondensation bzw. -komprimierung (z. B. des automatischen Abstracting). Hierbei werden — dem Anspruch nach — Texte ’wissensbasiert’ er-

56.  Information Retrieval: Aktive Systeme und Entwicklungen

schlossen bzw. auch Fakten im natürlichsprachigen Dialog erfaßt. (Der letztgenante Komplex wird hier ausgeklammert; vgl. dazu Art. 55, 57). Für diesen Beitrag verbleibt also der Bereich der eher ’oberflächigen’ computerlinguistischen M ethoden und Verfahren, deren Nachteile (geringere linguistische Fundierung) durch die Vorteile der relativen Praxisnähe (d. h. der M achbarkeit auch unter Kosten- und Zeitaspekten) einigermaßen aufgewogen werden. Hierbei lassen sich im wesentlichen die folgenden Funktionsbereiche unterscheiden: — Indexierung von Dokumenten/Suchanfragen; — Gewichtung von Dokumenten und Deskriptoren; — Relationierung von Begriffen und Dokumenten; — Interaktion zwischen System und Benutzern. 2.1. Indexierungsfunktion Unter Indexierung wird eine einfache Abbildungs- und Kondensierungsfunktion verstanden. Ziel ist es, den Inhalt eines Textes/ Dokuments auf (wesentliche) Begriffe abzubilden. Bei Retrieval, d. h. der Suche nach Texten/Dokumenten, können die Begriffe (Terme/Termini) einzeln oder auch kombiniert verwendet werden. Formal gesehen ist damit ein Text im einfachsten Falle repräsentiert durch eine M enge von Begriffen; die Texte klassifizieren sich als zu einer M enge von Suchbegriffen zugehörig oder nicht. Zum Suchen werden in den sog. kommerziellen IR-Systemen in der Regel die booleschen Operatoren AND, NOT, OR oder XOR und/oder die sog. Kontextoperatoren verwendet. Die Kontextoperatoren stellen dabei eine Einengung der AND-Verknüpfung dar. Eine Verbesserung gegenüber der booleschen Suchlogik bringt die sog. lineare pseudo-boolesche Suchlogik (vgl. z. B. Panyr 1986 a). Die Indexierung (d. h. die Text- bzw. Dokumentrepräsentation) muß sich jedoch nicht auf eine einfache Aneinanderreihung von Termen beschränken, vielmehr lassen sich Begriffe auch verknüpfen; die Verknüpfungen können dabei einfach einen engen (assoziativen) Zusammenhang zwischen den jeweiligen Begriffen bezeichnen oder aber durch entsprechende Relatoren typisiert werden (vgl. u. a. Konzepte von Fugman 1975 und Austin 1976) sowie die Vorgehensweise bei der Pressedokumentation von Gruner &

699

Jahr). In der Dokumentation (vgl. DIN 31623) wird die Indexierung sogar etwas weiter gefaßt und (sinngemäß) als die Gesamtheit der M ethoden verstanden, die der Zuordnung von Deskriptoren und Notationen zu Dokumenten zw ecks ihrer inhaltlichen Erschließung und gezielten Wiederauffindung dient. Indexierung kann also mehr sein als eine Wortselektion bzw. -extraktion: die Abbildung auf (künstliche) Notationen, die ganze Themenbereiche charakterisieren (z. B. die Notation der Internationalen Patentklassifikation oder die Dezimalklassifikation) gehört ebenso dazu wie die Vergabe von Begriffen, die nicht notwendig in ’physischer’ Form in dem Text, Abstract oder Titel eines Werkes auftreten (Schlagwörter). Für die maschinelle bzw. maschinengestützte Indexierung liegt es zunächst nahe, ähnliche Kriterien anzusetzen, auch um den Vergleich unterschiedlicher Verfahrensweisen zu erleichtern. Doch gerade hier wird der Zusammenhang zwischen Indexierung und Retrieval besonders deutlich: Die Kombination zwischen Erschließungs- und Suchverfahren charakterisiert erst im eigentlichen Sinne ein IR-System. Sofern — etwa im Rahmen einer syntaktischen Analyse — bereits bei der Texterschließung (morphologischsyntaxorientierte) Begriffsbeziehungen ermittelt werden, kann in gewissen Grenzen auch von einer ’Präkoordination’ gesprochen werden, die beim Retrieval im Blick auf eine höhere Präzisierung der Suchanfrage (mit) genutzt werden kann. M aschinelle Verfahren und die intellektuelle Vorgehensweise müssen demnach zu gleichartigen Ergebnissen führen. Dafür läßt sich ein einfaches Beispiel anführen: Nehmen wir an, ein Thesaurus verzeichne als zu benutzenden Deskriptor das Wort “Nießbrauchrecht” (ohne Fugen-s), im Text steht jedoch “Nießbrauchsrecht” (mit Fugen-s). Bei der intellektuellen Indexierung wird nun — um die Suche mit Hilfe eines Deskriptors von Belegstellen zu erleichtern — eine (hier rein pragmatische) Normierung vorgenommen, ggf. steht im (gedruckten) Register auch ein Verweis auf die normierte Form. Bei der maschinellen Indexierung könnte jeweils die Originalschreibweise durchaus als Registereintrag beibehalten werden, wenn beim Retrieval bei Verwendung der alternativen Schreibweise auch das Synonym (unter Verwendung einer Begriffsrelation) mit berücksichtigt würde. Hierdurch verlagert sich der Entscheidungspro-

700

zeß auf den Retrievalvorgang mit dem Vorteil, daß ggf. vom Benutzer zusätzlich noch zwischen den Alternativen variiert werden kann, und mit dem Nachteil, daß bei jeder Interaktion (d. h. bei wiederholtem Suchen) jeweils dieser Prozeß erneut angestoßen werden muß, was notgedrungen zu größeren (wenn auch heutzutage fast vernachlässigbaren) Rechenzeiten führen kann. M an könnte natürlich beide Komponenten auch kombinieren und z. B. Deskriptoren differenzieren nach extrahierten Elementen (’Stichwörtern’) und addierten Begriffen (’Schlagwörtern’). 2.2. Gewichtungs- und Klassifikationsfunktion Was für das Prinzip der Deskriptorvergabe gilt, ist analog auch auf die intensivere Verarbeitung von Dokumenten/Texten anzuwenden. 2.2.1. Gewichtung Unter Gewichtung wird zunächst die Differenzierung von Deskriptoren nach der Bedeutung verstanden, die sie für die Suche bzw. den Suchenden erlangen können. Dies setzt im Prinzip voraus, daß Erfahrungen (von Experten bzw. Nutzern) eingebracht, daß sog. Erwartens-Erwartungen (ein Begriff, der üblicherweise in der M assenkommunikation auf den Publikumsgeschmack angewendet wird) einbezogen werden. M an bewegt sich hier bei der intellektuellen Indexierung auf schwankendem Boden; umgekehrt gilt jedoch, daß der Nutzer großer Datenbestände ohne eine Gewichtung überhaupt nicht mehr in der Lage wäre, sich in der M aterialfülle auch nur halbwegs zurechtzufinden, d. h. zu in angemessener Zeit verwertbaren Ergebnissen zu kommen. Die einfachste M ethode einer Gewichtung — zugleich eine nicht-revidierbare — wird bei der traditionellen intellektuellen Indexierung verwendet: die Vergabe bzw. Nichtvergabe eines möglichen Deskriptors. Dem entspricht (ohne daß man inhaltlich vergleichen darf) in der maschinellen Indexierung die Tilgung hochfrequenter bzw. trivialer (d. h. auch im Fachgebiet kaum selektionswirksamer) Wörter (sog. Stoppwörter): meist lassen sich auf diese Weise gut 50% der Wörter eines Textes (als trivial, d. h. für die spätere Suche nicht entscheidend) entfernen, den Rest bilden — bei dieser häufig angewendeten Verfahrensweise — die (maschinellen) ’Deskriptoren’.

XI. Application Fields III

Dieses Verfahren läßt sich zunächst rein statistisch verfeinern: M an kann Textwörtern in Abhängigkeit von der Häufigkeit ihres Auftretens im Text im Verhältnis zu ihrem Auftreten im Dokumentenbestand ein Gewicht zuordnen (vgl. bereits Harter 1975). Auch hierbei kann das Ergebnis zur physischen Tilgung von Wörtern, d. h. zu einer Nichtvergabe, führen (wenn sie z. B. unter einem bestimmten Schwellenwert — Cut-OffWert — liegen) oder aber zu einer entsprechenden M arkierung, die dann beim späteren Suchen für ein Ranking, d. h. eine Ranganordnung der Ergebnisse, genutzt werden kann. Bei der am Dokumentenbestand orientierten Gewichtung muß berücksichtigt werden, daß sich die Gewichte mit dem Anwachsen dieses Bestandes verschieben können. Dies führt technisch gesehen zu einigen Problemen, da die Werte im Prinzip bei jedem neu hinzukommenden Dokument/Text auch neu berechnet werden müßten. Zumindest müssen in gewissen Zeitabständen bei wachsenden Beständen solche Berechnungen neu durchgeführt werden. Ein Nebeneffekt liegt aber gerade darin, daß dadurch — vorausgesetzt, der Datenbestand ist repräsentativ für ein Fachgebiet — Trends und Tendenzen der Forschung und Entwicklung formal festgestellt werden können, eine M ethode, die bislang allerdings wegen der technischen Grenzen noch wenig praktisch eingesetzt wurde. Dies wird sich jedoch mit größter Wahrscheinlichkeit ändern, da die Barrieren ’Zeit’ und ’Kosten’ aufgrund der wachsenden Leistungsfähigkeit der Computer zunehmend entfallen. Ein interessanter Aspekt — sowohl in der Forschung als auch für die Praxis — ist die Frage, das Kondensierungsprinzip zu simulieren bzw. nachzubilden, das der intellektuellen Indexierung zugrundeliegt. Ziel eines solchen Verfahrens (vgl. Lustig 1979 und — darauf bezogen — Knorz 1983 in bezug auf das AIR-Projekt) ist es, mit automatischen (vorwiegend heuristisch-mathematischen) Abbildungsverfahren in etwa auf die gleichen Deskriptoren zu kommen, die bei dem intellektuellen Textverstehen gegeben werden. Dies ist insofern mehr als ein reines ’Gewichten’ von im Text vorhandenen Termini, als (über intellektuell erstellte Thesauri, d. h. ein Netzwerk von Begriffsrelationen) auch nicht im Text vorgefundene Deskriptoren erstellt werden. Auch hierbei wird eine Rangfolge erstellt und ein Schwellenwert benutzt, um Begriffe zu qualifizieren bzw. von der Vorgabe

56.  Information Retrieval: Aktive Systeme und Entwicklungen

auszuschließen. Im o. g. AIR-Projekt wird zu dieser Nachbildung von Relationen eine repräsentative intellektuell indexierte Dokumentenmenge benötigt. Einen interessanten Aspekt in die Theorie und Praxis von IR-Systemen bringen die sog. probabilistischen M odelle der Indexierung und des Retrieval mit sich (vgl. M aron/ Kuhns 1960; Robertson 1977; van Rijsbergen 1977; bzw. Robertson/M aron/Cooper 1982). Zu diesen Ansätzen können auch die Überlegungen zur nutztheoretischen Indexierung nach Cooper/M aron (1978) gezählt werden (vgl. zu beiden Ansätzen und zum o. g. M odell Harters Panyr 1986 b). Diese M odelle betrachten die Relevanz der wiedergewonnenen Dokumente als eine Zufallsgröße und unterscheiden daher zwischen einem sog. Relevanzgrad und einer Relevanzwahrscheinlichkeit. Während der Relevanzgrad die Übereinstimmung (bzw. die Diskrepanz) zwischen dem gefundenen Dokument und der Suchfrage ausdrückt, soll die Relevanzwahrscheinlichkeit die Unterschiede (bzw. Übereinstimmung) zwischen der Formulierung der Suchfrage und dem tatsächlichen Benutzerbedürfnis ausdrücken. Während die statistischen Verfahren (wie z. B. das Verfahren von Harter 1975) die Indexierung einer Dokumentenkollektion als einen ungeteilten Prozeß sehen, betrachten die Vertreter der probabilistischen bzw. nutztheoretischen Indexierung diesen Prozeß lediglich als Indexierung der einzelnen Dokumente (in der Reihenfolge ihrer Ankunft) in bezug auf die potentiellen Benutzerbedürfnisse. Die Durchführung der probabilistischen Indexierung (oder auch des Retrievals — vgl. Robertson/Sparck Jones 1976) drückt sich in der Zuteilung von sog. Relevanzgewichten zu einzelnen Termen (Deskriptoren oder Suchfragetermen) aus. Die benötigten Informationen zur Berechnung dieser Gewichte können approximativ mit Hilfe eines Relevanzfeedback-Verfahrens (s. u.) gewonnen werden. Das M odell unterliegt verschiedenen Einschränkungen (vgl. Panyr 1986 b). 2.2.2. Klassifikation Bei der (heute noch intellektuell durchgeführten) Klassifikation werden (Fach-)Texte sozusagen in eine (oder auch mehrere) Themenschublade(n) abgelegt. Dies ist in der Regel eine extrem grobe Zuordnung: M an kann es sich weitgehend so vorstellen, daß jemand so tut, als sei er gezwungen, eine Akte in einem einzigen Ordner abzulegen (wie jeder

701

weiß, ein fast unmögliches Unterfangen, wenn ein Thema in der Veröffentlichung unter alternativen Gesichtspunkten behandelt wird). Dieser Ordner ist nun allerdings in der Regel weiter strukturiert (hierarchische Gliederung), gelegentlich muß auch nach Aspekten differenziert werden (Facettenklassifikation). In der Theorie läßt sich zeigen, daß der Prozeß der intellektuellen Zuordnung von Texten zu einem Themenbereich (dessen Formalisierung allerdings noch weitgehend aussteht) durch maschinelle Verfahren relativ gut nachgebildet werden kann. Eine in diese Richtung weisende Verfahrensweise wird (meist rein intellektuell, was diese Stufe angeht) bereits bei der sogenannten Inhaltsanalyse (Content Analysis) zugrundegelegt: Die Wörter, die z. B. in einem psychotherapeutischen Gespräch von einem Klienten/Patienten gebraucht werden, werden mit einem Inhaltsanalyse-Wörterbuch verglichen. Dieses Wörterbuch ist meist intellektuell erstellt und gepflegt und enthält im wesentlichen lexikalisierte Hypothesen derart: wer die Wörter al, a2 oder a3 gebraucht, drückt damit (versteckt) eine bestimmte Emotion E (z. B. Angst) aus, wer b1 oder b2 oder b3 sagt, befindet sich im Zustand Z (fühlt sich z. B. unter Druck gesetzt) usw. Somit lassen sich — vorausgesetzt, die Hypothesen stimmen und die Datenmenge ist ausreichend — durch statistische Auswertungen Themen- und Problemfelder ermitteln. Analog könnte man etwa in der Patentklassifikation (IPC) verfahren; Durch eine Auswertung der zu einer bestimmten IPC-Kategorie zugeordneten, im Text vorhandenen Stichwörter läßt sich eine Klassifikation, zumindest aber ein Klassifikationsvorschlag ermitteln. Bei thematisch heterogenen Dokumentenmengen wird es sinnvoll zu versuchen, die Texte (Dokumente) automatisch zu klassifizieren. M an spricht in diesem Zusammenhang auch vom sog. Dokumenten-Clustering. Als M otivation für diese Vorgehensweise gibt Salton (1968) Effizienzgründe an. Nach von Rijsbergen (1979) bringt die Anwendung von Dokumenten-Clustering prinzipiell auch eine Effektivitätsverbesserung mit sich. Da die einzelnen Dokumenten-Cluster durch Deskriptoren identifiziert sind, können sie auch als Ersatz für intellektuell gewählte Klassen im obigen Sinne dienen. Eine Kombination des Dokumenten-Clustering mit einer intellektuell vorgegebenen Klassifikation ist denkbar. Der Benutzer kann auch die ge-

702

wonnene Clustermenge durch ein Relevanzfeedback-Verfahren (s. u.) nachträglich modifizieren (vgl. Panyr (1986 a)). 2.3. Relationierung von Begriffen und Dokumenten Die Herstellung bzw. Darstellung von Beziehungen zwischen Begriffen (genauer: ihren Benennungen) und zwischen Dokumenten (genauer: zwischen Texten/Titeln/Abstracts) dient dazu, thematisch identische bzw. ähnliche Sachverhalte in einem (textuellen) Datenbestand zu identifizieren und damit bei der Recherche die Quantität der (relevanten) Ergebnisse — bezogen auf eine Suchanfrage bzw. gewünschte Problemlösung — zu steigern. 2.3.1. Begriffsrelationierung (Thesaurus) Ein klassisches — d. h. schon in der traditionellen Dokumentation genutztes — Instrument der Begriffsrelationierung ist der Thesaurus. Dabei lassen sich — grob gerechnet — zwei Grundlinien aufzeigen: eine linguistisch-sprachphilosophisch motivierte und eine praktisch-ablagetechnisch begründete Richtung (die sich im Endeffekt überlappen können). Es gab in der Linguistik schon immer Versuche, die Begriffswelt zu gliedern. Roget’s Thesaurus ist hier u. a. zu nennen, aus dem sich viele Variationen (z. B. fürs Deutsche: Wehrle-Eggers, Dornseiff) eintwickelten. Ein derartiges System begrifflicher Vernetzungen, meist kombiniert mit einer hierarchischen (Welt-)Gliederung, ist naturgemäß (ähnlich den traditionellen Klassifikationssystemen) geprägt von einer (meist wenig empirisch abgesicherten) spezifischen Weltansicht und läuft Gefahr, sich letztlich im Detail, d. h. in der Performanz der lexikalischen Realisierung, in wenig definierten, eher subjektiv-assoziativen Verknüpfungen zu verlieren. Demgegenüber gibt es sehr wohl thematisch-formal begründete Definitionen begrifflicher Relationierungen wie Synonymie, Ober- und Unterbegriff usf. (vgl. Hutchins 1975). In der praktischen Dokumentation und Information haben fachspezifische Thesauri einen auch bis in die Datenbankwelt reichenden Stellenwert erhalten bzw. bewahrt. In der traditionellen Dokumentationspraxis erfüllt ein Thesaurus zunächst eine Normierungs funktion, z. T. aufgrund der volumenmäßigen Begrenzungen für den Regi-

XI. Application Fields III

sterteil einer Dokumentation, z. T. wohl auch aus fachterminologischen (’didaktischen’) Erwägungen. Andererseits unterstützt er das Prinzip und den Prozeß der Indexierung, nämlich über eine hierarchische Relationierung von wenig spezifischen, d. h. kaum dokumentdifferenzierenden Begriffen zu spezifischen Begriffen und umgekehrt von allzu spezifischen (den Themenbereich in der Praxis zu sehr einschränkenden) Begriffen zu weniger spezifischen Begriffen hinzuführen. Hinzu kommt die Synonym-Relation, deren Effizienz angesichts der (oberflächigen) Ausdrucksalternativen in den Texten ebenso unbestritten ist wie — zumeist in der Theorie — die Vermeidung von M ehrdeutigkeiten eines (Fach-)Begriffs durch Überführung in eine quasi-kunstsprachliche Form. Dies geschieht i. d. R. durch Selektion einer ’Bedeutungsvariante’ als verbindliche Interpretation und ’Verbot’ der Verwendung des Wortes (genauer: der Benennung) als Deskriptor, wenn es im Dokument in einer anderen Bedeutung vorkommt. M it der Verwendung der elektronischen Speicherung und Datenverarbeitung wird diese Art der Thesaurus-Nutzung zunehmend relativiert. Die intellektuelle Pflege eines Fachthesaurus ist zeitaufwendig, bislang wird die Zuordnung der (meist geringen) Zahl von Deskriptoren rein intellektuell vorgenommen (vgl. auch das AIR-Experiment von Knorz und Lustig: Knorz 1983). Demgegenüber sind Freitext- bzw. Volltextverfahren nahezu in allen Datenbanken verfügbar und erbringen offenbar (dies zeigten schon frühere Studien von Cleverdon/Keen 1966) beim Retrieval vergleichbare Ergebnisse. 2.3.2. Dokument- und Deskriptor-Clustering Die Klassifikation (vgl. 2.2.2.) besitzt bereits im Dokument-Clustering, d. h. der thematischen In-Beziehung-Setzung von Dokumenten, ein zentrales Instrument. M it der hierarchischen Klassifikation lassen sich daher entsprechend klassierte Dokumente als (thematisch) synonym (d. h. der gleichen Klasse zugeordnet) oder nebengeordnet (d. h. der gleichen Klasse untergeordnet) usw. charakterisieren. Aber auch ohne eine derartige (intellektuelle) Vorabzuordnung sind M ethoden vorstellbar, die z. B. zum Zeitpunkt des Retrieval die Suche nach ähnlichen Dokumenten im Datenbestand ermöglichen. Hierbei werden verschiedene Funktionen genutzt, z. B. das Auftreten bzw. auch die Auftretenshäufigkeit eines Wortes/Deskriptors.

56.  Information Retrieval: Aktive Systeme und Entwicklungen

Dieses Ziel verbirgt sich hinter dem Konzept eines Deskriptoren-Clustering (d. h. der Termklassifikation): Hierbei werden die Deskriptoren anhand ihres Auftretens in Dokumenten in sog. Deskriptoren-Clustern (Termcluster) zusammengeschlossen. Diese Vorgehensweise sollte die Effektivität des IR-Systems erhöhen. Die Anwendung der Termklassifikation ist allerdings umstritten. Die Erweiterung des Suchauftrags um die ermittelten Termklassen führte nämlich häufig zu schwer interpretierbaren und unerwarteten Ergebnissen. Durch die gleichzeitige Term- und Dokumentenklassifikation wurde dann ein Versuch gemacht, die beiden M otivationsgründe (d. h. Effektivitätsverbesserung beim Termclustering und Effizienzverbesserung beim Dokumentenclustering) in Einklang zu bringen (vgl. Panyr 1986 a). Eine modifizierte Clusteranalyse wird unter der Bezeichnung ’Konzeptionelles Clustering’ (conceptual clustering) zunehmend auch für die automatische Wissensextraktion in den sog. Expertensystemen verwendet (vgl. Panyr 1987 c.) 2.4. Relevanzfeedback Bei der Evaluierung von Rechercheergebnissen mit dem M EDLARS-System der National Library of Medicine wurde festgestellt, daß ca. 60% der Recall- Fehler (d. h. der Fehler, die zur Nicht-Anzeige relevanter Dokumente führen) mit der Recherchevorgehensweise zusammenhängen, während bei der Precision (d. h. der Fehler, die zur Angabe irrelevanter Dokumente führen) der Anteil der Recherchefehler ca. 50% ausmacht (vgl. Lancaster 1979, 147 ff.). Der größte Anteil dieser Fehler ist der mangelhaften bis fehlenden Interaktion zwischen Benutzer und System oder einer falschen bzw. unzureichenden Suchfrageformulierung zuzuschreiben. Um die Effektivität der Recherche zu verbessern, sind Verfahren entwickelt worden, die Relevanzurteile von Benutzern als FeedbackInformation (zur erneuten Suche also) verwenden. Diese sog. Relevanzfeedback-Strategien (RF-Strategien) stellen somit einen Versuch dar, den IR-Benutzer direkt in die Retrievalstrategie einzubeziehen. Der Benutzer muß dabei die wiedergewonnenen Dokumente ihrer Relevanz nach beurteilen. Auf dieser Grundlage führt das IR-System ein modifiziertes Retrieval durch und bietet weitere Dokumente zur Bewertung an. Dieser Prozeß kann mehrmals wiederholt werden, bis der Benutzer zufrieden ist oder bis kein

703

weiteres relevantes Dokument mehr gefunden wird. Bei Relevanzfeedback-Verfahren wird im allgemeinen zwischen der M odifikation der Suchfrage und der M odifikation des Dokumentenraumes unterschieden. Die beiden Ansätze können auch zu einer sog. hybriden RF-Strategie kombiniert werden. Bei der M odifikation der Suchfrage wird unterstellt, daß die Benutzerfrage (Suchfrage) unklar oder ungenau ist (z. B. infolge nichteindeutiger Suchargumente). Bei der M odifikation des Dokumentenraumes wird darüber hinaus noch angenommen, daß die unbefriedigenden Retrievalergebnisse aufgrund der Auswahl eines fehlerhaften Dokumentenraumes (z. B. durch falsche Indexierung) zustande gekommen sind. Bei den M odifikationsstrategien wird weiterhin zwischen RF-Strategien für einen unklassifizierten und RF-Strategien für einen vorklassifizierten Dokumentenraum unterschieden. Es wird ferner angenommen, daß die wiedergewonnenen Dokumente in der Reihenfolge ihrer (systemseitigen) Relevanz (= Relevanzgrad) dem Benutzer angeboten werden (Ranking). Diese (letztere) Voraussetzung ist bei Systemen, die nur mit der klassischen booleschen Suchlogik ausgestattet sind, nicht erfüllt. Bei den Relevanzfeedback-Strategien wird daneben zwischen einem sog. positiven und einem negativen Feedback unterschieden. Beim positiven Feedback werden zur M odifikation nur die Dokumente verwendet, die als relevant eingestuft wurden. Beim negativen Feedback erfolgt die M odifikation auch mit der Hilfe der als nichtrelevant bezeichneten Dokumente. Eine solch ’negative’ Technik kommt insbesondere dann zur Anwendung, wenn bei der Suche nur nichtrelevante Dokumente gefunden werden. Die Begründung für die RF-Vorgehensweise zur M odifikation des Suchauftrags liegt in der Interpretation der Anforderungen an die sog. optimale Suchfrage; diese kann durch Kenntnis der M engen von relevanten und nichtrelevanten Dokumenten konstruiert werden. In der Praxis sind diese M engen jedoch unbekannt. Der Benutzer kann also keine solche optimale Suchfrage stellen. Sie kann jedoch approximiert werden, indem man einen Teil der relevanten und nichtrelevanten Dokumente identifiziert. Es gilt also, eine Prozedur zu finden, die mit Hilfe des Relevanzurteils nach einem initialen Retrieval eine verbesserte Suchfrage iterativ konstruiert (vgl. auch Panyr 1987 b).

704

XI. Application Fields III

Ungeachtet der Unterschiede in der Auffassung des Relevanzbegriffs bei Salton und seinen M itarbeitern (um 1965) und den Vertretern der probabilitischen M odelle (s. o.), kann das Relevanzfeedback als die typische probabilitistische Retrievalstrategie bezeichnet werden (vgl. auch Harper 1980). Die eigentliche Vorgehensweise entspricht u. a. auch der Vorstellung der probabilistischen Retrievaltheorie über den approximativen Charakter der Retrievalprozesse. In den kommerziellen IR-Systemen sind die RFVerfahren bisher nicht implementiert. Eine (wenn auch nur ansatzweise realisierte) Ausnahme stellte das IR-System TELDOK (implementiert auf TR440 — Anlagen von Telefunken Siemens) dar, in dem eine rudimentäre RF-Vorgehensweise durch die Einbeziehung der Hintergrunddeskriptoren der wiedergewonnenen relevanten Dokumente realisiert ist.

3.

Computerlinguistische Lösungen

Betrachtet man die derzeit aktiven (kommerziellen) Systeme, genauer gesagt: die weltweite Praxis des IR, so sind computerlinguistische Verfahren selbst dort, wo im Prinzip die technisch-linguistischen Fragestellungen gelöst erscheinen (z. B. in der M orphologie), absolut defizitär. Eine Ausnahme macht hier das System GOLEM (Wz) mit dem computerlinguistisch fundierten System PASSAT (Wz; Hersteller ist in beiden Fällen die Siemens AG). Sowohl in der deutschen Rechtsdokumentation (JURIS) als auch in der deutschen Patentdokumentation wird PASSAT bei der Freitexterschließung herangezogen. Daher ist es sinnvoll, die Funktionsweise dieses Systems kurz vorzustellen: Im Text (Titel/Abstract/Volltext) vorkommende (Einzel-)Wortformen werden auf ihre mögliche(n) Grundform(en) abgebildet (z. B. ’Häusern → Haus’ ); Wortzusammensetzungen (z. B. ’Haustür’ ) werden darüber hinaus zusätzlich in ihre (sinnvollen) Bestandteile zerlegt. Alle Variationen (hier ’Tür, Haus, Haustür’ ); werden als Freitextdeskriptoren verfügbar gemacht. Es ist jedoch bezeichnend für die ganze Situation, daß von dieser lokalen Ausnahme (die vielleicht mit der morphologischen Komplexität des Deutschen begründet werden konnte) u. a. in international zugänglichen Datenbasen keine erwähnenswerten computerlinguistischen Verfahren zum Einsatz kommen. Die Gründe dafür sind kaum

eindeutig ermittelbar. Einige Argumente sollen jedoch ohne Anspruch auf Gewicht und Vollständigkeit kurz genannt werden: — Die Anwendung computerlinguistischer Verfahren setzt eine gewisse Durchgängigkeit voraus: Es hat im internationalen Bereich wenig Sinn, wenn für eine Sprache und für ein Softwarepaket eine Funktion, wie z. B. die Grundformenermittlung, existiert, für andere Sprachen und Rechnersysteme jedoch nicht. — Die internationale Fach-Kommunikationssprache ist heute Englisch. Englisch ist (relativ) flexions- und kompositionsarm, so daß einfache technische Hilfen, wie z. B. die Trunkierung (d. h. das Weglassen von Buchstabenfolgen u. a. am Wortende) und die Adjacency (d. h. die logische Verknüpfung von aufeinander folgenden Wörtern) einen Ersatz für morphologisch-linguistische Verfahren darstellen. — Aus (software-)ökonomischen Gründen werden in einer Datenbank verschiedensprachige Daten kumuliert, so daß (überwiegend) englische neben deutschen, französischen usw. Dokumenten stehen. Die intellektuelle Verschlagwortung und ggf. die intellektuelle Klassifizierung werden in der Praxis für ausreichend empfunden, wenn man davon absieht, daß nach wie vor Datenbanken noch Akzeptanzprobleme haben. — Die Implementierung weitergehender linguistischer Verfahren ist letztlich nach wie vor eine Kostenfrage: Softwaretechnologisch sind z. B. erweiterte Systeme zur Verwaltung und Nutzung (d. h. Integration) von Thesaurusrelationen erforderlich, verbunden mit dem erweiterten Funktionsinventar angepaßter Display- und Verknüpfungsalgorithmen. — Die zur Reduktion von Fehlern ( Unterindexierung: nicht identifizierte, aber thematisch relevante Deskriptoren, Überindexierung: Vergabe von Deskriptoren, die jedoch thematisch nicht relevant sind) erforderlichen Verfahren (z. B. zur Auflösung von M ehrdeutigkeiten, zur Begriffsrelationierung) liegen trotz der inzwischen in Laborsystemen und Experimentalumgebungen erzielten Fortschritte (man vgl. die Untersuchungen in Deutschland anhand der Systeme CONDOR und CTX: u. a. Panyr 1986 a und Zimmermann/Kroupa/Keil 1984) nicht für die Praxis, d. h. die breite Anwendung aufbereitet vor, ganz zu schweigen von entsprechenden Entwicklungen für andere Sprachen. Die derzeitige Welt der IR-Systeme ist demgemäß beherrscht von Verfahren, die die

56.  Information Retrieval: Aktive Systeme und Entwicklungen

’Last’ des Retrieval (im Freitextbereich) weitgehend dem Nutzer/Recherchierenden überlassen: er muß ggf. ’per Hand’ mit Synonymen aus anderen Sprachen suchen, er muß z. T. komplizierte Trunkierungs- und Abstandsverfahren benutzen usw. Ein Ranking der gefundenen Dokumente ist allenfalls nach dem Datum der Veröffentlichung möglich, inhaltliche Vergleiche sind somit so gut wie ausgeschlossen. Aus der Sicht des Anbieters bzw. des Datenbankbetreibers belasten zudem solche Verfahren die Rechner erheblich (verglichen mit dem weitgehend passiven Suchverfahren). Trotz der technischen Entwicklungen der letzten Jahre, die ein Retrieval nicht nur auf großen Rechenanlagen, sondern auch auf dem PC erlauben, ist ein Fortschritt unter verstärkter Einbeziehung computerlinguistischer Verfahren kaum erkennbar: Bei dieser M iniaturisierung, d. h. softwarentechnologischen Übertragung von Großrechnerlösungen auf die M ini- und M ikrorechnerwelt, werden zunächst die bestehenden M ethoden, die sich auf Großrechnerebene ’bewährt’ haben, migriert. Zudem bestehen noch erhebliche Beschränkungen z. B. bei der Zugriffszeit auf die CD-ROM , auch die Festplattenkapazität der PC-Peripherie ist demgegenüber noch begrenzt, so daß die Implementierung weitergehender Verfahren z. Zt. kaum betrieben wird. Sieht man daher von der Siemens-Entwicklung GOLEM (mit PASSAT) ab, so ist im kommerziellen Bereich eine wichtige Leitlinie mit dem IBM -System STAIRS gesetzt; viele andere gängige Systeme (wie STN-M essenger oder FAIRS) sind analog zu STAIRS gestaltet (mit einem meist wenig anwenderfreundlichen Änderungsdienst). Bei dem IRSystem UNIDAS (Fa. UNISYS) ist eine starke Thesaurus-Funktion ausgebaut. Die Dokumente sind allerdings intellektuell zu indexieren. GRIPS/DIRS läuft wiederum auf Siemens-Anlagen. Es zeichnet sich zwar durch eine größere Flexibilität aus, der Anwender muß jedoch mit den GRIPS-Sprachmitteln die Datenstruktur und die Zusammenhänge zwischen Dokument- und Deskriptordatei für jede Datenbank sehr aufwendig beschreiben. STAIRS — das ’Vorbild’ der kommerziellen IR-Welt — kennt bereits die Trunkierung sowie die wort- und satzbezogenen Abstandsmaße als wichtige Ersatzfunktionen für sprachmorphologische Verfahren. Es ist in diesem Zusammenhang bezeichnend, daß

705

auch die IB M -Eigenentwicklung einer Grundformsuche mit STAIRS-TLS kaum zum Einsatz kommt. Von den IR-Systemen für M ikrocomputer soll hier noch das IR-System SIRE erwähnt werden. Das ursprünglich als ein Labormodell von der Syracuse University (N. Y.) konzipierte System wurde später von der Firma KNM , Inc., zum kommerziellen IR-System für M ikrocomputer modifiziert. SIRE ist ein System, das die M erkmale der konventionellen Systeme (d. h. invertierte Dateien, boolesche Anfragen) besitzt. Noreaut/Koll/ M cGill (1978) haben gezeigt, daß auch ein solches System durch eine geringere M odifikation der Dateiorganisation Ähnlichkeitsfunktionen zu Vergleichszwecken (Dokument mit Suchfrage) verwenden kann und dadurch auch ein Ranking der wiedergewonnenen Dokumente möglich wird.

4.

Laborsysteme

An Hochschulen und in Industrielabors ist demgegenüber eine Reihe von Systemen entwickelt worden, die einen Großteil der in 2. dargestellten Funktionen realisiert haben. Das in der Bundesrepublik Deutschland wohl am weitesten entwickelte (inzwischen jedoch nicht mehr weiter verfolgte) System in diesem Zusammenhang ist zwischen 1973 und 1981 von Siemens unter dem Namen CONDOR experimentell erprobt worden. Es umfaßte u. a. eine syntaxorientierte Feinrecherche (mit Ranking; vgl. Wieland 1979) und ein automatisches Klassifikations- und Clusterverfahren mit einer Relevanz-Feedback-Komponente beim Retrieval (vgl. Panyr 1986 a). Als eine z. T. (computer)linguistische M ethode kann auch die Adaption der Theorie der sog. Fuzzy-M engen (unscharfe M engen) für eine IR-Anwendung einbezogen werden. Die Fuzzy-Logik (insbesondere in bezug auf das Einführen der sog. linguistischen Variable im Bereich der natürlichsprachlichen Systeme) kann auch als ein Versuch betrachtet werden, die Schwachstellen der logisierenden Sprachbetrachtung, wie sie z. B. in den Arbeiten des Wiener Kreises, bei der M ontague-Grammatik oder im Endeffekt auch bei der generativen Transformationsgrammatik zum Ausdruck kommen, zu mildern bzw. zu beseitigen. In IR-Systemen hängt die Anwendung der Fuzzy-M engen mit der Unschärfe der Aussagen und Urteile bei

XI. Application Fields III

706

der Formulierung der Anwenderprobleme (d. h. der Suchaufträge bzw. Suchfragen) sowie mit der Indexierungsproblematik zusammen. Das für die Anwendung der FuzzyM engen typische Quantifizieren der qualitativen Aussagen drückt sich überwiegend lediglich in der Zuordnung numerischer Werte zwischen 0 und 1 zu den Index- und Suchfragentermen aus. Diese sog. Zugehörigkeitswerte (genauer: die Werte der sog. Zugehörigkeitsfunktion) werden bei den Fuzzy-theoretischen M odellen in der Regel heuristisch bestimmt; in vielerlei Anwendungen werden statistische Wahrscheinlichkeiten verwendet. Somit können jedoch die Begriffe wie ’Zugehörigkeitsgrad’ im Prinzip nur als andere Bezeichnungen für die Wahrscheinlichkeitsgewichte der probabilistischen oder statistischen M odelle aufgefaßt werden (eine kritische Übersicht über die Theorie und Literatur gibt Panyr 1986 c). Das IR-System FIRST von Rank Xerox integriert — wie CONDOR — Datenbankmit IR-Funktionen in einem System. Die textuellen Daten werden linguistisch verarbeitet und mehrstufig klassifiziert; bei der Wiedergabe der Dokumente kann die Ähnlichkeit zwischen der “Suchfrage” und den gefundenen Dokumenten zum Ranking verwendet werden (vgl. Datolla 1979). An der ETH Zürich ist auf der PC-Ebene das experimentelle System CALIBAN entwickelt worden (vgl. Frei/Bärtschi/Jauslin 1985). Hierbei werden Ähnlichkeitsmaße beim Retrieval eingesetzt. M it FAKYR wurde in Berlin (vgl. Bollmann 1983; Süß/ Leckermann 1981) ein Experimentalsystem entwickelt, das M ethoden des Clustering und verschiedene Retrievalstrategien, u. a. ein Relevanz-Feedback-Verfahren, integriert. Besondere Bedeutung besitzen z. T. die Pionierarbeiten im Bereich der Evaluierung von IR-Systemen und der Planung von IR-Experimenten (vgl. Schneider/Bollmann/Jochum et al. 1986). Das experimentelle IR-System SM ART stellt das bisher bedeutendste Forschungsprojekt auf dem Gebiet der IR-Systeme dar. Es enthält viele Anregungen und Konzepte auf dem Gebiet der IR-Systeme. Viele Impulse auf dem Gebiet der Erschließung und Wiedergewinnung von Informationen kommen daher aus der ’SM ART-Schule’. Die Bedeutung dieses Projekts liegt auch in der großen Zahl der durchgeführten Experimente (vgl. Salton (ed.) 1971; 1975; Salton/M cGill 1983). Im Rahmen von SM ART wurden u. a.

die grundlegenden Arbeiten auf dem Gebiet der Dokumentenklassifikation und Relevanzfeedback-Strategien durchgeführt, die einen bis heute nachhaltigen Einfluß auf die Theorie der IR-Systeme ausüben. SM ART wird heute an mehreren Universitäten eingesetzt und an der Cornell University in Ithaca fortgeführt.

5.

Entwicklungstendenzen

Am ehesten haben in Zukunft — betrachtet man den M assenanfall von Daten — solche Entwicklungen Chancen, in die Praxis umgesetzt zu werden, die bei der Überw indung der Sprachbarrieren mithelfen. M it der zunehmenden Internationalisierung des Zugangs zu Datenbasen ist jetzt bereits abzusehen, daß als Zugangs- und Kommunikationssprache Englisch von zentraler Bedeutung sein wird. Umgekehrt werden wohl aus verschiedenen Gründen die Nationalsprachen auch in der lokalen Fachkommunikation ihre Bedeutung behalten. Dies gilt insbesondere für den Transfer von Fachwissen in die Praxis. Wenn man — auch aus ökonomischer Sicht — längerfristig mit Erfolg im Bereich der Wissensvermittlung (z. B. gerade in der internationalen Fachinformation und Bürokommunikation) mitwirken will, muß die Konsequenz sein, im internationalen Bereich mit englischsprachigen Datenbanken präsent zu sein, umgekehrt aber einen nationalsprachlichen Zugang sicherzustellen. Auf diese Weise wird die maschinelle bzw. maschinengestützte Übersetzung in der Fachinformation, insbesondere aber beim IR-Prozeß, erheblich an Bedeutung gewinnen. Dies setzt allerdings hierfür geeignete Werkzeuge bzw. Verfahrensweisen voraus. Zugleich wird die Entwicklung mehrsprachiger Thesauri bzw. elektronischer Übersetzungswörterbücher und deren Integration in den Retrievalprozeß, schließlich die maschinelle (auch ggf. nur informationelle) Übersetzung eine wichtige Rolle spielen. Ein Szenario für zukünftige IR-Prozesse — wohlgemerkt: allein bezogen auf die bisher dominante Welt der großen Informationsbanken (auch hier seien die Entwicklungen bei Expertensystemen ausgeklammert) — könnte dabei wie folgt aussehen: (1) Titel und Schlagwörter/Deskriptoren liegen in jedem Fall in der Nationalsprache und in der internationalen Kommunikationssprache (Englisch) übersetzt vor. Damit und über die ggf. ebenfalls bereits übersetzten

56.  Information Retrieval: Aktive Systeme und Entwicklungen

Freitextbegriffe erfolgt eine Recherche und Selektion im traditionellen IR-Prozeß. (2) Nach erster Sichtung der Ergebnisse unter Relevanzkriterien erfolgt ggf. ein Translation-Ordering (analog dem Document Ordering ), wobei entweder eine kostengünstige sogenannte Informativ-Übersetzung oder aber eine (teuere) hochqualitative Übersetzung in der gewünschten Sprachrichtung erfolgt (die durch ’Human’-Übersetzer in einem Service-Zentrum nachbereitet wird). (3) Das Szenario muß durch ein komplexes Relevanzfeedback-Verfahren ergänzt werden. Die Anwendung von RF-M ethoden hängt auch mit der notwendigen Ablösung der konventionellen booleschen Suchlogik in kommerziellen IR-Systemen zusammen (Salton/Fox/Vorhees 1985 zeigen die Anwendung der RF-Technik auch für boolesche Suchfragen in einem erweiterten booleschen Retrieval). Die Voraussetzungen für derartige Verfahrensweisen sind technisch weitgehend gegeben; ein Document-Ordering- Verfahren ist in vielen IR-Systemen bereits realisiert; das Verfahren des Packet-Switching (in der Bundesrepublik Deutschland: DATEX-P) erlaubt eine weltweit (relativ) kostengünstige Übermittlung, evtl. auch Zwischenübermittlung zum spezialisierten ’Übersetzungscomputer’. Das System, das z. Zt. hierfür am ehesten infrage kommt, ist SYSTRAN, dessen kommerzielle Rechte weltweit im wesentlichen bei Gachot S. A., Frankreich liegen. SYSTRAN liefert inzwischen Rohübersetzungen zu einer Reihe von Sprachpaaren, z. B. Englisch ↔ Französisch, Englisch ↔ Deutsch, Englisch ↔ Italienisch, Englisch ↔ Arabisch, Englisch ↔ Japanisch. Ein großes Problem, das es hierbei zu bewältigen gilt, ist in erster Linie der Ausbau des Fachvokabulars und die fach- bzw. themenspezifische Disambiguierung. Ein weiterer Aspekt dürfte die Nutzung der Transferwörterbücher als Synonymwörterbuch bereits beim Retrievalvorgang sein. Unter internationalem Aspekt ist im Bereich der weltweiten Fachinformation eine Nutzung (englischsprachiger) (Text-)Datenbanken dann besonders wirksam, wenn auch der Zugang über die jeweilige Nationalsprache möglich ist. Die bedeutet u. a.: — die Integration mehrsprachiger Thesauri in den Retrievalprozeß; — die Einbeziehung zunächst morphosemantischer (monolingualer) Begriffsbeziehungen in den Retrievalprozeß (d. h. von Synonymen, Quasisynonymen, aber auch Flexions-

707

und Derivationsformen zu einem Freitextelement; — die Verknüpfung von (Text-)Stichwörtern mit (systemseitig — intellektuell, evtl. zunehmend auch maschinengestützt — vergebenen) Klassifikationen, über die dann eine Ausweitung der Informationssuche möglich wird. Im Bereich der betrieblichen Information und Kommunikation werden linguistische Verfahren ebenfalls eine flankierende Funktion haben. Bei betrieblichen Archivierungssystemen werden u. a. im formal-strukturellen Bereich Fortschritte erzielt, d. h. textuelle Dokumente über strukturelle-leategeniale M erkmale (z. B. Brief, Adressat, Postleitzahl) recherchierfähig. Dennoch ist auch hier zunehmend der Einsatz linguistischer Verfahren möglich. Bereits heute haben international die Stilhilfen (z. B. elektronische Synonymwörterbücher) einen gewissen Stellenwert bei der Textverarbeitung erlangt. Es ist sinnvoll, derartige Zentren bzw. lexikalische Verknüpfungen auch für die Datenablage bzw. den Retrievalvorgang zu nutzen. Dabei verwischen allerdings die Grenzen zwischen Textverarbeitung, Archivsystem und Datenbank. So ist es kein Wunder, daß z. T. linguistisch betrachtet ’schlichte’ Systeme wie Q & A (in der deutschen Fassung: F & A) bereits unter dem Begriff ’Expertensystem’ fungieren (vgl. die Paneldiskussion “Natural Interfaces — Ready for Commercial Success?” und den Beitrag von Hendrix 1986, 164), ohne daß im sprachdatenbezogenen Teil viel mehr geschieht als eine Trunkierung und eine boolesche Verknüpfung von Freitextwörtern. Nach aller bisherigen Erfahrung werden die bestehenden kommerziellen bzw. marktorientierten Entwicklungen — die z. T. ihre Grundlage noch in den 60er Jahren haben — u. a. aufgrund der Sprödigkeit und Komplexität des M aterials Sprache, der Vielfalt der Nationalsprachen und auch der Kostensituation die inhaltlichen Entwicklungen nur langsam fortschreiten. Daher wird es schon als ein großer Fortschritt erscheinen, wenn einmal das bereits jetzt schon weltweit technisch und einzelsprachlich verfügbare textuelle Wissen über ein Retrieval mittels der jeweiligen muttersprachlichen Terminologie zugänglich und im Ergebnis auch die Daten selbst in der jeweiligen Landessprache — wenn vielleicht auch nur informationell — verfügbar werden. Daneben erscheint es möglich, entscheidende Fortschritte im Bereich der hochspe-

708

XI. Application Fields III

zialisierten ’M ini-Welten’ über natürlichsprachige Zugänge und Interaktionen in Frage-Antwort- und Expertensystemen zu erzielen. Darüber hinaus muß auch die Problematik der semantischen Repräsentationssprachen eingehender untersucht werden (s. o. — vgl. Jochum 1982).

6.

Literatur (in Auswahl)

H. P. Frei/M . Bärtschi/J. F. Jauslin 1985 · U.

57.

1. 1.1. 1.2. 1.3. 2. 2.1. 2.2. 2.3. 3. 3.1. 3.2. 4. 5.

1.

Hahn/W. Reimer 1982 · P. S. Harter 1975 · H. Heilmann (ed.) 1987 · W. I. Hutchins 1985 · F. Jochum 1982 · G. Knorz 1983 · E. Kroupa 1983 · F. W. Lancaster 1979 · G. Lustig 1979 · J. Panyr 1986 a · J. Panyr 1987 · G. Salton 1968 · G. Salton (ed.) 1971 · G. Salton 1975 · G. Salton/M . M cGill 1983; dt. 1987 · C. Süß/J. Leckermann 1981 · C. J. Van Rijsbergen 1979 · H. H. Zimmermann 1979.

Jìri Panyr, München/ Harald H. Zimmermann, Saarbrücken (Bundesrepublik Deutschland)

Frage-Antwort-Systeme: Übersicht über Konzeptionen, Leistungsumfang und Entwicklungsperspektiven Einleitung Terminologische und historische Vorbemerkungen Frage-Antwort-Systeme: Skizze einer Charakterisierung Zur zentralen Stellung der Bedeutung- und Wissensrepräsentation Das Spektrum von Fragen und Antworten Gegenstandsbereiche und Einsatzmöglichkeiten Frage-Beantwortungsprozesse 1 Die Logik von Fragen und Antworten Die Frage-Antwort-Relation Frage-Erwiderung Frage-Beantwortungsprozesse 2: Kooperative Antworten Stand der Forschung und Desiderata Literatur (in Auswahl)

Einleitung

1.1. Terminologische und historische Vorbemerkungen Frage-Antwort-Systeme (FAS, im Englischen: Question-Answering-Systems, QAS) nehmen seit Beginn der computerlinguistischen Forschung eine zentrale Stellung in der wissenschaftlichen Diskussion ein. Schon in den Jahren 1965 und 1970 wurden von R. F. Simmons in zwei Überblicksartikeln jeweils ca. 10 experimentelle Systeme beschrieben. Die weitere Entwicklung — vgl. hierzu auch Art. 58 — ist u. a. dadurch gekennzeichnet, daß mittlerweile kommerzielle FAS auf dem M arkt existieren, deren Einsatzmöglichkeiten z. B. auf einem Panel der 11. COLING (1986) diskutiert wurden. In einer derartigen

Situation mag es überraschen, daß auf die Frage “Was eigentlich ist ein Frage-AntwortSystem?“ bzw. „Welche definierenden Eigenschaften charakterisieren die Klasse der Frage-Antwort-Systeme?“ — gegenwärtig — keine befriedigenden bzw. allgemein akzeptierten Antworten vorliegen. Ein Ziel des vorliegenden Artikels wird gerade darin bestehen, hier eine — wenn auch einschränkende — Charakterisierung vorzulegen. Aufschlußreich ist hier eine Gegenüberstellung mit der maschinellen Sprachübersetzung: Für die maschinelle Sprachübersetzung (einschließlich der maschinellen Unterstützung menschlicher Übersetzung) wird durch die Aufgabenstellung der Anforderungs- und Leistungsrahmen entsprechender Systeme weitgehend festgelegt. Im Gegensatz hierzu ist eine entsprechende Charakterisierung durch die Aufgabenstellung für FrageAntwort-Systeme kaum möglich, falls man sich nicht mit der (fast) trivialen Aufgabenbeschreibung „Frage-Antwort-Systeme sollen Fragen beantworten“ begnügt. Falls man diese Charakterisierung akzeptiert, bestimmt die Art der Fragen, die bearbeitet werden, was unter einem Frage-Antwort-System verstanden wird. Dementsprechend haben unterschiedliche Fragen-Bereiche auch — betrachtet man die historische Entwicklung des Gebietes FAS — zu unterschiedlichen Interpretationen dessen, was ein FAS ist, geführt. Beginnend in den 60er Jahren, nachdem ’FAS’ quasi-synonym zu ’Dokumenten-Retrieval-System’ oder ’Information-RetrievalSystem’ verwendet wurde, wurde später ’Fakten-Retrieval’ als Kernproblem der FrageBeantwortung angesehen (vgl. Simmons 1965; 1970). Hierdurch ergab sich insbeson-

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

dere die Hinwendung zu natürlich-sprachlichen Datenbanksystemen (u. a. deduktiven Datenbanken). Eine wichtige Tendenz der 80er Jahre besteht darin, daß auch Fragen, die an Expertensysteme gerichtet werden, als Aufgabenstellung für die FAS-Forschung angesehen werden können. Dies führt u. a. dazu, daß gegenwärtig die generellere Systemklasse der natürlich-sprachlichen Zugangssysteme (Interfaces) gegenüber den FAS an Interesse gewonnen hat, oder anders ausgedrückt, daß FAS nur noch als spezielle Teilklasse der Interface-Systeme betrachtet werden. Die folgenden Erläuterungen sollen zeigen, daß, warum und wie der Klasse der Frage-Antwort-Systeme trotzdem eine Eigenständigkeit zugesprochen werden kann. 1.2. Frage-Antwort-Systeme: Skizze einer Charakterisierung Die Grundstruktur eines Frage-Antwort-Systems ist — ohne daß diese Struktur als Systemarchitektur im Sinne der Informatik verstanden werden sollte — in Abb. 57.1 dargestellt. Diese Struktur ist — weitgehend — isomorph zu der von generellen Interface-Systemen (einschließlich ihrer Einbettung in ein komplettes Anwendungssystem) wie sie in Abb. 57.2 dargestellt ist. Die Beziehung wird

Abb. 57.1: Grundstruktur eines Frage-AntwortSystems.

709

Abb. 57.2: Grundstruktur eines Interface-Systems

dadurch hergestellt, daß Analyse und Synthese als Interface-System zusammengefaßt werden, während die formale Frage-Beantwortung über der Wissensbasis als spezielle Ausführungskomponente aufgefaßt werden kann. Diese kann insbesondere inferentielle Subsysteme beinhalten, um nur implizit in der Wissensbasis enthaltenes Wissen bei Bedarf, d. h. im Falle der Anfrage, zu explizieren. (Abhängig von der Aufgabenstellung — z. B. bei der natürlich-sprachlichen Steuerung von Robotern — können die Schritte 3. und 4. eventuell entfallen.) Aus der in Abb. 57.1 dargestellten Situation ergibt sich für die Charakterisierung bzw. Abgrenzung von Frage-Antwort-Systemen, daß die speziellen Eigenschaften der Ausführungskomponente, d. h. der formalen Frage-Beantwortung über der Wissensbasis, nicht zum Forschungsgegenstand der Computerlinguistik zu rechnen sind. Entsprechende Problemstellungen werden im vorliegenden Artikel daher nur gestreift, da diese innerhalb der Informatik, speziell der Künstlichen Intelligenz, behandelt werden. Eine Einschränkung der Aufgabenstellung eines FAS gegenüber der generellen eines textverstehenden oder eines textgenerierenden Systems ist dadurch gegeben, daß durch ein FAS eine spezielle Klasse von Texten bearbeitet wird, nämlich die der ’informationsanfordernden Texte (bzw. Sätze)’. Da die generellen Probleme des Verstehens und des Produzierens von Texten an anderer Stelle (vgl. insbesondere Art. 23 und Art. 36) ausführlich behandelt werden, werden im folgenden die speziellen Probleme der Informationsanforderungen im Vordergrund der Darstellungen stehen, d. h. es werden für die beiden Themenkomplexe Sprachverarbeitung und Wissensverarbeitung nur solche Fragestellungen behandelt werden, die speziell auf der Aufgabenstellung der Informationsanforderung beruhen.

710

1.3. Zur zentralen Stellung der Bedeutungs- und Wissensrepräsentation Frage-Antwort-Systeme stellen — wie oben erläutert wurde — einen Spezialfall der sprachbeherrschenden Systeme dar. Daher ist auch hier — wie generell für Sprachbeherrschung — davon auszugehen, daß dem Problem eines adäquaten Formalismus zur Darstellung und Verarbeitung von Bedeutungs- und Wissensrepräsentationen eine zentrale Rolle zukommt (vgl. Habel 1986, 26 ff., 35 f.). Diese zentrale Stellung der internen, formalen Repräsentationen ergibt sich aus der folgenden Schematisierung (entspricht: Habel 1986, 35, Abb. 2.7):

Abb. 57.3: Die zentrale Stellung von Wissensrepräsentationen

Die Struktur dieses Schemas ist homomorph zu den in Abb. 57.1 und Abb. 57.2 dargestellten Systemarchitekturen bzw. Strukturen für Frage-Antwort-Systeme bzw. generelle Interface-Systeme: ’Verstehen’ und ’Produzieren’ betrifft ’Analyse’ und ’Synthese’ und somit die ’Interface-Komponente’; Schlußfolgerungen sind als spezielle Ausführungen anzusehen, die u. a. bei der inferentiellen Frage-Beantwortung verwendet werden. Aus der hier skizzierten Situation läßt sich u. a. ableiten, daß die Verwendung einer gemeinsamen Repräsentationssprache für die Repräsentationsebenen bzgl. — Ziel des Verstehensprozesses (Analyse der Frage) — Start des formalen Frage-Beantwortungs-

XI. Application Fields III

prozesses — Ziel (= Ergebnisse) des formalen FrageBeantwortungsprozesses — Start für den Generierungsprozeß (Generierung der Antwort) anzustreben ist. (Start und Ziel sind hier in der Sprechweise der generellen Problemlösungsverfahren zu interpretieren.) Dieses Ideal einer einheitlichen, zentralen Repräsentationsebene ist z. B. in HAM -ANS (vgl. Hoeppner/Christaller/M arburger et al. 1983; M arburger/Nebel 1983) verwirklicht. Die Leistungen des Systems HAM -ANS zeigen, wie auch in den folgenden Abschnitten erläutert werden wird, daß dieses Ideal nicht auf einer — wie auch immer gearteten — Systemästhetik begründet ist, sondern auf praktischen Anforderungen beruht: Die drei — in 1.2. skizzierten — wesentlichen Systemkomponenten (Analyse, Frage-Beantwortung, Synthese) können, falls ein adäquates Systemverhalten angestrebt wird, nicht unabhängig voneinander die betreffenden Aufgabenstellungen bearbeiten. Eine Interaktion der Teilsysteme ist notwendig, z. B. um eine auf die Frage abgestimmte Antwort, etwa im Hinblick auf die Beschreibung der Objekte, zu erreichen. Insbesondere durch die Verwendung einer einheitlichen Bedeutungsund Wissensrepräsentationssprache kann die systeminterne Kommunikation und Interaktion gewährleistet werden. Dies impliziert nicht, daß Nachrichten zwischen den Komponenten ausschließlich vermittels der internen Repräsentationssprache erfolgen sollen oder müssen. Anforderungen an die Repräsentationssprache werden also aus zwei verschiedenen Richtungen, und d. h. hier Disziplinen, gestellt: zum einen hat sie Adäquatheitsanforderungen der Linguistik zu erfüllen, zum anderen sollte sie geeignet sein, wohldefinierte und effiziente Frage-Beantwortungsprozesse zu ermöglichen, also Anforderungen aus der Informatik zu genügen. Die Konzeption einer internen Repräsentationssprache muß also einerseits der Bedeutungvielfalt natürlich-sprachlicher Fragen Rechnung tragen, d. h. in angemessener Weise unterschiedliche Repräsentationen ermöglichen, und andererseits über diesen Repräsentationen entsprechende Beantwortungsprozesse aktivieren. Aus diesem Grund verfügen die meisten computerlinguistisch interessanten Frage-Antwort-Systeme über eine propositionale, an der formalen Logik orientierte Repräsentationssprache, z. B. DEEP in HAM -ANS (Hoeppner/Christaller/M arburger et al. 1983), W orld M odel

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

Language in PHLIQA 1 (Scha 1983) oder SRL in BACON (Habel/Rollinger/Schmidt et al. 1980). Eine Subkomponente der FrageBeantwortung nimmt anschließend eine Übersetzung in die eigentliche Datenbankanfragesprache vor. (Ausführlich beschrieben ist dies für den Fall HAM -ANS, d. h. für die Überführung DEEP → PASCAL/R in M arburger/Nebel (1983), vgl. noch Art. 26.) Die eigentliche Frage-BeantwortungsKomponente — einschließlich der im letzten Absatz erwähnten Inferenzkomponente — wird im vorliegenden Artikel nicht behandelt, da die hierbei auftretenden Problemstellungen — wie die der Frage-Optimierung (Jarke/Koch 1984) — informatischer, und somit nicht computerlinguistischer Natur sind. Im folgenden werden wir daher Fragen, Fragetypen und deren Repräsentationen in den Vordergrund der Ausführungen stellen.

2.

Das Spektrum von Fragen und Antworten

Aufgrund der in 1.1. und 1.2. dargelegten Situation ist eine Klassifizierung und Charakterisierung von Frage-Antwort-Systemen insbesondere über das Spektrum möglicher Fragen und Antworten durchzuführen. Da wir — wie in 1.3. dargestellt — von einer zentralen, internen Repräsentationssprache ausgehen, wird die Diskussion derartiger Spektren in bezug auf diese Repräsentationssprache erfolgen, wobei wir uns, der einheitlichen Darstellung wegen, einer Sprache des propositional-logischen Typs bedienen werden. Zur Erläuterung der Problemstellungen, die gegenwärtige Frage-Antwort-Systeme bearbeiten können bzw. zukünftige Frage-Antwort-Systeme erfolgreich behandeln sollten, verwenden wir im weiteren ein fiktives, vereinfachendes Beispiel, das der Leser etwa als Auskunftssystem für Reisende in einer fremden Großstadt ansehen sollte. Dieses Beispiel steht in der Tradition der Hotelbuchungsund Reiseplanungssysteme, die in der sprachorientierten KI und der CL wohlbekannt sind; vgl. etwa HAM -RPM (von Hahn/Hoeppner/Jameson et al. 1980), M HA -ANS (Hoeppner/Christaller/ M arburger et al. 1983) oder ODYSSEY (Fikes 1981). 2.1. Gegenstandsbereiche und Einsatzmöglichkeiten Bevor wir die grundlegende Form der Wissensdarstellung, d. h. der Darstellung von

711

Gegenstandsbereichen, skizzieren, sei hier auf zwei Typen von Frage-Beantwortungs-Situationen eingegangen, die nicht dem Bereich der Frage-Antwort-Systeme zugeordnet werden sollten, in frühen Übersichten (etwa Simmons 1970) jedoch in dieser Weise klassifiziert wurden: KonversationsM aschinen und generelle Textverstehenssysteme (im Überprüfungsmodus ’Frage-Beantwortung’). Das Konversationssystem ELIZA (Weizenbaum 1966) wird häufig fälschlicherweise als Frage-Antwort-System angesehen, das Fragen im Rahmen einer psychotherapeutischen Konversation im Stil der Rogers-Schule führt. Weizenbaum selbst (1978, 14 ff.) weist darauf hin, daß ELIZA eher als Parodie eines Fragen-Stellers betrachtet werden sollte, insbesondere deswegen, weil jegliches Verständnis der Fragen im speziellen und des Diskussionsinhaltes im generellen fehlt; die Formulierung von Fragen erfolgt ausschließlich aufgrund von Schlüsselwort-Vergleichen. Im Gegensatz zu derartigen Konversations-Maschinen ohne Verstehensleistung stehen die Ansätze, in denen adäquate Frage-Beantwortungen als Tests für die Fähigkeit, Texte verstehen zu können, verwendet werden. Als Beispiel sei hier QUALM (Lehnert 1977 a; 1977 b) genannt, eine Frage-Beantwortungskomponente, die Textrepräsentationen, die von script-basierten Systemen (vgl. Schank/ Abelson 1977) erstellt wurden, dadurch auf ihre Adäquatheit prüft, daß Fragen, die über den Eingabetext gestellt werden, durch QUALM beantwortet werden: Adäquate Antworten werden als Evidenz für die Adäquatheit der Textverstehenskomponenten (hier SAM und PAM ) gewertet. Obwohl bei QUALM generelle Prinzipien der Frage-Beantwortung untersucht werden, ist dieses System unseres Erachtens nicht als Frage-Antwort-System im eigentlichen Sinne anzusehen, weil die Informationsanforderung nicht der Zweck des Systems ist. (Anm.: Dieses Ausschlußkriterium entspricht dem Ausschluß bzw. der besonderen Behandlung von ’Examensfragen’ in linguistisch-philosophischen Frage-Theorien.) Für jedes FAS ist zunächst zu klären, wonach eigentlich gefragt werden kann, mit anderen Worten, was den Gegenstandbereich des betreffenden FAS ausmacht. Unabhängig davon, ob Dokumente oder Fakten abgefragt werden sollen, d. h. ob das FAS als Dokumenten- oder Fakten-Retrieval-System eingesetzt werden soll, ist der Gegenstandsbereich durch eine M enge (oder Struktur) von Sätzen über internen Objekten gegeben. Anders aus-

712

gedrückt, die grundlegenden Wissensentitäten sind — in einer logischen Schreibweise — Formeln des Typs P j (a 1 , ..., a n ), wobei im Dokumentenfall die Argumente z. B. Dokumenten-Identifikatoren, Autorennamen, Deskriptoren etc. bezeichnen können, und die M enge {Pj} die wesentlichen für ein Dokumenten-Retrieval-Verfahren relevanten Relationen betrifft. Im Fakten-Fall ist über die entsprechenden Formeln eine M odellierung des Weltausschnittes gegeben. (Vgl. hierzu die Art. 29, 33, 34 und 35.) In beiden Fällen kann — wenigstens für viele Aufgabenstellungen — der Bestand relevanter Informationen explizit, d. h. in bezug auf die grundlegenden relationalen Wissensentitäten, abgefragt werden. Wenn das zugrundeliegende Wissen derart durch eine Datenbasis bereitgestellt wird, reduziert sich die Aufgabe des FAS auf den natürlich-sprachlichen Zugang zu einem Datenbanksystem. So können etwa — im hier angenommenen einfachsten Fall — beim Vorliegen von restaurant (’San M arco’, ’italienisch’, ’X-Str. 7’) (zu lesen als: Das Restaurant San M arco, das italienische Küche führt, hat als Adresse ’X-Str. 7’) in der Wissensbasis, Fragen nach Anschrift und Art der Küche für Restaurants direkt abgefragt werden. 2.2. Frage-Beantwortungsprozesse 1 Ausgangspunkt für die im vorliegenden Abschnitt zu untersuchenden Frage-Beantwortungsprozesse ist die Darstellung der Domäne durch eine — vgl. 2.1. — M enge von relationalen (propositionalen) Ausdrücken, die Wissensbasis. Der grundlegende FragenBeantwortungsprozeß ist dann ein Suchprozeß — genauer ein M atch-Prozeß — der aus-

Abb. 57.4: Der Frage-Beantwortungsprozeß

XI. Application Fields III

gehend von einer Frage-Repräsentation die passenden Einträge in der Wissensbasis ermittelt, aus denen wiederum die eigentliche Antwort konstruiert wird (siehe Abb. 57.4). Für die Repräsentation von Fragen, Antworten und Domänenwissen wird hier eine gemeinsame Repräsentationssprache verwendet, die Belnap/Steel (1976) folgend auf der Prädikatenlogik 1. Stufe basiert (eine detaillierte, formale Beschreibung findet sich unten in 2.3.). Die Repräsentationssprache L wird über einem assertorischen Kern AL gebildet. (Anm.: AL entspricht der Prädikatenlogik 1. Stufe). Gesättigte Formeln aus AL, d. h. solche, die keine freien Variablen enthalten, bilden die M enge AL*, der Assertionen (= Behauptungen); über dieser M enge kann die Wissensbasis (WB) aufgebaut werden. Die Repräsentation von Fragen erfolgt durch die Verwendung von Frage-Operatoren, die auf AL-Ausdrücke angewendet werden; hierdurch wird die Teilsprache IL der interrogativen Formeln gebildet. (L ist als Vereinigung von AL und IL erklärt; d. h., daß im Folgenden — in 2.2. und 2.3. — die Definition von IL zu leisten ist.) Sei etwa (1) a = p j (a 1 , ...,a n ) eine assertorische Formel, z. B. die in 2.1. verwendete (2) restaurant (’San Marco’, ’italienisch’, ’X-Str. 7’) so ergibt sich für die korrespondierende Entscheidungsfrage als IL-Repräsentation (3) 〈?/restaurant (’San Marco’, ’italienisch’, ’X-Str. 7’)〉. Das Zeichen „?“ Ist als Frage-Operator für Entscheidungsfragen anzusehen. Diese systematische Beziehung, der ’direkten Antwort’, zwischen Assertionen, Entscheidungsfragen und Antworten ist somit durch die folgende Definition gegeben: Definition I.a: Ist α eine Formel aus AL*, so ist (?/α) aus IL und repräsentiert eine Entscheidungsfrage. Ohne Berücksichtigung inferentieller Prozesse (s. u.), ergibt sich für die Antwortmenge: Definition I.b: ANTW (< ?/α >) = {α} falls α ∈ WB { α} falls  α ∈ WB {αv  α} sonst Entsprechend kann die formale Repräsentation von Ergänzungfragen (W-Fragen, im

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

Englischen als WH-Questions bezeichnet) durchgeführt werden: Definition II: Sei α (x) ∈ AL mit der (einzigen) freien Variablen x, so ist ϑ = 〈? x/α (x)〉 ∈ IL. ANTW (ϑ): = {α(k)/α(k) ∈ WB} wird als Antwortmenge bezeichnet. Die hier skizzierte (und in 2.3. detaillierter dargestellte) systematische Beziehung zwischen Wissensbasis, Fragen und Antworten ist u. a. dadurch charakterisiert, daß — Ausdrücke aus IL als gesättigte Formeln aufgefaßt werden können; insofern, als die Frageoperatoren, die die erste Komponente von IL-Ausdrücken ausmachen, als variablenbindend angesehen werden können. — Antworten stets AL*-Ausdrücke sind; d. h. Antworten werden durch komplette Sätze (gesättigte Formeln) repräsentiert. Antworten (auf der Ebene der Repräsentationssprache) werden nicht durch Ja/Nein oder, bei W-Fragen, durch Nominalphrasen gegeben; dies ist darin begründet, daß die semantischen Beziehungen zwischen Fragen und Antworten in einer wahrheitswertfundierten Weise hergestellt werden (vgl. Belnap/Steel 1976). Die obige Definition II von ErgänzungsInterrogativen führt in der Beispielsdomäne für die Frage (4.a) Wo liegt das italienische Restaurant ’San Marco’? zur Repräsentation (4.b) 〈? x/restaurant (’San Marco’, italienisch, x)〉 Lautet die Frage — wie es natürlicher ist — (5.a) Wo liegt das Restaurant ’San Marco’? so kann dies durch (5.b) 〈?x/∃ y: restaurant (’San Marco’, y, x)〉 dargestellt werden. Für die Beantwortungsprozesse ergibt sich auch hier — wie im Fall der Entscheidungsfragen — die Notwendigkeit einen entsprechenden Eintrag a ∈ WB zu finden; die Antwort wird durch einen kompletten Satz, bzw. auf der L-Ebene durch eine Formel a, gegeben. Wie dieses Beispiel zeigt, wird durch die Fragebeantwortung eine Komplettierung der Frage-Formel vorgenommen: zu (4.b) und (5.b) wird die Formel (2) als Antwort gefunden. Im Fall von (5.b) läge hiermit eine Überantwortung vor (vgl. Abschnitt 3.2.). Neben der bisher beschriebenen direkten

713

Beantwortung, die über der Wissensbasis durch direkte Suche, d. h. direkten Abgleich, eventuell unter Vernachlässigung von Detaillierungen wie im letzten Beispiel, vorgenommenen wird, ist der Fall der inferentiellen bzw . indirekten Frage-Beantw ortung vorzusehen. Diese Fälle betreffen insbesondere regelhafte Beziehungen im Weltwissen, die zum Teil in Form von Inferenzregeln zum Teil in Gestalt von Regularitäten für die interne Generierung von Frage-Rastern vorliegen. Wir gehen hier von einer formatierten Wissensbasis aus, d. h. einer WB, in der die Gleichförmigkeit der Einträge durch Restriktionen (constraints) an die Argumentstellen sichergestellt wird, etwa dahingehend, daß die dritte Argumentstelle von ’restaurant’ in der WB stets durch Anschriften-Angaben gefüllt ist. Bei einer derartigen Repräsentation erfordert die Frage (6.a) In welchem Stadtteil liegt das ’San Marco’? Kenntnisse über Beziehungen der Art (7) gehört_zu (’X-Str.’, Eimsbüttel) die in der formalen Fragen-Repräsentation zur Konstruktion einer komplexen Anfrage, nämlich (6.b) 〈? x, ∃ y ∃ z: restaurant (’San Marco’, y, z) & gehört_zu (z, x)〉 verwendet werden. Dieser systematischen Generierung eines Frage-Rasters liegt die Inferenzregel (8) restaurant (x, y, z) gehört (z, u) → restaurant (x, y, u) zugrunde. (Alle Variablen in Inferenzregeln sind universell quantifiziert zu interpretieren.) Der Frage-Beantwortungsprozeß wird also, nachdem im ersten Schritt durch direkten Abgleich mit der WB keine Antwortmenge aufgebaut werden konnte, im zweiten Durchlauf durch inferentielle Konstruktion einer neuen, im vorliegenden Fall einer komplexen, Frage fortgesetzt. Die Verwendung von Inferenzregeln in der Fragebeantwortung führt dazu, daß der in Abb. 57.4 skizzierte M atch-Prozeß der Frage-Repräsentation in bezug auf die Wissensbasis um inferentielle Verfahren zu erweitern ist (vgl. auch Art. 35). Diese Erweiterung spiegelt sich in entsprechenden Erweiterungen der Definitionen I und II wider: Die Antworten werden bzgl. der inferentiellen Hülle WB* der Wissensbasis gebildet; derartige Antworten sind als ’indirekt’ zu bezeichnen. (WB* ist die M enge aller Formeln aus

714

AL*, die aus WB ableitbar sind. Auf eine formale, explizite Fassung dieser erweiterten Definitionen verzichten wir, da sie von der zugrundeliegenden Theorie inferentieller Prozesse abhängig ist. Diese ist jedoch nicht Gegenstand des vorliegenden Artikels.) Zusammenfassend kann festgestellt werden, daß die grundlegende Operation bei der Konstruktion der Antwortmenge in der Suche passender Einträge in der Wissensbasis besteht. Der bisher skizzierte Ansatz weist insbesondere zwei Arten der Inadäquatheit auf: — Die Antworten sind zum Teil komplexer und kompletter als notwendig. Dieser Punkt wird noch in 3.2. ausführlich behandelt werden. — Die Fragen, bzw. Frage-Formeln sind nicht hinreichend differenzierend; d. h. mehrere Fragen (in natürlicher Sprache), die als bedeutungsverschieden angesehen werden sollten, wurden häufig in einen formalen Interrogativ zusammengeführt. So ist etwa der IL-Ausdruck (3) 〈?/restaurant (’San Marco’, ’italienisch’, ’X-Str. 7’)〉 als Repräsentation für (9.a) Liegt das italienische Restaurant San Marco in der X-Str. 7? (9.b) Heißt das italienische Restaurant in der X-Str. 7 San Marco? (9.c) Führt das Restaurant in der X-Str. 7 italienische Küche? anzusehen. Um entsprechende Bedeutungsdifferenzierungen auch in der Repräsentationssprache berücksichtigen zu können, werden (in 3.1) Spracherweiterungen durchgeführt werden. Somit wird auch der Überführungsprozeß Natürliche Sprache → Repräsentationssprache nach der Spracherweiterung in geeigneter Weise durchgeführt werden können.

XI. Application Fields III

Die erste Erweiterung (gegenüber dem vorausgegangenen Abschnitt) betrifft die Einführung eines „Kategoriensystems“ für die Terme der Sprache L. Die Individuenkonstanten werden hierbei in Klassen von Kategorien, z. B. ’strasse’, ’stadtteil’ usw., eingeteilt. Entsprechend werden an die Variablen, insbesondere die Queriablen, dies ist die von Belnap/Steel (1976, 25, 27 ff.) eingeführte Bezeichnung für solche Variablen, die über einen Frageoperator gebunden sind, Kategorienbedingungen formuliert. Somit können die beiden Fragen (10.a) In welcher Straße liegt das italienische Restaurant San Marco? (10.b) In welchem Stadtteil liegt das italienische Restaurant San Marco? durch (11.a) 〈? x: strasse (x)/restaurant (’San Marco’, italienisch, x)〉 (11.b) 〈? x: stadtteil (x)/restaurant (’San Marco’, italienisch, x)〉 in IL repräsentiert werden. In formaler Hinsicht bedeutet die Einführung des Kategorienkonzeptes, daß L (somit auch AL) eine sortenlogische Sprache ist (Habel 1986, 65 ff.). Sorten bzw. Kategorien werden durch spezielle einstellige Prädikate dargestellt, hier durch Hochkomma ausgezeichnet. Über die von Belnap/Steel eingeführten Kategorienbedingungen hinaus verwenden wir in L das Konzept der Kategorienhierarchien, wie es in zahlreichen KI-Ansätzen zu Wissenrepräsentationen unter der Bezeichnung ’ISA-Hierarchie’ (Brachman 1979), zu finden ist. Beispielhaft setzen wir hier die (flache) Hierarchie an.

2.3. Die Logik von Fragen und Antworten Im vorliegenden Abschnitt 2.3. werden wir die wichtigsten Konstrukte der von Belnap/ Steel (1976) konzipierten, logischen Sprache für Fragen und Antworten vorstellen. Diese Sprache stellt unseres Erachtens den detailliertesten Versuch dar, die für eine adäquate Repräsentation von Fragen notwendigen formal-sprachlichen Konzepte bereitzustellen. Ausgangspunkt ist die oben in 2.2. beschriebenen, auf der Prädikatenlogik 1. Stufe basierende Repräsentationssprache L.

Die Frage (12.a) Wo liegt das italienische Restaurant San Marco? wird dann durch (12.b) 〈? x: ’lokalität’ (x)/restaurant (’San Marco’, italienisch, x)〉 dargestellt. An diesem IL-Ausdruck sieht

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

man u. a., daß das Fragepronomen wo in IL durch das Schema 〈? x: ’lokalität’ (x)/_〉 repräsentiert ist. Die Verwendung von Kategorienbedingungen in L hat Auswirkungen auf den Suchprozeß (innerhalb der Fragebeantwortung). Wird die Wissensbasis nach passenden Einträgen durchsucht, so bedeutet dies, daß das M atching in zwei Arten (eventuell Stufen) erfolgt: zum einen werden die bzgl. der Operatoren und der nicht erfragten Argumente passenden Einträge gesucht, zum anderen wird in diesen Einträgen geprüft, ob die für die Queriable aufgestellten Kategorienforderungen erfüllt sind. (Diese Zweistufigkeit ist bei der kooperativen Fragebeantwortung, die in 3.2. behandelt wird, relevant). Wird nach einem in der Kategorienhierarchie höher stehenden Konzept gefragt, z. B. nach ’lokalität’, d. h. ist die Kategorienanforderung weniger einschränkend, so schlägt sich dies im M atching dahingehend nieder, daß alle Argumente, die einer Nachfolgekategorie, z. B. ’strasse’ oder ’stadtteil’, zuzuordnen sind, vom Fragebeantwortungsprozeß als passend angesehen werden. Zum Schluß sei darauf hingewiesen, daß Kategorienbedingungen der Anfrage, also in IL und der Wissensbasis, also in AL*, nicht deckungsgleich sein müssen. So kann etwa, wie die Beispiele (6)—(8) aus 2.2. zeigen, die WB im Hinblick auf die zulässigen Lokalitäten eingeschränkt sein, z. B. auf ’strasse’, ohne daß diese Restriktionen durch die Fragen berücksichtigt werden müssen. Die Regel, die z. B. ’stadtteil’ und ’strasse’ in bezug auf die Lage von Restaurants in Beziehung setzt, ist gerade der Spezialfall einer generellen Lokalisierungsinferenz, die über die Lokalitätshierarchie vermittelt wird. An dieser Stelle sei — hier speziell für Ergänzungsfragen — die erste Erweiterung der IL-Definition zusammengefaßt: Ein ILAusdruck α ist ein Paar bestehend aus einer Spezifikation σ und einem Request ρ (13.a) α = 〈σ/ρ〉 wobei die Spezifikation σ von der Gestalt (13.b) σ = ? x: Kat (x) ist, und somit die Kategorienbedingungen beinhaltet, und der Request p ein AL-Ausdruck mit der (einzigen) freien Variablen (Queriablen) x ist. Durch ρ wird sowohl das Spektrum der möglichen Antworten festgelegt, als auch der Suchprozeß über der Wissensbasis ausgelöst. Die M enge der mögli-

715

chen, bzgl. WB korrekten Antworten ist: (13.c) ANTW (α) = {ρ(k)/ρ(k) ∈ WB & Kat (k)} Bisher haben wir ausschließlich einfache Ergänzungsfragen untersucht und die Verarbeitung von multiplen W-Fragen unberücksichtigt gelassen. In realen Anwendungssituationen ist jedoch genau diesem Fragetyp größere Aufmerksamkeit zu widmen. So sind etwa bei Auskünften in Bezug auf Verkehrsverbindungen Fragen wie (14.a) Wann geht ein Zug nach Kopenhagen und von welchem Bahnsteig? zu beantworten. Geht man etwa von einem Prädikat zug_verbind (’zeit’, ’ziel-ort’, ’bahnsteig’) aus, bei dem die Kategorienbedingungen hier durch die Verwendung von Kategorienbezeichnungen als Argument formuliert sind, so ist die multiple Frage dadurch zu repräsentieren, daß mehrere — im vorliegenden Fall: zwei — Queriablen verwendet werden: (14.b) 〈? x: ’zeit’ (x), ? y: ’bahnsteig’ (y) /zug_verb (x, ’kopenhagen’, y)〉 Der Request ρ des IL-Ausdruckes α weist also mehrere freie Variablen, hier x und y auf, die durch die Spezifikation a gebunden werden. Dementsprechend ergibt sich die Antwortmenge eines multiplen Interrogativs als (15) ANTW (α) = {ρ(k 1 , k 2 )/ρ(k 1 , k 2 ) ∈ WB & Kat 1 (k 1 ) & Kat 2 (k 2 )} Die Suchprozesse bei der Fragebeantwortung laufen analog zum Fall der einfachen Ergänzungsfrage ab. Aufgrund dieser Analogie werden wir im weiteren einfache und multiple W-Fragen nicht getrennt darstellen; alle im folgenden erläuterten Erweiterungen der Spezifikationskomponente betreffen in gleicher Weise alle Ergänzungsfragen unabhängig von der Anzahl der Queriablen. Eine zweite relevante Erweiterung von IL, die ebenfalls auf Belnap/Steel (1976, 36—60) zurückgeht, betrifft das Phänomen, daß häufig nicht die gesamte M enge ANTW interessant ist. So ist, ohne daß wir auf die Probleme des situativen Kontextes der Frage eingehen wollen, im Falle der Frage (16) Wo gibt es hier (= in Hamburg) ein italienisches Restaurant? als Antwort die Ausgabe der kompletten Liste aller italienischen Restaurants in Hamburg, einschließlich ihrer Anschriften, sicherlich nicht adäquat.

XI. Application Fields III

716

Die Probleme der Angemessenheit der Frageerwiderung werden noch in 3. behandelt; an dieser Stelle sei nur darauf hingewiesen, daß die adäquate Beantwortung nur dann möglich ist, wenn auf der Ebene der formalen Fragerepräsentation, also in IL, geeignete Sprachkonstrukte zur Verfügung stehen. Dieses Bereitstellen ist das Ziel der hier beschriebenen zweiten IL-Erweiterung. Eine Einschränkung der Antwortmenge ANTW (α) in bezug auf α = (σ/ρ) ist dadurch möglich, daß — bei gleichem Request ρ — einschränkendere bzw. modifizierte Spezifikationen σ* verwendet werden. Hierbei bieten sich zwei Aspekte der M odifikation an (Belnap/Steel 1976, 36—60): — Auswahlumfang (selection-size): select — Vollständigkeitsforderung (completeness-claim): compi Der Auswahlumfang gibt an, wieviele Antworten gewünscht werden, genauer in welchem Bereich die Kardinalität der Antwortmenge — in bezug auf die betroffene Queriable — angesiedelt sein soll. Der Umfang wird durch eine M inimal- und eine M aximalangabe bestimmt, d. h. durch ein Paar 〈min, max〉, mit min, max ∈ N (M enge der natürlichen Zahlen). Als Bedingung für eine wohlgeformte select-Spezifikation ist min ≤ max zu fordern. Für max ist zusätzlich der Wert „—“ (keine max-Forderung) vorgesehen; eine häufige, geradezu die natürliche, min-Forderung ist durch min = 1 gegeben. Die Wirkung der select-Spezifikation wird in Interaktion mit der compl-Forderung deutlich. In vielen Fällen, gerade dann wenn der Umfang von ANTW (a) zu groß ist, wird man nicht alle Antworten anfordern, sondern nur eine Auswahl, d. h. einige Beispiele. Die Entscheidung ’Beispiele’ vs. ’alle Antworten’ wird durch die Angabe der complForderung 〈EX〉 vs. 〈ALL〉 repräsentiert. Hiermit ergibt sich ein Spektrum der Spezifikationsmöglichkeiten, wobei jede Spezifikationsmodifikation ein Paar [select, compl.] ist, (Belnap/Steel 1976, 57) durch: [〈1, 1〉 〈EX〉] ein Beispiel für ... [〈1, —〉 〈EX〉] einige Beispiele für ... [〈1, —〉 〈ALL〉] alle Fälle von ... (’select’ und ’compl’ getrennt zu berücksichtigen, ist aus prinzipiellen Gründen, notwendig; ob dies auch anwendungsrelevant ist, sei hier dahingestellt.) Das oben — einleitend für den Problemkreis der Spezifikations-M odifikationen — verwendete Beispiel

(16) Wo gibt es hier ein italienisches Restaurant? würde somit angemessen durch (17) 〈? x: restaurant (x) [〈1, —〉 〈EX〉], ? y: loc (y)/restaurant (x, ’italienisch’, y)〉 repräsentiert werden. An diesem Beispiel sieht man, daß — fehlende zusätzliche Spezifikation, hier bzgl. y, im Sinne von [〈1, —〉 〈ALL〉] interpretiert werden kann, — die Angabe zusätzlicher Spezifikationen für eine Queriable, hier x, in geeigneter Weise auf die Antwortmenge wirkt. Als weitere Werte für die complete-Forderung werden von Belnap und Steel (1976, 45 f.) vorgeschlagen 〈n%〉 zu lesen als ’weniger als n%’ bzw. ’mehr als n%’ bzgl. ANTW (α). Dieser Vorschlag ist — unserer Kenntnis nach — in Frage-Antwortsystemen bisher nicht systematisch berücksichtigt worden. Zu klären bleibt, (siehe 3.) aufgrund welcher Verfahren die Auswahl der Beispiele getroffen werden sollte. Zusammenfassend ergibt sich für das Format für Frage-Repräsentationen, d. h. die Form von IL-Ausdrücken. Eine Spezifikation σ hat die Gestalt: ? x: Kat (x) 〈spez〉 〈compl〉 für jede Queriable x, d. h. freie Variable in ρ α = 〈σ/ρ〉. Die [spez, compl]-Spezifikation wird nur in seltenen Fällen, wie etwa nenne drei Beispiele ... explizit an der natürlich-sprachlichen Oberfläche kodiert; es ist jedoch wichtig, derartige IL-Ausdrücke aufgrund von Heuristiken zu erzeugen, um kooperative Frage-Erwiderungen (vgl. 3.) zu ermöglichen.

3.

Die Frage-Antwort-Relation

Wie wir in 1.2. dargelegt haben, betreffen FASe Informationsanforderungen, d. h. daß als Eingabe in ein FAS nicht nur solche Sätze verwendet werden können, die in ihrer natürlichsprachlichen Form explizit als Frage klassifiziert werden können, sondern auch spezielle Aufforderungen, die ihrem Charakter nach als ’Informationsanforderungen’ bezeichnet werden können. Natürlichsprachlich werden diese meist in der Gestalt (18) „Nenne ...!“, „Gib ...!“ formuliert. Wir gehen hier davon aus, daß die NL-Analyse derartige Eingaben in semantische Repräsentationen des Interrogativ-Typs

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

übersetzt, so daß in Hinblick auf die Berücksichtigung spezieller Aufforderungen keine Spracherweiterung notwendig wird. Die Erweiterung des Untersuchungsgegenstandes auf Informationsanforderungen in der Eingabe hat u. a. zur Folge, daß neben direkten und indirekten Antworten (siehe unten 3.2.) generellere Frage-Erwiderungen als Systemreaktion thematisiert werden. 3.1. Frage-Erwiderung Durch die in 2.2. und 2.3. erläuterte FrageLogik wird zwischen interrogativen und assertorischen Formeln die Relation der ’direkten Antwort’ definiert; (13.c), (15). Über direkte Antworten hinaus sind in Hinblick auf adäquate Reaktionen auf Fragen weitere Fälle zu berücksichtigen; diese umfassen, ohne daß wir hiermit Anspruch auf Vollständigkeit erheben: (1) Antwortaufbereitung: die direkte Antwort, die durch eine Formel aus AL* repräsentiert ist, wird für die natürlichsprachliche Antwort geeignet — meist nur partiell — kodiert. So werden bei Entscheidungsfragen Ja! bzw. Nein! als Antwort verwendet, bzw. Nominalphrasen als Antworten auf einfache Ergänzungsfragen (s. u.). (2) Überbeantwortung: es werden indirekte Antworten gegeben, die auf die ’eigentliche Informationsanforderung’ des Fragenden eingehen; dies tritt insbesondere dann auf, wenn entweder die Antwort negativ ist oder die direkte Antwort nicht als ausreichend angesehen wird. (Derartige Situationen werden detailliert in 3.2. behandelt.) (3) Meta-Antworten: das FAS reagiert durch Informationen über die Art und Struktur der Wissensbasis ohne eine direkte Antwort zu geben. Wie die weiteren Beispiele und Erläuterungen zu diesen Punkten zeigen werden, treten häufig M ischfälle auf, so daß die obige Klassifikation nicht als disjunkt angesehen werden kann. Wir beginnen hier mit dem dritten Typ, dem der M eta-Antworten, ohne eine explizite Rechtfertigung der Verwendung der Bezeichnung ’M eta’ vorzunehmen. Falls das FAS nicht in der Lage ist, geeignete Ausdrücke, d. h. solche, die für das M atching zwischen Frage-Formel und Wissensbasis verwendet werden können, in der Wissensbasis findet, so ist eine Erwiderung durch (19) Keine Antw ort möglich. Weiss nicht.

717

angebracht. Dies ist insbesondere dann angebracht, wenn die „domain closure assumption“ (Reiter 1984) weder für den Weltausschnitt im allgemeinen noch für die in der Frage angesprochenen Prädikate im speziellen akzeptiert werden kann, d. h. wenn aus dem Nicht-Gelingen des M atchings nicht auf eine negative Antwort geschlossen werden sollte. Diese Antwort, (19), über den Wissensbestand entspricht der direkten Antwort {α v  α} in Definition I.b des Abschnittes 2.2.; für Ergänzungsfragen läßt sich eine analoge Lösung leicht ableiten. Als Beispiel betrachtet man die Frage (20.a) Liegt das Restaurant ’Don Giovanni’ in der Z-Straße? Falls ein Restaurant dieses Namens dem System nicht bekannt ist, und darüberhinaus nicht ausgeschlossen werden kann, daß nicht alle Restaurants der Domäne im System erfaßt sind, wäre eine Antwort durch (20.b) Nein! Das Don Giovanni liegt nicht in der Z-Straße. Unangemessen, da eine falsche Antwort — im Falle der Unvollständigkeit der Wissensbasis — in Kauf genommen wird. Eine derartige Antwort, die in die Klasse der nicht-kooperativen Erwiderungen fallen würde — kooperative Antworten werden wir in 3.2. behandeln — würde beim Fragen eventuell ungerechtfertigte Reaktionen hervorrufen. Angemessener wäre sicherlich die Antwort (19), die das Nichtwissen des Systems ausdrückt, eventuell mit einer kooperativen Ergänzung der Art. (20.c) Der Wissenstand des Systems betrifft das erste Quartal des Jahres. (20.d) Verwenden Sie bitte die Gelben Seiten. Die beiden kooperativen Ergänzungen unterscheiden sich dahingehend, daß (20.c) eine genauere Auskunft über den eigenen (FAS-bezogenen) Kenntnisstand gibt, d. h. Wissen über das eigene Wissen vorhanden sein muß, während durch (20.d) auf den Wissenstand anderer Informanten verwiesen wird. (Beide Typen von Wissen über Wissen werden in gegenwärtigen FAS nicht bzw. nur unsystematisch verwendet.) Wir kommen nun auf den Fall der Antwortaufbereitung zurück. Die Relation der direkten Antwort, vgl. Definition I und II, geht davon aus, daß Antwort-Repräsentationen stets durch Formeln gegeben sind. Dies bedeutet, daß Antworten an der natürlichsprachlichen Oberfläche als komplette Aussagesätze realisiert werden müßten. Eine ad-

718

XI. Application Fields III

äquate Systemreaktion liegt offensichtlicherweise darin, bei Ergänzungsfragen die ’beantwortende Terme’ und bei Entscheidungsfragen die Antworten ’Ja’ bzw. ’Nein’ als Erwiderungen zuzulassen; derartige ’verkürzte Antworten’ (von Belnap/Steel 1976, 14 als ’coded answer’ bezeichnet), ergeben sich in systematischer Weise aus der Frage-AntwortRelation: (21)

Frage a) α α α b) ? x/p (x)

direkte Antwort {α} { α} {α v  α} {p(k)}

verkürzte Antwort Ja Nein Weiss nicht {k}

Der Fall (21.b) kann als ’verkürzte Antwort durch Ellipse’ charakterisiert werden. Falls eine multiple W-Frage vorliegt, ist die entsprechende Ellipsengenerierung teilweise nicht trivial; vgl. hierzu: Jameson/Wahlster (1982). Neben den generellen Problemen der Ellipsengenerierung ergibt sich für (verkürzte) Antworten auf Ergänzungsfragen die Problematik, wie die Terme (meist Konstanten) aus der Repräsentationssprache L natürlichsprachlich realisiert werden sollen. (Das generelle Problem der Generierung von Deskriptionen wird im vorliegenden Artikel ausgeklammert, da es nicht FAS-spezifisch ist; vgl. hierzu z. B. Habel (1986, 193 ff.). Ist die Antwortmenge umfangreich, so ist eine Aufzählung der Antworten weniger angemessen als die Beschreibung der Antwort durch eine charakterisierende Eigenschaft. Stellt man etwa die Frage: (22.a) Wann fahren Intercity-Züge von Bremen nach Hannover? so würde die verkürzte Antwortmenge durch (22.b) {6 : 10, 7 : 10; ...; 18 : 10, 19 : 10} definiert sein; dies würde adäquat z. B. durch den natürlichsprachlichen Satz (22.c) Jeweils um 10 min nach, von 6 Uhr bis 19 Uhr. charakterisiert werden. Derartiges Antwortverhalten erfordert vom System die Fähigkeit, von extensionalen M engenbeschreibungen zu intensionalen übergehen zu können. Für FAS-Anwendungen ist es sicherlich nicht sinnvoll, hier generelle M echanismen des Übergangs: extensionale Auflistung → intensionale Charakterisierung verwenden zu wollen; stattdessen sind spezielle, kategorienspezifische Charakterisierungsverfahren anzusetzen. (Unseres Wissens

sind derartige Verfahren, d. h. Antwortaufbereitungen, in gegenwärtigen FAS nicht systematisch berücksichtigt; eine Ausnahme bildet Kalita/Jones/McCalla 1986.) Der weitere Typ der nicht-direkten Erwiderung (Überbeantwortung) ist aufgrund der Wichtigkeit und der zusätzlich benötigten Sprach- und Theorienkonzepte Gegenstand eines eigenen Abschnittes, 3.2. 3.2. Frage-Beantwortungsprozesse 2: Kooperative Antworten Frage-Antwort-Dialoge sind spezielle Formen der Konversation; insofern sollte von den Dialogpartnern verlangt werden, daß sie sich konversationskooperativ verhalten, etwa dadurch, daß sie Konversationsmaximen befolgen. (Konversationsmaximen im allgemeinen gehen auf Grice 1975 zurück; Anwendungen auf Frage-Antwort-Situationen findet man u. a. bei Habel/Rollinger 1980; Joshi/Kaplan 1978 und Kaplan 1983). Kooperativität des Antwortenden ist u. a. notwendig, um Fehlschlüsse (aufgrund der Antwort) beim Fragenden bzw. umständliche Nachfragen zu vermeiden. M an betrachte hierzu den folgenden fiktiven Dialog zwischen einem Benutzer (B) und einem nichtkooperativen System (S): (23.a) B: Welche thailändischen Restaurants bieten Hauptgerichte an, die billiger als 15 DM sind? S: NIL B: Und billiger als 20 DM? S: NIL B: Wie teuer ist das billigste Hauptgericht? S: Weiss nicht. B: Wo gibt es hier denn ein thailändisches Restaurant? Dann rufe ich eben an. S: NIL Dieses unkooperative Systemverhalten kann sich ergeben, wenn das System keine Information über thailändische Restaurants besitzt. Angemessen wäre die Reaktion (23.b) Es gibt hier kein thailändisches Restaurant. Das hier vorgestellte Verhalten — von Joshi/Kaplan (1978) als “stonewalling effect” bezeichnet — erschwert es dem Benutzer, die intendierte Information zu erhalten. Eine Verbesserung des Erwiderungsverhaltens kann dadurch erreicht werden, daß vom System die existentiellen Präsuppositionen

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

abgeprüft werden. Dieses Vorgehen soll am Beispiel (23) erläutert werden. Geht man von einem Wissensbasisprädikat ’restaurant_2’ mit der Kategorienbedingung (im Sinne von 2.3.) (24.a) restaurant_2 (’name’, ’nationalität’, ’lokalität’, ’preis’) aus, so ergibt sich für die Startfrage aus (23.a) die IL-Repräsentation: (24.b) α = 〈? x/∃ y: restaurant_2 (x, ’thai’, y, ’≤ 15’)〉; Antwortmenge ANTW (α) = Ø ist genau dann der Fall, wenn (24.c)  ∃ x ∃ y restaurant_2 (x, ’thai’, y, ≤ ’15’) (M an beachte, daß für diesen Fall ein fest umgrenzter Bereich möglicher Lokalitäten angenommen wird, der ’Wissensbereich des FAS’, und daß innerhalb dieses Bereichs von der closed world assumption und der domain closure assumption — vgl. 3.1. — ausgegangen wird.) Zu (24.c) lassen sich zwei präsuppositionelle Nachbarfragen — bzgl. jeder der nicht durch existentiell gebundene Variablen belegten Argumentstellen — bilden, (25.a) arg-4-präs-NF: 〈?/∃ z ∃ x ∃ y: restaurant_2 (x, z, y, ≤ 15)〉 (25.b) arg-2-präs-NF: 〈?/∃ z ∃ x ∃ y: restaurant_2 (x, ’thai’, y, z)〉 deren natürlich-sprachliche Entsprechungen 26.a) Gibt es Restaurants mit Hauptgerichten billiger als 15 DM? (26.b) Gibt es thailändische Restaurants? (jeweils in bezug auf den Wissensbereich) lauten könnten. Wird eine dieser Nachbarfragen mit Nein! beantwortet, liegt gerade hierin der Grund für die negative Antwort auf die Startfrage, der in einer kooperativen Erwiderung genannt werden sollte. Im hier angenommenen Fall würde (25.b) mit Nein! beantwortet werden, und dementsprechend sollte die adäquate Reaktion (23.b) erfolgen. Bevor wir auf weitere Fälle kooperativer, insbesondere überbeantworteter Erwiderungen eingehen werden, sei die — oben am Beispiel erläuterte — allgemeine Konzeption der präsuppositionellen Nachbarfrage formalisiert. (Wir greifen hier auf Hauptmann 1984 zurück. Im System COOP (Kaplan 1983) findet sich eine ähnliche Konzeption.) Gegeben sei eine Frage (27) α = 〈? x/ϕ (x)〉 wobei (ϕ (x) von der Gestalt

719

(ϕ (x) = ∃ y 1 , ... y m : p (a 1 ... a n ) Hierbei wird davon ausgegangen, daß x an der i-ten Argumentstelle, y 1 ... y m an den Argumentstellen j (1), ... j (m) auftreten. Für k ≠ i, k ≠ j (1) wird die k-te präsuppositionelle Nachbarfrage definiert durch: k-präs-NF: 〈?/∃ z ∃ x ∃ y 1 ... y m p (a 1 ... a n )〉 Hierbei treten x, y 1 ... y m an den gleichen Argumentstellen wie bei ϕ auf und z in der k-ten Argumentstelle. Anmerkungen: 1. Zur Verdeutlichung mache man sich klar, daß diese Definition die Fälle (25) als Beispiele umfaßt. 2. Für Entscheidungsfragen ergibt sich eine entsprechende Definition. 3. Der Prozeß der Bildung von Nachbarfragen kann iterativ fortgesetzt werden; es kann z. B. die k’-präs-NF zu k-präs-NF gebildet werden. Die präsuppositionellen Nachbarfragen können nun zur kooperativen Überbeantwortung verwendet werden, indem aus einer positiv beantworteten präsuppositionellen (Entscheidungs-)Nachbarfrage eine ’benachbarte Ergänzungsfrage’ abgeleitet wird; da es Objekte gibt, die die Präsupposition erfüllen, ist es kooperativ diese dem Fragenden zur Kenntnis zu bringen. Gerade dies geschieht über die präsuppositionelle Nachbarfrage. Würde etwa — in einer anderen Situation als der in (23)—(25) angenommenen (28.a) 〈?/∃ z ∃ x ∃ y: restaurant_2 (x, ’thai’, y, z)〉 mit Ja! beantwortet werden, wäre eine Variation des ’preis’-Arguments — in bezug auf (24.b) sinnvoll — etwa mit (28.b) α’ = 〈? x/∃ y: restaurant_2 (x, ’thai’, y, ’ ≤ 25’)〉 Hieraus könnte sich die kooperative, korrigierende und überbeantwortende Erwiderung (28.c) Keine, aber im ’Sala Thai’ gibt es Hauptgerichte unter 25 DM. ergeben. Welche Spannbreite für die Variation der Argumente zulässig ist, d. h. was eigentlich als Nachbarergänzungsfrage gelten kann, ist von der Domäne abhängig. Entsprechendes Wissen muß in der Wissensbasis — als Beantwortungsheuristik — enthalten sein. (Aus einer anderen Perspektive — wie sie etwa in Hinblick auf (6)—(8) eingenommen wurde — ist dies eine ’Nachbarfragen-Erstellungsheuristik’.)

720

In den vorliegenden Beispielen sind wir — stillschweigend — davon ausgegangen, daß die Nachbarfrage (25.b), diejenige also, die sich auf Thai-Restaurants bezieht, von Interesse für den Fragenden ist. Diese Annahme ist jedoch aus der IL-Repräsentation (24.b) nicht ableitbar, da in (24.b) in bezug auf die IL-Syntax die beiden Terme ’thai’ und ’ ≤ 15’ den gleichen Status besitzen. Wenn man nicht — was auch inadäquat wäre — von einer Relevanz- bzw. Fokussierungsmarkierung, die an den prädikativen Konzepten, hier ’restaurant_2’, festgemacht ist, ausgehen will, muß also die IL-Repräsentation die notwendigen Informationen enthalten. Aus diesem Grund ist die Repräsentationssprache um eine Fokussierung (etwa Sidner 1983 a folgend), vgl. also Art. 36) zu erweitern; wir werden hier auf generelle Fragen der Fokusbestimmung nicht eingehen, sondern nur skizzieren, wie Fokussierungen in die Repräsentationssprache L integriert werden können. Daher wird insbesondere nichts darüber ausgesagt werden, wie die Analysekomponente den Frage-Fokus bestimmt. Die von uns betrachteten Fokussierungen betreffen stets Argumentstellen in prädikativen Konzepten. Dementsprechend wird die übliche Prädikat-Argument-Schreibweise so erweitert, daß zwischen fokussierten und nicht-fokussierten Argumentstellen unterschieden wird. Technisch gesprochen: Fokussierte Argumentstellen werden durch ..., F : arg, ... notiert. Im vorliegenden Fall ergibt sich statt (24.b) die IL-Repräsentation (29.a) α = 〈? x/∃ y: restaurant_2 (x, F: ’thai’, y, ’ ≤ 15’)〉 Die Fokussierungskonzeption wirkt sich bei der Bildung von Nachbarfragen dahingehend aus, daß zuerst nicht-fokussierte Argumentstellen berücksichtigt werden, d. h. (25.b) vor (25.a) untersucht wird. Dies wirkt fort in der Generierung von Überbeantwortungen. Somit würde nicht — fast im Radio Eriwan-Stil — statt der kooperativen Erwiderung (28.c) die wenig kooperative Antwort (29.b) Keine, aber der Burger-King ist so billig. gegeben werden. Die hier skizzierte Fokussierungskonzeption ist auch in der Lage, das Problem der Bedeutungsdifferenzierung bei Entscheidungsinterrogativen — (9) in 2.2. — adäquat zu behandeln. Unter Verwendung der oben erläuterten Vorgehensweisen ergibt sich ähnlich zu (9.a) die folgende Frage-Erwiderungs-

XI. Application Fields III

Situation: (30.a) Liegt das italienische Restaurant San Marco in der X-Str. 9? (30.b) 〈?/restaurant (F: ’San Marco’, F: ’italienisch’, ’X-Str. 9)〉 (30.c) Nein, in X-Str. 7! (Ob hierbei von der Fokussierung auf die erste Argumentstelle, oder auf die ersten beiden ausgegangen werden sollte, ist von einer Fokussierungstheorie zu entscheiden; dies ist kein Problem, das für Frage-Antwort-Strukturen spezifisch ist.) Die im vorliegenden Abschnitt erläuterten Beispiele stellen nur einen Ausschnitt aus dem Problemkreis der Überbeantwortung, als Spezialfall der kooperativen Erwiderung, dar. Weitere Aspekte dieses Problembereichs werden von Wahlster/ M arburger/Jameson et al. (1983) dargestellt; insbesondere wird dort auch die Beziehung zwischen Überbeantwortung und Benutzermodellen thematisiert.

4.

Stand der Forschung und Desiderata

In den beiden vorangegangenen Abschnitten 2. und 3. haben wir den Leistungsstand gegenwärtiger Frage-Antwort-Systeme skizziert und dabei auch schon einige Desiderata aufgezeigt. Wir werden im weiteren die relevanten Komponenten eines FAS, die für die Leistungsfähigkeit ausschlaggebend sind, noch einmal in ihrem Einfluß auf den Leistungsumfang des FAS zusammenfassend skizzieren und dabei auf weitere Forschungsdesiderata eingehen. Zuerst einmal ist hier die Repräsentationssprache L zu nennen, wobei das Antwortspektrum des FAS von der M ächtigkeit (= Ausdrucksstärke) beider Teile, des assertorischen, AL, und des interrogativen, IL, abhängt. Diese — an und für sich — offensichtliche Tatsache kann durch „Ein Frage-Antwort-System kann nur die Aspekte eines Weltausschnittes behandeln, die durch die Repräsentationssprache abgedeckt sind.“ charakterisiert werden. Daß in diesem Bereich trotzdem Probleme auftreten können, wollen wir am Beispiel der warum-Fragen erläutern. Zahlreiche FAS — oder allgemeiner Dialogsysteme — verfügen über die Fähigkeit warum-Fragen zu beantworten. Dies ist insbesondere im Zusammenhang mit Erklärungskomponenten für Expertensysteme eine Notwendigkeit.

57.  Frage-Antwort-Systeme: Konzeptionen, Leistung, Perspektiven

Im Rahmen dieses Einsatzgebietes werden von Wahlster (1981), in einer der umfangreichsten und fundiertesten KI-Arbeiten zu diesem Thema, mehrere Typen von warum-Fragen unterschieden, die insbesondere über Erläuterungen von Ableitungsketten beantwortet werden. Dies bedeutet, daß die Frage 〈warum/α〉 (wir verwenden hier eine von Wahlster abweichende, an die Notation des Abschnittes 2. angelehnte Formalisierung) über Ableitungen WB — α beantwortet wird. Bevor wir hierauf näher eingehen werden, sei erwähnt, daß warumFragen in ihrer natürlichen Interpretation als Fragen nach Gründen aufgefaßt werden, d. h. daß ein implizites oder explizites Kausalitätskonzept zugrundegelegt wird. Dieser Situation könnte in IL dadurch Rechnung getragen werden, daß (31.a) 〈warum/α〉 auf (31.b) 〈? x/weil (x, α)〉 abgebildet wird; x ist in diesem Fall eine Formelvariable. Der Ansatz von Wahlster (1981, 137) verwendet dementsprechend auch einen weil-Operator; dieser wird über evidenzverstärkende M ehrfachableitungen induziert. Das Problem bezüglich AL liegt gerade darin, daß Wahlsters Repräsentationssprache keinen expliziten weil-Operator vorsieht. Dieses Fehlen ist nicht für Wahlster charakteristisch, sondern in (fast) allen Wissensrepräsentationen zu finden: Kausalität wird üblicherweise nicht explizit repräsentiert. (Dies darf einen nicht verwundern, wenn man die Schwierigkeiten der philosophischen Logiken, das Konzept Kausalität zu analysieren, in Rechnung stellt. Eine explizite Behandlung von ’weil’ müßte zu einer entsprechenden Logikerweiterung führen, in unserem Fall zu einer AL-Erweiterung.) Problematisch ist die hier skizzierte partielle, d. h. auf spezielle Aspekte, wie Ableitungsbegründungen, eingeschränkte Behandlung deswegen, weil der Benutzer unter Umständen davon ausgeht, daß AL Kausalität im generellen Sinne darstellen kann. Dies bedeutet, daß aus der M enge der in der Domäne möglichen und sinnvollen Antworten auf warum-Fragen nur gewisse, nämlich solche, die Ableitungen betreffen, gegeben werden, ohne daß der Fragende sich dieser Einschränkung bewußt ist. Dieser Fall zeigt auch, daß Frage-Beant-

721

wortung stets abhängig ist von den Prozessen, die Frageoperatoren auswerten, insbesondere von den Inferenz- und M atchingProzesse (vgl. 2.2.). In den bisher dargestellten Beantwortungsprozessen haben wir stets ’exaktes M atching’ angewendet; das ZugBeispiel (22) zeigt, daß in vielen Fällen ein ’approximatives M atching’ angebracht ist; die folgenden Beispiele zeigen, daß approximatives M atching auch als M atching in bezug auf Generalisierungen angesehen werden kann. Lautet die Frage etwa (32.a) Fährt um 16.00 ein IC von Bremen nach Hannover? so ist eine negative Antwort sicherlich nicht angemessen; dies kann — wie in Abschnitt 3.2. gezeigt wurde — durch Anwendung des Konzeptes der Nachbarfrage auch verhindert werden. Dieser Lösungsweg ist jedoch nicht sehr ökonomisch, sowohl in Hinblick auf die technischen, hier an der Informatik orientierten Aspekte, als auch unter dem Gesichtspunkt der kognitiven Ökonomie. Vielmehr ist davon auszugehen, daß die angemessene Repräsentation zu (32.a) nicht (32.b) 〈?/IC (’Bremen’, ’Hannover’, ’16.00’)〉 ist, sondern z. B. in der Art (32.c) 〈?/IC (’Bremen’, ’Hannover’, ’UMGEB (16.00)’)〉 dargestellt werden sollte. Diese IL-Formel ist dann mit der Wissensbasis zu vergleichen. Ist die durch den Kontext gegebenen Umgebung derart, daß (32.d) 16.10 ∈ UMGEB (16.00) gibt, ergibt sich die kooperative Antwort (32.e) Ja, um 16.10. Der gleiche Effekt kann erzielt werden, wenn ähnlich zur Fokussierung (vgl. 3.2.) eine M arkierung ’APPR’ für approximativ zu matchende Argumentstellen eingeführt wird: (32.f) 〈?/IC (’Bremen’, ’Hannover’, APPR: ’16.00’)〉 Welche Lösung man auch wählt, die der ’Approximationsmarkierung’ (32.f) oder der ’Umgebungsoperation’ (32.c), stets ist davon auszugehen, daß das System über Wissen darüber verfügt, in welchen Fällen ’approximative Antworten’ angemessen sind. (Derartiges Wissen kann in Form heuristischer Frage-Transformationen, d. h. spezieller Inferenzregeln, in der Wissensbasis kodiert werden. Das Fazit unserer Analyse von Frage-Ant-

722

XI. Application Fields III

wort-Systemen läßt sich wie folgt zusammenfassen: Die Leistungsfähigkeit eines FAS ist durch die Ausdrucksstärke der Repräsentationssprache L (bzgl. AL und IL) und der Inferenz- und M atching-Systeme gegeben. Voraussetzung für adäquate Frage-AntwortSysteme sind leistungsfähige Systeme der Wissensrepräsentation und Wissensverarbeitung.

5.

Literatur (in Auswahl)

N. D. Belnap/T. B. Steel 1976 · R. Brachman 1979 · C. Habel/C.-R. Rollinger 1980 · S. R. Kaplan 1983 · W. Lehnert 1977b · R. Reiter 1984 · W. Wahlster 1981.

Christopher Habel/Simone Pribbenow, Hamburg (Bundesrepublik Deutschland)

58. Question Answering Systems: A Survey of Major Accomplishments 1. 2. 3. 4.

1.

The Basic Notions of Question Answering Systems Major Systems Realizations Summary Literature (selected)

The Basic Notions of Question Answering Systems

In this chapter question answering computer systems are described, these systems (experimental or practical) which contributed to the development of this interdisciplinary research field in a significant way. While selecting systems for this review particular attention has been given to linguistic considerations. The major objective was to obtain a coverage of linguistic theories and phe-

The system has two components: (1) the natural language interface to an information retrieval component and (2) the retrieval system itself. Analysing the natural language in-

nomena as they are reflected in question answering systems. The typical question answering system (abbreviated QA-system) can be regarded as a kernel with some knowledge represented in it and the natural language interface enabling the user to take in at a glance at this treasure (or garbage) of knowledge. In the research work concentrated around question answering systems many interesting investigations have been carried out in an attempt to discover what the real nature of knowledge is and how can it be represented in the memory of a computer. Additionally the mechanisms and techniques of knowledge representation have been taken into account in choosing the systems for this survey. Let us now have a look at the typical architecture of a question answering system:

terface, we note some characteristics such as the model of the world and language used, the grammar applied, the data structures and control structures used in processing and also some engineering aspects of the implementa-

58.  Question Answering Systems: Active Systems

tion. All these factors contribute to the quality of the resulting QA-system, measured in its linguistic coverage and habitability. Below we consider system based on: (i) formal grammars like phrase structure grammar or transformational grammar; (ii) non linguistic grammars; (iii) semantic grammar; (iv) no grammar at all. The penetration towards the meaning of the sentences has also been taken into account — some systems prefer to analyse only the syntax and treat the semantics rudimentarily and others consider different levels of semantic representation, moreover they formalize and operationalize the representations. Unfortunately most question answering systems were satisfied with techniques of analysing the natural language while the generation of sentences was ignored. Among question answering systems, there are only few exceptions (such as SHRDLU, M ARGIE, HAM -RPM , XCALIBUR) which seriously attempt the synthesis of answers in natural language. The focus on the analysis of natural language in design and implementations of question answering systems was the reason for the fact that so much attention (and space) in the following descriptions is devoted to parsers, their architectures and processing techniques used (cf. Articles 28—32). In the architectures of presented parsers the full spectrum of types is represented. These range from those with classic, linear structure where lexical, syntactic and semantic analysis are processed in strict sequence, to the other extreme where a loose web of control structures in intermixed processing and use of different knowledge sources can be seen. Concerning the control structures there are examples ranging from quite deterministic parsers through some with parallel processing schemes or with different backtracking strategies to the use of a blackboard without any explicit control structure (situation driven parsing). Concerning knowledge representation and semantic processing, a similar variety of solutions can be found the systems reviewed below: semantic networks, different systems of logic, various data base management systems or other ad hoc solutions. A further criterion for the selection of systems for this survey was the novelty in the areas of: (a) the linguistic theory applied in the design of the choosen question answering system, (b) approach to drawing inferences in

723

the domain and the model for the representation of knowledge or finally (c) the processing schema in the sense of control structure used. The following basic frameworks for question answering systems will be discussed: augmented phrase structures, pattern matching, charts, transformational grammar, augmented transition networks (ATN) and situation-action rules. These frameworks are used to structure the presentation. We start the reviewing with SAD-SAM — an early system based on simple context free grammar. As next STUDENT will be presented which used pattern matching for parsing and is an early example of a system trying to deal with cognitive simulation. To show an example based on active charts the German system USL will be discussed. Then we treat systems based on transformational grammar: TQA and PHLIQA1. The emphasis on knowledge representation founded in logic is charactristic for systems like BACON (for further information on BACON and formal knowledge representation languages see Habel/Pribbenow, art. 57 in this volume). As examples of systems based in ATNs LUNAR, SOPHIE and PLANES will be presented. LUNAR’s orientation to language was influenced by transformational grammar but it introduced also elements of semantic grammar. The concept of parsing with semantic grammar was consequently developed and investigated in SOPHIE which is also an example of an integrated system for Computer Aided Instruction (CAI). The system PLANES uses semantic case frames for parsing and examplifies a robust interface to a very large data base. The objective to obtain a robust interface to data bases was also followed in design and implementation of LIFER and its descendants like LADDER and HAWKEYE prove its success. The efforts to built general natural language frontends to data bases lead even to commercialy marketed systems like Q & A and ROBOT. The last four systems presented: M ARGIE, SHRDLU, HAM -RPM and XCALIBUR operate in scope of the computational paradigm in linguistics in contrast to previously mentioned, which can be classified as belonging to generative, structural or prescriptive paradigms. To this computational paradigm only a brief characterization can be given here: (a) as an apprehension of language as medium of communication, (b) as a methodology to get insight into linguistic

724

XI. Application Fields III

phenomena by examining mental processes of human communication and modeling these processes as well as the structures of underlying knowledge. (For detailed presentation of these paradigms see Winograd 1983). The system M ARGIE is based on the conceptual dependency theory and its parser operates in the framework of situation-action rules — approach fruitfully adopted by contemporary expert systems. SHRDLU’s theoretical background lies in systemic grammar, it utilizes syntactic and semantic information sources as well as logic based knowledge representation in order to deal with utterances. HAM -RPM deals with higher linguistic phenomena like speech acts and discourse theory, it represents knowledge in form of fuzzy logic. The main objective of this system was the modelling of human behaviour in communication. XCALIBUR is an interface to an expert system, it also deals with advanced dialog phenomena. All four systems possess not only parsers but also modules for synthesis of utterances and inference enginees used in natural language processing. In general the familiarity with linguistic theories, models of data bases and knowledge representation schemes will be presumed.

2.

Major Systems Realizations

2.1. SAD-SAM SAD-SAM stands for Syntactic Appraiser and Diagrammer — Semantic Analysing M achine (Lindsay 1963). It is a program that builds a data base about kinship relations and answers questions about the facts stored in it. The natural language interface is based on a simple, context free grammar which accepts a relatively small subset of basic English. The system SAD treats sentences from the domain of kinship relations, while other semantic information is ignored. However the extent and complexity of structure processed by SAM is impressive. SAD parses the input from left to right and there are no ’expectations’ at the beginning of a sentence. The expectations of the constituents are then invoked later in the parsing process. The input words like the determiner ’the’ invoke a routine expecting a noun phrase to follow, or on the forms of the verb ’be’ invoke a routine expecting a verb phrase. SAD produces a derivation tree, and this data structure is then

passed to SAM for further interpretation. After the syntactic parsing of the sentence has been completed, the derivation tree is searched for any of the kinship relation words. Proper names are then extracted and substituted as arguments of the recognized kinship relation. The equivalence relations are encountered by a simple strategy based on looking at forms of ’be’ as in the sentence Jane’s father, Bill, is Mary’s father. The final structure constructed is: FAMILY-UNIT-1 HUSBAND: Bill WIFE: unknown OFFSPRING: Jane, Mary HUSBAND’S PARENTS: unknown WIFE’S PARENTS: unknown The module SAM deals with these family units. It possesses a simple model of the kinship relations where, for example multiple marriages are not foreseen, or in the case of ambiguities only a single, ad hoc solution is considered. SAM manipluates the family units by performing some inferences. Presume that SAM has accepted three family units describing (1) Bill as the father of Jane and Mary, (2) Linda as the mother of John and Bob and finally (3) Bob and Jane as siblings. These three family units are combined by the inferencer resulting in: FAMILY-UNIT-4: HUSBAND: Bill WIFE: Linda OFFSPRING: Jane, Mary, Bob, John HUSBAND’S PARENTS: unknown WIFE’S PARENTS: unknown The inference performed by SAM operate on structures retrieved from the data base reflecting the actual underlying kinship relationships. The intelligent behavior of SAD-SAM is manifested in (1) understanding utterances in basic english with a vocabulary of about 1700 words and (2) in the capability to perform inferences. Both topics are elaborated by applying more sophisticated linguistic theories and deductive mechanisms in later systems. 2.2. STUDENT The system STUDENT was developed by Daniel Bobrow and described in his doctoral thesis at M IT (Bobrow 1968). STUDENT is a program which understands and solves highshool-level algebra story problems. The research was focused on conceptual phenomena in algebra word problems. The natural language component of STUDENT has

725

limited linguistic capabilities. The recognition of the meaning in the short algebra stories has been achieved by reducing complex sentences to shorter and simpler ones. Further on a set of algebraic equations and variable lists is generated. The problem solver operates on these equations. In the course of the problem solving process sophisticated heuristics are applied. First the input is processed by two preparatory stages of (1) substitution of fixed canonical forms for some typical phrases and words in the input string and (2) marking of functional words like question words and designators of algebraical relations. Afterwards the main process of transformation of the story into a set of equations is carried out. The normalized input is matched against templates like: (WHAT ARE * AND *) (HOW MANY * DO * HAVE) (FIND *) (FIND * AND *) (* IS *) and so on. (The * designates the variable of the pattern matcher.) The system has about 12 templates of this kind. The matching process identifies the meaningful constructions. After recognizing the relations and algebraic operations a list of desired answers is generated. The units involved in the problem are collected and the list of all variables is constructed. The equations constructed by the meaning recognition part of the program are passed to the separate problem solving module. Despite the simplicity of the natural language interface based on recursive pattern matching STUDENT performed satisfactorily in recognizing, classifying and solving problems; in some cases, where the human student didn’t possess the appropriate cognitive model of the particular kind of the algebra problem, the system was faster than the student. The research project on human problem solving carried out by Paige and Simon (1966) used a modified version of STUDENT for modeling of cognitive processes. (Hinsley/Hayes/Simon 1977).

data bases. Queries and commands are accepted to access and modify the data base. In the classic architecture of USL the main components of the system are the syntactic parser, semantic analyser and the retrieval system. The parser is based on chart rewrite rules (Kay 1967) and operates bottom-up, left-toright. In its preparatory step the lexical scan is performed: lexical constructs are assigned to words found in the dictionary, and the remaining strings not recognized as valid entries in the lexicon are treated as proper nouns or items from the data base. The parser then matches the right hand side of the rules with adjacent lexical constructs in the processed input. On a successful match the symbol for the dominating constituent replaces the recognized phrase and the syntactic tree is constructed. In this process the augmentation of such features as case, number and gender is carried out in order to control the derivation of the syntactic tree, and reject the false parses as soon as possible. The parser produces all possible derivations. The semantic analysis is based upon interpretation routines associated with the lexical and grammatical rules. The responsibility of these interpreta-

2.3. USL User Speciality Languages is the full name of the system developed at IBM -Germany in the Scientific Research Center in Heidelberg (Ott/Zoeppritz 1980; Zoeppritz 1984). The system USL was regarded as an experiment with natural language interface to relational

Fig. 58.2: USL — Semantic tree

726

tion routines is to reject the meaningless syntactic parses. The system has semantic interpretation routines for determiners, question words, common and proper nouns, verbs, appositions etc. These semantic interpretation routines construct a semantic tree i. e. allocate data structures for nodes which describe relations and their arguments, fill the nodes with values and link those nodes. The semantic tree is processed in top-down fashion. Semantic routines operating on relations check whether the structure of the underlying data base is in agreement with the constructions in the semantic tree i. e. (1) whether the name of the relation as inferred from the syntactic tree and finally from the lexicon corresponds to some relation in the data base and (2) whether the types of arguments in the semantic tree (cf. Fig. 58.2) as inferred from the syntactic tree agree with the arguments of the relation from the data base. The semantic tree is rooted to the relation associated with the main verb of the question. Example of a query and its semantic representation (Ott/Zoeppritz 1980): Query: Which employee of the manager Schmidt lives in Heidelberg? The system USL has a German grammar of about 800 chart rewrite rules and about 70 semantic interpretation routines. It deals with a wide range of phenomena like ’WH’ and ’Y/N’ questions, negations, commands, relative clauses, adjectives, genitive attributes, appositions, AND/OR constructs, quantifiers, comparisons, possessive pronouns, locative and time adverbials and declarative sentences used to update the database. It allows the use of arithmetic functions variable declarations, and function definitions intermixed in natural language inputs. 2.4. TQA Transformational Question Answering was developed at the Thomas J. Watson Research Center of IBM (Petrick 1981) as a descendant of REQUEST (Plath 1976). The system uses a transformational grammar for parsing questions and answers them in view of a database. Experiments with TQA have been carried out on a database with information concerning the 500 financially best performing corporations as listed in the FORTUNE magazine. Another large experiment was the monitoring of the performance of the system applied to the database on land use by the municipality of White Plains, New York, where the offi-

XI. Application Fields III

cers were encouraged to use the database intensively. Parsing with the transformational grammar assumes inversion of the generative process carried out in the transformational paradigm (see Fi. 58.3).

Fig. 58.3 Parsing with transformational grammar after Winograd (1983)

To reach the point where the transformations can start to move around the constituents and try to search for the canonical form in deep syntactic structure some additional steps are needed. First the lexical scan extracts the words from the input string and assigns categories to them. Then the parser based on a context-free grammar produces the surface structure in the form of a phrasestructure tree. The main pass in parsing is the analysis based upon transformational grammar. The goal is here to reach the deep structure in canonical form. In this form all constituents have to stand in their standard sequence regardless which order they have in the original sentence. The propositions implied by modifiers or relative clauses have to be standardized and expressed explicitly, for example ’the rich company’ as ’the company is

58.  Question Answering Systems: Active Systems

rich’. In TQA the transformations are designed as pattern-action rules which operate on the tree structures. Both the pattern and the actions represent tree fragments. If a pattern of some rule matches a fragment of current tree structure, this part is substituted by a tree fragment from the action part. The next step in TQA is to construct a command in the query language and apply it to the data base. TQA is a question answering system based on the theory of transformational grammar in the most consequent manner. 2.5. PHLIQA1 The system PHLIQA1 was developed at Philips Research Laboratories in Eindhoven (Bronnenberg/Bunt/Landsbergen et al. 1980). It exploits the model-theory and particularly the theory of denotational semantics. The application domain was a data base with information about computer installations in Europe. The natural language query to the data base is parsed and transformed in parallel fashion to an expression in a formal language. Following this, the substantial step of instantiation of this expression is carried out. Afterwards a series of meaning preserving transformations are carried out and particular kind of semantic analysis performed. The parser converts the queries expressed in English into ’English-oriented Formal Language’ (EFL). The augmented phrase structure grammar is used as a framework. The characteristic property of this grammar is that it not only has syntactic categories and syntactic features but also semantic components. The lexicon and a set of context free reduction rules constitute the grammar. The entries in the lexicon have the word encoded as a string, its syntactic category and syntactic features expressed as attribute value pairs. Finally, some words also have a semantic component — it is a constant for a noun or a predicate for a verb. The reduction rules of the grammar have the names of syntactic categories of dominated constituents on the left hand side of the arrow, and the dominating category on the right hand side. The left hand side is matched against the parsed input. If the sequence of syntactic constituents is found, the conditions concerning agreement of syntactic features of the dominated constituents are checked. The dominating constituent taken from the right hand side of the rule then obtains the syntactic features

727

inferred from its augmented constituents. In most cases the inference is a mere projection of features (from the constituents which are actually dominated), but in some cases the real inference is carried out as in the following example: The rule: NUMERAL + NOUN ← NOUN PHRASE is matched against the input: one cpu The existential quantifier is inferred as the value of the semantic feature expressed with the attribute QUANT. The task of the semantic component is to express formally the meaning of the syntactically recognized phrase, observing the principle of movements of the semantic attribute values from the dominated constituents to the dominating one, where the semantic features of the dominated constituents are combined. The rule recognizing the verb phrase as composed of verb and noun phrase puts the semantic component of the noun phrase in the place of the object argument of the predicate associated with the verb as its semantic feature value. This translation method of parsing with parallel, incremental construction of an formula expressing the semantics of the analysed natural language sentences and phrases can be applied generally. In the PHLIQA1 project different control structures were used in this translation module. The next important step in processing is the instantiation of the obtained formula. The names of the constants and predicates of the EFL formulas from the previous step are mapped to the names of instances of these constants and predicates. The mapping process is controlled by the constraints imposed on the types associated with the instantiated objects from EFL. For example, some predicate names from EFL can have several predicate names for their instances and the selection depends on the types of actual arguments. The instantiated formulas belong to a language called EFL— (deeper Englishoriented Formal Language). Further steps of semantic analysis are carried out through successive transformations of the formulas in a series of languages: the World M odel Language, two levels of Data Base Language, and the Individual Constants Language. For more details about these languages see Bronnenberg/Bunt/ Landsbergen et al. (1980). The transformations in scope of one language are called sim-

728

plification convertors and the translations from one level of language to the next are called referential convertors. Both types of convertors are meaning preserving transformations. On each level of the hierarchy different aspects of the meaning of the current formula are considered. The correctness of the moduls used in PHLIQA1 is assured through the use of model-theoretic notions. Careful definitions of the various languages with stress on the denotational semantics contributes to the formal elegance which distinguishes the system. The architecture of PHILIQA1 can be characterized as belonging to the linear paradigm. 2.6. LUNAR LUNAR (Lunar Sciences Natural Language Information System of LSNIS) was designed at Bolt Beranek and Newman Inc. (Woods/ Kaplan/Nash-Webber 1973). It is the most widely discussed question answering system and therefore the re-iteration should be kept to the minimum (for details see e. g. (Woods 1977), (Woods/Kaplan/Nash-Webber 1972); (Winograd 1983 and others). The domain of LUNAR is the data base with chemical analyses of geological (moon soil and rock) samples from the Apollo-11 mission. The relatively simple structure of this data base enabled the researchers to concentrate on the issues of the natural language interface. The queries in this domain are characterized by the not too frequent use of verbs and proper nouns, but using many descriptive phrases recognizable on the syntactic level as noun modifiers and relative clauses. The grammar used in LUNAR is heavily influenced by the theory of transformational grammar. For the implementation of the syntactic parser the mechanism of augmented transition networks (ATN) is used (The graphs of the ATN of Wood’s grammar are reprinted in (Tennant 1981). Cf. Art. 27.). The parser produces in left-to-right, top-down fashion a semantic deep structure. The interesting feature of LUNAR’s ATN is that it uses the registers not only for holding syntactic features, but also the complete constituent structures are transported by means of registers. The SEND arc has actions for building the phrase-structure tree with the deep structure appropriate at current recursion level. The derived syntactic deep structure is then processed by the semantic interpreter. This process generates queries to the data base.

XI. Application Fields III

The query language and the rules for transition from syntactic structure to semantic representation of the queries is an extension of the results of earlier research work on semantic representation as a separated problem (Woods 1968). The query language has the following types of objects: (1) class names (called by Woods designators), (2) predicates with designators as arguments (propositions), (3) commands to indicate actions and (4) quantified constructs which finally expressed the query. The structure of the query is: (FOR QUANTIFIER VAR/CLASS: RESTR; PROPOPS) where QUANTIFIER is an existential, universal, comparative or numerical quantifier expressed by SOM E, EVERY, THE, COUNT, GREATER (n, m) M ANY, AVERAGE etc.; VAR is the variable; CLASS is one of the designator names known in the system; RESTR is a restriction on the range of the variable; PROPOS is the proposition or command. The semantic interpreter is a rule driven process. The typical pattern-action rules are matched with parts of the syntactic tree structure, identify objects belonging to predefined classes and then construct appropriate propositions, commands, and whole queries. There are rules for head noun, for prepositional phrases, verbs, and so on. For example the rule for head noun identifies in most cases the class of the variable in question. The rule for the prepositional phrase associated with the noun phrase identifies the appropriate preposition, or the rule for the determiner infers the appropriate quantifier. The last processing stage is then the search in the database. The parser is able to deal with (1) tense, (2) modality, (3) anaphoric references and comparatives, (4) restricted relative clauses, (5) adjective modifiers and (6) embedded complement constructions. The anaphoric references enhance the usability of the system and the mock up dialog. Dealing with relative clauses and adjective modifiers is important because of descriptive parts in the typical queries. The grammar and the overall performance of the natural language interface is tailored for the geological domain where the vocabulary was relatively small (about 3 500 words) and the parser is very carefully tuned, thus the results of the evaluations are as good as 90% of correctly understood queries. The research results of LUNAR were used in the speech understanding system HWIM

58.  Question Answering Systems: Active Systems

— Hear What I M ean — developed also at BBN (Wolf/Woods 1980). 2.7. SOPHIE The system ’ Soph isticated I nstructional E nvironment’ (SOPHIE) was designed and implemented at Bolt Beranek and Newman Inc. (Burton/Brown 1975). The domain of SOPHIE is electronic circuit debugging. It is one of the first successful systems for supporting the training and teaching of students. Concerning the natural language interface, the authors focused their attention on two main goals: (1) development of easy, understandable grammar and (2) speed of parsing. They considered the classic syntactic analysis of queries, requests and commands as a time consuming process which does not give much usable information for the purpose of dealing with the underlying knowledge. In order to close the distance between natural language and the semantic representation (as well in terms of processing efforts as conceptually) the ’semantic grammar’ was developed. The constituents built while parsing the natural language input are based on semantic concepts from the underlying domain instead of syntactic categories like noun phrase, verb phrase, sentence etc. In the environment where troubleshooting in electronic circuits is the domain where the inputs are coming from, the anticipated semantic categories are ’request’, ’measure’, ’measure/ quantity’, ’instrument’, ’fault’, ’junction/ type’, ’node/name’, and so on. For example phrases like: voltage across capacitor C 7 are handled by the rule: MEASUREMENT → MEASURABLE/QUANTITY NODE and produces finally a parse tree:

The tree constructed from these semantic categories is then traversed in the top-down

729

fashion with recursive descent. The semantic information from the dominated subtrees is gathered and the final request is constructed. The module handling the knowledge about the circuits developed and examined by the student processes these requests. In the earlier version of SOPHIE the grammar was encoded directly in LISP. Later, the formalism of augmented transition networks (ATN) was used. The semantic grammar was carefully designed with stress on understandability of the rules. As very important was considered the ability to easily modify parts of the encoded grammar in order to intoduce new semantic concepts or make ’shifts’ in the structure of the semantic representation. The grammar was carefully tuned to obtain a robust and fast natural language interface. The robustness means the ability to treat incomplete questions and sentences, ellipsies, incomplete phrases and erroneous input in general. The impressive speed of the natural language interface was also achieved by thorough tuning. The parsing times are reported to be between 100 miliseconds and 1 second and the mean time for the average request of 8—12 words is 150 miliseconds. As mentioned earlier the system was used for teaching and exercising students in dealing with problems in electronic circuits. The user working with the system was able to take measurements at specified points, restructure the circuit by replacing or removing components, ask for the specifications of parts or ask for help. The electronic simulations were run and the system suggested techniques developed in course of the session. The authors called their system a ’reactive environment’, in which the student learns by trying out his ideas rather than by instruction. “To this end SOPHIE incorporates a ’strong’ model of its knowledge domain along with numerous heuristic strategies for answering a student’s questions, providing him with critiques of his current solution paths an generating alternative theories to his current hypotheses.” (Brown/Burton 1975, 311) The idea of ’reactive’ or ’co-operative’ environments is now widely accepted and in some sense the integrated systems for developing programs — like the LISP-machines — or building expert systems — like the current expert systems shells for example KEE or ART — approach the realization of the ideas expressed by the authors of SOPHIE. On the one hand they implement some of the features postulated by Burton and Brown, but

730

there is also an evident gap between the demands we have for co-operative systems and the actual state of the art. (Cf. S. J. Kaplan 1979.) 2.8. LIFER The question answering system ’Language Interface Facility with Ellipsis and Recursion’ was developed at SRI as an universal natural language interface that should meet the requirement of being easily adaptable to different application domains and systems (Hendrix 1977b). LIFER consists of (1) a parser and (2) a set of interactive tools for specifying the grammar. The claim of producing an adaptable natural language query system is achieved by restricting the natural language input by the (user defined) application language. LIFER parses the user requests and produces commands for the interface of the application system. The designer specifies the rewrite rules and associates the construction patterns with these rules. The rewrite rules are built of terminal symbols which are simply the words of the anticipated input and meta-symbols. The meta-symbols designate (1) sets of individual constants, (2) predicates for testing the input string or (3) names of rewrite rules. The first two kinds of metasymbols can define semantic categories in the application domain. The interface writer is adviced to work with a semantic oriented grammar like that used in SOPHIE (Burton 1976). LIFER collects the specified rewrite rules and automatically constructs transition trees which can be thought of as simple ATNs. The transition tree assembled for a non-terminal symbol is called a subgrammar. The process of building the grammar is supported by an interactive grammar editor. The newly constructed rules can be immediately tested, debugged and modified and in this way the incremental development of the grammar is supported. The construction patterns associated with the rules are used for building up the data structures adequate to the phrases of natural language analysed by these rules. These structures should suit the specification of the query language of the application system. The parser works topdown, left-to-right, is non-deterministic and produces all possible structures for the given input. If the analysis fails, LIFER tries to recover by applying the spelling corrector. The next notable feature of the system is the resolution of ellipsies. The technique used

XI. Application Fields III

here is based on the assumption that ’similar syntactic structures tend to have similar semantics’. The ellipsies resolution process starts with matching the words from the query, which couldn’t be parsed and recovered by the spelling corrector with the previous successfully analysed query. The categories of words are compared and the first possible match is taken — the rest is copied. The expanded query is then analysed. Another interesting feature is the use of the paraphrase facility to define new syntactic constructs in terms of known structures. The paraphrase is submitted in natural language as an example on the level of the surface string. The comparison of the new string with the paraphrased one and it’s known syntactic structure delivers a new rewrite rule and its construction pattern. Issuing the following command defines a paraphrase: Let ’Describe John’ be a paraphrase of ’Print the height, weight and age of John’. and the subsequent commands of the form DESCRIBE JACKY. DESCRIBE NANCY are interpretet and deliver the height, weight and age of Jacky or Nancy. LIFER was used to build natural language interfaces for information retrieval systems like LADDER, HAWKEYE (see below) a medical database, a sheduling and resource allocation task and other applications. The tools supporting the designer in developing grammars proved to be so convenient that a new interface could be built in a few days by a person previously unfamiliar with LIFER. The ability to tailor the new natural language interface to personal preferences by an untrained user was also a new impressive feature of this system. 2.8.1. Q & A The system Q & A (Hendrix 1986) was introduced on the commercial market as an integrated business productivity tool. Besides such conventional features as (a) file management, (b) report generation, (c) word processing, (d) spelling checking and (e) access to the data base through formal query language the system Q & A provides the user with the ability to manipulate data bases and produce reports issuing commands in natural language. The module responsible for the natural language interfacing — INTELLIGENT ASSISTANT — uses information from the data base to extend the vocabulary. Addi-

58.  Question Answering Systems: Active Systems

tional vocabulary can be also provided manually through the module TEACH. The English version of the system Q & A runing on personal computers (IBM -AT & clones) was introduced 1985 to the market and was a commercial success. Some year later the German version called F & A was released. 2.8.2. LADDER Language Access to Distributed Data with Error Reccovery was also developed at SRI International (Sacerdoti 1977). The system LADDER was used to access information from very large geographically distributed data bases to aid the decision makers of the US Navy. The access was in real time in natural language, understood as the domain dependent subset of English. The details of the query language and the geographic and internal paraphernalia of the organization of the data base has been derived automatically. The system LIFER was successfuly used as the natural language interface. 2.8.3. HAWKEYE The system HAWKEYE was developed at SRI (Barrow/Bolles/Garrey et al. 1977). It operates in an application domain where different kinds of information are processed: aerial photographs or cartographic maps, descriptions of objects and situations. The visual informations is linked with the information about objects by correspondences between coordinates and objects. Natural language input is combined with pointing to objects with the cursor allowing questions of the form “What is this?” or “What is the distance between here and there?” The natural language interface to this system with combined, visual and English query formulation was also based on LIFER. 2.9. PLANES Programmed Language-Based Enquiring System was built at the University of Illinois — Urbana (Waltz 1975, Waltz/Goodman 1977). It is a natural language interface to a very large data base of the US-Navy called 3 M (M aintenance, and M aterial M anagement). Following Burton’s semantic grammar (Burton 1976) the system is designed to model the domain specific requests of the users and their linguistic behavior. The first step in the parsing process is to detect the

731

semantic constituents like PLANE/TYPE, TIM E/PERIOD etc. A set of patterns is used to identify the question type. The mechanism of ATN, is used to recognize all possible semantic constituents entailed in the input. The ATN of PLANES is organized in subnets, which are responsible for discovering the semantic constituents. These semantic subnets are widely used regardles of the syntactic configuration. The idea behind this approach was to be as tolerant as possible towards grammatically incorrect phrases but it was assumed that the semantically related chunks of words had some level of ’grammatical’ regularity and the system also attempted to co-operate with these inputs. The designers expected inputs with skipped verbs, determiners, case markers etc., as well as an intensive use of ellipses and anaphoric references. They wanted the system to be tolerant to such situations and be able in all cases to construct meaningful questions to the data base. The complex, ATN-based control structure of the parsing process recognizes the semantic constituents. The constituents are then used to fill the conceptual case frames. The conceptual case frames are based on semantically abstracted acts as anticipated for the queries in the domain covered by the data base. The cases are not based on general roles like Fillmore’s agent, instrument etc.; they are rather names of semantic constituents of the underlying domain. The set of semantic constituents delivered in the first phase enables the system to infer possible conceptual case frames. The conceptual case frame chosen is used to produce the query to the relational data base. A pseudo-natural language paraphrase of this query is then constructed and delivered for confirmation. A substantial effort was invested in dealing with structural, pragmatic and superstructure ellipsis and pronouns. The matching of the conceptual case frames in the context of previous, well understood queries and sophisticated heuristics were used in resolving these problems. Generally, the missing fillers could be determined in one of previous frames and copied into the current case frame (or as in the case of superstructure ellipsis the appropriate frame can be selected from the context). The system is designed with a large number of assumptions about the application domain. The dictionary of the query component in the strict sense is relatively small (about 900 words) but the interface to it has a spelling corrector, recognizer of composite words and

732

a word substituter. The system also had tools for editing ATNs. This somewhat eclectic system is interesting because it proved to be a useful natural language interface to the very large data base. The successor of PLANES was called JETS. 2.10. ROBOT The system ROBOT is a natural language interface to relational data bases (Harris 1977, 1979, 1980 a). The aim of the author was to build a domain independent, robust and easily portable interface for real world applications. The parser uses an ATN which delivers all possible structures of the analysed query. The separate module checks the validity of the structures delivered by the parser against the data base and rejects the syntactic interpretations standing in disagreement with it. In cases when the analysis of the query treated as a regular sentence fails, a second ATN is called to handle idiomatic or fragmentary questions. These are mostly the elliptical referrences to previous queries, for example, in order to add further restrictions on retrieved data or to change some conditions of the previous query. If both ATNs fail, the user is asked to choose out of a set of proposed formalized transcriptions of the original query. The natural language processing part of the ROBOT interface is able to handle such phenomena as conjunctions, structural ambiguities, fragmentary or idiomatically formulated questions, pronominal references, abbreviations and misspellings. Porting the system to other environments i. e. interfacing it to the new data base is relatively easy. It is done by manually preparing a file with ’meta terms’, describing the structure of the data base (for example the field names or the names of relations) and automatically creating a dictionary from inverted text files so that the data base acts as an extension of the dictionary. Despite its limitations and relatively simple solutions ROBOT was commercialy used as the natural language interface to many data base management systems. Harris claims successes in “over a dozen applications in four commercial environments”. 2.11. MARGIE M eaning Analysis, Response Generation and Inference on English is the full name of the program called sonorously M ARGIE (Schank 1975 a). M ARGIE can answer ques-

XI. Application Fields III

tions and paraphrase the assimilated text. The system was developed by R. Schank at the Stanford Artificial Intelligence Laboratory. The theoretical background for this research project is the conceptual dependency theory (CD-Theory) also developed by Schank (Schank/Colby 1973). This approach to natural language processing is often referred to in the literature as grammar-less. The fundamental assumption of this theory is that (1) there is an universal representation of the meaning of utterances and (2) it can be expressed by the means of a few semantic primitives. (Cf. art. 20) The main point of the theory of conceptual dependency is how to represent the knowledge about the world and its dynamics with causual links. The aim is to obtain well saturated descriptions of typical situations, scenes, plans etc. expressed in terms of this theory. The system M ARGIE implements the conceptual dependency theory in the following manner: (1) it analyzes and accepts English sentences — CONCEPTUAL ANALYSIS, (2) it instantiates new facts as inferrable from the analysed sentence and the state of the semantic network — INFERENCER, and (3) generates natural language sentences from the instantiated conceptual semantic network — BABEL. The parser of M ARGIE — called the “Conceptual Analyser” (Riesbeck 1975) — works with requests which are kinds of production rules (in the sense of production rules of artificial intelligence). The process can be characterized as bottom-up, left-to-right and data-driven analysis. This control structure is also known in the literature as expectationdriven or situation-driven parsing. The rules look at the input string and, if an active rules fires, the action part of this rule is executed. The sophisticated control structure in the M ARGIE parser is a result of the situation based mechanism of activation and de-activation of the rules and of the unrestricted possibilities of adding new rules, deleting old ones, and modifying other rules in the action part of any rule. Of course the action part of the rules, besides dealing with the control information also constructs pieces of the conceptual representation and organizes them into larger structures. The rules are dynamically activated, which roughly speaking corresponds to a procedure call in other programming environments. A further possibility of activating rules is using the conceptual representation built up to this point. The flexibility of this processing scheme opens possibilities for application, which in the

733

paradigm of natural language processing has not yet been exhausted. The INFERENCER operates on internal representation of conceptual structures. It deduces new facts which can be reasonably stated within the current context and in this way saturates the semantic network used as a representation medium. The psychological motivation behind this procedure is the model of actualizing potentially available knowledge in the human memory in the course of the thinking and receptory processes. The text generation module — called BABEL (Goldman 1975) — uses a discrimination network to retrieve English words appropriate to the parts of conceptual representation under consideration. After the identification of the verb is completed a syntax net is constructed and a case-frame associated with the selected verb is filled with information from the semantic network. The last step is to PROPEL the syntax net through an ATN specially designed to work in the reverse order to that of the usual analysis with the purpose of generating text. The approach implemented by Goldman (1975) is based on earlier research by Simmons and Slocum (1972). The CD-theory initiated a new direction in computational linguistics. Especially appealing to the researchers of AI working on natural language understanding and machine translation, was the concept of using the CDtheory as interlingua — a language-independent representation of meaning. A series of systems developed with the background in CD-theory followed M ARGIE: ELI, CA, BORIS, FRUMP, SAM, PAM and others.

sociolinguistics. The background for the parser and its grammar used in SHRDLU is taken from the work on systemic grammar by M . A. K. Halliday (Halliday 1961; 1973) and the English linguistic shool (see Hudson 1971). The parser of SHRDLU is writen in a specially designed language embedded in LISP — PROGRAM M AR — which supplies some primitive functions for building the syntactic structures. The PROGRAM M AR program explicitly describes the parsing process, so that one can say the grammar is explicitily writen as an executable code but on the other hand the use of predefined primitives makes the parsing in some sense universal (see Winograd 1983, 391—394). The parsing process utilizes semantic information. This is implemented in the form of ’semantic markers’ which are calls to special semantic procedures. These procedures, also called ’semantic checks’, guide the parsing process, so that in most cases the first possible parse is also semantically correct. These procedures check for violations of some restrictions like disagreements with the state of affairs in the data base describing the blocks world (e. g. asking for non-existent blocks) or those produced by user’s absurd or malicious utterances (to fool the system) of the kind: the table picks up the red block. The semantic checks examine the context of the discourse to clarify meanings and resolve pronominal references. Let us illustrate the ingenious behavior of SHRDLU as based on intermixed processing with the following dialog excerpt (after Winograd 1972): Does the shortest thing the tallest pyramid’s support supports support anything green?

2.12. SHRDLU The system SHRDLU was writen by Winograd as the practical part of his doctoral thesis at M IT (Winograd 1971, 1972). SHRDLU operates in a toy domain of the block world. It accepts commands, state facts and questions about this domain and maintains a dialog with the user. The integrated processing on the levels of syntax, semantic and reasoning is the basic idea behind Winograd’s research work on SHRDLU. The system is composed of the following modules: (1) parser with its grammar — PROGRAM M AR —, (2) semantic analyser and (3) problem solver. The processing model is based on highly intermixed usage of these components. The argumentation for this strategy is founded on results from psycholinguistics and

Fig. 58.4: Scene from the block world

734

The situation in the block world is shown on the screen as a picture with colored blocks to help the user formulate this complicated query. In this scene the tallest pyramid is red. The support of the red pyramid is the large green block — here we have resolved the first support used as a noun: the tallest pyramid’s support. Now let us take into consideration the second support used as a verb. The system has to look at objects standing on the large green block. In this state of the data base there is one such object — it is the small red block, and moreover it satisfies the description the sortest thing supported by the large green block. As SHRDLU reaches this point of analysis it has to look at what stood on this small red block — Does the shortest thing ... support anything green?. Asking the data base for the facts of the form (ON ?X BLOCK— 55) where BLOCK-55 is the small red block, the system can find some objects satisfying this pattern and so it can resolve the third and last support of the original query. If one of these objects was, as it is the case in our scene, green the system can deliver the answer: YES, THE GREEN PYRAMID And now the next question: What color is it? The color of the object satisfying the requirement is implicitly encoded in the previous question and the answer green would then not be a very reasonable one. The conclusion is that ’it’ refers to some other thing in the scene. SHRDLU explains its resolution of the pronoun: BY ’IT’ I ASSUME YOU MEAN THE SHORTEST THING THE TALLEST PYRAMID’S SUPPORT SUPPORTS and the answer is: RED This example demonstrates some of the capabilities of SHRDLU like treating complex structures, possesives, maintaining the discourse and resolving pronominal references by reference to the dialog history. The system can also accept new facts about its world, for example the user can state that he likes blue objects and SHRDLU can further use the new information in its reasoning. The user can introduce new notions (define the word steeple as two stacked green blocks with a pyramid on the top) and give names to objects (say that the largest block in the scene is called superblock ). The system has a model of itself which enables it to answer questions

XI. Application Fields III

about its own behavior like How did you do that? or Why did you do it?. For more detailed information the reader is refered to (Winograd 1972). The impression of the intelligent performance of SHRDLU is enhanced by its graphic interface where the blocks are moved around on the screen consistently with the changes to the data base, so that the verification of its behavior can be realized through the visual perceptory channel. (“The successes of its comprehension was demonstrated by the program successively carying out the instructions in a simulated world displayed on a cathode ray screen ...” (Goldstein/Papert 1976). The parser proceeds in the left-to-right top-down fashion. The syntactic parsing proceeds until a reasonable syntactic constituent can be accepted. The semantic check procedure then examines if this constituent suits the state of affairs in the data base representing the block world. There are two cases: (1) the constituent is semantically correct and the parse can proceed or (2) the unit must be rejected because there is no corresponding situation or object in the data base, and another parse should be tried. For instance, parsing of a noun phrase invokes two semantic procedures PARSED-HEAD-NOUN and POST-NO M INALM ODIFIER (see fig. 58.5) There are also appropriate semantic procedures for main verbs, clauses, clause modifiers, prepositional phrases, comparative phrases and so on (Rubin 1973). The semantic procedures implement the control mechanism called by Winograd ’explicit backup’ so that the use of techniques like parallel processing or backtracking can be avoided. The answer generator is based on patterns associated with events. Quite impressive are the responses to the ’Why’ and ’How’ questions. The system looks for facts in its M ICRO-PLANNER data base and generates the correct form of the verb associated with the predicate name of the selected fact, usually representing an action. Noun phrases are then generated for objects standing on the positions of arguments of this predicate. The object delivers the head noun for the phrase (CUBE, BOX, PYRAM ID), and then the data base is searched for attributive facts to generate adjective modifiers, and the discourse history is searched for objects which

Fig. 58.5: Flow charts for noun group — according to Rubin (1973)

735

736

can be referred to by pronouns or relative clauses. The success of SHRDLU is attributed to the use of: (1) the linguistic theory of systemic grammar which operates in the scope of a human oriented conceptual model in contrast to formal approaches of generative linguistics; (2) problem-solving methods and knowledge representation in order to support the semantic analysis (which is at least in some degree a consequence of (1) and of the model of stratificational grammar (Lamb 1966)); (3) discourse history; (4) self-knowledge, providing the ability to observe itself, to answer questions about it’s decisions and actions and take account of these observations to direct the problem solving process; (5) generation of answers in natural language supported by sophisticated heuristics to increase the impression of naturalness of the dialog; (6) the graphic component used to prove SHRDLU’s understanding. With his system Winograd set new trends and quality marks for such fields of artificial intelligence as problem solving, computer learning, cognitive simulation and computational linguistics. 2.13. HAM-RPM The system HAM -RPM (HAM stands for Hamburg and RPM for ’Redepartnermodell’ (The model of the dialog partner)) was developed at the University of Hamburg within the research project “Simulation of Natural-language Understanding” (Hahn/ Hoeppner/Jameson et al. 1980). The ambitious goal of this research was to simulate the dialog partner on a computer, to investigate the communication behaviour in dialogs and to operationalize the speech-act theories. The first, prerequisitive goal of this research was the coverage of wide spectrum of linguistic phenomena. Further linguistic goals were: not to be restricted to a fixed domain, to remain close to the colloquial language, and to be able to deal with incomplete structures. Great importance was attached to dealing with vague or incomplete information, which is common in dialogues. The system HAM -RPM is able to answer ’WH’ and ’Y/N’ questions, accept commands, and assertions extending its knowledge resources. The system’s architecture contains lexical, syntactic and semantic ana-

XI. Application Fields III

lysis, a retrieval process and a natural language text generation component. The system’s first step in natural language processing is the lexical analysis where the input is transformed into a lexical linear form (shallow structure). Additionally to the lemmatization, the synonyms and idioms are treated at this stage of processing. Next, the syntactic analysis is performed. Here the first, preparatory phase treats the linear shallow structure with the rules of a transformational grammar. The structural descriptions of such rules are matched against the input structure, and the structural change due to the transformation re-arranges the elements in the shallow structure. These transformations deliver the canonical shallow structures which are then processed in the syntactic parsing procedure. This standardization process then simplifies the grammar used in the main syntactic parse procedure, using a standard, non-normalized context free grammar. The syntactic tree is now complete. If parsing has failed the ellipsis recognition process is started. Ellipsis resolution is based on the comparison of shallow structures. However, instead of re-parsing the resolved shallow structure and retranslating it into the semantic representation, the system takes the copy of the semantic representation of the matched, already recognized utterance and projects new elements onto this old semantic representation. The next major step in the processing of the natural language input generates the semantic representation, which is expressed in HAM -RPM as ordered sets of triples. Each triple is interpreted as a predicate with two arguments. The whole set is then regarded as a conjunction of the predicates. The process of generating the semantic representation is based on pattern matching and is driven by procedurally encoded semantic information associated with the current main verb. The information from the parse tree is transferred to the appropriate positions in the predicate triples. The next step called lexical decomposition maps the semantic representation into a ’deeper’ representation expressed by semantic primitives corresponding to the names of relations in the semantic networks of the knowledge base in HAM -RPM . The correspondence can be expressed directly or through deduction rules. The inference component of the system operates in the model of fuzzy logic, so that approximate and common sense reasoning can be carried out, and

58.  Question Answering Systems: Active Systems

answers can also be delivered in cases of vague or incomplete knowledge. The knowledge is stored in three sources (1) conceptual semantic network for general description of the domain, (2) referential semantic network for the actual description of specific facts within the domain and (3) data describing spatial references of objects in terms of positions on the horizontal plane coordinates, vertical relationships and visual salience expressing the receptory significance with the z-values of fuzzy logic. The inferences are carried out by: searching through semantic networks, deductive procedures according to the model of fuzzy logic, and evaluation of spatial relations. To meet the requirements of a dialog system, the answers are expressed in natural language. The language generation module copes not only with problems of German morphology and syntax in performing its ’surface transformations’ (as the authors call these processes), but also takes into account some conversational tactics to form the dialog so that the computer can be regarded as a co-operative partner behaving adaptively. The general attitude of the HAM -RPM research project was similar to that of Winograd’s SHRDLU to operate in an integrated environment where different sources of knowledge are used, and the interest is focused on the phenomena of discourse. The research was then continued in the project HAM-ANS. 2.14. XCALIBUR The system has been developed at CarnegieM ellon University in cooperation with the computer manufacturing company Digital Equipment Corporation as a natural language interface to the expert systems XSEL — providing automatic salesmen’s assistance — and R 1 — configuration adviser for DEC’s VAX computer systems (Carbonell/ Boggs/M auldrin et al. 1983). XCALIBUR is able to lead mixed initiative dialogues. The system consists of three main components: parser, information manager and natural language generator. The parser, called DYPAR II, has been designed to make possible experimenting with multiple parsing strategies like pattern matching, semantic grammar, global transformations and recursive, expectation driven case frame instantiation. The case-frames corresponds to semantic units in underlying problem domain. The case-frames consist of

737

header-patterns and cases with syntactic and semantic expectations for case fillers. The intermixed control structure recognizes semantic patterns in bottom-up fashion and instantiates recongnized case-frames in top-down fashion. The strategy for recovering from errors is based on the requirement to satisfy pending expectations in processed caseframes and ranking these according to their probability of occurence. The parser is able to handle ellipsies on the basis of few rules scrutinizing the case-frames. These rules belong to two classes: (1) discourse expectation rules and (2) conceptual substitution rules based on semantic representation of queries. The authors claim to have found a computationaly elegant and powerful solution to the ellipsies’ problem in their case-frame based method, which, however, admittedly lacks linguistic generality. The role of information manager is to maintain the communication between the parser, underlying expert system and natural language generator. The information handler fills in defaults in case frames produced by the parser, modifies and adds fields as required by underlying expert system and performs some disambiguation actions. Further on it transforms case frames to the format expected by the expert system. Finally, it offers default data base matching functions for such cases, which are not explicitly mentioned in the input. The natural language text generator processes requests from the parser or information manager. First it converts the requests to CD-graphs in the sense of the conceptual dependency theory (see description of 2.11.). Next, the case frame is built by selecting the main verb and mapping slots of the CDgraph into choosen case-frame. This step is very similar to the solution applied in Goldman’s BABEL and uses ATNs for generating the sentence structures. The third, and last step is the rendering of sentences into English. It takes care of use of pronominal references for alredy mentionend noun phrases and general dialog modeling. On all three stages the focus information is used to guide the generation process and to support the decision about choosing relative clauses versus adjective attribution of noun phrases. XCALIBUR presents a new category of a natural language interface not only because it interfaces to an expert system but also through its extensive dialog capacities. Its multiple strategy, expectation driven parsing

738

XI. Application Fields III

with error recovery, case-frame ellipses resolution and the use of focus in natural language

System

Parser

SAD-SAM STUDENT

Simple CF Pattern Match

USL TQA PHLIQA1

text generation place it on special position amongst implementations of natural language interfaces.

Generation + +

Knowledge rep.

Chart rewriting Pure Tr. gr. CF & tr.

-

Data base Data base Data base

LUNAR SOPHIE LIFER

Tr. gr. & ATN Semantic gr. Semantic gr.

+ + +

Data base Network Data base

Application Domain Kinship relations Algebra word problems Experimental Independent Computer instalations Geology Electronic Independent

PLANES

Semantic gr.

-

Data base

3-M

ROBOT MARGIE

+++

Data base CD-Theory

Independent Independent

SHRDLU

Semantic gr. Gr. less — blackboard & situation action rules Systemic gr.

++

Logic

Blocks world

HAM-RPM

CF & Tr.

+++

diverse

XCALIBUR

Multiple strategies + + +

Fuzy Logic Semantic networks Case frames

gr. Tr. gr. CF CF & tr.

= = = =

frames Arithmetic

Expert system

Other Cognitive simulation

Universal interface Very large data base Commercial

Discourse, integration of syntax, semantic and deduction Discourse modelling Mixed-initiative dialogues

grammar transformational grammar Phrase-structure grammar with context free rules combination of CF with some transformations (not necessarily of transformational grammar)

Fig. 58.6: A summary of the question answering systems reviewed

3.

Summary

The selection of the systems for this survey was primarily motivated by the purpose of obtaining the coverage of linguistic phenomena in the approach to parsing and syn-

thesis of natural language. Of great value were these implementations of question answering systems, where the researchers were not satisfied by mere retrieval of data from a data management system, but intro-

739

59. Office Automation: Linguistic Contributions

duced some mechanisms to improve the quality of delivered answers or the whole conversation with the underlying system. For that reason the knowledge representation techniques were considered an important factor of the design of question answering systems. The research in the domains of natural language processing, automatic reasoning, heuristic processing, cognitive simulation and knowledge representation is an integral part of the area of artificial intelligence. The review shows how the development of question answering systems introduced the above themes into the focus of the research interest and in this way substantially contributed to the progress of artificial intelligence. Of course it wasn’t possible to describe all existing systems, so that those which brought in some substantial innovations in linguistic or representational components were taken into account. Fig. 58.6 summarizes the reviewed systems. The author feels obliged to express his thanks to those, who supported him in his work, especially Prof. L. Bolc, Prof. K. Hanakata as well as the family.

4.

Literature (selected)

A. Barr/E. A. Feigenbaum/Cohen 1981/82 · H. G. Barrow/R. C. Bolles/T. D. Garvey et al. 1977 · J. Barwise/J. Perry 1983 · G. L. Berry-Rogghe/M .

Kolvenbach/H.-D. Lutz 1980 · D. G. Bobrow 1968 · W. Brecht 1978 · W. J. H. J. Bronnenberg/H. C. Bunt/S. P. J. Landsbergen et al. 1980 · J. S. Brown/ R. R. Burton 1975 · J. S. Burton/R. R. Brown/A. G. Bell 1974 · J. S. Brown/R. R. Burton/A. G. Bell 1975 · R. R. Burton 1976 · J. J. Carbonell 1986 · J. J. Carbonell/M . W. Boggs/M . L. M auldrin et al. 1983 · F. J. Damerau 1981 · A. Fauser/Ch. Rathke 1981 · N. Goldman 1975 · I. Goldstein/S. Papert 1976 · Ch. Habel/C.-R. Rollinger/A. Schmidt et al. 1980 · W. v. Hahn/W. Hoeppner/A. Jameson et al. 1980 · M . A. K. Halliday 1961 · M . A. K. Halliday 1973 · L. R. Harris 1977 · L. R. Harris 1979 · L. R. Harris 1980 a · G. G. Hendrix 1977 b · G. G. Hendrix 1982 · G. G. Hendrix 1986 · G. G. Hendrix/E. D. Sacerdotti/D. Sagalowicz et al. 1978 · D. A. Hinsley/J. R. Hayes/H. A. Simon 1977 · R. A. Hudson 1971 · S. J. Kaplan 1979 · M . Kay 1967 · S. Lamb 1966 · H. Lehman 1976 · R. K. Lindsay 1963 · R. K. Lindsay 1973 · N. Ott/M . Zoeppritz 1980 · J. M . Paige/H. A. Simon 1966 · S. Petrick 1981 · W. Plath 1976 · Ch. K. Riesbeck 1975 · A. Rubin 1973 · E. D. Sacerdotti 1977 · R. C. Schank 1975 a · R. C. Schank/K. M . Colby (eds.) 1973 · R. F. Simmons 1970 · R. F. Simmons/ J. Slocum 1972 · H. Tennant 1981 · W. Wahlster 1982 · D. L. Waltz 1975 · D. L. Waltz 1978 · D. L. Waltz/T. Finin/F. Green et al. 1976 · D. L. Waltz/ B. A. Goodman 1977 · T. Winograd 1971 · T. Winograd 1972 · T. Winograd 1973 · T. Winograd 1976 · T. Winograd 1977 · T. Winograd 1983 · W. A. Wolf/W. A. Woods 1980 · W. A. Woods 1968 · W. A. Woods/R. Kaplan/B. Nash-Webber 1972.

Arkadiusz Lesch, Stuttgart (Federal Republic of Germany)

59. Computer-Aided Office Automation: A Survey of Linguistic Contributions 1. 2. 3. 4. 5. 6. 7.

1.

Introduction Document Preparation Message Processing Medical Applications Miscellaneous Office Tasks Related Topics Literature (selected)

Introduction

The challenges of office automation are providing an increasing number of interesting applications for computational linguistics. For convenience, this survey is organized in

terms of (1) document preparation, (2) message processing, (3) medical applications, (4) miscellaneous office tasks, and (5) applications involving technical issues discussed elsewhere in the Handbook. For the most part, the discussion is confined to work that has been implemented, if only in a research setting, with occasional references to theoretical work.

2.

Document Preparation

The universal role played in creating, modifying, and distributing letters and other documents has led to a proliferation of text edi-

740

tors and other software associated with document preparation. In recent years, several computer vendors have developed word processors and other specialized hardware for the purpose of document preparation. However, existing hardware and software systems usually provide little more than simple character processing. They often include rudimentary spelling correction capabilities (cf. Peterson 1980), but rarely make use of nontrivial concepts from computational linguistics. To combat this shortcoming, researchers have, within the past few years, been seeking to incorporate more powerful techniques into document preparation environments. Some of these projects should be summarized. The Writer’s Workbench is based on the oberservation that ’there is a surprising consensus about how to write well’ (cf. M cDonald/Frase/Gingrich et al. 1982). The system is founded on the principles embodied in the Style and Diction software developed at Bell Laboratories (cf. Cherry 1982) and provides several forms of assistance. Proofreading facilities check for misspellings, punctuation and capitalization errors, poor phrasing (e. g. replace ’bring to a conclusion’ with ’conclude’) and other problems such as split infinitives (e. g. ’to quickly decide’ could become ’to decide quickly’), while stylistic analysis deals with usage and sentence structures that detract from readability. For example, the system might report that a document ’contains a much higher percentage of passive verbs than is common in good documents’, followed with a review of passive verbs that includes a definition, some examples, and some suggestions on how they can be avoided. Similar analysis is produced for an overuse of nominalizations, that is, words such as ’description’, which are formed from verbs by adding the suffix ’ion’ to a verb, and other complicating forms. On-Line reference information on word usage is also available to provide a quick reference to frequent sources of confusion (e. g. distinctions such as ’affect’ versus ’effect’). An important feature provided by the Writer’s Wordbench allows a user to customize the system for a specific technical area or a preferred personal style. The long-term objectives of the CRITIQUE project are ’to provide office workers, particularly middle-level managers, with a variety of application packages to help them interact with natural language text’ (Heidorn/Jensen/M iller et al. 1982). Formerly called EPISTLE, and based on a pre-

XI. Application Fields III

viously developed phrase-structured grammatical formalism (cf. Heidorn 1975), the system is currently designed to read through a letter or document under construction, pointing out grammatical errors and suggesting stylistic improvements (cf. Richardson 1985). Thus, CRITIQUE is similar in its goals to the Writer’s Workbench, which preceded it, but is somewhat more ambitious by making use of a general English parser and associated grammar in order to locate syntactic errors. Some of the types of grammatical errors diagnosed by the system relate to problems with (1) subject-verb agreement (’Your statement of deficiencies have ’, should be has ), (2) pronoun case (’It was written by Bob and I’ , should be me ), (3) noun-modifier agreement (’Several of the memo’, should be memos ), (4) verb form (’The manuscript was wrote ’, should be written ), and (5) parallel structures (’We will accept the funds, send receipts, and crediting their account’, should be credit ). Stylistic suggestions are made at the level of words (e. g. ’hate’ could be replaced by ’dislike’), phrases (e. g. ’merge together’ could become ’join’), sentences (e. g. pointing out double negatives or excessive sentence length) and paragraphs (e. g. too many passives or an inferior readability score, as measured by a known readability index). An earlier system designed to offer assistance with document or article preparation is CRES (cf. Kincaid/Aargard/O’Hara et al. 1981), which seeks to improve the quality of technical and training manuals for the Navy. The program calculates readability scores, points out uncommon or misspelled words, and suggests replacements for complicated words and phrases. Still another, and very recent, system designed for proofreading is the CRITAC system, which is currently operating on Japanese texts but incorporates techniques which the authors expect can be applied to other languages (cf. Takeda/Fujisaka/Suzuki et al. 1986). One type of problem which the system looks for involves excessively long or otherwise complicated phrases, which include (a) sentences containing repeated noun modifiers (e. g. ’my mother’s father’s company’s location’), (b) certain ambiguities (e. g. ’applying equations A or B and C’), and (c) a number of additional problems that pertain to Japanese. In addition to information about the above-mentioned systems, the reader may be

741

59. Office Automation: Linguistic Contributions

interested in general efforts at dealing with ill-formed input, and is referred to the article appearing in Allen (ed.) (1983) and the papers referenced there. In contrast the above efforts, which involve the development of advice-giving systems, with less attention to the physical environment in which text creation is being done, the Voice Interactive Processing System (VIPS) seeks to supplement the typical office keyboard environment with speech and touchgraphics inputs for a variety of office tasks, including calendar management, message passing, and text editing (cf. Biermann/ Fineman/Gilbert et al. 1985). The current version of the system, which provides text editing capabilities, accepts spoken commands such as ’center the title’, ’capitalize the first letter in each word’, ’delete the third sentence’, and so forth. When the user wishes to add text, inputs from the keyboard may be interspersed with voice commands. Further, the system allows the objects being manipulated (words, sentences, etc.) to be touched on the display screen, and the associated X-Y co-ordinates are used in processing anaphoric references such as ’this word’. In the absence of touch inputs, the system incorporates a stack-based focus mechanism to help in resolving such phrases. The intial system implementations of VIPS have included Nippon DP-200 and Votan V-5000 speech recognition devices and a Carroll 19-inch high-resolution touch-sensitive color screen. An important aspect of the research has involved finding ways to improve over the raw error rates of the voice recognition devices. As an example of research directed towards ’automating the ’front’ office functions’ of a professional office, the ABF system assists in the creation of a legal document (cf. Sprowl/Applegate/Evens et al. 1986). This contrasts with ’back’ office” functions, such as billing and record keeping, which are operations shared among different types of offices and which can be provided for without resorting to sophisticated techniques from artificial intelligence or computational linguistics. Developed in a hybrid universityprofessional setting, ABF acts as an expert system that seeks to ’replicate the process lawyers go through when they interview clients and draft documents’. This is done by extracting a relevant model document (e. g. a will, a divorce petition, and so forth) which will contain both fixed text segments and indications of where client-specific informa-

tion is to be supplied. Thus, ABF will ask questions such as ’does the testator have any children’, ’is the petitioner married’, ’does the client reside in Illinois’, and so forth. The system is careful not to ask for information that is immediately known or can be derived from information that has already been supplied to it. For example, if the client is known to live outside Illinois, ABF would avoid asking ’is the client a Chicago resident’ since it knows that Chicago is a city in Illinois. Interestingly, the methods upon which the system operates involve arbitrarily complex combinations of boolean variables, and the overall system organization appears to be applicable for a variety of professional office settings, not just a law office. On-line help and other user-friendly features for the noncomputer expert are also provided.

3.

Message Processing

A moderate and increasing number of applications in computational linguistics have involved the automated analysis or dissemination of information contained in messages. In most cases, this problem gives rise to the need to deal with text that both is elliptical (incomplete) and contains errors (misspellings, grammatical errors, and so forth). Following is a summary of a representative sample of these efforts. The NOM AD system seeks to convert ’an unedited English input in a constrained domain’ into a form appropriate for storage in a formatted database (cf. Granger 1983). For example, the input ’Locked on open fired destroyed’ (sic) is converted by the system into the equivalent of ’we aimed at an unknown target; we fired at the object; the object was destroyed’. Note that not only is the subject missing, and thus inferred by the system, but the phrase ’open fired’ should have been ’opened fire’. The system is based on an architecture in which syntax, semantics, and world knowledge are highly integrated, thus enabling this form of error correction to be attempted. A second project related to Navy messages has involved casualty reports. As described by M arsh and Friedman (1984), the implementation represents a ’transport’ to the Navy application of the LSP (Linguistic String Project) system, which had been developed over a period of years at New York University to operate in a medical domain.

742

Due to its parentage, the organization of this system differs from that of NOM AD in that it contains an autonomous processor for syntax and other operations. An example of the type of input to be processed follows. ’Door adjustment made without success. Unable to make contact at center of door. Door possibly warped. Ship’s force technicians unable to determine exact cause of failure or make repairs. Failure of one of four KW-7’s has minimal impact on training.’ Inputs such as this are converted into an internal, loosely structured from that can result in one or more entries being made to a computerized database. The guiding principle behind the conversion of LSP into a CASREP system involves the researchers’ notion of a sublanguage, which means roughly that what appear as grammatical anomalies in the input are in fact recurrent patterns that can be considered grammatical and hence recognized without error processing. Further information on this principle is given in Grishman and Kittridge (1986). Another effort directed toward automatic processing of Navy casualty report messages is the PUNDIT system (cf. Palmer/Dahl/ Schiffmann et al. 1986). One concern of this system is to enable syntactic, semantic, and pragmatic mechanisms to interact successfully in order to process sentences in which elided or other implicit information must be recovered. Some characteristic inputs to the system are ’disk drive down 11—16’, ’has select lock’, and ’awp spindle motor’, where ’awp’ is an abbreviation from the Navy sublanguage meaning ’awaiting part’. Turning from military to legal applications, the job of the RESEARCHER system (cf. Lebowitz 1983 b) is to read patent abstracts in order to store key concepts from them in a format appropriate for future reference. The techniques being employed are similar to those found within the ’integrated understanding’ paradigm (Schank/Lebowitz/Birnbaum et al. 1980), which had been developed for reading news stories. The current prototype is restricted to disc drive patents, and the class of sentences found in the inputs to be processed is suggested by ’a combination filter system for an enclosed disc drive in which a breather filter is provided in a central position in the disc drive cover and a recirculating air filter is concentrically positioned about the breather filter’. Based on the subject matter, the internal frame-like structures used for encoding information involve

XI. Application Fields III

pre-defined concepts such as distance between objects, strengh of contact, relative orientation of an object, and so forth. Seeking to enable a variety of ’natural, helpful, and consistent interactions between users and online services’ (Wilczynski 1981), the CONSUL system has attemped to provide natural language access for ’interactive services such as electronic mail, automated appointment calendar, and document preparation’ (M ark 1981). With an initial application relating to computer mail, the system has sought to enable natural language interactions of several kinds, including question answering (e. g. ’why was message 17 deleted?’), command processing (e. g. ’forward this message to jones’), and interrogation of the system’s knowledge base (e. g. ’what has to be in a message’ or ’what does forwarding do’). An important component of CONSUL relates to knowledge acquisition, which is carried out by incorporating newly acquired knowledge into a KL-1 network (cf. Brachman/Schmolze 1985).

4.

Medical Applications

A number of exploratory efforts related to medical problems have been carried out, seeking to enhance the sophistication of doctor-machine dialogues in a hospital or the doctor’s office. Applications have involved both the storage and the retrieval of medical information. A few of these projects are now described. Based upon extensive work on the development of a comprehensive grammar for English (Sager 1981), a group of researchers have developed a system to store and retrieve medical information supplied in fragmentary English (Hirschman/Grishman/Sager 1976). Their goal is ’to allow the health care worker to create [a] medical report in the most natural way--in medical English, using whatever syntax is appropriate to the information’ (Grishman/Hirschman 1978). This approach to computerized processing of medical information, which seeks to prevent loss of information, contrasts with more formal methods which ask a doctor to fill out a ’checklist’. First, the system gathers English reports and converts them into a textual database form. Next, the system may be interrogated as though it were a conventional database system, again using English for inputs. Some examples of the types of inputs gathered in a

743

59. Office Automation: Linguistic Contributions

clinical setting are: ’X-rays taken 3-22-65 reveal no evidence of metastatic disease’ and ’3-2-65 chest film shows clouding along left thorax and pleural thickening’ and some sample questions are such as ’Did every patient have a chest X-ray in 1975?’ and ’Has Simmons had any since 1975?’. The CASNET system has been designed as a ’front end’ for a medical consulation system related to the eye disorder known as glaucoma (cf. Ciesielski 1979). It operates by encoding the information provided in a multiple-paragraph patient summary written by a doctor and sending this internal form to an existing consulation system. An example input is ’There is a nasal step and an arcuate scotoma in the left eye and a central island in the right eye’. Some inputs are telegraphic and may contain medical abbreviations. For instance, in the phrase ’nasal step od’, the term ’od’ is a shorthand for ’in the right eye’. The system has been designed around a class of frame-like representations which the authors call ’structured objects’ in the hope that it can be easily extended to additional medical disorders. M ore recently, the RECONSIDER system has been constructed to apply techniques from both information retrieval and computational linguistics to the problem of providing an interactive diagnostic medical environment. The system begins in the manner of a conventional information retrieval (IR) system but proceeds to provide a list of what it computes as the most likely diseases associated with the symptoms specified by the doctor. As described by Tuttle/Scheretz/Blois et al. (1983), the work has involved pre-processing a computer readable version of the Current Medical Information and Terminology (CM IT) in order to create a variety of inverted relations. In constructing these cross references, which contain about 330 000 term references, or an average of about 100 terms per disease, parsing was done using an ’abstract syntax’ more in line with the BNF grammars of programming languages, rather than a full-fledged NL parser. Thus, the work has emphasized the lexical aspects of information storage. The reader interested in comparing techniques for representing the relation between lexical items and various of their semantic and other features may wish to consult Evens/Litowitz/M arkowitz et al. (1980).

5.

Miscellaneous Office Tasks

A few research projects have addressed themselves to a specific office task, as indicated by the following summaries. One of the systems to be described involves the generation of multiple-sentence textual summaries of potentially large volumes of data which could be quite valuable in an office setting. The remaining systems incorporate the idea of a ’mixed initiative dialog’ in which the system asks questions as well as provides information. This concept, which results in a 2-way conversation, derives from Carbonell’s (1970) work in computer-aided instruction. The GUS system, which was developed as the first in a planned series of experimental computer systems seeking to ’engage a sympathetic and highly cooperative human in an English dialog, directed towards a specific goal within a very restricted domain of discourse’ (Bobrow/Kaplan/Kay et al. 1977), was designed to simulate ’the role of a travel agent in a conversation with a client who wants to make a simple return trip by air to a single city in California’. For example, a user might begin by saying ’I want to go to San Diego on M ay 28’, at which point the system would respond ’What time do you want to leave?’ At this point the user might respond indirectly as in ’I must be in San Diego before 10am’, which causes the system to invoke its inference rules, which in this case cause it to look for flights that depart in time to arrive by the time indicated by the user. The underlying goals of the SCHED system, similar to those of GUS, were to study ’the feasibility of developing systems which accomplish office tasks by means of humanlike communication’ (Heidorn 1978). The domain of SCHED is similar to that of GUS in its involving a scheduling task. Specifically, SCHED was designed to make entries into an on-line computerized calendar system by means of a mixed-initiative natural language dialog. As an example, a user might instruct the system to ’schedule a meeting, wed, my office, 2 to 2:30, with my manager and his manager, about a ’demo’’ at which point SCHED would paraphrase its understanding of the request and offer to make an entry into the resident time management system. In situations where incomplete information has been provided, as in ’I want to schedule a seminar’, the system would respond by asking for relevant information that has not

744

yet been supplied to it, e. g. ’who will be the speaker’ and so forth. M ore recently, the UC program has been developed as ’a natural language help facility which advises users in using the UNIX operating system’ (C. Wilensky/Arens/Chin 1982). Some example inputs to the system are ’How do I delete a file?’, ’What is a search path?’, and ’How can I compare two files’, each of which could no doubt be answered, following a possibly elaborate understanding process, with a canned response. However, the system incorporates an elaborate output generation module called PHRED, as described in Jacobs., P. S., (1985 b). A project whose initial task domain is somewhat similar to UC is the ARGOT project, which seeks to enable a computer system to ’partake in an extended English dialogue on some reasonably well specified range of topics’ (cf. Allen/Frisch/Litman et al. 1982). The initial task domain for ARGOT was that of a computer center operator. Another application with interesting potential involves the textual summarization of large volumes of data. Toward this end, ANA has been designed as a ’knowledgebased report generator’ that generates English summaries from a computerized database (cf. Kukich 1983 a). An implementation of this system has been demonstrated in the context of daily stock market quotations, and an example of the output of ANA for a day in January of 1983, with punctuation trivially edited [by the present writer] for readibility, is as follows: ’After climbing steadily through most of the morning, the stock market was pushed downhill late in the day. Stock prices posted a small loss, with the indexes turning in a mixed showing yesterday in brisk trading. The Dow Jones average of 30 industrials surrendered a 16.28 gain at 4pm and declined slightly, finishing the day at 1083.61, off 0.18 points.’ The central portions of ANA comprise about 250 rules in the OPS-5 programming language. A phrasal lexicon of about 500 entries enables the system to produce phrases like ’pushed downhill’ and ’were swept into a broad and steep decline’, all of which are drawn from the prolixities of human-generated stock market reports. However, many of the principles on which ANA is constructed are apparently independent of its stock market application, and the system designer has suggested that her techniques will be useful

XI. Application Fields III

for ’a whole class of summary-type periodic reports for which the scope and variety of semantic and linguistic complexity is great enough to negate a straightforward algorithmic solution, but constrained enough to allow a high-level cross-wise slice of the variety of knowledge to be effectively incorporated into a production system’ (Kukich 1983).

6.

Related Topics

Among the problem areas and application areas which are closely related to the problems of office automation, and which are discussed elsewhere in the Handbook, are information retrieval (articles 55 and 56; see also Doszkocs (1986)), natural language generation (article 36), question answering for database and other applications (articles 57 and 58; see also the articles in Ballard, ed. (1985)), machine translation (articles 49, 50, 51, 52, 53 and 54) and speech recognition and synthesis (articles 47 and 48). Further information on commercial work in these and other areas, which surveys existing products and makes predictions for new and growing markets over the text decade, can be found in T. J. Johnson (1985).

7.

Literature (selected)

J. Allen, ed. 1983 · J. Allen/A. Frisch/D. Litman 1982 · B. Ballard (ed.) 1985 · A. Biermann/L. Fineman/K. Gilbert 1985 · D. Bobrow/R. Kaplan/M . Kay 1977 · R. Brachman/J. Schmolze 1985 · J. Carbonell 1970 · L. Cherry 1982 · V. Ciesielski 1979 · T. Doszkocs 1986 · M . Evens/B. Litkowitz/R. M arkowitz et al. 1980 · R. Granger 1983 · R. Grishman/R. Kittredge 1986 · R. Grishman/L. Hirschmann 1978 · G. Heidorn 1975 · G. Heidorn 1978 · G. Heidorn/K. Jensen/M iller et al. 1982 · L. Hirschmann/R. Grishman/N. Sager 1976 · P. S. Jacobs 1985 b · T. Johnson 1985 · J. Kincaid/A. Aagard/W. O’Hara et al. 1981 · K. Kukich 1983 a · M . Lebowitz 1983 b · N. M cDonald/L. Frase/P. Gingrich et al. 1982 · W. M ark 1981 · E. M arsh/C. Friedman 1984 · M . Palmer/ D. Dahl/R. Schiffmann et al. 1986 · J. Peterson 1980 · S. Richardson 1985 · N. Sager 1981 · R. Schank/M . Lebowitz/L. Birnbaum 1980 · J. Sprowl/K. Applegate/M . Evens et al. 1986 · K. Takeda/T. Fujisaka/E. Suzuki 1986 · M . Tuttle/D. Scheretz/M . Blois et al. 1983 · D. Wilczynski 1981 · R. Wilensky/Y. Arens/D. Chin 1982.

Bruce W. Ballard, Murray Hill, New Jersey (USA)

60.  Computer-Assisted Instruction: The Point of View of Computational Linguistics

745

60. Computer-Assisted Instruction: Problems and Perspectives From the Point of View of Computational Linguistics 1. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 2.8. 2.9. 2.10. 2.11. 3. 4.

1.

Historical Background Categories of CAI Programs Linear Programs Branching Programs Generative Computer-Assisted Learning Mathematical Models of Learning The TICCIT Project The PLATO Project Simulations Games Problem-Solving Emancipatory Modes Dialogue Systems Future Directions of CAI Literature (selected)

Historical Background

Computer-assisted instruction (= CAI) is not a recent invention. It has operated for about a quarter of a century. One of the very first CAI programs were written by Rath and Anderson at IBM in 1958. The purpose was to teach binary arithmetics on an IBM 650 mainframe computer. (See Hudson 1984, 14) Programmed Learning (= PL) and behaviourist approaches in education were dominant in the 1950’s and the early 1960’s. Those who began working in the field of CAI in the 1960’s and early 1970’s were still greatly influenced by behaviouristic learning principles. In the course of the 1970’s, cognitive psychology began to gain influence also in American and European learning theory, and in CAI in general. CAI is usually synonymous with CAL (Computer-assisted learning) for methods of using computers in education. CAI is more used in the United States than in Great Britain.

2.

Categories of CAI Programs

Over the years, many different methods of CAI have been developed and only the most prominent ones will be dealt with here. Following O’Shea/Self 1983, 67—126, there are eleven approaches to be kept apart: 2.1. Linear Programs In a linear (or extrinsic) program, the student is guided from one skill level to another. Generally the student is asked to respond to a certain problem or question by filling in a

gap in the text. There is usually immediate feedback. As an illustration of a linear program, the first few pictures from the beginning of an exercise on pronouns is shown (Zettersten 1986, 22—23): 1. THIS IS HOW THE PROGRAM WORKS In each of the following sentences there is a blank where a pronoun is missing. Write in the word that best fits the sentence. Example: He is the only person....... opinion I respect. Press RETURN 2. The right answer is: whose He is the only person whose opinion I respect. Press RETURN 3.

* The computer will tell you if your answer is right or wrong. * To have a good practice session you should do about 50 sentences. * When you finish write down the number of right answers you gave or ask for a print-out. * If your score is not very high, take a break and then try again. Press RETURN

4.

* You can change your answer (correct your spelling errors) before you press RETURN. To do this you must use the BACKSPACE, which is located at the extreme right of the keyboard. * You can stop the exercise by pressing F (= FINISH). * You can go on to the next picture by pressing C (= CONTINUE). * You can read the instructions again by pressing I (= INSTRUCTIONS). Press RETURN

Fig. 60.1: Linear programs (Zettersten 1986, 22—23) 2.2. Branching Programs The basic difference between linear programs and branching programs is that different responses are allowed for in a branching program. Comments may be given for each anticipated answer. An author writing a program may profit from using an authoring language or authoring system. We may distinguish between author-initiated branching and student-in-

XI. Application Fields III

746

itiated branching as in the example from PLATO below. Fig. 60.2., showing author-initated branching, indicates how the author can check in unit E how many errors a student

has made in units B, C and D. Depending on the number of errors, the student can be sent back to unit A or forward to F or H. Fig. 60.3. explains how a student can take the initiative to branch in a lesson.

Fig. 60.2: Author-initiated branching

Fig. 60.3: Student-initiated branching

2.3. Generative Computer-Assisted Learning By definition, a program of this category generates material, for example, various exercises which are to be solved by the student. There are many advantages compared to the first two program types. A generative program is more flexible and caters more for the need of the individual. It is certainly also more time-saving for the author or programmer. A program which deals with the grading of tasks would be taken as a further example of a generative program. In a proficiency test, the computer can easily record which items the student has difficulties with and can modify or regrade the exercise. This technique may be called ’autograding’ (Higgins 1984, 116). 2.4. Mathematical Models of Learning

Some precise theories of learning were introduced towards the end of 1960’s expressed in mathematical notation. As pointed out by O’Shea/Self, 1983, 83, these mathematical models “have developed a distinctive style in which learning is represented probalistically or statistically.” They describe the various steps to be followed in a program of this kind, for example a vocabulary exercise: (1) ’Define the set of teaching actions’ In the case of a vocabulary exercise, a student would get only m out of the M words which are supposed to be learned. (2) ’Define the objectives’ In this case the objective would be to maximise the number of words learned after S sessions. (3) ’Define the costs of each action’ This point is not applicable in the case of vocabulary exercises. (4) ’Define the learning model’ Here one should specify, for example, the probabilities of words transferring from one state or level between the various sessions. 2.5. The TICCIT Project TICCIT (= Time-shared Interactive Computer Controlled Information Television) is usually identified as a minicomputer-based CAI system (although its basic ’teach-ware’ has been developed for large scale computers at the M ITRE-Corporation). In 1971 TICCIT received the backing of the National Science Foundation of America. The marketing of the new minicomputer technology for TICCIT was entrusted to

60.  Computer-Assisted Instruction: The Point of View of Computational Linguistics

Brigham Young University. One basic characteristic of TICCIT is the fact that the courseware is learner-controlled and runs on a minicomputer network allowing up to 128 user terminals simultaneously. The students have access to a colour television set, videodiscs and videotapes, a loudspeaker for prerecorded messages, a light pen, etc, at each terminal unit. Alderman/Apple/M urphy (1978) sum up their evaluation of TICCIT by observing that TICCIT had resulted in improved student achievement. On the other hand the completion rate was lower than expected. 2.6. The PLATO Project PLATO (= Programmed Logic for Automatic Teaching Operation) is the best known of the early CAI systems. It was developed at the University of Illinois in cooperation with the Control Data Corporation in the early 1960’s. As from 1971 it was promoted also by the National Science Foundation of America. From the beginning the PLATO system aimed at covering a great curricular variety of subject matters, including teaching languages. As from 1973, when the PLATO IV system started to be used, it has been in the forefront of software development in several disciplines. However, since it operates on large mainframe computers, the costs have been too high for most universities and schools, which became especially crucial, when the microcomputer revolution came towards the end of the 1970’s. There are many differences between TICCIT and PLATO, the most important one being the basic design: while TICCIT is a minicomputer-based system, PLATO is on the other hand a so called ’terminal-based’ system relying on a large mainframe computer. PLATO is the largest single educational CAI system in the world, but contrary to the TICCIT system there is no plan for centrally organised production of courseware. Instead, there is the special authoring language TUTOR, with which teachers may produce their own software. Alderman/Apple/ M urphy (1978) mention the fact that the PLATO system may not have had a significant impact on student achievement. However, it met with favourable reactions from teachers and students. The central organisation of PLATO courseware has many advantages. Scores and data on students’ answers can be studied over a long period and teachers may follow the

747

progress of their students most effectively. The quantity of existing programs, which are provided within the framework of PLATO-system, is very impressive. There are numerous types of language lessons. Some lessons connected with reading, writing and listening have been described by Chapalle/ Jamieson (1983, 13—20). 2.7. Simulations The value of computer-controlled simulations has been recognized nearly as long as we have had computers. One may only think of space travel simulations to realize their advantages. A system simulating human behaviour called COM M ENTATOR was developed by Bengt Sigurd in 1982; it provides a simulation of human behaviour in the context of commenting on situations or processes. The COM M ENTATOR produces sentences which comment on the movements of two persons (actors) called, for example, Adam and Eve, moving around in front of a gate. A and E could also easily represent two boats hovering outside a harbour. Fig. 60.4 shows the position of A and E in relation to the gate (or harbour). Small letters indicate previous positions of the persons.

Fig. 60.4: The COMMENTATOR world

The text generated by the COM M ENTATOR in this case would be: In Swedish: Adam är till vänster om Eva. Han är till vänster om porten också. Båda rör sig mot porten. Eva är närmast den dock. In English: Adam is to the left of Eve. He is to the left of the gate too. Both are moving towards the gate. Eve is closest to it, however. The following display shows the text production model underlying COM M ENTATOR (Sigurd, 1982, 615). The Commentator system is interfaced with a speech synthesizer, VOTRAX, which

748

XI. Application Fields III

Lines 10—35

Component Primary information

100—140

Secondary information

152—183

Focus and topicplanning expert

210—232

Verification expert

500

Sentence-structure (syntax) expert

600—800

Reference expert (subroutine)

700

Lexical expert (dictionary) Sentence-connection (textual) expert

900 1000

Phonological (pronunciation, printing) expert

Task Get values of primary dimensions Derive values of complex dimensions Determine objects in

Result (sample) Localization coordinates

Distances, right-left, under-over Choice of subject and objects and instructions focus (referents) and topics to test abstract predicates with these according to menu Test wheter the conditions Positive or negative for the use of the abstract protosentences and predicates are met in the instruction for how to situation (on the screen) proceed Sentence structure with Order the abstract sentence further instructions constituents (subject, predicate, object); basic prosody Determine whether pronouns, proper nouns, or other expressions could be used Translate (substitute) abstract predicates, etc. Insert conjunctions, connective adverbs; prosodic features Pronounce or print the assembled structure

Pronouns, proper nouns, indefinite or finite NPs Surface phrases, words Sentences with words such as ocksa [too], dock [however] Uttered or printed sentence (text)

Fig. 60.5: The text production model of COMMENTATOR can produce circa 60 American English sounds (allophones) and 4 pitch levels. The

corresponding Swedish sounds are tolerably accurate.

60.  Computer-Assisted Instruction: The Point of View of Computational Linguistics

2.8. Games The reason for introducing a game element in educational courseware is basically to avoid monotony or repetition. In CALL (Computer-assisted language learning) games have mostly been seen as a way of avoiding too many drill-and-practise programs. Higgins/ Johns 1984, 46, distinguish between competitive and collaborative games. In the first type there is competitive scoring. In the second there is a task to be achieved and all participants attempt to achieve it. 2.9. Problem-Solving The problem-solving approach is based on the idea that when students become absorbed in, for example, programming and learn how to make changes and improvements in the program, problem-solving skills are developed quicker. The obvious example of this approach is LOGO, a programming language developed by Seymour Papert and his colleagues at the Artificial Intelligence Laboratory of the M assachusetts Institute of Technology in 1971. It was originally designed for teaching mathematics. In LOGO students are able to define new commands and functions and write their own programs, at the same time developing problem-solving skills. LOGO is a high-level language built up on instructions or codes which are words and numbers related to physical movements. The program makes a Turtle move and draw geometrical patterns on the screen. A plastic robot can also be attached to the computer by a cable and various simulations can be made. See Papert (1980). In the case of language learning, the use of a problem-solving technique may prove most advantageous. By combining language instruction and the teaching of other disciplines, such as economics, learners lose their inhibitions more easily. This technique may be called combinatory acquisition (see Zettersten, 1986, 17, 85, 87, 90, 152). 2.10. Emancipatory Modes This term goes back to M cDonald (1977). In the emancipatory mode, the student solves problems without taking part in the writing of the program as in the case of LOGO. Information retrieval is one typical example of the use of the computer in this mode. In this mode — as O’Shea and Self put it (1983, 113), “the information-handling abilities of the

749

computer are exploited to improve the quality of the learning experience by taking the tedium out of some kind of tasks”. 2.11. Dialogue Systems In recent years there has been greater emphasis on the role of the student in a learning situation based on computers. It would be a good thing if we could avoid letting the computer ask all the questions and the student select the correct answer out of a fixed number of possibilities. Instead the student should use the computer as a tool, be more active and have more control over the program. This is what Higgins/Johns (1984, 71) call ’role reversal’, thus the reversing of the conventional roles of computer and student.

3.

Future Direction of CAI

Of the eleven approaches to CAI presented above, there are two which are particularly important, methodologically and pedagogically: problem-solving and dialogue systems. In these two approaches the learner has been placed in focus. Both approaches presuppose that learning is a cognitive process and that the learner is the active partner in the learnercomputer interaction. Further, both approaches have or may have a more direct connection with artificial intelligence. See chapters 3 and 5 in O’Shea/Self (1983). Although at the time when Weizenbaum (1966) presented ELIZA and Winograd (1971) his SHRDLU, the significance of these systems for CAI (and the significance of AIresearch for CAI in general) was realised only partially. There is now a growing convergence in the development of the two fields. (See Chapter 58 for further details on question-answering systems.) Concepts and methods of AI are taken over into CAI, and vice versa. Tuition and learning are regarded as challenges within AI. The M YCIN-system (Shortlife 1976) is not only a problem-solving system, which diagnoses bacterial infections in blood and suggests treatments, but also an excellent tutorial system. Work on natural language processing is also related to AI. It is a research area where computational linguists and computer scientists complement each other. See Ahmad et al., 39—40. Here it is most realistic to expect an important future linguistic contribution to CAI. Nowadays there are numerous advanced AI programs in most subject areas. There is

750

XI. Application Fields III

Fig. 60.6: BRAINLEARN: A new learning system for English, German, French, etc. by Arne Zettersten and Mats Jacobson

60.  Computer-Assisted Instruction: The Point of View of Computational Linguistics

no doubt that AI-based programs will contribute most decidedly to greater effectiveness in CAI within the near future. If and when the fifth generation of computers becomes a reality, CAI programs will undoubtedly cause better, quicker and more sophisticated learning (Feigenbaum/M cCorduck 1983). The second point which must be emphasized in connection with the future development of CAI is expert systems . Experts systems solve problems which would generally require advanced human expertise (Feigenbaum 1980). The Japanese project ICOT (Japan’s Institute for New Generation Computer Technology), working at the fifth generation of computers, is to a large extent committed to the technique of expert systems. The aim of the Japanese project is, among other things, to produce a generation of computers with a well-defined enhanced reasoning power. The computers should be able to draw conclusions from extensive know ledge bases and handle natural language. A third point indicating future directions of CAI is the increasing use of authoring systems having the flexibility to cope with problems of instructing and learning. In the future it will be increasingly difficult for individual teachers to become efficient programmers, and to keep up with new research and new technologies in all domains of knowledge relevant for CAI. The fact that the demands on programming increase must also be related to the time it takes for a teacher to develop programs. By using an authoring program or an authoring system, the teacher can put his/her personal stamp on the exercises and more or less tailor-make all lessons. One could, however, hope for the application of a more sophisticated query-technique, similar to the ones already used in various expert systems. Thereby one could foresee even more flexible authoring systems than the ones based on the present menu-technique. B R A I N L E A R N is an authoring system which can be used for all kinds of subjects, where the aim is to learn new facts, practise skills or test proficiency (Zettersten/Jacobson 1986). It can be used for different subject matters such as business administration, medicine, biology, history or languages. It was planned for language learning in the first place. It can be used for many languages and levels and various skills.

751

Fig. 60.6 shows the contents of th i s authoring system with the left-hand boxes indicating the authoring programs and the righthand ones, specific exercises for users who do not want the authoring part. The fourth area where we may predict i m provements is combinations of different media (media-mix) with the computer as one of the units. One combination is the linking of a microcomputer and a videodisc. The computer can be programmed to select tasks according to the users abilities and to generate questions according to the students’ progress. In the case of generative programs, it is justifiable to speak of intelligent videodiscs (Zettersten 1986, 82—83). With combinations of microcomputers and videodiscs, viewdata, teletext, etc., the possibilities of further improvements in CAI seem excellent. Several models of broad learning systems have been built up as advanced BUSINESS SYSTEM S in the form of networks by commercial companies. Local area networks (= LANS) are computer-based systems formed by a series of terminals via a coaxial or optical fibre circuit. New cable systems will provide many of the new telecommunicationbased services to homes just as well as for professional application. With the new highcapacity datalinks joining private and professional users, and greater access to new databases, the planning of continuing education, distance-education, and self-education will be much more challenging. The four areas mentioned above, artificial intelligence, expert systems, authoring systems and media-mix, will change the present picture of computer-assisted instruction within the near future. How this will affect the individual learner is an open question. At the same time, as the hardware undergoes constant changes and the memory capacity of computers increases, the availability of CAI programs will be greater. On the other hand, with greater complexity and higher sophistication, some of the possibilities in CAI may cause certain confusion among learners, but hopefully much more inspiration than now among software writers and teachers.

4.

Literature (selected)

E. A. Feigenbaum 1980 · E. A. Feigenbaum/P. M cCorduck 1983 · K. Hudson 1984 · E. H. Shortlife 1976 · J. Weizenbaum 1984 · T. Winograd 1972 · T. Winograd 1983 · A. Zettersten 1986.

Arne Zettersten, Copenhagen (Denmark)

752

XII. Operating Environment of Computational Linguistics Das arbeitspraktische Umfeld der Computerlinguistik

61. 1. 2. 2.1. 2.2. 3. 3.1. 3.2. 3.3. 3.4. 3.5. 3.6. 3.7. 4. 4.1. 4.2. 4.3. 4.4. 4.5. 5. 6.

1.

A Survey of Practical Aspects of Computer-Aided Maintenance and Processing of Natural Language Data Introduction Text Coding Character Sets References Text Input and Editing Paper Tape Punched Cards Terminals Wordprocessors Optical Character Readers Error Detection Output Devices Data Storage Magnetic Tape Hard Disc Floppy Disc Compact Disc Database Storage Impact of Networking on the Current Situation Literature (selected)

Introduction

This article is principally concerned with the problems which may arise in storing and processing natural language data, which we shall call text. Perhaps the two most important considerations in storing data are accuracy of the data and security from accidental deletion or machine malfunction. As many of these considerations are dependent on hardware and as new developments in hardware are generally moving faster than those in software, it is appropriate to point out that the information is current at the time of writing (June 1986).

2.

Text Coding

Extra coding is usually needed to identify various features of a text for computer processing. In this section we shall look at the representation of characters on the computer

and at methods of referencing text. 2.1. Character Sets Within a computer, each character is represented by a pattern of binary digits (bits). Early computers used only 6 bits per character, thus allowing a maximum of 2 6 , that is 64 different characters. In practice this meant upper and lower case letters, digits and some mathematical and punctuation symbols. Some early texts which were prepared for the computer did not include extra coding for other characters such as lower case letters. Where a distinction was made between upper and lower case letters, it was done by inserting an extra character used as a marker before an upper case letter. For example, England would be input as $ENGLAND with $ acting as a capital marker. Much of this data is still available but is now considered difficult to work with as a screen or page full of upper case letters is not so easy to read. Texts which do have capital markers can easily be converted to upper and lower case by a short program. Most computers now have 8-bit characters which give a theoretical maximum of 256 different characters. However the number of readily available characters is limited to the capacity of the keyboard which is normally 96 different characters. Some wordprocessors allow additional characters. These are described further in section 3.4. Characters which are not on the keyboard must be ‘transliterated’ into computer characters. This includes accents, phonetic characters and other non-standard letters. Where a text requires a larger number of codes than is permitted by the keyboard, it may be necessary to use more than one character or key to represent a particular code. For example, single brackets (and) could be part of the original text, but there may be a need to add other editorial information in brackets.

61.  Practical Aspects of Handling Machine-Readable Natural Language Data

Double brackets ((and)) could be used for this and can be treated differently from the single ones. It should be noted that this requires additional programming and that some standard programs may not allow for it. Depending on the purpose of the analysis, it may also be necessary to enter additional coding for the text such as variant readings, marginal notes, words which are in a different language from the main text, editorial comments, annotations etc. The amount of coding may vary from text to text and the user has to weigh up the amount of time spent in inserting the coding against the benefit of having it there. The fewer the keystrokes the easier it is to add the information and the less chance there is of errors. These codes can be ignored for some analyses if they are not required. In general it does not matter which characters are used as marker codes, provided that each different feature is identified uniquely and consistently and that a short description of the coding scheme is provided for any other user of the data. Some characters which are on the keyboard can be ambiguous and care may be needed in their use. For example in English a dot can represent the end of a sentence, an abbreviation or a decimal point. Contexts of complete sentences can only easily be identified by those punctuation marks which end them and so abbreviations or decimal points will be treated as the end of a sentence if they are not marked separately. They can be coded differently but printed as a dot in any results. Opening and closing quotation marks are represented by the same character on the computer as on a typewriter, but if the text is to be printed on a device which produces typeset text where open and closing quotes are different, it is advisable to code them separately to begin with. In some cases, it may be possible to identify them by program, but this may not always be accurate, particularly for English which uses a quote (apostrophe) widely. A third character which can be problematical is —, which can be a hyphen or minus sign as well as different kinds of dashes in typeset text. Depending on the nature of the analysis and the final printout device, it may be advisable to include separate coding for the different meanings of this character. Hyphens at the ends of lines are also a problem. Some programs are able to reconstitute hyphenated words, but they would not then be able to identify true hyphens which occur at the end of a line. Other-

753

wise it is perhaps better not to hyphenate text, or when hyphens occur in the original, to put the complete word on one line, possible with an indication that it was hyphenated. 2.2. References A computer-readable text should also have reference identifiers denoting the source of the material and also such categories as author, title, page number etc. Various methods are in use for this. One of the most economical of storage is the so-called COCOA format, a form of text referencing first used in the early 1960s. The COCOA format requires two characters to be reserved for delimiting references and a letter code or category for each reference type, e. g. author, title, page number etc. After a text reference of the form «A Milton» it is assumed that all following text is attributed to author (category A) Milton until another reference with category A is encountered. Using this method, the first four lines of act 4 scene 1 of the Merchant of Venice would be «T Merchant of Venice» «A 4» «S 1» «C Duke» What, is Antonio here? «C Antonio» Ready, so please your grace. «C Duke» I am sorry for thee, thou art come to answer A stony adversary, an inhuman wretch An alternative method involves prefixing each line of text with a series of codes denoting the references. For example Mer41DukWhat, is Antonio here? Mer41 AntReady, so please your grace. Mer41 DukI am sorry for thee; thou art come to answer Mer41DukA stony adversary, an inhuman wretch This method of referencing text is often called fixed format and for a larger amount of text it can be repetitive and wasteful of storage space. Other methods of referencing text are also in use and, provided that the method of referencing is consistent and unambiguous, it is a simple matter to transform the format by program. It will be seen that neither of the above methods of referencing text includes any line numbers. These are often not coded explicitly as it is easy for any program to keep track of them when one line within the computer, which is usually called a record, cor-

XII. Operating Environment of Computational Linguistics

754

responds to one line in the text. Where one record does not correspond to one text line, a line division character or a line continuation character can be used where appropriate. An analysis program can then identify the line divisions and number the lines accordingly. Standards are now being established for encoding the structure of documents for electronic storage. In particular, SG ML (Standard G eneralised Markup Language) is now an international standard. It requires tags to be embedded in a text to represent its structure. Though mainly intended for the publishing industry, SGML may have applications in natural language data processing. It is however a complex method of coding as it has to cater for many possibilities of use and it may not be easy for beginners to see the benefit of it and to understand why certain codes are necessary. For example paragraph marks are essential for typesetting but are of little relevance for most forms of linguistic analysis. It therefore remains to be seen how widely it will be adopted for linguistic data. Its use by the New Oxford English Dictionary may have some bearing on this.

3.

Text Input and Editing

The major part of any computer-aided linguistic analysis is entering the text into the computer and getting it accurate. In this section we shall look at the development of input devices and methods of correction of data. 3.1. Paper Tape Text was first input to computers on paper tape, on which each character was represented by a pattern of holes horizontally across the tape. The tape was normally 8 holes wide, although 5 and 7-hole tape was also used. Up to 1 28 different characters could theoretically be held on 8-hole tape, as the eighth hole was used as a parity or errorchecking track. Paper tape was more economical of storage space but it had the major disadvantage that the tape did not contain any printed representation of the text which the human could read. It had to be fed through a printer to produce it. Correction was also very clumsy, as it could only be done by feeding the tape through a copying machine, halting it at the error, repunching the correct version, re-aligning the tapes and then continuing to copy the tape. Alternatively, sections of corrected tape had to be sliced or glued in. Both these methods of cor-

rection were very time-consuming and could easily lead to further error. 3.2. Punched Cards One punched card could hold up to 80 characters or approximately one line of text and so many thousands of cards were required for large texts. An eye-readable text was printed along the top of each card. The character set of punched cards was restricted, allowing only the 64-character set to be represented with ease. One major problem with punched cards was ensuring that they were in the correct order. Dropping a deck of cards could be catastrophic and serial numbers were often punched in the last eight columns so that they could, if necessary, be put into order automatically. Error correction was fairly simple as new cards could be punched and erroneous ones discarded. The legacy of punched cards is still apparent in the ability of many programs to read input lines of a maximum of 80 characters. 3.3. Terminals Both paper tape and punched cards remained in use until the late 1 970’s. Input to mainframe computers is now always done by terminal devices. Terminals have developed from the old teletype machines with upper case letters only to screen-oriented desk-top visual display units which permit easy manipulation of text and a reasonably full character set. Texts are typed directly on to disc and corrected by editing programs. The earliest editors on mainframe computers required complete lines to be retyped for correction or at least the incorrect line to be located by its number, that is a notional record number allocated by the computer. Only forward movement through a file was permitted, so that the editing instructions had to be given in the correct sequence or else the edit closed and reopened every time backward movement was required. A typical editing instruction would be move to line number 10 replace ‘ed’ with ‘ad’ The editing instructions are given in a particular editing language which usually consists of single letter commands. The instruction above would be something like M10 R/ed/ad/ using/to delimit the text strings. A simple line editor usually requires a line number to be given for every correction.

61.  Practical Aspects of Handling Machine-Readable Natural Language Data

A context editor allows corrections to be located by their context without referring to line numbers. A notional pointer can be moved about the text forwards or backwards and corrections are made with reference to the pointer. Because of storage limitations it may not be possible to move the pointer randomly within a large data file and backwards movement may be restricted to a text window of a certain size. An instruction such as R/ed/ad/ would replace the next occurrence of ‘ed’ with ‘ad’. When frequently occurring text strings are sought, line numbers have to be used to locate the correct place and line and context editing is usually combined within the same editing program. Other typical instructions would be for the deletion and insertion of complete lines of text or of text strings within a line. When a correction has been made, usually only the corrected line is displayed on the screen so that the effect of the correction on the surrounding lines of text is not immediately seen and it may be necessary to give another instruction to display more text. Repetitive instructions allow the same correction to be made many times. They can be executed until the end of the file is reached, or for a certain number of times or until a certain condition is reached. A repeated instruction such as (R/ed/ad/)* changes every occurrence of ‘ed’ to ‘ad’. When these also allow amendments which are conditional on the presence or absence of some other text, they can be a powerful tool. However, it is advisable to verify the effect of a complex repetitive edit on a small amount of text before applying it to a larger file. The effect of erroneous repetitive edits is not always as easy to correct as it is to apply, since ambiguity can be introduced by it. For example after the instruction given above it would not be possible to distinguish between original occurrences of ‘ad’ and those which have been changed from ‘ed’ by the editing instruction. Line and context editing is still in use, but most editing is now done by screen editing on visual display units with cursor controls. These operate in either insert mode, where new text is inserted, pushing the original apart to make room for it, or overstrike mode, where new text overwrites what is already there. A switch between the two modes can be made whenever it is needed. Corrections are

755

made by moving the cursor to the appropriate place and typing the new material. The effect of the correction is seen immediately on a screenful of text. Screen editors have a ‘cut and paste’ facility for moving blocks of text, a process which is very cumbersome and error prone with a line or context editor. They also allow for easy insertion of other files of data and for joining data files together. This mode of editing is vastly easier to use and is far less likely to give rise to further error. A screen editor is also useful for locating successive occurrences of a word or words as the cursor can be made to jump from one occurrence to the next as the text scrolls up the screen. 3.4. Wordprocessors Text is also input on wordprocessors and can be transferred later to another computer for processing. Wordprocessors provide even easier editing which is shown on the WYSIWYG (what you see is what you get) display as the text is reformatted on the screen at the same time as it is amended. Before starting to prepare a text on a wordprocessor it is important to ensure that it can be transferred to another computer. Wordprocessor files can contain hidden codes which are used for the formatting. Then can also be made up of very long records, but most wordprocessors now have an option to output an ASCII file and it is this version of the data which is usually copied to another computer. This may have the effect of losing some coding which has been inserted by function keys on the wordprocessor. For example codes to italicise or embolden sections of text may be lost when converting a wordprocessor file to ASCII. It is advisable to test a small sample of the data first or to use visible coding characters when preparing the text rather than the wordprocessor’s special functions. The IBM PC and its compatibles allow the display and manipulation of some accented characters within standard wordprocessing programs, but these characters may not be transferred correctly to another device as the bit patterns which represent them may not be recognised. Some wordprocessors allow text in non-standard alphabets such as Greek and Hebrew to be manipulated on the screen. The non-standard alphabets are stored on a special memory chip or they are displayed in graphics mode on the screen. In the latter case it is usually possible to define extra characters by using a font editing program . Whilst

756

these programs are very easy to use for the preparation of text, some of them can create files of a complex format which is very difficult to transfer. In general the more complex the facilities for non-standard alphabets, the more difficult it is to transfer the files to another machine. 3.5. Optical Character Readers Machines which can read text directly into a computer have been in use since the early 1 970’s, but it was not until 1 979 that the first intelligent (multi-fount) text-reading device became available (see article 68, 5). The earlier OCR machines read only typescript prepared on special paper. Normally this was typed i n one of two special typefaces. OCR-A is somewhat like the magnetic ink characters often seen on cheques etc and whilst it is easier for a machine to read, it is not so easy for the human eye. OCR-B is a very clear and simple typeface in which the letter shapes are easily distinguishable from one another. Other typescript reading devices are now available which can read some typescript faces such as Prestige Elite or Pica. They rely on some knowledge of fixed width characters and are thus not able to handle proportionally spaced or typeset text. The first true multi-fount OCR device was the Kurzweil Data Entry Machine (KDEM) which began to be used in 1 979. The KDEM and its successor the Kurzweil 4000 are intelligent scanners in that they ‘learn’ the shapes of the characters in a text in a phase of operation known as training. They can read proportionally spaced multi-fount text and were designed primarily as book-reading devices. On the Kurzweil 4000 the training takes place as the text is being entered. On the KDEM it is a separate operation. The machine has some built-in knowledge of the shapes of the Latin alphabet and whilst it is being trained it displays a large version of each letter in turn on its screen and the operator verifies its reading. It then remembers that shape. Badly shaped letters are not trained. Up to 1 0 different typefaces can be recognised in one job. In production mode it scans backwards and forwards along the line of text seeing about 1 .5 cm width of text, that is a maximum of four lines, at a time. The text is displayed on the screen and is verified by the operator. Interventions, that is letters which it does not recognise absolutely, are displayed in inverse video and the operator can check them

XII. Operating Environment of Computational Linguistics

against the large shape displayed. Other screen editing facilities are available. The Kurzweil machines can be trained to recognise non-standard characters and can handle any alphabet in which the letters do not join and with the restriction of a maximum of 402 characters in one training set. For some languages a lexicon can speed up the reading process as the machine queries the lexicon first for interventions. The lexicon for English is about 33 000 words. Maximum reading speed is in the region of 30 pages per hour but this can be slowed considerably if the job is complex. The best kind of text is one which is all in the same type face and is clear modern print on smooth paper. Dictionaries are the most difficult because of the frequent changes of type face. Texts which have unwanted material such as footnotes or marginal notes can be awkward as this material has to be blanked out or deleted. Columns of text are best treated as separate pages. An optional electronic tablet can also be used to mark out selected areas of a page for scanning. Although the Kurzweil machines have made a sizeable impact on linguistic data processing, they do have some limitations. Old printed books, newspapers, computer printout and the like cannot be read because the text is not clear enough. Characters which are joined or broken through bad printing generate interventions. A density level can be set for the blackness of the type which can help to eliminate some joined or broken characters, but a text which generates a large number of interventions is probably not worth scanning. Texts which have been scanned require thorough proofreading . They also require further editing to insert text references and the like in the correct form. Other coding which would normally be inserted whilst a text is being typed, has to be added later. Although it may be possible to write programs to insert some of this coding, it is often the kind of material which is denoted by changes in type face and these are just the features which the Kurzweil machines do not always get accurate. Very recently another intelligent optical character reader has been announced by Palantir of Santa Clara, California. Preliminary information indicates that this machine is primarily a document reading device. It can recognise most fonts of typeset material as well as typescript. It differs from the Kurz-

61.  Practical Aspects of Handling Machine-Readable Natural Language Data

weil machines in that it does not require training. Although this saves some time, it means that it would not be able to recognise any non-standard characters in a text. Its reading speed is reported to be slightly faster than the Kurzweil machines. 3.6. Error Detection Errors in data give rise to wrong results. Some kinds of data lend themselves more to automatic data validation procedures than others. For example data which contains measurements within particular fields can be checked to ensure that the measurements are all within the permitted range of values. A similar technique can be applied to dates where non-existent dates such as 30 February can be rejected as well as those outside the range. It is not so easy to devise procedures for checking textual data, other than applying a dictionary of the kind used by spelling checkers. Words which have not been found in the dictionary, but are spelled correctly, can always be added to the dictionary later. Another approach on which experiments have been conducted is programs which search for invalid letter combinations, but these, like spelling checkers, are not so appropriate when the data contains more than one natural language. A concordance of once-occurring words can also show up nonexistent words. None of these methods finds the error which is itself a valid word. The error rate is likely to increase if many markers as added to the text because of the need to concentrate more when adding them. There is no real alternative to thorough proofreading, but the user of textual data will find it easier to notice errors than the user whose data consists entirely of numbers. 3.7. Output Devices Proofreading of text is much easier if the text is printed on a device which can display all the characters in the text and on which the print is clear and black. Very early computers produced output only on paper tape which then had to be fed through a printer to produce a printed copy. Lineprinters were used next and are still the main output device in many computer centres as they are so fast. Developments in the character set of lineprinters have roughly corresponded with general developments of character sets, so that most printers now use the 96 characters which are readily available on the keyboard. The shape of the paper which they use is con-

757

venient in that there is normally plenty of space at the right hand side for writing annotations and corrections before they are transferred to the computer version of the data. The earliest methods of output of nonstandard alphabets used graphics devices to draw the characters. This required extensive programming for some alphabets and it took a long time to print a text in this way. However it was a useful method of obtaining a copy of the text in the original script, which was a considerable aid in proofreading. Computer output on microfiche or microfilm (COM) has been possible for some time and this provides a convenient method of long term storage of the printed version of large quantities of data. COM devices are usually restricted to the 96 keyboard characters. Most other output devices are more suitable for use with micros as they are slower. Matrix printers can reproduce a variety of character sets and can also be used for graphs. However the resolution of the print on the cheaper matrix printers is poor and it is difficult to read text, which has been printed on some of them, for long periods. The quality of the print on daisy-wheel printers is much better, but it is not easy to add extra characters to them and they can be very noisy and very slow. The most recent development in printers has been the introduction of laserprinters and other electronic printers. These use a much higher dot resolution — currently 300 dots per inch is standard — and can print text in a typescript or typeset form, although the latter still appears fairly crude against true typeset text with a resolution of 1 000 dots per inch or higher. Output is on to plain paper, using very similar technology to that in a photocopier. Desk-top laserprinters are now becoming quite common in natural language data processing and it seems likely that further printing developments will be in this direction.

4.

Data Storage

In this section we shall consider briefly the physical characteristics of the most common methods of data storage and examine the ways in which data may be organised on them. 4.1. Magnetic Tape Magnetic tape was the first method of long term magnetic storage of data and is still in

758

common use. Tapes are cheap and they are very suitable for transferring large amounts of text from one computer to another. The recording formats may vary but computer installations now have programs to read tapes which were written on other manufacturers’ hardware. The major disadvantage of holding data on tape is that it can only be accessed serially and programs which expect to use tape have to be designed with this in mind. Updating of text which is held only on magnetic tape is difficult because of the need to copy from reel to reel whilst inserting corrections. Information on tape is now updated by transferring sections of it to disc, editing it on disc and then copying it back to tape. Magnetic tapes are prone to damage and backup copies must always be kept. It is possible to insert a plastic ’write permit’ ring into a tape to prevent information being written to the tape. Otherwise data can be overwritten accidentally. 4.2. Hard Disc By the early 1 970’s most computer centres used magnetic disc for storage of data which was in frequent use, allowing each user a ration of space on disc. Data which was used infrequently or which was very large in bulk had to be stored on magnetic tape. A few operating systems allowed an automatic overflow of the user’s file space either on to more disc or automatically on to tape, but in most systems users had to organise their work so that their file space did not overflow. Files which were normally held on tape had to be copied to disc when they were required, after some space had been cleared for them. All this meant a considerable amount of disc housekeeping work which could be error prone. This system still operates on large computers, but new facilities in the operating systems have made this housekeeping much less of a chore for users. Within his ration the user can organise his file space as he likes and it is usually the computer centre’s responsibility to copy it for security purposes. Some centres now have very large discs, upwards of 3000 megabytes and copying discs of this size can take a long time. Programs have been developed to copy them selectively, but even so a fault on a disc of this size can cause much data to be lost. 4.3. Floppy Disc Floppy disc behaves in a very similar way to hard disc except that floppy discs are very

XII. Operating Environment of Computational Linguistics

much cheaper and smaller and are easily transportable. Floppy discs typically hold less than one megabyte of data and are not suitable for large scale textual projects. They are normally used on a microcomputer and the access times can be quite slow. Because many discs may be needed for one project, it is all too easy to lose one or two or to get them out of order or to forget what information is on a disc. Although micros do have utility programs for disc housekeeping, it can take a long time to reassemble a set of discs which are not identified externally in any way. Floppy discs are also prone to damage and backup copies should always be kept. 4.4. Compact Disc This new method of storage is variously called compact disc, optical disc, laser disc or CD-Rom . The recording formats are the same as for magnetic disc, but the difference is that data is read by a laser beam and that a compact disc can hold a very large amount of data, for example a disc which is about 1 2 cm diameter can hold about 550 megabytes. Compact disc can only be written once and the data on it cannot be erased. It can be read many times and is not subject to the wear that can arise on a magnetic disc. This type of storage is now being used for encyclopaedias and the like. Once the data has been ‘mastered’ on to it, it can be copied easily. A second form of compact disc is ‘write-once’ disc, on which the user can write his own data. This method of storage is therefore only suitable for information which is never likely to change, but the space on the disc is such that unwanted material could be left there and ignored. The seek times for data held on compact disc are slower than those for magnetic disc and some program reorganisation may be required to make the best use of it. Compact disc is not yet in common use, but it is expected to have applications in linguistic computing. 4.5. Database Storage The major advantage in using discs is that information stored on disc can be accessed in any order. It does not have to be treated in a serial way. However it is only relatively recently that this facility has been exploited to its best because of the need to develop software to do it. Programs which access data on tape in a serial manner can work in just the same way on disc and many such programs are still in use. They do have the advantage

61.  Practical Aspects of Handling Machine-Readable Natural Language Data

that they are easy to understand and that it is not too difficult to recover from unforeseen errors. It is also a simple task to move the data from disc to tape once it gets very large. Although the serial file structure works reasonably well for text on its own, it does not easily permit the storage of other attributes of linguistic material. In the last few years many projects in linguistic computing have begun to use database management software for storing and manipulating data. There are three database models: network, hierarchic and relational. In the network (CODASYL) model , data is represented by a series of interrelated structures of a network kind. Hierarchic, as its name implies, is suitable for data which has an inherent hierarchic structure. The relational model is the most widely used. In it all data is seen by the user as tables, where each table is made up of a row of column names and one or more rows of data values. Each row contains one value for each of the items specified by the column names. A database may contain several tables which are related to each other by information in a particular column. In a very simple example for textual data, each word could be represented by a row of various items of information, of which one column could be a brief location reference for the word. A second table would contain more details about the location references. One column of it would be the same location reference which appeared in the first table. There may be many words from the same location. The detailed location information thus appears only once, even though it refers to many words. The tables are related by that information. Database management programs normally also provide some processing functions such as retrievals and sorting. They also have some facilities for data validation which can be used to detect erroneous data as it is entered. Some of these features may not be adequate for the complexities of linguistic data, and it is advisable to experiment carefully before making extensive use of them. There are some points that users of these more powerful storage techniques shou l d note. Obviously with a serial file, there is little or no choice in how the data is organised. When a database management program is to be used it is advisable to spend some time analysing the data so that the structure of the

759

tables within the database can be designed carefully. Poor data analysis and database design usually means that the data will not be as useful as it should be. There is a need to discover and define all the data that is required by the project and all the processes that are to performed on it. This is often done by a technique known as entity attribute relationship which is best shown in a diagrammatic representation of the data. It is also more difficult to recover data in a database management system from any corruption caused by faulty hardware or human error and databases should be backed up as often as possible.

5.

Impact of Networking on the Current Situation

It is appropriate to conclude with an overview of current methods of working and to note the increasing use of computer networks for linking together machines of various sizes. A local area network links together equipment on one site such as a university campus. The researcher typically works on a terminal in his office and may never need to visit the computer centre if there is a printer near his base. His terminal may well be a microcomputer which is used for preparation and editing data on floppy disc or a small hard disc. The micro is connected to the mainframe via software such as KERMIT which also enables data to be transferred between micro and mainframe. Through a wide area network such as BITNET the researcher can access computers all over the world. His terminal can be used to interrogate other databases and to copy data either on to his local mainframe or to his own micro, thus making it very easy to merge data from different sources. However, although these methods of working provide much better facilities than have been available in the past, users should be aware of the potential incompatibility of machines and data formats, which is the subject of the next article.

6.

Literature (selected)

Aitken/Bailey/Hamilton-Smith 1 973 1980.

·

Hockey

Susan Hockey, Oxford (Great Britain)

XII. Operating Environment of Computational Linguistics

760

62. Arbeitspraktische Probleme des Datenaustauschs: Normungstendenzen und Kompatibilität im Bereich linguistischer Daten 1. 2. 3. 4. 5. 6. 7. 8. 9. 9.1. 9.2. 10.

Was sind linguistische Daten? Wie und wozu entstehen Normen? Der häufigste Fall: Austausch von Texten Der zweithäufigste Fall: Austausch von Wörterbüchern Normen für Texte mit Spezialfunktionen Terminologie für die CL? Zeichensätze Textstrukturcodierung nach SGML Verzeichnis einschlägiger Normen Normen im Bereich des DIN Internationale Normung (ISO) Literatur (in Auswahl)

1.

Was sind linguistische Daten?

In der Regel dürfte diese Frage damit beantwortet werden, daß linguistische Daten Texte seien, die in verschrifteter Form natürliche Sprache enthalten. Doch gibt es in der internationalen Normung eine verbindliche Definition des Ausdrucks „Text“, die Faksimile und Videotext ebenso miteinbezieht, wie Graphik und typographische Gestaltung (vgl. Schindler 1983): “3.1 Text: A representation of information for human comprehension that is intended for presentation in a two-dimensional form, for example printed on paper or displayed on a screen. Text consists of symbols, phrases or sentences in natural or artificial languages, pictures, diagrams and tables.” (ISO 6937)

Ausgehend von dieser Festlegung kann für die Sprachdatenverarbeitung unterschieden werden: (1) Text im engeren Sinne Er enthält im wesentlichen Objekte natürlicher Sprache, die mittels alphabetischer oder phonetischer Zeichen dargestellt sind. Ein solcher Text kann ein- oder mehrsprachig sein, was insbesondere bei Sprachen mit nichtlateinischen Schriftzeichen durch einen Wechsel der Schrift sinnfällig wird. Bedingt durch das Medium von Speicherung, Transport oder Darstellung unterliegt die Menge aller Zeichen, die den Text ausmachen, oft Restriktionen, die nur durch Transliteration oder Transkription umgangen werden können. Eine spezielle Repräsentation ist bei der Blindenschrift und der Gehörlosensprache zu berücksichtigen. Für die geschriebene Form sind weitere Typen von Zeichen konstitutiv für Texte.

Dies sind syntaktische Hilfszeichen und Trennzeichen, sowie Zeichen mit spezialisierter Funktion. Zu den letzteren zählen z. B. logisch/mathematische, naturwissenschaftliche, linguistische Notationen ebenso, wie Währungszeichen und kleinere Logotypen wie z. B. das Copyright „o 3 V„. Ein besonderes, über die Zeichenebene hinausgehendes Objekt stellen Tabellen dar, die als Textteile eigener Struktur gelten. Problematisch ist der Status musikalischer „Texte“, die durchaus Objekt der CL sein können, deren Verschriftung aber eigenen Konventionen gehorcht. (2) Text im weiteren Sinne Er enthält Sprache und Graphik unterschiedlicher Qualität, z. B. Strichzeichnungen, Halbtonabbildungen, Symbole, Logos, Signaturen. Farbe ist als Gestaltungselement vertreten. Texte im umschriebenen Sinne sind aber nicht die einzigen Daten, die in der (Forschungs-)Praxis vorkommen. Linguistische Daten sind auch und vor allem Daten über Texte; eine andere Redeweise ist es, von Texten als „Primärdaten“ und von linguistischer Information aus Texten und über Texte als „Sekundärdaten“ zu sprechen. Beispiel für linguistische (Sekundär-)Daten sind: — linguistisch definierte Textelemente (Morphemlisten, Paradigmen, Vokabulare, ...) — Ergebnisse linguistischer Analyse (Wortlängen, Syntaxbäume, semantische Netze). Aufzählend seien hier Daten erwähnt, die im praktischen Umfeld eine produktive Rolle spielen, für die aber keine Taxonomie vorliegt. Daher ist es ausreichend, diese als Texte mit spezialisierter Funktion zu verstehen: — Wortlisten, Register, Konkordanzen — Wörterbücher, terminologische Sammlungen — Tabellenwerke und Statistiken — Kartenwerke (Sprachatlanten) — Bibliographien — formalisierte Objekte (Grammatiken) — Computerprogramme (für die CL) — System- oder Archivdateien von Programmsystemen. Eine zusätzliche Dichotomie zur Kennzeichnung linguistischer Daten unterscheidet:

62. Datenaustauschs: Normungstendenzen und Kompatibilität

(a) Texte geschriebener Sprache, die (EDV-) maschinell lesbar sind, wenn sie aus einer von drei Quellen stammen: aus CL-Anwendungen, der Satz- und Drucktechnik oder aus (Text-) Datenbanken. Solche Texte können auch mittels elektronischer Netze übermittelt werden. Liegen sie nur in gedruckter Form oder als Typoskript vor, sind sie bestenfalls optisch lesbar. (b) Texte gesprochener Sprache, die entweder in Realzeit als analoge oder digitalisierte Daten von einem Rechner verarbeitet werden oder als Aufzeichnung vorliegen und mit Hilfe elektroakustischer Anlagen reproduzierbar sind. Verschriftete Texte gesprochener Sprache nehmen eine Zwischenstellung ein. Von dieser Deskription möglicher linguistischer Daten ausgehend ist nun zu fragen, für welche Form des Austauschs Regelungen mit Normcharakter existieren, welche die Nutzung einmal erarbeiteter Information zweckgerichtet erleichtern kann. Ausgeklammert von dieser Frage werden hier Normen bezüglich der Datenträger, deren Technik nicht Gegenstand der CL ist und deren Einsatz de facto durch Industriestandards kaum noch Probleme aufwirft.

2.

Wie und wozu entstehen Normen?

Das einfachste Indiz für normative Prozesse ist ein sprachliches: das Entstehen von Terminologie. Im Konsens einer scientific community ebenso wie im Umfeld (großer) Unternehmen oder Institutionen ist die Ordnung von Welten unmittelbare Voraussetzung zielgerichteten und ökonomisch erfolgreichen Handelns. Nationale Normungsinstitute (DIN) spiegeln dies in ihrer Tätigkeit wider. Deren meist streng hierarchisierte Gremien, die eine Beteiligung aller Betroffenen aus Wissenschaft, Industrie und Verwaltung anstreben, arbeiten nach dem Konsensund Präsenzprinzip. Nicht zu leugnen ist ein Aktualitätsproblem, das aus der Zeitdifferenz zwischen Forschung, Normung und Praxis entsteht. Problematisch ist die selten erreichbare Konvergenz wissenschaftlicher und normierender Perspektive, die nicht zuletzt als Divergenz zwischen wissenschaftlicher und Normterminologie zutage tritt. Die nationale Normung geht bei Bedarf auf die internationale Ebene (ISO) über, wohin einzelne Länder ihre Delegierten entsenden. Die CL ist vor allem durch Normen be-

761

troffen, die im Bereich der Datenverarbeitung, des Informations- und Dokumentationssektors und der Terminologie erarbeitet werden. „Der Normenausschuß Bibliotheks- und Dokumentationswesen (NABD) und sein internationaler Spiegelausschuß ISO/TC 46 — Documentation haben es sich zum Ziel gesetzt, diese schwierige Aufgabe einer Kommunikationsnormung gemeinsam zu erfüllen und bemühen sich, ihre Normungsergebnisse nicht nur national, sondern auch weltweit anzubieten. Weitere Normenausschüsse, die sich an dieser Arbeit beteiligen, sind: der AEF (NA Einheiten und Formelgrößen), NAT (NA Terminologie), NBü (NA Bürowesen), NDR (NA Druck- und Reproduktionstechnik), NI (NA Informationsverarbeitungssysteme), [...] sowie ihre internationalen Ansprechpartner.“ (DIN Taschenbuch 153, 7)

3.

Der häufigste Fall: Austausch von Texten

In diesem Bereich ist bis dato keine auch international durchgängige Beachtung von Normen zu beobachten. Die Existenz größerer Textkorpora (vgl. Art. 1 3) bei verschiedenen Forschungsinstitutionen, die interessierten Forschern ihre Texte zugänglich machen, gewährleistet eine partielle Homogenität in der Repräsentation von Texten. Der Datenaustausch ist auf der Datenträgerebene meist durch gängige Industriestandards gewährleistet. Der Zustand der Texte, ihre Zeichencodierung, die Abbildung der Textstruktur sowohl in typographischer als auch logischer Sicht und schließlich der Korrekturbedarf unterscheiden sich oft von Text zu Text. Eine einheitliche Zeichencodierung nach ISO 6937 (vgl. 7.) ist für auszutauschende Texte anzuraten. Im Teil 3 dieser Norm sind Kontrollfunktionen behandelt, die die Codierung des Seitenaufbaus bzw. -umbruchs ermöglichen und dem Empfänger des Textes eine Neuformatierung ersparen können. Die Transkription von Sprachen mit nicht-lateinischer Schrift ist in der Normung weitgehend geregelt (vgl. 9.). Zwei Arten von Informationen müssen unterschieden werden: solche über die graphische Gestalt und solche, die den logischen Bau eines Textes vermitteln. Die Fixierung der graphischen Gestalt ist in der Regel für wissenschaftliche Auswertungen von sekundärer Bedeutung, sie besitzt Orientierungscharakter, wenn Textelemente im ursprünglichen Dokument wiedergefun-

XII. Operating Environment of Computational Linguistics

762

den (z. B. bei Indizes) oder wiederangeordnet (z. B. nach einer maschinellen Übersetzung) werden müssen. Jedoch ist dann auch ein bibliographischer Nachweis notwendig, weil Texte, die mehrfach veröffentlicht wurden, oft unterschiedliche Gestaltung aufweisen. Seiten und Zeilen sind in der Regel nicht Gegenstand von Linguistik oder Literaturwissenschaft. Der logische Aufbau des Textes kommt hier, differenziert nach strukturellen Merkmalen, eher in Betracht. Bei gesprochener Sprache können zum Beispiel die Äußerungen einzelner Sprecher interessieren, bei der Syntaxanalyse mindestens einzelne Sätze. Einzelne Textcodierungskonventionen, meist aus dem Umfeld von Programmen zur Textanalyse stammend oder mit der Erstellung eines Textkorpus verknüpft, z. B. OCP (Hockey/Mariott 1 979), TUSTEP (Ott 1 983) oder LDVLIB (Drewek 1 985 a), enthalten mehr oder weniger verbreitete de facto Standards für die Darstellung und Speicherung von Text und Textstruktur. Im Umfeld der Normung bietet die Standardized Generalized Markup Language (SGML) (vgl. 8.) weitreichende und dynamisch erweiterbare Techniken der Textstrukturcodierung, sie ist Normvorhaben der ISO/TC 97/SC 5. Hiermit verknüpft ist die Entwicklung einer ’Computer Language for the Processing of Text’ CLPT, die im SC 1 8 bearbeitet wird. Seit Mitte 1 985 liegen von seiten der American Association of Publishers umfangreiche Dokumente über die Aufbereitung von Manuskripten (für das elektronische Publizieren) vor. Die konsequente Anwendung dieses Standards dürfte in Zukunft wesentliche Kompatibilitätsbarrieren beim Austausch von Texten abbauen helfen. Eingebunden in das CLPT-Vorhaben ist auch das sogenannte Graphische Kernsystem (GKS) ISO 7942, das eine integrale Beschreibung von Text und Graphik erlaubt, die anwendungs- bzw. geräteunabhängig ist. Die genormte Darstellung von Dokumentarchitekturen (ISO TC 97/SC 1 8) kann als Ausfluß einer textsortenorientierten Strukturbeschreibung verstanden werden, die sich vorerst jedoch auf kommerziell attraktive Texttypen erstreckt. Es wird zu untersuchen sein, ob die Normung auf diesem Gebiet nicht nur Akzeptanz, sondern auch brauchbare Anwendung in der CL findet. Überlegenswert scheint die Umkehrung der SGML-Methodik: Wieweit erübrigen CLVerfahren die intellektuelle Arbeit der Textmarkierung?

4.

Der zweithäufigste Fall: Austausch von Wörterbüchern

Für die Erarbeitung ein- und mehrsprachiger, gedruckter oder maschinell gespeicherter Fachwörterbücher, die alphabetisch oder systematisch angeordnet sein können, gibt DIN 2333 Hinweise, vor allem auch auf den möglichen Einsatz der EDV zu diesem Zweck. Die beschriebenen Stufen der Ausarbeitung können partiell auf Maschinenwörterbücher der CL oder auf allgemeinsprachliche Wörterbücher angewandt werden. Bedeutend für den Datenaustausch ist DIN 2341 , bzw. der daraus entstandene ISOEntwurf ISO/DIS 61 56. Der kurz MATER genannte Entwurf definiert einen Dateiaufbau, der den Benutzer in die Lage versetzt, identische Kategorien für inhaltlich identische Teile eines Eintrags zu definieren. Hierzu steht ein Nummernsystem zur Verfügung, dessen Anwendung für das Deutsche exemplarisch und ausführlich beschrieben ist. Die Grundidee dabei ist, daß korrekt kategorisierte Datenelemente eine Vielfalt computergestützter Verarbeitungsmethoden erlauben. Ein weiteres Merkmal von MATER ist die selbstdefinierende Struktur der gesamten Datei, welche die variable Länge textueller Information weitgehend berücksichtigt.

5.

Normen für Texte mit Spezialfunktionen

Register als Suchhilfe bei der Erschließung von Information gelten als bewährtes Arbeitsmittel nicht nur in Terminologie oder Lexikographie. Grundlagen der Registererstellung und Aspekte der formalen Gestaltung sind in DIN 31 630 beschrieben. Speziell die CL betrifft das Normvorhaben zur „Erstellung von Registern für die Terminologiearbeit“, weil hier elementare Techniken der Sprachdatenverarbeitung in ihrer Anwendung beschrieben werden. Wenn auch in diesem Normbereich kein Austauschverfahren beschrieben wird, so ist sicher jeder Datentransfer durch eine normkonforme Bearbeitung des Sprachmaterials maßgeblich vorstrukturiert. Für bibliographische Daten ist unter DIN 1 506 ein Austauschformat zu finden. Der Datenaustausch aller anderen spezialisierten Texte (vgl. 1 .) ist in der Normung bislang nicht geregelt, er vollzieht sich nach den in der DV üblichen Standards.

763

6.

Terminologie für die CL?

Mit der Erarbeitung von Normen ist die Bildung von Terminologien verknüpft. Normen, die wie aufgezeigt sowohl den Datenaustausch im sprachlichen Bereich betreffen, als auch damit involvierte computerlinguistische Verfahren, bewirken demgemäß auch terminologische Festlegungen für die CL. Hierzu dürfte die Arbeit am Normvorhaben DIN 2342 bzw. ISO 1 087 „Grundbegriffe der Terminologie“, Teil 2, „Maschinelle Hilfen im Bereich der Terminologiearbeit und Lexikographie“ sorgsam zu beobachten sein, weil hier wissenschaftliche Ansprüche einerseits mit (norm-) praktischen Vorhaben verwickelt sind. Ein ’token’ nach Maßgabe der semiotischen Theorie ist sicher nicht identisch mit Token, die von Programmen zur Textanalyse bei der Segmentierung von Texten gescannt werden.

7.

Zeichensätze

Das bei der ISO (TC 97/SC 2) erarbeitete Zeichenrepertoire ist abgestimmt mit den CCITT-Empfehlungen S. 61 “Character Repertoire and Coded Character Sets for International Teletex Service” und S. 1 00 “International Information Exchange for Interactive Videotex”. Letztere benutzen echte Teilmengen von ISO 6937. Maßgeblich bei der Zusammenstellung eines Codes ist das Prinzip der „Dokumententreue“ (Kohl 1 977, 49), nach dem die Abbildung eines Textes in einen Code auch kleine graphemische Details zu berücksichtigen hat, wie z. B. verschiedene Formen von Anführungszeichen. Vierzehn diakritische Zeichen, die dem jeweils betroffenen Buchstaben voranzustellen sind, Akut Cédille Haček

Abb. 62.1: ISO 6937,8-Bitcode, Lateinische Alphabet- und Nichtalphabet-Zeichen

C2, CB, CF,

Tilde Halbkreis Gravis

C4, C6, C1,

XII. Operating Environment of Computational Linguistics

764

Ringel Balken Doppelakut Ogonek

CA, C5, CD, CE,

sowie

die

als Ligatur: mit Querstrich: mit Schrägstrich: mit Punkt:

Punkt Trema Unterstrich Zirkumflex

C7, C8, CC, C3,

Sonderbuchstaben Æ, æ, Œ, œ, IJ, ij, Ħ, ħ, Đ, đ, Ł, ł, Ø, ø, Ŀ, ŀ,

Eng, eth, i, K, ’n, Thorn, ß, ermöglichen die Darstellung von Texten 39 europäische(r) Sprachen: Albanisch, Baskisch, Bretonisch, Dänisch, Deutsch, Englisch, Estnisch, Faröisch, Finnisch, Französisch, Friesisch, Galicisch, Grönländisch/Eskimo, Irisch, Isländisch, Italienisch, Katalanisch, Kroatisch, Lappisch, Lettisch, Litauisch, Maltesisch, Niederländisch, Norwegisch, Okzitanisch, Polnisch, Portugiesisch, Rätoromanisch, Rumänisch, Schottisch/Gälisch, Schwedisch, Slowakisch, Slowenisch, Sorbisch, Spanisch, Tschechisch, Türkisch, Ungarisch, Walisisch, sowie Afrikaans und Esperanto. In der 7-Bit-Codierung überlagern die Zeichen von Hex-0B bis Hex-EF den Zeichensatz unterhalb Hex-80 (Smith 1 983, 31). Zeichensatzerweiterungen, eingeleitet durch Escapezeichen oder Shift-Funktionen, regelt ISO 2022 unter dem Titel “Information Processing — ISO 7-bit and 8-bit Coded Character Sets — Code Extension Techniques” (Smith 1 983). Vor allem für nicht-lateinische Alphabete können Zeichenrepertoires bei der ISO registriert werden — ISO 2375 regelt das Vorgehen hierfür, das in die Zuständigkeit von ISO/TC 97/SC 2 fällt. Werden also zur Speicherung und Übermittlung von Texten umfangreiche Zeichenvorräte benötigt, so ist es ratsam, die einschlägigen Normenwerke zu befragen, ob dazu nicht bereits Vorarbeiten geleistet wurden, deren Wiederholung oft nicht nur mühsam, sondern auch kostspielig ist. Es muß jedoch beachtet werden, daß eventuell in nationalen Normwerken (ANSI, AFNOR, BSI, DIN etc.) Regelungen vorliegen, die nicht im Detail mit ISO-Normen „harmonieren“ (Kohl 1 977, 32). So geht z. B. der „erweiterte Zeichenvorrat für bibliographische Daten bei Verwendung lateinischer Schriftzeichen“ (DIN 31 624) wesentlich über ISO 6937 hinaus. In der Regel lösen neuere Normen die älteren Versionen ab. Dies verhindert bedauerlicherweise nicht, daß oft ältere Standards zur Anwendung empfohlen werden, wie zum

Beispiel derjenige des über 1 2 Jahre alten ISO 646 Zeichensatzes in den 1 985 publizierten, für Autoren und Druckereien gedachten Empfehlungen zur elektronischen Manuskriptvorbereitung der Association of American Publishers (AAP 1 985 a). Verstehbar ist dies nur auf dem Hintergrund der Tatsache, daß bei der auf dem Markt erhältlichen Hardware meist ein Zeichensatz unabänderlich festgelegt ist. Zudem sind für Zeichen, die nicht im „engen“ ASCII-Bereich (Hex 00—Hex 80) codiert sind, oft Grenzen bei der Übertragung via privater oder öffentlicher Netze gesetzt.

8.

Textstrukturcodierung nach SGML

Der inhaltliche Aufbau eines Textes kann durch eine Markierung seiner Teile explizit codiert werden. Dies geschieht, indem Überschriften, Absätzen, Äußerungen, Aufzählungen, Zitaten, Tabellen, Bildern oder beliebigen anderen strukturellen oder textorganisierenden Einheiten eine eindeutig abgegrenzte Etikette (engl. tag) vorangestellt wird: 〈DEF〉Eine 〈DT〉Etikette〈/DT〉 ist eine Bezeichnung, die in eindeutiger Kürze Funktion, Inhalt oder den organisatorischen Status des unmittelbar folgenden Textteils beschreibt. 〈ABSATZ〉 Auch wenn hier ...

Dieses Beispiel einer Definition wird mit der Etikette ’DEF’ eingeleitet. Begrenzungszeichen ’〈’ und ’〉’ heben sie eindeutig vom übrigen Text ab. Anfang und Ende des definierten Terms sind mit ’DT’ markiert, der Schrägstrich signalisiert die abschließende Markierung. Die Definition wird implizit vom folgenden Textteil ’ABSATZ’ beendet, ’〈/DEF〉’ wäre redundant gewesen. Die logisch konsistente Verwendung von Markierungen gestattet die Strukturierung beliebig komplexer Texte und erreicht eine Neutralität in bezug auf Transport- oder Reproduktionsmedien, die besonders für das electronic publishing eine nicht zu unterschätzende Bedeutung hat (vgl. Ehlers 1 983). Die SGML-Konventionen sind Gegenstand des ISO/DP 8879/6 (vgl. Goldfarb 1984).

9.

Verzeichnis einschlägiger Normen

9.1.  Normen im Bereich des DIN DIN 1 421 : Gliederung und Benummerung in Texten; Abschnitte, Absätze, Aufzählungen, Jan. 1983

62. Datenaustauschs: Normungstendenzen und Kompatibilität

DIN 1 426: Inhaltsangaben in Information und Dokumentation, Nov. 1973 DIN 1 460: Umschrift kyrillischer Alphabete slawischer Sprachen, April 1982 DIN 1 502: Regeln für das Kürzen von Wörtern in Titeln und für das Kürzen der Titel von Veröffentlichungen, 1984 DIN 2330: Begriffe und Benennungen; Allgemeine Grundsätze, März 1979 DIN 2331 : Begriffssysteme und ihre Darstellung, April 1980 DIN 2332: Benennen international übereinstimmender Begriffe, (Entwurf) Februar 1985 DIN 2333: Fachwörterbücher — Stufen der Ausarbeitung, (Entwurf) April 1985 DIN 2335: Sprachenzeichen mit einem Anhang von Autoritätszeichen, (Entwurf) August 1982 DIN 2339, Teil 1 : Ausarbeitung und Gestaltung von Veröffentlichungen mit terminologischen Festlegungen; Stufen der Terminologiearbeit, (Vornorm) August 1982 DIN 2340: Kurzformen für Benennungen und Namen; Bilden von Abkürzungen und Ersatzkürzungen; Begriffe und Regeln, (Entwurf) Mai 1982 DIN 2341 : Magnetband-Austauschformat für terminologische/lexikographische Daten, MATER, (Vornorm) Mai 1980 DIN 2342 (Normvorhaben): Grundbegriffe der Terminologie, Teil 2 „Maschinelle Hilfen im Bereich der Terminologiearbeit und Lexikographie“, Oktober 1985 DIN 5007: Regeln für die alphabetische Ordnung (ABC-Regeln), November 1962 DIN 31 624: Erweiterter Zeichenvorrat für bibliographische Daten bei Verwendung lateinischer Schriftzeichen, Mai 1978 DIN 31 625: Erweiterter Zeichenvorrat für afrikanische Spachen, Dez. 1978 DIN 13 629: Bibliographische Zeichenvorräte; Griechischer Zeichenvorrat DIN 31 630, Teil 1 : Registererstellung —, (Entwurf) Febr. 1984 Normvorlage: Erstellung von Registern für die Terminologiearbeit mit Hilfe der DV, Juni 1985 DIN 31 631 , Teil 1 : Kategorienkatalog für Dokumente — Begriffe und Gestaltung, Jan. 1984 DIN 44 300: Informationsverarbeitung; Begriffe, März 1972 DIN 66 030: Informationsverarbeitung; Darstellung von Einheitennamen in Systemen mit beschränktem Schriftzeichenvorrat, Nov. 1980 DIN 66 252: Graphische Systeme der Informationsverarbeitung; Graphisches Kernsystem (GKS); Funktionale Beschreibung, (Entwurf) Dez. 1985

9.2. Internationale Normung (ISO) ISO 646: Information Processing — 7-bit Coded Character Set for Information Interchange, 1983 ISO 2022: Information Processing — ISO 7-bit and

765

8-bit Coded Character Sets — Code Extension Techniques (2nd Edition), 1982 ISO 2047: Information Processing — Graphical Representations for the Control Characters of the 7-bit Coded Character Set, 1975 ISO 2375: Data Processing — Procedure for Registration of Escape Sequences, 1980 ISO 5426: Extension of the Latin Alphabet Coded Character Set for Bibliographic Information Interchange, 1980 ISO 5428: Greek Alphabet Coded Character Set for Bibliographic Information Interchange, 1984 ISO 6429: Information Processing — ISO 7-bit and 8-bit Coded Character Sets — Additional Control Functions for Character Imaging Devices 1983 ISO/DIS 5427: Extension of the Cyrillic Alphabet Coded Character Set for Bibliographic, Information Interchange, 1984 ISO 6937: Information Processing — Coded Character Sets for Text Communication, Part 1 : General Introduction, 1 983/Part 2: Latin Alphabetic and Non-Alphabetic Graphic Characters, 1983 ISO 7350 Text Communication — Registration of Graphic Character Subrepertoires, 1984 ISO 6438: Documentation — African Coded Character Set for Bibliographic, Information Interchange, 1983 ISO/DIS 6861 : Documentation — Cyrillic Coded Alphabet Character Sets for Slavonic Languages for Bibliographic, Information Interchange, 1985 ISO/DIS 6862: Documentation — Mathematical Coded Character Set for Bibliographic, Information Interchange, 1985 ISO 7942: Information Processing Systems — Computer Graphics — Kernel System (GKS) — Functional Description, 1985 ISO/TC37/SC3/N6 E: Working Draft “Vocabulary of Terminology; Machine Aids for terminology work and lexicography”, Sept. 1985 ISO/TC37/WG4/N7 1 E: German proposal for the new work item “Computer aids in the preparation of specialized dictionaries”, Oct. 1984 ISO/TC37/WG4/N72 E: German Proposal for Chapter 6 of ISO 1 087 “Vocabulary for terminology”, Oct. 1984 ISO/TC97/SC 1 8/WG3/N207: Office Document Architecture, Sept. 1983 ISO/TC97/SC 1 8/WG3/N208: Document Interchange Data Formats, Sept. 1983 ISO/TC97/SC 1 8/WG3/N209: Document Description, Sept. 1983 ISO/TC97/SC 1 8/WG3/N2 1 0: Text Structures — General Introduction, Sept. 1983

10. Literatur (in Auswahl) AAP (1 985 a) · R. Drewek 1 985 a · DIN Taschenbuch 1 53 · DIN Taschenbuch 1 54 · DIN Taschen-

XII. Operating Environment of Computational Linguistics

766

buch 1 66 · J. Ehlers 1 983 · C. F. Goldfarb 1 984 · S. Hockey/I. Mariott 1 979 · E. Kohl 1 977 · Standard for Electronic Manuscript Preparation and Exchange 1 985 · S. Schindler et al. 1 983 · J. M. Smith

1983 · W. Ott 1983.

Raimund Drewek, Stuttgart (Bundesrepublik Deutschland)/Zürich (Schweiz)

63. Eignung von Programmiersprachen zur Lösung linguistischer Problemstellungen: Entwicklung und Perspektiven 1. 2. 2.1. 2.2. 2.3. 2.4. 3. 3.1. 3.2. 4. 5.

1.

2.

Übersicht

2.1. Datentypen-bezogene Eignungskriterien

In diesem Artikel sollen die in der Computerlinguistik (im folgenden CL genannt) benutzten Programmiersprachen auf ihre Eignung für diesen Zweck untersucht werden. Da es sehr viele Programmiersprachen — auch in diesem Bereich — gibt, muß zunächst eine Auswahl getroffen werden von besonders typischen oder besonders weit verbreiteten Vertretern. Dies sind folgende Sprachen (daneben ist das Jahr angegeben, an dem die jeweilige Programmiersprache veröffentlicht wurde): — — — — — — — — — —

wo auch auf weitere relevante Sprachen eingegangen wird. Der folgende Artikel beschränkt sich darauf, die verschiedenen Beurteilungskriterien für eine Programmiersprache zu diskutieren und darauf hinzuweisen, wie sich die betrachteten Programmiersprachen zu den einzelnen Eignungskriterien verhalten (Kap. 2.). Im weiteren Verlauf wird in gleicher Art die historische Entwicklung beleuchtet (3.1 .), insbesondere auch die Einflußnahme der CL auf die Entwicklung von Programmiersprachen (4.). In Abschnitt 3.2. wird eine Verbreitungsstatistik vorgestellt.

Übersicht Eignungskriterien Datentypen-bezogene Eignungskriterien Kontrollstruktur-bezogene Eignungskriterien Probleme der Datenmengen und Zugriffsarten Benutzerfreundlichkeit, Universalität und technische Eignungskriterien Historische Entwicklung Überblick über klassische CL-Sprachen Welche Programmiersprachen werden in der CL-Praxis verwendet? Einflußnahme der CL auf die Programmiersprachenentwicklung Literatur (in Auswahl)

COMIT LISP FORTRAN SNOBOL/SL5 SmallTalk BASIC Pascal PL/1 PROLOG Comskee

II’57 ’58/’62 ’58 ’64/’76 ’72/’80 ’66 ’71 ’65 ’73 ’76

Es soll hier nicht versucht werden, diese Sprachen alle im einzelnen vorzustellen, dazu wird auf die Literatur verwiesen, insbesondere auf (Sammet 1 969, 382 ff., 540 ff.),

Eignungskriterien

Da jede linguistische Datenverarbeitung auf Textverarbeitung aufbaut, ist es notwendig, in der benutzten Programmiersprache einen Datentyp zur Repräsentation von Zeichenketten (strings) zur Verfügung zu haben. Die komfortabelste Lösung dabei ist, daß man direkt einen Datentyp für strings hat, der möglichst keine Längenbeschränkung mit sich bringt (z. B. Comskee, SNOBOL mit Vorgänger COMIT und Nachfolger SL5, manche BASICs, mit Einschränkungen auch LISP (als Listen)). Die nächst weniger komfortable Lösung wird etwa durch den PL/1 Ansatz dargestellt, das variable, aber beschränkt lange Zeichenketten als direkten Datentyp zur Verfügung stellt. Am unteren Ende liegt der FORTRAN-Ansatz, der lediglich Zeichenketten fester Länge kennt, die dann mit Blanks (Leerzeichen) aufgefüllt werden müssen. Doch nicht nur der Datentyp als solcher sollte vorhanden sein, auch die zugehörigen Operationen bestimmen die Benutzbarkeit eines Datentyps. Hierbei dürften Comskee und LISP die größte Auswahl bieten, bei Comskee als eingebaute Operationen, bei LISP als im Laufe der Zeit hinzugefügte

63.  Programmiersprachen für linguistische Problemstellungen

Funktionen. Auch bieten die meisten BASICs eine ganze Reihe von Operationen an, wohingegen SNOBOL mit seiner einzigen Operation (Patternmatch und anschließender Musterersetzung) weniger Flexibilität bietet. Bei FORTRAN ist der Anwender darauf angewiesen, was er sich selbst an Funktionen und Prozeduren schreibt — wenn man von den vielfältigen Möglichkeiten der ’Stringverarbeitung’ im Zuge der Ein/Ausgabe absieht. Das Patternmatching (Mustererkennung) bildet die Basis einer jeden SNOBOL-Operation. In dieser Sprache wird diese Operation in umfassender Weise unterstützt: Man hat alle Möglichkeiten, Pattern zu definieren, auf anderen aufbauend, dynamisch, und sogar rekursiv, so daß die gesamte Mächtigkeit kontextfreier Grammatiken zur Verfügung steht. Schon der SNOBOL-Vorläufer COMIT baute sehr stark auf dem Vorgang des Pattern-Matching auf, allerdings ohne die Mächtigkeit von SNOBOL. Auch Comskee bietet relativ weitgehende Möglichkeiten mit kontext-bezogenem Zugriff bzw. -Ersetzung und Markov-Ersetzungen. Andere Programmiersprachen kennen meist gar keine eingebauten Patternmatching-Mechanismen; ist dies doch der Fall (z. B. PL/1 , LISP), dann ist das Patternmatching im wesentlichen darauf beschränkt, daß man die Position eines Strings in einem anderen feststellt, komplexere Verknüpfungen hingegen müssen ausprogrammiert werden. Für die Programmierung im Bereich der CL ist die Baum- und G raph-Bearbeitung wesentlich. Dies wird z. B. deutlich bei der Syntax-Analyse, bei der üblicherweise ein Analysebaum aufgebaut wird, auf dem jede Weiterverarbeitung basiert. In den Anwendungen, die Methoden der künstlichen Intelligenz benutzen, sind Netzstrukturen zur Repräsentation von inneren Abhängigkeiten weit verbreitet (vgl. Art. 34), die in ihrer Art den Baumstrukturen sehr nahestehen. Die übliche Darstellung von Baum- und Netzstrukturen besteht darin, explizite Zeigerstrukturen (Pointer) zu verwenden. Eine völlig andere Form von Graphen tritt im Zusammenhang mit ATN-Parsern auf: ein klassischer ATN (augmented transition network, erweitertes Übergangsnetzwerk) wird üblicherweise beschrieben durch ein Zustands-Netzwerk, dessen Kanten Zustandsübergänge repräsentieren und mit Bedingungen und Aktionen markiert sind.

767

Programmiersprachen für die bequeme Repräsentation von Graphstrukturen sollten einen Zeigerdatentyp, d. h. einen Datentyp „Pointer“ (in irgendeiner Form) besitzen. Programmiersprachen mit expliziten PointerDatentypen sind z. B. LISP, PL/1 und Pascal. Dabei besitzt Pascal den Vorteil von ’getypten’ Pointern (der Typ des Pointers legt die Klasse von Objekten fest, auf die er zeigen kann). In LISP sind Pointer allgegenwärtig (realisiert durch die LISP-Funktionen CAR und CDR), und in PL/1 hat man neben Absolut-Pointern auch noch Relativ-Pointer, die es — verglichen mit LISP und Pascal — einfach machen, Graphstrukturen auf Dateien auszulagern. Ganz eng verwandt mit der Problematik der Repräsentation von Graphen ist das Problem des Struktur-Matchings (Struktur-Muster-Vergleich). Diese Aufgabe stellt sich etwa bei der Text-Analyse, wenn bestimmte — z. B. diskontinuierliche — syntaktische Strukturen erkannt und transformiert werden sollen. Eine solche Mustererkennung kann man nur sehr schlecht auf der String-Repräsentation des Textes vornehmen — auch wenn dies z. B. bei SNOBOL (nämlich unter Benutzung eines Musters, das durch eine kontextfreie Grammatik definiert ist) der naheliegende Weg ist. Der Preis, den man für diese Vorgehensweise bezahlt, ist Rechenzeit. Der zu favorisierende Ansatz besteht darin, die Ableitungsbäume wirklich als Bäume darzustellen und dieser Struktur nach dem gefragten Muster zu suchen. Direkt unterstützt wird ein solcher Ansatz von PROLOG (Colmerauer 1 979, 1 ff.), in anderen Programmiersprachen muß ausprogrammiert werden, was durchaus auch Vorteile haben kann: Oft gewinnt man Effizienz, indem man den Suchalgorithmus dem Problem entsprechend gestaltet. 2.2. Kontrollstruktur-bezogene Eignungskriterien Um Struktur-Mustervergleiche bequem beschreiben zu können, ist es wünschenswert, in der verwendeten Programmiersprache auch einen Regelformalismus für Grammatiken zu besitzen. In einem solchen Formalismus kann man dann etwa Baumtransformationen beschreiben, die gerade das in 2.1 . angerissene Problem der Überführung von diskontinuierlichen syntaktischen Strukturen in zusammenhängende Strukturen lösen. Beispiele für die entsprechenden Sprachmittel

768

liefern wiederum SNOBOL — wenn auch nur auf String-Ebene — und PROLOG. PROLOG besitzt darüber hinaus — als zentrales Sprachelement — eine Möglichkeit, logische Inferenzen (Schlußregeln) auszudrücken. Diese erlauben es, in eleganter Weise z. B. die gerade erwähnten Baumtransformationen noch von weiteren Bedingungen semantischer Art, wie z. B. von bestimmten Kasus- oder Valenzrahmenbedingungen, abhängig zu machen. Logische Inferenzen und Grammatik-Regeln werden auch als deklarative Sprachmittel bezeichnet. Sie stehen im Gegensatz zu imperativen (prozeduralen) Sprachmitteln, mit denen man eher den Gang eines Algorithmus als seinen Netto-Effekt beschreibt. Es gibt seit längerer Zeit einen wissenschaftlichen Streit darüber, ob man sich nicht den größeren Komfort, den man durch deklarative Sprachmittel zur Verfügung hat („man überläßt das Programmieren dem Computer“), durch zu sehr herabgesetzte Effizienz — die sogar zur Nichtbenutzbarkeit eines Programms führen kann, erkauft. Unabhängig davon gibt es Anwendungen, die sich nur schlecht in ein vorgegebenes deklaratives Schema pressen lassen, so daß es hier die Verwendung prozeduraler Sprachmittel erlaubt, einen Algorithmus knapper und eleganter zu beschreiben. Vertreter des deklarativen Ansatzes sind SmallTalk (Goldberg 1 984, 1 ff.) (wenngleich hier auch der Begriff der objektorientierten Programmierung ein bestimmenderes Merkmal darstellt) und besonders PROLOG. Verwandte Konstrukte gibt es in SNOBOL, auch sind die funktionalen Programmiersprachen (LISP) nicht so weit vom deklarativen Ansatz entfernt wie die imparativ-prozeduralen Programmiersprachen. 2.3. Probleme der Datenmengen und Zugriffsarten Einen ganz anderen Aspekt bieten die Daten an sich, die in typischen linguistischen Anwendungen auftreten. Gehen wir wieder von der Zeichenkettenverarbeitung aus, so tritt schon hier das Problem der Dynamik der Daten auf. Wenn man nur einen einzelnen Satz eines Textes betrachtet, so kann dieser Satz aus 20 oder auch aus 2000 Zeichen bestehen. Auch bei Wortmengen, Regelmengen etc. hat man das Problem, daß man im vorhinein schlecht angeben kann, wie groß diese Mengen werden, in dem Sinne, daß sich — in den meisten Fällen — nur viel zu große obere

XII. Operating Environment of Computational Linguistics

Schranken für die maximale Elementanzahl angeben lassen. Hier ist es hilfreich, von der Programmiersprache Unterstützung zu finden. In LISP, PL/1 und Pascal wird man dynamische Strukturen auf selbst verwaltete Listen abbilden, was eine gewisse KomfortEinbuße, z. B. verglichen zu Comskee, darstellt. Gerade am Beispiel von Mengen läßt sich das illustrieren: Pascal hat zwar ein Mengenkonzept, dies kann man aber nur in solchen Fällen verwenden, in denen die Elemente einer schon im Programm festgelegten Obermenge entstammen (z. B. die 4 Kasus). Ist diese Voraussetzung verletzt, so muß auf die komplizierter zu handhabende Listenverwaltung ausgewichen werden. Im Gegensatz dazu bietet Comskee einen Datentyp ’Menge’, bei dem keine Obermenge festgelegt zu werden braucht, und auch die Elementanzahl a priori unbeschränkt ist. Ein zu der Dynamik der Daten verwandtes Problem ist das der großen Datenmengen . Gehen wir wieder von der Analyse natürlicher Sprachen aus. Bei dieser Aufgabe begegnen uns verschiedene „große Daten„. Die „langen Sätze“ hatten wir gerade angesprochen, daneben die relativ großen und — durch die in natürlicher Sprache vorhandenen Mehrdeutigkeiten — vielen Ableitungsbäume, die es auch zu verwalten gilt, und die nicht immer in den (virtuellen) Hauptspeicher eines Rechners passen. Man rufe sich ins Gedächtnis, daß sich Mehrdeutigkeiten multiplizieren. Hat man etwa für einen Satz mit 1 0 Wörtern bei jedem Wort 2 Alternativen, so ergibt das schon 2 hoch 1 0 = 1 024 Möglichkeiten (Rohmehrdeutigkeit). In Wirklichkeit ist der Durchschnittswert eher höher als 2 Alternativen pro Wort. Eine Facette der Problematik der großen Daten ist die Frage, wie in einer Programmiersprache ein Wörterbuchzugriff bzw. allgemeiner ein assoziativer Zugriff oder Datenbankfunktionen zu realisieren sind. Die in die jeweiligen Programmiersprachen eingebauten Möglichkeiten — wenn überhaupt vorhanden — scheitern in der Regel an der Größe der Daten (z. B. in LISP und in SNOBOL gibt es für diesen Zweck Sprachmittel, sie sind aber auf eine Speicherung im Hauptspeicher beschränkt), allein in Comskee gibt es einen dedizierten Datentyp ’Wörterbuch’. Die Lösung des Problems erfolgt in anderen Programmiersprachen üblicherweise über den Mechanismus des Dateizugriffes auf ISAM-Dateien (PL/1 ) oder über Aufrufe (call-Schnittstelle) von Anschlußroutinen ei-

63.  Programmiersprachen für linguistische Problemstellungen

nes Datenbankpaketes. Letztere Möglichkeit bietet kaum Integration in die Programmiersprache, die Daten des Programms und die des Datenbanksystems sind konzeptuell getrennt, andererseits hat der Benutzer auf diese Weise die volle Unterstützung durch ein Datenbanksystem mit allen seinen zusätzlichen Möglichkeiten (Wiederaufsetzbarkeit, Mehrfach-Schreibzugriff etc.). 2.4. Benutzerfreundlichkeit, Universalität und technische Eignungskriterien In gewisser Weise fallen alle bisher diskutierten Kriterien unter das Schlagwort Benutzerfreundlichkeit. Im engeren Sinne gehören dazu z. B. das Verhalten im Fehlerfall und eine leichtere Erlernbarkeit der verwendeten Programmiersprache. Man beachte aber, daß leichte Erlernbarkeit und leichte Anwendbarkeit völlig verschiedene Kriterien sind. Eine integrierte Entwicklungsumgebung, wie sie insbesondere von den interpretativen Systemen angeboten wird (LISP, BASIC, PROLOG etc.) besitzt unter dem Gesichtspunkt ’Benutzerfreundlichkeit’ Vorteile, compilative Systeme können einen vergleichbaren Grad der Benutzerfreundlichkeit nur durch einen wesentlich höheren Implementationsaufwand erreichen: Bei Interpretern ist der Bezug zum Quellprogramm viel näher, insofern als beim Compilieren vom Prinzip her die Quell-Code-Information umgewandelt und damit vernichtet wird. Nichtsdestoweniger gibt es auch z. B. sehr komfortable, compilative LISP-Systeme (allerdings steckt in einem compilierten LISP-Programm prinzipbedingt mehr Quell-Code-Information als z. B. in einem compilierten FORTRAN-Programm). Gerade bei Problemen der CL spielt — wegen der oft vorhandenen inhärenten Komplexität der Algorithmen — die Effizienz des Werkzeuges, d. h. der Programmiersprache, eine entscheidende Rolle. Neben der Ausführungseffizienz ist aber auch die Effizienz der Programmerstellung (Anzahl der Programmzeilen zur Realisierung eines bestimmten Algorithmus, Programmieraufwand in Arbeitszeit etc.) zu berücksichtigen, die eng mit der Benutzerfreundlichkeit korreliert ist. Eine andere Frage ist die, wie universell die verwendete Programmiersprache sein sollte. Ohne Frage sollte sie die zu bearbeitende Problemklasse gut abdecken. Ein frühes Zitat zu diesem Bereich stammt vom Entwickler von COMIT: „However, since we were dealing with unsolved problems and

769

could not forsee precisely the type of programs we might want to write, an effort was made to keep the language [COMIT] generalpurpose.“ (Yngve 1 963, 83). Ob die Programmiersprache darüber hinaus eine klassische Universalsprache (wie etwa PL/1 ) oder eher eine auf den Problemkreis beschränkte Spezialsprache sein sollte, hängt noch von anderen Faktoren ab, wie z. B. der einfachen Benutzbarkeit, dem Wartungsaufwand, der Effizienz, der Verträglichkeit mit anderen Programmen etc. Bei der Auswahl der Programmiersprache spielen neben den sachlichen Gründen auch noch technische Aspekte eine bestimmende Rolle. Was nutzt eine hervorragend geeignete Programmiersprache, wenn sie auf der verfügbaren Maschine nicht implementiert ist? Wenn man Programme entwickelt, die nicht nur auf dem Entwicklungsrechner laufen sollen, stellt sich auch das Problem der Portabilität, denn viele Programmiersprachen sind so unterschiedlich auf verschiedenen Maschinen implementiert (BASIC ist hier ein besonders krasses Beispiel), daß eine Portierung auf eine andere Maschine einen erheblichen Umstellungsaufwand erfordert. Die mehr historischen Gründe für die Wahl einer bestimmten Programmiersprache sind die Aus- und Vorbildung der Benutzer (was nutzt eine besonders komfortable Entwicklungsumgebung, wenn keiner der Entwickler damit umzugehen weiß?) und die vorhandene Software, die z. B. in FORTRAN geschrieben ist und die beim Wechsel auf eine andere Programmiersprache ganz neu geschrieben werden müßte. Nicht zuletzt spielen solch banale Dinge wie etwa die Dokumentation eine Rolle: „[...] that the usefulness of a good problem oriented language depends strongly on the quality of its users manuals.“ (Yngve 1963, 84). Ein letzter Punkt sind schließlich noch die Bereitstellungskosten für eine bestimmte Entwicklungsumgebung, seien es nun die Kaufoder Mietpreise für den Compiler oder sei es der Wartungsaufwand, der mit jedem benutzten Software-System verbunden ist.

3.

Historische Entwicklung

3.1. Überblick über CL-Sprachen In der Anfangszeit der Computer gab es nur Maschinen-Code (Eingabe der Befehle als Bit-Muster). Einen großen Schritt nach vorne stellten dann die Assembler dar, die eine Ver-

770

wendung von logischen Namen als Operanden der Maschinenbefehle und mnemonische Namen für die Maschinenbefehle ermöglichten. Aber auch Assemblersprachen haben als großen Nachteil ihre starke Maschinenabhängigkeit und die relative Ferne von der Problemstellung. Ende der 50er Jahre tauchten dann die ersten höheren Programmiersprachen auf (die damals aber noch weit von unseren heutigen Vorstellungen von höheren Programmiersprachen entfernt waren); besonders bekannt sind aus dieser Zeit FORTRAN und ALGOL. Anfang der 60er Jahre beginnt eine ’Explosion’ auf dem Gebiet der Programmiersprachen, davon ist auch der Bereich der Computerlinguistik betroffen. Die ersten einschlägigen Programmiersprachen (COMIT, COMIT II, SNOBOL) entstehen. Diese bieten eine auf die Bedürfnisse der CL zugeschnittene Benutzerschnittstelle, wenngleich sie noch vergleichsweise problemfern und maschinennah waren („COMIT is not a language, however, in which one ’programs in English’.“ (Yngve 1 963, 83)). In Allgemein-Sprachen (im Gegensatz zu Spézialsprachen) wird die Bedeutung der Textverarbeitung zu dieser Zeit noch nicht gesehen. Die erste Einbeziehung von z. B. Datentypen für Zeichenkettenverarbeitung fällt in die Zeit der späten 60er, Anfang der 70er Jahre. Die bekanntesten Vertreter sind ALGOL 68 und PL/1 . Weitere Allgemeinsprachen, die zumindest einen Datentyp ’String’ kennen sind die Programmiersprachen BASIC (je nach Dialekt, nicht die UrVersion von 1 965) und UCSD-Pascal (eine an der Universität San Diego entwickelte Implementation von Pascal mit verschiedenen Erweiterungen gegenüber dem Jensen/ Wirth-Standard). Auch diese beiden Sprachen kamen in der ersten Hälfte der 70er Jahre auf. Eine häufig zu beobachtende Technik, in der Spezialsprachen für die CL geschaffen werden, ist die, eine vorhandene Programmiersprache — z. B. ALGOL 60 — um spezielle Datentypen, Operationen und syntaktische Konstrukte zu erweitern und sich spezieller Präkompiler zu bedienen, die von dem erweiterten Sprachstandard in die zugrundeliegende Basis-Sprache übersetzen. Mit Hilfe eines Satzes von Laufzeitprozeduren werden dabei die Operationen auf den mit der Erweiterung eingeführten Datentypen unterstützt. Ein typischer Vertreter für diesen Ansatz ist die Programmiersprache LINGUOL (Keil 1 978, 1 ff.), eine ALGOLErweiterung. Auch FORTRAN diente häufig als Ausgangspunkt für derartige Spracher-

XII. Operating Environment of Computational Linguistics

weiterungen. Eine von der in den prozeduralen Sprachen (wie ALGOL, COBOL, FORTRAN, PL/1 , Pascal etc., vgl. 2.2.) verwendeten völlig abweichende Philosophie wird in der Programmiersprache LISP verfolgt, deren Anfänge in die späten 50er Jahre reichen. Diese Sprache läßt sich nicht in das Schema Spezial/Universal-Sprache einordnen, sie ist in gewisser Weise beides zugleich. Zumindest ermöglicht sie eine vergleichsweise komfortable Textverarbeitung. LISP hat sich besonders im Bereich der künstlichen Intelligenz etabliert und gilt dort noch heute als die am weitesten verbreitete Programmiersprachenfamilie. Mit dem verstärkten Interesse an der künstlichen Intelligenz wurde auch dem Problem der Programmiersprachen seit Ende der 70er Jahre wieder zusätzliche Beachtung geschenkt. Wegen der nahen Verwandtschaft von Problemen der Computerlinguistik und denen der künstlichen Intelligenz wurde bei diesen Entwicklungen dem Gesichtspunkt der Textverarbeitung und der Verarbeitung allgemein dynamischer Strukturen besondere Aufmerksamkeit gewidmet. 3.3. Welche Programmiersprachen werden in der CL-Praxis verwendet? Aus einer — für den deutschsprachigen Raum sicherlich repräsentativen — Aufstellung von 74 verschiedenen CL-Projekten (Petersen/Frackenpohl/Dvovak et al. 1 982, 1 ff.) läßt sich entnehmen, daß in den beschriebenen Systemen die in der folgenden Statistik aufgeführten Programmiersprachen als Basis-Implementations-Sprache zum Einsatz kamen. Teilweise haben die dargestellten Systeme wiederum ProgrammiersprachenCharakter, wie z. B. allgemeine Parser, die mit einer Grammatik als spezieller Form eines deklarativen Programmes versorgt werden können. Dieses höhere Niveau in der Programmiersprachenhierarchie bleibt in der folgenden Statistik unberücksichtigt. Einsatz von Programmiersprachen in Projekten der Computerlinguistik: Prozentuale Verteilung des Einsatzes der häufigsten Programmiersprachen in kombinierten (mehrere Programmiersprachen kamen zum Einsatz) und homogenen Systemen (nur eine verwendete Programmiersprache): In Kombination: FORTRAN PL/1 770

39% 34%

63.  Programmiersprachen für linguistische Problemstellungen

Assembler LISP COBOL Sonstige Homogene Systeme: PL/1 FORTRAN Assembler LISP Sonstige

23% 9% 4% 15% 27% 26% 7% 7% 7%

Diese Statistik zeigt ein überraschendes Bild: (1 ) Die Frage der Portabilität und Verfügbarkeit scheint die Wahl der Programmiersprachen bestimmend zu beeinflussen. In der Liste findet sich nicht eine einzige Referenz auf eine der speziellen CL-Sprachen, wenn man von LISP absieht. (2) Dominant ist immer noch (Stand 1 982) FORTRAN, wenn auch dicht gefolgt von PL/1. (3) In 27% aller Fälle wurden mindestens 2 verschiedene Programmiersprachen benutzt. D. h. die Programmierer haben sehr wohl die Wahl der Programmiersprache dem Problem angepaßt. (4) PL/1 als Allroundsprache hat den höchsten Anteil an den homogenen Systemen. In 1 6% der Fälle wurde Assembler als Hilfsimplementierungssprache mit herangezogen. (5) Die ansonsten recht weit verbreitete Programmiersprache BASIC ist nicht vertreten. Dies liegt wahrscheinlich daran, daß in der Übersicht ausschließlich Projekte auf Großrechnern aufgeführt sind. Die Verbreitung von BASIC im Bereich der Computerlinguistik dürfte zumindest bei weniger ambitionierten Softwaresystemen auf Microcomputern sehr hoch sein, wenn nicht sogar an der Spitze liegen. Im Bereich der Microcomputer belegt sicherlich auch FORTRAN nicht die Stellung, die es im Bereich der Großrechner für den linguistischen Bereich einnimmt. (6) Überraschenderweise tritt Pascal gar nicht auf, obwohl es zum Zeitpunkt der Zusammenstellung dieser Statistik auch auf den betrachteten Maschinen relativ weit verbreitet war, insbesondere im universitären Bereich, aus dem der größte Teil der dieser Statistik zugrundeliegenden Programme entspringt. (7) Mit dem seit einiger Zeit zu beobachtenden Aufkommen des Betriebssystems UNIX gewinnt auch die damit eng verbundene Programmiersprache C zunehmend an

771

Bedeutung. Auf manchen UNIX-Rechnern ist sie als einzige höhere — soweit dies auf C zutrifft — Programmiersprache vorhanden. Auch kann man davon ausgehen, daß mittlerweile viele Micro-Computer-Anwendungen der Computerlinguistik wegen der hohen erreichbaren Effizienz in C programmiert sind.

4.

Einflußnahme der CL auf die Programmiersprachenentwicklung

In der Anfangszeit der Computer dienten diese nur zum numerischen Rechnen. Zu dieser Zeit spielte die Textverarbeitung keine Rolle. Dann kam bald der kaufmännische Bereich hinzu (widergespiegelt in der Programmiersprache COBOL), in dem zumindest rudimentäre Bedürfnisse der Textverarbeitung vorhanden sind. In den meisten kaufmännischen Anwendungen geht es darum, einfach strukturierte Daten zu speichern, in trivialer Weise miteinander zu verknüpfen, sie zurückzuschreiben und sie dann selektiv und in komplizierter Weise (Konvertierung von Zahlen aus Internform in Textform), versehen mit umgebenden Text (Ausfüllen von Formblättern), auszugeben. Ein wesentliches Charakteristikum bei dieser Art der Programmierung ist die Tatsache, daß man sich auf Daten fester Größe beschränken kann und daß man nur eine einfache Form des assoziativen Zugriffs braucht (z. B. Zugriff auf die Stammdaten eines Beschäftigten über die eindeutige Personalnummer). Erst mit dem Vordringen von Datenbanken im heutigen Sinne wurde es möglich, auch in diesem Bereich assoziative Verknüpfungen auf den Daten programmtechnisch auszunutzen (ein einfaches Beispiel ist der Zugriff über den Namen des Beschäftigten). Im Bereich der CL ist dieser assoziative Zugriff ganz wesentlich, man denke nur etwa an ein Wörterbuch, das in jeder Anwendung, die über eine einfache Konkordanz hinausgeht, — explizit oder implizit — Verwendung findet. Auch vernetzte Strukturen (ganz deutlich bei semantischen Netzen oder Baumund Graphenkonstrukten zur Repräsentation von syntaktischen Strukturen) gehören zu den Eigentümlichkeiten von CL-Systemen, die erst in den Universalsprachen PL/1 und Pascal unterstützt wurden (durch das explizite Zurverfügungstellen von Zeigervariablen), wohingegen Wörterbuch-Operationen nur über den relativ umständlich zu handhabenden Weg von Aufrufen von speziellen

XII. Operating Environment of Computational Linguistics

772

Datenbank-Funktionen zu erzielen sind (dies gilt aber auch — sofern überhaupt möglich — für die meisten CL-Spezialsprachen, eine Ausnahme bildet Comskee mit seinem integrierten Datentyp ’Wörterbuch’). Die Bedürfnisse — wie auch der Gegenstand — der CL überlappen sich in weitem Maße mit denen der künstlichen Intelligenz; so ist es nicht verwunderlich, daß vielfach die gleichen Programmiersprachen und -systeme benutzt werden. In beiden Bereichen finden — neben den zuvor erwähnten Voraussetzungen — besonders Grammatiken und deklaratives Wissen Verwendung. Typische Vertreter

aus dem einen und dem anderen Lager sind SNOBOL und PROLOG, beide enthalten die Möglichkeit, durch eine Grammatik gesteuerte Mustererkennungen ablaufen zu lassen.

5.

Literatur (in Auswahl)

A. Colmerauer 1 979 · A. Goldberg 1 984 · K. Jensen/N. Wirth [1 972] 1 975 · G. Keil 1 978 · J. Messerschmidt 1 981 · J. E. Sammet 1 969 · V. Yngve 1963.

Jan Messerschmidt/Günter Hotz Saarbrücken (Bundesrepublik Deutschland)

64. Special Hardware and Future Development in Computer Architecture in View of Computational Linguistics 1. 2. 3. 4. 5. 6. 7. 8.

1.

Introduction Traditional Computer Systems The LISP Machines The LISP Machine Software Symbolic Input/Output Requirements New Programming Paradigms New Machine Concepts Literature (selected)

Introduction

1.1. Symbolic vs. Numerical Computing Computing with symbols and complex symbolic structures rather than with numbers, arrays, strings, etc. entails special requirements not only to programming languages, but also to computer architecture and organization. Although symbolic computing is nearly as old as numerical computing it has always been overshadowed by the latter. Until recently symbolic computing has had little influence on computer design. With a wider recognition of the importance of natural language and knowledge processing the situation has started to change. The aim of this paper is to explicate the special requirements that symbolic computing presents to computer design and programming language development and to review the various machine and programming concepts that can support these requirements. We will start by discussing the nature of symbolic computing and the gaps and limitations that inflict current technology and then proceed to review the major advances and directions of research in the field.

1.2. The Nature of Language and Knowledge The special nature of natural languages and knowledge as symbolic systems require corresponding programming and machine concepts. The theories of language and knowledge are currently developing toward formalisms that consist of complex systems of features, rules, relations, objects, class hierarchies, etc. Powerful formal systems and abstraction mechanisms are developed and applied to representation and processing of language and knowledge structures. From the point of view of systems theory languages and knowledge are very large symbolic systems. One needs only consider the number of features or categories used to describe various levels of language. If in the basic phonology a few dozen features suffice, the levels of morphology and syntax require hundreds of features. The number required to cope with the logico-semantic, pragmatic, and discourse components of language and with various blocks of special domain and world knowledge are not known, but seem to run into thousands. From the computational point of view individual words, sentence structures, and thoughts can be considered as abstract data types each of which is unique. Thus natural language and knowledge involve potentially infinitely large polymorphic symbolic type systems. Moreover, on higher conceptual levels linguistic and domain or world knowledge cannot be clearly separated from each

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

773

other. There are intricate interactions across levels of hierarchy and over spans of context. Because of the ill-natured character of language and knowledge it is necessary to find strong enough and well-defined formalisms that are able to cope with the complexity involved. In addition to the representational and computational frameworks it is necessary to have appropriate programming languages and concepts to allow for their explicit description and implementation. Finally advanced machine architectures are required to support their efficient processing.

of special programming languages and paradigms cannot be adequately met by conventional computers. Better performance is expected not only in terms of speed of execution. New solutions are required also for how computations are organized, computing elements controlled, and how data and programs can be accessed. In traditional computers most of these functions are left to software. In the future these issues have to be solved more effectively on the level of machine architecture with respect of the nature of the problem.

1.3. Semantic Gaps and the Software Crisis

1.6. The Physical Limits to Computing

Efficiency is an important issue, but the key problems of today are attributable to what is commonly known as the ’semantic gap’. The semantic gap is a measure of the conceptual difference that prevails between the means of expression available and the ends being pursued. There is one major gap between the means of expression used by the linguist or knowledge engineer and the programmer. Another gap prevails between the language used by the programmer and the machine architecture provided by the computer designer. The semantic gaps in their turn have lead to what is often called the ’software crisis’, i. e. unmanageability of software, particularly of large and complex software systems. Natural language and knowledge systems fall into this category and they continue to grow. Therefore more powerful tools are needed on all levels.

At the same time there are definite limits to the possibilities of improving the performance of computers. The physical phenomena on which operations with bits of information are based in present day electronic digital computers are subject to natural limitations as to speed, stability, controllability, etc. Other factors constrain their technical implementation. There are limitations concerning spatial connectivity of basic elements, element distance, conductor width, packing density, heat dissipation, etc. Further improvement in sheer hardware performance can be sought in harnessing new physical phenomena based on new materials and properties such as the Ga/As technology, the Josephson junction effect, optical effects or perhaps molecular technologies like the ’biochip’. The ultimate physical limits are, however, always there. After reaching these limits, further strides can only be made by inventing new ways and principles to organize and to effect computations. They can be based on various ideas like parallelism, associativity, functional analogies, structural adaptivity, etc. qualities.

1.4. Special Languages for Symbolic Computing Special programming languages have been developed for symbolic computing. As a matter of fact LISP (McCarthy 1 960), the most important of them, is a contemporary of FORTRAN, the first high level language for numerical computing. More recently other languages above all PROLOG have developed rapidly. Along with conceptually new languages completely new programming techniques and subsequently paradigms of programming have evolved. The most noteworthy of these are functional programming, logic programming, and object-oriented programming. 1.5. The Symbolic Processing Requirement The computational requirements of natural language and knowledge based systems and

1.7. Machine Architecture and Organization Today’s computers are based on the von Neumann model of machine organization, an idea invented in the early 1 940’s for scientific numerical computing. This model is still valid practically for all computers. Although dramatic advances have occurred in terms of performance, memory capacity, mode of use, ease of access, physical size, external appearance, and last but not least the price level, little has changed in the principles of machine organization and function. It is, however, becoming ever more clear that major further advances cannot be

XII. Operating Environment of Computational Linguistics

774

obtained unless the classical von Neumann model is replaced by something, perhaps radically different. New directions are being explored by research groups in various countries attempting to identify and realize the next generation concept.

2.

Traditional Computer Systems

2.1. Computer Generations It has become customary to characterize computer system evolution in terms of generations. Successive generations are marked by major advances in the technological basis or innovations in machine, computation, and/or program organizations. It is now possible to demarcate five generations. The past three have been characterized by advances in the technological basis of hardware. The present fourth generation has seen innovations in other aspects as well, but the basic principles have remained unchanged. Instead, the fifth generation is expected to bring about perhaps radical changes and diversification of both hardware and software concepts. The first generation electronic digital computers were based on electron valves and relays. In the second generation these were replaced by transistors and ferrite core memory. The third generation has been characterized by several new features. Integrated circuitry was introduced as the basic technology and high level programming languages and compilers appeared. With the development of operating systems timesharing became popular as a new mode of accessing the computer. It is more difficult to pinpoint the key features characterizing the fourth generation, since there are already many minor advances. Microprogramming allowed migration of basic software functions into firmware. New principles of register and memory organization such as hardware stack, paging mechanisms, and virtual memory lead to sophistication of software and operating systems. Introduction of special purpose processors, internal buses, and the advances in data communications brought about distributed computing, networking, and data bases. Perhaps the most significant impact of the fourth generation was, however, the appearance of the microcomputer. Large scale integrated circuit technology made possible the fabrication of microprocessors in scale and subsequently the spreading of personal computing. In any case, we are still in the fourth

generation emerge.

and

anticipating

the

fifth

to

2.2. The Basic von Neumann Model In considering the conceptual development of computers it is natural to start from the von Neumann model. The basic von Neumann model is characterized by the following four principles: (1 ) A single computing element incorporating control, memory and communication. (2) Linear organization of memory cells with one level of addressing. (3) Programs composed of low-level machine language instructions. (4) Sequential execution of instructions under control of an external control unit and a program counter. Both program and data are stored in the same memory that consists of a linearly addressed sequence of memory cells. The data are manipulated by a processor executing instructions sequentially under the control of an external control unit and a program counter. This model underlies practically all computers in use today. Within this model there are, however, several ways of how computation and control can be organized to achieve improved performance. 2.3. Variations of the von Neumann Model According to a widely used taxonomy (Flynn 1 972) von Neumann type machines can be classified according to the number and arrangement of control units and processing elements. These are characterized by the instruction and data streams flowing simultaneously in the machine and the ways they are coordinated. The following types of machine model are obtained: (1) Single instruction single data (SISD). (2) Single instruction multiple data (SIMD). (3) Multiple instruction single data (MISD). (4) Multiple instruction multiple data (MIMD). SISD machines. This is the basic model of conventional single processor systems that we know of mainframes, minis and microcomputers. Particular computer designs may be enhanced with various kinds of improvements such as stack and/or other register mechanisms, microprogrammable control store, virtual memory, buffer or cache memories for data and/or instructions, pipelines, instruction interleaving or prefetch, etc. features. The basic operational principle remains, however, the same.

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

SIMD machines. In this model a single control unit issues the same instruction to a number of identical processing elements that execute the same operation on a number of data elements in a concerted way. SIMD machines are typically vector processors that perform the same instruction, usually an arithmetic operation, to an array of data in parallel. Examples of SIMD machines are supercomputers and special purpose array and signal processors that are used for processing of high volume data like voice signal, image, etc. MISD machines. This class has remained more or less theoretical, since instruction and data have traditionally been simple elements. Complex data objects and operations have been implemented in software. One can, however, envision this model as applicable with the development of complex data and expression-like programs. With such entities various operations can be performed in different parts of a program or data entity concurrently. MIMD machines. In this organization a multiple of processors are run independently under their own control unit but coordinated by one operating system. Different instructions can be performed on different data elements at one time. MIMD systems allow parallel execution of a single task or multiprocessing of several independent or related tasks in a general purpose computing environment. Multiprocessors of both the SIMD and MIMD classes are straight extensions of the basic model obtained through parallelization. They have been designed for efficient numerical processing of uniform data like vectors and arrays. The requirements of symbolic computing are quite different. 2.4. Special and Diverse Requirements The semantic gap between a given application area like symbolic computing and the underlying machine architecture can be narrowed in several ways. One way is to design a specialized processor. Usually there are, however, conflicting requirements even within a specialized system and specialization in one direction may open gaps in other aspects. In such a situation the following approaches are possible: (1 ) Flexible architecture. One can introduce microprogramming or other techniques that allow flexible tailoring or possibly dynamic reconfiguration of instruction sets.

775

(2) Reduced instruction set computer. One can design a simple, but more efficient instruction set and ascribe control and adaptation to software. (3) Distributed-function architecture. One can design a special purpose processor for each class of tasks and connect the processors into an organic multiprocessor system. Microprogramming has made it easy to extend and tailor computer instruction sets for varying purposes. Writable control store and other techniques allow even dynamic reconfiguration. Microprogramming has been applied successfully in many special fields, also in symbolic computing. The early LISP machines to be discussed below provide a good example. On the other hand extensive use of microprogramming in general purpose computers has, however, lead to overly large and versatile instruction sets. As a result these have become inefficient and difficult to use rationally. Unduly versatile machines are also expensive to manufacture and hinder real advances of the software technology. After all, this trend has only contributed to the deepening of the software crisis and made way to revisioning of the traditional von Neumann concept. 2.5. Reduced Instruction Set Computers The advances of very large scale integrated circuitry and memory technologies have made it possible to include on one chip components that formerly had to reside on several chips. Component integration has thus allowed to reduce the number and type of instructions, particularly memory instructions, that are required to implement a computer design. At the same time it has become clear that the Pareto principle holds true for present day computers in the sense that only a small part of instructions of the total instruction set are used most of the time. The realization of these facts has lead to what is called a Reduced Instruction Set Computer (RISC). The idea of a RISC machine is to reduce and rationalize the instruction set and to implement it directly in hardware. As a result the efficiency is improved and the basic architecture is simplified and streamlined. A simplified architecture sets, however, higher requirements on the software technology and the overall system organization. In this sense the semantic gap becomes wider rather than narrowed. The RISC machines are a recent develop-

XII. Operating Environment of Computational Linguistics

776

ment and there is still little experience of their use in practice. It takes also time to develop the required software technology. In any case the RISC architecture is a good candidate as a basic component of future single user dedicated applications and distributed systems, also for symbolic computing. 2.6. Dedicated Symbolic Processors More significant performance improvement requires, however, processors that are specifically customized for symbolic processing as has been done in developing the LISP machines, the precursors of the fifth generation. The early LISP machines were tailored for LISP by microprogramming, but the new designs are customized in silicon. It is estimated that with dedicated processors 1 0 to 1 00 fold efficiency gains can be obtained compared with general purpose computers. This is sufficient for processing considerable natural language systems and knowledge bases. Many of the future applications can be run on high performance LISP machines, in RISC machines or even on conventional computers, but the requirement of large knowledge based systems can be met only by novel parallel architecture machines envisaged by the next generation.

3.

The LISP Machines

3.1. LISP on Timeshared Machines LISP has been the language of choice in symbolic computing for nearly thirty years. Artificial intelligence research as well as knowledge engineering and expert system work has been done mainly in LISP. Recently LISP has been gaining in popularity among the traditional computational linguistic and machine translation communities, too. This is no wonder, since LISP is a nearly ideal language for natural language work. LISP represents both program and data in the same form as list structures. This is a great idea that is reminiscent of von Neumann’s idea to store both program and data in the same memory. In LISP programs can easily be manipulated as data and data can be converted into program and interpreted as appropriate. These features allows LISP to interface conveniently with natural languages, a feature lacking from conventional programming languages. Many other unique features that cannot be treated here make LISP suitable for symbolic processing.

In the past LISP systems were available on general purpose computers only. Good implementations existed only on few types of machines. Its execution was often slow because of interpreted mode and lack of machine support of its special nature. But the users were willing to pay the price for the flexibility and other advantages over conventional languages. Yet, something remained to be wished for. LISP was and is one of the few languages that have influenced machine architectures. In the early 60’s it impressed the designers of the PDP-1 0 at Digital so that they incorporated the critical data access and function call operations of LISP into the PDP-1 0 architecture (Bell 1 984). Further tailoring of the machine and its operating system for LISP was done at BBN (Bolt Beranek and Newman, Inc.). A new operating system TENEX with demand-paged memory and its hardware support were developed. The modifications were later adopted by Digital with the effect that the DECSystem-1 0/20 series became the best machines ever for LISP and timesharing and remained the prime workhorses of AI until the 80’s. 3.2. The Escape From Timesharing The idea of timesharing was introduced to computing in the early 1 960’s when it became apparent that it is easier and more effective to use computers in an interactive fashion than in batch mode. LISP was an early language to make use of this concept. The first LISP system on the IBM 605 computer was run on the background of batch processing of other jobs. McCarthy called the technique, ’time stealing’ and it signalled the birth of timesharing. The LISP community was also the first to push timesharing to its limits. Difficulties arose with the trend toward highly interactive programming techniques and sophisticated tools for editing and debugging LISP programs (Teitelman 1 978, Stallman 1 979). Not only response time, but also memory space became a bottleneck. With large programming systems and very large application programs timeshared computer systems were choked. It was felt that a rescue could be found in a sufficiently powerful personal computer. Each user should get his own processor and main memory that were not time-multiplexed. The emerging microelectronics technology and consequent changes in the economics of com-

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

puter hardware in the early 1 970’s made way to this concept. Combined with the clarity of LISP as a language it was feasible to envision even a personal computer specifically tailored for LISP. Unlike most other high-level languages LISP has a small set of primitives, a uniform representation of program and data, a simple and explicit syntax, a clean recursively defined semantics, and a linked cell storage organization. For these reasons and despite of its high conceptual level LISP was exceptionally well suited to implementation in hardware. These possibilities lead to the next revolution that has come to be known as the ’escape from timesharing’. It again signalled the dawn of a new era of personal symbolic computing that we are evidencing in the 1980’s. 3.3. Early LISP Machine Projects As a response to the challenge the LISP Machine project was initiated in MIT (Greenblatt 1 974). At about the same time Xerox started implementing LISP for their experimental microprogrammed personal computer Alto (Deutsch 1 973, Thacker/Lampson/Sproull 1 979). Part of the inspiration for both projects came form the pioneering research into personal computing and display-oriented systems that had been done at Xerox PARC. 3.4. The Xerox LISP Machines The Xerox AltoLisp introduced the idea of providing a specialized microcoded instruction set for LISP. It executed the basic operations of LISP more directly and efficiently than general purpose machines. Thus the Alto Lisp became the first LISP-oriented machine. In 1 975 Xerox started the design of a high-performance successor called Dorado. A virtual machine specification was written for the Interlisp (BBN-Lisp) dialect (Moore 1 976) and four years later the Dorado system was ready. Dorado was an exceptionally powerful personal computer of its time. The architecture was conventional, but the hardware was based on high speed ECL chips. The machine had a set of 256 1 6-bit working registers, a fast bus, and a cache memory supporting a paged virtual storage. A production line was set up and a limited number of machines were delivered mainly for use within the Xerox research community. These machines became the forerunners of the Xerox artifi-

777

cial intelligence workstations known today as the 1100 series (Pier 1983). 3.5. The MIT Based LISP Machines Whereas the designers at Xerox chose to implement LISP through microprogramming on a rather conventional machine, the MIT group aimed at to begin with a more specialized LISP architecture in hardware. The first MIT LISP machine CONS (Knight 1 974, Bawden/Greenblatt/Holloway et al. 1 979) was running experimentally in 1 976. It was a design with 32-bit data paths, 24-bit address space, and a 1 6 K memory for microcode of 48-bit words. The second version of the machine called CADR incorporated some hardware improvements and was completed in 1978. The research was funded by DARPA with the expectation that if the prototypes should prove successful, companies could be started to engineer them into commercial products. The prototypes were successful and in 1 980 two companies, Symbolics Inc. and Lisp Machine Inc. (LMI), were formed. The early commercial models, LM-2 of Symbolics and the CADR of LMI, came on the market in 1 981 . Enhanced models known as the 3600 series of Symbolics and the Lambda series of LMI were released in 1 982 and 1 983 respectively. The two lines of machines had a different system architecture, but were software compatible on the level of Zetalisp, the LISP machine dialect of LISP developed by MIT. 3.6. The LISP Processor on a Chip In 1 983 Texas Instruments, a major semiconductor manufacturer, entered the business via a licensing agreement with LMI and the TI Explorer system came on the market in 1 984. The same year TI contracted with DARPA to engineer a LISP processor on a single chip, an idea that had been pioneered by the SCHEME project (Steele/Sussman 1 980, Sussman/Holloway/Steele et al. 1 981 ) in MIT. The first industrially made LISP processor chips were ready in early 1 986 and operated in the range of 40 MHz, i. e. up to ten times the rate of early commercial symbolic processors. 3.7. Other LISP Machine Projects Other US manufacturers are joining or expected to join the business through licencing arrangements or with their own designs. According to market forecasts LISP machines

XII. Operating Environment of Computational Linguistics

778

are quickly coming of age commercially in a large scale. Instead of being only a research technology they are expected to take a lion’s share of the emerging artificial intelligence market. LISP machines are being developed also in Europe and in Japan. Several companies in various countries are engaged in projects aiming at realization of LISP-based symbolic processors. To our knowledge projects are under way at least in France (Sansonnet/ Castan/Percebois et al. 1 982), Japan, Norway, Romania (Stefan/Paun/Bistriceanu et al. 1984), the Soviet Union, and Taiwan. Already in 1 979 there were six projects reported in Japan (Kurokawa 1 979). Alps (Ida 1 977) was actually one of the earliest working LISP machines. The FLATS machine (Goto et al. 1 982) was developed at Tokyo University and the NK-3 at Kyoto University (Nagao et al. 1 977, Nagao/Nakajima/Kitamara et al. 1 979). NK-3 was based on a 32-bit mini computer and meant specifically for natural language processing. The Electrotechnical Laboratory (ETL) was early to start developing LISP-oriented chips (Shimada et al. 1976). A more recent project is the EVAL II machine of Osaka University (Maegawa/Saito/Doi et al. 1985). Until today few Japanese projects have resulted in commercial products. Fujitsu has had its back-end LISP processor Alpha (Hayashi/Hattori/Akimoto 1 983) on the market for some time. NTT Musashino Laboratory’s ELIS LISP machine (Okuno/Takeuchi/ Osato et al. 1 984) is known to have gone into serial production by Iwatsu Ltd., but the product has not appeared on the open market. Apart from specific machine designs LISP-oriented instruction sets have been customized for several commercially available microprogrammable computers, e. g. the PERQ microcomputer at Carnegie-Mellon University (Wholey/Fahlman 1984). 3.8. The LISP Machine Architecture From the point of view of computer architecture, the first LISP machines and their descendants do not significantly differ from conventional von Neumann computers. They are based on the control flow principle and execute instructions sequentially. Minor innovations have been introduced in order to achieve more efficient execution of LISP and to allow running of very large programs. The processor architecture and hardware have been specialized for functions that are

crucial to LISP. The instruction set closely corresponds to basic LISP operations such as pointer handling, type checking, function call, and context switching. Tagged pointer format allows data type checking to be performed by hardware at run time. Function call and return are handled by stack instructions. The designs are not genuine stack architectures, but instructions typically receive their arguments from the stack and push their results onto it. Pieces of LISP code are prefetched into a high-speed instruction cache memory for execution. Computations are organized in stack groups that are managed by hardware. Active stacks are kept in fast hardware buffers to achieve rapid context switching. The physical memory is divided into words of 32 or more bits rather than bytes as in conventional computers, since word-based addressing is more appropriate in symbolic computing. Computations are mostly performed with pointers rather than with numbers or characters and long pointers are needed due to very large address spaces. The virtual memory is divided into pages that are managed on demand basis by a mechanism implemented in hardware and microcode. Garbage collection takes place incrementally on the background and is supported by hardware. Peripheral control and input/output operations are handled by microtasking. A number of processes can take place independently on the background.

4.

The LISP Machine Software

4.1. The LISP Environment What makes LISP machines unique for software development work is the sophisticated programming environment. Advanced LISP environments constitute a comprehensive set of tools that are integrated into a unified environment. The system software typically consists of several megabytes of LISP code, thousands of system functions. The specific subsystems, tools, and features provided by various LISP systems such as Interlips-D (Teitelman 1 978; Teitelman/Masinter 1 981 ), Zetalisp (Weinreb/Moon 1 98 1 ; Spoerl 1 984; Greenblatt 1 984) or the Explorer software environment are too large to be described here. This presentation is confined to a review of the standard components and features. The LISP machine software environment consists of the LISP language and its run-time

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

support, a window-based user interface, and a collection of program development and debugging tools such as editor, debugger, inspector, compiler, etc. Help and documentation facilities provide assistance and advice to the user. File management and networking software allow sharing of system resources and communication with other users and systems. All functions are integrated so that the user can easily switch from one function to another. The LISP machine software environment supports a high degree of user interaction and allows working styles that are important in developing complex software and large applications. Incremental and exploratory programming, rapid prototyping, team programming, etc. are not simply catch terms. They reflect a new level of programming practice and programmer productivity (Sheil 1983, Spoerl 1984). In addition to the standard system facilities various systems provide a choice of built-on features and development tools and application software that vary with system. What is common to all LISP machine software is that it is written entirely in LISP, usually Common LISP. 4.2. Common-LISP — an Emerging Standard After the conception and publication of the kernel version of the language, LISP 1 .5 (McCarthy/Abrahams/Edwards et al. 1 963), LISP has developed into a profusion of dialects. The situation has been tolerated by the LISP community, since it has been considered as an evidence of the vitality of the language that has enabled its continued development and conceptual enrichment. As a ’plastic language’ LISP has been malleable to the needs and wishes of a variety of schools and user communities. A too early standardization would definitely have been only harmful to the flourishing of the LISP culture. On the other hand, with its growing practical application, the Babelian situation has also become a threath to its success as a widely used commercial language. The main timesharing dialects of LISP were Maclisp and its descendants (NIL, Franz LISP, Standard LISP, Scheme, T, etc.) and Interlisp. Their development was continued in the two lines of LISP machines and both, Interlisp-D of Xerox and Zetalisp of the MIT based LISP machines, are today highly developed and widely used LISP envi-

779

ronments. Interlisp became a classic example of intelligent programming systems, but has grown obsolete as a basic LISP dialect, because too much of the PDP-1 0 architecture is visible in it. Zetalisp is a modern version, but reflects too much of LISP machine architecture to become a standard for portable software. Common LISP (Steele 1 983) is an attempt to settle the situation. Its aim is to summarize the nearly thirty years of LISP development and to freeze the language, at least provisionally, in an implementation independent form. The specification of Common LISP was conceived in the period from 1 981 to 1 984 at Carnegie-Mellon University in collaboration with several other implementation groups and Lisp experts in the US. Common LISP was intended to become widely implemented in the 1 980’s and it is, indeed, quickly establishing its position as a de facto industry standard. Its position has been reinforced by its adoption by the USDepartment of Defence as an exclusive dialect. Consequently the LISP machine manufacturers as well as many other suppliers of LISP have decided to conform. Thus, in the future most LISP systems are expected to comply with and evolve on the basis of Common LISP. Common LISP is a fairly big and rich language. It is a multipurpose language that has a wide spectrum of ready made facilities. The specification defines about 600 functions, forms, and system features that cover not only symbolic processing, but also numerics, text processing, files management, and real time functions. In addition, it is at the same time a language for both system and application programming. There is a rich set of data types and control structures and facilities for defining new. Currently the specification does not define objects or graphics nor the programming environment except for some interfaces of how to invoke standard programming tools like a compiler, an editor, debugging, etc. facilities. Extensions and changes to the specification are, however, envisaged. It can be said that Common LISP is a practical language that incorporates the most important of the LISP experience and stabilizes it on a reasonable level. There are, however, numerous points that can be criticized and deserve reconsideration. As such it is not ready for official international standardization. In any case, though not truely well ela-

780

borated in all respects, Common LISP is a welcome relief to the industry and the commercial user. 4.3. Program Development Tools The LISP machine approach to programming addresses all stages of software development. There are advanced tools for the design, editing, testing, debugging, compiling, and managing functions of the software development cycle. Real-time bit-mapped display editors like Zmacs provide a plethora of features that support productive programming as well as advanced text editing. The debugging tools provide facilities for breaking, tracing, and stepping through programs. Inspector and other structure and language oriented tools allow the user to examine and modify complex objects, to display them according to type of entity or point of view, to pan or zoom into them, etc. 4.4. The User Interface The user interface is a combination of hardware and software that gives the user easy access to all system components. Display is on a large size screen in black or in color on white background. The high-resolution bitmapped display can be directly addressed by a pointing cursor and a mouse. The human/computer dialogue takes mostly place through direct interactions in windows on the screen rather than via the keyboard. The keyboard is used mainly for entering new text. Functions are selected from display menus and tasks are activated in windows by clicking mouse buttons. Overlapping windows, temporary panes, pull-down windows, scroll bars, etc. dialogue techniques allow easy access and temporal and spatial extension of the physical screen. The displays are managed by a window system that allows the user to switch quickly from one window or process to another, to create, move, and modify windows, manage multiple tasks, etc. 4.5. Font Editor and Graphics Support The font editor allows the user to define new symbols and type fonts for characters and to store and download them. For the English alphabet many predefined fonts are provided as standard. The font editor can be used to modify and extend standard fonts or to design new character sets and fonts. New symbols are defined on a grid using the mouse or

XII. Operating Environment of Computational Linguistics

edited on grey background. Characters thus introduced can be named and assigned to keys, mixed in text with other fonts, displayed on the screen and printed on paper with high resolution of reproduction on laser printer. The window system includes graphic support that allows users to create and manipulate graphic objects and to define graphic interfaces to programs. The primitive graphic functions include drawing of points and lines, triangles, rectangles, and regular polygons, circles and curves, filling in areas, moving parts of pictures, etc. operations. 4.6. Help and Documentation Facilities Help facilities provide online system documentation of varying level of detail. Information is provided on a selective and context dependent basis. The user can get information on relevant command groups in a given situation and detailed advice on the use of individual commands and functions. One may ask for descriptions of functions and their arguments and values, consult a glossary utility of specific terms, and control the amount and rate of presentation of information. Mouse documentation prompts on currently available operations and a notification feature informs the user about events that are unrelated to what he/she is currently doing. 4.7. File System and Network Software LISP machines are normally used as professional workstations connected to a local area network (LAN). The network allows users to communicate with each other and to share software and files and peripheral services on networked equipment. Network gateway and communication software allow connections to remote computers and networks. The size of LISP machine system software is several megabytes large, in terms of LISP, over 1 0,000 functions. The virtual memory space available to user program varies from megabytes to gigabytes (24 to 32 bits of address space) depending on type of machine. With special software the address space can be extended to provide a virtual space of up to 50 bits of sixty-four bit words. Such size allow practically any number of machines to work in the same global space. Thinking of future requirements it is obvious that not the memory but rather the processor will become a bottleneck. Consequently, significant processor evolution becomes crucial.

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

5.

Symbolic Input/Output Requirements

5.1. Handling Special Scripts Character sets and type fonts used in writing and printing various languages are an important concern in linguistics. Traditionally the character sets used in data processing have been severely limited and based to the English language. Today text and language processing are done in many languages using different alphabets and scripts. Many languages that use Latin based alphabets require additional national letters. Some languages and whole groups use different phonetic scripts, e. g. Arabic, Armenian, Cyrillic, Georgian, Greek, and Hebrew. More complex writing systems are used in Asia. Linguists and philologists often need to process special symbols and notations (e. g. phonetic symbols). In historical studies ancient scripts and rare symbols are necessary. In international contexts and multinational environments several scripts or character sets may be needed simultaneously. In language teaching and translation environments it is often desirable to be able to handle two or more scripts on one and the same equipment. On general purpose computers this is not possible. Special multilingual systems have been developed for word processing. E. g. the system described in Becker (1 984) can handle twenty different languages including Chinese and Japanese. Word processing is, however, not the same as symbolic processing. It would be necessary to merge these technologies. The LISP machines and some advanced general purpose microcomputers allow to define and use alternative character sets, but leave much to be hoped for in user convenience. The problems derive from the lack of adequate code and character set standards that would take all human languages and scripts into account on an equal basis. Another reason is the hardware dependency of codes and character images. Keyboards consist of fixed number of keys and the codes and character images are fixed. Printers are based on fixed repertoire character chains, type wheels, or fixed size dot matrices, etc. The techniques used to codify characters and their images in hardware are diverse and hence the equipment often incompatible.

781

5.2. The Character Code Standards The standard ASCII and EBCDIC character code systems were designed for English language in mind. Hence they are inadequate for handling other scripts. The Japanese Industrial Standard JSCII (Japanese Standard Code for Information Interchange) code system is an attempt to cope with the problem in a global scale. It is based on a two-byte (7 × 7 bit) code that forms a 94 × 94 character matrix. In this system the ASCII characters consist one row. The following rows are assigned to Hiragana, Katakana, Greek, and Cyrillic. Then follow eight rows of empty space that can be used for other scripts. Kanji is divided into two levels and occupies the next 68 rows. The first level consists of 2984 Kanji that are arranged according to their Chinese reading (Japanese onreading), and the second level of 3384 Kanji arranged according to the radical system, totalling 6349 characters. After the Kanji there are 1 1 rows that can be assigned to Kanji extensions or other purposes. For character images different fonts are available based on dot grids of varying resolution, typically squares of 1 6, 24, 32 or 64 bits per side. Stored on memory chips the fonts can be used for character generation in display and printing equipment to obtain the required quality of reproduction. 5.3. The Printing Technology With printers based on electrostatic, thermal, or ink jet printing techniques high quality print images can be obtained. Laser beam printers are able to print on plain paper both character and general graphics at speeds and quality that are comparable to what has been traditionally possible only in photo typesetting. Thanks to compact semiconductor laser technology the printers are inexpensive and small enough to be conveniently placed on desktop. Due to raster scan and electrostatic recording method laser printers have wide application. In addition to printing and plotting they can be used for electronic mail, facsimile, and intelligent copying. 5.4. Automatic Text Input An important issue that concerns not only language and text processing, but automation more generally, is the problem of converting printed text into machine-readable form without retyping. Conventional optical char-

XII. Operating Environment of Computational Linguistics

782

acter recognition (OCR) equipment have been able to recognize only special OCR fonts. At best a small variety of commonly used typewriter fonts and formats has been accommodated. Through combination of advanced pattern recognition and artificial intelligence techniques it has become possible to broaden the scope of machine readable fonts. With intelligent scanning equipment such as the Kurzweil machine it is possible to read a wide range of everyday printed materials. Intelligent scanning systems can accommodate multiple fonts and font changes even within a document. With operator assistance they can be tuned to accept new types of fonts. 5.5. The Soft Display Key Concept Inspite of dramatic advances in automatic input/output techniques of both printed and spoken word, the direct interaction through keyboard and display still remains the primary means of human/computer communication. The keyboard is the sole component in today’s computer systems that has survived nearly unchanged since the days of the telegraph. The fifth generation may, however, change even that. The fixedness of key captions and their meanings make keyboards difficult and inefficient to use. Nearly everything else in computer systems can be programmed except the key captions. In many situations it would be convenient if one could change the key captions and their meanings (codes) under program control. This would be useful for solving variable and large character set problems. An alternative character set can be accommodated by a removable keyboard overlay or by temporary markings or tags attached to the keys if the alternative set is of the same size as the physical keyboard. In another technique the image of the alternative keyboard is displayed on the screen and the mouse is used to actuate characters. These techniques are, however, clumsy to use. Control and menu functions are often realized by displaying soft key labels on the rim of the display corresponding to an array of function keys on top of the keyboard. The functions are actuated by pressing the corresponding function keys. This technique works well for limited size variable menues and commands, but is not adequate for large and complex character sets such as Kanji. Special hardware or phonetic coding and

conversion techniques have been developed to allow flexible and natural Kanji input (Yamada 1 982). For character input it would be more convenient if the symbols to be input could be displayed and read by the user directly on the key tops. Such a technique called ’soft display key’ has been proposed in Seppänen (1 976) and suggested for Kanji input in Seppänen (1980). The soft display key concept provides a universal and hardware independent solution to all kinds of tactile symbol input problems. According to it display components are incorporated in the keys themselves and the character images are generated on the key tops under program control. Like the window technique on the screen, soft display key technique allows implementation of a virtual tactile symbol input interface and its intelligent support.

6.

New Programming Paradigms

6.1. The Next Generation Challenge The driving forces behind the development of LISP machines were the special requirements of symbolic processing and the advances of microelectronics and software technologies that made it possible. The core of LISP could be embedded in silicon and the software technology of symbolic computing developed by the LISP community over a period of 25 years could be integrated. The advances in terms of system performance, programmer productivity, and user friendliness from the IBM 605 to the LISP machine have definitely been dramatic. At the same time the underlying machine principles have, however, evolved only slightly. Inspite of continued progress of the semiconductor technology it is clear that major progress in computer performance cannot be obained merely by improving the hardware of the Neumann machines. New principles of machine architecture and organization have to be developed that may radically depart from the classical von Neumann model. It is generally agreed that the real challenges of artificial intelligence are not in computational efficiency, but rather in revealing the structure of language and knowledge, and in understanding the essence and basic mechanisms of intelligence. On the other hand it is believed that the computational power will ultimately prove to be a necessary condition for their implementation. Thus, both directions have to be pur-

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

sued and, indeed, this is the trend in the research into new generation computers. 6.2. Fifth Generation Computer Systems After four generations of computers the idea of the next generation is no surprise, but it was really taken for granted first by the Japanese as they set up the Fifth Generation Computer Systems (FGCS) project (MotoOka 1 982). The programme and its objectives are well known and need not be repeated here. What is important, is that the FGCS programme emphasizes the role of knowledge information processing and natural language in its aim to developed next generation computer systems and that it has motivated related (R & D) programs in other countries. The FGCS project attempts to integrate the major advances in key frontiers of computer science and technology. The main hardware and software concepts envisaged are VLSI, parallel architectures, and logic programming for processing of knowledge information, natural language, pictures, and very large relational data bases. The functions and applications are to be supported by various applied artificial intelligence, signal and pattern processing, human interface, graphics, etc. techniques. The proposed FGCS system architecture has been described as being composed of three levels of component systems, viz. machine (hardware system), modelling (software system), and the human and application systems. The upper level interfaces the user with various applications intelligently in speech, natural language, and pictures. The intermediate level consists of the basic software and an intelligent programming system and knowledge based support for both human interface and problem domains. The intelligent programming system includes problem solving, inference, and program synthesis, and knowledge of the machine domain. Finally the hardware system implements the problem solving and inference, knowledge base, symbolic manipulation, numerical computation, and knowledge base functions. The various functions are realized as a distributed-function architecture comprising dedicated processors for logical inference, relational algebra, knowledge processing, symbol manipulation, numerics, signal processing, graphics, data base access, etc. as required by the application. The processors are either dedicated innovative von Neumann

783

architectures or based on completely new principles and mechanisms. For efficiency they are implemented in VLSI, using possibly new basic technologies. The software of the upper level parts and application systems are to be implemented in various high level logic and knowledge programming languages. 6.3. New Programming Paradigms The principal stimuli for the development of new machine architectures have come from new ideas, concepts, and techniques that have emerged in programming. The conventional programming languages suffer from defects inherited from the von Neumann model. These include the separation of data from program and expression from statement, lack of means to define and use complex structures, powerful combining forms and abstractions, and mathematical properties for reasoning about and manipulating of programs. The intererst in new languages and programming paradigms has led to alternative ways of looking at computation. Typically, the new paradigms are not suited to the von Neumann computer. Instead, each view suggests its preferred way of computation organization and machine model and how to realize them more effectively as execution and control structures. The paradigms considered below are functional or applicative programming, rulebased programming, logic programming, relational and knowledge programming, and object-oriented programming. 6.4. Functional Programming Functional programming, the first alternative view of how programming can be done, was introduced with the inception of LISP (McCarthy 1 960, McCarthy/Abrahams/Edwards et al. 1963). Since then LISP has grown and digested a wealth of other programming concepts and features to the extent that as a practical programming language it has largely lost its pure functional nature and mathematical elegance. The functional view has, however, developed into a clean theory and programming paradigm known as functional and applicative programming (Backus 1 978). On these tenets other languages have been developed later, e. g. FP (Backus 1 978), KRC, and SASL (Turner 1 979). The functional view is well suited to computing with data structures, particularly with dynamic tree-like structures.

784

In functional programming one is concerned with specifying a solution to a problem as a collection of functions. Function definitions are declarative rather than imperative and typically recursive. The flow of control in program execution is more abstract than in traditional style programs. Computations are performed with structural expressions and pointers rather than with simple data items and values. In a purely functional computation nothing once computed is ever changed, but only inspected and referred to by later computations. From machine model point of view there is a mismatch of principles between the value-oriented functional view and the stateoriented von Neumann model. Therefore, functional languages cannot be implemented on conventional machines as efficiently as procedural languages. A number of new machine models and architectures have been proposed to implement functional and applicative languages. These are known as data flow and reduction machines. The associated control principles and execution mechanism will be briefly discussed in the next chapter. For a detailed review of the concepts we refer to Treleaven/Brownbridge/Hopkins (1 982, and Vegdahl 1 984, Darlington/Reeve 1 981 ), which also discusses some experimental systems, e. g. the ALICE (Application Language for Idealized Computing Engine) computer of Imperial College, Cambridge university SKIM, and Burroughs NORMA. See also Keller/Lindström/Patil 1( 979), Traub (1 985). In the LISP world there are several industry projects aiming at developing concurrent versions of LISP and parallel processor architectures for their support (e. g. Intels’s iPSC processor family). 6.5. Rule-Based Programming Production systems form a basis for building natural language grammars, rule-based expert systems, and a variety of other applications. A production system is a collection of transformation or inference rules called productions and a working memory. Each production has a left-hand side that is composed of one or more conditions and a right-hand side that consists of a transformation, a consequence or executable statements. The lefthand side conditions of a rule are matched with patterns in the working memory and when satisfied the right hand-side of the rule is executed and the working memory

XII. Operating Environment of Computational Linguistics

changed correspondingly. When no rule matches, the execution halts, otherwize the cycle is repeated. Since production systems are also slow to execute on conventional machines, efforts are taken to develop special architectures that support production rule processing. Examples are provided by the DADO project at Columbia University (Stolfo/Miranker/ Shaw 1 983) that aims at large-scale parallelism and the PSM machine of CarnegieMellon University (Forgy/Gupta/Newell et al. 1 984) that supports the OPS 5 family of production systems. 6.6. Logic Programming The idea behind logic programming is a view of programming and computing as a logic (Kowalski 1 974). It is based on a subset of predicate calculus, called Horn clauses, for which an effective proof procedure, the resolution algorithm (Robinson 1 965), is known. The standard logic programming language today is Prolog (Colmerauer/Kanoui/ Roussel et al. 1 973, Warren/Pereira/Pereira 1 977). A logic program consists of a collection of declarative clauses that can be viewed as a knowledge base. There is no formal difference between program, data, and queries in Prolog. Programming in logic constitutes stating the facts and relations that are true of a given problem rather than a giving detailed specification of how the problem is to be solved. The Prolog interpreter incorporates the necessary problem solving mechanisms. Program execution is effected by the interpreter that implements the automatic search and unification procedures for clauses in the knowledge base, the proof mechanism, and the backtracking when blind alleys are encountered. Unification is a process of bidirectional recursive pattern matching of structures. Thereby variables appearing on either side get automatically bound to their corresponding entities. As compared with functional programming, logic programming is more general, since it can handle relations that work in both directions while functions work in only one direction. Logic programming is attractive because of its naturalness, clarity, and lack of undue technical control structures. High level declarative style of programming and the automatic problem solving feature are also its merits. Logic languages are promising for imple-

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

menting language processing systems (Colmerauer 1 978). A grammar description can be given in terms of program clauses and parsing is effected directly as program execution with the basic mechanism. Definite clause grammar (DCG, Pereira/Warren 1 980) is a typical logic based grammar formalism. 6.7. Logic Based Machines Since logic program execution involves searching through and comparing large number of clauses in a knowledge base, efficiency of execution becomes important. To achieve a performance adequate for practical applications it is necessary to develop high-performance machines that can handle search, structure manipulations, and logic operations effectively. Thanks to its formal clarity, tree-like logical structure, and lack of side-effects logic programming offers good possibilities for parallel execution. Unify operations can be done in parallel for all maching clauses (or-parallelism) and different terms of composite rules can be evaluated in parallel (and-parallelism). Logic programming is currently developing rapidly and has already become a significant alternative to LISP (Warren/Pereira/ Pereira 1 977). The prospects of logic programming have been further strengthened by its adoption as a basis for the FGCS project by the Japanese. The first machine designed specifically for logic programming was the PSI machine (Personal Sequential Inference Machine) of ICOT (Yokata/Yamamoto/Taki et al. 1 984). The PSI is aimed to be used in development of more advanced parallel inference machines (PIM) in the FGCS program. The architecture of PSI is dedicated to direct execution of KLO, an initial version of the logic programming kernel language of FGCS. Application programming is to be done in higher level knowledge programming languages such as Mandala (Furukawa/Takeuchi/Kunifuji et al. 1983, 1984). In PSI the unification and backtracking operations are performed by hardware/firmware with the speed of about 30 K LISP (logical inferences per second), where 1 LISP is defined as a typical inference operation with a logical clause corresponding to from 1 00 to 1 000 machine instructions on a conventional computer. The speeds required of future parallel machines are estimated to range from 100 MLISP to 1 GLISP.

785

6.8. Relational Programming Relational programming is a more recent development and is still in an early stage. It is also more general than functional and logic programming. Relational programming is based on many-to-many relations that can work in both directions as in logic programming, but the relations and operations can be of more general type. Research is directed to complex relational structures and associated algebraic operations. Some results have been obtained in the fields of abstract data types, type hierarchies, structural algebras, category theory, object and class formalisms, and related areas that are expected to provide a more formal basis for knowledge representation and processing. 6.9. Knowledge Base Machines Beside inference machines, knowledge base machines (KBM) are essential components of the next generation computer systems. The role of a knowledge base machine is to store formalized knowledge and to allow various functions to be performed effectively on large collections of knowledge. In contrast to traditional data base processing a knowledge base machine can process multiple items simultaneously and in place, i. e. in the storage device itself without the need of data transfer. To achieve this it is necessary to develop new memory technologies and access mechanisms. Traditional data accessing is based on addressing. The device controller is presented with an address and the value stored at that location is returned by the access mechanism. This model of access is called location addressing and it works fine as long as the locations are known in advance. In knowledge processing, however, large sets of functions, rules, clauses, objects etc. entities are required in a mode where the next piece nor its location are not known beforehand. Instead, they must be searched for in a possibly large knowledge base. One way to realize this more efficiently is known as addressing by content. The idea of content addressing is to make use of the known properties of an entity such as form, content or other features at hand or computable rather than address location to facilitate access. Most of knowledge base machine research has been concerned with relational data

786

bases . The relational data model formulated as a relational algebra in Codd (1 970) is a formalism, that is concerned with operations on sets of data records of given types. The functions include performing searching, comparing, joining, projecting etc. operations on sets of uniform data records at a time. The requirement to perform these operations effectively has created the need of special data base machines . Data base machines are useful but not adequate for general language and knowledge processing, that involve polyform structures and operations. A number of data base machines have been proposed and built. E. g. ICOT announced its first prototype of the FGCS relational data base machine (RDMB) in 1984. 6.10. Object-Oriented Programming Object-oriented programming is a paradigm that is quickly becoming important in language and knowledge processing. The idea of computing with objects and classes was first introduced in Simula (Dahl/Myhrhaug/Nygaard 1 971 ), a language intended for modelling and simulation of various kinds of real systems. Later the object concept was developed into a general programming metaphor in the Smalltalk system (Goldberg/ Robson 1983). In fact, root elements of object thinking can be found already in the early propertylist feature of LISP (McCarthy/Abrahams/ Edwards et al. 1 963). Various object models have also been developed for artificial intelligence programming (Hewitt/Bishop/ Steiger 1 973), knowledge representation (Minsky 1 975), human/machine interface (Teitelman 1 978), and for data abstraction (Liskow 1979). Traditionally computing has been seen as instructions and procedures that operate on data that is separate from the program. If in the functional and logic programming paradigms the separation has been obscured, then in the object-oriented view it totally vanishes. There are only one kind of entities, namely objects that contain both data and functions (methods) as their attributes. Objects of a given type constitute a class and classes form hierarchies with respect to sets of properties that they share. Special mechanisms are provided to allow new classes to automatically inherit properties from one or more of its superclasses. Hence a

XII. Operating Environment of Computational Linguistics

concise definition of new classes with reference to other classes becomes possible. Actual object instances are created by invoking class definitions like functions. Computation and control are effected through message passing. Object instances send messages to each other and react on messages they receive. The receiving object inspects the message and triggers an appropriate function (method) that may generate and send new messages etc. Different types of objects may react to one and the same message in different ways. Thus a generic functionality and a high degree of autonomy of control are achieved. The object model is considered as highly promising for language and knowledge processing. It allows large and complex systems to be described concisely in an abstract and flexible framework. Complex interactions can be handled in distributed, self-contained, well-defined, and transparent way. Object models have been implemented also as extensions to existing languages, e. g. LISP and Prolog. Noteworthy of these are the Flavor system of Zetalisp (Weinreb/Moon 1 981 ), the Loops and Common Loops systems of Xerox. Several proposed object formalisms are being investigated and considered for adoption to Common LISP and various object-oriented extensions to Prolog. An early attempt to provide hardware support for objects was the Dorado high-performance personal computer (Lampson/Pier/ McDaniel et al. 1 981 , Deutsch 1 982, Pier 1 983) developed for Smalltalk-80 and LISP. Later object thinking has been applied to memory organization in operating systems (Tokoro 1 983, Ishikawa/Tokoro 1 984). In processor design object support is known with the term capability-based architecture. An example is provided by the Intel iAPX 432 processor. Hardware support for objects is provided also in the LISP machines and it will be part of the LISP microprocessor. Special hardware for high speed property inheritance and related operations is envisaged in the so called interconnection machines (Fahlman 1979 b, Hillis 1 982). Also the Japanese Prolog machines are expected to evolve toward hardware support of the object concept and programming. 6.11. Very High-Level Languages To anticipate the future trends of programming languages for symbolic computing

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

and subsequently machine architectures, we conclude by quoting the opinion of some renowned experts in the field. John Backus the father of FORTRAN, who later became a strong proponent of functional programming (Backus 1 978) has stated that ”conventional high-level languages are still very weak and far more powerful languages would be in use today if anyone had found a way to make them run with adequate efficiency. In other words the next revolution in programming will take place only when both (...) a new kind of programming language has been developed (...) and a technique has been found for executing its programs at not much greater cost than that of today’s programs” (Backus 1981). John McCarthy, the father of LISP, believes that ”(...) Lisp will probably be superseded for many purposes by a language that does to Lisp what Lisp does to machine language. Namely it will be a higher level language than Lisp that can like Lisp and machine language, refer to its own programs. (...) the text written by the user will be more like a declarative description of the facts about the goal and the means available for attaining it than a program per se” (McCarthy 1980). With the strides made by LISP and Prolog the above statements are becoming true, but still the question of LISP vs. Prolog is often raised. According to Alan Robinson, the inventor of the resolution principle, ”... After all it seems that this need not really by an issue, since the functional and relational views are very close. Rather than one replacing the other it seems more likely that each one will be absorbed by the other and digested into a higher synthesis embodying both and much more ...” (Robinson 1 985). This view seems to find support in the general feeling that it is necessary to provide support for multiple paradigms in the machines and languages of the new generation.

7.

New Machine Concepts

7.1. Control Principles The problem of hardware design is complicated by the fact that different tasks require different capabilities. These range from lowlevel signal processing, numerical, and symbol manipulation capabilities needed in the intelligent interface to language and knowl-

787

edge processing, inference and problem solving, knowledge base management, and other specialized functions. Before discussion of various machine models it is useful to consider briefly the main principles of how computation and control can possibly be organized. 7.2. Parallel Machines First the ordering of computations can be either sequential or parallel as we have seen in the basic von Neumann model and its variations. Similarly in non- von Neumann machine models execution and control can be parallel to the extent that the processing tasks are independent of each other. In sequential execution a single control thread is maintained while in a parallel execution multiple threads may unfold simultaneously. Parallel executions may be effected by a single processor in a time-multiplexed mode or by a multiple of processing elements working in parallel. 7.3. Recursive Machines In addition, there is a third scheme known as recursive machine (Glushkov/Ignatyev/Myasnikov et al. 1 974, Davis 1 978, Treleaven/ Hopkins 1 982, Pulkkis 1 984), where execution and/or control are exercized in a recursive manner. This scheme has not been much investigated yet. Recursive execution becomes feasible in processing of language and program structures that are recursive themselves. Traditionally machine language programs have consisted of sequences of fixed format instructions and simple data items. In higher level declarative languages programs are often composed, either textually or logically, of nested expressions of arbitrary depth and size. Recursive machines may be suitable for processing such programs. Because the program is reduced step by step the execution scheme is often called reduction and the processors reduction machines. In a non-recursive machine earlier computation states along the control thread are lost as instructions are executed. In a truly recursive machine instead, the mechanism creates a memory trace of its computation history and is able, if necessary, to use it in its further computations. In addition, the control will ultimately return with the final computed value as a result. The recursive scheme has a built-in capability for backtracking of

788

computations. Such a scheme, however, consumes a lot of memory. 7.4. Explicit and Implicit Control The principle of control used in a computer system to effect instruction execution can be either explicit or implicit. The von Neumann model has explicit control. Hence, its computations are said to be control-driven. In implicit control two principles are possible. They are called data-driven and demand-driven control and will be introduced below. Parallel and recursive execution and control as well as sequential can be realized with either control-driven, data-driven, or demand-driven control modes by using a single processor and appropriate memory and timemultiplexing arrangements. The execution mechanisms themselves need not be parallel or recursive. Better performance is, however, achieved with dedicated parallel and recursive mechanisms respectively. 7.5. Data Flow Machines In the data flow model instructions are executed when the values for all of the necessary input operands are ready and can be assigned to computing elements. As a result of execution operands are consumed and output values are produced. The values then flow directly into argument positions of the next instructions in a netflow fashion. In this model a program is represented by a directed graph showing the flow of data between instruction nodes. The sequencing of operations is determined implicitely by the flow of data instead of an explicit external program counter and registers as in the von Neumann model. In a real computer there is only a finite number of computing elements to which computations can be assigned. Therefore, the data flow scheme requires a control structure that can recognize when an instruction is ready to execute. Also an interconnection mechanism is necessary that can forward instructions and values between memory and the processing elements. The data flow concept fits well to functional and applicative languages, but can not be efficiently implemented on von Neumann type machines because of the context switching and communication overhead required by parallel processing by distributed elements. On the other hand ordinary languages and programs cannot make effective use

XII. Operating Environment of Computational Linguistics

of data flow architectures although with appropriate compilers they may, perhaps, be used. A data flow machine provides independence of operations that may be executed in parallel. Several prototype data flow machines have been designed and constructed. For a review see Treleaven/Brownbridge/Hopkins (1 982). Some systems have been developed specifically for symbolic computing, e. g. Yamaguchi/Toda/Yuba (1983). 7.6. Demand-Driven Machines In the demand-driven scheme the execution of an instruction is triggered by the requirement of a value for an input operand of the instruction. As in the data-driven model, the input values are consumed and output values produces as a result of execution. This model is well suited to execution of programs written in functional, and more generally, in relational and logic programming languages. It supports well parallel computations and an execution scheme known as lazy evaluation that will be discussed in a moment. In both data-driven and demand-driven models control is implicitly contained in the function calling and parameter and value passing structure of the program. The difference between the two is a question of direction of control flow. In the data-driven scheme control flows in a bottom-up fashion from data to the final value of the program while in the demand-driven control the direction is the opposite. 7.7. Reduction Machines The reduction machine is essentially an approach to the implementation of data flow machines. The idea was originally proposed by Berkling (1 971 , 1 975). According to it a program is considered as one expression that is reduced through step by step transformations into its final value. The basic operations in reduction are substitution and rewriting. As a result of each operation either a reduced expression or a value is produced in place. There are two basic types of reduction, string reduction and graph reduction . These differ in the type of arguments and the way how they are handled. In string reduction each reference is substituted by a separate copy of the definition referenced while in graph reduction manipulations are based on sharing of arguments by means of pointers. In the reduction scheme not only control, but also the computation environment are

64.  Special Hardware and Computer Architecture in View of Computational Linguistics

contained in the program. No intermediate variables are needed. A purely functional program can be translated into a form, from which all bound variables have been removed. Although such a code may be quite unreadable for human beings it can be effectively executed by a fairly simple type of machine (Turner 1979). Using results from lambda-calculus and combinatory logic (Church 1 941 , Curry/Feys 1 958), a reduction machine can operate on arbitrarily high level language concepts and abstractions such as hierarchical data structures, functional arguments, and function-valued functions that are obtained through combinators. The reduction technique allows independent parts of a program to be reduced in parallel. Computation rules determine the allocation of computing elements for each reduction. Because of its aptness for parallel operations and the emphasis on structural and functional abstraction the reduction concept looks very promising for language and knowledge processing. 7.8. Evaluation Principles To evaluate expression-like programs one can use two strategies that differ again in their direction of control flow. The computation can proceed either from inside out or from outside in. These are called innermost and outermost reduction principles and they correspond to the call-by-value and call-byname mechanisms known from traditional function call and execution schemes. The latter is closely related to the demand-driven control while the the former is typical of the data-driven model. In lambda-calculus and evaluation of pure functional programs one can use either scheme and each will give the same result (except for certain special cases, e. g. when the computation of an argument that is not used in the body does not terminate). For practical reasons call-by-value is, however, usually preferred, i. e. the argument forms are first evaluated and then the body using the values of the arguments. In call-by-name the arguments are not evaluated until they are referred to in the body. In addition, an argument form is re-evaluated every time it is required. 7.9. Lazy Evaluation Demand-driven control allows an evaluation

789

scheme that is called lazy evaluation (Friedman/Wise 1 976, Henderson/Morris 1 976, Turner 1 979). In lazy evaluation an argument is passed unevaluated and evaluated only when the value is actually required. This is like call-by-name but, once an argument has been evaluated, its value is remembered (effectively turning it into a call-by-value argument) so that it need not be recomputed when referenced again. Lazy evaluation thus combines the advantages of both call-by-name and call-by-value. At any moment computations are performed in any direction only as far as it is actually necessary. A lazy evaluator must remember the unevaluated forms and parameters, i. e. the state and environment of suspended evaluations. This can be handled by function closure or various control process mechanisms. Alternatively, the computation state can be incorporated in the program itself as in the reduction scheme. Then the program object itself represents at any stage of reduction both the value and the state of computation. Lazy evaluation appears very suitable for nondeterministic and context sensitive computing with structured entities that is typical of natural language and knowledge processing. Machines incorporating lazy evaluation mechanisms have not been built yet, but experimental software implementations have been made for LISP and some experimental functional languages. I am grateful to Eero Hyvönen, Ora Lassila, and Göran Pulkkis for their suggestions, helpful discussions, and commenting on the paper during its preparation. Thanks are also due to Akira Shimazu from NTT for information about the Lisp machine situation in Japan.

8.

Literature (selected)

J. Backus 1 978; 1 981 · A. Bawden/R. Greenblatt/ J. Holloway/T. Knight/D. Moon/D. Weinreb 1 979 · J. L. Bear 1 984 · J. D. Becker 1 984 · G. Bell 1 984 · K. J. Berkling 1 971 ; 1 975 · D. Bobrow/M. Stefik 1 983 · R. S. Boyer (ed.) 1 984 · Brattle Corp. 1 984 · A. Church 1 941 · H. B. Curry/R. Feys 1 958 · E. F. Codd 1 970 · A. Colmerauer/H. Kanoui/P. Roussel/R. Pasero 1 973 · A. Colmerauer 1 978 · O.-J. Dahl/B. Myhrhaug/K. Nygaard 1 971 · J. Darlington/M. Reeve 1 981 · A. L. Davis 1 978 · L. P. Deutsch 1 973; 1 982 · S. E. Fahlmann 1 979 b · M. J. Flynn 1 972 · C. Forgy/A. Gupta/A. Newell/ R. Wedig 1 984 · D. Friedman/D. S. Wise 1 976 · K. Furukawa/A. Takeuchi/S. Kunifuji 1 983 · K. Fu-

XII. Operating Environment of Computational Linguistics

790

rukawa/A. Takeuchi/S. Kunifuji/H. Yasukawa/ M. Ohki 1 984 · B. R. Gaines 1 984 · V. M. Glushkov/M. B. Ignatyev/V. A. Myasnikov/V. A. Torgashev 1 974 · A. Goldberg/D. Robson 1 983 · E. Goto et al. 1 982 · R. Greenblatt 1 974 · R. D. Greenblatt 1 984 · H. Hayashi/H. Hattori/H. Akimoto 1 983 · P. Henderson/J. Morris 1 976 · C. Hewitt/P. Bishop/R. Steiger 1 973 · D. Hillis 1 982 · E. Hyvönen/J. Seppänen/M. Syrjänen 1 984; (eds.) 1 984 · M. Ida et al. 1 977 · Y. Ishikawa/M. Tokoro 1 984 · R. Kaplan/J. W. Bresnan 1 982 · M. Kay 1 985 · R. M. Keller/G. Lindström/S. Patil 1 979 · T. Knight 1 974 · R. A. Kowalski 1 974; 1 985 · T. Kurokawa 1 979 · B. P. Lampson/K. A. Pier/ G. A. McDaniel/S. M. Ornstein/D. W. Clark 1 981 · O. Lassila 1 986 · B. Liskow 1 979 · Lisp Machine Inc. 1 983 a; 1 983 b · H. Maegawa/T. Saito/T. Doi/T. Nishikawa 1 985 · J. McCarthy 1 960 · J. McCarthy/P. W. Abrahams/D. J. Edwards/T. P. Hart/M. I. Levin 1 963 · J. McCarthy 1 980 · M. Minsky 1 975 · D. A. Moon 1 984; 1 985 · J. S. Moore 1 976 · M. Nagao et al. 1 977 · M. Nagao/K. Nakajima/K. Kitamura/H. Itoh/T. Kawaguchi 1 979 · H. G. Okuno/I. Takeuchi/N. Osato/Y. Hibino/K. Watanabe 1 984 · E. I. Organick 1 973 · F.

C. N. Pereira/D. H. D. Warren 1 980 · K. A. Pier 1 983 · G. Pulkkis 1 984 · A. Robinson 1 965; 1 985 · J. P. Sansonnet/M. Castan/C. Percebois/D. Botella/J. Perez 1 982 · J. Seppänen 1 976; 1 980 · T. Shimada/Y. Yamaguchi/K. Sakamura 1 976 · B. Sheil 1 983 · J. Spoerl 1 984 · R. M. Stallman 1 979 · G. L. Steele/G. J. Sussman 1 980 · G. L. Steele Jr. 1 983 · G. Stefan/A. Paun/V. Bistriceanu/A. Birnbaum 1 984 · S. J. Stolfo/D. Miranker/D. E. Shaw 1 983 · G. J. Sussman/J. Holloway/G. L. Steele/A. Bell 1 981 · Symbolics Inc. 1 983 · C. Thacker/B. Lampson/R. Sproull 1 979 · W. Teitelman 1 978 · W. Teitelman 1 978 · W. Teitelman/L. Masinter 1 981 · Texas Instruments 1 984 · L.-E. Thorelli (ed.) 1 983 · M. Tokoro 1 983 · K. Traub 1 985 · P. C. Treleaven/D. R. Brownbridge/R. P. Hopkins 1 982 · P. C. Treleaven/R. P. Hopkins 1 982 · P. C. Treleaven 1 983 · D. A. Turner 1 979 · S. R. Vegdahl 1 984 · D. H. D. Warren/L. M. Pereira/F. Pereira 1 977 · D. Weinreb/D. A. Moon 1 981 · S. Wholey/ S. E. Fahlman 1 984 · H. Yamada 1 982 · Y. Yamaguchi/K. Toda/T. Yuba 1 983 · M. Yokata/A. Yamamoto/K. Taki/H. Nishikawa/S. Uchida 1984.

Jouko Seppänen, Helsinki (Finland)

65. Graphikumgebung als arbeitspraktisches Ausstattungsbeispiel 1. 2. 2.1. 2.2. 2.3. 2.4. 3.

4.

1.

Einleitung Graphikbedarf in der Linguistik und computergestützte Lösungsversuche Erste sprachkartographische Projekte mit Rechnereinsatz Neuere computergraphische Konzepte in der Sprachkartographie Schriften, Lautschriften Verstreute Graphikanwendungen Arbeitspraktische Situation linguistisch orientierter Computergraphik: Stand und Perspektiven Literatur (in Auswahl)

Einleitung

Die Entwicklung der Computergraphik vollzieht sich gegenwärtig derart rasant, daß eine Darstellung ihrer Möglichkeiten stark der Gefahr ausgesetzt ist, sehr bald überholt zu sein. Die Vielzahl der Produktlinien der sich der graphisch interessierte Sprachwissenschaftler gegenübersieht — von graphikfähigen Bildschirmen, Matrix- und Typenraddruckern, über Tisch- und Walzenplotter, Hardcopygeräten, Digitizern bis hin zu kompletten Desktop-Publishing-Systemen mit Laserdruckern und Scannern — macht die

Wahl der „richtigen“ Geräte für den Graphikbedarf in der Linguistik nicht eben einfach. Hinzu kommt, daß hochleistungsfähige Gerätesysteme wie z. B. Laserdrucker mit proportionalem Blocksatz eine immer komplexere Softwareunterstützung benötigen und häufig nur innerhalb geschlossener Anwendersysteme wie z. B. dem Textsystem WORD betrieben werden. Um die graphischen Möglichkeiten voll ausnutzen zu können, ist immer stärker die Hilfe von Fachkräften gefragt, und dies schafft Abhängigkeiten, die die vielfach immer noch bestehende Zurückhaltung gegenüber informatischen Methoden innerhalb der Linguistik nicht gerade abzubauen helfen. Von der Sache her hat die Sprachwissenschaft — besonders die empirische — hohe Anforderungen an die Computergraphik zu stellen. Soll, um nur zwei Beispielfälle zu nennen, das Niveau handgezeichneter Sprachatlanten oder von Druckwerken mit größerem Lautschriftanteil erreicht werden, so genügt normalerweise das Angebot der Gerätehersteller und Softwarehäuser nicht. Es müssen eigene Problemlösungen versucht werden, die oft sehr speziell sind und für die wegen des geringen Marktgewichts der Linguistik kommerziell arbeitende Softwareher-

65.  Graphikumgebung als Ausstattungsbeispiel

steller nur wenig Interesse zeigen können. Diese Situation stellt sich der sprachwissenschaftlichen Forschung — soweit sie universitär betrieben wird — innerhalb einer Personallage, die als angespannt bezeichnet werden muß. Neue Stellen für qualifizierte computerlinguistische Mitarbeiter werden, wenn überhaupt, nur sehr zögernd geschaffen; ein Großteil der Arbeit bleibt studentischen und wissenschaftlichen Hilfskräften überlassen, deren vergleichsweise kurze Arbeitsverträge im allgemeinen kein günstiges Verhältnis zwischen Einarbeitungszeit und echter Projektarbeit möglich machen. Damit ist das Problemfeld, in dem die linguistisch orientierte Computergraphik zu arbeiten hat, umrissen: einerseits ein schwer zu überschauender Markt von Geräten, deren Anschaffung häufig personelle Konsequenzen nach sich zieht, andererseits hohe graphische Anforderungen spezieller Art in einem Arbeitsumfeld, das durch eine prekäre Personalsituation und durch Skepsis in den eigenen Reihen geprägt ist. Es soll in den folgenden Abschnitten versucht werden, die hier angedeuteten Spannungslinien herauszuarbeiten und Arbeitsstrategien aufzuzeigen, die dem computergraphisch arbeitenden Linguisten in seiner Situation angeraten sind. Dies geschieht vor allem am Beispiel zweier Einsatzgebiete mit hohem Graphikbedarf: der Sprachkartographie, die bereits auf eine breite Anwendung computergraphischer Methoden zurückblicken kann, und dem Problemfeld der Lautschriftalphabete. Zentraler Aspekt ist hierbei die Gerätefrage, das Hardwaretechnische; es ist indessen unvermeidlich — gerade im Falle der besonderen Arbeitsspezifik der Computerlinguistik —, daß auch softwareseitige Konzeptionen und Realisierungen mitbehandelt werden müssen.

2.

Graphikbedarf in der Linguistik und computergestützte Lösungsversuche

2.1. Erste sprachkartographische Projekte mit Rechnereinsatz Bereits Ende der sechziger Jahre gibt es in Japan (vgl. Tokugawa/Yamamoto 1 967 und Grootaers 1 970), der Bundesrepublik Deutschland (vgl. Putschke 1 969) und den USA (vgl. Francis u. a. 1 969) systematische Versuche, den Rechner zur Erzeugung von Sprachkarten einzusetzen. Die apparativen Möglichkeiten sind indessen noch sehr einge-

791

schränkt; zur Kartenausgabe stehen Schnelldrucker und auch schon Plotter zur Verfügung (vgl. Putschke/Neumann 1 982), deren graphische Möglichkeiten aber nur teilweise befriedigen können: Schnelldrucker sind von der Sache her in ihren graphischen Ausdruckmitteln beschränkt (grobe Rasterung, geringes Zeicheninventar), wenn sie nicht im Gaphikmodus betrieben werden können, was dann aber softwareseitig größeren Aufwand erfordert. Plotter sind prinzipiell universelle Zeichengeräte; ihre Präzision und ihre programmtechnische Beherrschung reifen jedoch erst nach und nach. Eine Beurteilung der computergraphischen Leistung innerhalb linguistischer Projekte hat stets zu berücksichtigen, daß die apparativen Möglichkeiten, die dem Sprachwissenschaftler faktisch zur Verfügung stehen, oft nicht den technischen Stand seiner Zeit repräsentieren. Die arbeitspraktische Situation sieht meist so aus, daß mit den Geräten gearbeitet wird, an die man herankommt; für maßgeschneiderte Gerätelösungen fehlen häufig schon die Marktkenntnisse, meist aber die erforderlichen finanziellen und personellen Mittel. So ist es u. U. als Realitätssinn zu werten, wenn 1 986, zu einer Zeit, in der leistungsfähige Desktop-Publishing-Systeme angeboten werden, ein computergestütztes dialektgeographisches System vorgestellt wird, das Karten mit einem Matrixdrucker erzeugt, die anschließend photomechanisch in eine Grundkarte montiert werden (Larsson 1986). Ein Beispiel für ein Sprachkartographieprojekt mit hohen graphischen Ansprüchen und entsprechender Geräteausstattung stellt der ALE (Atlas Linguarum Europae — Europäischer Sprachatlas) dar, der seit 1 975 am Forschungsinstitut für deutsche Sprache — Deutscher Sprachatlas betrieben wird. Zur Herstellung der publikationsgeeigneten Endkarten konnte ein Präzisionsplotter (Geograph-Aristomat-Tischplotter mit DINA0-Zeichenfläche) angeschafft werden, dessen technische Auslage eine gute graphische Qualität versprach und schließlich auch gewährleistete. Der Projektverlauf zeigt indessen, daß die Arbeit mit hochleistungsfähigen graphischen Spezialgeräten durchaus nicht unproblematisch ist: Zum Betreiben des Geräts ist speziell eingearbeitetes Personal erforderlich. Das Symbolinventar, das die Grundsoftware bereitstellt, erwies sich quantitativ und qualitativ als völlig unzureichend; der Ausbau auf bis schließlich weit mehr als tausend Symbole

792

mit Hilfe von Stützpunktverfahren war sehr arbeitsaufwendig. Als Problem erwies sich auch die Treibersoftware; ein Rechnerwechsel z. B. bewirkte längere Zeit den Ausfall bestimmter Interpolationsmöglichkeiten, was die graphische Qualität der Zeichnungen stark beeinträchtigte. Auch die Arbeitsgeschwindigkeit (mehrere Stunden für eine ALE-Karte) ließ Wünsche offen, und selbst die Präzision mancher Zeichnungen konnte vor dem kritischen Blick des Graphikers nicht bestehen; ein gewisser Teil der Reinzeichnungen — sogar im Schichtgravurverfahren — mußte wiederholt werden. Die verwendete Graphiksoftware war eher traditionell ausgelegt; die konsequente Punktsymbol-Kartiertechnik, die das Belegsymbol direkt, am entsprechenden Ortspunkt, einzeichnete, gestattete über die Symbolgrößenwahl eine weitgehende Überdeckungsfreiheit. Für die gesamte Grundkartenproblematik erwiesen sich die verfügbare Software und die Geräteausstattung als zu unzulänglich; mit der Lösung des Problems wurde ein kommerzielles kartographisches Institut beauftragt. Um den großen Kreis der mit dem ALE beschäftigten Dialektologen besser in die computergraphische Arbeit einbeziehen zu können, wurde am Marburger Forschungsinstitut ein dialektologischer Arbeitsplatz eingerichtet: Mithilfe einer Gerätekonfiguration, bestehend aus einem Personalcomputer, der mit einem Großrechner vernetzt war, mit angeschlossenem Digitizer und Plotter, konnten auch von EDV-Laien eigene Symbolkonstruktionen und Kartenbilder durchgetestet werden. Das Echo bei den Angesprochenen war indessen gering; die Hauptlast der computergraphischen Arbeit verblieb den Experten. 2.2. Neuere computergraphische Konzepte in der Sprachkartographie Großangelegte Projekte wie der Europäische Sprachatlas sind im linguistischen Forschungsbetrieb eher die Ausnahme; die ’normale’ Sprachkartographie muß mit bescheidenen Mitteln auskommen. Daß dennoch im Verlaufe der achtziger Jahre eine Reihe von Atlasprojekten erfolgreich durchgeführt wurden und werden, ist zum großen Teil der Tatsache zu danken, daß computergraphische Geräte vielgestaltiger, leistungsfähiger und preisgünstiger — und damit auch zugänglicher — wurden. Diese an sich positive Ent-

XII. Operating Environment of Computational Linguistics

wicklung bringt den computergraphisch arbeitenden Linguisten aber mehr und mehr in eine Situation, die ihn überfordert. Selbst wenn es ihm gelingt, die verwirrende Marktlage zu durchblicken, und wenn seine Mittel ausreichen, jede Geräteanschaffung wirft neue Fragen auf: Platz für die Aufstellung, sachgerechter Betrieb und Wartung, sinnvolle Auslastung. Hier kommen den Hochschulrechenzentren wichtige Aufgaben zu, nämlich Sachkompetenz zur Verfügung zu stellen und Gerätekonfigurationen anzubieten, die für anspruchsvolle Computergraphik unerläßlich sind, auch wenn sie u. U. eher selten gebraucht werden. Am Beispiel des Hessischen Flurnamenatlas (Hessischer Flurnamenatlas 1 987) soll im folgenden skizziert werden, wie sich ein größeres Namenatlasprojekt innerhalb einer verstreut verfügbaren Gerätelandschaft realisieren läßt. Die Herstellung einer geeigneten Grundkartenbasis im Rechner mußte in Eigenarbeit geleistet werden, nachdem sich erwiesen hatte, daß weder amtliche Stellen noch geowissenschaftliche Institute hier nachhaltige Unterstützung bieten konnten; die Beauftragung eines kommerziellen kartographischen Instituts schied aus finanziellen Gründen ohnehin aus. Alle Digitalisierungen — die des hessischen Ortsnetzes von etwa 3000 Gemarkungen, die des Landesumrisses und die eines Flußnetzes — stellten sich als langwierige Prozesse heraus, die mit Hilfe dreier verschiedener Digitalisiersysteme — zunächst in Frankfurt, später in Gießen und schließlich in Marburg — auf der Basis unterschiedlichen Kartenmaterials durchgeführt wurden. Die Überprüfung der Digitalisierungen am Rechner und durch Plotterzeichnungen — bis zur Reinzeichnung der Karten waren insgesamt vier unterschiedliche Plottersysteme im Einsatz — ergab immer wieder Unstimmigkeiten. So erwies es sich z. B. als schwierig, die Mündungsstelle eines Flußes genau zu treffen, und dies lag meist weder an einer zu geringen Präzision der Geräte noch an fehlender Konzentration; bereits die unterschiedliche Faltung zweier gleicher Karten konnte bewirken, daß ein Fluß über seine Mündungsstelle hinausging. Gravierender noch war die Tatsache, daß sich selbst Originalkarten gleichen Maßstabs oft nicht zur Deckung bringen ließen. Die Lösung brachte schließlich eine ’Mosaiktechnik’, die den Digitalisiervorgang und die Auswertung der gewonnenen Daten strikt trennt: ein kartographisches Element, ein

65.  Graphikumgebung als Ausstattungsbeispiel

Fluß beispielsweise, wird möglichst genau aufgenommen und durch weitere Datenaufnahmen, etwa eine Reihe von Städten, die in seiner Nähe liegen, geographisch beschrieben; zur vollständigen Beschreibung eines Flußes z. B. gehört auch die Angabe des Flusses, in den er mündet. Beim Zeichnen der Karte nun wird das graphische Element mit Hilfe seines eigenen (Mikro-)Bezugssystems in die Zeichnung ’hineingerechnet’, was auch die Errechnung z. B. einer Mündungsstelle einbeschließt. Die softwareseitige Manipulation graphischer Elemente behebt mithin Mängel, die in vorliegendem Fall durch den Zeichnungsträger Druckkarte verschuldet sind. Eine solche Bearbeitung darf nicht in dem Sinne mißverstanden werden, daß durch nachträgliche Datenkosmetik eine nicht vorhandene Genauigkeit vorgetäuscht werden soll; es ist durchaus legitim, Graphikdaten, deren Präzision beschränkt ist, so wieder auszugeben, daß das Charakteristische der Zeichnung — hier einer Flußkarte — möglichst gut zum Ausdruck kommt. Das logische Absetzen der Graphikeingabe von der eigentlichen Graphikproduktion stellt in gewissem Sinne die Normierung einer ganzen Geräteklasse — hier der Digitizer — dar: nachdem die — möglichst exakt aufgenommenen und möglichst gut bezogenen — Graphikelemente mit Hilfe von — allerdings gerätespezifischer — Adaptionssoftware auf das Format der Produktionsprogramme gebracht sind, ist ihr Status einheitlich; sie existieren nun als ’bewegliche Mosaiksteine’ eines Gesamtbildes, und lediglich ihre graphische Qualität ist noch gerätabhängig. Die softwareseitigen Probleme bei der Graphikproduktion können hier nur skizziert werden: Das Vorgehen erfordert Transformationstechniken sehr flexibler Art, die es auch gestatten sollten, aus einer Menge von Bezugspunkten die geeignetsten auszuwählen. Des weiteren sind Qualitätstest nützlich, die z. B. in der Lage sind, Aussetzer des Aufnahmegeräts — erkennbar an zu großen Punktabständen — aufzuspüren. Zentral sind geometrische Operationen allgemeiner Art wie der Schnitt zweier Linien, die als Stützpunktketten gegeben sind, der kleinste Abstand eines Punktes von einer Stützpunktkette usw. Schließlich sollte auch die Darstellung der Graphikelemente selbst manipulierbar sein; so ist es gelegentlich von Vorteil, den Umriß eines Untersuchungsgebietes mit größerem Stützpunktabstand zu zeichnen, um so — z. B. in verkleinerten Nebenkarten

793

— eine eher schematische Darstellung zu erzielen. Die skizzierte Trennung der Graphikerzeugung in zwei autonome Schritte schafft nicht nur eine weitgehende Geräteunabhängigkeit, sie gestaltet auch ein flexibles Arbeiten am endgültigen Bild einer Computerzeichnung. So entstand die Grundkarte des Hessischen Flurnamenatlas im Verlauf eines Interaktionsprozesses zwischen Graphikern und Computern, innerhalb dessen zu dichte Kartenteile ausgedünnt, zu leere aufgefüllt und graphisch unbefriedigende Elemente ausgetauscht wurden. Diese Arbeit konnte dann auch als kartographische Basis für die ’Wortgeographie der städtischen Alltagssprache in Hessen’ (vgl. Friebertshäuser/Dingeldein 1 987) verwendet werden und steht weiteren Anwendungen ähnlicher Art zur Verfügung. Der Bedarf an graphischer Interaktion ist bei der Gestaltung der thematischen Aussage einer Sprachkarte noch größer. Ehe die areale Verteilung von Sprachphänomenen graphisch befriedigend zum Ausdruck kommt, ist in der Regel eine ganze Reihe von Versuchen mit unterschiedlichen Symbolvarianten erforderlich. Falls hier bei der Graphikerzeugung Plotter verwendet werden, zerfällt die Arbeit des computergraphisch orientierten Linguisten in zwei Teile: in eine Phase des Ausprobierens, die i. a. längere Zeit beansprucht und für die ein schnelles, leicht zugängliches Ausgabegerät nützlich ist, und in eine Phase der Produktion endgültiger Druckkarten, die normalerweise kürzer ist, aber einen möglichst präzisen, leistungsfähigen Plotter erfordert. Es liegt auf der Hand, daß die Testarbeit dann besonders erfolgreich ist, wenn alle verwendeten Ausgabegeräte ’möglichst ähnliche’ Graphikerzeugnisse liefern. So ist es u. U. schwierig, sich die graphische Wirkung einer Symbolisierung vorzustellen, wenn Zeichen, die auf dem Präzisionsplotter mit Hilfe spezieller Interpolationsverfahren rund gezeichnet werden, auf dem Testplotter wegen des Fehlens solcher Möglichkeiten eher eckig erscheinen. Eine Lösung dieses Problems ist auch hier durch die Verlagerung eines Teils der Zeichenarbeit in den softwareseitigen Bereich mögich: Verzichtet man auf alle Spezialfähigkeiten der Plotter — z. B. Interpolationen, Kreisfunktionen, Alphabete — und übergibt ihnen alle Linienzüge als Stützpunktketten — die gerundeten so dicht, daß sie dem Auge nicht mehr als Polygone erscheinen —, so

794

entstehen mit allen Geräten in einem weiten Sinne ’gleiche’ Zeichnungen. Die Unterschiede bestehen freilich in zum Teil krassen Qualitätsunterschieden — Genauigkeit der Punktansteuerung, Strichbreite, Gleichmäßigkeit des Tintenflusses u. ä. —, aber die graphische Wirkung einer Zeichnung bleibt durchweg erkennbar. Durch die Reduktion der Plotterleistung auf nur eine einzige — nämlich die geradlinige Verbindung zweier Punkte —, läßt sich somit auch die Gerätegruppe der Plotter normieren und damit eine weitgehende Geräteunabhängigkeit erzielen. Es kann hier nicht näher auf die mannigfaltigen Probleme auf der Softwareseite eingegangen werden, die diese strikte Beschränkung auf Gerätegrundleistungen aufwirft. Erwähnt sei aber, daß bestimmte Verfahren der Symbolgestaltung geräteabhängige Linienausführungen wie Interpolationen gar nicht zulassen. So ist z. B. die kreuzklassifikatorische Symbolisierung mit Hilfe Symbolgestalt und Innenschraffur nur dann möglich, wenn das Arbeitsprogramm bereits den endgültigen Linienverlauf kennt; anders ist die hinreichend exakte Bestimmung des Schnittpunktes einer Schraffurlinie mit der Symbolkontur unmöglich. Auch andere anspruchsvollere computergraphische Techniken wie überdeckungsfreies Zeichnen — gegebenenfalls unter Verzicht auf entsprechende Symbolteile — oder die Auslenkung von Symbolen bei Platzknappheit erfordern die volle Kontrolle des Zeichenstiftes bereits beim Lauf des Arbeitsprogramms. Solche Techniken, die bei zwei der genannten Atlasprojekte, dem Hessischen Flurnamenatlas und der Wortgeographie der städtischen Alltagssprache in Hessen, intensiv verwendet werden, sind geeignet, die computergraphischen Möglichkeiten in Richtung auf die Arbeit des traditionellen Graphikers fortzuentwickeln. Gegenwärtig hat sich eine Entwicklungslinie, die sich an dem hohen graphischen Standard manueller Kartographie orientiert, mit einem ganzen Spektrum computergraphischer Einund Ausgabegeräte zu beschäftigen, und dabei sind Konzeptionen der Anwendung, wie sie hier erörtert wurden, sicherlich unerläßlich. Ob der Einsatz modernerer computergraphischer Geräte wie Scanner und Laserdrucker hier eine neue Situation schaffen wird, kann erst dann konkreter beurteilt werden, wenn deren graphische Möglichkeiten auch außerhalb von (Raster-)Bild- und Schriftgraphik softwareseitig besser entwikkelt ist.

XII. Operating Environment of Computational Linguistics

Wenn hier von Normierungsansätzen innerhalb computergraphischer Gerätetypen die Rede ist, so tangiert dies begriffliche Strukturierungsversuche innerhalb der Computergraphik als Ganzes, wie das graphische Kernsystem (vgl. Encarnaçao 1 983) einen darstellt, kaum. Graphik ist innerhalb von GKS fast vollständig geräteunabhängig zu formulieren, und auch die Softwareprobleme, die die hier skizzierte Gerätenormierung aufwirft, lassen sich mit der Begrifflichkeit von GKS fassen, Lösungen sind aber selbst zu finden. Zudem gibt es Anwendungsschwierigkeiten selbst dort, wo ein Problem von GKS bereits gelöst scheint: Die GKS-Funktion FILL AREA z. B. schraffiert zwar das Innere einer durch einen geschlossenen Polygonzug gegebenen Fläche auf mannigfache Art, daß aber mit einer flexiblen Schraffurtechnik das Problem der Flächeninhaltsbestimmung bereits mitgelöst ist, wird innerhalb von GKS nicht thematisisert. Den Flächeninhalt benötigt man aber, um praxisnah eine Überdeckungsfreiheit beim Symbolzeichnen realisieren zu können. Dies ist ein Beispiel für die beschränkte Anwendbarkeit geschlossener Systeme — hier einer GKS-Implementierung — bei einer speziellen Problemlage: der Systemhersteller muß eine Zielgruppe — hier die CAD-Anwender — im Auge haben und darf sein System nach unten hin nicht beliebig öffnen, wenn dies dessen Steuerbarkeit nicht unverhältnismäßig belasten soll. 2.3. Schriften, Lautschriften Die typographischen Schwierigkeiten, die bereits die lateinschriftliche Notation verursacht (Umlaute und ß im Deutschen, Akzente im Französischen), betreffen nicht nur den linguistischen Bereich; der Einsatz von Computermethoden bei der Edition anspruchsvoller Texte war denn auch zunächst stark eingeschränkt, da die gängigen Ein- und Ausgabegeräte an die Möglichkeiten traditioneller Fachverlage nicht heranreichten. Mittlerweile ermöglichen fortgeschrittene Textverarbeitungssysteme wie WORD oder TUSTEP (vgl. TUSTEP 1 985) einen sehr flexiblen Umgang mit Texten, der das ganze Spektrum typographischer Möglichkeiten erschließt und bis zur Druckvorbereitung auf Photosatzgeräten und der Ausgabe druckreifer Vorlagen mit Hilfe des Laserprinters reicht. Das spezifische Problem der lautschriftlichen Notation, das sich in besonderem Maße der empirisch arbeitenden Linguistik stellt,

65.  Graphikumgebung als Ausstattungsbeispiel

ist im Rahmen dieser Entwicklung aber nur teilweise zu lösen. Dies liegt vor allem an dem sehr flexiblen Zugang, den der Sprachwissenschaftler zu seinen ’spröden’ Daten haben muß und den geschlossene, im wesentlichen auf die Textedition abzielende Textverarbeitungssysteme nur eingeschränkt gewährleisten. Von den drei Arbeitsschwerpunkten mit empirisch-linguistischen Texten, nämlich Eingabe, interaktives Bearbeiten und Ausgabe (zu Druckzwecken oder als Arbeitsunterlage) ist lediglich der dritte durch hardund softwareseitige Fortschritte nachhaltig gefördert worden. Zu Anfang des ALE-Projekts wurde die Ausgabe lautschriftlicher Texte mit Hilfe eines umgerüsteten Fernschreibers geleistet. Das dazu erforderliche speziell angefertigte Typensegment erforderte finanzielle Mittel, mit denen heute mehrere Laserdrucker zu kaufen wären. Im Rahmen des Hessischen Flurnamenatlas bediente man sich eines umgerüsteten Matrixdruckers, was bereits wesentlich preisgünstiger war. In beiden Fällen ging es lediglich um Arbeitsunterlagen für die weitere wissenschaftliche Bearbeitung bzw. um die Herstellung einer Namenkartei; Druckreife war mit den Geräten nicht zu erzielen. Die Graphikfähigkeit moderner Ausgabegeräte schafft die Möglichkeit, eigene Schriftalphabete herzustellen, und hochauflösende Matrixdrucker und die in letzter Zeit wichtiger werdenden Laserprinter stoßen in qualitative Bereiche vor, die bislang der traditionellen Druckgraphik vorbehalten waren. Problematisch bleibt die Vielzahl der verwendeten Lautschriftvarianten und die Expertenabhängigkeit bei der Erzeugung von Alphabeten und der Ausgabe anspruchsvoller Schriftgraphiken. Die Eingabe lautschriftlicher Texte leidet noch stärker unter der Sprödigkeit ihres Gegenstands und wird in nur geringem Maße durch Fortschritte auf dem Hardwaresektor verbessert. Solange es keine automatische Transkription der gesprochenen Sprache, also eine Spracherkennung konsequent auf der Basis des linguistischen Lautbegriffs gibt, bleibt die Tastatur des Terminals der Zugang zum Rechner. Diese aber ist als erweiterte Schreibmaschinentastatur nur bedingt für lautschriftliche Aufgaben geeignet, auch wenn die Typen mit den entsprechenden Zeichen überklebt oder auf andere Art gekennzeichnet werden. Denn erstens sind Lautzeicheninventare u. U. umfangreicher als das der Normalschrift, was die Arbeit mit eng

795

transkribierten Texten einschränkt oder zu rein hardwaretechnisch begründeten Lösungen wie Doppelzeichen, Sonderdiakritika u. ä. zwingt, und zweitens ist das Arbeiten an einer fremden Tastatur stets mühsam. Schon die Vertauschung der Z- mit der Y-Taste auf amerikanischen gegenüber deutschen Konsolen stellt selbst für Schreibkräfte, die sonst ’zehn-Finger-blind’ schreiben, ein erhebliches Hindernis dar, und wenn man davon ausgeht, daß Erfassungsarbeiten bei universitären Forschungsprojekten vielfach von Hilfskräften mit eher kürzeren Beschäftigungszeiten durchgeführt werden, muß der Aufwand für die Eingabe lautschriftlicher Texte auch bei optimaler Präparierung der Tastatur als hoch einkalkuliert werden. Die Skepsis vieler Sprachwissenschaftler gegenüber computergestützten Methoden im angesprochenen Bereich ist sicherlich insofern berechtigt, als der beträchtliche Aufwand für die Ein- und Ausgabe den erzielten Gewinn in Frage stellen kann, wenn es nur darum geht, Texte in anspruchsvoller Weise druckreif zu machen; hier ist das traditionelle Arbeiten mit Fachverlagen u. U. der bequemere Weg. Kernpunkt des Computereinsatzes muß die nachhaltige Hilfestellung bei der Forschungsarbeit selbst sein, und bei der Vielgestaltigkeit der Probleme, die sich hier stellen, ist dazu die enge Zusammenarbeit mit dem Computerlinguisten erforderlich. Fortschritte auf dem Hardwaresektor können den Einstieg in die Rechneranwendung attraktiver machen, der Forschungsalltag verlangt zunächst schnellen und flexiblen Zugang zu den Datenbasen, Befragbarkeit des Materials nach offenen Kriterien, Arbeitsunterlagen mannigfaltiger Art. Hierbei spielen die einfacher zu handhabenden Ausgabegeräte wie Matrixdrucker und kleine Tischplotter trotz ihrer graphischen Mängel eine wichtige Rolle, und so wird es die Computerlinguistik in dem besonders für die empirische Sprachforschung heiklen Bereich der Schriftgraphik wohl noch einige Zeit mit einem ganzen Spektrum computergraphischer Geräte zu tun haben. 2.4. Verstreute Graphikanwendungen Es gibt innerhalb der linguistischen Arbeit eine Reihe von Bereichen, die — nicht so traditionell wie die Sprachkartographie und nicht so ’genuin linguistisch’ wie das Verschriftungsproblem — computergraphische Ansätze erkennen oder doch wenigstens möglich erscheinen lassen. Ein frühes Bei-

XII. Operating Environment of Computational Linguistics

796

spiel für eine Aktivität in dieser Richtung stellt die Art und Weise dar, die Goebl seine Dialektometriekonzeption auf Tagungen vorstellte (vgl. Goebl 1 977). Um eine Sprachgrenze in einem Untersuchungsgebiet nachzuweisen und optisch darzustellen, fertigte er für alle Orte eines ’Prüfpfades’ — eine Linie durch das Gebiet — ein Farbdiapositiv an, auf dem alle Ortsumgebungen eingefärbt waren, und zwar gelb über rot bis dunkelviolett, je nachdem, ob der dialektometrische Vergleich mit dem Bezugsort eine große, mittlere oder geringe Ähnlichkeit erwiesen hatte. Bei zügigem Vorführen der Dias mit automatischen Diaprojektoren erkannte man das Überschreiten einer Sprachgrenze am plötzlichen Umkippen des gesamten Farbgefüges. Daß diese eindrucksvolle Demonstration nicht längst mit modernen computergraphischen Mitteln — graphikfähigen Farbdisplay mit Hardcopy-Möglichkeit — nachvollzogen wurde, hat sicherlich mit der arbeitspraktischen Situation des Sprachwissenschaftlers zu tun: In einem Umfeld, das durch Mangel an qualifiziertem Personal und an Mitteln geprägt ist, kann die Weiterentwicklung moderner Lehrmittel nur eine marginale Rolle spielen, wenn die eigentlichen Forschungsziele nicht gefährdet werden sollen. Die vielfältigen computergraphischen Anforderungen, welche die Darstellung dialektometrischer Forschungsergebnisse stellen (vgl. Putschke 1 986; Viereck 1 985), werfen nicht so sehr die Frage nach geeigneter Graphikhardware auf, sondern eher die nach der Einsatzfähigkeit unterschiedlicher graphischer Softwaresysteme für computerlinguistische Belange. Ähnliches gilt für ein ganzes Spektrum eher traditionellen linguistischen Graphikbedarfs, das von Strukturbaumzeichnungen im Rahmen der generativen Transformationsgrammatik bis zu Ergebnisdarstellungen bei statistischen Untersuchungen zum Sprachgebrauch reicht (vgl. Friebertshäuser/Dingeldein 1 988). Das Problem geeigneter Software ist aber zugleich ein Problem der Akzeptanz computergraphischer Methoden innerhalb der Linguistik als ganzes.

3.

Arbeitspraktische Situation linguistisch orientierter Computergraphik: Stand und Perspektiven

Die wissenschaftliche Arbeitssituation innerhalb der Linguistik unterscheidet sich von

der z. B. bei Naturwissenschaften und Medizin in mancher Hinsicht erheblich. In beiden Fällen spielen technisch-apparative Fragen und die zugehörigen personellen Probleme eine konstitutive Rolle bei der Wissenschaftsplanung. Arbeitsprozesse an hochspezialisierten Geräten werden von geschultem Personal in Labors und Werkstätten durchgeführt oder unterstützt; in der Medizin gibt es eigens den Beruf der medizinisch-technischen Assistentin. Auch der wissenschaftliche Bereich ist von den verwendeten Techniken teilweise stark durchdrungen, wie die Beispiele Röntgenologie oder Computertomographie zeigen. Demgegenüber ist die Lage der Linguistik als sehr traditionell zu bezeichnen. Selbst größere sprachwissenschaftliche Institute wie der Deutsche Sprachatlas in Marburg können an technischen Personalstellen gerade die eines Photolaboranten, die eines Graphikers und die eines Tonmeisters vorweisen. Vorstöße in Richtung eines stärkeren Einbezuges der Informatik sind meist Einzelaktivitäten im Rahmen von Forschungsprojekten, die in einem Klima der Zurückhaltung unter besonderem Erfolgszwang stehen; als Studienfach nimmt die Computerlinguistik erst allmählich festere Konturen an. Die Personalsituation im wissenschaftlichen Bereich ist in mehrerer Hinsicht problematisch: Die Stagnation bei der Vergabe attraktiver Dauerstellen hat zur Folge, daß im wesentlichen kürzerfristige Projektstellen — oft Hilfskraftstellen — zur Disposition stehen. Diese aber sind für informatisch Ausgebildete wenig begehrt; der Informatikerbedarf der kommerziellen Wirtschaft ist noch erheblich und drückt sich in lukrativen Stellenangeboten aus. Schädlich für eine solidere Etablierung der Informatik in der Linguistik ist auch die Vorstellung vom Computer, die in der wissenschaftlichen Öffentlichkeit bei Laien vielfach noch vorherrscht. Einerseits erscheint die Rechnerwelt als undurchschaubares, nur Experten vorbehaltenes Gebiet, andererseits vermitteln Berichte etwa über Jugendliche, die eine geheime Datenbank ’angezapft’ haben, das Bild einer verblüffenden Simplizität. So kann der Eindruck entstehen, es genüge ein wendiger Computermann und ein Personalcomputer, ’der auch Graphik kann’, um alle graphischen Probleme in den Griff zu bekommen. Dabei ist es gerade die Computergraphik, die das Denken ’vom System aus’, das alleini-

65.  Graphikumgebung als Ausstattungsbeispiel

ge oder überwiegende Nutzen der Möglichkeiten von Herstellersoftware aufbrechen muß, wenn das enorme Leistungsspektrum moderner Graphikhardware ausgeschöpft werden soll. So ist z. B. der Laserdrucker, der von seinen Geräteeigenschaften her alle rasterbild-, linien- und schriftgraphischen Aufgaben mit nahezu photographischer Präzision meistern kann, als so etwas wie das universelle graphische Ausgabegerät anzusehen, wenn man von der Farbigkeit einmal absieht. Diese Möglichkeiten sind aber nur nutzbar auf der Basis mächtiger Softwaresysteme, und Gerätehersteller wie Softwarehäuser orientieren ihre Arbeit auf den Markt hin. So ist z. B. der gesamte typographische Bedarf eines Verlages mit dem Textverarbeitungssystem WORD, Laserdruckern und geeigneten Treibern zu decken. Es existieren mannigfaltige Schriftinventare, Umbruchtechniken, Silbentrennmöglichkeiten usw., aber Probleme aus anderen Bereichen, die von der Sache her u. U. einfacher sind — wie z. B. das Zeichen einer Sprachkarte —, sind vorerst kaum zu lösen. Die linguistisch orientierte Computergraphik mit ihrer desolaten Personalsituation kann weder mit kommerziellen Softwarehäusern konkurrieren, noch ist sie für diese ein attraktiver Markt. Will sie qualitativ zeitgemäße Leistungen erzielen, so ist sie ausrüstungstechnisch auf professionelle Einrichtungen wie die universitären Rechenzentren angewiesen. Bezüglich der graphischen Konzeption muß sie eine weitgehende Geräteunabhängigkeit anstreben, wie dies an Beispielen im vorigen Abschnitt angedeutet wurde. Aus deren Sicht reduziert sich z. B. der Übergang vom Plotter zum Laserdrucker auf die

797

Transformation eines geraden Linienstückes in eine entsprechende Menge gesetzter Dots — ein nicht ganz einfaches, aber isolierbares Problem. Ein solches Vorgehen nutzt von den gängigen Anwendersystemen nur geringe Teile, gewährleistet aber die Weiterverwendung bewährter Programmsysteme auf qualitativ besseren Geräten. Im Rahmen einer solchen Strategie sollte die graphisch arbeitende Computerlinguistik auch in ihrer bedrängten Situation am Fortschritt auf dem Sektor der Graphiksoftware partizipieren können — zumal, wenn sich die bislang unzureichende Kooperation verbessern sollte.

4.

Literatur (in Auswahl)

R. Anderl/J. Rix/H. Wetzel 1 983 · DIN 66 252/1 1 986 · A. Dripke 1 987 · J. Encarnação 1 983 · J. Encarnação/G. Enderle 1 983 · J. Encarnação/W. Straßer 1 986 · G. Enderle/K. Kansy/G. Pfaff/ F.-J. Prester 1 983 · N. W. Francis/J. Svartvik/G. M. Rubin 1 969 · H. Friebertshäuser/H. J. Dingeldein 1 987 · H. Friebertshäuser/H. J. Dingeldein 1 988 · H. Goebel 1 977 · W. A. Grootaers 1 970 · B. Grout/I. Athanasopoulos/R. Kutlin 1 986 · H. Händler 1 985 · Hessischer Flurnamenatlas 1 987 · K. H. Höhne 1 987 · KDSA 1 984 · I. Larsson 1 986 · G. Mußtopf 1 987 · S. Noll/J. Poller/J. Rix 1 987 · G. E. Pfaff 1 983 · W. Putschke 1 969 · W. Putschke 1 972 · W. Putschke 1 975 · W. Putschke/R. Neumann 1 982 · K. Rein 1 974 · R. Schophaus 1 969 · E. Steffens 1 986 · D. Stellmacher 1 987 · M. Tokugawa/T. Yamamoto 1 967 · TUSTEP 1 985 · W. H. Veith 1982 · W. Viereck 1985.

Harald Händler, Marburg (Bundesrepublik Deutschland)

799

XIII. Bibliography Bibliographie

The following bibliography, compiled by Friedrich Wetter, Bonn, is the first comprehensive bibliography in this series of handbooks. It includes the books, articles in j ournals and textbooks, reports etc. cited by the particular authors in their respective articles. The editors have verified and standardized the data given by the authors, but they cannot guarantee for the correctness in all details. There are some articles and reports published in minor or remote sources, which remained beyond the access of the editors. In the articles references are indicated by the names of authors or editors appended by the year of publication. In cases of possible confusion the initials are given as well. The references are repeated at the beginning of each entry in the bibliography. There is a short selected literature at the end of each article, which is especially recommended by the author of the article for a deeper understanding of his particular subj ect. In some cases it comprizes all the references mentioned in the article. In order to avoid repetions only the names of authors resp. editors and the year of publication are given. The bibliography does not cover the literature and references given in article 2 on research institutions in Computational Linguistics in western countries. The entries of the bibliography are structured as follows: The citation form, consisting of names of authors and editors, eventually their initials, are given in italics. The names and first names, as far as they could be verified, follow in normal font. In the case there are more than three authors or editors this is shown by ‘et al.’ Editors are indicated by ‘ed.’ resp. ‘eds.’. Titles are given in normal font. If it is a monographic work, place and year of publication follow. Text books are formated in the same way as monographies. Articles which appeared in a j ournal or textbook are marked by ‘In:’; this, in the case of periodicals, is followed by abbreviations of the j ournal, number of issue, year of publication and pages; in the case of a textbook, there is regular reference by which it can be located in the bibliography. Names and titles in cyrilic letters are transliterated according to international conventions. In many bibliographical entries the authors have used abbreviations for j ournals, text books, names of associations etc. As far as possible, these abbreviations are expanded in the following list. Mit der folgenden Bibliographie, die von Friedrich Wetter, Bonn, im Auftrag der Herausgeber zusammengestellt wurde, wird erstmals für die Reihe der Handbücher zur Sprach- und Kommunikationswissenschaft eine Gesamtbibliographie vorgelegt. Diese umfaßt alle von den Autoren der einzelnen Artikel erwähnten und bibliographisch erfaßten Bücher, Aufsätze in Zeitschriften und Sammelbänden, Reports etc. Die Angaben der Autoren wurden überprüft und vereinheitlicht, ohne daß j edoch eine Garantie für die Richtigkeit bis in alle Details übernommen werden kann. Bei Arbeiten, die an sehr entlegenen Stellen publiziert worden sind, mußte auf eine Überprüfung verzichtet werden. In den Artikeln wird auf Literatur durch eine Kurzform des j eweiligen Titels verwiesen, die aus dem bzw. den Namen der Autoren oder Herausgeber und dem Erscheinungsj ahr besteht. Bei Verwechslungsmöglichkeiten sind auch die Initialen der Vornamen angegeben. Diese Kurzform wird in der folgenden Bibliographie am Anfang der j eweiligen bibliographischen Angabe wiederholt. Am Ende eines j eden Beitrags ist eine kurzgefaßte ausgewählte Bibliographie abgedruckt; bei diesen Angaben handelt es sich j eweils um eine Auswahl der vom Verfasser besonders emp-

XIII. Bibliography

800

fohlenen Literatur. In einigen Fällen umfassen diese Angaben alle von dem Verfasser in seinem Beitrag genannten Arbeiten. Um Wiederholungen zu vermeiden, sind auch in diesen Literaturangaben die Kurzformen verzeichnet, unter denen das betreffende Werk in der Gesamtbibliographie gefunden werden kann. Die in Artikel 2 enthaltenen Literaturangaben und Fundstellen zu den Forschungsstätten der Computerlinguistik sind in der Gesamtbibliographie nicht berücksichtigt. Die Einträge sind in folgender Weise strukturiert: Zunächst sind in kursivem Druck die Kurzformen angegeben, unter denen auf die betreffenden Titel verwiesen wird. Ihnen folgen die Namen der Autoren oder Herausgeber und deren Vornamen, soweit diese ermittelt werden konnten, in Normalschrift. Bei mehr als drei Autoren oder Herausgebern steht ein ‘et al.’ Herausgeber sind durch ‘ed.’ bzw. ‘eds.’ angegeben. Daran schließt sich der Titel und gegebenenfalls der Untertitel der betreffenden Arbeit in Normalschrift an. Handelt es sich um ein selbständiges Buch, so folgen Ort und Erscheinungsj ahr. Handelt es sich um einen Aufsatz in einem Sammelband oder einer Zeitschrift, so folgt nach dem Titel ein ‘In:’ mit der anschließenden Kurzform entweder des Sammelbandes (Herausgeber und Erscheinungsj ahr) oder der Zeitschrift bzw. der ausführliche Name der Zeitschrift mit Jahrgang und Seitenangabe. Autorennamen und Titel in kyrillischer Schrift wurden nach dem wissenschaftlichen System transliteriert. Zur Kennzeichnung häufig auftretender Namen von Zeitschriften, Sammelbänden, Namen wissenschaftlicher Gesellschaften etc. wurden durch die Autoren z. T. Abkürzungen verwendet, die im folgenden Siglenverzeichnis so weit wie möglich aufgelöst werden. AAAI ACL ACM AFIPS AI AILA AJCL ALLC ANLP ASIS ASLIB CACM CL COLING CNRS CSLI DGD EACL ĖVM GALF GDS GI GLDV GMD GWAI HMD HSK IAI—MT ICAME ICASSP ICOT IEEE IFAC IFIP IJAL IJCAI IKP IPO ISSCO ITL JIPDEC KIT

American Association for Artifical Intelligence Association for Computational Linguistics Association for Computing Machinery American Federation for Information Processing Society Artifical Intelligence Association Internationale de Linguistique Computing American Journal of Computational Linguistics Association for Literary and Linguistic Computing Association of Natural Language Processing American Society for Information Science Association of Special Libraries and Information Bureaux Communications of the Association for Computing Machinery Computational Linguistics International Conference on Computational Linguistics Centre Nationale de la Recherche Scientifique Center for the Study of Language and Information Deutsche Gesellschaft für Dokumentation European Chapter of the Association for Computational Linguistics Ėlektronnaja vyčislitel’naja mašina Groupment des ACOUSTICIENS de Langue française Grazer dialektologische Studien Gesellschaft für Informatik Gesellschaft für Linguistische Datenverarbeitung Gesellschaft für Mathematik und Datenverarbeitung German Workshop on Artifical Intelligence Handbuch der modernen Datenverarbeitung Handbuch der Sprach- und Kommunikationswissenschaften Institut für Angewandte Informationswissenschaft, Proceedings MT-Conference International Computer Archive of Modern English IEEE International Conference on Acoustics, Speech and Signal Processing Institute for New Generation Computer Technology The Institute of Electrical and Electronics Enieneers The International Federation of Automatic Control International Federation on Information Processing International Journal of American Linguistics International Joint Conference on Artifical Intelligence Institut für Kommunikationsforschung und Phonetik Institute for Perception Research, Annual Progress Reports Istituto per gli studi semantici e cognitivi Institute of Applied Linguistics Japan Information Processing Development Center Projektgruppe Künstliche Intelligenz und Textverstehen

XIII. Bibliography

LACUS LASLA LDV LiLi LISA META MIT MOTS MT NATO NYU SIAM SIGART SIGIR SIGLASH SIGPLAN SMIL TAUM ZDL

801

Linguistic Association of Canada and the United States Laboratoire d’Analyse Statistique des Langues Anciennes (Liège) Linguistische Datenverarbeitung Zeitschrift für Literaturwissenschaft und Linguistik Library & Information Science Abstracts META Journal des Traducteurs (Montréal) Massachusetts Institute of Technology Mots, Traveaux de lexicométrie et de lexicologie politique, Institut de la langue française Mechanical Translation North Atlantic Treaty Organisation New York University Society for Industrial and Applied Mathematics Special Interest Group on Artifical Intelligence of the ACM Special Interest Group on Information Retrieval of the ACM Special Interest Group on Language Analysis and Studies in Humanities of the ACM Special Interest Group on Programming Languages of the ACM Statistical Methods in Linguistics Traduction Informatique Université Montreal Zeitschrift für Dialektologie und Linguistik

802

AAP 1985a = Association of American Publishers, Inc.: Author Guidelines for the Preparation, Creation and Exchange of Electronic Manuscripts. Electronic Manuscript Proj ect, ed. by Association of American Publishers Inc. Washington 1985. AAP 1985b = Association of American Publishers, Inc.: Standard for Electronic Manuscript Preparation and Exchange. Electronic Manuscript Proj ect, ed. by Association of American Publishers Inc. Washington 1985. Aarsleff 1975 = Aarsleff, H. W.: The Eighteenth Century, including Leibniz. In: Current Trends in Linguistics, Vol. 13: Historiography of Linguistics, The Hague 1975, 383—410. Aarts/Meijs [eds.] 1984 = Aarts, Jan/Meij s, Willem [eds.]: Corpus Linguistics. Recent Developments in the Use of Computer Corpora in English Language Research. Amsterdam 1984. Aarts/van den Heuvel 1985 = Aarts, Jan/van den Heuvel, Theo: Computational tools for the syntactic analysis of corpora. In: Linguistics 23, 1985, 303—335. Abe/Oosh ima/Yuura et al. 1986 = Abe, Masahiro/Ooshima, Yoshimitsu/Yuura, Katsuhiko et al.: A Kana-Kan j i-Translation System for NonSegmented Input Sentences Based on Syntactic and Semantic Analysis. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 280—285. Abelson 1982 = Abelson, H.: Apple Logo. New York 1982. Ades/Steedman 1982 = Ades, Anthony E./Steedman, Mark J.: On the order of words. In: Linguistics and Philosophy 4, 1982, 517—558. Adler 1985 = Adler, B.: Street’s New ECHO Output Product for IBM PC. In: Speech Technology 3, No. 1, 1985, 108—109. Aebli 1979 = Aebli, Hans: Zur Darstellung von Handlungen und Begriffserklärungen mit Baumdiagrammen und Netzen. In: Rhenius/Ueckert [eds.] 1979, 311—322. Aebli 1980 = Aebli, Hans: Denken: das Ordnen des Tuns. Bd. I: Kognitive Aspekte der Handlungstheorie. Stuttgart 1980. Aebli 1981 = Aebli, Hans: Denken: das Ordnen des Tuns. Bd. II: Denkprozesse. Stuttgart 1981. Ager/Knowles/Smit h [eds.] 1979 = Ager, D. E./Knowles, F. E./Smith, Joan [eds.]: Advances in Computer-aided Literary and Linguistics Research. Department of Modern Languages, University of Birmingham 1979. Ah mad et al. 1985 = Ahmad, Kurshid et al.: Computers, Language Learning and Language Teaching. Cambridge 1985. Ah o 1968 = Aho, Alfred V.: Indexed grammars — an extension of context-free grammars. In: Journal of the ACM 15, 1968, 647—671. Ah o/Joh nson 1974 = Aho, Alfred V./Johnson, S. C.: LR Parsing. In: Computing Surveys 6 (2), 1974, 99—124.

XIII. Bibliography

Ah o/Seth i/Ullman 1986 = Aho, Alfred V./Sethi, Ravi/Ullman, Jeffrey D.: Compilers: Principles, techniques, and tools. Reading, Mass. 1986. Ah o/Ullman 1972—73 = Aho, Alfred V./Ullman, Jeffrey D.: The Theory of Parsing, Translation, and Compiling. 2 Bde. Englewood Cliffs 1972—73. Ah o/Ullman 1979 = Aho, Alfred V./Ullman, Jeffrey D.: Principles of Compiler Design. Third edition. Reading, Mass. et al. 1979. Ainsworth 1973 = Ainsworth, William A.: A system for converting English text into speech. In: IEEE transactions on audio and electroacuostics 21 (3), 1973, 288—290. Aitken 1978 = Aitken, A. J.: Historical dictionaries, word frequency distributions and the computer. In: Cahiers de Lexicologie 32, 1978, 28—47. Aitken 1983 = Aitken, A. J.: DOST and the Computer: A Hopeless Case? In: Zampolli/Capelli [eds.] 1983, 33—49. Aitken/Bailey/Hamilton-Smith [eds.] 1973 = Aitken, A. J./Bailey, R. W./Hamilton-Smith, N. [eds.]: The Computer and Literary Studies. Edinburgh 1973. Ait-Kaci 1985 = Ait-Kaci, H.: A new model of computation based on an calculus of type subsumption. o. O. 1985. Ait-Kaci 1986a = Ait-Kaci, H.: An Algebraic Semantics Approach to the Effective Resolution of Type Equations. In: Theoretical Computer Science, Vol. 45, 1986, 293—351. Ait-Kaci 1986b = Ait-Kaci, H.: Type Subsumption as a Model of Computation. In: Kerschberg [ed.] 1986, 115—139. Ait-Kaci/Nasr 1986 = Ait-Kaci, H./Nasr, R.: LOGIN: A Logic Programming Language with Built-in Inheritance. In: J. Logic Programming, Vol. 3, 1986, 185—215. Akers/Lennig 1985 = Akers, Glenn/Lennig, Matthew: Intonation in text-to-speech synthesis: Evaluation of algorithms. In: Journal of the Acoustical Society of America 77, No. 6, 1985, 2157—2165. Akh manova et al. [eds.] 1963 = Akhmanova, O. S. et al. [eds.]: Exact methods in linguistic research. Berkeley 1963. Akmajian/Heny 1975 = Akma j ian, Adrian/Heny, Frank: An introduction to the principles of transformational grammar. Englewood Cliffs, N.J. 1975. Alam 1983 = Alam, Yukiko: A two-level morphological analysis of Japanese. In: Texas Linguistic Forum 22, 1983, 229—252. Alderman/Appel/Murp h y 1978 = Alderman, D. L./Appel, L. R./Murphy, R. T.: PLATO and TICCIT: An Evaluation of CAI in the Community College. In: Educational Technology, April 1978, 164—167. Alekseev, P. M. 1984 = Alekseev, P. M.: Statistische Lexikographie. Zur Typologie, Erstellung und Anwendung von Frequenzwörterbüchern. Übersetzt von Werner Lehfeldt. Bochum 1984.

XIII. Bibliography

Alekseev, V. D. 1982 = Alekseev, V. D.: Automatic construction of descending lefthand parsers. In: Automatic Documentation and Mathematical Linguistics 16, 1982, 41—47. Alford 1973 = Alford, M. H. T.: The computer and lexicography. In: Bulletin of the Association for Literary and Linguistic Computing I,3, 1973, 8—9. Allen, J. 1976 = Allen, Jonathan: Synthesis of Speech from Unrestricted Text. In: Proceedings of the IEEE 64, No. 4, 1976, 433—442. Allen, J. 1977 = Allen, Jonathan: Synthesis of Speech from Unrestricted Text. In: Zampolli [ed.] 1977, 1—30. Allen, J. 1985 = Allen, J.: A Perspective on ManMachine Communication by Speech. In: Proceedings of the IEEE 73, No. 11, 1985, 1541—1550. Allen, J. F. 1979 = Allen, James F.: A plan-based approach to speech act recognition. Ph.D. Thesis. Computer Science Department, University of Toronto 1979. Allen, J. F. 1983 = Allen, James F.: Recognizing intentions from natural language utterances. In: Brady/Berwick [eds.] 1983, 107—165. Allen, J. F. 1984 = Allen, James F.: Towards a general theory of action and time. In: Artificial Intelligence 23 (2), 1984, 123—154. Allen, J. F. [ed.] 1983 = Allen, James F. [ed.]: Special issue on ill-formed input. In: American Journal of Computational Linguistics 9, 1983, 123—196. Allen, J. F./Frisch 1982 = Allen, James F./Frisch, A. M.: What’s in a Semantic Network? In: Proc. 20th Annual Conference of the ACL, 1982, 19—27. Allen, J. F./Frisch /Litman 1982 = Allen, James F./Frisch, A./Litman, D.: ARGOT: The Rochester Dialogue system. In: Second National Conference on Artificial Intelligence, Pittsburgh, Pa. 1982, 66—70. Allen, J. F./Perrault 1980 = Allen, James F./Perrault, Raymond C.: Analyzing intention in dialogues. In: Artificial Intelligence 15, 1980, 143—178. Allen, J. F./Small 1982 = Allen, James F./Small, S. L.: The Rochester discourse comprehension project. In: SIGART Newsletter, 1982. Allen, R. F. 1984 = Allen, Robert F.: A Stylo-statistique study of „Adolphe“ preceded by indexes and a description of computer programming for language analysis. Genève 1984. Allen, R. F. [ed.] 1985 = Allen, Robert F. [ed.]: Data Bases in the Humanities and Social Sciences — 2. Osprey, FL. 1985. Allén 1965 = Allén, Sture: Grafematisk analys som grundval för textedering med särskild hänsyn till Johan Ekeblads brev till brodern Claes Ekeblad 1639—1655. (Graphematische Analyse als Grundlage für die Textedition mit besonderer Berücksichtigung der Briefe Johan Ekeblads an seinen Bruder Claes Ekeblad). Göteborg 1965. Allén 1978 = Allén, Sture: A Linguistic Concept of Computational Linguistics. Språkdata. University of Göteborg 1978.

803

Allén 1980 = Allén, Sture: The Language Bank Concept. In: Raben/Marks [eds.] 1980, 171—176. Allén 1983 = Allén, Sture: Språkdata Lexibase System. In: Zampolli/Capelli [eds.] 1983, 51—64. Allén/Petöfi [eds.] 1979 = Allén, Sture/Petöfi, János S. [eds.]: Aspects of automated text processing. Hamburg 1979. Almeida 1985 = Almeida, A.: Produktion and Perzeption im Rahmen der Sprachsynthese. In: Müller [ed.] 1985, 197—217. ALPAC-Report 1966a = ALPAC-Report: Languages and machines, computers in translation and linguistics. Publication 1416, Automatic Language Processing Advisory Committee Report. Washington 1966. ALPAC-Report 1966b = ALPAC-Report: Sprache und Maschinen. Computer in der Übersetzung und in der Linguistik. In: Sprache im technischen Zeitalter 23, 1967, 218—238. h Als awi/Boguraev/Briscoe 1985 = Alshawi, Hiyan/Boguraev, Bran/Briscoe, Ted: Towards a dictionary support environment for real-time parsing. In: Proceedings of the 2nd European Conference of the Association for Computational Linguistics, Geneva 1985, 171—178. Alth aus 1972 = Althaus, Hans Peter: Die Cambridger Löwenfabel von 1382. Untersuchung und Edition eines defektiven Textes. Berlin — New York 1972. Alth aus 1980 = Althaus, Hans Peter: Graphemik. In: Althaus/Henne/Wiegand [eds.] 1980, 142—151. Alt h aus/Henne/Wiegand [eds.] 1980 = Althaus, Hans Peter/Henne, Helmut/Wiegand, Herbert Ernst [eds.]: Lexikon der Germanistischen Linguistik (LGL). 2. Aufl. Tübingen 1980. Altmann, G. 1973 = Altmann, Gabriel: Mathematische Linguistik. In: Koch [ed.] 1973, 208—232. Altmann, G. 1978a = Altmann, Gabriel: Zur Ähnlichkeitsmessung in der Dialektologie. In: Putschke [ed.] 1978, 305—310. Altmann, G. 1978b = Altmann, Gabriel: Zur Anwendung der Quotiente in der Textanalyse. In: Glottometrika 1, Bochum 1978, 91—106. Altmann, G. 1984 = Altmann, Gabriel: Beitrag zur Methodologie der Areallinguistik. In: Goebl [ed.] 1984, 61—69. Altmann, G./Leh feldt 1973 = Altmann, Gabriel/ Lehfeldt, Werner: Allgemeine Sprachtypologie. Prinzipien und Meßverfahren. München 1973. Altmann, G. T. M. 1985 = Altmann, Gerry T. M.: The resolution of local syntactic ambiguity by the human sentence processing mechanism. In: Proceedings of the Second Conference of the European Chapter of the Association for Computational Linguistics, 1985, 123—127. Altmann, G. T. M. 1986 = Altmann, Gerry T. M.: Reference and the resolution of local syntactic ambiguity: The effect of context in human sentence processing. PhD Thesis, University of Edinburgh 1986.

804

Altmann, G. T. M. 1987a = Altmann, Gerry T. M.: Modularity and interaction in sentence processing. In: Garfield [ed.] 1987, 428—444. Altmann, G. T. M. 1987b = Altmann, Gerry T. M.: Ambiguity, parsing strategies, and computational models. Manuscript, submitted for publication. [1987]. Altmann, G. T. M./Steedman 1987 = Altmann, Gerry T. M./Steedman, Mark: Interaction with context during human sentence processing. Manuscript, submitted for publication. [1987]. Altmann, H. 1981 = Altmann, Hans: Formen der „Herausstellung“ im Deutschen. Rechtsversetzung, Freies Thema und verwandte Konstruktionen. Tübingen 1981. Alvey Worksh op Speech Tech nology 1984 = Alvey: MMI Workshop on Speech Technology, Coventry. Brentford, Middlesex 1984. Amano 1985 = Amano, Shin-ya: Toshiba Machine Translation System. In: JIPDEC 1985, 45—48. Amano 1986 = Amano, Shin-ya: The Toshiba machine translation system. In: Future Generations Computer Systems 2, 1986, 121—123. American Council on Education [ed.] 1983 = American Council on Education [ed.]: American Universities and Colleges. 12th edition. New York 1983. Amirova 1977 = Amirova, Tamara A.: K istorii i teorii grafemiki. (Zur Geschichte und Theorie der Graphematik). Moskva 1977. Amsler 1980 = Amsler, Robert A.: The Structure of the Merriam-Webster Pocket Dictionary. Ph.D. Thesis, Department of Computer Sciences, University of Texas, TR-164. Austin 1980. Amsler 1982 = Amsler, Robert A.: Computational Lexicology: A Research Program. In: Proceedings of the American Federation for Information Processing Societies, AFIPS, 1982, 657—663. Amsler 1984 = Amsler, Robert A.: Machine-readable dictionaries. In: Williams [ed.] 1984, 161—209. Amsler 1986 = Amsler, Robert A.: Deriving Lexical Knowledge Base Entries from Existing Machine-Readable Information Sources. Paper presented at the workshop „On Automating the Dictionary“. Grosseto 1986. Anderl/Rix/Wetzel 1983 = Anderl, Reiner/Rix, Joachim/Wetzel, Harald: GKS im Anwendungsbereich CAD. In: Informatik-Spektrum 6, 1983, 76—81. Anderson, J. A./Silverstein/Ritz et al. 1977 = Anderson, James A./Silverstein, Jack W./Ritz, Stephen R. et al.: Distinctive features, categorial perception, and probability learning. In: Psychological Review 84, 1977, 413—451. Anderson, J. M./Jones [eds.] 1974 = Anderson, J. M./Jones, C. [eds.]: Proceedings of the First International Conference on Historical Linguistics. Amsterdam 1974. Anderson, J. R. 1975 = Anderson, John R.: Induction of augmented transition networks. In: Cogni-

XIII. Bibliography

tive Science, 1975, 125—157. Anderson, J. R./Bower 1974 = Anderson, John R./Bower, Gordon H.: Human Associative Memory. 2nd edition. Washington 1974. Andersson 1978 = Andersson, Gunnar: Praxisbezug und Erkenntnisfortschritt. In: Hubig/Rahden [eds.] 1978, 58—80. Andrada/Lewis/Sh rier et al. 1969 = Andrada, James/Lewis, Clayton/Shrier, Martha et al.: Language Generator and Processor, IBM FSD, Boston PC. Cambridge, Mass. 1969. Andreev 1957 = Andreev, Nikolaj D.: Mašinnyj perevod i problema j azyka-posrednika. In: Voprosy jazykoznanija, 1957, No. 5, 117—121. Andreev 1967 = Andreev, Nicolaj D.: The intermediary language as the focal point of machine translation. In: Booth [ed.] 1967, 1—29. Andrjuščenko 1982 = Andrj uščenko, Vladimir M.: Avtomatizirovanna ja leksikografičeska ja sistema UNILEX. In: Vyčislitel’na j a lingvistika, Moscow 1982. Andrjuščenko 1985 = Andrj uščenko, Vladimir M.: Mašinny j fond russkogo j azyka: postanovka zadači i praktičeskie šagi. In: Voprosy j azykoznanij a, 1985, No. 2, 54—64. Andrjuščenko/Šaljapina [eds.] 1982 = Andr j uščenko, Vladimir M./Šalj apina, Zoj a M. [eds.]: Aktual’nye voprosy praktičeskoj realizacii sistem avtomatičeskogo perevoda. 1.2. Moskva 1982. Anno 1980a = Anno, E. I.: Choice of a formal model for the syntactic structure of naturallanguage texts. In: Automatic Documentation and Mathematical Linguistics 14, 1, 1980, 37—44. Anno 1980b = Anno, E. I.: Typology of syntactic analysis algorithms for formal models of natural language. In: Automatic Documentation and Mathematical Linguistics 14, 2, 1980, 25—39. Anonym 1949 = Anonym: The principles of the international phonetic association. London 1949. Anonym 1984 = Anonym: A—Z of Personal computers. No. 2, Video Press. London 1984. Anonym 1985 = Anonym: Die elektronische Sprachverarbeitung entwächst den Kinderschuhen. In: Die Umschau 85, No. 8, 1985, 490—492. Antal [ed.] 1972 = Antal, László [ed.]: Aspekte der Semantik, zu ihrer Theorie und Geschichte 1662—1969. Frankfurt/M. 1972. Anttila 1972 = Anttila, Raimo: An Introduction to Historical and Comparative Linguistics. New York 1972. Appelo 1986 = Appelo, Lisette: The Machine Translation System ROSETTA. In: Proceedings of IAI-MT 86, 20—22 August 1986, Dudweiler 1986, 34—50. Appelt 1981 = Appelt, Douglas E.: Planning natural language utterances to satisfy multiple goals. Diss. Stanford University 1981. Appelt 1985a = Appelt, Douglas E.: Planning English Referring Expressions. In: Artificial Intelligence 26, 1985, 1—33.

XIII. Bibliography

Appelt 1985b = Appelt, Douglas E.: Planning English sentences. Cambridge 1985. Apresjan 1967 = Apresj an, Jurij D.: Eksperimental’noe issledovanie semantiki russkogo glagola. Moscow 1967. Apresjan 1974 = Apresj an, Jurij D.: Leksičekaj a semantika. Moscow 1974. Apresjan 1980 = Apresj an, Jurij D.: Tipy informacii j dl a poverchnostno-semantičeskogo komponenta modeli smysl 〈-〉 tekst (Types of information for the surface semantic component of the sense 〈-〉 text model). Wiener slawistischer Almanach, Sonderband I. Wien 1980. Apresjan 1982 = Apresj an, Jurij D.: Tolkovo-kombinatornyj slovar’ v formal’noe modeli j azyka i razrešenie mnogoznačnosti. In: Andr j uščenko/ Šaljapina [eds.] 1982, 2., 108—128. Apresjan 1983 = Apresj an, Jurij D.: Lingvističeskoe obespečenie sistemy francuzsko-russkogo avtomatičeskogo perevoda ĖTAP-1. IV. Francuzski j sintaksičeskij analiz. Moscow 1983. Apresjan/Boguslavskij/Iomdin et al. 1981 = Apres j an, Juri j D./Boguslavski j , I. M./Iomdin, L. L. et al.: Lingvističeskoe obespečenie v sisteme avtomatičeskogo perevoda ĖTAP-1. In: Razrabotka formal’no j modeli estestvennogo j azyka, Novosibirsk 1981, 3—28. Apresjan/Boguslavskij/Iomdin et al. 1982 = Apres j an, Juri j D./Boguslavski j , I. M./Iomdin, L. L. et al.: Tipy leksikografičeskoj informacii v tolkovo-kombinatornom slovare. In: Andr j uščenko/ Šaljapina [eds.] 1982, 2., 129—187. Apresjan/Boguslavskij/Iomdin et al. 1983 = Apres j an, Juri j D./Boguslavski j , I. M./Iomdin, L. L. et al.: Lingvističeskoe obespečenie sistemy francuzsko-russkogo avtomatičeskogo perevoda ĖTAP-1. V. Francuzskij sintaksičeskij analiz. Moscow 1983. Apresjan/Cinman 1982 = Apresj an, Jurij D./Cinman, L. L.: Ob ideologii sistemy ĖTAP-2. In: Narin’jani [ed.] 1982, 3—19. Arbeitsgruppe MasA 1974 = Arbeitsgruppe MasA: Zur maschinellen Syntaxanalyse I + II. Tübingen 1974. Arbeitskreis 1987 = Arbeitskreis „LDV-Studiengänge„: Vorschläge zur Konturierung des Faches Computerlinguistik. In: LDV-Forum, Bd. 5, Nr. 1, 1987, 76—78. Aries 1977 = Aries, E.: Male-female interpersonal styles in all male, all female, and mixed groups. In: Sargent [ed.] 1977. Arkwrigh t/Kerek 1972 = Arkwright, Thomas/Kerek, Andrew: The mechanical conversion of Hungarian script to phonetic notation. In: Actes du 7e congrès international des scieces phonetiques., Paris 1972, 1084—1087. Arndt 1967 = Arndt, H. W.: Die Entwicklungsstufen von Leibniz’ Begriff einer Lingua universalis. In: Gadamer [ed.] 1967.

805

Arnold 1986 = Arnold, Doug: Eurotra: a European Perspective on MT, draft of a paper submitted to the IEEE Proceedings on Natural Language Processing. o. O. 1986. Arnold/Tombe/Jaspaert et al. 1985 = Arnold, Doug/Tombe, Louis des/Jaspaert, Lieven et al.: Eurotra Linguistic Specifications, Version 3. Jan. 1985. Artymovyč 1932 = Artymovyč, Agenor: Fremdwort und Schrift. In: Charisterio Guilelmo Mathesio., Praha 1932, 114—117. Association of Commonwealth Universities [ed.] 1985 = Association of Commonwealth Universities [ed.]: Commonwealth Universities Yearbook 1985. London 1985. Atkinson/Wilson 1969 = Atkinson, R. V./Wilson, H. A.: Computer Assisted Instruction: a Book of Readings. New York 1969. Attar/Fraenkel 1977 = Attar, R./Fraenkel, A. S.: Local feedback in full-text retrieval systems. In: Journal of the Association for Computing Machinery 24, 1977, 397—417. Augst 1975a = Augst, Gerhard: Lexikon zur Wortbildung. Morpheminventar A—Z der deutschen Gegenwartssprache. 3 Bde. Tübingen 1975. Augst 1975b = Augst, Gerhard: Untersuchungen zum Morpheminventar der deutschen Gegenwartssprache. Tübingen 1975. Austin, D. 1976 = Austin, D.: PRECIS in a Multilingual Context. In: Libri 26, 1976, 1—37. Austin, J. 1962 = Austin, John: How to do Things with Words. Oxford 1962 (Dt. Übers. Stuttgart 1972). Averbuc h /Ba h l/Bakis et al. 1987 = Averbuch, A./Bahl, L./Bakis, R. et al.: Experiments with the Tangora 20000 Word Speech Recognizer. In: Proc. 1987 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, Dallas, Texas April 1987, 17.4.1—4. Baase 1978 = Baase, S.: Computer Algorithms: Introduction to Design and Analysis. Reading, Mass. 1978. Bach 1981 = Bach, Emmon: Discontinuous constituents in generalized categorial grammars. In: Proceedings of the 11th Annual Meeting of the North Eastern Linguistic Society., Amherst, Mass. 1981, 1—12. Bach /Harms [eds.] 1968 = Bach, Emmon/Harms, Robert T. [eds.]: Universals in linguistic theory. New York etc. 1968. Bac h enko/Hindle/Fitzpatrick 1983 = Bachenko, Joan/Hindle, Donald/Fitzpatrick, Eileen: Constraining a Deterministic Parser. In: Proceedings of The National Conference on Artificial Intelligence, 1983, 8—11. Bac h ut/Verastegui 1984 = Bachut, Daniel/Verastegui, Nelson: Software tools for the environment of a computer aided translation system. In: COLING ’84, Proceedings of the 10th Internatio-

806

nal Conference on Computational Linguistics, Stanford 1984, 330—333. Backus 1959 = Backus, J. W.: The syntax and semantics of the proposed international algebraic language of the Zurich ACM-GAMM conference. Paris 1959. Backus 1978 = Backus, John: Can Programming Be Liberated from the von Neumann Style? In: Communications of the ACM, Vol. 21, No. 8, 1978, 613—641. Backus 1981 = Backus, John: The History of Fortran. In: Wexelblat [ed.] 1981. Bäuerle/Egli/Stec h ow [eds.] 1979 = Bäuerle, R./Egli, U./Stechow, A. v. [eds.]: Semantics from Different Points of a View. (= Language and Communication, 6). Berlin 1979. Bah l/Kelinek/Mercer 1983 = Bahl, L. R./Jelinek, F./Mercer, R. L.: A Maximum Likelihood Approach to Continouous Speech Recognition. In: IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. PAMI-5, No. 2, 1983, 179—190. Bah r 1978 = Bahr, J.: Reflections on the Proj ect of a Lexical Data Bank. In: Cahiers de Lexicologie 32 (1), 1978, 55—64. Bah renberg/Giese 1975 = Bahrenberg, Gerhard/ Giese, Ernst: Statistische Methoden und ihre Anwendung in der Geographie. (= Borcherdt, Chr./Rath j ens, C./Wirth, E. [eds.]: Studienbücher der Geographie). Stuttgart 1975. Bailey 1979 = Bailey, R. W.: Authorship Attribution in a Forensic Setting. In: Ager/Knowles/ Smith [eds.] 1979, 1—20. Bailey 1980 = Bailey, R. W.: Determining Authorship in Ancient Greek. In: Malachi [ed.] 1980, 279—290. Baker, B. S. 1978 = Baker, B. S.: Tree transducers and tree languages. In: Information and Control 37, 3, 1978, 241—266. Baker, D. B./Horiszny/Metanomski 1980 = Baker, D. B./Horiszny, J. W./Metanomski, W. V.: History of abstracting at chemical abstracts. In: Journal of Chemical Information and Computer Science 4, 1980, 193—201. Baker, F. B. 1978 = Baker, F. B.: Computer Managed Instruction Theory and Practice. Englewood Cliffs, N.J. 1978. Baker, J. K. 1975a = Baker, J. K.: The DRAGON System — An Overview. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-23, No. 1, 1975, 24—29. Baker, J. K. 1975b = Baker, J. K.: Stochastic Modeling for Automatic Speech Understanding. In: Reddy [ed.] 1975, 512—542. Ball/Nash 1982 = Ball, D./Nash, A.: An Introduction to Microcomputers in Teaching. London 1982. Ballard [ed.] 1985 = Ballard, Bruce [ed.]: Special issue on transportable natural language processing. In: ACM Transactions on Office Information Systems 3, 1985, 104—230.

XIII. Bibliography

Ballmer/Posner [eds.] 1985 = Ballmer, Thomas T./Posner, Roland [eds.]: Nach-Chomskysche Linguistik. Berlin — New York 1985. Balmayer 1984 = Balmayer, L.: Méthode de l’indice relatif moyen de coherence appliquée à l’atlas linguistique du Montpellierain. In: Goebl [ed.] 1984, 70—82. Balzert [ed.] 1983 = Balzert, H. [ed.]: Software-Ergonomie. Stuttgart 1983. Bandelt/Dress 1986 = Bandelt, Hans-Jürgen/ Dress, Andreas: Reconstructing the Shape of a Tree from Observed Dissimilarity Data. In: Advances in Applied Mathematics 7, 1986, 309—343. Bar-Hillel 1953 = Bar-Hillel, Yehoshua: On recursive definitions in empirical science. In: Proceedings of the 11th International Congress of Philosophy, Bd. 5., Brüssel 1953. Bar-Hillel 1964 = Bar-Hillel, Yehoshua: Language and Information. Jerusalem 1964. Bar-Hillel 1965 = Bar-Hillel, Yehoshua: The Outlook for Computational Semantics. In: Josselson [ed.] 1965, I-1—I-14. Bar-Hillel 1969 = Bar-Hillel, Yehoshua: Universale Semantik und Sprachphilosophie: Schwierigkeiten und Aussichten. In: Antal [ed.] 1972, 291—315. Bar-Hillel/Sh amir 1969 = Bar-Hillel, Yehoshua/ Shamir, E.: Finite state languages: formal representations and adequacy problems. In: Bulletin of the Research Council of Israel, 8 F. Bara/Guida [eds.] 1984 = Bara, Bruno G./Guida, Giovanni [eds.]: Computational Models of Natural Language Processing. Amsterdam — New York — Oxford 1984. Barlow/Flickinger/Sag [eds.] 1982 = Barlow, Michael/Flickinger, Daniel/Sag, Ivan A. [eds.]: Developments in generalized phrase structure grammar. Bd. 2. Bloomington 1982. Barlow/Flickinger/Wescoat [eds.] 1983 = Barlow, Michael/Flickinger, Daniel/Wescoat, Michael [eds.]: Proceedings of the Second West Coast Conference in Applied Natural Language Processing. Santa Monica 1983. Barr/Feigenbaum/Coh en [eds.] 1981/82 = Barr, Avron/Feigenbaum, Edward A./Cohen, Paul R. [eds.]: The Handbook of Artificial Intelligence. 3 Volumes. Stanford — Los Altos 1981/82. Barrow/Bolles/Garvey et al. 1980 = Barrow, H. G. P./Bolles, R. C./Garvey, T. D. et al.: Interactive aids for cartography and photo interpretation. In: Image understanding. Proceedings of a Workshop held at Palo Alto, California, 1980, 20—21. Barstow 1977 = Barstow, David R.: Automatic construction of algorithms and data structures using a knowledge base of programming rules. Memo AIM-308. Stanford 1977. Barstow/Sh robe/Sandewall [eds.] 1984 = Barstow, David R./Shrobe, H. E./Sandewall, E. [eds.]: Interactive Programming Environments. McGraw Hill 1984.

XIII. Bibliography

Bartkov 1982 = Bartkov, Boris J.: Količestvennaj a morfemographi j a (derivatologi j a) angli j kogo, nemetskogo, francuzskogo j azykov. In: Osnovosloghenie i poluaffiksacia v naučnom stile i literaturnoj norme (Stem adding and polyaffixation in scientific style and literary norms), Vladivostok 1982, 27—55. Bartlett 1894 = Bartlett, John: A New and Complete Concordance or Verbal Index to Words, Phrases & Passages in the Dramatic Works of Shakespeare. New York 1894. Barton 1984 = Barton, G. Edward: Toward a principle-based parser. M. I. T. A. I. Memo 788. Cambridge, Mass. 1984. Barton 1985 = Barton, G. Edward: On the complexity of ID/LP Parsing. In: Computational Linguistics 11, 1985, 205—218. Barwise/Perry 1983 = Barwise, John/Perry, J.: Situations and Attitudes. Cambridge, Mass. 1983. Bates 1978 = Bates, Madeleine: The theory and practice of augmented transition network grammars. In: Bolc [ed.] 1978a, 191—257. Bates 1980 = Bates, Madeleine: Theorie und Praxis der ATN-Grammatiken. In: Christaller/Metzing [eds.] 1979/80, Teil II, 1980, 1—90. Bates/Bobrow 1984 = Bates, Madeleine/Bobrow, R. I.: Natural language interfaces: what’s here, what’s coming and who needs it. In: Reitman [ed.] 1984. Bates/Ingria 1981 = Bates, Madeleine/Ingria, Robert: Controlled transformational sentence generation. In: Proceedings of the 19th Annual Meeting of the Association for Computational Linguistics, 1981, 153—158. Bates/Ingria 1984 = Bates, Madeleine/Ingria, Robert: Dictionary Documentation. Cambridge 1984. Bates/Sidner 1983 = Bates, Madeleine/Sidner, C. L.: A Case Study of a Method for Determing the Necessary Characteristics of a Natural Language Interface. North-Holland 1983. Bátori 1977a = Bátori, István S.: Linguistische Datenverarbeitung, Computergestützte Sprachforschung und EDV für Philologen. In: Sprache und Datenverarbeitung 1, 1977, 2—11. Bátori 1977b = Bátori, István S.: Working with the interactive version of the T. G. T.-System of Joyce Friedman. In: Zampolli/Calzolari [eds.] 1977, 103—120. Bátori 1978 = Bátori, István S.: On the Procedural Motivation of Natural Language Structures. In: SMIL 2, 1978, 38—53. Bátori 1981a = Bátori, István S.: Die Grammatik aus der Sicht kognitiver Prozesse. Tübingen 1981. Bátori 1981b = Bátori, István S.: Die maschinelle Kontrolle der hypothetischen uralischen Formen. In: Ortutay/Bereczki/Gulya [eds.] 1981, 121—154. Bátori 1982a = Bátori, István S.: Computersimulation in der linguistischen Forschung (Maschinelle Verifizierung der rekonstruierten Lautformen

807

anhand uralischen Materials). In: Ural-Altaische Jahrbücher 2, 1982, 1—18. Bátori 1982b = Bátori, István S.: Der Sprachliche Verarbeitungsprozeß als paradigmatischer Kern der Linguistischen Datenverarbeitung. In: Bátori/ Krause/Lutz [eds.] 1982, 71—90. Bátori 1986 = Bátori, István S.: Paradigmen der maschinellen Sprachübersetzung. In: Bátori/Weber [eds.] 1986, 3—27. Bátori/Herzog 1981 = Bátori, István S./Herzog, Reinhart: Joyce Friedman’s ”Transformational grammar tester” — Ein Computerprogramm zum Testen formalisierter Grammatiken. In: Herzog [ed.] 1984, 46—62. Bátori/Krause/Lutz [eds.] 1982 = Bátori, István S./Krause, Jürgen/Lutz, Hans-Dieter [eds.]: Linguistische Datenverarbeitung. Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und Künstlicher Intelligenz. Tübingen 1982. Bátori/Weber [eds.] 1986 = Bátori, István S./Weber, Heinz J. [eds.]: Neue Ansätze in Maschineller Sprachübersetzung: Wissensrepräsentation und Textbezug. Tübingen 1986. Bausch 1971 = Bausch, Karl-Heinz: Zu Umschrift gesprochener Hochsprache. In: Texte gesprochener deutscher Standardsprache I. Erarbeitet im Institut für deutsche Sprache Forschungsstelle Freiburg i. Br., München — Düsseldorf 1971, 33—54. Bausch 1975 = Bausch, Karl-Heinz: Zur problematik der empirischen basis in der linguistik. Diskutiert am modusgebrauch in konditionalsätzen. In: Zeitschrift für germanistische Linguistik 3, 1975, 123—148. Bausch 1979 = Bausch, Karl-Heinz: Intuition und Datenerhebung in der Linguistik. In: Bergenholtz/ Schaeder [eds.] 1979, 71—88. Bawden/Greenblatt/Holloway et al. 1979 = Bawden, Alan/Greenblatt, Richard/Holloway, Jack et al.: The Lisp Machine. In: Winston/Brown [eds.] 1979b, 343—373. Baxendale 1958 = Baxendale, P. B.: Machine-aided index for technical literature — an experiment. In: IBM Journal of Research and Development 2, 1958, 354—361. Baxter/Cummings 1982 = Baxter, L./Cummings, M.: Computerized analysis of systemic tree diagrams in old English. In: Lacus Forum 9, 1982, 540—548. Beale 1985 = Beale, Andrew D.: A probabilistic approach to grammatical analysis of written English by computer. In: Second Conference of the European Chapter of the ACL, 1985, 159—165. Bear 1983 = Bear, John: A breath-first parsing model. In: Proceedings of the 8th IJCAI, 1983, 696—698. Bear 1984 = Bear, J.-L.: Computer Architecture. In: Computer, Oct. 1984, 77—87. Bear 1986 = Bear, John: A Morphological Recognizer with Syntactic and Phonological Rules. In:

808

COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 272—276. Bear/Karttunen 1979 = Bear, John/Karttunen, Lauri: PSG. A simple phrase structure parser. In: Texas Linguistic Forum 15, 1979, 1—46. Bech 1963 = Bech, Gunnar: Zur Morphologie der deutschen Substantive. In: Lingua 12, 1963, 177—189. Becker, D. A. 1982 = Becker, Donald A.: Teaching Lautgesetze in the Computer Age. In: Yearbook of the Seminar for Germanic Philology V, 1982, 8—37. Becker, J. D. 1975 = Becker, Joseph D.: The Phrasal Lexicon. In: Theoretical Advances in Natural Language Processing 1 — Proceedings of the Workshop on Theoretical Issues in Natural Language Processing, Cambridge, Mass. 1975, 70—73. Becker, J. D. 1984 = Becker, J. D.: Multilingual Word Processing. In: Scientific American, Vol. 251, No. 1, 1984, 82—93. Beckstein/Görz/Tielemann 1986 = Beckstein, C./Görz, G./Tielemann, M.: FORK: Ein System zur obj ekt- und regelorientierten Programmierung. In: Rollinger/Horn [eds.] 1986, 312—317. Beech [ed.] 1979 = Beech, G. [ed.]: Computer Assisted Learning in Science Education. Oxford 1979. Bejoint 1983 = Bej oint, Henri: On Field-Work in Lexicography. In: Hartmann, R. R. K. [ed.] 1983, 67—76. Beljaeva/Luk’janova/Piotrovskij 1976 = Bel j aeva, Larisa N./Luk’ j anova, Elena M./Piotrovski j , Raimond G.: Mašinna j a lexikografi j a v mnogocelevom avtomatičeskom russkom slovare. In: Linguističeskie issledovani j a (Linguistic research). Voprosy lexikologii, lexikografii y prikladnoj linguistiki, Moscow 1976, 28—43 (in Russian). Bell Teleph one [ed.] 1979 = Bell Telephone [ed.]: UNIX time-sharing-system: UNIX programmers manual. Bd. 2A. 7. Aufl. Murray Hill, N.J. 1979. Bell, D. W./Becker 1983 = Bell, D. W./Becker, R. W.: Designing Experiments to Evaluate Speech I/O Devices and Applications. In: Speech Technology 1, No. 4, 1983, 70—79. Bell, G. 1984 = Bell, Gordon: Standards Can Help Us. In: IEEE Computer, June 1984, 71—77. Bellman 1957 = Bellman, R.: Dynamic Programming. Princeton, N.J. 1957. Belnap/Steel 1976 = Belnap, Nuel D./Steel, Thomas B.: The Logic of Questions and Answers. Bibliography of the Theory of Question and Answers by Urs Egli and Hubert Schleichert. New Haven — London 1976. Ben Hamadou 1986 = Ben Hamadou, Abdelmaj id: A Compression Technique for Arabic Dictionaries. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 286—288. Bendu h n-Metz 1985 = Benduhn-Metz, Anette: Methodological aspects and automatically discovering genealogical dependencies among Greek

XIII. Bibliography

New Testament manuscripts. In: ALLC Journal 5, 1985, 31—35. Bennett/Slocum 1985 = Bennett, Winfield S./Slocum, Jonathan: The LRC Machine Translation System. In: Computational Linguistics 11, No. 2—3, 1985, 111—121. Benzecri 1970 = Benzecri, J. P.: Sur l’analyse des matrices de confusion. In: Revue de statistique appliquée 18, 1970, 5—63. Berelson 1952 = Berelson, Bernard: Content Analysis in Communication Research. Glencoe, Illinois 1952. Berg 1982 = Berg, Eckhard: Entwicklung eines Kodierungssystems am Beispiel frühneuhochdeutscher Texte. In: Lenders/Wegera [eds.] 1982, 19—50. Berg/Frauenknec h t 1982 = Berg, Eckhard/Frauenknecht, Harald: Bereitstellung und Auswertung morphologischer Information zur Untersuchung der Flexivik des Substantivs. In: Lenders/Wegera [eds.] 1982, 99—139. Bergenh oltz 1980 = Bergenholtz, Henning: Das Wortfeld ’Angst’. Eine lexikographische Untersuchung mit Vorschlägen für ein großes interdisziplinäres Wörterbuch der deutschen Sprache. Stuttgart 1980. Bergen h oltz/Mugdan 1979 = Bergenholtz, Henning/Mugdan, Joachim: Einführung in die Morphologie. Stuttgart 1979. Bergen h oltz/Mugdan 1983/84 = Bergenholtz, Henning/Mugdan, Joachim: Grammatik im Wörterbuch. In: Germanistische Linguistik, 1—3/83 und 3—6/84. Bergen h oltz/Mugdan 1984 = Bergenholtz, Henning/Mugdan, Joachim: Grammatik im Wörterbuch: von j a bis Jux. In: Wiegand [ed.] 1984, 47—102. Bergen h oltz/Mugdan 1986 = Bergenholtz, Henning/Mugdan, Joachim: Der neue ‘Super-Duden’: Die authentische Darstellung des deutschen Wortschatzes? In: Wiegand [ed.] 1986, 1—149. Bergenh oltz/Mugdan [eds.] 1985 = Bergenholtz, Henning/Mugdan, Joachim [eds.]: Lexikographie und Grammatik. Akten des Essener Kolloquiums zur Grammatik im Wörterbuch 28.—30. 6. 1984. Tübingen 1985. Bergenh oltz/Sch aeder 1977a = Bergenholtz, Henning/Schaeder, Burkhard: Deskriptive Lexikographie. In: Zeitschrift für germanistische Linguistik 5, 1977, 2—33. Bergenh oltz/Sch aeder 1977b = Bergenholtz, Henning/Schaeder, Burkhard: Die Wortarten des Deutschen. Versuch einer syntaktisch orientierten Klassifikation. Stuttgart 1977. Bergenh oltz/Sch aeder 1978 = Bergenholtz, Hennig/Schaeder, Burkhard: Empirische Textwissenschaft. Probleme des Aufbaus und der Auswertung von Text-Corpora. Kronberg 1978. Bergenh oltz/Sch aeder [eds.] 1979 = Bergenholtz, Henning/Schaeder, Burkhard [eds.]: Empirische Textwissenschaft. Aufbau und Auswertung von Textcorpora. Königstein/Ts. 1979.

XIII. Bibliography

Bergmann 1982 = Bergmann, Henning: Lemmatisierung in HAM-ANS (= Memo ANS10). Hamburg 1982. Berkeley/Bobrow 1962 = Berkeley, E. C./Bobrow, D. G.: The programming Language LISP: its Operations and Applications. MIT 1962. Berkeley/Bobrow 1966 = Berkeley, E. C./Bobrow, D. G.: The Programming Language LISP: Its Operation and Application. Cambridge, Mass. 1966. Berkling 1971 = Berkling, K. J.: A Computing Machine Based on Tree Structures. In: IEEE Trans. Computers, C-20, 4, Jan. 1971, 404—418. Berkling 1975 = Berkling, K. J.: Reduction Languages for Reduction Machines. In: Proceedings 2nd. Int. Symp. Computer Architecture, Houston, Texas, Jan. 1975, IEEE, New York 1975, 133—140. Bermudez 1984 = Bermudez, M.: Regular lookahead and lookback in LR parsers. Santa Cruz, Cal. 1984. Berney 1985 = Berney, C. L.: Text-to-Speech in the Electronic Messaging Environment. In: SPEECH TECH 1985, 26—29. Berry-Roggh e, G. L. 1984 = Berry-Rogghe, Geneviève L.: Some issues in the semantics and pragmatics of definite reference in the context of NL database access. In: Computers and Artificial Intelligence 3, 1984, 49—56. Berry-Rogg h e, G. L./Kaplan 1986 = BerryRogghe, Geneviève L./Kaplan, Randy: On the structure of expository texts; preliminaries to building an expert system from manuals. In: Proceedings of the 6th International Workshop on Expert Systems and their Applications, Avignon 1986, 1125—1132. Berry-Rogg h e, G. L./Kolvenbac h /Lutz 1980 = Berry-Rogghe, Geneviève L./Kolvenbach, Monika/Lutz, Hans-Dieter: Interacting with PLIDIS, a deductive question answering system for German. In: Bolc [ed.] 1980b, 137—216. Berry-Roggh e, G. L./Lutz/Saukko 1979 = BerryRogghe, Geneviève L./Lutz, Hans Dieter/Saukko, Kaij a: Das Informationssystem PLIDIS. In: Kolvenbach/Lötscher/Lutz [eds.] 1979, 39—92. Berry-Roggh e, G. L./Wulz 1978 = Berry-Rogghe, Geneviève L./Wulz, Hanno: An overview of PLIDIS. In: Bolc [ed.] 1978, 87—132. Berry-Roggh e, G. L. M. 1973a = Berry-Rogghe, Geneviève L. M.: COCOA, A Word Count and Concordance Generator. In: ALLC Bulletin 1, 1973, 29—31. Berry-Roggh e, G. L. M. 1973b = Berry-Rogghe, Geneviève L. M.: The computation of collocations and their relevance in lexical studies. In: Aitken/ Bailey/Hamilton-Smith [eds.] 1973, 103—112. Berry-Roggh e, G. L. M. 1976 = Berry-Rogghe, Geneviève L. M.: Ein Programm zur automatischen Phonemisierung deutscher Texte. (Arbeitspapier 10—2—76 der Abt. LDV des Instituts für deutsche Sprache). Mannheim 1976.

809

Bersch in 1977a = Berschin, Helmut: Probleme der Datenaufbereitung in der Automatischen Sprachkartographie. In: Germanistische Linguistik 3—4, 1977, 159—162. Bersch in 1977b = Berschin, Helmut: Was leistet die elktronische Datenverarbeitung in der Dialektologie? In: Germanistische Linguistik 3—4, 1977, 41—54. Bertin 1982 = Bertin, J.: Graphische Darstellungen und die Graphische Weiterverarbeitung der Information. Berlin — New York 1982. Bertsch 1985 = Bertsch, Eberhard: Ein dynamisch zeitoptimierendes Abfragesystem für Textdateien auf der Grundlage der Logik-Programmierung. In: Angewandte Informatik 4, 1985, 137—144. Bertsch /Mueller-von Broch owski 1979 = Bertsch, Eberhard/Mueller-von Brochowski, Angelika: String and File Handling in COMSKEE. In: Sprache und Datenverarbeitung 3, 1979, 1—10. Bertsc h /Mueller-von Broc h owski/Neisius et al. 1976 = Bertsch, Eberhard/Mueller-von Brochowski, Angelika/Neisius, Alfred et al.: Die Programmiersprache Comskee. Saarbrücken 1976. Berwick 1981a = Berwick, Robert C.: Computational complexity and lexical-functional grammar. In: AJCL, Vol. 8, 1981, No. 3—4. Berwick 1981b = Berwick, Robert C.: Computational complexity and lexical-functional grammar. In: Proceedings of the 19th Annual ACL Conference, 1981, 7—12. Berwick 1983a = Berwick, Robert C.: Transformational grammar and artificial intelligence: A contemporary view. In: Cognition and brain theory 6, 1983, 383—416. Berwick 1983b = Berwick, Robert C.: A deterministic parser with broad coverage. In: Proceedings of the 8th IJCAI, 1983, 710—712. Berwick 1984a = Berwick, Robert C.: Strong generative capacity, weak generative capacity and modern linguistic theories. In: Computational Linguistics 10, 1984, 189—202. Berwick 1984b = Berwick, Robert C.: Bounded context parsing and easy learnability. In: COLING ’84, Proceedings of the Tenth International Conference on Computational Linguistics, Stanford 1984, 20—23. Berwick 1985 = Berwick, Robert C.: The acquisition of syntactic knowledge. Cambridge, Mass. 1985. Berwick/Weinberg 1984 = Berwick, Robert C./Weinberg, Amy S.: The grammatical basis of linguistic performance. Cambridge, Mass. 1984. Berzon/Brailovskii 1979 = Berzon, V. E./Brailovskii, A. B.: The Classification of connectors and conversational systems for automatic abstracting. In: Automatic Documentation and Mathematical Linguistics 6, 1979, 32—40. Besch /Knoop/Putsch ke et al. [eds.] 1982 = Besch, Werner/Knoop, Ulrich/Putschke, Wolfgang et al. [eds.]: Dialektologie. Ein Handbuch zur deutschen

810

und allgemeinen Dialektforschung. Bd. 1.1. Berlin —New York 1982. Bessinger/Smith 1969 = Bessinger, Jess B./Smith, Philip H. Jr.: A Concordance to Beowulf. Ithaca, N.Y. 1969. Bessinger/Smith 1978 = Bessinger, Jess B./Smith, Philip H. Jr.: A Concordance to the Anglo-Saxon Poetic Records. Ithaca, N.Y. 1978. Beth /Heß/Wirl 1983 = Beth, Thomas/Heß, Peter/Wirl, Klaus: Kryptographie. Stuttgart 1983. Bettel h äuser 1976 = Bettelhäuser, Hans-Jürgen: Studien zur Substantivflexion der deutschen Gegenwartssprache. Heidelberg 1976. Beutele [ed.] 1981 = Beutele, Günter [ed.]: Semiotik und Massenmedien. München 1981. Bávenot 1961 = Bávenot, Maurice: The tradition of manuscripts. A study in the transmission of St. Cyprian’s Treatises. Oxford 1961. Bibel 1985 = Bibel, Wolfgang: Inferenzmethoden. In: Habel [ed.] 1985, 1—47. Bibel/Petkoff [eds.] 1985 = Bibel, Wolfgang/Petkoff, B. [eds.]: Artificial Intelligence, methodology, systems, applications. Amsterdam — New York — Oxford 1985. Bibel/Siekmann [eds.] 1982 = Bibel, Wolfgang/ Siekmann, Jörg H. [eds.]: Künstliche Intelligenz. IFB 59. Berlin—Heidelberg—New York 1982. Biber 1985 = Biber, Douglas: Investigating macroscopic textual variation through multifeature/ multidimensional analyses. In: Linguistics 23—2, 1985, 337—360. Bien 1983 = Bien, Janusz S.: Articles and resource control. In: Proceedings of the 8th International j oint conference on artificial intelligence. Vol. 2, Karlsruhe 1983, 675—677. Bierfert 1985 = Bierfert, Herbert: Automatische Spracherkennung — von der Theorie zur Praxis. Die Konstruktion eines Spracherkennungssystems als thematischer, methodischer und pragmatischer Prozess. Tübingen 1985. Biermann/Ballard/Holler 1979 = Biermann, A. W./Ballard, B. W./Holler, A. M.: A system for natural language computation. In: SIGLASH Newsletter 12, 1, 1979, 6—16. Biermann/Fineman/Gilbert 1985 = Biermann, A./Fineman, L./Gilbert, K.: An imperative sentence processor for voice interactive office applications. In: ACM Transactions on Office Information Systems 3, 1985, 321—346. Bierwisch 1963 = Bierwisch, Manfred: Grammatik des deutschen Verbs. Berlin (DDR) 1963. Bierwisch 1965 = Bierwisch, Manfred: Eine Hierarchie syntaktisch-semantischer Merkmale. In: Studia Grammatica 5, Berlin 1965, 29—86. Bierwisch 1967 = Bierwisch, Manfred: Some semantic universals of German adj ectivals. In: Foundations of Language 3, 1967, 1—36. Bierwisch 1970 = Bierwisch, Manfred: Semantics. In: Lyons [ed.] 1970, 166—184.

XIII. Bibliography

Bierwisch 1983 = Bierwisch, Manfred: Semantische und konzeptuelle Repräsentationen lexikalischer Einheiten. (= Studia Grammatica XXII). Berlin 1983. Bierwisch /Heidolph [eds.] 1970 = Bierwisch, Manfred/Heidolph, K. [eds.]: Progress in Linguistics. The Hague 1970. Biewer et al. 1985 = Biewer, Axel et al.: ASCOF — ein System zur Französisch-Deutschen Übersetzung. In: Klenk [ed.] 1985b, 34—46. Biewer/Feneyrol/Ritzke et al. 1985 = Biewer, Axel/Feneyrol, Christian/Ritzke, Johannes et al.: ASCOF — A Modular Multilevel System for French-German Translation. In: Computational Linguistics 11, no. 2—3, 1985, 137—154. Billmeier 1979 = Billmeier, Reinhard: Ein pragmatisch orientiertes linguistisches Analyseverfahren zur automatischen Strukturerkennung für deutsche Sätze. In: Kuhlen [ed.] 1979, 283—310. Billmeier 1980 = Billmeier, Reinhard: Entwurf einer praxisorientierten Analysegrammatik. Automatische Struktur- und Inhaltsanalyse für ein nicht-restriktives Information-Retrieval-System. Regensburg 1980. Blåberg 1985 = Blåberg, Olli: A two-level description of Swedish. In: Karlsson [ed.] 1985, 43—62. Blair, D. C./Maron 1985 = Blair, D. C./Maron, M. E.: An evaluation of retrieval effectiveness for a full-text document-retrieval system. In: Communications of the ACM 28, 3, 1985, 289—299. Blair, F. 1966 = Blair, F.: Programming of the grammar tester. In: Lieberman [ed.] 1966. Blaser/Zoeppritz [eds.] 1983 = Blaser, A./Zoeppritz, M. [eds.]: Enduser Systems and their Human Factors. Berlin—New York—Heidelberg—Tokyo 1983. Blatt 1987 = Blatt, Achim: Automatische Analyse des Englischen: Probleme bei der Erweiterung eines bestehenden MÜ-Systems. In: Wilss/Schmitz [eds.] 1987, 293—308. Blin 1951 = Blin, Georges: Stendhal et les problèmes du roman. Paris 1951. Block 1984 = Block, Hans-Ulrich: Maschinelle Übersetzung komplexer französischer Nominalsyntagmen ins Deutsche. Tübingen 1984. Bloomfield 1933 = Bloomfield, L.: Language. New York 1933. Bobrow 1967 = Bobrow, Daniel G.: Syntactic theories in computer implementations. In: Borko [ed.] 1967, 217—251. Bobrow 1968 = Bobrow, Daniel G.: Natural Language Input for a Computer Problem-Solving System. In: Minsky [ed.] 1968, 135—215. Bobrow/Collins [eds.] 1975 = Bobrow, Daniel G./Collins, Allen M. [eds.]: Representation and Understanding. Studies in Cognitive Science. New York 1975. Bobrow/Fraser 1969 = Bobrow, Daniel G./Fraser, E.: An augmented state transition network analysis

XIII. Bibliography

procedure. In: Proceedings of the International Joint Conference on Artificial Intelligence, Washington 1969, Bedford, Mass. 1969, 557—567. Bobrow/Kaplan/Kay et al. 1977 = Bobrow, Daniel G./Kaplan, Ronald/Kay, Martin et al.: GUS — A frame-driven dialog system. In: Artificial Intelligence 8, 2, 1977, 155—173. Bobrow/Stefik 1983 = Bobrow, Daniel G./Stefik, M.: The Loops Manual. Palo Alto, Cal. 1983. Bobrow/Webber 1980a = Bobrow, Daniel G./Webber, Bonnie L.: Knowledge representation for syntactic/semantic processing. In: Proceedings of the 1st Annual Conference of AAAI, Stanford, Cal. 1980, 316—323. Bobrow/Webber 1980b = Bobrow, Daniel G./Webber, Bonnie L.: Psi-Klone: parsing and semantic interpretation in the BBN natural language understanding system. In: Proceedings of the Third Biennial Conference of the Canadian Society for Computational Studies of Intelligence, Victoria 1980, 131—142. Bobrow/Winograd 1977 = Bobrow, Daniel G./Winograd, Terry: An overview of KRL, a knowledge representation language. In: Cognitive Science 1, 1977, 3—46. Bobrow/Winograd 1979 = Bobrow, Daniel G./Winograd, Terry: KRL Another Perspective. In: Cognitive Science 3, 1979, 29—42. Bock 1974 = Bock, Hermann: Automatische Klassifikation. Theoretische und praktische Methoden zur Gruppierung und Strukturierung von Daten. Göttingen 1974. Bock 1977 = Bock, Hermann: Methoden und Probleme der numerischen Klassifikation. In: Dahlberg/Dahlberg [eds.] 1977, 95—115. Böh ling/Spies [eds.] 1979 = Böhling, K. H./Spies, P. P. [eds.]: GI-9, Jahrestagung. Berlin 1979. Böh me 1978 = Böhme, Gernot: Alternativen in der Wissenschaft — Alternativen zur Wissenschaft. In: Hubig/Von Rahden [eds.] 1978, 40—57. Boguraev 1979 = Boguraev, Branimir K.: Automatic resolution of linguistic ambiguities. In: Technical report 11, University of Cambridge Computer Laboratory. Boh nert/Backer 1979 = Bohnert, Herbert G./Bakker, Paul O.: Automatic English-to-logic translation in a simplified model. In: Sedelow/Sedelow [eds.] 1979, 165—223. Boitet 1976 = Boitet, Christian: Un essai de réponse à quelques questions théoretiques et practiques liées a la traduction automatique. Définition d’un système prototype. Grenoble 1976. Boitet 1985 = Boitet, Christian: Traduction (assistée) par Ordinateur: ingéniérie logicielle et linguicielle. Colloque RF & IA, AFCET. Grenoble 1985. Boitet 1986a = Boitet, Christian: The French National MT-Pro j ect: technical organization and translation results of CALLIOPE-AERO. In: IBM Conference on Translation Mechanization, Copenhagen 1986.

811

Boitet 1986b = Boitet, Christian: Current Machine Translation systems developed with GETA’s methodology and software tools. In: ASLIB Conference, London 1986. Boitet/Gerber 1984 = Boitet, Christian/Gerber, René: Expert systems and other new techniques in MT systems. In: COLING ’84, Proceeding of the 10th International Conference on Computational Linguistics, Stanford 1984, 468—471. Boitet/Gerber 1986 = Boitet, Christian/Gerber, René: Expert Systems and other new techniques in M(a)T. In: Bátori/Weber [eds.] 1986, 103—120. Boitet/Guillaume/Quézel-Ambrunaz 1978 = Boitet, Christian/Guillaume, Pierre/Quézel-Ambrunaz, Maurice: Manipulations d’Arborescences et Parallélisme: le Système ROBRA. In: COLING ’78, Proceedings of the 7th International Conference on Computational Linguistics, Bergen 1978, Abstract B 24. Boitet/Guillaume/Quézel-Ambrunaz 1982 = Boitet, Christian/Guillaume, Pierre/Quézel-Ambrunaz, Maurice: Implementation and conversational environment of ARIANE 78.4, An integrated system for automated translation and human revision. In: Horecký [ed.] 1982, 19—27. Boitet/Guillaume/Quézel-Ambrunaz 1985 = Boitet, Christian/Guillaume, Pierre/Quézel-Ambrunaz, Maurice: A case study in software evolution: from ARIANE-78 to ARIANE-85. In: Proceedings of the Conference on theoretical and methodological issues in Machine Translation of natural Languages, Colgate University, Hamilton, N.Y. 1985, 27—58. Boitet/Nedobejkine 1981 = Boitet, Christian/Nedobe j kine, Nikolai: Recent developments in Russian-French Machine Translation at Grenoble. In: Linguistics 19, 1981, 199—271. Boitet/Nedobejkine 1983 = Boitet, Christian/Nedobej kine, Nikolai: Illustration sur le développement d’un atelier de traduction automatisée. In: Colloque ’l’informatique au service de la linguistic’, Univ. de Metz 1983. Boitet/Nedobejkine 1986 = Boitet, Christian/Nedobe j kine, Nikolai: Toward integrated dictionaries for M(a)T: motivations and linguistic organization. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 423—428. Bolc [ed.] 1978a = Bolc, Leonard [ed.]: Natural Language Communication with Computers. Lecture Notes in Computer Science, Vol. 63. Berlin— Heidelberg—Tokyo—New York 1978. Bolc [ed.] 1978b = Bolc, Leonard [ed.]: Speech communication with computers. München—Wien 1978. Bolc [ed.] 1980a = Bolc, Leonard [ed.]: Natural Language Based Computer Systems. München— Wien 1980. Bolc [ed.] 1980b = Bolc, Leonard [ed.]: Natural Language Question Answering Systems. München —Wien 1980.

812

Bolc [ed.] 1980c = Bolc, Leonard [ed.]: Representation and processing of natural language. München —Wien—London 1980. Bolc [ed.] 1983 = Bolc, Leonard [ed.]: The design of interpreters, compilers and editors for augmented transition networks. Berlin — Heidelberg — Tokyo — New York 1983. Bolc/Jarke [eds.] 1986 = Bolc, Leonard/Jarke, M. [eds.]: Cooperative Interfaces to Information Systems. Berlin 1986. Bolc/Strzalkowski 1982 = Bolc, Leonard/Strzalkowski, Tomasz: Transformation of natural language into logical formulas. In: Horecký [ed.] 1982, Amsterdam—New York—Oxford 1982, 29—35. Bolinger 1975 = Bolinger, D.: Aspects of Language. New York 1975. Bolinger 1979 = Bolinger, D.: Meaning and memory. In: Experience forms, their cultural and individual place and function. The Hague 1979. Bollmann/Konrad/Zuse 1983 = Bollmann, P./Konrad, E./Zuse, H.: FAKYR — a Method Base System for Education and Research in Information Retrieval. In: Salton/Schneider 1983, 13—19. Boltz 1978 = Boltz, N.: Eine statistische, computerunterstützte Echtheitsprüfung von The Repentance of Robert Greene: Ein methodischer und systematischer Ansatz. In: Neue Studien zur Anglistik und Amerikanistik, Bd. 12. Bondarenko 1976 = Bondarenko, G. V.: The use of formal text structure analysis methods for automatic indexing and abstracting. In: Automatic Documentation and Mathematical Linguistics 2, 1976, 62—73. Bondzio 1980 = Bondzio, Wilhelm: Ausgewählte Disziplinen und Methoden der Sprachwissenschaft. In: Bondzio et al. 1980, 126—200. Bondzio et al. 1980 = Bondzio, Wilhelm et al.: Einführung in die Grundfragen der Sprachwissenschaft. Von einem Autorenkollektiv unter Leitung von Wilhelm Bondzio. Leipzig 1980. Booch 1983 = Booch, G.: Software Engineering with ADA(R). Menlo Park, Cal. 1983. Book 1971 = Book, R.: Time-bounded grammars and their languages. In: Journal of Computational System Science 5, 1971, 397—429. Boot 1979 = Boot, Martin: Homographie. Ein Beitrag zur automatischen Wortklassenzuweisung in der Computerlinguistik. Proefschrift Universität Utrecht (Ms. vervielfältigt). Utrecht 1979. Boot 1980 = Boot, Martin: Homography and Lemmatization in Dutch texts. In: ALLC Bulletin, 1980, 175—190. Boot 1985 = Boot, Martin: Pattern Matching or Processing without Dictionary with examples from Morphology, Phonematization and Homography. In: Proceeding ALLC Conference 1984, Slatkine Reprints. Boot/Braam 1984 = Boot, Martin/Braam, H.: BOBRA: A computer language for linguistic defi-

XIII. Bibliography

ning purposes. Utrecht 1984. Booth [ed.] 1967 = Booth, Andrew D. [ed.]: Machine translation. Amsterdam 1967. Boreland/Galloway 1980 = Boreland, H./Galloway, P.: Autorship, Discrimination and Clustering: Timonede, Montesino and Two Anonymous Poems. In: ALLC-Bulletin 8, 1980, 125—151. Borin 1985 = Borin, L.: Trånivåmorfologi: Introduction och användarhandledning. Uppsala Universitet, Centrum för Datorlingvistik 1985. Bork 1981 = Bork, A.: Learning with Computers. Bedford, Mass. 1981. Borko[ed.] 1967 = Borko, Harold [ed.]: Automated Language Processing: State of the Art. New Yorket al. 1967. Borko/Bernier 1975 = Borko, H./Bernier, C. L.: Abstracting concepts and methods. New York et al. 1975. Borko/Ch atman 1963 = Borko, H./Chatman, S.: Criteria for acceptable abstracts: A survey of abstracters’ instructions. In: American Documentation 2, 1963, 149—160. Bortolini/Tagliavini/Zampolli 1971 = Bortolini, U./Tagliavini, C./Zampolli, A.: Lessico di frequenza della lingua italiana contemporanea. IBM Italia. Milano 1971. Bosch 1983 = Bosch, P.: Agreement and Anaphora. London 1983. Bostad 1982 = Bostad, Dale A.: Quality control procedures in modification of the Air Force Russian-English MT system. In: Lawson [ed.] 1982, 129—133. Bott 1972 = Bott, M. F.: Computational Linguistics. In: Lyons [ed.] 1972, 215—228. Boulard/Kamp/Ney et al. 1985 = Boulard, H./Kamp, Y./Ney, H. et al.: Speaker Dependent Connected Speech Recognition via Dynamic Programming and Statistical Methods. In: Schroeder, M. R. [ed.] 1985, 115—148. Bovair/Kieras 1985 = Bovair, Susan/Kieras, David E.: A guide to propositional analysis for research on technical prose. In: Britton/Block [eds.] 1985, 315—362. Bowles [ed.] 1967 = Bowles, Edmund A. [ed.]: Computers in the Humanistic Research: Readings and Perspectives. Englewood Cliffs, NJ 1967. Boyer [ed.] 1984 = Boyer, R. S. [ed.]: Conference Record of the 1984 ACM Symposium on Lisp and Functional Programming. Austin Texas Aug. 1984. Brach man 1977 = Brachman, Ronald J.: What’s in a Concept: Structural Foundations for Semantic Networks. In: International Journal of Man-Machine-Studies, Vol. 9, 1977, 127—152. Brach man 1978a = Brachman, Ronald J.: Structured Inheritance Networks. In: Woods/Brachman [eds.] 1978. Brach man 1978b = Brachman, Ronald J.: A Structural Paradigm for Representing Knowledge. BBN report no. 3605. Cambridge, Mass. 1978.

XIII. Bibliography

Brach man 1979 = Brachman, Ronald J.: On the Epistemological Status of Semantic Networks. In: Findler [ed.] 1979, 3—50. Brach man 1983 = Brachman, Ronald J.: What IS-A Is and Isn’t: An Analysis of Taxonomic Links in Semantic Networks. In: IEEE Computer, Oct. 1983, 30—36. Brach man 1985 = Brachman, Ronald J.: “I Lied About the Trees” Or, Defaults and Definitions in Knowledge Representation. In: AI Magazine, Fall, 1985, 80—93. Brach man/Levesque [eds.] 1985 = Brachman, Ronald J./Levesque, H. J. [eds.]: Readings in Knowledge Representation. Palo Alto 1985. Brac h man/Sc h molze 1985 = Brachman, Ronald J./Schmolze, James G.: An Overview of the KLONE Knowledge Representation System. In: Cognitive Science 9, 1985, 171—216. Brach man/Sch molze [eds.] 1982 = Brachman, Ronald J./Schmolze, James G. [eds.]: Proceedings of the 1981 KL-ONE workshop. Fairchild, Technical report no. 618. Fairchild 1982. Brady/Berwick [eds.] 1983 = Brady, J. Michael/ Berwick, Robert C. [eds.]: Computational Models of Discourse. Cambridge, Mass. — London 1983. Brainerd 1970 = Brainerd, Barron: A Stochastic Process Related to Language Change. In: Journal of Applied Probability 7, 1970, 69—78. Brainerd 1980 = Brainerd, Barron: The Chronology of Shakespeare’s Plays: A Statistical Study. In: Computers and the Humanities 14, 1980, 221—230. Brainerd 1983 = Brainerd, Barron: A Stochastic Model for Language Change. In: Brainerd [ed.] 1983, 25—49. Brainerd 1984 = Brainerd, Barron: Semiotics and the computer. In: Recherches sémiotiques 4, 1984, 79—87. Brainerd [ed.] 1983 = Brainerd, Barron [ed.]: Historical Linguistics. Bochum 1983. Bramer [ed.] 1985 = Bramer, M. A. [ed.]: Research and Development in Expert Systems. Cambridge 1985. Brand/Starke 1982 = Brand, Ingeborg/Starke, Ingrid: Ein Verfahren zur Feststellung der Synonymie von Sätzen. In: Kunze [ed.] 1982, 193—221. Brandt Corstius 1974 = Brandt Corstius, H.: Weer een nieuw vak? Rotterdam 1974. Bratley 1983 = Bratley, P.: Computers and Lexicography: Advances and Trends. In: Zampolli/Capelli [eds.] 1983, 83—96. Bratley/Lusignan 1976 = Bratley, P./Lusignan, S.: Information processing in dictionary making: some technical guidelines. In: Computers and the Humanities 10, 1976, 133—143. Brattle Corp. 1984 = Brattle Research Corporation: Artificial Intelligence Computers and Software: Technology and Market Trends. Cambridge, Mass. 1984.

813

Braun 1974 = Braun, Stephan: Algorithmische Linguistik. Stuttgart 1974. Braun/Radermach er [eds.] 1978 = Braun, Edmund/Radermacher, Hans [eds.]: Wissenschaftstheoretisches Lexikon. Graz—Wien—Köln 1978. Braunmüh l/Cook/Meh lh orn et al. 1983 = Braunmühl, B. von/Cook, S./Mehlhorn, K. et al.: The recognition of deterministic CFLs in small time and space. In: Information and Control 58, 1983, 101—112. Brech t 1978 = Brecht, Werner: Natürlichsprachliche Ansätze zu Datenbanksystemen. In: Krallmann [ed.] 1978, 201—215. Brech t 1979 = Brecht, Werner: Morphologische Analyse und Chart-Parsing. In: Kuhlen [ed.] 1979, 233—249. Brekle 1972 = Brekle, Herbert Ernst: Semantik. Eine Einführung in die sprachwissenschaftliche Bedeutungslehre. München 1972. Bresnan 1978 = Bresnan, Joan W.: A realistic transformational grammar. In: Halle/Bresnan/ Miller [eds.] 1978, 1—59. Bresnan [ed.] 1982 = Bresnan, Joan W. [ed.]: The Mental Representation of Grammatical Relations. Cambridge, Mass. — London 1982. Bresnan/Kaplan 1982 = Bresnan, Joan W./Kaplan, R.: Lexical Functional Grammar. In: Bresnan [ed.] 1982, 173—281. Breuer/Brustkern/Th yssen et al. 1979 = Breuer, Günther/Brustkern, Jan/Thyssen, Heinz et al.: PHONTEXT — eine PHONOL-Anwendung zur Erzeugung synthetischer deutscher Sprache. In: Sprache und Datenverarbeitung 3 (1/2), 1979, 10—17. Bridle/Brown/C h amberlain 1982 = Bridle, J. S./Brown, M. D./Chamberlain, R. M.: An Algorithm for Connected Word Recognition. In: Proceedings 1982 IEEE Conf. on Acoustics, Speech and Signal Processing, Paris 1982, 899—902. Brietzmann 1984 = Brietzmann, Astrid: Semantische und Pragmatische Analyse im Erlanger Spracherkennungsprojekt. Diss. Erlangen 1984. Britton/Block [eds.] 1985 = Britton, B. K./Block, J. B. [eds.]: Understanding expository text. Hillsdale, N.J. 1985. Brockh aus 1971 = Brockhaus, Klaus: Automatische Übersetzung. Untersuchungen am Beispiel der Sprachen Englisch und Deutsch. Braunschweig 1971. Brockh aus 1976 = Brockhaus, Klaus: Das Übersetzungssystem SALAT. Teilproj ekt A 2 Automatische Übersetzung (Universität Heidelberg). Forschungsbericht 1. 11. 1973—31. 3. 1976. I und II. SFB 99 Linguistik, Universität Konstanz 1976. Brock h aus/von Stec h ow 1971 = Brockhaus, Klaus/Stechow, Arnim von: On formal semantics: a new approach. In: Linguistische Berichte 11, 1971, 7—36. Brock h aus/Wa h rig 1981/84 = Brockhaus-Wahrig: Deutsches Wörterbuch in 6 Bänden. Wiesbaden 1981/84.

814

Brodda 1983 = Brodda, Benny: An experiment with heuristic parsing of Swedish. In: Proceedings EACL 1983, Stockholm 1983, 66—73. Brodda/Karlgren 1969 = Brodda, Benny/Karlgren, Hans: Trade Mark Similarity Check by Computer. Stockholm 1969. Brodda/Karlsson 1980 = Brodda, Benny/Karlsson, Fred: An Eperiment with Automatic Morphological Analysis of Finnish. In: Papers from the Institute of Linguistics, University of Stockholm, 40. Brodie/Mylopoulos/Sch midt [eds.] 1984 = Brodie, M./Mylopoulos, J./Schmidt, J. [eds.]: On Conceptual Modelling. Berlin 1984. Broemeling 1985 = Broemeling, L. D.: Bayesian Analysis of Linear Models. New York — Basel 1985. Bronnenberg/Bunt/Landsbergen et al. 1980 = Bronnenberg, W. J. H. J./Bunt, H. C./Landsbergen, S. P. J. et al.: The Question-Answering System PHLIAQ1. In: Bolc [ed.] 1980b, 217—305. Brons-Albert 1984 = Brons-Albert, Ruth: Gesprochenes Standarddeutsch. Telefondialoge. Tübingen 1984. Brooks 1978 = Brooks, L.: Non-analytic concept formation and memory for instances. Cognition and categorization. Hillside 1978. Brown, J. S./Burton 1975 = Brown, John Seely/ Burton, Richard R.: Multiple Representations of Knowledge for Tutorial Reasoning. In: Bobrow/ Collins [eds.] 1975, 311—349. Brown, J. S./Burton/Bell 1975 = Brown, John Seely/Burton, Richard R./Bell, Alan G.: SOPHIE: A Step Toward Creating a Reactive Learning Environment. In: International Journal of Man-Machine Studies 7, 1975, 675—696. Brown, P. F./Lee/Spo h rer 1984 = Brown, P. F./Lee, C.-H./Spohrer, J. C.: Bayesian Adaption in Speech Recognition. In: Proceedings 1983 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, Boston 1983, 761—764. Bruce 1972 = Bruce, Bertram C.: A Model for Temporal References and its Application in a Question Answering System. In: Artificial Intelligence, Vol. 3, 1972, 1—25. Bruce 1975a = Bruce, Bertram C.: Belief systems and language understanding. Report No. 2973. Cambridge 1975. Bruce 1975b = Bruce, Bertram C.: Case systems for natural language. In: Artificial Intelligence 6, 1975, 327—360. Bruckert 1984 = Bruckert, E.: A New Text-toSpeech Product Produces Dynamic Human-Quality Voice. In: Speech Technology 2, No. 2, 1984, 114—119. Bruderer 1977 = Bruderer, Herbert E.: Handbook of Machine Translation and Machine-Aided Translation. Automatic Translation of Natural Language and Multilingual Terminology Data Banks. Amsterdam — New York — Oxford 1977.

XIII. Bibliography

Bruderer 1978 = Bruderer, Herbert E.: Handbuch der maschinellen und maschinenunterstützten Sprachübersetzung. München — New York 1978. Brückner 1986 = Brückner, Tobias: Arbeiten zur Erstellung eines morphologischen Vollformenlexikons. In: Hellwig/Lehmann [eds.] 1986, 1—6. Brunet 1978 = Brunet, Etienne: Le Vocabulaire de Jean Giraudoux, structure et évolution, statistique et informatique appliquées à l’étude des textes à partir des données du Trésor de la Langue Française. Genève 1978. Brunet 1981 = Brunet, Etienne: Le vocabulaire français de 1789 à nos j ours, d’après les données du Trésor de la langue française. Genève 1981. Brustkern/Heinze/Sch ulze 1986 = Brustkern, Jan/ Heinze, Gerlind/Schulze, Wolfgang: Die Wortdatenbank des Deutschen. In: Hellwig/Lehmann [eds.] 1986, 26—43. Brustkern/Hess 1983 = Brustkern, Jan/Hess, Klaus Dieter: Machine Readable German Dictionaries — From a Comparative Study to an Integration. In: Linguistica Computazionale III, Supplement, 1983, 77—93. Brustkern/Sc h ulze 1984 = Brustkern, Jan/ Schulze, Wolfgang: The word data base of German. In: Proceedings of the XIth ALLC Conference, Louvain-la-Neuve 1984, 93—106. Buch anan 1986 = Buchanan, Bruce G.: Expert systems: Working systems and the research literature. In: Expert Systems 3, 1986, 32—51. Büc h el/Weber 1986 = Büchel, Gregor/Weber, Nico: Umgebungsanalyse kantischer Texte. In: Hellwig/Lehmann [eds.] 1986, 44—55. Büh ler 1934 = Bühler, K.: Sprachtheorie. Die Darstellungsfunktion der Sprache. Jena 1934. Büh ler 1934 [1965] = Bühler, Karl: Sprachtheorie. Die Darstellungsfunktion der Sprache. Stuttgart (Neudruck) 1965. Bunting 1966 = Bunting, Karl-Dieter: Zur Flexion deutscher Wörter mit einem Computer. Bonn 1966. Bunting 1970 = Bunting, Karl-Dieter: Morphologische Strukturen deutscher Wörter. Hamburg 1970. Bullinger/Fae h nric h /Hoepelmann et al. 1985 = Bullinger, H. J./Faehnrich, K. P./Hoepelmann, J. P. et al.: An Integrated Appoach to Language Processing. In: Speech Technology 3, No. 1, 1985, 62—68. Bunemann 1971 = Bunemann, Peter: The recovery of trees from measures of dissimilarity. In: Hodson/Kendall/Tǎutu [eds.] 1971, 387—395. Bunemann 1974 = Bunemann, Peter: A characterization of rigid circuit graphs. In: Discrete Mathematics 9, 1974, 205—212. Bungarten 1979 = Bungarten, Theo: Das Korpus als empirische Grundlage in der Linguistik und Literaturwissenschaft. In: Bergenholtz/Schaeder [ed.] 1979, 28—51. Bunge 1961 = Bunge, M.: The weight of simplicity in construction and assaying scientific theories. In: Philosophy of Science 28, 1961, 120—149.

XIII. Bibliography

Bunge 1963 = Bunge, M.: The myth of simplicity. Englewood Cliffs 1963. Bunge 1969 = Bunge, M.: Scientific research. I, II. Berlin 1969. Bunt 1981 = Bunt, Harry C.: Rules for the interpretation, evaluation and generation of dialogue acts. In: IPO Annual Progress Report 16, 1981, 99—107. Bunt 1983 = Bunt, Harry C.: A grammar formalism with augmented phrase-construction rules. In: IPO Annual Progress Report 18, 1983, 92—98. Bunt/th oe Sch wartzenberg 1982 = Bunt, Harry C./thoe Schwartzenberg, G. O.: Syntactic, semantic and pragmatic parsing for a natural language dialogue system. In: IPO Annual Progress Report 17, 1982, 123—128. Buráňová et al. 1983 = Buráňová, Eva et al.: System of contact with database in natural language. In: Computers and Artificial Intelligence 2, 1983, 45—57. Burebach [ed.] 1970 = Burebach, Frederick M. [ed.]: Proceedings: Computer Applications to Problems in the Humanities. Brockport, N.Y. 1970. Burg h ardt/Hölker [eds.] 1979 = Burghardt, W./Hölker, K. [eds.]: Text Processing: Papers in Text Analysis and Text Description. Berlin et al. 1979. Burke 1982 = Burke, R. L.: CAI Sourcebook. Englewood Cliffs, N.J. 1982. Burnard 1985 = Burnard, L.: From archive to Data Base. In: Proceedings of the XIIth International ALLC Conference, Nice 1985. Burns 1984 = Burns, Hugh: The challenge for computer-assisted rhetoric. In: Computers and the Humanities 18, 1984, 173—181. Burton, D. M. 1968 = Burton, Delores M.: Some Uses of a Grammatical Concordance. In: Computers and the Humanities 2, 1968, 145—154. Burton, D. M. 1981a = Burton, Delores M.: Automated Concordances and Word Indexes: The Fifties. In: Computers and the Humanities 15, 1981, 1—14. Burton, D. M. 1981b = Burton, Delores M.: Automated Concordances and Word Indexes: The Early Sixties and the Early Centers. In: Computers and the Humanities 15, 1981, 83—100. Burton, D. M. 1981c = Burton, Delores M.: Automated Concordances and Word Indexes: The Process, the Programs, and the Products. In: Computers and the Humanities 15, 1981, 139—154. Burton, D. M. 1982 = Burton, Delores M.: Automated Concordances and Word Indexes: Machine Decisions and Editorial Revisions. In: Computers and the Humanities 16, 1982, 195—218. Burton, R. R. 1976 = Burton, Richard R.: Semantic Grammar: An Engineering Technique for Constructing Natural Language Understanding Systems. Bolt Beranek and Newman Inc., Technical Report 3453, ICAI Rep 3. Cambridge, Mass. 1976. Burton, R. R./Brown/Bell 1974 = Burton, Richard

815

R./Brown, John Seely/Bell, Alan G.: SOPHIE: A Sophisticated Instructional Environment for Teaching Electronic Troubleshooting. Bolt Beranek and Newman Inc., Report 2790, AI Rep 12. Cambridge, Mass. 1974. Burton, S./Sh ort [eds.] 1983 = Burton, Sarah/ Short, Douglas D. [eds.]: Sixth international conference on computers and the humanities. Rockville 1983. Burton-Hunter 1976 = Burton-Hunter, Sarah K.: Romance Etymology: a Computerized Model. In: Computers and the Humanities 10, 1976, 217—220. Burwick 1969 = Burwick, F. L.: Stylistic Continuity and Change in the Prose of Thomas Carlyle. In: Doložel/Bailey [ed.] 1969, 178—196. Busa 1951 = Busa, Roberto, S. J.: Sancti Thomae Aquinatis Hymnorum Ritualium Varia Specimina Concordantiarum. In: Archivum Philosophicum Aloisianum II, 7. Busa 1974 = Busa, Roberto, S. J.: Index Thomisticus: Sancti Thomae Aquinatis Operum Omnium Indices et Concordantiae. Stuttgart 1974. Busc h /Kansy/Müller et al. 1982 = Busch, M./Kansy, K./Müller, B. S. et al.: Einsatzmöglichkeiten der akustischen Datenverarbeitung in Bürokommunikationssystemen. St. Augustin 1982. Busemann 1984 = Busemann, Stephan: Surface Transformations during the Generation of Written German Sentences. HAM-ANS Report 27, University of Hamburg (to appear in: Bolc, Leonard/ McDonald, David D. [eds.]: Natural Language Generation Systems.). Hamburg 1984. Butler 1985a = Butler, Christopher S.: Computerized text processing in linguistic and literary research. In: Linguistic Abstracts 1, 1985, 53—67. Butler 1985b = Butler, Christopher S.: Computers in Linguistics. Oxford 1985. Byrd 1983 = Byrd, R. J.: Word formation in natural language processing systems. In: Proceedings of the 8th International Joint Conference on Artificial Intelligence, Karlsruhe 1983, 704—706. Calbert 1974 = Calbert, Joseph: Dimensions of Style and Meaning in the Language of Trakl and Rilke: Contributions to a Semantics of Style. Tübingen 1974. Callewaert 1987 = Callewaert, Winand M.: Manuscripts, Archetypes and the Computer: A Report. In: Literary and Linguistic Computing 2, 1987, 44—46. Calzolari 1977 = Calzolari, Nicoletta: An empirical approach to circularity in dictionary definitions. In: Cahiers de Lexicologie 31, 1977, 118—128. Calzolari 1982 = Calzolari, Nicoletta: Towards the organization of lexical definitions on a data base structure. In: Hajičova [ed.] 1982, 61—64. Calzolari 1983a = Calzolari, Nicoletta: Samantic links and the dictionary. In: Proceedings of the Sixth International Conference on Computers and the Humanities, Raleigh, North Carolina 1983, 47—50.

816

Calzolari 1983b = Calzolari, Nicoletta: Lexical definitions in a computerized dictionary. In: Computers and Artificial Intelligence II,3, 1983, 225—233. Calzolari 1983c = Calzolari, Nicoletta: Per un’analisi formale della derivazione in italiano: metodologia di lavoro e primi risultati. In: Studi di Lessicografia Italiana, Vol. V, Firenze 1983, 229—242. Calzolari 1983d = Calzolari, Nicoletta: On the Treatment of Derivatives in a Lexical Database. In: Linguistica Computazionale III, Supplement, 1983, 103—113. Calzolari 1984a = Calzolari, Nicoletta: Detecting patterns in a lexical data base. In: COLING ’84, Proceedings of the Tenth International Conference on Computational Linguistics, Stanford 1984, 170—173. Calzolari 1984b = Calzolari, Nicoletta: Machinereadable dictionaries, lexical data bases and the lexical system. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 460. Calzolari 1984c = Calzolari, Nicoletta: MachineReadable Dictionaries: Report of the Workshop Held at SRI International (California), 11—13 April 1983. In: ALLC Bulletin 12, 2, 1984, 51—53. Calzolari 1986 = Calzolari, Nicoletta: Adapting existing information sources to create lexical knowledge bases. Paper presented at the workshop ”On Automating the Dictionary”. Grosseto 1986. Calzolari 1988 = Calzolari, Nicoletta: Structure and Access in an Automated Dictionary and Related Issues. In: Walker/Zampolli/Calzolari [eds.], forthcoming. Calzolari/Ceccotti 1981 = Calzolari, Nicoletta/ Ceccotti, M. L.: Organizing a Large Scale Lexical Database. In: Actes du Congrès International Informatique et Sciences Humaines. Liège L.A.S.L.A., 18—21 November 1981, 155—163. Calzolari/Ceccotti/Roventini 1984 = Calzolari, Nicoletta/Ceccotti, M. L./Roventini, A.: A lexical data base for interactive lemmatization. In: Proceedings of the XIthe International ALLC Conference, Louvaine-la-Neuve 1984. Calzolari/Pecch ia/Zampolli 1980 = Calzolari, Nicoletta/Pecchia, L./Zampolli, A.: Working on the Italian Machine Dictionary: a Semantic Approach. In: Zampolli/Calzolari [eds.] 1980, 50—69. Calzolari/Picch i 1984 = Calzolari, Nicoletta/Picchi, Eugenio: The machine readable dictionary as a powerful tool for consulting large textual archives. In: Corti [ed.] 1984, 275—288. Campos 1985 = Campos, G. L. de: Speech Synthesis for Unrestricted Vocabulary — The Phoneme-Diphone Approach. In: SPECCH TECH 1985, 307—309. Canivet/Malvaux 1964 = Canivet, Pierre/Malvaux, Pierre: La tradition manuscrite du ’Peri tês theias agapês’. In: Byzantion 34, 1964, 385—413.

XIII. Bibliography

Cappeli/Ferrari/Moretti et al. 1984 = Cappeli, Amedo/Ferrari, Giacomo/Moretti, Lorenzo et al.: A framework for integrating syntax and semantics. In: Bara/Guida [eds.] 1984. Carbonell 1970 = Carbonell, Jaime G.: AI in CAI: An artificial intelligence approach to computeraided instruction. In: IEEE Transactions on ManMachine Systems 11, 1970, 671—678. Carbonell 1979 = Carbonell, Jaime G.: Subj ective understanding: computer models of belief systems. Ph.D. Thesis. Research Report No. 150. Dept. of Computer Science, Yale University, New Haven, CO. 1979. Carbonell 1986 = Carbonell, Jaime G.: Requirements for Robust Natural Language Interfaces: The Language Craft and XCALIBUR experiences. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 162—163. Carbonell/Boggs/Mauldin et al. 1983 = Carbonell, Jaime G./Boggs, Mark W./Mauldin, Michael L. et al.: The XCALIBUR Proj ect: A Natural Language Interface to Expert Systems. In: Proceedings of the Eighth International Joint Conference on Artificial Intelligence, 8—12 August, Karlsruhe 1983, 653—656. Carbonell/Cullingford/Gers h man 1978 = Carbonell, J./Cullingford, R. E./Gershman, A. V.: Towards Knowledge-Based Machine Translation. In: Coling ’78, Proceedings of the 7th International Conference on Computational Linguistics, Bergen 1978, Abstract E 1, No. 55. Carbonell/Cullingford/Gers h man 1981 = Carbonell, J./Cullingford, R./Gershman, A.: Steps Toward Knowledge-Based Machine Translation. IEEE Transactions on Pattern Analysis and Machine Intelligence, PAMI-3-4 1981. Carbonell/Hayes 1981 = Carbonell, Jaime G./Hayes, P. J.: Dynamic strategy selection in flexible parsing. In: Proceedings of the 19th Annual ACL Conference, 1981, 143—147. Carbonell/Mic h alski/Mitc h ell 1983 = Carbonell, Jaime G./Michalski, R. S./Mitchell, T.: An Overview of Machine Learning. In: Michalski/Carbonell/Mitchell [eds.] 1983, 3—24. Carbonell/Tomita 1985 = Carbonell, Jaime G./Tomita, Masaru: New approaches to machine translation. In: Nirenburg [ed.] 1985, 59—74. Cardelli 1984 = Cardelli, L.: Semantics of multiple inheritance. Technical Report, Bell Laboratories. Murray Hill, N.J. 1984. Carnap 1969 = Carnap, R.: Einführung in die Philosophie der Naturwissenschaft. München 1969. Carroll, J. A. 1983 = Carroll, J. A.: An island parsing interpreter for the full augmented transition network formalism. In: Proc. EACL 1983, Cambridge, Engl. 1983, 101—105. Carroll, J. B. 1960 = Carroll, J. B.: Vectors of prose style. In: Sebeok [ed.] 1960, 283—292.

XIII. Bibliography

Carroll, J. B./Davies/Rich man 1971 = Carroll, J. B./Davies, P./Richman, B.: The American Heritage Word Frequency Book. Boston, MA 1971. Carvell/Svartvik 1969 = Carvell, H. T./Svartvik, J.: Computational experiments in grammatical classification. The Hague 1969. Cassidy 1977 = Cassidy, Frederic G.: On-Line Mapmaking for the Dictionary of American Regional English. In: Germanistische Linguistik 3—4, 1977, 107—120. Cassirer 1923—31 = Cassirer, Ernst: Philosophie der symbolischen Formen. Berlin 1923—31. Castiglione/Goldman 1984 = Castiglione, D./Goldman, J.: Speech and the Space Station. In: Speech Technology 2, No. 3, 1984, 19—27. Cedergren/Sankoff 1974 = Cedergren, H. J./Sankoff, D.: Variable rules: performance as a statistical reflection of competence. In: Language 50, 1974, 333—355. Cejpek/Hajičov/Kirsch ner et al. 1982 = Ce j pek, Jiři/Ha j ičova, Eva/Kirschner, Zdeněk et al.: Automatické vyhliadávanie informácií z úplého textu (Automatic information retrieval from full texts). Bratislava 1982. Cercone 1977 = Cercone, Nick: Morphological Analysis and Lexicon Design for NaturalLanguage Processing. In: Computers and the Humanities 11,4, 1983, 235—258. Cercone 1979 = Cercone, Nick: Representing natural language in extended semantic networks for representation and comprehension by machine. In: Ager/Knowles/Smith [eds.] 1979, 141—175. Cercone [ed.] 1983 = Cercone, Nick [ed.]: Computational Linguistics. Oxford 1983. Cercone/Goebel 1983 = Cercone, Nick/Goebel, R.: Data bases and knowledge representations for literary and linguistic studies. In: Computers and the Humanities 17, 1983, 121—137. Cercone/Krause/Boates 1983 = Cercone, Nick/ Krause, Max/Boates, John: Minimal and almost perfect hash function search with application to natural language lexicon design. In: Cercone [ed.] 1983, 215—231. Cercone/McCalla 1986 = Cercone, Nick/ McCalla, Gordon: Accessing knowledge through natural language. In: Advances in Computers 25, 1986, 1—99. Cercone/Mercer 1980 = Cercone, Nick/Mercer, Robert: Design of Lexicons in some Natural Language Systems. In: ALLC-Journal 1, 1980, 37—50. Cerl 1977 = CERL: Demonstration of the PLATO IV computer-based education system, (final report). Computer-based Education Research Laboratory, University of Illinois. Urbana 1977. Ch apanis 1973 = Chapanis, A.: The Communication of Factual Information Through Various Channels. In: Information Storage and Retrieval 9, 1973, 215—231.

817

Ch apanis 1975 = Chapanis, A.: Interactive human communication. In: Scientific America, March 1975, 36—42. Ch appuy 1983 = Chappuy, Sylviane: Formalisation de la description des niveaux d’interprétation des langues naturelles. Grenoble 1983. Ch arniak 1976 = Charniak, Eugene: Inference and Knowledge. Part 2. In: Charniak/Wilks [eds.] 1976, 129—154. Ch arniak 1978a = Charniak, Eugene: On the use of framed knowledge in language comprehension. In: Artificial Intelligence 11, 1978, 225—266. Ch arniak 1978b = Charniak, Eugene: With a spoon in the hand this must be the eating frame. In: Proceedings of the Conference on Theoretical Issues in Natural Language Processing-2, Urbana 1978, 187—193. Ch arniak 1981a = Charniak, Eugene: A common representation for problem-solving and languagecomprehension information. In: Artificial Intelligence 16, 1981, 225—255. Ch arniak 1981b = Charniak, Eugene: The caseslot identity theory. In: Cognitive Science 5, 3, 1981, 285—292. Ch arniak 1982 = Charniak, Eugene: Six topics in search of a parser: an overview of AI language research. In: Proceedings of the 7th IJCAI, 1982, 1079—1087. Ch arniak 1983 = Charniak, Eugene: A parser with something for everyone. In: King [ed.] 1983, 117—149. Ch arniak/McDermott 1985 = Charniak, Eugene/ McDermott, Drew V.: Introduction to Artificial Intelligence. Reading, Mass. 1985. C h arniak/Riesbeck/McDermott 1979 = Charniak, Eugene/Riesbeck, Christopher K./McDermott, Brew V.: Artificial Intelligence Programming. Hillsdale, N.J. 1979. Ch arniak/Wilks [eds.] 1976 = Charniak, Eugene/ Wilks, Yorick [eds.]: Computational Semantics. An introduction to Artificial Intelligence and natural language comprehension. Amsterdam—New York —Oxford 1976. Ch arpin 1985 = Charpin, François: Un exemple de traitement syntaxique du latin classique. In: Méthodologie — Informatique — Philosophie 1, Paris 1985, 51—62. Ch auch é 1974 = Chauché, Jacques: Transducteurs et arborescences. Etude et réalisation de systèmes appliqués aux grammaires transformationnelles. Grenoble 1974. Ch auch é 1975 = Chauché, Jacques: Les langages ATEF et CETA. In: AJCL, microfiche 17, 1975, 21—39. Ch erniavsky 1978 = Cherniavsky, V. S.: On Algorithmic Natural Language Analysis and Understanding. In: Information Systems 3, 1978, 5—10. h C erniavsky/Sc h neider 1978 = Cherniavsky, V. S./Schneider, H. J.: On Data Base Systems vie-

818

wed as Programming Language. In: Information Systems 3, 1978, 217—225. Ch erry, E. C. 1957 = Cherry, E. C.: On Human Communication. New York 1957. Ch erry, L. 1982 = Cherry, L.: Writing tools. In: IEEE Transactions on Communications 30, 1982, 100—104. Ch erubim 1980 = Cherubim, Dieter: Grammatikographie. In: Althaus/Henne/Wiegand [eds.] 1980, 768—778. Ch ester 1976 = Chester, Daniel: The Translation of Formal Proofs into English. In: Artificial Intelligence 7, 1976, 261—278. Ch iba 1985 = Chiba, S.: Recent Speech Technology Topics in Japan. In: Speech Technology 2, No. 3, 1985. Ch ish olm 1980 = Chisholm, David: A prosodicphonological dictionary for automatic transcription of large corpora of German verse. In: Sprache und Datenverarbeitung4 (1), 1980, 10—13. Ch ish olm/Sondrup 1986 = Chisholm, David/Sondrup, Steven P.: Verskonkordanz zu Goethes ’Faust, Erster Teil’. Tübingen 1986. Ch ollet/Galliano/Lefevre et al. 1983 = Chollet, G./Galliano, J. F./Lefevre, J. P. et al.: On the Generation and Use of a Segment Dictionary for Speech Coding, Synthesis and Recognition. In: ICASSP Proceedings, 1983, 1328—1331. Ch omsky 1956 = Chomsky, Noam: Three models for the description of language. In: I. R. E. Transactions on Information Theory, IT-2, 1956, 113—124. C h omsky 1957 = Chomsky, Noam: Syntactic Structures. The Hague 1957. Ch omsky 1959 = Chomsky, Noam: On certain formal properties of grammars. In: Information and Control 2, 1959, 137—167. Ch omsky 1961 = Chomsky, Noam: Some methodological remarks on generative grammar. In: Word 17, 1961, 219—239. Ch omsky 1963 = Chomsky, Noam: Formal properties of grammars. In: Handbook of mathematical psychology, New York 1963, 323—418. Ch omsky 1965 = Chomsky, Noam: Aspects of the Theory of Syntax. Cambridge, Mass. 1965. Ch omsky 1970 = Chomsky, Noam: Remarks on nominalization. In: Jacobs/Rosenbaum [eds.] 1970, 184—221. Ch omsky 1980a = Chomsky, Noam: On the representation of form and function. In: Proceedings of the 1980 CNRS, Paris 1980. Ch omsky 1980b = Chomsky, Noam: Rules and Representations. Oxford 1980. Ch omsky 1981a = Chomsky, Noam: Lectures on Government and Binding. Dordrecht 1981. Ch omsky 1981b = Chomsky, Noam: Regeln und Repräsentationen. Frankfurt/M. 1981. Ch omsky 1982 = Chomsky, Noam: Some concepts and consequences of the theory of government and binding. Cambridge, Mass. — London 1982.

XIII. Bibliography

C h omsky/Halle 1968 = Chomsky, Noam/Halle, Morris: The Sound Pattern of English. New York — Evanston — London 1968. C h omsky/Lasnik 1977 = Chomsky, Noam/Lasnik, Howard: Filters and control. In: Linguistic Inquiry 8, 1977, 425—504. Ch omsky/Miller 1963 = Chomsky, Noam/Miller, G. A.: Introduction to the formal analysis of natural languages. In: Handbook of mathematical psychology, New York 1963, 269—321. Ch oroševskij 1983 = Choroševski j , Vladimir F.: ATNL — machine software and hardware. In: Proceedings of the 1st Symposium IFAC on Artificial Intelligence, Leningrad 1983, 112—125. h C oueka/Klein/Neuwitz 1983 = Choueka, J./Klein, S. T./Neuwitz, E.: Automatic Retrieval of Frequent Idiomatic and Collocational Expressions in a Large Corpus. In: ALLC Journal 4, 1983, 34—38. h C oueka/Lusignan (fort h coming) = Choueka, Y./Lusignan, S.: Disambiguation by short contexts. In: Computers and the Humanties, (forthcoming). C h ow/Dun h am/Kimball et al. 1987 = Chow, Y. L./Dunham, M. O./Kimball, O. A. et al.: BYBLOS: The BBN Continuous Speech Recognition System. In: Proc. 1987 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, Dallas, Texas April 1987, 3.7.1—4. Ch ristaller 1983 = Christaller, Thomas: Ein obj ektorientierter Ansatz für die Realisierung komplexer Kontrollstrukturen. In: Stoyan/Wedekind [eds.] 1983. Ch ristaller 1985 = Christaller, Thomas: Parser als integraler Bestandteil von Sprachverarbeitungssystemen. In: Habel [ed.] 1985, 160—183. Ch ristaller 1986 = Christaller, Thomas: Die Entwicklung generischer Kontrollstrukturen aus Kaskadierten ATNs. Dissertation. Hamburg 1986. Ch ristaller/Metzing 1983 = Christaller, Thomas/ Metzing, Dieter: Parsing Interactions and a MultiLevel Parser Formalism Based on Cascaded ATNs. In: Sparck Jones/Wilks [eds.] 1983, 46—60. Ch ristaller/Metzing [eds.] 1979 = Christaller, Thomas/Metzing, Dieter [eds.]: Augmented Transition Network Grammatiken. Bd. I. Aspekte des ATNFormalismus in sprachverarbeitenden Systemen. Berlin 1979. Ch ristaller/Metzing [eds.] 1980 = Christaller, Thomas/Metzing, Dieter [eds.]: Augmented Transition Network Grammatiken. Bd. II. Einführungen, Anwendungen, Weiterentwicklungen. Berlin 1980. Ch urch , A. 1941 = Church, Alonzo: The Calculi of Lamda-Conversion. In: Annal of Mathematics Studies, No. 6. Ch urch , K. W. 1980 = Church, Kenneth Ward: On Memory Limitations in Natural Language Processing. Cambridge 1980. Ch urch , K. W. 1983 = Church, Kenneth Ward: Phrase-structure parsing: a method for taking ad-

XIII. Bibliography

vantage of allophonic constraints. Bloomington, Ind. 1983. Ciesielski 1979 = Ciesielski, V.: Natural language input to a computer-based glaucoma consulation system. In: Proc. 17th Annual Meeting of the ACL, San Diego 1979, 103—107. Cignoni/Peters [eds.] 1983 = Cignoni, L./Peters, C. [eds.]: Computers in Literary and Linguistic Research. In: Proceedings of the VIIth International Symposium of the ALLC, Linguistica Computazionale III, Supplement. Cignoni/Peters/Rossi [eds.] 1983 = Cignoni, L./Peters, C./Rossi, S. [eds.]: European Science Foundation: Survey of Lexicographic Pro j ects. Pisa 1983. Clark, H. H./Haviland 1977 = Clark, Herbert H./Haviland, S. E.: Comprehension and the Given-New Contract. In: Freedl [ed.] 1977, 1—40. Clark, H. H./Marsh all 1981 = Clark, Herbert H./Marshall, Catherine R.: Definite reference and mutual knowledge. In: Joshi/Webber/Sag [eds.] 1981, 10—63. Clark, K. L./Tärnlund [eds.] 1982 = Clark, K. L./Tärnlund, S. A. [eds.]: Logic Programming. Oxford 1982. Class/Stall/Zelinski 1983 = Class, F./Stall, D. S./Zelinski, R.: Probleme bei der automatischen Erkennung und Synthese gebundener Sprache. In: Der GMD-Spiegel No. 1, 1983, 32—37. Cleaveland/Uzgalis 1975 = Cleaveland, J./Uzgalis, R.: Grammars for programming languages: what every programmar should know about grammar. New York 1975. Clemente-Salazar 1982 = Clemente-Salazar, Marco: Une structure intéressante en TA: les E-graphes. In: Hajičova [ed.] 1982. Climenson/Hardwick/Jacobson 1961 = Climenson, W. D./Hardwick, N. H./Jacobson, S. N.: Automatic syntax analysis in machine indexing and abstracting. In: American Documentation 3, 1961, 178—183. Clocksin/Mellis h 1981 = Clocksin, William F./Mellish, Christopher S.: Programming in Prolog. 2nd edition. New York 1981. Clocksin/Mellis h 1984 = Clocksin, William F./Mellish, Christopher S.: Programming in Prolog. Berlin — Heidelberg — New York 1984. CNET 1982 = CNET: Machine-speech and telecommunications. (PTT Télecommunications/ CNET, Direction de l’Information, de la Coopération et des Echanges Techniques, Informationsbroschüre mit Beispielen auf beigelegter Schallplatte). o. O. 1982. Coburn et al. 1982 = Coburn, P. et al.: Practical Guide to Computers in Education. Reading, Mass. 1982. Codd 1970 = Codd, E. F.: A Relational Model of Data for Large Shared Data Bases. In: Communications of the ACM, Vol. 13, No. 6, June 1970,

819

377—387. Codd 1974 = Codd, E. F.: Seven Steps to Rendezvous with the Casual User. In: Klimbie/Koffeman [eds.] 1974, 179—199. Codd 1978 = Codd, E. F.: How about recently? In: Shneiderman [ed.], 3—28. Codd et al. 1978 = Codd, E. F. et al.: RENDEVOUS Version 1: An experimental Englishlanguage query formulation system for casual users of relational data bases. In: IBM Research Report RJ 2144 (29407). Cofer [ed.] 1976 = Cofer, Charles N. [ed.]: The Structure of Human Memory. San Francisco 1976. Coh en 1978 = Cohen, P. R.: Planning speech acts. Ph.D. Thesis. Dept. of Computer Science, University of Toronto 1978. Co h en/Perrault 1979 = Cohen, Phil/Perrault, Ray: Elements of a plan-based theory of speech acts. In: Cognitive Science 3, 1979, 177—212. Coker 1976 = Coker, C. H.: A Model of Articulatory Dynamics and Control. In: Proceedings of the IEEE 64, No. 4, 1976, 452—460. Colby 1975 = Colby, K. M.: Artificial Paranoia. Oxford 1975. Colby 1976 = Colby, K. M.: Artificial paranoia: A computer simulation of paranoid processes. Elmsford, N.Y. 1976. Colby/Parkinson/Faug h t 1974 = Colby, K. M./Parkinson, R. C./Faught, W. S.: Pattern-matching rules for the recognition of natural language dialogue expressions. In: AJCL, Sept. 1974, 5—70. COLING 1986 = International Committee on Computational Linguistics [ed.]: 11th International Conference on Computational Linguistics. Proceedings. Bonn 1986. Collins/Cobuild 1987 = Collins/Cobuild English Language Dictionary. London/Glasgow 1987. Collins/Quillian 1969 = Collins, Allan M./Quillian, M. Ross: Retrieval time for semantic memory. In: Journal of Verbal Learning and Verbal Behavior 8, 1969, 240—247. Collins/Quillian 1970a = Collins, Allan M./Quillian, M. Ross: Does category size affect categorization time? In: Journal of Verbal Learning and Verbal Behavior 9, 1970, 432—438. Collins/Quillian 1970b = Collins, Allan M./Quillian, M. Ross: Facilitating Retrieval from Semantic Memory. In: Sanders [ed.] 1970. Colmerauer 1970 = Colmerauer, Alain: Les systèmes-O, un formalisme pour analyser et synthétiser des phrases sur ordinateur. In: TAUM, Int. Ber. No. 43, Dept. d’Informatique, Univ. de Montréal 1970. Colmerauer 1978 = Colmerauer, Alain: Metamorphosis Grammar. In: Bolc [ed.] 1978, 133—189. Colmerauer 1979 = Colmerauer, Alain: Sur les bases theoriques de Prolog. In: Groupe Programmation et Langages AFCET, division theorique et technique de l’informatique, no. 9, 1979.

820

Colmerauer 1982a = Colmerauer, Alain: An Interesting Subset of Natural Language. In: Clark/ Tärnlund [eds.] 1982. Colmerauer 1982b = Colmerauer, Alain: System Q (Formalismus für die Rechneranalyse und -synthese von Sätzen). In: The Prague bulletin of mathematical linguistics, 1982, 45—74. Colmerauer/Kanoui/Roussel et al. 1973 = Colmerauer, Alain/Kanoui, H./Roussel, P. et al.: Un Systeme de Communication Homme-Machine en Français, Université d’Aix-Marseilles. Marseilles 1973. Computers and th e Humanities 1984 = Computers and the Humanities 18: Special CAI issue. New York 1984. Conrad, C. 1972 = Conrad, Carol: Cognitive economy in semantic memory. In: Journal of Experimental Psychology 92, 1972, 149—154. Conrad, R. 1978 = Conrad, Rudi: Studien zur Syntax und Semantik von Frage und Antwort. Berlin 1978. Conrad, R. 1979 = Conrad, Rudi: Lingvističeskie aspekty formalizacii struktur tipa ’vropos — otvet’. In: Sintaksičeskij i semantičeskij komponent lingvističeskogo obespečenija, Novosibirsk 1979, 3—32. Control Data 1977 = Control Data Corporation: PLATO System Overview. Minneapolis 1977. Cook/Le h nert/McDonald 1984 = Cook, M. E./Lehnert, W. G./McDonald, D. D.: Conveying implicit content in narrative summaries. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 5—7. Cooper/Maron 1978 = Cooper, W. S./Maron, M. E.: Foundation of Probabilistic and Utilitytheoretic Indexing. In: Journal of the ACM 25, 1978, 107—119. Correira 1980 = Correira, Alfred: Computing story trees. In: AJCL 6, 3—4, 1980, 135—149. Corti [ed.] 1984 = Corti, L. [ed.]: Automatic Processing of Art History Data and Documents. Pisa 1984. Costa 1983 = Costa, George J.: Aproximació lingüistica al català de Cerdanya. In: Actes del 1° congrés d’Historia i d’Historia de l’art de la Cerdanya., Puigcerdà 1977, 207 ff. Costa 1984 = Costa, George J.: L’indice général d’indentité au service de la synchronie et la diachronie. In: Goebl [ed.] 1984, 82—101. Costello/Mozer = Costello, B./Mozer, F. S.: Time Domain Synthesis Gives Good-Quality Speech at Very Low Data Rates. In: Speech Technology 1, No. 3, 1982, 62—68. Cottrell/Small 1984 = Cottrell, Garrison W./Small, Steven L.: Viewing parsing as word sense discrimination: a connectionist approach. In: Bara/Guida [eds.] 1984. Coulson [ed.] 1962 = Coulson, J. [ed.]: Programmed Learning and Computer-based Instruction. New York 1962.

XIII. Bibliography

Courtin 1973 = Courtin, Jacques: Un analyseur morphologique et syntaxique pour les langues naturelles. In: Proceedings of COLING ’73, Pisa 1973. Cowie 1983 = Cowie, A. P.: On specifying grammar. In: Hartmann [ed.] 1983, 98—107. Cowie/Mackin/McCaig 1983 = Cowie, A. P./Makkin, R./McCaig, I. R.: Oxford Dictionary of Current Idiomatic English. Volume 2: Phrase, Clause & Sentence Idioms. London 1983. Cox 1973 = Cox, Heinrich L.: Printer und Plotter in der linguistischen Kartographie. In: Leuvense Bijdragen 62, 1973, 139—154. Crain 1980 = Crain, Stephen: Pragmatic Constraints on Sentence Comprehension. Unpublished PhD dissertation, University of California at Irvine. [1980]. Crain/Fodor 1985 = Crain, Stephen/Fodor, Janet Dean: How can grammars help parsers? In: Dowty/Karttunen/Zwicky [eds.], 94—128. Crain/Steedman 1985 = Crain, Stephen/Steedman, Mark: On not being led up the garden path: the use of context by the psychological syntax processor. In: Dowty/Karttunen/Zwicky [eds.] 1985, 320—358. Cravero/Fissore/Pieraccini et al. 1984 = Cravero, M./Fissore, L./Pieraccini, R. et al.: Syntax driven recognition of connected words by Markov models. In: IEEE, 1984, 35.5.1—35.5.4. Cristea/Ciobanu/Tufis 1985 = Cristea, Dan/Ciobanu, Gabriel/Tufis, Dan: Natural language interrogation of relational databases. In: Proceedings of the Fifth symposium of computer science, Iasi [1985]. Crosland 1975 = Crosland, Andrew T.: The Concordance and the Study of the Novel. In: ALLC Bulletin 3, 1975, 190—196. Cruden 1979 = Cruden, Alexander: A Complete Concordance to the Holy Scriptures of the Old and New Testament. New York 1979. Cullingford 1978 = Cullingford, Richard E.: Script application: computer understanding of newspaper stories. Technical Report 116, Yale University, New Haven, CO. 1978. Cullingford 1981 = Cullingford, R.: SAM. In: Schank/Abelson [eds.] 1981, 75—135. Cullingford/Onysh kevych 1985 = Cullingford, Richard E./Onyshkevych, B. A.: Lexicon-driven machine translation. In: Nirenburg [ed.] 1985, 75—115. Culy 1985 = Culy, C.: The complexity of the vocabulary of Bambara. In: Linguistics and Philosophy 8, 1985, 345—351. Cumming 1986 = Cumming, Susanna: Design of a Master Lexicon. Marina del Rey 1986. Cumming/Albano 1986 = Cumming, Susanna/Albano, Robert: A Guide to Lexical Acquisition in the JANUS System. Marina del Rey 1986. Curry/Feys 1958 = Curry, H. B./Feys, R.: Combinatory Logic. Vol. 1. North-Holland 1958.

XIII. Bibliography

Czepluc h /Janssen [eds.] 1984 = Czepluch, H./Janssen, H. [eds.]: Syntaktische Struktur und Kasusrelation. Tübingen 1984. Da h l, O.-J./My h hr aug/Nygaard 1971 = Dahl, O.-J./Myhrhaug, B./Nygaard, K.: Simula 67 Common Base Language. Norwegian Computing Centre, S-22. Oslo 1971. Dah l, V. 1981 = Dahl, Veronica: Translating Spanish into logic through logic. In: AJCL 7, 3, 1981, 149—164. Dah l, V./Abramson 1984 = Dahl, Veronica/Abramson, H.: On gapping grammars. In: Proceedings of the Second International Logic Programming Conference, Uppsala 1984, 77—88. Da h l, V./McCord 1983 = Dahl, Veronica/ McCord, M. C.: Treating coordination in logic grammars. In: AJCL 9, 2, 1983, 69—91. Dah l, V./Saint-Dizier [eds.] 1985 = Dahl, Veronica/Saint-Dizier, P. [eds.]: Natural Language Understanding and Logic Programming. Proceedings of the First International Workshop. AAAI. Rennes 18—20 Sept. 1984. Amsterdam 1985. Da h lberg/Da h lberg [Bearb.] 1977 = Dahlberg, I./Dahlberg, Wolfgang [Bearb.]: Prinzipien der Klassifikation. Proceedings der 1. Fachtagung der Gesellschaft für Klassifikation. Münster/W. 4. Juni 1977. Münster 1977. Damerau 1975 = Damerau, Fred J.: The Use of Function Word Frequencies as Indicators of Style. In: Computers and the Humanities 9, 1975, 271—280. Damerau 1979 = Damerau, Fred J.: Operating statistics for the Transformational Query Answering System (TQA). In: IBM Research Report RC 7739. Damerau 1981 = Damerau, Fred J.: Operating Statistics for the Transformational Question Answering System. In: American Journal of Computational Linguistics 7 (1), 1981, 30—42. Dammers/Frackenpo h l/Ge h rke 1982 = Dammers, Ulf/Frackenpohl, Gert/Gehrke, Manfred: Bereitstellung und Auswertung morphologischer Information zur Untersuchung der Flexivik des Verbs. In: Lenders/Wegera [eds.] 1982, 141—223. Dammers/Hoffmann/Solms 1988 = Dammers, Ulf/Hoffmann, Walter/Solms, Hans-Joachim: Grammatik des Frühneuhochdeutschen. In: Moser/Stopp/Besch [eds.] 1986 f., Heidelberg 1988, [im Druck]. Dandien 1985 = Dandien, E. M.: La base de donnees de l’INALF. In: Proceedings of the XIIth International ALLC Conference, Nice 1985. Danik 1984 = Danik, A.: The ALPS Computer Assisted Translation System. In: The British Computer Society Newsletter 14, 1984, 3—12. Danlos 1985 = Danlos, Laurence: Génération automatique de textes en langues naturelles. Paris 1985. Danlos/Emerard 1985 = Danlos, Laurence/Emerard, F.: Une structure prosodique du français. In:

821

Actes du GALF, journées d’études sur la parole.. Danlos/Laporte/Emerard 1986 = Danlos, Laurence/Laporte, Eric/Emerard, Françoise: Synthesis of Spoken Messages from Semantic Representations (Semantic-Representation-to-Speech System). In: COLING ’86, Proceedings of the 11th International Conference on Computational Lingusitics, Bonn 1986, 599—604. Darlington/Reeve 1981 = Darlington, J./Reeve, M.: ALICE - A Multiprocessor Reduction Machine for the Parallel Evaluation of Applicative Languages. In: Proceedings 1981 Conf. on Functional Programming Languages and Computer Architecture, ACM, New York 1981, 65—76. Dattola 1979 = Dattola, R. T.: FIRST: Flexible Information Retrieval System for Text. In: Journal of the ASIS 30, 1979, 9—14. Davey 1978 = Davey, Anthony: Discourse Production. Edinburgh 1978. Davey 1979 = Davey, Anthony: Discourse Production. A computer model of some aspects of a speaker. Edinburgh 1979. Davidson/Harman 1972 = Davidson, Donald/ Harman, Gilbert: Semantics of Natural Language. Second edition. Dordrecht 1972. Davis, A. L. 1978 = Davis, A. L.: The Architecture and System Method of DDM1: A Recursively Structured Data-Driven Machine. In: Proc. 5th Annual Symp. on Computer Architecture, IEEE, U.S.A. 1978, 210—215. Davis, R./Buch anan 1977 = Davis, R./Buchanan, B. G.: Meta-level knowledge: an overview and applications. In: Proceedings of the 5th IJCAI, 1977, 920—927. Davis, R./King 1977 = Davis, R./King, J.: An overview of production systems. In: Elcock/Michie [eds.] 1977, 300—304. De Haan 1984a = De Haan, Pieter: ProblemOriented Tagging of English Corpus Data. In: Aarts/Meijs [eds.] 1984, 123—139. De Haan 1984b = De Haan, Pieter: Relative clauses compared. In: ICAME News 8, 47—59. De Roeck 1983 = De Roeck, Anne: An underview of parsing. In: King [ed.] 1983, 3—17. DeJong 1979a = DeJong, Gerald F.: Prediction and substantiation: a new approach to natural language processing. In: Cognitive Science 3, 3, 1979, 251—273. DeJong 1979b = DeJong, Gerald F.: Skimming stories in real time: an experiment in integrated understanding. Ph.D. Diss., Yale University, New Haven, CO. 1979. DeJong 1982 = DeJong, Gerald F.: An overview of the FRUMP system. In: Lehnert/Ringle [eds.] 1982, 149—176. DeKleer 1986 = DeKleer, J.: (a) An AssumptionBased TMS. (b) Extending the ATMS. (c) Problem Solving with the ATMS. In: AI Journal, Vol. 28, 1986, 127—163—197—224.

822

DeSipio/Fry 1983 = DeSipio, R. G./Fry, E.: Avionics System Plays Ask and Tell with Its Operator. In: Speech Technology 1, No. 4, 1983, 89—93. Dean 1965 = Dean, H. Obrecht: Toward automated phonological mapping. In: Linguistics 17, 1965, 21—35. Dean/Wh itlock 1983 = Dean, C./Whitlock, Q.: A Handbook of Computer Based Training. London 1983. Dearing 1974 = Dearing, Vinton A.: Principles and practice of textual analysis. Berkeley — Los Angeles 1974. Deh m 1981 = Dehm, Ursula: Thesen zum Vergleich elektronischer und konventioneller Inhaltsanalysen. In: Beutele [ed.] 1981. Deich sel 1975 = Deichsel, Alexander: Elektronische Inhaltsanalyse — zur quantitativen Beobachtung sprachlichen Handelns. Berlin 1975. Deliyanni/Kowalski 1979 = Deliyanni, A./Kowalski, R.: Logic and Semantic Networks. In: Communications of the ACM, Vol. 22, 1979, 184—192. Dell 1985 = Dell, Garry S.: Positive feedback in hierarchical connectionist models: applications to language production. In: Cognitive Scinece 9, 1985, 3—23. Derr/McKeown 1984 = Derr, M./McKeown, K.: Using Focus to Generate Complex and Simple Sentences. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 319—326. Deutsch 1973 = Deutsch, L. P.: A Lisp Machine with Very Compact Programs. In: Proceedings of the Third IJCAI, Stanford, Cal. 1973. Deutsch 1982 = Deutsch, L. P.: The Dorado Smalltalk-80 Implementation: Hardware Architecture’s Impact on Software Architecture. In: Krasner [ed.] 1982. Devons 1985 = Devons, Nina: Concerning Corpus Derived Lexical Frequency Ratings. In: Preprint for the XIIth ALLC Conference 5.—8. Juni 1985, Nizza 1985, 87. Deweese 1977 = Deweese, L. C.: Computer Content Analysis of ’day old’ newspapers: a feasibility study. In: Public Opinion Quarterly 41, 1977, 91—94. DGD [ed.] 1983a = Deutsche Gesellschaft für Dokumentation [ed.]: Deutscher Dokumentartag 1983. München et al. 1983. DGD [ed.] 1983b = Deutsche Gesellschaft für Dokumentation [ed.]: Deutscher Dokumentartag 1982: Fachinformation im Zeitalter der Informationsindustrie, Lübeck-Travemünde, 27.—30. 9. 1982. München et al. 1983. DiPrimo/Ch ristaller 1983 = DiPrimo, F./Christaller, Thomas: A poor man’s flavor system. In: ISSCO, Working Paper 47. DiSessa 1982 = DiSessa, Andrea A.: Unlearning aristotelian physics: A study of knowledge-based learning. In: Cognitive Science 6, 1982, 37—55.

XIII. Bibliography

Diedrich 1986 = Diedrich, Joachim: Kognitive Parallelverarbeitung. In: GMD Bericht 159. Diedrich 1987 = Diedrich, Joachim: Simulation schizophrener Sprache. Opladen 1987. Diedric h /Lisc h ka 1987 = Diedrich, Joachim/ Lischka, Christoph: SPREAD-3. Ein Werkzeug zur Simulation konnektionistischer Modelle auf Lisp-Maschinen. GMD, St. Augustin 1987. Dietrich 1969 = Dietrich, Rainer: Möglichkeiten einer semantischen Analyse. In: Eggers et al. [eds.] 1969, 37—50. Dietrich 1973 = Dietrich, Rainer: Automatische Textwörterbücher. Studien zur maschinellen Lemmatisierung verbaler Wortformen des Deutschen. Tübingen 1973. Dietric h /Klein 1974 = Dietrich, Rainer/Klein, Wolfgang: Computerlinguistik. Eine Einführung. Stuttgart 1974. Dietze/Mater/Meier et al. 1983 = Dietze, Joachim/Mater, Erich/Meier, Georg et al.: Linguistische Datenverarbeitung. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 36, 1983, 631—646. Dijk 1979 = Dij k, Teun A. van: Recalling and summarizing complex discourse. In: Burghardt/ Hölker [eds.] 1979, 49—118. Dijk 1980a = Dij k, Teun A. van: Macrostructures: an interdisciplinary study of global structures in discourse, interaction and cognition. Hillsdale, N.J. 1980. Dijk 1980b = Dij k, Teun A. van: Textwissenschaft — eine interdisziplinäre Einführung. Deutsche Übersetzung von Christoph Sauer. München 1980. Dijk/Kintsch 1983 = Dij k, Teun A. van/Kintsch, Walter: Strategies of discourse comprehension. New York 1983. Dilger 1982 = Dilger, Werner: Tree directed grammars. In: Horecký [ed.] 1982, 77—82. Dilger 1983 = Dilger, Werner: Baumgesteuerte Grammatiken. o. O. 1983. Diller/Olney 1974 = Diller, T./Olney, J.: SOLAR (A Semantically-Oriented Lexical Archive): current status and plans. In: Computers and the Humanities 8, 1974, 301—311. Dillon/McDonald 1983 = Dillon, M./McDonald, L. K.: Fully automatic book indexing. In: Journal of Documentation 39, 1983, 135—154. Dilth ey 1910 = Dilthey, Wilhelm: Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften. Hrsg. v. Manfred Riedel. Frankfurt 1970. DIN 1426 = Deutsches Institut für Normung: DIN 1426. Inhaltsangaben in der Dokumentation. Berlin 1973. DIN 66252/1 1986 = Deutsches Institut für Normung: DIN 66252 Teil 1: Graphisches Kernsystem (GKS). Berlin 1986. DIN Tasch enbuch 153 = Deutsches Institut für Normung: DIN Taschenbuch 153: Publikation und Dokumentation 1 (Gestaltung von Veröffentli-

XIII. Bibliography

chungen, terminologische Grundsätze, Drucktechnik). 2. Aufl. Berlin — Köln 1984. DIN Tasch enbuch 154 = Deutsches Institut für Normung: DIN Taschenbuch 154: Publikation und Dokumentation 2 (Normen für Verlage, Bibliotheken, Dokumentationsstellen, Archive). Berlin — Köln 1981. DIN Tasch enbuch 166 = Deutsches Institut für Normung: DIN Taschebuch 166: Informationsverarbeitung 4 (Normen über Codierung, Programmierung, Beschreibungsmittel). Berlin — Köln 1981. Dingwall [ed.] 1976 = Dingwall, William O. [ed.]: A Survey of Linguistic Science. Stanford 1976. Dingwall [ed.] 1978 = Dingwall, William O. [ed.]: A Survey of Linguistic Science. 2nd. edition. Stanford 1978. Dintruff/Grice/Wang 1983 = Dintruff, D. L./Grice, D. G./Wang, T.-G.: User Acceptance of Speech Technologies. In: Speech Technology 2, No. 4, 1983, 16—21. Dixon 1983 = Dixon, J. E. G.: A Rabelais Thesaurus. In: ALLC-Journal 4, 1983, 49—55. Dobson/Kruskal/Sankoff et al. 1972 = Dobson, Annette J./Kruskal, J. B./Sankoff, David et al.: The Mathematics of Glottochronology Revisited. In: Anthropological Linguistics 14, 1972, 205—212. Doddington/Sc h alk 1981 = Doddington, G. R./Schalk, T. B.: Speech Recognition: Turning Theory to Practice. In: IEEE Spectrum, 1981, 26—32. Doložel/Bailey [eds.] 1969 = Doložel, Lubomir/ Bailey, Richard W. [eds.]: Statistics and Style. New York 1969. Donato 1980 = Donato, J.: La variation linguistique ou la langue dans l’espace, le temps, le société et les situations de communication. In: François [ed.] 1980. Dornseiff 1970 = Dornseiff, Franz: Der deutsche Wortschatz nach Sachgruppen. 8. Aufl. Berlin 1970. Dostert/T h ompson 1976 = Dostert, Bozena H./Thompson, Fred B.: Syntactic analysis in REL English. In: Papp/Szépe [eds.] 1976, 69—95. Doszkocz 1986 = Doszkocz, T.: Natural language processing in information retrieval. In: Journal of the American Society for Information Science 37, 1986, 191—196. Dowty 1979 = Dowty, David R.: Word Meaning and Montague Grammar. Dordrecht 1979. Dowty/Karttunen/Zwicky [eds.] 1985 = Dowty, David R./Karttunen, Lauri/Zwicky, Arnold M. [eds.]: Natural Language Parsing. Psychological, Computational, and Theoretical Perspectives. Cambridge — New York 1985. Dowty/Wall/Peters 1981 = Dowty, David R./Wall, Robert/Peters, Stanley: Introduction to Montague Semantics. Dordrecht 1981.

823

Doyle, J. 1979 = Doyle, Jon: A truth maintenance system. In: Artificial Intelligence 12, 1979, 231—272. Doyle, L. B. 1961 = Doyle, L. B.: Semantic road maps for literature searchers. In: Journal of the ACM 4, 1961, 553—578. Doyle, L. B. 1962 = Doyle, L. B.: Indexing and abstracting by association. In: American Documentation 4, 1962, 378—390. Dresh er/Hornstein 1976 = Dresher, B. E./Hornstein, N.: On some supposed contributions od Artificial Intelligence to the Scientific Study of Language. In: Cognition 4, 1976, 321—398. Drewek 1985a = Drewek, Raimund: LDVLIB — Programme für die computergestützte Textanalyse (Textcodierungsregeln). Rechenzentrum der Universität Zürich. Computerprint on Demand. 1985. Drewek 1985b = Drewek, Raimund: Vorbemerkungen zu einer computerunterstützten Lösung für die Lexikographie im Verlag als Beitrag zur praktischen SDV. In: Endres-Niggemeyer/Krause [eds.] 1985, 34—45. Drinkwater 1984 = Drinkwater, L.: Voice Processing: An Emerging Computer Technology. In: Speech Technology 2, No. 3, 1985, 50—54. Dripke 1987 = Dripke, Andreas: Druckermarkt: Laser contra ’antik’? In: Computer Magazin 4, 1987, 4. Droop/Lenders/Zeller 1976 = Droop, Helmut/ Lenders, Winfried/Zeller, Michael: Untersuchungen zur grammatischen Klassifizierung und maschinellen Bearbeitung spätmittelhochdeutscher Texte. Hamburg 1976. Dubinsky/Rosen 1983 = Dubinsky, S./Rosen, C.: A bibliography on relational grammar through april 1983 with selected titles from lexical functional grammar. Bloomington, Ind. 1983. Ducrot 1982 = Ducrot, Jean-M.: TITUS IV. In: Taylor/Cronin [eds.] 1982. Duden 1966 = Duden: Grammatik. 2. Auflage. Mannheim 1966. Duden 1986 = Duden: Die Rechtschreibung. 19. Auflage. Mannheim 1986. Duden-DUW 1983 = Duden: Deutsches Universalwörterbuch. Hrsg. u. bearb. vom Wissenschaftlichen Rat und den Mitarbeitern der Dudenredaktion unter Leitung von Günther Drosdowski. Mannheim—Wien—Zürich 1983. Durh am/Rogers 1971 = Durham, Stanton P./Rogers, David Ellis: An Application of Computer Programming to the Reconstruction of a Protolanguage. In: ITL, Ti j dschrift voor Toegepaste Linguistiek 5, 1971, 70—81. Dutens [ed.] 1768 = Dutens, L. [ed.]: Gottfried Wilhelm Leibniz, Opera omnia. Geneva 1768. Dyer 1981 = Dyer, Michael G.: Integration, Unification, Reconstruction, Modification: An Eternal Parsing Braid. In: 7th IJCAI, vol. 1, 1981, 37—42.

824

Dyer 1982 = Dyer, Michael G.: In-Depth Understanding. A Computer-Model of Integrated Processing for Narrative Comprehension. Cambridge, Mass. 1983. Dyer 1983 = Dyer, Michael G.: Understanding computer understanding of narrative text. In: Mathematical Social Sciences, Vol. 6. Dym [ed.] 1985 = Dym, Eleanor D. [ed.]: Subj ect and information analysis. New York — Basel 1985. Eady/Cooper 1986 = Eady, S. J./Cooper, W. E.: Speech intonation and focus location in matched statements and questions. In: Journal of the Acoustical Society of America 80, No. 2, 1986, 402—415. Earl 1970 = Earl, L. L.: Experiments in automatic extracting and indexing. In: Information Storage and Retrieval 4, 1970, 313—334. Earley 1965 = Earley, Jay C.: Generating a recognizer for a BFN-grammar. Pittsburgh, Pa. 1965. Earley 1970 = Earley, Jay C.: An efficient contextfree parsing algorithm. In: Communications of the ACM 13 (2), 1970, 94—102. Eastlack 1977 = Eastlack, Charles L.: Iberochange: A Program to Simulate Systematic Sound Change in Ibero-Romance. In: Computers and the Humanities 11, 1977, 81—88. Eckmann [ed.] 1977 = Eckmann, F. R. [ed.]: Current Themes in Linguistics. Washington D.C. 1977. Edmundson 1969 = Edmundson, H. P.: New methods in automating extracting. In: Journal of the Association for Computing Machinery 2, 1969, 264—285. Edmundson/Wyllis 1961 = Edmundson, H. P./ Wyllis, R. E.: Automatic abstracting and indexing — survey and recommendations. In: Communications of the ACM 4, 1961, 226—234. Eggers/Dietrich /Klein et al. [eds.] 1969 = Eggers, Hans/Dietrich, R./Klein, Wolfgang et al. [eds.]: Elektronische Syntaxanalyse der deutschen Gegenwartssprache. Tübingen 1969. Eh lers 1983 = Ehlers, Jürgen: Abwendung vom GenCode, hin zur Markup Language (Verknüpfung der Textverarbeitung mit neuen Medien), In: Börsenblatt des Deutschen Buchhandels Nr. 10, 2, 1983, 277 f. Eich 1982 = Eich, Janet M.: A composite holographic associate recall model. In: Psychological Review 89, 1982, 627—661. Eich 1985 = Eich, Janet M.: Levels of processing, encoding specifity, elaboration, and CHARM. In: Psychological Review 92 (1), 1985, 1—38. Eickmans 1979 = Eickmans, Heinz: Automatische Sprachkartographie im Rahmen des Pro j ekts ’Fränkischer Sprachatlas’. In: Niederdeutsches Wort 19, 1979, 133—164. Eickmans 1981 = Eickmans, Heinz: Mogeli j kheden en grenzen van de automatische verwaardiging von taalkarten. In: Taal an Tongval 33, 3—4, 1981, 161—178. Eikmeyer/Gibbon 1983 = Eikmeyer, Hans-Jür-

XIII. Bibliography

gen/Gibbon, D.: BATNET: ein ATN-System in einer Nicht LISP-Umgebung. In: Sprache und Datenverarbeitung 7, 1983, 26—34. Eikmeyer/Rieser [eds.] 1981 = Eikmeyer, HansJürgen/Rieser, H. [eds.]: Words, worlds, and contexts. New approaches in word semantics. Darmstadt 1981. Eimermac h er 1986 = Eimermacher, Michael: Wordexperts in PROLOG. In: Hellwig/Lehmann [eds.] 1986, 110—124. Eisele 1985 = Eisele, Andreas: A Lexical Functional Grammar System in Prolog. In: LDV-Forum 3, 2, 1985, 67—76. Eisele/Dörre 1986 = Eisele, Andreas/Dörre, Jochen: A Lexical Functional Grammar System in Prolog. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 551—553. Eisenberg 1980 = Eisenberg, Peter: Computerlinguistik. In: Althaus/Henne/Wiegand [eds.] 1980, 808—815. Eisenberg [ed.] 1976 = Eisenberg, Peter [ed.]: Maschinelle Sprachanalyse. Beiträge zur automatischen Sprachbearbeitung I. Berlin — New York 1976. Eisenberg [ed.] 1977 = Eisenberg, Peter [ed.]: Semantik und künstliche Intelligenz. Beiträge zur automatischen Sprachbearbeitung II. Berlin — New York 1977. Eisenstadt 1979 = Eisenstadt, Marc: Alternative parsers for conceptual dependency: Getting there is the half fun. In: 6th IJCAI, 1979, 238—240. Elcock/Mich ie [eds.] 1977 = Elcock, E. W./Michie, D. [eds.]: Machine intelligence 8. Edinburgh 1977. Ellis [ed.] 1970 = Ellis, Stanley [ed.]: Studies in Honour of Harold Orton on the occasion of his Seventieth Birthday. (= Leeds Studies in English, New Series, Vol. 2). Leeds 1970. Ellison 1957 = Ellison, J. W.: Complete Concordance of the Revised Standard Version Bible. New York 1957. Elovitz/Joh nson/McHugh et al. 1976 = Elovitz, Honey S./Johnson, Rodney/McHugh, Astrid et al.: Letter-to-sound-rules for automatic translation of English text to phonetics. In: IEEE transactions on acoustics, speech and signal processing 24 (6), 1976, 446—459. Embleton 1983 = Embleton, Sheila M.: Incorporating Borrowing Rates in Lexicostatistical Reconstruction. In: Brainerd [ed.] 1983, 1—24. Embleton 1984 = Embleton, Sheila M.: Lexicostatistical Research in Tok Pisin, Romance and Amerindian. In: 10th LACUS Forum 1983, 1984, 305—312. Embleton 1985 = Embleton, Sheila M.: Lexicostatistics applied to the Germanic, Romance, and Wakashan families. In: Word 36, 1985, 37—60. Embleton 1986 = Embleton, Sheila M.: Statistics in Historical Linguistics. Bochum 1986.

XIII. Bibliography

Emerson 1983 = Emerson, S. T.: Voice Response — Technology to the Rescue for Business Users. In: Speech Technology 1, No. 4, 1983, 99—103. Encarnacao 1983 = Encarnacao, José: Graphische Datenverarbeitung: Das Werkzeug für benutzerconforme Anwendung der Informatik. In: Handbuch der modernen Datenverarbeitung 109, 1983, 9—27. Encarnacao/Enderle 1983 = Encarnacao, José/ Enderle, G.: Ein Überblick über die Entwicklung des Graphischen Kernsystems GKS. In: Informatik-Spektrum 6, 1983, 99—104. Encarnacao/Straßer 1986 = Encarnacao, José/ Straßer, Wolfgang: Computer Graphics. Gerätetechnik, Programmierung und Anwendung graphischer Systeme. München — Wien 1986. Enderle/Kansy/Pfaff et al. 1983 = Enderle, G./Kansy, K./Pfaff, G. et al.: Die Funktionen des Graphischen Kernsystems. In: Informatik-Spektrum 6, 1983, 55—75. Endres-Niggemeyer 1985 = Endres-Niggemeyer, Brigitte: Referierregeln und Referate — Abstracting als regelgesteuerter Textverarbeitungsprozeß. In: Nachrichten für Dokumentation 1, 1985, 38—50. Endres-Niggemeyer/Krause [eds.] 1985 = EndresNiggemeyer, Brigitte/Krause, Jürgen [eds.]: Sprachverarbeitung in Information und Dokumentation. (= Jahrestagung der Gesellschaft für Linguistische Datenverarbeitung (GLDV) in Kooperation mit der Fachgruppe FA 1.2 der Gesellschaft für Informatik (GI). Hannover 5.—7. März 1985. Proceedings. Berlin—Heidelberg—New York —Tokyo 1985. Engdh al 1985 = Engdhal, Elisabet: Interpreting questions. In: Dowty/Karttunen/Zwicky [eds.] 1985, 67—93. Engelen 1984 = Engelen, Bernhard: Einführung in die Syntax der deutschen Sprache. Band 1. Vorfragen und Grundlagen. Baltmannsweiler 1984. Engelien 1971 = Engelien, Gerhard: Der Begriff der Klassifikation. (= Ungeheuer, Gerold [ed.]: Forschungsberichte des Instituts für Kommunikationsforschung und Phonetik der Universität Bonn. Bd. 36). Hamburg 1971. Engelien 1979 = Engelien, Gerhard: Die Bearbeitung von Texten mit Hilfe von Computern. In: Bergenholtz/Schaeder [eds.] 1979, 124—130. Engel/Vogel [eds.] 1974 = Engel, U./Vogel, J. [eds.]: Arbeitsgruppe MaSA: Zur maschinellen Syntaxanalyse I. Morphosyntaktische Voraussetzungen für eine maschinelle Sprachanalyse des Deutschen. Teil 18, 1/2. Tübingen 1974. Ennen/Wiegelmann [eds.] 1972 = Ennen, Edith/ Wiegelmann, G.: Festschrift für Matthias Zender. Studien zu Volkskultur, Sprache und Landesgeschichte. Bd. 1. Bonn 1972. Enqvist 1987 = Enqvist, N. E.: Textualization as Conflict and Conspiracy. In: Karlgren [ed.] 1987. Erman/Lesser 1975 = Erman, L. D./Lesser, V. R.: A multi-level organization for problem solving

825

using many diverse, cooperating sources of knowledge. In: IJCAI 4, 1975, 483—490. Eroms/Gajek/Kolb [eds.] 1984 = Eroms, HansWerner/Ga j ek, Bernhard/Kolb, Herbert [eds.]: Studia Linguistica et Philologica. Festschrift für Klaus Matzel zum 60. Geburtstag. Heidelberg 1984. h Ers ov/Mel’c h uk/Nariniany 1975 = Ershov, A. P./Mel’chuk, I. A./Nariniany, A. S.: RITA — An Experimental Man-Computer System On A Natural Language Basis. In: Advance Papers of the Fourth International Joint Conference on Artificial Intelligence, Tbilisi, Georgia, USSR 1975, 387—390. Esser 1971 = Esser, W. K.: Wissenschaftstheorie II. Freiburg 1971. Eulenberg/Finkelstein 1985 = Eulenberg, J. B./ Finkelstein, S.: Age- and Gender-Appropriate Familial Voice Output — The Shannon Singer System. In: SPEECH TECH 1985, 202—204. Eulenberg/Gou 1985 = Eulenberg, J. B./Gou, D.: Design Factors in a Chinese Language Voice Output Communication Aid. In: SPEECH TECH 1985, 212—213. Europa Publications [ed.] 1986 = Europa Publications [ed.]: The World of Learning 1986. London 1986. Evans 1985 = Evans, Roger: ProGram — a development tool for GPSG grammars. In: Linguistics 23, 2, 1985, 213—243. Evans/Gazdar 1984 = Evans, Roger/Gazdar, Gerald: The ProGram manual. In: Cognitive Science Research Paper 35. Evens/Karttunen 1983 = Evens, Martha/Karttunen, Lauri: Directory of Graduate Programs in Computational Linguistics. In: American Journal of Computational Linguistics 9, Special Supplement, 1983, 1—32. Evens/Litowitz/Markowitz et al. 1980 = Evens, M. W./Litowitz, B. E./Markowitz, J. A. et al.: Lexical-Semantic Relations: A Comparative Survey. Edmonton, Alberta 1980. Evens/Smith 1978 = Evens, M. W./Smith, R. N.: A Lexicon for a Computer Question-Answering System. In: American Journal of Computational Linguistics XV, 4, 1978, 1—101. Evens/Vandendorpe/Wang 1985 = Evens, M./Vandendorpe, J./Wang, Y.-C.: Lexical semantic relations in Information retrieval. In: Williams [ed.] 1985, 73—100. Fah lman 1979a = Fahlman, Scott E.: NETL: A system for representing and using real-world knowledge. Cambridge, Mass. 1979. Fah lman 1979b = Fahlman, Scott E.: The Hashnet Interconnection Scheme. Technical Report 125, Department of Computer Science, Carnegie Mellon University. Pittsburgh, Pennsylvania 1979. Fah lman 1980 = Fahlman, Scott E.: Design sketch for a million-element NETL machine. In: Proc. National Conf. on AI, Menlo Park 1980.

826

Fah lman 1981 = Fahlman, Scott E.: Representing implicit knowledge. In: Hinton/Anderson [eds.] 1981, 145—160. Fah lman 1983 = Fahlman, Scott E.: Massively Parallel Architectures for AI: NETL, THISTLE and Boltzmann Machines. In: Proc. AAAI-83 Conf., Los Altos 1983, 109—113. Fant 1960 = Fant, G.: Acoustic Theory of Speech Production. The Hague 1960. Farr 1983 = Farr, G.: Lexicography and the Computer in the United States: Proj ects supported by the National Endowment for the Humanities. In: Zampolli/Cappelli [eds.] 1983, 107—118. Fauser/Rat h ke 1981 = Fauser, Albrecht/Rathke, Christian: Studie zum Stand der Forschung über natürlichsprachliche Frage/Antwort-Systeme. Forschungsbericht BMFT-FB-ID-81-006 und Universität Stuttgart, Institut für Informatik. Stuttgart 1981. Feigenbaum 1980 = Feigenbaum, Edward A.: Themes and case studies of knowledge engineering. In: Michie [ed.] 1980. Feigenbaum/Feldman [eds.] 1963 = Feigenbaum, Edward A./Feldman, Julian [eds.]: Computers and Thought. New York 1963. Feigenbaum/McCorduck 1983 = Feigenbaum, Edward A./McCorduck, P.: Artificial Intelligence and Japan’s Computer Challenge to the World. Amsterdam 1983. Feigl/Maxwell [eds.] 1971 = Feigl, H./Maxwell, G. [eds.]: Scientific explanation, space and time. In: Minnesota Studies in the Philophy of Science III. Feldman, D. 1986 = Feldman, D.: Homefinders (TM) Improves Services Through Speech Technology. In: Speech Technology 3, No. 3, 1986, 30—32. Feldman, J. A./Ballard 1982 = Feldman, Jerome A./Ballard, Dana H.: Connectionist models and their properties. In: Cognitive Science 6, 1982, 205—254. Feldman, J. A./Gries 1968 = Feldman, Jerome A./Gries, David: Translator writing systems. In: Communications of the ACM 11, 2, 1968, 77—113. Feldman, P. R./Norman 1987 = Feldman, Paula R./Norman, Buford: The Wordworthy Computer. New York 1987. Fellbaum 1984 = Fellbaum, K.: Sprachverarbeitung und Sprachübertragung. Berlin 1984. Felsenstein 1968 = Felsenstein, Joseph: Statistical inference and the estimation of phylogenies. Ph.D. thesis, University of Chicago 1968. Felsenstein 1973 = Felsenstein, Joseph: Maximum likelihood and minimum-steps methods for estimating evolutionary trees from data on discrete characters. In: Systematic Zoology 22, 1973, 240—249. Felsenstein 1978 = Felsenstein, Joseph: Cases in which parsimony or compatibility methods will be positively misleading. In: Systematic Zoology 27, 1978, 401—410.

XIII. Bibliography

Felsenstein 1979 = Felsenstein, Joseph: Alternative methods for phylogenetic inference and their interrelationsship. In: Systematic Zoology 28, 1979, 49—62. Felsenstein 1981 = Felsenstein, Joseph: Evolutionary trees from DNA sequences. In: Journal of Molecular Evolution 17, 1981, 368—376. Felsenstein 1982 = Felsenstein, Joseph: Numerical methods for inferring evolutionary trees. In: The Quarterly Review of Biology 57, 1982, 379—404. Felsenstein [ed.] 1983 = Felsenstein, Joseph [ed.]: Numerical taxonomy. Berlin — Heidelberg 1983. Felzmann et al. 1980 = Felzmann, F. W. et al.: JUDO: Juristische Dokumentanalyse. (Berichtszeitraum 1. 7. 77—31. 12. 79). 2 Vols. Universität Regensburg, Abt. für Nichtnumerische Datenverarbeitung. 1980. Feng 1982 = Feng, Z.: Memoire pour une tentative de traduction multilingue du Chinois en Francais, Anglais, Japonais, Russe et Allmand. Paper presented at COLING ’82 (not included in the proceedings). Prague 1982. Ferreira/Clifton 1986 = Ferreira, F./Clifton, C.: The independence of syntactic processing. In: Journal of Memory and Language 25, 1986, 348—368. Fertner 1984 = Fertner, K. S.: Synthesized Speech Aids in Teaching Technical Military Terms. In: Speech Technology 2, No. 2, 1984, 88—96. Fette/Crain 1983 = Fette, B./Crain, V.: CMOS Chips Reduce Power Requirements and Size of LPC Vocoders. In: Speech Technology 2, No. 1, 1983, 79—85. Fiddy/Wh arry 1983 = Fiddy, P./Wharry, D.: Micros in Early Education. London 1983. Figge 1988 [forth coming] = Figge, Udo L.: Computerlinguistik. In: Holtus/Metzeltin/Schmitt [eds.] 1987 ff., [forthcoming]. Figge [ed.] 1980 = Figge, Udo [ed.]: Romanistik und Datenverarbeitung. Akten der 1. Sektion des deutschen Romanistentages Saarbrücken 1979. Dudweiler 1980. Fikes 1981 = Fikes, R. E.: Odyssey: A knowledgebased assistant. In: Artificial Intelligence 16, 1981, 331—361. Fillmore 1968 = Fillmore, Charles J.: The Case for Case. In: Bach/Harms [eds.] 1968, 1—90. Fillmore 1969 = Fillmore, Charles J.: Toward a modern theory of case. In: Reibel/Schane [eds.] 1969, 361—375. Findler [ed.] 1979 = Findler, Nicholas V. [ed.]: Associative networks: The representation and use of knowledge by computers. New York 1979. Findler/Meltzer [eds.] 1971 = Findler, Nicholas V./Meltzer, Bernard [eds.]: Artificial Intelligence and Heuristic Program. Proceedings of NATO Advanced Study Institute, Menaggio, Italy, in August 1970. Edinburgh 1971. Finin/Stone Palmer 1983 = Finin, T. W./Stone Palmer, M.: Parsing with logical variable. In: Pro-

XIII. Bibliography

ceedings of the Conference in Applied Natural Language Processing, Santa Monica 1983, 62—68. Finkelstein 1983 = Finkelstein, S.: Customized LPC Vocabulary Lets Cars Talk. In: Speech Technology 2, No. 1, 193, 65—69. Finkler/Neumann 1986 = Finkler, Wolfgang/ Neumann, Günter: MORPHIX, Ein hochportabler Lemmatisierungsmodul für das Deutsche. SFB 314/KI-Labor Universität Saarbrücken. Memo Nr. 8. Juli 1986. Fisch er, G./Tavolato 1976 = Fischer, G./Tavolato, P.: Automatische Transkription laotischer Texte (Programmierung des Algorithmus). In: Wiener Linguistische Gazette 12, 1976, 446—459. Fisch er, H. G. [ed.] 1982 = Fischer, H. G. [ed.]: Information Retrieval und natürliche Sprache. München — New York 1982. Fish er 1983 = Fisher, W. A.: A Text-to-Speech Development System. In: ICASSP Proceedings, 1983, 1344—1347. Fittkau/Müller-Wolf/Sch ulz von Th un [eds.] 1977 = Fittkau, B./Müller-Wolf, H.-M./Schulz von Thun, F. [eds.]: Kommunizieren lernen (und umlernen). Braunschweig 1977. Fix [ed.] 1982 = Fix, H. [ed.]: Sprache und Computer. Dudweiler 1982. Fix/Rot h kegel/Stegentritt [eds.] 1982 = Fix, Hans/Rothkegel, Annely/Stegentritt, Erwin [eds.]: Sprache und Computer. Festschrift zum 75. Geburtstag von Hans Eggers 9. Juli 1982. Dudweiler 1982. Flanagan 1972 = Flanagan, J. L.: Speech Analysis, Synthesis and Perception. Second, expanded edition. Berlin 1972. Flanagan 1976 = Flanagan, J. L.: Computers that Talk and Listen: Man-Machine Communication by Voice. In: Proceedings of the IEEE 64, No. 4, 1976, 405—433. Fleisch er 1966 = Fleischer, Wolfgang: Strukturelle Untersuchungen zur Geschichte des Neuhochdeutschen. Berlin 1966. Fleisch er 1970 = Fleischer, Wolfgang: Untersuchungen zur Geschäftssprache des 16. Jahrhunderts in Dresden. Berlin 1970. Fleisch er 1982 = Fleischer, Wolfgang: Wortbildung der deutschen Gegenwartssprache. 5. Aufl. Tübingen 1982. Flickinger 1983 = Flickinger, Daniel: Lexical heads and parsal gaps. In: Barlow/Flickinger/ Wescoat [eds.] 1983, 89—101. Flickinger et al. 1985 = Flickinger, Daniel et al.: Structure-Sharing in Lexical Representations. In: Proc. 23rd Annual Conference of the ACL, 1985, 262—267. Flickinger/Macken/Wiegand [eds.] 1982 = Flikkinger, Daniel/Macken, Marlys/Wiegand, Nancy [eds.]: Proceedings of the First West Coast Conference on Formal Linguistics. Stanford, California 1982.

827

Floden/Weiner 1978 = Floden, R./Weiner, S.: Rationality to Ritual: The Multiple Roles of Evaluation in Governmental Processes. In: Policy Sciences 9, 1978, 9—18. Floodgate 1962 = Floodgate, G. D.: Some remarks on the theoretical aspects of bacterial taxonomy. In: Bacteriological Review 26, 1962, 277—291. Floyd 1984 = Floyd, R. A.: Bounded context syntactic analysis. In: Communications of the ACM 7, 2, 1964, 62—67. Flynn 1972 = Flynn, M. J.: Some Computer Organizations and Their Effectiveness. In: IEEE Trans. on Computers, C-21, 9, 1972, 948—960. Fodor, J. A. 1983 = Fodor, Jerry A.: The Modularity of Mind. Cambridge, Mass. 1983. Fodor, J. A./Garret 1966 = Fodor, Jerry A./Garret, Merril F.: Some Reflections on Competence. In: Lyons/Wales [eds.] 1966, 133—154. Fodor, J. D. 1978 = Fodor, Janet D.: Parsing strategies and constraints on transformations. In: Linguistic Inquiry 9, 1978, 427—473. Fodor, J. D. 1983 = Fodor, Janet D.: Phrase structure parsing and the island constraints. In: Linguistics and Philosophy 6, 1983, 163—223. Fodor, J. D./Frazier 1980 = Fodor, Janet D./Frazier, Lyn: Is the human sentence parsing mechanism an ATN? In: Cognition 8, 1980, 417—459. Foley/Van Valin 1984 = Foley, William A./Van Valin, Robert D.: Functional syntax and universal grammar. Cambridge 1984. Folsom 1981 = Folsom, Marvin H.: Four Approaches to the Dative/Accusative Prepositions. In: Unterrichtspraxis 14, 1981, 222—231. Ford/Bresnan/Kaplan 1982 = Ford, Marilyn/ Bresnan, Joan W./Kaplan, Ronald M.: A competence-based theory of syntactic closure. In: Bresnan [ed.] 1982, 727—827. Forgy/Gupta/Newell et al. 1984 = Forgy, C./Gupta, A./Newell, A. et al.: Initial Assessment of Architectures for Production Systems. In: Proceedings of the National Conference on Artificial Intelligence, Aug. 6—10, 1984, University of Texas, Austin 1984, 116—120. Forsch ungsberich t 1983 = Steger, Hugo/Gabriel, Eugen/Schupp, Volker [ed.]: Forschungsbericht ’Südwestdeutscher Sprachatlas’. Studien zur Dialektologie in Südwestdeutschland. Begleitreihe zum Südwestdeutschen Sprachatlas. Bd. 1. Marburg 1983. Forsc h ungsgruppe Frü h neu h oc h deutsc h 1980 = Forschungsgruppe Frühneuhochdeutsch: Erfahrungen und Probleme bei der maschinell unterstützten Erarbeitung einer Flexionsmorphologie des Frühneuhochdeutschen. In: Sappler/Straßner [eds.] 1980, 20—38. Fortier 1981 = Fortier, Paul: Structures et communications dans «La Jalousie» d’Alain RobbeGrillet. Sherbrooke 1981. Fortier 1985 = Fortier, Paul: Les données du Trésor de la Langue Française: une occasion pour les

828

chercheurs. In: Proceedings of the XIIth ALLC Conference, Nice 1985. Fossat 1976a = Fossat, Jean-Louis: La Microdialectométrie. In: Fossat/Philps 1976, 7—46. Fossat 1976b = Fossat, Jean-Louis: Petite introduction méthodologique aux études dialectométriques menés en Gasgogne. In: Fossat/Philps 1976, 1—6. Fossat 1978 = Fossat, Jean-Louis: Vers un traitment automatique des données dialectologiques, en dialectométrie. In: Putschke [ed.] 1978, 311—334. Fossat 1985 = Fossat, Jean-Louis: État des recherche dialectométriques sur la domaine Gascon. In: Werlen [ed.] 1985, 109—139. Fossat/Ph ilps 1976 = Fossat, Jean-Louis/Philps, Dennis: Microdialectologie et Dialectométrie des Pyrénées Gasconnes. (= Travaux de l’Institute d’Études Méridionales. Documents pour la Recherche Méridionale. Série dialectologique.). Toulouse II le Miral 1976. Foster 1971 = Foster, J. M.: Automatische SyntaxAnalyse. München 1971. Fox/Bebel/Parker 1980 = Fox, M. S./Bebel, D. J./Parker, A. C.: The automated dictionary. In: Computer, July 1980, 35—48. Frackenpo h l/Frauenknec h t 1982 = Frackenpohl, Gert/Frauenknecht, Harald: Computerunterstützte Erstellung und Erschließung grammatisch klassifizierter Belegregister. In: Lenders/Wegera [eds.] 1982, 51—98. Frackenpo h l/Frauenknec h t/Ge h rke 1980 = Frakkenpohl, Gert/Frauenknecht, Harald/Gehrke, Manfred: Bereitstellung morphologischer Information für eine rechnerunterstützte Auswertung sprachhistorischer Quellen nach flexionsmorphologischen Aspekten. In: Kühlwein/Raasch [eds.] 1980, 119—133. Fradin 1985 = Fradin, D.: ’Freedom of Speech’ with Smoothtalker (TM) Software Speech Synthesizer. In: SPEECH TECH 1985, 353—358. Francis 1965 = Francis, W. Nelson: A Standard Corpus of Edited Present-Day American English for Computer Use. In: College English 26, 1965, 267—273. Francis 1970 = Francis, Nelson W.: Modal darent’t and durstn’t in dialectal English. In: Ellis [ed.] 1970, 145—163. Francis 1979 = Francis, W. Nelson: Problems of Assembling and Computerizing Large Corpora. In: Bergenholtz/Schaeder [eds.] 1979, 110—123. Francis 1980 = Francis, W. Nelson: A tagged corpus — problems and prospects. In: Greenbaum/ Leech/Svartvik [eds.] 1980, 192—209. Francis/Kučera 1964 = Francis, W. Nelson/Kučera, Henry: Manual of Information to Accompany ’A Standard Corpus of Present-Day Edited American English, for Use with digital Computers’. Dept. of Linguistics, Brown University. Providence 1964. Francis/Svartvik/Rubin 1969 = Francis, Nelson

XIII. Bibliography

W./Svartvik, Jan/Rubin, Gerald M.: Computerproduced representation of dialectal variation: Initial fricatives in Southern British English. (Preprint No. 52 der COLING ’69, International Conference of Computational Linguistics). Stockholm 1969. Frank 1985 = Frank, J.: Synthetische Sprache — ein Hilfsmittel für Blinde. In: Müller [ed.] 1985, 185—193. Frantz 1970 = Frantz, Donald G.: A PL/1 Program to Assist the Comparative Linguist. In: Communications of the Association for Computing Machinery 13, 1970, 353—356. Fraser [ed.] 1894 = Fraser, A. C. [ed.]: John Locke, Essay concerning Human Understanding, London 1690. Oxford 1894. Frazier 1978 = Frazier, Lyn: On Comprehending Sentences: Syntactic Parsing Strategies. PhD Thesis, University of Connecticut, Indiana University Linguistics Club 1978. Frazier/Fodor 1978 = Frazier, Lyn/Fodor, Janet D.: The sausage machine: a new two-stage parsing model. In: Cognition 6, 1978, 291—325. Freedl[ed.] 1977 = Freedl, R. [ed.]: Discourse Production and Comprehension. Vol. 1. Norwood 1977. Freeman 1968 = Freeman, Bryant C.: Concordance du théâtre et des poésies de Jean Racine. Ithaca 1968. Frei/Bärtsch i/Jauslin 1985 = Frei, H. P./Bärtschi, M./Jauslin, J. F.: CALIBAN: Its User-Interface and Retrieval Algorithm. Bericht Nr. 62, ETH Zürich, Institut für Informatik 1985. Frei/Jauslin 1983 = Frei, H. P./Jauslin, J. F.: Graphical representation of information and services: A user-oriented interface. In: Information Technology: Research and Development 2, 1983, 23—42. Frey 1984 = Frey, Werner: Syntax and semantics of some noun phrases. In: GWAI-84, 1984, 49—63. Frey/Reyle 1983a = Frey, Werner/Reyle, U.: A PROLOG implementation of lexical functional grammar as a base for a natural language processing system. In: Proceedings of the First Meeting of the Association for Computational Linguistics Europe, Pisa 1983, 52—57. Frey/Reyle 1983b = Frey, Werner/Reyle, Uwe: Lexical Functional Grammar und Diskursrepräsentationstheorie als Grundlagen eines sprachverarbeitenden Systems. In: Linguistische Berichte 88, 1983, 79—100. Frey/Reyle/Ro h rer 1978 = Frey, Werner/Reyle, Uwe/Rohrer, Christian: Automatic construction of a knowledge base by analysing text in natural language. In: Proceedings 8th IJCAI, 1978. Frey/Reyle/Ro h rer 1982 = Frey, Werner/Reyle, Uwe/Rohrer, Christian: Automatic construction of a knowledge base by analysing texts in natural language. Report No 245/12. Stuttgart 1982. Friebertsh äsuer [ed.] 1986 = Friebertshäuser, Hans [ed.]: Lexikographie der Dialekte. Beiträge zu Geschichte, Theorie und Praxis. Tübingen 1986.

XIII. Bibliography

Frieberts h äuser/Dingeldein 1987 = Friebertshäuser, Hans/Dingeldein, Heinrich J.: Wortgeographie der städtischen Alltagssprache in Hessen. Graphisch-computative Bearbeitung: Harald Händler/Wolfgang Putschke. (= Hessische Sprachatlanten. Kleine Reihe. 1). Tübingen 1987. Frieberts h äuser/Dingeldein 1988 = Friebertshäuser, Hans/Dingeldein, Heinrich J.: Hessischer Dialektzensus — Statistischer Atlas zum Sprachgebrauch. Computative Bearbeitung: Harald Händler/Wolfgang Putschke. (= Hessische Sprachatlanten. Kleine Reihe. 3). Tübingen 1988. Friedman, D./Wise 1976 = Friedman, D./Wise, D. S.: Cons Should not Evaluate its Arguments, Automata, Languages, and Programming. In: Third Int’l Colloquium, Edinburgh 1976, 257—284. Friedman, J. 1969a = Friedman, Joyce: A computer system for transformational grammar. In: Communications of the Association for Computing Machinery 12, 1969, 341—348. Friedman, J. 1969b = Friedman, Joyce: Directed Random Generation of Sentences. In: Communications of the Association for Computing Machinery 12, 1969, 40—46. Friedman, J. 1971 = Friedman, Joyce: A Computer Model of Transformational Grammar. New York 1971. Friedman, J. 1973 = Friedman, Joyce: A computational treatment of case grammar. In: Hintikka et al. [eds.] 1973, 134—152. Friedman, J. 1978 = Friedman, Joyce: Computational and theoretical studies in Montague grammar at the university of Michigan. In: SISTM Quarterly 1, 1978, 62—66. Friedman, J./Moran/Warren 1978a = Friedman, Joyce/Moran, Douglas B./Warren, David S.: Evaluating English Sentences in a Logical Model, ms. University of Michigan, presented to the 7th International Conference on Computational Linguistics. Ann Arbor 1978. Friedman, J./Moran/Warren 1978b = Friedman, Joyce/Moran, Douglas B./Warren, David S.: Evaluating English Sentences with a Logical Model. In: COLING ’78, Proceedings of the 7th International Conference on Computational Linguistics, Bergen 1978, Abstract B 16. Friedman, J./Warren 1978 = Friedman, Joyce/ Warren, David S.: A parsing system for Montague grammar. In: Linguistics and Philosophy 2, 1978, 347—372. Froger 1968 = Froger, Jacques: La critique des textes et son automatisation. Paris 1968. Früh 1981 = Früh, Werner: Inhaltsanalyse. München 1981. Frumkina 1963 = Frumkina, R. M.: The application of statistical methods in linguistic research. In: Akhmanova et al. [eds.] 1963, 80—118. Fucks 1955 = Fucks, W.: Mathematische Analyse von Sprachelementen, Sprachstil und Sprachen. In: Arbeitsgemeinschaft für Forschung des Landes

829

NRW, Heft 34a. Füh lau 1981 = Fühlau, Ingunde: Inhaltsanalyse versus Linguistik. In: Analyse und Kritik 2:1, 1981, 23—46. Fürnsinn/K h enkar/Rusc h kowski 1984 = Fürnsinn, M./Khnekar, M./Ruschkowski, B.: GEOSYS — ein Frage-Antwort-System mit räumlichem Vorstellungsvermögen. In: Rollinger [ed.] 1984, 172—184. Fugmann 1975 = Fugmann, R.: Die Grenzen des Thesaurusverfahrens bei der Wiedergabe von Begriffsbeziehungen. In: Nachrichten für Dokumentation 26. Fuh r/Knorz 1984 = Fuhr, N./Knorz, Gerhard: Retrievaltest evaluation of a rule based automatic indexing. In: Research and Development in Information Retrieval, Cambridge 1984, 391—409. Fuh r/Niewelt 1983 = Fuhr, N./Niewelt, B.: Ein Retrievaltest mit automatisch indexierten Dokumenten. In: DGD [ed.] 1983a, 319—339. Fukunaga 1972 = Fukunaga, K.: Introduction to Statistical Pattern Recognition. New York 1972. Fum/Guida/Tasso 1982 = Fum, Danilo/Guida, Giovanni/Tasso, Carlo: Forward and backward reasoning in automatic abstracting. In: Horecký [ed.] 1982, Amsterdam—New York—Oxford 1982, 83—88. Fum/Guida/Tasso 1985 = Fum, Danilo/Guida, Giovanni/Tasso, Carlo: Evaluating importance: a step towards text summarization. In: IJCAI-85: Proceedings of the 9th International Joint Conference on Artificial Intelligence, Los Angeles, August 18—23, 1985, Los Altos 1985, 840—844. Furukawa/Takeuc h i/Kunifuji 1983 = Furukawa, K./Takeuchi, A./Kunifu j i, S.: Mandala: a Concurrent Prolog Based Knowledge Programming Language System. TR-029, ICOT. Tokyo 1983. Furukawa/Takeuch i/Kunifuji et al. 1984 = Furukawa, K./Takeuchi, A./Kunifuj i, S. et al.: Mandala: a Logic Based Knowledge Programming System. TR-076, ICOT, also in: Proceedings of FGCS ’84. Tokyo 1984. Gabelsberger 1843 = Gabelsberger, F. X.: Neue Vervollkommnungen in der deutschen Redezeichenkunst oder Stenographie. München 1843. Gabriel 1981 = Gabriel, Richard P.: An Organization for Programs in Fluid Domains. Diss. Stanford University 1981. Gadamer [ed.] 1967 = Gadamer, H.-G. [ed.]: Das Problem der Sprache. München 1967. Gaifman 1965 = Gaifman, Haim: Dependency systems and phrase-structure systems. In: Information and Control 8, 1965, 304—337. Gaines 1984 = Gaines, B. R.: Perspektives on Fifth-Generation Computing. In: Zorkoczy [ed.] 1984, 1—53. Gale 1983 = Gale, Larrie E.: Montevidisco: An Anecdotal History of an Interactiv Videodisc. In: Calico Journal, Vol. 1, No. 1, 1983, 42—46.

830

Gale Research Company [ed.] 1986 = Gale Research Company [ed.]: National Faculty Directory 1986. Detroit 1986. Galil/Seiferas 1983 = Galil, Z./Seiferas, J.: TimeSpace-Optimal String Matching. In: Journal of Computer and System Sciences 26, 1983, 280—294. Galloway 1979 = Galloway, Patricia: Manuscript filiation and cluster analysis. In: Irigoin/Zarri [eds.] 1979, 87—95. Galtung 1967 = Galtung, J.: Theory and methods of social research. Oslo 1967. Gambarara/Lo Piparo/Ruggiero [eds.] 1979 = Gambarara, D./Lo Piparo, F./Ruggiero, G. [eds.]: Linguaggi e Formalizzazioni. Roma 1979. Garfield [ed.] 1987 = Garfield, J. [ed.]: Modularity in Knowledge Representation and Natural Language Processing. Cambridge, Mass. 1987. Garrod/Sanford 1985 = Garrod, S. C./Sanford, A. J.: On the real time character of interpretation during reading. In: Language and Cognitive Processes 1, 1, 1985, 43—59. Garside/Leec h /Sampson [eds.] 1987 = Garside, R./Leech, G./Sampson, G. [eds.]: The computational analysis of English. A corpus-based approach. London 1987. Garvin 1962 = Garvin, Paul L.: Computer participation in linguistic research. In: Language 38, 1962, 385—389. Garvin/Spolsky [eds.] 1966 = Garvin, Paul L./Spolsky, Bernard [eds.]: Computation in Linguistics. A case Book. Bloomington — London 1966. Gavril 1974 = Gavril, Fănică: The intersection graphs of subtrees in trees are exactly the chordal graphs. In: Journal of Combinatorial Theory, Ser. B 16, 1974, 47—56. Gawron/King/Lamping et al. 1982 = Gawron, J. M./King, J./Lamping, J. et al.: Processing English with a generalized phrase structure grammar. In: Proceedings of the 20th Annual Meeting of the Association for Computational Linguistics, Toronto, Ontario, Canada 1982, 74—81. Gazdar 1981 = Gazdar, Gerald: Unbounded dependencies and coordinate structure. In: Linguistic Inquiry 12, 1981, 159—184. Gazdar 1985 = Gazdar, Gerald: Computation tools for doing linguistics: Introduction. In: Linguistics 23—2, 1985, 185—187. Gazdar/Klein/Pullum et al. 1985 = Gazdar, Gerald/Klein, Ewan/Pullum, Geoffrey K. et al.: Generalized Phrase Structure Grammar. Oxford 1985. Gazdar/Klein/Pullum [eds.] 1983 = Gazdar, Gerald/Klein, Ewan/Pullum, Geoffrey K. [eds.]: Order, concord and constituency. Dordrecht, Holland 1983. Gazdar/Pullum 1982 = Gazdar, Gerald/Pullum, Geoffrey K.: Generalised Phrase Structure Grammar: a theoretical synopsis. Bloomington, Indiana Univ. Linguistics Club 1982. Gazdar/Pullum 1984 = Gazdar, Gerald/Pullum, Geoffrey K.: Computationally relevant properties

XIII. Bibliography

of natural languages and their grammars. In: Report CSLI-85-24. Gazdar/Pullum 1985 = Gazdar, Gerald/Pullum, Geoffrey: Computationally relevant properties of natural languages and their grammars. In: CSLI85—24. Geest/Dirven/Putzeys [eds.] 1981 = Geest, W. de/ Dirven, R./Putzeys, Y. [eds.]: Twintig facetten van de Taalwetenschap. Leuven 1981. Geffroy/Lafon/Seidel et al. 1973 = Geffroy, Annie/Lafon, Pierre/Seidel, Gill et al.: Lexicometric analysis of co-occurrences. In: Aitken/Bailey/Hamilton-Smith [eds.] 1973, 113—133. Geh rke 1982 = Gehrke, Manfred: Rekonstruktion aufgabenorientierter Dialoge mit einem mehrstufigen Parsing-Algorithmus auf der Grundlage kaskadierter ATNs. In: Wahlster [ed.] 1982, 206—214. Gentner 1978a = Gentner, Dedre: Der experimentelle Nachweis der psychologischen Realität semantischer Komponenten: Die Verben des Besitzes. In: Norman/Rumelhart [eds.] 1978, 213—247. Gentner 1978b = Gentner, Dedre: Structure-mapping: A framework for analogy. In: Cognitive Science 7, 1978, 155—170. Gentner/Stevens [eds.] 1983 = Gentner, Dedre/ Stevens, Albert L. [eds.]: Mental Models. Hillsdale, N.J. 1983. Georgeff 1982 = Georgeff, M. P.: Procedural control in production systems. In: Artificial Intelligence 18, 2, 1982, 175—201. Geppert/Ku h n/Ney 1983 = Geppert, Rudolf/ Kuhn, Michael H./Ney, Hermann: Spracheingabe. In: Sickert [ed.] 1983, 223—420. Gerald 1984 = Gerald, J.: A Voice Response System for General Aviation Pilots. In: Speech Technology 2, No. 3, 1984, 33—37. Gerber 1984 = Gerber, René: Etude des possibilités de coopération entre un système fondé sur des techniques de compréhension implicite (système logico-syntaxique) et un systéme fondé sur des techniques de compréhension explicite (système expert). Grenoble 1984. Gerber/Boitet 1985 = Gerber, René/Boitet, Christian: On the design of expert systems grafted on MT systems. In: Proceedings of the Conference on theoretical and methodological issues in Machine Translation of natural languages, Colgate University, Hamilton, N.Y. 1985, 116—134. Gerbner et al. [eds.] 1969 = Gerbner, George et al. [eds.]: The Analysis of Communication Content. New York 1969. Gercke/Norden [eds.] 1927 = Gercke, A./Norden, E. [eds.]: Einleitung in die Altertumswissenschaft. 3. Aufl. Leipzig 1927. Gerd/Kobrin/Lejčnik et al. 1983 = Gerd, Aleksandr S./Kobrin, Rafail Ju./Le j čnik, Vladimir et al.: Leksikografičeskie problemy, voznikaj uščie pri sozdanii produktov terminologičesko j de j atel’nosti i ich ispolzovanii v faktografičeskich systemach. In: Voprosy informacionnoj teorii i praktiki (Pro-

XIII. Bibliography

blems of information theory and practice) 49, Moscow 1983, 34—48. Gergen/Gergen [eds.] 1984 = Gergen, K./Gergen, M. [eds.]: Historical Social Psychology. Hillsdale, N.J. 1984. Gerh ardt [ed.] 1986 = Gerhardt, Tom C. [ed.]: Proceedings of IAI-MT 86, 20—22 August 1986 (IAI EUROTRA-D). Dudweiler 1986. Gerver 1984 = Gerver, Elisabeth: Computers and Adult Learning. Milton Keynes 1984. Geske/Koch 1984 = Geske, Norbert/Koch, Dietrich: Natural language interface to databases. In: Computers and artificial intelligence 3, 1984, 399—413. Gibbon 1984 = Gibbon, D.: SAM und lokale Kontexte in der englischen Morphosyntax. In: Czepluch/Janssen [eds.] 1984, 107—132. Gilbert 1979 = Gilbert, Penny: The preparation of prose-text editions with the Collate System. In: Irigoin/Zarri [eds.] 1979, 245—254. Gill 1982 = Gill, S.: Low-Cost Development System Recognizes, Stores, Transmits, and Reproduces Speech. In: Speech Technology 1, No. 2, 1982, 79—80. Ginsburg/Partee 1969 = Ginsburg, S./Partee, B.: A mathematical model of transformational grammars. In: Information and Control 15, 1969, 297—334. Ginsburg/Rice 1962 = Ginsburg, S./Rice, H. J.: Two families of languages related to Algol. In: Journal of the ACM 9, 1962, 350—371. Gladkij 1965 = Gladkij , Andrej V.: Ob odnom sposobe formalizacii pon jj ati a sintaksičesko j svj azi. In: Problemy kibernetiki 12, Moscow 1965, 243—245. Gladkij/Mel’cuk 1973 = Gladki j , Andre j V./ Mel’čuk, Igor A.: Elemente der mathematischen Linguistik. München — Salzburg 1973. Glas 1975 = Glas, Reinhold: Das LIMAS-Korpus, ein Textkorpus für die deutsche Gegenwartssprache. In: Linguistische Berichte 40, 1975, 63—66. Glaserfeld 1970 = Glaserfeld, Ernst von: The multistore parser for hierarchical syntactic structures. In: Communications of the ACM, Vol. 13, No. 2, Feb. 1970, 74—82. Glaserfeld/Pisani 1970 = Glaserfeld, Ernst von/ Pisani, Pier Paolo: The multistore parser for hierarchical syntactic structures. In: Communications of the ACM 13, 2, 1970, 74—82. Gleason 1972 = Gleason, H. A.: Genetic Relationship Among Languages. In: Keiler [ed.] 1972, 3—15. Glus h kov/Ignatyev/Myasnikov et al. 1974 = Glushkov, V. M./Ignatyev, M. B./Myasnikov, V. A. et al.: Recursive Machines and Computing Technology. In: IFIPS Proceedings 1974, Amsterdam — London — New York 1974, 65—70. Goebl 1975 = Goebl, Hans: Dialektometrie. In: Grazer dialektologische Studien [GDS] 1, 1975, 32—38.

831

Goebl 1977 = Goebl, Hans: Rätoromanisch versus Hochitalienisch versus Oberitalienisch. In: Ladinia 1, 1977, 39—71. Goebl 1978 = Goebl, Hans: Zu Methoden und Problemen einiger dialektometrischer Meßverfahren. In: Putschke [ed.] 1978, 335—365. Goebl 1980 = Goebl, Hans: Typologia quantitativa oder Cosi fan tutte. In: Grazer Linguistische Studien 11/12 (Festgabe für Normann Denison), Graz 1980, 103—117. Goebl 1982a = Goebl, Hans: Ansätze zu einer computativen Dialektometrie. In: HSK 1.1., 778—792. Goebl 1982b = Goebl, Hans: Dialektometrie. Prinzipien und Methoden des Einsatzes der numerischen Taxometrie. Wien 1982. Goebl 1983 = Goebl, Hans: Stammbaum und Welle. In: Zeitschrift für Sprachwissenschaft, Bd. 2, 1983, 3—44. Goebl 1984 = Goebl, Hans: Dialektometrische Studien. 3 Bde. Tübingen 1984. Goebl 1987 = Goebl, Hans: Point chauds de l’analyse dialectometrique: Pondération et visualisation. In: Revue de Linguistique Romane 51, 1987, 63—118. Goebl [ed.] 1984 = Goebl, Hans [ed.]: Dialectology. (= Altmann, G./Grotj an, R. [eds.]: Quantitative Linguistics, Vol. 21). Bochum 1984. Goebl/Winterleitner 1971 = Goebl, Hans/Winterleitner, Norbert: Pro j ekt einer sprachstatistischen Auswertung von in Sprachatlanten gespeicherter linguistischer Information mit Hilfe elektronischer Rechenanlagen. In: Linguistische Berichte 14, 1971, 60—61. Goebl/Winterleitner 1976 = Goebl, Hans/Winterleitner, Norbert: La Dialectometrie appliquée à l’(ALF) (Normandie). (= XIV Congresso internationale di linguistica e filologigia romanza. Napoli, 15—20 Aprile 1974) ATTI Vol. II. Neapel Amsterdam, 165—195. Goeman 1984 = Goeman, A. C. M.: Klank- en Vormverschi j nselen van het Dialect van Zoetermeer. (Is deel 4 van de Reeks: Publikaties van het Meertens-Instituut). Amsterdam 1984. Görz/Beckstein 1983 = Görz, Günther/Beckstein, Clemens: How to parse gaps in spoken utterances. In: Proc. EACL 1983, Pisa 1983, 111—113. Görz/Beckstein 1985 = Görz, Günther/Beckstein, Clemens: Unification-based speech parsing with a chart. Interner Arbeitsbericht Nr. 212. Regionales Rechenzentrum, Erlangen 1985. Görz/Beckstein 1986 = Görz, Günther/Beckstein, Clemens: Unification-based speech parsing with a chart. In: LDV-Forum, Band 4, Nr. 1, 1986, 20—26. Goetsch alckx 1974 = Goetschalckx, J.: Translation, Terminologie and Documentation in International Organization. Babel, 20—4 1974. Goetsch alckx/Rolling [eds.] 1982 = Goetschalckx, J./Rolling, L. [eds.]: Lexicography in the Electronic Age. Amsterdam 1982.

832

Goldberg 1984 = Goldberg, Adele: SmallTalk-80. Reading, Mass. 1984. Goldberg/Robson 1983 = Goldberg, Adele/Robson, D.: Smalltalk-80: The Language and its Implementation. Reading, Mass. 1983. Goldfarb 1984 = Goldfarb, C. F.: The Standardized Generalized Markup Language — Basic Concepts. In: Krückeberg/Schindler/Spaniol [eds.] 1984, 132 f. Goldfield 1986 = Goldfield, Joel: Thèmes, style et vocabulaire dans les «Nouvelles asiatiques» de Gobineau. Diss. Montpellier 1986. Golding/T h ompson 1985 = Golding, Andrew R./Thompson, Henry S.: A morphology component for language programs. In: Linguistics 23, 263—284. Goldman 1975 = Goldman, Neil M.: Conceptual Generation. In: Schank [ed.] 1975, 289—371. Goldstein/Papert 1976 = Goldstein, Ira P./Papert, Seymour: Artificial Intelligence, Language and the Study of Knowledge. MIT AILab, AI-Memo 337. Cambridge, Mass. 1976. Goldstein/Roberts 1977 = Goldstein, Ira P./Roberts, Bruce R.: NUDGE, a knowledge-based scheduling program. In: Proceedings of the Fifth International Joint Conference on Artificial Intelligence, 1977, 257—263. Gooding 1985 = Gooding, F.: Software for Hardware: A Control Program for Electronic Speech Synthesis. In: ALLC Bulletin 13, No. 1, 1985, 1—4. Goodwin/Hein 1982 = Goodwin, James W./Hein, Uwe: Artificial Intelligence and the Study of Language. In: Journal of Pragmatics 6, 1982, 241—280. Gorcy 1983 = Gorcy, G.: L’informatique et la mise en oeuvre du Tresor de la Langue francaise, Dictionnaire de la Langue du 19e et du 20e siècle (1789—1960). In: Zampolli/Capelli [eds.] 1983, 119—144. Goto et al. 1982 = Goto, E. et al.: Design of a Lisp Machine FLATS. In: Proceedings of the 1982 ACM Symposium on LISP and Functional Programming, 1982, 208—215. Gottsch alk 1985 = Gottschalk, Louis A.: A note on computer scoring of verbal content analysis. In: Sprache und Datenverarbeitung 9 (2), 1985, 29. Grah am/Harrison/Ruzzo 1980 = Graham, Susan L./Harrison, Michael A./Ruzzo, Walter L.: An Improved Context-free Recognizer. In: ACM Transactions on Programming Languages and Systems 2, 1980, 415—462. Grammatik des Früh neuh och deutsch en 1986 f. = Moser, Hugo/Stopp, Hugo/Besch, Werner [eds.]: Grammatik des Frühneuhochdeutschen. Heidelberg 1986 f.. Granger 1980 = Granger, Richard H.: When expectations fails. Toward a self-correcting inference system. In: AAAI-80, 301—305. Granger 1983 = Granger, Richard H.: The NOMAD system: expectation-based detection and

XIII. Bibliography

correction of errors during understanding of syntactically ill-formed text. In: American Journal of Computational Linguistics 9, 1983, 188—196. Granger/Eiselt/Holbrook 1983 = Granger, Richard H./Eiselt, Kurt P./Holbrook, Jennifer K.: Strategist. In: AAAI-83, 139—147. Granger/Eiselt/Holbrook 1984 = Granger, Richard H./Eiselt, Kurt P./Holbrook, Jennifer K.: ATLAST: A three-level language analysis system. In: GWA-84, 64—77. Granville 1984 = Granville, R.: Controlling Lexical Substitution in Computer Text Generation. In: COLING ’84, Proceedings of the 10th International Conference of Computational Linguistics, Stanford 1984, 381—384. Graser/Wegera 1978 = Graser, Helmut/Wegera, Klaus-Peter: Zur Erforschung der frühneuhochdeutschen Flexionsmorphologie. In: Zeitschrift für deutsche Philologie 97, 1978, 74—91. Grassi/Genre/Massobrio 1977 = Grassi, Corrado/Genre, Arturo/Massobrio, Lorenzo: Die Anwendung der elektronischen Datenverarbeitung bei der Redaktion und dem Druck des Italienischen Sprachatlasses (ALI). In: Germanistische Linguistik 3—4, 1977, 69—88. Greenbaum 1977 = Greenbaum, Sidney: The linguist as experimenter. In: Eckmann [ed.] 1977, 125—144. Greenbaum 1984 = Greenbaum, Sidney: Corpus Analysis and Elicitation Tests. In: Aarts/Me js [eds.] 1984, 193—201. Greenbaum/Leech /Svartvik [eds.] 1980 = Greenbaum, Sidney/Leech, Geoffrey N./Svartvik, Jan [eds.]: Studies in English Linguistics to Randolph Quirk. London 1980. Greenberg 1966 = Greenberg, J. H.: Language Universals. The Hague 1966. Greenblatt 1974 = Greenblatt, R. D.: The Lisp Machine. Working Paper 79, AI Laboratory, MIT. Cambridge, Mass. 1974. Greenblatt 1984 = Greenblatt, R. D.: The LISP Machine. In: Barstow/Shrobe/Sandewall [eds.] 1984. Greenblatt/Waxmann 1978 = Greenblatt, D./ Waxmann, J.: A study of three databases query languages. In: Shneiderman [ed.] 1978, 77—97. Greer 1985 = Greer, D.: Multifunction Voice Processing Engine for Desktop PC’s. In: Speech Technology 3, No. 1, 1985, 90—94. Greg 1927 = Greg, Walter W.: The calculus of variants. An essay on textual criticism. Oxford 1927. Gregor/Knifka [eds.] 1986 = Gregor, Bernd/ Knifka, Manfred [eds.]: Computerfibel für die Geisteswissenschaften. Einsatzmöglichkeiten des personal Computers und Beispiele aus der Praxis. München 1986. Greibach 1964 = Greibach, Sheila A.: Formal parsing systems. In: Communications of the ACM, Vol. 7, No. 8, Aug. 1964, 499—504.

XIII. Bibliography

Grice 1957 = Grice, H. Paul: Meaning. In: Philosophical Review, 1957, 377—388. Grice 1975a = Grice, H. Paul: Conversational Postulates. In: Norman/Rumelhart [eds.] 1975, 41—58. Grice 1975b = Grice, H. Paul: Logic and conversation. — Syntax and Semantics, Vol. 3. Speech Acts. New York 1975. Gries 1971 = Gries, David: Compiler Construction for Digital Computers. New York et al. 1971. Griffioen 1976 = Griffioen, Wim: Thematic maps of Germany. A program description. Utrecht 1976. Griffith 1969 = Griffith, John G.: Numerical taxonomy and some primary manuscripts of the Gospels. In: Journal of Theological Studies 20, 1969, 389—406. Griffith 1979 = Griffith, John G.: Non-stemmatic classification of manuscripts by computer methods. In: Irigoin/Zarri [eds.] 1979, 73—86. Griffith s/Petrick 1965 = Griffiths, T. V./Petrick, Stanley R.: On the relative efficiences of contextfree grammar recognizers. In: Communications of the ACM 5, 1965, 289—300. Grigorjan/Gjul’misarjan/Džanpoladjan et al. 1965 = Grigorj an, V. M./Gj ul’misarj an, S. A./Džanpoladj an, T. K. et al.: Ob algoritme armj ano-russkogo mašinnogo perevoda. In: Problemy kibernetiki 14, Moscow 1965, 267—287. Grish man 1976 = Grishman, Ralph: A survey of syntactic analysis procedures for natural language. In: AJCL Microfiche 47, 2—96. Grish man 1986 = Grishman, Ralph: Computational Linguistics — An Introduction. Cambridge Univ. Press 1986. Grish man/Hirsc h man 1978 = Grishman, Ralph/ Hirschman, Lynette: Question answering from natural language medical data bases. In: Artificial Intelligence 11, Nos. 1, 2, 1978, 25—43. Gris h man/Kittredge 1986 = Grishman, Ralph/ Kittredge, Richard: Sublanguage: Description and Processing. Hillsdale, N.J. 1986. Grish man/Sager/Raze et al. 1973 = Grishman, Ralph/Sager, Naomi/Raze, C. et al.: The Linguistic String Parser. In: Proceedings of AFIPS-73, 1973, 427—433. Griswold 1975 = Griswold, R. E.: String and List Processing in SNOBOL 4. Englewood Cliffs 1975. Griswold/Hansen 1976 = Griswold, R. E./Hansen, D. R.: The SL5-Programming Language. University of Arizona 1976. Groenendijk/Janssen/Stokh of [eds.] 1981 = Groenendij k, Jeroen A. G./Janssen, Theo M. V./Stokhof, Martin B. J. [eds.]: Formal Methods in the Study of Language. (= Mathematical Central Tracts, vol. 136). Amsterdam 1981. Groenendijk/Stokh of [eds.] 1976 = Groenendi j k, Jeroen A. G./Stokhof, Martin B. J. [eds.]: Amsterdam Papers in Formal Grammar 1. Proceedings of the Amsterdam Colloquium on Montague Grammar and Related Topics. Amsterdam 1976.

833

Groner/Bernstein/Ingber et al. 1982 = Groner, G. F./Bernstein, J./Ingber, E. et al.: A Real Time Text-to-Speech Converter. In: Speech Technology 1, No. 2, 1982, 73—76. Grootaers 1970 = Grootaers, Willem A.: Nouvelles méthodes et nouveaux problèmes: Le nouvel atlas linguistique du Japon. In: Actes du X congrès international des linguistes. Bucarest, 28 aout—2 septembre 1967. Bd. 2, 1970, 113—118. Großmann 1976 = Großmann, E.: Synthese von Sprache aus Sprachlauten. In: Acustica 35, 1976, 258—265. Gross, G. 1986 = Gross, G.: Typologie des noms composés: le lexique électronique des noms composés du français. Rapport ATP, CNRS, Paris. Université Paris 13 1986. Gross, L. N. 1968 = Gross, Louis N.: A computer program for testing grammars on-line. Bedford, Mass. 1968 [ms.]. Gross, M. 1975 = Gross, Maurice: Méthodes en Syntaxe. Paris 1975. Gross, M. 1984 = Gross, Maurice: Lexicon-grammar and the syntactic analysis of French. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 275—282. Gross, M. 1986 = Gross, Maurice: Lexicon-Grammar: The Representation of Compound Words. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 1—6. Gross, M./Halle/Sc h ützenberger [eds.] 1973 = Gross, M./Halle, M./Schützenberger, M. P. [eds.]: Formal Analysis of Natural Language. Den Haag 1973. Gross, M./Lentin 1971 = Gross, Maurice/Lentin, André: Mathematische Linguistik. Berlin — Heidelberg — New York 1971. Grosz 1981 = Grosz, Barbara J.: Focusing and description in natural language dialogues. In: Joshi/Webber/Sag [eds.] 1981, 84—105. Grosz 1986 = Grosz, Barbara J.: The Structures of Discourse Structure. In: Proc. of the Symposium on ’Language and Artificial Intelligence’, Kyoto 1986. Grosz/Jos h i/Weinstein 1983 = Grosz, Barbara J./Joshi, Aravind K./Weinstein, Scott: Providing a Unified Account of Definite Noun Phrases in Discourse. In: Proceedings of the Twentyfirst Annual Meeting of the Association for Computational Linguistics., 1983, 44—50. Grosz/Sidner 1985 = Grosz, Barbara J./Sidner, Candace L.: Discourse Structure and the Proper Treatment of Interruptions. In: Proceedings of the Ninth International Joint Conference on Artificial Intelligence (IJCAI-85), 1985, 832—840. Grosz/Sidner 1986 = Grosz, Barbara J./Sidner, Candace L.: Attention, Intentions, and the Structure of Discourse. In: Computational Linguistics 12, 1986, 175—204.

834

Grosz/Stickel [eds.] 1983 = Grosz, Barbara J./Stikkel, M. E. [eds.]: Research on Interactive Acquisition and Use of Knowledge: Final Report SRI Project 1894. Menlo Park 1983. Grotjan [ed.] 1884 = Grotj an, R. [ed.]: Quantitative Linguistics. Vol. 21. Bochum 1884. Grout/Ath anasopoulos/Kutlin 1986 = Grout, Bill/ Athanasopoulos, Irene/Kutlin, Rebecca: Desktop Publishing from A to Z. Berkeley, California 1986. Grunert/Bader 1985 = Grunert, Klaus G./Bader, Margarete: A Systematic Way to Analyse Focus Group Data. Manuskript. Hohenheim 1985. Gruppo di Pisa 1979 = Gruppo di Pisa: Il Dizionario di Macchina dell’Italiano. In: Gambarara/Lo Piparo/Ruggiero [eds.] 1979, 683—707. Günth er/Habel/Rollinger 1983 = Günther, S./Habel, C./Rollinger, C.-R.: Ereignisnetze: Zeitnetze und referentielle Netze. In: Hauenschild/Pause [eds.] 1983, 37—55. Guent h ner/Le h mann 1986 = Guenthner, Franz/ Lehmann, Hubert: Linguistische und logische Aspekte beim Aufbau eines j uristischen Expertensystems. In: Hellwig/Lehmann [eds.] 1986, 141—150. Guilbaud 1984 = Guilbaud, Jean-Philippe: Principles and results of a German-French MT system. Lugano Tutorial on Machine Translation. Lugano 1984. Guiraud/Kuentz [eds.] 1975 = Guiraud, Pierre/ Kuentz, Pierre [eds.]: La Stylistique. Paris 1975. Guiter 1973 = Guiter, Henri: Atlas et frontières linguistiques. In: Straka/Gardette [eds.] 1973, 61—109. Guiter 1974 = Guiter, Henri: Une vérification de loi linguistique par corrélation. In: Revue de Linguistique Romane 38, 1974, 253—264. Guiter 1979 = Guiter, Henri: Critique et limites d’une méthode. In: Mélanges à la mémoire de Louis Michel, Montpellier 1979, 261—267. Guiter 1984a = Guiter, Henri: Confrontation de méthodes géolonguistiques en domaine normand. In: Actes du 105e Congrès National des Sociétés Savantes, Paris 1984, 19 ff. Guiter 1984b = Guiter, Henri: L’Europe en ligne droite. In: Goebl [ed.] 1984, 121—135. Guiter 1985 = Guiter, Henri: Rezension zu GOEBL 1984. In: Revue de Linguistique Romane 49, 1985, 201—207. Guiter 1987 = Guiter, Henri: Etalongage d’une méthode géolinguistique. In: Revue de Linguistique Romane 51, 1987, 55—62. Guiter (i. V.) = Guiter, Henri: Les méthodes quantitatives en geolinguistique sont-elles équivalentes? In: Actes du XVIe Congrès de Linguistique Romane. Palma de Mallorca, (i. V.). Gunzenh äuser [ed.] 1968 = Gunzenhäuser, R. [ed.]: Nicht-Numerische Informationsverarbeitung. Wien — New York 1968. Gust 1983 = Gust, Helmar: Ein PROLOG-System

XIII. Bibliography

für Microcomputer. In: Sprache und Datenverarbeitung 7, Heft 1/2, 1983, 16—20. Gust 1984 = Gust, Helmar: Ein Grammatiklabor in PROLOG. In: Rollinger [ed.] 1984, 55—66. Gustafsson 1982 = Gustafsson, Marita: Textual aspects of topicalization in a corpus of English. In: ICAME News 8, 47—59. Gutch o 1985 = Gutcho, L.: DECtalk — A Year Later. In: Speech Technology 3, No. 1, 1985, 98—102. Guttman/Jones/Parrish 1980 = Guttman, Samuel A./Jones, Randall/Parrish, Stephen M.: The Concordance to the Standard Edition of The Complete Psychological Works of Sigmund Freud. 6 Volumes. Boston 1980. Haarmann 1976a = Haarmann, Harald: Aspekte der Arealtypologie. Problematik der europäischen Sprachbünde. (= Narr, G. [ed.]: Tübinger Beiträge zur Linguistik. Bd. 72). Tübingen 1976. Haarmann 1976b = Haarmann, Harald: Grundzüge der Sprachtypologie. Methodik, Empirie und Systematik der Sprachen Europas. Stuttgart — Berlin — Köln — Mainz 1976. Haas 1970 = Haas, William: Phono-graphic Translation. Manchester 1970. Haas/Näf [eds.] 1983 = Haas, Walter/Näf, Anton [eds.]: Wortschatzprobleme im Alemannischen. 7. Arbeitstagung alemannischer Dialektologen, Freiburg i. Ü., 1.—3. Oktober 1983. Freiburg 1983. Habel 1980 = Habel, Christopher U.: Referenzen — Inferenzen. In: Rollinger/Schneider [eds.] 1980, 81—114. Habel 1982a = Habel, Christopher U.: Inferences — the base of semantics? KIT Report 7. Berlin 1982. Habel 1982b = Habel, Christopher U.: Textverstehende Systeme. Ein Beispiel für die Beziehung Informatik — Kognitionswissenschaft. KIT Report 10. Berlin 1982. Habel 1983 = Habel, Christopher U.: Logische Systeme und Repräsentationssysteme. In: Neumann, B. [ed.] 1983, 118—142. Habel 1984a = Habel, Christopher U.: SRL und Textverstehen. In: Rollinger [ed.] 1984, 3—23. Habel 1984b = Habel, Christopher U.: Stories — An Artificial Intelligence approach. KIT Report 19. Berlin 1984. Habel 1984c = Habel, Christopher U.: Zur Repräsentation der referentiellen Struktur. In: Rollinger [ed.] 1984, 125—142. Habel 1985a = Habel, Christopher U.: Das Lexikon in der Forschung der Künstlichen Intelligenz. In: Schwarze/Wunderlich [eds.] 1985, 441—474. Habel 1985b = Habel, Christopher U.: Prinzipien der Referentialität. Habilitationsschrift. TU Berlin, Fachbereich Informatik. Berlin 1986. Habel 1986 = Habel, Christopher U.: Prinzipien der Referentialität. Untersuchungen zur propositionalen Repräsentation von Wissen. (= Informatik Fachberichte 122). Berlin—Heidelberg—New York 1986.

XIII. Bibliography

Habel [ed.] 1985 = Habel, Christopher U. [ed.]: Künstliche Intelligenz. Repräsentation von Wissen und natürlichsprachliche Systeme. Berlin — Heidelberg — New York 1985. Habel/Rollinger 1980 = Habel, Christopher U./Rollinger, Claus-Rainer: Konversationsmaximen für die Frage Beantwortung. In: Tschander/ Weigand [eds.] 1980, 85—96. Habel/Rollinger 1981 = Habel, Christopher U./Rollinger, Claus-Rainer: Aspekte der rechnergestützten Generierung von Inferenzen durch Regelschemata. In: Siekmann [ed.] 1981, 88—97. Habel/Rollinger/Sc h midt et al. 1980 = Habel, Christopher U./Rollinger, Claus-Rainer/Schmidt, Arno et al.: A Logic-Oriented Approach to Automatic Text Understanding. In: Bolc [ed.] 1980a, 57—117. Haddock 1987 = Haddock, N.J.: Incremental interpretation and combinatory categorial grammar. In: Proceedings of IJCAI-87. Milan, Italy 1987. Hägerstrand 1976 = Hägerstrand, Torsten: Eine Monte-Carlo-Analyse der Ausbreitung. In: P. Schmidt [ed.]: Innovation, Diffusion von Neuerungen im Dopialen Bereich. 1976, 221—241. Händler 1977a = Händler, Harald: Eine Methode zur Automatischen Herstellung von Isoglossen. In: Germanistische Linguistik 3—4, 1977, 259—274. Händler 1977b = Händler, Harald: Zum Dokumentations- und Speicherungsproblem im Rahmen der Automatischen Sprachkartographie. In: Germanistische Linguistik 3—4, 1977, 163—180. Händler 1982 = Händler, Harald: Entwurf zu dialektalen Informationssystemen. In: Besch/ Knoop/Putschke et al. [eds.] 1982, 792—806. Händler 1985 = Händler, Harald: Die computative Bearbeitung der hessischen Flurnamen. In: Schützeichel [ed.] 1985, 642—659. Händler 1987a = Händler, Harald: Computative Bearbeitung. In: Friebertshäuser/Dingeldein 1987, 14—18. Händler 1987b = Händler, Harald: Die computative Bearbeitung. In: Hessischer Flurnamenatlas, 1987, 25—27. Händler/Naumann 1976 = Händler, Harald/ Naumann, Carl Ludwig: Zur Automatisierung der Isoglossenfindung. In: Germanistische Lingusitik 3—4, 1976, 121—159. Händler/Wiegand 1982 = Händler, Harald/Wiegand, Herbert Ernst: Das Konzept der Isoglosse: methodische und terminologische Probleme. In: Besch/Knoop/Putschke et al. [eds.] 1982, 501—527. Hagège 1982 = Hagège, Claude: La structure des langues. Paris 1982. Hah n, U. 1984a = Hahn, Udo: Textual Expertise in Word Experts: An Approach to Text Parsing Based on Topic/Comment Monitoring. Bericht TOPIC-10/84. Universität Konstanz 1984. Hah n, U. 1984b = Hahn, Udo: Textual expertise in word experts. An approach to text parsing based on topic/comment monitoring. In: COLING ’84,

835

Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 402—408. Hah n, U. 1985 = Hahn, Udo: Expertensysteme als intelligente Informationssysteme. In: Nachrichten für Dokumentation 36, 1, 1985, 2—12. Hah n, U. 1986 = Hahn, Udo: Methoden der Volltextverarbeitung in Informationssystemen. In: Kuhlen [ed.] 1986, 195—216. Hah n, U. 1987 = Hahn, Udo: Lexikalisch verteiltes Text-Parsing: Eine obj ektiv-orientierte Spezifikation eines Wortexpertensystems auf der Grundlage des Aktorenmodells. Diss. Konstanz 1987. Ha h n, U./Hammwö h ner/Ku h len et al. 1984 = Hahn, Udo/Hammwöhner, R./Kuhlen, Rainer et al.: TOPIC II/TOPOGRAPHIC II. Automatische Textkondensierung und text-orientiertes Informationsmanagement. Proj ektziele — State-of-the-Art.: Universität Konstanz, Informationswissenschaft (= Bericht TOPIC-12/84 & TOPOGRAPHIC-3/84). Konstanz 1984. Ha h n, U./Ku h len/Reimer 1982 = Hahn, Udo/ Kuhlen, Rainer/Reimer, Ulrich: Konzeption und Aufbau des automatischen Textkondensierungssystems TOPIC. Bericht TOPIC-1/82. Universität Konstanz 1982. Hah n, U./Reimer 1982 = Hahn, Udo/Reimer, Ulrich: Konzeption und Aufbau des automatischen Textkondensierungssystems TOPIC. Bericht TOPIC-1/82. Universität Konstanz 1982. Hah n, U./Reimer 1983a = Hahn, Udo/Reimer, Ulrich: A Formal Approach to the Semantics of a Frame Data Model. Bericht TOPIC-3/83. Universität Konstanz 1983. Hah n, U./Reimer 1983b = Hahn, Udo/Reimer, Ulrich: Heuristic Text Parsing in TOPIC: Methodological Issues in a Knowledge-Based Text Condensation System. Bericht TOPIC-5/83. Universität Konstanz 1983. Hah n, U./Reimer 1983c = Hahn, Udo/Reimer, Ulrich: Word Expert Parsing. An Approach to Text Parsing with a Distributed Lexical Grammar. Bericht TOPIC-6/83. Universität Konstanz 1983. Hah n, U./Reimer 1983d = Hahn, U./Reimer, U.: Wortexpertenparsing. In: Linguistische Berichte 88, 1983, 56—78. Hah n, U./Reimer 1984 = Hahn, Udo/Reimer, Ulrich: Computing text constituency: An algorithmic approach to the generation of text graphs. In: Rij sbergen [ed.] 1984, 343—368. Hah n, U./Reimer 1986 = Hahn, Udo/Reimer, Ulrich: Semantic parsing and summarizing of technical texts in the TOPIC system. In: Kuhlen [ed.] 1986, 153—193. Hah n, W. v. 1978 = Hahn, Walther von: Überlegungen zum kommunikativen Status und der Testbarkeit von natürlich-sprachlichen Artificial-Intelligence-Systemen. In: Sprache und Datenverarbeitung 2, 1978, 3—16. Hah n, W. v. 1986 = Hahn, Walther von: Pragmatic Considerations in Man-Machine Discourse. In:

836

COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 520—526. Hah n, W. v. 1987 = Hahn, Walther von: Computational Linguistics, theoretical foundations, misconceptions, and applications. In: Kühlwein [ed.] 1987. Hah n, W. v./Fisch er 1975 = Hahn, Walther von/ Fischer, Hartmut: Über die Leistung von Morphologisierungsalgorithmen bei Substantiven. In: Zeitschrift für Dialektologie und Linguistik, Beiheft 13, 1975, 130—150. Hah n, W. v./Hoeppner 1975 = Hahn, Walther von/Hoeppner, Wolfgang: HAM2 — Ein Algorithmus zur Lemmatisierung deutscher Verben. In: Zeitschrift für Dialektologie und Linguistik, Beiheft 13, 1975, 151—171. Hah n, W. v./Hoeppner/Jameson et al. 1980 = Hahn, Walther von/Hoeppner, Wolfgang/Jameson, Anthony et al.: The Anatomy of the Natural Language Dialogue System HAM-RPM. In: Bolc [ed.] 1980a, 119—253. Haigh 1971 = Haigh, John: The manuscript linkage problem. In: Hodson/Kendall/Tǎutu [eds.] 1971, 396—400. Hajič 1984 = Haj ič, Jan: KODAS — a simple method of natural language interface to a database. Prague 1984. Hajičová 1983 = Haj ičová, Eva: Topic and focus. In: Theoretical Linguistics 10, 1983, 189—202. Hajičová 1986 = Haj ičová, Eva: Machine translation research in Czechoslovakia. In: Proceedings of the International Conference on Translation Mechanization, Aug. 20—22, 1986 Copenhagen. Hajičová [ed.] 1982 = Haj ičová, Eva [ed.]: COLING ’82 — Abstracts. Prague, Charles University 1982. Hajičová/Hnatková 1984 = Ha j ičová, Eva/Hnatková, Milena: Inferencing on linguistically based semantic structures. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 291—297. Hajičová/Sgall 1980a = Ha j ičová, Eva/Sgall, Petr: A dependency-based specification of topic and focus. In: SMIL — Journal of Linguistic Calculus, No. 1—2, 1980, 93—140. Hajičová/Sgall 1980b = Ha j ičová, Eva/Sgall, Petr: Linguistic meaning and knowledge representation in automatic understanding of natural language. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 67—75. Hajičová/Sgall 1984 = Haj ičová, Eva/Sgall, Petr: Text-and-inference based answering of questions. In: Sgall [ed.] 1984, 291—320. Hajičová/Sgall 1985 = Haj ičová, Eva/Sgall, Petr: Towards an automatic identification of topic and focus. In: Proceedings of the Second Conference of the European Chapter of the ACL, Geneva 1985, 263—267.

XIII. Bibliography

Hajičová/Vrbová 1981 = Ha j ičová, Eva/Vrbová, Jarka: On the salience of the elements of the stock of shared knowledge. In: Folia linguistica XV, 1981, 291—304. Hajičová/Vrbová 1982 = Ha j ičová, Eva/Vrbová, Jarka: On the role of the hierarchy of activation in the process of natural language understanding. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 107—113. Hall Partee 1978 = Hall Partee, Barbara: Fundamentals of Mathematics for Linguistics. Dordrecht — London 1978. Halle/Bresnan/Miller [eds.] 1978 = Halle, Morris/Bresnan, Joan W./Miller, G. A. [eds.]: Linguistic Theory and Psychological Reality. Cambridge, Mass. 1978. Halliday 1961 = Halliday, M. A. K.: Categories of the Theory of Grammar. In: Word 17, 1961, 241—292. Halliday 1967 = Halliday, M. A. K.: Notes on transivity and theme in English. In: Journal of Linguistics 3; 4, 1967, 37—81; 199—244. Halliday 1973 = Halliday, M. A. K.: Explorations in the Function of Language. London 1973. Halliday 1985 = Halliday, M. A. K.: An introduction on functional grammar. London 1985. Halliday/Hasan 1976 = Halliday, M. A. K./Hasan, R.: Cohesion in English. New York — London 1976. Halliday/Martin 1981 = Halliday, M. A. K./Martin, James R.: Readings in systemic linguistics. London 1981. Hallig/von Wartburg 1963 = Hallig, Rudolf/ Wartburg, Walther von: Begriffssystem als Grundlage für die Lexicographie. Versuch eines Ordnungsschemas. 2. Aufl. Berlin 1963. Halvorsen 1982a = Halvorsen, Per-Kristian: Lexical-Functional Grammar and Order-Free Semantic Composition. In: Horecký [ed.] 1982, 115—120. Halvorsen 1982b = Halvorsen, Per-Kristian: Semantics for lexical functional grammar. In: Linguistic Inquiry 14, 1982, 567—615. Halvorsen 1986 = Halvorsen, Per-Kristian: Computer Applications of Linguistic Theory. In: Newmeyer/Ubell [eds.]. Hanks 1987 = Hanks, Patrick: Definitions and Explanation. In: Sinclair [ed.] 1987, 116—137. Hansen 1969 = Hansen, W.: Compact List Representation: Definition, Garbage Collection and System Implementation. In: Communications of the ACM 12, 1969, 499—507. Hard 1972 = Hard, Gerhard: Ein geographisches Situationsmodell für die rheinische Sprachgeschichte. In: Ennen/Wiegelmann [eds.] 1972, 25—58. Harel/Peleg 1984 = Harel, D./Peleg, D.: On static logics, dynamic logics, and complexity classes. In: Information and Control 60, 1984, 86—102. Harman [ed.] 1974 = Harman, Gilbert [ed.]: On Noam Chomsky. Critical Essays. New York 1974.

XIII. Bibliography

Harper 1980 = Harper, D. J.: Relevance Feedback in Document Retrieval Systems: An Evaluation of Probabilistic Strategies. Diss. University of Cambridge 1980. Harras 1983 = Harras, Gisela: Handlungssprache und Sprechhandlung. Berlin — New York 1983. Harrison 1978 = Harrison, Michael A.: Introduction to Formal Language Theory. Reading, Mass. et al. 1978. Harris, L. R. 1977a = Harris, Lary R.: User Oriented Data Base Query with the ROBOT Natural Language Query System. In: Proceedings. Very Large Data Bases. Third International Conference On Very Large Data Bases, Tokyo, Japan, October 6—8, New York et al. 1977, 303—311. Harris, L. R. 1977b = Harris, Lary R.: User Oriented Data Base Query with the ROBOT Natural Language Query System. In: International Journal of Man-Machine Studies 9, 1977, 697—713. Harris, L. R. 1979 = Harris, Lary R.: Experience with ROBOT in Twelve Commercial Natural Language Data Base Query Applications. In: IJCAI 6, 1979, 365—368. Harris, L. R. 1980a = Harris, Lary R.: ROBOT — A High Performance Natural Language Interface for Data Base Query. In: Bolc [ed.] 1980a, 285—318. Harris, L. R. 1980b = Harris, Lary R.: Using the data base as a semantic component to aid in the parsing of natural language data base queries. In: J. Cybern. 10, 1—3, 1980, 77—96. Harris, M. D. 1985 = Harris, Mary Dee: Introduction to Natural Language Processing. Reston, Virginia 1985. Harris, Z. S. 1951 = Harris, Zellig S.: Methods in structural linguistics. Chicago 1951. Harris, Z. S. 1952 = Harris, Zellig S.: Discourse analysis. In: Language 28, 1952, 18—23. Harris, Z. S. 1962 = Harris, Zellig S.: String analysis of sentence structure. The Hague 1962. Harris, Z. S. 1965 = Harris, Zellig S.: String analysis of sentence structure. The Hague 1965. Harter 1975 = Harter, P. S.: A Probabilistic Approach to Automatic Keyword Indexing (Part 1, Part 2). In: Journal of the ASIS 26, 1975, 197—206 (Part 1); 280—289 (Part 2). Hartley, J. 1978 = Hartley, J.: Computer Assisted Learning: A Review of Research and Applications. Computer Based Learning Unit, University of Leeds. 1978. Hartley/Hartley 1955 = Hartley, Eugene L./Hartley, Ruth E.: Die Grundlagen der Sozialpsychologie. Aus dem Amerikanischen übersetzt und bearbeitet von Ursula Saar. Berlin 1955. Hartman 1981 = Hartman, Steven Lee: A universal alphabet for experiments in comparative phonology. In: Computers and the humanities 15, 1981, 75—82. Hartmann, P. 1958 = Hartmann, Peter: Das Wort als Name. Struktur, Konstitution und Leistung der benennenden Bestimmung. Köln — Opladen 1958.

837

Hartmann, R. 1976 = Hartmann, Reinhard: Über die Grenzen der kontrastiven Lexikologie. In: Jahrbuch 1975 des Instituts für deutsche Sprache: Problem der Lexikologie und Lexikographie, Düsseldorf 1976, 181—199. Hartmann, R. R. K. [ed.] 1983 = Hartmann, R. R. K. [ed.]: Lexicography: Principles and Practice. London — New York 1983. Hartmann, R. R. K. [ed.] 1984 = Hartmann, R. R. K. [ed.]: LEXeter ’83 Proceedings: Papers from the International Conference on Lexicography at Exeter, 9—12 September 1983 (= Lexicographica, series maior 1). Tübingen 1984. Harweg 1968 = Harweg, Roland: Pronomina und Textkonstitution. München 1968. Harweg 1971 = Harweg, Roland: Buchstabe und Graphem. In: Linguistische Berichte 13, 1971, 78—80. Haton [ed.] 1982 = Haton, J.-P. [ed.]: Automatic Speech Analysis and Recognition. In: NATO Advanced Study Institute Series. Haton/Pierrel/Sabbagh 1982 = Haton, J.-P./Pierrel, J. M./Sabbagh, S.: Semantic and Pragmatic Processing in Continuous Speech Understanding. In: Haton [ed.] 1982, 253—268. Hattori/Innoue [eds.] 1983 = Hattori, S./Inoue, K. [eds.]: Proceedings of the XIIIth International Congress of Linguistics. August 29—September 4, 1982. Tokyo 1983. Hauensch ild 1986 = Hauenschild, Christa: KIT/ NASEV oder die Problematik des Transfers bei der Maschinellen Übersetzung. In: Bátori/Weber [eds.] 1986, 167—195. Hauensc h ild/Huckert/Maier 1978 = Hauenschild, Christa/Huckert, Edgar/Maier, Robert: SALAT: Entwurf eines automatischen Übersetzungssystems. In: Sprache und Datenverarbeitung 2, 1978, 126—152. Hauensc h ild/Huckert/Maier 1979 = Hauenschild, Christa/Huckert, Edgar/Maier, Robert: SALAT: Machine Translation via Semantic Representation. In: Bäuerle/Egli/Stechow [Eds.] 1979, 324—352. Hauensc h ild/Pause [eds.] 1983 = Hauenschild, Christa/Pause, Peter E. [eds.]: Linguistik und Künstliche Intelligenz. (= Linguistische Berichte, Bd. 88, Themenheft). 1983. Haugeland [ed.] 1981 = Haugeland, John [ed.]: Mind Design. Cambridge, Mass. 1981. Haugeneder 1982 = Haugeneder, Hans: Strukturanalyse im Dokumentenretrieval. In: Fischer [ed.] 1982, 303—332. Hauptmann 1984 = Hauptmann, A.: Kooperative Fragebeantwortung unter Verwendung des Konzeptes ’Nachbarfrage’. Diplomarbeit, FB Informatik, TU Berlin 1984. Hausser 1986 = Hausser, Roland: NEWCAT: Parsing natural language using left-associative grammar. Berlin — Heidelberg — New York 1986. Have/Ouden 1985 = ten Have, M./den Ouden, J.: A New CMOS Formant Speech Synthesizer for

838

High Quality Speech. In: SPEECH TECH 1985, 253—256. Havránek 1976 = Havránek, Bohuslav: Die Aufgabe der Literatursprache und die Sprachkultur. In: Scharnhorst/Ising [eds.] 1976, 103—141. Hawkridge 1983 = Hawkridge, D.: New Information Technology in Education. London 1983. Hayas h i/Hattori/Akimoto 1983 = Hayashi, H./Hattori, H./Akimoto, H.: ALPHA: A HighPerformance LISP Machine Equipped with New Stack Structure and Garbage Collection System. In: Thorelli [ed.] 1983. Hayes, P. J. 1984a = Hayes, Patrick J.: Liquids. In: Hobbs [ed.] 1984. Hayes, P. J. 1984b = Hayes, Patrick J.: On the differences between psychology and AI. In: Yazdani/Narayanan [eds.] 1984, 157—162. Hayes, Ph . J. 1974 = Hayes, Philip J.: Some Problems and Non-Problems in Representation Theory. Proc. AISB Summer Conference. Univ. of Sussex 1974. Hayes, Ph . J. 1976 = Hayes, Philip J.: Semantic Markers and Selectional Restrictions. In: Charniak/Wilks [eds.] 1976, 41—54. Hayes, Ph . J. 1980 = Hayes, Philip J.: The Logic of Frames. In: Metzing [ed.] 1980, 46—61. Hayes, Ph . J. 1981 = Hayes, Philip J.: A construction-specific approach to focused interaction in flexible parsing. In: Proceedings of the 19th Ann. ACL, 1981, 149—152. Hayes, Ph . J./Carbonell 1983 = Hayes, Philip J./Carbonell, Jaime G.: Natural language processing. In: Natural language tutorial — IJCAI-83. Supplementary notes. Pittsburgh 1983. Hayes, Ph . J./Mouradian 1980 = Hayes, Philip J./Mouradian, George V.: Flexible Parsing. In: Proceedings of the 18th Ann. ACL, 1980, 97—103. Hayes, Ph . J./Mouradian 1981 = Hayes, Philip J./Mouradian, George V.: Flexible parsing. In: AJCL 7, 4, 1981, 232—242. Hays 1964a = Hays, David G.: Connectability calculations, syntactic functions, and Russian syntax. In: MT 8,1, 1964, 32—51; also in: Hays [ed.] 1966, 73—82. Hays 1964b = Hays, David G.: Dependency theory: A formalism and some observations. In: Language 40, 1964, 511—525. Hays 1966a = Hays, David G.: Connectability, calculations, syntactic functions, and Russian syntax. In: Hays [ed.] 1966, 107—125. Hays 1966b = Hays, David G.: Parsing. In: Hays [ed.] 1966, 73—82. Hays 1967 = Hays, David G.: Introduction to computational linguistics. New York 1967. Hays 1976 = Hays, David G.: The Field and the Scope of Computational Linguistics. In: Papp/ Szépe [eds.] 1976, 21—25. Hays [ed.] 1966 = Hays, David G. [ed.]: Readings in Automatic Language Processing. New York

XIII. Bibliography

1966. HDG 1984 = HDG: Handwörterbuch der deutschen Gegenwartssprache. In zwei Bänden. Von einem Autorenkollektiv unter der Leitung von Günter Kempcke. Berlin 1984. Heese 1983 = Heese, C.: Die Konzeption einer interaktiven graphischen Mensch-MaschineSchnittstelle für das System TOPIC:TOPOGRAPHIC (TOPic Operating with GRAPHical Interactive Components).: Universität Konstanz, Informationswissenschaft. (= Bericht TOPIC-4/83). Konstanz 1983. Heger 1976 = Heger, Klaus: Monem, Wort, Satz und Text. 2. Aufl. Tübingen 1976. Heidorn 1975 = Heidorn, G.: Augmented phrasestructured grammars. In: Theoretical Issues in Natural Language Processing, Cambridge, Mass. 1975, 1—5. Heidorn 1978 = Heidorn, G.: Natural language dialogue for managing an on-line calendar. In: Annual Meeting of the Association for Computing Machinery, Washington, D. C. 1978, 45—52. Heidorn/Jensen/Miller et al. 1982 = Heidorn, George E./Jensen, Karen/Miller, Lance A. et al.: The EPISTLE Text-Critiquing System. In: IBM Systems Journal 21,3, 1982, 305—326. Heike/Ph ilipp 1985 = Heike, G./Philipp, J.: LISA — Ein Verfahren zur artikulatorischen Sprachsynthese. In: Müller [ed.] 1985, 39—53. Heilbrunner/Wegner 1983 = Heilbrunner, S./ Wegner, L.: Formale Sprachbeschreibungen: ist eine Vereinheitlichung in Sicht? In: Angewandte Informatik 25, 1983, 93—98. Heilmann et al. [ed.] 1987 = Heilmann, H. et al. [ed.]: Handbuch der modernen Datenverarbeitung. Heft 133. Wiesbaden 1987. Hein 1985 = Hein, H.-W.: Sprachsynthese. In: Handbuch der modernen Datenverarbeitung (HMD), Heft 123, „Prozeßdatenverarbeitung und Digitale Signalverarbeitung“, Mai 1985, 85—91. Helbig/Bottger/String et al. 1983 = Helbig, H./Bottger, H./String, P. et al.: FAS-80: ein natürlichsprachiges Auskunftssystem. VEB Robotron ZFT, 1983, WIB Nr. 19. Helgerson 1986 = Helgerson, Linda W.: CD-ROM search and retrieval software: the requirements and realities. In: Library Hi Tech 4,4, 1986, 69—77. Hell 1976 = Hell, György: Automatic hyphenation in Hungarian. In: Papp/Szépe [eds.] 1976, 375—379. Hell 1982 = Hell, György: Textlinguistics and syntactical analysis. In: Explizite Beschreibung der Sprache und automatische Textbearbeitung VIII, Prague 1982, 44—51. Hellberg 1972 = Hellberg, Staffan: Computerized lemmatization without the use of a dictionary. In: Computers and the Humanities 6:4, 1972, 209—212. Hellberg 1978 = Hellberg, Staffan: The Morphology of Present-Day Swedish. Stockholm 1978. Hellmann [ed.] 1984 = Hellmann, Manfred [ed.]: Ost-West-Wortschatzvergleiche. Tübingen 1984.

XIII. Bibliography

Hellwig 1978a = Hellwig, Peter: Formal-desambiguierte Repräsentation. Vorüberlegungen zur maschinellen Bedeutungsanalyse auf der Grundlage der Valenzidee. Stuttgart 1978. Hellwig 1978b = Hellwig, Peter: PLAIN — Ein Programmsystem zur Sprachbeschreibung und maschinellen Sprachbearbeitung. In: Sprache und Datenverarbeitung 1, 1978, 16—31. Hellwig 1980a = Hellwig, Peter: Eine Valenzsyntax und wozu sie gut ist. In: Krallmann [ed.] 1980, 17—43. Hellwig 1980b = Hellwig, Peter: PLAIN — A program system for dependency analysis and inference. In: Bolc [ed.] 1980c, 271—376. Hellwig 1983 = Hellwig, Peter: Rechnen ist Sprache — Möglichkeiten und Probleme der Maschinellen Sprachverarbeitung. In: Der Deutschunterricht 4, 1983. Hellwig 1984 = Hellwig, Peter: Grundzüge einer Theorie des Textzusammenhanges. In: Rothkegel/ Sandig [eds.] 1984, 51—79. Hellwig 1986 = Hellwig, Peter: Dependency unification grammar. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 195—198. Hellwig/Leh mann [eds.] 1986 = Hellwig, Peter/ Lehmann, Hubert [eds.]: Trends in der Linguistischen Datenverarbeitung. Hildesheim — Zürich — New York 1986. Helm [ed.] 1967 = Helm, J. [ed.]: Essays on the verbal and visual arts. Seattle 1967. Hempel 1965 = Hempel, C. G.: Aspects of scientific explanation. New York 1965. Hempel 1965 = Hempel, C. G.: Typological methods in the natural and the social sciences. In: Hempel 1965, 155—177. Hempel 1974 = Hempel, C. G.: Philosophie der Naturwissenschaften. München 1974. Henderson/Morris 1976 = Henderson, P./Morris, J.: A Lazy Evaluator. In: Third ACM Symposium on Principles of Programming Languages., 1976, 95—103. Hendrix 1975 = Hendrix, Gary G.: Expanding the utilities of semantic networks through partitioning. In: Proceedings of the Fourth International Conference on Artificial Intelligence, Tblissi 1975, 115—121. Hendrix 1977a = Hendrix, Gary G.: Human Engineering for Applied Natural Language Processing. In: Proceedings IJCAI 5, Cambridge, Mass. 1977. Hendrix 1977b = Hendrix, Gary G.: The LIFER manual: a guide to building practical natural language interfaces. Technical note 128, Artificial Intelligence Center, SRI International. Menlo Park, California 1977. Hendrix 1982 = Hendrix, Gary G.: Natural Language Interface. In: American Journal of Computational Linguistics, Vol. 8, No. 2, 1982, 56—61. Hendrix 1986 = Hendrix, Gary G.: Q & A: Already a Success? In: COLING ’86, Proceedings of

839

the 11th International Conference on Computational Linguistics, Bonn 1986, 164—166. Hendrix/Sacerdotti/Sagalowicz et al. 1978 = Hendrix, Gary G./Sacerdotti, E. D./Sagalowicz, D. et al.: Delivering a Natural Language Interface to Complex Data. In: ACM Transactions on Database Systems 3, June 1978, 105—147. Henisz-Dostert/Macdonald/Zarec h nak 1979 = Henisz-Dostert, Bozena/Macdonald, R. Ross/Zarechnak, Michael: Machine Translation. The Hague — Paris — New York 1979. Henne/Weinric h 1976 = Henne, Helmut/Weinrich, Harald: Zwanzig Thesen über ein neues großes Wörterbuch der deutschen Sprache. In: Zeitschrift für germanistische Linguistik 4, 1976, 339—349. Henne/Wiegand 1973 = Henne, Helmut/Wiegand, Herbert Ernst: Pleremik: Sprachzeichenbildung. In: Althaus/Henne/Wiegand [eds.] 1980, 132—144. Hennig 1950 = Hennig, Willi: Grundzüge einer Theorie der phylogenetischen Systematik. Berlin 1950. Hentsch el 1983 = Hentschel, Gerd: Einsatz von EDV und Microcomputern in einem lexikographischen Forschungsproj ekt zum deutschen Lehnwort im Polnischen. In: Sprache und Datenverarbeitung, H. 1/2, 1983, 11—15. Hentsc h el/Gregor 1986 = Hentschel, Gerd/Gregor, Bernd: Lexikographie. In: Gregor/Krifka [eds.] 1986, 212—221. Herdan 1960 = Herdan, G.: Type-Token-Mathematics. The Hague 1960. Hermes 1961 = Hermes, H.: Aufzählbarkeit, Entscheidbarkeit, Berechenbarkeit. Berlin 1961. Hertz 1982 = Hertz, S. R.: From text to speech with SRS. In: Journal of the Acoustic Society of America 72, No. 4, 1982, 1155—1170. Hertz/Beckman 1983 = Hertz, S. R./Beckman, M.: A Look at the SRS Synthesis Rules for Japanese. In: ICASSP Proceedings, 1983, 1336—1339. Hertz/Kadin/Karplus 1985 = Hertz, S. R./Kadin, J./Karplus, K. J.: The Delta Rule Development System for Speech Synthesis from Text. In: Proceedings of the IEEE 73, No. 11, 1985, 1589—1601. Herzog [ed.] 1984 = Herzog, Reinhart [ed.]: Computer in der Übersetzungswissenschaft. Sprachpraktische und terminologische Studien. Frankfurt/M. 1984. Hesse/Küstner 1980 = Hesse, Harald/Küstner, Andreas: Towards syntactic analysis of coordinative sentences of German. In: SMIL 1980, No. 4, 5—33. Hesse/Küstner 1985 = Hesse, Harald/Küstner, Andreas: Syntax der koordinativen Verknüpfung. Berlin 1985. Hessisch er Flurnamenatlas 1987 = Ramge, Hans [ed.]: Hessischer Flurnamenatlas. Hrsg. v. Hans Ramge. Unter Mitarbeit von Sonj a Hassel-Schürg, Ulrich Reuling, Gerda Weigel, Bernd Vielsmeier.

840

Computativ bearb. v. Harald Händler/Wolfgang Putschke. Darmstadt 1987. Heß/Brustkern/Lenders 1983 = Heß, Klaus/ Brustkern, Jan/Lenders, Winfried: Maschinenlesbare deutsche Wörterbücher. Dokumentation, Vergleich, Integration. (= Sprache und Information 6). Tübingen 1983. Hewitt 1975 = Hewitt, Carl: How to use what you know. In: Proceedings of the Fourth International Joint Conference on Artificial Intelligence 1, Tblissi 1975, 189—198. Hewitt/Bis h op/Steiger 1973 = Hewitt, Carl/Bishop, P./Steiger, R.: A Universal Modular Actor Formalism for Artificial Intelligence. In: Advance Papers of the Third IJCAI-73, Los Altos, Palo Alto, Cal. 1973, 235—245. Hewson 1973 = Hewson, John: Towards a ProtoAlgonkian Dictionary. In: Studies in Lingusitics 23, 1973, 63—68. Hewson 1974 = Hewson, John: Comparative Reconstruction on the Computer. In: Anderson/ Jones [eds.] 1974, 191—197. Hewson 1977 = Hewson, John: Reconstructing Prehistoric Languages on the Computer: the Triumph of the Electronic Neogrammarian. In: Zampolli/Calzolari [eds.] 1977, 263—273. Heydrich /Petöfi [eds.] 1983 = Heydrich, W./Petöfi, J. S. [eds.]: Aspekte der Konnexität und Kohärenz von Texten. Hamburg 1983. Higginboth am 1984 = Higginbotham, J.: English is not a context-free language. In: Linguistic Inquiry 15, 1984, 225—334. Higgins/Joh ns 1984 = Higgins, John/Johns, Tim: Computers in Language Learning. London 1984. Hillis 1982 = Hillis, Daniel W.: The Connection Machine. Technical Report, Department of Computer Science, MIT. Cambridge, Mass. 1982. Hillis 1985 = Hillis, Daniel W.: Teh Connection Machine. Cambridge, Mass. 1985. Hinsley/Hayes/Simon 1977 = Hinsley, Dan A./Hayes, John R./Simon, Herbert A.: From Words to Equations, Meaning and Representation in Algebra Word Problems. In: Just/Carpenter [eds.] 1977, 89—106. Hintikka 1963 = Hintikka, Jaakko: Knowledge and Belief. Ithaca 1963. Hintikka et al. [eds.] 1973 = Hintikka, K. J. J. et al. [eds.]: Approaches to Natural Language. Dordrecht 1973. Hintikka/Moravcsik/Suppes [eds.] 1973 = Hintikka, Jaakko/Moravcsik, J./Suppes, P. [eds.]: Approaches to Natural Language. Dordrecht 1973. Hinton/Anderson [eds.] 1981 = Hinton, Geoffrey E./Anderson, James A. [eds.]: Parallel models of associative memory. Hillsdale, N.J. 1981. Hirakawa 1983 = Hirakawa, H.: Chart parsing in concurrent prolog. Technical report of ICOT research center, TR-008. Tokyo 1983. Hirsc h man/Gris h man/Sager 1976 = Hirschman, L./Grishman, R./Sager, N.: From text to struc-

XIII. Bibliography

tured information — automatic processing of medical reports. In: AFIPS National Computer Conference, 1976, 267—275. Hirsc h man/Sager 1982 = Hirschman, L./Sager, N.: Automatic information formatting of a medical sublanguage. In: Kittredge/Lehrberger [eds.] 1982, 27—80. Hirst 1981 = Hirst, Graeme: Discourse-oriented anaphora resolution in natural language understanding: a review. In: AJCL 7, 1981, 85—98. Hirst 1984 = Hirst, Graeme: A semantic process for syntactic disambiguation. In: AAAI-84, 1984, 148—152. Hirth 1972 = Hirth, Reinhard: EDV/SAVL. Elektronische Datenverarbeitung im Unternehmen des Sprachatlas Vorarlberg/Liechtenstein. Zulassungsarbeit zur wissenschaftlichen Prüfung für das Höhere Lehramt an Gymnasien. Freiburg 1972. Hitzenberger 1980 = Hitzenberger, Ludwig: Automatisierung und Phonologie. Automatisierte generative Phonologie am Beispiel des Französischen. Tübingen 1980. Hjelmslev 1974 = Hj elmslev, Louis: Aufsätze zur Sprachwissenschaft. Deutsche Fassung von E. Barth. Stuttgart 1974. Hobbs 1982 = Hobbs, Jerry R.: Towards an understanding of coherence in discourse. In: Lehnert/ Ringle [eds.] 1982, 223—243. Hobbs 1983 = Hobbs, Jerry R.: Why is discourse coherent? In: Neubauer [ed.] 1983, 29—70. Hobbs 1984 = Hobbs, Jerry R.: Sublanguage and Knowledge. In: Proc. of Workshop on Sublanguage Description and Processing, New York Univ. 1984. Hobbs 1985 = Hobbs, Jerry R.: Ontological promiscuity. In: 23nd Annual Meeting of the Association for Computational Linguistics, Chicago 1985, 61—69. Hobbs [ed.] 1984 = Hobbs, Jerry R. [ed.]: Formal Theories of the Commonsense World. Hillsdale, N.J. 1984. Hobbs [ed.] 1985 = Hobbs, Jerry R.: Formal Theories of the Commonsense World. Norwood 1985. Hobbs/Evans 1980 = Hobbs, Jerry R./Evans, David A.: Conversation as planned behavior. In: Cognitive Science 4, 1980, 349—377. Hobbs/Walker/Amsler 1982 = Hobbs, Jerry R./Walker, Donald E./Amsler, Robert A.: Natural language access to structured text. In: Horecký [ed.] 1982, Amsterdam—New York—Oxford 1982, 127—132. Hockett 1954 = Hockett, Charles F.: Two models of grammatical description. In: WORD 10, 1954, 210—233. Hockey 1980 = Hockey, Susan M.: A Guide to Computer Applications in the Humanities. Baltimore — London 1980. Hockey 1985 = Hockey, Susan M.: Standard for Electronic Manuscript Preparation and Exchange. o. O. 1985.

XIII. Bibliography

Hockey/Mariott 1979 = Hockey, Susan M./Mariott, Ian: The Oxford Concordance Pro j ect (OCP). In: ALLC Bulletin 7, 1979, 35—43; 155—164; 268—270. Hockey/Mariott 1980 = Hockey, Susan M./Mariott, Ian: The Oxford Concordance Pro j ect (OCP). In: ALLC Bulletin 8, 1980, 28—35. Hodson/Kendall/Tǎutu [eds.] 1971 = Hodson, F. R./Kendall, D. G./Tǎutu, P. [eds.]: Mathematics in the archeological and historical sciences. Edinburgh 1971. Höh ne 1987 = Höhne, K. H.: 3D-Bildverarbeitung und Computer-Graphik in der Medizin. In: Informatik-Spektrum 10, 1987, 192—204. Hoekstra/van der Hulst/Moortgat [eds.] 1980 = Hoekstra, T./Hulst, H. van der/Moortgat, M. [eds.]: Lexical grammar. Dordrecht 1980. Hoenkamp 1980 = Hoenkamp, Eduard: Spontaneous speech as a feedback process. In: Proceedings of the AISB Conference on Artificial Intelligence. Hoeppner 1980 = Hoeppner, Wolfgang: Derivative Wortbildung der deutschen Gegenwartssprache und ihre algorithmische Analyse. Tübingen 1980. Hoeppner 1982a = Hoeppner, Wolfgang: A multilayered approach to the handling of word formation. In: Horecký [ed.] 1982, Amsterdam—New York—Oxford 1982, 133—138. Hoeppner 1982b = Hoeppner, Wolfgang: ATNSteuerung durch Kasusrahmen. Hamburg 1982. Hoeppner/C h ristaller/Marburger et al. 1983 = Hoeppner, W./Christaller, T./Marburger, H. et al.: Beyond Domain-Independence: Experience with the Development of a German Language Access System to Highly Diverse Background Systems. In: Proceedings of the 8th IJCAI, Karlsruhe 1983, 588—594. Hoeppner/Morik 1983 = Hoeppner, Wolfgang/ Morik, Katharina: Das Dialogsystem HAM-ANS: Worauf basiert es, wie funktioniert es und wem antwortet es? In: Linguistische Berichte 88, 1983, 3—36. Hoffmann/Jah l/Quandt et al. 1971 = Hoffmann, D./Jahl, M./Quandt, H. et al.: PASSAT: Überlegungen und Versuche zur automatischen Textanalyse als Vorbedingung für thesaurusorientierte maschinelle Informationsund Dokumentationssysteme. In: Nachrichten für Dokumentation 6, 1971, 241—251. Hoffmeister 1955 = Hoffmeister, Johannes: Wörterbuch der philosophischen Begriffe. 2. Aufl. Hamburg 1955. Hofland/Jo h ansson 1982 = Hofland, Knut/Johansson, Stig: Word Frequencies in British and American English. London 1982. Hofmann 1985 = Hofmann, J.: Breitbandiger natürlichsprachlicher Mensch-Rechner-Dialog. Skizze eines Verarbeitungsmodells am Beispiel der Thematisierung. Hildesheim et al. 1985.

841

Hofmann 1986 = Hofmann, J.: Wissensdarstellung für die Behandlung von Thematisierung in Breitbanddialogen. In: Hellwig/Lehmann [eds.] 1986, 56—70. Hofmannst h al, Werke 1956 = Hofmannsthal, Hugo von: Gesammelte Werke in Einzelausgaben. Prosa I. Frankfurt 1956. Holly 1985 = Holly, Werner: (Forschungsbericht) Wortbildung im Deutschen. In: Zeitschrift für Germanistische Linguistik 13, 1985, 89—108. Holmes 1985 = Holmes, J. N.: Speech Technology in the U. K. Alvey Program. In: Speech Technology 3, No. 1, 1985, 44—47. Holsti 1969 = Holsti, Ole R.: Content Analysis for the Social Sciences and Humanities. Reading, Mass. 1969. Holtus/Metzeltin/Sch mitt [eds.] 1987 ff. = Holtus, Günter/Metzeltin, Michael/Schmitt, Christian [eds.]: Lexikon der Romanistischen Linguistik. Tübingen 1987 ff. Hommersom 1985 = Hommersom, E.: LEMMADU. Een lemmatiseringsmodel voor Duits syntactich gecodeerd taalmateriaal. Utrecht 1985. Hooper 1977 = Hooper, R.: The National Development Programme in Computer-Assisted Learning. Council for Educational Technology. London 1977. Hopcroft/Ullman 1969 = Hopcroft, John D./Ullman, Jeffrey D.: Formal Languages and their Relation to Automata. Reading, Mass. et al. 1969. Hopcroft/Ullman 1979 = Hopcroft, John E./Ullman, Jeffrey D.: Introduction to Automata Theory, Languages and Computation. Reading, Mass. 1979. Hoppe/Sc h aeder 1973 = Hoppe, Alfred/Schaeder, Burkhard: Das LIMAS-Korpus. Ein Korpus geschriebener Texte der deutschen Gegenwartssprache. Bonn 1973. Horecký 1972 = Horecký, Ján: The generative description of language. In: Prague Studies in Mathematical Linguistics 4, Prague 1972, 177—190. Horecký 1976 = Horecký, Ján: On metaphor in generative grammar. In: Prague Studies in Mathematical Linguistics 5, Prague 1976, 283—288. Horecký [ed.] 1982 = Horecký, Ján [ed.]: COLING 82 — Proceedings of the Ninth International Conference on Computational Linguistics, Prague, July 5—10, 1982. (= North Holland Linguistic Series, No. 47). Amsterdam — New York — Oxford 1982. Horn 1983 = Horn, George: Lexical-Functional Grammar. Berlin — New York — Amsterdam 1983. Hoskins 1984 = Hoskins, J. W.: Voice I/O in the Space Shuttle. In: Speech Technolgy 2, No. 3, 1984, 13—18. House 1970a = House, R.: A Proposal for the Development of a Computerized System for Swedish Braille. Kval Research Institute, Interim Report 17. Stockholm 1970. House 1970b = House, R.: A survey of Braille Production devices with Emphasis on the planned

842

Zoltan Braille Embosser. Kval Research Institute, Interim Report 18. Stockholm 1970. Hovy 1985 = Hovy, Eduard: Integrating Text Planning and Production in Generation. In: Proceedings of the Ninth International Joint Conference on Artificial Intelligence (IJCAI-85), 1985, 848—852. Hovy/Sch ank 1984 = Hovy, Eduard H./Schank, Roger C.: Language Generation by Computer. In: Bara/Guida [eds.] 1984, 165—196. Howard-Hill 1969—72 = Howard-Hill, T. H.: Oxford Shakespeare Concordances. Oxford 1969—72. Howard-Hill 1979 = Howard-Hill, T. H.: Literary Concordances. A Complete Handbook for the Preparation of Manual and Computer Concordances. Oxford 1979. Howlett 1983 = Howlett, D. R.: The Use of Traditional and Computer Techniques in Compiling and Printing a Dictionary of Medieval Latin from British Sources. In: Zampolli/Capelli [eds.] 1983, 153—160. Huang 1985 = Huang, Xiuming: Machine translation in the SDCG formalism. In: Nirenburg [ed.] 1985, 135—144. Hubig/Rah den [eds.] 1978 = Hubig, Christoph/ Rahden, Wolfert von [eds.]: Konsequenzen kritischer Wissenschaftstheorie. Berlin — New York 1978. Hudson, K. 1984 = Hudson, Keith: Introducing CAL. A practical guide to writing Computer-Assisted Learning programs. London 1984. Hudson, R. A. 1971 = Hudson, Richard A.: English Complex Sentences: An Introduction to Systemic Grammar. Amsterdam 1971. Hudson, R. A. 1980 = Hudson, Richard A.: Constituency and dependency. In: Linguistics, Vol. 1, 1980, 179—198. Hudson, R. A. 1984 = Hudson, Richard A.: Word grammar. Oxford 1984. Hultin/Logan 1984 = Hultin, N. C./Logan, H. M.: The New Oxford English Dictionary Proj ect at Waterloo. In: Dictionaries 6, 1984, 182—198. Humboldt 1836 = Humboldt, Wilhelm von: Ueber die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluss auf die Geistesentwicklung des menschlichen Geschlechtes. 1836. Facsimile edition Bonn 1968. Humboldt [Ausgabe 1963] = Humboldt, Wilhelm von: Über die Verschiedenheit des menschlichen Sprachbaus (1827—29). In: Werke Bd. 3, Darmstadt 1963, 144—367. Hummel (i. V.) = Hummel, Lutz: Dialektometrische Strukturanalysen zum Kleinen Deutschen Sprachatlas (KDSA). Experimentelle Untersuchungen zu einer computativen Auswertung des KDSA-Materials u. d. Aspekt einer dialektalen Gliederung des deutschen Sprachraumes als Ähnlichkeits- und Kohärenzstruktur der Daten. (i. V.). Hummel/Putsc h ke 1982 = Hummel, Lutz/ Putschke, Wolfgang: (Einleitung zum KDSA. Bd.

XIII. Bibliography

1.1). Tübingen 1982. Hummel/Putsc h ke 1988 = Hummel, Lutz/ Putschke, Wolfgang: Zur dialektometrischen Gliederung des deutschen Dialektgebietes. (i. V.). Hundt 1982 = Hundt, Michael G.: Working with the Weidner Machine-Aided Translation System. In: Lawson [ed.] 1982, 45—51. Hussmann/Genzmann 1982 = Hussmann, M./ Genzmann, H.: Performanzorientiertes Parsing. Ansätze zur robusten Analyse natürlicher Sprache. Hamburg 1982. Hutch ins 1975 = Hutchins, W. John: Languages of Indexing and Classification. London 1975. Hutch ins 1977 = Hutchins, W. John: On the problem of ’aboutness’ in document analysis. In: Journal of Informatics 1, 1977, 17—35. Hutch ins 1984 = Hutchins, W. John: Methods of Linguistic Analysis in Machine Translation. In: Proceedings of International Conference on Machine Translation, Cranfield, U. K., Febr. 1984. Hutch ins 1986 = Hutchins, W. John: Machine Translation: Past, Present, Future. Chichester 1986. HWDG = HWDG: Handwörterbuch der deutschen Gegenwartssprache. In zwei Bänden. Von einem Autorenkollektiv unter Leitung von Günter Kempcke. Berlin 1984. Hyvönen/Seppänen/Syrjänen [eds.] 1984 = Hyvönen, Eero/Seppänen, Jouko/Syr j änen, Markku [eds.]: STeP-84 — Finnish Artificial Intelligence Symposium, Tutorial and Industrial Papers. Finnish Society for Information Processing Science, Aug. 20—23. Otaniemi 1984. IBM System/360 Operating System 1966 = IBM System/360 Operating System: PL/I Language Specifications. White Plains, N.Y. 1966. ICASSP 1983 = ICASSP: Proceedings, IEEE International Conference on Acoustics, Speech and Signal Processing. Boston 1983. Ida et al. 1977 = Ida, M. et al.: Performance Evaluation of ALPS/I Lisp Machine. IPSJ Working Paper. Tokyo 1977. IDS 1982 = Institut für deutsche Sprache: Dokumentation Textkorpora des neueren Deutsch. Mannheim 1982. Ikeguch i/Ikeda/Kosh izuka et al. 1985 = Ikeguchi, S./Ikeda, O./Koshizuka, K. et al.: Voice Synthesis LSI — LC8100 and Its Applications. In: Speech Tech, 1985, 155—158. Iker/Harway 1969 = Iker, Howard J./Harway, Norman I.: A Computer Systems Approach Toward the Recognition and Analysis of Content. In: Gerbner et al. [eds.] 1969, 381—405. Imbs [ed.] 1971 = Imbs, Paul [ed.]: Dictionnaire des fréquences, vocabulaire littéraire des XIXe et XXe siècles. Nancy 1971. Indurkh ya 1981 = Indurkhya, Bipin: Sentence Analysis Programs Based on Montague Grammar. M. E. E. dissertation. Netherlands Universities Foundation for Intern. Cooperation 1981.

XIII. Bibliography

Ineich en 1979 = Ineichen, Gustav: Allgemeine Sprachtypologie. Ansätze und Methoden. (= Erträge der Forschung. Bd. 118). Darmstadt 1979. Ingram 1974 = Ingram, William: Concordances in the Seventies. In: Computers and the Humanities 8, 1974, 273—277. International Association of Universities [ed.] 1983 = International Association of Universities [ed.]: International Handbook of Universities. 9th edition. Berlin 1983. Irigoin/Zarri [eds.] 1979 = Irigoin, J./Zarri, G. P. [eds.]: La pratique des ordinateurs dans la critique des textes. Paris 1979. Irons 1963 = Irons, E. T.: An error correcting parse algorithm. In: CACM 6 (II), 1963, 669—673. Isabelle/Bourbeau 1984 = Isabelle, Pierre/Bourbeau, Laurent: TAUM-AVIATION: Its Technical Features and some Experimental Results. In: Computational Linguistics 11, No. 1, 1984, 18—27. Is h ikawa/Tokoro 1984 = Ishikawa, Y./Tokoro, M.: The Design of an Obj ect Oriented Architecture. In: The 11th Annual International Symposium on Computer Architecture, June 5—7, Ann Arbor, Michigan, SIGARCH Newsletter, Vol. 12, No. 3, 1984, 178—187. Ish iwata 1986 = Ishiwata, T.: Linguistic Research and Machine Translation. Report on Advanced Study for Natural Language Processing [ed. Nagao]. (in Japanese). Kyoto University 1986. Ish izaki 1983 = Ishizaki, Shun: Generation of Japanese Sentences from Conceptual Representation. In: Proceedings of the Eighth International Joint Conference on Artificial Intelligence (IJCAI83), 1983, 613—616. Is h izaki/Isa h ara 1986 = Ishizaki, Shun/Isahara, Hitoshi: Natural Language Processing System with Deductive Learning Machanism. In: Proc. of the Symposium on ’Language and Artificial Intelligence’, Kyoto 1986. ISO 214 1976 = International Standard Organisation: Documentation — Abstracts for publications and documentation. (ISO 214). 1976. Israel 1983 = Israel, D. J.: Interpreting Network Formalisms. In: Comp. & Math. with Appls. 9, No. 1, 1983, 1—13. Israel 1985 = Israel, D. J.: A Short Companion to the Naive Physics Manifesto. In: Hobbs [ed.] 1985, 427—447. Itah ash i 1980 = Itahashi, S.: On Sentence-Final Pitch Contours and the Perception of Interrogative Intonation — A Comparative Study of the Responses given by Swedes and Japanese. In: Speech Research 1980, 33—37. Itakura 1975 = Itakura, F.: Minimum Prediction Residual Principle Applied to Speech Recognition. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-23, 1975, 67—72. Itkonen 1976 = Itkonen, Esa: Was für eine Wissenschaft ist die Linguistik eigentlich? In: Wunderlich [ed.] 1976, 56—76.

843

Jackendoff 1975 = Jackendoff, Ray S.: A system of semantic primitives. In: Proceedings of the Conference on Natural Language Processing, 1975, 28—33. Jackendoff 1977 = Jackendoff, Ray S.: X-bar Syntax: A Study of Phrase Structure. (= Linguistic Inquiry Monographs 2). Cambridge, Mass. 1977. Jackendoff 1983 = Jackendoff, Ray S.: Semantics and Cognition. Cambridge 1983. Jacobs, P. S. 1985a = Jacobs, Paul S.: A Knowledge-Based Approach to Language Production. Diss., University of Calofornia. Berkeley 1985. Jacobs, P. S. 1985b = Jacobs, Paul S.: PHRED: a Generator for Natural Language Interfaces. In: Computational Linguistics 11, 1985, 219—242. Jacobs, R. A./Rosenbaum [eds.] 1970 = Jacobs, Roderic A./Rosenbaum, Peter S. [eds.]: Readings in English Transformational Grammar. Waltham, Mass. 1970. Jacobsen/Pullum 1982 = Jacobsen, P. I./Pullum, G. K.: The nature of syntactic representation. Dordrecht 1982. Jäppinen/Kettunen/Leh tola et al. 1985 = Jäppinen, Harri/Kettunen, K./Lehtola, A. et al.: Dependency analysis of Finnish sentences. In: Kettunen [ed.] 1985, Report No. 2. Jäppinen/Le h tola/Valkonen 1986 = Jäppinen, Harri/Lehtola, Aarno/Valkonen, K.: Functional Structures for Parsing Dependency Constraints. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 461—463. Jäppinen/Ylilammi 1986 = Jäppinen, Harri/Ylilammi, Matti: Associative Model of Morphological Analysis: An Empirical Enquiry. In: CL 12,4, 1986, 257—272. Jameson 1983 = Jameson, Anthony: Impression Monitoring in Evaluation-Oriented Dialog. In: Proceedings of the Eighth International Joint Conference on Artificial Intelligence (IJCAI-83), 1983, 616—621. Jameson/Wah lster 1982 = Jameson, A./Wahlster, W.: User Modelling in Anaphora Generation: Ellipsis and Definite Description. In: Proc. of ECAI 1982, 222—227. Janos 1979 = Janos, J.: Theory of functional sentence perspective and its application for the purposes of automatic extracting. In: Information Processing & Management 1, 1979, 19—25. Janssen, P. 1974 = Janssen, Paul: Ein Verfahren zur Auffindung von Isoglossen bei automatisch hergestellten Sprachkarten. In: Niederdeutsches Wort 13, 1974, 110—102; 115 ff. Janssen, T. M. V. 1976 = Janssen, T. M. V.: A computer program for Montague grammar: theoretical aspects and proofs for the reduction rules. In: Groenendijk/Stokhof [eds.] 1976, 154—176. Janssen, T. M. V. 1978 = Janssen, T. M. V.: Simulation of a Montague Grammar. In: Annals of Systems Research 6, 1978, 127—140.

844

Jarke et al. 1985 = Jarke, M. et al.: A Field Evaluation of Natural Language for Data Retrieval. In: IEEE Transaction on Software Engineering, Vol. SE-11, No. 1, 1985, 97—114. Jarke/Koch 1984 = Jarke, M./Koch, J.: Query Optimization in Database Systems. In: Computing Surveys 16, 1984, 111—152. Jarke/Krause 1985a = Jarke, M./Krause, J.: New empirical results of user studies with a domain independent natural query system. In: Bibel/Petkoff [eds.] 1985, 153—159. Jarke/Krause 1985b = Jarke, M./Krause, J.: Konzeptualisierung und Training bei natürlichsprachlichen Frage-Antwort-Systemen. In: Endres-Niggemeyer/Krause [eds.] 1985, 56—66. Jarke/Krause/Vassiliou 1986 = Jarke, M./ Krause, J./Vassiliou, Y.: Studies in the evaluation of a domain-independent natural language query system. In: Bolc/Jarke [eds.] 1986. Jedlička 1966 = Jedlička, Alois: Zur Prager Theorie der Schriftsprache. In: Travaux Linguistique de Prague 1, Praha 1966, 4—58. Jefferson/Sc h enkein 1978 = Jefferson, Gail/ Schenkein, Jim: Some sequential negotians in conversation. In: Schenkein [ed.] 1978, 155—172. Jelinek 1976 = Jelinek, F.: Continuous Speech Recognition by Statistical Methods. In: Proceedings of the IEEE, Vol. 64, No. 10, 1976, 532—556. Jelinek 1985 = Jelinek, F.: The Development of an Experimental Discrete Dictation Recognizer. In: Proceedings of the IEEE, Vol. 73, No. 11, 1985, 1616—1624. Jensen/Wirt h 1975 = Jensen, Kathleen/Wirth, Niklaus: Pascal User Manual and Report. 2. Aufl. Berlin 1975. Jeršov 1982 = Jeršov, Andrej P.: K metodologii postro j eni j a dialogovych sistem: fenomen delovo j prozy. In: Voprosy kibernetiki: Obščenij e s EVM na jestestvennom jazyke, Moscow 1982, 3—20. JIPDEC 1985 = JIPDEC 1985: Proceedings of the International Symposium on MT. Monday 14 October 1985, Keidauren Hall (14 F), Japan Information Processing Development Center (JIPDEC). Keidauren Keikên, Tokyo 1985. Jirků/Sgall 1983 = Jirků, Petr/Sgall, Petr: A question answering system based on natural language inferencing. In: Prague Studies in Mathematical Linguistics 8, Prague 1983, 187—197. Joch um 1982 = Jochum, F.: Semantische Repräsentationssprachen in Dokumenten-Retrieval-Systemen. Diss. TU Berlin 1982. Joch um/Reiner 1983 = Jochum, F./Reiner, U.: Probleme bei der Planung von Information Retrieval Experimenten. In: LIVE-Bericht Nr. 7. Jo h annsen/Rijsdorp [eds.] 1982 = Johannsen, G./Rij sdorp, J. E. [eds.]: Analysis, Design and Evaluation of Man-Machine Systems. IFAC/IFIP/ IFORS/IEA Conference. Baden-Baden Sept. 1982.

XIII. Bibliography

Joh ansson [ed.] 1982 = Johansson, Stig [ed.]: Computer Corpora in English Language Research 1975—81. Lund — Bergen 1982. Jo h ansson/Ja h r 1982 = Johansson, Stig/Jahr, Mette-Cathrine: Grammatical Tagging of the LOB Corpus. In: Johansson [ed.] 1982, 118—146. h Jo ansson/Leec h /Goodluck 1978 = Johansson, Stig/Leech, Geoffrey/Goodluck, Helen: Manual of Information to Accompany the Lancaster-Oslo/ Bergen Corpus of British English, for Use with Digital Computers. Department of English, University of Oslo 1978. Joh nson, D. E./Postal 1980 = Johnson, D. E./Postal, P. M.: Arc pair grammar. Princeton 1980. Joh nson, M. 1985 = Johnson, Mark: Computer aids for comparative dictionaries. In: Linguistics 23—2, 1985, 285—302. Joh nson, R. L. 1983a = Johnson, Roderick L.: Parsing — an MT perspective. In: Jones/Wilks [eds.] 1983, 32—38. Joh nson, R. L. 1983b = Johnson, Roderick L.: Parsing with Transition Networks. In: King [ed.] 1983, 59—72. Joh nson, R. L./King/Tombe 1985 = Johnson, Roderick L./King, Margaret/Tombe, Louis des: EUROTRA: A Multilingual System under Development. In: Computational Linguistics 11, no. 2—3, 1985, 155—169. Joh nson, R. L./Krauwer/Rosner et al. 1984 = Johnson, R. L./Krauwer, S./Rosner, M. A. et al.: The Design of the Kernel Architecture for the EUROTRA-Software. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 226—335. Jo h nson, T. 1985 = Johnson, T.: Natural Language Computing: The Commercial Applications. London 1985. Joh nson-Laird 1981 = Johnson-Laird, Philip D.: The form and function of mental models. In: Proceedings of the Third Annual Conference of the Cognitive Science Society, 1981, 103—105. Joh nson-Laird 1983 = Johnson-Laird, Philip D.: Mental Models. Towards a Cognitive Science of language, inference, and consciousness. Cambridge 1983. Jolicoeur/Gluck/Kosslyn 1984 = Jolicoeur, Pierre/Gluck, Mark A./Kosslyn, Stephen M.: Pictures and names: Making the connection. In: Cognitive Psychology 16, 1984, 243—275. Jonas [ed.] 1835 = Jonas, J. [ed.]: Friedrich Schleiermacher, Sämmtliche Werke, III. Abt., 3. Bd.: Über den Begriff der Hermeneutik mit Bezug auf F. A. Wolfs Andeutungen und Asts Lehrbuch. Berlin 1835. Jones, A./C h urc hh ouse [eds.] 1976 = Jones, A./Churchhouse, R. F. [eds.]: The computer in literary and linguistic studies. Cardiff 1976. Jones, K. S./Wilks [eds.] 1983 = Jones, Karen S./Wilks, Yorick Alexander [eds.]: Automatic Natural Language Parsing. Chichester 1983.

XIII. Bibliography

Jones, M. A. 1983 = Jones, M. A.: Activation-base parsing. In: Proceedings of the 8th IJCAI, 1983, 678—682. Jones, R. L. 1987 = Jones, Randall L.: Accessing the Brown Corpus Using and IBM PC. In: ICAME Journal 11, 1987, 44—47. Jones, S./Sinclair 1974 = Jones, S./Sinclair, J.: English lexical collocations. In: Cahiers de Lexicologie 24, 1974, 15—61. Jonsson/Hedelin 1983 = Jonsson, A./Hedelin, P.: A Swedish Text-to-Speech System Based on an Area Function Model. In: ICASSP Proceedings, 1983, 1340—1343. Joost/James/Moody 1986 = Joost, M. G./James, F. G./Moody, T.: Ergonomics Research in Speech I/O. In: Speech Technology 3, No. 2, 1986, 42—47. Jordan/C h arbonneau/Spangler 1984 = Jordan, B./Charbonneau, S./Spangler, S.: Speech Output Protects Sensitive Pattern Generators. In: Speech Technology 2, No. 2, 1984, 80—85. Josh i 1982 = Joshi, Aravind K.: Mutual beliefs in question answering systems. In: Smith, N. V. [ed.] 1982, 181—197. Josh i 1983 = Joshi, Aravind K.: Factoring recursion and dependencies: An aspect of tree adj oining grammars (TAG) and comparison of some formal properties of TAGs, GPSG, PLGs, and LFGs. In: Proceedings of the 21st Annual Meeting of the ACL, 1983, 7—15. Josh i 1985 = Joshi, Aravind K.: Tree adj oining grammars: How much context-sensitivity is required to provide reasonable structural descriptions? In: Dowty/Karttunen/Zwicky [eds.] 1985, 206—250. Jos h i/Kaplan/Sag 1978 = Joshi, Aravind K./ Kaplan, Samuel Jerrold/Sag, Ivan A.: Cooperative Responses. In: COLING ’78, Proceedings of the 7th International Conference on Computational Linguistics, Bergen 1978, Abstract C 3, No. 40. Josh i/Levy 1982 = Joshi, Aravind K./Levy, L. S.: Phrase structure trees bear more fruit than you would have thought. In: AJCL, Vol. 8, No. 1, 1982, 1—11. Jos h i/Levy/Taka h as h i 1975 = Joshi, Aravind K./Levy, L. S./Takahashi, M.: Tree adj unct grammars. In: Journal of Computational System Science 10 (1), 1975, 136—163. Josh i/Webber/Sag [eds.] 1981 = Joshi, Aravind K./Webber, Bonnie L./Sag, J. A. [eds.]: Elements of Discourse Understanding. Cambridge 1981. Josh i/Webber/Weisch edel 1984a = Joshi, Aravind K./Webber, Bonnie/Weischedel, Ralph M.: Preventing false inferences. MS — CIS — 84—59. Department of Computer and Information Science, University of Pennsylvania 1984. Josh i/Webber/Weisch edel 1984b = Joshi, Aravind K./Webber, Bonnie/Weischeidel, Ralph M.: Preventing false inferences. In: COLING ’84, Proceedings of the 10th International Conference on

845

Computational Linguistics, Stanford 1984, 134—138. Josselson 1967 = Josselson, Harry H.: Lexicography and the Computer. In: To the Honour of Roman Jacobson II, The Hague — Paris 1967, 1046—1059. Josselson 1971 = Josselson, Harry H.: Automatic Translation of Languages since 1960: a Linguist’s view. In: Advances in Computers, vol. II, New York 1971, 1—58. Josselson [ed.] 1965 = Josselson, Harry H. [ed.]: Proceedings of the Conference on Computer-related Semantic Analysis. Detroit 1965. Juilland/C h ang-Rodriguez 1964 = Juilland, A./Chang-Rodriguez, E.: Frequency Dictionary of Spanish Words. London 1964. Juillard 1985 = Juillard, Michel: A Quantitative Approach to Semantic and Morphsemantic Fields in Literary Work. In: ALLC Journal 6, 1985, 14—23. Just/Carpenter [eds.] 1977 = Just, Marcel Adam/ Carpenter, Patricia A. [eds.]: Cognitive Processes in Comprehension. Hillsdale, N.J. 1977. Kaczmarek et al. 1986 = Kaczmarek, T. et al.: Recent Developments in NIKL. In: Proc. AAAI86, Los Altos 1986, 978—985. Kästner 1972 = Kästner, Wolfgang: Automatische Phonemisierung orthographischer Texte im Deutschen. Hamburg 1972. Kalis h /Montague 1964 = Kalish, D./Montague, Richard: Logic-techniques of formal reasoning. New York 1964. Kalita/Jones/McCalla 1986 = Kalita, J. K./Jones, M. L./McCalla, G. I.: Summarizing Natural Language Database Responses. In: Computational Linguistics 12, 1986, 107—124. Kallmeyer/Meyer-Hermann 1980 = Kallmeyer, W./Meyer-Hermann, R.: Textlinguistik. In: Althaus/Henne [eds.] 1980, 242—258. Kameny/Kurtz 1967 = Kameny, J. G./Kurtz, T. E.: BASIC Programming. New York 1967. Kammer/Sch anze 1985 = Kammer, M./Schanze, H.: Problems of retrieval systems for poetic texts. In: Proceedings of the XIIth International ALLC Conference, Nice 1985. Kamp 1981 = Kamp, H.: A Theory of Truth and Semantic Representation. In: Groenendi j k/Janssen/Stokhof [eds.] 1981, 277—322. Kandrašina/Očakovskaja 1982 = Kandrašina, E. Ju./Očakovskaj a, O. N.: Modelirovanie processa ponimani j a v pro j ekte Vostok. In: Počítače a umelá inteligencia (Computers and Artificial Intelligence) 1, 1982, 239—250. Kanngießer 1976 = Kanngießer, Siegfried: Spracherklärungen und Sprachbeschreibungen. In: Wunderlich [ed.] 1976, 106—160. Kanngießer 1985 = Kanngießer, S.: Strukturen der Wortbildung. In: Schwarze/Wunderlich [eds.] 1985, 134—183.

846

Kansy/Müller 1982 = Kansy, K./Müller, B. S.: Speech filing systems (Sprachspeichersysteme). In: Informatik-Spektrum 5, No. 3, 1982, 191—192. Kaplan, R. M. 1972 = Kaplan, Ronald M.: Augmented transition networks as psychological models of sentence comprehension. In: Artificial Intelligence 3, 1972, 77—100. Kaplan, R. M. 1973 = Kaplan, Ronald M.: A general syntactic processor. In: Rustin [ed.] 1973, 193—241. Kaplan, R. M./Bresnan 1982 = Kaplan, Ronald M./Bresnan, Joan W.: Lexical-Functional Grammar: A Formal System for Grammatical Representation. In: Bresnan [ed.] 1982, 173—281. Kaplan, R. M./Kay 1981 = Kaplan, Ronald M./Kay, Martin: Phonological rules as finite state transducers. Presented at the Winter Meeting of the Linguistic Society of America. New York 1981. Kaplan, S. J. 1979 = Kaplan, Samuel Jerrold: Cooperative Responses from a Portable Natural Language Data Base Query System. Ph.D. Dissertation, Comp. & Inf. Science Dept. University of Pennsylvania 1979. Kaplan, S. J. 1983 = Kaplan, Samuel Jerrold: Cooperative Responses from a Portable Natural Language Database Query System. In: Brady/Berwick [eds.] 1983, 167—208. Karasev 1974 = Karasev, S. A.: A study of sentence significance criteria in automatic quasiabstracting. In: Automatic Documentation and Mathematical Linguistics 4, 1974, 79—87. Karasev 1978 = Karasev, S. A.: Building an autoabstracting system with text analysis and synthesis (russ.). In: Nauchno-Teknicheskaya Informatsiya 5, 1978, 22—28; Forts. in: 8, 25—30; 10, 1—4. Karaulov 1980 = Karaulov, Juri j N.: Častotnyj slovar’ semantičeskich množitelej russkogo j azyka. Moscow 1980. Karaulov 1981 = Karaulov, Jurij N.: Lingvističeskoe konstruirovanie i tezaurus literaturnogo j azyka. Moscow 1981. Karaulov/Molčanov/Afanas’jev et al. 1982a = Karaulov, Jurij N./Molčanov, V. I./Afanas’j ev, V. A. et al.: Russkij semantičeskij slovar’. Opyt avtomatičeskogo postro j eni j a tezaurusa: ot pon j ati ja k slovu. Moscow 1982. Karaulov/Molčanov/Afanas’jev et al. 1982b = Karaulov, Jurij N./Molčanov, V. I./Afanas’ev, V. A. et al.: Analiz metaj azyka slovarj a s pomošč’j u EVM. Moscow 1982. Karlgren 1970 = Karlgren, Hans: Similarity between trade mark devices. In: SMII 7, Stockholm 1970. Karlgren 1973 = Karlgren, Hans: Gabelsbergers brakylogi. In: Svenska studier från runtid till nutid. Festschrift for Carl Ivar Ståhle, Lund 1973, 159—181. Karlgren 1977 = Karlgren, Hans: Homeosemy — On the Linguistics of Information Retrieval. In: Walker/Karlgren/Kay [ed.] 1977, 167—182.

XIII. Bibliography

Karlgren 1978/79 = Karlgren, Hans: On the Arbitrariness of Shorthand Symbols. In: Sound and Sign. Festschrift for Bertil Malmberg (= Studia Linguistica XXXII. I—II). Lund 1978, 199-136. — In: Bayerische Blätter für Stenographie, Jahrgang 112:2, München 1979, 33 ff. Karlgren 1979 = Karlgren, Hans: How to handle vagueness. In: International Classification, München etc. 1979, 182—187. Karlgren 1981 = Karlgren, Hans: Computer Aids in Translation. In: Sigurd/Svartvik [eds.] 1981, 86—101. Karlgren 1986 = Karlgren, Hans: FID Linguistics in Documentation Committee (FID/LD). In: International Forum on Information and Documentation, Vol. 11, 3, Moscow 1986, 51—55. Karlgren [ed.] 1987 = Karlgren, Hans [ed.]: Linking in Text. Report from FID/LD Workshop. Stockholm 1987. Karlgren/Walker 1980 = Karlgren, Hans/Walker, Donald E.: Economic Impact on Research on Natural Language. FID/LD Report to the International Conference of The International Federation for Information and Documentation. Copenhagen 1980. Karlgren/Walker 1983 = Karlgren, Hans/Walker, Donald E.: The Polytext System — A New Design for a Text Retrieval System. In: Kiefer [ed.] 1983, 273—294. Karlsson 1985 = Karlsson, Fred: Morphological tagging of Finnish. In: Karlsson [ed.] 1985, 115—136. Karlsson 1986 = Karlsson, Fred: A morphological analyzer based on paradigms. In: Karlsson [ed.] 1986. Karlsson [ed.] 1985 = Karlsson, Fred [ed.]: Computational Morphosyntax. In: Depratment of General Linguistics, University of Helsinki, Publications No. 13. Karlsson [ed.] 1986 = Karlsson, Fred [ed.]: Papers from the Vth Scandinavian Conference on Computational Linguistics. In: Department of General Linguistics, University of Helsinki, Publications No. 15. Karttunen 1983 = Karttunen, Lauri: KIMMO: A general morphological processor. In: Texas Linguistic Forum 22, 1983, 165—186. Karttunen 1984 = Karttunen, Lauri: Features and values. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 28—33. Karttunen 1985 = Karttunen, Lauri: Structure sharing with binary trees. In: 23nd Annual Meeting of the Association for Computational Linguistics, Chicago 1985, 133—136. Karttunen 1986 = Karttunen, Lauri: D-PATR. A development environment for unification-based grammars. Stanford 1986. Karttunen/Kay 1985 = Karttunen, Lauri/Kay, Martin: Parsing in a free word order language. In: Dowty/Karttunen/Zwicky [eds.] 1985, 279—306.

XIII. Bibliography

Karttunen/Root/Uszkoreit 1981 = Karttunen, Lauri/Root, Rebecca/Uszkoreit, Hans: TEXFIB: Morphological analysis of Finnish by computer. A paper read at the 71st Annual Meeting of the SASS, Albuquerque, New Mexico 1981. Karttunen/Wittenburg 1983 = Karttunen, Lauri/ Wittenburg, Kent: A two-level morphological analysis of English. In: Texas Linguistic Forum 22, 1983, 217—228. Karttunen/Zwicky 1985 = Karttunen, Lauri/ Zwicky, Arnold M.: Introduction. In: Dowty/ Karttunen/Zwicky [eds.] 1985, 1—25. Kastovsky 1971 = Kastovsky, Dieter: Studies in morphology. Aspects of English and German verb inflection. Tübingen 1971. Katz 1966 = Katz, Jerrold J.: The Philosophy of Language. New York — London 1966. Katz/Fodor 1963 = Katz, Jerrold J./Fodor, Jerry A.: The structure of a semantic theory. In: Language 39, no. 2, 1963, 170—210. Kay 1967 = Kay, Martin: Experiments with a powerful parser. The Rand Corporation, California, Report RM-5425-PR. California 1967. Kay 1973 = Kay, Martin: The MIND system. In: Rustin [ed.] 1973, 155—188. Kay 1977 = Kay, Martin: Morphological and syntactic analysis. In: Zampolli [ed.] 1977, 131—234. Kay 1979 = Kay, Martin: Functional Grammar. In: Proceedings of the Fifth Annual Meeting of the Berkeley Linguistic Society, 1979, 142—158. Kay 1980a = Kay, Martin: Algorithmic schemata and data structures in syntactic processing. Stockholm 1980. Kay 1980b = Kay, Martin: The proper place of man and machines in language translation. Xerox Palo Alto Research Centre Technical Report CSL80-11. Palo Alto, Cal. 1980. Kay 1983a = Kay, Martin: The Dictionary of the Future and the Future of the Dictionary. In: Zampolli/Capelli [eds.] 1983, 161—174. Kay 1983b = Kay, Martin: When meta-rules are not meta-rules. In: Sparck Jones/Wilks [eds.] 1983, 94—116. Kay 1984a = Kay, Martin: Functional Unification Grammar: a Formalism for Machine Translation. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 75—78. Kay 1984b = Kay, Martin: The dictionary server. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 461. Kay 1985a = Kay, Martin: Parsing in functional unification grammar. In: Dowty/Karttunen/ Zwicky [eds.] 1985, 251—278. Kay 1985b = Kay, Martin: Unification Grammar. Technical Report, Xerox Palo Alto Research Center. Palo Alto, Cal. 1985.

847

Kay/Martins 1970 = Kay, Martin/Martins, Gary: The MIND system: The morphological-analysis program. In: The RAND Corporation, Memorandum RM-6265/2-PR. KDSA 1984 = KDSA: Kleiner Deutscher Sprachatlas. 1.1. Dialektologisch bearb. v. Werner H. Veith. Computativ bearb. v. Wolfgang Putschke unter Mitarbeit von Lutz Hummel. Tübingen 1984. KDSA 1987 = KDSA: Kleiner Deutscher Sprachatlas. 1.2. Dialektologisch bearb. v. Werner H. Veith. Computativ bearb. v. Wolfgang Putschke unter Mitarbeit von Lutz Hummel. Tübingen. In Vorbereitung. Keen/Williams 1985 = Keen, M. J. R./Williams, G.: Expert System Shells Come of Age. In: Bramer [ed.] 1985. Keil 1978 = Keil, Gerald C.: A Symbolic Approach to Character Assassination. Tech. Report of the Department of European Studies and Modern Languages, Univ. Manchester, also presented at 5. Int. Symposium of Literary and Linguistic Computation at the Univ. of Aston, April 1978. 1978. Keiler [ed.] 1972 = Keiler, Allan R. [ed.]: A Reader in Historical and Comparative Linguistics. New York 1972. Keitz 1982 = Keitz, Wolfgang von: Proj ekte zur maschinellen Lexikographie. In: Sprache und Datenverarbeitung 6, 1982, 11—27. Kelle 1976 = Kelle, Bernhard: Das Belegmaterial des Südwestdeutschen Sprachatlas — Aufbereitung und Auswertung mit Hilfe der Elektronischen Datenverarbeitung. Magisterarbeit. Freiburg 1976. Kelle 1977 = Kelle, Bernhard: Datenaufbereitung und Automatische Kartierung beim Südwestdeutschen Sprachatlas (SSA). In: Gemanistische Linguistik 3—4, 1977, 89—106. Kelle 1983 = Kelle, Bernhard: Der Südwestdeutsche Sprachatlas (SSA). In: Haas/Näf [eds.] 1983, 281—294. Kelle 1986 = Kelle, Bernhard: Typologische Raumgliederung von Mundarten. Eine quantitative Analyse ausgewählter Daten des Südwestdeutschen Sprachatlasses. Marburg 1986. Kelle 1987 = Kelle, Bernhard: The south-west Germans dialect atlas: data base and map production. In: Moberg [ed.] 1987, 212—233. Keller/Lindström/Patil 1979 = Keller, R. M./ Lindström, G./Patil, S.: A Loosely-Coupled Applicative Multi-Processing System. In: AFIPSNCC Proceedings, June 1979, 613—622. Kelley 1984 = Kelley, J. F.: An iterative design methodology for user friendly natural language office information applications. In: ACM Transactions on Office Information Systems 2 (1), 1984, 26—41. Kelly/Stone 1975 = Kelly, Edward/Stone, Philip J.: Computer Recognition of English Word Senses. Amsterdam 1975.

848

Kemke 1987 = Kemke, Christel: Der neuere Konnektionismus — Ein Überblick. Universität des Saarlandes, FB Informatik [1987]. Kempen/Hoenkamp 1982 = Kempen, Gerard/ Hoenkamp, Eduard: Incremental Sentence Generation: Implications for the Structure of a Syntactic Processor. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 151—157. Kempen/Hoenkamp 1984 = Kempen, Gerard/ Hoenkamp, Eduard: An Incremental Procedural Grammar for Sentence Formulation. Report. University of Nijmegen 1984. Kempton 1986 = Kempton, Willett: Two theories of home heat control. In: Cognitive Science 10, 1986, 75—90. Kendall/Stuart 1963 = Kendall, M. G./Stuart, A.: The advanced theory of statistics I. London 1963. Kennedy 1983 = Kennedy, A.: On looking into space. In: Rayner [ed.] 1983, 237—250. Kenning/Kenning 1984 = Kenning, M. J./Kenning, M. M.: An Introduction to Computer Assisted Language Teaching. London 1984. Kersch berg [ed.] 1986 = Kerschberg, L. [ed.]: Expert Database Systems. Menlo Park 1986. Kessel [ed.] 1987 = Kessel, F. [ed.]: The Development of Language and Language Researchers: Essays in Honour of Roger Brown. In press. [1987]. Kettunen[ed.] 1985 = Kettunen, K. [ed.]: Publications of the Kielikone-proj ect, Series A. Helsinki 1985. Kh an 1983 = Khan, Robert: A two-level morphological analysis of Rumanian. In: Texas Linguistic Forum 22, 1983, 253—270. Kidd/Cavalli-Sforza 1971 = Kidd, Kenneth K./Cavalli-Sforza, Luigi L.: Number of characters examined and error in reconstruction of evolutionary trees. In: Hodson/Kendall/Tǎutu [eds.] 1971, 335—346. Kiefer 1972 = Kiefer, Ferenc: On presuppositions. In: Kiefer/Ruwet 1972, 218—242. Kiefer 1977 = Kiefer, Ferenc: Some semantic and pragmatic properties of wh-questions and the corresponding answers. In: SMIL 1977, No. 3, 42—71. Kiefer 1980 = Kiefer, Ferenc: Yes-no questions as wh-questions. In: Searle/Kiefer/Bierwisch [eds.] 1980, 97—119. Kiefer [ed.] 1968 = Kiefer, Ferenc [ed.]: Mathematical Linguistics in Eastern Europe. New York 1968. Kiefer [ed.] 1975 = Kiefer, Ferenc [ed.]: Morphologie und Generative Grammatik. Wiesbaden 1975. Kiefer [ed.] 1983 = Kiefer, Ferenc [ed.]: Questions and Answers. (= Linguistic Calculation 1, Series edited by Kval Research Institute for Information Science). Dordrecht et al. 1983. Kiefer/Ruwet 1972 = Kiefer, Ferenc/Ruwet, Nicolas: Generative grammar in Europe. Dordrecht 1972. Kielczewski 1978 = Kielczewski, G.: Digital Syn-

XIII. Bibliography

thesis of Speech and Its Prosodic Features By Means of a Microphonemic Method. In: Bolc [ed.] 1978b, 183—206. Kilbury 1983a = Kilbury, James: Generalized phrase structure grammar as a basis for parsing and generation. Berlin 1983. Kilbury 1983b = Kilbury, James: GPSG as a basis for parsing and generation. KIT — Interner Arbeitsbericht 11. Berlin 1983. Kilbury 1983c = Kilbury, James: Sentence representation in RLS. KIT — Interner Arbeitsbericht 12. Berlin 1983. Kilbury 1984a = Kilbury, James: A modification of the Earley-Shieber algorithm for direct parsing of ID/LP grammars. In: GWAI-84 Proceedings, Berlin — Heidelberg — Tokyo — New York 1984. Kilbury 1984b = Kilbury, James: Earley-basierte Algorithmen für direktes Parsen mit ID/LP-Grammatiken. KIT-Report 16. Berlin 1984. Kilbury 1984c = Kilbury, James: GPSG-based parsing and generation. In: Rollinger [ed.] 1984, 67—76. Kilbury 1985 = Kilbury, James: A modification of the Earley-Shieber algorithm for direct parsing of ID/LP grammars. In: Laubsch [ed.] 1985, 39—48. Kilbury 1986 = Kilbury, James: Category Coocurrence Restrictions and the Elimination of Metarules. In: Proceedings of Coling ’86, Bonn 1986, 50—55. Kimball 1973 = Kimball, John P.: Seven principles of surface structure parsing in natural language. In: Cognition 2, 1973, 15—47. Kimball 1975 = Kimball, John P.: Predictive analysis and over-the-top parsing. In: Kimball [ed.] 1975, 155—179. Kimball [ed.] 1975 = Kimball, John P. [ed.]: Syntax and Semantics. Volume 4. New York 1975. Kincaid/Aargard/O’Hara et al. 1981 = Kincaid, J./Aargard, A./O’Hara, W. et al.: Computer readability editing system. In: IEEE Transactions on Professional Communication 24, 1981, 38—41. Kindermann 1984 = Kindermann, J.: Parsing with new FLAVOURS. Ideas towards an obj ect-orientated theory. Cognitive studies center, memo CSCM 17. Colchester 1984. Kindermann/Meier 1985 = Kindermann, Jörg/ Meier, Justus: Bottom-up Parsing und Generierung in PROLOG — Ein Vergleich mit DefiniteClause Grammars. Universität Bielefeld — Fakultät für LiLi — Forschungsschwerpunkt Sprach- und Textverarbeitung. Bielefeld 1985. Kindermann/Meier 1986 = Kindermann, Jörg/ Meier, Justus: An extension of LR-Parsing for Lexical-functional grammars. Universität Bielefeld — Fakultät für LiLi — Forschungsschwerpunkt Sprach- und Textverarbeitung. Bielefeld 1986. King 1977 = King, Margaret: Several Ways to be Suggestive: an Examination of Presupposition. ISSCO WP no. 25. Geneva 1977.

XIII. Bibliography

King 1981 = King, Margaret: Design Characteristics of a Machine Translation System. In: Proc. of 7th IJCAI, Vancouver 1981, 43—46. King 1983 = King, Margaret: Transformational parsing. In: King [ed.] 1983, 19—34. King 1986 = King, Margaret: On the Proper Place of Semantics in Machine Translation. In: Proc. of the Intern. Symposium on Language and Artificial Intelligence [ed. Nagao], Kyoto 1986, [to appear]. King [ed.] 1983 = King, Margaret [ed.]: Parsing Natural Language. Proceedings of the Second Lugano Tutorial, July 6—11 1981, Lugano, Switzerland. London — New York et al. 1983. King [ed.] 1987 = King, Margaret [ed.]: Machine Translation To-day: the State of the Art. Edinburgh University Press 1986. King/Persch ke 1986 = King, Margaret/Perschke, S.: Eurotra. In: King [ed.] 1987. Kintsch 1974 = Kintsch, Walter: The Representation of Meaning in Memory. Hillsdale, N.J. 1974. Kintsch 1976 = Kintsch, Walter: Memory for Prose. In: Cofer [ed.] 1976, 90—113. Kintsch 1977 = Kintsch, Walter: Memory and Cognition. New York 1977. Kintsch /Dijk 1978 = Kintsch, Walter/Di j k, Teun van: Towards a model of text comprehension and production. In: Psychological Review 85, 5, 1978, 363—394. Kipfer 1983 = Kipfer, B.: Computer applications in lexicography: a bibliography. In: Dictionaries 4, 1983, 202—237. Kipke/Wille 1987 = Kipke, Uwe/Wille, Rudolf: Formale Begriffsanalyse erläutert an einem Wortfeld. In: LDV-Forum 5, 1987, 31—36. Kirk/Sanderson/Widdowson [eds.] 1985 = Kirk, J. M./Sanderson, S./Widdowson, J. D. A. [eds.]: Studies in Linguistic Geography. The Dialects of English in Britain and Ireland. London 1985. Kirsch 1971 = Kirsch, Werner: Entscheidungsprozesse. Bde. I-III. Wiesbaden 1971. Kirsch ner 1982 = Kirschner, Zdeněk: A dependency-based analysis of English for the purpose of machine translation. In: Explizite Beschreibung der Sprache und automatische Textbearbeitung IX. Kirsch ner 1983 = Kirschner, Zdeněk: MOSAIC — A method of automatic extraction of significant terms from texts. Prague 1983. Kirsch ner 1984 = Kirschner, Zdeněk: On a dependency analysis of English for automatic translation. In: Sgall [ed.] 1984, 335—358. Kittredge [ed.] 1984 = Kittredge, Richard [ed.]: Workshop on Sublanguage Analysis. New York 1984. Kittredge/Bourbeau/Isabelle 1976 = Kittredge, Richard/Bourbeau, Laurent/Isabelle, Pierre: Design and Implementation of an English-French Transfer Grammar. In: COLING ’76, Proceedings of the 6th International Conference on Computa-

849

tional Linguistics, 1976. Kittredge/Le h rberger [eds.] 1982 = Kittredge, R./Lehrberger, J. [eds.]: Sublanguage: Studies of Language in Restricted Semantic Domains. Berlin —New York 1982. Klah r 1977 = Klahr, Philip: Planning techniques for rule selection in deductive question-answering. In: Waterman/Hayes-Roth [eds.] 1978, 223—239. Klah r/Travis/Kellog 1980 = Klahr, Philip/Travis, Larry/Kellog, Charles: A deductive system for natural-language question answering. In: Bolc [ed.] 1980b, 73—136. Klatt/Sh ipman 1982 = Klatt, Dennis H./Shipman, David W.: Letter-to-phoneme rules: A semiautomatic discovery procedure. In: Journal of the Acoustical Society of America 72, Suppl. 1, 1982, S 48 (abstract). Kleene 1936 = Kleene, S. C.: General recursive functions of natural numbers. In: Math. Ann. 112, 1936, 727—742. Kleer 1986a = Kleer, Johan de: An assumptionbased TMS. In: Artificial Intelligence 28, 1986, 127—162. Kleer 1986b = Kleer, Johan de: Extending the ATMS. In: Artificial Intelligence 28, 1986, 163—196. Kleer 1986c = Kleer, Johan de: Problem solving with ATMS. In: Artificial Intelligence 28, 1986, 197—224. Kleer/Brown 1983 = Kleer, Johan de/Brown, John S.: Assumptions and ambiguities in mechanistic mental models. In: Gentner/Stevens [eds.] 1983, 155—190. Klein 1970 = Klein, Wolfgang: Eine Analysegrammatik. In: Linguistische Berichte 10, 1970, 13—26. Klein 1971 = Klein, Wolfgang: Parsing. Studien zur maschinellen Syntaxanalyse mit Abhängigkeitsgrammatiken und Transformationsgrammatiken. (= Linguistische Forschungen, Bd. 2). Frankfurt 1971. Klein 1976 = Klein, Wolfgang: Maschinelle Analyse des Sprachwandels. In: Eisenberg [ed.] 1976, 137—166. Klein 1981 = Klein, Wolfgang: Eine kommentierte Bibliographie zur Computerlinguistik. In: Herzog [ed.] 1981, 237—269. Klein/von Stech ow [eds.] 1974 = Klein, Wolfgang/ Stechow, Arnim von [eds.]: Functional generative grammar in Prague. Kronberg/Taunus 1974. Kleinman 1970 = Kleinman, H. H.: Dylan Thomas: A Work of Words. In: Computers and the Humanities 4, 1970, 275—277. Kleinmuntz [ed.] 1966 = Kleinmuntz, Benj amin [ed.]: Problem Solving: Research, Method and Theory. New York 1966. Klenk 1980 = Klenk, Ursula: Formale Sprachen, mit Anwendungen auf die Beschreibung natürlicher Sprachen. Tübingen 1980.

850

Klenk 1983 = Klenk, Ursula: Kontextfreies Parsing auf elliptische Sätze in spanischen Wetterberichten. In: Sprache und Datenverarbeitung 7, Heft 1/2, 1983, 21—25. Klenk 1985 = Klenk, Ursula: Ein nicht-lexikalisches Verfahren zur Erkennung spanischer Wortstämme. In: Klenk [ed.] 1985b, 47—65. Klenk [ed.] 1985a = Klenk, Ursula [ed.]: Kontextfreie Syntaxen und verwandte Systeme. Tübingen 1985. Klenk [ed.] 1985b = Klenk, Ursula [ed.]: Strukturen und Verfahren in der maschinellen Sprachverarbeitung. Dudweiler 1985. Klenk/Mau 1979 = Klenk, Ursula/Mau, J.: Kontextfreie Syntaxanalyse mit einem Mikrocomputer. In: Sprache und Datenverarbeitung 3, 1—2, 1979, 93—98. Klenk/Sch erber/Th aller [eds.] 1987 = Klenk, Ursula/Scherber, Peter/Thaller, Manfred [eds.]: Computerlinguistik und philologische Datenverarbeitung. Hildesheim 1987. Klibansky [ed.] 1968 = Klibansky, Raymond [ed.]: Contemporary Philosophy: A Survey. Florence 1968. Klimbie/Koffeman [eds.] 1974 = Klimbie, J. W./Koffeman; K. L. [eds.]: Data Base Management. Proceedings of the IFIP Working Conference on DB Management, Cargese, Corsica, April 1—5, 1974. Amsterdam — New York — Oxford 1974. Klimonow 1982 = Klimonow, Gerda: Zum System der Unterordnungsrelation im Deutschen. In: Kunze [ed.] 1982, 65—174. Klimonow 1983 = Klimonow, Gerda: Zur Valenzproblematik aus der Sicht der automatischen Sprachverarbeitung. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 36, 1983, 647—654. Klingemann 1984 = Klingemann, Hans-Dieter: Computerunterstützte Inhaltsanalyse in der empirischen Sozialforschung. Frankfurt/M. 1984. Klix 1982 = Klix, Friedhart: Are learning processes evolutionary invariant? In: Zeitschrift für Psychologie 190 (4), 1982, 381—391. Kluźniak/Szpakowicz 1985 = Kluźniak, F./Szpakowicz, S.: Prolog for programmers. New York 1985. Knigh t 1974 = Knight, T.: CONS. MIT Artificial Intelligence Laboratory, Working Paper, No. 80. Cambridge, Mass. 1974. Knorz 1983 = Knorz, Gerhard: Automatisches Indexieren als Erkennen abstrakter Obj ekte. Tübingen 1983. Knowles 1983 = Knowles, Francis E.: Towards the Machine Dictionary. In: Hartmann [ed.] 1983, 181—193. Knuth 1965 = Knuth, Donald E.: On the translation of languages from left to right. In: Information and Control, Vol. 8, 1965, 607—639.

XIII. Bibliography

Knuth 1968 = Knuth, Donald E.: Semantics of context-free languages. In: Mathematical systems theory 2, 1968, 127—145. Knuth 1971 = Knuth, Donald E.: Top-down Syntax Analysis. In: Acta Informatica 1, 1971, 79—110. Ko [ed.] 1980 = Ko, Yong-Kun [ed.]: Current papers in linguistiscs VII. Seoul 1980. Kobsa 1985 = Kobsa, Alfred: Benutzermodellierung in Dialogsystemen. Berlin 1985. Koch , D. 1979 = Koch, Dietrich: ATN-Analyse koordinationsfreier deutscher Sätze. (= Linguistische Studien. Reihe A. Arbeitsberichte 52). Berlin 1979. Koch , D./Heicking 1980 = Koch, Dietrich/Heikking, Winfried: Syntactic-semantic analysis of German sentences. In: Bolc [ed.] 1980c, 207—270. Koch , W. A. [ed.] 1973 = Koch, W. A. [ed.]: Perspektiven der Linguistik I. Stuttgart 1973. Koc h endörfer/Sc h irok 1976 = Kochendörfer, Günter/Schirok, Bernd: Maschinelle Textrekonstruktion. Theoretische Grundlegung, praktische Erprobung an einem Ausschnitt des ’Parzival’ Wolframs von Eschenbach und Diskussion der literaturgeschichtlichen Ergebnisse. Göppingen 1976. König [ed.] 1974 = König, R. [ed.]: Handbuch der empirischen Sozialforschung. Bd. 3a. Stuttgart 1974. Körner 1973 = Körner, E. F. K.: Ferdinand de Saussure. Origine and development of his linguistic thought. (= Western Studies of Language, A contribution to the history and theory of linguistics). Braunschweig 1973. Kogure/Yokoi et al. 1984 = Kogure, K./Yokoi, A. et al.: The Frame Editor for Dictionar Editing. WG Preprint, Working Group on Natural Language Processing, Information Processing Society of Japan 1984. Koh l 1977 = Kohl, Ernst: Zeichensatz und Zeichenverschlüsselung für die Elektronische DV in Bibliotheken. 2. Aufl. München 1977. Koh ler 1977 = Kohler, Klaus J.: Einführung in die Phonetik des Deutschen. Berlin 1977. Koller 1985 = Koller, Gerhard: Computative Graphematik. Dokumentation eines Programmsystems zur schreibsprachlichen Analyse historischer Texte. Wiesbaden — Stuttgart 1985. Kolodner 1980 = Kolodner, J. L.: Retrieval and organizational strategies in conceptual memory: a computer model. Ph.D. Thesis. Dept. of Computer Science, Yale University, Research Report No. 187. New Haven, CO. 1980. Kolvenbach /Lötsch er/Lutz [eds.] 1979 = Kolvenbach, Monika/Lötscher, Andreas/Lutz, HansDieter [eds.]: Künstliche Intelligenz und natürliche Sprache. Sprachverstehen und Problemlösen mit dem Computer. Tübingen 1979. Kommenda/Kubin/Doblinger 1985 = Kommenda, M./Kubin, K./Doblinger, G.: Ein System

XIII. Bibliography

zur akustischen Ausgabe von deutschem Text für Personal-Computer. In: Müller [ed.] 1985, 57—82. Koopmans 1947 = Koopmans, T.: Measurement without theory. In: Review of Economics and Statistics 29, 1947, 161—172. Kornai 1985 = Kornai, Andras: Natural Languages and the Chomsky hierarchie. In: Proceedings of the Second Conference of the European Chapter of the ACL, 1985, 1—7. Kory 1984 = Kory, F.: Cricket Brings Speech and More to Apple IIc. In: Speech Technology 2, No. 3, 1984, 100—104. Koskenniemi 1983a = Koskenniemi, Kimmo: Two-level Morphology. A General Computational Theory for Word-form Recognition and Production. Department of General Linguistics, University of Helsinki, Publications No. 11. Helsinki 1983. Koskenniemi 1983b = Koskenniemi, Kimmo: Two-level Model for Morphological Analysis. In: Proceedings of the Eighth International Joint Conference of Artificial Intelligence., Karlsruhe 1983, 683—685. Koskenniemi 1984 = Koskenniemi, Kimmo: A General Computational Model for Word-Form Recognition and Production. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 178—181. Koskenniemi 1985a = Koskenniemi, Kimmo: A general two-level computational model for wordform recognition and production. In: Karlsson [ed.] 1985, 1—18. Koskenniemi 1985b = Koskenniemi, Kimmo: A system for generating Finnish inflected wordforms. In: Karlsson [ed.] 1985, 63—79. Koskenniemi 1985c = Koskenniemi, Kimmo: An application of the two-level model to Finnish. In: Karlsson [ed.] 1985, 19—41. Kotov/Kurbakov [eds.] 1983 = Kotov, Renat G./Kurbakov, Konstantin J. [eds.]: Linguističeskie voprosy algoritmičesko j obrabotki soobščeni j. (Linguistic problems of algorithmical treatment of messages). Moscow 1983. Kowalski 1972 = Kowalski, Robert A.: Logic for Problem Solving. Amsterdam — New York 1972. Kowalski 1974 = Kowalski, Robert A.: Predicate Logic as a Programming Language. In: Information Processing, 74, North-Holland 1974, 556—574. Kowalski 1979 = Kowalski, Robert A.: Logic for Problem Solving. North Holland 1979. Kowalski 1985 = Kowalski, Robert A.: Logic Programming. In: Lecture Notes, Second Finnish Summer School on Theoretical Computer Science, Aug. 26—29, Abolands högskola, Parainen, Finland 1985. Kowalski/Sergot 1985 = Kowalski, Robert A./Sergot, M.: A Logic-based Calculus of Events. Ms. Department of Computing. Imperial College. London 1985.

851

Kracauer 1952 = Kracauer, Siegfried: The Challenge of Qualitative Content Analysis. In: Public Opinion Quarterly 16, 1952, 631—642. Krallmann 1966 = Krallmann, Dieter: Statistische Methoden in der Stilistischen Textanalyse. Ein Beitrag zur Informationserschließung mithilfe elektronischer Rechenmaschinen. Phil. Diss. Bonn 1966. Krallmann 1968 = Krallmann, Dieter: Maschinelle Analyse natürlicher Sprachen. In: Gunzenhäuser [ed.] 1968, 227—294. Krallmann [ed.] 1978 = Krallmann, Dieter [ed.]: Kolloquium zur Lage der Linguistischen Datenverarbeitung. Essen 1978. Krallmann [ed.] 1980 = Krallmann, Dieter [ed.]: Dialogsysteme und Textverarbeitung. Essen 1980. Krasner [ed.] 1982 = Krasner, G. [ed.]: Smalltalk80 - Bits of History, Words of Advice. Reading, Mass. 1982. Kratzer/Pause/von Stec h ow 1973—74 = Kratzer, Angelika/Pause, Eberhard/Stechow, Arnim von: Einführung in die Theorie und Anwendung der generativen Syntax. 2 Bde. Frankfurt/M. 1973—74. Krause, J. 1980 = Krause, Jürgen: Natural language access to information systems: An evaluation study of its acceptance by endusers. In: Information Systems 5, 1980, 297—318. Krause, J. 1982a = Krause, Jürgen: Mensch-Maschine-Interaktion in natürlicher Sprache. Tübingen 1982. Krause, J. 1982b = Krause, Jürgen: ’Prozessuale Linguistik’ und Linguistische Informationswissenschaft. In: Bátori/Krause/Lutz [eds.] 1982, 57—70. Krause, J. 1983 = Krause, Jürgen: Praxisorientierte natürlichsprachliche Frage-Antwort-Systeme. In: Nachrichten für Dokumentation 34, Sept. 1983, (4/5). Krause, J. 1984a = Krause, Jürgen: Linguistik, Linguistische Datenverarbeitung, Informationslinguistik und Linguistische Informationswissenschaft. In: Eroms/Gajek/Kolb [eds.] 1984, 51—60. Krause, J. 1984b = Krause, Jürgen: Linguistic Components in (Office) Information Systems and a General Evaluation Strategy for Automatic Indexing. In: Journal of Information and Optimization Sciences (no 3), 1984, 227—259. Krause, J. 1989 = Krause Jürgen: Empirical hints on the existence of a language register ’computer talk’. In: Bammesberger, A./Kirschner, T. [eds.]: Language and Civilization. München 1989. Krause, J. et al. 1983 = Krause, Jürgen et al.: EVAL. Zur Evaluierung informationslinguistischer Komponenten von Informationssystemen. Universität Regensburg 1983. Krause, J. [ed.] 1987 = Krause, J. [ed.]: Inhaltserschließung von Massendaten. Hildesheim et al. 1987. Krause, J./Niedereh e [eds.] 1984 = Krause, Jürgen/Niederehe, Hans-Josef [eds.]: Mikrocomputer und Textverarbeitung. Oldenburg 1984.

852

Krause, W./Willée 1981 = Krause, W./Willée, Gerd: Lemmatizing German Newspaper Texts with the Aid of an Algorithm. In: Computers and the Humanities 15, 1981, 101—113. Krems 1984 = Krems, J.: Erwartungsgeleitete Sprachverarbeitung: Computersimulierung von Verstehensprozessen. Frankfurt/M. 1984. Krippendorf 1980 = Krippendorf, Klaus: Content Analysis: An Introduction to its Methodology. Beverly Hills 1980. Kroch /Josh i 1985 = Kroch, A./Joshi, Aravind K.: The Linguistic Relevance of Tree Adj oining Grammars. Technical Report, MS-CIS-85-18, Dept. of CIS, University of Pennsylvania, Philadelphia 1985. Krollman/Sc h uk/Winkler 1965 = Krollman, Friedrich/Schuk, H.-J./Winkler, U.: Herstellung textbezogener Fachwortlisten mit einem Digitalrechner. In: Beiträge zur Sprachkunde und Informationsverarbeitung 5, 1965, 7—30. Kroupa 1983 = Kroupa, E.: Einführung in CTXLeistungskatalog. Bericht FR 5.5 Informationswissenschaft. Universität des Saarlandes, Saarbrücken 1983. Krückeberg/Sch indler/Spaniol [eds.] 1984 = Krükkeberg, F./Schindler, S./Spaniol, O. [eds.]: Offene multifunktionale Büroarbeitsplätze und Btx. Berlin — Heidelberg — New York 1984. Krumnack 1978 = Krumnack, Ute: Maschinelle Analyse und Synthese substantivischer Flexionsformen. In: Lenders/Moser [eds.] 1978, 53—80. Kučera/Francis 1967 = Kučera, H./Francis, W. Nelson: Computational Analysis of Present-Day American English. Providence, Rhode Island 1967. Küh lwein 1987 = Kühlwein, Wolfgang: Externality and Finalization in Linguistics. In: Kühlwein [ed.] 1987, 9—24. Küh lwein [ed.] 1987 = Kühlwein, Wolfgang [ed.]: Linguistics as Applied Science. AILA Review 4. 1987. Kü h lwein/Raasc h [eds.] 1980 = Kühlwein, W./Raasch, A. [eds.]: Kongreßberichte der 10. Jahrestagung der GAL in Mainz 1979. Tübingen 1980. Küstner 1983 = Küstner, Herbert: Überlegungen für eine formal-logische Beschreibung der Negation mit Bezug auf deren semantische Rolle im Satz. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 36, 1983, 663—667. Kuh len 1976 = Kuhlen, Rainer: Einführung für die deutsche Ausgabe. In: Sparck Jones/Kay 1976, 5—9. Kuh len 1977a = Kuhlen, Rainer: Experimentelle Morphologie in der Informationswissenschaft. München 1977. Ku h len 1977b = Kuhlen, Rainer: Funktionale Grammatiken und Weltwissen. In: Sprache und Datenverarbeitung 1, 2, 1977, 165—171.

XIII. Bibliography

Kuh len 1979 = Kuhlen, Rainer: Einleitende Bemerkungen zur Praxis des Information Retrieval. In: Kuhlen [ed.] 1979, 11—25. Kuh len 1983 = Kuhlen, Rainer: Volltextanalyse zum Zwecke des Abstracting. In: DGD [ed.] 1983b, 300—312. Kuh len 1984 = Kuhlen, Rainer: A knowledgebased text analysis system for the graphically supported production of cascaded text condensates: Universität Konstanz, Informationswissenschaft (= Bericht TOPIC-9/84). Konstanz 1984. Kuh len 1985 = Kuhlen, Rainer: Verarbeitung von Daten, Repräsentation von Wissen, Erarbeitung von Information. In: Endres-Niggemeyer/Krause [eds.] 1985, 1—22. Kuh len 1986 = Kuhlen, Rainer: Some similarities and differences between intellectual and machine text understanding for the purpose of abstracting. In: Kuhlen [ed.] 1986, 133—151. Kuh len [ed.] 1979 = Kuhlen, Rainer [ed.]: Datenbasen — Datenbanken — Netzwerke. Praxis des Information Retrieval. Bd. 1: Aufbau von Datenbasen. München — New York — London — Paris 1979. Kuh len [ed.] 1986 = Kuhlen, Rainer [ed.]: Informationslinguistik. 2. Auflage. Tübingen 1986. Ku h n, M. H./Tomasc h ewski 1983 = Kuhn, M. H./Tomaschewski, H.: Improvements in Isolated Word Recognition. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-31, No. 1, 1983, 157—167. Kuh n, T. S. 1961 = Kuhn, Thomas S.: The function of measurement in modern physical science. In: Isis 52, 1961, 161—193. Kuh n, T. S. 1973 = Kuhn, Thomas S.: The Structure of Scientific Revolution. In: International Encyclopedia of Unified Science, vol. 2, no. 2. Kukich 1983a = Kukich, Karen: Design of a Knowledge-Based Report Generator. In: Proceedings of the 21st Annual Meeting of the Association for Computational Linguistics, Cambridge, Mass. 1983, 145—151. Kukic h 1983b = Kukich, Karen: Knowledge based-report generation: a technique for automatically generating natural language reports from databases. In: Proceedings of the 6th Annual International ACM, SIGIR Conference on Research and Development in Information Retrieval, Bethesda, June 6—8, 1983 (= SIGIR Forum 17,4), o. O. 1983, 246—250. Kulagina 1958 = Kulagina, Olga S.: Ob odnom sposobe opredeleni j a grammatičeskich ponj ati j na baze teorii množestv. In: Problemy kibernetiki 1, Moscow 1958, 203—214. Kulagina 1960a = Kulagina, Olga S.: O mašinnom perevode s franczskogo j azyka na russkij . In: Problemy kibernetiki 3, Moscow 1960, 181—208. Kulagina 1960b = Kulagina, Olga S.: O mašinnom perevode s francuzskogo j azyka na russkij . In: Problemy kibernetiki 4, Moscow 1960, 207—257.

XIII. Bibliography

Kulagina 1962 = Kulagina, Olga S.: Ob ispol’zovanii mašiny pri sostavlenii algoritmov analiza teksta. In: Problemy kibernetiki 7, 1962, 209—223. Kulagina 1979 = Kulagina, Olga S.: Issledovanij a po mašinnomu perevodu. Moskva 1979. Kulagina 1982 = Kulagina, Olga S.: Primery perevodov, polučennyh posredstvom sistemy FR-P, i ocenka kačestva MP. In: Andr j uščenko/Šal j apina [eds.] 1982, 1., 113—133. Kulagina/Mel’čuk 1956 = Kulagina, Olga S./Mel’čuk, Igor A.: Mašinnyj perevod s francuzskogo j azyka na russkij . In: Voprosy Jazykoznanij a 5, 1956, 111—121. Kulas/Rüh l 1985 = Kulas, W./Rühl, H.-W.: Über die Erzeugung einer Satzintonation. In: Müller [ed.] 1985, 127—138. Kuno 1963 = Kuno, Susumo: Study of Analysis Output of the Multiple-path English Analyzer. In: Report No. NSF-9 Mathematical Linguistics and Automatic Translation. Kuno 1965a = Kuno, Susumo: A system for transformational analysis. In: Mathematical Linguistics and Automatic Translation. Report NSF-15, Harvard Computation Laboratory. Kuno 1965b = Kuno, Susumo: The predictive analyzer and a path elimination technique. In: CACM 8, 453—462; also in: Hays [ed.] 1966, 83—106. Kuno 1976 = Kuno, Susumo: Automatische Analyse natürlicher Sprachen. In: Eisenberg [ed.] 1976, 167—203. Kuno/Oettinger 1963a = Kuno, Susumo/Oettinger, Anthony G.: Multiple-path English Analyzer. In: Report No. NSF-8 Mathematical Linguistics and Automatic Translation. Kuno/Oettinger 1963b = Kuno, Susumo/Oettinger, Anthony G.: Multiple path syntactic analyzer. In: Popplewell [ed.] 1963, 306—312. Kuno/Oettinger 1968 = Juno, Susumo/Oettinger, Anthony G.: Computational Linguistics in a Ph.D. Computer Science Program. In: CACM 11:12, 1968, 831—836. Kunze 1975 = Kunze, Jürgen: Abhängigkeitsgrammatik. Berlin 1975. Kunze 1977 = Kunze, Jürgen: Dependency grammar as syntactic model in several procedures of automatic sentence analysis. In: Linguistics 195, 1977, 49—62. Kunze 1980 = Kunze, Jürgen: Some problems in applying selective features to automatic sentence analysis. In: SMIL 1980, No. 4, 34—46. Kunze 1981 = Kunze, Jürgen: Using semantic criteria in syntactic rules. In: Automatic Documentation and Mathematical Linguistics 15, 3, 1981, 97—105. Kunze 1982a = Kunze, Jürgen: Einführung. In: Kunze [ed.] 1982, 17—34. Kunze 1982b = Kunze, Jürgen: Probleme der Selektion in der automatischen Satzanalyse. In: Kunze [ed.] 1982, 223—256.

853

Kunze 1983 = Kunze, Jürgen: Probleme und Methoden der automatischen Sprachverarbeitung. In: Linguistische Studien, Reihe A 108, 1983, 1—153. Kunze [ed.] 1982 = Kunze, Jürgen [ed.]: Automatische Analyse des Deutschen. Berlin, GDR 1982. Kunze/Rüdiger 1968 = Kunze, Jürgen/Rüdiger, Barbara: Algorithmische Synthese der Flexionsformen im Deutschen. In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 21, 1968, 245—303. Kurokawa 1979 = Kurokawa, T.: Lisp Activities in Japan. In: Proceedings of the Sixth International Joint Conference on Artificial Intelligence, Tokyo 1979. Kuttner 1981 = Kuttner, Heinz-Georg: Zur Relevanz text- und inhaltsanalytischer Verfahrensweisen für die empirische Forschung. Frankfurt/M. 1981. Kuznetsova 1979 = Kuznetsova, E. L.: Computerbased interpretation of linguistic maps. In: Remmel [ed.] 1979, 45—46. Kwasny/Sond h eimer 1981 = Kwasny, Stan C./Sondheimer, Norman K.: Relaxation techniques for parsing grammatically ill-formed input in natural language understanding systems. In: AJCL 17, 2, 1981, 99—108. LaBerge/Samuels [eds.] 1977 = LaBerge, D./Samuels, S. J. [eds.]: Basic Processes in Reading: Perception and Comprehension. Hillsdale, N.J. 1977. Labov 1972 = Labov, William: Sociolinguistic Patterns. Oxford 1972. Labov 1975 = Labov, William: What is a Linguistic Fact? Lisse 1975. Labov/Waletzki 1967 = Labov, William/Waletzki, J.: Narrative Analysis: Oral Versions of Personal Experience. In: Helm [ed.] 1967, 12—44. Laffal 1973 = Laffal, Julius: A Concept Dictionary of English. 1973. Lakoff 1972 = Lakoff, George: Linguistics and Natural Logic. In: Davidson/Harman 1972, 545—665. Lamb 1966 = Lamb, Sydney: An Outline of Stratificational Grammar. Georgetown University Press. Washington, D.C. 1966. Lambert/Ropiequet [eds.] 1986 = Lambert, Steve/ Ropiequet, Suzanne: CD-ROM: The New Papyrus. 1986. Lampson/Pier/McDaniel et al. 1981 = Lampson, B. P./Pier, K. A./McDaniel, G. A. et al.: The Dorado: A High Performance Personal Computer. CSL-81-1, Xerox PARC. Palo Alto, Cal. 1981. Lancaster 1979 = Lancaster, F. W.: Information Retrieval Systems: Characteristics, Testing and Evaluation (2nd edition). New York — Brisbane — Toronto — Singapore 1979. Lance/Slemons 1976 = Lance, Donald M./Slemons, Steven V.: The use of the computer in plotting the geographical distribution of dialect items. In: Computers and the Humanities 10, 1976, 221—229.

854

Landauer/Freedman 1968 = Landauer, Thomas K./Freedman, Jonathan L.: Information retrieval from long-term memory: Category size and recognition time. In: Journal of Verbal Learning and Verbal Behavior 7, 1968, 291—295. Landsbergen 1981 = Landsbergen, Jan: Adaption of Montague grammar to the requirements of parsing. In: Groenendi j k/Janssen/Stokhof [eds.] 1981, 399—419. Landsbergen/Sch a 1979 = Landsbergen, S. P. J./ Scha, R. J. H.: Formal languages for semantic representation. In: Allén/Petöfi [eds.] 1979. Lang 1984 = Lang, E.: The Semantics of Coordination. Amsterdam 1984. Langendoen 1975 = Langendoen, D. Terence: Finite-state parsing of phrase-structure languages and the status of readj ustment rules in grammar. In: Linguistic Inquiry 5, 1975, 533—554. Langendoen/Langsam 1984 = Langendoen, D. Terence/Langsam, Yedidyah: The Representation of Constituent Structures for Finite-State Parsing. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 24—27. Langley/Carbonell 1984 = Langley, Pat/Carbonell, Jaime G.: Approaches to Machine Learning. In: Journal of the American Society for Information Science 35 (5), 1984, 306—316. Laporte 1985 = Laporte, C. Y.: A Review of Some Speech Proj ects at the Department of National Defense (Canada). In: Speech Technology 2, No. 4, 1985, 68—74. Larkin 1983 = Larkin, Jill H.: The role of problem representation in physics. In: Gentner/Stevens [eds.] 1983, 75—98. Larsson 1986 = Larsson, Inger: NORDORD - Database and a program in dialect geography for microcomputers. Typoscript. Stockholm 1986. Lassila 1986 = Lassila, O.: Olisp: Lazy Evaluation in a Small Purely Functional Liwsp System. Laboratory of Information Processing Science, Helsinki University of Technology. Helsinki 1986. Lasswell 1927 = Lasswell, Harold D.: Propaganda Technique in the World War. New York 1927. Lasswell 1941 = Lasswell, Harold D.: The World Attention Survey. In: Public Opinion Quarterly 5, 1941, 456—462. Laubsch 1979 = Laubsch, Joachim: Semanticbased parsing in large corpora. In: Allén/Petöfi [eds.] 1979. Laubsch 1985 = Laubsch, Joachim: Techniken der Wissensdarstellung. In: Habel [ed.] 1985, 48—93. Laubsch [ed.] 1985 = Laubsch, Joachim [ed.]: GWAI-84. Berlin 1985. Laubsc h /Roesner/Hanakata et al. 1984 = Laubsch, Joachim/Roesner, Dietmar/Hanakata, Kenj i et al.: Language Generation from Conceptual Structure: Synthesis of German in a Japanese/ German MT Proj ect. In: COLING ’84, Procee-

XIII. Bibliography

dings of the Tenth International Conference on Computational Linguistics, Stanford 1984, 491—495. Lawson [ed.] 1982 = Lawson, Veronica [ed.]: Practical experience of machine translation. Amsterdam 1982. Lawson [ed.] 1985 = Lawson, Veronica [ed.]: Tools for the Trade. London 1985. LDOCE 1978 = LDOCE: Longman Dictionary of Contemporary English. London 1978. Lea [ed.] 1980 = Lea, W. A. [ed.]: Trends in Speech Recognition. Englewood Cliffs, N.J. 1980. Leander 1986 = Leander, M.: Voice Response — A Technology For Solving Management Problems. In: Speech Technology 3, No. 2, 1986, 50—52. Lebowitz 1983a = Lebowitz, Michael: Memorybased parsing. In: Artificial Intelligence 21, 4, 363—404. Lebowitz 1983b = Lebowitz, Michael: RESEARCHER: An overview. In: Proc. National Conf. on Artificial Intelligence, Wahington, D.C. 1983, 232—235. Leech , F./Garside 1985 = Leech, Fanny/Garside, Roger: A probabilistic parser. In: Second Conference of the European Chapter of the Association for Computational Linguistics., Geneva 1985, 166—170. Leech , G. N./Candlin [eds.] 1985 = Leech, Geoffrey N./Candlin, Christopher N. [eds.]: The Computer and English Language. Harlow 1985. Leech , G. N./Garside/Atwell 1983 = Leech, Geoffrey N./Garside, Roger/Atwell, Eric: The automatic grammatical tagging of the LOB Corpus. In: ICAME News 7, 1983, 13—33. Leech , G. N./Sh ort [eds.] 1981 = Leech, Geoffrey N./Short, Pierre [eds.]: Style in fiction, a linguistic introduction to English fictional prose. New York 1981. Lee/Loc h ovsky 1983 = Lee, D. L./Lochovsky, F. H.: Voice Response Systems. In: Computing Surveys 15, No. 4, 1983, 351—374. Leh feldt/Altmann 1975 = Lehfeldt, W./Altmann, G.: Begriffskritische Untersuchungen zur Sprachtypologie. In: Linguistics 144, 1975, 49—78. Leh mann, H. 1976 = Lehmann, Hubert: The USL Proj ect — its obj ectives and status. In: Proceedings of the IBM International Technical Conference on Relational Data Base Systems. Bari, Italy 1976. Leh mann, H./Blaser 1979 = Lehmann, Hubert/ Blaser, A.: Query Languages in Data Bases Systems. In: Böhling/Spies [eds.] 1979, 64—80 (Kurzfassung). Leh mann, W. P. 1965 = Lehmann, Wilfred P.: Computational Linguistics: Procedures and Problems. Report LRC65WA-1, Linguistic Research Center, University of Texas. Austin Jan. 1965. Leh nert 1977a = Lehnert, Wendy G.: The Process of Question Answering. Ph.D.-Thesis, Yale University, Dept. of Computer Science, Research-Report-88. New Haven, CO. 1977.

XIII. Bibliography

Leh nert 1977b = Lehnert, Wendy G.: Human and Computational Question Answering. In: Cognitive Science 1, 1977, 47—73. Leh nert 1978 = Lehnert, Wendy G.: The Process of Question Answering. Hillsdale, N.J. 1978. Leh nert 1981 = Lehnert, Wendy G.: Plot units and narrative summarization. In: Cognitive Science, vol. 5. Leh nert 1982 = Lehnert, Wendy G.: Plot units: a narrative summarization strategy. In: Lehnert/ Ringle [eds.] 1982, 375—412. Leh nert/Ringle [eds.] 1982 = Lehnert, Wendy G./Ringle, Martin H. [eds.]: Strategies for Natural Language Processing. Hillsdale, N.J. — London 1982. Leinfellner/Steinacker/Trost 1984 = Leinfellner, Elisabeth/Steinacker, Ingeborg/Trost, Harald: Anaphoric and cataphoric relations, textual cohesion, and reference resolution in the system VIELANG. In: Computers and Artificial Intelligence 3, 1984, 377—397. Lejkina 1964 = Lej kina, B. M.: Principy postroej ni a angli j sko j grammatiki dl j a sintaksičeskogo analiza pri avtomatičeskom perevode. In: Naučnotechničeskaja informacija, No. 11, 1965, 35—40. Lejkina/Nikitina/Otkupščikova et al. 1966 = Lej kina, B. M./Nikitina, T. M./Otkupščikova, M. I. et al.: Sistema avtomatičeskogo perevoda razrabatyvaemaj a v gruppe matematičeskoj lingvistiki VC LGU. In: Naučno-techničeska j a informaci j a, No. 1, 1966, 40—50. Lenat/Prakas h /S h ep h erd 1986 = Lenat, D./Prakash, M./Shepherd, M.: CYC: Using common knowledge to overcome brittleness and knowledge acquisition bottlenecks. In: The AI Magazine, 1986, 65—85. Lenders 1972a = Lenders, Winfried: Einführung in die linguistische Datenverarbeitung I. Allgemeine Grundlagen der linguistischen Datenverarbeitung. Tübingen 1972. Lenders 1972b = Lenders, Winfried: Verfahren zur automatischen Herstellung klassifizierender Indices. In: Schanze [ed.] 1972, 45—56. Lenders 1974 = Lenders, Winfried: Zur Situation der literarischen und linguistischen DV. In: ALLC Bulletin, vol. 2, no. 1, 1974, 2—3. Lenders 1975 = Lenders, Winfried: Semantische und argumentative Textdeskription. Ein Beitrag zur Simulation sprachlicher Kommunikation. Hamburg 1975. Lenders 1976 = Lenders, Winfried: Kommunikation und Grammatik bei Leibniz. In: Parret [ed.] 1976, 571—592. Lenders 1980 = Lenders, Winfried: Linguistische Datenverarbeitung — Stand der Forschung. In: Deutsche Sprache, Heft 3, 1980, 213—264. Lenders 1982 = Lenders, Winfried: Informationssysteme als Gegenstand und Hilfsmittel der Geisteswissenschaften. In: Fix [ed.] 1982, 20—36.

855

Lenders 1985 = Lenders, Winfried: Machine-Readable Textual Archives at the University of Bonn. In: Allen, R. F. [ed.] 1985, 11—16. Lenders 1987 = Lenders, Winfried: The Semantic Component of the Modern German Lexical Data Base. In: Moberg [ed.] 1987, 241—249. Lenders 1988a = Lenders, Winfried: On the Perspektives of Artificial Intelligence Research in Literary Understanding Processes. In: Mentsch/Viehoff [eds.] 1988. Lenders 1988b = Lenders, Winfried: What’s in a lexical entry? 1988. Lenders/Lutz/Römer 1969 = Lenders, Winfried/ Lutz, Hans-Dieter/Römer, Ruth: Untersuchungen zur automatischen Indizierung mittelhochdeutscher Texte. Hamburg 1969. Lenders/Moser [eds.] 1978 = Lenders, Winfried/ Moser, Hugo [eds.]: Maschinelle Verarbeitung altdeutscher Texte II. Beiträge zum Symposion Mannheim 15./16. Juni 1973. Berlin 1978. Lenders/Stock 1984 = Lenders, Winfried/Stock, Dieter: Zur Entwicklung eines akustischen Terminals zur automatischen Spracherkennung und Sprachproduktion. In: Sprache und Datenverarbeitung 8, No. 1/2, 1984, 44—53. Lenders/Wegera [eds.] 1982 = Lenders, Winfried/ Wegera, Klaus-Peter [eds.]: Maschinelle Auswertung sprachhistorischer Quellen. Ein Bericht zur computerunterstützten Analyse der Flexionsmorphologie des Frühneuhochdeutschen. Mit Beiträgen von Eckhard Berg, Ulf Dammers, Gert Frackenpohl, Harald Frauenknecht, Manfred Gehrke. Tübingen 1982. Lenders/Willée 1986 = Lenders, Winfried/Willée, Gerd: Linguistische Datenverarbeitung. Ein Lehrbuch. Wiesbaden 1986. Lenneberg 1966 = Lenneberg, E. H.: The biological foundations of language. New York 1966. Lentz 1981 = Lentz, L. T.: An Integrated Computer-based system for creating the Dictionary of the Old Spanish Language. In: Linguistica Computazionale I, 1981, 19—42. Leonard 1986 = Leonard, T. M.: The Use of Voice Technolgy By a Consumer Banking Institution. In: Speech Technology 3, No. 3, 1986, 20—22. Leont’eva/Kudrjašova/Sokolova 1979 = Leont’eva, Nina N./Kudr j ašova, Irina M./Sokolova, Elena G.: Semantičeskaj a slovarnaj a stat’j a v sisteme FRAP. (Semantic word entry in the FRAP system). Institute of Russian Language of the USSR Academy of Sciences, a preliminary edition issue N. 121. Moscow 1979. Leont’eva/Nikogosov 1982 = Leont’eva, Nina N./Nikogosov, S. L.: Sistema FRAP kak informacionna ja sistema. In: Andr j uščenko/Šal j apina [eds.] 1982, 1., 134—166. Lepage 1986 = Lepage, Yves: A language for transcriptions. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 402—404.

856

Lesk/Sch midt 1979 = Lesk, M. E./Schmidt, E.: LEX — a lexical analyzer generator. In: Bell Telephone [ed.] 1979, 13 ff. Lesmo/Mezzalama/Torasso 1978 = Lesmo, Leonardo/Mezzalam, M./Torasso, Pietro: A text-tospeech translation system for Italian. In: International Journal of Man-Machine Studies 10, 1978, 569—591. Lesmo/Torasso 1983 = Lesmo, Leonardo/Torasso, Pietro: A flexible natural language parser based on a two-level representation of syntax. In: Proceedings EACL 1983, Torino 1983, 114—121. Levelt 1972 = Levelt, W. J. M.: Some psychological aspects of linguistic data. In: Linguistische Berichte 17, 18—30. Levelt 1974 = Levelt, W. J. M.: Formal Grammars in Linguistics and Psycholinguistics. The Hague 1974. Levelt 1983 = Levelt, Willem: Monitoring and Self-Repair in Speech. In: Cognition 14, 1983, 41—104. Levesque 1984 = Levesque, Hector J.: Foundations of a functional approach to knowledge representation. In: Artificial Intelligence 23, 1984, 155—212. Lieb 1980a = Lieb, H.-H.: Probleme der Wortbedeutung: Argumente für einen psychologischen Bedeutungsbegriff. In: Linguistische Arbeiten und Berichte 14, Berlin 1980, 1—67. Lieb 1980b = Lieb, H.-H.: Probleme der Wortbedeutung: Argumente für einen psychologischen Bedeutungsbegriff. In: Ko [ed.] 1980, 183—250. Lieb 1983 = Lieb, H.-H.: Integrational Linguistics. Vol. I: General outline. Amsterdam 1983. Lieberman 1966 = Lieberman, D.: Design of a Grammar Tester. In: Lieberman [ed.] 1981 (Also presented to the November 1966 Fall Joint Computer Conference). Lieberman [ed.] 1966 = Lieberman, D. [ed.]: Specification and Utilization of a Transformational Grammar. Report AFCRL-66—270, IBM T. J. Watson Research Center, Yorktown Heights. New York 1966. Ligh tfood 1980 = Lightfood, D. W.: Trace theory and explanation. In: Syntax and Semantics, Vol. 13, 1980, 137—166. Lindner 1982 = Lindner, Ullrich: Die partielle Wortformenanalyse und ihre rechentechnische Realisierung. In: Kunze [ed.] 1982, 257—272. Lindner/Rüdiger 1980 = Lindner, Ullrich/Rüdiger, Barbara: Word form analysis of German. In: SMIL 1980, No. 4, 66—80. Lindsay, P.H./Norman 1977 = Lindsay, P. H./Norman, D. A.: Human Information Processing. An Introduction to Psychology. 2nd edition. New York 1977. Lindsay, R. K. 1963 = Lindsay, Robert K.: Inferential Memory as the Basis of Machines Which Understand Natural Language. In: Feigenbaum/ Feldman [eds.] 1963, 217—233.

XIII. Bibliography

Lindsay, R. K. 1971 = Lindsay, Robert K.: Jigsaw Heuristics and a Language Learning Model. In: Findler/Meltzer [eds.] 1971, 173—189. Lindsay, R. K. 1973 = Lindsay, Robert K.: In Defense of Ad Hoc Systems. In: Schank/Colby [eds.] 1973, 372—395. Lindstedt 1985 = Lindstedt, Jouko: A two-level description of Old Church Slavonic Morphology. In: Scando-Slavica 30, 1985, 165—189. Liskow 1979 = Liskow, B.: CLU Reference Manual. TR-225, Laboratory of Computer Science, MIT. Cambridge, Mass. 1979. Lisp Mach ine Inc. 1983a = Lisp Machine Inc.: Lambda Machine Overview. Culver City, Cal. 1983. Lisp Mach ine Inc. 1983b = Lisp Machine Inc.: Overview of LMI Lisp Machine Software. Culver City, Cal. 1983. Lizanets/Pestch ak 1979 = Lizanets, P. N./Pestchak, M. M.: Automatic compiling of dialectological maps. In: Remmel [ed.] 1979, 56—58. Ljudskanov 1967 = Lj udskanov, Aleksandar: Preveždat čovekat i mašinata. Sofia 1967. Ljudskanov 1972 = j L udskanov, Aleksandar: Mensch und Maschine als Übersetzer. Halle 1972. Locke/Booth [eds.] 1957 = Locke, W. N./Booth, A. D. [eds.]: Machine Translation of Languages: Fourteen Essays. 2nd edition. Cambridge, Mass. 1957. Loemker [ed.] 1969 = Loemker, L. E. [ed.]: Gottfried Wilhelm Leibniz, Philosophical papers and letters. A selection. Dordrecht 1969. Lötsch er 1979 = Lötscher, Andreas: Automatische syntaktische Analyse des Deutschen mit Übergangsnetzwerken. In: Kolvenbach/Lötscher/Lutz [eds.] 1979, 135—185. Lötsch er/Kolvenbach 1979 = Lötscher, Andreas/ Kolvenbach, Monika: Morphosyntaktische Analyse in einem Frage-Antwort-System. In: Kolvenbach/Lötscher/Lutz [eds.] 1979, 187—226. Loh 1975 = Loh, Shiu-Chang: Computer Translation of Chinese Journals. In: AJCL 43, 1975. Loh /Kong 1979 = Loh, Shiu-Chang/Kong, Luan: An Interactive On-Line MT System (Chinese into English). In: Snell [ed.] 1979, 135—147. Londe/Sc h oene 1967 = Londe, David L./Schoene, W. J.: TGT: Transformational Grammar Tester. TM-3759/000/00, System Development Corporation. Santa Monica, California 1967. Londe/Sc h oene 1968 = Londe, David L./Schoene, W. J.: TGT: Transformational Grammar Tester. In: AFIPS Conference Proceedings: Spring Joint Computer Conference 32, 1968, 385—393. Longacre 1976 = Longacre, R. E.: An Anatomy of Speech Notions. Lisse 1976. Lowerre 1976 = Lowerre, B. T.: The HARPY Speech Recognition System. Ph.D. Thesis, Carnegie Mellon University, Dept. Computer Science. Pittsburgh, Pennsylvania 1976.

XIII. Bibliography

Luce/Bus h /Galanter [eds.] 1963 = Luce, R. D./Bush, R./Galanter, E. [eds.]: Handbook of Mathematical Psychology. Volume 2. New York 1963. Luckh ardt 1985a = Luckhardt, Heinz-Dirk: Kontrollierte Mächtigkeit: Regeln in CAP. CL-Report No. 8. Berichte über Arbeiten im Bereich der Computerlinguistik aus dem SFB 100, Teilproj ekt A2. Saarbrücken 1985. Luckh ardt 1985b = Luckhardt, Heinz-Dirk: Longdistance dependency affecting verbframes. CL-Report No. 9. Berichte über Arbeiten im Bereich der Computerlinguistik aus dem SFB 100, Teilproj ekt A2. Saarbrücken 1985. Luckh ardt 1985c = Luckhardt, Heinz-Dirk: Parsing with controlled active procedures. CL-Report No. 2. Berichte über Arbeiten im Bereich der Computerlinguistik aus dem SFB 100, Teilproj ekt A2. Saarbrücken 1985. Luckh ardt 1985d = Luckhardt, Heinz-Dirk: Parsing mit SUSY und SUSY-II: Strategien, Software und linguistisches Wissen. (= Linguistische Arbeiten des SFB 100. Neue Folge, Heft 12). Saarbrükken 1985. Luckh ardt/Th iel 1986 = Luckhardt, Heinz-Dirk/ Thiel, Manfred: Eine kommentierte Bibliographie der Veröffentlichungen aus dem Proj ekt A 2—CL — Report No 14. In: Berichte über Arbeiten im Bereich der Computerlinguistik aus dem SFB 100-Teilprojekt A 2. Luh n 1958 = Luhn, H. P.: The automatic creation of literature abstracts. In: IBM Journal of Research and Development 2, 1958, 159—165. Luh n 1966 = Luhn, H. P.: Keyword-in-Context Index for Technical Literature. In: Hays [ed.] 1966, 159—167. Lun 1983 = Lun, S.: A two-level morphological analysis of French. In: Texas Linguistic Forum 22, 1983, 271—278. Lusignan/Nort h [eds.] 1977 = Lusignan, S./North, J. [eds.]: Computing in the Humanities. Waterloo 1977. Lustig 1979 = Lustig, G.: Ansätze einer realistischen Indexierung unter Verwendung statistischer Verfahren. In: Kuhlen [ed.] 1979, 299—368. Lustig [ed.] 1987 = Lustig, G. [ed.]: Automatische Indexierung zwischen Forschung und Anwendung. Hildesheim et al. 1987. Lutzeier 1981 = Lutzeier, Peter R.: Wort und Feld. Wortsemantische Fragestellungen mit besonderer Berücksichtigung des Wortfeldbegriffes. Tübingen 1981. Lutz-Hensel 1985 = Lutz-Hensel, Magdalene: Studienführer Linguistische Datenverarbeitung (LDV) für die wissenschaftlichen Hochschulen der Bundesrepublik Deutschland. Bonn 1985. Lutz/Sch midt 1982 = Lutz, H. D./Schmidt, A.: LDV und Nachbarn — Versuch einer Standortbestimmung. In: Bátori/Krause/Lutz [eds.] 1982,

857

165—179. Lu/Yau/Hong 1983 = Lu, P. M./Yau, S./Hong, W.: A formal methodology using attributed grammars for multiprocessing-system software development: I. Design representation. II. Validation. In: Information Sciences 30, 1983, 79—123. Lyman 1984 = Lyman, G. C.: Voice Messaging Comes of Age. In: Speech Technology 2, No. 3, 1984, 45—49. Lyons 1963 = Lyons, John: Structural Semantics. An Analysis of Part of the Vocabulary of Plato. Oxford 1963. Lyons 1977 = Lyons, John: Semantics. Vol. I. Vol. II. Cambridge 1977. Lyons 1981 = Lyons, John: Language and Linguistics. Cambridge 1981. Lyons [ed.] 1970 = Lyons, John [ed.]: New Horizons in Linguistics. Pelican Book, o. O. 1972. Lyons/Wales [eds.] 1966 = Lyons, J./Wales, R. [eds.]: Psycholinguistic Papers. Edinburgh 1966. Lytinen 1985 = Lytinen, Steven L.: Integrating Syntax and Semantics. In: Proceedings of the Conference on Theoretical and Methodological Issues in Machine Translation of Natural Languages, Colgate University, 14—16 August 1985, Hamilton, New York 1985, 167—178. Lytinen/Sc h ank 1982 = Lytinen, Steven L./ Schank, Roger C.: Representation and Translation. Yale AI Proj ect Research Report 234. Yale University, New Haven, CO. 1982. Lytle 1974 = Lytle, Eldon: A Grammar of Subordinate Structures in English. The Hague 1974. Lytle 1980 = Lytle, Eldon: Junction Grammar: Theory and Application. In: McCormack/Izzo [eds.] 1980, 305—343. Lytle/Packard/Gibb et al. 1975 = Lytle, Eldon/ Packard, Dennis/Gibb, Daryl et al.: Junction Grammar as a Base for Natural Language Processing. In: AJCL, 1975, microfiche 26. Maas, H.-D. 1978 = Maas, Heinz-Dieter: Das Saarbrücker Übersetzungssystem SUSY. In: Sprache und Datenverarbeitung 1, 1978, 43—61. Maas, P. 1927 = Maas, Paul: Textkritik. In: Gercke/Norden [eds.] 1927, Bd. I, Teil 7. MacCafferty/Gray [eds.] 1979 = MacCafferty, M./Gray, K. [eds.]: The Analysis of Meaning. London 1979. MacDonald/Frase/Gingrich et al. 1982 = MacDonald, N. H./Frase, L. T./Gingrich, P. S. et al.: The Writer’s Workbench: Computer Aids for Text Analysis. In: IEEE Transactions on Communication 30, 1982, 105—110. Mac h lup/Mansfield [eds.] 1983 = Machlup, F./Mansfield, U. [eds.]: The study of information: Interdisciplinary messages. New York 1983. Mac h ová/Ří h a 1978 = Machov, Svatava/Říha, Antonin: Computer testing of generative grammar. In: Prague Bulletin of Mathematical Linguistics 29, 1978, 43—58.

858

Mackin 1983 = Mackin, Ronald: Foreword. In: Cowie/Mackin/McCaig 1983, VI-IX. Maddison, A. 1982 = Maddison, A.: Microcomputers in the Classroom. London 1982. Maddison, J. 1983 = Maddison, J.: Education in the Microelectronics Era. Milton Keynes 1983. Maegaard/Ruus (ms.) = Maegaard, Bente/Ruus, Hanne: The composition and use of a text corpus. In: [To be published in a volume dedicated to Padre Busa, ed. by Antonio Zampolli], in prep. Maegawa/Saito/Doi et al. 1985 = Maegawa, H./Saito, T./Doi, T. et al.: Fast LISP Machine and List-Evaluation Processor EVAL II — Processor Architecture and Hardware Configuration. In: Journal of Information Processing, Vol. 8, No. 2, 1985, 125—126. Maggs 1984 = Maggs, P. B.: The Birth of Scientific Speech Sysnthesis. In: Speech Technology 2, No. 3, 1984, 69—70. Maggs/Trescases 1980 = Maggs, Peter/Trescases, Pierre: De l’écrit à l’oral. Un programme sur micro-ordinateur pour machine à parler à l’usage des aveugles francophones. In: Le français moderne. Revue de linguistique française 48, 1980, 225—245. Magnusson/Blomberg/Carlson et al. 1984 = Magnusson, L./Blomberg, M./Carlson, R. et al.: Swedish Speech Researchers Team Up with Electronic Venture Capitalists. In: Speech Technology 2, No. 2, 1984, 15—24. Malach i [ed.] 1980 = Malachi, Z. [ed.]: Proceedings of the International Conference on Literary and Linguistic Computing. Tel Aviv 1980. Malaškevič/Nec h aj/Tribis 1983 = Malaškevič, Aleksandr A./Nechaj , Olga A./Tribis, Larisa J.: O fre j movom podchode k linguističeskomu obespečenij u microcomp’j utera — mnogoj azyčnogo perevodčika dialogovoj reči. (On the frame approach to vocabulary of a multilingual interpretor system on a microcomputer). In: Meždunarodnyj Seminar po Mašinnomu Perevodu, tezisy dokladov — Vsesoj uzny j Centr Perevodov Naučno-techničesko j Literatury i documentacii, Moscow 1983, 124—125 (in Russian). Malh otra 1975 = Malhotra, A.: Design requirements for a knowledge based English language System for Management. An experimental analysis. Sloan School of Management, Ph.D. Thesis. Cambridge, Mass. 1975. Mal’kovskij 1982 = Mal’kovskij , Michail G.: TULIPS-2 natural language learning system. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 191—193. Mal’kovskij 1983 = Mal’kovskij , Michail G.: Analizator sistemy TULISP-2. In: Mechanizmy vyvoda i obrabotka znanij v sistemach ponimanij a teksta. Tartu 1983, 74—85. Mal’kovskij 1985 = Mal’kovskij , Michail G.: Dialog s sistemoj iskusstvennogo intellekta. Moscow 1985.

XIII. Bibliography

Mal’kovskij/Volkova 1981 = Mal’kovski j , Michail G./Volkova, I. A.: TULIPS-2 analyzer. In: Vestnik Moskovskogo universiteta, Series XV, No. 1, 1981, 70—61. Manaster-Ramer [ed.] 1984 = Manaster-Ramer, Alexis [ed.]: Mathematics of Language. Amsterdam 1984. Mandutianu 1984 = Mandutianu, Dan: ROUND-S: An experiment with knowledgedriven semantics. In: Plander [ed.] 1984. Mangold/Stall 1978 = Mangold, Helmut/Stall, David S.: Principles of Text-Controlled Speech Synthesis with Special Application to German. In: Bolc [ed.] 1978b, 139—181. Maniet 1980 = Maniet, Albert: Recherche par ordinateur sur la phonologie diachronique du latin. Paper presented at XVI International Congress of Romance Linguistics. Palma de Mallorca 1980. Mann 1982 = Mann, William C.: The anatomy of a systemic choice. Report No. ISI/RR-82-104. 1982. Mann 1983 = Mann, William C.: An Overview of the PENMAN Text Generation System. In: Proceedings of the Annual Conference of the American Society for Artificial Intelligence, 1983, 261—265. Mann 1984a = Mann, William C.: Discourse Structures for Text Generation. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 367—375. Mann 1984b = Mann, William C.: Systemic encounters with computation. In: Network, 1984, 27—33. Mann/Bates/Grosz et al. 1982 = Mann, William C./Bates, Madeleine/Grosz, Barbara et al.: Text Generation. In: American Journal of Computational Linguistics 8, 1982, 62—69. Marburger/Nebel 1983 = Marburger, H./Nebel, B.: Natürlichsprachlicher Datenbankzugang mit HAM-ANS. In: Schmidt, J. W. [ed.] 1983, 26—41. Marciszewski 1976 = Marciszewski, W.: Ot ponj aj ti a temy predloženi j a do pon j ati j a kl j učevogo slova. In: Naučno-techničedska j a informaci j a 2, 1976, 18—25. Marciszewski 1983 = Marciszewski, W.: Spój ność strukturalna a spój ność semantyczna. In: tekst i zdanie, ed. by T. Dobrzyńska und E. Janus, Wroclaw 1983, 183—189. Marčuk 1976 = Marčuk, Jurij N.: Vyčislitel’naj a leksikografi j a. (Computational Lexicography). Moscow, VCP (Vseso j uzny j Centr Perevodov) 1976. Marčuk 1982 = Marčuk, Jurij N.: Sistema avtomatizirovannogo mašinnogo perevoda s angli j szkogo j azyka na russki j /AMPAR/. In: Andr j uščenko/ Šaljapina [eds.] 1982, 1., 99—112. Marčuk 1983 = Marčuk, Jurij N.: Problemy mašinnogo perevoda. Moskva 1983.

XIII. Bibliography

Marčuk 1984 = Marčuk, Jurij N.: Machine Translation in the U.S.S.R. In: Computers and the Humanities, Vol. 18, 1984, 39—46. Marčuk 1985 = Marčuk, Jurij N.: Metody modelirovanija perevoda. Moskva 1985. Marčuk [ed.] 1983 = Marčuk, Juri j N. [ed.]: Meždunarodnyj Seminar po Mašinnomu Perevodu — Tezisy Dokladov — Vsesoj uznyj Centr Perevodov Naučno-techničesko j Literatury i Dokumentacii. Moscow 1983. Marcus, M. P. 1980 = Marcus, Mitchell P.: A theory of syntactic recognition for natural language. Cambridge, Mass. 1980. Marcus, M. P. 1981 = Marcus, Mitchell P.: A computational account of some constraints on language. In: Joshi/Webber/Sag [eds.] 1981. Marcus, S. 1967 = Marcus, Solomon: Algebraic linguistics. Analytical models. New York — London 1967. Marcus, S. 1970 = Marcus, Solomon: Teoretikomnožestvennyje modeli jazykov. Moscow 1970. Marcus, St. 1983a = Marcus, Stephen: Spracherzeugung und Wahrnehmung — Kommunikation zwischen Sprecher und Hörer. In: Sickert [ed.] 1983, 11—34. Marcus, St. 1983b = Marcus, Stephen: Mechanismen der Spracherzeugung und Sprachwahrnehmung. In: Sickert [ed.] 1983, 35—58. Mariani 1985 = Mariani, J.: Speech Technologies in Western Europe — A Review. In: Speech Technology 3, No. 1, 1985, 48—61. Mariani 1986 = Mariani, J.: Speech Technologies in Western Europe — A Review. In: Speech Technology 3, No. 2, 1986, 26—38. Mark 1981 = Mark, W.: Representation and inference in the CONSUL system. In: International Joint Conference on Artificial Intelligence, Vancouver, British Columbia 1981, 375—381. Markel/Gray 1976 = Markel, J. D./Gray, A. H.: Linear Prediction of Speech. Berlin 1976. Markoff 1985 = Markoff, J.: Factfinder — a flexible, text-oriented database. In: Byte 3, 1985, 113—115. Maron 1982 = Maron, M. E.: Problems with fulltext searching. In: Office Automation Conference, April 5—7, 1982, Moscone Center. Maron/Kuh ns 1960 = Maron, M. E./Kuhns, J. L.: On Relevance, Probabilistic Indexing and Information Retrieval. In: Journal of the ACM 7, 1960, 216—244. Marsh /Friedman 1984 = Marsh, E./Friedman, C.: Transporting the Linguistic String Proj ect system from a medical to a Navy domain. In: ACM Transactions on Office Informations Systems 3, 1984, 121—140. Marslen-Wilson 1975 = Marslen-Wilson, William D.: Sentence perception as an interactive parallel process. In: Science 189, 1975, 226—228.

859

Marslen-Wilson 1987 = Marslen-Wilson, William D.: Functional parallelism in spoken word recognition. In: Cognition 25, 1987, 71—102. Marslen- Wilson/Tyler 1980 = Marslen-Wilson, William D./Tyler, Lorrain K.: The temporal structure of spoken language understanding. In: Cognition 8, 1980, 1—71. Martin, D./Martin 1962 = Martin, D./Martin, H.: Ein Übersetzungsprogramm Latein-Deutsch für die Rechenanlage Z 22. In: Annales Universitatis Saraviensis — Scientia — X — 4, Saarbrücken 1962, 146—162. Martin, G./Pursley 1985 = Martin, G./Pursley, R.: TI-Speech. In: Speech Technology 3, No. 1, 1985, 86—88. Martin, W. 1973 = Martin, W.: Over enkele betrekkingen tussen linguistiek en statistiek. In: Handelingen van de Kon. Zuidned. Mij . voor Taal- en Letterkunde en Geschiedenis 27, 1973, 229—241. Martin, W. 1975 = Martin, W.: Computational linguistics or What’s in a name? In: ALLC-Bulletin, vol. 3, 1975, 124—132. Martin, W. 1981 = Martin, W.: Kwantitatiewe Taalkunde. In: Geest/Dirven/Putzeys [eds.] 1981, 273—291. Martin, W./Platteau/Heymans 1986 = Martin, W./Platteau, F./Heymans, R.: Dilemma, an automatic lemmatizer. Antwerpen 1986. Martin, W. J. R./Al/van Sterkenburg 1983 = Martin, W. J. R./Al, B. P. F./Sterkenburg, P. J. G. van: On the processing of a text corpus. In: Hartmann, R. R. K. [ed.] 1983, 77—87. Martindale 1984 = Martindale, Colin: The Evolution of Aesthetic Taste. In: Gergen/Gergen [eds.] 1984, 347—370. Massow 1968 = Massow, Valentin von: Organisation der Wissenschaft und der Wissenschaftsförderung in der Bundesrepublik Deutschland. Bonn 1968. Materna/Sgall 1980 = Materna, Pavel/Sgall, Petr: Functional sentence perspective, the question test and intensional semantics. In: SMIL 1980, No. 1—2, 141—160. Materna/Sgall 1984 = Materna, Pavel/Sgall, Petr: Optional participants in a semantic interpretation (Arity of predicates and case frames of verbs). In: Sgall [ed.] 1984, 51—62. Math is 1972 = Mathis, B. A.: Techniques for the evalution and improvement od computer-produced abstracts. Ph.D. Thesis, Ohio State University, OSU-CICRC-TR-72-15. 1972. Math is/Rush 1985 = Mathis, B. A./Rush, J. E.: Abstracting. The nature and definition of abstracting. In: Dym [ed.] 1985. Math is/Rush /Young 1973 = Mathis, B. A./Rush, J. E./Young, C. E.: Improvement of automatic abstracts by the use of structural analysis. In: Journal of the American Society for Information Science 2, 1973, 101—109.

860

Math úna/Singleton [eds.] 1983 = Mathúna, Liam Mac/Singleton, David [eds.]: Language across cultures. Dublin 1983. Matsumoto/Tanaka/Hirakawa et al. 1983 = Matsumoto, Y./Tanaka, H./Hirakawa, H. et al.: BUP: A bottom-up parser embedded in Prolog. In: New Generation Computing 1, 1983, 145—158. Matth ews, G. H. 1962 = Matthews, G. H.: Analysis by synthesis of sentences of natural languages. In: Proceedings of the 1961 International Conference on Machine Translation of Languages and Applied Language Analysis, held at Teddington. Bd. 1—2, London 1962, 531—542. Matth ews, P. H. 1974 = Matthews, P. H.: Morphology. An introduction to the theory of word-structure. London 1974. Maurer 1969 = Maurer, H.: Theoretische Grundlagen der Programmiersprachen. Mannheim 1969. Maurer 1977 = Maurer, H.: Grundlagen der Programmiersprachen. Theorie der Syntax. Mannheim 1977. Maxwell 1971 = Maxwell, G.: The ontological status of theoretical entities. In: Feigl/Maxwell [eds.] 1971, 3—27. May 1982 = May, J. G.: Speech Synthesis using Allophones. In: Speech Technology 1, No. 2, 1982, 58—62. Mayer 1982 = Mayer, Otto: Syntaxanalyse. Mannheim 1982. McAllester 1982 = McAllester, David A.: Reasoning utility package user’s manual. Cambridge 1982. McCalla/Sampson 1972 = McCalla, Gordon I./Sampson, Jeffrey R.: ’MUSE’: A Model to Understand Simple English. In: Communications of the ACM 15, 1972, 29—40. McCarth y 1960 = McCarthy, John: Recursive Functions of Symbolic Expressions and their Computation by Machine. In: Communications of the ACM, Vol. 3, April 1960, 184—195. McCarth y 1980 = McCarthy, John: Lisp-Notes on Its Past and Future. Conference Record of the 1980 Lisp Conference, Stanford University. Stanford, Cal. 1980. McCart h y/Abra h ams/Edwards et al. 1963 = McCarthy, John/Abrahams, P. W./Edwards, D. J. et al.: LISP 1.5 Programmer’s Manual. Cambridge, Mass. 1963. McCarth y/Hayes 1969 = McCarthy, John/Hayes, Patrick J.: Some philosophical problems from the standpoint of artificial intelligence. In: Meltzer/ Michie [eds.] 1969, 463—502. McClelland/Rumelh art/PDP Research Group 1986 = McClelland, J. L./Rumelhart, D. E./The PDP Research Group,: Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 2: Psychological and Biological Models. Cambridge, Mass. 1986. McCloskey 1983a = McCloskey, Michael: Intui-

XIII. Bibliography

tive physics. In: Scientific American 284 (4), 1983, 122—130. McCloskey 1983b = McCloskey, Michael: Naive theories of motion. In: Gentner/Stevens [eds.] 1983, 299—324. McCord 1980 = McCord, M. C.: Slot grammars. In: AJCL 6, 1, 1980, 31—43. McCord 1985 = McCord, Michael: LMT: a Prolog-based Machine Translation system. In: Proceedings of the Conference on theoretical and methodological issues in Machine Translation of natural languages, Colgate University, Hamilton, N.Y. 1985, 179—182. McCormack/Izzo [eds.] 1980 = McCormack, William C./Izzo, Herbert J.: The Sixth LACUS Forum 1979. Columbia, South Carolina 1980. McDermott 1981 = McDermott, Drew V.: A Temporal Logic for Reasoning About Processes and Plans. Research Report No. 196, Yale University, Dept. of Computer Science. 1981. McDermott 1982a = McDermott, Drew V.: A temporal logic for reasoning about processes and plans. In: Cognitive Science 6, 1982, 101—155. McDermott 1982b = McDermott, Drew V.: Nonmonotonic logic II. In: Journal of the Association for Computing Machinery 29, 1982, 33—57. McDermott/Doyle 1980 = McDermott, Drew V./Doyle, J.: Non-monotonic Logic I. In: Artificial Intelligence 13, 41—72. McDonald, B. 1977 = McDonald, B.: The educational evaluation of NDPCAL. In: British Journal of Educational Technology 8, 1977, 176—189. McDonald, D. D. 1980 = McDonald, David D.: Natural Language Production as a Process of Decision-making under Constraint. Diss., Massachusetts Institute of Technology. Cambridge, Mass. 1980. McDonald, D. D. 1983 = McDonald, David D.: Natural Language Generation as a Computational Problem: an introduction. In: Brady/Berwick [eds.] 1983, 209—266. McDonald, D. D./Pustejovsky 1985a = McDonald, David D./Pustej ovsky, James D.: A Computational Theory of Prose Style for Natural Language Generation. In: Proceedings of the Second Conference of the European Chapter of the Association for Computational Linguistics, 1985, 187—194. McDonald, D. D./Pustejovsky 1985b = McDonald, David D./Puste j ovsky, James D.: TAG’s as a Grammatical Formalism for Generation. In: Proceedings of the 23rd Annual Meeting of the Association for Computational Linguistics, 1985, 94—103. McKeown 1982 = McKeown, Kathleen R.: Generating Natural Language Text in Response to Questions about Database Structure. Ph. D. dissertation, University of Pennsylvania. 1982. McKeown 1985 = McKeown, Kathleen R.: Text generation. Cambridge 1985.

XIII. Bibliography

McLaugh lin 1963 = McLaughlin, John C.: Graphemic-phonemic Study of a Middle English Manuscript. The Hague 1963. McNally [ed.] 1984 = McNally, Rand [ed.]: Commercial Atlas and Marketing Guide. 115th edition. Chicago 1984. McNaugh t 1983 = McNaught, J.: The generation of term definitions from an on-line terminology thesaurus. In: Proceedings of the Association for Computational Linguistics European Chapter 1st Conference, Pisa 1983, 90—95. McPeters/Th arp 1984 = McPeters, D. L./Tharp, A. L.: The influence of Rule-generated stress on computer-synthesized speech. In: International Journal of Man-Machine Studies 20, 1984, 215—226. Meac h am 1983 = Meacham, Christopher A.: Theoretical and computational considerations of the compatibility of qualitative taxonomic characters. In: Felsenstein [ed.] 1983, 304—314. Meeh an 1976 = Meehan, James R.: The Metanovel: Writing Stories by Computer. Diss., Yale University, New Haven CO. New York 1980. Meer 1985 = Meer, Veigh S.: Workshop on the Lexicon, Parsing and Semantic Interpretation. Morristown, N.J. 1985. Meh l 1986 = Mehl, Stephan: Word expert parsing und Disambiguierung. In: LDV-Forum 4, 2, 1986, 3—7. Meh lh orn 1979 = Mehlhorn, K.: Parsing macro grammars top down. In: Information and Control 40, 2, 1979, 123—143. Meier, G. F. 1983 = Meier, G. F.: Probleme der semantischen Analyse bei der automatischen Faktenrecherche. In: Grundlagen aus Kybernetik und Geisteswissenschaft 24, 1983, 165—176. Meier, H. 1967 = Meier, Helmut: Deutsche Sprachstatistik. Hildesheim 1967. Melby 1978 = Melby, Alan K.: Design and Implementation of a Computer-Assisted Translation System. In: COLING ’78, Proceedings of the 7th International Conference on Computational Linguistics, Bergen 1978, Abstract E 1, No. 56. Melby 1982 = Melby, Alan K.: Multi-Level Translation Aids in a Distributed System. In: Horecký [ed.] 1982, Amsterdam—New York—Oxford 1982, 215—220. Melby/Smit h /Peterson 1980 = Melby, Alan K./Smith, Melvin R./Peterson, Jill: ITS. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 424—429. Mel’čuk 1958 = Mel’čuk, Igor A.: O mašinnom perevode s vengerskogo j azyka na russkij . In: Problemy Kibernetiki, 1958, 222—264. Mel’čuk 1974 = Mel’čuk, Igor A.: Opyt teorii lingvističeskich modele j ’smysl 〈--〉 tekst’. Moscow 1974. Mel’čuk/Žolkovskij 1970 = Mel’čuk, Igor A./Žol-

861

kovskij , Alek K.: Towards a functioning ’meaning — text’ model of language. In: Linguistics 57, 10—47; reprinted in Rozencvejg [ed.] 1974, 1—52. Mellish 1981 = Mellish, C. S.: Coping with uncertainty — Noun phrase interpretation and Early semantic analysis. Ph.D. Thesis, Dept. of Artificial Intelligence, Edinburgh 1981. Mellish 1983 = Mellish, C. S.: Incremental semantic interpretation in a modular parsing system. In: Sparck Jones/Wilks [eds.] 1983, 148—155. Melton/Martin [eds.] 1972 = Melton, A. W./Martin, Edwin [eds.]: Coding Processes in Human Memory. Washington D. C. 1972. Meltzer/Mich ie [eds.] 1969 = Meltzer, Bernard/ Michie, Donald [eds.]: Machine Intelligence 4. Edinburgh 1969. Menzel 1984 = Menzel, Wolfgang: A graphemeto-phoneme transformation for German. In: Computers and artificial intelligence 3, 1984, 223—234. Mercier 1982 = Mercier, G.: Acoustic-phonetic Decoding and Adaptation in Continuous Speech Recognition. In: Haton [ed.] 1982, 69—100. Mergel/Paeseler 1987 = Mergel, D./Paeseler, A.: Construction of Language Models for Spoken Data Base Queries. In: Proc. 1987 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, Dallas, Texas, April 1987, 20.13.1—4. Mergenth aler 1985 = Mergenthaler, Erhard: Anwendung der Textanalyse bei gesprochener Sprache am Beispiel psychoanalytischer Gespräche. In: Sprache und Datenverarbeitung 9 (2), 1985, 16—20. Mergenth aler/Kaech ele 1985 = Mergenthaler, Erhard/Kächele, Horst: Changes of latent meaning structures in psychoanalysis. In: Sprache und Datenverarbeitung 9 (2), 1985, 21—28. Merriam 1982 = Merriam, T.: The Autorship of Sir Thomas More. In: ALLC-Bulletin 10, 1982, 1—7. Merten 1983 = Merten, K.: Inhaltsanalyse. Opladen 1983. Mervis/Rosch 1981 = Mervis, Carolyn B./Rosch, Eleanor: Categorization of natural obj ects. In: Annual Review of Psychology 32, 1981, 89—115. Messersch midt 1981 = Messerschmidt, Jan: Linguistische Datenverarbeitung mit Comskee. Stuttgart 1981. Metzing 1981 = Metzing, Dieter: Zur Entwicklung prozeduraler Dialogmodelle. In: Metzing [ed.] 1981, 51—72. Metzing 1982 = Metzing, Dieter: Prozedurale Dialogmodelle: Teil eines Neuorientierungsprogrammes der Linguistik? Hamburg 1982. Metzing [ed.] 1980 = Metzing, Dieter [ed.]: Frame Conceptions and Text Understanding. Berlin 1980. Metzing [ed.] 1981 = Metzing, Dieter [ed.]: Dialogmuster und Dialogprozesse. Hamburg 1981. Meutsch /Vieh off [eds.] 1988 = Meutsch, Dietrich/ Viehoff, Reinhold [eds.]: Comprehension of Literary Discourse. Results and Problems of Interdisciplinary Approaches. Berlin — New York 1988.

862

Mey 1971 = Mey, Jacob: Computational linguistics in the ’seventies’. In: Linguistics 74, 1971, 36—91. Mey [ed.] 1986 = Mey, J. L. [ed.]: Language and Discourse: Test and Protest. Amsterdam 1986. Meyer 1985 = Meyer, B. J. F.: Prose analysis: purposes, procedures and problems in understanding. In: Britton/Block [eds.] 1985, 11—64. Meyer-Eppler 1959 = Meyer-Eppler, Werner: Grundlagen und Anwendungen der Informationstheorie. Berlin 1959. Meyer-Eppler 1967 = Meyer-Eppler, Werner: Synthetische Sprache. Neu bearb. v. W. Endres. In: Steinbuch [ed.] 1967, 799—814. Meyer-Eppler 1969 = Meyer-Eppler, Werner: Grundlagen und Anwendungen der Informationstheorie. 2., neubearb. Auflage. Berlin 1969. Mich aelson/Morton 1972 = Michaelson, S./Morton, A. Q.: The New Stylometry: A One-Word Test of Autorship for Greek Writers. In: The Classical Quarterly 66 (n. s. 22), 1972, 89—102. Mich alski/Carbonell/Mitch ell [eds.] 1983 = Michalski, R. S./Carbonell, J./Mitchell, T. [eds.]: Machine Learning. An Artificial Intelligence Approach. Palo Alto, CA 1983. Mich ie [ed.] 1980 = Michie, D. [ed.]: Expert Systems in the Microelectronic Age. Edinburgh 1980. Mich iels 1982 = Michiels, A.: Exploiting a Large Dictionary Data Base. University of Liege, Ph.D. Dissertation. Liege 1982. Mic h iels/Mullenders/Noël 1977 = Michiels, A./ Mullenders, J./Noël, J.: Automatic skimming: The ’Lousa’ system. In: Bulletin. Association for Literary and Linguistic Computing 5, 1, 1977, 2—14. Mic h iels/Mullenders/Noël 1980 = Michiels, A./ Mullenders, J./Noël, J.: Exploiting a large data base by Longman. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 374—382. Mic h iels/Mullenders/Noël 1981 = Michiels, A./Mullenders, J./Noël, Jacques: Les dictionnaires-grammaires informatiques de l’Anglais et leur exploitation dans le pro j et Longman-Liège. In: Linguistica computazionale I,1, Pisa 1981, 43—83. Mich iels/Noël 1982 = Michiels, A./Noël, J.: Approaches to Thesaurus Production. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 227—232. Miller 1972 = Miller, George A.: English verbs of motion: A case study in semantics and lexical memory. In: Melton/Martin [eds.] 1972, 335—372. Miller/C h omsky 1963 = Miller, George A./ Chomsky, Noam: Finitary models of language users. In: Luce/Bush/Galanter [eds.] 1963, 419—491. Milne 1980 = Milne, R. W.: Parsing against lexical ambiguity. Edinburgh 1980. Milne 1982 = Milne, R. W.: An explanation for minimal attachement and right association. In: Proceedings AAAI, 1982, 88—90.

XIII. Bibliography

Mink 1982 = Mink, Gerd: Zur Stemmatisierung neutestamentlicher Handschriften. In: Bericht der Hermann-Kunst-Stiftung zur Förderung der Neutestamentlichen Textforschung für die Jahre 1979 bis 1981, Münster 1982, 100—114. Minsky 1975 = Minsky, Marvin: A Framework for Representing Knowledge. In: Winston [ed.] 1975, 211—277. Minsky 1981 = Minsky, Marvin: A Framework for Representing Knowledge. In: Haugeland [ed.] 1981, (auch in: Winston [ed.] 1975). Minsky [ed.] 1968 = Minsky, Marvin [ed.]: Semantic Information Processing. Cambridge, Mass. — London 1968. Mitch ell, P. C. 1901 = Mitchell, P. Chalmers: On the intestinal tract of birds, with remarks on the valuation and nomenclature of zoological characters. In: Transactions of the Linnean Society London (Zool. Ser. 2) 8, 1901, 173—275. Mitch ell, T. M. 1983 = Mitchell, Tom M.: Learning and Problem Solving. In: Proceedings IJCAI-83, 1139—1151. Mitch ie [ed.] 1968 = Mitchie, D. [ed.]: Machine intelligence. 3. Auflage. New York 1968. Mitre Corporation 1974 = Mitre Corporation: An Overview of the TICCIT program. Report M74-1. Washington 1976. Mitre Corporation 1976 = Mitre Corporation: An overview of the TICCIT program. Report M76-44. Washington 1976. Miyos h i/Furukawa 1985 = Miyoshi, H./Furukawa, K.: Obj ect-oriented parser in the logic programming language ESP. In: Dahl/Saint-Dizier [eds.] 1985, 107—119. Moberg [ed.] 1987 = Moberg, Thomas F.: Data Bases in the Humanities and Social Sciences. Osprey, Florida 1987. Moch mann 1980 = Mochmann, Ekkehard: Methoden und Techniken automatisierter Inhaltsanalyse. In: Mochmann [ed.] 1980, 11—46. Moch mann 1985 = Mochmann, Ekkehard: Inhaltsanalyse in den Sozialwissenschaften. In: Sprache und Datenverarbeitung 9 (2), 1985, 5—10. Moch mann [ed.] 1980 = Mochmann, Ekkehard [ed.]: Computerstrategien für die Kommunikationsanalyse. Frankfurt/M. 1980. Moessner 1978 = Moessner, Lilo: Morphonologie. Tübingen 1978. Moh ler 1985a = Mohler, Peter Ph.: Algunas Observaciones Practicas Sobre La Utilizacion Del Analisis De Contenido En Ordenador. In: Revista Internacional de Sociologia 43:1, 1985, 45—57. Moh ler 1985b = Mohler, Peter Ph.: Computerunterstützte Inhaltsanalyse — zwischen Algorithmen und Mythen. In: Sprache und Datenverarbeitung 9 (2), 1985, 11—15. Moh ler 1986 = Mohler, Peter Ph.: Politische Werte in Leitartikeln der Frankfurter Allgemeinen Zeitung. Mannheim 1986.

XIII. Bibliography

Moh ler/Züll 1983 = Mohler, Peter Ph./Züll, C.: TEXTPACK V Benutzerhandbuch. Mannheim 1983. Moh rmann/Sommerfelt/Wh atmongh [eds.] 1963 = Mohrmann, Ch./Sommerfelt, A./Whatmongh, J. [eds.]: Trends in European and American Linguistics 1930—1960. Utrecht — Antwerpen 1963. Mološnaja 1960 = Mološnaj a, T. N.: Algoritm mašinnogo perevoda s anglij skogo j azyka na russkij . In: Problemy kibernetiki 3, Moscow 1960, 209—272. Monat 1975 = Monat, Pierre: Le classement des manuscrits par l’analyse factorielle. In: Revue d’Histoire des Textes 5, 1975, 311—330. Montague 1968 = Montague, Richard: Pragmatics. In: Klibansky [ed.] 1968, 102—122. Montague 1970 = Montague, Richard: English as a Formal Language. In: Visentini et al. [eds.] 1970, 188—221. Montague 1973 = Montague, Richard: The proper treatment of quantification in ordinary English. In: Hintikka/Moravcsik/Suppes [eds.] 1973, 221—242. Montague 1974 = Montague, Richard: Formal philosophy. New Haven 1974. Montgomery 1969 = Montgomery, Christine A.: Linguistics and Automated Language Processing. In: COLING 1969 Preprints, Nr. 41. Moon 1984 = Moon, D. A.: Garbage Collection in a Large Lisp System. In: 1984 ACM Symposium on Lisp and Functional Programming, 1984, 235—246. Moon 1985 = Moon, D. A.: Architecture of the Symbolics 3600. In: The 12th Annual International Symposium on Computer Architecture, Boston, Mass., June 17—19, 1985, IEEE, SIGARCH Newsletter, Vol. 13, No. 3, 1985, 76—83. Moore, J. S. 1976 = Moore, J. S.: The Interlisp Virtual Machine Specification. Xerox PARC, CSL-76—5. Palo Alto, Cal. 1976. Moore, R. C. 1977 = Moore, Robert C.: Reasoning about knowledge and action. In: Proceedings of the Fifth International Joint Conference on Artificial Intelligence, Cambridge 1977, 223—227. Moosemiller 1986 = Moosemiller, J. P.: AT&T’s CONVERSANT (TM) I Voice System. In: Speech Technology 3, No. 2, 1986, 88—93. Moran 1980 = Moran, Douglas B.: Model-Theoretic Pragmatics: Dynamic Models and an Application to Presupposition. Ph.D. dissertation, University of Michigan. Ann Arbor 1980. Morgenstern 1986 = Morgenstern, M.: The Role of Constraints in Databases, Expert Systems, and Knowledge Representation. In: Kerschberg [ed.] 1986, 351—368. Mori 1983 = Mori, R. de: Computer Models of Speech Using Fuzzy Algorithms. New York 1983. Mori /Suen [eds.] 1985 = Mori, R. de/Suen, C. Y. [eds.]: New Systems and Architectures for Automatic Speech Recognition and Synthesis. In: NATO

863

Advanced Science Institutes Series. Morik 1982 = Morik, Katharina: Überzeugungssysteme der Künstlichen Intelligenz. Tübingen 1982. Morik 1983 = Morik, Katharina: Demand and requirements for natural language systems. In: Proceedings of the IJCAI 1983. Morik 1984 = Morik, Katharina: Partnermodellierung und Interessenprofile bei Dialogsystemen der Künstlichen Intelligenz. In: Rollinger [ed.] 1984, 249—264. Morik 1985 = Morik, Katharina: User modelling, dialogue structure and dialogue strategy in HAMANS. In: Proceedings of the second EACL conference, Geneva 1985, 268—274. Morin 1973 = Morin, Yves-Charles: Computertested transformational grammar of French. In: Linguistics 116, 1973, 49—113. Morton 1979 = Morton, A. Q.: Literary Detection. New York 1979. Moser/Stopp/Besch [eds.] 1987 f. = Moser, Hugo/ Stopp, Hugo/Besch, Werner [eds.]: Grammatik des Frühneuhochdeutschen. Heidelberg 1987 f.. Moyne 1977 = Moyne, J. A.: The computability of competence. In: Linguistics 188, 1977, 36—61. Müller, B. S. 1981 = Müller, Bernd S.: Regelgesteuerte Umsetzung von deutschen Texten in gesprochene Sprache für das Sprachausgabegerät VOTRAX. In: Schriftenreihe der Gesellschaft für Mathematik und Datenverarbeitung (GMD). Müller, B. S. 1984 = Müller, Bernd S.: Was sprechen Sprechmaschinen? In: Folia Linguistica XVIII, No. 1/2, 1984, 87—101. Müller, B. S. 1985 = Müller, Bernd S.: Regelgesteuerte Umsetzung von deutschen Texten in gesprochene Sprache für das Sprachausgabegerät VOTRAX. In: Müller [ed.] 1985, 83—112. Müller, B. S. [ed.] 1985 = Müller, Bernd S. [ed.]: Sprachsynthese. Zur Synthese von natürlich gesprochener Sprache aus Texten und Konzepten. Hildesheim — Zürich — New York 1985. Müller, R. 1971 = Müller, Rolf: Kommentar zur Transkription eines Textausschnittes aus ’Schulklassengespräch mit Günter Grass’. In: Texte gesprochener deutscher Standardsprache I. Erarbeitet im Institut für deutsche Sprache Forschungsstelle Freiburg i. Br., München — Düsseldorf 1971, 55—68. Müller, W. 1984 = Müller, Wolfgang: Zur Praxis der Bedeutungserklärung (BE) in (einsprachigen) deutschen Wörterbüchern und die semantische Umkehrprobe. In: Germanistische Linguistik, 1984, 359—461. Mugdan 1985 = Mugdan, Joachim: Pläne für ein grammatisches Wörterbuch: Ein Werkstattbericht. In: Bergenholtz/Mugdan [eds.] 1985b, 187—224. Mugdan 1986 = Mugdan, Joachim: Was ist eigentlich ein Morphem? In: Zeitschrift für Phonetik, Sprachwissenschaft und Kommunikationsforschung 39, 1986, 29—43.

864

Mulla 1984 = Mulla, H.: A PABX That Listens and Talks. In: Speech Technology 2, No. 2, 1984, 74—79. Muller 1967 = Muller, Charles: Etude de statistique lexicale, le vocabulaire du théâtre de Pierre Corneille. Paris 1967. Muraki 1982 = Muraki, Kazunori: On a Semantic Model for Multi-Lingual ParaPhrasing. In: Horecký [ed.] 1982, 239—244. Muraki 1985 = Muraki, Kazunori: NEC Machine Translation System — VENUS: Two Phase Machine Translation System. In: Proceedings of the International Symposium on Machine Translation, 1985, 39—44. Muraki 1986 = Muraki, Kazunori: VENUS: twophase machine translation system. In: Future Generations Computer Systems 2, 1986, 117—119. Muraki/Ic h iyama/Fukumoc h i 1985 = Muraki, Kazunori/Ichiyama, Shun j i/Fukumochi, Yasutomo: Augmented dependency grammar: a simple interface between the grammar rule and the knowledge. In: Proceedings of 2nd European conference in computational linguistics, Geneva 1985, 198—205. Murdock 1982 = Murdock, Bennet B., Jr.: A theory of the storage and retrieval of item and associative information. In: Psychological Review 89, 1982, 609—626. Murp h y/Smit h 1982 = Murphy, Gregory L./Smith, Edward E.: Basic level superiority in picture categorization. In: Journal of Verbal Learning and Verbal Behavior 21, 1982, 1—20. Mußtopf 1987 = Mußtopf, Günter: Desktop Publishing. In: Computer Magazin 10, 1987, 42—45. Mutsumoto/Masaki/Tanaka 1985 = Matsumoto, Yu j i/Masaki, Kiyono/Tanaka, Hozumi: Facilities of the BUP Parsing System. In: Dahl/Saint-Dizier [eds.] 1985, 97—106. Myers/Rabiner 1981 = Myers, C. S./Rabiner, L. R.: Connected Digit Recognition Using a Level Building DTW Algorithm. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-29, No. 3, 1981, 351—363. Mylopoulos/Levesque 1983 = Mylopoulos, J./Levesque, H.: An Overview of Knowledge Representation. In: Neumann, B. [ed.] 1983, 143—157. Mylopoulos/S h iba h ara/Tsotsos 1983 = Mylopoulos, J./Shibahara, T./Tsotsos, J. K.: Building Knowledge-Based Systems: The PSN Experience. In: IEEE Computer, Oct. 1983, 83—89. Nagao 1983 = Nagao, Makoto: La Traduction Automatique. In: La Recherche 150, 1983. Nagao 1985 = Nagao, Makoto: Science and Technology Agency’s Machine Translation Proj ect: Mu Machine Translation Proj ect. In: Proc. of the Second Joint Eurotra-Japanese Workshop on Machine Translation, Geneva, Switzerland, 9—10 December 1985. Geneva 1985. Nagao et al. 1977 = Nagao, Makoto et al.: Design and Implementation of Lisp Machine NK-3.

XIII. Bibliography

Kyoto University. Kyoto 1977. Nagao/Nakajima/Kitamura et al. 1979 = Nagao, Makoto/Naka j ima, K./Kitamura, K. et al.: Lisp Machine NK3 and Its Performance Evaluation. In: Proceedings of IPSJ WG Meeting, SYM7-4, 1979, (in Japanese). Nagao/Nis h ida/Tsujii 1984 = Nagao, Makoto/ Nishida, Toyoaki/Tsu j ii, Jun-ichi: Dealing with Incompleteness of Linguistic Knowledge in Language Translation — Transfer and Generation Stage of Mu Machine Translation Proj ect. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 420—427. Nagao/Tsujii 1986 = Nagao, Makoto/Tsuj ii, Junichi: The Transfer Phase of the Mu Machine Translation System. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 97—103. Nagao/Tsujii/Mitamura et al. 1980 = Nagao, Makoto/Tsuj ii, Jun-ichi/Mitamura, K. et al.: A machine translation system from Japanese into English. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 414—423. Nagao/Tsujii/Nakamura 1985 = Nagao, Makoto/Tsu j ii, Jun-ichi/Nakamura, Jun-ichi: The Japanese Government Proj ect for Machine Translation. In: Computational Linguistics 11, No. 2—3, 1985, 91—110. Nagao/Tsujii/Nakamura 1986 = Nagao, Makoto/Tsu j ii, Jun-ichi/Nakamura, Jun-ichi: Science and Technology Agency’s Mu machine translation proj ect. In: Future Generations Computer Systems 2, 1986, 125—139. Nagao/Tsujii/Ueda et al. 1982 = Nagao, Makoto/Tsuj ii, Jun-ichi/Ueda, Y. et al.: An attempt to computerize dictionary data bases. In: Goetschalckx/Rolling [eds.] 1982, 51—73. Najock 1973 = Naj ock, Dietmar: Automatic classification of texts by methods of multivariate statistics. In: Revue du LASLA (2), 1973, 31—54. Najock 1979 = Naj ock, Dietmar: A genealogical algorithm operating on minimal intersecting subgraphs. In: Irigoin/Zarri [eds.] 1979, 211—225. Najock 1980 = Na j ock, Dietmar: Ein Pilotprogramm zur automatischen Stemma-Konstruktion mit lokalen Algorithmen und erste Ergebnisse. In: Sprache und Datenverarbeitung (1), 1980, 64—82. Najock/Heyde 1982 = Na j ock, Dietmar/Heyde, Christopher: On the number of terminal vertices in certain random trees, with an application to stemma construction in philology. In: Journal of Applied Probability 19, 1982, 675—680. Nakamura/Tsujii/Nagao 1984 = Nakamura, Junichi/Tsu j ii, Jun-ichi/Nagao, Makoto: Grammar Writing System (GRADE) of Mu-Machine Translation Proj ect and its Characteristics. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 338—343.

XIII. Bibliography

Nakamura/Tsujii/Nagao 1986 = Nakamura, Junichi/Tsu j ii, Jun-ichi/Nagao, Makoto: Solutions for Problems of MT Parser. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 133—135. Namenwirth /Weber 1986 = Namenwirth, J. Zvi/ Weber, Robert P.: Culture Indicators Research: A Content Analytic Perspektive. Manuskript. 1986. Narin’jani 1979 = Narin’j ani, Aleksander S.: Proj ekt ZAPSIB — serij a lingvističeskich processorov dlj a vzaimodej stvij a s bazami dannych. In: Voprosy razrabotki prikladnych sistem, Novosibirsk 1979, 51—77. Narin’jani 1980 = Narin’j ani, Aleksandr: Interaction with a limited obj ect domain — ZAPSIB proj ect 1980. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 567—569. Narin’jani 1984 = Narin’j ani, Aleksander S.: Towards an integral model of language competence. In: Bara/Guida [eds.] 1984, 275—295. Narin’jani [ed.] 1982 = Narin’j ani, Aleksander S. [ed.]: Formal’noe predstavlenie lingvističeskoj informacii. Novosibirsk 1982. Naro 1984 = Naro, Anthony J.: Review of Brainerd 1983. In: Language 60, 1984, 929—932. Nas h -Webber 1978 = Nash-Webber, Bonnie Lynn: Inferences in an approach to discourse anaphora. TR No. 77. University of Illinois, Center for the Study of Reading 1978. Naumann, B. 1986 = Naumann, Bernd: Einführung in die Wortbildungslehre des Deutschen. 2. Aufl. Tübingen 1986. Naumann, C. L. 1975 = Naumann, Carl Ludwig: Automatische Sprachkartographie. In: Informatik Anwendungen. Beiträge zum Kolloquium am 3. und 4. Februar 1975. Wissenschaftliches Zentrum für Angewandte Informatik. Hrsg. v. Präsidenten der Technischen Hochschule Darmstadt, Darmstadt 1975, 141—164. Naumann, C. L. 1976 = Naumann, Carl Ludwig: Grundzüge der Sprachkartographie und ihrer Automatisierung. (= Gemanistische Linguistik, 1—2, 1976). Hildesheim — New York 1976. Naumann, C. L. 1977 = Naumann, Carl Ludwig: Klassifikation in der Automatischen Sprachkartographie. In: Germanistische Linguistik 3—4, 1977, 181—210. Naumann, C. L. 1982 = Naumann, Carl Ludwig: Klassifikation sprachlicher Sequenzen am Beispiel der computativen Bearbeitung von Wörtern für Sprachkarten. In: Studien zur Klassifikation. Bd. 10, 1982, 132—140. Nebeský 1978 = Nebeský, Ladislav: A proj ektivity theorem for weakly connected digraphs. In: Prague Studies in Mathematical Linguistics 6, Prague 1978, 209—213. Nebeský 1981 = Nebeský, Ladislav: On proj ektive trees. In: Prague Studies in Mathematical Linguistics 7, Prague 1981, 209—213.

865

Nelimarkka/Jäppinen/Le h tola 1984a = Nelimarkka, Esa/Jäppinen, Harri/Lehtola, Aarno: A computational model of Finnish sentence structure. In: Sågvall Hein [ed.] 1984, 169—177. Nelimarkka/Jäppinen/Le h tola 1984b = Nelimarkka, Esa/Jäppinen, Harri/Lehtola, Aarno: Two-way finite automata and dependency grammar: A parsing method for inflectional free word order languages. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 389—392. Nelimarkka/Jäppinen/Le h tola 1985 = Nelimarkka, Esa/Jäppinen, Harri/Lehtola, Aarno: Parsing an inflectional free word order language with two-way finite automata. In: O’Shea [ed.] 1985, 325—334. Nerius/Sch arnh orst [eds.] 1980 = Nerius, Dieter/ Scharnhorst, Jürgen [eds.]: Theoretische Probleme der Orthographie. Berlin 1980. Neubauer [ed.] 1983 = Neubauer, F. [ed.]: Coherence in Natural-Language Texts. (= Papers in Textlinguistics 38). Hamburg 1983. Neumann, B. 1984 = Neumann, B.: Umrisse einer Imaginationskomponente. In: Rollinger [ed.] 1984, 169—171. Neumann, B. [ed.] 1983 = Neumann, B. [ed.]: GWAI-83. 7th German Workshop on Artificial Intelligence. Berlin — Heidelberg — New York 1983. Neumann, R. 1977 = Neumann, Robert: Symbolisierungsverfahren im Rahmen der Automatischen Sprachkartographie. In: Germanistische Linguistik 3—4, 1977, 225—244. Neumann, R./Putsc h ke 1986 = Neumann, Robert/Putschke, Wolfgang: Automatisierung der etymologischen Klassifikation — eine ungenutzte Bearbeitungshilfe im ALE? In: Aspects of Language. Studies in Honour of Mario Alinei. Bd. 1: Geolinguistics, Amsterdam 1986, 149—170. Newell 1980 = Newell, Allen: Physical symbol systems. In: Cognitive Science 4, 1980, 135—184. Newell 1982 = Newell, Allen: The Knowledge Level. In: Artificial Intelligence, vol. 18, 1982, 87—127. Newmeyer/Ubell [eds.] 1986 = Newmeyer, F./Ubell, R. [eds.]: Linguistics: The Cambridge Survey. Cambridge, University Press 1986. Ney 1982 = Ney, H.: Dynamic Programming as a Technique for Pattern Recognition. In: Proceedings 6th Int. Conf. on Pattern Recognition., München 1982, 1119—1125. Ney 1983 = Ney, Hermann: Methoden der Sprachanalyse. In: Sickert [ed.] 1983, 117—154. Ney 1984 = Ney, H.: The Use of a One-Stage Dynamic Programming Algorithm for Connected Word Recognition. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-32, No. 2, 1984, 263—271. Ney/Mergel/Marcus 1986 = Ney, H./Mergel, D./Marcus, S. M.: On the automatic training of phonetic units. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP-34, Feb. 1986, 209—213.

866

Ney/Mergel/Noll et al. 1987 = Ney, H./Mergel, D./Noll, A. et al.: A Data-Driven Organization of the Dynamic Programming Beam Search for Continuous Speech Recognition. In: Proc. 1987 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, Dallas, Texas April 1987, 20.10.1—4. Ney/Noll 1988 = Ney, H./Noll, A.: Phoneme Modelling Using Continuous Mixture Densities. In: Proc. 1988 IEEE Int. Conf. on Acoustics, Speech and Signal Processing, New York April 1988, (in prep.). Nida 1946 = Nida, Eugene A.: Morphology. The Descriptive Analysis of Words. Ann Arbor 1946. Nida 1974 = Nida, Eugene A.: Morphology. The Descriptive Analysis of Words. (1. Aufl. 1946). 12. Aufl. Ann Arbor 1974. Niemann et al. 1981 = Niemann, H.: A System for Understanding Continuous Speech. In: Information Sciences 33, 1981, 87—113. Nilsson 1980 = Nilsson, Nils J.: Principles of Artificial Intelligence. Palo Alto 1980. Nilsson 1982 = Nilsson, Nils J.: Principles of Artificial Intelligence. Berlin — Heidelberg — New York 1982. Nirenburg [ed.] 1985 = Nirenburg, Sergei [ed.]: Proceedings of the Conference on Theoretical and Methodological Issues in Machine Translation of Natural Languages. Colgate University Hamilton, N.Y., August 14—16, 1985. Hamilton, N.Y. 1985. Nirenburg/Raskin/Tucker 1985 = Nirenburg, Sergei/Raskin, V./Tucker, Allen B.: Interlingua design for TRANSLATOR. In: Nirenburg [ed.] 1985, 224—244. Nisbett/Wilson 1977 = Nisbett, Richard E./Wilson, Timothy D.: Telling more than we can know: Verbal reports on mental processes. In: Psychological Review 84, 1977, 231—259. Nis h ida/Takamatsu/Kuroki 1980 = Nishida, Fuj io/Takamatsu, Shinobu/Kuroki, Hiroaki: English-Japanese Translation Through Case Structure Conversion. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 447—454. Nistor/Roman 1971 = Nistor, E./Roman, E.: Constructing automatical abstracts from kernelsentences. In: Cahiers de Linguistique Theoretique et Appliquee 8,8, 1971, 249—256. Nistor/Roman 1978 = Nistor, E./Roman, E.: Unele probleme de detaliu als rezumarii automate [On some problems of automatic abstracting]. In: Probleme de Informare si Documentare 12, 1978, 131—140 [RUM]. Noll/Poller/Rix 1987 = Noll, S./Poller, J./Rix, J.: Harmonisierung graphischer Standards. In: Informatik-Spektrum 10, 1987, 239—245. Nomura/Iida 1986 = Nomura, Hirosato/Iida, Hitoshi: English-Japanese Interactive Translation System: LUTE-AID. In: Proceedings of IAI-MT 86, 20—22 August 1986, Dudweiler 1986, 131—145.

XIII. Bibliography

Nomura/Naito/Katagiri et al. 1986 = Nomura, Hirosato/Naito, Shozo/Katagiri, Yasuhiro et al.: Translation by Understanding: A Machine Translation System LUTE. In: COLING ’86, Proceedings of the 11th International Conference of Computational Linguistics, Bonn 1986, 621—626. Noreault/Koll/McGill 1978 = Noreault, T./Koll, M./McGill, M. J.: Automatic Ranked Output from Boolean Searches in SIRE. In: Journal of the ASIS 28, 1978, 333—339. Norman 1976 = Norman, Donald A.: The role of active memory processes in perception and cognition. Vortrag auf dem 21. Internationalen Kongress für Psychologie. Paris 1976. Norman/Bobrow 1975 = Norman, Donald A./Bobrow, Daniel G.: On data-limited and resource-limited processes. In: Cognitive Psychology 7, 1975, 44—64. Norman/Rumelh art [eds.] 1975 = Norman, Donald A./Rumelhart, David E. [eds.]: Explorations in Cognition. San Francisco 1975. Norman/Rumelh art [eds.] 1978 = Norman, Donald A./Rumelhart, David E. [eds.]: Strukturen des Wissens. Wege der Kognitionsforschung. Mit einer Einführung von Hans Aebli. Stuttgart 1978. Norton 1983 = Norton, L. M.: Automated analysis of instructional text. In: Artificial Intelligence 20, 3, 1983, 307—344. Norwig 1983 = Norwig, P.: Six problems for story understanding. In: Proceedings of the AAAI 1983. Nourse 1952 = Nourse, A. E.: The Counterfeit. In: The Penguin Science Fiction Omnibus, Harmondsworth 1952, 245—267. Novotný 1981 = Novotný, Miroslav: Abstract grammatical categories. In: Prague Studies in Mathematical Lingusitics 7, Prague 1981, 151—165. Novotný 1983 = Novotný, Miroslav: On an effective construction of a grammar generating a given language. In: Prague Studies in Mathematical Linguistics 8, Prague 1983, 123—131. Nozoh oor-Farsh i 1986 = Nozohoor-Farshi, Rahman: On formalizations of Marcus’ parser. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 533—535. Nutter 1983 = Nutter, Jane Terry: What else is wrong with non-monotonic logic? In: Proceedings of the Fifth Conference of the Cognitive Science Society, 1983, 1—5. Oakey/Cawt h orn 1981 = Oakey, S./Cawthorn, R. C.: Inductive learning of pronunciation rules by hypothesis testing and correction. In: Proceedings of the 7th International Joint Conference on Artificial Intelligence, Bd. 1, 1981, 109—114. Oakman 1980 = Oakman, Robert L.: Computer Methods for Literary Research. Columbia, S. C. 1980. Oakman 1984 = Oakman, Robert L.: Computer Methods for Literary Research. Athens, Ga. 1984.

XIII. Bibliography

Oddy et al. [eds.] 1981 = Oddy, R. N. et al. [eds.]: Information Retrieval Research. London 1981. Östling 1985 = Östling, Annette: La ’two-level morphology’ et le francais. Mimeo, Uppsala universitet, Centrum för datorlingvistik. Uppsala 1985. Ogino/Sibata 1977 = Ogino, Tsunao/Sibata, Takesi: Generalization of Procedures Relating to Computer-produced Linguistic Atlases. In: Germanistische Linguistik 3—4, 1977, 55—68. Õim 1972 = Õim, Haldur: On the semantic treatment of predicative expressions. In: Kiefer/Ruwet [eds.] 1972, 360—386. Õim 1979 = Õim, Haldur: Problemy ponimanij a svj aznogo teksta. In: Vzaimodej stvie s EVM na estestvennom jazyke, Novosibirsk 1979, 19—32. Õim 1980 = Õim, Haldur: Language, meaning and human knowledge. In: Grammar and semantics, Tallinn 1980, 5—49. Õim/Koit/Litvak et al. 1984 = Õim, Haldur/Koit, M./Litvak, S. et al.: Reasoning and discourse. Papers on Artificial Intelligence, vol. 7. Tartu, Tartu State University Press 1984. Okuno/Takeuc h i/Osato et al. 1984 = Okuno, H. G./Takeuchi, I./Osato, N. et al.: TAO: A Fast Interpreter-Centered System on Lisp Machines ELIS. In: Boyer [ed.] 1984. Olive 1975 = Olive, J. P.: Fundamental frequency rules for the synthesis of simple declarative English sentences. In: Journal of the Acoustical Society of America 57, No. 2, 1975, 476—482. Olive/Nakatani 1974 = Olive, J. P./Nakatani, L. H.: Rule-synthesis of speech by word concatenation: a first step. In: Journal of the Acoustical Society of America 55, No. 3, 1974, 660—666. Olney/Lam/Yearwood 1976 = Olney, J./Lam, V./Yearwood, B.: A new technique for detecting patterns of term usage in text corpora. In: Information Processing and Management 12, 1976, 235—250. Olney/Ramsey 1972 = Olney, J./Ramsey, D.: From machine-readable dictionaries to a lexicon tester: progess, plans, and an offer. In: Computer Studies in the Humanities and Verbal Behavior 3,4, 1972, 213—220. Oltmanns/Denton 1986 = Oltmanns, S./Denton, L. W.: A Voice and Communication System for the IBM PC. In: Speech Technology 3, No. 2, 1986, 94—99. O’Malley 1973 = O’Malley, Michael: What do standard transformational grammars produce? In: International Journal of Man-Machine Studies 5, 1973, 137—202. O’Malley/Larkin/Peters 1986 = O’Malley, M. H./Larkin, D. K./Peters, E. W.: Beyond the ’Reading Machine’: Combining Smart Text-toSpeech with an AI-Based Dialogue Generator. In: Speech Technolgy 3, No. 3, 1986, 34—40. Omotayo 1984 = Omotayo, O. R.: A talking Prestel terminal. In: microprocessors and microsystems 8,

867

No. 8, 1984, 403—412. Opitz 1980 = Opitz, Otto: Numerische Taxonomie. Stuttgart—New York 1980. Organick 1973 = Organick, E. I.: Computer System Organization. In: B5700/5700 Series. Orth 1974 = Orth, Bernhard: Einführung in die Theorie des Messens. Stuttgart—Berlin—Köln— Mainz 1974. Ortmann 1976 = Ortmann, Wolf Dieter: Beispielwörter für deutsche Rechtschreibübungen. 7995 hochfrequente Wortformen der Kaeding-Zählung, rechnersortiert nach Phonem-Graphem-Beziehungen. München 1976. Orton et al. 1962—1971 = Orton, Harold et al.: Survey of English Dialects (B): The Basic Material. Vol. I-IV. Leeds 1962—1971. Ortutay/Bereczki/Gulya [eds.] 1981 = Ortutay, Gynla/Bereczki, Gábor/Gulya, János [eds.]: Congressus Quartus Internationalis Fenno-Ugristarum, Pars III. Budapest 1981. O’Sh ea [ed.] 1985 = O’Shea, Tim [ed.]: Advances in artificial intelligence. Amsterdam — New York — Oxford 1985. O’Sh ea/Eisenstadt [ed.] 1984 = O’Shea, Tim/Eisenstadt, Marc [ed.]: Artificial Intelligence — Tools, Techniques and Applications. New York 1984. O’Sh ea/Self 1983 = O’Shea, Tim/Self, J.: Learning and Teaching with Computers. Brighton 1983. Ott, N./Zoeppritz 1980 = Ott, Nikolaus/Zoeppritz, Magdalena: USL — An Experimental Information System Based on Natural Language. In: Bolc [ed.] 1980a, 255—285. Ott, W. 1978 = Ott, Wilhelm: Computertechnik im Dienst der Edition lateinischer Texte. In: Deutsche Forschungsgemeinschaft: Probleme der Edition mittel- und neulateinischer Texte. Kolloquium der Deutschen Forschungsgemeinschaft Bonn. 26.—28. Februar 1973. Hrsg. v. L. Höde und D. WuttkeBopp 1978, 151—174. Ott, W. 1979 = Ott, Wilhelm: A text processing system for the preparation of critical editions. In: Computers and the Humanities 13, 1979, 29—35. Ott, W. 1980 = Ott, Wilhelm: Bibliographie: EDV im Editionswesen. In: Sprache und Datenverarbeitung (2), 1980, 179—184. Ott, W. 1983 = Ott, Wilhelm: TUSTEP — Tübinger System von Textverarbeitungsprogrammen. Zentrum für DV der Universität Tübingen. Computerprint. Tübingen 1983. Ott, W./Gabler/Sappler 1982 = Ott, Wilhelm/ Gabler, Hans Walter/Sappler, Paul: EDV-Fibel für Editoren. Tübingen — Stuttgart 1982. Packard 1968 = Packard, David W.: A Concordance to Livy. 4 Vols. Cambridge, Mass. 1968. Padok 1986 = PADOK: Test und Vergleich von Texterschließungssystemen für das Deutsche Patentund Fachinformationssystem. Endbericht. 1. 1. 1985—31. 3. 1986. Universität Regensburg, Linguistische Informationswissenschaft. Regensburg 1986.

868

Padučeva 1985 = Padučeva, Elena V.: Vyskazyvanie i ego sootnešennost’ s dej stvitel’nost’j u. Moscow 1985. Pagan 1981 = Pagan, Frank G.: Formal specification of programming languages. Prentice Hall, N.J. 1981. Paice 1981 = Paice, C. D.: The automatic generation of literature abstracts: An approach based on the identification of self-indicating phrases. In: Oddy et al. [eds.] 1981, 172—191. Paige/Simon 1966 = Paige, J. M./Simon, Herbert A.: Cognitive Processes in Solving Algebra Word Problems. In: Kleinmuntz [ed.] 1966, 51—119. Palmer 1984 = Palmer, A.: The limits of AI: thought experiments and conceptual investigations. In: Torrance [ed.] 1984, 43—50. Palmer/Da h l/Sc h iffman et al. 1986 = Palmer, M./Dahl, D./Schiffman, R. et al.: Recovering implicit information. In: Proc. 24th Annual Meeting of the ACL, Columbia University, New York 1986, 10—18. Panevová 1982 = Panevová, Jarmila: Random Generation of Czech Sentences. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 295—300. Panevová/Oliva 1982 = Panevová, Jarmila/Oliva, Karel: On the use of Q-language for syntactic analysis of Czech. In: Explizite Beschreibung der Sprache und automatische Sprachverarbeitung VIII, Prague 1982, 108—117. Panyr 1986a = Panyr, Jiri: Automatische Klassifikation und Information Retrieval. Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung. Tübingen 1986. Panyr 1986b = Panyr, Jiri: Probabilistische Modelle in Information-Retrieval-Systemen. In: Nachrichten für Dokumentation 37, 1986, 60—66. Panyr 1986c = Panyr, Jiri: Die Theorie der FuzzyMengen und Information-Retrieval-Systeme. In: Nachrichten für Dokumentation 37, 1986, 163—168. Panyr 1987a = Panyr, Jiri: Information-RetrievalSysteme: State of Art. In: Heilmann et al. [ed.] 1987, 15—36. Panyr 1987b = Panyr, Jiri: Interaktive Retrievalstrategien: Relevanzfeedback-Ansätze. In: Nachrichten für Dokumentation 38, 1987, 145—152. Panyr 1987c = Panyr, Jiri: Conceptual Clustering and Relevance Feedback. In: International Classification 14, 1987. Papakonstantinou 1983 = Papakonstantinou, G.: A sentence generator based on an attribute grammar. In: Angewandte Informatik 25, 1983, 345—347. Papert 1980 = Papert, Seymour: Mindstorms. London 1980. Papp 1969 = Papp, Ferenc: Reverse-alphabetized Dictionary of the Hungarian Language. Akadémiai Kiadó, Budapest 1969.

XIII. Bibliography

Papp 1982 = Papp, Ferenc: Empirical data and automatic analysis. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 301—306. Papp/Szépe [eds.] 1976 = Papp, Ferenc/Szépe, Györgyi [eds.]: Papers in Computational Linguistics. Budapest — The Hague — Paris 1976. Parkison/Colby/Faug h t 1977 = Parkison, Roger C./Colby, Kenneth Mark/Faught, William S.: Conversational In: Artificial Intelligence 9, 1977, 111—134. Parret [ed.] 1976 = Parret, Hermann [ed.]: History of linguistic thought and contemporary linguistics. Berlin — New York 1976. Parrish 1962 = Parrish, Stephen M.: Problems in the Making of Computer Concordances. In: Studies in Bibliography 15, 1962, 15—31. Parrish 1967 = Parrish, Stephen M.: Computers and the Muse of Literature. In: Bowles [ed.] 1967. Parrish 1970 = Parrish, Stephen M.: Concordance-making by Computer: Its Past, Future, Techniques and Applications. In: Burebach [ed.] 1970. Paskaleva 1982a = Paskaleva, Elena: A formal procedure for Bulgarian wordform generation. In: Hajičová [ed.] 1982, 217—221. Paskaleva 1982b = Paskaleva, Elena: O vozmožnost j ach avtomatičeskogo analiza bolgarskogo teksta bez pomošči slovarj a leksem. In: Prague Bulletin of Mathematical Linguistics 37, 1982, 53—60. Paskaleva 1982c = Paskaleva, Elena: Kompj utarpomoščnik na lingvista (Computer — an assistant of the linguist). In: Bǔlgarski jezik 4, 1982. Patel/Groen 1986 = Patel, V. L./Groen, Guy J.: Knowledge-based solution strategies in medical reasoning. In: Cognitive Science 10, 1986, 91—116. Patten 1985 = Patten, Terry: A problem solving approach to generating text from systemic grammars. In: Proceedings of 2nd European conference on computational linguistics, 1985, 251—257. Paul, H. 1909 = Paul, Hermann: Prinzipien der Sprachgeschichte. 4. Auflage. Halle a. S. 1909. Paul, H./Moser/Sc h röbler 1969 = Paul, Hermann/Moser, Hugo/Schröbler, Ingeborg: Mittelhochdeutsche Grammatik. 20. Aufl. Tübingen 1969. Paul, W. 1978 = Paul, W.: Komplexitätstheorie. Stuttgart 1978. Pavlov/Angelova 1982 = Pavlov, Radoslav/Angelova, Galia: On an approach for designing linguistic processors. In: Hajičová [ed.] 1982, 222—225. Peacock 1984 = Peacock, G. E.: Humanizing the Man/Machine Interface. In: Speech Technology 2, No. 2, 1984, 106. Peckh am 1986 = Peckham, J.: VODIS — A Voice Operated Data Base Inquiry System. In: Speech Technology 3, No. 3, 1986, 56—61. Pendergraft 1967 = Pendergraft, E. D.: Translating Languages. In: Borko [ed.] 1967, 291—323.

XIII. Bibliography

Penttilä 1932 = Penttilä, Aarni: Grafeema- j a fonema suomen suhteesta. In: Virittäj ä 36, 1932, 16—26. Penttilä 1970 = Penttilä, Aarni: Zur Grundlagenforschung der geschriebenen Sprache. In: Acta societatis linguisticae Upsaliensis, nova series 2:2, 1970, 21—55. Pepper et al. 1982 = Pepper, P. et al.: Abstrakte Datentypen: Die algebraische Spezifikation von Rechenstrukturen. In: Informatik-Spektrum 5, 1982, 107—119. Pereira 1981 = Pereira, Fernando C. N.: Extraposition grammars. In: AJCL 7, 4, 1981, 243—256. Pereira 1985a = Pereira, Fernando C. N.: A new characterization of attachment preferences. In: Dowty/Karttunen/Zwicky [eds.] 1985, 307—319. Pereira 1985b = Pereira, Fernando C. N.: A structure sharing representation for unification-based grammar formalisms. In: Proceedings of the 23rd Annual Meeting of the Association for Computational Lingusitics, Chicago, Illinois 1985, 137—144. Pereira/S h ieber 1984 = Pereira, Fernando C. N./Shieber, Stuart M.: The semantics of grammar formalisms seen as computer languages. In: Proceedings of the 22nd Annual Meeting of the Association for Computational Linguistics, Menlo Park 1984, 123—129. Pereira/Warren 1980 = Pereira, Fernando C. N./Warren, David H. D.: Definite Clause Grammars for Language Analysis — a Survey of the Formalism and a Comparison with Augmented Transition Networks. In: Artificial Intelligence 13, 1980, 231—278. Pereira/Warren 1983 = Pereira, Fernando C. N./Warren, David H. D.: Parsing as deduction. In: Proceedings of 21st Annual Meeting of the Association for Computational Linguistics, Boston, Mass. 1983, 137—144. Peters, E. W. 1986 = Peters, E. W.: BST’s Text-toSpeech Product Improves Health Care Services. In: Speech Technology 3, No. 2, 1986, 101—102. Peters, P. S. 1973 = Peters, P. Stanley: On restricting dedelition transformations. In: Gross/Halle/ Schützenberger [eds.] 1973. Peters, P. S./Ritch ie 1969 = Peters, P. Stanley/Ritchie, Robert W.: Context-sensitive immediate constituent analysis — Context-free languages revisited. In: ACM Symposium on Theory of Computing, 1969. Peters, P. S./Ritch ie 1973 = Peters, P. Stanley/Ritchie, Robert W.: On the generative power of transformational grammars. In: Information Sciences 6, 1973, 49—83. Petersen 1983 = Petersen, K.: Versuch einer Bewertung verfügbarer Lemmatisierungs- und Disambiguierungsverfahren für linguistische und inhaltsanalytische Aufgabenstellungen. In: Trierer LDV Kolloquium. 1983. Beiheft Nr. 1 zum LDVForum. Frankfurt/M. 1985, 15—36. Petersen/Frackenpoh l/Dvorak et al. [Bearb.] 1982

869

= Petersen, Klaus/Frackenpohl, Gert/Dvorak, Jaroslav et al.: Linguistische Datenverarbeitungssoftware: Standard- und Entwicklungsprogramme. Mannheim 1982. Peterson 1980 = Peterson, J.: Computer programs for detecting and correcting spelling errors. In: Communications of the ACM 23, 1980, 676—687. Petöfi 1983 = Petöfi, János S.: Text, signification, models, and correlates. Some aspects of text comprehension and text interpretation. In: Rickheit/ Bock [ed.] 1983, 266—298. Petöfi 1985 = Petöfi, János S.: Aspekte der Textinterpretation — Was kann die semiologische Textologie für den Kommunikationsunterricht leisten? In: Schröder [ed.] 1985, 31—61. Petöfi [ed.] 1987 = Petöfi, János S. [ed.]: Text and Discourse Constitution. Empirical Aspects, Theoretical Approaches. Berlin — New York 1987. Petöfi/Olivi 1986 = Petöfi, János S./Olivi, Terry: Texture, composition, signification. In: Degrés 46—47, c-c27. Petöfi/Olivi 1988 = Petöfi, János S./Olivi, Terry: Understanding literary texts. A semiotic textological approach. In: Meutsch/Viehoff [eds.] 1988. Petöfi/Sözer 1987 = Petöfi, János S./Sözer, Emel: Static and dynamic aspect of text constitution. In: Petöfi [ed.] 1987. Petrick 1965 = Petrick, Stanley R.: A Recognition Procedure for Transformational Grammars. Ph.D. Thesis, Dept. of Modern Languages, M. I. T. Cambridge, Mass. 1965. Petrick 1973 = Petrick, Stanley R.: Transformational analysis. In: Rustin [ed.] 1973, 27—41. Petrick 1976 = Petrick, Stanley R.: On natural language based computer Systems. In: IBM Journal of Research and Development Vol. 20, No. 4, 1976, 314—325. Petrick 1981 = Petrick, Stanley R.: Field-testing the Transformational Question-Answering (TQA) System. In: Proceedings of the 19th Annual Meeting of the Association for Computational Linguistics, 1981, 35—36. Petrov/Avrin/Kopejkin et al. 1980 = Petrov, G. M./Avrin, S. B./Kopej kin, A. B. et al.: Sistema vvoda rečevych signalov dlj a EVM. In: Avtomatičeskoe raspoznavanie sluchovych obrazov, Erevan 1980, 280—282. Peursem 1985 = Van Peursem, R. S.: Do’s and Don’ts of Interactive Voice Design. In: SPEECH TECH 1985, 48—56. Pfaff 1983 = Pfaff, Günther E.: Zertifizierung graphischer Systeme. In: Informatik-Spektrum 6, 1983, 87—95. Pfeffer 1975 = Pfeffer, J. Alan: Grunddeutsch: Die Erarbeitung und Wertung dreier deutscher Korpora. Forschungsbericht des Institut für deutsche Sprache, 27. Tübingen 1975. Pfeffer/Loh nes [eds.] 1984 = Pfeffer, J. Alan/Lohnes, Walter F. W. [eds.]: Textkorpora 1. Einfüh-

870

rungs- und Registerband. Grunddeutsch. Texte zur gesprochenen deutschen Gegenwartssprache. Tübingen 1984. Ph ilippi 1985 = Philippi, Donald L.: Japan Intelligence 1, 4. San Francisco 1985. Ph illips, B. 1983 = Phillips, Brian: An obj ectoriented parser for text understanding. In: Proceedings of the 8th IJCAI, 1983, 690—692. Ph illips, J. D. 1986 = Phillips, John D.: A parsing tool for the natural language theme. Versions 9/10. Edinburgh 1986. Ph illips, J. D./Th ompson 1985 = Phillips, John D./Thompson, Henry S.: GPSGP — a parser for generalized phrase structure grammars. In: Linguistics 23—2, 1985, 245—261. Ph illips, J. D./Th ompson 1986 = Phillips, John D./Thompson, Henry S.: A parser for generalized phrase-structure grammars. D. A. I. Research paper no. 289. Edinburgh 1986. Ph ilps 1976 = Philps, Dennis: Dialectometry: The scientific measurement of Linguistic Distance. In: Fossat/Philps 1976, 47—67. Ph ilps 1984 = Philps, Dennis: Dialectométrie automatique. In: Goebl [ed.] 1984, 275—296. Ph ilps 1985 = Philps, Dennis: Atlas dialectométrique des pyrenées centrales. Tome première/second. Tolouse — Le Mirail 1985. Ph ilps 1986 = Philps, Dennis: L’automatisation des atlas linguistiques. In: Variation linguistique dans L’espace: Dialectologie et onomastique. (= Actes du XVIIème Congrés International des Linguistique et Philologie Romanes, Aix-en-Provence, 29 août—3 septembre 1983), Vol. 6. Piaget 1969 = Piaget, Jean: Das Erwachen der Intelligenz beim Kinde. Stuttgart 1969. Picch i 1983 = Picchi, E.: Problemi di documentazione linguistica. In: Studi di Lessicografia Italiana V, 1983, 243—252. Picch i/Calzolari 1985 = Picchi, E./Calzolari, N.: Textual perspectives through an automatized lexicon. In: Proceedings of the XIIth International ALLC Conference, Nice 1985. Pier 1983 = Pier, K. A.: A Retrospective on the Dorado, A High Performance Personal Computer. In: Thorelli [ed.] 1983. Pigott 1979 = Pigott, Ian M.: Theoretical options and practical limitations of using semantics to solve problems of natural language analysis and machine translation. In: MacCafferty/Gray [eds.] 1979, 239—268. Piirainen 1968 = Piirainen, Ilpo Tapani: Graphematische Untersuchungen zum Frühneuhochdeutschen. Berlin 1968. Piirainen 1969a = Piirainen, Ilpo Tapani: Quantitative Analyse der Graphem- und Phonemebene. In: The Prague Bulletin of Mathematical Linguistics 11, 1969, 3—15. Piirainen 1969b = Piirainen, Ilpo Tapani: Historische Graphematik und die datenverarbeitenden Methoden. In: Folia Linguistica 3, 1969, 145—152.

XIII. Bibliography

Piirainen 1981 = Piirainen, Ilpo Tapani: Handbuch der deutschen Rechtschreibung. Bochum 1981. Piirainen 1982 = Piirainen, Ilpo Tapani: Ausgleichstendenzen im Frühneuhochdeutschen. In: Neuphilologische Mitteilungen 82, 1982, 353—370. Piirainen 1983 = Piirainen, Ilpo Tapani: Entwicklung der Graphemtheorie. In: Allgemeine Sprachwissenschaft, Sprachtypologie und Textlinguistik. Festschrift für Peter Hartmann., Tübingen 1983, 249—257. Pike 1984 = Pike, Ray: Comparison of convolution and matrix distributed memory systems for associative recall and recognition. In: Psychological Review 93 (3), 1984, 281—294. Pinkal 1980 = Pinkal, Manfred: ATN-Syntax. In: Studium Linguistik 8/9, 1980, 79—89. Pinkal 1983 = Pinkal, Manfred: Logik und Lexikon. Die Semantik des Unbestimmten. Habilitationsschrift. Universität Düsseldorf 1983. Pinker 1984 = Pinker, S.: Visual Cognition: An Introduction. In: Cognition 18, 1984, 1—63. Pisoni 1982 = Pisoni, D. B.: Perception of Speech: The Human Listener as a cognitive Interface. In: Speech Technology 1, No. 2, 1982, 10—23. Pisoni/Greene/Nusbaum 1985 = Pisoni, D. B./ Greene, B. G./Nusbaum, H. C.: Some Human Factors Issues in the Perception of Synthesis Speech. In: SPEECH TECH 1985, 57—61. Pisoni/Nusbaum/Greene 1985 = Pisoni, D. B./ Nusbaum, H. C./Greene, B. G.: Perception of Synthetic Speech Generated by Rule. In: Proceedings of the IEEE 73, No. 11, 1985, 1665—1676. Plander [ed.] 1984 = Plander, I. [ed.]: Artificial intelligence and information-control systems of robots. Amsterdam 1984. Plante 1983 = Plante, P.: Le Système de programmation Deredec. In: MOTS VI, 1983. Plátek/Sgall 1978 = Plátek, Martin/Sgall, Petr: A scale of context-sensitive languages. In: Information and Control 38, 1978, 1—20. Plátek/Sgall/Sgall 1984 = Plátek, Martin/Sgall, Jiří/Sgall, Petr: A dependency base for a linguistic description. In: Sgall [ed.] 1984, 63—97. Plath 1963 = Plath, Warren: Mathematical linguistics. In: Mohrmann/Sommerfelt/Whatmongh [eds.] 1963, 21—57. Plath 1976 = Plath, Warren: REQUEST: A Natural Language Question-Answering. In: IBM Journal on Research and Development 20:4, 1976, 326—335. Platon, Ph aidros = Platon: Sämtliche Werke Bd. 4. Nach der Übersetzung von Friedrich Schleiermacher mit der Stephanus-Numerierung hrsg. v. Walter F. Otto, Ernesto Grassi und Gert Plamböck. Hamburg 1958. Pollack/Hirsc h berg/Webber 1982 = Pollack, M./Hirschberg, J./Webber, B.: User Participation in the Reasoning Processes of Expert Systems.

XIII. Bibliography

Technical Report CIS-82-9, University of Pennsylvania. July 1982. Pollard 1984 = Pollard, Carl: Generalized Phrase Structure Grammars, Head Grammars, and Natural Languages. Ph.D. dissertation, Stanford University. Stanford 1984. Pollard 1985 = Pollard, Carl: Lecture notes on head-driven phrase structure grammar. o. O. 1985. Pollard 1985b = Pollard, Carl: Phrase structure grammar without metarules. In: Proceedings of the Fourth West Coast Conference on Formal Linguistics, Los Angeles, Cal. 1985. Pollard/Creary 1985 = Pollard, Carl/Creary, L.: A computational semantics for natural language. In: Proceedings of the 23rd Annual Meeting of the Association for Computational Linguistics, Chicago, Illinois 1985, 172—179. Pollin 1975 = Pollin, Alice M.: A Concordance to the Plays and Poems of Federico Garcia Lorca. Ithaca, N.Y. 1975. Pollock/Zamora 1975 = Pollock, J. J./Zamora, A.: Automatic abstracting research at chemical abstracts service. In: Journal of Chemical Information and Computer Sciences 4, 1975, 226—233. Popov 1982 = Popov, E. V.: Obščenie s EVM na estestvennom jazyke. Moscow 1982. Popowich 1985 = Popowich, F.: Unrestricted gapping grammars. In: ?, 1985, 765—768. Popper 1973 = Popper, Karl R.: Obj ektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1973. Popplewell [ed.] 1963 = Popplewell, C. M. [ed.]: Information Processing 1962. Proceedings IFIP Congress München 1962. Amsterdam 1963. Postal 1964 = Postal, Paul M.: Limitations of phrase-structure grammars. In: The Structure of Language: Readings in the Philosophy of Language. Ed. by J. A. Fodor and J. J. Katz. Englewood Cliffs. N.J., 1964, 137—152. Postal/Langendoen 1984 = Postal, Paul M./Langendoen, Terence: English and the class of context-free languages. In: Computational Linguistics 10, 1984, 177—181. Post, E. 1944 = Post, E.: Recursive enumerable sets of positive integers and their decision problems. In: Bull. Am. Math. Soc. 50, 1944, 284—316. Post, E. 1946 = Post, E.: A variant of a recursively unsolvable problem. In: Bull. Am. Math. Soc. 52, 1946, 264—268. Post, R. 1986 = Post, Rudolf: Zettel und EDV. Methodische und praktische Probleme beim Einsatz von EDV in einem laufenden Dialektwörterbuchunternehmen. In: Friebertshäuser [ed.] 1986, 115—123. Pounder/Kommenda 1986 = Pounder, Amanda/ Kommenda, Markus: Morphological Analysis for a German Text-to-Speech System. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 263—268.

871

Prik h od’ko/Skorok h od’ko 1982 = Prikhod’ko, S. M./Skorokhod’ko, E. F.: Automatic abstracting from analysis of links between phrases. In: Automatic Documentation and Mathematical Linguistics 1, 1982, 55—65. Principles 1949 = The Principles of the International Phonetik Association. London 1949. Proudian/Pollard 1985a = Proudian, D./Pollard, Carl: Head-Driven phrase structure parsing. Palo Alto, Cal. 1985. Proudian/Pollard 1985b = Proudian, D./Pollard, Carl: Parsing head-driven phrase structure grammar. In: Proceedings of the 23rd Annual Meeting of the Association for Computational Linguistics, Chicago, Illinois 1985, 167—171. Pudlatz 1976 = Pudlatz, Hilmar: GEOMAP, ein FORTRAN-Programm zur Erzeugung von Choroplethen- und Isolinienkarten auf dem Schnelldrukker. Schriftenreihe des Rechenzentrums der Universität Münster Nr. 16. Münster 1976. Pudlatz 1977 = Pudlatz, Hilmar: Automatische Erzeugung von Isoglossen auf dem Plotter mit Hilfe von Thiessen-Polygonen. In: Germanistische Linguistik 3—4, 1977, 245—258. Pulkkis 1984 = Pulkkis, G.: On the Implementation of Recursive Computers. Helsinki University of Technology, Digital Systems Laboratory, Series B., No. 27. Otaniemi 1984. Pullum 1983 = Pullum, Geoffrey K.: Context-freeness and the computer processing of human languages. In: Proceedings of the 21st Annual Meeting of the ACL, Cambridge, Mass. 1983, 1—6. Pullum 1984a = Pullum, Geoffrey K.: On two recent attempts to show that English is not a CFL. In: Computational Linguistics 10, 1984, 182—186. Pullum 1984b = Pullum, Geoffrey K.: Syntactic and semantic parsability. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 112—122. Pullum/Gazdar 1982 = Pullum, Geoffrey K./Gazdar, Gerald: Natural languages and context-free languages. In: Linguistics and Philosophy 4, 1982, 471—504. Pulman 1983 = Pulman, G.: Generalised phrase structure grammar. In: Sparck Jones/Wilks [eds.] 1983, 117—131. Pusack/Otto 1984 = Pusack, James P./Otto, Sue E. K.: Blueprint for a comprehensive CAI curriculum. In: Computers and the Humanities 18, 1984, 195—204. Putnam 1961 = Putnam, H.: Some issues in the theory of grammar. In: Proceedings of Symposia in Applied Mathematics 12, 1961. Putsch ke 1969 = Putschke, Wolfgang: Über ein Computerprogramm zur Herstellung von Sprachkarten. In: Germanistische Linguistik 1, 1969, 45—114. Putsch ke 1972 = Putschke, Wolfgang: Planung einer Pro j ektdurchführung: Automatische Kartie-

872

rung des Atlas Linguarum Europae. In: Germanistische Lingusitik 4, 1972, 547—577. Putsch ke 1975 = Putschke, Wolfgang: Automatische Kartierung. In: Weijnen et al. 1975, 103—108. Putsch ke 1977 = Putschke, Wolfgang: Automatische Sprachkartographie: Konzeption, Probleme und Perspektiven. In: Germanistische Linguistik 3—4, 1977, 25—40. Putsch ke 1985 = Putschke, Wolfgang: Automatische Sprachkartographie: Verfahren, Anwendungen und Perspektiven. In: Werlen [ed.] 1985, 39—77. Putsch ke 1986 = Putschke, Wolfgang: Zur dialektometrischen Gliederung des deutschen Dialektgebietes. Vortrag auf der 3. Bayerisch-Österreichischen Dialektologentagung. Würzburg 6.—8. Oktober 1986. (Erscheint als Hummel/Putschke 1988 in den Tagungsberichten). 1986. Putsch ke [ed.] 1977 = Putschke, Wolfgang [ed.]: Automatische Sprachkartographie. Vorträge des Internationalen Kolloquiums zur Automatischen Sprachkartographie in Marburg vom 11.—16. September 1977 (= Germanistische Linguistik 3—4/77). Hildesheim 1977. Putsc h ke/Hummel 1988 = Putschke, Wolfgang/ Hummel, Lutz: Hochsprachliches im deutschen Dialektgebiet: Dialektometrische Untersuchungen zu einer Fringsschen These. (i. V.) 1988. Putsch ke/Neumann 1982 = Putschke, Wolfgang/ Neumann, Robert: Automatische Sprachkartographie. In: Besch/Knoop/Putschke et al. [ed.] 1982, 749—778. Putsc h ke/Rössing-Hager/Sc h mitt 1969 = Putschke, Wolfgang/Rössing-Hager, Monika/Schmitt, Ludwig Erich: Linguistische Datenverarbeitung. In: Germanistische Linguistik 1. (1969). Quasth off 1985 = Quasthoff, Uta M.: Textverstehen und Textproduktion. In: Habel [ed.] 1985, 184—248. Quemada 1973 = Quemada, B.: L’automatisation de la recherche lexicologique: etat actuel et tendences nouvelles. In: META XVIII, 1973, 1—2. Quemada 1983a = Quemada, B.: Bases de donnees informatisees et dictionnaires. In: Lexiques II, 1983, 101—120. Quemada 1983b = Quemada, B.: Presentation du Programme. In: Zampolli/Cappelli [eds.] 1983, 13—31. Quentin 1922 = Quentin, Henri: Mémoire sur l’établissement du text de la Vulgate. Rome — Paris 1922. Querido 1971 = Querido, Antonio A. M.: Les séries verbales du type ’être’, ’devenir’, ’rendre’. Report No. 2 of Canada Council, Quebec Ministry of Education. 1971. Quillian 1967 = Quillian, M. Ross: Word concepts: A theory and simulation of some basic semantic capabilities. In: Behavior Science 12, 1967, 410—430. Quillian 1968 = Quillian, M. Ross: Semantic memory. In: Minsky [ed.] 1968, 227—270.

XIII. Bibliography

Quillian 1969 = Quillian, M. Ross: The teachable language comprehender. In: Communications of the ACM 12, 1969, 459—476. Quine 1961 = Quine, W. V.: From a logical point of view. 2nd edition. New York 1961. Quirk 1968 = Quirk, Randolph: The survey of English usage. In: Quirk [ed.] 1968. Quirk [ed.] 1968 = Quirk, Randolph [ed.]: Essays on the English Language Medieval and Modern. London 1968. Quirk/Greenbaum 1973 = Quirk, Randolph/ Greenbaum, Sidney: A Concise Grammar of Contemporary English. New York 1973. Quirk/Svartvik 1979 = Quirk, Randolph/Svartvik, Jan: A Corpus of Modern English. In: Bergenholtz/Schaeder [eds.] 1979, 204—218. Raben 1969 = Raben, Joseph: The Death of the Handmade Concordance. In: Scholary Publishing 1, 1969, 61—69. Raben/Marks [eds.] 1980 = Raben, J./Marks, G. [eds.]: Data Bases in the Humanities and Social Sciences. Amsterdam — New York 1980. Rabiner 1976 = Rabiner, L. R.: Special issue in Man-Machine Communication by Voice. In: Proceedings of the IEEE 64, No. 4, 1976, 403—404. Rabiner/Levinson 1981 = Rabiner, L. R./Levinson, S. E.: Isolated and Connected Word Recognition — Theory and Selected Applications. In: IEEE Trans. on Communications, Vol. COM-29, No. 5, 1981, 621—659. Rabiner/Sch afer 1976 = Rabiner, L. R./Schafer, R. W.: Digital Teniques for Computer Voice Response: Implementations and Applications. In: Proceedings of the IEEE 64, No. 4, 1976, 416—433. Rabiner/Sch afer 1978 = Rabiner, L. R./Schafer, R. W.: Digital Processing of Speech Signals. Englewood Cliffs, N.J. 1978. Radday/Sh ore et al. 1985 = Radday, Y. T./Shore, H. et al.: Genesis, An Autorship Study in Computer-Assisted Statistical Linguistics. Rom 1985. Radford 1981 = Radford, Andrew: Transformation syntax. Cambridge 1981. Radin 1983 = Radin, L.: Low-Bit-Rate Voice Digitizers Hits the Market at 2,400 b/s. In: Speech Technology 2, No 1, 1983, 92—95. Rainer 1984 = Rainer, Franz: Das deutsche Gradadverb ’höchst’. In: Deutsche Sprache, 1984, 289—302. Ralph 1980 = Ralph, B.: Relative semantic complexity in lexical units. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 115—121. Ramani/Ch andrasekar 1986 = Ramani, S./Chandrasekar, R.: Partitioning computations and parallel processing. In: Sādhanā (Proceedings of the Indian Academy of Sciences), vol. 9, part 2, 1986, 121—137. Ramsay 1980 = Ramsay, Allan M.: Parsing English text. D.A.I. research paper 139. Edinburgh 1980.

XIII. Bibliography

Ramsay 1985a = Ramsay, Allan M.: On efficient context switching. In: The computer j ournal 28 (4), 1985, 375—378. Ramsay 1985b = Ramsay, Allan M.: Effective parsing with generalized phrase structure grammar. In: Proceedings of 2nd European conference on computational linguistics, Geneva 1985, 57—61. Rand 1961 = RAND: Six Tasks in Computational Linguistics. (Final report of work performed under U.S. Air Force contract AF 49(638)-737). Available from Office of Technical Services, Dept. of Commerce, Washington, D. C. Oct. 1961. Raph ael 1968 = Raphael, Bertram: SIR: Semantic Information Retrieval. In: Minsky [ed.] 1968, 33—134. Raskin 1985 = Raskin, Victor: Linguistics and Natural Language Processing. In: Proceedings of the Conference on Theoretical and Methodological Issues in Machine Translation of Natural Languages, Colgate University, 14—16 August 1985, Hamilton, New York 1985, 268—272. Rath ke/Fauser 1981 = Rathke, Christian/Fauser, Albrecht: Studie zum Stand der Forschung über natürlichsprachliche Frage/Antwort-Systeme. Universität Stuttgart, Institut für Informatik 1981. Rath /Resnick/Savage 1961 = Rath, G. J./Resnick, A./Savage, T. R.: The formation of abstracts by the selection of sentences. In: American Documentation 12, 1961, 139—141. Rauch 1979 = Rauch, W.: Automatic extracting as an interactive process. In: Journal of Cybernetics 9, 1979, 103—112. Rayner [ed.] 1983 = Rayner, Keith [ed.]: Eye movements in reading perceptual and language processing. New York et al. 1983. Rayner/Carlson/Frazier 1983 = Rayner, Keith/ Carlson, Marcia/Frazier, Lyn: The interaction of syntax and semantics during sentence processing. In: Journal of Verbal Learning and Verbal Behaviour 22, 1983, 358—374. Reddig 1984 = Reddig, Carola: Word Expert Parsing — ein Überblick. In: Rollinger [ed.] 1984, 77—88. Reddy 1976 = Reddy, D. R.: Speech Recognition by Machine: A Review. In: Proceedings of the IEEE, Vol. 64, No. 4, 1976, 501—531. Reddy [ed.] 1975 = Reddy, D. R. [ed.]: Speech Recognition. New York 1975. Reibel/Sc h ane [eds.] 1969 = Reibel, David A./Schane, S. A. [eds.]: Modern Studies in English. Readings in Transformational Grammar. Englewood Cliffs 1969. Reich 1969 = Reich, P. A.: The finiteness of natural language. In: Language 45, 1969, 831—843. Reich ling 1933 = Reichling, A.: Het woord, een studie omtrent de grondslag van en taalgebruik. 2. Aufl. Zwolle 1967. Reich man 1978 = Reichman, Rachel: Conversational coherency. In: Cognitive Science 2, 1978, 283—327.

873

Reich man 1981 = Reichman, Rachel: Plain Speaking: A Theory and Grammar of Spontaneous Discourse. BBN Report 4681. Cambridge, Mass. 1981. Reic h man 1985 = Reichman, Rachel: Getting computers to talk like you and me. Cambridge, Mass. 1985. Reich man-Adar 1984 = Reichman-Adar, Rachel: Extended person-machine interface. In: Artificial Intelligence 22, 1984, 157—218. Reich mann 1976 = Reichmann, Oskar: Germanistische Lexikologie. 2. Aufl. Stuttgart 1976. Reimann 1980 = Reimann, Dorothee: Bundles of syntactic rules. In: SMIL 1980, No. 4, 47—65. Reimann 1982 = Reimann, Dorothee: Büschel als syntaktische Regeln. In: Kunze [ed.] 1982, 175—192. Reimann/Rüdiger 1982 = Reimann, Dorothee/ Rüdiger, Barbara: Studie zur kompletten Wortformenanalyse. In: Kunze [ed.] 1982, 35—64. Reimer 1987 = Reimer, Ulrich: FRM: Ein FrameRepräsentationsmodell und die formale Beschreibung seiner empirischen Semantik. Diss. Konstanz 1987. Rein 1974 = Rein, Kurt: Empirisch-statistische Untersuchungen zu Verbreitung, Funktion und Auswirkung des Dialektgebrauchs in Bayern. In: Papiere zur Linguistik 8, 1974, 88—96. Reisner 1981 = Reisner, P.: Human factors studies of database query languages: a survey and assessment. In: ACM Computing Surveys 13, 1981, 13—31. Reiter 1980 = Reiter, Raimond: A logic for default reasoning. In: Artificial Intelligence 13, 1980, 81—132. Reiter 1984 = Reiter, R.: Toward a Logical Reconstruction of Relational Database Theory. In: Brodie/Mylopoulos/Schmidt [eds.] 1984, 191—233. Reitman [ed.] 1984 = Reitman, W. [ed.]: Artificial Intelligence Applications for Business. Norwood, Ablex 1984. Remmel 1979 = Remmel, Mart: Computer techniques in Balto-Finnic Historical phonetics. Eesti NSV Teaduste Akademia, Preprint KK1-11, Tallinn. (Paper presented to the Symposium of BaltoFinnic Philology, Petrozavodsk). 1979. Remmel 1980 = Remmel, Mart: Computers in the historical phonetics and phonology of Balto-Finnic languages: problems and perspectives. Eesti NSV Teaduste Akademia, Preprint KK1—14, Tallinn. (Paper presented to the Fifth International Finno-Ugric Congress, Turku). 1980. Remmel [ed.] 1979 = Remmel, Mart [ed.]: Symposium. Mathematical Processing of Cartographic Data (Tallinn, December 18—19, 1979). Summaries. Tallinn 1979. Remmel [ed.] 1981 = Remmel, Mart [ed.]: Symposium: Processing of Dialectological Data (Tallinn, December 23—25, 1981). Summaries. Tallinn 1981. Revzin 1962 = Revzin, Isaak I.: Modeli j azyka. Moscow 1962.

874

Revzin 1967 = Revzin, Isaak I.: Metod modelorovani j a i tipologi j a slav j anskich j azykov. Moscow 1967. Reyle/Frey 1983 = Reyle, Uwe/Frey, Werner: A Prolog implementation of LFG. In: Proceedings of the 8th IJCAI, 1983, 693—695. Rh odes 1961 = Rhodes, Ida: The national bureau of standards method of syntactic integration. In: Proceedings of the National Symposium on Machine Translation held at the University of California, Los Angeles 1960, Englewood Cliffs 1961, 39—44. Rh odes 1966 = Rhodes, Ida: Syntactic integration carried out mechanically. In: Automatic translation of languages. Papers presented in the NATO summer school held at Venice, July 1962, Oxford et al. 1966, 205—209. Rice 1976 = Rice, D. L.: Friends, Humans and Countryrobots: Lend me your Ears. In: BYTE 1, No. 67, 1976, 16—24. Rich 1983 = Rich, Elaine: Artificial Intelligence. New York 1983. Rich ardson 1985 = Richardson, S.: Enhanced text critiquing using a natural language parser. In: Proceedings of the 7th Conference on Computing and the Humanities, Provo, Utah 1985, forthcoming. Rickh eit/Bock [ed.] 1983 = Rickheit, G./Bock, H. [ed.]: Psycholinguistic Studies in Language Processing. Berlin — New York 1983. Rieger, B. 1974 = Rieger, Burghard: Eine tolerante Lexikonstruktur. In: Zeitschrift für Literaturwissenschaft und Linguistik (LiLi) 16, 1974, 31—47. Rieger, B. 1977 = Rieger, Burghard: Vagheit als Problem der Linguistischen Semantik. In: Sprengel/Bald/Viethen [eds.] 1977, 91—101. Rieger, B. 1979a = Rieger, Burghard: Linguistic semantics and the problem of vagueness: on analysing and representing word meaning. In: Ager/ Knowles/Smith [eds.] 1979, 271—288. Rieger, B. 1979b = Rieger, Burghard: Repräsentativität. In: Bergenholtz/Schaeder [eds.] 1979, 52—70. Rieger, B. 1981a = Rieger, Burghard: Connotative Dependency Structures in Semantic Space. In: Rieger [ed.] 1981, 622—711. Rieger, B. 1981b = Rieger, Burghard: Feasible fuzzy semantics. In: Eikmeyer/Rieser [eds.] 1981, 193—209. Rieger, B. 1984 = Rieger, Burghard: Unscharfe Wortbedeutungen — Ein quantitatives Verfahren zur lexikalischen Analyse des verwendeten Vokabulars im Rahmen eines Strukturmodells unscharfer (Fuzzy) Semantik. In: Hellmann [ed.] 1984, 293—339. Rieger, B. 1985 = Rieger, Burghard: Lexical relevance and semantic disposition. In: Seuren [ed.] 1985, 387—400. Rieger, B. [ed.] 1981 = Rieger, Burghard [ed.]: Empirical Semantics. 2 Vols. Bochum 1981. Rieger, Ch . J. 1974 = Rieger, Charles J.: Concep-

XIII. Bibliography

tual Memory. A theory and computer program for processing the meaning content of natural language utterances. Ph.D.-Thesis. Stanford 1974. Rieger, Ch . J. 1975 = Rieger, Charles J.: Conceptual memory and inference. In: Schank [ed.] 1975, 157—288. Rieger, Ch . J. 1978 = Rieger, Charles J.: Computational Linguistics. In: Dingwall [ed.] 1978, 97—134. Rieger, Ch uck 1976 = Rieger, Chuck: Viewing Parsing as Word Sense Discrimination. A Survey of Linguistic Science. Stanford 1976. Rieger, C h uck/Small 1979 = Rieger, Chuck/ Small, Steve: Word expert parsing. In: Proceedings of the 6th IJCAI, Vol. 2, Tokyo 1979, 723—728. Riesbeck 1974 = Riesbeck, Christopher K.: Computational understanding: Analysis of sentence and context. Stanford 1974. Riesbeck 1975 = Riesbeck, Christopher K.: Conceptual Analysis. In: Schank [ed.] 1975, 83—156. Riesbeck 1978 = Riesbeck, Christopher K.: An expectation-driven production system for natural language understanding. In: Waterman/HayesRoth [eds.] 1978, 399—414. Riesbeck 1982 = Riesbeck, Christopher K.: Realistic language comprehension. In: Lehnert/Ringle [eds.] 1982, 37—88. Riesbeck/Sc h ank 1978 = Riesbeck, Christopher K./Schank, Roger C.: Comprehension by computer: Expectation-based analysis of sentences in context. Research Report no. 78. Yale University. New Haven 1978. Ří h a/Mac h ová 1975 = Říha, Antonin/Machová, Svatava: On certain aspects of generative grammar testing. In: Kybernetika 11, 1975, 32—38. Rijsbergen 1977 = Rij sbergen, C. J. van: A Theoretical Basis for the Use of Co-Occurence Data in Information Retrieval. In: Journal of Docum. 33, 1977, 106—119. Rijsbergen 1979 = Rij sbergen, C. J. van: Information Retrieval. 2nd edition. London 1979. Rijsbergen [ed.] 1984 = Rij sbergen, C. J. van: Research and Development in Information Retrieval. Proceedings of the 3rd Joint BCS and ACM Symposium, Cambridge, July 2—6, 1984. Cambridge 1984. Ritch ie 1978a = Ritchie, Graeme D.: Augmented Network Grammars and Semantic Processing. Report CSR-20-78, Dept. of Computer Science, University of Edinburgh 1978. Ritch ie 1978b = Ritchie, Graeme D.: Predictions and Procedures in Semantically Based Grammar. Proceedings of the AISB/GI Conference, Hamburg. Available from Cognitive Studies Programme, University of Sussex 1978. Ritch ie 1980 = Ritchie, Graeme D.: Computational Grammar. An Artificial Intelligence Approach to Linguistic Description. (= Harvester Studies in cognitive science, 15). Brighton, Sussex — Totowa, New Jersey 1980.

XIII. Bibliography

Ritch ie 1982 = Ritchie, Graeme D.: Computational approaches to language. In: Nottingham Linguistic Circular 11, 1, 1982, 1—23. Ritch ie 1983a = Ritchie, Graeme D.: Semantics in parsing. In: King [ed.] 1983, 199—217. Ritch ie 1983b = Ritchie, Graeme D.: The implementation of a PIDGIN interpreter. In: Sparck Jones/Wilks [eds.] 1983, 69—80. Ritc h ie/Black/Pulman et al. 1985 = Ritchie, Graeme D./Black, A. W./Pulman, S. G. et al.: A dictionary and morphological analyser for English language processing systems. Department of Artificial Intelligence, University of Edinburgh, DAI Working Paper No. 179. Edinburgh 1985. Ritter 1980 = Ritter, Adolf M.: Stemmatisierungsversuche zum Corpus Dionysiacum Areopagiticum im Lichte des EDV-Verfahrens. In: Nachrichten der Akademie der Wissenschaften in Göttingen, I., 1980, Phil.-Hist. Klasse, Nr. 6. Rizzo 1985 = Rizzo, W. A.: Application of Speech Technology to Support Military Maintenance Technicians. In: Speech Technology 2, No. 4, 1985, 78—84. Roach 1984 = Roach, K.: Formal properties of head grammars. In: Manaster-Ramer [ed.] 1984. Robertson 1977 = Robertson, S. E.: Progreß in Documentation, Theory and Models in Information Retrieval. In: Journal of Docum. 33, 1977, 126—148. Robertson/Maron/Cooper 1982 = Robertson, S. E./Maron, M. E./Cooper, W. S.: Probability of Relevance: A Unification of two Competing Models for Document Retrieval. In: Inform. Technology: Research & Development 1, 1982, 1—21. Robertson/Sparck Jones 1976 = Robertson, S. E./ Sparck Jones, K.: Relevanz Weighting of Search Terms. In: Journal of the ASIS 27, 1976, 129—146. Robinet 1972 = Robinet, André: L’Operation PIM71. L’Informatique appliquee aux oeuvres completes de Malebranche. In: Revue des Sciences philosophiques et theologiques 56, 1972, 43—62. Robinet 1973 = Robinet, André: Malebranche et Leibniz a l’ordinateur: De PIM71 à MONADO 72. In: Revue Internationale de Philosophie 27, 1973, 49—65. Robinson, J. A. 1965 = Robinson, J. A.: A Machine-Oriented Logic Based on the Resolution Principle. In: Journal of the Association for Computing Machinery, Vol. 12 (1), 1965, 23—41. Robinson, J. A. 1985 = Robinson, J. A.: The Merging of Functional Programming with Relational Programming. In: Lecture Notes, Second Finnish Summer School on Theoretical Computer Science, Aug. 26—29, Abolands högskola, Parainen, Finland 1985. Robinson, J. J. 1970 = Robinson, Jane J.: Dependency structures and transformational rules. In: Language 46, 1970, 259—285. Robinson, J. J. 1975 = Robinson, Jane J.: A tuneble performance grammar. SRI, Proj ect 3804, Ar-

875

tificial Intelligence Center, Technical Note 112. Stanford 1975. Robinson, J. J. 1980 = Robinson, Jane J.: Computational aspects of the use of metarules in formal grammars. Research proposal no. ECU 80—126, R. I. International, Menlo Park, Cal. 1980. Robinson, J. J. 1982 = Robinson, Jane J.: DIAGRAM: A Grammar for Dialogues. In: Communications of the Association for Computing Machinery 5, 1982, 27—47. Roch on 1971 = Rochon, Jean-François: Système de Synthèse Transformationelle. Université de Montréal. Montréal 1971. Roeck 1985 = Roeck, M.: Weighted parsing. CLReport No. 6. Saarbrücken 1985. Rösner 1985 = Rösner, Dietmar F.: Schemata for understanding of argumentation in newspaper texts. In: Steels/Campbell [eds.] 1985, 303—311. Rösner/Laubsc h 1982 = Rösner, Dietmar F./Laubsch, Joachim H.: Formalization of argumentation structures in newspaper texts. In: Horecký [ed.] 1982, 325—330. Rössing-Hager 1970 = Rössing-Hager, Monika: Zur Herstellung von Wortregistern und MerkmalKoordinationsregistern. In: Germanistische Linguistik 2, 1970, 117—178. Rössing-Hager 1978 = Rössing-Hager, Monika: Untersuchungen zur Struktur der nominalen Wortgruppen bei Martin Luther. In: Lenders/Moser [eds.] 1978, 61—68. Rössing-Hager 1980 = Rössing-Hager, Monika: Sprachliche Mittel des Vergleichs und ihre textologische Funktion in den Flugschriften Johann Eberlins von Günzburg. In: Sappler/Straßner [eds.] 1980, 39—66. Roh rer 1986 = Rohrer, Christian: Maschinelle Übersetzung mit Unifikationsgrammatiken. In: Bátori/Weber [eds.] 1986, 75—99. Roh rer/von der Mülbe 1970 = Rohrer, Christian/ von der Mülbe, Ulrich: Der Einsatz von Computern beim Schreiben einer Transformations-Grammatik. In: Linguistik und Didaktik 1, 1970, 288—296. Rollinger 1980 = Rollinger, Claus-Rainer: Readtime-Inferenzen für semantische Netze. In: Rollinger/Schneider [eds.] 1980, 115—149. Rollinger 1983a = Rollinger, Claus-Rainer: Textverstehen und Textrepräsentation in SRL. In: Rothkegel/Sandig/Weisgerber [eds.] 1983. Rollinger 1983b = Rollinger, Claus-Rainer: Textverstehen und Textrepräsentation in SRL. KIT Report 5. Berlin 1983. Rollinger 1984a = Rollinger, Claus-Rainer: Die Repräsentation natürlichsprachlich formulierten Wissens — Behandlung der Aspekte Unsicherheit und Satzverknüpfung. In: KIT Report 26, TU Berlin, Institut für Angewandte Informatik. Rollinger 1984b = Rollinger, Claus-Rainer: Zur Repräsentation der argumentativen Struktur von Texten. In: Rollinger [ed.] 1984, 107—124.

876

Rollinger 1984c = Rollinger, Claus-Rainer: Evidenzbewertung für Fakten und Regeln. In: Rollinger [ed.] 1984, 209—219. Rollinger [ed.] 1984 = Rollinger, Claus-Rainer [ed.]: Probleme des (Text-)Verstehens. Ansätze der Künstlichen Intelligenz. Tübingen 1984. Rollinger/Horn [eds.] 1986 = Rollinger, ClausRainer/Horn, W. [eds.]: GWAI-86 und 2. Österreichische Artificial-Intelligence-Tagung. Berlin— Heidelberg—New York 1986. Rollinger/Sch neider 1983 = Rollinger, Claus-Rainer/Schneider, H. J.: Text understanding as a knowledge-based process. KIT-Report 9, Sept. 1983. Berlin 1983. Rollinger/Sc h neider [eds.] 1980 = Rollinger, Claus-Rainer/Schneider, H.-J. [eds.]: Inferenzen in natürlichsprachlichen Systemen der künstlichen Intelligenz. Berlin 1980. Rolsh oven 1978 = Rolshoven, Jürgen: Automatische Transkription französischer Texte. Tübingen 1978. Rolsh oven 1982 = Rolshoven, Jürgen: Eine selbstlernende Grammatik. In: Vennemann [ed.] 1982. Rood 1980 = Rood, David: The Siouan Languages Archive. In: Raben/Marks [eds.] 1980, 191—195. Root 1982 = Root, Rebecca: Parsing with logical forms. In: Texas Linguistic Forum 21, 1982, 179—203. Rosch 1973 = Rosch, Eleanor: Natural categories. In: Cognitive Psychology 4, 1973, 328—350. Rosch 1975 = Rosch, Eleanor: Cognitive representations of semantic categories. In: Journal of Experimental Psychological-General 104, 1975, 192—233. Rosch /Mervis/Gray et al. 1976 = Rosch, Eleanor/ Mervis, Carolyn B./Gray, Wayne D. et al.: Basic obj ects in natural categories. In: Cognitive Psychology 8, 1976, 382—440. Rosenbaum 1968 = Rosenbaum, P.: Learnability of a transformationally generated subset of English. IBM Research RC-2069 (10528). 1968. Rosengren 1972 = Rosengren, Inger: Ein Frequenzwörterbuch der deutschen Zeitungssprache. Die Welt — Süddeutsche Zeitung. Bd. 1. Lund 1972. Rosensc h ein/S h ieber 1982 = Rosenschein, J./Shieber, M.: Translating English into logical form. In: Proceedings of the 20th Meeting of the Association for Computational Linguistics, Toronto, Ontario, Canada 1982, 1—3. Roskam/Lingoes 1970 = Roskam, Edward E. C. I./Lingoes, James C.: Minissa-I. In: Behavioral Science 15, 1970, 204—205. Rosner 1983 = Rosner, Michael: Production systems. In: King [ed.] 1983, 35—58. Ross, D. 1981 = Ross, D.: Skimming the surface. In: ITL, Review of Applied Linguistics 52, 1981, 55—73. Ross, J. R. 1967 = Ross, John Robert: Constraints on variables in syntax. Ph.D. dissertation. MIT

XIII. Bibliography

Dept. of Linguistics. Cambridge, Mass. 1967. Ross, J. R. 1974 = Ross, John Robert: Excerpts from Constraints on variables in syntax. In: Harman [ed.] 1974, 165—200. Ross, J. R. 1986 = Ross, John R.: Infinite syntax. Cambridge, Mass. 1986. Ross, K. 1981 = Ross, K.: Parsing English phrase structure. Ph.D. Dissertation, Department of Linguistics, University of Massachusetts. Amherst, Mass. 1981. Ross, K. M. 1982 = Ross, Kenneth M.: An improved left-corner parsing algorithm. In: Horecký [ed.] 1982, 333—338. Rostek 1979 = Rostek, Lothar: Methoden des partiellen Parsing für das automatische Indexing. In: Kuhlen [ed.] 1979, 251—282. Rotermund 1986 = Rotermund, Hermann: Professionelle Textverarbeitung mit Personalcomputern. Ein Ratgeber für die Auswahl des richtigen Programms. Würzburg 1986. Roth acker 1982 = Rothacker, Edgar: Stellung der Netzlinguistik in der Sprachwissenschaft. In: Bátori/Krause/Lutz [eds.] 1982, 91—101. Roth acker 1985 = Rothacker, Edgar: Die Simulierung von operativen Syntax-Netzwerken durch parallele Ersetzungssysteme. In: Ballmer/Posner [eds.] 1985, 457—472. Roth kegel 1973 = Rothkegel, Annely: Feste Syntagmen. Grundlagen, Strukturbeschreibung und automatische Analyse. Tübingen 1973. Roth kegel 1985 = Rothkegel, Annely: Knowledge Representation and Text Analysis. In: Proceedings of the XIIth International ALLC Conference. Roth kegel 1986 = Rothkegel, Annely: Textverstehen und Transfer in der maschinellen Übersetzung. In: Bátori/Weber [eds.] 1986, 197—227. Roth kegel/Sandig [eds.] 1984 = Rothkegel, Annely/Sandig, Barbara [eds.]: Text — Textsorten — Semantik. Linguistische Modelle und maschinelle Verfahren. Hamburg 1984. Rot h kegel/Sandig/Weissgerber [eds.] 1984 = Rothkegel, Annely/Sandig, Barbara/Weissgerber, Monika [eds.]: Text — Textsorten — Semantik. Linguistische Modelle und maschinelle Verfahren. Hamburg 1983. Roždestvenskij 1979 = Roždestvenski j , Juri j V.: Vvedenie v obščuj u philologij u. (Introduction to general philology). Moscow 1979. Rozencvejg [ed.] 1974 = Rozencvej g, Viktor Ju. [ed.]: Machine translation and applied linguistics. Vols. 1, 2. Frankfurt/M. 1974. Rubin, A. 1973 = Rubin, Andee: Grammar for the People: Flow Charts of SHRDLU’s Grammar. MIT, AI-Memo 282. Cambridge, Mass. 1973. Rubin, G. M. 1970 = Rubin, G. M.: Computer-produced mapping of dialectal variation. In: Computers and the Humanities 4, 1970, 241—246. Rubinch ek 1983 = Rubinchek, B.: Toward Standards for Speech I/0 Systems. In: Speech Technology 1, No. 4, 1983, 40—42.

XIII. Bibliography

Rüdiger 1975 = Rüdiger, Barbara: Flexivische und Wortbildungsanalyse des Deutschen. In: Linguistische Studien, Zentralinstitut für Sprachwissenschaft, Reihe A (Sonderheft). Rüh l 1981 = Rühl, H.-W.: Über ein Wortanalyseverfahren für Vorleseautomaten. In: Acustica 48, 1981, 143—148. Ruffino 1982 = Ruffino, J. Richard: Coping with machine translation. In: Lawson [ed.] 1982, 57—60. Rumelh art 1975 = Rumelhart, David E.: Notes on a Schema for Stories. In: Bobrow/Collins [eds.] 1975, 211—236. Rumelh art 1977 = Rumelhart, David E.: Understanding and summarizing brief stories. In: LaBerge/Samuels [eds.] 1977, 265—303. Rumel h art/McClelland/PDP Researc h Group [eds.] 1986 = Rumelhart, David E./McClelland, James L./PDP Research Group [eds.],: Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge, Mass. 1986. Rush /Salvador/Zamora 1971 = Rush, L. E./Salvador, R./Zamora, A.: Automatic abstracting and indexing. In: Journal of the American Society for Information Science 4, 1971, 260—274. Rush by 1979 = Rushby, N.: Introduction to educational Computing. London 1979. Rush by [ed.] 1981 = Rushby, N. [ed.]: Selected Readings in Computer Based Learning. London 1981. Russell/Pulman/Ritc h ie et al. 1986 = Russell, G. J./Pulman, S. G./Ritchie, G. D. et al.: A Dictionary and Morphological Analyser for English. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 277—279. Rustin [ed.] 1973 = Rustin, Randall [ed.]: Natural language processing. New York 1973. Růžička 1970 = Růžička, Rudolf: Die Begriffe ’merkmalhaltig’ und ’merkmallos’ und ihre Verwendung in der generativen TransformationsGrammatik. In: Bierwisch/Heidolph [eds.] 1970, 260—285. Růžička 1980 = Růžička, Rudolf: Studien zum Verhältnis von Syntax und Semantik im modernen Russischen. Berlin 1980. Ryan 1981 = Ryan, K.: Corepresentational grammar and parsing English comparatives. In: Proceedings 19th ACL, 1981, 13—18. Sabah /Rady 1983 = Sabah, Gerard/Rady, Mohamed: A deterministic syntactic-semantic parser. In: Proceedings of the 8th IJCAI, 707—709. Sacerdotti 1977 = Sacerdotti, Earl D.: Language Access to Distributed Data with Error Recovery. In: IJCAI 5, 1977, 196—202. Sacks/Sch egloff/Jefferson 1974 = Sacks, Harvey/ Schegloff, Emanuel E./Jefferson, Gail: A simplest systematic for the organization of turn-taking for conversation. In: Language 50, 1974, 696—735. Sag/Gazdar/Wasow et al. 1985 = Sag, Ivan

877

A./Gazdar, Gerald/Wasow, Thomas et al.: Coordination and how to distinguish categories. In: Linguistics and Philosophy [to appear]. Sager 1973 = Sager, Naomi: The string parser for scientific literature. In: Rustin [ed.] 1973, 61—87. Sager 1981 = Sager, Naomi: Natural Language Information Processing: A Computer Grammar of English and Its Applications. Reading, Mass. 1981. Sager 1982 = Sager, Naomi: Syntactic formatting of science information. In: Kittredge/Lehrberger [eds.] 1982, 9—26. Sagerer 1985 = Sagerer, G.: Darstellung und Nutzung von Expertenwissen für ein Bildanalysesystem. Dissertation. Berlin 1985. Sågvall Hein 1982 = Sågvall Hein, Anna: An experimental parser. In: Horecký [ed.] 1982, 121—126. Sågvall Hein [ed.] 1984 = Sågvall Hein, Anna [ed.]: Föredrag vid de nordiska datalinguistik dagarna 1983. Uppsala 1984. Sakai/Nagao 1965 = Sakai, Toshiyuki/Nagao, Makoto: Sentence generation by semantic concordance. Preprint 22, International Conference on Computational Linguistics. 1965. Sakamoto/Sato hh /Is ikawa 1984 = Sakamoto, Yoshiyuki/Satoh, Masayuki/Ishikawa, Tetsuya: Lexicon Features for Japanese Syntactic Analysis in Mu-Proj ect-JE. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 42—47. Sakoe 1979 = Sakoe, H.: Two-Level DP-Matching — A Dynamic Programming-Based Pattern Matching Algorithm for Connected Word Recognition. In: IEEE Trans. on Acoustics, Speech and Signal Processing, Vol. ASSP 27, No. 6, 1979, 588—595. Šaljapina 1975 = Šal j apina, Zó j a M.: Sistema ARAP: slovar’, grammatika ich ispol’zovanie pri avtomatičeskom analize. In: Meždunarodny j Seminar po Mašinnomu Perevodu, Moscow 1975, 135—138. Šaljapina 1982 = Šalj apina, Zoj a M.: Sintaksis i semantika v sisteme anglo-russkogo avtomatičeskogo perevoda. In: Andr j uščenko/Šal j apina [eds.] 1982, 1., 184—204. Salkoff 1973 = Salkoff, Morris: Une grammaire en chaîne du français. Paris 1973. Salkoff 1979 = Salkoff, Morris: Analyse syntaxique du français: grammaire en chaîne. In: Linguisticae inverstigaciones, Supplementa 2. Sallis 1978 = Sallis, P. J.: A partial-parsing algorithm for natural language text using a simple grammar for arguments. In: ALLC-Bulletin 6, 2, 1978, 170—176. Salmon [ed.] 1971 = Salmon, W. C. [ed.]: Statistical explanation and statistical relevance. Pittsburgh 1971. Salomaa 1973 = Salomaa, A.: Formal Languages. New York — London 1973. Saloni/Świdziński 1981 = Saloni, Zygmunt/Świdziński, Marek: Skladnia wspólczesnego j ezyka pol-

878

skiego (Syntax of Contemporary Polish). Warsaw 1981. Salton 1968 = Salton, Gerard: Automatic Information Organization and Retrieval. New York 1968. Salton 1975 = Salton, Gerard: Dynamic Information and Library Processing. New Jersey 1975. Salton 1986 = Salton, Gerard: Another Look at Automatic Text-Retrieval Systems. In: Communications of the ACM 29, 1986, 648—656. Salton [ed.] 1971 = Salton, Gerard [ed.]: The SMART Retrieval System. New Jersey 1971. Salton/Fox/Vor h ees 1985 = Salton, Gerard/Fox, E. A./Vorhees, E.: Advanced Feedback Methods in Information Retrieval. In: Journal of the ASIS 36, 1985, 200—210. Salton/McGill 1983 (Dt. 1987) = Salton, Gerard/ McGill, Michael J.: Introduction to Modern Information Retrieval. New York — Tokyo 1983. Dt.: Information Retrieval — Grundlegendes für Informationswissenschaftler. Hamburg et al. 1987. Salton/Sch neider 1983 = Salton, Gerard/Schneider, H. J.: Research and Development in Information Retrieval. Lecture Notes in Computer Science 146. Berlin et al. 1983. Saluveer/Õim 1986 = Saluveer, Madis/Õim, Haldur: Rules and Reasoning in Text Comprehension. In: Bátori/Weber [eds.] 1986, 139—163. Sammet 1969 = Sammet, Jean E.: Programming Languages: History and Fundamentals. Englewood Cliffs, N. J. 1969. Sammon/Foley/Proctor 1970 = Sammon, J. D./Foley, D./Proctor, A.: Considerations of Dimensionality versus Sample Size. In: IEEE Symposium on Adaptive Processes. Sampson 1983a = Sampson, Geoffrey R.: Context-free parsing and the adequacy of context free grammars. In: King [ed.] 1983, 151—170. Sampson 1983b = Sampson, Geoffrey R.: Deterministic parsing. In: King [ed.] 1983, 91—116. Sanders [ed.] 1970 = Sanders, A. F. [ed.]: Acta Psychologica 33. Attention and Performance III. Amsterdam 1970. Sankoff 1972 = Sankoff, David: Reconstructing the History and Geography of an Evolutionary Tree. In: American Mathematical Monthly 79, 1972, 596—603. Sankoff 1973 = Sankoff, David: Mathematical Developments in Lexicostatistical Theory. In: Sebeok [ed.] 1973, 93—113. Sansonnet/Castan/Percebois et al. 1982 = Sansonnet, J. P./Castan, M./Percebois, C. et al.: Direct Execution of Lisp on a List-Directed Architecture. In: Proceedings of the Symposium on Architectural Support for Programming Languages and Operating Systems, Palo Alto, Cal. 1982, 132—139. Sapir 1921 = Sapir, E.: Language. New York 1921. Sappler/Straßner [eds.] 1980 = Sappler, Paul/ Straßner, Erich [eds.]: Maschinelle Bearbeitung

XIII. Bibliography

altdeutscher Texte. Beiträge zum dritten Symposion Tübingen 17.—19. Februar 1977. Tübingen 1980. Saramago 1986 = Saramago, Joâo: Differenciation lexicale. In: Geolinguistique. Bulletin du Centre de Dialectologie de l’Université des Langes et Lettres de Grenoble. Vol. II, 1—31. Sargent [ed.] 1977 = Sargent, Alice G. [ed.]: Beyond Sex Roles. St. Paul, MN 1977. Sattath /Tversky 1977 = Sattath, Samuel/Tversky, Amos: Additive similarity trees. In: Psychometrica 42, 1977, 319—345. Saukkonen 1977 = Saukkonen, Pauli: Spoken and Written Language. In: Folia Linguistica 11, 1977, 207—215. Sayce 1962 = Sayce, R. A.: The Definition of the term ’Style’. In: Proceedings of the Third Congress of the International Comparative Literature Association., The Hague 1962, 159. Sch a 1983 = Scha, R.: Logical Foundations for Question Answering. Diss. Ri j ksuniversiteit Groningen 1983. Sch aeder 1979 = Schaeder, Burkhard: Zur Methodik der Auswertung von Textkorpora für die Zwecke der Lexikographie. In: Bergenholtz/ Schaeder [eds.] 1979, 230—267. Sch aeder 1981 = Schaeder, Burkhard: Lexikographie als Praxis und Theorie. In: Reihe Germanistische Linguistik 34. Sch aeder 1986 = Schaeder, Burkhard: Die Rolle des Rechners in der Lexikographie. In: Wiegand [ed.] 1986, 243—277. Sch ank 1969 = Schank, Roger C.: A conceptual dependency representation for a computeroriented semantics. A. I. Memo-83, Comp. Sci.Dept., Stanford Univ. Stanford, Ca. 1969. Sch ank 1972 = Schank, Roger C.: Conceptual Dependency: A Theory of Natural Language Understanding. In: Cognitive Psychology 3, 1972, 552—631. Sch ank 1973 = Schank, Roger C.: Identification of Conceptualizations Underlying Natural Language. In: Schank/Colby [eds.] 1973, 187—247. Sch ank 1975a = Schank, Roger C.: Conceptual dependency theory. In: Schank [ed.] 1975, 22—82. Sch ank 1975b = Schank, Roger C.: The primitive ACTs of conceptual dependency. In: Theoretical advances in natural language processing 1, 1975, 38—41. Sch ank 1975c = Schank, Roger C.: The Structure of Episodes in Memory. In: Bobrow/Collins 1975, 237—272. Sch ank 1982a = Schank, Roger C.: Dynamic memory. A theory of reminding and learning in computers and people. Cambridge — London — New York 1982. Sch ank 1982b = Schank, Roger C.: Reminding and Memory Organization: An Introduction to MOPs. In: Lehnert/Ringle [eds.] 1982, 455—493.

XIII. Bibliography

Sch ank [ed.] 1975 = Schank, Roger C. [ed.]: Conceptual Information Processing. Amsterdam — Oxford — New York 1975. Sch ank/Abelson 1977 = Schank, Roger C./Abelson, Robert P.: Scripts, Plans, Goals and Understanding: An Inquiry into Human Knowledge Structures. Hillsdale, N.J. 1977. Sc h ank/Abelson [eds.] 1981 = Schank, Roger C./Abelson, Robert P. [eds.]: Inside Computer Understanding. Hillsdale, N.J. 1981. Sch ank/Birnbaum 1980 = Schank, Roger C./Birnbaum, L.: An integrated understander. In: AJCL 6, 1980, 13—30. Sc h ank/Colby [eds.] 1973 = Schank, Roger C./Colby, K. M. [eds.]: Computer Models of Thought and Language. San Francisco 1973. Sch ank/Goldman/Rieger et al. 1973 = Schank, Roger C./Goldman, Neil/Rieger, Chuck et al.: MARGIE: Memory, analysis, response generation, and inference in English. In: Proceedings of the Third International Joint Conference on Artificial Intelligence, 255—261. Sch ank/Lebowitz/Birnbaum 1980 = Schank, Roger C./Lebowitz, Michael/Birnbaum, Lawrence: An Integrated Understander. In: American Journal of Computational Linguistics 6, 1, 1980, 13—30. Sch ank/Nash -Webber [eds.] 1975 = Schank, Roger C./Nash-Webber, B. L. [eds.]: Proceedings of the Workshop on Theoretical Issues in Natural Language Processing. Cambridge 1975. Sch ank/Rieger 1974 = Schank, Roger C./Rieger, Charles J.: Inference and the Computer Understanding of Natural Language. In: Artificial Intelligence 5, 1974, 373—412. Sch ank/Riesbeck 1981 = Schank, Roger C./Riesbeck, Christopher K.: Inside computer understanding: five programs plus miniatures. Hillsdale, N.J. 1981. Sch anze [ed.] 1972 = Schanze, Helmut [ed.]: Literatur und Datenverarbeitung. Tübingen 1972. Sc h arfenberg/Smit h /Villani 1964 = Scharfenberg, Kenneth F./Smith, Philip H., Jr./Villani, R. D.: A Concordance Generator. In: IBM Systems Journal 3, 1964, 105—111. Sch arnh orst/Ising [eds.] 1976 = Scharnhorst, Jürgen/Ising, Erika [eds.]: Grundlagen der Sprachkultur. Beiträge der Prager Linguistik zur Sprachtheorie und Sprachpflege, Teil 1. Berlin 1976. Sch efe 1982 = Schefe, P.: Some Fundamental Issues in Knowledge Representation. In: Wahlster [ed.] 1982, 44—62. Sch enkein [ed.] 1978 = Schenkein, Jim [ed.]: Studies in the Organization of Conversational Interaction. New York 1978. Sc h euc h /Ze h npfennig 1974 = Scheuch, E. K./ Zehnpfenning, H.: Skalierungsverfahren in der Sozialforschung. In: König [ed.] 1974, 97—203. Sch euermann 1982 = Scheuermann, Ulrich: Automatische Lexikographie. In: Besch/Knoop/ Putschke et al. [eds.] 1982, 736—749.

879

Sch euermann 1986 = Scheuermann, Ulrich: Zettel oder EDV? In: Friebertshäuser [ed.] 1986, 103—114. Sch indler et al. 1983 = Schindler, S. et al.: Normungstrends im Bereich der computerunterstützten Textbearbeitung. (Arbeitspapier). TU Berlin 1983. Sch leiermach er 1829 = Schleiermacher, Friedrich: Über den Begriff der Hermeneutik mit Bezug auf F. A. Wolfs Andeutungen und Asts Lehrbuch. In: Jonas [ed.] 1835, 344—386. Sch luroff 1974 = Schluroff, Michael: Flexionsklassen von Substantiven und ihre Häufigkeitsverteilung. In: Linguistische Berichte 31, 1974, 19—30. Sch mandt 1984 = Schmandt, C.: Speech Synthesis Gives Voice Access to an Electronic Mail System. In: Speech Technology 2, No. 3, 1984, 66—68. Sch midt, J. W. [ed.] 1983 = Schmidt, J. W. [ed.]: Sprachen für Datenbanken. Berlin 1983. Sch midt, K. M. 1978 = Schmidt, Klaus M.: Conceptual Glossaries: A Tool for Medievalists. In: Computers and the Humanities 12, 1978, 19—26. Sch midt, K. M. [ed.] 1980 = Schmidt, Klaus M. [ed.]: Begriffsglossare und Indices zu Ulrich von Lichtenstein. München 1980. Sch midt, L. [ed.] 1973 = Schmidt, Lothar [ed.]: Wortfeldforschung. Zur Geschichte und Theorie des sprachlichen Feldes. Darmstadt 1973. Sch midt, W. 1968 = Schmidt, Wilhelm: Deutsche Sprachkunde. 6. Aufl. Berlin 1968. Sch miedel 1984 = Schmiedel, Albrecht: Eine Inferenzmaschine für die Verarbeitung unsicheren Wissens. In: Rollinger [ed.] 1984, 220—234. Sch mitz, K.-D. 1986 = Schmitz, Klaus-Dirk: Automatische Segmentierung natürlichsprachiger Sätze. Hildesheim — Zürich — New York 1986. Sch mitz, U. 1983 = Schmitz, U.: Zählen und Erzählen — Zur Anwendung statistischer Verfahren in der Textlinguistik. In: Zeitschrift für Sprachwissenschaft 2, 1983, 132—143. Sch molze/Lipkis 1983 = Schmolze, J. G./Lipkis, T. A.: Classification in the KL-ONE Knowledge Representation System. In: Proc. IJCAI-83, Los Altos 1983, 330—332. Sch neider, C. 1985 = Schneider, C.: Automatische Indexierung und Syntaxanalyse. Hamburg 1985. Sch neider, E. 1984 = Schneider, Edgar: Methodologische Probleme der Dialektometrie. In: Goebl [ed.] 1984, 314—335. Sch neider, E./Viereck 1984 = Schneider, E./Viereck, Wolfgang: The use of the computer in American, Canadian and British English dialectology and sociolinguistics. In: Goebl [ed.] 1984. Sch neider, H. J. 1975 = Schneider, H. J.: Compiler. Berlin 1975. Sch neider, H. J. [ed.] 1986 = Schneider, Hans-Jochen [ed.]: Lexikon der Informatik und Datenverarbeitung. 2. Auflage. München et al. 1986. Sch neider, H. J./Bollmann/Joch um et al. 1986 = Schneider, H. J./Bollmann, P./Jochum, F. et al.:

880

Leistungsbewertung von Information Retrieval Verfahren (LIVE). Abschlußbericht. TU Berlin (FB Informatik) 1986. Sch neider, H. J./Eimermach er/Günth er et al. 1981 = Schneider, H. J./Eimermacher, M./Günther, S. et al.: Automatische Erstellung semantischer Netze. Berlin 1981. Sch nelle 1966 = Schnelle, Helmut: Mathematische Linguistik. In: Zeitschrift für Mundartforschung 33, 1966, 193—206. Sch nelle 1981 = Schnelle, Helmut: Elements of theoretical net-linguistics I. In: Theoretical Linguistics 8, 1981, 67—99. Sch nelle 1982 = Schnelle, Helmut: Prozedurale Linguistik: Einige Grundüberlegungen. Hamburg 1982. Sch nelle 1983 = Schnelle, Helmut: Results, trends, and perspectives of CL and linguistics. In: The Prague Bulletin of Mathematical Linguistics, 1983, 14—16. Sch nelle 1984 = Schnelle, Helmut: Concurrent parsing in programmable logic array (PLA-) nets — problems and proposals. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 150—152. Sch nelle 1985a = Schnelle, Helmut: Meine Forschung in Berlin. In: Ballmer/Posner [eds.] 1985, 475—483. Sch nelle 1985b = Schnelle, Helmut: Symbol- and feature-stream processors and their simulation on electronic worksheets. Universität Bochum, Sprachwiss. Institut 1985. Sch nelle 1987a = Schnelle, Helmut: Linguistic Research in the Context of Cognitive Science and Artificial Intelligence. GENET, Universität Bochum, Sprachwissenschaftliches Institut [1987]. Sch nelle 1987b = Schnelle, Helmut: The challange of concrete linguistic description: Connectionism, massively parallel distributed processing net-linguistics. GENET, 24. Oct. 1987, Universität Bochum, Sprachwissenschaftliches Institut 1987. Sch nelle/Job 1983 = Schnelle, Helmut/Job, D. M.: Elements of theoretical linguistics, Part 2.: Phonological nets. In: Theoretical Linguistics 10, 1983, 179—203. Sch oph aus 1969 = Schophaus, Renate: Automatische Herstellung wortgeographischer Karten. In: Niederdeutsches Wort 9, 1969, 97—115. Sch ott 1975 = Schott, Gerda: Automatische Deflexion unter Verwendung eines Minimalwörterbuchs. Bericht 7514. TU München. Abteilung Mathematik. München 1975. Sch ott 1978 = Schott, Gerda: Automatische Deflexion deutscher Wörter unter Verwendung eines Minimalwörterbuchs. In: Sprache und Datenverarbeitung 2, 1978, 62—77. Sch roeder 1984 = Schroeder, M. R.: Speech Technology for All Seasons (Keynote Address at Speech Tech ’84 Luncheon). In: SPEECH TECH

XIII. Bibliography

1984, 87—90. Sch roeder [ed.] 1985 = Schroeder, M. R. [ed.]: Speech and Speaker Recognition. Basel 1985. Sch röder, H. [ed.] 1985 = Schröder, H. [ed.]: Aspekte einer Fremdsprachenphilologie. Jyväskylä 1985. Sch röder, P./Steger 1981 = Schröder, P./Steger, H.: Dialogforschung. Jahrbuch 1980 des Institut für deutsche Sprache. Düsseldorf 1981. Sch ubert 1984 = Schubert, Lenhart K.: On parsing preferences. In: COLING ’84, Proceedings of the Tenth International Conference on Computational Linguistics, Stanford 1984, 247—250. Sch ützeich el [ed.] 1985 = Schützeichel, Rudolf [ed.]: Gießener Flurnamen-Kolloquium. 1. bis 4. Oktober 1984. Heidelberg 1985. Sch uh mach er 1982 = Schuhmacher, Helmut: Zur maschinellen Erstellung eines Valenzregisters. In: Fix/Rothkegel/Stegentritt [eds.] 1982, 129—148. Sch ulte-Tigges 1974 = Schulte-Tigges, Friedhelm: Sitzungsbericht zum Symposium ’Linguistische Datenverarbeitung’, Darmstadt 23.—25. April 1974. Darmstadt, Institut für Nichtnumerik 1974. Sch ulz von Th un 1977 = Schulz von Thun, F.: Psychologische Vorgänge in der zwischenmenschlichen Kommunikation. In: Fittkau/Müller-Wolf/ Schulz von Thun [eds.] 1977, 9—100. Sc h warze/Wunderlic h [eds.] 1985 = Schwarze, Chr./Wunderlich, D. [eds.]: Handbuch der Lexikologie. Königstein/Ts. 1985. Sciarone 1983 = Sciarone, B.: Analyse semantique, l’homme et la machine. In: Lexique II, 1983, 132—146. Sclater 1983 = Sclater, N.: Introduction to Electronic Speech Synthesis. Indianapolis, Indiana 1983. Scragg 1976 = Scragg, Greg: Semantic Nets and Memory Models. In: Charniak/Wilks [eds.] 1976, 101—128. Searle 1969 = Searle, John R.: Speech Acts. An Essay in the Philosophy of Language. Cambridge 1969. Searle 1971 = Searle, John R.: Sprechakte. Ein philosophischer Essay. Aus dem Englischen von R. und R. Wiggershaus. Frankfurt 1971. Searle/Kiefer/Bierwisch [eds.] 1980 = Searle, John R./Kiefer, Ferenc/Bierwisch, Manfred [eds.]: Speech act theory and pragmatics. Dordrecht 1980. Sebeok [ed.] 1960 = Sebeok, Thomas A. [ed.]: Style in language. Cambridge, Mass. 1960. Sebeok [ed.] 1973 = Sebeok, Thomas A. [ed.]: Current Trends in Linguistics. Vol. 11: Diachronic, Areal, and Typological Linguistics. The Hague — Paris 1973. Sedelow/Sedelow [eds.] 1979 = Sedelow, Walter A./Sedelow, Sally Yeates [eds.]: Computers in language research. Formal methods. The Hague 1979. Sedelow/Sedelow [eds.] 1983 = Sedelow, Walter A./Sedelow, Sally Yeates [eds.]: Computers in

XIII. Bibliography

language research 2. Berlin — New York — Amsterdam 1983. Sedogbo 1985 = Sedogbo, Célestin: Tree grammar: a Prolog implementation of the string grammar of French. In: Proceedings COGNITIVA85-II, 1985, 893—896. Seelbach 1975 = Seelbach, D.: Computerlinguistik und Dokumentation. (UTB 468). München 1975. Seidel/Rubin [eds.] 1977 = Seidel, R. J./Rubin, M. [eds.]: Computers and Communications: Implications for Education. New York 1977. Selivanova/C h oroševskij 1980 = Selivanova, N. V./Choroševskij , V. F.: Morfologičeskij komponent predstavlenij a znanij j azyka ATNL. In: Predstavlenie znanij v sistemach iskusstvennogo intellekta, Moscow 1980, 141—145. Selkirk 1982 = Selkirk, E. O.: The syntax of words. Cambridge, Mass. 1982. Seppänen 1976 = Seppänen, Jouko: Videoclavis — A Universal Programmable Human Interface. Report No. 25, Computing Centre, Helsing University of Technology. Helsinki 1976. Seppänen 1980 = Seppänen, Jouko: Soft Display Keyboard for Kanj i Input. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 287—294. Serebrennikow 1975 = Serebrennikow, Boris A.: Allgemeine Sprachwissenschaft. Bd. 2: Die innere Struktur der Sprache. Dt. von Hans Zikmund und Günter Feudel. Berlin 1975. Sereda 1982 = Sereda, Stanley P.: Practical experience of machine translation. In: Lawson [ed.] 1982, 119—123. Seuren [ed.] 1985 = Seuren, Pieter A. M. [ed.]: Meaning and the lexicon. Dordrecht — Cinnaminson, N.J. 1985. Séguy 1971 = Séguy, Jean: La relation entre la distance spaciale et la distance lexicale. In: Revue de Linguistique Romane 35, 1971, 335—357. Séguy 1973a = Séguy, Jean: Dialectométrie. In: J. Séguy: Atlas Linguistique de la Gascogne. Complément du Volume VI, Paris 1973, 21—30. Séguy 1973b = Séguy, Jean: La dialectométrie dans l’Atlas linguistique de la Gascogne. In: Revue de Linguistique Romane 37, 1973, 1—24. SFB 100 [ed.] 1980 = SFB 100, Proj ektbereich A, Universität Saarbrücken [ed.]: SALEM — Ein Verfahren zur automatischen Lemmatisierung deutscher Texte. Tübingen 1980. Sgall 1963 = Sgall, Petr: The intermediate language in machine translation and the theory of grammar. In: Proceedings of the 26th Annual Meeting of the American Documentation Institute, New York 1963, 41—42. Sgall 1964 = Sgall, Petr: Zur Frage der Ebenen im Sprachsystem. In: Travaux linguistiques de Prague 1, 1964, 95—106. Sgall 1966 = Sgall, Petr: Generative Beschreibung und die Ebenen des Sprachsystems. In: Zeichen und System der Sprache 3, Berlin 1966, 225—239.

881

Sgall 1967a = Sgall, Petr: Functional sentence perspective in a generative description. In: Prague Studies in Mathematical Linguistics 2, 1967, 203—225. Sgall 1967b = Sgall, Petr: Generativni popis j azyka a česká declinace. Prague 1967. Sgall 1968 = Sgall, Petr: Generation, production, and translation. In: Prague Bulletin of Mathematical Linguistics 8, 1968, 3—13. Sgall 1982 = Sgall, Petr: Natural language understanding and the perspectives of question answering. In: Horecký [ed.] 1982, 357—364. Sgall 1983 = Sgall, Petr: On the notion of the meaning of the sentence. In: Proceedings of the XIIIth International Congress of Linguistics, Tokyo 1983, 782—786. Sgall 1986 = Sgall, Petr: Towards a theory of phonemic orthography. In: Explizite Beschreibung der Sprache und automatische Textbearbeitung XII, 1986, 1—46. Sgall [ed.] 1984 = Sgall, Petr [ed.]: Contributions to functional syntax, semantics, and language comprehension. Prague — Amsterdam 1984. Sgall/Hajičová 1970 = Sgall, Petr/Haj ičová, Eva: A functional generative description (Background and framework). In: Prague Bulletin of Mathematical Linguistics 14, 1970, 3—38; reprinted in Klein/ Stechow [eds.] 1974, 1—53. Sgall/Hajičová/Benešová 1973 = Sgall, Petr/Ha j ičová, Eva/Benešová, Eva: Topic, focus and generative semantics. Kronberg/Taunus 1973. Sgall/Hajičová/Panenová 1986 = Sgall, Petr/Ha j ičová, Eva/Panenová, Jarmila: The meaning of the sentence in its semantic and pragmatic aspects. Prague — Dordrecht, Holl. 1986. Sgall/Nebesky/Goralčiková et al. 1969 = Sgall, Petr/Nebesky, Ladislav/Goralčiková, Alla et al.: A functional approach to syntax in a generative description of language. New York 1969. Sgurev 1985 = Sgurev, Vassil: Artificial intelligence in Bulgaria. In: ECCAI Newsletter, Vol. 2, No. 2, 1985, 1—3. Sh annon 1949 = Shannon, Claude E.: Communication in the Presence of Noise. In: Proc. Inst. Radio Engrs. 37:10. hS annon/Weaver 1948 = Shannon, Claude E./Weaver, Warren: The Mathematical Theory of Communication. In: Bell Techn. J. 27, 1948, 379—623 (repr. in book form Urbana 1949). Sh apiro, E. Y. 1983 = Shapiro, E. Y.: Japan’s Fifth Generation Computers Proj ect — A Trip Report. Rehovot, Israel 1983. Sh apiro, E. Y./Takeuch i 1983 = Shapiro, E. Y./Takeuchi, A.: Obj ect Oriented Programming in Concurrent Prolog. In: New Generation Computing 1, 1983, 25—48. Sh apiro, S. C. 1982 = Shapiro, Stuart C.: Generalized Augmented Transition Network Grammars for Generation from Semantic Networks. In: Ameri-

882

can Journal on Computational Linguistics 8, 1982, 12—25. Sh eil 1983 = Sheil, B.: Power Tools for Programmers. In: Datamation, Feb. 1983, 131—144. Sh erman 1974 = Sherman, D.: A new computer format for Webster’s Seventh Collegiate Dictionary. In: Computers and the Humanities VIII, 1974, 21—26. Sh erwood/Sh erwood 1982 = Sherwood, J. N./ Sherwood, B. A.: Computer Voices and Ears Furnish Novel Teaching Options. In: Speech Technology 1, No. 3, 1982, 46—51. Sh i/Fu 1982 = Shi, Quing-Yun/Fu, K. S.: Efficient error correcting parsing for (attributed and stochastic) tree grammars. In: Information Sciences 26, 2, 1982, 159—188. Sh ieber 1983a = Shieber, Stuart M.: Direct parsing of ID/LP grammars. In: Linguistics and Philosophy 7, 1983, 135—154. Sh ieber 1983b = Shieber, Stuart M.: Sentence disambiguation by a shift-reduce parsing technique. In: Proceedings of the 21st Annual Meeting of the Association for Computational Linguistics, 15—17 June, 1983, 113—118. Sh ieber 1983c = Shieber, Stuart M.: Sentence disambiguation by a shift-reduce parsing technique. In: Proceedings of the 8th IJCAI. Sh ieber 1985a = Shieber, Stuart M.: An introduction to unification-based approaches to grammar. Stanford 1985. Sh ieber 1985b = Shieber, Stuart M.: Evidence against the context-freeness of natural language. In: Linguistics and Philosophy 8, 1985, 333—343. Sh ieber 1985c = Shieber, Stuart M.: Criteria for designing computer facilities for linguistic analysis. In: Linguistics 23—2, 189—211. Sh ieber 1986 = Shieber, Stuart M.: An introduction to unification-based approaches to grammar. CSLI lecture notes number 4. Chicago 1986. Sh ieber/Karttunen/Pereira 1984 = Shieber, Stuart M./Karttunen, Lauri/Pereira, Fernando C. N.: Notes from the unification underground: A compilation of papers on unification-based grammar formalisms. Technical Report 327, Artificial Intelligence Center, SRI International. Menlo Park, Cal. 1984. Sh ieber/Stucky/Uszkoreit et al. 1983 = Shieber, Stuart M./Stucky, S./Uszkoreit, Hans et al.: Formal constraints on metarules. In: Proceedings of the 21st Annual Meeting of the Association for Computational Linguistics, 1983, 22—27. Sh ieber/Uszkoreit/Pereira et al. 1983 = Shieber, Stuart M./Uszkoreit, Hans/Pereira, Fernando C. N. et al.: The Formalism and Implementation of PATR-II. In: Grosz/Stickel [eds.] 1983, 39—79. Sh illcock 1982 = Shillcock, R.: The on-line resolution of pronominal anaphora. In: Language and Speech 25, IV, 1982, 385—402. hS imada/Yamaguc h i/Sakamura 1976 = Shimada, T./Yamaguchi, Y./Sakamura, K.: A Lisp

XIII. Bibliography

Machine and Its Evaluation. In: Trans. IECEJ, Vol. 59D, No. 6, 1976, 406—413. Sh in 1981 = Shin, S.: A computer linguistic study of German syntax. In: Language Research 17, 57—84. Sh irai 1983 = Shirai, H.: Deterministic parser. In: Proceedings of the ICOT Workshop on NonTransformational Grammars., Tokyo 1983, 57—61. Sh neiderman 1978 = Shneiderman, B.: Improving the human factors aspect of data base interactions. In: ACM Transactions on Database Systems Vol. 3, No. 4, 1978, 417—439. Sh neiderman [ed.] 1978 = Shneiderman, B. [ed.]: Databases: Improving usability and responsiveness. Proceedings, Haifa, August 1978. New York et al. 1978. hS neiderman/Mayer 1979 = Shneiderman, B./Mayer, R.: Syntactic/semantic interactions in programmer behavior: A model and experimental results. In: International Journal of Computers and Information Science 7, 1979, 219—239. Sh ortlife 1976 = Shortlife, E. H.: Computer-based Medical Consultations: MYCIN. New York 1976. Sh uy 1966 = Shuy, Roger W.: An automatic retrieval program for the Linguistic Atlas of the United States and Canada. In: Garvin/Spolsky [eds.] 1966, 60—75. Sh uy 1977 = Shuy, Roger W.: Some Problems in Preparing Dialect Data for Processing. In: Germanistische Linguistik 3—4, 1977, 145—158. hS uy/McCreedy/Firsc h ing 1977 = Shuy, Roger W./McCreedy, Lynn/Firsching, John: Toward the Description of Areal Norms of Syntax: Some Methodological Suggestions. In: Germanistische Linguistik 3—4, 1977, 367—390. Sickert [ed.] 1983 = Sickert, K. [ed.]: Automatische Spracheingabe und Sprachausgabe. Analyse, Synthese und Erkennung menschlicher Sprache mit digitalen Systemen. Unter Mitarbeit von R. Geppert, M. Kuhn, S. Marcus, H. Ney. Haar bei München 1983. Sidner 1980 = Sidner, Candice L.: Protocolls of users manipulating visually presented information with natural language. In: Proceedings of the 1983 NYU Symposium Artificial Intelligence. Applications for Business, May 18—20. Sidner 1983a = Sidner, Candice L.: Focussing in the Comprehension of Definite Anaphora. In: Brady/Berwick [eds.] 1983, 267—330. Sidner 1983b = Sidner, Candice L.: Protocolls of users manipulating visually presented information with natural language. In: Proceedings of the 1983 NYU Symposium Artificial Intelligence. Applications for Business, May 18—20, New York University 1983. Sidner 1985 = Sidner, Candice L.: Plan parsing for intended response recognition in discourse. In: Computational Intelligence 1, 1985. Siekmann [ed.] 1981 = Siekmann, J. [ed.]: GWAI81. German Workshop on Artificial Intelligence. Berlin — Heidelberg — New York 1981.

XIII. Bibliography

Sigurd 1982 = Sigurd, Bengt: Commentator: a computer model of verbal production. In: Linguistics 20, 1982, 611—632. Sigurd 1983 = Sigurd, Bengt: Commentator: a Computer Model of Verbal Production. In: Linguistics 20, 1983, 611—632. Sigurd 1984 = Sigurd, Bengt: Computer Simulation of Spontaneous Speech Production. In: COLING ’84, Proceedings of the Tenth International Conference on Computational Linguistics, Stanford 1984, 79—84. Sigurd/Svartvik [eds.] 1981 = Sigurd, Bengt/ Svartvik, Jan [eds.]: Proceedings of AILA (Association Internationale de Linguistique Appliquée) Conference in Copenhagen. Lund 1981. Siliakus 1979 = Siliakus, Hendricus J.: In Search of a Common Vocabulary for the Social Sciences and the Humanities — a Report. In: Bergenholtz/ Schaeder [eds.] 1979, 148—170. Silva/Dwiggins 1980 = Silva, G./Dwiggins, D.: Toward a PROLOG text grammar. In: SIGART Newsletter 73, 1980, 20—25. Simmons 1965 = Simmons, Robert F.: Answering English Questions by Computer: a Survey. In: Communications of the ACM 8, 1965, 53—70. Simmons 1970 = Simmons, Robert F.: Natural Language Question Answering Systems: 1969. In: Communications of the ACM, Vol. 13, No. 1, 1970, 15—30. Simmons 1973 = Simmons, Robert F.: Semantic Networks: Their Computation and Use for Understanding English Sentences. In: Schank/Colby [eds.] 1973, 63—113. Simmons 1982 = Simmons, Robert F.: A Narrative Schema in Procedural Logic. In: Clark/Tärnlund [eds.] 1982. Simmons 1984 = Simmons, Robert F.: Computations from the English: A procedural logic approach for representing and understanding English texts. Englewood Cliffs, N.J. 1984. Simmons/Slocum 1972 = Simmons, Robert F./Slocum, Jonathan: Generating English Discourse from Semantic Networks. In: Communications of the Association for Computing Machinery 15, 1972, 891—905. Sinclair 1982 = Sinclair, John McH.: Reflections on Computer Corpora in English Language Research. In: Johansson [ed.] 1982, 1—24. Sinclair [ed.] 1987 = Sinclair, John M. [ed.]: Looking Up. An account of the COBUILD Proj ect in lexical computing and the development of the Collins COBUILD English Language Dictionary. London — Glasgow 1987. Sippu/Soisalon-Soininen o. J. = Sippu, S./Soisalon-Soininen, E.: Parsing theory. o. O. o. J.. Sjölin 1970 = Sj ölin, Bo: Die ’Fivelgoer’ Handschrift. Band I: Einleitung und Text. Den Haag 1970. Skolnik 1979 = Skolnik, H.: Historical development of abstracting. In: Journal of Chemical Infor-

883

mation and Computer Science 4, 1979, 215—218. Skorokh od’ko 1972 = Skorokhod’ko, E. F.: Adaptive method of automatic abstracting and indexing. In: IFIP Congress 71, Lj ublj ana — Amsterdam 1972, 1179—1182. Slaby/Spellmann 1980 = Slaby, Wolfgang A./Spellmann, Fritz Peter: Automatische Übersetzung von Texten in gesprochene Sprache. In: Wossidlo [ed.] 1980, 64—72. Slack 1984 = Slack, Jon M.: A parsing architecture based on distributed memory machines. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 92—95. Sledge [ed.] 1979 = Sledge, D. [ed.]: Microcomputers in Education. London 1979. Slocum 1981 = Slocum, Jonathan: A practical comparison of parsing strategies. In: Proceedings of the 19th Annual ACL Conference, 1981, 1—6. Slocum 1984a = Slocum, Jonathan: Machine translation: its history, current status, and future prospects. Linguistic research center, University of Texas, Working paper LRS-84-3. Austin, Texas 1984. Slocum 1984b = Slocum, Jonathan: METAL: the LRC Machine Translation system. Lugano Tutorial on Machine Translation. Lugano 1984. Slocum 1985 = Slocum, Jonathan: A Survey of Machine Translation: Its History, Current Status, and Future Prospects. In: Computational Linguistics 11, No. 1, 1985, 1—17. Slocum [ed.] 1985 = Slocum, Jonathan [ed.]: Special Issues on Machine Translation. (= Computational Linguistics 11, No. 1, 2 and 3). 1985. Slocum/Bennett/Bear et al. 1984 = Slocum, Jonathan/Bennett, Winfield S./Bear, John et al.: METAL: The LRC machine translation system. Linguistics research center working paper LRC-84-2. Austin, Texas 1984. Slype/Guinet/Seitz et al. 1983 = Slype, G. van/ Guinet, I. F./Seitz, F. et al.: Better translation for better communication. Oxford — New York 1983. Small, D. W./Weldon 1977 = Small, D. W./Weldon, L. J.: The efficiency of retrieving information from computers using natural and structured query languages. Report SAI-78-655-WS, Science Applications. Arlington, Va. Sept. 1977. Small, S. 1981a = Small, Steven: A Theory of Word-Based Natural Language Understanding. Technial Report No. 954, Dept. of Computer Science. University of Maryland. Maryland 1981. Small, S. 1981b = Small, Steven: Viewing Word Expert Parsing as Linguistic Theory. In: Proceedings of IJCAI-7, 1981. Small, S. 1983 = Small, Steven: Parsing as CoOperative Distributed Inference. Understanding Through Memory Interactions. In: King [ed.] 1983, 247—275. Small, S./Cottrell/Sh astri 1982 = Small, Steven/ Cottrell, G./Shastri, L.: Toward connectionist parsing. In: Proceedings AAAI, 1982, 247—250.

884

Small, S./Rieger 1982 = Small, Steven/Rieger, C.: Parsing and Comprehending with Word Experts. In: Lehnert/Ringle [eds.] 1982, 89—147. Smith , B. C. 1982 = Smith, B. C.: Reflection and Semantics in a Procedural Language. PhD Thesis, MIT-LCS-TR-272. Cambridge, Mass. 1982. Smith , C. 1982 = Smith, C.: Microcomputer in Education. London 1982. Smith , D. L. 1970 = Smith, Donald L.: A Study of Japanes Sentence Complement Construction. Ph.D. dissertation, University of Michigan. Ann Arbor 1970. Smith , D. L. 1975 = Smith, Donald L.: From remote structures to surface structures without the cycle — a computational study. In: International Journal of Man-Machine Studies 7, 1975, 751—800. Smith , J. B. 1984 = Smith, John B.: A New Environment for Literary Analysis. In: Perspectives in Computing 4, 2/3, 1984, 20—31. Smith , J. C. 1982 = Smith, J. C.: Parsing fancy. In: Quinquereme 5, 1, 1982, 75—78. Smith , J. M. 1983 = Smith, Joan M.: Transmitting Text: A Standard Way of Communicating Characters. In: ALLC Bulletin, Vol. 11, 1983, 31—38, 63—67. Smith , N. V. [ed.] 1982 = Smith, Neil V. [ed.]: Mutual knowledge. London — New York 1982. Smith , P. H. 1969 = Smith, Philip H., Jr.: The State of the ICRH Concordance Generator. In: ICRH Newsletter 4, 1969, 1—4. Smith , P. H. 1980 = Smith, Philip H., Jr.: WATCON: A Concordance Generator Program Package. Waterloo 1980. Smith , P. R. 1981 = Smith, P. R.: Computer Assisted Learning. Oxford 1981. Smith , R. N. 1971 = Smith, Raoul N.: A Computer Simulation of Phonetic Change. In: ITL, Ti j dschrift voor Toegepaste Linguistiek 5, 1971, 82—89. Smith , R. N./Maxwell 1977 = Smith, R. N./Maxwell, E.: An English dictionary for computerized syntactic and semantic processing. In: Zampolli/ Calzolari [eds.] 1977, 303—322. Sneath /Sokal 1973 = Sneath, Peter H. A./Sokal, Robert R.: Numerical Taxonomy. The principles and practice of numerical classification. San Francisco 1973. Snell [ed.] 1979 = Snell, B. M. [ed.]: Translating and Computer. North Holland 1979. Sodeur 1974 = Sodeur, Wolfgang: Empirische Verfahren zur Klassifikation. (= Scheuch, Erwin K./Sahner, H. [eds.]: Studienskripten zur Soziologie, Bd. 42). Stuttgart 1974. Sokal/Sneath 1963 = Sokal, R. R./Sneath, P. H. A.: Principles of numerical taxonomy. San Francisco 1963. Solms/Wegera [forth coming] = Solms, Hans-Joachim/Wegera, Klaus-Peter: Grammatik des Frühneuhochdeutschen. Flexion der Adj ektive. In: Moser/Stopp/Besch [eds.] 1987 f. Somers 1980 = Somers, Harold L.: ISSCO*PTO-

XIII. Bibliography

SYS. Brief description and user manual. ISSCO, Working paper No. 41. Geneva 1980. Somers 1983 = Somers, Harold L.: Small-Scale Machine Translation Using a Microprocessor. In: Marčuk [ed.] 1983, 16—17. Somers 1986 = Somers, Harold L.: Valency and Case in Computational Linguistics. Edinburgh University Press 1986. Sond h eimer/Weisc h edel/Bobrow 1984 = Sondheimer, Norman K./Weischedel, Ralph M./Bobrow, Robert J.: Semantic Interpretation Using KLONE. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 101—107. Sondrup/Inglis 1982 = Sondrup, Steven P./Inglis, Craig M.: Konkordanz zu den Gedichten Hugo von Hofmannsthals. Provo, Utah 1982. Sowa 1984 = Sowa, J. F.: Conceptual Structures — Information Processing in Mind and Machine. Reading, Mass. 1984. Sparck Jones 1981 = Sparck Jones, Karen: Information Retrieval Experiment. London et al. 1981. Sparck Jones 1983 = Sparck Jones, Karen: So what about parsing compound nouns? In: Sparck Jones/Wilks [eds.] 1983, 164—168. Sparck Jones 1984 = Sparck Jones, Karen: Natural language and databases again. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 182—183. Sparck Jones/Kay 1976 = Sparck Jones, Karen/ Kay, Martin: Linguistics and Information Science. 1973. Deutsche Übersetzung von Elisabeth Couper und Rainer Kuhlen. München 1976. Sparck Jones/Wilks [eds.] 1983 = Sparck Jones, Karen/Wilks, Yorick [eds.]: Automatic Natural Language Parsing. Chichester — New York 1983. Speech Research 1980 = Speech Research: Progress Report on Speech Research ’79. Speech Processing Section, Information Sciences Division, Electrotechnical Laboratory, Agency of Industrial Science and Technology, Ministry of International Trade and Industry, Japan 1980. SPEECH TECH 1984 = SPEECH TECH: The Official Proceedings of SPEECH TECH ’84. Voice Input/Output Applications Show and Conference. New York 1984. SPEECH TECH 1985 = SPEECH TECH: The Official Proceedings of SPEECH TECH ’85. Voice Input/Output Applications Show and Conference. New York 1985. Spellmann 1981 = Spellmann, Fritz Peter: Automatische Übersetzung von Texten des Deutschen in gesprochene Sprache. In: Schriftenreihe des Rechenzentrums der Universität Münster (55). Spencer 1973 = Spencer, Nancy J.: Differences Between Linguists and Nonlinguists in Intuitions of Grammaticality-Acceptability. In: Journal of Psycholinguistic Research 2, 83—98.

XIII. Bibliography

Spevack 1968—75 = Spevack, Marvin: A Complete and Systematic Concordance to the Works of Shakespeare. 9 Vols. Hildesheim 1968—75. Spevack 1973a = Spevack, Marvin: The Harvard Concordance to Shakespeare. Cambridge 1973. Spevack 1973b = Spevack, Marvin: Concordances, Old and New. In: Computer Studies in the Humanities and Verbal Behaviour 4, 1973, 17—19. Spinner 1974 = Spinner, H.: Pluralismus als Erkenntnismodell. Frankfurt 1974. Spoerl 1984 = Spoerl, J.: AI Environment Speeds Software Development — Symbolic Processing Offers Integrated Tools That Shorten the Edit-Compile-Debug Cycle. In: Hyvönen/Seppänen/Syr j änen [eds.] 1984. Spoh rer/Brown/Hoch sch ild et al. 1980 = Spohrer, J. C./Brown, P. F./Hochschild, P. H. et al.: Partial Traceback in Continuous Speech Recognition. In: Proceedings Int. Conf. on Cybernetics and Society, Cambridge, Mass. 1980, 36—42. Spranger 1950 = Spranger, Eduard: Lebensformen. Neuausgabe Tübingen 1950. Sprengel/Bald/Viet h en [eds.] 1977 = Sprengel, Konrad/Bald, Wolf-Dietrich/Viethen, Heinz Werner [eds.]: Semantik und Pragmatik. Akten des 11. Linguistischen Kolloquiums, Aachen 1976. Bd. 2. Tübingen 1977. Sprowl/Applegate/Evens et al. 1986 = Sprowl, J./Applegate, K./Evens, M. et al.: Human interfaces in a legal expert system. In: AFIPS National Computer Conference, 1986, 135—142. Stabler 1983 = Stabler, E. P., Jr.: Deterministic and bottom-up parsing in Prolog. In: Proceedings AAAI, 1983, 383—386. Stäblein/Zöfel 1976 = Stäblein, Gerhard/Zöfel, Peter: Das Computerprogramm PRINTERMAP zur Herstellung von Choroplethen-Karten. In: Kartographische Nachrichten 26, 1976, 128—140. Stallmann 1979 = Stallmann, R. M.: Emacs — The Extensible, Customizable, Self-Documenting Display Editor. Memo. No. 519, MIT AI Laboratory. Cambridge, Mass. 1979. Starke 1980 = Starke, Peter H.: Petri-Netze — Grundlagen, Anwendungen, Theorie. Berlin 1980. Starosta 1985 = Starosta, Stanley: The end of phrase structure as we know it. Linguistic agency, Paper No. 147. Trier 1985. Starosta/Nomura 1986 = Starosta, Stanley/Nomura, Hirosato: Lexicase Parsing: A Lexicon-driven Approach to Syntactic Analysis. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 127—132. Steedman 1985 = Steedman, M.: Dependency and coordination in the grammar of Dutch and English. In: Language, Vol. 61, No. 3, 1985, 523—568. Steele 1980 = Steele, G. L.: The Definition and Implementation of a Computer Programming Language Based on Constraints. MIT-AI-TR-595, PhD Thesis. Cambridge, Mass. 1980.

885

Steele 1983 = Steele, G. L. Jr.: Common Lisp Reference Manual. Carnegie-Mellon University, Department of Computer Science. Pittsburgh, Pennsylvania 1983. Steele/Sussman 1980 = Steele, G. L./Sussman, G. J.: Design of a LISP-based microprocessor. In: Communications of the ACM, Vol. 23, No. 11, 1980, 628—645. Steels/Campbell [eds.] 1985 = Steels, L./Campbell, J. A. [eds.]: Progress in artificial intelligence. 1985. Steen 1984 = Steen, Gert van der: On the unification of matching, parsing and retrieving in text corpora. In: ICAME News 8, 1984, 41—46. Stefan/Paun/Bistriceanu et al. 1984 = Stefan, G./Paun, A./Bistriceanu, V. et al.: DIALISP — A Lisp Machine. In: Boyer [ed.] 1984. Steffens 1986 = Steffens, Eckhart: Strategische Drucker Initiative. In: c’t Magazin für Computertechnik 11, 1986, 50—65. Steffen-Batogowa 1975 = Steffen-Batogowa, Maria: Automatyzac ja transkrypc ji fonematyczne j tekstów Polskiego. (Automatisierung der phonemischen Transkription polnischer Texte). Warszawa 1975. Stefik 1980 = Stefik, Mark: Planning with constraints. Rep. No. 784. Stanford 1980. Stegmüller 1969 = Stegmüller, W.: Wissenschaftliche Erklärung und Begründung. Berlin 1969. Stegmüller 1970 = Stegmüller, W.: Theorie und Erfahrung. Berlin 1970. Stegmüller 1973 = Stegmüller, W.: Personelle und statistische Wahrscheinlichkeit I, II. Berlin 1973. Steinacker o. J. = Steinacker, Ingeborg: Syntaktisches und semantisches Parsing und seine Integration im System VIE-LANG. In: The Reports of the Austrian Society for Cybernetic Studies, Wien. Steinacker/Trost 1982 = Steinacker, Ingeborg/ Trost, Harald: Parsing German. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 365—370. Steinberg/Jakobovitz 1971 = Steinberg, Danny D./Jakobovitz, Leon A.: Semantics. An Interdisciplinary Reader in Philosophy, Linguistics and Psycholgy. Cambridge 1971. Steinbuc h 1977 = Steinbuch, K.: Kommunikationstechnik. Berlin 1977. Steinbuch [ed.] 1967 = Steinbuch, K. [ed.]: Taschenbuch der Nachrichtenverarbeitung. Zweite überarb. Aufl. Berlin 1967. Steiner 1987 = Steiner, Erich: Zur Zuweisung satzsemantischer Rollen im Rahmen des MÜ-Proj ekts EUROTRA. In: Klenk/Scherber/Thaller [eds.] 1987, 161—171. Stellmac h er 1987 = Stellmacher, Dieter: Wer spricht Platt? Zur Lage des Niederdeutschen heute. Eine kurzgefaßte Bestandsaufnahme. (= Schriften des Instituts für niederdeutsche Sprache, Reihe Dokumentation. 14). Leer 1987.

886

Stepanov [ed.] 1980 = Stepanov, Ju. S. [ed.]: Gipoteza v sovremennoj lingvistike. Moskva 1980. Stepanowa/Fleisc h er 1985 = Stepanowa, Mari ja D./Fleischer, Wolfgang: Grundzüge der deutschen Wortbildung. Leipzig 1985. Sterkenburg 1983 = Sterkenburg, P. G. J. van: Dutch lexicology and the computer. In: Linguistica Computazionale III, 1983, 201—206. Stetter 1981 = Stetter, F.: Softwaretechnologie. Mannheim 1981. Stewart 1975 = Stewart, Gilles: Manuel du langage REZO. TAUM, Univ. de Montréal. Montréal 1975. Stibic 1985 = Stibic, V.: Printed versus displayed information. In: Nachrichten für Dokumentation 36, 4/5, 1985, 172—178. Stilo 1971 = Stilo, Donald L.: A Grammar of Vafsi-Tati: An Application of a Transformational Computer Model. Ph.D. dissertation, University of Michigan. Ann Arbor 1971. Stock/Castelfranc h i/Parisi 1983 = Stock, O./Castelfranchi, C./Parisi, D.: WEDNESDAY: Parsing flexible word order languages. In: Proceedings EACL 1983, Roma 1983, 106—110. Stockwell/Sc h acter/Partee 1973 = Stockwell, R./Schacter, P./Partee, B. H.: The Maj or Syntactic Structures of English. New York 1973. Stolfo/Miranker/Sh aw 1983 = Stolfo, S. J./Miranker, D./Shaw, D. E.: Architecture and Applications of DADO: A Large-Scale Parallel Computer for Artificial Intelligence. In: Proceedings of the Eighth International Joint Conference on Artificial Intelligence, 8—12, Aug., Karlsruhe 1983, 850—854. Stone/Dunph y/Smith et al. 1966 = Stone, Philipp J./Dunphy, Dexter C./Smith, Marshall S. et al.: The General Inquirer — A Computer Approach to Content Analysis. Cambridge, Mass. 1966. Stough ton 1983 = Stoughton, A. M.: Personal Computers Deliver Economical Speech Aids to the Handicapped. In: Speech Technology 1, No. 4, 1983, 80—87. Stoyan/Görz 1983 = Stoyan, H./Görz, G.: Was ist j ob ekt-orientierte Programmierung? In: Stoyan/ Wedekind 1983, 9—31. Stoyan/Wedekind [eds.] 1983 = Stoyan, H./Wedekind, H. [eds.]: Ob j ektorientierte Software- und Hardware-Architekturen. Stuttgart 1983. Straka/Gardette [eds.] 1973 = Straka, G./Gardette, P. [eds.]: Les dialectes romans de France à la lumière des atlas régionaux. (= Colloque nationaux du Centre National de la Recherche Scientifique. Strasbourg 24—28 mai 1971). Paris 1973. Straßner 1977a = Straßner, Erich: Graphemsystem und Wortkonstituenz. Schreibsprachliche Entwicklungstendenzen vom Frühneuhochdeutschen untersucht an Nürnberger Chroniktexten. Tübingen 1977. Straßner 1977b = Straßner, Erich: Linguistische Datenverarbeitung (LDV) — Anwendungsbereiche

XIII. Bibliography

und Forschungsstand. In: Sprachwissenschaft 2, 433—470. Street/Adler 1983 = Street, M./Adler, B.: OEM Voice Board Breaks Price Barrier. In: Speech Technology 1, No. 4, 1983, 112—115. Strong 1974 = Strong, S. M.: An algorithm for generating structural surrogates of English text. In: Journal of the American Society for Information Science 1, 1974, 10—24. Stroop 1981 = Stroop, Jan: Diffuse diftongering. In: De nieuwe taalgides 74, (1981), 1—16. Stroop 1984 = Stroop, Jan: De lexicale Leemte als Verklaringsprincip. In: Taal en tongvaal 36 (1984), 1—24. Studnicki/Polanowska/Stabrawa et al. 1982 = Studnicki, F./Polanowska, B./Stabrawa, E. et al.: The research proj ect ’Anaphora’ (in its present state of advancement). In: Haj ičová [ed.] 1982, 273—276. Süß/Leckermann 1981 = Süß, C./Leckermann, J.: Mathematische Modellierung und funktionelle Beschreibung von Document-Retrieval-Systemen. Anwendung der ISAC-Methode auf das System FAKYR. Dipl.-Arb. TU Berlin 1981. Suppes 1957 = Suppes, Patrick: Introduction to logic. New York 1957. Sussman/Holloway/Steele et al. 1981 = Sussman, G. J./Holloway, J./Steele, G. L. et al.: SCHEME 79 — Lisp on a Chip. In: Computer, July 1981, 10—21. Svartvik 1982a = Svartvik, Jan: Preface. In: Svartvik/Eeg-Olofsson/Forsheden et al. 1982, 9—13. Svartvik 1982b = Svartvik, Jan: The London-Lund Corpus of Spoken English: Information to Accompany the Magnetic Computer Tape. Department of English, Lund University 1982. Svartvik 1984 = Svartvik, Jan: Four-level tagging of spoken English. In: ICAME News 8, 1984, 9—11. Svartvik/Eeg-Olofsson 1982 = Svartvik, Jan/EegOlofsson, Mats: Tagging the London-Lund Corpus of Spoken English. In: Johansson [ed.] 1982, 85—109. Svartvik/Eeg-Olofsson/Fors h eden et al. 1982 = Svartvik, Jan/Eeg-Olofsson, Mats/Forsheden, Oscar et al.: Survey of Spoken English. Report on Research 1975—81. Lund 1982. Svartvik/Quirk [eds.] 1980 = Svartvik, Jan/Quirk, Randolph [eds.]: A corpus of English conversation. Lund 1980. Swadesh 1950 = Swadesh, Morris: Salish Internal Relationships. In: IJAL 16, 1950, 157—167. Swadesh 1952 = Swadesh, Morris: Lexico-statistical Dating of Prehistoric Ethnic Contacts. In: Proceedings of the American Philosophical Society 96, 1952, 452—463. Swadesh 1963 = Swadesh, Morris: A punchcard system of cognate hunting. In: IJAL 29, 1963, 282—288. Swartout 1981 = Swartout, William: Producing Explanations and Justifications of Expert Consul-

XIII. Bibliography

ting Programs. Diss., Massachusetts Institute of Technology. Cambridge, Mass. 1981. Symbolics Inc. 1983 = Symbolics Inc.: Symbolics 3600 Technical Summary. Cambridge, Mass. 1983. Szpakowicz 1983 = Szpakowicz, Stanislaw: Formalny opis skladniowy zdań polskich (Formal syntactic description of Polish sentences). Warsaw 1983. Szpakowicz/Świdziński 1982 = Szpakovicz, Stanislaw/Świdziński, Marek: A simple dialogue in Polish: Interactive railway guide. In: Počitače a umelá inteligencia (Computers and artificial intelligence) 5, 1982, 419—425. Szymanski 1973 = Szymanski, T. G.: Generalized bottom-up parsing. o. O. 1973. Szymanski/Williams 1976 = Szymanski, T. G./Williams, J. H.: Non-canonical extensions of bottom-up parsing techniques. In: SIAM Journal of Computing, Vol. 5, No. 2, 1976, 231—250. Tábory/Peters 1967 = Tábory, R./Peters, P. S.: Can one Instruct Computers in English? A Feasibility Study Concerning the Use of English in User/ Computer Communication IBM FSD, Boston PC. Cambridge, Mass., TM 48.67.003 1967. Tait 1982 = Tait, J. I.: Automatic summarising of English texts. Diss. Cambridge (= Technical Report 47/Diss.). Cambridge 1982. Tait 1985 = Tait, J. I.: Generating summaries using a script-based language analyser. In: Steels/Campbell [eds.] 1985, 312—318. Taka h as h i/Tozuka/Tsukui et al. 1985 = Takahashi, T./Tozuka, H./Tsukui, A. et al.: The SR2000 Voice Processor and Its Applications. In: Speech Technology 2, No. 4, 1985, 22—29. Takeda/Fujisaka/Suzuki = Takeda, Koichi/Fu j isaki, Tetsunosuke/Suzuki, Emiko: CRITAC — A Japanese text proofreading system. In: 11th International Conference on Computational Linguistics. Proceedings of Coling ’86, Bonn 1986, 412—417. Tanaka/Isa h ara/Yasukuwa 1983 = Tanaka, Hozumi/Isahara, Hitoshi/Yasukuwa, Hideki: An English Japanese MT System using the Active Dictionary. Technical Report ETL. Ibaraki 1983. Tanen h aus/Carlson/Seidenberg 1985 = Tanenhaus, Michael K./Carlson, Greg N./Seidenberg, Mark S.: Do listeners compute linguistic representations? In: Dowty/Karttunen/Zwicky [eds.] 1985, 359—408. TAUM 1973 = TAUM 1973: Proj et de Traduction Automatique de l’Université de Montréal. Rapport de janvier 1973. Montreal 1973. Tawney 1979 = Tawney, D. A.: Learning through Computers. London 1979. Taylor, Ch . 1964 = Taylor, Charles: The Explanation of Behavior. London 1964. Taylor, P. J./Cronin [eds.] 1982 = Taylor, P. J./Cronin, P. [eds.]: Proceedings of the EURIM 5 conference, Versailles. London 1982.

887

Taylor, S. L. 1974 = Taylor, S. L.: Automatic abstracting by applying graphical techniques to semantic networks. Ph.D. Thesis. Evanston 1974. Taylor, S. L./Krulee 1977 = Taylor, S. L./Krulee, G. K.: Experiments with an automatic abstracting system. In: Information Management in the 1980’s. Proceedings of the 40th Annual Meeting of the American Society for Information Science, Vol. 14., Chicago, Sept. 26—Oct. 1, 1977, Part 2: Full Papers, White Plains 1977, A10—A14, 31—36. Teitelmann 1978 = Teitelmann, W.: Interlisp Reference Manual. Xerox PARC. Palo Alto, Cal. 1978. Teitelmann/Masinter 1981 = Teitelmann, W./ Masinter, L.: The Interlisp Programming Environment. In: Computer, Vol. 14, 1981, No. 4. Tennant 1978 = Tennant, Harry: The evaluation of natural language question answers. Working paper 11. Advanced Automation Group. University of Illinois at Urbana-Champaign. Urbana May 1978. Tennant 1979 = Tennant, Harry: Experience with the Evaluation of Natural Language Question Answerers. Working paper 18, Advanced Automation Group, Coordinated Science Laboratory, University of Illinois at Urbana-Champaign. Urbana 1979. Tennant 1980 = Tennant, Harry: Evaluation of natural language processors. Technical Report T-103. Illinois 1980. Tennant 1981 = Tennant, Harry: Natural Language Processing, An Introduction to an Emerging Technology. New York 1981. Tenopir 1985 = Tenopir, C.: Full-Text databases. In: Williams [ed.] 1984, 215—246. Tergan 1986 = Tergan, Sigmar-Olaf: Modelle der Wissensrepräsentation als Grundlage qualitativer Wissensdiagnostik. Opladen 1986. Terrell/Linyard 1982 = Terrell, C. D./Linyard, O.: Evaluation of electronic learning aids: Texas Instruments ’Speak Spell’”. In: International Journal of Man-Machine Studies 17, 1982, 59—67. Těšitelová 1980 = Těšitelová, Marie: Využití statistickych metod v grammatice (The use of statistical methods in grammar). Prague 1980. Těšitelová 1982 = Těšitelová, Marie: Quantification of meaning and the computer. In: Horecký [ed.] 1982, 377—382. Těšitelová et al. 1985 = Těšitelová, Marie et al.: Kvantitativní charakteristiky současné češtiny (Quantitative characteristics of contemporary Czech). Prague 1985. Tesnière 1959 = Tesnière, Lucien: Eléments de syntaxe structurale. Paris 1959. Teubert 1984 = Teubert, W.: Setting up a lexicographical data-base for German. In: Hartmann [ed.] 1984, 425—429. Teubert 1985 = Teubert, W.: Towards a lexicographical data base for German — accomplishments and expectations. In: Proceedings of the IIIrd

888

Scientific Meeting ’Computer Processing of Linguistic Data’, Bled, Yugoslavia 1985, 123—136. Texas Instruments 1984 = Texas Instruments: Explorer Technical Summary. 1984. h T acker/Lampson/Sproull 1979 = Thacker, C./Lampson, B./Sproull, R.: Alto: A Personal Computer. Xerox PARC, CSL-79-11. Palo Alto, Cal. 1979. Th arp/Eastman 1979 = Tharp, A. L./Eastman, J. F.: An ideational parser. In: SIGLASH Newsletter 12, 1, 1979, 17—36. Th iel, M. 1985a = Thiel, Manfred: CUMULUS. Überlegungen zu einer linguistischen Datenstruktur. (= Linguistische Arbeiten, Neue Folge, Heft 13). Saarbrücken 1985. Th iel, M. 1985b = Thiel, Manfred: Prozessorganisation in SUSY. CL-Report, No. 3. Saarbrücken 1985. Th iel, M. 1986 = Thiel, Manfred: Ein Diskussionsbeitrag zum Problem des deterministischen Parsing. CL-Report, No. 12. Saarbrücken 1986. Th iel, M. 1987 = Thiel, Manfred: Determinismus und Instantiierung. In: Klenk/Scherber/Thaller [eds.] 1987, 172—182. Th iel, M. [ed.] 1973 = Thiel, M. [ed.]: Enzyklopädie der Geisteswissenschaftlichen Arbeitsmethoden. 9. Lieferung: Methoden der Anthropologie, Anthropogeographie, Völkerkunde und Religionswissenschaft. München — Wien 1973. Th iel, U./Hammwöh ner 1985 = Thiel, U./Hammwöhner, R.: TOPOGRAPHIC: Die graphische Schnittstelle des Textkondensierungssystems TOPIC. BMFT-FB-ID 85—006. Eggenstein—Leopoldshafen 1985. Th omas, A. R. 1973 = Thomas, Alan R.: The Linguistic Geography of Wales. Cardiff 1973. Th omas, A. R. 1975 = Thomas, Alan R.: Dialect Mapping. In: Orbis 24, 1975, 115—124. Th omas, A. R. 1980a = Thomas, Alan R.: Areal analysis of dialect data by computer. A Welsh example. Cardiff 1980. Th omas, A. R. 1980b = Thomas, Alan R.: Computer analysis of a dialect transition belt. In: Computers and the Humanities 14, 1980, 241—251. Th omas, A. R. 1985 = Thomas, Alan R.: A difference matrix in areal analysis of dialect data. In: Orbis XXXI, 1—2, 1985, 59—71. Th omas, J. 1984 = Thomas, J.: Review of: Witten, I. H., Principles of Computer Speech. London 1982. In: Computational Linguistics 10, No. 1, 1984, 31—32. Th omason 1974 = Thomason, Richmond H.: Formal philosophy. Selected papers of Richard Montague. New Haven 1974. Th ompson 1977 = Thompson, Henry: Strategy and Tactics: a Model for Language Production. In: Papers from the 13th Regional Meeting of the Chicago Linguistic Society, 1977.

XIII. Bibliography

Th ompson 1981 = Thompson, Henry: Chart parsing and rule schemata in PSG. In: Proceedings of the 19th Annual Meeting of the Association for Computational Linguistics, Menlo Park, California 1981, 167—172. Th ompson 1982 = Thompson, Henry: Handling metarules in a parser for GPSG. Department of Artificial Intelligence Report 175. University of Edinburgh 1982. h T ompson 1983a = Thompson, Henry: MCHART: A flexible, modular chart parsing system. In: Proceedings AAAI, 1983, 408—410. Th ompson 1983b = Thompson, Henry: Natural language processing: a critical analysis of the structure of the field, with some implications for parsing. In: Sparck Jones/Wilks [eds.] 1983, 23—31. Th ompson 1984 = Thompson, Henry: Implementing natural language parsers. In: O’Shea/Eisenstadt [ed.] 1984, 245—300. h T ompson/P h illips 1984 = Thompson, Henry/ Phillips, J.: An implementation of GPSG within the MCHART parsing framework. Technical report, Department of artificial intelligence. Edinburgh, U.K. 1984. Th ompson/Ritch ie 1984 = Thompson, Henry/Ritchie, Graeme: Implementing natural language parsers. In: O’Shea/Eisenstadt [eds.] 1984. Th orelli [ed.] 1983 = Thorelli, L.-E. [ed.]: The 10th Annual International Symposium on Computer Architecture. Conference Proceedings, Royal Institute of Technology. Stockholm 1983. Th orne/Bratley/Dewar 1968 = Thorne, J. P./Bratley, P./Dewar, H.: The syntactic analysis of English by machine. In: Mitchie [ed.] 1968, 281—309. Th ouin 1982 = Thouin, Benoit: The METEO system. In: Lawson [ed.] 1982, 39—44. Th ouin 1983 = Thouin, Benoit: Operational systems actually available to end-users in Canada. In: Marčuk [ed.] Moscow 1983, 227—230. Th ue 1914 = Thue, A.: Probleme über Veränderungen von Zeichenreihen nach gegebenen Regeln. In: Skrifter utgit av Videnskapsselskapet i Kristiania I 10, 1914. Th urmair 1982 = Thurmair, Gregor: Morphologische Verfahren in Information-Retrieval-Systemen. In: Fischer [ed.] 1982, 263—301. Th urmair 1986 = Thurmair, Gregor: Nicht-lexikalische Morphologie. In: Hellwig/Lehmann [eds.] 1986, 7—25. Tillmann/Willée [eds.] 1987 = Tillmann, Hans G./Willée, Gerd [eds.]: Analyse und Synthese gesprochener Sprache — Vorträge im Rahmen der Jahrestagung 1987 der GLDV, Bonn, 4.—6. März 1987. Hildesheim 1987. Timpanaro 1981 = Timpanaro, Sebastiano: La genesi del metodo del Lachmann. Padova 1981. Tokoro 1983 = Tokoro, M.: Toward the Design and Implementation of Obj ect Oriented Architecture. RIMS Symposium on Software Science and

XIII. Bibliography

Engineering in the Series of Lecture Notes in Computer Science, No. 147. Berlin 1983. Tokugawa/Yamamoto 1967 = Tokugawa, Munemasa/Yamamoto, Takeshi: An attempt to draw a linguistic map with a computer. In: Mathematical Linguistics 40, 1967, 27—30. Tolkin 1980 = Tolkin, E.: A parsing system for Montague Grammar with lexical transformations. 1980. Tombe/Arnold/Lieven 1985 = Tombe, Louis des/ Arnold, Doug/Lieven, Jaspaert et al.: A preliminary Linguistic Framework for EUROTRA June 1985. In: Nirenburg [ed.] 1985, 283—288. Tomić 1978 = Tomić, Olga Mišeska: Generative syntax in theory and practice. Skopje 1978. Tomić 1983a = Tomić, Olga Mišeska: Linguistic features and grammatical categories. In: Folia Linguistica 17, 1983, 387—401. Tomić 1983b = Tomić, Olga Mišeska: Grammatical categories across cultures. In: Mathúna/Singleton [eds.] 1983, 31—39. Tomić 1985 = Tomić, Olga Mišeska: The generative paradigm? In: Folia linguistica 19, 1985, 233—247. Tomita 1984 = Tomita, Masaru: LR Parsers For Natural Languages. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 354—357. Tomita 1985a = Tomita, Masaru: An efficient context-free parsing algorithm for natural languages. In: International Joint Conference on Artificial Intelligence (IJCAI), 1985, 756—764. Tomita 1985b = Tomita, Masaru: Efficient parsing for natural language. A fast algorithm for practical systems. Dordrecht 1985. Tomita 1987 = Tomita, Masaru: An Efficient Augmented-Context-Free Parsing Algorithm. In: Computational Linguistics 13, 1—2, 1987, 31—46. Tomita/Carbonell 1986 = Tomita, Masaru/Carbonell, Jaime G.: Another Stride Towards Knowledge-Based Machine Translation. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 633—638. Tong 1986 = Tong, Loong-Cheong: English-Malay Translation System: A Laboratory Prototype. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 639—642. Torrance [ed.] 1984 = Torrance, S. [ed.]: The mind and the machine. Chichester 1984. Touretzky 1984 = Touretzky, D. S.: The Mathematics of Inheritance Systems. Ph.D. Thesis, CMUCS-84-136, Carnegie Mellon University. Pittsburgh 1984. Traub 1985 = Traub, K.: An Abstract Parallel Graph Reduction Machine. In: The 12th Annual International Symposium on Computer Architecture, Boston, Mass., June 17—19, 1985, SIGARCH Newsletter, Vol. 13, No. 3, 1985, 333—341.

889

Treleaven 1983 = Treleaven, P. C.: The New Generation of Computer Architecture. In: Thorelli [ed.] 1983. Treleaven/Brownbridge/Hopkins 1982 = Treleaven, P. C./Brownbridge, D. R./Hopkins, R. P.: Data-Driven Computer Architecture. In: Computer Surveys, Vol. 14, No. 1, Mar. 1982, 473—530. Treleaven/Hopkins 1982 = Treleaven, P. C./Hopkins, R. P.: A Recursive Computer Architecture for VLSI. In: Proceedings of the 9th International Symposion on Computer Architecture, IEEE, U.S.A. 1982, 229—238. Tremain 1982 = Tremain, T. E.: The Government Standard Linear Predictive Coding Algorithm: LPC-10. In: Speech Technology 1, No. 2, 1982, 40—49. Tropf 1979 = Tropf, Herbert S.: PHOCOM: Ein Programmsystem für vergleichende phonologische Untersuchungen. In: Sprache und Datenverarbeitung 3 (1/2), 1979, 39—45. Trost/Buch berger 1986 = Trost, Harald/Buchberger, E.: Towards the Automatic Acquisition of Lexical Data. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 387—389. Trubetzkoy 1939 = Trubetzkoy, Nikola j S.: Grundzüge der Phonologie. In: Travaux de cercle linguistique de Prague 7. Tsc h ander/Weigand [eds.] 1980 = Tschander, G./Weigand, E. [eds.]: Perspektive: textextern. Tübingen 1980. Tsujii 1985 = Tsuj ii, Jun-ichi: Science and Technology Agency’s Machine Translation Pro j ect: MU Machine Translation Proj ect. In: Proc. of International Symposium on Machine Translation, 1985, 49—68. Tsujii 1986 = Tsuj ii, Jun-ichi: Future Trends of Machine Translation. In: Proc. of the Symposium on ’Language and Artificial Intelligence’, Kyoto 1986. Tsujii/Nakamura/Nagao 1984 = Tsu j ii, Jun-ichi/ Nakamura, Jun-ichi/Nagao, Makoto: Analysis Grammar of Japanese in the Mu-Proj ect. In: COLING ’84, Proceedings of the 10th International Conference on Computational Linguistics, Stanford 1984, 267—274. Tucker 1984a = Tucker, Allen B.: A Perspective on Machine Translation: Theory and Practice. In: Communications of the ACM, vol. 27, no. 4, 1984, 322—329. Tucker/Nirenburg 1984b = Tucker, Allen B./Nirenburg, Sergei: Machine Translation: A Contemporary View. In: Annual Review of Information Science and Technology, Vol. 19, 1984, 129—160. Tufis/Cristea 1985 = Tufis, Dan/Cristea, Dan: IURES — A human engineering approach to natural language question answering systems. In: Bibel/Petkoff [eds.] 1985. Turing 1936 = Turing, Alan M.: On computable numbers, with an application to the Entschei-

890

dungsproblem. In: Proc. London Math. Soc. 42, 1936, 230—265. Turing 1950 = Turing, Alan M.: Computing Machinery and Intelligence. In: Mind 59, Oct. 1950, 433—460. Turner, D. A. 1979 = Turner, D. A.: A New Implementation Technique for Applicative Languages. In: Software Practice and Experience, Vol. 9, 1979, 31—49. Turner, J. A. et al. 1984 = Turner, J. A.: Using restricted natural language for data retrieval — a plan for field evaluation. In: Vassiliou [ed.] 1984. TUSTEP 1985 = TUSTEP: Tübinger System von Textverarbeitungsprogrammen. Hrsg. v. Zentrum für Datenverarbeitung der Universität Tübingen. Tübingen 1985. Tuttle/Sc h eretz/Blois et al. 1983 = Tuttle, M./Scheretz, D./Blois, M. et al.: Expertness from structured text? In: Conference on Applied Natural Language Processing, Santa Monica, California 1983, 124—131. Tyler/Marslen-Wilson 1977 = Tyler, Lorrain K./Marslen-Wilson, William D.: The on-line effects of semantic context on syntactic processing. In: Journal of Verbal Learning and Verbal Behaviour 16, 1977, 683—692. Uch ida 1985 = Uchida, Hiroshi: Fuj itsu Machine Translation System ATLAS. In: JIPDEC 1985, 29—38. Uch ida 1986 = Uchida, Hiroshi: Fuj itsu machine translation system: ATLAS. In: Future Generations Computer Systems 2, 1986, 95—100. Uc h ida/Hayas h i/Kus h ima 1985 = Uchida, Hiroshi/Hayashi, Tatsuya/Kushima, Hiroshi: ATLAS: automatic translation system. In: Fu j itsu Science and Technology Journal 21, 1985, 317—329. Uc h ida/Sugiyama 1980 = Uchida, Hiroshi/Sugiyama, Ken j i: A Machine Translation System from Japanese into English based on Conceptual Structure. In: COLING ’80, Proceedings of the 8th International Conference on Computational Linguistics, Tokyo 1980, 455—462. Ueckert/Rh enius [eds.] 1979 = Ueckert, Hans/ Rhenius, Detlef [eds.]: Komplexe menschliche Informationsverarbeitung. Beiträge zur Tagung ’Kognitive Psychologie’ in Hamburg 1978. Bern — Stuttgart — Wien 1979. Uenoh ara 1985 = Uenohara, M.: Speech Products and Their Application in Japan. In: SPEECH TECH 1985, 273—276. Ule 1973 = Ule, Louis: Master Concordances. In: ALLC Bulletin 1, 1973, 3—6. Ule 1982 = Ule, Louis: Recent Progress in Computer Methods of Autorship Determination. In: ALLC-Bulletin 10, 1982, 73—89. Ulvestad 1979 = Ulvestad, Bj arne: Corpus vs. Intuition in Syntactical Research. In: Bergenholtz/ Schaeder [eds.] 1979, 89—108. Umeda 1976 = Umeda, N.: Linguistic Rules for Text-to-Speech Synthesis. In: Proceedings of the IEEE 64, No. 4, 1976, 443—451.

XIII. Bibliography

Ungeh euer 1971 = Ungeheuer, Gerold: Linguistische Datenverarbeitung — die Realität und eine Konzeption. In: IBM-Nachrichten 206, 1971, 688—694. Ungeh euer 1972 = Ungeheuer, Gerold: Sprache und Kommunikation. (Forschungsberichte des IKP 13). Hamburg 1972. Ungeh euer 1974 = Ungeheuer, Gerold: Was heißt ’Verständigung durch Sprechen’? In: Gesprochene Sprache, Jahrbuch 1972 des Instituts für deutsche Sprache, Düsseldorf 1974, 7—38. Unge h euer 1977 = Ungeheuer, Gerold: Gesprächsanalyse und ihre kommunikationstheoretischen Voraussetzungen. In: Wegner [ed.] 1977, 27—65. Unge h euer/Kästner 1966 = Ungeheuer, Gerold/ Kästner, Wolfgang: Untersuchung zur Transformation deutscher Schrifttexte in entsprechende Phonemtexte mit Hilfe elektronischer Rechenmaschinen. In: IKP-Forschungsberichte 1. Urdang 1985 = Urdang, L.: A lexicographer’s adventures in computing. In: Dictionaries 6, 1985, 150—165. U.S.A. Standards Institute [ed.] 1966 = U.S.A. Standards Institute [ed.]: USA Standard FORTRAN. New York 1966. Ush er/Najock 1982 = Usher, S./Na j ock, D.: A Statistical Study of Autorship in the Corpus Lysiacum. In: Computers and the Humanities 16, 1982, 85—105. Uskup/Al-Azzawi 1972 = Uskup, Frances/Al-Azzawi, Mary Lee: Editing and printing a dialect atlas by computer. In: American Speech 47, 1972, 203—210. Uspenskij 1957 = Uspenskij , Vladimir A.: K opredeleni j u padeža po Kolmogorovu. In: B j ulleten ob’ j edineni j a po problemam mašinnogo perevoda 5, 1957, 22—26. USSR Academy of Sciences, ISISS [ed.] 1981 = USSR Academy of Sciences, ISISS [ed.]: Problemi linguističesko j semantiki. (Problems of linguistic semantics). Abstracts selection. Moscow 1981. Uszkoreit 1982 = Uszkoreit, Hans: German Word Order in GPSG. In: Flickinger/Macken/Wiegand [eds.] 1982, 137—148. Uszkoreit 1983 = Uszkoreit, Hans: A Framework for Processing Partially Free Word Order. In: Proceedings of the 21st Annual Meeting of the Association for Computational Linguistics, 1983, 106—112. Uszkoreit 1986 = Uszkoreit, Hans: Categorial Unification Grammars. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 187—194. Uszkoreit/Peters 1984 = Uszkoreit, Hans/Peters, P. S.: On some formal properties of metarules. SRI Technical Note 305. Menlo Park, California 1984. Vach ek 1939 = Vachek, Josef: Zum Problem der geschriebenen Sprache. In: Travaux du Cercle Linguistique de Prague 8, 1939, 94—104.

XIII. Bibliography

Vach ek 1979 = Vachek, Josef: Written Language. General Problems and Problems of English. The Hague — Paris 1979. Vakulovskaja/Kulagina 1959 = Vakulovska j a, G. V./Kulagina, Olga S.: Opytnye perevody s francuzskogo j azyka na russkij na mašine Strela. In: Problemy kibernetiki 2, Moscow 1959, 283—288. Vakulovskaja/Kulagina 1961 = Vakulovska j a, G. V./Kulagina, Olga S.: O mašinnom perevode s francuzskogo j azyka na russkij . In: Problemy kibernetiki 5, Moscow 1961, 245—262. Vakulovskaja/Kulagina 1962 = Vakulovska j a, G. V./Kulagina, Olga S.: O mašinnom perevode s francuzskogo j azyka na russkij . In: Problemy kibernetiki 8, 1962, 253—291. Valéry 1945 = Valéry, Paul: Variété V. Paris 1945. Van de Velde 1974 = Van de Velde, Roger G.: Zur Theorie der linguistischen Forschung. Ein Beitrag zur Grundlagenproblematik der Linguistik. München 1974. Van de Velde 1979 = Van de Velde, Roger G.: Probleme der linguistischen Theoriebildung einer empirischen Textwissenschaft. In: Bergenholtz/ Schaeder [eds.] 1979, 10—27. Van Wijk/Kempen 1985a = Van Wi j k, Carel/ Kempen, Gerard: A Dual System for Producing Self-Repairs in Spontaneous Speech: Evidence from experimentally elicited corrections. Report, University of Nijmegen. 1985. Van Wijk/Kempen 1985b = Van Wi j k, Carel/ Kempen, Gerard: From Sentence Structure to Intonation Contour: An Algorithm for Computing Pitch Contours on the Basis of Sentence Accents and Syntactic Structure. In: Müller [ed.] 1985, 157—182. Vannikov 1984 = Vannikov, Jurij V.: Tipy naučnych i techničeskich textov i ich linguističeskie osobennosti. (Types of scientific and technical texts and their linguistic peculiarities). Moscow 1984. Varile 1983 = Varile, Giovanni Battista: Charts: A data structure for parsing. In: King [ed.] 1983, 73—87. Vasconcellos 1984 = Vasconcellos, Muriel: Machine translation at the Pan American Health organization. In: The British Computer Society, Newsletter 14, May 1984, 19—32. Vasconcellos 1985 = Vasconcellos, Muriel: Management of the machine translation environment. In: Lawson [ed.] 1985, 115—129. Vasconcellos/Leon 1985 = Vasconcellos, Muriel/ Leon, Marj orie: SPANAM and ENGSPAN: MT at the Pan American Health Organization. In: Computational Linguistics 11, No. 2—3, 1985, 122—136. Vassiliou et al. 1983 = Vassiliou, Y. et al.: Natural language for database queries: a laboratory stud. In: MIS Quarterly 7 (4), 1983, 47—61. Vassiliou [ed.] 1984 = Vassiliou, Y. [ed.]: Human Factors and Interactive Computer Systems. Norwood, N.J. 1984.

891

Vauquois 1975 = Vauquois, Bernard: La traduction automatique à Grenoble. Document de linguistique quantitative no. 29. Paris 1975. Vauquois 1977 = Vauquois, Bernard: L’Évolution des logiciels et des modèles linguistiques pour la traduction automatisée. GETA report. University of Montreal Nov. 1977. Vauquois 1979 = Vauquois, Bernard: Aspects of Mechanical Translation in 1979. Conference for IBM-Japan Scientific Program. GETA, Grenoble 1979. Vauquois 1983 = Vauquois, Bernard: Automatic translation. In: Proceedings of the summer school ’The computer and the arabic language’, ch. 9. Vauquois o. J. = Vauquois, Bernard: The organization of an automated translation system for multilingual translation at GETA. Grenoble o. J.. Vauquois/Boitet 1985 = Vauquois, Bernhard/Boitet, Christian: Automated Translation at GETA (Grenoble University). In: Computational Linguistics 11, 1, 1985, 28—36. Vauquois/C h appuy 1985 = Vauquois, Bernard/ Chappuy, Sylviane: Static grammars: a formalism for the description of linguistic models. In: Proceedings of the Conference on theoretical and methodological issues in Machine Translation of natural languages, Colgate University, Hamilton, N.Y. 1985, 298—322. Vegdah l 1984 = Vegdahl, S. R.: A Survey of Proposed Architectures for the Execution of Functional Languages. In: IEEE Transactions on Computers, Vol. C-33, 1984, 1050—1071. Veillon 1970 = Veillon, Gérard: Modèles et algorithmes pour la traduction automatique. Grenoble 1970. Veith 1970 = Veith, Werner H.: [- explikative, + applikative, + komputative] Dialektkartographie. Ihre wissenschaftlichen Voraussetzungen und Möglichkeiten auf der Grundlage der kontrastivtransformationellen Methode und der automatischen Datenverarbeitung. (= Germanistische Linguistik 4, 1970). Hildesheim — Zürich — New York 1970. Veith 1982 = Veith, Werner H.: Der Kleine Deutsche Sprachatlas als Arbeitsmittel. (= Studien zum Kleinen Deutschen Sprachatlas, Bd. 1). Tübingen 1982. Veith 1984 = Veith, Werner H.: Kleiner Deutscher Sprachatlas. In: ZDL, 51. Jg., H. 3, 1984, 295—331. Veit h /Putsc h ke 1988 = Veith, Werner H./ Putschke, Wolfgang: Sprachatlanten des Deutschen. In: Putschke/Veith [eds.]: Studien zum Kleinen Deutschen Sprachatlas, 1988, (i. V.). Veit h /Putsc h ke/Hummel 1984 = Veith, Werner H./Putschke, Wolfgang/Hummel, Lutz: Kleiner Deutscher Sprachatlas. Im Auftrag des Forschungsinstituts für deutsche Sprache — Deutscher Sprachatlas — Marburg/Lahn, dialektologisch bearbeitet von Werner H. Veith, computativ bearbeitet von Wolfgang Putschke unter Mitarbeit von

892

Lutz Hummel. Band 1 Konsonantismus. Teil 1 Plosive. Tübingen 1984. Veit h /Putsc h ke/Hummel 1987 = Veith, Werner H./Putschke, Wolfgang/Hummel, Lutz: Kleiner Deutscher Sprachatlas. Im Auftrag des Forschungsinstituts für deutsche Sprache — Deutscher Sprachatlas — Marburg/Lahn, dialektologisch bearbeitet von Werner H. Veith, computativ bearbeitet von Wolfgang Putschke unter Mitarbeit von Lutz Hummel. Band 1 Konsonantismus. Teil 2 Frikative, Sonanten und Zusatzkonsonanten. Mit einem Ortsregister von Friedhelm Schäfer. Tübingen 1987. Venezky 1977 = Venezky, R. L.: User Aids in a Lexical Processing System. In: Lusignan/North [eds.] 1977, 317—325. Venezky/Relles/Price 1977 = Venezky, R. L./Relles, N./Price, L.: LEXICO: A System for Lexicographic Processing. In: Computers and the Humanities, 1977, 127—137. Vennemann [ed.] 1982 = Vennemann, Theo [ed.]: Silben, Segmente, Akzente: Referate zur Wort-, Satz- und Versphonologie. Tübingen 1982. Verastegui-Carvajal 1982 = Verastegui-Carva j al, J. Nelson: Utilisation du parallélisme en traduction automatisée par ordinateur. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 397—405. Verburg 1951 = Verburg, P. A.: Taal en funktionaliteit. Een historisch-kritische studie over de opvattingen angaande de funkties der taal vanaf de praehumanistische philologie von Orleans tot de rationalistische linguistiek van Bopp. Wageningen 1951. Vergne/Pagès 1986 = Vergne, Jacques/Pagès, Pascale: Synergy of syntax and morphology in automatic parsing of French language with a minimum of data. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 269—271. Vester 1978 = Vester, Frederik: Denken, Lernen, Vergessen. München 1978. Viereck 1980 = Viereck, Wolfgang: Dialektometrie und englische Dialektologie. In: Grazer Linguistische Studien 11/12 (Festgabe für Normann Denison), Graz 1980, 335—356. Viereck 1983 = Viereck, Wolfgang: The Presentation and Interpretation of English Dialects: Computer-assisted Pro j ects. In: Hattori/Inoue [eds.] 1983. Viereck 1984 = Viereck, Wolfgang: Der Einsatz des Computers in der amerikanisch-englischen und britisch-englischen Dialektologie und Soziolinguistik. In: Zeitschrift für Dialektologie und Linguistik (ZDL), 51. Jg., H. 1, 1984, 6—30. Viereck 1985a = Viereck, Wolfgang: Linguistic Atlases and Dialectometry. In: Kirk/Sanderson/ Widdowson [eds.] 1985, 94—112. Viereck 1985b = Viereck, Wolfgang: The data of the ’Survey of English Dialects’ computerised:

XIII. Bibliography

Keys and conventions. In: Viereck [ed.] 1985, 235—246. Viereck 1988 = Viereck, Wolfgang: The Computerisation and Quantification of Linguistic Data: Dialectrometrical Methods. Vortrag gehalten auf der 6. International Conference on Methods in Dialectology. Bangor 1988. Viereck [ed.] 1985 = Viereck, Wolfgang [ed.]: Focus on: England and Wales. Amsterdam — Philadelphia 1985. Vijay-S h anker/Jos h i 1985 = j Vi ay-Shanker, K./Joshi, Aravind K.: Some Computational Properties of Tree Adj oining Grammars. In: Proceedings of the 23nd Annual Meeting of the Association for Computational Linguistics, Chicago 1985, 82—93. Vijay-S h anker/Weir/Jos h i 1985 = Vi j ay-Shanker, K./Weir, David J./Joshi, Aravind K.: The relationship between tree adj oing grammars and head grammars. Philadelphia 1985. Viks 1980 = Viks, Y.: An automatic system for generation of dictionaries. In: Abstracts of the symposium on computational linguistics and related topics, Tallinn 1980, 119—121. Vilain 1985 = Vilain, M.: The Restricted Language Architecture of a Hybrid Representation System. In: Proc. IJCAI-85, Los Altos 1985, 547—551. Vincjuk 1971 = Vinc j uk, T. K.: Element-wise Recognition of Continuous Speech Composed of Words from a Specified Dictionary. In: Kibernetika (Cybernetics) Vol. 7, No. 2, 1971, 133—143. Vincjuk 1982 = Vincj uk, T. K.: Speech Recognition and Understanding. In: Kibernetika (Cybernetics), Vol. 18, No. 5, 1982, 101—105. Vincjuk/Lobanov/Šinkaž et al. 1982 = Vinc j uk, T. K./Lobanov, B. M./Šinkaž, A. G. et al.: Sistema raspoznavani j a reči i sistema rečevogo dialoga SRD ’Reč’-l’na osnove mikro-EVN. In: Avtomatičesko j e raspoznavani j e sluchovych obrazov, Kiev 1982, 516—521. Viré 1986 = Viré, Gishlaine: Informatique et classement des manuscrits. Essai méthodologique sur le ’de astronomia’ d’Hygin. Bruxelles 1986. Visentini et al. [eds.] 1970 = Visentini, B. et al. [eds.]: Linguaggi nella Società e nella Tecnica. Milano 1970. Vogel 1975 = Vogel, Friedrich: Probleme und Verfahren der numerischen Klassifikation. Unter besonderer Berücksichtigung von Alternativmerkmalen. Göttingen 1975. Voiers 1983 = Voiers, W.: Evaluating Process Speech Using the Diagnostic Thyme Test. In: Speech Technology 1, No. 4, 1983, 30—39. Vorsch läge 1987 = [Autorenkollektiv]: Vorschläge zur Konturierung des Faches Computerlinguistik. In: LDV-Forum 5, Nr. 1, 1987, 76—78. Wah lster 1981 = Wahlster, Wolfgang: Natürlichsprachliche Argumentation in Dialogsystemen. KI-Verfahren zur Rekonstruktion und Erklärung

XIII. Bibliography

approximativer Inferenzprozesse. Berlin — Heidelberg — New York 1981. Wah lster 1982a = Wahlster, Wolfgang: Aufgaben, Standards und Perspektiven sprachorientierter KIForschung. In: Bátori/Krause/Lutz [eds.] 1982, 13—24. Wah lster 1982b = Wahlster, Wolfgang: Natürlichsprachliche Systeme — Eine Einführung in die sprachorientierte KI-Forschung. In: Bibel/Siekmann [eds.] 1982, 203—283. Wah lster [ed.] 1982 = Wahlster, Wolfgang [ed.]: GWAI-82. Berlin 1982. Wa h lster/Jameson/Hoeppner 1978 = Wahlster, Wolfgang/Jameson, Anthony/Hoeppner, Wolfgang: Glancing, referring and explaining in the dialogue system HAM RPM. In: American Journal of Computational Linguistics, Microfiche 77, 1978, 53—67. Wa h lster/Kobsa 1985 = Wahlster, Wolfgang/ Kobsa, Alfred: Dialog-Based User Models. Report, University of Saarland. Saarbrücken 1985. Wah lster/Marburger/Jameson et al. 1983 = Wahlster, Wolfgang/Marburger, Heinz/Jameson, Anthony et al.: Over-Answering Yes-No-Questions: Extended Responses in a NL Interface to a Vision System. In: Proceedings of the Eighth International Joint Conference on Artificial Intelligence, 1983, 643—646. Wah rig 1967 = Wahrig, Gerhard: Neue Wege in der Wörterbucharbeit. Hamburg 1967. Wah rig 1969 = Wahrig, Gerhard: The syntagma as a fundamental unit of lexicon entries. In: Zeitschrift für Dialektologie und Linguistik 36, 1969, 257—268. Wah rig 1970 = Wahrig, Gerhard: Die Anwendung von Kernsatztransformationen auf lexikalisch-semantische Beschreibungen. In: Zeitschrift für Dialektologie und Linguistik 37, 1970, 129—157. Wah rig 1978 = Wahrig, Gerhard: Wörterbuch der deutschen Sprache. München 1978. Wales/Walker 1976 = Wales, R. J./Walker, E.: New approaches to language mechanisms. Amsterdam 1976. Walker, A. W. 1975 = Walker, A. W.: The Empirical Alienation of Two Musical Taste Cultures: A Content Analysis of Best-Selling Soul and Populat Recording from 1962—1973. Dissertation, New School of Social Research. New York 1975. Walker, D. E. 1985 = Walker, Donald E.: Knowledge resource tools for accessing large text files. In: Proceedings of the Conference on theoretical and methodological issues in Machine Translation of natural languages, Colgate University, Hamilton, N.Y. 1985, 335—347. Walker, D. E./Amsler 1982 = Walker, Donald E./Amsler, R. A.: Proposal to the National Science Foundation on an Invitational Workshop on Machine-Readable Dictionaries. SRI, 1982 (mimeo). Walker, D. E./Amsler 1984 = Walker, Donald E./Amsler, R. A.: The Use of Machine-Readable

893

Dictionaries in Sublanguage Analysis. In: Kittredge [ed.] 1984. Walker, D. E./Karlgren/Kay [ed.] 1977 = Walker, Donald E./Karlgren, Hans/Kay, Martin [ed.]: Natural Language in Information Science. Perspectives and Directions for Research. Fairfax, Virginia 1977. Walker/Zampolli/Calzolari [eds.] fort h coming = Walker, Donald E./Zampolli, Antonio/Calzolari, Nicoletta [eds.]: Automating the Lexicon: Research and Practice in a Multilingual Environment. Proceedings of a Workshop held in Grosseto. Cambridge 1988. Wall 1978 = Wall, Robert E.: Mathematical Linguistics. In: Dingwall [ed.] 1978, 81—95. Waltz 1975 = Waltz, David L.: Natural Language Access to a Large Data Base. In: Advance Papers of the Fourth International Joint Conference on Artificial Intelligence, Cambridge, Mass. 1975. Waltz 1977 = Waltz, David L.: Natural language interfaces. In: SIGART Newsletter, No. 61, 1977, 16—65. Waltz 1978 = Waltz, David L.: An English Language Question-Answering System for a Large Relational Data Base. In: Communications of the ACM 21, July 1978, 526—539. Waltz 1981 = Waltz, David L.: The State-of-theArt in Natural Language Understanding. Working Paper 27, Advanced Automation Group, Coordinated Science Laboratory, University of Illinois. Urbana 1981. Waltz 1985 = Waltz, D.: Scientific Data Links’ Artificial Intelligence Classification Scheme. In: The AI Magazine, Spring 1985. Waltz/Finin/Green et al. 1976 = Waltz, David L./Finin, Timothy/Green, F. et al.: The PLANES System: Natural Language Access to a Large Data Base. Coordinated Science Lab., University of Illinois, Technical Report T-34. Urbana 1976. Waltz/Goodman 1977 = Waltz, David L./Goodman, Bradley A.: Writing a Natural Language Data Base System. In: IJCAI 5, Cambridge, Mass. 1977, 144—150. Waltz/Pollack 1985 = Waltz, David L./Pollack, Jordan B.: Massively Parallel Parsing: A Strongly Interactive Model of Natural Language Interpretation. In: Cognitive Science 9, 1985, 51—74. Wanner 1980 = Wanner, E.: The ATN and the sausage machine: which one is baloney? In: Cognition 8, 2, 1980, 209—225. Wanner 1987 = Wanner, E.: The parser’s architecture. In: Kessel [ed.] 1987. Warren, D. H. D./Pereira 1982 = Warren, D. H. D./Pereira, Fernando C. N.: An efficient easily adaptable system for interpreting natural language queries. In: AJCL 8, 1982, 110—122. Warren, D. H. D./Pereira/Pereira 1977 = Warren, D. H. D./Pereira, L. M./Pereira, F.: Prolog — The Language and Its Implementation Compared with Lisp. In: Proc. Symp. on AI and Programming

894

Languages, SIGPLAN Notices 12, No. 8, 1977, 109—115. Warren, D. S. 1979 = Warren, David S.: Syntax and Semantics in Parsing: An Application to Montague Grammar. Ph.D. dissertation, University of Michigan. Ann Arbor, Michigan 1979. Warren, D. S./Friedman 1982 = Warren, David S./Friedman, Joyce: Using semantics in non-context-free parsing of Montague grammar. In: American Journal of Computational Linguistics 8, 1982, 123—138. Waterman/Hayes-Roth [eds.] 1978 = Waterman, D. A./Hayes-Roth, R. [eds.]: Pattern directed inference systems. New York 1978. Watt, D. 1983 = Watt, D.: Learning with LOGO. New York 1983. Watt, W. C. 1968 = Watt, W. C.: Habitability. In: American Documentation Vol. 3, 1968, 338—351. Webber 1979 = Webber, Bonnie L.: A Formal Approach to Discourse Anaphora. New York 1979. Webber 1983a = Webber, Bonnie L.: So what can we talk about now? In: Brady/Berwick [eds.] 1983, 331—370. Webber 1983b = Webber, Bonnie L.: What Systems have to say. In: Proceedings of the 1983 NYU Symposium Artificial Intelligence. Applications for Business, May 18—20, New York University 1983. Weber, H. 1973 = Weber, Heinrich: Synpleremik II: Morphemik. In: Lexikon der Germanistischen Linguistik, Tübingen 1973, 163—175. Weber, H. 1980 = Weber, Heinrich: Morphemik. In: Althaus/Henne/Wiegand [eds.] 1980, 159—169. Weber, H. J. 1976 = Weber, Heinz Josef: Automatische Lemmatisierung — Zielsetzung und Arbeitsweise eines linguistischen Identifikationsverfahrens. In: Linguistische Berichte 44, 1976, 30—47. Weber, H. J. 1983 = Weber, Heinz Josef: TextOriented Machine Translation. In: Heydrich/Petöfi [eds.] 1983, 200—206. Weber, H. J. 1985 = Weber, Heinz Josef: Konvergierende Neuansätze in der maschinellen Übersetzung. In: Strukturen und Verfahren in der maschinellen Sprachverarbeitung. Weber, H. J. 1987 = Weber, Heinz Josef: Wissensrepräsentation und Textstrukturanalyse. In: Wilss/ Schmitz [eds.] 1987, 181—209. Weber, N. 1986 = Weber, Nico: Computergestütztes strukturiertes Wortschatzlernen. In: Literary and Linguistic Computing 4, 1986, 207—213. Weber, R. P. 1981 = Weber, Robert P.: Society and Economy in the Western World System. In: Social Forces 59:4, 1981, 1130—1148. Weber, R. P. 1985 = Weber, Robert P.: Basic Content Analysis. Beverly Hills 1985. Wedekind 1970 = Wedekind, H.: Datenorganisation. Berlin 1970. Wedel 1984 = Wedel, Hasso von: Reichen die heute verfügbaren sprachaudiometrischen Verfah-

XIII. Bibliography

ren zur Hörgeräteanpassung? In: Audiologische Akustik 23, 1984, 102—120. Wegera 1982 = Wegera, Klaus-Peter: Möglichkeiten und Grenzen der philologischen Auswertung einer elektronisch gespeicherten Datei zum Frühneuhochdeutschen. In: Fix/Rothkegel/Stegentritt [eds.] 1982, 207—222. Wegera 1987 = Wegera, Klaus-Peter: Grammatik des Frühneuhochdeutschen. Band III: Flexion der Substantive. In: Moser/Stupp/Besch [eds.] 1987 f. Wegner [ed.] 1977 = Wegner, D. [ed.]: Gesprächsanalyse. 5. Kolloquium des IKP in Bonn, 1976 (Forschungsberichte des IKP 65). Hamburg 1977. Weh rli 1983 = Wehrli, Eric: A Modular Parser for French. In: Proceedings of the 8th IJCAI, 1983, 686—689. Weh rli 1984 = Wehrli, Eric: A GovernmentBinding Parser for French. Working Paper No. 48. Geneve 1984. Weh rli 1985 = Wehrli, Eric: Design an d Implementation of a Lexical Data Base. In: Proceedings of the Second Conference of the European Chapter of the Association for Computational Linguistics, 27—29 March 1985, Geneva 1985, 146—153. Weijnen et al. 1975 = Weij nen, A. et al.: Atlas Linguarum Europae. Introduction. Assen 1975. Weinh old 1985 = Weinhold, Norbert: Sprachgeographische Distribution und chronologische Schichtung. Untersuchungen zu M. Bartoli und neueren geographischen Theorien. (= Kremer, Dieter/Niederehe, Hans-Josef [eds.]: Romanistik in Geschichte und Gegenwart Bd. 17). Hamburg 1985. Weinreb/Moon 1981 = Weinreb, D./Moon, D. A.: Lisp Machine Manual. Symbolics Inc. Cambridge, Mass. 1981. Weinreich 1964 = Weinreich, Uriel: Machine aids in the compilation of linguistic atlases. In: American Philosophical Society. Year Book 1963, Philadelphia 1964, 622—625. Weisch edel 1979 = Weischedel, Ralph M.: A new semantic computation while parsing: presupposition and entailment. In: Syntax and Semantics, Vol. 11, 1979, 155—182. Weisch edel 1983 = Weischedel, Ralph M.: Handling ill-formed input: session introduction. In: Proceedings ANLP, 1983, 89—92. Weisc h edel/Black 1980 = Weischedel, Ralph M./Black, J. E.: Responding intelligently to unparsabel inputs. In: AJCL Vol. 6, No. 2, 1980, 97—109. Weiß 1967 = Weiß, H.: Statistische Untersuchungen über Satzlänge und Satzgliederung als autorspezifische Stilmerkmale. Dissertation RWTH Aachen. Aachen 1967. Weissenborn 1978 = Weissenborn, J.: Eine Basisgrammatik für die automatische Analyse des Französischen im Hinblick auf die maschinelle Übersetzung. Saarbrücken 1978. Weisweber 1986 = Weisweber, Wilhelm: Ein Parsergenerator für die lexical functional grammar

XIII. Bibliography

(LFG). EWH Rheinland-Pfalz — Abteilung Koblenz — Fachberichte Informatik 4/1986. Koblenz 1986. Weitzman 1975 = Weitzman, Michael P.: A statistical approach to textual criticism, with special reference to the Peshitta of the Old Testament. Ph.D. thesis, University College, London 1975. Weitzman 1977 = Weitzman, Michael P.: Rev. ’Dearing, Vinton A. (1974): Priciples and practice of textual analysis. Berkeley/Los Angeles’. In: Vetus Testamentum 27, 1977, 225—235. Weitzman 1982 = Weitzman, Michael P.: Computer simulation of the development of manuscript traditions. In: ALLC Bulletin 10, 1982, 55—59. Weitzman 1985 = Weitzman, Michael P.: The analysis of open traditions. In: Studies in Bibliography 38, 1985, 82—120. Weizenbaum 1966 = Weizenbaum, Joseph P.: ELIZA — a computer program for the study of natural language communication between man and machine. In: Communications of the Association for Computing Machinery 9, 1966, 36—45. Weizenbaum 1967 = Weizenbaum, J.: Contextual understanding by computers. In: Communications of the ACM 10, 1967, 474—480. Weizenbaum 1976 = Weizenbaum, J.: Computer Power and Human Reason. From Judgement to Calculation. Harmondsworth 1976. Weizenbaum 1978 = Weizenbaum, J.: Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt/M. 1978. Wellisch 1980 = Wellisch, H. H.: Indexing and abstracting: an international bibliography. Santa Barbara 1980. Wellisch 1984 = Wellisch, H. H.: Indexing and abstracting: an international bibliography. Teil 2 (für den Zeitraum 1977—1981). Santa Barbara 1984. Wells 1947 = Wells, Rulon S.: Immediate constituents. In: Language 23, 1947, 81—117. Werlen [ed.] 1985 = Werlen, Iwar [ed.]: Probleme der schweizerischen Dialektologie. 1978. 2. Kolloquium der Schweiz. Geisteswissenschaftlichen Gesellschaft. Fribourg 1985. Wessells 1984 = Wessells, Michael G.: Kognitive Psychologie. New York 1984. West 1973 = West, Martin L.: Textual criticism and editorial technique, applicable to Greek and Latin texts. Stuttgart 1973. Wester h off, C. J./Reed 1985 = Westerhoff, C. J./Reed, L.: Voice Systems in the U.S. Army Aircraft. In: Speech Technology 2, No. 4, 1985, 43—50. Westerh off, W. 1977 = Westerhoff, Wilfried: Zur Behandlung von Mehrfachmeldungen in der Automatischen Wortkartographie. In: Germanistische Linguistik 3—4, 1977, 211—224. Westerh off, W. 1979 = Westerhoff, Wilfried: Ein Programmpaket zur automatischen Erzeugung sprachgeographischer Karten. (= Schriftenreihe

895

des Rechenzentrums der Universität Münster Nr. 39). Münster 1979. Wettler 1980 = Wettler, Manfred: Sprache, Gedächtnis, Verstehen. Berlin — New York 1980. Wexelblat [ed.] 1981 = Wexelblat, R. [ed.]: History of Programming Languages. New York 1981. Wexler/Culicover 1980 = Wexler, Kenneth/Culicover, Peter W.: Formal principles of language acquisition. Cambridge, Mass. 1980. Wh aley 1980 = Whaley, C. P.: Predictive analysis in sentence comprehension: A computer simulation model for surface structure parsing. 1980. Wh eeler 1986 = Wheeler, Peter: The LOGOS Translation System. In: Proceedings of IAI-MT 86, 20—22 August 1986, Dudweiler 1986, 20—33. W h oley/Fa h lman 1984 = Wholey, S./Fahlman, S. E.: The Design of an Instruction Set for Common Lisp. In: Boyer [ed.] 1984. Wh orf 1956 = Whorf, B. L.: Language, Thought and Reality. Cambridge 1956. Wickmann 1969 = Wickmann, D.: Eine mathematisch-statistische Methode zur Untersuchung der Verfasserfrage literarischer Texte. Durchgeführt am Beispiel der ’Nachtwachen. Von Bonaventura’ mit Hilfe der Wortartübergänge. Köln — Opladen 1969. Wickmann 1974 = Wickmann, D.: Zum Bonaventura-Problem: Eine mathematisch-statistische Überprüfung der Klingemann-Hypothese. In: Zs. f. Literaturwissenschaft und Linguistik 4, 1974, 13—29. Wiegand 1983 = Wiegand, Herbert Ernst: Was ist eigentlich ein Lemma? In: Wiegand [ed.] 1983, 401—474. Wiegand 1986 = Wiegand, Herbert Ernst: Metalexikography. In: Interdisciplinary Science Reviews, Vol. 11, No. 2, 1986, 122—131. Wiegand [ed.] 1983 = Wiegand, Herbert Ernst [ed.]: Studien zur neuhochdeutschen Lexikographie III. (= Germanistische Linguistik 1—4/82). Hildesheim — Zürich — New York 1983. Wiegand [ed.] 1984 = Wiegand, Herbert Ernst [ed.]: Studien zur neuhochdeutschen Lexikographie V. (= Germanistische Linguistik 3—6/84). Hildesheim—Zürich—New York 1984. Wiegand [ed.] 1986 = Wiegand, Herbert Ernst [ed.]: Studien zur neuhochdeutsche Lexikographie VI,1. (= Germanistische Linguistik 84—86/1986). Hildesheim — Zürich — New York 1986. Wijngaarden 1969 = Wij ngaarden, A. van: Report on the algorithmic language ALGOL 68. In: Numerische Mathematik 14, 1969, 79—218. Wijngaarden 1974 = Wij ngaarden, A. van: Revised report on the algorithmic language ALGOL 68. Berlin 1974. Wilczynski 1981 = Wilczynski, D.: Knowledge acquisition in the Consul system. In: International Joint Conference on Artificial Intelligence, Vancouver, Canada 1981, 135—140.

896

Wilensky 1978a = Wilensky, Robert: Understanding goal-based stories. Ph.D. Dissertation, Yale University, Dept. of Computer Science [Technical Report No. 140]. New Haven, CO. 1978. Wilensky 1978b = Wilensky, Robert: Why Johan married Mary: understanding stories involving recurring goals. In: Cognitive Science 2, 1978, 235—366. Wilensky 1981 = Wilensky, Robert: PAM. In: Schank/Riesbeck [eds.] 1981, 136—196. Wilensky 1983 = Wilensky, Robert: Planning and understanding. A computational approach to human reasoning. Reading 1983. Wilensky/Arens 1980 = Wilensky, R./Arens, Y.: PHRAN: a knowledge based approach to natural language analysis. Berkeley Electronics Research Lab., Memo UCB/ERL/M80/34. 1980. Wilensky/Arens/C h in 1982 = Wilensky, R./ Arens, Y./Chin, D.: Talking to UNIX in English: an overview of UC. In: Communications of the ACM 27, 1982, 574—593. Wilkins, E. H./Bergin 1965 = Wilkins, Ernest H./Bergin, Thomas G.: A Concordance to the Divine Comedy of Dante Aligheri. Cambridge, Mass. 1965. Wilkins, J. 1668 = Wilkins, John: An essay towards a Real Character and a Philosophical Language. London 1668. Wilks 1972 = Wilks, Yorick Alexander: Grammar, Meaning and the Machine Analysis of Language. London 1972. Wilks 1973 = Wilks, Yorick Alexander: An Artificial Intelligence Approach to Machine Translation. In: Schank/Colby [eds.] 1973, 114—151. Wilks 1975a = Wilks, Yorick Alexander: A preferential, pattern-seeking semantics for natural language inference. In: Artificial Intelligence 6, 1975, 53—74. Wilks 1975b = Wilks, Yorick Alexander: An intelligent analyzer and understander of English. In: Communications of the ACM 18, 5, 1975, 264—274. Wilks 1975c = Wilks, Yorick Alexander: Preference semantics. In: Formal semantics of natural language, Cambridge 1975, 329—348. Wilks 1975d = Wilks, Yorick Alexander: Primitives and Words. In: Schank/Nash-Webber [eds.] 1975, 42—44. Wilks 1975e = Wilks, Yorick Alexander: Seven Theses on Artificial Intelligence and Natural Language. ISSCO WP no. 17. Geneva 1975. Wilks 1976a = Wilks, Yorick Alexander: Parsing English I. In: Charniak/Wilks [eds.] 1976, 89—100. Wilks 1976b = Wilks, Yorick Alexander: Parsing English II. In: Charniak/Wilks [eds.] 1976, 155—184. Wilks 1976c = Wilks, Yorick Alexander: Philosophy of language. In: Charniak/Wilks [eds.] 1976, 205—233. Wilks 1977a = Wilks, Yorick Alexander: Good

XIII. Bibliography

and Bad Arguments about Semantic Primitives. In: Communication and Cognition, Vol. 10, No. 3/4, 1977, 181—221. Wilks 1977b = Wilks, Yorick Alexander: Natural Language Understanding Systems within the AI Paradigm: a Survey and some Comparisons. In: Zampolli [ed.] 1977, 341—398. Wilks 1977c = Wilks, Yorick Alexander: Time flies like an arrow. In: New Scientist 76, 1977, 696—698. Wilks 1978a = Wilks, Yorick Alexander: Comparative translation quality analysis. Final report on contract F-33657-77-C-0695, LATSEC, Inc. La Jolla 1978. Wilks 1978b = Wilks, Yorick Alexander: Making preferences more active. In: Artificial Intelligence 11, 1978, 197—223. Wilks 1983a = Wilks, Yorick Alexander: Machine translation and artificial intelligence paradigm of language processes. In: Sedelow/Sedelow [eds.] 1983, 61—111. Wilks 1983b = Wilks, Yorick Alexander: Deep and superficial parsing. In: King [ed.] 1983, 224—246. Wilks/Huang/Fass 1985 = Wilks, Yorick Alexander/Huang, Xiuming/Fass, Dan: Syntax, preference and right attachment. In: IJCAI-85, 1985, 779—784. Willée 1979 = Willée, Gerd: LEMMA — Ein Programmsystem zur automatischen Lemmatisierung deutscher Wortformen. In: Sprache und Datenverarbeitung 1/2, 1979, 45—60. Willée 1983 = Willée, Gerd: Über die Vergleichbarkeit von Syntaxparsern. In: ALLC Journal 4, 1983, 56—63. Willée 1984 = Willée, Gerd: LEMMA 2 — eine Weiterentwicklung von LEMMA. In: IKP-Forschungsbericht 1 (als Manuskript). Willée 1985a = Willée, Gerd: Das Bonner Lexikonsystem BONNLEX1. In: IKP Forschungsbericht Nr. 6 (als Manuskript). Willée 1985b = Willée, Gerd: Wortakzent und Pausen im System PHONTEXT. In: Müller [ed.] 1985, 115—125. Williams, E. 1977 = Williams, E.: Discourse and logical form. In: Linguistic Inquiry 8, 1977, 101—137. Williams, J. H. 1975 = Williams, J. H.: Bounded context parsable grammars. In: Information and Control, Vol. 28, 1975, 314—334. Williams, J. M. 1982 = Williams, J. M.: Speech Output Helps Disabled People Lead Productive Lives. In: Speech Technology 1, No. 3, 1982, 69—72. Williams, M. E. [ed.] 1984 = Williams, M. E. [ed.]: Annual Review of Information Science and Technology (ARIST). In: ASIS, Knowledge Industry Publications, Vol. 19. Williams, S. [ed.] 1985 = Williams, S. [ed.]: Humans and Machines. Norwood 1985.

XIII. Bibliography

Wilss/Sc h mitz [eds.] 1986 = Wilss, Wolfram/ Schmitz, Klaus-Dirk [eds.]: Maschinelle Übersetzung — Methoden und Werkzeuge. (= Sprache und Information, Bd. 16). Tübingen 1987. Wimmer [ed.] 1985 = Wimmer, Rainer [ed.]: Sprachkultur. Jahrbuch 1984 des Instituts für deutsche Sprache. Düsseldorf 1985. Winkelmann 1980 = Winkelmann, Otto: Computerunterstützte Analysen im Bereich der Morphosyntax. In: Figge [ed.] 1980, 95—104. Winograd 1969 = Winograd, Terry: A language for writing grammars. In: MIT, Artificial Intelligence, Memo No. 181. Winograd 1971 = Winograd, Terry: Procedures as Representation for Data in a Computer Program for Understanding Natural Language. MAC TR84 Ph.D. Thesis. Cambridge, Mass. 1971. Winograd 1972 = Winograd, Terry: Understanding Natural Language. New York — London 1972. Winograd 1973 = Winograd, Terry: A Procedural Model of Language Understanding. In: Schank/ Colby [eds.] 1973, 152—186. Winograd 1975a = Winograd, Terry: Five lectures on artificial intelligence. In: Winston [ed.] 1975. Winograd 1975b = Winograd, Terry: Frame representations and the declarative/procedural controversy. In: Bobrow/Collins [eds.] 1975, 185—210. Winograd 1976a = Winograd, Terry: Computer Memories: A Metaphor for Memory Organization. In: Cofer [ed.] 1976, 133—161. Winograd 1976b = Winograd, Terry: Towards a procedural understanding of semantics. Stanford 1976. Winograd 1976c = Winograd, Terry: Towards a procedural understanding of semantics. In: Revue Internationale de Philosophie 3—4, No. 117—118, 1976, 260—303. Winograd 1977a = Winograd, Terry: A Framework for Understanding Discourse. In: Just/Carpenter [eds.] 1977, 63—88. Winograd 1977b = Winograd, Terry: Five Lectures on Artificial Intelligence. In: Zampolli [ed.] 1977, 399—520. Winograd 1980a = Winograd, Terry: Extended inference modes in reasoning by computer systems. In: Artificial Intelligence 13, 1980, 5—26. Winograd 1980b = Winograd, Terry: What Does It Mean to Understand Language? In: Cognitive Science, Vol. 4, 1980, 209—241. Winograd 1983 = Winograd, Terry: Language as a Congnitive Process. Volume I: Syntax. Reading, Mass. 1983. Winograd/Flores 1986 = Winograd, T./Flores, F.: Understanding Computers and Cognition. Norwood, J., Ablex 1986. Winston 1975 = Winston, Patrick Henry: Learning structural descriptions from examples. In: Winston [ed.] 1975.

897

Winston 1977 = Winston, Patrick H.: Artificial Intelligence. Reading, Mass. 1977. Winston 1984 = Winston, Patrick Henry: Artificial Intelligence. 2nd edition. Reading, Mass. 1984. Winston [ed.] 1975 = Winston, Patrick Henry [ed.]: The Psychology of Computer Vision. New York 1975. Winston/Brown [eds.] 1979a = Winston, Patrick Henry/Brown, Richard Henry [eds.]: Artificial Intelligence. An MIT Perspective. Volume I: Expert Problem Solving, Natural Language Understanding, Intelligent Computer Coaches, Representation and Learning. Cambridge, Mass. — London 1979. Winston/Brown [eds.] 1979b = Winston, Patrick Henry/Brown, Richard Henry [eds.]: Artificial Intelligence: An MIT Perspective. Vol. 2: Understanding Vision — Manipulation — Computer Design — Symbol Manipulation. Cambridge, Mass. — London 1979. Winston/Horn 1981 = Winston, Patrick Henry/ Horn, Berthold Klaus Paul: LISP. Reading, Mass. et al. 1981. Wirth , E. 1979 = Wirth, Eugen: Theoretische Geographie. Grundzüge einer theoretischen Kulturgeographie. (= Borchert, Ch./Rath j ens, C./Wirth, E. [eds.]: Studienbücher der Geographie). Stuttgart 1979. Wirth , N. 1982 = Wirth, N.: Programming in Modula-2. Berlin 1982. Wisbey 1962 = Wisbey, Roy A.: Concordance Making by Electronic Computer: Some Experiences with the ’Wiener Genesis’. In: Modern Language Review 57, 1962, 61—72. Witkam, A. P. M. 1983 = Witkam, A. P. M.: Distributed Language Translation: Feasibility Study of a Multilingual Facility for Videotex Information Networks. Utrecht 1983. Witkam, T. 1984 = Witkam, Toon: Distributed Language Translation, Another MT System. In: Proceedings of International Conference on Machine Translation, Cranfield, U.K., Febr. 1984. Witt 1970 = Witt, Werner: Thematische Kartographie. Methoden und Probleme, Tendenzen und Aufgaben. Hannover 1970. Witten 1982a = Witten, I. H.: Principles of Computer Speech. London 1982. Witten 1982b = Witten, I. H.: Driving the Votrax Speech synthesizer from a wide phonetic transcription with high-level prosodic markers. In: International Journal of Man-Machine Studies 17, 1982, 393—403. Witten/Abbess 1979 = Witten, I. H./Abbess, J.: A microcomputer-based speech synthesis-by-rule system. In: International Journal of Man-Machine Studies 11, 1979, 585—620. Woetzel 1984 = Woetzel, Harald: Historisch-systematische Untersuchungen zum Komponentialismus in der linguistischen Semantik. Eine Kritik des

898

Elementarismus. (= Germanistische Linguistik 1—2). Hildesheim — Zürich — New York 1984. Wolf, E. 1977 = Wolf, Eckhard: Vom Buchstaben zum Laut. Maschinelle Erzeugung und Erprobung von Übersetzungsautomaten am Beispiel Schriftenglisch — Phonologisches Englisch. Braunschweig 1977. Wolf, H. E. 1984 = Wolf, H. E.: Sprachvollsynthese mit automatischer Transkription. In: Der Fernmelde-Ingenieur 38, No. 10, 1984, 1—43. Wolf, H. E. 1985 = Wolf, H. E.: Diphon-Synthese mit dem SAMT-System. In: Müller [ed.] 1985, 11—38. Wolf, W. A./Woods 1980 = Wolf, W. A./Woods, William A.: The HWIM Speech Understanding System. In: Lea [ed.] 1980, 316—339. Wonka 1980 = Wonka, Erich: Methoden der Wertstufenbildung und ihre Eignung für die thematische Kartographie. In: Mitteilungen der Österreichischen Geographischen Gesellschaft, Bd. 122, 1. Halbbd., Wien 1980, 70—96. Wood 1969 = Wood, Gordon R.: Dialectology by computer. International Conference on Computational Linguistics. Preprint No. 19. Stockholm 1969. Wood 1972 = Wood, Gordon R.: The computer in analysis and plotting. In: American Speech 47, 1972, 195—202. Woods 1968 = Woods, William A.: Procedural Semantics for a Question-Answering Machine. In: AFIPS Conference Proceedings 33 (1968). Woods 1969 = Woods, William A.: Augmented Transition Networks for Natural Language Analysis. Report CS-1, Aiken Computer Laboratory, Harvard University. Cambridge, Mass. 1969. Woods 1970 = Woods, William A.: Transition Network Grammars for Natural Language Analysis. In: Communications of the Association for Computing Machinery 13, No. 10, 1970, 591—606. Woods 1973a = Woods, William A.: Progress in natural language understanding: an application to lunar geology. In: Proceedings of the American federation of information processing societies conference 42, 1973, 441—450. Woods 1973b = Woods, William A.: An Experimental Parsing System for Transition Networks Grammar. In: Rustin [ed.] 1973, 111—154. Woods 1975a = Woods, William A.: SPEECHLIS: an experimental prototype for speech understanding research. In: IEEE transactions on acoustics, speech and signal processing 23 (1), 2—10. Woods 1975b = Woods, William A.: What’s in a Link? In: Bobrow/Collins [eds.] 1975, 35—82. Woods 1976 = Woods, William A.: Netzwerkgrammatiken für die Analyse natürlicher Sprache. In: Eisenberg [ed.] 1976, 98—136. Woods 1977 = Woods, William A.: Lunar Rocks in Natural English: Explorations in Natural Language Question Answering. In: Zampolli [ed.] 1977, 521—569.

XIII. Bibliography

Woods 1980 = Woods, William A.: Cascaded ATN grammars. In: AJCL 6, 1, 1980, 1—12. Woods 1982 = Woods, William A.: Cascaded Grammar. In: Journal of Computational Linguistics, 1982, 23—36. Woods 1983a = Woods, William A.: Natural Language Communication with Machines: An Ongoing Goal. In: Proceedings of the 1983 NYU Symposium Artificial Intelligence. Applications for Business, May 18—20, New York University 1983. Woods 1983b = Woods, William A.: What’s Important About Knowledge Representation? In: IEEE Computer, Oct. 1983, 22—27. Woods/Bates/Brown et al. 1976 = Woods, William A./Bates, M./Brown, G. et al.: Speech Understanding Systems: Final Report Vol. IV. Technical Report 3438, Bolt, Beranek and Newman. Cambridge 1976. Woods/Brach man 1978 = Woods, William A./ Brachman, Ronald J.: Research in Natural Language Understanding. BBN Report No. 3742. Cambridge, Mass. 1978. Woods/Kaplan/Nas h -Webber 1972 = Woods, William A./Kaplan, Ronald J./Nash-Webber, B.: The Lunar Sciences Natural Language Information System. Final Report. Brown Beranek and Newman Inc., Report 2378. Cambridge, Mass. June 1972. Wossidlo [ed.] 1980 = Wossidlo, P. R. [ed.]: Textverarbeitung und Informatik. Berlin 1980. Woth ke 1983 = Wothke, Klaus: Automatisierung strukturalistischer Phonemanalysen. Tübingen 1983. Woth ke 1985 = Wothke, Klaus: Maschinelle Erlernung und Simulation morphologischer Ableitungsregeln. Diss. Bonn 1985. Wunderlich 1974 = Wunderlich, Dieter: Grundlagen der Linguistik. (English translation by Roger Lass, Cambridge 1979). Reinbek bei Hamburg 1974. Wunderlich 1976 = Wunderlich, Dieter: Studien zur Sprechakttheorie. Frankfurt/M. 1976. Wunderlich 1982 = Wunderlich, Dieter: Sprache und Raum. In: Studium Linguistik 12, 1982, 1—19. Wunderlich [ed.] 1976 = Wunderlich, Dieter [ed.]: Wissenschaftstheorie der Linguistik. Kronberg/Ts. 1976. Wyatt 1983 = Wyatt, David H.: ComputerAssisted Language Introduction. Oxford 1983. Wyld 1932 = Wyld, Henry Cecil: Universal Dictionary of the English Language. London 1932. Wyllis 1967 = Wyllis, R. E.: Extracting and abstracting by computer. In: Borko [ed.] 1967, 127—179. Yamada 1982 = Yamada, H.: Certain Problems Associated with the Design of Input Keyboards for Japanese Writing. TR 82—14, Department of Information Science, University of Tokyo. Tokyo 1982.

XIII. Bibliography

Yamaguc h i/Toda/Yuba 1983 = Yamaguchi, Y./Toda, K./Yuba, T.: A Performance Evaluation of a Lisp-Based Data-Driven Machine (EM-3). In: Thorelli [ed.] 1983. Yasukawa 1984 = Yasukawa, H.: LFG System in Prolog. In: Proceedings of the 22nd Annual Meeting of the Association for Computational Linguistics, 1984, 358—361. Yazdani/Narayanan [eds.] 1984 = Yazdani, Masoud/Narayanan, j A it [eds.]: Artificial Intelligence: Human Effects. New York 1984. Yea/Kris h namurt h y/Naik et al. 1983 = Yea, J. J./Krishnamurthy, A. K./Naik, J. M. et al.: Glottal Sensing for Analysis and Synthesis. In: ICASSP Proceedings, 1983, 1332—1335. Yngve 1958 = Yngve, Victor H.: A programming language for mechanical translation. In: Mechanical Translation 5, 1958, 25. Yngve 1960 = Yngve, Victor H.: A Model and An Hypothesis for Language Structure. In: Proceedings of the American Philosophical Society 104, 1960, 444—466. Yngve 1962a = Yngve, Victor H.: Computer programs for translation. In: Scientific American, June 1962, 68—76. Yngve 1962b = Yngve, Victor H.: Random generation of English sentences. In: Proceedings 1961 International Conference on Machine Translation of Language and Applied Language Analysis, London 1962, 66—80. Yngve 1963 = Yngve, Victor H.: COMIT. In: Communications of the ACM, Vol. 6, 1963, 83—84. Yngve 1983 = Yngve, Victor H.: Bloomfield’s fundamental assumption of linguistics. In: The Ninth Lacus Forum 1982, Linguistic Association of Canada and the United States, 1983, 137—145. Yokata/Yamamoto/Taki et al. 1984 = Yokata, M./Yamamoto, A/Taki, K. et al.: The Design and Implementation of a Personal Sequential Inference Machine: PSI. In: New Generation Computing, Vol. 2, 1984, 75—79. Yokoyama 1980 = Yokoyama, S.: On the Accent Patterns of Entry Words in Japanese Dictionary. In: Speech Research 1980, 56—59. Yos h imura/Yos h ida 1985 = Yoshimura, M./ Yoshida, N.: A Voice Alert Function Makes Sewing Machines Easier to Handle. In: Speech Technology 2, No. 4, 1985, 34—41. Young, C. E. 1973 = Young, C. E.: Development of Language Analysis Procedures with Application to Automatic Indexing. Ph.D. Diss., Columbus. 1973. Young, I. D. 1965 = Young, Ione Dodson: A Concordance to the Poetry of Byron. 4 Vls. Austin 1965. Young, S. J./Fallside 1979 = Young, S. J./Fallside, F.: Speech synthesis from concept: A method for speech output from information systems. In: Journal of the Acoustical Society of America 66, No. 3, 1979, 685—695.

899

Young, S. J./Fallside 1980 = Young, S. J./Fallside, F.: Synthesis by rule of prosodic features in Word Concatenation Synthesis. In: International Journal of Man-Machine Studies 17, 1980, 241—258. Younger 1967 = Younger, D. H.: Recognition of Context-free Languages in Time 〉〉n hoch 3〈〈. In: Inf. Control 10, 1967, 189—208. Zadeh 1971 = Zadeh, Lotfi A.: Quantitative Fuzzy Semantics. In: Information Sciences 3, 1971, 159—176. Zadeh 1975 = Zadeh, Lotfi A.: Fuzzy Logic and Approximate Reasoning. In: Synthese 30, 1975, 407—428. Zadeh 1982 = Zadeh, Lotfi A.: Test-Score Semantics for Natural Languages. In: Horecký [ed.] 1982, Amsterdam — New York — Oxford 1982, 425—430. Zadeh 1986 = Zadeh, Lotfi A.: Test-Score Semantics as a Basis for a Computational Approach to the Representation of Meaning. In: Literary and Linguistic Computing. Journal of the ALLC 1, 1986, 24—35. Zah arin 1986 = Zaharin, Yusoff: Tree Correspondence Grammar: The Static Grammar Revisited. Presentation given at the ACL meeting. Columbia University June 1986. Zajac 1986a = Zaj ac, Rémi: Etude des possibilités d’interaction homme-machine dans un processus de traduction automatique. Spécification d’un système d’aide à la rédaction en vue d’une traduction par machine. Définition d’un langage de spécification linguistique. Grenoble 1986. Zajac 1986b = Zaj ac, Rémi: SCSL: a linguistic specification language for MT. In: COLING ’86, Proceedings of the 11th International Conference on Computational Linguistics, Bonn 1986, 393—398. Zampolli 1973 = Zampolli, Antonio: L’automatisation de la recherche lexicologique: etat actuel et tendances nouvelles. In: META XVIII, 1—2, 1973, 237—278. Zampolli 1983 = Zampolli, Antonio: Lexicological and Lexicographical Activities at the Istituto di Linguistica Computazionale. In: Zampolli/Cappelli [eds.] 1983, 237—278. Zampolli [ed.] 1977 = Zampolli, Antonio [ed.]: Linguistic Structures Processing. Amsterdam— New York—Oxford 1977. Zampolli/Calzolari 1985 = Zampolli, Antonio/ Calzolari, Nicoletta: Computational Lexicography and Lexicology. In: AILA Bulletin 1985, 59—78. Zampolli/Calzolari [eds.] 1977 = Zampolli, Antonio/Calzolari, Nicoletta [eds.]: Computational and Mathematical Linguistics, Vol. I. Proceedings of the Fourth International Conference on Computational Linguistics, Pisa 1973. Firenze 1977. Zampolli/Calzolari [eds.] 1980 = Zampolli, Antonio/Calzolari, Nicoletta [eds.]: Computational and Mathematical Linguistics, Vol. II. Proceedings of the Fourth International Conference on Computational Linguistics, Pisa 1973. Firenze 1980.

900

Zampolli/Capelli [eds.] 1983 = Zampolli, Antonio/Capelli, A. [eds.]: The Possibilities and Limits of the Computer in producing and publishing Dictionaries. In: Linguistica Computazionale III. Zarri 1976 = Zarri, Gian P.: A computer model for textual criticism? In: Jones/Churchhouse [eds.] 1976, 133—155. Zdornych /Sokolova/Ubin 1984 = Zdornych, Tatj ana A./Sokolova, Elena N./Ubin, Ivan I.: Avtomatičeskij slovar’ kak instrument obrabotki tekstovoj informacii. (Automatic dictionary as an instrument of text processing). In: Semantika texta y problemy perevoda (Semantics of text and problems of translation), Moscow 1984, 66—71. Zdybel/Greenfeld/Yonke et al. 1981 = Zdybel, Frank/Greenfeld, Norton R./Yonke, Martin D. et al.: An Information Presentation System. In: IJCAI-81: Proceedings of the 7th International Joint Conference on Artificial Intelligence, Vancouver, August 24—28, 1981, Menlo Park 1981, 978—984. Zelinsky-Wibbelt 1987 = Zelinsky-Wibbelt, Cornelia: Eine Attributierte Grammatik als Werkzeug für die Generierung Semantischer Merkmale. In: Klenk/Scherber/Thaller [eds.] 1987, 183—193. Zemb 1987 = Zemb, Jean-Marie: Zum Begriff des ’Prädikats’. In: Wilss/Schmitz [eds.] 1987, 101—111. Zemb [forth coming] = Zemb, Jean-Marie: Old Observations and New Hypotheses. [forthcoming]. Zerssen 1973 = Zerssen, Detlef von: Methoden der Konstitutions- und Typenforschung. In: Thiel [ed.] 1973, 83—143. Zettersten 1986 = Zettersten, Arne: New Technologies in Language Learning. Oxford—Copenhagen—Lund 1986. Zettersten/Jacobson 1986 = Zettersten, Arne/Jacobson, Mats: BrainLearn. An authoring system. Lund 1986. Zimmermann, H. H. 1972 = Zimmermann, Harald H.: Das Lexikon in der maschinellen Sprachanalyse. Frankfurt/M. 1972. Zimmermann, H. H. 1979 = Zimmermann, Harald H.: Ansätze einer realistischen automatischen Indexierung unter Verwendung linguistischer Verfahren. In: Kuhlen [ed.] 1979, 311—338. Zimmermann, H. H. 1983 = Zimmermann, Harald H.: Multifunctional Dictionaries. In: Zampolli/ Capelli [eds.] 1983, 279—288. Zimmermann, R. 1986 = Zimmermann, R.: Informationssysteme mit Sprachein- und -ausgabe. In: Nachrichtentechnische Zeitschrift 39, 1986, 378—381. Zingel 1978 = Zingel, Herrmann-Josef: Welchen Service bietet das Textilinformationssystem TITUS seinen Benutzern? In: Mellian Textilberichte 59, 1978, 1022—1026. Zinglé 1982 = Zinglé, Henri: Traitement de la prosodie allemande dans un système de synthèse de la parole. (Diss.). Straßburg 1982.

XIII. Bibliography

Zinglé 1985a = Zinglé, Henri: Theorie des Gruppenakzents im Deutschen und ihre Anwendung in der Sprachsynthese. In: Müller [ed.] 1985, 139—156. Zinglé 1985b = Zinglé, Henri: Synthèse vocale en allemand à partir du texte. In: ALLC Bulletin 13, No. 1, 1985, 5—7. Zinglé 1986 = Zinglé, Henri: Définition d’une Méthode d’identification de segments linguistiques: Application à l’analyse morphologique de l’allemand. In: Zinglé [ed.] 1986, 104—119. Zinglé [ed.] 1986 = Zinglé, Henri [ed.]: Trauvaux du laboratoire langues et informatique de l’université de Savoie. Chambéry 1986. Zoeppritz 1983 = Zoeppritz, Magdalena: Endbenutzersysteme mit ”natürlicher Sprache” und ihre Human Factors. In: Balzert [ed.] 1983, 397—410. Zoeppritz 1984 = Zoeppritz, Magdalena: Syntax for German in the User Specialty Languages System. Tübingen 1984. Zoeppritz 1985a = Zoeppritz, Magdalena: Computer Talk? Technical Note 85.05. IBM Heidelberg Scientific Center. Heidelberg 1985. Zoeppritz 1985b = Zoeppritz, Magdalena: Ein Sprachmodell für die Software-Ergonomie. In: Endres-Niggemeyer/Krause [eds.] 1985, 67—80. Zoeppritz 1986 = Zoeppritz, Magdalena: Investigating human factors in natural language data base. In: Mey [ed.] 1986, 585—605. Žolkovskij/Mel’čuk 1966 = Žolkovski j, Alek K./Mel’čuk, Igor A.: O sisteme semantičeskogo sinteza. In: Naučno-techničeska ja informaci j a, No. 11, 1966, 48—55. Žolkovskij/Mel’čuk 1967 = Žolkovski j, Alek K./Mel’čuk, Igor A.: O semantičeskom sinteze. In: Problemy kibernetiki 19, Moscow 1967, 177—238. Zoltan/Weeks/Ford 1982 = Zoltan, E./Weeks, G. D./Ford, W. R.: Natural Language Communication with Computers: A Comparison of Voice and Keyboard Input. In: Johannsen/Ri j sdorp [eds.] 1982, 27—28. Zorkoczy [ed.] 1984 = Zorkoczy, P. [ed.]: Oxford Surveys in Information Technology, Vol. 1. Oxford 1984. Zue 1985 = Zue, V. W.: The Use of Speech Specific Knowledge in Automatic Speech Recognition. In: Proceedings of the IEEE, Vol. 73, No. 11, 1985, 1602—1615. Zue/Sch wartz 1980 = Zue, V. W./Schwartz, R. M.: Acoustic Processing and Phonetic Analysis. In: Lea [ed.] 1980, 101—124. Zwicky/Friedman/Hall et al. 1965 = Zwicky, Arnold M./Friedman, Joyce/Hall, Barbara C. et al.: The MITRE syntactic analysis procedure for transformational grammars. In: AFIPS Conference Proceedings: Fall Joint Computer Conference 27, New York 1965, 317—326.

1

XIV.

Indexes Register

66.

Index Of Names Namenregister

The Index of Names contains all the names which appear in the pure text of articles but not those listed in the “selected literature” and in the bibliography. With few exceptions the names are presented as they have been given by the respective authors. In some cases the editor has corrected obvious misspellings. Variations in the spelling of names have, as a rule, not been resolved. First names are abbreviated and are necessary especially when a name refers to different persons. In many cases the reader can resolve these abbreviations by means of the bibliography. As far as the alphabetical order is concerned, letters with diacritical signs are regarded as the same letters without diacritics. The German Umlaute “ä”, “ö” and “ü” are arranged as “ae”, “oe” and “ue” and German “ß” is treated as “ss”. Das folgende Register enthält alle Namen, die in den reinen Textteilen der Artikel erscheinen, nicht aber die in der ‚ausgewählten Literatur‘ und in der Bibliographie aufgeführten Namen. Mit wenigen Ausnahmen wurden die Namen in der Form wiedergegeben, in der sie von den Autoren tatsächlich angeführt worden sind. Nur in einigen Fällen hat der Herausgeber offensichtliche Irrtümer korrigiert. Abweichende Schreibweisen wurden in der Regel nicht aufgelöst. Vornamen sind in Form von Initialen angegeben, besonders dann, wenn ein Name sich auf verschiedene Personen bezieht. Diese Initialen können in vielen Fällen durch den Leser leicht aufgrund der Bibliographie aufgelöst werden. Was die alphabetische Anordnung betrifft, so wurden Buchstaben mit diakritischen Zeichen so behandelt wie die Buchstaben ohne diakritischen Zusatz. Die deutschen Umlaute „ä“, „ö“ und „ü“ wurden wie „ae“, „oe“ und „ue“ einsortiert, und „ß“ wurde wie „ss“ behandelt. A Aabe 201 Aargard 740 Aarsleff, H. W. 106 Aarts, J. 128, 136 Abadi, A. 38 Abate, S. A. 26, 32 Abbess 613 Abelson, H. 226, 227, 267, 279, 287, 289, 331, 376, 439, 456, 711 Abrahams 779, 783, 786 Adamo, G. 54 Adanson 570 Adler 609, 610 Adorni, G. 53, 54 Aebli, H. 261, 267, 271, 272 Afanas’jev 63 Agar, M. 26, 30 Agmon-Fruchtman, M. 38 Aho, A. V. 7, 93, 274, 350, 351, 356, 366, 368, 370, 372, 374, 378, 384, 386, 390, 393, 396, 398, 400, 402, 406, 407, 409, 410

Ainsworth, W. A. 179, 180, 184 Airenti, G. 54 Ait-Kaci, H. 293, 294, 295, 296 Akers 612 Akimoto 778 Akmajian, A. 206 Al 240 Alam, Y. 250 Albano 343 Albertini, C. 53 Alderman 747 Alekseev 143, 149 Alker, H. R. 23 Alen, F. 181, 184 Allen, J. 620 Allen, J. F. 21, 22, 35, 105, 139, 224, 281, 283, 302, 330, 333, 549, 600, 614, 741, 744 Allen, R. 224 Allén, S. 169, 510 Allgayer, J. 43 Almeida 621 Alphonso X. el Sabio 157 Alteman, R. 24 Althaus, H. P. 168, 169

Altmann, H. 2, 114, 116, 117, 118, 141, 191, 273, 276, 565, 567 Alvey 621 Alviset, C. 48, 49 Amano 640, 657 Ammon, R. v. 43 Amsler, R. A. 24, 30, 242, 513, 694 Anceschi, F. 53 Andersen, P. B. 39 Anderson, C. W. 20 Anderson, J. A. 320 Anderson, J. R. 34 Anderson, L. B. 37 Andersson, G. 483, 484 Andrada, J. 488 Andrea, J. V. 157 Andreev 314 Andrejev 62 Andrjuščenko 63, 72 Angeletti, T. 48 Angelova 71 Anick, P. G. 28, 34 Anonym 616

2

Anttila 106 Appelo, L. 56, 630 Appelt, D. E. 30, 35, 215, 285, 333, 474, 476, 662 Apple 747 Applegate 741 Apresjan, Ju. D. 60, 62, 63, 130, 651 Arens, Y. 24, 442, 450, 744 Aries 581 Aristoteles/Aristotle 626 Arkel, A. van 56 Arkwright 180 Arms, V. M. 33 Arndt 107 Arnold, D. 51, 52, 55, 56, 58, 628, 633 Arrighetti, G. 54 Artymovyč, A. 167 Asher, N. 23 Attar 692 Attiya, C. 28, 38 Atwell, E. 145, 510 Aue, H. von 155 August, S. E. 29 Austen, J. 38 Austin, D. 699 Austin, J. 263, 264 Averbuch 598 Avery, L. G. 26 Avrin 64

B Bańkowski, J. 6 Baase 94, 95, 96 Bachenko, J. 37, 343 Bachut, D. 47, 680, 681 Backer 377 Backus 88, 783, 787 Bacon, F. 157, 690 Bader 581 Bärtschi 706 Bahl 589, 591, 592, 596, 598 Bahrenberg 570 Bailes, P. A. 38 Baitsch, H. 44 Baker 589, 591, 592, 596, 598, 690 Bakis 598 Ballard, B. W. 27, 30, 31, 744 Ballard, D. H. 453, 308, 320 Balmayer 565 Bandelt 541 Bar-Hillel 64, 88, 90, 437 Bar-Itzak, H. 37 Bara, B. G. 54 Barnett, B. 42 Barr 80, 298, 318, 366 Barrow 731 Barstow 317 Bartkov 686 Bartlett, J. 492 Barton 93 Barton, G. E. 25, 129

Anttila — Bollmann

Barwise, J. 35, 436 Bateman, J. 669 Bates, M. 25, 26, 123, 278, 305, 342, 369, 412, 413, 421, 422, 450, 451, 472, 478 Bátori, I. S. 9, 11, 13, 42, 76, 79, 80, 81, 82, 83, 85, 102, 132, 162, 218, 256, 268, 313, 351, 376, 577, 578, 642 Baum-Welch 592 Bausch 141, 144, 145 Bawden 777 Baxendale 692 Bayer, S. 24 Bayes 590, 595 Beale 137 Bear, J. 23, 30, 164, 201, 374 Beaugrande, de 289 Becerra, J. 22 Becker, D. A. 577, 578 Becker, J. D. 205, 450, 781 Becker, L. A. 24 Becker, R. W. 615 Beckett 154 Beckman 602, 613, 619 Beckstein, C. 41, 300, 374 Beduhn-Mertz, A. 43 Beesley, K. R. 34 Béjoint 143 Bel’skaja, I. K. 61 Beljaeva 684 Belkin, N. J. 21 Bell 615, 776 Bellmann 591 Belnap 712, 713, 714, 715, 716, 718 Bémová, A. 72 Ben Hamadou, A. 19, 201 Bender, T. K. 29, 153 Benduhn-Metz 543 Benešová 65 Bennett, W. S. 23, 24, 447, 627, 638, 653, 654, 668 Benskin, M. 57 Benson, D. B. 25, 34 Benzecri 114 Berendsen, E. 56 Berg, E. 170, 526 Bergeijk, D. van 56 Bergenholtz 127, 141, 142, 143, 149, 190, 192, 195 Bergin, Th. G. 492 Bergmann 202 Berkling 788 Berlin, J. A. 26 Bernanos 154 Berney 604, 617 Bernier 690 Bernstein, J. 26, 32, 609 Beroule, D. 49 Berrendonner, A. 47, 48, 58 Berry-Rogghe, G. L. 180, 181, 240, 241, 266, 286, 287, 288, 344, 377, 464, 465, 466, 504

Berschin 554 Berthelin, J. B. 50, 51 Bertin 695 Bertsch 95, 100 Berwick, R. C. 25, 26, 89, 93, 129, 138, 218, 357, 662 Berzelius 690 Berzon 694 Besch, W. 520 Bessinger, J. B. 491, 505 Beth 108 Bévenot 535 Bhatia, T. K. 32 Bibel, W. 462, 463 Biber 139 Bień, J. 58, 69, 72 Bierfert 183, 184 Biermann, A. 741 Biermann, A. W. 27, 35 Bierwisch 68, 143, 236 Biewer, A. 43, 201, 630, 654 Billmeier, R. 43, 412 Binot, J. L. 39 Birnbaum, L. 31, 260, 376, 742 Bishop 786 Bistriceanu 778 Blaberg 250 Black, A. W. 51, 52, 512 Black, J. B. 31, 32 Blackman, D. R. 38 Blair 255, 691 Biais 154 Blank, G. D. 24, 29 Blaser, A. 124, 488 Blatt 163 Blin 549, 550 Blitz, K. 620 Block, H.-U. 42 Blois, M. S. 35, 743 Blomberg 617, 619, 620 Bloomfield 87, 232 Bo, R. 57 Boates 347 Bobrow, D. G. 138, 264, 266, 369, 376, 658, 724, 743 Bobrow, R. I. 278 Bobrow, R. J. 25, 29, 32, 332, 457, 458 Boccalatte, A. 53 Bock 114, 565, 566, 567 Böhme, G. 483, 484 Böttger, H. 45, 68 Boges, W. M. 28 Boggs, W. M. 34, 737 Boguraev, B. K. 51 Boguslavskij 63, 651 Bohnert 377 Boitet, C. 47, 132, 138, 632, 655, 664, 668, 671, 672, 673, 674, 675, 678, 679, 680, 681, 682 Bolc 69, 739 Bolinger, D. 454 Bolles 731 Bollmann 706

3

Bolton, W. F. 31 Bolz, N. 41 Bondarenko 694 Bondzio 143 Bonnaud-Lamotte, D. 48 Booch 94 Book 93 Boot, M. 56 Boreland, H. 52 Borello, E. 54, 55 Borghesi, L. 53 Borillo, M. 48 Borin 250 Borko 690 Bortolini, U. 510 Bosch 225 Bostad 635 Both 4 Bott, M. F. 481 Bouché, R. 47, 48, 58 Boudouin de Courtenay, Jan 194 Bourbeau, L. 21, 627, 637, 654, 671, 675 Bourguignon, J. M. 47 Bourquin, G. 48 Bovair 287 Brachmann, R. J. 297, 298, 326, 333, 451, 453, 454, 457, 714, 742 Bradford, J. 22 Brady 662 Brailovskij 694 Brainerd, B. 21, 533, 578 Brand 68 Bratley, P. 21, 22, 504 Braun, E. 461 Braun, T. E. D. 32 Bravice 637 Brecht 374 Brée, D. S. 56 Brekle, H. E. 232 Brenner, P. A. 35 Bresnan, J. 89, 129, 215, 216, 258, 273, 275, 277, 359, 363, 455, 457, 626 Brett, G. 28 Breuer 180, 184 Breuker, J. 54, 55 Brewer, J. P. 27 Brewer, W. F. 36 Bridle 593 Briercliffe, B. 52 Brietzmann, A. 41, 162 Briggum, S. M. 29 Brinkmann, K.-H. 42 Briscoe, E. J. 51 Brockhaus 349, 363, 377, 400, 405, 673 Brodda, B. 58, 111, 369 Broemeling 529 Bronnenberg 346, 377, 727 Brons-Albert 145 Bronte, C. 153

Bronte, E. 153 Brown 334, 450, 451, 592, 593, 729 Brownbridge 784, 788 Bruandet, M. F. 47 Bruce 318, 325, 628 Bruckert 609, 612 Brückner, T. 42, 200 Bruderer 645, 683 Brunet, E. 48, 548, 549, 578 Brustkern, J. 41, 86, 137, 180, 184, 234, 513, 686 Bryant, B. R. 24 Buchanan 317 Buchberger, E. 57, 202 Buchmann, B. 58 Budd, J. 28 Büchel 242 Bühler, K. 106, 269 Bünting, K.-D. 526 Bukowski, J. 47 Bullinger 619, 620 Bunemann 535, 539 ff Bungarten 141, 142, 146, 147 Bunge 114, 115, 117, 118 Bunt, H. C. 56, 346, 376, 377, 727 Buráňová 66 Bugarski 71 Burghardt, W. 21 Burner, S. 48 Burns, H. 27, 133 Burrows, J. F. 38 Burrus, V. A. 29 Burton, D. M. 24, 305, 450, 493, 497, 504 Burton, R. R. 729, 730, 731 Burton-Hunter 577 Burwick, F. L. 530 Busa, R. 156, 157, 487, 493, 544 Busch 600, 608 Busemann, S. 41, 56, 472, 474, 480 Bush, C. 34 Busse, J. 45 Butler 129, 135 Buzenat, B. 47 Byrd, R. J. 37, 513

C Caesar 157 Cairns, F. 51, 52 Calbert, J. 502 Callewaert, W. M. 39, 535 Calzolari, N. 54, 137, 242, 513 Campanella, T. 157 Campbell, H. W. 24, 56 Camus 154 Canivet 535, 539, 543 Cantor, H. 38 Capelli, A. 54, 376 Capp 153 Carberry, S. 32

Carbonell, J. G. 28, 34, 434, 488, 635, 682, 737, 743 Carey, J. 31 Carlson 273, 276, 617, 619, 620 Carnap, R. 4. 113 Carpenter, P. 34 Carroll, J. A. 51 Carroll, J. B. 116 Carvell 114, 116 Cassidy 554 Cassirer 104 Castan 778 Castelfranchi, C. 54 Castiglione 618 Castner, B. A. 26 Catach, N. 47 Catarsi, N. 54 Cato 157 Cavalli-Sforza 543 Cawkell 598 Cawthorn 186, 187 Cedergren 74 Cejperk 66 Cejtin, G. S. 62 Céline 154 Cerasano, S. P. 23 Cercone, N. 20, 22, 83, 234, 237, 347 Cerri, S. A. 54, 55 Chafe, W. D. 24 Chamberlain 593 Chandler, B. J. 52 Chandrasakar 312 Chapalle 747 Chapanis 123 Chappuy 679 Charbonneau 609 Charniak, E. 34, 208, 261, 267, 268, 269, 289, 301, 302, 317, 323, 331, 350, 364, 374, 376, 377, 450, 458, 459, 460, 467 Charpentier, C. 17 Charpin 130 Chatelin, P. 47 Chatman 690 Chauché, J. 47, 48, 673, 675, 676 Cheney, D. R. 36 Cherniavsky 697 Chernier 154 Cherry 104, 740 Chester, D. 23, 478 Chestnutt, D. R. 26 Chiba 600, 619 Childers, D. G. 27 Chin, D. N. 24, 744 Chiro 157 Chisholm, D. 36, 162, 179, 185, 496, 499 Choike, J. 36 Chollet 603, 605, 619 Chomsky, N. 6, 7, 8, 11, 64, 87, 88, 90, 91, 98, 122, 127, 129, 136, 139, 142, 143, 176, 179,

4

204, 206, 207, 233, 234, 243, 253, 255, 273, 274, 337, 356, 359, 360, 362, 363, 400, 403, 434, 457, 483 Choroševskij, V. F. 64, 72 Choueka, Y. 21, 38, 241 Chouraqui, E. 48 Chow 598 Christaller, T. 41, 84, 306, 307, 308, 349, 350, 377, 412, 413, 710, 711 Church, A. 789 Church, K. W. 25, 26, 342, 374 Chytil, M. P. 58 Ciccione, S. 22 Cicero 157 Ciesielski 743 Cinman 63, 651 Ciobanu 70 Clark 334, 439 Class 605, 613, 619 Clemente-Salazar, M. A. 22 Cleverdon 702 Clifford, J. 32 Clifton 273, 276 Climension 693 Clippinger, J. H. 23, 25 Clocksin 294, 322 Cluette, R. 22 Cochard, J. L. 58 Cocke 98, 98, 400, 401, 402 Codd 106, 123, 786 Coelho, H. 57 Cohen, P. R. 25, 30, 32, 80, 281, 285, 298 Coker 604 Colbourn, M. J. 21 Colby 376, 441, 450, 732 Cole, I. D. 33 Cole, P. 37 Collett, J. 38, 605 Collier 614 Collins 73 Collins, A. M. 324, 451, 452 Colmerauer, A. 66, 211, 363, 374, 626, 650, 673, 767, 784, 785 Colombetti, M. 54 Comino, R. 54, 55 Condé, C. 46 Conklin, E. J. 23 Conrad, C. 325 Conrad, J. 153 Conrad, R. 68 Cook, M. E. 23, 694 Cooper 614, 701 Cordier, M.-O. 49, 50 Cori, M. 50 Correira, A. 23, 376 Costa 565 Costello 603 Cottrell, G. 35, 351, 369 Coulon, D. 48, 49 Courtin 673

Cowham, R. 57 Cox 554 Crain 273, 275, 276, 277, 351, 377, 610 Craven, P. G. 51, 52 Cravero 305 Crawford, T. D. 51 Cristea 70 Crook, J. F. 35 Culicover 207, 219 Culley, G. R. 32 Cullingford 226, 279, 635 Culy 90 Cumming 343 Curry 789 Curteanu, N. 72 Cushing, S. 29

D Dagestan, S. S. R. 63 Dahl, D. 742 Dahl, O. J. 786 Dahl, V. 20, 29 Dahlgren, K. 29 Dai, D. 25 Daly, P. M. 21 Damerau, F. 37, 124 Dammers, U. 525 Danielson, W. A. 24 Danik 684 Danlos, L. 47, 50, 472, 473, 476, 477, 480, 605, 614, 619, 620 Darcy, R. 36 Darlington 784 Datolla 706 Daun Fraga, P. 47 Davey, A. 226, 473 David, J. 17 Davidson, J. 35 Davis 787 Davison, M. E. 51 Dawson, J. L. 51 Dean 557 De Mori, R. de 21, 55, 589, 591, 595 Dearing 537 Defoe, D. 267 Dehn, N. 31 DeJong, G. 36, 370, 376, 456, 694 DeKleer 303, 323, 334 Delcourt, C. 39 Deliyanni 302 Dell 309 Delmonte, R. 55 den Ouden 608 Denton 604 Derr, M. A. 30, 31, 225, 226 Des Tombe, L. 55, 56, 58, 628, 633, 654, 677 Descartes 241 Desclés, J. P. 50 DeSipio 617

Detemple, A. 49 Deutsch 777, 786 Devons 582 Deweese 581 Deweze, A. 47 Di Eugenio, B. 55 Di Manzo, M. 53, 54 Di Paolo Healey, A. 21 Dickerson, W. B. 37 Diederich 309, 310 Dietrich, D. J. 9, 29, 193, 233 Dietrich, R. 369, 383, 388, 400 Dietze, J. 14, 45 Dijk, van 244, 287, 288, 438, 691, 694 Dilger, W. 42 Dillon 692 Dilthey, W. 263 Dimon, P. 48 Dingeldein 793, 796 Dintruff 615 DiSessa 334 Dixon, C. R. W. 153 Dixon, G. 52, 238 Doblinger 182, 184, 605, 619 Dobson 578 Dodd, S. 52 Doddington 591, 593 Dörre, J. D. 44, 316 Doi 778 Doland, V. M. 28 Domening, M. 58 Donato 106 Dornseiff 238, 702 Dostert 373 Doszkocs 744 Dowty 98 Doyle, A. 57 Doyle, J. 322, 323, 435 Doyle, L. B. 692, 695 Dreizin, F. 37 Dresher 276 Dress 541 Drewek, R. 44, 58, 762 Drinkwater 604, 618 Ducrot 672 Dürer, A. 169, 170 Duffy, G. 25 Dugast, D. 46 Dunham 598 Dunphy 581 Durham 579 Dutens 107 Dvovak 770 Dwiggins 376 Dyer, M. G. 29, 31, 279, 280, 281, 376, 457, 467, 468 Dymetman, M. 47

E Eady 614 Earl 693

5

Earley 98, 396, 398, 399, 400, 402, 405 Eastlack 577 Edmundson 691, 692 Edupuganty, B. 24 Edwards 779, 783, 786 Eeg-Olofsson, M. 57, 145, 510 Eggers, H. 43, 195, 369, 520 Ehlers 764 Ehrlich, K. 23 Ehrlich, U. 41 Eich 320 Eickmans 554 Eikmeyer, H.-J. 40 Eimermacher, M. 138, 369, 462, 465 Eisele, A. 44, 316, 363 Eiselt, K. P. 28, 377, 467, 470 Eisenberg 10, 376 Eisinger, M. 49 Elia, A. 50, 54 Ellis, E. 30 Ellison, J. W. 493 Ellman, J. 51 Elovitz 180, 184 Elshout, J. J. 55 Elvove, J. 26, 36 Embleton 578 Emerard, F. 47, 50, 473, 605, 614, 619, 620 Emerson 616 Encarnaçao 794 Endres-Niggemeyer 691 Engel, G. 39 Engelen 148 Engelien 145, 565 Enkvist 139 Enqvist 105, 106 Erdt, T. 26 Erman, L. D. 29, 314 Erni, M. 58 Ershov 344 Esser 113, 114 Euclid 157, 590 Eulenberg 612, 617, 619 Evans, D. A. 35, 333 Evans, M. 8, 17, 26 Evans, R. 133, 363 Evens 77, 741, 743 Eynde, van F. 39

F Faehnrich 619, 620 Fahlman 297, 305, 308, 309, 320, 778, 786 Fain, J. 34 Faitelson-Weiser 158 Fallside 601, 604, 605, 606, 614, 617, 620 Fant 589 Fanton, M. 49 Farbey, B. A. 52

Faribault, M. 21, 49 Farina, L. F. 26 Fass, D. 28, 51, 277 Faught 376 Faulkner, T. C. 34 Faulkner, W. 153 Fauser 313, 315 Favard, J. 49 Favareto, C. 53 Feigenbaum 80, 277, 298, 318, 366, 751 Felber, H. 57 Feldman, D. 617 Feldman, J. A. 277, 308, 320, 453, 605 Fellbaum 600, 603 Felsenstein 541, 542 Felzmann 693 Féneyrol, C. 43, 630, 654 Feng 652 Fermont, P. 39 Fernández de Heredia, J. 158 Ferrari, G. 53, 54, 376 Ferreira 273, 276 Fertig, S. 25 Fertner 617 Fette 610 Feys 788 Fickas, S. F. 29 Figge, U. L. 40, 481 Fikes 711 Fillmore 217, 236, 286, 325, 327, 330, 354, 442, 655, 695, 731 Fineman 741 Fink, P. K. 27, 35 Finkelstein 612, 617 Finkler 202 Fischer, G. 44, 182, 201 Fischer, H. 521, 526 Fisher 615 Fitzpatrick, E. 37, 343 Flach, G. 45 Flanagan 600, 603, 604, 605, 621 Fleck, M. 30 Fleischer, W. 168, 169, 190 Floden 121 Floodgate 116 Flores 2, 13 Flowers, M. 31 Flynn, F. R. J. 22 Flynn, M. J. 774 Fodor 142, 143, 231, 234, 243, 272, 273, 274, 275, 318, 330, 351, 443, 444, 477 Foley, D. 217, 531 Folk, M. 36 Folsom, M. 503 Ford, F. M. 153 Ford, M. 273, 277 Ford, W. R. 120, 123 Forgy 784 Fornell, J. 57 Fortier, P. A. 21, 22, 154, 546, 552

Fossat 565, 566 Foster 348 Foster-Smith, M. C. 37 Fourier 589 Fox 707 Frackenpohl, G. 525, 770 Fraenkel, A. 38, 692 Francis, W. N. 135, 144, 152, 502, 510, 554, 791 Frank 617 Frantz 579 Frase, L. T. 512, 740 Fraser 106, 369 Frauenknecht, H. 526 Frautschi, R. L. 36 Frazier 272, 273, 274, 275, 351 Frecon, L. 23, 47 Frederking, R. E. 34 Freedman 324 Freeman 544 Frege 131 Frei 695, 706 Freigang, K.-H. 43 Frey, W. 44, 132, 363, 377 Friebertshäuser 553, 793, 796 Friedman, C. 32, 33, 741 Friedman, J. 25, 36, 129, 253, 254, 255, 256, 315, 364, 377, 472, 673, 789 Frings 568 Frisch, A. M. 35, 302, 744 Froger 535, 537, 538, 539, 541, 542 Frumkina 73 Fry 617 Fucks 530 Fürnsinn 437 Fugman 699 Fuhr 125, 689 Fujisaka 740 Fukunaga 590, 595 Fum, D. 55, 694 Furukawa 785

G Gabelsberger 104 Gabler, H.-W. 3, 43 Gabriel, R. P. 477 Gachot 707 Gärtner, K. 44 Gaifman 359, 360 Galil 96 Gallais-Hamonno, J. 48 Galliano 603, 605, 619 Galloway, P. 28, 52, 539 Galtung 117 Garret 142, 143 Garrey 731 Garrod 276 Garside 138, 145 Gaussian 590 Gavril 541

6

Gawron, J. M. 32, 377 Gazdar, G. 51, 89, 90, 93, 129, 133, 212, 258, 342, 354, 357, 359, 360, 363, 377, 399, 474 Geens, D. 39 Geffroy 241, 547 Gehrke, M. 40, 43, 377, 525 Gelder, J. 36 Gemello, R. 54, 55 Genesereth, M. R. 35 Genre 554 Gentner 326, 334 Geppert, R. 41, 162 Gerald 617 Gerber, R. 47, 138, 655, 664, 671, 682 Gerd 684 Gerhardt, T. C. 485 Gershman, A. 31 Geske 68 Gibb 627 Gibbon, D. 40 Gide 154 Giese 570 Gigley, H. M. 27 Gilbert, K. 741 Gilbert, L. 27, 29 Gill 610 Gilmour-Bryson, A. 22 Gingerich, P. 36 Gingrich, J. 49 Gingrich, P. S. 27, 512 Ginsburg 89 Giordana, A. 55 Giraudoux 549 Giunchiglia, F. 54 Gladkij 2, 59 Glas, R. 191, 503 Glaserfeld 369 Glazer, M. 27 Gleason 579 Gluck 332 Glushkov 787 Gobineau 552 Goebel, R. 20, 22 Goebl, H. 43, 566, 567, 568, 570, 571, 796 Goeman 554 Görz 41, 293, 300, 374 Goeser, S. 44 Goetschalck 664 Goffin, R. 39 Goguen, J. A. 30, 32 Goldberg, A. 768, 786 Goldberg, E. 21 Goldfarb 764 Goldfield 552 Golding 134 Goldman, J. 618 Goldman, N. M. 326, 474, 733, 737 Goldstein 331, 333, 734 Gomez, F. 32

Gooding, F. 50, 617 Goodluck, H. 503 Goodman, B. A. 25, 731 Goodwin 14 Goto 778 Gottschalk, L. A. 28, 581 Gou 617, 619 Gouadec, D. 50 Graham 98, 396 Graitson, M. 39 Grandjean, E. 47 Granger, R. H. 28, 377, 467, 470, 741 Granville, R. 26, 225, 476 Graser, H. 521 Grassi 554 Gray 325, 332, 603 Greenbaum 141, 142, 143, 341 Greenberg 103 Greenblatt, R. D. 124, 777 f Greene 615, 616 Greenfeld 695 Greer 610 Greffier, F. 46 Greg 537 f Gregor 3 Gregory 157 Greibach 370, 381, 383, 384 Grice, H. P. 264, 282, 439, 615, 718 Gries 7 Griffioen 554 Griffith, J. G. 535, 539 Griffiths, A. 53, 385 Grigorjan, V. M. 63 Grimes, J. E. 28 Grimm 241, 262 Grishman, R. 6, 31, 32, 33, 37, 347, 364, 486, 673, 742 Griswold, R. E. 36 Griswold, S. C. 35 Großmann 605, 619 Groen 287 Groner 609 Grootaers 554, 791 Gross, M. 49, 256, 309, 356, 361, 680 Grosz, B. J. 25, 29, 30, 33, 36, 138, 475, 476, 477, 478, 662 Grover, M. D. 35 Grunert 581 Günther, S. 268, 436, 462, 465 Guenthner, F. 42, 44 Guida, G. 54, 55, 694 Guierre, L. 49 Guilbaud, J.-P. 47 Guillaume, P. 47, 664, 668, 673, 674, 675, 678 Guinet 683, 685 Guinn, D. M. 36 Guiraud 545 Guiter 565, 566, 578 Gupta 784

Gust, H. 43, 363 Gustafsson 139 Gutcho 609, 612 Guthrie, L. 28 Guttman, S. A. 497, 499, 505 Guy, J. B. M. 38

H Haan, de 137, 145 Haarmann 565 Haas, N. 29, 36 Habel, C. U. 2, 7, 40, 41, 225, 269, 436, 438, 462, 463, 464, 465, 466, 467, 468, 469, 470, 474, 710, 711, 714, 718, 723 Habereck, R. 40 Haddock 276 Hägerstrand 571 Händler 555, 556, 561, 562, 563, 565, 571, 573 Hafner, C. D. 37 Hagège 670 Hagemann, O. 42 Hahn 85 Hahn, N. L. 31, 132 Hahn, U. 42, 139, 200, 228, 369, 376, 689, 694, 695 Hahn, W. von 4, 9, 12, 41, 201, 261, 266, 313, 347, 376, 521, 526, 711, 736 Haigh 542 Hajič 66 Hajičová, E. 2, 11, 18, 65, 66, 67, 132, 138, 257, 645, 650, 651 Hakulinen, A. 46 Hall 2, 254, 364 Halle 176, 179, 253 Haller, J. 43 Halliday 205, 217, 225, 287, 288, 359, 733 Hallig, R. 238 Halvorsen, P.-K. 10, 56, 377 Hamburger, H. 32, 37 Hammwöhner 695 Hanakata, K. 43, 44, 472, 739 Hansen 95 Harary, F. 23 Harbusch, K. 43 Hard 571 Hardwick 693 Harley, S. 31 Harper 704 Harras 264 Harris, B. 18 Harris, L. R. 123, 376, 732 Harris, M. D. 78, 585 Harris, Z. S. 87, 176, 163, 164 Harrison 98, 356, 396 Hart, R. 37 t’Hart 614 Harter 700, 701 Hartman, S. L. 26, 577

7

Hartmann, R. 52, 239 Harway 582 Harweg, R. 168, 224 Hasan 225, 287, 288 Haton, J. 48, 595 Hattori 778 Hauenschild, Ch. 315, 486, 630 Haugeneder, H. 42, 43 Hauptmann, A. G. 34, 719 Hausser 360, 424 Haviland 439 Havránek 167 Hayashi 640, 778 Hayes, J. R. 725 Hayes, P. J. 82, 234, 319, 330, 334 Hayes, Ph. J. 34, 301, 364, 450, 458 Hays, D. G. 2, 14, 18, 81, 130, 349, 359, 360, 362, 363, 366, 400, 403, 423 Heß 108, 137, 234, 686 Hedelin 604, 605, 612, 619 Heese 695 Hefner, D. 34 Heger 191, 194 Heggstad, K. 18 Heicking, W. 45, 68 Heidorn, G. E. 37, 512, 642, 740, 743 Heike 604 Hein 14, 600, 612 Heine, H. 155 Heinze, G. 41 Helbig, H. 45, 68 Helgerson 691 Hell, G. 71 Hellberg 251, 245, 248, 250, 251 Hellwig, P. 2, 7, 10, 42, 130, 354, 359, 360, 361, 363, 367, 369, 376, 403, 427 Hempel 113, 114, 115, 116, 118 Henderson, M. M. T. 29 Henderson, P. 789 Hendler, J. 27 Hendrix, G. G. 27, 29, 30, 36, 217, 331, 376, 707, 730 Henisz-Dostert 6 Henne 148, 191 Hennig 535 Henschel, R. 45 Hensel 17 Hentschel, G. 41 Heny 206 Hérault, D. 49 Herdan 191 Hermes 88, 92 Herrmann, E. 46 Herskovits, A. 35 Hertz 602, 605, 613, 614, 617, 619 Hess K. 41, 86 Hess, W. 513 Hesse 68 Hewitt, C. 331, 786

Hewitt, H.-J. 24 Hewson 577, 579 Heyde 542 Heymans 78 Hidley, G. R. 28 Higgins 746, 749 Hillis 309, 786 Hindle, D. 30, 33, 37, 343 Hinrichs, E. W. 25 Hinsley 725 Hintikka 318 Hinton 305, 309, 320 Hirschberg, J. 33, 123 Hirschman, L. 32, 33, 37, 742 Hirschmann, R. 27, 29 Hirst, G. 21, 34, 276, 376 Hirth 554 Hitzenberger 181, 184 Hjelmslev 191 Hnátková 66 Hobbs, J. R. 26, 29, 30, 36, 138, 333, 376, 659, 660, 665, 694 Hochschild 593 Hockett 190 Hockey, S. 53, 492, 504, 546, 582, 583, 762 Hoege, H. 42 Hoekstra 361 Hoenkamp, E. 12, 316, 472, 476, 477 Hoepelmann 619, 620 Hoeppner, W. 41, 132, 201, 245, 284, 313, 347, 376, 521, 710, 711, 736 Höser, I. 45 Hoffmann 693 Hoffmannsthal, H. von 501 Hoffmeister, J. 263 Hofland, K. 510 Hofmann 123, 139 Holbrook, J. K. 377, 467, 470 Holden, N. 52 Holloway 777 Holly 190 Holmes, G. 21 Holmes, J. N. 621 Hopcroft 7, 356, 595, 598 Hopkins, G. M. 153 Hopkins, R. P. 784, 787 f Horace 157 Horecký 67 Horiszny 690 Horn, B. K. P. 98 Horn, G. 363 Horn, J. P. 49 Horn, W. D. 34 Hornstein 276 Horsfall, H. J. 52 Hoskins 618 House 102 Hovy, E. H. 31, 473, 476, 479 Howard-Hill, T. H. 493, 494 Howie, J. G. 51, 52

Huang, X. 28, 277, 635 Hubig, C. 483 Hubka, K. P. 52 Huckert 630 Hudon, K, 745 Hudson, R. A. 217, 359, 733 Hug, M. 50 Hulst, van der 361 Hultin, N. C. 513 Humboldt, W. 104, 114 Hummel 554, 557, 562, 566, 568, 573 Hundt 636, 685 Huntsman, J. F. 24 Hunze, R. 42 Hutchins 5, 631, 632, 635, 636, 694, 702 Huttenbecher, D. P. 26 Hyginus 543 Hyvönen, E. 46, 789

I Ida 778 Ignatyev 787 Iida 642 Ikeguchy 610 Iker 582 Imman, E. 30 Indurkhya 257, 258 Ineichen 565 Ingber 609 Ingria, R. 25, 26, 234, 342, 472 Iomdin 63 Irigoin 544 Irons 385 Isabelle, P. 21, 627, 637, 654, 671, 675 Isahara 655, 657, 673 Ishikawa 652, 664, 786 Ishiwata 667 Ishizaki, Sh. 472, 655 Israel, D. J. 25, 302 Itahashi 614 Itakura 591 Italiani, M. 54, 55 Itkonen 149 |Ivič, M. 71

J Jackendoff, R. 207, 326, 337, 359, 457 Jacobs, P. S. 24, 35, 474, 744 Jacobson, M. 750 f Jacobson, S. N. 693 Jäppinen, H. 46, 201, 369, 427 Jahl 693 Jahr 145 Jakobovits 231 James 618 Jameson, A. 41, 56, 284, 313, 347, 376, 474, 476, 477, 711, 718, 720, 736

8

Jamieson 747 Janos 694 Janssen 257, 562 Jansweijer, W. H. H. 55 Jarke 125, 711 Jaspaert, L. 39, 628, 633 Jauslin 695, 706 Jedlička 167 Jefferson 334 Jelinėk 589, 591, 592, 596, 597, 598 Jensen, K. 37, 512, 642, 740, 770 Jeršov 64 Jochum 125, 697, 706, 708 Johannsen, S. 57 Johansson, St. 142, 145, 503, 510 Johns 749 Johnson, D. 24 Johnson, M. 35, 52, 133, 580 Johnson, P. N. 31 Johnson, R. 180, 184 Johnson, R. L. 7, 51, 52, 55, 56, 58, 369, 644, 654, 669, 677 Johnson, S. C. 274 Johnson, T. 744 Johnson-Laird, P. D. 326, 334, 461, 471 Jolicoeur 332 Jones, M. A. 36, 490, 505 Jones, M. L. 718 Jones, R. 497, 499, 500, 501 Jones, R. L. 507 Jonsson 604, 605, 612, 619 Joost 618 Joralčiková 65 Jordan 609 Jordanus Rufus 157 Joseph, L. 24 Joshi, A. K. 30, 32, 33, 129, 130, 132, 217, 282, 474, 476, 718 Josselson 6 Journet, A. R. P. 26 Joyce, J. 23, 24 Jugel, M. 45 Juillard, M. 48, 241 Jung, U. 45 Just, M. 34

K Kac, M. B. 23, 30 Kaczmarek 298 Kaechele, H. 44, 581 Kaeding, F. W. 156 Kästner, W. 171, 178, 181, 184, 185 Kalish, C. 24, 287 Kalita, J. K. 21, 718 Kallmeyer 224, 225, 226 Kalmár, L. 71 Kamp 132, 268, 271, 436, 438 Kandrašina 64 Kanngießer, S. 13, 437, 483, 484

Kanoui 784 Kansy 600, 604, 608 Kant 155 Kaplan, R. M. 89, 351, 359, 363, 373, 376, 626, 728, 743 Kaplan, S. J. 35, 111, 123, 124, 132, 215, 246, 247, 258, 259, 273, 275, 277, 287, 315, 464, 465, 488, 718, 719, 730 Karasev 692 Karaulov 63 Kardin 614 Karlgren, H. 2, 18, 58, 102, 103, 104, 105, 107, 109, 110, 111, 132, 691, 694 Karlsson, F. 46, 135, 251 Karplus 615 Karttunen, L. 8, 17, 23, 24, 26, 30, 98, 130, 164, 245, 246, 248, 250, 363, 366, 374, 377 Kasami 98, 400, 401 Katagiri 673 Katz 231, 234, 243, 318, 330, 443, 444 Kawamoto 309 Kay, M. 12, 18, 32, 33, 103, 107, 109, 129, 137, 164, 213, 215, 243, 245, 246, 247, 258, 305, 363, 367, 373, 374, 376, 377, 474, 517, 626, 666, 673, 725, 743 Kayser, D. 48, 49 Keats 153 Keen 94, 702 Kehler, T. P. 27 Keil, G. 704, 770 Keirsey, D. M. 28 Keitz, W. v. 43 Kelle 554, 555, 566 Keller 784 Kelley 123 Kellog, Ch. 466 Kelly 583, 584, 585 Kemke 316 Kempelen, von 621 Kempen, G. 12, 316, 472, 473, 476, 477, 613, 614 Kempton 334 Kendall 117 Kennedy 695 Kenning, M. J. 51, 53 Kenning, M. M. 51, 53 Kerek 180 Kern, A. 29 Khan 250 Khenkàr 437 Kidd 543 Kiefer, F. 58, 71 Kiefer, K. E. 2, 10, 27, 36, 105, 109 Kielczewski 603, 605, 613, 619 Kieras 287 Kilbury, J. 40, 212, 213, 349, 354

Kimball 273, 372, 400, 598 Kincaid 740 Kindermann 316 King, J. 32, 377 King, M. 52, 55, 56, 58, 84, 163, 225, 268, 364, 447, 448, 451, 459, 653, 654, 677 King, P. 28 Kinmonth, E. H. 27 Kintsch, W. 267, 287, 288, 691, 694 Kipke 241 Kirsch 265 Kirschner 66, 138, 650 Kitamara 778 Kittredge, R. 21, 66, 650, 654, 742 Klahr, P. 466 Klatt 620 Klattalk 605 Kleene 87 Klein, E. 9, 35, 52, 89, 93, 193, 195, 212, 241, 258, 342, 359, 360, 363, 377, 399, 474 Klein, W. 65, 369, 383, 388, 400, 577 Kleinmann, H. H. 501 Klenk, U. 7, 41, 201, 356, 378, 381 Klimonow 45, 68, 69 Kline, E. A. 32 Klix 186 Kluźniak 69 Knepley, J. 23 Knight 777 Knorz 125, 700, 702 Knuth 95, 98, 363 Kobrin 684 Kobsa, A. 43, 333, 474, 476 Koch 68, 412, 422 Koch, D. 45, 375 Koch, J. 711 Kochendörfer 536, 538, 543 Kock, de 39 Köhler 191 Koerner 106 Kogure 668 Kohl 763, 764 Kohler 162, 163 Koit 281 Koll 705 Koller, G. 169, 171 Kolvenbach, M. 196, 200, 314, 464, 465, 466 Kommenda 57, 164, 182, 184, 201, 605, 619 Kong 639 Konolige, K. 30 Konst, L. 55 Koopmans 117 Kopejkin 64 Kornai 71, 91 Kory 610 Koskenniemi, K. 46, 191, 201, 245, 247, 250, 512

9

Kosslyn 332 Kossuth, K. 71 Kotov 683 Kouloughli, D. E. 50 Kowalski 290, 295, 302, 381, 436, 784 Krafft, H. U. 169, 171, 172 Kraft, R. A. 33, 38 Krallmann 8, 82, 164 Kratzenstein 621 Kratzer 349, 423, 356, 360, 361, 363 Krause 3, 13, 14, 43, 120, 121, 122, 123, 124, 125, 481, 487, 488 Krause, M. 347 Krause, W. 41, 42 Krauwer, S. 51, 52, 55, 56, 58, 669 Krems 351 Krifka 3 Krisnamurthy 612 Kroch, A. S. 33 Krollmann 683 Kroupa 704 Krulee 694, 695 Krumnack, U. 526 Kruskal 578 Kučera, H. 34, 152, 503, 510 Kubin 182, 184, 605, 619 Kudrjašova 63, 686 Kühlwein, W. 484 Kuehner, D. G. 21 Kümmel, P. 44 Kuentz 545 Küstner, A. 45, 68 Küstner, H. 68 Kuhlen, R. 42, 122, 228, 244, 689, 690, 691, 694, 695 Kuhn, M. H. 162, 593 Kuhn, Th. 12, 117 Kuhns, J. L. 701 Kuhns, R. J. 25 Kukich, K. 30, 473, 479, 694, 744 Kulagina 18, 59, 61, 62, 138, 650, 673 Kulas 613, 619 Kunifuji 785 Kuno 254, 255, 342, 343, 346, 370, 383, 384, 385, 403 Kunst, R. A. 27, 29, 51 Kuntz, M. 47 Kunze, J. 45, 67, 68, 69, 72, 130, 359, 376, 526 Kurbakov 683 Kurokawa 778 Kuroki 667 Kurzweil 756, 782 Kushima 640 Kwasny, S. C. 24, 305, 364

L La Polla, M. V. 23 Labov 141, 143, 226, 229

Lachmann 535 Laface, P. 55 Lafon, P. 50, 241, 547 Lagrange, M.-S. 49 Lainé, S. 47 Lakoff 105 Lamb 359, 626, 736 Lamping, J. 32, 377 Lampson 777, 786 Lancaster 703 Lance 554 Landauer 324 Landsbergen, J. 257, 258 Landsbergen, S. P. J. 56, 346, 376, 377, 727 Lang 438 Lang, M. 42 Langendoen, D. T. 31, 37, 90, 357 Langeweg, S. 56 Langley, P. 34, 488 Langsam, Y. 31 Lanka, S. 33 Laporte, C. Y. 617 Laporte, E. 47, 50, 605, 614, 619, 620 Lara, L. F. 22 Larkin 334, 608 Larsson 791 Lasnik 206 Lassila 789 Lassus, F. 46 Last, R. W. 51, 52 Laubsch, J. 44, 323, 376, 472, 694 Laurian, A.-M. 49 Lavorel, P. M. 23, 47 Layzer, A. 28 Le Guern, M. 47, 48, 58 Le Meur, A. 50 Lea 590, 591, 595, 598 Leander 604, 610 Leavitt, J. A. 30 Lebowitz, M. 31, 260, 376, 742 Lebowitz, R. 37 Leckermann 706 Ledger, G. R. 53 Lee, C. H. 592, 600, 601, 603, 605, 615 Lee, D. L. 619 Lee, G. 49, 54 Leech, G. N. 137, 138, 145, 503, 510, 545 Leeuwen, H. van 56 Lefevre 603, 605, 619 Lehfeld 565 Lehfeldt 114, 116, 117 Lehmann, H. 42, 44, 268 Lehmann, W. P. 24, 124, 625 Lehnert, W. G. 23, 31, 281, 694, 711 Lehtola, A. 46, 369, 427 Leibniz 106, 107, 241 Leibold, A. 36 Leinfellner 376

Lejčhik 684 Lejkina 62 Lejosne, J. C. 48 Lelouche, R. 49, 54 Lemaire, Ph. 39 Lenat 689, 690, 695 Lenders, W. 7, 9, 10, 14, 18, 41, 81, 83, 84, 85, 86, 107, 137, 155, 234, 235, 238, 243, 244, 261, 269, 270, 486, 520, 521, 603, 621, 686 Lenneberg 103 Lennig 612 Lenski, L. 254 Lentin 356 Lentz, L. T. 29 Leon 638, 654, 664 Léon, M. 37 Leonard 605, 617 Leont’eva 63, 648, 649, 650, 686 Lepage, Y. 47, 677 Lesk 183 Lesmo, L. 55, 181, 184, 376, 605, 613, 619 Lesniewski, A. 43, 44 Lesser 314 Levelt, W. J. M. 91, 143, 477 Levesque 297, 298, 318 Levy, L. S. 33 Lewis, D. 51 Lewis, W. H. 30 Lichtenstein, U. von 238 Lieb 105 Lieberman 255, 256 Ligozat, G. 50 Linde, C. 30, 32 Lindner 68 Lindsay 261, 267, 369, 435, 724 Lindstedt 250 Lindström 784 Lingoes 539 Linyard 616 Lipkis, T. A. 25, 29, 300 Lischka 309, 310 Liskow 786 Litman, D. J. 35, 744 Litowitz 743 Litvak 281 Lizanets 557 Ljudskanov 70 Lobanov 64 Lochovsky 600, 601, 603, 605, 615, 619 Locke, J. 106, 107 Locke, W. N. 4 Loebner, E. 32 Loemker 107 Lötscher 196, 200, 314, 412 Loffler-Laurian, A.-M. 49 Logan, H. M. 22, 513 Loh 639, 652 Lohnes 145 Londe 255, 256

10

London, P. E. 29 Longacre 628 Lourens, P. 56 Lowden, B. G. T. 51 Lowerre 596, 598 Lozinskij, E. L. 38 Lucas, P. J. 53 Lucassen, J. 56 Luckhardt, H.-D. 43, 374, 630 Luctkens, E. 39 Luhn 692 Luk’janova 684 Luria, M. 24 Lusignan, S. 21, 38 Lustig 689, 692, 700, 702 Lutz, H. D. 13, 17, 83, 266, 314, 464, 465, 466, 488 Lutzeier, P. R. 142 Lyman 604 Lyons 160, 192, 231, 236, 238, 239 Lytinen, S. L. 31, 628, 654, 655 Lytle 627

M Maas, H.-D. 43, 53, 201 Maas, P. 535 MacDonald, N. H. 512 Machová 257 MacKay, P. 35 Mackensen 155 Mackin 142 Mackinlay, J. 35 Macklovitch, E. 21 Madvig 535 Maegaard, B. 39, 135 Maegawa 778 Maggs 183, 184, 621 Magnusson 617, 619, 620 Maier, D. 36 Maier, R. 630 Main, M. G. 25, 34 Makamura 314 Mal’kovskij 64 Malaškevič 688 Malebranche 241 Malhotra 123 Mallery, J. C. 25 Malostranské 67 Malraux 154 Malvaux 535, 539, 543 Manaster-Ramer, A. 23, 30 Mandutianu, S. 70 Mangold 184, 605 Maniet, A. 21, 577 Mann, W. C. 22, 29, 139, 227, 228, 473, 478, 694 Marčuk 63, 624, 645, 646, 647, 648, 683 Marburger, H. 41, 43, 56, 474, 476, 477, 710, 711, 720 Marciszewski 69

Marcus, S. 35, 70, 162, 592 Marcus, M. P. 30, 129, 218, 374, 376 Mariani, J. 49, 600, 605, 608, 619, 620 Marino, M. 24 Marivaux 154 Mark 742 Markel 603 Markoff 691 Markov 591 Markowitz 743 Maron 691, 701 Marriott, I. 53, 504, 762 Marsh, E. 32, 33, 37, 741 Marshall, I. 52, 334 Marslen-Wilson 276, 351 Martin 299 Martin, G. 609 Martin, J. A. 217 Martin, P. 29, 30, 36 Martin, W. 9, 38, 39, 73, 78, Martin, W. A. 26, Martin, W. J. R. 240 Martindale 581 Martins 246, 247 Masaki 347 Masinter 778 Massobrio 554 Massonie, J.-P. 46 Mater, E. 45 Materna 65 Mathieu, Y. 50, 54 Mathis 690, 691, 693 Matič, M. 72 Matsumoto 347 Matthews, K. 31 Matthiessen, C. M. I. M. 29 Mau 378 Mauldin, M. C. 34 Mauldin, M. L. 28 Mauldrin 737 Maurer 88, 90, 92, 98 Mauri, G. 54, 55 Maxwell 113 May 608 Mayer 124, 366, 370, 371, 372, 377, 378, 384, 390, 395, 396, 400, 402 Mays, E. 33 McAllester 323 Mc Bride 496 McCalla, G. I. 21, 83, 260, 718 McCarthy, J. 81, 330, 773, 776, 779, 783, 786 f McClelland 309, 312 McCloskey 334 McColly, W. 26, 27 McCord, M. C. 20, 29, 361, 369, 673 McCorduck 751 McCoy, K. F. 33 McCrank, L. J. 26, 36

McCullogh, W. 4 McCullough 80 McDaniel 786 McDermott, D. 208, 261, 268, 269, 301, 302, 322, 323, 330, 350, 376, 377, 435, 436, 460, 467 McDonald, B. 749 McDonald, D. D. 6, 23, 25, 26, 205, 217, 473, 474, 476, 478, 694 McDonald, L. K. 692 McDowell, J. 29 McGee Wood, M. 52 McGill 689, 692, 705, 706 McGuire, R. 31 McHugh 180, 184 McIlroy 605, 615 McKeown, K. R. 30, 31, 33, 132, 225, 226, 473, 476, 478, 694 McLaughlin, J. C. 168, 169 McMaster, G. E. 20 McNaught, J. 52, 53 McPeters 615 Meachum 541 Meehan, J. R. 473 Meer 343 Mehl 369 Meier 316 Meissonier, V. 21, 49, 54 Melby, A. K. 34, 627, 677 Melčuk 2, 21, 60, 61, 344, 626, 651, 673 Mellish 294, 322 Memmi, D. 49 Menzel, W. 45, 184, Mercer, R. 20, 234, 237, 589, 591, 592, 596, 598 Mercier 595 Mergel, D. 41, 592, 596, 598 Mergenthaler, E. 44, 581, 583, 585 Merger, M.-F. 54 Merklin, R. 38 Merriam, T. 50 Mersch, G. 39 Merten 582 Mervis 325, 332 Metanomski 690 Metzing, D. 40, 83, 84, 305, 306, 377, 412, 413, 457 Meunier, J. 21 Mey 5, 6, 11, 13 Meyer 287, 289 Meyer-Eppler 104, 590, 600, 621 Meyer-Hermann 224, 225, 226 Meyers, A. 28 Mezzalama 181, 184, 605, 613, 619 Mišeska-Tomić, O. 71 Michalski 434 Michell, B. G. 21 Michiels, A. 39, 136, 513

11

Mighetto, D. 159 Miller, B. W. 22 Miller, G. A. 273, 326 Miller, J. R. 27 Miller, L. A. 37, 512, 642, 740 Milne, R. W. 37, 51 Milner, J. C. 50 Milton 753 Mink 543 Minsky, M. 229, 279, 289, 300, 301, 330, 331, 376, 455, 459, 786 Minton, S. 34 Minucius 157 Miranker 784 Mirriam-Webster 242 Mitchell, C. R. 52 Mitchell, J. L. 30 Mitchell, P. C. 535 Mitchell, T. 434, 435 Mochmann, E. 42, 581, 582 Modena, G. 55 Moghrabi, C. 49, 50 Mohler, P. P. 42, 581, 582, 583 Molčanov 63 Moldavian S. S. R. 63 Molde 111 Mološnaja, T. N. 62 Monat 539 Mong, Y. 21 Montague, R. 127, 129, 231, 253, 257, 259, 287, 457, 630, 705 Montanari, F. 54 Montesquieu 154 Montgomery, C. 5, 9, 29 Moody 618 Moon 778, 786 Moore, J. S. 777 Moore, R. C. 29, 30, 36, 318, 333 Moorman, C. 28 Moortgat 361 Moosemiller 604, 610 Morag, S. 38 Moran, D. B. 27, 257, 258 More, Th. 50, 157 Moreaux, M.-A. 49 Moretti, L. 54, 376 Morgenbrod, H. 42, 43 Morgenstern 296 Morik, K. 40, 41, 42, 132, 278, 284, 439, 468 Morin 256 Morris, J. 95, 789 Morton, A. Q. 51, 533 Moser, H. 520, 525 Moskovitch, M. J. 38 Moto-Oka 783 Mouradian, G. 34, 364 Mozer 603 Mudler, J. 41 Mueckenstein, E. M. M. 37 Mülbe, von der 256 Mueller von Brochowski 95

Müller, B. S. 179, 182, 183, 184, 472, 600, 604, 605, 608, 613, 615, 619, 620 Müller, H. 41 Müller, R. 144 Müller, W. 233 Mugdan 143, 149, 190, 192, 194, 195 Mulford, G. W. 32 Mulla 617 Mullenders, J. 39, 513 Muller, C. 50, 549 Munch, K. H. 40 Muraki 640, 654, 657 Murdock 320 Murphy 747 Musil, R. 160 Myasnikov 787 Myers 593 Myhrhaug 786 Mylopoulos 297, 298, 299

N Nadathur, G. 33 Nagao, M. 18, 130, 132, 254, 314, 442, 443, 447, 642, 652, 653, 660, 669, 676, 677, 778 Naik, J. M. 27, 612 Naïs, H. 48 Naito 673 Najock, D. 40, 52, 157, 538, 539, 542, 543 Nakajima 778 Nakamura 442, 443, 642, 652, 669, 676, 677 Nakatani 604 Namenwirth 581 Nancarrow, P. H. 27, 51 Narin’jani 64, 72, 673 Nariniany 344 Naro 578 Nash-Webber, Bonnie L. 123, 124, 468, 728 Nasr 295 Naumann 190, 554, 556, 557, 558, 561, 562, 563, 566 Neal, J. C. 25 Nebel, B. 41, 710, 711 Nebeský 65, 66, 67 Nechaj 688 Nedobejkine, N. 47, 681 Negus, K. G. 31 Nejit, A. 56 Nelimarkka 46, 369, 427 Nessly, L. 26, 32 Netter, K. 44 Neubert, G. 45 Neuhaus, H. J. 43 Neumann, B. 41, 437, 554, 555, 556, 557, 561, 573 Neumann, G. 202

Neumann, J. v. 4, 320, 774, 775, 776, 782, 783, 787, 788 Neumann, R. 791 Neuwitz 241 Newell 2, 278, 304, 309, 784 Ney, H. 41, 160, 162, 591, 592, 593, 594, 596, 598 Nida 164 Niederehe 3 Niedermair, G. T. 42 Niemann, H. 41, 201 Niewelt 689 Nikitina 62 Nikogosov 648, 649, 650 Nilsson 301, 302, 322, 596 Nirenburg, S. 28, 37, 38, 633, 635, 654 Nisbett 333 Nishida 652, 653, 666 Nistor 693 Nistrup-Madsen, B. 39 Noël, J. 39, 513 Noll, A. 41, 596, 598 Nomura, H. 28, 359, 361, 369, 427, 642, 673, Noreaut 705 Norman 261, 267, 272, 298, 304, 326, 329, 332, 435 Normier, B. 47 Norton, L. M. 24 Norwig 24, 280 Nourse 224 Novak, H.-J. 41 Novotný 66, 67 Nozohoor-Farshi, R. 20 Nurminen, M. I. 56 Nusbaum 615, 616 Nutter 323 Nygaard 786

O Očakovskaja 64 Oakey 186, 187 Oakman 544 Oates 156 O’Brian O’Keeffe, K. 26 Östling 250 Oettinger 342, 370, 383, 384 Ogino 554 O’Hara 740 Õim, H. 64, 132, 281, 468 O’Kane, M. 38 Okuno 778 O’Leary, M. 41 Oliva 66 Olive 604 Olivi 219 Olney, J. 511 Oltmanns 604 O’Malley 256, 608 Omotayo 605, 614, 617, 619 Onyshkevych 635

12

Ooshima 201 Opitz 565 Ornato, M. 49, 54 O’Rorke, P. 36 Orth 570 Ortmann, W. D. 173 Osato 778 O’Shea 745, 746, 749 Osherson, D. N. 26, 27, 33 Oswald von Wolkenstein 155 Otkupščikova 62 Ott, N. 725, 726 Ott, W. 3, 44, 536, 543, 544, 762 Otto, S. E. K. 28, 132 Ovid 157

P Packard 498, 627 Padučeva 64 Paeseler 598 Pagan 363 Pagès, P. 49, 164, 201 Paice 692 Paige 725 Palakal, M. 21 Palmer 33, 84, 742 Panccio, C. 21 Panevová, J. 65, 66, 72, 257 Panyr 699, 701, 702, 703, 704, 705, 706 Papegaaij, B. C. 56 Papert 734, 749 Papp 71, 81 Parisi, D. 54 Parkinson 376 Parmakos, D. M. 21 Parrish, St. M. 492, 496, 497, 499, 505 Partee 2, 89, 256 Partii, R. 25 Parunak, H. V. D. 23 Paskaleva 70, 72 Patel 287 Patil 784 Patten 217 Paul, H. 106, 525 Paul, W. 92 Paulson, E. A. 32 Paulus, E. 41 Paun 778 Pause, E. 42, 349, 356, 360, 361, 363, 423 Pavlov 71 Pazzani, M. J. 24 Peacock 616, 617 Peckham 617 Peirce, C. S. 461, 464 Pelletier, F. J. 20, 21 Pendergraft 7 Penttilä, A. 167 Pepper 293 Percebois 778

Pereira, F. C. N. 30, 35, 51, 52, 129, 211, 226, 258, 272, 274, 344, 354, 363, 381, 784 f Pereira Lopez, G. 57 Pernici, B. 54 Perrault 281, 285, 333, 357 Perreault, C. R. 21, 29, 35, 105 Perry 436 Perschke, S. 55, 58, 447 Pestschak 557 Peters 89, 91, 357 Peters, E. W. 608, 609 Peters, P. S. 488 Petersen 770 Peterson, J. 34, 627, 740 Petitpierre, D. 58 Petőfi 219 Petrick, S. R. 11, 37, 89, 123, 129, 207, 254, 255, 364, 385, 673, 726 Petrov 64 Peursem, van 617 Pfeffer, J. A. 145, 503 Philippi 639 Philipps, J. D. 133 Philips, R. 32 Phillipp 604 Phillips, B. 27, 369, 377 Philps, D. 50, 565, 566 Piaget 271 Picard, C.-F. 49 Picchi 54, 137 Pier 777, 786 Pierce 269 Pierrehumbert, J. B. 30 Pierrel, J. M. 48, 595 Pigott, I. M. 55, 635 Piirainen, I. T. 168, 169, 171, 173, 224, 521 Pilato, S. F. 26 Pinkal, M. 44, 105, 369 Pinker 437 Piotrovskij, R. R. 62, 63, 684 Piotrowski, H. 41 Pique, J. F. 48, 57 Pisani 369 Pisoni 615, 616 Pitrat, J. 49 Pitt 80 Plain-Switzer 540 Plante, P. 21 Plátek 65, 130, 136 Plath 11, 131, 726 Platon 261 Platteau 78 Plinius 157 Pogliano, P. 55 Pognan, P. 49 Polanowska 69 Polanyi, L. 55 Polguère, A. 21 Pollack, J. B. 36, 123, 309 Pollard 258

Pollatschek, M. 37 Pollock 693 Popov 64 Popper 114, 115 Pospelov, D. A. 64 Pospelov, G. S. 64 Post 87, 553 Postal, P. M. 31, 37, 90, 357 Potter, R. G. 23 Pounder, A. 57, 164, 201, 605, 619 Pozzi, M. 22 Prade, H. 50 Prakash 689, 690, 695 Pratt 95 Pribbenow 225, 474, 723 Prideaux, G. D. 20 Prikhod’ko 694 Proctor, A. 531 Prodanof, I. 54 Pudlatz 562 Pulkkis 787, 789 Pullman, S. G. 52 Pullum, G. K. 32, 35, 89, 90, 93, 212, 258, 342, 357, 359, 360, 363, 377, 399 Pulman, S. G. 51, 53, 164, 201, 347, 512 Pursley 609 Pusack, J. P. 28, 132 Pustejovsky, J. D. 23, 473, 474, 476 Putnam 91 Putschke, W. 42, 554, 555, 556, 557, 561, 562, 566, 568, 571, 573, 791, 796

Q Quandt 693 Quasthoff, U. M. 467 Quemada, B. 48, 519 Quentin 535 f Quere, M. 48 Querido 256 Quézel-Ambrunaz 47, 664, 668, 673, 674, 675, 678 Quillian, M. R. 11, 237, 260, 265, 267, 296, 297, 323, 324, 451, 452 Quine 284 Quinn, R. A. 26 Quirk, R. 135, 144, 148, 341, 503, 510

R Růžička 68 Rabelais 238 Raben, J. 491, 492, 506 Rabiner 589, 593, 600, 602, 603, 604, 616 Raccah, P.-Y. 49

13

Racine 544 Radday, Y. T. 37, 532, 533 Rademacher, H. 461 Radford 208 Radin 609 Rady, M. 50, 374 Rahden, W. von 483 Rainer 143, 149 Ramani 312 Ramsey A. M. 7, 129, 209, 213 Ramsey, D. 511 Ramshaw, L. A. 32 Rangel, J. 22 Rankin, D. L. 35 Ranson, N. 23 Rapaport, W. J. 25, 27 Raphael, B. 265, 266 Raskin, V. 2, 10, 28, 37, 629, 635 Rath 691, 693 Rathke 313, 315 Ratti, D. 54 Rau, L. F. 24 Rauch 692 Ravin, Y. 37 Raye, C. L. 33 Rayner 273 Raze 673 Reddig, C. 43, 369 Reddy 587 Reed 617 Reeve 784 Reichenbach 628 Reichling 191 Reichmann, R. 25, 305, 334 Reichmann 191, 192, 287 Reichmann-Adar, R. 28, 334 Reilly 53, 54 Reimann 45, 68, 245 Reimer, U. 42, 200, 228, 333, 689, 694, 695 Reiner 125 Reiser, B. J. 31 Reisner 124 Reiter 323, 435, 717 Reithinger, N. 43 Remmel 556, 577 Renaud, M. 49 Resnick 691, 693 Revzin, I. I. 59 Reyle, U. 44, 363 Ribbens, D. 39 Rice 600 Rich, E. 23, 208 Richardson 740 Rieger, B. 40, 128, 137, 138, 146, 147 Rieger, Charles J. 267, 279, 448, 467, 470, 481 Rieger, Chuck 138, 217, 228, 326, 361, 369 Riesbeck 205, 217, 218, 226, 227, 350, 376, 448, 449, 450, 732 Riha 257

Rijsbergen, van 701 Rindflesch, T. 30 Rispail, J.-L. 48 Ritchie, G. D. 51, 52, 164, 201, 347, 374, 376, 377, 399, 448, 450, 451, 457, 512 Ritchie, R. W. 89, 91, 357 Ritschl 535 Ritter 543 Ritz 320 Ritzke, J. 43, 630, 654 Riva, R. T. 28 Rizzo 617 Roždestvenskij 683 Robbe-Grillet 154 Roberts 331, 333 Robertson, J. S. 34 Robertson, S. E. 701 Robinet, A. 241, 548 Robinson, A. E. 30 Robinson, J. 29, 30, 36 Robinson, J. A. 211, 784, 787 Robinson, J. J. 130, 258, 344, 345, 346, 347 Robson 786 Rochon 256 Roddy, K. P. 27 Roeck, A. N. de 51, 371, 381 Rösner, D. 44, 694 Roesner, D. F. 44, 472 Rogers 579, 711 Roget 238, 702 Rohkohl, I. 46 Rohrer, C. 44, 132, 256, 486 Rohrs, R. 36 Rollinger, C.-R. 40, 281, 287, 289, 376, 436, 438, 464, 466, 467, 711, 718 Rolshoven, J. 171, 173, 180, 184, 185 Roman 693 Rondeau, G. 18 Rood 151 Root 245, 246, 248, 377 Rosch 325, 332 Rosenbaum 122 Rosenberg, J. 33 Rosengren, I. 147, 148 Rosengren, P. 159 Rosenschein, S. J. 29, 30, 36 Rosenvall, J. 507 Roskam 539 Rosner, M. 51, 52, 55, 56, 58, 669 Ross, D. 30 Ross, J. R. 207 Ross, K. M. 27 Rosselli, F. 53 Rössing-Hager, M. 521 Rostek, L. 41, 366, 369, 376, 409 Rothacker 129, 312 Rothkegel, A. 43, 139, 192 Rouault, J. 47, 48, 58 Roussel 784

Rozencvejg 59, 62, 72 Rubin 554, 734, 735 Rubincheck 615 Rüdiger 45, 68, 245, 526 Rühl 181, 184, 185, 613, 619 Ruffino 636 Ruhbach, B. 42 Rullent, C. 54, 55 Rumelhart 229, 267, 272, 287, 289, 298, 309, 312, 326, 329, 694 Ruschowski 437 Rush 690, 691, 693 Ruske, G. 43 Russel, D. B. 504 Russel, J. R. 36 Russel, G. J. 51, 52, 164, 201, 347 Ruus, H. 53, 40, 135 Ruzzo 98, 396 Ryan, K. L. 30

S Saba, A. 54 Sabah, G. 48, 49, 50, 374 Sabatier, P. 48, 50, 57 Sabbagh 595 Sabol, C. R. 28 Sacerdoti 731 Sacks 334 Sadler, V. 56 Saenz, R. M. 27 Sag, I. A. 32 Sager 342, 673, 693, 742 Sagerer 299 Saito 778 Saitta, L. 55 Sakai 254 Sakamoto, Y. 652, 664, 669, 681 Sakoe 591, 593 Salem, A. 50 Šaljapina, Z. M. 63, 651 Salkoff, M. 49, 673 Sallis 376 Sallust 157 Salmon 118 Salomaa 88, 90, 91, 92, 93 Saloni 69 Salton, G. 28, 689, 692, 697, 701, 702, 706, 707 Saluveer, M. 132, 281, 468 Salvador 693 Salveter, S. 25, 36 Sammet 766 Sammon, J. D. 531 Sampson, G. R. 52, 374 Sampson, J. R. 260 Sanders, R. 32 Sanford 276 Sankoff 74, 578 Sansonnet 778 Sapir 116 Sappler 3

14

Saramago 565 Sartre 154 Saskatoon 673 Sato, M. 669 Satoh 652, 664, 681 Sattath 539, 541, 542 Saukko 266 Saukkonen, P. 167 Saussé, R. 49 Saussure, F. de 136, 167, 232, 238 Savage 691, 693 Sayce 549 Scagliola, C. 53 Scha 56, 376, 711 Schachter 256 Schaeder 127, 141, 142, 147, 191, 195, 224 Schäfer, J. 40 Schafer 589, 600, 602, 603, 604, 616 Schalk 591, 593 Schank, R. C. 31, 138, 205, 226, 227, 234, 235, 236, 260, 266, 267, 270, 272, 278, 279, 280, 285, 287, 289, 326, 327, 328, 331, 376, 439, 444, 448, 450, 456, 457, 467, 470, 476, 479, 628, 654, 655, 711, 732, 742 Scharfenberg, K. F. 505 Scheckels, T. F. 23 Schefe 290, 298 Schegloff 334 Schegoff 24 Schek, H.-J. 42 Schenk, A. 56 Schenkein 334 Scheretz 743 Scheuch 117 Scheuermann 553 Schiffmann 742 Schiller, A. 200 Schindler 760 Schirok 536, 538, 543 Schleiermacher, F. 263 Schluroff, M. 526 Schlyter 535 Schmandt 617 Schmauks, D. 43 Schmidt 83 Schmidt, A. 488, 711 Schmidt, E. 183 Schmidt, K. M. 25, 238 Schmidt, L. 238 Schmidt, P. 43 Schmidt, W. 191 Schmiedel, A. 467 Schmitz, K. D. 43, 163 Schmitz, U. 119 Schmolze, J. G. 25, 29, 298, 300, 333, 457, 742 Schneider, C. 43 Schneider, D. 23, 125 Schneider, E. 554, 570

Schneider, H.-J. 94, 281, 311, 312, 462, 465, 697, 706 Schneider, T. 42 Schnelle, H. 2, 18, 40, 83, 129, 138, 304, 309, 312, 316 Schoene 256 Schooneveld, C. H. van 24, 56 Schophaus 554 Schott, G. 521, 526 Schröbler, I. 525 Schröder, P. 106 Schroeder 617 Schubert, L. K. 20, 21, 277 Schuhmacher, H. 521 Schuk 683 Schulte-Tigges 9 Schulz von Thun 439 Schulze, W. 41, 513 Schwartau, P. 41 Schwartz, R. A. 30 Schwartz, R. M. 589 Schwartzenberg, G. O. 376, 377 Sclater 600, 608, 609, 610, 621 Scragg 237 Searle, J. R. 193, 264, 285, 334, 439 Searle, L. 35 Sedelow, S. Y. 29 Sedogbo, C. 47 Seffner, S. 45 Segre, A. M. 36 Séguy 565, 566 Seidel 241, 547 Seidenberg, M. S. 27, 36, 276 Seiferas 96 Seitz 683, 685 Self 745, 746, 749 Selfridge, M. 36 Selivanova 64 Seppänen, J. J. 46, 782 Sereda 635 Sergot 436 Sethi 350, 351, 366, 384, 390, 393, 406, 407, 409, 410 Sgall, P. 11, 18, 64, 65, 66, 72, 129, 130, 132, 136, 138, 257 Sgurev 71 Shamir 90 Shann, P. 58 Shannon, C. 4, 5, 104, 106 Shapiro, E. Y. 100 Shapiro, S. C. 25, 27, 305 Sharp, R. 22 Shastri, L. 35 Shaw 784 Sheil 779 Shelly, M. 507 Shenhar, A. 37 Shepherd 689, 690, 695 Sherertz, D. D. 35 Sheridan, J. F. 29 Sherwood, B. A. 36, 617, 619 Sherwood, J. N. 617, 619

Shieber, S. M. 30, 35, 90, 93, 134, 258, 259, 272, 274, 344, 345, 363, 386, 395, 399 Shillcock 276 Shillingsburg, M. J. 30 Shimada 778 Shimazu 789 Shipman 620 Shneiderman, B. 26, 124 Shoene 255 Shore, H. 37, 184, 532, 533 Short 545 Shortlife 749 Shuy 554, 555 Shwartz, S. P. 31 Sibata 554 Sickert 600, 603, 608, 609, 612, 620 Sidner, C. L. 25, 29, 123, 138, 217, 376, 475, 476, 477, 720 Sigurd, B. 57, 472, 473, 747 Siliakus 149 Silva 376 Silverstein 320 Simmons, R. F. 23, 298, 325, 376, 458, 708, 711, 732 Simon 725 Simonson, S. E. 34 Sinclair 144 Singha, R. 26 Šinkaž 64 Siskin, H. J. 27 Sisto, L. 54, 55 Sjölin, B. 171 Skolnik 690 Skorokhod’ko 694, 695 Slaby 181, 605, 619 Slack, J. M. 53 Slemons 554 Slocum, J. 23, 132, 314, 366, 447, 485, 627, 638, 653, 654, 668, 673, 676, 681, 687, 733 Slype 683, 685 Small, S. 35, 124, 138, 228, 351, 361, 369, 454, 455 Smit, R. A. 56 Smith, B. C. 33, 292 Smith, C. R. 27, 36 Smith, D. L. 256 Smith, J. 506 Smith, J. B. 36 Smith, J. M. 53, 764 Smith, M. R. 34, 627 Smith, M. S. 581 Smith, M. W. A. 51 Smith, Ph. H. Jr. 491, 505 Smith, R. N. 577 Sneath 116, 565, 570 Sodeur 565, 570 Sözer 219 Sokal 116, 565, 570 Sokolova 63, 685, 686 Solovits 298

15

Solquier, L. 50 Somalvico, M. 54, 55 Somers, H. L. 52, 448, 688 Sondheimer, N. K. 24, 25, 29, 32, 364, 457, 458 Sondrup, St. P. 494, 499 Soulhi, S. 50 Southard, B. 36 Sowa 299 Spang-Hansen, E. 40 Spangler 609 Sparck-Jones, K. 51, 125, 132, 134, 243, 245, 701 Sparte 605 Spechtler, F. V. 57 Spellmann 181, 605, 619 Spencer 143 Spevack, M. 494, 497 Spinner 115 Spitz, E. 38 Spoerl 778 f Spohrer 592, 593 Sponholz, G. 44 Spranger, E. 263 Spraycar, R. S. 24 Sproull 777 Sprowl 741 Stabler, E. P. 21 Stabrawa 69 Stahl, G. 49 Stall 184, 605, 613, 619 Stallman 776 Starke, I. 45, 68 Starke, P. H. 68, 312 Starosta, S. 28, 359, 361, 369, 427 Starr, K. 25 Stechow, von 65, 349, 356, 360, 361, 363, 377, 423 Steedman 273, 275, 276, 277, 377 Steel 712, 713, 714, 715, 716, 718 Steele 295, 777, 779 Steen, van der 134 Stefan, G. 778 Stefan, J. 72 Steffen-Batogawa, M. 173 Stefik 333 Stegentritt, E. 43 Steger 106 Stegmüller 113, 114, 118 Steiger, R. 45, 786 Steinacker, I. 57, 376 Steinberg 231 Steinbuch 603 Steiner, E. 43, 236 Stendhal 550 Stepanov 118 Stepanowa 190 Sterkenburg, van P. 38, 240 Stetter 94 Stevens 334 Stewart 673, 675 Stibic 695 Stiblinus 157

Stilo 256 Stob, M. 26, 27, 33 Stock, D. 603, 621 Stock, O. 54 Stock, W. 41 Stockwell 256 Stolfo 784 Stone 581, 583, 584, 585 Stopp, H. 520 Story, G. 32 Stoughton 617 Stoyan 293, 369 Straßner, E. 81, 168, 169, 171, 481, 521 Strassburg, G. von 155 Street 610 Strindberg, A. 159 String 68 Strong 693, 695 Stroop 571 Strzałkowski 20, 69 Stuart, A. 117 Stuart, D. G. 56 Stuart, D. J. 24 Stucky, S. U. 30 Studnicki 69 Suchenwirth, R. 41 Suen, C. Y. 21, 589, 595 Süß 706 Sugiyama 657 Sussman 777 Suzuki 740 Svartvik, J. 57, 114, 116, 135, 137, 142, 144, 145, 148, 503, 510, 554 Swadesh 578, 579 Swartout, W. 473 Swidziński 69 Szépe 81 Szpakowicz 69 Sågvall Hein, A. 58

T Těšitelová 67 Tábory, R. 488 Tagliavini, C. 510 Tait, J. I. 51, 694 Takahashi 604 Takamatsu 666 Takeda 740 Takeuchi 100, 778, 785 Taki 785 Tanaka 657, 673 Tanaki 347 Tanenhaus, M. K. 27, 36 Tanne, D. 37 Tanzig, P. 71 Tasso, C. 55, 694 Tavolato 182 Taylor, Ch. 333 Taylor, S. L. 694, 695 Tebben, J. R. 26, 32

Teitelmann 776, 778, 786 ten Haven 608 Tennant, H. R. 27, 120, 123, 124, 333, 718 Tenopir 689, 691 Tergan, S.-O. 469, 470 Terrell 616 Tesnière 359, 625 Teubert, W. 42 Thacker 777 Thanh Nhan, N. 32, 33, 37 Tharp 615 Thibadeau, R. 34 Thiel, M. 43, 374, 630 Thiel, U. 695 Thoiron, P. 48 Thomas, A. R. 50, 554, 566 Thomas Aquinas 157, 544 Thomas, I. 600 Thomas, J.-J. 27 Thomas, J. C. 37 Thomas, M. L. 34 Thompson, B. H. 33 Thompson, F. B. 33, 374 Thompson, H. 10, 12, 52, 213, 374, 399, 476, 486, 488 Thompson, H. S. 133, 134 Thomson, C. W. 27 Thouin, B. 21, 66, 132, 637, 684 Thue 87 Thurmair, G. 42, 198, 202 Thyssen 180, 184 Tielemann 300 Tillmann 202 Timpanaro 535 Tinkham, N. L. 27, 31 Toda 788 Tokoro 786 Tokogawa 554 Tokugawa 791 Tollenaere, de 490, 500, 501 Tomaschewsky, H. 41, 593 Tombe, L. des 51, 52 Tomić 71 Tomita, M. 34, 395, 635, 681 Tong 652 Torasso, P. 181, 184, 619, 55, 376, 605, 613 Touretzky 297 Tournier, M. 50, 547 Tov, E. 33, 38 Tozuka 604 Traub 784 Travis, L. 466 Treleaven 784, 787 f Tremain 603 Trescases 183, 184 Tribis 688 Tropf 176 Trost, H. 57, 202, 376 Trubetzkoy 176 Tscheschner, W. 45 Tsitsopoulos, S. 50

16

Tsujii 314, 442, 443, 642, 652, 653, 660, 669, 676, 677 Tsukui 604 Tucker, A. B. 28, 37, 635, 654, 655, 667 Tufis 70 Turing 87, 123, 335, 412 Turner, D. A. 783, 789 Turner, K. 24, 125 Turoff, M. 32 Tuttle, M. 35, 743 Tversky 539, 541 f Tyhurst, C. H. 22 Tyler 276

U Ubin 685 Uchida 640, 657, 664 Uenohara 616, 617, 621 Ullman 7, 93, 350, 351, 356, 366, 368, 370, 372, 374, 378, 384, 386, 390, 395, 396, 398, 400, 402, 406, 407, 409, 410, 595, 598 Ulvestad 141, 142 Umeda 600, 605, 611, 621 Ungeheuer 9, 10, 79, 81, 105, 109, 184 Urbano, F. 55 Usher, S. 40, 52 Ushida 640 Uskup-Al-Azzawi 554 Uspenskij 59 Uszkoreit, H. 30, 89, 245, 246, 248, 258, 344, 363, 423

V Vachek, J. 167, 168 Vakulovskaja 61 Valéry, P. 501 Valin, van 217 Valkonen, K. 46, 427 Van den Heuvel 128, 136 Vandendorpe 77 Vannikov 683 Varga, D. 71 Varile, G. B. 51, 52, 55, 56, 58, 374 Vasconcellos, M. 37, 637, 638, 653, 654, 664, 687 Vassiliou 125 Vauquois, B. 47, 132, 627, 632, 654, 671, 672, 673, 679 Vegdahl 784 Vegetius 157 Veillon, G. 47, 676 Veith 554, 557, 562, 566, 573 Velde, van de 142 Veneziani, M. 54 Verastegui, N. 47, 674, 680, 681 Verburg 107

Vergil 157 Vergne, J. 49, 164, 201 Verhees 707 Vester 435 Victor-Rood, J. 36 Viereck 554, 566, 796 Vijay-Shanker, K. 33, 130, 474 Viks 63 Vilain 298, 299 Vilkuna, A. 46 Villani, R. D. 505 Vilnat, A. 49 Vinchesi, C. 54 Vinci, L. da 105 Vincjuk 64 Vintsyuk 591, 593, 598 Viré 543 Vitas, D. 71 Viterbi 592 Vivalda, E. 55 Vogel 565, 567, 570 Voiers 615 Volkova 64 Vrbová 138

W Wachtel, T. 52 Wada, H. 18, 23 Wahlster, W. 13, 41, 43, 56, 83, 84, 132, 284, 460, 464, 465, 467, 469, 474, 476, 477, 718, 720, 721 Wahrig 233, 234, 241, 242, 262 Waisbrot, J. W. 23 Waite, S. V. F. 157 Waletzki 226, 229 Walker, A. 494, 581 Walker, D. E. 18, 30, 103, 107, 109, 110, 132, 680, 691, 694 Wall, R. 24 Walton, W. 24 Waltz, D. L. 36, 123, 277, 309, 376, 487, 731 Wang, J. 40, 77 Wang, T. G. 615 Wang, W. 25 Wanner 273, 274, 275, 276, 277 Warren, C. 153 Warren, D. H. D. 30, 52, 129, 211, 226, 363, 381, 784 Warren, D. S. 36, 257, 258, 377 Wartburg, W. von 238 Warwick, S. 58 Wasow, T. 32 Watson, D. M. 52 Watt 122, 123 Waxmann 124 Weaver, W. 4, 104, 106, 485 Webb, K. 52 Webber, B. 123, 282 Webber, B. L. 32, 33, 218, 438 Weber, D. J. 22

Weber, H. 163, 164, 190 Weber, H. J. 43, 227, 228, 526, 642 Weber, N. 202, 242 Weber, R. P. 581, 582, 583, 584 Weber Russell, S. 27 Wedekind, H. 96, 369 Wedekind, J. 44 Wedel 176 Weeks 120, 123 Wegera, K.-W. 520, 521 Wehrle-Eggers 238 Wehrli, E. 58, 344, 347 Weiß, H. 533 Weidner 636, 637, 639, 684 Weier, D. 26, 27 Weinberg, A. S. 25, 129 Weiner, E. J. 33, 121 Weinhold 571 Weinreb 778, 786 Weinreich 554 Weinrich 148 Weinstein, S. 26, 27, 30, 33, 476 Weir, D. J. 33 Weischedel, R. M. 24, 25, 29, 32, 33, 282, 305, 457, 458 Weisweber 316 Weitzman, M. P. 52, 537, 539, 542 f Weizenbaum 205, 369, 376, 711, 749 Weldon 124 Wellish 690 Wells 359 Wenker 573 Werken, H. v. d. 21 Werner, H. 43 Wessels, M. G. 469 Wessoly, R. 43 West, M. L. 535 West, W. C. 26, 156 Westerhoff 554, 556, 617 Wettler 261, 331, 333 Wexler 207, 219 Whalley, P. 53 Wheeler 636, 678 Whitelock, P. J. 52 Wholey 778 Whorf 104 Wickmann, D. 37, 40, 224, 532, 534 Wiegand, H. E. 42, 191, 193, 562, 571 Wieland 705 Wielinga, B. J. 55 Wiener, N. 4 Wiese, R. 41 Wijk, C. van 473, 477, 613, 614 Wijngaarden 363 Wilczynski 742 Wilensky, R. 24, 227, 376, 442, 450, 467, 744 Wilkins, E. H. 107, 492

Analyse/analysis — cepstrum

Wilks, Y. 18, 28, 51, 132, 217, 236, 277, 285, 319, 326, 328, 329, 330, 349, 369, 376, 441, 446, 448, 450, 456, 459, 626, 635, 668 Wille 241 Willée, G. 41, 42, 180, 184, 202, 224, 605, 619 William the Conqueror 153 Williams 94, 617 Willis 156 Wilms, F.-J. M. 43 Wilson, T. D. 333 Wilss, W. 43 Wimmer 167 Winkelmann, O. 521 Winkler 683 Winograd, T. 2, 7, 11, 13, 84, 129, 138, 208, 217, 231, 234, 235, 245, 260, 265, 266, 267, 268, 272, 276, 277, 278, 306, 318, 320, 332, 350, 359, 366, 369, 374, 376, 378, 381, 399, 406, 410, 412, 432, 444, 445, 461, 472, 474, 724, 726, 728, 733, 734, 737, 749 Winston 98, 277, 331 Winterleitner 566 Wirl 108 Wirth 98, 570, 770 Wise 789 Wish, M. 31 Witkam, A. P. M. 56, 628, 631 Witt 570 Witten, I. H. 51, 600, 603, 612, 613, 620 Wittenburg 250 Wittenwiler, H. 155 Woetzel 236 Wolf, E. 171, 187 Wolf, H. E. 183, 184, 603, 605, 608, 609, 612, 613, 619 Wolf, W. A. 729 Womann, W. 42 Wong, D. 34

17

Wonka 570 Wood 554, 557 Woods, R. C. 27 Woods, W. A. 11, 25, 64, 89, 123, 124, 129, 208, 210, 231, 237, 267, 292, 298, 305, 306, 307, 308, 315, 326, 334, 369, 377, 410, 412, 413, 450, 421, 422, 451, 454, 583, 598, 673, 728, 729 Woolf, B. 23 Wothke, K. 41, 42, 163, 175, 224, 521 Würzburg, K. von 155 Wulz 344, 377 Wunderlich, D. 103, 105, 436, 439, 483 Wyld 106 Wyllis 691, 692 Wynn, E. 33

Y Yamada 782 Yamaguchi 788 Yamamoto 554, 785, 791 Yamanashi, M. 669 Yang, C. J. 31 Yang Ping 47 Yang, Y. 47 Yasukawa 657, 673 Yazdani, M. 51 Yea 612 Yegnanarayana, B. 27 Yip, K. M. 26 Ylilammi, M. 46, 201 Yngve 127, 253, 254, 769, 770 Yokata 785 Yokoi 668 Yokoyama, S. 43, 44, 613 Yonke 695 Yoshida 617 Yoshimura 617 Yoshiyuki 681 Young 601, 604, 605, 606, 614,

617, 620, 693, 695 Younger 98, 400, 401 Ypokras Indicus 157 Yuba 788 Yusoff, Z. 47 Yuura 201

Z Zachary, W. W. 33 Zadeh 24, 105, 231, 239, 243, 434 Zaharin 626 Zajac 679, 682 Zajak, R. 47 Zamora 693 Zampolli, A. 18, 510 Zänker, F. 45 Zarechnak 6 Zarri, G. P. 21, 49, 54, 537, 544 Zarri-Baldi, L. 49, 54 Zdornych 685 Zdybel 695 Zehnpfennig 117 Zelinski 605, 613, 619 Zelinsky-Wibbelt, C. 43, 235, 236 Zemb 626 Zernik, U. 29 Zerssen 565 Zettersten 745, 749 ff Ziff 511 Zifonoun, G. 42 Zimmermann, H. H. 43, 517, 616, 704 Zingel 631 Zinglé, H. 46, 179, 183, 613, 614 Zock, M. 48, 49 Zoeppritz, M. 42, 121, 123, 124, 125, 132, 314, 485, 488, 521, 725, 726 Žolkovskij 60, 626 Zoltan 120, 123, 125 Zue, V. W. 26, 589 Züll 583 Zwicky 98, 164, 254, 364, 367

Winfried Lenders (with the assistance of Gisela Kaufmann, Birte Prahl and Bernhard Schröder), Bonn (Federal Republic of Germany)

67.

Subject Index Sachregister

This index contains those key words suggested by the authors for integration into the subject index. Words are selected as key words when they are used in a terminological sense or when the corresponding concept is defined or discussed. The numbers refer to pages of the handbook volume. In case of key words occuring on consecutive pages only the first page is mentioned; “f” or “ff” indicates that the word is also mentioned on the following pages.

18

In accordance with the bilingual character of the handbook, the index contains English and German key words. Homographs and quasi-homographs such as “Kommunikation/communica- tion”, “Evaluierung/ evaluation” are listed together. Cross references are not systematically made between English and German key words; it is thus advisable to look up both the English and German forms of a key word. The main entry for abbreviations is the full form (with a few exceptions, e. g. ATN, BTN etc.). Abbreviated forms as ARTFL or DOSL have a reference to the main entry. Names of systems, such as machine translation systems, are given in their usual abbreviated form. The user may infer the corresponding full form from the text. Names of systems are listed twice: they appear in alphabetical order under their head word, e. g. the names of MT-systems under the headword “machine translation”, and a second time according to their own alphabetical place. Das folgende Register enthält diejenigen Stichwörter, die von den Autoren der einzelnen Artikel für das Sachregister vorgeschlagen wurden. Im allgemeinen wurden Wörter als Stichwörter ausgewählt, wenn sie in einem terminologischen Sinn verwendet werden oder wenn der Begriff an der betreffenden Stelle definiert oder diskutiert wird. Die Zahlen beziehen sich auf die Seiten des Handbuchs. In den Fällen, in denen ein Stichwort auf mehreren einander folgenden Seiten erscheint, wird nur die erste Seite aufgeführt, versehen mit „f“ oder „ff“, wodurch angezeigt wird, daß das betreffende Stichwort auch auf den folgenden Seiten erwähnt wird. Dem zweisprachigen Charakter des Handbuchs entsprechend enthält der Sachindex englische und deutsche Stichwörter. Homographe bzw. quasihomographe Wörter wie „Kommunikation/ communication“ oder „Evaluierung/evaluation“ wurden zusammengefaßt. Zwischen englischen und deutschen Stichwörtern werden nicht durchweg Verweise gegeben. Es ist daher zweckmäßig, ein Stichwort in seiner englischen und seiner deutschen Form nachzuschlagen. Haupteintrag für Abkürzungen ist die Vollform (mit einigen Ausnahmen, z. B. im Falle von ATN, BTN etc.). Bei abgekürzten Formen wie ARTFL oder DOSL findet sich ein Verweis auf den Haupteintrag. Namen von Systemen, z. B. von maschinellen Übersetzungssystemen, finden sich in ihrer abgekürzten Form im Sachindex. Der Benutzer kann die jeweilige Abkürzung nur durch Rückgriff auf den Text auflösen. Namen von Systemen sind zweifach aufgeführt: sie erscheinen einmal in alphabetischer Anordnung unter ihrem Leitwort. So finden sich die Namen von maschinellen Übersetzungssystemen unter dem Leitwort „machine translation“. Ein zweites Mal finden sich Namen von Systemen an ihrem jeweiligen eigenen alphabetischen Ort im Sachregister. A abbreviations/acronyms 338 Abduktion/abduction 75, 269, 461 ff ABF 741 Abfolge, lineare 359 f, 399 f Abgeschlossenheitseigenschaft 90 Abhängigkeit, konzeptuelle 327 ableitungsorientierter Parser 378 Abstracting/abstracting 78, 244, 688 ff accents 752 access 513, 517 ACL s. Association for Computational Linguistics acoustic vector 587 acquisition of knowledge 287 active chart parser 399 acts, primitive 234, 236, 488 ADA 101, 677 Adäquatheit 357 ADPCM = Adaptive Differential Pulse Modulation 601, 603, 611

Agenda 374 Agenskasus 325 Ähnlichkeit, dialektologische 560 AIER

s. International ElectronicArchive of the Romancero AIR 700 Aktorenmodell 694 ALA

s. American LibraryAssociation ALE

s. Atlas Linguarum Europae ALGOL 673, 770 Algorithmus/algorithm 76 f, 82, 92 ALLC

s. Association for Literaryand Linguistic Computing Allomorph 194 Alltagswissen 334 Allzweckklassifikation 114 ALP-Studie 125

ALPAC-Report 2, 5 ff, 81, 623 Alphabet — non standard 755 — nicht-lateinisches/non Latin 764, 781 ALPS 634, 684, 687 alternation patterns 248 ambiguity 272, 590, 673 f American and French Research on the Treasury of the French Language (ARTFL) 154, 506 American Library Association (ALA) 499 AMPAR 63, 646 ff ANA 472, 744 Analogie 439 Analyse/analysis — dialektologische 557 — grammatico-semantic 66, 68 — lexikalische 409 — morphemic 68 — morphologische 268

19

— stilistische/stilistic 544 ff — syntaktische/syntactic analysis 67, 98 ff, 268 Analysematrix 100 Analysestrategie 370, 378 Analysetiefe 366 Analyseverfahren 94 Antwort — direkte 465, 712 — indirekte 465, 713 — kooperative 718 — Meta-Antwort 717 — Überbeantwortung 717 f, 720 — verkürzte Antwort 718 Antwortaufbereitung 717 Anwendung/application 80, 101 ff, 132, 586 ff — der Computerlinguistik 481 ff — der Sprachsynthese 604 ff APAC 650 f approach, statistical 62 Äquivalenz 92, 356 f ARAT 651 f Arbeitsgruppe für MathematischEmpirische Systemforschung (MESY) 155 Architektur — Blackboard- 313, 595, 723 — kaskadierte 415 — lineare 313 Archiv/archive 150 ff Archive Retrieval and Analysis Program (ARRAS) 506 arcs — lexical 208 — recursive 208 ARGOT 744 ARIANE 631, 673, 675, 677 f, 681 ARRAS

s. Archive Retrieval andAnalysis Program ARTFL

s. American and FrenchResearch on the Treasury ofthe French Language articulation, topic/focus 65 articulatory configuration 591 Artificial Intelligence 67, 68, 69, 71, 138, 277, 432, 440, 460 ff, 605, 618, 739, 749 artificial language 103 f, 110 artikulatorische Synthese 601, 603 ASCII 144, 176, 781 ASCOF 201, 630, 654 Aspects-Modell 91 Assembler 769 f Assertion 712 Association for Computational Linguistics (ACL) 2, 8, 18 Association for Computers and the Humanities (ACH) 19

Association for Literary and Linguistic Computing (ALLC) 8, 18 Association for Machine Translation and Computational Linguistics 2 ATEF 673 ff ATHENE/E 640 f ATLAS I 641 ATLAS II 641 Atlas Linguarum Europae (ALE) 554, 791 ATN (erweitertes Übergangsnetzwerk/aug- mented transition network) 12, 68 f, 208 ff, 273 ff, 305, 315, 412 ff, 450 f, 474, 525, 598, 673, 723, 728 f, 767 ATN-Definition 413 ATN-Maschine 422 attentional state 475 attributiver Gebrauch des Subjekts 326 aufzählbar, rekursiv 91 augmented phrase structure 723, 727 augmented transition network

s. ATN authoring system 751 authorship determination 111 Automat — endlicher 90 — linear beschränkter 90 — push-down 90 Automatentheorie 89 automatic collation 543 automatic training 592 Automatische Datenverarbeitung natürlicher Sprache/automatic language processing 80 AVIATION 627, 670 f, 675 Axiom 115, 321

— quantitativer 117 Begriffsbildung 113 ff Begriffssystem 238 Begriffswörterbuch 237 Belegsammlung 141 beliefs 281 Benutzerfreundlichkeit 486, 488, 769 Benutzerwissen 333 Beowulf 499 Bereich 364 Beschreibung 114, 116, 160 — morphologische 163 — phonologische 161 — semantische 233

s. Deskription/description Bewertung

s. Evaluierung Beziehung 166 Bibliographie 760, 762 binary digit 752 BITNET 759 Blackboard s. Architektur blind 102 BORIS 470 bottom-up Parser 386 ff, 400 bottom-up-Analyse 93, 371, 386, 400, 403, 595 boundary 587 braille 102 BRAINLEARN 751 branching factor 596 Breite zuerst 372, 388, 402 Brown Corpus 144, 153, 500, 503 BTN (Basis-/basic transition network) 305 BYBLOS 598 BYU Concordance Program 506

C C 677, 771 CAI s. computer-aided

instruction

B

CAL s. computer-assisted

BABEL 472, 733 Backtracking/backtracking 93, 315, 374, 378, 386, 784 Backus-Naur-Form 88 BACON 465, 711, 723 bandpass filters 589 bare template 446 base component 206 Basic 766, 768 Basismodell 9 Baumstruktur 94 ff

s. Datenstrukturen Baumtransformation 768 Bayes’ decision rule 590, 595 Beantwortungsheuristik 719 Bedeutung 231 f, 267 Bedeutungsdarstellung 234 Begriff — qualitativer 117

learning calculating machine 76 f calculus 102 CALIBAN 695, 706 CALLIOPE-AERO 679 ff CALM s. Stanford Computer

Archive of Language Materials capital marker 752 case theory s. Kasusgrammatik CASNET 743 categorial unification grammar (CUG) 363 CATN (kaskadiertes Übergangsnetzwerk) 69, 306 f, 422 CD s. conceptual dependency centering 476 cepstrum 589

20

CETA 630, 655, 672 change, structural 736 character — representation of 752 — sets 752, 781 — phonetic 752 chart 373, 395, 400, 422, 425 chart-parser 164, 245 ff, 373, 395, 425 ff Child Language Data Exchange System (CHILDES) 152 Chomsky-Hierarchie 356 Chomsky-Normalform 400 classifiers, primitive semantic 226 classifying machine 76 clausal representation level 286 closed word assumption 719 Clusteranalyse 115 clustering 591, 701 co-occurence restrictions 213 co-operative system 730 COAT 228 COBOL 673, 770 COBUILD 234 Cocke-Algorithmus 400 f COCOA

s. Word Count andConcordance Generator onAtlas CODASYL 759 Code-Zuordnung 486 coding 753 Cognitive Science 11, 84 coherence 224, 288 f cohesion 224, 288 collocation 341 f, 346 f, 580 colour 109 COMIT 253 f, 766, 769 f COMMENTATOR 472, 747 f Common-LISP 779 f communication, human-machine 138 communication pattern 440 communicative function 139, 226 f COMPASS 673 Compiler 313 compiler-compiler systems 674 Compilermodell 6 compilierter Parser 351 complements 337 comprehension 108 — automatic 66 — dialogue-based 105 computer architecture 772 ff

s. Architektur computer-aided instruction (CAI) 110, 723 — Systeme — TICCIT 746 f — PLATO 746 f — COMMENTATOR 472, 747 f — BRAINLEARN 751

computer-assisted instruction 745 ff computer-assisted learning 745 computer-mediated 110 Computeranwendung 485 Computergraphik 790, 796 Computerlinguistik/Computa- tional Linguistics — and Artificial Intelligence 3 ff, 277 ff — Anwendung/application 101 ff, 132, 586 ff — Definition 1 ff, 76 ff, 79 ff, 87 — Entwicklung der 1 ff — Forschungseinrichtungen 14 ff, 59 ff — Forschungsorganisationen 14 ff — Gesellschaften/associations 18 ff Computernutzung 485 Computersimulation 260 f Computerwissenschaft 81 computing — physical limits 773 COMSKEE 95, 101, 673, 766 concept 658 ff concept-to-speech 601, 605 f, 620 conceptual dependency 205, 279, 454 ff, 724, 732 conceptual dependency theory 285, 327 ff, 442 ff, 448 ff, 737 f conceptual dictionary 76 conceptual entailment 464 conceptual schema 514 conceptual template 450 conceptual transfer approach 657 concise 105 condensation

s. textcondensation condition-action rules 73 CONDOR 201, 704 ff connected discourse 472 connected word recognition 593 connectedness 224 connectives 224 f connexity 224 Constraint-Gleichung 296 Constraint-Netzwerk 296 constraints 75, 296 CONSUL 742 context 275, 590 context switching 778 contextual features 337 continuing-education 751 continuous speech recognition 586, 595 control 110 control machine 76 f cooperative (helpful) expert 282 coordinate sentence 226 COR = Partial Correlation 601, 603

coreference 224 f, 227 correction, methods of 754 correspondence 579 CRES 740 CRITAC 740 CRITIQUE 740 f CTX 704 CULT 639 cut and paste 755 CVDS = Continuously Variable Slope Delta Modulation 601, 603

D DAG s. graphs, directed acyclic

data banks of natural language corpora 150 ff data flow machine 788 data independence 515 data storage methods 757 data validation 757 data-to-speech 605 Daten — dialektale 571 ff — linguistische 760 ff — Dynamik der 768 Datenaustausch 762 Datenbank 768 — deduktive 709 — relationale 556 Datenbanksystem/data base management system 514, 709 datengesteuert 372, 384 Datenstrukturen — Baumgraph 96 ff, 294, 365, 767 — Bereich 364 — Liste 365, 768 — Netz 365 f, 767 — Stapelspeicher 364 f — Zeiger/pointer 365 f, 767 Datentypen, abstrakte/abstract data types 293, 766, 772 Datenverarbeitung, 80

Linguistische Datierungsproblem 528 DCG

s. definite clause grammar DDBDP s. Duke Data Bank of

Documentary Payri declarative representation languages 285 deduction rules 737 Deduktion 266, 269, 461 ff deep case 442, 444, 446, 456, 644

s. Kasusgrammatik default 301 f, 331 default reasoning 75, 435, 463 Definite Clause Grammar (DCG) 211, 381 definitional data 516 deklarativ 293 ff, 319

21

Delta-Modulation 601, 603 demand-driven machine 788 demisyllable 590 s. Halbsilbe

s. Halbsilbe denotational semantics 727 dependency 65, 130, 625 dependency syntax 59 dependency unification grammar (DUG) 363 Dependenzgrammatik/depend- ency grammar 65, 67 f, 358 f. 425 Dependenzstruktur/dependency structure 64, 358 f, 373, 403 Derivation 197 DERIVER 200 descriptive analysis 284 Deskription/description 10, 82 f — explicit 68 — formal 64, 70 — functional generative 64, 65, 66 — morpholexical 248, 512 — structural 736 — syntactic 204 ff — Systeme — DERIVER 200 — HAM-1 201 — HAM-2 201 — MORPHIX 202 — PHOCOM 176 — PHONOL 180 f — SALEM 201 — SATAN 201 Deskriptor 699 deterministic rules 73 f, 75 deterministische Abarbeitung 374, 395 deterministischer endlicher 407

Erkenner deterministischer Parser 218, 374 Deutsche Sprachstatistik 502 development 101 DIAGRAM 345 f Diagraphem 168 Dialektkartographie 553 Dialektlexikographie 553 Dialektologie — computergestützte 553 ff — und Computerlinguistik 553 ff Dialektometrie 553 Dialektphonetik 553 dialog (dialogue) 105, 109 — modelling of natural dialog 278, 281 Dialogsystem/dialogue system 121, 737, 749 Dialogverstehen 261 Diccionario inverso de la lengua Española (DILE) 158 Dichte 319 dictionary — bilingual machine readable 517

— computerized 71, 137, 517 — in machine translation 680 f — printed, in machine readable form 510 f — reverse 71 — teledictionary 519 — terminological 684 f dictionary making 518 Dictionary of Old Spanish 157

Language(DOSL) dictionary server 517 dictum 220 DILE

s. Diccionario inverso dela lengua Española DIN = Deutsches Institut für Normung 761 ff Diphonsynthese 601, 603 direkte Antworten 465, 717 disambiguation 450 discourse 475, 733, 737 discourse analysis in machine translation 667 discourse structure 109, 138, 475 discourse theory 724 discrimination network 733 diskontinuierliche Konstituente 354, 399, 426 Diskurs-Referent 438 Diskursrepräsentationstheorie 436, 472, 476 distance 591 distance classifier 591, 593 distance measure 594 distance-education 751 distinguishers 444 distorsion 104 distributional information 336 Distributionsanalyse 163, 165 DLT 626, 630 Dokumenten-Retrieval-System 708, 711 domain closure assumption 717, 719 DOSL

s. Dictionary of OldSpanish Language DRAGON 598 Dreiphasenmodell 483 Duke Data Bank of Documentary Papyri (DDBDP) 156 DWIM (Do What I Mean and not what I say) 104 dynamic programming 591 ff

Effizienz der Programmierung 768 f Effizienzmaß für Parser Eindeutigkeit 319 Einfachheit 114 electronic publishing 764 Element-Problem 92 ELIZA 711, 749 Ellipsen 354 f, 718 emancipatory mode 749 emission probability 591 Endsymbol 88 ENGPORT 638 ENGSPAN 635, 638, 654 enhancement 109 Entdeckungsprozedur 239 entity-relationship model 514 Entscheidbarkeit 91, 92 Entscheidungsfrage 712 Epistemologie 291 EPISTLE 642, 740 Ereignis-Referenz 438 Ergänzungsfrage 712 f, 715 Erkenner 407 Erkenntnisinteresse 1 Erkennungsalgorithmus 92 Erkennungsverfahren 175 Erklärung 113 ff, Erlernbarkeit 91 Erlernung, maschinelle 185 error detection 757 Ersetzungsregeln 368, 378 erwartungsgesteuert 372, 384 erweitertes Übergangsnetzwerk

s. ATN Erweiterungsschluß 462 ESOPE 630, 632 ETAP 63, 650 f Etymologie 575 EUROTRA 235 ff, 447, 628 f, 631, 633 f, 643, 654, 672, 677 Evaluierung/evaluation 120 ff, 623 ff, 644, 652 Evaluierungsmethode 120 ff Evaluierungsstudie 488 Expansion 387 f expansion problem 74 ff expectancy pattern 74 f expectation-driven reasoning 467 Expertensystem/expert system 75, 162, 751 explicit relations 516 Extracting 692 ff Extraktionsmethoden 693

F E Earley-Algorithmus 396 Earley-Parser 89, 93 EBCDIC 176, 781 Echtheitsproblem 528 edition, computer assisted 543 editor 754 f

F&A 707 Fachsprache 238 Fachwörterbuch 762 factual database 76 FAI 641 f Fakten-Retrieval 708, 711

22

Faktorisierung 370 fakultative Konstituenten 354, 399 FAKYR 706 FAS

s. Frage/Antwort-Systeme Faust 499 feature extraction 589 features — acoustic-phonetically relevant 587 — contextual 337 — distinctive phonological 577 — inherent 337 FGCS

s. Fifth GenerationComputer Systems FIDDITCH 343 f Fifth Generation Computer Systems (FGCS) 751, 783 figura 220 filter banks, digital 589 finite state machine 591 finite-state automaton 248 finites Übergangsnetzwerk

s. FTN FIRST 706 first order predicate calculus 286, 458 Flexion 197 focus 108, 65, 224, 476 focus space 475 Fokussierung/focusing 475, 720 font editing 755, 780 Form und Funktion 359 formale Sprachen 87 ff, 356 formaler Typ — von Grammatiken 356 f — der Grammatiknotation 357 — der natürlichen Sprache 357 Formalisierung 82 Formant/formant 160, 577 Formantstruktur 161 Formantsynthese 601, 603 formatio 220 FORTRAN 101, 169, 253, 256, 315, 673, 677, 766 ff, 773 Fourier transform 589 FR-P 650 f Frage — Entscheidungsfrage 712 — Ergänzungsfrage 712 f, 715 — Nachbarfrage 719 f Frage-Beantwortung 709, 712 ff Frage-Erwiderung 717 Frage-Repräsentation 712 Frage/Antwort-Systeme (FAS) 6, 122 ff, 460 ff, 708 ff — BACON 465, 711, 723 — CRITIQUE 740 f — ELIZA 711, 749 — EPISTLE 740 — F&A 707 — GUS 743 — HAM-ANS 202, 266, 474,

710 f — HAM-RPM 266, 723 f, 736 ff — HAWKEYE 723, 730 f — JANUS 343 ff — JETS 732 — LADDER 723, 731 — LIFER 723, 730 f, 738 — LUNAR 11, 123, 422, 723, 728, 738 — MYCIN 749 — MARGIE 278 f, 448, 723 f, 732 f, 738 — PAM 227, 469, 711 — PARRY 441 — PHLIQAI 711, 723, 727 f, 738 — PLANES 123, 723, 731 f, 738 — PLIDIS 199 f, 266, 314, 344 — Q&A 707, 723, 731 — QUALM 711 — REQUEST 726 — ROBOT 123, 723, 732, 738 — SAD-SAM 724, 738 — SAM 226, 711, 723 f — SHRDLU 11, 217, 278, 432, 444 ff, 723, 733 ff, 737 f, 749 — SIR 265, 299 — SOPHIE 723, 729 f, 738 — STUDENT 264 f, 658, 723 ff, 738 — TQA 723, 726 f, 738 — USL 725 f, 738 — XCALIBUR 723 f, 737 f — TLC (= teachable language comprehender) 265 frame 229 f, 300 f, 330, 455 f, 467, 694 Frame-Axiom 330 Frame-Sprachen 330 FRAP 63, 648 ff, 686 Freiburger Korpus 144 Freitextverfahren 691 frequency 548 ff frequency list 500 Frühneuhochdeutsch 171, 521 ff FRUMP 694 FTN (finites Übergangs- netzwerk) 406 FUG

s. functional unificationgrammar full entry lexicon 343 ff full text 103 functional categories 226, 229 functional generative description 253 functional generative description of Czech 257 functional grammar 474 functional unification grammar (FUG) 213 ff, 258, 363, 474 Funktion, syntaktische 354 funktional language 784 fuzziness 105

fuzzy logik 463, 724, 737 fuzzy-set-theory 239

G games 749 Garbage collection 778 garden path 276 Gedächtnismodell, 320

holographisches GENEDIC 63 GENERAL INQUIRER 583 Generalisierung 115 Generalisierungshierarchie 292 generalized phrase structure 93, 212, 258, 359 f, 363, 474, 666

grammar/ Phrasenstrukturgrammatik, generalisierte, (GPSG) 89, generation 109, 471 ff generative computer-assisted learning 746 Gesetz 114 f GETA 627, 630 ff, 654, 664, 666, 670, 672 ff, 679 geteilte Produktionen 395 Gewichtung 700 given/new 225 GKS

s. Graphisches Kernsystem Gliederung, lineare 354 goal 227, 280 GOLEM 704 f Gothic 499 Gothic Bible 490 GPSG

s. generalised phrasestructure grammar grammar tester 252 grammatical concordance 502 Grammatik/grammar 83, 349 ff — Adäquatheit 357 — Äquivalenz 356 f — Chomsky-Hierarchie 356 — Definite Clause Grammar 363, 381 — Dependenzgrammatik/dependency grammar 65, 67 f, 358 f, 425 — finite state 90 — formaler Typ der Grammatik 356 f — generative 87 — in machine translation 679 ff — Kategorialgrammatik 422 — Konstitutenstrukturgramma- tik 358, 378 — kontextfreie 98, 410, 724, 736 — Lexikalisch-FunktionaleGrammatik/lexical functional grammar (LFG) 12, 89, 215, 258 f, 363, 626, 666 — lexikalisierte 360 f, 422 — Normalformgrammatik 370

23

— Phrasenstrukturgrammatik 360, 379 f, 386, 388, 390, 396, 400 f, 403 f, 410 — prädiktive 383 — regelbasierte 360 — semantic 723, 729 — Transformationsgrammatik/ transformational grammar 6, 13, 68, 88 f, 91, 93, 129, 254, 259, 363 f, 623, 723, 726, 736 — und Parser 349 ff — Unifikationsgrammatik 362 f Grammatikformalismus 349 f, 356 ff Grammatikographie 519 ff — computergestützte 519 ff — traditionelle 519 ff Grammatiktheorie 358 Granularität 436 graph, conceptual 289 graph reduction 788 graph theory

s. propositionalgraph theory Graphematik 167 ff, 521 Graphenunifikation 294 Graphisches Kernsystem (GKS) 762, 794 GRAPHON 201 Graphonemtheorie 168 graphs, directed acyclic (DAG) 294 Greibach-Normalform 382, 423 GRIPS/DIRS 705 group dynamics 106, 110 Grundgesamtheit 147 Grundlagenforschung 483 GUS 743

high quality translation 654 ff Hiragana 781 historical linguistics 106 hold register 210, 413 ff homeosemy 109 homogenity abstraction 73 Homograph/homograph 494 ff, 583 Homonym 583 Horn clauses 784 human-computer-dialogue 472 human-computer-interaction 472 hyphen 752 hyphenation, automatic 71 Hypothese 114 ff

I ICAME 129

s. InternationalComputer Archive ofModern English ICON Icophone 605 ICOT = Institute for New Generation Computer Technology 751 ID/LP-Formalismus 93 Ideograph 620 idiom 341 f, 346 f idiomatische Wendungen 353 IDS

s. Institut für DeutscheSprache illocutionary act 474 image 108 immediate dominance 93 Implementabilität 82 INaLF

s. Institut National de laLangue Française

H habitability 122 Halbsilben 162

s. demisyllable HAM-1 201 HAM-2 201 HAM-ANS 202, 266, 474, 710 f HAM-RPM 266, 723 f, 736 ff hardware facilities 59 HARPY 598 Häufigkeit eines Terms 692 HAWKEYE 723, 730 f head-driven phrase structure 258

grammar headword 490 hearer modeling 476 HEARSAY 314, 595 help facilities 780 Hermeneutik 263 Hessischer Flurnamenatlas 554 HICATS/JE 640 f Hierarchie 324 — Kategorienhierarchie 714 — s. a. ISA-Hierarchie

incompleteness of texts 666 incremental generation 477 Index Thomisticus 156, 493 index verborum 490 Index/index 76, 81, 490 ff Indexbildung, statistische 117 Indexierung, indexing 66, 78, 244, 688, 699 — probabilistische Modelle 701 indikative Referate 690 Individualknoten 325 Induktion 269, 461 ff inference making 450 Inferenz 116, 319, 460 ff, 713, 768 — bewertende 467 Inferenzmechanismus 470 Inferenzregel/inference rule 279, 464 ff — kommunikative 468 — pragmatische 468 — syntaktische 465 — semantische 465 ff Inferenzstrategie 470 Inferieren 269 Informatik 4, 13

Information/information 292 — processing 104 — science 4 — theory 104 — über Ereignisse und Handlungen 292 — über Objekte 292 — über Performanz 292 Informationsanforderung 709 Informationserschließung/information retrieval 6, 69, 81, 103, 109, 511, 518, 689 ff, 696 ff, 708 — probabilistische Modelle 701 — Systeme — AIR 7000 — CALIBAN 695, 706 — CONDOR 704 ff — CTX 704 — FAKYR 706 — FIRST 706 — FRUMP 694 — GOLEM 704 f — GRIPS/DIRS 705 — INSPEC 695 — JURIS 704 — MEDLARS 703 — PADOK 691 — PASSAT 704 f — POLYTEXT 694 — SIRE 705 — SMART 706 — SUSY 694 — STAIRS 705 — TELDOC 704 — TOPIC 200, 228, 694 f — TOPOGRAPHIC 695 — UNIDAS 705 Informationslinguistik 80, 83 Informationssystem — dialektologisches 562 ff — maschinelles 120 f Informationsverarbeitung 83 — sprachliche 5, 11 Informationswissenschaft 243, 688 — linguistische 80, 83 informative Referate 690 Inhalt 267 Inhaltsanalyse, 701

computergestützte 580 ff, inheritance of properties 451 inner case 443 input device 754 INSPEC 695 Institut für Deutsche Sprache (IDS) 154 Institut National de la Langue Française (INaLF) 154 Instrumentkasus 325 Intentionalität 263 inter-word-information 338 interaction 276 — human-computer 472

24

Interdisziplinarität 1 Interface 709 interface, natural language 64, 66, 68, 69, 70, 278, 284, 472 interlingual approach 623, 642 f, 654 ff, 671 ff, 733 Interlisp 778 International Committee on Computational Linguistics (ICCL) 18 International Computer Archive of Modern English (ICAME) 137 f, 151 ff, 500 International Conference on Computational Linguistics (COLING) 18 International Electronic Archive of the Romancero (AIER) 158 Interpretation/interpretation — dialektologische — explicative 221 — procedural 221 — semantische 440 ff — structural 221 Interpreter 313 interpretierender Parser 350 interrogative Formel 712 Intonation 160, 612 — Hardware 612 — Software 613 intonation contours 473 intra-word information 336 ff inverted files 515 IPG 472 f, 477 ISA-hierarchy 516, 714 ISAM-Datei 768 ISO = International Standards Organization 761 ff isolated word recognition 592 f itf 672 ITS 627

Katakana 781 KATE 641 f Kategorialgrammatik 422 Kategorie/category — komplexe 361, 398, 426 — semantische/semantic 579 Kategorienbedingung 715 Kategoriensymbol 88 KDEM

s. Kurzweil Data EntryMachine

JANUS 343 ff Jensen/Wirth-Standard 770 JETS 732 JFY-4 639 JOVIAL 253 JSCII (= Japanese Industrial Standard) 781 JURIS 704

K KAMP 476 Kanji 781 Kartierungsverfahren — automatische 554 kaskadierte Übergangsnetzwerke

s. CATN Kasusgrammatik/case grammar 217, 448, 695 Kasusrahmen/case frame 327, 442 f, 457, 737

s. Netzwerke, konnektionistische

KDSA

s. Sprachatlas, kleinerdeutscher KERMIT 759 Kernsatztransformation 241 keyboard 107, 782 keyboarding 577 keyword in context (KWIC) 76, 133, 479 ff, 523, 584 KFG-Studie 125 KING 472, 477 KL-ONE 299 f, 457 f Klassensystem 293 Klassifikation/classification 113 f, 103, 558 ff — Allzweckklassifikation 114 — dialektologische 558 ff — etymologische 560 f — grammatische 521, 525 Klassifizieren 688 Klattalk 605 KLONE 454 KMP-Algorithmus 95 Knoten 323 — generischer 325 knowledge and understanding 663 ff knowledge base 66, 516, 751 knowledge engineering 284 knowledge representation 739 knowledge

s. Wissen

J

Kompositum 437 Kondensierungsprinzip 700 Kongruenz 353, 380, 421 Konkordanz/concordance 81, 490 ff, 545 ff, 760 Konnektionismus — distribuierter 308 f — lokaler 308 f konnektionistisches Modell 309 konnektionistische Netzwerke

— cultural 279 — declarative 78 — extralinguistic 664, 671 — factual 65 — procedural 78 knowledge source 587, 595 Koartikulation/coarticulation 590, 612 Kodierung 145 Kohärenzinformation 690, 694 Kohäsionsinformation 690, 694 Kollokationsanalyse 239 Kommunikation/communica- tion 138 f, 226 f, 260, 440 Kommunikationsanalyse 334 Kommunikationsproblem 487 Kommunikationstheorie 261 Komplexität 92, 93 Komponenten, semantische 234 Komponentialanalyse 231, 236 ff Komposition 197

Konsistenz 303 Konstante 322 Konstituente/constituent 164, 625 — fakultative 354, 399 — diskontinuierliche 354, 399, 426 Konstituentenanalyse 87 Konstituentenstruktur 358 Konstituentenstrukturgrammatik 358, 378 kontextfreie Grammatik

s. Grammatik, kontextfreie Kontrollstruktur 320 Konvention 263 Konversationsmaschine 711 Konversationsmaxime 439 Konversationssystem 711 Konversationswissen 333 Konversionsmaxime 718 Kookkurenz/co-occurence 239, 503, 546 ff, 692 Kookkurenzanalyse 241 kooperatives System 488 Korpus/corpus 76, 127, 135 ff, 141 ff, 150 ff — computerized 63 — manipuliertes 141 — Textkorpus 141, 761 Korpuslinguistik/corpus 76, 142

linguistics, Korrelation 117 Kreuzklassifikation 793 kritizistisches Modell 484 KRL (= knowledge representation language) 332 Künstliche Intelligenz

s. Artificial Intelligence Künstliche Intelligenz, 12

sprachorientierte 3, Kurzweil Data Entry Machine (KDEM) 756 KWIC

s. keyword in context L LADDER 723, 731 Lancaster-Oslo-Bergen (LOB) Corpus 135, 144, 153, 503 language and grammar teaching 472

25

Language Data Processing 80 language generation process 476 language generation systems 471 ff language, intermediate 62 language, planning 111 language production 73 language understanding 277 f, 654 ff language understanding system 283 ff langue 232 Langzeitstudien 124 lattice 590 f Lautkommando 602 lautorientierte

Sprachsyntheseverfahren 599 Lautschriftalphabet 791 Lautstärke 612 Lautsynthese 603 Lautübergänge 603 lazy evaluation 788 f LDOCE 511 LDVLIB 762 learning 105 Leerstelle 369, 424 f left-corner Parser 400 left-to-right leftmost derivation (LL (k)) 93 left-to-right rightmost derivation (LR (k)) 93 legal information 108 Lemma 193 LEMMA-2 195, 202 f Lemmatisierung/lemmatization, 162, 245, 493 ff, 520, 556, 577

automatic 70, Lernalgorithmus 185 Lernen 265, 434 lernfähiges System 488 level 130 ff, 137 Lexem 193 lexical data base 137, 512 f, 515 ff, 680 f lexical entry 338 ff, 512 lexical knowledge source 596 lexical representaiton 249 lexical representation level 285 lexicalisation 474 lexicology 513 Lexicon Grammar 643 lexicostatistics 578 Lexikalisch Funktionale Grammatik/ lexical functional grammar (LFG) 12, 89, 215, 258 f, 626 lexikalische Analyse 409 lexikalisierte Grammatik 360 f, 422 Lexikograph 83 Lexikographie/lexicography 518 — automation in 63 — maschinelle 86

Lexikon/lexicon 63, 76, 166, 336 ff, 512 — multidimensional 517 — multifunctional 517 — virtual lexicon 342 ff

s. minilexicon Lexikonbasierte Verfahren für morphologische Beschrei- bung 200 lexikonbasierter Parser 422 LFG

s. Lexikalisch FunktionaleGrammatik LIFER 723, 730 f, 738 LIMAS-Korpus 144, 191, 503 limited parallelism 274 line number 753 linear precedence 93 linear predictive coding (LPC) 589, 601 ff, 611 lineare Abfolge 359 f, 399 f lineare Gliederung 354 linguistic databases 76 linguistic string project 742 Linguistik/Linguistics/linguisti- que 13, 127 — angewandte/applied 3, 102 — comparative 576 ff — computational/computatio- nelle 59, 79, 80 — diachronic 576 — für Computer/for computer 8f 79 — formal 71 — historical 576 ff — mathematische/mathemati- cal 2, 66, 81 — moderne 4 — quantitative 67, 113 ff — statistical 67, 113 ff — structural 59, 64 — transformational 59 — mit Computer/with computer 8 79 Linguistische Datenverarbeitung (LDV) 8 f LINGUOL 770 lingware engineering 678 ff links-assoziativer Parser 424 Linksableitung 371, 378 LISP 253, 258, 350, 413, 614, 638, 642, 673, 729, 766 ff, 773, 776 ff, 785 f LISP machine 776 ff Liste 365 Literary and Linguistic

Computing 80 LITRAS 638 LL(k) Parser 93, 384 LOB

s. Lancaster-OsloBergenCorpus local area network 780 logical entailment 465

logical relation 287 Logik/logic 440 — formale 458, 710 — intensionale 65 — logic programming 440 — modal 463 — nicht-monotone 322, 435, 463 — propositionale 321 logische Form 355 LOGO 749 LOGOS 635 f, 678 London-Lund-Korpus 144, 503 Longest-Match-Verfahren 198 Lösbarkeit 92 LPC

s. linear predictive coding LR(k) Parser 93, 390 LUNAR 11, 123, 422, 723, 728, 738 Lunder Zeitungskorpus 148 LUTE 641 f

M M-C-Modell 9 machine architecture 773 machine readable dictionaries 510 ff, 683 f machine readable word

frequency list 510 machine translation 4 ff, 59, 61, 62, 63, 64, 65, 66, 70, 80, 162, 165, 442, 472, 622 ff, 645 ff, 670 ff — second-generation systems 670 f machine translation systems — ALPS 634, 684, 687 — AMPAR 63, 646 ff — APAC 650 f — ARAT 651 f — ARIANE 631, 673, 675, 677 f, 681 — ASCOF 630, 654 — ATEF 673 ff — ATHENE/E 640 f — ATLAS I 641 — ATLAS II 641 — AVIATION 627, 670 f, 675 — CALLIOPE-AERO 679 ff — CETA 630, 655, 672 — CULT 639 — DLT 626, 630 — ENGPORT 638 — ENGSPAN 635, 638, 654 — EPISTLE 642 — ESOPE 630, 632 — ETAP 63, 650 f — EUROTRA 235 ff, 447, 628 f, 631, 633 f, 643, 654, 672, 677 — FAI 641 f — FR-P 650 f — FRAP 63, 648 ff, 686 — GETA 627, 630 ff, 654, 664, 666, 670, 672 ff, 679

26

— HICATS/JE 640 f — ITS 627 — itf 672 — JFY-4 639 — KATE 641 f — LITRAS 638 — LOGOS 635 f, 678 — LUTE 641 f — Medium-PAK 639, 641 — METAL 447, 627, 632, 635, 638 f, 653 f, 666, 670, 676, 681 — METEO 626, 635 f, 670, 673 — MicroPAK J/E 640 — MU 632, 641 f, 652 ff, 654, 668, 670 — NERPA 63, 646 ff — PAHO 653 f, 664, 668 — PIAF 673 — PIVOT 640 f — ROBRA 673, 675 f, 680 — ROSETTA 630, 640 f — SALAT 630 — SETL 673 — SHALT 640 f — SPANAM 635, 637 f, 653 f — SUSY 312, 630, 670, 673 — SYSTRAN 63, 631, 635 ff, 639, 673, 677, 707 — SZEHAT 651 f — TAUM 66, 626 f, 632, 634 f, 637, 654, 670 f, 675 — TAURAS 640 f — THALIA 641 f — TITUS 631, 672 — TRANSLATOR 635 — TRANSFO 673 — VALANTINE 641 f — VENUS 640 — VISULEX 681 — Weidner 636 — XTRA 635 machine-aided translation 682 ff machine-dialogue 78 macrostructure 224, 226 macrostructure, thematic 226 maening of linguistic expressions 659 maintenance 644 — in machine translation 668 f, 678 man-machine-dialogue 598

s. dialog, Dialogsystem manuscript collation 536 mapping model 7 MARGIE 278 f, 448, 723 f, 732 f, 738 Markov 767 MARS 201 Maschine, von Neumann- 316 Maschinen-Code 769 f Maschinenwörterbuch 762

s. dictionary, computerized

Massendaten 697 matching 713, 717, 725, 737 MATER 762 mathematical models of learning 746 Matrizenmodell 320 maxims of communication 282 meaning, lexical 138, meaning of words 658 ff meaning postulates 465 meaning representation 657 Medium-PAK 639, 641 MEDLARS 703 Mehrdeutigkeit 352 f, 768 Mehrdeutigkeitsproblem 92 Mehrzweckklassifikation 114 MEMOD 329 ff MEMORY 279 Mensch-Maschine-Kommunikation/man-machine-commun- ication 64, 86, 260, 472, 600, 621

s. Kommunikation/communication Mensch-Maschine-Interaktion (MMI) 13, 120, 472, 488 Merkmal, semantisches

s. semantic marker MESY

s. Arbeitsgruppe fürMathematischEmpirischeSystemforschung Meta-Antworten 717 Meta-Information 292 Meta-Wissen 435 METAL 447, 627, 632, 635, 638 f, 653 f, 666, 670, 676, 681 metaphorische Ausdrücke 439 METEO 626, 635 f, 670, 673 Methoden, statistische 116 ff, Metrisierung 119 MicroPAK J/E 640 microprogramming 775 microstructure 224 Mikrocomputer 771 Mikrostruktur, lexikalische 234 minilexicon 248 minimal attachement 273 Minimalpaar 176 Minimalpaaranalyse 160, 163, 165 MITalk 605, 615 mixed initiative dialog 743 MMI

s. Mensch-MaschineInteraktion model theory 286 Modell/model 114 — analytical 59, 70 — configurational 62 — linguistic 245 ff, 252 ff — meaning < — — > text 60, 61, 62, 64 — paradigmatic 59 — set-theoretical 59 — stratificational 60

— syntagmatic 59 Modellierung 83 modelling human reasoning 279 modelling of natural dialog 278 Modul 311 modular 477 Modularisierung 311 modus ponens 321 monitoring 477 Monotonie 303 Montague grammar 259 Morph 194 Morphem 194 MORPHIX 202 morphographemic rules 246 morphographemic transducer 247 morpholexical description 248 f, 512 Morphologie/morphology 190, 245 ff, 338 ff morphophonological rules 248 morphosyntactics 245 ff Mozer-Codierung 601, 603 MU 632, 641 f, 652 ff, 654, 668, 670 multi lingual translation 654 multiple W-Frage 715 multiple-agent planning 474 MUMBLE 472, 477 ff Muster und Übergangsnetzwerke 368 f, 405 f Mustererkennung (s. a. patternmatching) 767 Musterersetzung 767 MYCIN 749

N Nachbarfrage 719 Namenatlas 792 Natural Language Processing (NLP) 8, 585 naturalness 104 Natürlichsprachlichkeit 9 NERPA 63, 646 ff Netz/Netzwerk 290 ff, 356 ff, 365 f, 590, 761 — assoziatives 297 — konnektionistisches 308 — prozedurales 412 — sematisches 237, 267, 297, 322 ff, 451 ff, 516, 723, 737, 771 — multidimensionales 315 — Teilnetzwerk 525 Netzwerk-Architektur 313

s. Architektur Netzwerkgrammatik 89 Neurolinguistik 91 nicht-monotone Logik 303, 322 ff, 435, 463 noise 104 NOMAD 741

27

nonlinear time alignment 593 Normalformgrammatik 370, 382 f, 400, 423 f Normung 760 ff — internationale 760 ff — nationale 761 notatio 220 NRL 605, 615 number cruncher 77

O Oberbegriff 324 Objekt 292 ff Objekt-Referenz 438 Objektkasus 325 OCP

s. Oxford ConcordanceProgramm OCR

s. Optical CharacterRecognition office automation 739 ff — ABF 741 — ANA 472, 744 — ARGOT 744 — CASNET 743 — CONSUL 742 — CRES 740 — CRITAC 740 — CRITIQUE 740 — EPISLE 740 — GUS 743 — NOMAD 741 — PUNDIT 742 — RECONSIDER 743 — RESEARCHER 742 — SCHED 743 — UC 744 on-line Parser 399, 403 Operationalisierung 82 operative Antworten 717 optical character reader 756 Optical Character Recognition 756, 782 optional rules 73 f Ordnung 114 f orthographic words 339 Ortssprachenforschung 574 OTA

s. Oxford Text Archive outer case 443 output device 757 Oxford Concordance Programm (OCP) 504, 762 Oxford Text Archive (OTA) 150 f

P PADOK 691 PAHO 653 f, 664, 668 PAM 227, 469, 711 paper tape 754 paradigm model 250 paragraph mark 754 parallel 312, 320

parallel machine 787 Parallelverarbeitung 312, 316, 375, 381 Paraphrase/paraphrase 60, 78, 355 paraplates 329, 443 parole 323 PARRY 441 Parser-Generator 315 Parser/Parsing/parsing 78, 84, 89, 93, 138, 160, 163 f, 273, 488 — ableitungsorientierter 378 — active chart Parser 399 — bottom-up Parser 386 ff, 400 — Breite zuerst 388 — Cocke-Algorithmus 374, 400 f — compilierter 351 — Definition 348 ff — deterministischer/determini- stic 218, 374 — dependency based 66 — Earley-Algorithmus 374, 396 — expectation-driven 732, 737 f — für Dependenzgrammatiken 425 — für Kategorialgrammatiken 422 — für reguläre Ausdrücke (FTN) 406 f — interpretierender 350 — left-corner Parser 400 — lexikonbasierter 422 — links-assoziativer 424 — LL(k) Parser 93, 384 — LR(k) Parser 93, 390 — mit erweitertem 412 ff

Übergangsnetzwerk (ATN) 412ff — mit geteilten Produktionen 395 — mit paralleler Abarbeitung 375, 381 — mit prädiktiver Grammatik 382 — mit rekursivem 409 ff

Übergangsnetzwerk (RTN) — mit Rücksetzen 374, 378, 382, 386 — mit Teilergebnistabelle (chart) 373, 395, 422, 425, 723 — mit Vorausschautabelle 384 f — nach dem Slot-Filler-Prinzip 424 f — on-line Parser 403 — partieller 409 — prozeduraler 350, 369 — shift-reduce Parser 386 — situation driven 723, 732 f — tabellengesteuerter shift-reduce Parser 274, 389 — Tiefe zuerst 378 — top-down Parser 378 ff, 395

— und Grammatik 349 ff — und Pragmatik 376 — und Semantik 352, 376 ff — und Simulation 351

s. Grammatik/grammar s. Übergangsnetzwerk Parserlogik 366 Parsing als Beweisen 381 Parsing fehlerhafter Äußerungen 364 Parsing natürlicher Sprachen — Grundlagen 348 ff — Realisierungen 378 ff partielles Parsing 409 Partitionierung 298 Partnermodellierung 439 Pascal 101, 253, 673, 766, 770 PASSAT 704 f PATR 134, 254, 258, 344 ff, 363 pattern recognition 590 pattern-action-rule 727 patternmatching (s. a. matching) 767 PCM = Pulse-Code-Modulation 601, 603, 611 PENMAN 472, 476 f performance 644 permanent lexicon 342 perplexity 596 Pfeffer-Corpus 503 Philologie — computergestützte 3 f, 528 PHLIQAI 711, 723, 727 f, 738 PHOCOM 176 Phonem/phoneme 168 ff, 590 Phonemanalyse 160, 176 Phonemerkenner 161 Phoneminventar 171, 175 Phonemkomponente 168 phonetic, acoustic 596 Phonetisierung, automatische 177 PHONOL 180 f Phonologie 168, 175 Phonotaktik 175 PHONTEXT 605 PHRAN 442 Phrasenstrukturgrammatik/ phrase structure grammar 254, 360, 379 f, 386, 388, 390, 396, 400 f, 403 f, 410 PHRED 744 PIAF 673 PIVOT 640 f pivot approach 654 ff, 671 PL/1 253, 673, 766 f plan 227, 467 PLANES 123, 723, 731 f,738 PLANS 280 PLATO 746 f Platzbedarf 92, 93 PLIDIS 199 f, 266, 314, 344 POET 64

28

pointing 474 Polynom 93 POLYTEXT 694 Portabilität 769 Positionsmerkmale 426 post-editing 643 Präcompiler 770 Prädikatenkalkül/predicate calculus 286 f, 321, 458, 712, 714, 784 prädiktive Analyse 370, 382 f, 424 prädiktive Grammatik 382 f Präedition 612 Präferenzsemantik 328 Pragmatik (und Parser) 376 Pragmatik/pragmatics 109, 284, 376, 595 f Präprozessor 316 Präsupposition 465, 719 f pre-editing 643 precision 698 prediction and substantiation 456 preferences 75, 447 Primärdaten 760 Primärknoten 325 primitive meanings 448 Primitive, semantische/semantic primitives 236, 285, 326 f, 444 primitive vocabulary 452 printing technology 781 probability distribution 590 Problemlösen/problem solving 277 ff, 283, 487, 749 Problemlösungsverhalten 81 procedural-declarative controversy 445 production rules 73, 732 production system 784 program development tools 780 PROGRAMMAR 217, 733 Programmiersprachen 94, 766 ff — ADA 101, 677 — ALGOL 673, 770 — Basic 766, 768 — C 677, 771 — COBOL 673, 770 — COMIT II 253 f, 766, 769 f — Common-LISP 779 f — COMPASS 673 — COMSKEE 95, 101, 673, 766 — FORTRAN 101, 169, 253, 256, 315, 673, 677, 766 ff, 773 — ICON 129 — Interlisp 778 — JOVIAL 253 — LINGUOL 770 — LISP 253, 258, 350, 413, 614, 638, 642, 673, 729, 766 ff, 773, 776 ff, 785 f — LOGO 749 — Pascal 101, 253, 673, 766, 770 — PL/1 253, 673, 766 f

— PROLOG 211, 253, 294, 302, 312, 316, 322, 363, 381, 458, 614, 626, 673, 677, 766 ff, 773, 784 f — SETL 673 — SIMULA 786 — SmallTalk 766, 785 — SNOBOL/SL5 129, 614, 766 ff, 770 Programmiersprachen — höhere 770 Programmierung/programming — dynamic 591 ff — exploratory 779 — funktionale/functional 768, 783 f — logische/logic 784 — new paradigms 782 ff — objektorientierte/object oriented 290, 292, 768, 786 f — prozedurale 101, 768 — rapid prototyping 779 — relational 785 f — rule-based 784 — team programming 779 PROLOG 11, 253, 294, 302, 312, 316, 322, 363, 381, 458, 614, 626, 673, 677, 766 ff, 773, 784 f pronominalization 224 proof mechanism 784 proofreading 108, 756 proper name 111 proposition 287, 321 propositional graph theory 288 propositional language 287 prosodic features 473 PROTEUS 472 protolanguage 576 ff Prototyp 123 f, 332 Prozeßbeschreibung 11 prozedural 295, 319 prozeduraler Parser 350, 369 prozedurales Netzwerk 412 PSI machine 785 psycholinguistic modeling 472 Psycholinguistik/psycholinguis- tics 4, 272, 477 Psychologie, kognitive 4, 260 punched card 754 PUNDIT 742

Q Q&A 707, 723, 731 QUALM 711 Quantifizierung 113 Quellencodierung 603 query language 515 question-answering-system 281, 472 quotation mark 752 Quotaverfahren 146

R random generation 254 räumliche Konzepte 436 reasoning

s. modelling humanreasoning recall 698 Rechenschritt 92 Rechtsableitung 371 Rechtschreibdidaktik 173 Rechtschreibung 173 recognition 111 RECONSIDER 743 reconstruction 576 — comparative 579 reconstruction of texts — computer-assisted 534 recursive 79 recursive machine 787 recursive transition network

s. RTN reduction machine 788 redundancy 74 f, 587 Referateorgan 690 reference 224, 275 referential and symbolic network 503 referential converter 728 referential description 474 referential expression 476 referentieller Gebrauch des Subjekt 326 Referenz-Retrieval 698 Referenzinformation 689 Referenzsemantik 231 Referieren 269 f, 688 Regel/rule 115 — deterministic 73 — optional 73 f — phonological 206 — phrase structure rule 206 — rekursive 91 — rewrite 206 — statistical 73 f — transformational 206 — variable 74 regelbasierte Grammatik 360, regierend versus abhängig 373 Register/register 209, 760, 762 reguläre Ausdrücke (FTN) 406 f regularity principle 73 Rekonstruktion, logische 302 rekursives Übergangsnetzwerk

s. RTN Rekursivität 88 Relation — distributionelle 176 — semantische 234, 237 relational data model 514 relatum 219 Relevanzfeedback 703 RENDEVOUS 123 repetetive editor 755

29

Repräsentation/representation 290 ff, 316 ff, 377, 623 — multi-layer 666 — macro-structural level 286 ff — micro-structural level 286 ff Repräsentationssprache/representational language 267, 283 ff, 697 f Repräsentativität 146 REQUEST 726 Research and Development (RD) 8 RESEARCHER 742 reverse alphabetical listing 76, 500, 579 Revised Maxim of Quality 282 revised standard version bible 493, 496 rhetorical organization 473 rhetorical relation 286 f rhetorical schema 227, 473 rhetorical techniques 476 right association 273 RISC = Reduced Instruction Set Computer 775 f RITA 344 ROBOT 123, 723, 732, 738 ROBRA 673, 675 f, 680 ROSETTA 630, 640 f RTN rekursives 305, 409 ff

Übergangsnetzwerk/recursive transition network 208, Rücksetzen 374, 378, 382, 386 RULBOL 183 rule tester 76 f RUS 342 f

S SAD-SAM 724, 738 SALAT 630 SALEM 201 SAM 226, 711, 723 f SAMT 605, 608 f, 614 SATAN 201 Satzbauplan 330 Satzintonation 179, 600, 612 — schematische Verfahren 613 — semantisch/pragmatische Verfahren 614 — syntaktische Verfahren 613 — Verfahren mit Präedition 613

s. Intonation Satzsegmentierung 163 Satzsemantik 231, 243 Satzverknüpfung 438 SCHED 743 schemata — textual 288 ff — knowledge 289 Schließen, zeitliches 436 Schnittstelle 311

search key 515 search procedure 596 searching technique 513, 593 secrecy 108 Segmentgrenze 160 Segmentierung/segmentation 159, 367, 531 ff, 590 — morphologische 178, 525 ff Sekundärdaten 760 Sekundärknoten 325 selection information 337 f selectional restriction 443 f Selektionsoperationen 556 selektiver top-to-bottom Algorithmus (STBA) 384 self-correction 477 self-education 751 semantic ATN 450 semantic constraints 668 semantic density 447 semantic formula 441 semantic gap 773 semantic independent meaning representation 448 semantic interpretation 440 ff semantic marker 234 ff, 442 ff, 448, 644 semantic models 668 semantic net, network

s.Netzwerk, semantisches semantic relation 516 semantic role 442 Semantik/semantics 440, 595 f — behavioristische 231 — denotational 727 — deskriptive 231 f — generative 65, 231 — interpretative 231, 445 — linguistische 231 — model-theoretic 284 — preference 446 — prozedurale 231 f, 237 — und Parser 352, 376 ff s. Referenzsemantik;

Satzsemantik; Beschreibung, semantische Semantische Felder 241 semantische Merkmale

s. semantic marker Semantischer Raum 239 semi-automatic lemmatization 511

s. Lemmatisierung semiotic text-theoretical framework 219 sensus 220 sequentiell 312 seriell 320 SETL 673 SGML s. Standard Generalised

Markup Language shallow structure 736 SHALT 640 f shift-reduce Parser 274, 386

Shortes-Match-Verfahren 198 SHRDLU 11, 217, 278, 432, 444 ff, 723, 733 ff, 737 f, 749 sign 219 Signal, akustisches 160 signal, processing 589 Signalformcodierung 603 significans 220 significatum 220 Silbensegmentierung 161 f Silbentrennung 160 SIMULA 786 Simulation (und Parser) 351 simulation machine 76 f, 78 Simulation 10, 77, 82 f, 85, 122, 283, 468 f, 739, 747 Sinneinheit 159 SIR 265, 299 SIRE 705 situation-action-rule 723 Situations-Semantik 436 SIZ 605, 608 f Skalierung 115 Skript/script 226, 331, 439, 455, 467, 781 slash-notation 399 Slot-Filler-Prinzip 369, 424 f SmallTalk 766, 785 SMART 706 SNOBOL/SL5 129, 614, 766 ff, 770 social effects 111 f social relationship between speaker and hearer 476 soft display key 782 software crisis 773 software engineering 674 ff software environment 779 Sonagramm 161 SOPHIE 723, 729 f, 738 sort-key 515 SPANAM 635, 637 f, 653 f speaker independent systems 593 speaking 73 spectrum 589 speech 107 speech filing 586, 601, 604 speech production 589 speech recognition 64, 107, 586 ff — BYBLOS 598 — continuous 586, 595 — DRAGON 598 — HARRY 598 — HEARSAY 314, 595 — SPICOS 598 speech storing system 586 speech synthesis 68, 472 speech synthesis from concepts 605 speech synthesizer 748 speech understanding 586 ff Speicherbedarf 312 spelling checker 511

30

spelling correction 108 SPICOS 598 Sprachanalyse, prozessuale 83 Sprachatlas 790 — Englischer 554 — Elsässischer 554 — kleiner Deutscher (KDSA) 554, 568 ff — des nördlichen Rheinlands 554 — des südöstlichen Niederlands 554 — lothringischer 554 — Südwestdeutscher 554 Sprachbarriere 706 Sprachbeschreibungsmodell 7 Sprachdatenverarbeitung 80, 82 Sprache — europäische 764 — formale 88 — geschriebene 167 f — gesprochene 167 — kontextfreie 92 — rekursiv aufzählbare 91 Spracherkennung, automatische 160 Spracherkennungssystem 164 Spracherkennungsprozeß 160 f Sprachforschung — computergestützte 3 — elektronische 80 Sprachkarte 793 Sprachkartographie — automatische 554 f, 791 ff Sprachmittel — deklarative 768 — imperative 768 — prozedurale 768 sprachorientierte Anwendung 485 Sprachpflege 111 Sprachphilosophie, analytische 263 Sprachsignal, akustisches 160 Sprachsimulationsmodell 84 Sprachstatistik 529 Sprachstatistiker 83 Sprachsynthese — Akzeptanz 611, 615, 621 — Anwendungsklassen 601 — Anwendungen 616 ff — anwendungsprogrammierung 614 — automatische 162, 184, 599 ff — Aversionengegen 616 — Effektivität von 616 — Geschichte 621 — Geräte zur 608 ff — hardware 606 ff — lautorientierte Verfahren 606 — Marktprognosen 608, 618 ff — Marktübersicht 608 — Methoden der 600 ff

— nachrichtentechnische Verfahren 601 Verfahren 601 — praxisrelevant 617 ff — Qualität der 611 — Qualitätstests 615 — reproduzierende Verfahren 603, 612 — Software 606 ff — sozialpsychologische Aspekte 616 — sprachliche Einheiten der 600 ff — Theorie der 620 — Transformationen 606 ff — alphabetischer Teile 606 f — Hilfstrans- formationen 606 — nichtalphabetischer Textteile 607 — Vortransformationen 606, 611, 614 — Systeme — TTS 609 — PHONTEXT 605 — MITalk 605, 615 — NRL 605, 615 — Klattalk 605 — Icophone 605 — SIZ 605, 608 f — STRAUS-VS 605, 608 — SAMT 605, 608 f, 614 Sprachsystem 160 Sprachübersetzung maschinelle

s. machine translation Sprachverhaltensproblematik 12 Sprachverstehen 266, 460 f, 487

s. Verstehen Sprachverstehensprozeß 11 Sprachverstehenssystem 11, 13, 232, 260, 266, 271, 460 ff Sprachwandel 437 spreading activation 452 Sprechakt/speech act 263, 281, 439, 474, 724 Sprechakttheorie 334 Sprechapparat 611 Sprechen 599 Sprechgeschwindigkeit 612 Sprechsignale 611 Sprechtrakt 603 stack groups 778 STAIRS 705 Stammlexika 526 stand-alone-Verfahren 189 stand-by-Verfahren 189 Standard Generalised Markup Language 754, 762, 764 f Standard Model 206 Stanford Computer Archive of Language Materials (CALM) 153 Stapelspeicher 364 f

Static Grammar 626 statistical rules 73 f Statistik/statistics 116, 528 ff, 544 ff, 698 STBA

s. selektiver top-tobottomAlgorithmus stemma construction 535 ff Steuersymbol 602 Stichprobe 146, 530 f, 583 — geschichtete 146 — zufällige 146 Stimme 612 story grammar 289 story understanding 165, 244, 267, 278 strategic and tactical component 476 stratification 625 f STRAUS-VS 605, 608 string 766 Struktur-Matching 767 Struktur/structure — hierarchische 354 — lineare 354 — thematic 226 Strukturalismus 164 — amerikanischer 87 Strukturbeschreibung 165, 377, 381 Strukturrepräsentation 358 STUDENT 264 f, 658, 723 ff, 738 stylistic 544 f stylistic analysis 544 ff stylo-statistics 548 ff sub-lexicon 516 subcategorization 337, 341 Subgraphem 168 f Subkategorisierung 233 sublanguage 742 subschemata 515 Subtypisierung 294 surface case 442 surface speech act 474 SUSY 312, 630, 670, 673, 694 SUTRA 472, 474 Syllogistik 461 f symbolic computing 773 Symbolisation 561 Symbolverarbeitung 2 synonyms 338 syntactic theories

s. Grammatik/grammar syntaktische Funktion 354 syntax tree 592 Syntax/syntax 131, 138, 204 ff, 348, 595 f — generative 88 — kontextfreie 88, 92 — kontextsensitive 88 syntaktische

s. Analyse, System — inkrementelles 12 — kooperatives 488

31

— lernfähiges 488 — sequentiell und parallel organisierte 312 Systematisierung 114 Systemgenerierung, inkrementelle 316 systemic grammar 217, 474, 724, 733, 736 SYSTRAN 63, 631, 635 ff, 639, 673, 677, 707 SZEHAT 651 f

T Tabellengenerierung 316 tabellengesteuerter shift-reduce Parser 389 tactical component 477 TAG s. tree adjoining grammar tagging 78, 136, 145, 764 TALESPIN 472 TAUM 66, 626 f, 632, 634 f, 637, 654, 670 f, 675 TAURAS 640 f Taxonomie/taxonomy 115, 516 Teilergebnistabelle

s. chart Teiltext 141 TELDOC 704 Telefon 604 teletype 754 template 329, 441, 447, 692 f, 696 template matching 441, 591 Terme 294 terminal 754 Terminalknoten 331 Terminologie/terminology 643, 760 ff Termunifikation 294 Testen/testing, computational 84, 245 ff, 252 ff Text 141, 472, 476 f, 760 — allophonisch/phonetischer 599 — Austausch von 761 — geschriebener Sprache 761 — gesprochener Sprache 761 s. Korpus TEXT 476 ff text condensation 228 text editors 107 text enhancement 109 text generation 109 text grammar 289 text linguistics 139 text processor 107 text reconstruction 543 text structure schemata 289 text-constitution 219 text-to-speech 472, 601, 604 f, 607 f, 617 f, 620 Textanalyse 84 Textauswahl 582 ff Textgenerierung 694

Textinterpretation 263 Textkondensierung 694 Textkorpus Grunddeutsch Sprechsprache 144 Textlinguistik 694 TEXTPACK 583 Textsemantik 243 Textstrukturkodierung (s. a. tagging) 764 textual database 76 textual schemata 289 textuality 221 Textverarbeitung 766 — philologische 80 Textvercodung 583 f, 762 Textverstehen 261, 460 ff

s. Sprachverstehen, Verstehen Textverstehenssystem (TVS) 466 ff Textwissenschaft 244 Textzusammenhang 355 TG-tester 315 ff THALIA 641 f The Proper Treatment of Quantification in Ordinary English 257 f Thema/Rhema/theme/rheme 225, 694 Theorem 321 Theorie 80, 115 ff Theorie der formalen Sprachen 356 Theoriebildung 113 f theory of discourse 475 Thesaurus Linguae Graecae (TLG) 156 Thesaurus/thesaurus 76, 238, 516, 702 TIBAQ 66 TICCIT 746 f Tiefe zuerst 372, 378, 402 Tiefenkasus 325 timesharing 776 TITUS 631, 672 TLC (= teachable language comprehender) 265 token 191, 452, 763 Tokenknoten 325 Tonhöhe 612 top-down Parser 378 ff, 395 Top-Down-Analyse 93, 371, 378 ff, 395, 595 TOPAS 175 f topic 108, 65 TOPIC 200, 228, 694 f Topic-Sätze 692 topic/comment 225 TOPOGRAPHIC 695 touch-tone-Technik 604 TQA 723, 726 f, 738 TQA

s. Transformational QueryAnswering trade mark 111

transducer 247, 643 transfer approach 623, 642 f, 654 f, 671 ff TRANSFO 673 Transformation 87 Transformational Query Answering 124 Transformationsgrammatik/ transformational grammar 6, 13, 68, 88 f, 91, 93, 129, 254, 259, 363 f, 623, 723, 726, 736 Transformationsregel 91 transition probability 591 Transkription 173 translatability 106 translation 78, 102, 624, 657 — high quality 653

s. machine translation TRANSLATOR 635 treatment of exceptions 542 tree adjoining grammar 474 Tree Correspondance Grammar 626 tree, dependency 65 tree representation 625 truth-maintenance 462 TTS 609 TULIPS 64 Turing-Test 335 Turingmaschine 90 TUSTEP 762, 794 two-level model 247 ff Typ-i-Hierarchie 88 ff Typ-i-Sprache 88 ff Typ-i-Syntax 88 ff type 191, 452 type/token distinction 452 Typeknoten 325 Typensystem 298 typewriter 103 typing 107 Typographie 108, 760 Typologie 114 Überbeantwortung 717 f, 720

s. Antwort Übergangsnetzwerk/transition network 305 f, 368 — Basis-/basic transition network s. BTN — erweitertes/augmented transition network s. ATN — finites s. FTN — kaskadiertes s. CATN — rekursives/recursive transition network s. RTN Übersetzung, Maschinelle

s.Maschine Translation — linguistic models 622 Übersetzungstests 122 UC 744 understanding 73, 207, 653 ff, 657 ff, 671 — and intention

32

— and social context 662 — layers of 667

VIPS s. voice interactive

s. language understanding; speech understanding; Sprachverstehen, Verstehen

virtual memory 778 visual salience 737 VISULEX 681 VOCARL 202 voice interactive processing system (VIPS) 741 voice messaging 601, 604 f, 608, 612 voice response 601, 604 f, 608, 618 voice store-and-forward 601 Vollständigkeit 319 Vollsynthese 599, 605 Volltextdatenbasen 696 Volltextinvertierung 691 Volltextverarbeitung 692 von Neumann model 316, 774 ff Voraussage 114 Vorausschautabelle 384 f Vorwärtsinferenzen/foreward inferencing 467, 470 VOTRAX 748

UNIDAS 705 unification grammar

s.Unifikationsgrammatik Unifikation/unification 130, 210 f, 294, 362, 398, 425 Unifikationsgrammatik/unifica- tion grammar 12, 13, 80, 245, 254, 258 f, 362 f, 398, 626 Uniformität 319 UNILEX 63 universal character of natural language 140 universals 103 Universalsprache 769 universe of discourse 243 UNIX 183, 409, 615, 677, 771 Unsicherheit 434 Unterbegriff 324 Unvollständigkeit 434 user interface 780 User Specialty Languages

s. USL user study 111 USL 123 ff, 314, 725 f, 738 vagueness/Vagheit 105, 118, 434, 661

fs. fuzziness, fuzzy logic VALANTINE 641 f Valenz 353 f, 421 valeur linguistique 232 Variabilität 115 Variable 322 variable, logic 211 variable rules 73 ff vector quantification 591 vehiculum 219 VENUS 640 verbose 105 Vererbungsmechanismus 298, 301 Verfahren — mathematisches 92 — regelgeleitete 201 Verhalten — wissensbasiertes 432 Verkettung 95 ff, 296 Verstehen 7, 113, 232, 260 ff — akustisches 262 — hermeneutisches 262 — operationales 265 ff, 460

s. Sprachverstehen; s. Textverstehen; s. understanding Verstehensprozeß 83, 231 Verstehenssimulation 261 Verteilungsnetzwerk 525 videodisk 751 videotex 109 VIE-LANG 202 viewdata 109

processing system

W W-Frage 715 Wahrheitstheorie 292 Wahrscheinlichkeitsmodelle 114 Waterloo Concordance (WATCON) 505 Weidner 636 well-formed substring table 373 Wiederschreibregel 88 Wissen 160, 163, 267, 291 ff, 376 — Alltagswissen 334 — inferentielles 467 — räumliches 436 ff — sprachliches 265 — vages 434 — Weltwissen 351, 355, 376 Wissenmodell — intensionales 320 — extensional 320 Wissensbank 695, 709, 712 ff, 717 wissensbasierte Systeme 349 Wissensbegriff 266 Wissenschaft, angewandte 482 Wissenschaftsorganisation der Computerlinguistik 14 ff Wissenserwerb 434 Wissensinventar 243 Wissensrepräsentation 268, 316 ff, 325, 710

s. Repräsentation Wissensrepräsentationssprache 433, 694, 710

s. Repräsentationssprache Wissensspur 435 Wissenssystem 433 Wissenstransfer 697 WORD 790, 794 word access 515

word boundary detection 593 word concatenation 601, 603 Word Count and Concordance Generator on Atlas 753 Word Count and Concordance Generator on Atlas 504, 753 word expert 138, 228, 369, 454 word for word translation 624 word form analysis 245 word frequency list 76 word recognition 586 — connected 586 — isolated 586 word sense 338 ff, 346 f word-form recognition 248 WordCruncher 507 f Wordfeldanalyse 238 wordprocessor 103, 472 words and concepts 658 workstation 780 world knowledge schemata 289, 645 world model 644 Wort/word 191, 338 ff, 346 Wortatlas der kontinentalen Winzerterminologie 554 Wortbeschreibung, semantische 234 Wortbetonung 179 Wortdefinition 192 Wörterbuch 81, 166, 233, 760, 768 — Austausch von 762

s. dictionary, Lexikon Worterkennung 162 Wortexperte 694 Wortform 191 Wortgeographie der städtischen Alltagssprache in Hessen (WSAH) 554 Wortintonation 612

Satzintonation s. Intonation, Satzintonation wortorientierte Sprachsyntheseverfahren 600 Wortstellung 360, 399, 421 writer’s workbench 740 WSAH

s. Wortgeographie derstädtischen Alltagssprache inHessen WYSIWYG = what you see is what you get 755

X XCALIBUR 723 f, 737 f XPLAIN 472 XTRA 635

Z ZAPSIB 66 Zeichen — alphabetische 760 — diakritische 763

33

— phonetische 760 — Trennzeichen 760 — Hilfszeichen 760 Zeichenkette 94, 766 Zeichenkettenersetzungsregeln, kontextsensitive 177

Zeichenkodierung 761 ff Zeichensatz 763 f Zeichensystem 87 Zeiger 365 f Zeitachse 436

Zeitbedarf 92, 93 zeitliches Schließen 436 Zeitobjekt 436 Zirkularität 324 Zugangssystem 709

Winfried Lenders, Bonn (Federal Republic of Germany)