191 84 40MB
German Pages 160 Year 1980
Linguistische Arbeiten
93
Herausgegeben von Herbert E. Brekle, Hans Jürgen Heringer, Christian Rohrer, Heinz Vater und Otmar Werner
Oberflächensyntax und Semantik Symposium anläßlich der ersten Jahrestagung der Deutschen Gesellschaft für Sprachwissenschaft, Tübingen 28.2.- 2.3.1979 Herausgegeben von Hans-Heinrich Lieb
Max Niemeyer Verlag Tübingen 1980
QP-Kiuztitelaufnahme der Deutschen Bibliothek Oberflächensyntax und Semantik : Symposium anlässl. d. 1. Jahrestagung d. Dt. Ges. für Sprachwiss., Tübingen, 28.2. - 2.3.1979 / hrsg. von Hans-Heinrich Lieb. Tübingen : Niemeyer, 1980. (Linguistische Arbeiten ; 93) ISBN 3-484-10409-0 NE: Lieb, Hans-Heinrich [Hrsg.]; Deutsche Gesellschaft für Sprachwissenschaft
ISBN 3-484-10409-0
ISSN 0344-6727
© Max Niemeyer Verlag Tübingen 1980 Alle Rechte vorbehalten. Ohne ausdrückliche Genehmigung des Verlages ist es auch nicht gestattet, dieses Buch oder Teile daraus auf photomechanischem Wege zu vervielfältigen. Printed in Germany. Druck: fotokop Wilhelm weihert KG, Darmstadt
VORWORT DES HERAUSGEBERS
Von 28.2. bis 2.3.1979 fand in Tübingen die erste Jahrestagung der Deutschen Gesellschaft für Sprachwissenschaft (DGfS) statt. Im Rahmen dieser Tagung organisierte der Herausgeber eine Arbeitsgruppe mit Symposiumcharakter unter dem Titel "Oberflächensyntax - das Problem einer semantikfundierenden Oberflächensyntax in der gegenwärtigen Sprachwissenschaft". Die Überlegungen, die zur Organisation der Arbeitsgruppe führten, sind in der Einleitung des vorliegenden Bandes skizziert. Es wurden fünf vorbereitete Vorträge zu verschiedenen syntaktisch-semantischen Ansätzen gehalten (extended standard theory, besonders trace theory; daughter dependency grammar; Montaguegrammatik; integrative Syntax und Semantik.) , die insbesondere auf die beiden folgenden Leitfragen Auskunft geben sollten: a. Wie weit haben die syntaktischen Strukturen eines Satzes, die man im Hinblick auf seine Bedeutungen gegenwärtig ansetzt, Oberflächencharakter? b. Auf welche Weise werden gegenwärtig die Bedeutungen der Wörter eines Satzes zu den Bedeutungen des Satzes in Beziehung gesetzt; insbesondere: welche Rolle wird dabei den traditionellen syntaktischen Relationen zugewiesen? Natürlich gibt es weitere Ansätze, bei denen die Leitfragen sinnvoll gestellt werden könnten; ihre Nichtberücksichtigung ist nicht als Wertung gemeint. Der vorliegende Band enthält in Teil I die Texte der fünf Vorträge, die bis auf zwei (von Stechow, Lieb) für die Veröffentlichung überarbeitet wurden. Die Vorträge sind unterschiedlich stark auf die beiden Leitfragen ausgerichtet. Teil II (Diskussion und Erweiterung) dokumentiert weniger die Diskussionen während des Symposiums - nur zwei Teilnehmer machten von der Möglichkeit Gebrauch, ihre Diskussionsbemerkungen nachträglich in endgültige Form zu bringen als eine weiterführende Auseinandersetzung mit einzelnen Vorträgen, bei der die Kommentare ihrerseits Aufsatzform annahmen. Das Rahmenthema wird dabei in den Bereich der Wortsemantik (Grewendorf) und der Phänologie (Vennemann, Lieb) ausgeweitet. Die weiterführende Auseinandersetzung hatte zur Folge, daß ein einzel-
VI
ner Ansatz - die 'integrative Sprachwissenschaft' - nunmehr stärker hervortritt; eine Konsequenz, die nicht beabsichtigt war. Den Herausgebern der Linguistischen Arbeiten und dem Verleger gebührt Dank, daß sie die Dokumentation des Symposiums ermöglicht haben. Berlin (West), im März 1980 Hans-Heinrich Lieb
INHALTSVERZEICHNIS
Vorwort des Herausgebers
V
Hans-Heinrich Lieb: Einleitung: zum Stand der Syntaxforschung
1
Teil I: Vorträge des Symposiums Craig Thiersch: New Developments in Generative Syntax
9
Richard Hudson: Daughter-Dependency Graimar
32
Arn im von Stechow: Zwei Fragen an die Montague-Graititatik
51
Peter Eisenberg: Integrative Syntax
70
Hans-Heinrich Lieb:
Integrative Semantik
86
Teil II: Diskussion und Erweiterung
Stanley Starosta/Richard Hudson: Contents on Daughter-Dependency Granmar
106
Günther Grewendorf: Oberflächensyntax und das Problem der Bedeutung
108
Hans-Heinrich Lieb:
Oberflächensyntax und Bedeutung: Erwiderung
122
Theo Vennemann: Universalphonologie als partielle Sprachtheorie
125
Hans-Heinrich Lieb: Segment und Intonation: Zur phonologischen Basis von
Syntax und Morphologie
134
EINLEITUNG: ZUM STAND DER SYNTAXFORSCHUNG
Hans-Heinrich Lieb Freie Universität Berlin
Mit den folgenden Bemerkungen soll der wissenschaftliche Ort bezeichnet werden, an dem sich die Beiträge des vorliegenden Bandes jeweils einordnen lassen. Nach wie vor dürften die meisten Sprachwissenschaftler die eine oder andere Form von generativer Grammatik entweder direkt vertreten oder - wenn sie nicht selber auf grammatischem Gebiet arbeiten - bei ihrer Arbeit voraussetzen. Trotzdem hat das Gewicht, das der generativen Grammatik innerhalb der Sprachwissenschaft zukommt, insgesamt abgenommen. Die Veröffentlichung der Aspects (Chomsky 1965) bedeutet nicht nur einen Höhepunkt innerhalb der generativen Grammatik, sondern markiert das Ende der einheitlichen, an Chomsky orientierten Theoriebildung in dieser sprachwissenschaftlichen Richtung. Was sich in der zweiten Hälfte der sechziger Jahre unter dem Banner der 'generativen Semantik1 sammelte und mit dem Elan von Jungtürken gegen die 'interpretative Semantik' zu Felde zog, also gegen die generative Transformationsgrammatik Chomskyscher Prägung in ihrer zweiten, als standard theory bekannten Fassung von 1965, schien zunächst mit Leichtigkeit den Sieg davonzutragen: die Ansätze von Lakoff, McCawley oder auch Fillmore und ihren Gefolgsleuten thematisierten mit Nachdruck das Problem einer einheitlichen syntaktischsemantischen Theorie, das bei Katz und Postal (1964) eben nicht überzeugend gelöst war. Es ist bezeichnend für den Schwung der neuen Richtung, daß Sprachwissenschaftler wie Postal auf sie einschwenkten. Die vorsichtigen Neuerungen bei Jackendoff (1972) und bei Chomsky selbst (in den als Chomsky 1972 gesammelten Aufsätzen) konnten ebenso wie Katzens Versuch einer summa semanticae (Katz 1972) als bloße Verteidigungsmanöver erscheinen, mit denen der Wort- und Satzsemantik so wenig Rechnung zu tragen war wie Intonationsphänomenen oder gar Sprechaktfragen, deren Wichtigkeit aufgrund der Arbeiten von Grice und besonders Searle (1969) rasch erkannt wurde. Nachträglich wird man sagen dürfen, daß die gesamte Auseinandersetzung unter den Bedingungen stattfand, die Chomsky gesetzt hatte: die Idee der Tiefenstrukturen (seien sie nun syntaktisch oder 'semantisch'), der Transformationen, der Regeln zum Generieren formaler Objekte, der Verbindung 'phonologischer' und 'se-
2
mantischer Repräsentationen1 blieben ebenso erhalten wie die Forderung 'psychologischer Realität' für die Grammatik als ganze oder gewisse ihrer Teilaspekte. In der Tat dürfte es sich um wenig mehr gehandelt haben als um einen Schulstreit in der zweiten Generation. Mit Recht bemerkte Schnelle schon 1971 unter der Überschrift "Generative semantics vs. interpretive semantics - a pseudo-issue?" (1973: 829): In view of the important methodological problems outlined in previous sections the heated debates on the issues analyzed in this section seem to be a waste of intellectual energies to be stopped as soon as possible.
Die 'generativen Semantiker' mögen das stärkere Problenibewußtsein auf ihrer Seite gehabt haben: in ihrem formalen Vermögen waren sie der angegriffenen Richtung, besonders aber Chomsky, mit wenigen Ausnahmen (Keenan) weit unterlegen. Man wird ohne übertreibung sagen dürfen, daß die generative Grammatik nur einen bedeutenden Theoretiker hervorgebracht hat, nämlich ihren Begründer (wenn man einmal Chomsky und nicht Harris als solchen ansieht): Chomsky 1955 ist innerhalb der generativen Grammatik nichts Vergleichbares an die Seite zu stellen. Allerdings scheint man diese Arbeit bis zu ihrem Erscheinen im Druck (1975) kaum gelesen zu haben; und nach 1965 war Chomsky selber zunächst mehr mit Politik als mit Sprachwissenschaft beschäftigt. In formalen und theoretischen Fragen haben sich die generativen Semantiker insgesamt stärker durch Kritik als durch eigene Vorschläge ausgezeichnet; eine Haltung, die für jede Richtung tödlich werden kann, und zwar grade bei starkem Problembewußtsein. Seit etwa 1975 hat die generative Semantik denn auch aufgehört zu existieren; ihre Todesursachen sind Gegenstand historischer Untersuchungen
(Newmeyer [1978]), und ihr Nachleben läßt sich kaum besser kennzeichnen als
durch die folgende Bemerkung (Gazdar 1979: 197 über Stockwell· 1977): There is a sad irony in the fact that the first, and possibly only, Generative Semantics textbook should appear at a time when it must have become apparent to even the greenest postgraduate that the Generative Semantics paradigm has been quietly abandoned by virtually all its major proponents (abandoned for Montague Grammar, Radical Pragmatics, Relational Grammar, Chinese cooking, or some combination thereof).
Demgegenüber ist die standard theory zur extended standard theory ausgebaut worden und hat seit Anfang der siebziger Jahre (Chomsky 1973) zahlreiche theoretische Neuerungen und Weiterentwicklungen hervorgebracht, die unter Schlagwörtern wie trace theory das Interesse einer wachsenden Zahl von Sprachwissenschaftlern finden. V7ie weit diese Entwicklungen ihrerseits zum weiteren Zerfall eines einheitlichen Rahmens führen - wofür sich die Anzeichen mehren - bleibt abzuwarten.
3
Die Arbeit von Thiersch (im vorliegenden Bande) gibt einen willkommenen Überblick über den Forschungsstand in dem umrissenen Bereich (vgl. auch die systematische komnentierte Bibliographie bei Thiersch). Die Auseinandersetzung zwischen 'generativer Semantik' und 'interpretativer Semantik' betraf zu einem wesentlichen Teil das Verhältnis von Satzstrukturen und Satzbedeutungen (bzw. syntaktischen und semantischen 'Repräsentationen'). Die Entwicklung innerhalb der interpretativen Richtung führte zunächst zu der Auffassung, daß auch die Oberflächenstrukturen' bei der Zuschreibung von Satzbedeutungen (semantischen Repräsentationen) zu berücksichtigen seien, und schließlich mit der trace theory zu einem Ansatz, nach dem sich die senantischen Repräsentationen allein aufgrund von 'oberflächennahen1 syntaktischen Repräsentationen ergeben. Diese Entwicklung ist der Hauptgrund, warum die extended standard theory im Rahmen dieses Bandes zu berücksichtigen war. Allerdings zeigt die Arbeit von Thiersch deutlich - wenn auch mehr im Vorbeigehen -/ daß die semantischen Repräsentationen nach wie vor auf syntaktischen aufbauen, denen man Oberflächennähe nur sehr bedingt, und wohl nur relativ zu älteren 'syntaktischen Tiefenstrukturen', zusprechen kann. Auch nach dem Ableben der generativen Semantik geht die Aufsplitterung der generativen Grammatik in verschiedene Richtungen weiter. Bereits bei Gazdar erwähnt (im obigen Zitat) werden die relational grammar sowie der Einfluß der Montaguegrammatik. Bekanntlich hat Montague seine eigenen sprach- und grairmatiktheoretischen Arbeiten als Alternative zur generativen Grammatik aufgefaßt, deren syntaktischen Ansatz er als wertlos für die Semantik betrachtete (Montague 1974: 188). in der Tat wirken semantische Theorien, wie sie in der generativen Granmatik von Katz oder Jackendoff vorgelegt wurden, gegenüber Montague 1974 hilflos (die 'generative Semantik' hat, abgesehen von Bartsch 1972 und den frühen Arbeiten von Keenan 1972 u.a. - semantisch kaum mehr als Proklamationen hervorgebracht). Angesichts dieser Herausforderung waren außer schlichtem Ignorieren drei Reaktionen möglich: man konnte die generative Grammatik zugunsten der Montaguegrammatik oder verwandter Ansätze aufgeben; oder versuchen, die Vereinbarkeit beider auf einer höheren grammatiktheoretischen Ebene zu zeigen; oder schließlich eine Synthese anstreben, bei der eine generative Syntax - sei es im 'interpretativen' oder im 'generativ-semantischen' Rahmen - mit einem semantischen Apparat verbunden wurde, wie ihn Montague - oder die modelltheoretische Semantik sonst - zur Verfügung stellte. Der erste Weg - Beschränkung auf Montaguegranmatik - wurde etwa in den Dissertationen von Grabski [1974] und Lutzeier [1974] eingeschlagen. Für den zweiten Weg - grammatiktheoretische Vereinbarkeit - ist Schnelle 1976
4
ein ausgezeichnetes Beispiel, Für den dritten ifeg sind die Arbeiten von Partee und Cooper exemplarisch (zuerst Partee 1975, Cooper 1975). Die Verbindung von generativer Grammatik und Montaguegrarnmatik auf dem zweiten und dritten Weg hat innerhalb der generativen Grammatik zu einer weiteren Auffächerung geführt. Dabei wurde ein wesentlicher Punkt von Montagues Syntax der Ausschluß von 'syntaktischen Tiefenstrukturen' zugunsten von Oberflächennahen' Strukturen - anfangs ausdrücklich abgelehnt (Schnelle 1972: 3). Der Oberflächencharakter syntaktischer Strukturen im Sinne Montagues blieb allerdings ungeprüft. von Stechow wendet sich im vorliegenden Bande dieser Frage zu - übrigens bei grundsätzlich positiver Einstellung zur generativen Grammatik -, und Grewendorf nimmt sie in seiner ausführlichen Diskussionsbemerkung noch einmal auf. Die extended standard theory und die Montaguegrammatik zeigen wenigstens tendenziell eine Grundrichtung in der neueren Syntaxforschung: 'Syntaktische Oberflächenstrukturen' - in einem weiten Sinn von "Oberfläche" - werden zunehmend als ausschlaggebend für die Zuordnung von Satzbedeutungen angesehen. Diese Tendenz ist voll repräsentiert in zwei nicht-transfunrationellen Ansätzen, in denen also der formale Apparat nicht mehr verwendet wird, der in der generativen Transformationsgrammatik den Übergang von 'Tiefenstrukturen1 zu Oberflächenstrukturen' erlaubt: in der daughter dependency grammar von Hudson und der 'integrativen Sprachwissenschaft' von Lieb und anderen. (Zu der Tendenz vgl. im übrigen auch Hudson 1979; sie ließe sich darüberhinaus dokumentieren.) Hudson kennzeichnet im vorliegenden Bande wesentliche Punkte seines Ansatzes und stellt insbesondere den Gberflächencharakter der angesetzten Satzstrukturen heraus. Er geht dabei ausführlich auf Vfeiterentwicklungen seit Hudson 1976 ein. Besonders hervorgehoben sei der Versuch, nun auch die Semantik ausdrücklich einzubeziehen; das bedeutende Gewicht, das dem Lexikon zugemessen wird; und die Einführung neuer Notationswaisen (Hudson 1976 skizziert eine von Schachter 1978 enthusiastisch begrüßte
nicht-transformationelle, aber immer noch generati-
ve Grammatik von eher tradit:oneller Art.) Anders als die bisher besprochenen Ansätze legt die integrative Sprachwissenschaft besonderen Viert auf die klare Trennung von Sprachtheorien und Grartmatiktheorien (Theorien von sprachwissenschaftlichen
Grammatiken). Entsprechend
charakterisiert Eisenberg im vorliegenden Bande eine bestimmte Auffassung von Strukturen von Sätzen, nicht jedoch von Struikturbeschreibungen; Fragen nach der Form und Funktion von Regeln (einer Grammatik) werden nicht berührt. Satzstrukturen sind Oberflächenstrukturen in einem Sinn, der am Schluß der vorliegenden Einleitung angegeben wird.
5
Lieb kennzeichnet im vorliegenden Bande die Zuordnung von Bedeutungen zu Sätzen aufgrund von Strukturen, wie sie Eisenberg charakterisiert. Bei dieser Zuordnung spielen traditionelle 'syntaktische Relationen' wie die Subjektrelation eine entscheidende Rolle. Die Konzentration auf Oberflächennahe1 Strukturen - bis hin zur Verwerfung aller syntaktischen Strukturen, die keine Oberflächenstrukturen sind - kann als eine erste Grundtendenz der neueren Syntaxforschung gelten. Eine zweite Grundtendenz ist die zunehmende Beachtung, die den traditionellen syntaktischen Relationen gewidmet wird, sei es unter syntaktischem oder semantischem Gesichtspunkt. Zumindest implizit hat sich diese Tendenz schon früher in allen Formen von Dependenzgramnatik ausgeprägt, wozu Fillmores Kasusgrammatik hier einmal gerechnet sei, sowie in der Tagmemik. Die generativ-transformationeile Behandlung der syntaktischen Relationen - seit ihrer 'Wiederentdeckung' in der standard theory (Chomsky 1965) - ist hinreichend bekannt; sie führt schließlich zur Entwicklung der relational grammar (seit Johnson 1974/1979). Ein zentraler Platz wird den syntaktischen Relationen auch in der 'funktionalen Grammatik' von Dik eingeräumt (1978; Vorstufen in Dik 1968). Zu einem eigenen Forschungsgegenstand avancieren die syntaktischen Relationen in der universalistisch und sprachtypologisch ausgerichteten Relationenforschung von Keenan, Comrie u.a., der sich auch Fillmore anzunähern scheint (zur Dokumentation vgl. besonders die beiden Bände Li (Hrsg) 1976 und Cole/Sadock (Hrsg) 1977). In all diesen Richtungen und Ansätzen werden die syntaktischen Relationen meist auch mit 'Tiefenstrukturen' in Verbindung gebracht oder ausschließlich für sie expliziert. Anscheinend ist die integrative Sprachwissenschaft bisher der einzige Ansatz, der syntaktische Relationen ausdrücklich auf den - allein zugelassenen - Oberflächenstrukturen definiert
und ihnen zugleich eine zentrale
Rolle beim Aufbau der Satzbedeutungen zuweist, in dieser Hinsicht vergleichbar der traditionellen Schulgrammatik ebenso wie dem frühen Versuch von Katz und Fodor 1963 (deren Unzulänglichkeiten im übrigen bekannt sind). Die beiden genannten Grundtendenzen der neueren Syntaxforschung sind hier nur andeutend umrissen worden. Die erste Tendenz ist im vor l legenden Bande besser repräsentiert als die zweite, aus Gründen, die allein mit seiner Entstehungsgeschichte zu tun haben. Insgesamt dürften die hier vorgelegten Arbeiten zeigen, daß Syntax und Semantik nach einer Zeit der Richtungskämpfe und relativen Stagnation in fruchtbarer Weiterentwicklung begriffen sind - mögen auch nicht gleich vierzehn verschiedene syntaktische Ansätze dokumentiert werden, wie sie die Organisatoren einer parallelen amerikanischen Tagung unterschieden haben (Conference on Cur-
rent Approaches to Syntax, März 1979; vgl. Moravcsik u.a. (Hg) i.E.). Abschließend sei - im wesentlichen gemäß Lieb 1977a: (25), 1976b: (3) - ein Vorschlag zur Diskussion gestellt, den zentralen Begriff "Oberflächensyntax" auf bestimmte Weise zu explizieren. Der Begriff sei als eine Bezeichnung für Teile von Sprachtheorien (nicht: Grammatiktheorien) folgendermaßen verstanden: Informelle Definition. Eine Oberflächensyntax ist eine allgemeine syntaktische Theorie, in der für alle Komponenten (alle Einheiten, Kategorien, Strukturen usw.) des syntaktischen Teiles eines beliebigen Idiolektsystems angenommen wird: a. Die Komponenten sind formale Objekte: die syntaktischen Einheiten sind Konstrukte aus phonologischen Einheiten (bei gesprochenen Idiolekten), eventuell mit ihren phonologischen Strukturen, und die syntaktischen Kategorien, Strukturen usw. sind Konstrukte aus syntaktischen Einheiten und ihren Teilen. b. Die Komponenten sind durch Eigenschaften bestimmbar, zu deren Charakterisierung die syntaktischen Mittel des Idiolektsystems - Reihenfolge phonologischer Einheiten, morphologische Markierung syntaktischer Einheiten, Satzintonationen - ausreichen. c. Zu jeder syntaktischen Einheit gibt es eine ihr entsprechende Einheit im phonetischen Teil des Idiolektsystems ("phonetisch" bei gesprochenen Idiolekten). d. Entspricht eine phonetische Einheit einer syntaktischen Einheit, so bleiben Reihenfolgebeziehungen in der phonetischen Einheit in der syntaktischen erhalten. Die· 'Einheiten1 der Teile des Idiolektsystems können natürlich komplex sein; insbesondere sind phonologische Wortf ormen als phonologische Einheiten zugelassen und Sätze als syntaktische. Die Definition geht nicht davon aus, daß phonetische und phonologische Einheiten zusammenfallen. Sie müßte ferner auf geeignete Weise verallgemeinert werden, um Schrift-Idiolekte zu erfassen. Der vorgeschlagene Begriff der Oberflächensyntax ist auf Theorien bezogen, nicht auf ihre Gegenstände.(Will man sich anders als Lieb nicht auf "Idiolektsysteme1 festlegen, so kann man den Begriff entsprechend verallgemeinern.) Der Ausdruck "Oberfläche" läßt sich auf die Komponenten des syntaktischen Teilsystems - also in den Cbjektbereich sprachwissenschaftlicher Theorien folgendermaßen übertragen: Eine Komponente (Einheit, Kategorie, Struktur usw.) des syntaktischen Teilsystems ist eine Oberflächen-Komponente (-Einheit usw.) bezüglich einer Theorie T, wenn T für diese Komponente alle Annahmen enthält, die in Cberflächensyntaxen für entsprechende Komponenten gemacht werden. Der
7
Begriff "Oberflache" ist relativiert auf eine Theorie T, die jedoch keine allgemeine syntaktische Theorie zu sein braucht und insbesondere die Beschreibung (Theorie) eines einzelnen Systems sein kann. "Oberfläche" läßt sich nun auch für die einzelnen Ausdrücke einer Theorie einführen, von denen sich sinnvoll sagen läßt, daß sie etwas bezeichnen: Ein Ausdruck einer Theorie T eines Idiolektsystems S ist ein (syntaktischer) Oberfläehenname bezüglich T und S, wenn er in T eine Komponente des syntaktischen Teilsystems von S bezeichnet, die eine Qberflächenkomponente bezüglich T ist. Mit Hilfe von "Oberflächenname" läßt sich beispielsweise über den OberflächenCharakter von 'syntaktischen Repräsentationen1 einer generativen Grammatik reden - soweit man eine solche Grammatik als Theorie verstehen darf und soweit sich feststellen läßt, welche ihrer Ausdrücke etwas bezeichnen (und was).
LITERATUR Bartsch, Renate, 1972. Adverbialsemantik. Die Konstitution logisch-semantischer Repräsentationen von Adverbialkonstruktionen. Frankfurt/M, Athenäum Verlag. (Linguistische Forschungen 6.) Chomsky, Noam, 1965. Aspects of the theory of syntax. Cambridge, Mass., The . . .Press. 1972. Studies on semantics in generative grammar. The Hague etc., Mouton. (JL, series minor, 107.) 1973. Conditions on transformations. In Festschrift für Morris Halle, hg. von S.R. Anderson und P. Kiparsky, 132-186, New York etc., Holt, Rinehart & Winston. 1975. The logical structure of linguistic theory. New York etc., Plenum Press. Cole, Peter; Sadock, Jerrold M . , (Hrsg), 1977. Syntax and semantics 8: grammatical relations. New York etc.: Academic Press. Cooper, Robin Hayes, 1975. Montague's semantic theory and transformational syntax. Ann Arbor, Michigan, Xerox University Microfilms. [Diss.phil., vervielf. ] Dik, Simon C . , 1968. Coordination: its implication for a general linguistic theory, Amsterdam, North-Holland. 1978. Functional grammar. Amsterdam, North-Holland. Gazdar, Gerald, 1979. [Rezension von Stockwell 1977]. Journal of Linguistics 15. 197f. Grabski, Michael, [1974]. Syntax und Semantik der Modalverben im Deutschen. Phil. Diss. Stuttgart: Universität.Stuttgart. [Fotomech. vervielf.] Hudson, Richard, 1976. Arguments for a non-transformational grammar, Chicago: University of Chicago Press. - 1979. [Rezension von Kac 1978]. Language 55. 670-674. Jackendoff, Ray S., 1972. Semantic interpretation in generative grammar. Cambridge, Mass., The M.I.T Press. Johnson, David E., 1974/1979. Toward a theory of relationally-based grammar. New York etc., Garland. (Outstanding dissertations in linguistics.) [1979. Zuerst Diss.phil. University of Illinois at Urbana-Champaign 1974.]
Kac, Michael B., 1978. Corepresentation of grammatical structure. London, Groom Helm, und Minneapolis, University of Minnesota Press. Katz, Jerrold J., 1972. Semantic theory. New York, Harper. Katz, Jerrold J.; Fodor, Jerrold A . , 1963. The structure of a semantic theory. Language 39. 170-210. Katz, Jerrold J.; Postal, Paul ., 1964. An integrated theory of linguistic descriptions. Cambridge, Mass., The M.I.T.Press. Keenan, Eward L . , 1972. On semantically based grammar. Linguistic Inquiry 3. 413-462. Li, Charles N . , (Hrsg), 1975. Subject and topic. New York etc., Academic Press. Lieb, Hans-Heinrich, 1977a. Outline of integrational linguistics. Berlin (West), Freie Universität Berlin, Fachbereich 16. (Linguistische Arbeiten und Berichte 9.) 1976b. Surface syntax as a basis for semantics. In: The Third LACUS Forum 1976, hg. von R.J. Di Pietro und E.L.Blansitt j r . , 405-413. Columbia, S . C . , Hornbeam Press. Lutzeier, Peter R. [1974]. Der "Aspekt" Welt als Einstieg zu einem nützlichen Kontextbegriff für eine natürliche Sprache. Phil. Diss. Stuttgart: Universität Stuttgart. [Fotomech. vervielf.] Montague, Richard, 1974. Formal philosophy: selected papers by Richard Montague, hg. von R.H.Thomason. New Haven, Yale University Press. Moravcsik, Edith; wirth, Jessica R . , ( H r s g ) , i.E. Current approaches to syntax. New York etc., Academic Press. Newmeyer, Frederick J . , [1978]. The decline of Generative Semantics. Vortrag auf der International Conference on the History of the Language Sciences, Ottawa, 28-31 August 1978. Partee, Barbara, 1975. Montague grammar and transformational grammar. Linguistic Inquiry 6. 203-300. Searle, John R . , 1969. Speech acts: an essay in the philosophy of language. New York etc., Cambridge University Press. Schachter, Paul, 1978. [Rezension von Hudson 1976]. Language 54. 348-76. Schnelle, Helmut, 1972. Montagues Grammatiktheorie - Einleitung und Kommentar zu R. Montagues Universaler Grammatik. In R. Montague/H.Schnelle, Universale Grammatik. 1-33. Braunschweig, Vieweg. Schnelle, Helmut, 1973. Problems of theoretical linguistics. In: Logic, methodology and philosophy of science IV, hg. von P.Suppes u . a . , 805-831. Amsterdam, North-Ho Hand. Schnelle, Helmut, 1976. Basic aspects of the theory of grammatical form. In: Language in focus: foundations, methods and systems. Essays in memory of Yehoshua Bar-Hillel. hg. von A. Kasher. 377-404. Dordrecht etc., Reidel. (Synthese Library 89.) Stockwell, Robert P . , 1977. Foundations of syntactic theory. Englewood C l i f f s , Prentice Hall.
TEIL I:
VORTRÄGE DES SYMPOSIUMS
NEW DEVELOPMENTS IN GENERATIVE SYNTAX
Craig Thiersch Universität zu Köln
There has been a great deal of curiosity about the recent development in generative graimvar called "Trace Theory" — as though it were an entity apart fron generative granmar and in particular, from "Extended Standard Theory". It has been viewed variously as a sneaky way for incorporating global properties into rules, a reversion to surface-structure grammar, the latest hot girrmick to aid the harried linguist solve intractable problems. However, to be evaluated coolly, the concept "trace" should be seen within the context of the exciting developments in "E.S.T." generative granmar, where it is only a minor theoretical modification and is important only in its interaction with other grammatical processes. Unless we look at the development of generative grammar with respect to its goals as a whole, traces and "trace theory" will be fads likely to go the way of hula hoops, transformations, and, undoubtedly, Day-Glo roller skates. Although there are many questions one could ask about language, two of the most remarkable properties which call for explanation are, firstly, the computational facility of human beings: to process continuous sound-waves into discreet units (which are nowhere evident in the signal) and derive from them It should be noted that this is not a report on original research, but rather a survey of current ideas in the recent "Extended Standard Theory", approach in generative syntax. This is necessarily superficial, in view of the great changes in the last 1O years and the large literature. The reader unfamiliar with the recent literature is referred to the sequenced reading list appended to the paper for an introduction in greater detail to some of the ideas presented here in outline, with the caveat that the theory presented in these articles is not always the most current version!
10
the complex logical structure necessary to understand John is taller than Mary by three inches more than Sue is taller than Bill in less time than it takes the speaker to utter the sentence. Secondly, as has been repeatedly emphasized in the literature, the astonishing ability of human children to "learn" uniformly and without extensive tutoring and, in particular, without the negative evidence available to the linguist, a complex system for which there is no obvious algorithm, and which linguists still have not been able to correctly analyse through conscious effort and research. These goals, oft discussed in the (generative) linguistic literature, must always be kept in mind while evaluating new theoretical developments: do they shed some light on these central questions? What characteristics of human language might explain these two abilities of human speakers? One might hope that the bewildering array of constructions and peculiarities in natural languages are for example, deducible from more general principles, much in the way the bizarre epicycloidal motion of planets observed in the sky follows from the assumption that they and the earth are revolving around the sun, which in turn follows from general laws of motion (assuming the existence of gravity and inertia). One would like, in the case of language, for these principles to have a certain computational plausibility. That is, human languages have some of their odd properties because they obey principles which make processing of utterances possible. This is not circular, but neither is it a "programatic" or "algorithmic" method of evaluating theories; a theory is highly valued under this interpretation when it offers an elegant and perspicuous explanation of processes, not merely by covering lots of data. (One has, of course, in the absence of a theory, no way of aetermining the relevant data or even types of data.) A tactic used, but often misconstrued, for attempting to explain the leamability of language is to propose limiting the grammatical systems available to the infant by trying to separate the "innate" characteristics of language from "learned" ones. A colleague recently asked, "What is the use of simplifying transformations by developing conditions? Even if you can show there are only 2 or 3 extremely simple transformational rules, like "Move WH-phrase1, you are then left with 'complicated' conditions!" The answer is of course that one is not talking about conditions on specific rules in particular languages; one is trying to develop conditions which are "universal" in the sense that they basically derive from general properties of the innate cognitive linguistic device, and vary only slightly, in learnable ways, from language to language.
11
It is important, then, to distinguish between so-called "core" and "peripheral" phenomena. To reiterate a shop-worn example, a theory of gravity is "invalidated" by innumerable phenomena which no one takes seriously (such as human intervention: catching a dropped ball), as well as by phenomena which must be carefully filtered out (such as the effect of friction on falling bodies) by which process we discover more about the ways in which the universe operates (discovering properties of air, for example). In this same sense, then, we need to try to distinguish between parts of language which are central, important, and general, and those which are "tacked-on" and neither universal nor particularly revealing. Again, this is a process which can only be judged by results, not by a priori program. Another of the key concepts in such an attempt is modularity: although a television set is an intricate device, it does not consist of a heterogeneous array of transistors, capacitors, resistors, and diodes interconnected in wildly varying ways in various makes of sets, but rather each and every set has an internal structure: it is composed of simpler modules which are in turn connected with each other in complex ways: the tuner, audio amplifier, UHfdecoder, etc. We can explain how the set operates by explaining the simpler components, and then showing how they interact. The human body is similarly modularized, although the various systems interact in complex ways. We do not know a priori, of course, if human language is constructed in this way; however, it is clearly desirable if we can show that human language is composed of autonomous (but interconnected) systems which have a certain integrity of internal structure, as well as describe their interaction; then we have made progress toward understanding how language functions. The goal of scientific inq"uiry is making the complicated simple, not the reverse: research directed to showing that the observably complex properties of human language are the result of the interaction of simple and elegant systems is to be preferred over that which tries to show that the observations cannot be more simply explained. The "modular" way of thinking is not limited, of course, to grammar internal processes, such as showing that major movement rules, deletion rules, filters, etc. are in separate conponents of the gramnar. It applies, for example, to the way we interpret so-called "starred" sentences: sentences may be unacceptable for a variety of reasons, and all "stars" do not necessarily result from violations of grammatical processes: we might regard the fully acceptable sentences to be those which are in concordance with grammatical structures, perceptual mechanisms, as well as real world knowledge - the
12
shaded area in the diagram:
2
perceptual ^'/ \* mechanisms
/
\
^
\
grammar
real world - - ~ knowledge
^ sentence might be "out" although generated by the base rules for perceptual reasons (e.g. the celebrated *Tfte cheese the mouse the oat the dog ohased caught ate stinks.), grammatical reasons (*The fact that the man left
early
surprised me who John knows.), or real-world knowledge (*Sincerity admires John.), or a combination; just as a computer-language statement " χ := a+5/c " may be wellformed syntactically, but rejected iitmediately because ο happens to have been set equal to 0. Turning to the theory in which "traces" play a role, I think it will be helpful to look at the genesis of sane other abstract theoretical devices. Non-recursive gramnars, as well as finite-state grammars, were rejected because they were simply not in principle capable of generating the sentences of human language. Phrase-structure grammars appeared attractive not only because they were capable of simply generating the sentences of natural languages, but also because they explained certain intuitions about the meaning of the sentences which were nowhere evident in the physical signal: (1) (2)
John looked (up the list}. Cf. John ran (up the hill). John (looked up) the list. cf. John (rang up) the bill.
that sentence (1) has the structure Subject Verb Adverb where Adverb is a sequence of Prep, plus the list and (2) has the structure Subject Verb Object, where Verb = looked up. Transformations, however, were posited on primarily the latter grounds. One could, for example, in a theory which included the device "transformational rule" explain intuitions about ambiguity of strings which seemed to have identical phrase structures: (3)
John was frightened by the new methods
as well as synoncmy of completely different utterances: Thanks to David Lightfoot, 1979, for this diagram!
13 (4)
John seems to have gone. It seems that John has gone.
uiurthermore, there was a possibility for a perspicuous explanation of puzzling grammatical regularities, for example, conjunction: (5)
The scene of the movie was in Chicago. + The scene of the play was in Chicaco. —> The scene of the movie and of the play was in Chicago.
(6)
The liner sailed down the river. + The tugboat chugged up the river. —» *The liner sailed down the and tugboat chugged up the river.
but:
Cf. discussion in Chonsky (1957). Finally, the complex array of facts in the English auxiliary system could be described through a few simple rules such as "affix + verb —» verb + affix", which were not, however, proper PS rules. The fact that these phenomena have since been seen to have other explanations, or are not completely explained by the original rules, is irrelevant here - these examples are cited as reminders of the motivation for introducing the transformational rule. The various approaches to remedying the deficiencies of early transformational grammar is discussed below. What were the deficiencies? First of all, as was noted inmnediately, one could do anything with rules of the "mathematical" power of transformational rules (i.e., one could generate any language, and not just possible human languages). One could always fit a particular transformational granmar to the data by attaching various ad hoc conditions to specific rules; hence, coverage of data was never an issue, although often discussed in the literature as though it were. The problem was that any sort of strange piece of data could be described by a transformational rule invoking conditions with quantifiers, global constraints, transderivational constraints, or worse - including data (and therefore languages) which were not possible human language. Thus adding ever more powerful devices was totally irrelevant, since it brought one further from the two goals of explaining computational facility and language learnability: what was needed were general constraints on the theory of grammars, in order to shed light on the question of what was a human
language.
In additon to being too powerful and thus not particularly enlightening as to the question of what characteristics were particular to human language, many transformations were inelegant and implausible: compare the Affix Hopping transformation above with an early version of passive:
14 (7)
NP
.
AUX V NP
£
—> NP
i,
Aux be+EN V by NP
i,
A single rule switches the string position of two constituents, inserts lexical material in two rather arbitrary places, and leaves gaping questions about derived constituent structure; hardly a model of modularity. One of the early corrective steps was an attempt to catalog and generalize the constraints on various transformations, such as the "Ross" constraints (Ross 1967). .tor example, consider the Complex NP Constraint (CNPC) which forbids the extraction of WH-phrase fron certain NPs - such as those contained in relative clauses. While such constraints were a valuable first step, they had problems such as (1) being unnatural - Why should such constraints be true? Were they merely accidental?; (2) many conditions overlapped, accounting for the same or similar facts; or (3) they were not general enough, in that they simply described a set of observations: that is, they had no deductive structure, whereby seemingly unrelated sets of observations could be deduced from a simpler principle or set of principles. In the case of the CNPC, the underlying principle was missed by a faulty assumption about the "normal" behavior of WH-movement: it was generally assumed at that time that movement was in general unbounded, and the problem was to explain why it was limited in certain cases. It seems more likely, in view of subsequent observations, that the "normal" behavior of movement in various languages is bounded, and the problem at hand is to explain the exceptions to this which are allowed in certain constructions in a few languages. Compare English with German and Russian: (8)
Mho did John think that Susan believed Frank saw *Nen glaubte Fritz, daß Sandra meinte, daß Hans *Kovo veril Frants, Sto Sasa skazal, cto Georg
yesterday? gesehen hat? uvidel?
Suppose one suggests that all rules are local in the sense of subj'aoency (e.g., Chomsky 1973, 1976), i.e., that one cannot move a constituent over more than one cyclic node. (This restriction has the desirable effect of limiting the computational task of the hearer, in that constituents cannot be displaced arbitrarily far from their base psoition.) If we assume S and NP are cyclic nodes, we observed the principle in English applying in the contrast between: (9)
(10)
/Who ] . \ I To whomi
{ ** Who
h
1
i
did you give the book
[to ?\ \ —? J
^^ your interest
(in
Cf. also extraposition:
j surprise John?
15 (11)
That the man who John knows left early surprised him. That the man left early who John knows surprised him. * That the man left early surprised him who John knows.
In each case, the phrase has moved fron its original position over a NP node and an S node: (12)
WHO(M) DID
(
S
(
YOUR INTEREST IN
NP
) SURPRISE JOHN)?
-
( Np THAT ( s THE MAN _
LEFT EARLY)
) SURPRISED HIM (WHO JOHN KNOWS) .
Similarly when there are two S-nodes intervening: (13)
* WHICH CLASS WAS ( V^
— - -^
(
THE ASSIGNMENT MORE DIFFICULT THAN Ο
I TOLD
IT WOULD BE?) ) —
where I told
it would be
the class it would be (that)
is evidently the residue of a sentence I to Id difficult,
The most striking thing about a principle like subjacency, is that it is superficially false for the cases that most obviously come to mind in English: (14)
WHICH BOOK DID (
^—-^^
HE TELL FRANK THAT ( SHE SHOULD GIVE
!
f
—
TO JILL)
)?
At this point, we could either throw out the principle of subjacency, or we could ask if there isn't something more complicated going on here. We opt for the latter, just like the physicist, who, noticing that a feather does not fall at the same rate as an iron ball, although most other objects of various sizes and shapes do, does not give up the principle of the equal attraction of gravity, but looks for a more subtle explanation, learning in the process something about air-resistance and friction. Compare the following: (15)
a. John noticed that Frank put the book on the table. b. John noticed which book Frank put on the table. c. Which book did John notice that Frank put on the table?
Suppose we assume that there is a node at the beginning of embedded sentences into which, under certain circumstances, WH-phrases can be moved, as in (15b). If this is in fact the case, then a WH-phrase can move step-wise I am assuming for the purposes of discussion that S -^ COMP S and that COMP contains two positions, the first of which may be filled by a WHphrase, the second of which is a complementiser such as that, for, or 0. Cf. discussion in recent literature regarding the internal structure of the COMP position. Modern English, unlike Middle English or Dutch, does not allow both positions to be filled:
16
into the OQMP position of S.. and then into that of S2 without violating subjacency: (16)
(
WHICH BOOK DID) (
JOHN NOTICE (_ΟΜρ THAT)
(
FRANK PUT
_
ON THE TABLE ) ) ?
Leaving aside a mare detailed discussion of these constructions which appears, 4 in any case, in the literature, we seem at first glance to have a solution which fits the parts of the puzzle together neatly. Importantly, we have, in addition, accounted indirectly for other generalizations: for example, the WH-Island Constraint, which said that one cannot extract out of WH-clauses: (17)
*What did he think who saw_ ?
But this follows directly if we assume the structure above, because the who blocks the movement of the what through the CCMP: V?
(18)
\
WHAT DID ( HE WONDER („.„„ WHO C„) („ \ SAW * -· · * S GUMP ι*£. D —-
)?
But note that we now have a problem with our original example: (19)
*WHICH CLASS WAS THE ASSIGNMENT MORE DIFFICULT THAN I TOLD _
WOULD BE?
Shouldn't this sentence be acceptable on the same grounds as (16)? To see this, recall: (20)
*WHO DID (
o
(
W*
YOUR INTEREST IN _ ) SURPRISE JOHN)?
( = 1O)
Note that this sentence is now out on slightly different grounds than previously: not just on the grounds that there are two intervening nodes, but that one of them is an NP, and there is no CCMP for a WH-phrase to move into; the WH-phrase would have to move directly over two cyclic nodes. In the case of the comparative sentence (19) , there ought to be a CCMP associated with the embedded sentence. We find that comparatives in fact seem to share the cluster of properties usually associated with constructions involving overt or "visible" WH-movement (cf. discussion in Chomsky 1976) and moreover, in some dialects a WH-word acutally shows up in the appropriate position: *The man who that I saw. An explanation for this which has consequences for many other COMP phenomena is discussed in Chomsky and Lasnik (1977). I am also assuming that all rules are optional. If so, then of course we must say that idiosyncratic properties of some verbs, such as say, as opposed to notice or wonder, do not allow the WH-phrase to remain. Since this is clearly in the lexicon, in any case, it is not relevant to the current point.
17 (21)
The assignment was more difficult
than what I told them it
would be.
But if there is a Wh-word already in CQMP (subsequently deleted) then WHmovement of another WH-phrase is blocked, just as in (22)
* What did John wonder who said.
In this brief example, of course, details have been glossed over which are discussed at length in the literature in order to make the following point: by not giving up an attractive principle, we have learned (like our physicist) more about the phenomena in question and discovered a hidden reality beneath the surface: a filled CQMP in comparative constructions - who would have ever thought that the English comparative was a subcase of WH-movement (to say nothing of other constructions like Topicalization, Infinitival Relatives, and "Tough-Movement" in contrast to non-WH movement constructions like Passive, Seem, etc.), if this approach had not been pursued? Returning to our goals of giving the theory a deductive structure (deriving the observations fron more general principles) and limiting the power of (transformational) rules through the application of the principles (or universal conditions), it should be remarked that it is by no means given α priori whether these conditions should apply to the form of rules, the function of rules or the output of rules. All have been at various times suggested in the literature: no Boolean conditions (brackets) in rules, the cycle, and the *(uOr-to) filter, respectively. There has been a move to restate these as conditions on the output of rules (eliminating, for example, the cycle) with advantageous results as we see fron the following example involving "traces". Let us examine the interaction of two particular conditions, one referred to, variously, as the Propositional Island Constraint (PIC) or Tensed-S constraint, and the Specified Subject Condition (SSC). These have been discussed in Chomsky 1973, 1976, Lightfoot 1976 and Lightfoot 1979, and elsewhere, and variously refined and corrected; however for our porposes here, let us take the following simple versions: (23)
IN THE STRUCTURE: . . . X . . . ( . . . Z . . . Y . . . ) X and Υ cannot be related by a (transformational) rule if
1. Ζ is the specified subject of sentence S, or 2. the verb of S is tensed.
(Let us take for the moment "specified" to mean "lexical". We will see below that "traces" behave like lexical noun phrases.) Before giving examples, a few remarks are in order. One of the great advantages of a deductive theory in which the effect of rules 'is severely limited by such general conditions
18 as A/A, structure-preserving, subjacency, PIC, and SSC, is that the theoretical apparatus in particular rules of particular languages is greatly reduced, as noted, for example, in Chonsky (1976) and elsewhere. Thus instead of rules like passive (24)
NP
AUX V NP
—^ NP ? AUX BE+EN V by NP
we have rules of the form (25)
Move NP
which would overgenerate wildly if not limited, but when limited by the conditions, interact with the PS-base generated forms of the language to generate the spectrum of actually occurring constructions. This is a tremendous step towards our two initial goals, since the parsing of CF languages is well understood, and if we can limit the variable part of language to Context Free PS-rules plus a few parameters on universal conditions, we are well along to solving the first, and perhaps the second of our two original problems. Thus I will assume a framework in which rules, including PS rules, are optional, subject to conditions, and at least major movement rules are of the form "Move N?" or "Move WH-pnrase". Note that this means in particular that PS rules like "NP -»etc." or "V-> etc." are optional, and we will have to clarify what this means. Suppose there is a rule VP —>V (NP) NP and a second rule for expanding the NP; if the first rule generates the sequence V NP NP and one of the NPs is not expanded by the second rule, I will write —gave. (e) the book corresponding to the tree:
(26)
A
the book Since this consequence has been discussed at great length by a large number of linguists with respect to specific languages, I will confine myself in this paper to a very few illustrative examples in English. The reader who wishes to pursue this is referred to the sequential reading list appended to the paper, and then encouraged to pursue the articles of, for example, in English, Chomsky, Lasnik, Lightfoot, Freidin, Hornstein, Weinberg, etc.; in Dutch, Koster, Riemsdijk, den Besten, etc., in French, Kayne, Vergnaud, Ruwet, Pollock, etc.; in Italian, Rizzi, Cinque, Belletti, etc.; in German, Evers, Thiersch, etc.; in Hungarian, E. Kiss; in Czech, Toman, etc. The list of authors and articles far exceeds the limits of a paper such as this. And in addition, that the components of the grammar fit together roughly as indicated in Diagram (a) below in this footnote. This diagram is not meant to be exhaustive! For an early discussion, see Chomsky and Lasnik (1977). Later versions appear in Lightfoot 1979 and Koster 1978. Implications of changes in the right-hand side are discussed in Thiersch, forthcoming, (cont.)
19
Now suppose we generate the sequence (27)
a. b. c.
(e) (e) (e)
NP
WAS EXPECTED ( WAS EXPECTED ( WAS EXPECTED ( .
S
JOHN TO W I N ) . JOHN WOULD W I N ) . MARY TO SEE JOHN).
A rule like "Move NP" could move John in all three cases into the first position, giving (28)
a. John was expected to win. b. *John was expected would win. c. *John was expected Mary to see .
Note that, however, the (b.) case is ruled out by the PIC and the (c.) case by the SSC, as desired. These conditions would, of course, be of no interest if they accounted only for these cases. Let us see how they interact with other syntactic processes. First of all, BOUND ANAPHORA: seme elements, like self, way, each other, (e).—, Nf are obligatorily bound to another NP in the sentence. Since we need7 some way to indicate this in example sentences, let me use subscript indexes. i?or example, (29)
a. John, washed
himself..
b. ^Himself,
washed John.. ι ι c. He. washed John ..
Diagram (a)
Base rules: Context Free PS rules
I
Major movement rules (e.g., Move WH-phrase) -("S" structure)la. Deletions
Ib. Construal rules
2a. Filters
2b. Interpretive rules
3a. Phonology.
3b. Conditions on binding
J,
4a. Stylistic rules
l
PHONETIC FORM
4,
4b. Quantifier scope 4
oz/s, whereas another points from [ +transitive] over like to [ +nominal] over girls. In this way it is possible to distinguish items with similar class-membership (e.g. two NPs) but different grammatical relations, without introducing direct representations of these relations. In particular, the object is definable as the item labelled as +nominal which depends on the feature [ +transitive] . (The function label SUBJECT is added to boys for various not very good reasons, but the subject of a clause can be identified by reference to the line pointing fron [ +predicate], so the function label is redundant.) The second point about the dependency lines is that some of them relate mothers to daughters, rather than sisters to sisters. As I explained in the first section, this is because DDG makes use not only of dependency relations but also of constituent-structure, and there is no reason in principle why
38
we should not identify dependencies between daughters and mothers any more than we do between sisters, tor example, over both boys and girls there is a line connecting the features [-sentence, +ncminal, +phrase] (which define the class of NPs) to the feature [+noun] - i.e. connecting the NP node to the only obligatory node inside an NP, the head noun. (This analysis clearly runs into difficulties with NPs like the red in I'll have a bottle of the red, please.) Because of a number of developments in the theory since Arguments it is possible to reduce the number of features in the structure quite drastically. I have already explained one such factor, namely the move towards lexicalism, which allows us to remove features such as +transitive, -verb-coup. Other changes are more a matter of descriptive decisions - for example I no longer see the need to allow [sentence], [nominal] and [phrase] to intersect, so these three features do not need to appear in the analysis of every item. I have also abandoned the principle that all features be binary, though without any great conviction as to whether binarity is right or wrong. If we write names for relation labels on the dependency lines concerned, simply as a matter of notation, we find rig. 2 in place of rig. 1. (It will be seen that there is now no overt distinction between subject and object, beyond their position in sequence, but this difference can be referred to by any rules which need to make the distinction, so there is no need for further labels.)
Fig. 2:
^^Jclause "I ^^-^^Vjde lar at i vej START 1 «