Stochastische Signale: Eine Einführung in Modelle, Systemtheorie und Statistik mit Übungen und einem MATLAB-Praktikum [2 ed.] 978-3-519-16160-8, 978-3-663-07959-0

Die überarbeitete und erweiterte, zweite Auflage dieses Buches wendet sich an Leser, die sich gründlich in die Theorie s

274 50 20MB

German Pages 285 [291] Year 1998

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages I-VI
Einleitung....Pages 1-4
Einführung in die Stochastik....Pages 5-96
Modelle für gemessene Signale: Stochastische Signale....Pages 97-181
Back Matter....Pages 182-285
Recommend Papers

Stochastische Signale: Eine Einführung in Modelle, Systemtheorie und Statistik mit Übungen und einem MATLAB-Praktikum [2 ed.]
 978-3-519-16160-8, 978-3-663-07959-0

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Stochastische Signale Eine Einführung in Mode.tle, Systemtheorie und Statistik mit Ubungen und einem MATLAB-Praktikum Von Dr.-lng. Johann F. Böhme o. Professor an der Ruhr-Universität Bochum 2., vollständig überarbeitete und erweiterte Auflage Mit 46 Abbildungen

El3

Springer Fachmedien Wiesbaden GmbH

Prof. Dr.-lng. Johann F. Böhme Geboren 1940 in Senftenberg/Niederlausitz. Nach dem Abitur Maurerlehre, dann bis 1966 Mathematikstudium in Dresden und Hannover. 1970 Promotion in Erlangen. Als Forschungsgruppenleiter tätig bei Krupp Atlas-Elektronik, Bremen und später an der Universität Bonn. Ebendort 1977 Habilitation in Informatik. 1978 bis 1980 wiss. Angestellter im Forschungsinstitut für Hochfrequenzphysik der FGAN, Wachtberg-Werthhoven. 1979 Lehrstuhlvertretung "Ingenieur-Statistik", Abteilung Statistik, Universität Dortmund. Seit 1980 o. Professor für Elektrotechnik, Lehrstuhl für Signaltheorie, Ruhr-Universität Bochum. 1990 Ernennung zum IEEE Fellow und 1998 zum ordentlichen Mitglied der Nordrhein-Westfälischen Akademie der Wissenschaften.

Die Deutsche Bibliothek- CIP-Einheitsaufnahme

Böhme, Johann Friedlich: Stochastische Signale : eine EinführullQ in Modelle, Systemtheorie und Statistik; mit Übungen und einem MATLAB-Praktikum I von Johann F. Böhme.- 2., vollst. überarb. und erw. Aufl. - Stuttgart : Teubner, 1998 (Teubner-Studienbücher: Elektrotechnik)

ISBN 978-3-519-16160-8 ISBN 978-3-663-07959-0 (eBook) DOI 10.1007/978-3-663-07959-0 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt besonders für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

© Springer Fachmedien Wiesbaden 1998

Ursprünglich erschienirr bei B.G. Teubner Stuttgart 1998

Vorwort J.Ieine Entscheidung, einen vorlesungsbegleitenclen, ausführlicheren Text zum Thema .. Stochastische Signale" zu schreiben, gründet auf Erfahrungen aus Vorlesungen über Signaltheorie und stochastische Prozesse, die ich seit 1980 an der Ruhr-Cniversität Bochum für Studenten der Fachrichtung Elektrotechnik im Hauptstudium halte. Dabei möchte ich folgendes erreichen: Die wichtigsten Grundlagen der Stochastik sollen den Studierenelen einer einführenden Pflichtvorlesung so vermittelt werden, daß das Verhalten einfacher Schaltungen und Systeme, in denen Rauschsignale gernessen werden, korrekt berechnet und die Signale auch statistisch ausgewertet werden können. Denen, die ihr Studium in der Theorie stochastischer Signale und ihrer Anwendung vertiefen möchten, liefert das Buch neben weiteren stochastischen Werkzeugen zum Modellieren und statistischen Schließen ausführlich behandelte Beispiele, die gründlichere Studien wie die der Signalerkennung, Spektralanalyse und Systemidentifikation motivieren. Anhänge über Matrixalgebra, schnelle Algorithmen und Tabellen, sowie eine größere Zahl von Übungsaufgaben mit Lösungsskizzen und ein MATLAB-Praktikurn erleichtern das Selbststudium und die Anwendung in der Praxis. Die inhaltlichen Schwerpunkte und die Stoffauswahl sind zu einem guten Teil durch den Bochurner Studienplan beeinflußt. Die einführende Pflichtvorlesung findet im fünften Semester statt und setzt wie das vorliegende Buch Kenntnisse aus einem erfolgreich absolvierten Grundstudium der Elektrotechnik und insbesondere über deterministische Signale und Systeme voraus. Der zu behandelnde Stoff wurde jedoch so aufbereitet, daß ein paralleles Studium der Grundlagen nachrichtentechnischer Systeme möglich ist. Systemtheoretische Begriffe werden im Kurs über stochastische Signale erst benutzt, wenn sie in dem über nachrichtentechnische Systeme im Zusammenhang mit deterministischen Signalen schon aufgearbeitet worden sind. Dies gelingt, wenn man wegen mangelnder Vorkenntnisse der Studierenden zunächst Begriffe der Wahrscheinlichkeitstheorie, statistische Schlußweisen und stochastische Prozesse in angemessener \Veise untersucht, bevor man sich der Systemtheorie und Statistik mit stochastischen Signalen zuwendet. Beispielsweise hat sich folgende Stoffauswahl für die zweistündige Pflichtvorlesung mit einstündiger Übung im Wintersemester mit der Numerierung aus dem Inhaltsverzeichnis bewährt: Kap. 1, aus Kap. 2: 2.1, 2.2.1 1) bis 2) und aus Kap. 3: 3.1, 3.2, 3.3.1, 3.3.2 1), 3.3.3 1) bis 3). Das verbleibende Material des Buches kann in den ersten Kapiteln von Vcrtiefungsvorlesungen, wie sie weiter oben angedeutet worden sind, und im Praktikum behandelt werden.

IV

Vonuort

Die nun vorliegende zweite Auflage des Buches wurde gegenüber der ersten im wesentlichen um das Praktikum erweitert. Dieses führt in das matrizenorientierte Programmieren signaltheoretischer Aufgaben in :VIATLAB und das numerische Experimentieren mit Rauschsignalen ein und trägt erheblich zum Verständnis der in der Elektrotechnik teilweise unüblichen Ansätze bei. Die Gelegenheit der 1\euauflage wurde auch dazu benutzt, den Text zu überarbeiten und zu ergänzen, einige Abbildungen hinzuzufügen und schließlich Fehler, insbesondere in den Lösungen der Übungsaufgaben zu korrigieren. Auch das Stichwortverzeichnis wurde überarbeitet: Es enthält jetzt auch mit Querverweisen versehene, in deutschen Fachbüchern häufig benutzte Begriffe, die im vorliegenden Text zumeist aus methodischen Gründen nicht verwendet werden. Ich hoffe, daß das jetzt ausgewogenere und besser auf die Praxis vorbereitende Buch weiter Studierenden hilft und Interesse bei Fachleuten in Industrie und Forschungseinrichtungen findet. Die druckfertige Form des Manuskripts auch dieser Auflage wäre wohl ohne die Unterstützung der Mitarbeiter des Lehrstuhls für Signaltheorie der rオィイセuョゥカ・ウエ¦@ nicht entstanden. Ich möchte Frau C. Eichelmann, die große Teile des Texts mit all seinen Formeln in Ll\TEX neu schrieb, Frau P. Chung und den Herren S. CarstensBehrens, I. Flokos, A. Gershman, .J. Ringelstein, P. Voßen, :VI. Wagner, A. Waldhorst, R.. Weber und :-..1. vVestebbe, die beim Korrigieren, Erzeugen von Graphiken, Durchrechnen von Übungsaufgaben usw. halfen, dankeiL Um die Entwicklung des nun schon seit Jahren erprobten Praktikums haben sich insbesondere B. Yang und .J. Ringelstein verdient gemacht. Schließlich möchte ich wieder die konstruktive Zusammenarbeit mit Herrn Schlembach vom Teubner Verlag dankbar erwähnen. Johann F. Böhme Bochum, im März 1998

Inhaltsverzeichnis 1 Einleitung

1

2 Einführung in die Stochastik 2.1 Begriffe der Wahrscheinlichkeitstheorie . . . . . . . . . . 2.1.1 Wahrscheinlichkeiten und Zufallsvariable . . . . . 1) Zufallsexperimente und relative Häufigkeiten 2) Axiomatische Vorgehensweise . . . . . . . . . 3) Allgemeine Definition von Wahrscheinlichkeiten 4) Koppelung und bedingte Wahrscheinlichkeiten . 5) Zufallsvariable und Verteilungsfunktionen .. . 6) Wahrscheinlichkeiten auf IR und Dichten . . . . 7) Wahrscheinlichkeiten auf ]Rn und Zufallsvektoren 8) Funktionen von Zufallsvariablen . . . . 2.1.2 Erwartungswerte . . . . . . . . . . . . . . . . . . . . 1) Erwartungswert einer Zufallsvariablen . . . . . . 2) Erwartungswert einer Funktion von Zufallsvariablen 3) Charakteristische Funktionen . . . . . . 4) Approximation im quadratischen Mittel 2.1.3 Folgen von Zufallsvariablen 2.2 Statistische Schlußweisen . . . . . . . . . . 2.2.1 Parameterschätzen . . . . . . . . . 1) Schätzfunktionen und Schätzer 2) Schätzen mit kleinsten Quadraten 3) Konfidenzbereiche . . . . . . . . . 4) Cramer-Rao-Schranke und Maximum-Likelihood-Schätzer 2.2.2 Hypothesentesten . . . . . . . . . . . 1) Tests und Signalentdeckung . . . 2) Testen mit kleinsten Quadraten . 3) Tests aus Konfidenzbereichen . . 4) Maximum-Likelihood-Quotiententest

5 5 5 5 8 10 12

3 Modelle für gemessene Signale: Stochastische Signale 3.1 Stochastische Prozesse . . . . . . . . . . . . . . . . 3.1.1 Grundbegriffe und elementare Eigenschaften 3.1.2 Stationäre Prozesse . . . . . . . . . . . . . . 3.2 Systemtheorie mit stochastischen Signalen . . . . . 3.2.1 Grenzübergänge mit stochastischen Prozessen 3.2.2 Nichtreaktive Systeme .. 3.2.3 Lineare konstante Systeme . . . . . . . . . . .

97

16 17 23 29 35 35 39

45 50

54 58 58 58 62 70 73 82 82 86 91 92

97 97 103 109 109 114

117

VI

Inhaltsverzeichnis

3.3

3.2.4 Abtasttheorem . . . . . . . . 3.2.5 Optimalfilter und Prädiktaren 3.2.6 Endliche Fourier-Transformierte Statistik mit stochastischen Signalen . 3.3.1 Schätzung der Kovarianzfunktion eines Rauschsignals 3.3.2 Schätzung von Modellparametern 1) Autoregressive Prozesse . . . . . . . . . . 2) Moving-Average-Prozesse . . . . . . . . . 3) Autoregressive Moving-Average Prozesse 4) Modelle mit beobachtbarem Eingangssignal 3.3.3 Schätzung der Spektren von Rauschsignalen 1) Verwendung von Bandpässen . . . . . . . 2) Verwendung von Periodogrammen . . . . 3) Schätzung von Kreuzspektren und Übertragungsfunktionen 4) Erkennung deterministischer Signale in Rauschsignalen . . .

128 129 133 137 137

141 141

147 150 152 156 156 159 169 175

Anhang A.1 Vektor- und Matrixalgebra. A.2 Schnelle Algorithmen A.3 Tabellen .

182

Übungsaufgaben

201

Lösungshinweise

222

Praktikum P.1 Zufallsvariable und Zufallszahlen P.2 Funktionen von Zufallsvariablen . P.3 Kleinste Quadrate-Schätzung .. P.4 Parameterschätzung bei AR(p) Prozessen P.5 Diskrete Fourier ·Transformation I . P.6 Diskrete Fourier-Transfonnation II P. 7 Spektralanalyse I . P.8 Spektralanalyse II .

244 245 251 254 257 260 263 267 270

Matlab

273

Literatur

279

Stichwortverzeichnis

281

182 190 196

1

Einleitung

Gemessene .-\usgaben eines physikalischen Systems, die in Abhängigkeit von der Zeit registriert werden, zeigen häufig einen gPwisscn, nicht vorhersagbaren oder zufälligen \"crlauf. Gemeint sind hier Spannungen, Temperaturen, Drücke und ähnliche Größen. :\lit Kenntnissen über die Vorgänge im Inrwrn des Systems oder über sein Verhalten und mit :\Iethoden der \VahrschciulichkcitstllPoric ist. es möglich, zweckmäßige :V!odclle für solche gemessenen Signale auf" ubaurn, die stochastische Prozesse heißen und die wir auch stochastische Signale nennen wollen (vom ァ イ ゥイ セ 」 ィゥ ウ」 ィ・ョ@ "o oroxoo", etwa .,das \ "ermutete", abgeleitet). Aus den über r incu Zeitraum hinweg registrierten Signalen möchte man zum Beispiel Aussagen über die Vorgänge gewinnen, die sich in dem beobachteten System abspiPien, oder einen zukünftigen \Vert des Ausgabesignales bestimmen. Die Statistik kann in vie!Pn Fällen Hilfsmittel liefern, geeignete Verfahren w entwerfen und die Leistungsfähigkeit dieser Verfahren vorherzusagen. Ziel dieses kleinen Buches ist es, einige Grundbegriffe über stochastische Prozesse als :\lodclle fiir gemessene Signale und ゥョウ「 ・ ウッョ」ィ セ イ・@ über Rauschsignale, wie sie beispiclswPise in der :\"achrichtr·n-, iVIeß- und Regelungstechnik beobachtet werden, vorzustellen und in einige statistische Methoden der SignaiVPrarbeitung einzuführen. Die Begriffsbildungen wPrden wie iu der Statistik vorgenommen und für die Anwendungen in der Elrktrotechnik interpretiert. DiPs ist zweckmäßig, da im Schriftturn der Elektrotcc:llllik eine sehr uneinhcitliche Nomenklatur benu tzt wird, wenn es um die hier interessierenden Probleme geht.

B|セH@

!\f\c.o{).!\

MッKヲエカH|⦅BセOゥvAc^Nt

x(t) I

M セHエI L@ o セ@ セ@ t

. .

P ゥセ|M Zセ [ セᄋ ᄋセN M セZ⦅ᄋM

____

..

Zセ セ ᄋ ᄋセ|M N セ セLM

..

·.· T =

ß

r

クK L Hョ￟I L@ o セョ@

Abbildung 1.1: .-\usgalH'signal ei nes Systems. Im Zeitiutf'rvall 0 セ@ t und analog bzw. abgdastd, registriertes \.,k ßsignal

-.T die Wahrscheinlichkeit dafür, daß die Zahl der innerhalb eines Zeitintervalls der LängeT von einer Elektrode abgegebenen Ladungsträger gleich k ist.

12 4)

2

Einfiihr-ung in die Stochastik

Koppelung und bedingte Wahrscheinlichkeiten

Zwei Zufallsexperimente können voneinander abhängen so, daß das Versuchsergebnis des einen das des anderen beeinflußt. Solche Experimente kann man zu einen Gesamtexperiment verkoppeln. Umgekehrt ist es auch möglich, ein Zufallsexperiment in gekoppelte Einzelexperimente zu zerlegen. vVir werden den ersten Sachverhalt an einer diskreten Verteilung und den zweiten mit Hilfe elementarer bedingter vVahrscheinlichkeiten erläutern. B2.1-10 Wir setzen Beispiel B2.1 7 fort und fragen nach der Wahrscheinlichkeit, eine rote Kugel aus der Urne zu nehmen, wenn das zweite Mal in die Urne gegriffen wird und die erste herausgenommene Kugel nicht in die Crne zurückgelegt worden ist. Offensichtlich hängt diese Wahrscheinlichkeit davon ab, welche Farbe die erste herausgenommene Kugel besitzt. vVar diese rot, so enthält die Urne nur noch K -1 Kugeln, von denen Kr -1 rot sind. vVird das Ereignis, eine rote Kugel zu ziehen, wieder mit 1 gekennzeichnet, so ist die vVahrscheinlichkeit, beim zweiten Versuch eine rote Kugel herauszunehmen, (2.1-25) War hingegen die erste Kugel schwarz, so ist die entsprechende vVahrscheinlichkeit Kr p {1} - - (2.1-26) 2,0 - K- I' da weiterhin Kr rote Kugeln in der Urne angenommen werden. P 2 , 1 und P 2 .0 beschreiben unterschiedliche Verteilungen über r2 2 = {0, 1} für den zweiten Versuch und werden ÜBERGANGSWAHRSCHEINLICHKElTEN (eng!. transition probabilities) genannt. Wenn wir mit P 1 die in Beispiel B2.1-7 beschriebene Verteilung über r2 1 = { 0, 1} für das erste Herausgreifen einer Kugel bezeichnen, so konstruieren wir ein Gesamtexperiment zum Herausgreifen von zwei Kugeln und die entsprechende Verteilung wie folgt: Der Stichprobenraum ist n = nl Xn2 = { 0, 1 }2 Die Wahrscheinlichkeit eines Elementarereignisses セ@ = HVLセコI@ E r2 ist (2.1-27) wobei wir annehmen, daß beide Faktoren ungleich Null sind, wenn das Ereignis { (6, 6)} realisierbar sein soll. In unserem Beispiel wäre die vVahrscheinlichkeit, daß zwei rote Kugeln herausgenommen werden, gleich [(Kr I K) ][ (Kr - 1) I (K - 1)], zunächst eine schwarze und dann eine rote, gleich [(K -Kr)IK][Kri(K -1)] usw. Man prüft leicht nach, daß Pein diskretes Wahrscheinlichkeitsmaß ist, das durch KOPPELUNG (eng!. coupling) aus P 1 und den Übergangswahrscheinlichkeiten P 2 ,t. 1 entstanden ist. Ähnlich wie in diesem Beispiel kann man im allgemeinen Fall diskreter Verteilungen vorgehen und Koppelungen auch von mehreren Experimenten vornehmen. Ein Spezialfall ist vom besonderen Interesse, nämlich Zufallsexperimente mit. UNABHÄNGIGEN

2.1

Begriffe der Wahrscheinlichkeitstheorie

13

KOPPELUNGEN. Dies bedeutet z.B., daß der Ausgang des ersten Experimentes nicht den des zweiten beeinflußt, also daß die Übergangswahrscheinlichkeiten P 2 l, nicht von 6 abhängen und durch eine einzige Verteilung gekennzeichnet werden. Wir schreiben dann für (2.1--27) (2.1-28) \Virft man beispielsweise einen vVürfel zweimal hintereinander, so geht man davon aus, daß der zweite Wurf nicht vom Ergebnis des ersten Wurfes abhängt. Das Gesamtexperiment der zwei vVürfe entsteht dann durch unabhängige Koppelung. Anderte man Beispiel B2.1 -10 so ab, daß die als erste herausgenommene Kugel vor dem zweiten Herausnehmen einer Kugel wieder in die Urne zurückgelegt und alles gut durchmischt würde, erhielte man ebenfalls eine unabhängige Koppelung der Kugelentnahmen. Man sagt auch, daß es sich bei einem durch unabhängige Koppelung entstandenen Gesamtexperiment um ein PRODUKTEXPERIMENT MIT STOCHASTISCH UNABHÄNGIGEN KoMPONENTEN handelt. Im folgenden Beispiel wird als Zwischenschritt ein Produktexperiment mit n unabhängigen Komponenten konstruiert und anschließend mit einer Zufallsvariablen die Beobachtungstiefe reduziert. B2.1-11 Für die Bcrnoulli-Verteilung, vgl. Beispiel B2.1-5, gehen wir von einem Zufallsexperiment mit zwei möglichen Versuchsergebnissen, !1 1 = { 0, 1} aus, etwa der Frage, ob ein aus einer Kiste mit gleichartigen Bauteilen entnommenes Bauteil funktionsfähig ist (1:; 1 = 1) oder nicht. Kann das Experiment n-mal wiederholt werden wie mit n Kisten der gleichen Mischung von Bau teilen, so interessiert die Frage, wie groß die Wahrscheinlichkeit dafür ist, daß genau k der n herausgenommenen Bauteile funktionsfähig sind. Das Produktexperimentbesitzt den Stichprobenraum S1 = !1 1 x ... x On= {0, 1}n Die Wahrscheinlichkeit, daß das aus der i-ten Kiste herausgenommene Bauteil funktionsfähig sei, ist P; {t;, = 1} = p. Dann muß P, (t;, = 0) = 1 - p sein. Die Zufallsvariable X(t; 1 , ... , t:n) = 6 + · · · + l:;n zählt die funktionsfähigen Bauteile unter den n herausgegriffenen. Das Urbild x- 1 ( {k}) von { k} in S1 vermöge X, das wir kurz mit {X = k} bezeichnen, ist gerade die Menge aller (6, ... , l:;n)' E !1, die genau k Einsen und n- k Nullen als Komponenten t;, enthalten. Es gibt bekanntlich HセI@ = n!/[k!(n- k)'] Möglichkeiten, solche Vektoren in {0, l}n zu finden. Die Wahrscheinlichkeit eines Versuchsergebnisses dieser Art ergibt sich in Verallgemeinerung von (2.1-28) zu pk(1- p)n-k_ Also finden wir (2.1-29) Die b(k, n, p) heißen BINOMIALWAHRSCHEINLICHKEITEN, da ihre Summe für k = 0, 1, ... , n nach dem "binomischen" Lehrsatz gerade [p + (1- p)]n = 1 ergibt., und definieren die BINOMIALVERTEILUNG. Zufallsexperimente können in gekoppelte Einzelexperimente zerlegt werden. \Vir werden diesen Sachverhalt anhand elementarer bedingter vVahrscheinlichkeiten erläutern. Auf allgemeinere Konzepte für bedingte Wahrscheinlichkeiten soll hier nicht

14

2

Einfühmng in die Stochastik

eingegangen werden. Die Darstellung von Wahrscheinlichkeiten durch bedingte \Vahrscheinlichkeiten erleichtert häufig die Berechnung oder die Festsetzung von \Vahrscheinlichkeiten. Ausgegangen wird von einem Zufallsexperiment beschrieben durch den Stichprobenraum !l, die Ereignisalgebra A und die Wahrscheinlichkeitsverteilung P. \Vir wollen annehmen, daß bei einem Experiment nur solche Ereignisse A E A interessieren, die gleichzeitig mit einem anderen Ereignis B E A auftreten können, d.h. nur Versuchsergebnisse セ@ E B werden betrachtet, als würde der Stichprobenraum f2 auf B reduziert. B2.1-12 Als Beispiel soll aus einem Skatspiel mit 32 Karten eine Herz- oder Karokarte gezogen werden. Hat man eine solche rote Karte gezogen, kann man unter der Annahme einer diskreten Gleichverteilung für das Herausgreifen einer der Karten fragen, wie groß die Wahrscheinlichkeit ist, daß die gezogene Karte das Herz-As ist. Unter den 16 möglichen roten Karten gibt es nur ein HerzAs, also ist die \Vahrscheinlichkeit, ein Herz-As gezogen zu haben, unter der Bedingung, daß die gezogene Karte rot ist, gleich 1/16. Diese Zahl ergibt sich aber auch, wenn man die \Vahrscheinlichkeit, das Herz-As aus dem Skatspiel zu ziehen, ohne die schwarzen Karten zu ignorieren, nämlich 1/32, durch die Wahrscheinlichkeit, eine rote Karte zu ziehen, d.h. 1/2, dividiert. Wir definieren entsprechend die BEDINGTE WAHRSCHEINLICHKEIT (eng!. conditional probability) VON A UNTER DER BEDINGUNG ß durch P(AIB) = P(A n B) P(B) '

falls

P(B) > 0,

(2.1-30)

für A, BE A. Für B = f2 ergibt sich sofort P(AI!l) = P(A), so daß P selbst als bedingte Wahrscheinlichkeit aufgefaßt werden kann. Zur Klärung, ob die bedingte Wahrscheinlichkeit auch eine Wahrscheinlichkeit auf A definiert, müssen wir (2.1-19) bis (2.1-21) nachprüfen. Zunächst ist mit P(B) > 0, P(AIB) = P(A n B)/ P(B) セ@ 0 und P(!liB) = P(!l n B)/ P(B) = 1. Um (2.1-21) nachzuweisen, nehmen wir paarweise disjunkte Ereignisse A; an. Aus A; n A1 = 0 folgt (A, n B) n (A1 n B) = 0, so daß die 1\Iengen (A; n B) paarweise disjunkt sind. Weiterhin gilt (U A,) n B = U(A; n B), woraus sich i

das gewünschte Resultat ergibt:

P((UA,) n B)

P(UA;IB)

P(U(A;

= --=-='P--,-,(B::-:-)-

'

n B))

P(B)

'

I:P(A;nB) __:_'-P=--c(-=-:B)- =

L P(A,IB). (2.1-31)

Unmittelbare Folgerungen sind die P(A

die Formel von der

n B)

PRODUKTFORMEL,

= P(AIB)P(B) = P(BIA)P(A),

TOTALEN WAHRSCHEINLICHKEIT

für paarweise disjunkte A, und

BcUA;, P(B) =

L

P(A,)P(BIA,),

(2.1-33)

2.1

15

Begriffe der Wahrscheinlichkeitstheor·ie

wobei wir P(Ai)P(BIA;) = 0 für P(Ai) = 0 setzen, und die BAYES-FORMEL, wenn zusätzlich P(B) > 0 gilt, (2.1-34) Schließlich kann man die Produktformel verallgemeinern: P(A

n B n C)

= P(A)P(BIA)P( GIA

n B)

(2.1-35)

Zwei Ereignisse A und ß, mit P(B) > 0 nennt man STOCHASTISCH UNABHÄNGIG (eng!. stochastically independent), wenn P(AIB) = P(A), die bedingte Wahrscheinlichkeit also nicht von B abhängt. Für stochastisch unabhängige Ereignisse A und B muß demnach gelten (2.1-36) P(A n B) = P(A)P(B). Das folgende Beispiel zeigt, wie man mit der Bayes-Formel Wahrscheinlichkeiten einfach bestimmen kann. B2.1-13 N Maschinen produzieren Dioden der gleichen Art, doch mit unterschiedlichen Präzisionen und Geschwindigkeiten. Maschine i produziere ni Dioden pro Zeiteinheit mit Pi· 100% Ausschuß (i = 1, ... , N). Entnimmt man der Menge aller in einem gewissen Zeitraum produzierten Dioden eine, so kann man nach der Wahrscheinlichkeit dafür fragen, daß eine herausgenommene und als Ausschuß erkannte Diode von Maschine i produziert wurde. Ist Ai das Ereignis, daß die Diode von Maschine i produziert wurde, und B das Ereignis, daß die Diode fehlerhaft ist, so interpretieren wir " Pi · 100% Ausschuß der Maschine i" als P(BIAi) = p,. Außerdem können wir unter der Annahme gleicher Chancen für alle Dioden, aus der Menge entnommen zu werden, P(Ak) = nk/ I;{: 1 ni setzen. Dann liefert Formel (2.1-34) gerade die gewünschte Wahrscheinlichkeit. Schließlich wollen wir den Zusammenhang von bedingten Wahrscheinlichkeiten und verkoppelten Experimenten etwa in Beispiel B2.1-10 erläutern. Das Gesamtexperiment sei durch Koppelung diskreter Wahrscheinlichkeitsverteilungen entstanden mit Q = nl X n2 und ?{(6,6)} = Pl{6}P2l,{6}. Betrachten wir die Ereignisse B = {6}x n2 c n und A = nl X {6}, so finden wir mit (2.1-11) zunächst (2.1-37) Da P(A. n B) = ?{(6,6)} = Pi{6}P2,6 {6}, folgt P(AIB) = P2,f., (6).

(2.1-38)

Liegt unabhängige Koppelung vor, so ist _RLVHセI@

= Pz(6) =

L

f.Ef!1

_サHセLVIス@

also P(AIB) = P(A.), und A und B sind stochastisch unabhängige Ereignisse.

(2.1-39)

16 5)

2

Einführ1lng in die Stochastik

Zufallsvariable und Verteilungsfunktionen

Wir hatten in Abschnitt 1) Zufallsvariable als reelle Funktionen X : n --+ lR definiert, um zum Beispiel die Beobachtungstiefe eines vVürfelexperiments mit drei vVürfeln durch Berechnung der Augensumme zu verkleinern. vVir nehmen zunächst an, daß n abzählbar und eine diskrete Wahrscheinlichkeitsverteilung P über n gegeben, also die Ereignisalgebra A = P(n) ist. Entsprechend wird X eine DISKRETE ZuFALLSVARIABLE genannt. Die Bildmenge X(r2) c lR ist ebenfalls abzählbar. .Jede Teilmenge B c lR 1 (B) eine wohlbeenthält abzählbar viele Punkte von X(r2), so daß das Urbild stimmte Teilmenge von r2 ist. Wir können demnach jedem B E P(JR) die nichtnegatiVP Zahl Px(B) = P(X- 1 (B)) = pサセZ@ xHセI@ E B} (2.1·40)

x-

zuordnen. Da offensichtlich px (JR) = 1 und für paarweise disjunkte A, C lR (i = 1,2, ... ) auch

Px(UAi)

=

P(X- 1 (UA,))

=

P(UX- 1 (Ai))

2::P(X- 1 (A,))

=

=

2::Px(A,)

(2.1-41) gilt, haben wir wegen (2.1-19) bis (2.1-21) ein Wahrscheinlichkeitsmaß auf der Ereignisalgebra P(JR) und dem Stichprobenraum lR definiert. px heißt die DURCH X INDUZIERTE WAHRSCHEINLICHKEIT oder die VERTEILUNG VON X UNTER P. Für jede reelle Zahl x haben wir mit {X::; x} die m・ョァサセZ@ xHセIZ[@ x}, also das 1 ((-oo,:r]) bezeichnet. Da für eine diskrete Zufallsvariable X P{X ::; x} Urbild existiert, kann man die reelle Abbildung

x-

x--+ Fx(x)

=

P{X::; x},

(2.1-42)

definieren, die VERTEILUNGSFUNKTION (eng!. distribution function) VON X heißt. Sie kann genauso gut durch Fx (x) = px ( ( -oo, x]) bestimmt werden. Unmittelbar ergeben sich die folgenden Eigenschaften der Verteilungsfunktion von X aus der Definition (2.1-42):

Fx(x) ist mit wachsendem x monoton nicht fallend, クセャッ@

Fx(x)

=

Fx( -oo) F x (x)

0,

=

jゥ⦅Nセ@

Fx(x)

=

Fx(oo)

=

1,

ist stetig von rechts.

(2.1-43) (2.1-44) (2.1-45)

Um die Stetigkeitseigenschaft zu beweisen, gehen wir von einer monoton fallenden Zahlenfolge x" Bセ@ x aus und schreiben

0::; Fx(xn)- Fx(x)

=

P{x punk t der Verteilungsfunk t ion sein. 1\i[it. Hi lfe der Ta blle fiir in Anhang A.3. l bestimmt man , d aß für eine nonna iverteilte Zufa llsvariable X P{p- ka < X -:;I'+ /,;a} = 0.68:3, 0.954, 0.997 für k = l , 2, :3 gi lt.

F, af ----------------M」Z[⦅セ





1/2

(211")-1/2

J-t-

3a

f.L

+ 3a

X

.'\bbildung 2.1.1: Dichte und Verteilungsfunktion d er Normalw rtc ilu ng Schließlich bemNken wir noch, daß die Vertei lungsfunktion einer binomial\·erteilten Zufalls variable n , vgl. Abb. 2.1.1, fiir großP n wie eine treppcnförrnige .'\pprox im ation der v ヲセャエ・ ゥャオョァウヲォエッ@ einer \" orrnalvcrteilung a ussieht. Der G rund liegt d a rin , daß mit d Pr in Beispiel 82 .1 ll defin ierten binomialn·rtPilten Zufallsvariablen X = X," die durch die Parameter n und p gPkPnnzeidmrt ist, die fol gende Eigenschaft bewiesen wt•nlen kann: !im P { n ->oc

(X.,- np) . S :r } = (:r)

(2. 1--73)

Jnp( 1 - p)

(Zentraler Grenzwertsatz von l'vloivre-Laplacc, vgl. B2.l 36 uml Ü2.l-35).

7)

Wahrscheinlichkeiten auf IR" und Zufallsvektoren

E ine gp(•ignrte Ereignisalgebra mu ß zuniio) wie in Abh.:2.1.7 sowi b und n ::; .IJ ::; b. In di

+ z,

(i=1, ... ,n).

(2.2 1-1)

l=l

Die Eingaben bei der i-ten :VIessung sind also ク^セL@ ... , x;k und erzeugen die A.usgabe y,. \Vir nehmen an, die Parameter !? 1, ... , !?k nicht zu kennen. Sie sollen aus der Beobachtung Hク^セL@ ... , x,k; y;) (i = 1, ... , n) geschätzt werden. Zuvor betrachten wir jedoch drei Beispiele, die zeigen, daß das Modell (2.2-1-1) in unterschiedlichsten Anwendungen nützlich ist. B2.2-3 Die statische Kennlinie eines nichtlinearen Verstärkers soll durch ein Polynom beschrieben werden. Unterschiedliche Gleichspannungen x, als Anregungen und entsprechende, mit Meßfehlern behaftete Ausgaben werden beschrieben durch k

y, = !?1

+L

t'it:r:- 1

+ z,

(i=1, ... ,n).

(2.2-15)

1=2

Mit

Lzi

= クセMャ@

(1

= 1, ... , k)

ergibt sich das Modell (2.2 1-1).

B2.2-4 Beobachtet wird ein gestörtes, abgetastetes Sinussignal y, = 1)Sin(w.6i

+ cp) + z,

(i

= 1, ...

,n),

(2.2-16)

wobei uns die Kreisfrequenz w > 0 und das Abtastintervall .0. > 0 bekannt seien. Unbekannte Parameter sind die Amplitude rJ und die Phase t.p. Der Parameter TJ ist linear im Modell, jedoch nicht 'P· \Vir können die aus der Trigonometrie bekannte Formel für sin(rr + {3) benutzen und umformen: y; = 1) sin 'P cos w.cJ.i

+ TJ cos 'P

sin w.6i

+ z,

(i=1, ... ,n).

(2.2 1i')

2. 2

Statistische Schlußweisen

63

Definieren wir 11 1 = 7)Sintp, .Tz!= coswL'l.i, Qセ @R = 7)COStp und Xä = sinwL'l.i, so erhalten wir (2.2 14) mit k = 2 und den linearen Parametern 19 1 und 11 2 . B2.2-5 \Vir bt'trachtcn ein digitales TRANSVERSALFILTER, das mit einem Abtastsignal x, = x(iL'l.) angeregt wird und dessen Ausgangssignal nur mit einer additiven Störung gemessen werden kann. Das entsprechende Abtastsignal sei beschrieben durch k-1

y, = L

hmXz-m

+ Zi

(i=1, ... ,n).

(2.2 18)

m=Ü

\Vir definieren die Filterkoeffizienten als unbekannte Parameter {} 1 = h1_ 1 sowie xコセ@ = :r,_ 1+ 1 (I = 1, ... , k) und finden (2.2 14). Vom gestörten Ausgangssignal werden zu den Abtastzeiten t = iL'l. die Abtastwerte y 1 , ... , Yn beobachtet und vom Eingangssignal die Werte x 2 _k, ... , xo, ... , .Tn, damit das lv!odell vollständig genutzt wird. Um den Parametervektor 12. = (fJ 1 , ... , 19k)' zu schätzen, gehen wir von der SUMME DER QUADRATE der MESSFEHLER (eng!. errors) oder STÖRUNGEN z, aus: n

S(-12.)

S(01, ... , 19k)

=

=

L

z; =

i=l

n

k

i=l

l=l

L(Yi- LVzxii) 2.

(2.2 19)

Ein Vektor J2 (ß 1 , ... , ih)', der S(-12.) über alle 12. nummiert, heißt KLEINSTEQUADRATE-SCHÄTZUNG (eng!. least squares estimate (LSE)). ::".fotwendige Bedingungen für J2 sind

as I

fR) . m

= -2

Q.

n

k

z=l

1=1

-

L x,",(JJz- L fJzx,z)

= 0

(m=1, ... ,k),

(2.2-20)

wenn wir annehmen, daß S sein lV!inimum im Inneren der l\lenge aller zugelassenen Parametervektoren 12. annimmt. Diese Bedingungen können wir in ein lineares Gleichungssystem für 01 , ... , ·Ok umstellen: n

k

L L ,(jl

l=I

z=l

n

:I:ziXzm

==

L

YzXtm

(m=1, ... ,k).

(2.2-21)

z=l

Das System ist eindeutig nach ·0 1 , ... , Ok auflösbar und das Minimum von S(-12.) eindeutig bestimmt, wenn die Koeffizientenmatrix HRZ[セ Q@ X;zXzm)l,m= 1, .. ,k positiv definit ist, denn sie ist bis auf den Faktor 2 die :V!atrix der zweiten Ableitungen von S: ( FゥセL。jャュ]Q@ ... ,k· Da sie stets symmetrisch und nichtnegativ definit ist, braucht man nur noch, daß sie nicht singulär ist. Dies ist genau dann der Fall, wenn die Vektoren (xll, ... , :rn1)' (l = 1, ... , k) linear unabhängig sind, was Interessierte als Übung beweisen sollten. In .\latrix- und Vektorschreibweise fassen wir zusammen:

!!.. =

(?Jl, · · ·, ?Jn)' , X= (x;z)·z=1, ... ,n;l=1, .. ,k,

64

2

S(ft)

(u- x 12.)' (u- x 12.),

(2.2-22)

il) = Q,

(2.2-23)

-2X'(ll_- X

S?_S(Q) 1!1_

Einführunq in die Stochastzk

x'u,

X'X12

(2.2-2-Jl

(X'X)- X'll_,

12

(2.2 25)

1

falls X'X nicht singulär ist. \Vir merken an, daß auch Lösungen möglich sind, wenn X'X singulär ist, indem verallgemeinerte Inverse von X'X benutzt werden. Da nämlich der Vektor X' 1l_ in dem durch die Spalten von X' X aufgespannten linearen Raum licgL ist Gleichung (2.2-2-1) immer lösbar, und jede Lösung i2. minimiert S(Q) über 12_. Letzteres sieht man durch folgende Abschätzung ein:

S(Q)

(ll_- XQ)'(u- XQ) (!1_- XQ + X(iJ.- 1.2_))'(!1_- Xz9 + X(iJ.- 12.)) (!1_- Xi2.)'(1l_- XiJ.) + (Q- Q)'X'X(iJ.- Q)

+2(2J.- 12_)' (X'u- X'XQ) セ@

(u- xi2.)'(u- xi2.)

=

s@,

(2.2-26)

wobei (i2.- ft)'X'X(i2.- 1.2_) セ@ 0 und wegen (2.2 24) X'y- X'Xi2. = 0 beachtet wurden. Im folgenden setzen wir stets voraus, daß die Matrix X'X nicht singulär ist. Die minimale Summe der Quadrate ist unter Ausnutzung von (2.2-24)

s(12)

(u- x 12l'(u- x 12)

=

u'u- 212'x'u + 12'x'x 12

= 1l_ - Xft 1l_ u'u- 12'x'x 12 = u'u -u'x(x'x)- 1X'u· ' 1

1l_ 1l_ - 12_ X 1l_ I

I

(

')'

Wir wollen das Ergebnis (2.2-25) im Falle k 2.2.2 veranschaulichen. Die Schät;mng von -{) ist

= l mit -{) = -{) 1 und

(2.2-27) x,

= :r; 1 in Abb.

n

I: x,y, " -- z.=_!_____ V n .

I: .1:;

(2.2-28)

z=l

Betrachtet man die Beobachtungen (x;, y;) (i = l, ... , n) als Punkte in der Ebene, so liefert die Kleinstc-Quadrate-Schätzung diejenige Gerade y = fix, für die die Summe der Quadrate der Ordinatenabstände der Punkte (x;, y,) zur Geraden minimal ist. Da wir mit der Kleinsten-Quadrate-Schätzung ein lineares .lvlodell an die beobachteten Daten anpassen, spricht man auch von LINEARER REGRESSION. l\Iit der sogenannten REGRESSIONSGERADEN y = fix können wir in Abb. 2.2.2 eine Prognose der möglichen y- VIerte für beliebige x- \Vcrte vornehmen. Als Modell für die Meßfehler z, benutzen wir im folgenden paarweise unkorrelierte Zufallsvariable Z, mit verschwindendem Erwartungswert und gleichen Varianzen. die

;!_ ;l

Stat zstische Schlujlwcisen

65

y

J.c

[J =

y,

.r,

0

J'

.-\bbildung 2.2.2: Lim'are Reg;rcssiou mit Schii.tznng

t'l!HT

Gerade!! d urch 1\:leinstc-Quad rat e-

also EZ, = 0, \ ·arz , = a"i und Cov(Z" Zk) = 0 (k =I i) fii r i = l, ... , n erfülleu. Mit dem STÖRlv! ODEL L (Pngl. noi se modd ) Z = (Z 1, .. . , Z,.)' um! L = (} '1, .. . , Q セ L I G@ ist das :\lodell dt' r ßeobachttmgcn (2. 2 20) 1.::= XQ+Z . Erwartnugswktor nud 1\:m·arianzmatrix vou E inlwit sma t rix

L

siwl m it der Bez('ichmmg I für d ir

Ei::

XQ ,

K l:.

E(L: セ@ EL) (1.:: セ@ Ei::)' = 。セ セ@

(2.2 ·30) iN@

(2.2 :31)

= (X'X) - 1X 'L:

(2.2 32)

dPr zu (2.2 2:>) gl'hiiri ge KLEINSTE- QUADRATE- SCHÄTZER. Sei1wn Erwart.un gsvektor lwrrchu('ll wir die Line;uität (2.1 l f>::i) dl's Erwartungsoperators beachtend zu (2.2 33) I.:leiust e-Quadrate-Schiit zer siud a lso l'rwartuugstn•n. DiP I.:ovarianzm atrix カ ッ den wir cnts predH'nd:

eHセ@

K 0_

セ@

eセ

IH セ@

セ@ Efl)' = eH

セ@

セ@ qIH

セ@

fin-

セ@ Q)'

E[(X'X) - 1X 'L: セ@ QJ[(X'X)- 1 X'L: セ@ Q]'. :\nt zen wir

ョセ@

(2.2 34)

il = (X'X) -t x'X Q und kla nml('m (X'X)- 1X ' a ns , so ergibt sich K0_

E(X'X) - 1X'(l:: セ x@ (X'X)

1

HxGI





Q)(L セ x@

Q)(L セ x@ X 'E(L x@セ x G。 セ i@ X(X'X) - 1 = 。セ

Q)'X (X'Xt

1

Q)'X (X'X) - 1 Hx

G xI@

l

(2.2 35)

Hierbei ha ben wir die Liuearit.iit des Erwartlmgsop 0. Den Parametervektor f}_ = (fL, fJ 1, fJ 2)' teilen wir in f}_ 1 = 11 und f}_ 2 = (·t9 1 , t9 2 )'. Entsprechend sind die \latrizen

XI= (1,1, ... ,1)' und

x2

cos v · · · cos vn ) 1 = ( . . . L:'nter der Annahme Slll V

· · ·

Slll VI!

fJ 1 = fJ 2 = 0 testen wir anband der Beobachtungen )!_ = (y 1 , ... , Ynl', ob fL = 0, also ob die Daten keinen Gleichanteil enthalten mit Hilfe von

. 1(·t ) = { 1

1fJ

1

0

, ,

wenn v1 ()!_) > sonst

Fl,n-l,o

(2.2-172)

'

wobei mit (2.2-166), dem Mittelwert y und der Streuung s 2 von y 1 , ... , Yn (2.2-173) :\'un wollen wir bei unbekanntem Gleichanteil 11 testen, ob die Daten kein Signal der Frequenz v enthalten odPr doch. \Vir berechnen wie in (2.2-5/) approximativ (2.2-17 4) und finden, daß X 1 und X 2 zueinander orthogonal sind. \Ian kann also überprüfen, ob fJ 1 = 19 2 = 0 ist oder nicht. \Vir schätzen dann jL = y und (tJ 1, tJ2)' wie in (2.2 60). Somit ist 1 n , sR(Y) = -[(LYi) 2 n

+ 2(2::: y, cos vi) 2 + 2(L:Yi sin vin

= 3 und

testen wir mit

z=l

Da k

k1

= 1 ist,

n

.

z=l

, wenn il()!_) > 1/J()!_) = { ()1 sonst

n

.

(2.2-115)

z=l

F2.n-:l,"

(2.2-116)

2. 2

Sta.ti8ti8che Schlußweisen

91

wobei man für (2.2-170) approximativ auch

f:

f:

f, [ (y, - y) cos vi)J2 + f, [ (y; - y) sin vi)J2 n- 3 >=1 >=1 D(y) = - - n n n 2 L (y, - !1) 2 - セ@ [ L (y, - Y) cos vi)F - セ@ [ L (y, - Y) sin vi)F z=l

z=l

t=l

(2.2-177) schreiben darf. Anschaulich berechnet der Detektor nach Beseitigung eines möglichen Gleichanteils aus dem Betragsquadrat der FourierTransformiPrten der Daten für die Signalfrequenz und der Energie der Daten eine Schätzung des halben Signal zu-Störabstandes. Ist letzterer größer als die von den セャッ、・ー。イュエョ@ unabhängige Schwelle F2 ,n- 3 ,c" so wird entschieden, daß die Daten ein Signal enthalten und anderenfalls, daß sie nur aus Störung und höchstens einem Gleichanteil bestehen. Hat man sich für die Existenz eines Signals entschieden, so kann man als Gegenprobe noch einmal überprüfen, ob /L = 0 bei beliebigem li 1 und li 2 oder nicht gelten soll. Hierzu vergleicht man eine Größe, die sich von (2.2-177) dadurch unterscheidet, daß der Vorfaktor (n- 3)/1 und der Zähler ny2 wird, mit der Schwelle F1,n-2p.· 3)

Tests aus Konfidenzbereichen

Im folgenden soll ein Verfahren beschrieben werden, um Tests aus Konfidenzbereichen konstruieren zu können. Hierzu nehmen wir an, daß man im Sinne von Unterabschnitt 2.2.1 3) einen Konfidenzbereich K(x.) für den Parametervektor f1. zum :\iveau 1- a mit Hilfe einer Zufallsvariablen Q = q(.K_; fl.), deren Verteilung unabhängig von fJ. und bekannt ist, wie in (2.2-74) bis (2.2-77) ableiten kann. ,\löchten wir nun die Hypothese r2. = 120 gegen die Alternative f1. =F f1. 0 testen, so erhalten wir unrnittelbar einen Test, indem wir abfragen, ob 1/.0 E K(x.) bzw. x. E .4(.!20 ) gilt oder nicht. Definieren wir nämlich unter Verwendung von (2.2 76) den kritischen Bereich K des Tests (2.2· 141) durch (2.2-178) K = A(f1.0 ) = {x.: q(x.;ilo) B},

rt

so folgt aus (2.2-73) und (2.2-77), daß

PQO{X E K}

s

CY.

(2.2-179)

Benutzt man bei gegebenem Q in (2.2-179) den kleinstmöglichen Wert a, so besagen (2.2-143) und (2.2-144), daß der Test das Niveau n besitzt. Über die Güte des Tests für fl =F .!20 , also die Wahrscheinlichkeit einer korrekten Entscheidung für die Alternative, wissen wir nur (2.2 180) Für das Kleinste-Quadrate-Modell mit nonnaiverteilten Fehlern konnten wir in 2) zeigen, daß SF und TR nach (2.2-159) und (2.2-161) stochastisch unabhängig und bis auf den Faktor 。セ@ xセMォ bzw. Xk-verteilt sind. Demnach gilt:

. Q = q(.L; 12.)

=

TR/k S /( :) ist Fk,n-k-verteilt, F

n- A

(2.2-181)

92

2

Emfiihrunq in die Stochastik

falls fj_ der richtige Parametervektor ist. Folglich ist K(!j_) = {f)_: q(!l_; 12.)

:S: Fk,n-k.n}

(2.2-182)

ein Konfidenzbereich von fj_ zum Niveau 1 - a. Dann liefert A(fj_)

=

{!j_: q(!j_; fj_)

:S: Fk,n-k,ct}

über (2.2-178) den kritischen Bereich des Tests für die Hypothese 12_ = mit dem l\'iveau a: Wir ersetzen in (2.2 165) v(!j_) = q(!j_; Q) durch

(2.2-183)

1'lo gegen fj_ # 120

(2.2 18-!) und erhalten wieder einen F Test. Beispiel: B2.2-12 Wir gehen im b・ゥウーャセ@ B2.2 9 vom Konfidenzhereich (2.2-86) aus und wollen testen, ob die Amplituden des sinusförmigen Signals die \Verte tl 1 = tJ10 und rh = lJ 20 besitzen können oder nicht. Die (2.2-184) entsprechende Testfunktion ist (2.2-185) und

1f.!('l) = { 1, wenn v(!j_) > F2,n- 2 ,a :;_

0, sonst

(2.2-186)

der geeignete F-Test zum Niveau a.

4)

Maximum-Likelihood-Quotiententest

Schließlich wollen wir eiiw nützliche 1\lethode kcnnenlcrnen, um TPsts in relati\· allgf'rneinen Situationen ableiten zu können. 'Nie zu Anfang von 1) gehen wir jetzt von einer beliebigen disjunkten Zerlegung der Parametermenge 1-l = 1-lo U1-l 1 aus, um Hypothese und Alternative festzulegen. \Vir kennen die ein Zufallsexperiment bestimmende Dichte /;s_(:r.; 12) bis auf den Parametervektor fj_ E 1-l C JRk. \Vir möchten anhand des beim Zufallsexperiment beobachteten Versuchsergebnisses :r. testen, ob für den zutreffenden Parametervektor 12_0 J20 E 1-lo anzunehmen ist oder nicht. Dazu erinnern wir uns an die im Unterabschnitt 2.2.1 4) untersuchte Likelihood-:VIethode, um einen Parameterwktor zu schätzen. Eine 1\!laxirnum-Likelihood-Sc:hätzung; tl(:r.) von fj_ wird in (2.2-12-!) definiert. \Vir schreiben in unserem Fall etwas allgemeiner fx (:r.; tl(:r.)) = sup fx (:r: 12.) -

i}_EH

-

(2.2-181)

2.:!

Statzsl'l.sche

98 s」ィャオ￟キゥNセ・ョ@

und erlauben auch, daß ft(:r) auf dem Rand von H, der nicht zu H zu gehören braucht. liegt. C ns interessiPrt das \laximum, g;enauer die kleinste obere Schranke der Likelihood-Funktion, wenn über alle fj_ E H maximiert wird. Entsprechend könnte man den l\laximalwert der Likelihood-Funktion bestimmen, wenn nur über alle fj_ E Ho variiert wird. So liegt es nahe, das Verhältnis sup fx (:r; fj_)

t (;[;) -

11E"/i

セ@

(2.2 188)

= .=..:;__----:--;---:-:-

sup

il_EH.o

.fx (:r; fj_) -

mit einer Schwelle zu vergleichen. Ist t(:r) zu groß, so wird man die Hypothese ablehnen müssen. Der sogenannte MAXIMUM-LIKELIHOOD QUOTIENTENTEST (eng!. maximum likelihood ratio test (MLRT)) ist dann gegeben durch

1/!(.JJ

= { 1, wenn

0, sonst

t(:r) >

K

(2.2-189)

.

Die Schwelle K muß so bestimmt werdlm, daß der Test entsprechend (2.2 144) das :\iwau a erhält. Die SchwelleK zu berechnen, kann sehr kompliziert sein. In manchen Fällen hilft ein asyrnptotisches Resultat, vergl. Witting und :\ölle (1981), das folgendes besagt: vVenn H ein k dimensionaler Quader im JRk und Ho ein i-dimensionaler Unterquader von H ist, so gilt unter gewissen Regularitätsbedingungen: 2ln t(X) ist unter der Hypothese asymptotisch für große n

xL

1

verteilt. (2.2-190)

Dies bedeutet, daß wir für große n (2.2 191) -verteilten Zufallsdiejenige Zahl, die von einer xセB@ wählen können. Hierbei ist xセBM@ variablen mit der Wahrscheinlichkeit cv überschritten wird. Tabellen für solche Zahlen findet man in Anhang A3.2. Die Güte oder Optimalitätseigenschaften eines Maximum-Likelihood-Tests nachzuweisen, ist kornpliziert und gelingt nur in Spezialfällen. Trotzdem ist dieser Ansatz eine der wichtigsten :\lethoden, um brauchbare Tests zu konstruieren. \\'ir wollen nun zeigen, daß der :'v!aximum-Likelihood--Quotiententest im KleinsteQuadrate-1\lodell mit normalverteilten Fehlern äquivalent zum F-Tcst in (2.2-165) ist und (2.2-190) erfüllt ist. Die logarithmierte, von fj_ und a'f: abhängende Likelihood Funktion ist wie in (2.2 105) '" . 1 ll!.- XfLI n ln27r- n 1n az2 ' = - 2 az) ln h(lf.,·f)_, 2 2 2a'i

(2.2-192)

> 0 führt wie in (2.2-127) und (2.2 128) auf die Kleinste}.!aximierung über fj_ und 。セ@ Quadrate-Schätzung iJ. als l'vlaximurn Likclihood-Schätzung und auf (2.2-193)

94 Falls XMセ@

2

Einführung in die Stochastik

> 0, ergibt sich aus (2.2 -192) (2.219.!)

also das Maximum über alle Parameter. Cnter der Hypothese ist fj_ = Q, so daß nur über 。セ@ > 0 maximiert wird. Man findet entsprechend (2.2 Hl5) Statt t(z) mit "" wie in (2.2-189) vergleichen wir äquivalent 2ln t(:r:) mit 2ln K, wobei mit (2.2 188) und (2.2-166) 2ln t(]!_) (2.2-196) Diese Funktion wächst monoton mit v(y). Also ist ein Vergleich von 2ln t(y) mit einer Schwelle äquivalent zu einem Vergleich-von v(]!_) mit einer Schwelle, d.h. dem F -Test R@ -IXQI 2 ) eine gute Schätzung von fürkund n- k Freiheitsgrade. Für großen ist セHijl 。セN@ Damit gilt für große n 2ln t(:y) wobei wir jゥ[セ@

セゥョ@

[1

+ IXQJ"] n naz

セ@ ⦅ゥxセiRG@

a2

(2.2 -197)

(1 +;; )n = ea benutzt haben. (2.2 190) lehrt nun, daß 2ln t(L.) unter der

Hypothese f!_ = Q asymptotisch Xk verteilt sein sollte, was mit (2.2-162) auch bestätigt wird. Da im vorliegenden Fall die Menge 1l allPr Parameter fj_ und 。セ@ > 0 ein (k + 1) dimensionaler Quader und 1l 0 ein Intervall, also ein eindimensionaler Quader ist, ist k = k + 1 - 1 auch die vorausgesagte Zahl der Freiheitsgrade. Das letzte Beispiel dieses Kapitels betrifft wieder ein sinusförmiges Signal, das in einer Störung entdeckt werden soll und dessen Amplitude, Phase und Frequenz unbekannt sind. B2.2-13 Es handelt sich um das in B2.2-10 untersuchte Problem. Die logarithmiPrte Likelihood-Funktion besitzt die Gestalt (2.2-131) und hängt von f!_, 。セ@ > 0 und der normierten Frequenz 0 < v < 7f ab. \Vird zunächst über fj_ und 。セ@ maximiert, ergibt sich wie in (2.2-134) bzw. (2.2-194)

wobei wir (2.2-133) und die Definition des Periodogramms Iyy(v) in (2.2-135) benutzen. Für große n maximiert eine l'vlaximum-LikPlihoodSchätzung v der Frequenz das Periodogramm:

2. 2

95

Statistische Schlußwe·iM:n

Wenn 1!. = Q, ergibt sich für ln fy_(!J_; Q, VMセL@ Ausdruck. Also können wir schreiben

.

2ln t(!J_)

= n ln I!J l2 -

lul 2

. 2 m.!_lx Iyy ( V ) V

v) ein (2.2 195) entsprechender

= n ln

(

2Iyy(v) ) Iy l2 - 2Iyy ( V ) 1 + m.!_tx V -

,

(2.2-200) wolwi ausgenutzt wurde, daß x/(lyl 2 - :r) eine monoton wachsende Funktion von x in 0 ::; x < 17)_1 2 ist. Wie- im Zusammenhang mit (2.2 196) argumentieren wir, daß der Maximum Likelihood Quotiententest zum :\'iveau n äquivalent zum Vergleich von max v(y, v) v -

=

n- 2 max - v 2

2I (v) YY _ 2Iyy(v)

IJLI 2 -

(2.2 201)

mit der Schwelle F 2 ,n- 2 ,n ist. Man kann nämlich argumentieren, daß v(]j_, v) unter der Hypothese 1!. = Q F 2 ,71 _ 2 - verteilt ist für alle v sowie approximativ auch für die maximierende Frequenz v. Eine genauere Untersuchung ist jedoch schwierig und muß unterbleiben. Interessant an der Testgröße (2.2-201) ist, daß sie sowohl zum Entdecken eines sinusförmigen Signals unbekannter Frequenz als auch zum Schätzen der Frequenz vermöge v benutzt werden kann. Man zeichnet wie in Abb. 2.2.4 für gegebene Beobachtungen 7)_ = (y 1 , ... , Ynl' die Größe v(]j_, v) über der normierten Frequenz v und die Schwelle F 2 ,71 _ 2 "'. Überschreitet die Testgröße irgendwo die Schwelle, so wird mit der Falschalarmwahrscheinlichkeit n entschieden, daß die Beobachtungen ein sinusförmiges Signal enthalten. In den Bereichen, in denen die Schwelle überschritten wird, sucht man das absolute Maximum. Sein Argument liefert die Schätzung v der Frequenz. Über (2.2-132) und (2.2-133) lassen sich 19 1 , 1'1 2 und 。セ@ an der Stelle v = v schätzen. In der Simulation für Abb. 2.2.4 werden n = 512 Abtastwerte, unabhängige und identisch normalverteilte Psemlozufallszahlen als Störung, eine normierte Frequenz f,; = 0, 34 und ein Signal-zu-Störabstand 82 = n(Oi + QYセI@ j HR。セIL@ also von 10 lg 82 セ@ 13dB gewählt. Für die obere Testschwelle in Abb. 2.2.4 war die Falschalarmwahrscheinlichkeit auf er = 0, 01 und für die untere auf n = 0, 05 gesetzt. Beachtet man, daß die Testgröße mit Hilfe der schnellen Fourier-Transformation (vergl. Anhang A.2.1) an 254 diskreten normierten Frequenzen aus dem Intervall (0,1/2) berechnet wurde, so entspricht die relative Häufigkeit der Schwellenüberschreitungen an Frequenzpunkten, die nicht der Signalfrequenz entsprechen, gut den vorgegebenen Falschalarmwahrscheinlichkeiten. Das Signal wird sicher entdeckt und seine Frequenz mit nur geringem Fehler geschätzt.

96

:!

F:znft!hrt!IUJ in

、 オ セ@

Stoclw.sltk

I•

12

10

Abbildung 2.2.4: TPstgrößP und Tcstsdnvl'lll'n zur E utdcckuug :""' L

(', ·('-')n-Jw(k'-m+l) ".\X h .. ,

k'=-00

00

h,e-Jwl

(3.2 63) m=-oo

l=-oo

k'=-oo

Hier haben wir Summen vertauscht und k' = k (3.1--57) fassen wir zusammen

+m

-I substituiert, :\Iit (3.2-51) und

Cn(w) = H(w)H(-w)Cxx(w) = ]H(w)] 2 Cxx(wJ

(3.2-64)

und erhalten ein besonders einprägsames Ergebnis. Die Behandlung von (3.2 -48) für stochastische Prozesse X (t) und } · (t) PndlichPr Leistung verläuft ähnlich. \Vir fassPn das Faltungsintegral oc

Y(t)

j

=

h(t')X(t- t')dt'

(3.2-65)

unter der (3.2 -54) entsprechenden Stabilitätsannahme

J ]h(t)]dt < 00

(3.2-66)

CXJ

-oo

als ein i.q ..:VL-Integral auf und nennen es auch i.q.M. -Faltung. Eine Abschätzung wie' in (3.2-55) würde nämlich zeigen, daß

I: I:

h(tl)h(t2)rxx(t- t1, t- t 2 )dt 1 {lt 2 < oo

(3.2-67)

gilt. Es ist nun klar, welche Bedingungen ein stochastischer Prozell Y(t) nach (3.2-ll) und (3.2-12) erfüllen muß, um sich durch die i.q.l\l. Faltung (3.2 -65) darstellen zu lassen. Bemerkt sei hierzu nur noch, daß r·yy(t, t) = E}'(tj2 durch die linke Seite von (3.2-67) bestimmt wird. Als Konsequenz können Integral und Erwartungswert wie in (3.2-7) vertauscht werden: 00

Jty(t) =

E

00

j h(t')X(t- t')dt' = j h(t')EX(t- t')dt'

00

j

-00

h(t')!tx(t- t')dt'.

(3.2 68)

S. 2

Systemtheorie mit stochastischen Signalen

121

Formel (3.2 -60) läßt sich zu 00

cYl

(t

+ u, t)

=

00

j j

h(t 1)h(t 2 )exx(t + 11- t 1, t- t2)dt1rlt2

(.3.2 69)

-OO-Xl

verallgemcirH'rn. Erregt weißes Rausclwn Z(t) ein lineares konstantes System. so können wir mit der i.q.lvl. -Faltung umgehen wie mit (3.2 16). Deren Konvergenz ist schon gesichert, wenn (3.2-70) also eine gegenüber (3.2-66) schwächere Stabilitätsbedingung erfüllt ist. Für einen stationären Prowß X ( t) gehen wir davon aus, daß auch Y ( t) stationär ist, wenn Stabilität im Sinne von (3.2 66) gewähr!C'istct ist. Den Gleichanteilund das Spektrum von Y(t) findet man analog zu (3.2 61) und (3.2- 64) unter Verwendung von (3.2-49): tLx H(O),

(3.2-71)

jH(w)j 2 Cxx(w).

(3.2-72)

Die Beziehungen (3.2-64) und (3.2-72) legPn den Betrag der Übertragungsfunktion IH(w)j oder kurz den AMPLITUDENGANG des Systems fest, wenn die Spektren C,-y(w) und Cxx(w) am Aus- und Eingang bekannt sind und wir Cxx(w) > 0 voraussetzeiL Cbcr den PHASENGANG cp(w) = argH(w) wissen wir nichts. Würden wir hingegen das Kreuzspektrum Cn; (w) in einer (3.1 55) entsprechenden Definition zwischen Ausgang und Eingang und das Spektrum Cxx(w) des Eingangssignals zur Verfügung haben, wäre die l:bertragungsfunktion vollständig bestimmt, wie wir im folgenden sehen werden. In Abb. 3.2.3 wird schematisch die durch eine additive Störung Un überlagerte Rraktion eines diskreten linearen und konstanten Systems mit. der Impulsantwort hn auf die Anregung Xn hin dargestellt.

⦅クᄋョMセil@

MQ MセuョK@

__G⦅Aセ@

セ@

1

}'n v

Abbildung 3.2.3: Gestörte Ausgabe eines diskreten linearen Systems Der diskrete stationiire Prozeß };, ist entsprechend Abb. 3.2.2 00

}",t =

L

hm):n-m

+ [l",.

(3.2 73)

\\"ir nehmrn an. daß X" und U" gemeinsam stationär (zumindest im weitPren Sinne) sind, beschränkte Leistung besitzen und daß das Svstem stabil ist. Der Einfachheit halber setzen wir i'x = l'u = 0. Die Kovarianzfunkt.iorwn r·xx(k) und cuu(k) sowie

122

Modelle für gemessene Signale: Stochastzsche Szgnale

3

die Kreuzkovarianzfunktion cux(k) = EUn+kXn mögen bekannt sein. Aus der i.q.:\1.Konvergenz der Faltungssumme schließen wir mit (3.2 56). daß die Kreuzkovarianzfunktion zwischen スセL@ und Xn folgendermaßen berechnet werden kann: 00

Cy·x(k) = EY,,+kXn = E[

L

hmXn+k-rn

00

+ Un+k]Xn

L

hmEXn+k-m"Y"n

+ EUn+k"\"n

L

hmcxx(k- m)

+ cux(k).

(3.2-1-1)

Die Fourier-Transformation von (3.2-7-1) liefert die vom Umschlag dieses Buches her bekannte Formel:

CYX(w) = H(w)Cxx(w)

+ Cux(w).

(3.2-75)

Nimmt man nun an, daß die Störung U" und die Anregung Xn untereinander UNKORRELIERT sind derart, daß cux(k) = 0 für alle k ist, so ergibt sich eine grundlegencle Beziehung: (3.2- 16) CYX(w) = H(w)Cxx(w). Die Cbertragungsfunktion eines linearen Systems ist also der Quotient aus dem Kreuzspektrum zwischen gestörter Ausgabe und der Eingabe und dem Spektrum dPr Eingabe. soweit letzteres größer als Null ist. Die Voraussetzung hierzu ist, daß das Kreuzspektrum zwischen Störung und Eingabe verschwindet. Unter der gleichen Voraussetzung und auf ähnliche W'eise berechnet man das Spektrum von スセL@ zu

Cyy(w) = \H(wWCxx(w)

+ Cuu(w),

(3.2-77)

wobei Cuu(w) das Spektrum der Störung ist. Ist Cuu(w) > 0 und unbekannt, so kann man mit (3.2-77) nicht einmal \H(w)l2 aus der Kenntnis von Cyy(w) und Cxx(w) bestimmen. Anzumerken ist, daß eine entsprechende Untersuchung für stochastische Signale und Systeme mit kontinuierlichem Zeitparameter auf Ergebnisse führen. die formal (3.2-76) und (3.2 77) gleichen. Stochastische Prozesse, die man sich als linear und konstant gPfilterte Versionen von weißen Rauschen denken kann, nennt man LINEARE PROZESSE. Die liiwaren Systeme. die durch weißes Rauschen angeregt werden, müssen also mindestens wie in (3.2-70) quadratisch integrierbare oder wie im Anschluß an (3.2-62) erläutert quadratisch summierbare Impulsantworten besitzen. Gelegentlich wird zusätzlich die KAUSALITÄT der Systeme gefordert, d.h. daß die Impulsantworten der Systeme für negative Zeiten n'rschwinden. Von der strengeren Definition des weißen Rauschens bzw. diskreten weißen Rauschens ausgehend sind lineare Prozesse stationär. Im anderen Falle sind sie stationär im weiteren Sinne. Der Gleichanteil eines linearen Prozesses verschwindet wie der weißen Rauschens. ·wenn H (w) die Übertragungsfunktion des linearen S:';stems ist und Czz(w) = 。セ@ das Spektrum des weißen Rauschens, so ist das Spektrum eines linearPn Prozesses X(t) bzw. X" gegeben durch

Cxx(w) = |hHキw。セN@

(3.2-18)

3. 2

123

Systemtheorie mit stochastischen Signalen

Die Gleichung (3.2-78) besagt, daß wir stationäre stochastische Signale, kurz RAUSCHSIGNALE, mit beliebig geformten Spektren durch Filterung von beispielsweise thermischen Rauschen erzeugen können, wobei nur der Amplitudengang des Filters geeignet gewählt werden muß. TIEF- bzw. BANDPASSRAUSCHEN erhält man mit Tiefbzw. Bandpässen. Daß beispielsweise ein diskreter idealer Tiefpaß eine quadratisch summierbare Impulsantwort besitzt, soll in Übungsaufgabe C3.2-4 3) gezeigt werden. Andere Beispiele untersuchen wir gründlicher: B3.2-2 Werden rein REKURSIVE SYSTEME oder REKURSIVE FILTER, benutzt, so heißen die linearen Prozesse AUTOREGRESSIV. Ein rein rekursives System mit diskretem Zeitparameter wird durch eine Differenzengleichung p

+L

Yn

akYn-k =

(3.2 79)

.Tn

k=l

im eingeschwungenen Zustand beschrieben, wenn Xn der Eingang und Yn der Ausgang des Systems ist. \Venn ap =I 0, wird p die ORDNUNG genannt. Die geforderte Stabilität (3.2 54) ist gesichert, wenn die \Vurzcln der sogenannten CHARAKTERISTISCHEN GLEICHUNG p

zP

+L

akzp-k

= 0

(3.2 80)

k=l

innerhalb des Einheitskreises liegen, also funktion eines solchen Systems ist

H(w)

lzl
w9 .

(3.2-114)

Benutzen wir die übliche Bezeichnung si(x) = sin(J:)/:r, so können wir das Abtasttheorem für die Momentfunktion rx x (n) = EX (t + u )X (t). deren Fourier Transformierte Rxx(w) ist, wie folgt formulieren: Ist rxx(u) bandbegrenzt so, daß (3.2-114) gilt, und wählen wir eine Abtastperiode ß ::.:; 7r / w9 sowie eine beliebige Zeitverschiebung v, dann kann diP l\Iomentfunktion zweiter Ordnung wie folgt aus Abtastwerten rxx(nß- v) (n E Z) interpoliert werden:

L

00

rxx(u) =

rxx(nß- カIウゥ{QイセM

u+v

1rr1.].

(3.2-115)

n=-oo

\Vir beweisen nun eine entsprechende Interpolationdorrnel für X(t), wobei i.q.!,I.Grcnzwerte betrachtet werden. Das AßTASTTHEOREM (eng!. sampling tllPorem) für Rauschsignale lautet: Ist ein zumindest im weiteren Sinne stationärer Prozpß X (t) bandbegrenzt derart. daß sein Leistungsspektrum (3.2-114) erfüllt, und wählt man die Abtastperiode .::'1 ::.:; 1r /w 9 , so gilt i.q.l\1.

X(t) =

f

n=-oo

xHョZGャIウゥセ@

-nn).

(3.2-116)

3. 2

SystemtheoTie m-it

Signalen ウエッ」ィ。セゥ・ョ@

129

Hierzu müssen wir zeigen, daß IJN = E[X(t)-

7ft

LN

X(n.6.)si(-- 1rn)]

2

セ@

n=·-·N

---+

(3.2-117)

0.

N----+oo

\ \"ir berechnen d ur eh Ausmal ti plizieren und Erwartungsoperation fJN

7ft

N

L. rxx(n.6.- t)si( .6. -

rxx(O)- 2

1rn)

n::::::-A

N

N

L. L

+

7ft

7ft

rxx(n.6.- m.6.)si( .6.- 1rn)si( .6. - 1rm).

m::::::--/li n=-N

(3.2-118) Die erste Surnrne konvergiert wPgen (3.2-115) gegen rxx(O). In der Doppelsumme substituieren wir n durch l = n - m. Dann schreiben wir die Summe über 1:

L

. 1r(t- m..6.)

rxx(1.6.)sl(

.6.

. 1rt - ITI)s1( .6. - 1rm),

(3.2-119)

I

1rm) konvergiert. Die wrbleilwnde Summe die für ;V---> oc gegen rxx(t- ュNVIウゥHセM überm konvergiert dann gegen rxx(O). Damit habeil wir bewiesen, daß fJN gegen セオャ@ konwrgiert. Anzumerken ist, daß wir die i.q.l\1.-Konvergenz der Abtastsumme auch mit verschobenen Abtastwerten X(n.6. - v) wie in (3.2-115) garantieren können. Auch könnten wir Abtasttheoreme für bandpaßbegrenzte stationäre stochastisc!H' Signale fornmlieren. die unter Umständen noch Pine Reduzierung der Abtastrate ermöglichen, worauf wir jedoch verzichten. Abtasttheoreme für stochastische Signale sind wie die für detPrrninistische Signale die Grundlagen dafür, analoge Signalverarbeitung durch digitale Signalverarbeitung mit clcn Abtastsignalen zu ersetzen. Dies motiviert nachträglich, daß 11·ir grundlegende Cntersuchungen stets parallel für stochastische Signale mit kontinuiPrlichem und für solche mit diskretem ZPitparameter durchgeführt haben.

3.2.5

Optimalfilter und Prädiktoren

\\"ir denkeil uns Pin diskrPtcs stochastisches Signal Xn, das wir beobachten können und das Informationen über ein am!Pres, uns nicht zugängliches stochastisches Signal } ;, Pnt.hiilt. Das Problem sei, wie es in Abb. 3.2.5 angedeutet wird, das beobachtbarc Signalmit einPm linearPn System mit der Impulsantwort h", so zu filtern, daß der Systemausgang möglichst gut das nicht zugängliche Signal 1;, approximiert. 13eispielsweise könnPn wir uns vorstellPn, Pinen zukünftigen \Vert eines Signales vorhersagen zn wollen, wPnn dicsPs Signal nur mit Piner Störung iihPrlagert bis zur Gegenwart beobachtet 11·erden kalln. ).!an spricht dann von einem Prädiktionsproblcrn. Das Ziel ist es. 13edingungcn für ein i.q.:-.1. bestes liiwares Systemmit der Impulsantwort f1", zu IJC'stimmen, ähnlich wie wir es in Cnterabsdmitt 2.1.2 4) für Znfallswktorcn

130

3

Modelle füx gwwssene S zgnalc: Stochastische S ignale

FehlerUn

nicht brobachtbar

ス セL@

Xn beobachtbar Abbildung 3.2.5: Zum Optimalfilt.erproblcm unternommen habetl. Ein solches System wird OPTIMALFILTER und m anchmal auch genannt.. BPim Prädiktionsproblem spricht man Pinfach von Pincm PRÄDIKTOR (cngl. predictor). Cm den erwarteten quadratischen Fehler q,. = elᄋ L セ@ für ein festes n minimieren zu können , setzen wir voraus, di(• Momentfunktion en zwcitrr Ordnung voll Y;, und X 11 zu ken neiL Außerdem wird angenommen, daß die Impulsantwort h". des Opt imalfilters höchstens ungleich Null für bestimmte Indizes m E M srin soll. Diese Impulsantwort wird i.a . von n a bhängen . deshal b schreiben wir ltm = O セB ᄋ BG ᄋ@ Ohne weitere E inschränkungen ist ein Optimalfilter also cill zeitvaria llt.rs Iilieares Svstern. \Venn zum Beispiel M = {0, 1, 2, . .. }, suchPn wir ein kausales Filter: für M = Z ist ein allgemeines nichtkausales Filter zu lJPst.imnwn . Entsptu:lwnd Abb. 3.2.5 schreiben wir WIENER-FILTER

(f u = } セO N M

L

ィ ュセ

| ョ M ᄋ ュL@

(3.2 120)

m.E/If

wobei i.q .!v!.-Konvergenz drr Surrun e angenommPn wird . Der erwartete quadratischr Fehler ist

qn

eu

L セ@ = E(};. -

L

hmXn- nY

E1;; - 2 L h..".E1;,x ,._"' + L m.

m

L

h",htEX,. _",X ."_t

l

·r n, (n,n) - 2L:h",1Vx (n, n - m)

+L

L

h",h,-rx x(n - m , n - I) . (3.2 121)

Es soll IJ11 iiber eine Variation aller h m mit m E i\1 minimiert werden. Dies ist ein Variationsproblcm , (\;u; man formal ähnlich brhaudPltt kautt wie eiu Optimierungsproblem mit eiuer endliehen Anzahl von Paranwt!•rn . Ohne auf Ein zellwit.l'll einzug 71/2, Fz,ll (z,w) = P{Z :S: z, W :S: w} = P{y'X 2 + Y2 :S: z, Y :S: Xtanw,X ::0: 0} + P{ y'X 2 + }' 2 :S: z, Y ::0: X tan w, X < 0} für alle anderen w und z;

.ff . J ( EJz/fJ:r cl1 erenzier 1)ar, so = Dw/Dx

226

Lösungshinweise

da X, Y unabhängig und identisch N(O, cr 2 ) -verteilt sind, folgt aus der Rotationssymfür z > 0 und metrie von fxy(x, y) um den l\ullpunkt, daß Fzw(z, w) = F 2 (z) R セAB@ lwl::; セN@ Wund Z sind dann unabhängig, W ist gleichverteilt 。オヲ{MセL}[@

ff Jx2+y2:Sz

Fz(z) = '

x2+2

セ・M、Zイケ@

r2

/TZ

= u(z) f

Jra-

-71"

J0 セ・MGBイ、\ー@

Jr(T

;,:2

= u(z)(1- e-'"'),

2

fz(z) = u(z);f,e-b. Ü2.1-21 1) K Stellenzahl, X = XK + w-Kc, XK auf K Stellen gerundete Variable, w-1\c Rundungsfehler, c gleichverteilt auf [-0, 5, 0, 5), E1o-Kc = 0, Var1o-Kc = w- 2 KVarc = w- 2Kfi. Ü2.1-22

M

1) G = L G ßm + G K;

P { M = 50} = セL@

rn=l

P { M = 51} = セL@

Gsm ist N(1; 0, 01) verteilt, GK ist :\'(100; 1)-verteilt, alle Zufallsvariablen sind voneinander unabhängig; unter der Bedingung 1\!J = L ist G :\' (L · 1 + 100, L · 0, 01 + 1)-verteilt; P{G :S g} = P{G :S yiAI = 50}P{AI =50}+ P{G :S giM = 51}P{AI =51}, I

fc(g) =

y"2iiT,5e

-

HYセ@

I.'i0)2 2 2 1.s

3 + v' 2 " 1 •51 e 1

-

HAャMQNGBセ@

)2 1 2 1.o1

3.

Ü2.1-23 R@ = セュHvク R@ + Vv2 + V}); Vx. Vy, Vz sind Uilabhängig und identisch 1) vV = セュゥki N(O, cr 2 ) verteilt mit cr 2 = kT jm; W ist bis auf den Faktor セォt@ x5-verteilt. Ü2.1-24 1), 2) XA Lebensdauer des Bauteils A,

EXA =

J:r:nAe-Ax dx = O

_..1_ OA

mit partieller Integration; Xe; = XA + X 8 Lebensdauer

des Geräts, XA und Xn unabhängig,

fxu (x) =

==

f

-oo

オHZイIoaセ@

fxA (x) = u(x)aAe-Ax,

f

fxA (x- y)fxn(Y) dy = u(:r)nAc.ts e-oA(x-y)e-nY dy

(c-oAx セ@

c-o: 8x).

0

Ü2.1-25 Q@ + t1X(i 1 ) 2 = EIXIk-t + 2tEIXIk + t 2 EIXIk+ 1 ; demnach gilt für die 0 :S eHixGセ Q@ < 0 d.h. (EIXIk) 2 < EIXIk-JEIXIk+l. Diskriminante ( EiXI' )2 - セixGM EjXjk+l IXI'"+I - ' ' vollständige Induktion: k = 1, (EIXI 1 ) 2 ::; (EIXI 2 ) 1 ; gelte (EIXIk-t)k::; (EIXIk)k-t für ein k 2: 1, dann ist mit dem Gezeigten, (EIXjk) 2k::; (EIXIk-l)k(EIXIk+ 1)k ::; (EIXIk)k-t(EIXIk+ 1 )k, also (EIXjk)k+ 1 ::; (EIXIk+ 1 )k Ü2.1-26 Mit x < y und 0 ::; .\ ::; 1 gelte g((1- .\)x + .\y) ::; (1- .\)g(.r) + .\g(y); falls .To < :r1 < x2 ョ、N|]セ[Zᄋ@オ folgen g(:rt) :S セ[ZァHNイッI@ + セ[]ァHZイコIL@ (.1:2- :ro)g(:rt) :S

227

Lösungshinweise

g(:c,)-g(xo) < g(x,)-g(,;l)_ demnach < und damit g(:co)-g(cq) )+(:c 1 -x 0 )g(x) (:r·2 -x 1 )g(x ' x 2 ::r 1 :r 2 -:r 0 xo-:r 1 2 0 , . 't"1ge 1 +O) .. kt, so d·,1 ß d'Je rec htsse1 b,. (Unten) ·h , ·, d (x-+x r·· g(x)-g(xl) ) fällt ( steigt セ@ esc·}1ran oben ur x--+x,-o un 1st nac .\bleitung ァセHク Q I@ S Q I@ und die linksseitige Ableitung ケセ@ (xi) existieren, für die ァセHク (") q' (:r 1 ) erfüllt so built für x (>) K < g'+ (x 1 ) :, wenn K ,q'- (:r } ) < < K X-Xl < .T 1 g(x)-g(cr,) , + für und dann für alle x g(x) 2: g(x 1 ) + K(:r- x 1); bei einer Zufallsvariablen xセ@ die EX = x 1 und Eg(X) existieren, ergibt sich g(X) 2: g(EX) + K(X - EX) und Eg(X) 2: g(EX). l

-

Ü2.1-27

den Bezeichnungen aus Ü2.1-18 ist p(X 1X 2 ) = Cov(X 1, x R IOセL@

セiゥエ@

Cov(X1.X2) = EX1X2- fllfL2 und EX1X2 =

I I

-oo -oo

wobei

x1x2!x,x,(xhx2)ch1d:r2

00 xi(Jt2+P;;(xi -JLJ))/x,(xt)d.r1 oc _.fx, xz!x,(x2lxt)dx2 ) /x,(xt)dx1 = _.fx, x1 (00 _.fx, = JL1IL2 + pa1a2; also p(X1, X2) = p. Ü2.1-28 I

.

1), 2) 'Px(s) = Ee.JsX = L: pk(1- p)i-keJsk = (1- p)

,::xJs) =

f:

k=O

k=O

HセIーォQM

p)"-ke.Jsk = [pel'

Mセ、イNークBャ@ v 3) .·4)E "'-n-.

.1

·2 _

E-\:n-

スセ@

ds

2 'PXn

Mセᄋ@ s=O-

+ (1- PW·

_ .]pE.Js n [ ... J"-1l s=o-rtp,

J

1 d Jl(j Jl1 ds21.N

N---too

da {IXN- XI ::0: c} C {sup IXn セxi@

::0: c}, folgt

n>N

P{IXN- XI ::0: c}::; P{sup IXn- XI ::0: E} und lim P{IXN- XI ::0: E} = 0. N--+oo

n2:N

3) Sei

E"

> 0, dann P{IXnl ::0: E} = P{Xn = 1} = 1- e-l/n

also Xn ョセ@

0 in Wk; wir zeigen, daß sogar P{Xn ョセ@

P{sup IXnl:::: E} = P( n>N

-

= 1-

u {IXnl:::: E}) =

n>N

-

n>N

n>N

da die "\"" unabhängig sind uncl

n>N 1/n -I:

ョセn@

I: 1/n divergiert. n

0,

n {IXnl < c}) =

1- P(

IT P{Xn = 0} = 1- IT e- 1/n = 1- e

--+

n->oo

0} = 0 gilt:

1-

IT P{IX"I < c}

n>N

-

--+ N---too

1,

Lösungshinweise

229

-±) SeiL Ihn I < oo uud EIX"I :S M < oo für allen; n

für\'", = hn-mXm gilt dann eャエセB@ = Ihn-mi EI X", I und LEI\ ;nl = L Ihn-mi EI X", I :S AI L Ihn-mi= AI L lhd < oo; m

rn

iZ|セL@

=I: h"_mXm mit Wk1 für allen konvergiert und

rn

rn

EI:\'",= EI: hn-w\,m =I: m

l

rn

dann folgt, daß m

m

= :Lhn-mEXm. eカセL@

m

Ü2.1-35 1) 5 2 ist bis auf dem Faktor セ@ S(o- 2 LZセIMカ・イエゥャN@

2)

ko lkln-m· 5) Hn(w) = ßne-;wn 」セHZゥI@ = Hn(w)G(w) mit G(w) = Cvv(w)- 112 , d.h.

Ji.n(w) = サjョ・セエNュᄃHキIJL@ S(w) = S(w)G(w) =

Jin,m = ß,Jin-m Sne-;wn, Sn= L YmSn-m; 1

L n

rn

Zn= L YmVn-m mit C.z.z(w) = 1 = a?_, also weiß, m

;y;

(L h=Sn-m) L = 2 L h < I az m 2

"

m

m

m

";;:

rn

mit H(w) = H(w)Cn·(w) 1 -"-.------

(L hn,mSn-m)

s;,_m = s;; =

2

-''"-"""""z==o--hc-2- n,m

S(w) = S(w)Cn(w)- 112 ist

(I I

= L

h 1 2,

1;; =

7

s;,_m

hi L

MBセ

ll(w)S(w)C-J""'J;;- ) 2

J

lfi(w) 12 ');;-

= /;,. lll(w) 12 Cvv(w) ');;-

Ü3.2-9 oo

L

1) Txx(u)=rxx(u+T)=

n=-oc

Rxx(w)=

f

Tn

n=-oo

J Txx(u)c-Jw"du= J I:

f

f

eJ(2mt/T-w)u

00

L

du=

n=-oo

f,

T

Tn 21r6(w- R Nョ@セ

TT I J rxx(ti- t2)dt1dt2 = セ@

0 0

T

J (1

-T

0

),

also Tn 2 0 für allen.

-lfJ) rxx(u) du

I lrxx(n)l du 'S 2rxx(O) < oo, existiert i.q.M.

An=

t

T

J X(t) e-;2Irnt/T dt 0

t. JT EX(t) e-J2Irnl/T dt ]セi@ T fte-J2Irnt/T dt = 6nf-lx, 0 0 TT 2 f" I I EX(ti)X(t2) c-J Ir(nlt-rnl,)/T dtidt2

3) EAn = E AnA;n =

=

ョキOt、オ[@

TnCJ( 2Irn/T-w)udu

= A.':__n.

=

QR

0

-oo n=-oo

2) \Yenn 0 'S


N

Lösungshinweise

238

exHエIaセ@

T

セ@ J rxx(t _ t') eJ2"nt'fT dt'

=

0 oo

= L

Tt

f

T

セ@ J

Tl

cJhl(t-t')/T eJ2Knt'fT dt'

0 h-oo

T

J e-J2K(I-n)t' /T dt' = r nC;hnt/T und EAn A;'" = i5n-rrJrn

eJ2KltjT セ@

1=-oo

=

folgt

0

L Anel 2"nt/TI 2 =rxx(O)- L (rn+T-n-Tn)= L Tn---+0

EIX(t)-

lni 0 kann der erste Summand < c/2 werden, wenn N hinreichend groß gegenüber N 0 ist, da die Summe überm endlich ist und La" konvergiert, und der zweite n

Summand entsprechend für hinreichend großes N 0 . N-1 lkl N-1 k 2) NVarXN = L cxx(k)(1- N) = 2 L cxx(k)(1- jy)- cxx(O) --> N --+oo

2

f

k=-N+I cxx(k)- Cxx(O) =

k=O

3) Ecxx(k) =

-Jv

= -Jv _

N-1-lkl

L

n=D

N-1-lkl

L

n=D

j_kJ '

=

-Jv

N-1-lkl

L

n::::O

k=O cxx(k) = Cxx(O).

f

k=-oo

_

_

E(Xn+lkl- XN)(X"- XN)

_ _ E[(Xn+lkl- J.Lx)- (XN- J.Lx)][(X" -!tx)- (XN- J.Lx)]

(cxx(k)

_

+ VarX N)j_kJ

_

E(X N- J.lx) -Jv

• ---r

---r

N-1-lkl

L

n=O

---r

[(Xn+lkl - ftx) +(X"- flx )] 1 lkl-1 •

N-1

n=O

n=N-Ikl

-(1- N)cxx(k)+(1- N)Var),:N-Cov(XN,2XN-jy = (1- Wlcxx(k)- (1- WJVarXN

""'(1- Wlcxx(k)- -JvCxx(O)

+ セG@

NI:Itf 1+ 1=0

n=O

L )\.n-"N1

Ni:l )cxx(n -l)

n=N-Ikl

L



),:n)

239

Lösungshinweise

unter Vernachlässigung von 2lkl Tennen der Größenordnung N- 2; enセLiォャ」クHI@ ""'cxx(k)- nセャォゥcクHoI@ =I cxx(k), falls Cxx(O) > 0, -!) Für 0:::; k1:::; k2:::; N- 1 ist c(k1, k2) = Cov(cxx(kl), i:xx(k2))

N-1-kl N-1-k,

I:

I: セLcッカHxョKォ m=O N-1-k, N-I-k 2

=

Q xョLュKォj@

n=O

I: [cxx(n + k1- rn- k2)cxx(n- rn)

I:

= NセG@

n=O

rn=O

+ cxx(n- rn + k1)cxx(n- rn- k2)]; Substitution: l = n - m, k = m, statt über Zeilen m und Spalten n wird längs der Diagonalen m = n -l und über die Diagonalnummern l summiert; mit M(l, k1, k2) = N -k 2 +l für l:::; 0, = N -k2 für 0 < l :::; k2-k1 und = N -k1-l für k2-k1 :::; l gilt N-I-k,

I:

c(k1, k2) = セG@

M(l, k1, k2)[cxx(l

l=-N+l+k,

+ k2- ki)cxx(l) + cxx(l + k1)cxx(l- k2)];

berechnet man die Summe von l = -N + 1 bis l = N - 1, so ist der Fehler eine Summe aus k 1 + k2 Summanden der Größenordnung N- 2 , also der gleichen Größenordnung; approximiert man M (l,k 1,k2)/N2 durch (N -lli)/N 2, entsteht wieder ein Fehler der Größenordnung N- 2, somit ist der Approximationsfehler von (3.3-10) von der Größenordnung N- 2 .

Ü3.3-2

1) ifx\W) =

iJ-

N-1

iJ-1 L Xne-jwnl 2

N-1N-1

iJ- L L XwYme-Jw(n-m)

n=O

N-1

N-1-lkl

k=-N+1

l=O

I:

=

I:

n=O rn=O

XLXL+Iklc-Jwk

=

N-1-lkl

N-1

I:

k=-N+1

Cxx(k)c-Jwk mit

iJ- I: X1Xt+lkl für lkl < N, l=O wobei k = n - m und l = rn substituiert wurde. N-1 2). 3) IJ:_x x-x(w) = iJ-1 I: (Xn- X)e-Jwnl 2 ist

cxx(k)

=

,

n=O

Fourier-Transformierte der empi-

rischen Kovarianzfunktion in allgemeiner Form mit IJ:_x x-x(O) = 0. -!) Unter gewissen Bedingungen gilt cxx(k) ---> 」クセHォI@ mit Wk1, das PeriodoN-->oo

gramm ist Fourier-Transformierte der empirischen Kovarianzfunktion; das Spektrum C x x (w) ist Fourier-Transformierte der Kovarianzfunktion, trotzdem konvergiert das Periodogramm nicht gegen das Spektrum, sondern unter gewissen Bedingungen nur in Verteilung gegen eine Zufallsvariable, die für 0 < w < 1!" bis den Faktor セcクHキI@ xセM verteilt ist. Ü3.3-3

S(a1, a2)

1)

I

fis äk aal

=

6

'

I: (xn + a 1xn_ 1 + a 2xn_ 2) 2 ist zu minimieren;

n=3

c - ;:::;:: - 0 , 63 , a2 = 0 (Z· = 1, 2) 1'lC1ert a1 セ@

0 , 0"9 ; az -2 =

Cxx(w) = II+ä,e J_:';ä,e J'"l'. 2) cxx(k) + a1cxx(k- 1) + a2cxx(k- 2) = gMセ@ liefert mit cxx(k) iz1 ""'

S(a, 1 "') 6 _ 2 _ 2 ;:::::::

0 , 299 ;

-2

-

=

i

6-k

= 0 und = 0 für k = 1, 2

I: XnXn+k = cxx( -k) (k = 0, 1, 2)

n=l

-o, 29, a2 ""'o, 46, ッMセ@

für k

""' o, 316.

Lösungshinweise

240

3) Die Ergebnisse aus (2.2-34) können nicht benutzt werden, da die j\[atrix X im vorliegenden Fall datenabhängig ist; auch asymptotiscl!f' Resultate wie (2.2-118) sollten nicht verwandt werden, da nur n = 6 Daten zur Verfügung stehen.

Ü3.3-4 1) Xn ist stationär , wenn Xn- Px stabil gefiltertes weißes Rauschen ist , also la 11 < l gilt. sH。セLークI@

2)

=

I

iJS iJJJ-x a 1 ,[1.x

I

=

iJS iJa 1 a 1 ,[1.x N

L

3)

{Lx セ@

N

I: (xn- Px +

n=2

BセG@

Xn +ii1

Px)JZ ist zu minimieren; 。ャHZeョセM N

= 0 Jie f ert {Lx = ョセ@

N

L

Xn+a1 2

(N

L

N

L

Xn-1

ii1 == -

l)(l+iii)

L BGセ

(x,. セ{ャNク@ R

GMmャ|ゥ@

)(xn-1 -[l.x)

_ _ _ __

L

(x,._,-[1.,]'

n=2

N

N(l+ii:t

ョセR@

N

Xn

セエ@

N

fi n=l L

=X,

Xn

ョセR@

(Ll;;:::::;

L

(xn-x)(xn-1-x)

+L

=-cxx(l)=a' Cxx(O)

iV



(xn -x) 2

n=I

!)

Xn- px ist ein AR(l)-Prozeß, so daß cxx(k) + a1 cyx(k- l) = 。セ@ für k = 0 und = 0 für k = l gilt; ersetzt man cxx(k) durch cxx(k), ergeben sich empirische Yule-Walker-Gleichungen, deren Lösungen

a1 und \ZWセ@

= ゥ P セクHoIMK@

。 Q 」セクHャI@

sind.

Ü3.3-5 l) "71 = it + 6.1 (l = 0, ... , q) erfülle möglichst genau q-k q-k cxx(k) = I: "Yt"Yl+k = I: (itil+k + :Yt6.l+k + 6.til+k + 6.t6.t+k) l=O l=O q セ@ I: itit+k + I: [im-ku(m- k) + im+ku(q- k- m))]6.m (k = 0, l, ... , q) アセォ@

m=O

l=O

für kleine 6.m mit u(x) = 1 für x 2 0 und = 0 sonst, d.h. 6.m(m = 0, 1, ... , q) ist approximativ Lösung von アセォ@

q

(*) 2)

3)

I: [:Yrn-ku(m- k) + im+ku(q- k- m)]6.m = cxx(k)- I: itit+k (k = 0, 1, ... ' q).

m=O

1=0

rb0 )=vcxx(o);r1(o)=o

(l=1, ... ,q); iteriere (i = 0, l, 2, ... ) bis Konvergenz oder i = i 0 löse(*) für im= イAセI@ nach 6.m = 6.!;} (rn = 0, 1, ... ,q); (m = o, 1, ... , q). r)!,+tJ = 1gJ + VNセH@ Fürq=2ist(*)

:Yi)

2io 211 212) ( 6.o) ( cxx(O)- ゥセM if( ?1 io+i2 ?t 6.1 = セクHQIM_jッゥRャ@ ; /2 0 lo 6.2 cxx(2)- 12/o mit cxx(O) = 2, 25, i:xx(1) = -1, 5, cxx(2) = 0, 5 liefert der Algorithmus aus 2) rb4 J = 1, 00058, rl 4J = -o, 9999, セj@ = o, 4994; z 2 C(z) = z 2

2

ォ]セR@

I: cxx(k)z-k = セM

hat die ;'\ullstellen z1,2 = セHQ@ ± j), so r(z)ho = (z- zJ)(z- z2) = z 2

セコ@

+ 2, 25z 2

= 1 ± j; also z+

Z3,1 -

-

1,

3 + 4z "

セコ

Q@

= 0

= セ[@ = 1, bt = -1,

lzd 2

bo

b2

=



241

Lösungshinweise

15 = c'xx(O)/(l + bf + 「セI@

= l = G-3:, i'o = l, 1'1 = i'obi = -1, 1'2 = i'oh2 = セN@ also konvergiert die \Vilson-IteriPrte in diesem Falle zur minimalphasigen Lösung. Ü3.3-6

Jls

N

2.:: ±nYn mit QN

= qセNャ@

N

2.:: ±n±;, minimiere SN(il) über tl;

=

n=r

r.·-1

L ±"Yn + ±NYN) iLv = Q!V1( n=r = J2_N-1 + (Q!V1QN-1- Q!V 1QN)J2N-1 + Q!V 1±NYN = l)_S-1 + Q!V 1±N(1JN- ±'rvJ2N-1); sei ls.N = Q!V1±N, dann Jipfert das Matrixinversionslemma Q;.1 = (QN-1 + ±N±:vl- 1 = Qt/-1- (1 + ±'rvQN1__1±N)- 1QN1__1±N±'rvQN1__1, /s.v = QNI__1±N- (l + ±'rvQNI__1±N )- 1QN1__1KN±'rvQ!Vl__1KN, also h = (l +:r:vQN1__1±N)-IQN1__1KN, Jls = it_N-1 + Js.N(1JN- ±'rvit.N-1), QN 1 = QN1__1 -Js.N±'rvQNI__I. Ü3.3-7 und Y(t) stationär; l) :\lit X(t) sind U(t), セGHエI@ wenn EX(t) = !Lx. so EU(t) = !LxHRp(O) = 0, Cuu(w)

EC(t) 2 = cuu(O) =

1r

I

-n

wo+JTB

= 21 2 I cオHキIセ@

wo-7TB

= iHBP(wWCxx(w),

セ@ cクHキIセ@

qt) = U(t) 2 ,Jt 1• = EV(t) = EU(t) 2 , = EY(t) = !LI-HI(O) = cuu(O) セ@ 1 2 2BCxx(wo), J cョHキIセ@ cn(O) VarY(t) 4), 5)

2). 3)

12

JLY

21 2 BCxx(wo).

=R

KjT

I

0

セ@

cカャGHキIセ@

J Cuu("-'- v)Cuu(v)du,

also

-00

n/T oo

\'arY(t) = :}, 1 KT



cョᄋHキIセL@

Cn-("-') =

--

J QhイーHキIi

-1T

-1T

2

セN@

I I 0

Cuu("-'- v)Cuu(v)dvd"-' セ@

oo

I kセ@

I IHBP (w )14 Cxx (w)2 d"-'. 00

-oo

2 4 21rBCxx ( Wo KTI

セ@

Cuu(w) 2 dw

-00

-00

( Wo )2., I BTCxx

)2 --

die Rauschleistung am Ausgang der Schaltung ist umgekehrt proportional zum ZeitBandbreiteprodukt BT.

Ü3.3-8

EC..,\_.'\·(w) 0

l) =

セQM

2m+l

:;'; セ@

k=-Tn

EC XX (Wo, ) -_ 2)

= セQM _L セRWイ@ I

h

f

2m+l k=-m

EIN

.en(k+k(wo))) N

X.X

--(v)l.I!::"N(2K(k+k(wo)) In C XX N N

-n

JC

-K

1 ( ) N(2rn+1)

XX V

f

k=-m

v)l2dv

'

also

I!::"N(2K(k+k(wo)) N

-V

Wd V.

Beispielsweise muss Cxx(w) in einer Umgebung von w0 ungefähr linear verlaufen

Lösungshinweise

242

und 27rk(wo)/N--+ w0 sowie m/N--+ 0 für N--+ oo gelteiL 3) Wenn Cxx(w) in einer Umgebung von wo mit 0 < w0 < 1r ungefähr konstant R BHォK[キッI@ verläuft, sind jセクH (lkl = 0, 1, ... , m) asyrnptotisch für große N stochastisch unabhängig und identisch, bis auf den Faktor セcク@ x (wo) クセMカ・イエゥャN@

Ü3.3-9

1) Sei g(y) differenzierbar mit der Ableitung g'(y), dann g(y);:::; g(y0 )+g'(y0 )(y-yo): sei Y eine Zufallsvariable, für die EY 2 und E(g(Y) )2 und damit auch EY, Eg(l"), \'ar} · und Varg(Y) existieren; dann Eg(Y);:::; g(EY) + g'(EY)(EY- EY) = g(EY) und Varg(Y) = E(g(Y)- Eg(Y)) 2 ;:::; E(g(Y)- g(EY)) 2 ;:::; g'(EY) 2 E(Y- EY) 2 = g'(EY) 2 VarY. 2) Wenn Cxx(w) > 0, ist Cxx(w) > 0 mit großer Wahrscheinlichkeit; mit Y = Cxx(w), g(y) = 10lgy und g'(y) = QP セァ・@ ist ElülgCxx(w);:::; lülgCxx(w) und 2 • • 2 VarlülgCxx(w) ;:::;,(IOI g e)· 2 VarCxx(w);:::; f(10lge) ,

"

(ECxx(w))

z.B. bei MitteJung von Periodogrammen L aufeinanderfolgender Datenstücke. 3) Für 0 < w < 1r,O 0

243

M = 3: v;3 = Volumen{(s 1 , s 2 ): 0::; 8t ::; s2::; 1, r::; s 1 ::; ±+ r, セM r::; s2 ::; セ@ + r} = 4r 2 für 0::; r::; = 4r 2 - H(± + r)- HセM rW für k < r::; =(±+r) 2 -W±+rJ-(i-rJF für ᄆ\QᄋZ[セ@ und ]セヲイ@ イ^セL@ P{R::;r}=2v3. 4) :-..Ian zeichnet die Geraden y = x ± Tu,M ins Einheitsquadrat; wenn alle Punkte (fr, sk) (k = 1, ... , M- 1) innerhalb des durch die Geraden definierten Streifens liegen, akzeptiert man die Hypothese der Konstanz des Spektrums mit der Irrtumswahrscheinlichkeit a:, anderenfalls verwerfe man die Hypothese. 5) Der Test aus 4) wird auf die formgefilterten Periodogrammwerte Ifx e;/J/ Je;/J aufgewandt.

±-

Ü3.3-11 1) セG[L@ =

±,

L hmXn-rn + m

k,

2:gm}';,_m ist stationär i.w.S., also cvv(k) = Cov(Vn+k• Vn) = m

L [hmhlcx x (k-m+l)+grnglcyy (k-m+l) +hmglcxy (k-m+l)+gmhlcY x (k-m+l)] und m.l das Spektrum Cvv(w) = Cvv = IHI 2 Cxx+IGI 2 Cn+HG*Cxy+GH*CY);, wobei H und G die Cbertragungsfunktionen sind, d.h.

0::; Cvv =(HG) ( Cxx Cxy ) ( H: ) ;

Cyx Cn G hermitesch und damit die komplt>xwert.ige (2 X 2)-Nlatrix ist wegen Cxy = 」[セク@ nichtnegativ definit; die Determinante einer nichtnegativ definiten Matrix ist nichtnegativ: CxxCyy- ICYxl 2 ;:: 0; dies kann man auch mit dem reellen Vektor (ReH, ReG, ImH, ImG)' und einer entsprechend aufgebauten, reellen (4 x 4)- Matrix nachweisen. 2) Varlfx(w) = Elln- Elyxl 2 = Ellnl 2 -1Cnl 2 = セLeiHr・スG@ + jlmY)(ReX- jlmX)I 2 -ICnl 2 = E[(ReY) 2 + (ImY) 2 ][(ReX) 2 + (ImX) 2 ] - (ReCn ) 2 - (ImCn ) 2 = :Jl2(Cn,Cxx + 2(ReCn-J2) + 2(CyyCxx + 2(ImCyx) 2 ) ] - (Rt>Cn) 2 - (ImCn )2 = CyyCxx, wobei auch noch die i\'otation des oberen Index N weggelassen wurde. 3) Cov[(IJYx(w),Ifx(w)] = Elnfxx- CyxCxx = ,\1, E(ReY + jlmY)(ReX- jlmX)(ReX + jlrnX)(ReX- jlmX)- CnCxx = ±[2(3ReCnCxx + ReCnCxx) + j2(3Im CnCxx + ImCnCxx)] - Rt>C1'xCxx- jlmCyxCxx = CyxCxx·

f'

Praktikum Dieses Praktikum ist eine wirhtige Ergänzung zu den Übungen, die dem Leser Pinen Einblick in die Anwendung der Theorie stochastischer Signale vermittelt. Dazu werden numerische Aufgaben gestellt, die mit Hilfe von vektororientierter Programmierung und Rechnerexperimenten gelöst werden sollen. Die Aufgaben behandeln einige der im Burh vorgestellten statistischen Signalverarbeitungsverfahren, die vorn Leser zu implementieren und zu testen sind. Ein wichtiges V/erkzeug der Signalverarbeitung ist :\L\TLAB 7 . Diese leistungsfähige und komfortable Interpretersprache eignet sich hervorragend zur Lösung vektororientierter Problemstellungen, wie sie in der Signalverarbeitung häufig anfallen. Im Gegensatz Zll anderen Programmiersprachen wie Fortran, C oder Pascal kann man sich direkt auf die Lösung des eigentlichen Problems konzentrieren, da MATLAB eine umfangreiche Funktionsbibliothek besitzt, vektororientiert arbeitet und graphische Ausgaben sehr gut unterstützt. Das Praktikum wird in einer vergleichbaren Form schon seit Jahren als Grundlagenpraktikum im Vertiefungsgebiet Signaltheorie der Ruhr-Universität Bochum angeboteiL Dort wird eine erfolgreiche Teilnahme an der Vorlesung "Grundlagen der Signaltheorie" vorausgesetzt und auch als notwendig angesehen. Leser, die dieses Buch zum Selbststudium nutzen, sollten deshalb erst dann mit dem Praktikum beginnPn. wenn sie die in der Vorlesung vorkommenden Abschnitte des Buches (s. Vorwort) gelesen, im wesentlichen verstanden und entsprechende Cbungen zu rechnen versucht habeiL Teile dieses Stoffes werden im Laufe des Praktikums benötigt und durch die numerischen Aufgaben weiter vertieft. Zur Vorbereitung auf das gesamte Praktikum übe der Leser die grundlegenden Befehle und die Syntax von :\IATLAB. Dazu findet r weiter hinten eint> kurz Einführung und kann sich dann mit Demonstrationsbeispielen. die in MATLAB vorhanden sind, beschäftigen. Nachdem der Leser sich in die MATLAB Syntax eingearbeitet hat, kann r mit dem ersten Versuch beginnen. Dabei ist zu beachten, daß dessen Umfang zwei Sitzungen entspricht. Alle folgenden Versuche sind in Pincr Sitzung zu bewältigen. Die Versuche sollten in der Reihenfolg durchgeführt werden, wie sie im Buch angeordnet sind, da sich dt>r Schwierigkeitsgrad fortlauft>nd erhöht und trilweise auf Ergebnisse vorangegangener Versuche zurückgegriffen wird. Der erste Versuch behandelt Zufallsvariablen und stochastische Prozesse. Dabei wird auf Begriffe wie Erwartungswert. Varianz, Verteilungsfunktion und deren Schätzungen eingegangen. Hierauf baut der zweite Versuch auf, der sich mit der Transfonnation von Zufalls\'ariablen befaßt. EilW Möglichkeit zur Anpassung von Signalmodellen an rcall' DatPn ist das Schätzen mit kleinsten Quadraten. Dieses Verfahren wird ausführlich im dritten Versuch behandelt und im darauffolgenden Versuch mit anderen Verfahren verglichen. Das Thema des vierten Versuches ist die Schätzung der Parameter einps AR(p) Prozpsses. Als niichstrs wird die Diskrete Fourier-Transformation innerhalb dPr Versuche 5 und 6 gründlich untersucht. Dabei werden unter anderem Aufgaben iibPr SpiPgelfrequenzPn. Cberlap7 l'v!ATLAß

ist ein cing;ctragencs Warenzeichen von The 1\Iath\Vorks lnc.

P.l

Zufallsvariable und Zufallszahlen

245

pungseffekte und Fensterung zn lösen sein. Die letzten beiden Versuche beschäftigen sich mit der nichtparametrischen Spektralanalyse. Dort werden Periodogramme behandelt. insbesondere aber Methoden untersucht, die die statistischen Eigenschaften von Periodogrammen verbessern. Im folgenden wird auf die Struktur eines Versuches eingegangen. Dieser besteht aus einem Vorbereitungsteil und dem eigentlichen Versuch arn Rechner. Die Vorbereitung dient zur Wiederholung der für den Versuch notwendigen Theorie. Dabei werden jeweils einige Grundbegriffe erklärt und auf Textstellen im Buch verwiesen. Außerdem sind dort dem Versuchsthema entsprechende Fragen zu beantworten. Urn den Versuch am Rechner in einer angemessenen Zeit durchzuführen, sollten diese Fragen selbstständig beantwortet werden. Studenten, die das Praktikum als Teil ihrer Prüfungsleistungen durchführen, müssen alle Fragen beantwortet haben, bevor sie mit der Arbeit am Rechner beginnen dürfen. Möglicherweise benötigte Hilfe können Praktikanten von einem Versuchsbetreuer erhalten. Am Rechner sind schließlich die verlangten eigenen :\IATLAB-Programme zu erstellen und numerischen Experimente durchzuführen. Eine Gruppe von drei Studenten muß zu jedem Versuch ein Protokoll abgeben, das die schriftlichen Antworten zu den vorbereitenden Fragen, die selbst geschriebenen Funktionen und ihre Ergebnisse enthält. Das Praktikum wird als "mit Erfolg teilgenommen" bewertet. wenn alle 8 Versuche korrekt durchgeführt worden sind. Das Praktikum wird auf einem PC mit Windows 3.1 und fv!ATLAB 4.2 einschließlich Signal Processing Toolbox durchgeführt. Es kann jedoch ohne Änderungen auf jedem PC mit l'v!ATLAB fiir Windows ab Version 4.0 durchgeführt werden. Für andere Systeme bzw. Versionen von MATLAB wird auf das entsprechende Handbuch verwiesen. Zur Unterstützung der Leser, die dieses Praktikum in Form eines ums durchführen, wird eine vVvVW-Seite mit Musterlösungen angeboten. können allerdings keine Hinweise zum Lösungsweg entnommen werden. se lautet "http:/ jwww.sth.ruhr-uni-bochum.de". Fragen zum Praktikum Email an LキHヲセウエィNイオMョゥ「ッ」ュ、・B@ gerichtet werden.

P.l P.l.l

SelbststudiDieser Seite Ihre Adreskönnen per

Zufallsvariable und Zufallszahlen Vorbereitung

Ein YOm Zufall beeinflußtes Versuchsergebnis in einem Zufallsexperiment wird Elementarereignis E, genannt. Mit n bezeichnet man die Menge aller Elementarereignisse. Ereignisse A. sind Teilmengen von n und Elemente einer Ereignisalgebra A. Ereignisse A. E A werden mit Hilfe einer Wahrscheinlichkeit P durch eine reelle Zahl P(A) E [0, 1] bewertet. Die Funktion P besitzt ähnliche Eigenschaften wie die relative Häufigkeit H N bei einem )I .. fach wiederholtem Experiment. Eine Zufallsvariable X ist eine Abbildung,

246

Praktikum

E [l eine Zahl X(O E IR zuordnet. Für ein ヲ・ウエセ@ heißt die jedem eャ・ュョエ。イゥァウセ@ X (0 Realisierung von X. Für jedes x E IR ist {X ::; :r:} = {セ@ : xHセI@ ::; x} ein Ereignis aus A, mit dessen Wahrscheinlichkeit man die Verteilungsfunktion Fx von X durch x -+ Fx(x) = P{X ::; x} definiert. Sie beschreibt die stochastischen Eigenschaften einer Zufallsvariable. Eine nichtnegative reelle Funktion fx, deren bestimmtes Integral im Sinne von (2.1-57) die Verteilungsfunktion Fx ergibt, heißt Dichte von X. Für eine eine Dichte. Eine Zufallsvariable differenzierbare Funktion Fx liefert fx(x) = 、ZセクI@ kann u.a. gleichverteilt oder normalverteilt sein mit Dichten und Verteilungsfunktionen wie in B2.1-14 und B2.1-17. Zufallsvariablen X und Y oder auch X 1 , ... , XN für ein N 2 2 können über [l definiert werden, deren gemeinsame Verteilungsfunktion wie in (2.1-97) bestimmt und dabei die Vektorschreibweise K = (X 1, ... ,XN)' benutzt wird. Entsprechende Dichten sind nichtnegativ und erfüllen (2.1-87) bzw. (2.1-88). Wenn xl' ... 'XN stochastisch unabhängig sind, faktorisieren sich die Verteilungsfunktion und Dichte entsprechend (2.1-99). Sind X 1 , ... , XN stochastisch unabhängig und identisch mit der Dichte fx verteilt, betrachten wir (X 1 , ... , XN) als Modell für eine Stichprobe eines N-fach wiederholten Experimentes für eine Zufallsvariable X. Beispiel B2.1-18 zeigt die Dichte des Modells einer normalverteilten Stichprobe. Eine Stichprobe ist dann die Realisierung (:r: 1, ... ,xN) = Hx Q HセIL@ ... LxnHセI@ mit der wir die Realisierungen einer Zufallsvariable X bei einem N-fach wiederholten Experiment auf andere Art beschreiben. Ein Histogramm der Stichprobe im Sinne von Abb. 2.1.2 liefert eine Vorstellung vom Graphen der Dichte f x, was allerdings unter gewissen Umständen sehr ungenau sein kann. Es ist besser die relative Häufigkeit Hn{X::; x} aufzutragen und dadurch die Verteilungsfunktion zu schätzen. nHn {X ::; x} ist binomial verteilt und konvergiert deshalb nach dem Satz von Bore! in B2.1-35 für n-+ oo mit Wk1 gegen die Verteilungsfunktion. Wenn (X, Y) die bivariate Dichte fxx besitzt, als Beispiel diene die bivariate Normalverteilung in B2.1-19, so ist das :\lodell einer entsprechenden Stichprobe (X 1 , Y1 ), ... , (XN, Y:v ), wobei die Paare stochastisch unabhängig voneinander und identisch mit der Dichte fx,Y verteilt sind. Aus einer Realisierung (xl' YJ), ... ' (xN, YN) kann man in analoger vVeise ein Histogramm über der (x, y)-Ebene konstruieren, um die Dichte zu approximieren. Wiederholen Sie den entsprechenden Stoff der Abschnitte 2.1.1 1) bis 3) und 5) bis 7).

Der Erwartungswert f.lx = EX einer Zufallsvariablen X, der für eine große Anzahl von Wiederholungen eines Zufallsexperimentes einen "Durchschnittswert" von X repräsentiert, ist bei Zugrundelegen einer Dichte fx durch (2.1·138) definiert. Allgemeiner wird der Erwartungswert einer reellen Funktion g(X) eines Zufallsvektors X= (X 1 , . . . ,XN)' in (2.1 149) festgelegt. Die Varianz o} = VarX nach (2.1-160) ist ein Beispiel. Andere Beispiele sind die Kovarianz Cov(X, Y) zweier Zufallsvariablen X und Y und deren Korrelationskoeffizienten e(X, Y), vgl. (2.1-164)ff und (2.1-170). Ist (X 1 , ... , XN) Modell einer Stichprobe, so sind der セャゥエ・A@ wert X und die Streuung 5 2 nach (2.1-182) und (2.1-187) andere Funktionen von Zufallsvariablen, deren Erwartungswerte und Variauzen für die Normalverteilung bekannt sind. Wiederholen Sie hierzu die Abschnitte 2.1.2 1) und 2). Ein diskreter stochastischer Prozeß Xn (im folgenden wird das vVort "diskret" weggelassen, da im Rahmen des Praktikums keine anderen stochastischen Prozesse mehr

P.l

Zufa.ll.svariable mul Zufo.ll.szahlen

247

interessieren) ist eine Familie von Zufallsvariablen mit n E Z. Für ein festes Elemenエ。イ・ゥァョウセ@ ist n -+ :rn = Xn(O eine Realisierung, d.h. ein deterministisches Signal. Ein fpstes n liefert die Zufallsvariable セ@ -+ xョHセIL@ also X 11 • Die stochastischen Eigenschaften eines stochastischen Prozesses werden durch die Verteilungsfunktionen oder die Dichten jeder Zufallsvariable Xn, jeden Paares (Xn,, Xn,) usw. festgelegt. So kann man den deterministischen Anteil von X 11 durch n -+ {tx(n) = EXn und die Ko\·arianzfunktion durch (n 1,n 2 )-+ cxx(n 1 ,n 2 ) = Cov(XnpXn,) definieren, wobei die Dichten fx(:r;n) von Xn und fx(x 1 ,x 2 ;n 1 ,n 2 ) von (XnpXn,) wie in (3.1-5) bzw. (3.1-7) verwendet werden. Stationäre Prozesse sind stochastische Prozesse, deren Verteilungseigenschaften nicht von der vVahl des Zeitursprunges abhängen. Für sie muß der deterministische Anteil konstant, also ein Gleichanteil sein. Die Kovarianzfunktion kann dann nur über ln 1 - n2 1von n 1 und n 2 abhängen, und man definiert in diesem Fall cxx(k) = Cov(Xn+b Xn)· Die Fourier Transformierte der Kovarianzfunktion cxx(k) im Sinne von (3.1-57) heißt Spektrum Cxx(w). Zwei stochastische Prozesse behandelt man entsprechend. Sind sie gemeinsam stationär, definiert man neben den Gleichanteilen flx und Jlr·, Kovarianzfunktionen cxx(k) und cyy(k) auch deren Kreuzkovarianzfunktion Cyx(k) = cッカHスセLK「xョI@ usw. vVeißes Rauschen Zn ist ein stationärer Prozeß, der aus stochastisch unabhängigen und identisch verteilten Zufalls\·ariablen besteht und dessen Eigenschaften in !33.1-4 näher beschrieben werden. Sind die Zn normalvcrtcilt, spricht man von Gaußsehern weißen Rauschen. vViederholen Sie die entsprechenden Absätze der Abschnitte 3.1.1 und 3.1.2. Ein Zufallsgenerator ist eine Rechenvorschrift zur Generierung sogenannter PsEUDOZUFALLSZAHLEN oder kurz ZUFALLSZAHLEN (eng!. random numbers). Häufig werden rekursive Algorithmen der Art :rn = f(xn-J) verwendet, um die Zufallszahl :Cn aus der \"Orangegangenen Zufallszahl Xn- 1 zu erzeugen. Somit ist bei einem vorgegebenem Startwert x 0 (eng!. seed) die Folge der generierten Zufallszahlen, die ZUFALLSFOLGE genannt wird, eindeutig festgelegt und reproduzierbar. Die so erzeugten Zufallszahlen sind nicht wirklich zufällig. Sie verhalten sich jedoch in bezug auf bestimmte Kriterien wie ,,zufällige Zahlen", so daß sie häufig als eine Realisierung von weißem Rauschen angesehen werden. I3ci Rechnerexperimenten verwendet man Zufallszahlen, um analytisch nicht erfaßbare Effekte in physikalischen Beobachtungen wie Rauschen oder zufällige 1\leßfehler simulieren und so das Verhalten der diese Effekte modellierenden Zufallsvariablen studieren zu können. Es ist möglich, Zufalls:tahlen mit bestimmten \'erteilungseigenschaften zu generieren. In MATLAI3 können gleich- und normalverteilte Zufallszahlen mit den MATLAB-Befehlen rand bzw. randn erzeugt werden. ZufallsvariablPn und stochastische Prozesse sind nur :Vlodelle zur Beschreibung physikalischer Phänomene. Begriffe wie Dichte, Erwartungswert, Kovarianzfunktion, Spektrum usw. dienen der Charakterisieruug des physikalischen Vorgangs und sind in der Praxis meistens unbekannt. Hat man jedoch eine Meßreihe .r 1 , ... , :r N des physikalischen Vorgangs, die wir als Stichprobe für eine Zufallsvariable X oder als Stück einer Realisierung eines stochastischen Prozesses X" auffassen, so können die oben genannten Größen geschätzt werden. Für einen Parameter i) wie den Erwartungswert flx benötigt man eine Schätzfunktion iJ, um aus der Meßreihe eine Schätzung iJ(x 1 , ... , XN) wie den :Vlittelwert x = 1; iZセ]ャ@ Xn zu erhalten. Entsprechend schätzt man die Varianz durch

Pmktzkurrr

248

I::=

die Streuung s 2 = nセエ@ 1 (xn- x) 2 . Die Eigenschaften der entsprechenden Sdliüzer X und 5 2 bei einer normalverteilten Stichprobe wiederholen Sie beim Nachlesen von Abschnitt 2.2.1 1). \Nenn die :V!eßreihe x 1 , ••• , 1:N schließlich eine Realisierung eines stationären Prozesses Xn mit dem G Ieichanteil J1 x = EX" und der Kovarianzfunktion cx x ( k) = E(Xn+k- Jl.x )(Xn- Jlx) ist, so schätzt man den Gleichanteil auch durch den l\littelwert x und die Kovarianzfunktion durch die empirische Kovarianzfunktion

- (kl -_ C:rx

1

1 N-lkl

-1V

2:::

n=l

(x"+ k 1

1

-

x)(xn -

lkl = 0, 1, ... , N-

xl

1

(P.1-1)

sonst.

0

Die empirischen Funktionen sind während des Praktikums immer Schätzungen und werden eieshalb durch kleine Buchstaben gekennzeichnet. Im Buch sind die empirische Funktionen sonst Schätzer. Diese besitzen also den gleichen Namen, man erkennt sie aber anhand der großen Buchstaben. \Nenn bekannt ist, daß px = 0, wird Y in (P.1-1) weggelassen. Eine Schätzung mit häufig geringerem systematischen Fehler erhält man bei Verwendung der MODIFIZIERTEN EMPIRISCHEN KOVARIANZFUNKTION i'xx(k), die sich von (P.1-1) dadurch untnscheidct, daß der Faktor durch nセャォ@ ersetzt wird. Das kleinere Bias wird jedoch durch eine erhöhte Varianz des entsprechenclrn Schätzers erkauft. Sind 2: 1 , ... , x N und y 1 , ... , YN gleichzeitig gemessen und werden sie als Realisierungsstücke von gerneinsam stationären Prozessen Xn und Qセ@ gesehen, so wird die Kreuzkovarianzfunktion durch die empirische Kreuzkovarianzfunktion

t

Cyx(k)

=

1N 1

1 'V

J

N-k

L

n=l

Yn+k·Tn

セ@

L Yn+kXn n=-k+l

0

k

=

0, 1, ... , N- 1

k=-N+1, ... ,-1

(P.1 2)

sonst

geschätzt. Mit Cyx(O) schätzt mannicht nur die Kovarianz カッョスセL@ und X" für beliebiges n, sondern auch die Kovarianz von bivariat verteilten Zufallsvariab!Pn X und Y. wenn die gemessenen Daten als Stichprobe (.T 1, yt), ... , (:rn, :tfn) für (X, Y) aufgefaßt werden.

P.l.l-1 Gleichverteilung Geben Sie die Dichte, die Verteilungsfunktion, den Erwartungswert und die Varianz einer auf dem Intervall [a, b] gleichverteilten Zufallsvariablen X au. P.l.l-2 Normalverteilung Geben Sie die Dichte und die Verteilungsfunktion einer N(p, a 2 )-vert.eilten Zufallsvariablen X an. \Vie kann man die \Verte der Verteilungsfunktion bei gegPbenen 11 und a 2 aus der Tabelle für die StandarclnormalvertPilung in Anhang A.3.1 gewinnen?

P.l

ZufalLsva:riable v.nd Zv.jallszahlen

249

P.l.l-3 Schätzen der Verteilungsfunktion \Yclche Vorteile hat eine Schätwng der Verteilungsfunktion gegenüber einer Schätzung der entsprechenden Dichte" P.l.l-4 Bivariate Normalverteilung Geben Sie die Dichte fxy(x, y) und die charakteristische Funktion 0, :r, > 0 und Z, > 0. \Varum werden die ;vreßfehler multiplikativ angenommen? Schätzen Sie dann die Parameter a und b, sowie die Varianz des Meßfehlers nach der Linearisierung. \Vie groß muß hier die Anzahl N der Beobachtungen mindestens sein? Das Exponentialmodell wird durch 1; benpunkte auch für dieses Modell durch.

=

abx, · Z, definiert. Führen Sie alle Aufga-

P.3.1-3 Sinusmodell Bei dem Sinusmodell Y, = asin(x;+b)+Z, sind Amplitude a und Phase b unbekannt. Lincarisiercn Sie das 1\Iodell. P.3.1-4 Nichtlineare KQ-Anpassung an einen Kreis Gegeben sei eine Anzahl von Punkten { (:r" y,) : i = l, 2, ... , N} in der .T-y-Ebene, an die ein Kreis mit unbekanntem Radius r und unbekanntem Mittelpunkt (.To, y0) augepaßt werden soll. Das Modell für die Beobachtungen lautet

V(:r;- :ro) 2

+ (y,- YoF

=

r,

=

r + z"

(P.3 2)

wobei r; den Abstand zwischen dem 'i-ten Meßpunkt (1:" y,) und dem Mittelpunkt (.r 0 , y0 ) und z, den Fehler des Radius bezeichnet. \Vie lauten die Surrune der Quadrate der ':lleßfehler S(:r 0 , y0 , r) und die notwendigen Bedingungen zu deren Minimierung? Ist das resultierende Gleichungssystem analytisch lösbar? Begründen Sie Ihre Antwort. :'\ennen Sie eine :-.Iethode zur numerischen Lösung dieses Gleichungssystems.

P.3.1-5 Linearisierte KQ-Anpassung an einen Kreis Angenommen der ungefähre Mittelpunkt (i 0 , y0 ) des Kreises aus Aufgabe P.3.l-4 ist bekannt, dann kann die Funktionr·,(x 0 , y 0 ) in eine Taylor-Reihe an der Stelle (:c 0 , :ij0 )

Praktikum

256

entwickelt werden. Durch die Approximation

V(:r,- :ro) 2

r,(1:o, Yo) ;::::;

.- .-) Yo

r; (Xo,

+

r,(io, Yo)-

+ (y,- Yol" Dr,(.ro, Yo) I (.Xo 0 :ro (io.iio)

.- ) + iJr,(:ro, Yo) I 0

- Xo

Yo

(io.fio)

:r(-- セ P I@ (:ro- i:o)- r,セM :ro,.IJoセ P I@ (Yo- Üo)

r, .ro,Yo

(Yo - ..1/o -) (P.3-3)

erhält man ein neues :Vlodell für den Fehler

_ _

Z;=Ti-r=r,(xo,Yo)-

c-

:r, -

:J:o

_

y, - Yo (

- )

_)(xo-xo)- (- -) Yo-Yo -r, r, Xo, Yo r, :ro, Yo

(P.3--I)

das nun linear in x 0 und y0 ist. Formulieren Sie das l'vlinimierungskriterium für das linearisierte l'dodell. Bestimmen Sie die KQ-Schätzungen i 0 , iJ 0 und f aus { (.r" y,) : i = 1, 2, ... , N}. Die gewonnene KQ-Schätzung ist nur so gut wie die Anfangsschätzung des l\littelpunktes (i 0 , y0 ). Sie läßt sich verbessern, indem die neu berechnete KQ-Schätzung (i 0 , .1)0 ) an Stelle Yon (:1: 0 , y0 ) eingesetzt und die oben besc-hriebene Prozedur wiPclerholt wird. Geben Sie zwri verschiedene Kriterien für den Abbruch dieser itrrativrn Prozedur an.

P.3.2

Versuche am Rechner

P.3.2-l Erzeugen von Daten Es werden nun Daten für vier verschiedene Signalmodrlle erzeugt. Generieren Sie dazu eine auf [0, 1] gleichverteilte Zufallsfolge x1 und eine standardnormalverteilte Zufallsfolge z1, jeweils im Umfang von 100 Werten. Setzen Sie in beiden Fällen vorher den Startwert auf 0. Geben Sie nun in l\IATLAB der Reihe nach folgende BefehlP ein: x=x1*5+2 ; z=z1*sqrt(0.004) ; xy1=[x exp(1+x*0.6+z)]; x=x1*4*pi ; z=zhsqrt (0. 05) ; xy2= [x 2*sin (x+1) +z)]; x=x1*5 ; z=z1 ; xy3= [x -0. 6*x NセSKP@ 9*x .'2+3*x+4. 5+z]; x=x1*5 ; z=z1*sqrt(0.004) ; xy4=[x exp(0.3+log(x)*0.5+z)]; x=x1*2*pi ; z=z1*0.5+6 ; xy=[z.*cos(x)+4 z.*sin(x)+2]; save dat3_1 xy1 xy2 xy3 xy4 save dat3_2 xy P.3.2-2 Modellzuordnung Laden Sie den Datensatz dat3_1, der vier 100 x 2 Matrizen xy1, xy2, xy3 und xy4 enthält. Die zwei Spaltenvektoren jeder l\latrix entsprechen den Beobachtungen :r, und y; eines bestimmten Signahnodells. Stellen Sie die Daten jeweils in einem Diagramm dar und ordnen Sie jeder l\Iatrix ein l\!odell zu. (Hinweis: Bei der modellmäßigen Zuordnung kann die Tatsache berücksichtigt werden. daß sich lnq(.r) beim Potenzmodell wie eine logarithmische Funktion verhält, während lnq(x) beim Exponentialmodelllinear voll :r abhängt.)

P.4 p。ュイョ・エセᄋウ」ィ¦コオァ@

bei AR(p) Proze8sen

257

P.3.2-3 kqセs」ィ¦エコオョァ@ verschiedener Modelle Schätzen Sie jeweils die Parameter a,b und die Varianz der :VIeßfehler 。セ@ der linearisierten r-.Jodelle, d.h. des Exponential-, des Potenz- und des Sinusmodells. Schreiben Sie dazu eirw Funktion kq, das diese drei :\ilodelle und das Polynommodell bei vorgegebener Ordnung behandeln kann. P.3.2-4 Ordnung des Polynoms schätzen Schätzen Sie die Ordnung p des Polynommodells. Daw tragen Sie die geschätzte \'arianz gegen p = 1, 2, ... , 10 auf. \Vählen Sie diejenige Ordnung, die die kleinste \'arianz liefert, als die korrekte Polynomordnung und schätzen dann die Parameter a, für i = 0, 1, .. . ,p. P.3.2-5 Vergleich Beobachtungen und geschätztes Modell Stellen Sie jeweils die Beobachtungen eines Modells { (x;, y;) : i = 1, 2, ... , N} und die entsprechende, rekonstruierte Modellkurve {(x;, g(:r,)) : i = 1, 2, ... , N} in einem Bild dar. P.3.2-6 kqセaョー。ウオァ@ an einen Kreis: Mittelpunkt abschätzen Laden Sie den Datensatz dat3_2, der eine 100 x 2 'vlatrix enthält, die die Koordinaten von 100 Meßpnnktenpnnkten in der x--y-Ebene speichert. Lassen Sie sich die 'vleßpunkte anzeigen und lesen Sie darans die Koordinaten des nngefähren Mittelpunktes ab. P.3.2-7 kqセaョー。ウオァ@ an einen Kreis: Iteration Führen Sie eine KQ-Schätzung durch, wie sie in P.3.1-5 beschrieben ist. Betrachten Sie den geschätzten :\littelpnnkt als verbesserten Startwert und wiederholen Sie die KQ-Schätznng solange, bis ll(i:o(k), fi 0 (k)) セ@ (i: 0 (k セ@ 1), :i)0 (k セ@ 1))11 < 10- 10 erfüllt ist. (io (k). fio (k)) ist die k--te KQ--Schätznng des Mittelpunktes. Schreiben Sie dazu eine Funktion kq_kreis, die die Iteration durchführt. Stellen Sie den rekonstruierten Kreis und die 'vleßpunkte in einem Diagramm dar. P.3.2-8 kqセaョー。ウオァ@ an einen Kreis: Konvergenz Konvergiert diese :\lethode auch, wenn die Anfangsschätzung des 'vlittelpnnktes sehr schlecht ist? Probieren Sie es ans, indem Sie Ihrer Funktion kq_kreis absichtlich eine sehr schlechte Anfangsschätzung des :\littelpunktes übergeben. Erklären Sie Ihre Beobachtungen.

P.4 P.4.1

Parameterschätzung bei AR(p)-Prozessen Vorbereitung

Stabil rekursiv gefiltertes weißes Rauschen nennt. man einen autoregressiven Prozell der Ordnung p, kurz AR(p)-Prozeß, wenn er durch die Differenzengleichung (3.2-82)

Praktikum

258

gekennzeichnet ist. Liegen die Wurzeln der charakteristischPn Gleichung (3.2-80) des rekursiven Filters innerhalb des Einheitskreises, so ist die Stabilität gesichert. Der AR(p )Prozeß ist dann stationär. Die Filterkoeffizienten {CL;: i = 1, ... ,p} und die Varianz 。セ@ des weißen Rauschens könnten eindeutig durch Lösen der Yule-\Valker· Gleichungen (3.2-86) berechnet werden, wenn die Kovarianzfunktion cx x (I) des AR(p )-Prozesses bekannt wäre.

aD

Es gibt mehrere Möglichkeiten, die Parameter { CLt, ... , CLP, eines AR(p)- Prozesses zu schätzen. Zum einen können sie mit Hilfe einer KQ- Schätzung direkt aus den Beobachtungen x 0 , .r 1 , ... , x N _ 1 wie im dritten Versnch über eine 1\Iinimicrung von (3.3-23) geschätzt werden. Zum anderen kann man ans den Beobachtungen des AR(p )-Prozesses zuerst die Kovarianzfunktion schätzen und dann alle unbekannten Parameter mit Hilfe der empirischen Yule-Walker-Gleichungen (3.3-19) berechnen. Beachten Sie, daß die Indizes der Beobachtungen im Gegensatz zum ersten Versuch bei 0 beginnen. Eine Schätzung der Kovarianzfunktion erhält man mittels der empirischen Kovarianzfunktion (P.1-1). Die empirischen Yule-Walker-Gleichnngen führen dann auf das lineares Gleichungssystem (3.3-20), welches in '\Iatrixschreibweisc folgendermaßen formnliert wird:

(

Cxx(O) Cxx ( 1)

Cxx(1) Cxx(O)

• • • セx@fxx(J!(f! ·- 2) 1) ...

..

Cxx(;- 1)

cu(O)

l(l l セ}@

rLz

..

iir

(

Cxx(.1) Cxx(2)

(P..! 1)

Cxx(P)

Die Varianz 。セ@ wird dann entsprechend (3.3 ·21) geschätzt. Die Lösung des obigen Gleichungssystems ist unter Annahme der Nichtsingnlarität der Koeffizientenmatrix eindeutig. Ist das Filter stabil, so ist sie für große N nichtsingnlär. Das direkte Lösen des Gleichungssystems, z.B. durch Gauß- Elimination, benötigt einen Rechenaufwand der Größenordnung 0(p 3 ). Der LEVINSON DURBIN-ALGORITHMUS braucht lediglich O(p 2 ) Operationen. Hierbei bedeutet f(p) = O(q(p)) für Ji--+ oo, daß IJ(p)/q(p)l für p --+ oo beschränkt bleibt. Diese Eigenschaft und die ordnungsrekursive Schätzung machen ihn zu einem der wichtigsten schnellen Algorithmen in der Signalverarbeitung. Die Rechenvorschrift zur Berechnung der Koeffizienten ist durch die Formeln A.2-15 bis A.2-18 gegeben. Eine vernünftige Schätzung von {CL 1, ..• , CLp; ai:} ist nur dann möglich, wenn die Modellordnung p des Prozesses bekannt ist. Die folgenden Kriterien zur Ordnungsschätzung machen sich zu Nutze, daß die geschätzte Varianz 。MセNォ@ für Modellordnungen k > p ungefähr konstant bleibt, wenn Xn tatsächlich ein AR(p)-Prozeß ist. Zur Schätzung von p werden sehr häufig das Akaike- (AIC) oder das Rissanen- Kriteriurn (MDL) verwendet, vgl. (3.3-29) und (3.3-30). Dabei berechnet man das Kriterium für k = 0, 1, ... , lvl, wobei A.J die maximale Modellordnung und N die Anzahl der Beobachtungen ist. Die Modellordnung p wird durch das kleinste k, das das Kriterium über k = 0, 1, ... , lvl minimiert, geschätzt. Lesen Sie zur Vorbereitung die Abschnitte 3.3.2 1) und A.2.2. Das Beispiel ß3.2-2 führt autoregressive Prozesse ein.

P.4

Parameterschätzunq bei AR(p)-Prozessen

259

P.4.1-1 Erzeugung von arHーIセpイッコ・ウョ@ :-.lachen Sie sich mit der MATLAB-Funktion filter vertraut. Die Funktionfilter wird zur Erzeugung des AR(p) Prozesses verwendet. vVelche \Verte müssen für den Filterkoeffizientenvektor Q eingegeben werden? Welchen \Vert muß man dem ersten Element a0 des fゥャエ・イォッヲコョeセカウ@ g zuweisen? P.4.1-2 kqセs」ィ¦エコオョァ@ \Vie schätzt man die Parameter {a 1 , .•• , ap; 。セス@ aus den Beobachtungen x, (i = 1, 2, ... , N) mit kleinsten Quadraten?. Wie groß muß N mindestens sein? Wie groß muß N bei der Schätzung über die empirischen Yule-Walker-Gleichungen sein? P.4.1-3 l・カゥョウッセdオイ「aャァエィュ@ Welche spezielle Eigenschaft der Koeffizientenmatrix in (P.4-1) ermöglicht die Auwendung des Levinson-Durbin-Algorithmus? Eignet sich der Levinson- Durbin-Algorithmus auch zur Lösung des Gleichungssystems der KQ-Schätzung? Begründen Sie Ihre Antwort. VIelehen Vorteil bietet der Levinson- Durhin·--Algorithmus bei der Schätzung der l'vlodellordnung? Wie kann die l'v!odellordnung geschätzt werden?

P.4.2

Versuche am Rechner

P.4.2-1 Erzeugung eines arHーIセpイッコ・ウ@ Laden Sie den Datensatz dat L2, der nun eine Realisierung weißen Rauschens darstellen soll. Zur Erzeugung eines AR(p)-Prozesses filtern Sie das weiße Rauschen rekursiv mit den Filterkoeffizienten a 1 = 0.5, a 2 = 0.3, a 3 = 0.1, a 4 = 0.7, a 5 = 0.3. Benutzen Sie dazu die MATLAB-Funktion filter. Speichern Sie das weiße Rauschen sowie den entstandenen AR(p)--Prozeß für spätere Anwendungen unter dem Namen dat4_1 ab. P.4.2-2 kqセs」ィ¦エコオョァ@ Führen Sie eine KQ-Schätzung der Parameter a, (i = 1, 2, ... , 5) und der Varianz 。セ@ des AR(p)-Prozesses dureiL Ermitteln Sie die Anzahl der Rechenoperationen mit Hilfe der :-v1ATLAB--Funktion flops. P.4.2-3 Empirische Kovarianzfunktion Schätzen Sie mit der im ersten Versuch geschriebenen Funktion kovfkt die ersten 11 Werte der empirischen Kovarianzfunktion cxx(O) bis cxx(10). Ermitteln Sie die Anzahl der dafür erforderlichen Operationen mit flops. P.4.2-4 Empirische yオャ・セw。ォイgゥ」ィョァ@ Schätzen Sie die Parameter a, (i = 1, 2, ... , 5) und 。セ@ durch Lösen der empirischen Yule-\Valker-Gleichungen mit Hilfe einer Gauß-Elimination. Ermitteln Sie die Anzahl der dafür erforderlichen Operationen mit flops. (Hinweis: Verwenden Sie die entsprechende MATLAB-Funktion toeplitz, um die Koeffizientenmatrix zu generieren, um! lesen Sie sich die MATLAB-Hilfe zum Operator

260

Praktikum

slash durch.) P.4.2-5 Levinson-Durbin-Algorithmus Schreiben Sie eine Funktion levindur zur Implementierung des Levinson-DurbinAigorithmus. Schätzen Sie mit dieser Funktion und der empirischen Kovarianzfunktion aus P.4.2-3 die Parameter a, (i = 1, 2, ... , 5) und die Varianz 。セN@ Ermitteln Sie diP Anzahl der Rechenoperationen des Levinson-Durbin--Aigorithmus mit flops. Vergleichen Sie die Parameterschätzungen und den Rechenaufwand mit den Ergebnissen aus P.4.2-2 und P.4.2-4. Welcher Algorithmus ist der schnellste? P.4.2-6 Schätzung der Modellordnung Schätzen Sie wie in P.4.2-5 die Parameter a, (i = 1, 2, ... , p) und 。セL@ diesmal jedoch für die falschen Modellordnungen p = 4 und p = 6. Vergleichen Sie die geschätzten Parameter mit denen aus P.4.2-5. Welche Folgen hat eine Unter- bzw. Überschätzung der Modellordnung? Schätzen Sie nun für die Modellordnungen k (k = 1, 2, ... , 10) die Varianz 。セ@ k mit dem Levinson-Durbin- Algorithmus. Stellen Sie das Ergebnis graphisch dar. Zeichnen Sie auch die \Verte des Akaike und des Rissanen- Kriterium und schätzen Sie daraus die ;'vlodellordnung p des AR(p) Prozesses.

P.5 P.5.1

Diskrete Fourier-Transformation I Vorbereitung

Der Grundgedanke jeder Transformation ist die Darstellung eines Problems in einem Bildbereich, um einfacher zu einer Problemlösung zu gelangen. Dies gilt insbesondere für die Fourier-Transformation, die in vielen wissenschaftlichen Gebieten ein wichtiges Werkzeug ist. In der Signaltheorie wird die Fourier Transformation vielfältig eingesetzt, so z.B. zur Berechnung des Spektrums eines stationären stochastischen Prozesses (3.1-49). Im weiteren wird ausschließlich die Transformation zeitabhängiger Signale betrachtet. Der Bildbereich kann also als Frequenzbereich interpretiert werden. Zeitkontinuierliche Signale werden durch die ZEITKONTINUIERLICHE FOURIER TRANSFORMATION in den Frequenzbereich abgebildet, vgl. Fettweis (1996). Auf die Bedingungen der Existenz der Transformation und ihrer Inversen wird dort näher eingegangen. In der digitalen Signalverarbeitung liegt ein Signal jedoch immer erstens abgetastet und zweitens als endliche Zeitreihe vor. Die Abtast.ung im Zeitbereich verursacht eine periodische Fortsetzung der FourierTransformierten des ursprünglich kontinuierlichen Zcit.signals. Auf ein abgPtastetcs Signal wendet man die ZEITDISKRETE FOURIER TRANSFORMATION an. Bei einer Abtastfrequenz von besitzt die entsprechende Transformierte eine Periodendauer \"On セN@ cl.h., daß sie eine periodisch fortgesetzte und gc·stanchte Version des zeitkontinuierlichen Aquivalents ist. Daraus folgt, daß es bei nicht bandbegrenzten Signalen zwangsweise zu einer Überlappung kommen muß. In der Praxis werden deshalb zeitkontinu-

t

P. 5

Diskrete Four·ier Transformation I

261

icrliche Signale vor· der Abtastung immer durch eine Tiefpaßfilterung bandbegrPnzt. Die _-\btastfrequenz J., = muß größer als das Doppelte der größten im Signal vorkommenden Frequenz J,. nach der Tiefpaßfilterung sein. Die Bedingung .fs > 2.fc wird :\"yquist-Kriterium genannt. Ein Abtasttheorem für Rauschsignale finden Sie in Abschnitt 3.2.4. Am Ende von Abschnitt 3.1.2 wird die Beziehung zwischen zeitkontinuierlicher und zeitdiskreter Fourier-Transformierter am Beispiel der Kovarianzfunktion erläutert.

±

Zur Abtastung kommt die zeitliche Beschränkung des Signals, d.h. in der Praxis wrarbeitet man mit dem Rechner nur endliche Zcitreihcn, da unendliche Zeitreihen nicht behandelt werden können und auch nicht zur Verfügung stehen. Bei endlichen abgetasteten Signalen kommt die endliche Fourier-Transformation (A.2-1) zum Einsatz. Die zHセゥエャ」ィ・@ Begrenzung des abgetasteten Signals stellt man sich als Fensterung einer unendlichen Zeitreihe vor. Die Fensterung im Zeitbereich verusacht eine Faltung der Fourier-Transformierten des Fenster mit der Fourier Transformierten der Zeitreihe. Die dabei entstehenden Verzerrungen, Fenstereffekte genannt, werden irn nächsten \"ersuch behandelt. Lesen Sie zum Thema endliche Fourier-Transformierte den Abschnitt 3.2.6. In diesem Abschnitt wird auch schon das Peridogramm erwähnt, welches allerdings erst in den letzten beiden Versuchen behandelt wird. In der digitalen Signalverarbeitung wird die endliche Fourier-Transformation nur für eine begrenzte Anzahl ausgewählter Frequenzen 「・イ」ィュセエN@ Als diskrete Frequenzen wählt man auf die Abtastfrequenz bezogen wk = 2'/,k (k = 0, 1, ... , N- 1), so daß sich aus der endlichen Fourier- Transformation die DISKRETE FOURIER- TRANSFORMATION (DFT) und ihre Inverse ableiten lassen:

X(k) =

xN (wk)

N-l

L

=

クB・Mjセョォ@

(k

=

0, 1, ... ,JV- 1)

(P.5-1)

n=O

1

:rn

=

N-1

"L

Jv k=O

xHォI・

Q セョォ@

(n = 0,1, ... ,N -1).

(P.5-2)

Häufig stehen nur wenige Abtastwerte zur Verfügung, so daß man die DFT ebenfalls nur an sehr wenigen Frequenzen ausrechnen kann. Hier kann Abhilfe geschaffen werden, wenn man dem Datensatz Nullen anfügt. :VIan erhält dann im Frequenzbereich mehr \\"erte, was aber nicht bedeutet, daß das Aufliisungsvermögung verbessert wird. Ein weiteres Problem taucht auf, wenn ein reines Sinussignal mittels der DFT transformiert wird. Entspricht keine der diskreten Frequenzen wk der Frequenz des Sinussignals, verteilt sich dessen Leistung auf die :'\achbarfrequenzen. Dieser Effekt wird LECKEFFEKT (eng!. leakage) genannt.. Obwohl es mit der DFT möglich ist, die Fourier Transformation von einem Rechner ansführen zu lassen, wurde sie aufgrundihres hohen Rechenaufwandes kaum eingesetzt. Erst die Entwicklung effizienter Algorithmen machte die DFT interessant und sorgte für einen großen technischen Fortschritt. Der erste schnelle Algorithmus wurde 1965 von Cooley und Tucky vorgestellt. Er war der Grundstein für eine ganze Reihe von Algorithmen. die man heute unter der Bezeichnung SCHNELLE FOURIER--TRANSFORMATION (eng!. fast Fourier transform (FFT)) zusammenfallt. Besonders schnelle FFT -Algorithmen existieren fiir Zeitrcihen, deren Umfang einer Zweierpotenz N = 2' (-i E N)

Praktikum

262

entspricht. Sie nennt man Basis- 2-FFT. Bei ihnen steigt die Anzahl der l\!ultiplikalogAN), während sie bei der DFT mit N 2 steigt. Für N = 102-1 tionen nur mit セn@ bedeutet dies eine Reduktion des Rechenaufwandes um den Faktor 200. Falls die Datenlänge keine Zweierpotenz ist, kann man den Datensatz mit Nullen auffüllen, um die schnellstmögliche Transformation verwenden zu können. Es gibt auch sogenannte Basis-b-FFT-Algorithmen, die auf einer Datenlänge von N = bi (i E N) basieren, und aufwendigere Algorithmen, die mit gemischten Basen arbeiten. In MATLAB ist sowohl ein Basis-2 FFT -Algorithmus als auch ein mit beliebiger Datenlänge arbeitender Algorithmus implementiert, der aber deutlich langsamer ist. Lesen Sie zur Vorbereitung den Anhang A.2.1 über die schnelle Fourier-Transformation. Außerdem sollten Sie die Abschnitte 3.5 bis 3.8 und 6.2 bis 6.4 in Oppenheim und Schafcr (1975) lesen, einem Standardwerk über digitale Signalverarbeitung. P.5.1-1 FFT in MATLAB Machen Sie sich mit der MATLAB- Funktion fft vertraut. Warum erhalten Sie trotz reeller Eingabewerte komplexwertige Ergebnisse? P.5.1-2 Vergleich von DFT und FFT Worin unterscheiden sich DFT und FFT? Erhalten Sie bei Anwendung der beiden Fourier-Transformationen unterschiedliche Ergebnisse? P.5.1-3 Nyquist-Kriterium \Velche Signale erhalten Sie, wenn Sie ein Sinussignal der Frequenz fo mit den Frequenzen j, = j 0 , j, = 2fo und j, = -lfo abtasten. P.5.1-4 Auffüllen mit Nullen Können Sie bei einer gegebenen Datenlänge das Auflösungsvermögen der FourierTransformation durch Auffüllen mit Nullen verbessern? Begründen Sie Ihre Antwort. Welchen Effekt hat das Auffüllen mit N ullen'l Ist es von Bedeutung, an welcher Stelle Sie die Nullen einfügen?

P.5.2

Versuche am Rechner

P.5.2-1 Vergleich von DFT und FFT Schreiben Sie eine Funktion dft zur direkten Berechnung der DFT. Sind die Ergebnisse Ihrer Funktion identisch mit denen der l\IATLAB-Funktion fft? Ermitteln Sie die Anzahl der Rechenoperation fvFT(N) und fn'T(N) von dft und fft jeweils für eine DatenlängeN = 2i (i = 3, 4, ... , 8). P.5.2-2 KQ-Schätzung des Rechenaufwandes Die Vermutung liegt nahe, daß der Rechenaufwand durch die Modelle TDFT(N) = aN 2 + b und TFFT(N) = aN log 2 N + b beschrieben werden kann. Cberpriifen Sie diese Vermutung, indem Sie eine KQ-Schätzung für die Modellparameter a und b

P. 6

Diskrete Fourier-- Transfonnation !I

268

aus den Meßergebnissen von P.5.2-1 durchführen. Stellen Sie sowohl die Messungen TDFT(N) und fFFr(N) als auch die Schätzungen TDFr(N) = aN 2 + b und rFFr(N) = aN log2 N + b zusammen in einem Bild dar. Benutzen Sie den Befehl semilogy zur halblogarithmischen Darstellung und diskutieren Sie die Ergebnisse.

P.5.2-3 Spiegelfrequenzen Gegeben sei ein sinusförmiges Signal x(t) = sin(27r f 0 t) mit der Frequenz fo =2kHz. Tasten Sie 512 Werte des Signals mit den Abtastfrequenzen J, = 10kHz und 3kHz ab. Stellen Sie die Betragsquadrate der Fourier-Transformierten dar. Erklären Sie das Phänomen der Spiegelfrequenzen. (Hinweis: Für diesen und alle weiteren Aufgabenpunkte kann zur Berechnung der DFT die :-IATLAB-Funktion fft benutzt werden.)

P.5.2-4 Überlappungseffekt Gegeben sei ein Rechtecksignal

x(t)

= { l,

0,

OSotSoT sonst

(P.5-3)

der Dauer T = lms. Tasten Sie 512 Werte des Signals mit den Abtastfrequenzen J, =4kHz und 16kHz ab. Stellen Sie die Betragsquadrate der Fourier-Transformierten dar. Erklären Sie anband der Ergebnisse die Auswirkung der Abtastfrequenz auf den ÜBERLAPPUNGSEFFEKT (eng!. aliasing).

P.5.2-5 Auffüllen mit Nullen :\'ehmen Sie die ersten 32 Abtastwerte für J, = 10kHz aus P.5.2-3 und stellen Sie die Betragsquadrate der Fourier-Transformierten dar. Füllen Sie nun ihren Datensatz mit 480 :\' ullen auf und wiederholen Sie das Experiment. Welchen Effekt hat das Auffüllen des Datensatzes mit Nullen? Vergleichen Sie ihr Ergebnis mit dem aus P.5.2-3. Was können Sie zum Einfluß, den die echte Datenlänge (also ohne aufgefüllte Nullen) auf das Auflösungsvermögen der Fourier-Transformation auswirkt, sagen? P.5.2-6 Leckeffekt Benutzen Sie nun die ersten 33 Werte für J, = 10kHz aus P.5.2-3 und stellen Sie die Betragsquadrate der Fourier-Transformierten dar. \Vie macht sich der Leckeffekt bemerkbar? Führen Sie die Fourier-Transformation noch weitere Male mit einer anderen Anzahl von Abtastwerten dureiL \Vann macht sich der Leckeffekt bemerkbar?

P.6 P.6.1

Diskrete Fourier-Transformation II Vorbereitung

Im letzten Versuch wurden schon kurz Fenstereffekte angesprochen. Die Fourier-Transformierte eines Fensters besitzt immer einen Hauptzipfel und mehrere NebenzipfeL

Praktikum

264

Hinsichtlich der Ausblendeigenschaft und im Vergleich zu Diracs Deltafunktion wirken sich die endliche Breite des Hauptzipfels und die große Anzahl nicht genügend gedämpfter 1\'ebenzipfel störend aus. Da die Fenstereffekte durch Falt.ung der FourierTransformierten des verwendeten Fensters mit der Fourier Transformierten des Signals entstehen, liegt es nahe, Fenster zu suchen, deren Eigenschaften weniger stören. Dabei muß man allerdings immer einen Kompromiß zwischen Höhe der Nebenzipfel und Breite des Hauptzipfel eingehen. In diesem Versuch werden die Eigenschaften folgender Fenster untersucht: • Rechteckfenster Wn

= 1,

o::=;n::=;N-1

(P.6-1)

• Bartlett·- oder Dreiecksfenster N -1 O n gilt, ist der Vektor v leer. Durch v = m: s: n erhalten die Elemente des Vektors v eine Schrittweite von s. Sollen alle Elemente einer Spalte oder einer Zeile einer :VIatrix a angesprochen werden, kann der Operator : isoliert benutzt werden. a(:, i) bzw. a(i,:) liefert z.B. den i-ten Spalten- bzw. Zeilenvektor von a. Variablen in MATLAB werden durch eine Zuweisungsoperation definiert. Auf nicht definierte Variablen darf nicht lesend zugegriffen werden. Beispielsweise schafft die Eingabe A = [3 1; 2 4] Speicherplatz für eine 2 x 2 Matrix mit den Elementen 3 und l in der ersten Zeile und 2 und 4 in der zweiten Zeile. A ( 1, 1) = 7 überschreibt das Element 3 mit der Zahl 7. A = 7 würde den Speicherplatz der 2 x 2-Matrix wieder freigegeben und eine l x 1-Matrix schaffen, während A (2, 3) = 7 eine 2 x 3-Matrix schaffen würde. Das Element A(1 ,3) würde dann mit 0 initialisiert. Vorn Benutzer definierte Variablen sollten einen anderen Namen erhalten als eingebaute Funktionen, m-Dateien oder vordefinierte Variablen, da diese sonst verdeckt werden.

M.3

Numerische Berechnungen

In :'vlATLAB ist eine große Anzahl mathematischer Funktionen implementiert. Sie reichen von sin, cos, sinh, asin, exp, log10, log und sqrt bis hin zu bessel für Bessel-Funktionen. Die mathematischen Funktionen verlangen meistens ein Argument vom Typ Matrix, wobei das Ergebnis dann eine Matrix gleicher Dimension ist. Um also

216

Matlab

beispielsweise von jedem Element einer :VIatrix m den Sinns zu bilden, braucht keim' Schleife programmiert zu werden. Es reicht, sin(m) einzugeben. Mit help kann man sich einen Überblick über die in MATLAB vorhandenen mathematischen Funktionen verschaffen.

M.4

Grafische Darstellung

vVichtige Befehle zur grafischen Darstellung sind plot, subplot, semilogx, semilogy, loglog, contour, mesh, meshdom, axis, grid, xlabel, ylabel und title. Kurven werden mit plot in einem Graphikfenster dargestdlt. \Venn dieser Funktion nur ein Vektor als Parameter übergeben wird, werden als x-vVerte die Indizes gewählt. Es kann auch ein x-Vektor und ein y Vektor übergeben werden. Sollen mehrere Funktionsverläufe in einem Plot dargestellt werden, müssen lediglich entsprechend mehr Vektoren als Parameter übergeben werden. Es lassen sich auch noch verschiedene Farben und Darstellungsarten einstellen. Mit dem Befehl subplot kann man mehrere Bilder gleichzeitig auf dem Bildschirm darstellen. Höhenliniengrafiken erstellt man mit contour und 3 dirnsionale Darstellungen mit mesh. meshdom bereitet 2 Vektoren so zu ein Pr Matrix auf, daß daraus leicht ein 3-D-Plot gernacht werden kann. Logarithmische Darstellungen erstellt man mit semilogx. semilogy und loglog. Mit axis läßt sich die Achsrnskalierung einstellen. ?\Iit xlabeL ylabel und ti tle könnrn die Achsen bzw. der Plot beschriftet werden. Einzelheiten können der Hilfefunktion help entnommen werdPn. Unter \Vindows druckt man Grafiken entweder über den Befehl print und einer entsprechenden Option oder über das Pull-Down-Menü des Grafikfensters aus. Letztere Methode kann immer bei einer Programmunterbrechung durchgeführt werden, auch dann, wenn durch den Befehl pause auf die Fortsetzung des Programms gewartet wird.

M.5

Abzweiganweisungen

Wie in anderen Programmiersprachen gibt es auch in ?\JATLAB Abzweigstrukturen, um den Programmablauf zu steuern. Die entsprechenden Befehle sind for variable = expression, statements; end für Schleifrn und if expression Statements; elseif expression statements; else

M. 6

m Dateien

277

Statements; end smne while expression, Statements; end für Abzweigungen. expression stellt eine Bedingung dar. Liefert expression einen Wert ungleich Null, gilt die Bedingung als erfüllt, sonst als nicht erfüllt. Bei der ifAbfrage dürfen natürlich beliebig viele elseif-Zweige folgen, genauso wie der elseifZweig oder der else-Zweig auch fehlen darf.

M.6

m-Dateien

Bei m-Dateien muß zwischen zwei Varianten unterschieden werden. m-Dateien als Hauptprogramme erwarten keine Übergabeparameter. Variablen, die in der m-Datei definiert wurden, sind auch nach Beendigung des Programms in der MATLAB--Umgebung bekannt. Anders ist das bei m Dateien als Unterprogramrne bzw. Funktionen, die jeweils mit dem Befehl function beginnen. Hier werden eine oder mehrere Matrizen als Ergebnis zurückgeliefert. Es können auch l\latrizen als Parameter übergeben werden, die reine Eingabeparameter (call by value) sind. Eine Veränderung eines Parameters in einer '>lATLAB-Funktion ist folglich im aufrufenden Programm nicht sichtbar. Sowohl die Anzahl der Eingabeparameter als auch die Anzahl der Ausgabeparameter kann variabel gehalten und mittels der vordefinierten Variablen nargin und nargout ermittelt werden. Variablen innerhalb einer solchen m-Datei sind nur lokal bekannt. Am besten sieht man sich einige m-Dateien, wie z.B. die m Datei mean zur Mittelwertbildung, an. Ein ebenso wichtiger Befehl in m- Dateien ist pause, der den Programmablauf solange unterbricht, bis eine Taste gedrückt wird. Mit dem Befehl type datei kann der QuPlltext jeder m Datei angpsehm werden, die im aktuPllen Verzeichnis oder einem anderen Verzeichnis steht, auf welches die DOS-U mgebungsvariable matlabpath zeigt. Ferner gibt es noch den Befehl dir, der Dateien im aktuellen Verzeichnis auflistet, und die Befehle who bzw. whos, die sämtliche bisher definierte l'vlATLAB-Variablen anzeigen. Innerhalb einer m-Datei können keine Prozeduren oder Funktionen deklariert werden. Als Ersatz können die m Dateien aufgerufen werden, wobei die von der MATLABKommandoebene aufgerufene m Datei das Hauptprogramm darstellt. Kommentare werden mit dem Prozentzeichen %eingeleitet und gehen dann bis zum Zeilenende. Es muß nicht am Zeilenanfang stehen. \Venn eine Zeile mit drei Punkten ... endet, wird die Anweisung in der nächsten

Matlab

278

Zeile fortgesetzt. Dies ist bei langen Anweisungen hilfreich, da in tv!ATLAB Anweisungen unter anderem mit dem Zeilenende abgeschlossen werden.

M.7

Laden und Speichern von Daten

Daten werden sowohl im Binär als auch im ASCII Format mit den 1v!ATLAB Befehlen load und save geladen bzw. gespeichert. vVird für den Dateiname keine Endung angegeben, wird für das Binärformat automatisch die Endung . mat angehängt. Wenn Dateien im Binärformat geladen werden, erhalten die Variablen den gleichen Namen, den sie beim Abspcichern hatten. vVcrden Dateien im ASCII-Format geladen. erhält die Variable den Dateinarnen. Im Binärformat lassen sich mehrere Variablen in einer Datei, im ASCII-Format nur eine, abspeichcrn.

M.8

DOS-Befehle

Von MATLAB aus können alle DOS-Befehle und alle ausführbaren DOS-Programme wie von der DOS-Kommandozeile aus aufgerufen werden, wenn ihnen ein Ausrufungszeichen ! vorangestellt wird. Somit sind z.B. die DOS-Befehle ! cd, ! dir und ! type von den MATLAB-Befchlen cd, dir und type zu unterscheiden.

Literatur Bchnen, K. und l\euhaus, G. (1995): Grundkurs Stochastik. Teubner, Stattgart ßeichelt, F. (1997): Stochastische Prozesse für Ingenieure. Teubner, Stattgart Bendat, J.S. and Piersol, A.G. (1971): Random Data: Analysis and Measurement Procedures. J. vViley, New York Blackman, R.ß. and Tukey..J.W. (1958): The Measurement of Power Spectra. Dover Pub!., :\ew York Brillinger, D.R. (1981): Time Series: Data Analysis and Theory. Holden-Day, San Francisco Crarner, H. (1974): Mathematical Methods of Statistics. Princeton University Press, Princeton Davenport, W.ß. and Root, W.L. (1958): An Introduction to the Theory of Random Signals and Noise. McGraw-Hill, :"Jew York Dzhaparidze, K.O. (1986): Parameter Estimation and Hypothesis Testing in Spectral Analysis of Stationary Time Series. sーイゥョァヲセL@ Ncw York Fahrmeir, L. u.a. (1981): Stochastische Prozesse: Eine Einführung in Theorie und Anwendungen. Hanser, vVien Fettweis, A. (1996): Elemente nachrichtentechnischer Systeme. Teubner, Stuttgart Fisz, 'd. (1989): vVahrscheinlichkcitsrechnung und mathematische Statistik. Deutscher \'erlag der vVissenschaft, ßerlin Häusler, E. (1997): Statistische Signale. Springer, Berlin Hainhold, J. and Gaede, K.W. (1979): Ingenieur-Statistik. Oldenbourg, München Hainhold, J. and Gaede, K.W. (1973): Aufgaben und Lösungen zu Ingenieur-Statistik. 0 ldenbourg, :--1 ünchen Hannan, E. (1970): :--Iultiple Time Series. J. Wiley, New York Hartung, J. u.a. (1989): Statistik: Lehr- und Handbuch der augewandten Statistik. Oldenbourg, lVIünchen Haykin, S. (1996): Adaptive Filter Theory. Prentice Hall, Englewood Cliffs/N.J . .Jenkins, G.}f. and Watts, D.G. (1968): Spcctral Analysis and its Applications. HoldenDay, San Francisco Kailath, T. (1980): Linear Systems. Prentice Hall, Englcwood Cliffs Kay, S.:--1. (1988): Modern Spectral Estirnation: Theory and Application. Prentice Hall, Englewood Cliffs Kroschel, K. (1996): Statistische l\'achrichtentheorie. Springer, Berlin Ljung, L. and Söderström, T. (1983): Thcory and Practice of Recursive Identification. ).IJT Press, Cambridge Loffeld, 0. (1990): Estimationstheorie, Band 1 und 2. Oldcnbourg, セjゥョ」ィ・@

280

Literatur

lvlertins, A. (1996): Signaltheorie. Teubnt>r, Stattgart lvliddleton, D. (1960): An lntroduction to Statistical Communication Theory. 1\lc:Graw Hili, New York Müller, P.H. (Hrsg.) (1983): Lexikon der Stochastik. Akademie Verlag, Berlin Oppenheim, A.V. and Schafcr, R.W. (1975): Digital Signal Processing. Prentice Hall, Englewood Cliffs Papoulis, A. (1965): Probability, Random Variables, and Stochastic Processes. lvlc:Graw-Hill, Kogakusha, Tokyo Parat, B. (1994): Digital Processing of Raudorn Signals. Prentice Hall, Englewood Cliffs Rao, R.C. (1973): Linear Statistical lnference and its Application. J. \Viley, New York Scharf, L.L. (1991): Statistical Signal Processing: Detection, Estimation and Time Series Analysis. Addison-\Vesley, Rcading Schlittgen, R. und Streitberg, B. (1989): Zeitreihenanalyse. Oldcnbourg, 1\lünchcn Schneeweiß, W.G. (1974): Zufallsprozesse in dynamischen Systemen. Springer, Berlin Schüßler, H.W. (1991): Netzwerke, Signale und Systeme, Bd. 2: Theorie kontinuierlichPr und diskreter Systeme. Springer, Berlin Shanmugan, K.S and Breipohl, A. (1988): Random Signals: Detection, Estimation, and Data Analysis. J. Wiley, :'\ew York Stoica, P. and l'vloses, R. (1997): lntroductiun to Spcctral Analysis. Prentice Hall, Englcwood Cliffs Therricn, C.\V. (1992): Disnete Random Signals and Statistical Signal Proccssing. Prcntice Hall, Englewood Cliffs Thomas, J.B. (1969): An Introductiort to Statistical Communication Theory. J. \Yiley. New York l.Jnbehaaen, H. (1988): Regelungstechnik III. Vieweg, Braunsc:hweig Cnbehauen, R. (1993): Systerntheorie, Grundlagen für Ingenieure. Oldcnbourg. l\lünchen Van Trees, H.L. (1968): Dctection, Estimation, and 1\lodulation Theory, Vol. I.ll.lll. J. Wiley, New York \Vinkler, G. (1977): Stochastische Systeme. Akademische Verlagsgpsellschaft, \Yiesbaden \Vitting, H. und :'\öllc, G. (1981 ): Augewandte 1\lathcmatische Statistik. Teabner. Stattgart

Stichwortverzeichnis Abtasttheorem 128 14G Alternative 82 Nセューャゥエオ、・ョァ。@ 121 Anteil deterministischer 98 stochastischer 99 Mセ@ pproxirnation i.q.:\1.-beste 50 i.q.J\1. beste lineare 52 AR Prozeß 123. 12G AR:\IA (p.q) · Prozeß 150 Ausfallrate 21 Au t okorrcla tionsfunktion (s. :\Iomentfunktion 2. Ordnung) Au toleistungsdichtespcktrum (s. Leistungsspektrum) autoregressiver Prozeß 123 diskreter 123 mit kont. Zeitparameter 125 :\loving A wragc Prozcß 150 Nセォ。ゥ・Mkイエオュ@

Band -breite 158 -paßrauschen 123 Bartlett-,\ Iethode (s. :\littelung v. Pcriodogrammcn) Bayes -Formel 1G - :\lethode G8 bedingte Erwartung 51 Beobachtungstiefe 6 Bereichsschätzung 71 Bernoulli-Vcrteilung 9 Bias 59 Binomial wrteilung 13 -wahrscheinlichkcit 13 Bonferroni-Ungleichung 203 Borel-Algebra 18, 23 bオイァMNセャッゥエィョウ@ 146, 194 Cauchy- Schwarz-U nglPiclmng 42 Cauchy- Verteilung 21 Cesaro-Summen 217

Charakteristik eines Detektors 8G charakteristische Funktion 45 eines Zufallsvektors 46 charakteristische Gleichung 123 Chi-Quadrat-Verteilung 34 Cramer-Rao-Schranke 75 definit nichtnegativ 46 Daniell ,\Icthode (s. Glättung d. Periodogramms) Dekorrelationsfilter (s. Forrnfilter) Detektionswahrscheinlichkei t 85 Detektor 84 Dichte 19, 25 bedingte 27 einer Zufallsvariablen 19 eines Zufallsvektors 27 diskrete Frequenzen 134, 190 Effektivwert 104 Ensemble1nittelwert (s. Erwartungswert) Einschrittpriidiktor 132 Einshypothese 82 Elementarereignisse 5 Menge der G endliche Fourier-Transformierte 134 Entropiemaß 146 Ereignis 6 algcbra, a ·Algebra 10 -rate 102 - se stochastisch unabhängige 15 Ergodizität 140 Erwartungs operator 36 -vektor 49 wert 36 einer Zufallsvariablen 36, 37 bedingter 39 Exponentialverteilung 21 Falschalarm -rate 88

Stichwortverzeichnis

282

konstante 88 -Wahrscheinlichkeit 85 Fehler erwarteter quadratischer 50 systematischer 59 Filter 150 rationales 150 rekursives 123 signalangepaßtes 215 transversales 126 FIR-Filter (s. Transversalfilter) Fisher-Inforrnation 75 Formel von Isserlis 115 Formfilter 216, 270 Fourier-Transformation diskrete 134, 190, 261 endliche 134, 190 schnelle 134, 190, 261 zeitdiskrete 260 zeitkontinuierliche 260 Freiheitsgrade 34, 35 Frequenzgang 117 F-Test 88 Funktion, Abbildung nichtnegativ definite 46, 100 nichtnegative, normierte, additive 8 primitive 37 F -Verteilung 35, 88 nichtzentrale 88 Gamma -Funktion 33 Gauß-Prozeß 101 diskreter 101 Gesetze der großen Zahlen empirisches 8, 56 Kolmogorows starke 56 Tschebyschews schwaches 56 Glättung 160 des Periodogramms 164 -sfenster 160 Gleich -anteil 103 --ungsfehlermodell 155 -verteilung 20 diskrete 9

Güte 83 Hanning--Fenster 136 Histogramm 20 Hypothese 82 IIR-Filter (s. rationales Filter) Impulsantwort 117 Indexmenge 97 Informationsmatrix 74 Integrationszeit 158 i.q.M. -Integral 110 -Faltung 118 Jensen-Ungleichung 207 Kleinste--Quadrate -Schätzer 65 -Schätzung 63 Kohärenz 171 empirische 171 Konfidenz bereich 71 -intervall 71 Konvergem; einer Funktionenfolge 54 54 im quadratischen Mittel HゥNアセiI@ in Verteilung 54 in Wahrscheinlichkeit (in Wk) 54 mit Wahrscheinlichkeit 1 (Wk 1) 54 Koppelung 12, 25 unabhängige 13, 26 Korrelation 42 -sfunktion 99 -skoeffizient 42 partieller 194 Kosinusfenster 136 Kovarianz 41 -funktion 99 empirische 138 modifizierte 248 -matrix 49 Kreuz -korrelationsfunktion (s. -rnornentfunktion)

283

Stichwortverzeichnis

-kovarianzfunktion 100 empirische 153 kovarianzrnatrix 74 -I eist ungsd ir h tesp ek t rum (s. -leistungsspektrurn) -leist.ungsspektrum 106 momentfunktion 100 -pcriodogramm 170 - Spektrum 106 -varianzfunktion (s. - kovarianzfunktion) kritischer Bereich 83 K urzzei tkorrela tionsfunktion (s. empirische Kovarianzfunktion) Laplace-Verteilung 9 Lebensdauer 21 Lebesguc-Intcgral 37 Leckeffekt 261 Leistung 99 -sspektrum 105 Levinson-Durbin-Rekursion 143, 192, 258 Likelihood - Funktion 79 Gleichnagen 79 -:dethode 79 linearer Prozeß 122 :\Iarginalverteilung 25 :\laximum Likelihood Quotiententest 93 Schätzung 79 :\laximum--Entropie-Spektrum 146 :\!eßbarkeit 29, 31 :\leßfehler 63 :\lethode der kleinsten Quadrate 62 der Stichprobenverteilung 58 :\Iischparameter 66 :\Iittelung von Periodogrmnmcn 163 :\littclwert 44 :\lodcll für eine Stichprobe 28 :\loment einer Zufallsvariablen 40 absolutes 40

zentriertes 40 entheorem 46 - funktion zweiter Ordnung 99 !v!A(q) Prozcß 127 Moving Average-Prozeß 127 :VI ustcrfunktion (s. Realisierung) :'liichtzentralitätsparameter 88 Niveau 83 eines Konfidenz bcreichs 71 eines Tests 83 Normalverteilung 21 asymptotische 54 bivariate 28 N ullhypothcsc 82 Optimalfilter 130 Ordnung 123 Orthogonalitätsprinzip 53, 130 PARCOR Koeffizient (s. partieller Korrelationsk.) Periodograrhrn 80, 113, 135 Pfad 97 Phasengang 121 Pivot 71 Poisson Prozcß 101 Verteilung 11 Prädiktor 130 Produkt - cxperiment mit stochastisch unabhängigen Komponenten 13 --forme! 14 verteilung 25 -Wahrscheinlichkeit 25 pウ」オ、ッコヲ。ャエセィ・ョ@ 24 7 Punktschätzung 71 Rand -dichten 26 vcrtcilungen 25 Rausch -anteil 99 -signal 12 3 Rayleigh-Verteilung 206

284 Realisierung 97 Rechteck Mヲ・ョセエイ@ 136 -verteilung 20 Regression lineare 64 -sgerade 64 relative Häufigkeit 7 Residuum 52 Rissanen-Kriterium 145 RLS-Algorithmus 155, 219 Satz von Bore! 57 Gauß 66 Kolmogorow 98 Moivre-Laplace 57 Schätzer 59 asymptotisch normalvertPilter 60 asymptotisch wirksamer 78 erwartungstreuer 60 konsistenter 60 i.q ..\1.- 60 stark 60 linearer 66 bester 66 parametrischer 145 wirksamer 75 Schätz -funktion 59 ung 59 -wert (s. Approximation, Schätzung) Scharmittelwert (s. Erwartungswert) schnelle Faltung 265 Siebformel von Sylvester und Poincare 11, 203 Signal - detcktion 84 -entdeckung 84 Signal-zu-Stör -abstand 85 geschätzter 86 -leistungsverhältnis 216 spektrales 133, 172

StichwoTtveTzeichnis

Spektral analysator 158 -dichte 104, 106 Spektrum 104, 106 schätzen nichtparametrisches 157 parametrisches 145 Standard -abweidmng 40 normalvertcilung 21 stationiirw Prozeß 103 diskreter 103 im weiteren Sinne 104 statistische Signale (s. stochastische Signale) StetigkPit mit Wk 1 109 i.q ..\l. 109 Stichprobe 28 - nraum G Stieltjcs Integral 36 stochastisch unabhängig 28 -c Komponenten 28 stochastische Prozesse 97 diskrete 98 lineare 122 mit kont. Zeitparameter 97 mit unabhängigen Zuwächsen 102 monochromatische 108 i.q.l\L-stetige 109 stationäre 103 unkorrelierte 122 stochastische Signale 97 Störmodell 65 Störung 63 Streuung 44 Surrune der Fehlerquadrate 87 Quadrate 63 Regressorquadrate 87 System kausales 122 lirwan•s konstantes 117 linmres zeitinvariantes 117 diskrdcs 117

Stichwortverzeichnis

nichtreaktives 114 rekursives 123 mit kont. Zeitparameter 123 rationales 150 stabiles 118 transversales 126 idcntifizierung 70, 145 TPst 83 bester 83 deterministischer 83 im·arianter 89 optimall'r 83 randomisierter 83 -funktion 82 thermisches Rauschen 108 Tiefpaßrauschen 123 Transversalfilter 63, 126 mit kont. Zeitparameter 127 Trend 173 Tsrhcbyschew Cngleichung 41 Cbergangs clirhtc 26 -wahrschcinlichkei t 12 Cberlappungseffckt 263 Cbertragungsfunktion 117 unabhängige Zuwächse 102 Crbild 6 \"arianz 40, 99 \"ersuchsergebnis 5 \"erteil ung einer Zufallsvariablcn 16 - sfunktion 16, 18, 27 \"erträglichkeitsbedingungen 98 \ "prtra uens -bereich 71 -kocffizicnt 71 \ \"ärmcra uschen (s. thermisches Rauschen) \\"ahrscheinlichkeit 8, 10 bedingte 14 totale 14 ii bcr einem cndlichPn

285

Stichprobenraum 8 induzierte 16 -smaß 8 -sdichte (s. Dichte) ·svcrtcilung 9 diskrete 11 weißes Rauschen 107, 108 diskretes 107 Wiener- Chintschin -Formeln 105 Wiener- Filter 130 Wiencr-Hopf -Gleichung 131 · Integralgleichung 132 Wilson- Iteration 149, 218 Yule-vValkcr · Gleichungen 124 empirische 142 Zahl der günstigen Fälle 9 möglichen Fälle 9 Zeit -Bandbreite-Proclukt 138 -mit telwert (s. :VIittelwert) --parameter diskreter 97 kontinuierlicher 97 zentraler Grenzwertsatz 56 Zufalls --experirnent 5 folge 247 ·-prozesse (s. stochastische Prozesse) -variable 6, 19 asymptotisch normalverteilte 34 diskrete 16 orthogonale 52 stochastisch unabhängige 28 unkorrelierte 42 --vektor 27 normal verteilter 48 mit stochastisch unabhängigen Komponenten 28 -zahlen 24 7