Signale und Systeme [überarbeitete Auflage] 9783486707977

Didaktisch ausgereifte Darstellung des Grundlagenwissens der Signaltheorie und der linearen Systeme. "Signale und

218 67 18MB

German Pages 419 [416] Year 2011

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Signale und Systeme [überarbeitete Auflage]
 9783486707977

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Signale und Systeme von Prof. Dr.-Ing. Fernando Puente León, Prof. Dr.-Ing. Uwe Kiencke, Dr.-Ing. Holger Jäkel 5., überarbeitete Auflage

Oldenbourg Verlag München

Prof. Dr.-Ing. Fernando Puente León lehrt und forscht seit 2008 am Institut für Industrielle Informationstechnik (IIIT) des Karlsruher Instituts für Technologie (KIT). Nach Studium und Promotion arbeitete er bei der Firma DS2 im Bereich der Modem-Entwicklung. Von 2003 bis 2008 war er als Professor für Verteilte Messsysteme an der Technischen Universität München tätig. Seine Forschungsschwerpunkte liegen in der Bild- und Signalverarbeitung, der Informationsfusion, der Mustererkennung, der Datenübertragung sowie der Architektur und Analyse verteilter Systeme. Prof. Dr. Uwe Kiencke lehrt seit 1992 am Institut für Industrielle Informationstechnik (IIIT) des Karlsruher Instituts für Technologie (KIT). Nach Studium und Promotion war er von 1972–1987 bei der Robert Bosch GmbH, Schwieberdingen und von 1988–1992 bei Siemens Automotive, Regensburg. 1987 wurde er mit dem Arch T. Colwell Merit Award der Society of Automotive Engineers (USA) ausgezeichnet. Dr.-Ing. Holger Jäkel wurde 2003 an der Universität Karlsruhe (TH), Fakultät für Elektrotechnik und Informationstechnik, promoviert. Er arbeitet als Akademischer Oberrat am Institut für Nachrichtentechnik. Seine Forschungsgebiete sind Signalverarbeitung in der Nachrichtentechnik, Ultra-Wide-Band-Kommunikation, Cognitive Radio und Dynamische Ressourcenallokation.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2011 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Anton Schmid Herstellung: Anna Grosser Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Grafik + Druck GmbH, München ISBN 978-3-486-59748-6

Vorwort zur fünften Auflage In der vorliegenden überarbeiteten und erweiterten Auflage wurde die Struktur des Buches beibehalten, weil sie sich im Lehrbetrieb über viele Jahre bewährt hat. Dennoch wurden zahlreiche Textpassagen und Gleichungen überarbeitet oder ergänzt, neue Beispiele und Abbildungen hinzugefügt und nahezu jede Abbildung überarbeitet, um eine bessere Verständlichkeit sowie eine konsistentere Verwendung der mathematischen Symbole zu erzielen. Bei dieser Gelegenheit wurde die Darstellung von Vektoren und Matrizen an die international übliche Notation angepasst. Erweitert wurden außerdem die Abschnitte über stochastische Signale, die Fourier-Transformation, das Abtasttheorem und die diskrete Fourier-Transformation. Darüber hinaus konnten durch Hinweise von Lesern und Hörern Fehler korrigiert und Erläuterungen verbessert werden. Besonderer Dank gilt Herrn Dipl.-Ing. Andreas Sandmair und Herrn Dipl.-Ing. Matthias Michelsburg für wertvolle Hinweise und für die Korrektur des Manuskripts. Weiterhin danken wir dem Oldenbourg-Verlag für die ausgezeichnete Zusammenarbeit. F. Puente León, U. Kiencke, H. Jäkel

Karlsruhe, im September 2010

Vorwort zur ersten Auflage Das vorliegende Studienbuch zum Thema „Signale und Systeme“ wendet sich an Studenten der Fachrichtung Elektrotechnik an wissenschaftlichen Hochschulen sowie an Ingenieure und Naturwissenschaftler, die einen Einblick in dieses Gebiet gewinnen wollen. Es entstand in Zusammenhang mit der gleichnamigen Vorlesung an der Universität Karlsruhe. Das vorliegende Buch kann somit zur Begleitung einer etwa drei Semesterwochenstunden umfassenden Vorlesung benutzt werden. Zur Nutzung dieses Buches werden grundlegende Kenntnisse in der Elektrotechnik, gute Kenntnisse in der höheren Mathematik, der Wahrscheinlichkeitsrechnung und Grundkenntnisse in der Fourier- und Laplace-Transformation vorausgesetzt. Die mathematischen Grundlagen führen den Begriff des Hilbert-Raumes ein. Auf dieser Basis können Gesetzmäßigkeiten aus dem euklidischen Vektorraum auf den Funktionenraum übertragen werden. Bei den Transformationen geht es um deren wichtigste Eigenschaften in praktischen Anwendungen. Die Fourier-Transformation wird üblicherweise auf Signale, die Laplace- und z-Transformation auf Systeme angewendet. Die Signale und Systeme werden dabei zuerst im kontinuierlichen und dann im diskreten Zeitbereich betrachtet. Gerade die erste Auflage eines Buches kann, trotz mehrmaligen Durchschauens, nicht ohne Fehler sein. Verbesserungsvorschläge und Fehlerkorrekturen sind dem Autor jederzeit willkommen. Abschließend danke ich Herrn Dipl.-Ing. Ralf Schernewski, dessen großes Engagement wesentlich zum Gelingen dieses Buches beigetragen hat; insbesondere danke ich für die

VI

Vorwort

Erstellung der LATEX-Dateien, das Durchrechnen der Beweise und die langen konstruktiven Diskussionen, in denen der klare und verständliche Aufbau dieses Buches entstanden ist. Außerdem möchte ich dem Oldenbourg-Verlag für die gute Zusammenarbeit danken. U. Kiencke

Karlsruhe, im November 1997

Inhaltsverzeichnis I

Einführung

1

1

Einleitung

3

1.1

Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.2

Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

1.3

Signalverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

1.4

Struktur des Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2

Mathematische Grundlagen

11

2.1 2.1.1 2.1.2 2.1.3 2.1.4 2.1.5 2.1.6 2.1.7

Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Metrischer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Linearer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Normierte Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Innenproduktraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Unitärer Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hilbert-Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11 12 13 15 15 17 18 19

2.2 2.2.1 2.2.2

Integraltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Integrationskerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Zweidimensionale Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3 2.3.1 2.3.2 2.3.3 2.3.4

Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Typen von linearen Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verschiebungsoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31 31 35 37 39

2.4 2.4.1 2.4.2 2.4.3

Holomorphe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cauchy’sche Integralformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Residuensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40 40 42 46

VIII

II

Inhaltsverzeichnis

Zeitkontinuum

49

3

Zeitkontinuierliche Signale

51

3.1 3.1.1 3.1.2 3.1.3

Funktionenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt mit Belegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51 52 54 56

3.2 3.2.1 3.2.2 3.2.3

Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wahrscheinlichkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

57 57 58 63

3.3 3.3.1 3.3.2

Deterministische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Orthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Biorthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

3.4

Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3.5 3.5.1 3.5.2 3.5.3 3.5.4

Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cosinus- und Sinus-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

88 90 93 98 99

3.6 3.6.1 3.6.2 3.6.3 3.6.4 3.6.5 3.6.6 3.6.7 3.6.8 3.6.9 3.6.10

Testsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konstantes Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einheitssprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Komplexe Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doppelseitige Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gauß-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

102 102 104 104 104 105 105 106 107 108 110

3.7 3.7.1 3.7.2

Besonderheiten der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Leckeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Gibbs’sches Phänomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

3.8 3.8.1 3.8.2

Allgemeine Signaleigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Zeitdauer-Bandbreite-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Riemann-Lebesgue’sches Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

4

Zeitkontinuierliche Systeme

4.1 4.1.1 4.1.2

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Lineare, zeitinvariante Systeme (LTI-Systeme) . . . . . . . . . . . . . . . . . . . . . . . . . 134 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

129

IX

Inhaltsverzeichnis 4.2 4.2.1

Beschreibung durch Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5 4.3.6 4.3.7

Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konvergenz der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anwendung bei der Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vergleich zwischen Laplace- und Fourier-Transformation . . . . . . . . . . . . . . .

146 146 149 151 152 156 160 163

4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.5 4.4.6

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bode-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung kontinuierlicher LTI-Systeme . . . . . . . . . . . . . . . . . . . . . .

163 165 169 171 176 178 183

4.5

Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

4.6 4.6.1 4.6.2 4.6.3

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Filtertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entwurf normierter Tiefpässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bestimmung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4.7

Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

III

187 189 191 198

Zeitdiskretisierung

209

5

Zeitdiskrete Signale

211

5.1 5.1.1 5.1.2 5.1.3 5.1.4

Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

211 211 213 218 221

5.2

Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

5.3 5.3.1 5.3.2 5.3.3

Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.4 5.4.1 5.4.2

Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Überabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Unterabtastung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

228 228 231 233

X

Inhaltsverzeichnis

5.5 5.5.1 5.5.2 5.5.3 5.5.4 5.5.5 5.5.6 5.5.7 5.5.8

Spektralanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskrete Fourier-Transformation (DFT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schnelle Fourier-Transformation (FFT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auflösung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung ohne Leckeffekt . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung mit Leckeffekt . . . . . . . . . . . . . . . . . . . . . . Zero-Padding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

250 251 256 258 260 262 263 267 268

5.6 5.6.1 5.6.2

Weitere diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Walsh-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Allgemeine diskrete Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272

6

Zeitdiskrete Systeme

6.1 6.1.1 6.1.2

Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Lineare zeitinvariante Systeme (LTI-Systeme) . . . . . . . . . . . . . . . . . . . . . . . . . . 278 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281

6.2 6.2.1

Beschreibung durch Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282

6.3 6.3.1 6.3.2 6.3.3 6.3.4 6.3.5

Die z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Möglichkeiten der Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

284 284 287 291 291 298

6.4 6.4.1 6.4.2 6.4.3 6.4.4 6.4.5

Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung zeitdiskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . .

302 304 305 306 314 318

6.5 6.5.1 6.5.2

Linearphasige Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 Linearphasige FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329

6.6 6.6.1 6.6.2 6.6.3 6.6.4 6.6.5

Zeitdiskrete Darstellung kontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . . Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Umsetzung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol-/Nullstellenübertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6.7 6.7.1 6.7.2

Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 Rechteckfenster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343

275

333 333 334 334 335 337

Inhaltsverzeichnis

XI

6.7.3 6.7.4 6.7.5 6.7.6 6.7.7 6.7.8

Dreieckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hann-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dolph-Tschebyscheff-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretes Gauß-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

344 345 346 347 347 348

6.8 6.8.1 6.8.2 6.8.3 6.8.4

Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kausales FIR-Filter über Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Akausales FIR-Filter über die DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IIR-Filter über die zeitdiskrete Übertragungsfunktion . . . . . . . . . . . . . . . . . . FIR-Filter über Transformation des Frequenzganges . . . . . . . . . . . . . . . . . . . .

350 351 357 362 366

6.9 6.9.1 6.9.2 6.9.3

Spezielle zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskrete Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskreter Differenzierer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korrektur der Gruppenlaufzeit eines Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . .

370 370 376 378

A

Fourier-Transformationen

383

B

Laplace-Transformation

389

C

z-Transformation

393

D

Blockschaltbilder

397

E

Herleitung der Spline-Interpolation

399

Literaturverzeichnis

401

Index

403

Teil I

Einführung

1

Einleitung

Wenn man ein Buch über Signale und Systeme schreibt, so stellen sich am Anfang die Fragen: Was sind Signale? Was sind Systeme? Neben der Materie und der Energie, die durch Einsteins Formel E = m · c2 verknüpft sind, ist der Begriff „Information“ von großer Bedeutung. Informationen können, genauso wie Materie und Energie, gewonnen, verarbeitet, transportiert, gelagert und „gebraucht“ werden. Der Weg der Stahlkarosserie eines Automobiles lässt sich etwa so beschreiben: Eisenerz wird gewonnen, dann in Hochöfen zu Rohstahl verarbeitet, zum Automobilhersteller transportiert, dort zwischengelagert und danach wird daraus die Karosserie gefertigt. Auch für die Energie lässt sich ein Beispiel angeben: Die potentielle Energie eines Staudamms wird in kinetische Energie des herabströmenden Wassers umgewandelt. In der Wasserturbine geht diese dann über in die rotatorische Energie des Turbine-GeneratorSystems. Der Generator erzeugt daraus elektrische Energie, die hochtransformiert zum Verbraucher transportiert wird. Es soll hier nicht darüber diskutiert werden, welche Möglichkeiten es gibt, Materie und Energie zu gewinnen, zu verarbeiten, zu transportieren, zu lagern und zu nutzen, sondern diese Kette soll auf Informationen angewandt werden. Unabhängig vom abstrakten Begriff „Information“ ist diese in unserer technischen Welt immer als physikalische Größe, d. h. als Signal, dargestellt. So kann man also Signale gewinnen („messen“), verarbeiten, übertragen, speichern und nutzen („regeln und steuern“). Mit der Signalgewinnung, d. h. dem Messen physikalischer Größen, beschäftigt sich die Messtechnik. Die Signalübertragung findet ihren Platz in der Nachrichtentechnik. In der Technik werden Signale zum Beispiel dazu verwendet, um Prozesse zu regeln und zu steuern. Das Speichern von Signalen ist mehr ein interdisziplinärer Fachbereich, zumal digitale Signale äußerst einfach gespeichert werden können. Übrig geblieben ist die Signalverarbeitung. Nun sollte es einfacher sein, die Verarbeitung gegenüber den anderen Gliedern der Kette abzugrenzen. Man versteht unter Signalverarbeitung die Aufbereitung unterschiedlichster Signale, um bestimmte Informationen „herauszufiltern“. Genauso wie das Eisen erst aus dem Eisenerz gewonnen werden muss, müssen bestimmte Informationen aus dem „verrauschten“ Signal extrahiert werden. Des Weiteren können, entsprechend der Energie, Signale in andere Signale umgeformt werden. Auch hierdurch erhält man neue Informationen.

4

1.1

1 Einleitung

Signale

Um auf die Frage näher eingehen zu können, was Signale sind, betrachten wir als Erstes nachfolgende Definition. Unter einem Signal versteht man den zeitlichen Verlauf einer beobachteten Größe, die eine für den Betrachter relevante Information enthält.1 Beobachtete Größen können unterschiedlicher Natur sein. So kommen gemessene physikalische Größen in Betracht, wie z. B. Spannung und Strom in der Elektrotechnik oder Schalldruck und Schallschnelle in der Akustik. Die physikalische Größe braucht in vielen Fällen gar nicht unmittelbar messbar zu sein, wenn es gelingt, sie aus anderen vorhandenen Messgrößen zu schätzen. Solche Schätzverfahren sind allerdings nicht Gegenstand dieses Buches. Die beobachtete Größe kann aber auch ganz anderer Art sein, z. B. das Datenwort in einem Computer oder Daten, die über das Internet bezogen werden. So ist der zeitliche Verlauf des Börsenkurses einer Aktie ein Signal. Die Aktienkurse schwanken bekanntlich stark, was als Störung angesehen werden kann. Anleger sind mehr am längerfristigen Kurstrend interessiert, weshalb Störungen unterdrückt werden müssen. Auch dazu dient die Signalverarbeitung. Mathematisch werden Signale durch reell- oder komplexwertige Funktionen der Zeit dargestellt, das heißt, es handelt sich um eindeutige Abbildungen von R nach R oder nach C. Nicht jede Funktion der Zeit repräsentiert ein physikalisch erzeugbares Signal. Es ist jedoch notwendig, auch physikalisch nicht realisierbare Signale als Signalmodelle für theoretische Untersuchungen zur Verfügung zu haben.

1.2

Systeme

Unter dem Begriff System versteht man eine Einrichtung, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) antwortet, vgl. Abbildung 1.1.

Abbildung 1.1: Zur Definition des Systembegriffs.

Mathematisch wird dieses Verhalten durch eine Operatorgleichung beschrieben: ya (t) = S{ye (t)} .

(1.1)

Als Beispiele sollen ein Spannungsteiler und ein RC-Tiefpass betrachtet werden. 1 In diesem Buch werden überwiegend Signale y(t) als Funktionen der Zeit t betrachtet. Vielfach interessiert man sich jedoch für Signale als Funktionen einer anderen Größe, etwa des zweidimensionalen Ortes x = (x, y)T , wie es bei Bildsignalen y(x) der Fall ist.

5

1.2 Systeme

Abbildung 1.2: Spannungsteiler.

Beispiel 1.2 (Spannungsteiler als System) Eine Eingangsspannung ue (t) wird an einen Spannungsteiler gelegt (siehe Abb. 1.2). Ohne große Rechnung ergibt sich die Ausgangsspannung ua (t) zu: ua (t) =

R2 · ue (t) . R1 + R2

(1.3)

Der Spannungsteiler ist ein System, das die Eingangsspannung ue (t) in die Ausgangsspannung ua (t) überführt. Gleichung (1.3) beschreibt das System mathematisch. • Beispiel 1.4 (RC-Tiefpass als System) Eine Eingangsspannung ue (t) wird an einen RC-Tiefpass gelegt (siehe Abb. 1.3). Mit dem Zusammenhang zwischen Strom und Spannung an einem Kondensator, iC (t) = C ·

duC (t) , dt

(1.5)

kann man den RC-Tiefpass als Differentialgleichung zwischen der Ausgangsspannung ua (t) und der Eingangsspannung ue (t) darstellen: (1.6)

RC · u˙ a (t) + ua (t) = ue (t) .

Benutzt man hingegen eine Zeigerdiagrammdarstellung aus den Grundlagen der Elektrotechnik, so ergibt sich mit Ua =

1 jωC

R+

1 jωC

· Ue =

1 · Ue 1 + jωRC

Abbildung 1.3: RC-Tiefpass.

(1.7)

6

1 Einleitung eine andere Darstellung zwischen Ein- und Ausgangsspannung. Während die Darstellung des Systems „RC-Tiefpass“ als Differentialgleichung für alle möglichen Eingangsspannungen eine Lösung anbietet, gilt die Zeigerdiagrammdarstellung nur bei sinusförmigen Spannungen. •

Anhand der beiden Beispiele zeigt sich, wie schwierig es ist, ein System mathematisch zu beschreiben. Dabei versucht man, wie bei den Signalen, die Systeme durch eine Art Systemfunktion zu beschreiben.

1.3

Signalverarbeitung

Die Aufgabe der Signalverarbeitung ist die gezielte Bereitstellung von Systemen zur kontrollierten Beeinflussung von Signalen. Soll z. B. eine Spannung u(t) halbiert werden, so kann man dafür einen Spannungsteiler verwenden. Da sowohl Signale als auch Systeme durch Funktionen dargestellt werden, sind für die Ermittlung einer optimalen Systemfunktion Kenntnisse der Funktionalanalysis nötig. Um die grundlegende Struktur der Untersuchung von Signalen und die gezielte Bereitstellung von Systemen darstellen zu können, wird in diesem Abschnitt statt der Funktionalanalysis die Vektoranalysis, die aus den Grundlagenvorlesungen der höheren Mathematik bekannt ist, zur Motivation herangezogen. Dabei wird ein Signal durch einen Vektor dargestellt. Ein N -dimensionaler Vektor y repräsentiert einen Punkt im N -dimensionalen Raum, d. h. jedes Signal wird durch einen Punkt dargestellt. Untersucht man nun eines oder mehrere Signale nach bestimmten Eigenschaften, so untersucht man die Lage der den Signalen entsprechenden Punkte im Raum. Beispiel 1.8 (Änderung der Basisvektoren) Es soll untersucht werden, ob gegebene Signale auf einer Geraden liegen. Natürlich könnte man sämtliche Signalpunkte in die Geradengleichung einsetzen und überprüfen, ob sie diese erfüllen. Da aber in der Realität Signale physikalische Messgrößen beschreiben, weisen die Messwerte Störungen auf, d. h. auch wenn sich die physikalische Größe auf der Gerade befand, so befinden sich die Messwerte im Allgemeinen nicht darauf. Eine zweite Möglichkeit bestünde darin, den Abstand zwischen den Punkten und der Geraden zu bestimmen. Überschreitet der Abstand ein bestimmtes Maß nicht, so kann man annehmen, dass der jeweilige Punkt auf der Geraden liegt. Die dritte und hier weiter betrachtete Möglichkeit ist eine Änderung der Basisvektoren, sodass die Gerade parallel zu oder senkrecht auf den Basisvektoren steht. Dann müssen die Koordinaten, zu denen die Gerade senkrecht auf den Basisvektoren steht, innerhalb eines bestimmten Intervalls liegen. Die Änderung der Basisvektoren soll anhand von Abbildung 1.4 exemplarisch gezeigt werden. Während der Punkt P im kartesischen Koordinatensytem die Koordinaten pT = (1, 1) besitzt, lassen sich die Koordinaten im neuen Basisvektorensystem

7

1.3 Signalverarbeitung

Abbildung 1.4: Änderung der Basisvektoren.

S = {s1 , s2 } mit   2 s1 = 1

und

 s2 =

−1 2



über   1 1 p01 =   2 1

  2 1 3  = , 5 2 · 1 ·

    1 −1 · 1 2 1   = p02 =  5 −1 −1 · 2 2

berechnen. Im Allgemeinen wird die i-te Koordinate eines Vektors im neuen Basisvektorensystem S durch p0i =

p · si si · si

(1.9)

angegeben. Handelt es sich bei S um ein orthonormales Basisvektorensystem, so ist der Nenner si · si = 1, und die i-te Koordinate wird durch p0i = p · si

(1.10)

bestimmt. Von großer Bedeutung ist also das Innenprodukt „ · “ zwischen zwei Vektoren. Mit dem Innenprodukt kann man ein Signal in eine neue Darstellungsweise transformieren. Nach der Einführung eines verallgemeinerten Innenprodukts zwischen zwei Funktionen im Rahmen der Funktionalanalysis kann man mit dem Innenprodukt auch Signaltransformationen im Funktionenraum durchführen. Hierbei sei angemerkt, dass solch eine Transformation nicht das Signal, sondern nur seine Darstellung ändert. So liegt der Punkt P immer noch an der gleichen Stelle. Er besitzt im neuen Basisvektorensystem S nur andere Koordinaten. •

8

1 Einleitung

Die Signalanalyse verändert also ein Signal nicht, sondern versucht durch geschickte Änderung der Darstellungsweise mehr Aussagen über das Signal zu gewinnen. Systeme werden in der Vektoranalysis durch Matrizen S dargestellt. Die Multiplikation eines Eingangssignals ye mit einer Systemmatrix S ergibt ein Ausgangssignal ya : (1.11)

ya = S · ye . Dies soll anhand von zwei Beispielen verdeutlicht werden.

Beispiel 1.12 (Projektion auf die x-Achse) Möchte man einen Punkt P im zweidimensionalen Raum auf die x-Achse projizieren, so kann man dies mit Hilfe folgender Systemmatrix S tun:  S=

10 00

 .

So wird zum Beispiel der Punkt (2, 3)T mit der Systemmatrix S auf den Punkt       2 10 2 = · 0 00 3 projiziert.



Beispiel 1.13 (Drehung um den Winkel ϕ) Möchte man einen Vektor zum Punkt P im zweidimensionalen Raum um den Winkel ϕ drehen (siehe Abbildung 1.5), so kann man dies mit folgender Systemmatrix S tun:  S=

cos ϕ − sin ϕ sin ϕ cos ϕ

 .

So wird zum Beispiel der Punkt (2, 1)T bei einer Drehung von 30◦ mit der Systemmatrix S auf den Punkt √ √ ! !   2 3−1 3 1 2 2 2 −2 = · √ √ 1 3+2 3 1 2

abgebildet.

2

2



Die beiden Beispiele zeigen, dass ein System im Bereich der Vektoranalysis durch eine Matrix dargestellt werden kann. Im Bereich der Funktionalanalysis werden Systeme durch Systemfunktionen beschrieben.

9

1.4 Struktur des Buches

Abbildung 1.5: Drehung eines Vektors zum Punkt um den Winkel ϕ.

1.4

Struktur des Buches

Nach einer Einführung in die Funktionalanalysis werden zuerst Analysemethoden für Signale und dann Eigenschaften, Darstellung, Untersuchung und Entwurf von Systemen sowohl für kontinuierliche als auch für diskrete Zeitänderungen vorgestellt. Im Zeitkontinuum werden reale physikalische Prozesse und deren Signale und Systeme durch Funktionen beschrieben. Dabei werden die physikalischen Größen in stetige Signale abgebildet, die durch die Signalfunktion dargestellt werden: Signalfunktion y(t) :

y : R −→ R .

(1.14)

Bei der Zeitdiskretisierung liegen die Werte der physikalischen Größe nur zu äquidistanten Zeitpunkten vor, d. h. das Signal wird durch eine Folge dargestellt. Im Gegensatz zur üblichen mathematischen Folge existiert die Signalfolge auch für negative Indizes: Signalfolge yn :

y : Z −→ R .

(1.15)

Im Anhang findet man einen Vergleich aller Transformationen für zeitkontinuierliche und zeitdiskrete Signale sowie Tabellen mit Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-, Laplace- und z-Transformation.

2

Mathematische Grundlagen

Die Betrachtung von Signalen und Systemen kommt als Ingenieurwissenschaft ohne mathematische Hilfsmittel nicht aus. Die Vorlesungen der Höheren Mathematik bauen ein stabiles Fundament auf, das durch weitere Begriffe der Funktionalanalysis erweitert wird. Ausgehend von linearen Vektorräumen werden die für die Signalverarbeitung wichtigen Hilbert-Räume eingeführt und die linearen Operatoren behandelt. Von diesem Punkt aus ergibt sich eine gute Übersicht über die verwendeten mathematischen Methoden. Die gemeinsame Basis der Verfahren wird deutlich. Ähnlichkeiten erscheinen nicht zufällig, sie lassen sich begründen. Die kurze Darstellung ersetzt keine Einführung in die Funktionalanalysis. Wer eine vollständige und abgeschlossene Darstellung wünscht, findet sie unter [Heu86, Heu04, HW98, KA78]. Neben den normalen vier Grundrechenarten gibt es weitere „Rechenzeichen“, die Operatoren. Sie beschreiben, je nach Art, eine jeweils andere Abbildung einer Definitionsmenge in eine Bildmenge. Im Bereich der Signalverarbeitung und Systembeschreibung werden nicht nur reellwertige Funktionen benutzt, sondern auch Funktionen, welche die reellen Zahlen in die komplexe Ebene oder die komplexe Ebene in sich selbst abbilden. Hierzu werden die holomorphen Funktionen in komprimierter Form wiederholt. Beim Überblättern des 2. Kapitels wird dem Leser eine recht mathematische Darstellungsweise auffallen. Diese ist nicht zur Abschreckung gedacht, sondern bei der axiomatischen Vorgehensweise unumgänglich.

2.1

Räume

Man kann die hier behandelten Räume als abstrakte Erweiterung des aus unserer Erfahrungswelt wohl bekannten dreidimensionalen euklidischen Raumes R3 , in dem wir leben, auffassen. Die axiomatische Vorgehensweise der Mathematik ermöglicht eine Übertragung der „typischen“ Eigenschaften dieses Raumes auf „Vektoren“, die aus Zufallsvariablen, Wertefolgen oder gewöhnlichen Funktionen bestehen können. Durch diesen Zusammenhang kann man fast immer auf die Visualisierung durch geometrische Darstellungen zurückgreifen. Abbildung 2.1 zeigt den Weg, der von den unstrukturierten Mengen durch die Einführung von algebraischen und metrischen Strukturen hin zu den Hilbert-Räumen führt.

12

2 Mathematische Grundlagen

Unstrukturierte Mengen

 

 



H

HH H

H j

Lineare Räume: Addition, Multiplikation mit Skalaren

Metrische Räume: Abstand d(x, y)

     9 ? Normierte Räume: Norm kxk Abstand d(x, y) = kx − yk

?

Innenprodukträume: Innenprodukt hx, yi

HH H HH j

    

Unitärep Räume: kxk = hx, xi

? Hilbert-Raum: Vollständigkeit, Fundamentalfolge

Abbildung 2.1: Zusammenhang mathematischer Räume.

2.1.1

Metrischer Raum

Ein metrischer Raum erlaubt die Berechnung von Abständen zwischen den betrachteten Elementen. Definition 2.1 (Metrischer Raum) Eine Menge M von Elementen heißt ein metrischer Raum, wenn jedem Elementepaar x, y ∈ M eine reelle Zahl d(x, y) mit folgenden Eigenschaften zugeordnet ist: (M1)

d(x, y) ≥ 0 ,

(M2)

d(x, y) = d(y, x)

(M3)

d(x, y) ≤ d(x, z) + d(z, y)

d(x, y) = 0



x=y

(Dreiecksungleichung, Abbildung 2.2)

Man nennt d(x, y) den Abstand (oder Metrik ) zwischen x und y.

13

2.1 Räume z A  

d(x, z)

  

 x 

A A A

d(y, z) A A y

d(x, y)

Abbildung 2.2: Dreiecksungleichung.

Beispiel 2.2 (Abstand im zweidimensionalen euklidischen Raum) Im zweidimensionalen euklidischen Raum wird der Abstand der durch die Ortsvektoren x = (x1 , x2 )T und y = (y1 , y2 )T dargestellten Punkte wie folgt berechnet: p d(x, y) = (x1 − y1 )2 + (x2 − y2 )2 . •

2.1.2

Linearer Raum

Der in der Schulzeit geprägte Begriff des Vektors wird hier erweitert. Dabei muss ein Vektor keine „Pfeilgestalt“ besitzen. Vielmehr gilt jetzt allgemein: Definition 2.3 (Linearer Raum, Vektorraum) Eine Menge V von Objekten (den Vektoren) heißt Linearer Raum oder Vektorraum über dem Körper C (den Skalaren), wenn gilt: 1. Es existiert eine Operation, genannt Vektoraddition, die jedem Paar von Vektoren x, y ∈ V einen Vektor x+y ∈ V zuweist, so dass die folgenden Eigenschaften erfüllt sind: (L1)

x+y =y+x

(L2)

x + (y + z) = (x + y) + z

(Kommutativität)

(L3)

Es gibt einen Nullvektor 0 ∈ V , so dass x + 0 = x ,

(L4)

Zu jedem Vektor x ∈ V gibt es einen inversen Vektor −x ∈ V , so dass gilt x + (−x) = 0.

(Assoziativität) x∈V .

Die Vektoren bilden also bezüglich der Addition eine kommutative Gruppe. 2. Es existiert eine Operation, genannt skalare Multiplikation, die jedem Skalar c ∈ C und Vektor x ∈ V einen Vektor c x ∈ V zuweist, so dass (L5)

1x = x

(L6)

(c1 c2 ) x = c1 (c2 x)

(L7)

c (x + y) = c x + c y (c1 + c2 ) x = c1 x + c2 x

(Assoziativität) (Distributivität)

14

2 Mathematische Grundlagen

erfüllt sind. Es sind nicht nur lineare Räume über dem Körper der reellen Zahlen möglich, sondern auch über dem der komplexen Zahlen.

Beispiel 2.4 (n-dimensionaler euklidischer Raum) Beim n-dimensionalen euklidischen Raum werden die Skalare durch den Körper der reellen Zahlen gebildet. Die Vektoren sind n-Tupel der Form x = (x1 , x2 , . . . , xn )T , wobei die xi reelle Zahlen sind und die i-te Komponente von x genannt werden. Die Vektoraddition und die skalare Multiplikation werden komponentenweise erklärt: x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn )T , c x = (c x1 , c x2 , . . . , c xn )T . Der Nullvektor ist durch 0 = (0, 0, . . . , 0)T gegeben und der inverse Vektor zu x durch −x = (−x1 , −x2 , . . . , −xn )T . • Ein weiterer im Folgenden auftretender Raum ist der Raum der Funktionen einer Zeitvariablen.

Beispiel 2.5 (Funktionenraum) Die Menge aller Funktionen x(t) ∈ V = {x : R −→ R} bilden einen Vektorraum über dem Körper der reellen Zahlen, wenn man die Funktionenaddition und Multiplikation mit einem Skalar punktweise definiert. •

Beispiel 2.6 (Zufallsvariablen) Wenn C = R den Körper der reellen Zahlen und V die Menge der Zufallsvariablen mit endlichem Mittelwert und endlicher Varianz bezeichnen und c1 x + c2 y für x, y ∈ V , c1 , c2 ∈ C, in gewohnter Weise definiert ist, erhält man ebenfalls einen Vektorraum. Eine Zufallsvariable ist eine Variable, die nicht explizit bekannt ist. Ein stochastischer Prozess ist eine Schar von Zufallsvariablen, die durch einen Parameter indiziert wird und deren zeitlicher Verlauf unbekannt ist. Jedoch kann man mit Hilfe der Dichtefunktion dieser Zufallsvariablen Aussagen über die Wahrscheinlichkeit machen, dass der Funktionswert innerhalb eines bestimmten Intervalls liegt. Der Mittelwert und die Varianz einer Zufallsvariablen lassen sich aus der Dichtefunktion ermitteln. Nimmt man zwei Elemente, d. h. zwei beliebige zufällige Funktionen, aus diesem Raum heraus und addiert sie in einer Linearkombination miteinander, so entsteht wieder eine zufällige Funktion mit endlichem Mittelwert und Varianz, also eine Funktion aus V . •

15

2.1 Räume

2.1.3

Normierte Räume

Die Bewertung der Länge eines Vektors wird durch eine Norm ermöglicht. Definition 2.7 (Normierte Räume) Ein linearer Raum V über dem Körper C heißt normierter Raum, wenn jedem Element x ∈ V eine reelle Zahl kxk, die Norm des Elementes x, zugeordnet ist und diese Norm folgende Eigenschaften hat: (N1)

kxk ≥ 0,

(N2)

kαxk = |α| · kxk ,

(N3)

kx + yk ≤ kxk + kyk

kxk = 0



x=0

(positive Definitheit) (Homogenität)

α∈C

(Dreiecksungleichung)

Ein normierter Raum V wird durch folgende Definition zu einem metrischen Raum: d(x, y) = kx − yk .

(2.8)

In einem normierten Raum sind durch Gl. (2.8) alle Eigenschaften (M1) bis (M3) einer Metrik erfüllt. Die Metrik in Gl. (2.8) hat noch die weiteren Eigenschaften: d(x + z, y + z) = d(x, y) d(αx, αy) = |α| · d(x, y)

2.1.4

Innenproduktraum

Als Nächstes wird der Begriff des Innenproduktes eingeführt. Definition 2.9 (Innenproduktraum) Ein (reeller bzw. komplexer) linearer Raum V heißt Innenproduktraum, wenn jedem Elementepaar x, y ∈ V eine (reelle bzw. komplexe) Zahl hx, yi, das Innenprodukt der Elemente x und y, mit folgenden Eigenschaften zugeordnet ist: (IP1)

hx, xi ≥ 0 ,

(IP2)

hx, yi = hy, xi∗

(IP3)

hx + y, zi = hx, zi + hy, zi

(IP4)

hαx, yi = α · hx, yi

hx, xi = 0 ⇔ x = 0

Dabei bezeichnet ∗ die komplexe Konjugation. In einem linearen Raum mit Innenprodukt gelten folgende Sätze.

16

2 Mathematische Grundlagen

Satz 2.10 (Vertauschung des Skalars) Aus (IP2) und (IP4) folgt: hα x, yi = α hx, yi = α hy, xi∗ = (α∗ hy, xi)∗ = hα∗ y, xi∗ = hx, α∗ yi .



Satz 2.11 (Schwarz’sche Ungleichung) Es gilt die Schwarz’sche Ungleichung: |hx, yi|2 ≤ hx, xi hy, yi. • Beweis: Für den Fall y = 0 ist die Aussage klar. Ist jedoch y 6= 0, so ergibt sich für alle α: 0 ≤ hx + α y, x + α yi = hx, xi + α∗ hx, yi + αhy, xi + |α|2 hy, yi . Setzt man nun α=−

hx, yi , hy, yi

so erhält man 0 ≤ hx, xi −

hy, xihx, yi hx, yihy, xi hx, yihy, xi − + hy, yi . hy, yi hy, yi |hy, yi|2

Die Multiplikation mit hy, yi ergibt die Schwarz’sche Ungleichung aus Satz 2.11: 0 ≤ hx, xi · hy, yi − hx, yi · hy, xi . | {z } |hx,yi|2

Bemerkung 2.12 Aus obigem Beweis ist sofort ersichtlich, dass in der Schwarz’schen Ungleichung die Gleichheit gilt, falls x + α y = 0 erfüllt ist, d. h. x und y linear abhängig sind. • Auf eine besondere Eigenschaft des inneren Produktes soll noch hingewiesen werden. Die Norm und der Abstand sind positiv und nur dann null, wenn x = 0 bzw. x = y ist. Beim Innenprodukt hx, yi gibt es dagegen viele Vektoren y, für welche bei gegebenem Vektor x das Innenprodukt verschwindet. Dabei sind weder x noch y gleich null.

17

2.1 Räume Definition 2.13 (Orthogonalität)

Man bezeichnet zwei Vektoren x und y mit x, y 6= 0 als zueinander orthogonal und schreibt x ⊥ y, falls hx, yi = 0 gilt. Beispielsweise sind die Einheitsvektoren im kartesischen Koordinatensystem zueinander orthogonal. Das Innenprodukt der Vektoren x und y ist dort gegeben durch hx, yi = kxk kyk cos (ϑ), wobei ϑ der von x und y eingeschlossene Winkel ist. Das Innenprodukt für x und y wird zu null, wenn ϑ = π2 oder ϑ = 3π 2 ist, also wenn x und y einen rechten Winkel einschließen.

2.1.5

Unitärer Raum

Führt man in einem linearen Raum V mit Innenprodukt die Norm p kxk = hx, xi , x ∈ V , ein, dann ist V ein normierter Raum. Es ergibt sich nämlich kx + yk2 = hx + y, x + yi = hx, xi + hx, yi + hy, xi + hy, yi = hx, xi + hx, yi + hx, yi∗ + hy, yi ≤ hx, xi + 2|hx, yi| + hy, yi p = kxk2 + 2 |hx, yi|2 + kyk2 und dann mit Hilfe der Schwarz’schen Ungleichung (Satz 2.11) kx + yk2 ≤ kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 die Dreiecksungleichung kx + yk ≤ kxk + kyk . Alle anderen Eigenschaften einer Norm sind durch die für ein Innenprodukt geforderten Eigenschaften offensichtlich auch erfüllt. Definition 2.14 (Unitärer Raum) Ein normierter Raum V heißt unitär, wenn V ein Innenproduktraum ist, in dem p Norm und Skalarprodukt durch die Beziehung kxk = hx, xi für alle x ∈ V zusammenhängen. Unitäre Räume, also normierte Räume mit Innenprodukt, braucht man in der Technik und in der Signalverarbeitung häufig. Wie im nächsten Beispiel gezeigt, lässt sich beispielsweise die Berechnung der Leistung in elektrischen Systemen damit beschreiben.

18

2 Mathematische Grundlagen

Beispiel 2.15 (Komplexe Leistung) Wie schon aus den Grundlagen der Elektrotechnik bekannt, kann man sinusförmige Wechselspannungen und -ströme als komplexe Größen darstellen. Die komplexe Leistung kann dann als Innenprodukt 1 hU, Ii 2 angegeben werden. Dabei ist die komplexe Leistung als eine Energiedichtefunktion zu interpretieren. Das Integral von −∞ bis ∞ würde im Allgemeinen eine unendlich große Energie ergeben, d. h. das Integral konvergiert nicht. Deshalb wird das Innenprodukt als die mittlere Leistung, d. h. als mittlere Energie pro Zeiteinheit, mit Hilfe eines Integrals berechnet: S=

T

1 S¯ = T

Z2 u(t) i(t) dt .



− T2

2.1.6

Hilbert-Raum

Zum Abschluss kommt nun noch die Definition der Hilbert-Räume. Für die Definition des Hilbert-Raums benötigt man den Begriff der Vollständigkeit. Diesen kann man im Bezug auf metrische Räume leicht angeben. Definition 2.16 (Vollständigkeit in metrischen Räumen) Ein metrischer Raum M heißt vollständig, wenn jede konvergente Folge von Punkten aus M einen Grenzpunkt im Raum M besitzt. Die Vollständigkeit lässt sich anschaulich an einem kleinen Beispiel aus der Schulmathematik betrachten: √ Beispiel 2.17 (Bestimmung von 2) √ Es soll der Wert von 2 bestimmt werden, d. h. man sucht die Nullstelle der Funktion f (x) = x2 − 2 . Mit Hilfe des Newton’schen Verfahrens lässt sich die Approximation der Nullstelle mit der Iterationsvorschrift xn+1 = xn −

f (xn ) x2n − 2 = x − n f 0 (xn ) 2xn

formulieren. Wählt man den Anfangswert aus den√rationalen Zahlen Q, so ist jeder weitere Wert xn ebenfalls aus Q. Der Grenzwert 2 ist dagegen nicht aus Q, d. h. Q ist nicht vollständig. •

19

2.1 Räume Bemerkung 2.18

In [Heu86] wird gezeigt, dass Räume endlicher Dimension immer vollständig sind. • Mit dem Begriff der Vollständigkeit kann man die Definition des Hilbert-Raums angeben: Definition 2.19 (Hilbert-Raum) Jeder vollständige unitäre Raum V heißt ein Hilbert-Raum. In Abschnitt 3.1 werden die Funktionenräume eingeführt. Hierbei handelt es sich um Hilbert-Räume, deren Elemente Funktionen sind.

2.1.7

Basis

Eine Basis des R3 – z. B. die kartesischen Koordinaten oder die Kugelkoordinaten – spannt den Raum R3 auf. Hierbei bedeutet R, dass die Koordinaten den reellen Zahlen entnommen sind. Die natürliche Zahl N = 3 ist die Dimension des Raumes und entspricht der Zahl der Basisvektoren. In einem Vektorraum sind verschiedene Koordinatensysteme möglich. Der Leser hat sicher in seiner Studienzeit erlebt, wie entscheidend eine übersichtliche, elegante Rechnung von der Wahl eines geeigneten Koordinatensystems abhängt. Offensichtlich lassen sich, wie bereits in Beispiel 1.8 gezeigt, die Punkte im Raum durch verschiedene Koordinatensysteme beschreiben. Durch die Wahl des Abstandes zweier Vektoren d(x, y), der Metrik, durch das innere Produkt hx, yi und durch die Länge der Vektoren kxk, die Norm, strukturiert man sein Koordinatensystem, d. h. die Basis. Ein Vektor y wird im Einklang mit den Rechenregeln von Definition 2.3 als Linearkombination der Basisvektoren x1 , . . . , xN dargestellt: y = a1 x1 + a2 x2 + · · · + aN xN .

(2.20)

Dadurch kann jeder Vektor in einem festgelegten Koordinatensystem durch seine Koordinaten a1 , . . . , aN beschrieben werden und umgekehrt. Die Frage ist, wie die Koordinaten ai bestimmt werden können. Dazu multipliziert man Gl. (2.20) von rechts nacheinander mit den Vektoren x1 , . . . , xN und erhält ein in den Koeffizienten ai lineares Gleichungssystem: hy, x1 i = a1 hx1 , x1 i + a2 hx2 , x1 i + · · · + aN hxN , x1 i hy, x2 i = a1 hx1 , x2 i + a2 hx2 , x2 i + · · · + aN hxN , x2 i .. .. .. .. . . = . + . + .. + . hy, xN i = a1 hx1 , xN i + a2 hx2 , xN i + · · · + aN hxN , xN i .

(2.21)

20

2 Mathematische Grundlagen

In Matrixschreibweise lässt sich Gleichung (2.21) schreiben als 

  hy, x1 i hx1 , x1 i    .. .. =    . . hy, xN i hx1 , xN i | {z } | z

 · · · hxN , x1 i  .. ..  . . · · · hxN , xN i {z } G



 a1   ·  ...  aN | {z } a

(2.22)

oder, mit geeigneten Definitionen, auch als (2.23)

z = Ga.

Lässt sich die Matrix G invertieren, existiert eine eindeutige Lösung für a. Die Bedingung für die Invertierbarkeit von G ist bekanntlich, dass die Determinante |G| nicht verschwindet. Definition 2.24 (Basis) Eine Basis {x1 , . . . , xN } spannt einen N -dimensionalen Raum RN auf, wobei die Vektoren xi linear unabhängig sein müssen. Dazu muss die Gram’sche Matrix G regulär sein, d. h. für die Determinante gilt: det(G) = |G| = 6 0. Eine Basis als Menge eines übergeordneten Raumes R heißt vollständig, wenn die Basisvektoren den Raum vollständig aufspannen, d. h. jeder Punkt im Raum durch Linearkombination der Basisvektoren erreichbar ist und somit RN = R gilt.

Satz 2.25 (Lineare Unabhängigkeit) Aus der Definition 2.24 folgt, dass die Vektoren x1 , . . . , xN linear unabhängig sind, wenn die Matrix G mit den Elementen gij = hxi , xj i regulär ist. Die Linearkombination der Vektoren x1 , . . . , xN verschwindet somit bei linear unabhängigen Vektoren xi nur dann, wenn alle ai null sind: n X

ai xi = 0



i=1

ai = 0 ,

i ∈ {1, . . . , n} .

(2.26) •

Satz 2.27 (Hermite’sche Matrix) Aus dem Zusammenhang hx, yi = hy, xi∗ (Definition 2.9 (IP2)) folgt zusammen ∗ mit der Gleichung (2.22), dass die Gram’sche Matrix die Eigenschaft gij = gji bzw. T∗ G = G besitzt. Solche Matrizen heißen Hermite’sche Matrizen. • Eine besonders einfache Berechnung der Koordinaten ai ergibt sich bei den orthonormalen Basen.

21

2.1 Räume Definition 2.28 (Orthonormale Basis)

Eine orthonormale Basis {e1 , . . . , eN } ist eine Basis mit den zusätzlichen Eigenschaften: (OB1) kei k = 1 (normiert) (OB2) hei , ej i = δij ,

wobei δij =



1 für i = j . 0 sonst

Dann ist die Matrix E = (e1 , . . . , eN ), die aus diesen Vektoren gebildet wird, eine orthogonale Matrix, denn wegen hei , ej i = δij folgt: ET · E∗ = I und somit E−1 = ET∗ .

Hierbei folgt die erste Eigenschaft (OB1) aus der zweiten (OB2), wird aber aus Gründen der Übersichtlichkeit separat aufgeführt. Mit Hilfe der Definition 2.28 lässt sich Gleichung (2.21) bei orthogonalen Basisvektoren drastisch vereinfachen: hy, e1 i = a1 hy, e2 i = a2 .. .

(2.29)

hy, eN i = aN . Für die Gram’sche Matrix G gilt G = I, wodurch sich die Invertierung erübrigt. Von unseren Erfahrungen im Raum R3 wissen wir, dass sich immer eine orthonormale Basis schaffen lässt. Dies gilt für alle unitären Räume. Jeder Vektor y ∈ V N lässt sich als Linearkombination von N unabhängigen Basisvektoren darstellen. Wie man von einer Basis (x1 , . . . , xN ) zu einer orthonormalen Basis kommt, zeigt das nachfolgende, nach Jørgen Pedersen Gram (1850–1916) und Erhard Schmidt (1876–1959) benannte Verfahren [HW98].

Satz 2.30 (Gram-Schmidt’sches Orthonormalisierungsverfahren) Es sei B = {x1 , . . . , xN } eine Basis mit den linear unabhängigen Vektoren xi . Dann gibt es eine orthonormale Basis E = {e1 , . . . , eN }, welche denselben Raum auf-

22

2 Mathematische Grundlagen p −hx2 , e1 ie1  * p p p  K A p p  p p  A p p  p p  A p p  Y H *  p p HH A p p  h A 2 HH p p  hx2 , e1 ie1  H A  H   AK  x2 HH  x1   HHA e2  *     H Ae 1

Abbildung 2.3: Gram-Schmidt’sches Orthonormalisierungsverfahren in der Ebene.

spannt. Man findet E durch folgende Vorgehensweise: x1 e1 = , kx1 k hk ek = mit khk k hk = xk −

k−1 X

hxk , ei iei ,

k = 2, . . . , N .

(2.31) (2.32) (2.33)

i=1

Dass der Vektor hk wirklich senkrecht zu allen bisherigen Basisvektoren el , l ≤ k −1, steht, lässt sich einfach zeigen. Durch Multiplikation von rechts mit el ergibt sich hhk , el i = hxk , el i −

k−1 X i=1

|

hxk , ei i hei , el i = 0 . | {z } δil {z } hxk , el i

Diese Formeln gestatten es, das Orthonormalsystem E, mit e1 beginnend, der Reihe nach auszurechnen. Das Verfahren wird bis k = N durchgeführt. • Genauso kann man nun ein Orthonormalsystem E um eine Dimension erhöhen, indem man, ausgehend von einem zu e1 , . . . , eN linear unabhängigen Vektor xN +1 , die Gleichungen (2.32) und (2.33) anwendet. Abbildung 2.3 zeigt die Prozedur in der Ebene. Beispiel 2.34 (Gram-Schmidt’sches Orthonormalisierungsverfahren) Im dreidimensionalen euklidischen Raum sei die Basis       3 2 1 x1 =  0  , x2 =  0  , x3 =  4  4 1 0 gegeben. Um aus der Basis {x1 , x2 , x3 } eine orthonormale Basis zu konstruieren, wendet man das Gram-Schmidt’sche Orthonormalisierungsverfahren schrittweise an.

23

2.1 Räume 

1. Nach Gl. (2.31) lautet der 1. Vektor:

e1

 0,6 x1 = =  0 . kx1 k 0,8 

2. Durch Einsetzen in (2.33) resultiert:

h2 = x2 −

3. Mit (2.32) folgt für den 2. Vektor:

e2 =

4. Einsetzen der ei in (2.33) ergibt:

h3 = x3 −

5. Mit (2.32) erhält man schließlich:

e3 =

h2 kh2 k

h3 kh3 k

 0,8 hx2 , e1 i e1 =  0  . | {z } −0,6 2   0,8 =  0 . −0,6   2 0 X hx3 , ei iei =  4  . 0 i=1   0 = 1. 0

Man kann leicht überprüfen, dass die Vektoren e1 , e2 und e3 eine orthonormale Basis bilden. • Am Gram-Schmidt’schen Orthonormalisierungsverfahren haben wir erfahren, dass sich mit unabhängigen Vektoren x1 , . . . , xk eine orthonormale Basis e1 , . . . , ek schaffen lässt, die einen k-dimensionalen Raum V k aufspannt. Kommen neue unabhängige Vektoren xk+1 , . . . , xk+n hinzu, so lassen sich orthonormale Vektoren ek+1 , . . . , ek+n konstruieren, die einen n-dimensionalen Raum V n aufspannen. Beide Räume zusammen bilden den k + n-dimensionalen Raum V k+n . Die Unterräume sind Teilräume von V k+n : es gilt also V k ⊆ V k+n und V n ⊆ V k+n . Jeder Vektor y ∈ V k steht senkrecht auf jedem Vektor x ∈ V n , da wegen y =

k X

ai ei

und

x =

i=1

k+n X

bi ei

i=k+1

das Innenprodukt aufgrund der Orthogonalität verschwindet: hx, yi = 0. Man sagt deshalb auch, der Raum V k steht senkrecht auf dem Raum V n : Vk ⊥Vn.

(2.35)

Beispiel 2.36 (Orthogonale Räume) Im dreidimensionalen Raum mit der orthonormalen Basis e1 , e2 und e3 in x-, y- und z-Richtung sei V 1 der Unterraum in x-Richtung. Der zweite Unterraum V 2 ist die y,z-Ebene. Die beiden Unterräume bilden den dreidimensionalen Raum V 3 . Jeder Vektor x e1 ∈ V 1 steht senkrecht zu jedem Vektor y e2 + z e3 ∈ V 2 . • Im Folgenden soll die nach Friedrich Wilhelm Bessel (1784–1846) benannte Ungleichung hergeleitet werden. Sie besagt, dass ein Vektor eines unitären Raumes mindestens so lang wie seine Projektion auf einen beliebigen Unterraum ist.

24

2 Mathematische Grundlagen

Eine orthonormale Basis {e1 , . . . , eN } spanne den N -dimensionalen Raum V N auf. V N sei ein Unterraum eines Raumes V höherer Dimension: V N ⊆ V , wobei sowohl V N als auch V unitäre Räume seien. Wir betrachten einen Vektor y ∈ V und bestimmen die Koordinaten yi = hy, ei i, i = 1, . . . , N . Man erhält mit diesen Koordinaten als Koeffizienten einen Vektor ˆ = y

N X

yi ei ∈ V N .

(2.37)

i=1

ˆ ergibt sich zu: Das Quadrat des Abstandes zwischen y und y ˆ ) = ky − y ˆ k2 d2 (y, y   N N X X = y− yi ei , y − yi ei i=1

i=1



2

= kyk − y,

N X

 yi ei



X N

i=1

= kyk2 −

N X i=1

= kyk2 −

N X

 yi ei , y +

i=1

yi∗ hy, ei i − | {z } yi

N X i=1

X N i=1

yi hei , yi + | {z } yi∗

yi e i ,

N X

 yj ej

j=1

N X N X

yi yj∗ hei , ej i | {z } i=1 j=1

yi yi∗ ≥ 0 .

δij

(2.38)

i=1

Aus Gleichung (2.38) folgt sofort die Bessel’sche Ungleichung. Satz 2.39 (Bessel’sche Ungleichung) ˆ ∈ V N , so gilt die Bessel’sche Ungleichung: Ist V N ⊆ V und sind y ∈ V und y kyk2 ≥

N X

|yi |2 ,

wobei yi = hy, ei i .

(2.40)

i=1

Das Gleichheitszeichen gilt, wenn das orthonormale System {e1 , . . . , eN } den ganzen Raum V aufspannt. Das orthonormale System heißt dann vollständig. Der in diesem Fall aus (2.40) resultierende Zusammenhang ist die Parseval’sche Gleichung und stellt eine Verallgemeinerung des Satzes des Pythagoras dar. Das innere Produkt eines Vektors mit einem Vektor einer orthonormalen Basis heißt verallgemeinerter Fourier-Koeffizient: yi = hy, ei i. • In der Praxis kommen Räume von abzählbar unendlicher Dimension vor. Wir stellen Vektoren mit endlicher Norm kyk dar. Die Summe in Gleichung (2.40) muss also konvergieren. Die Teilsumme sN =

N X i=1

|yi |2

25

2.1 Räume muss mit wachsendem N gegen einen festen Wert oder der Vektor ˆN = y

N X

yi ei

i=1

gegen einen festen Punkt konvergieren: ˆN = y , lim y

lim d(ˆ yN , y) = lim kˆ yN − yk = 0 .

N →∞

N →∞

N →∞

ˆN In Hilbert-Räumen ist das Cauchy-Kriterium eine für die Konvergenz einer Folge y notwendige und hinreichende Bedingung. Das Cauchy-Kriterium fordert, dass für jedes ε > 0 gilt: ˆM k < ε , kˆ yN − y

(2.41)

N, M > N0 (ε) .

ˆN − y ˆM Die Notwendigkeit von Gleichung (2.41) ist leicht zu beweisen. Schreibt man y ˆN − y + y − y ˆ M und wählt N und M so, dass kˆ umständlicher als y yN − yk ≤ 2ε und ˆ M k ≤ 2ε für N, M > N0 ( 2ε ), so gilt mit der Dreiecksungleichung (Definition 2.1 ky − y (M3)): ˆ M k ≤ kˆ ˆM k < ε . kˆ yN − y yN − yk + ky − y Ein für viele Anwendungen wichtiger Satz ist das Projektionstheorem. Satz 2.42 (Projektionstheorem) ˆ N ∈ V N approximiert werden. Dabei Ein Vektor y ∈ V soll durch einen Vektor y N sei V ein Unterraum des Raumes V höherer Dimension: V N ⊂ V . Den kleinsten Abstand zwischen beiden Vektoren und damit die optimale Approximation erhält man für ˆ N ) = ky − y ˆ N k −→ min . d(y, y ˆ N orthogonal zum optimalen Bei minimalem Abstand ist der Fehlervektor y − y ˆ N und zu allen anderen Vektoren yN ∈ V N des Unterraumes: Näherungsvektor y ˆN , y ˆN i = 0 , hy − y

ˆ N , yN i = 0 , hy − y

yN ∈ V N .

ˆ N heißt orthogonale Projektion von y auf den Unterraum V N . Der Vektor y

(2.43) •

Beweis: Das Quadrat des Abstandes zwischen y ∈ V und einer möglichen Näherung yN ∈ V ist allgemein: ˆN + y ˆ N − yN k2 ky − yN k2 = ky − y ˆ N k2 + hy − y ˆN , y ˆ N − yN i = ky − y ˆ + hˆ yN − yN , y − yN i + kˆ yN − yN k2 ˆ N k2 + kˆ = ky − y yN − yN k2 . ˆ N erreicht. Der minimale Abstand wird bei festem y für yN = y In Abbildung 2.4 ist dies für den Raum R3 dargestellt.

26

2 Mathematische Grundlagen

Abbildung 2.4: Beispiel einer orthogonalen Projektion.

2.2

Integraltransformationen

Mit Hilfe von Integraltransformationen werden Signale in andere Darstellungsformen überführt, vgl. [Mer96]. Diese anderen Darstellungen dienen zur besseren Handhabung oder zur besseren Analyse des Informationsgehaltes eines Signals. Die zentrale und entscheidende Größe einer Integraltransformation ist deren Integrationskern, über welchen die Bewertung einzelner Funktionswerte gesteuert wird. Diese Integrationskerne werden im nächsten Abschnitt eingeführt.

2.2.1

Integrationskerne

Bei Integrationskernen handelt es sich um Funktionen, die sowohl von der Zeitvariablen t als auch von der unabhängigen Zielvariablen s abhängen. Durch Multiplikation des Signals x(t) mit dem Integrationskern θ(s, t) und anschließender Integration gewinnt man daraus die Bildfunktion X(s): Z X(s) = x(t) θ(s, t) dt , s∈S. (2.44) T

Hierbei bezeichnen T den Grundraum im Zeitbereich und S den Grundraum im Bildbereich. Um aus einer transformierten Funktion die ursprüngliche Funktion wiedergewinnen zu können, ist die Reziprozitätsbedingung wichtig, welche im nächsten Abschnitt dargestellt wird. 2.2.1.1

Reziprozitätsbedingung

Die Transformation in den Bildbereich erfolgte mit Hilfe eines Integrationskerns θ(s, t), wobei t ∈ T die unabhängige Variable vor der Transformation und s ∈ S die unabhängige Variable danach ist. Man definiert also für eine Zeitfunktion x(t) die Transformierte

27

2.2 Integraltransformationen wie in Gleichung (2.44) als Z X(s) = x(t) θ(s, t) dt ,

s∈S.

T

Mit Hilfe eines zu θ(s, t) reziproken Kernes ϕ(t, s) soll das ursprüngliche Signal rekonstruiert werden können: Z ! x(t) = X(s) ϕ(t, s) ds , t∈T. (2.45) S

Der Kern der Rücktransformation muss nun so bestimmt werden, dass diese Bedingung erfüllt wird. Durch Einsetzen der Definitionsgleichung in die Gleichung der Rücktransformation Z Z ! x(t) = x(t0 ) θ(s, t0 ) ϕ(t, s) dt0 ds S Z

= T

T

x(t0 )

Z

θ(s, t0 ) ϕ(t, s) ds dt0

S

|

!

{z

} 0

= δ(t − t ) erhält man mit dem Dirac-Impuls δ(t) (Abschnitt 3.6.1) die Reziprozitätsbedingung Z θ(s, t0 ) ϕ(t, s) ds = δ(t − t0 ) . (2.46) S

Entsprechend gelangt man zur zweiten Reziprozitätsbedingung Z ϕ(t, s0 ) θ(s, t) dt = δ(s − s0 ) ,

(2.47)

T

die sich analog herleiten lässt. Diese Bedingungen stellen notwendige Forderungen für die Rekonstruierbarkeit eines Signals aus seiner Bildfunktion dar, was bei einer Analyse in der Praxis sinnvoll ist. 2.2.1.2

Selbstreziproke Kerne

Bei selbstreziproken Integrationskernen handelt es sich um ein Paar θ(s, t), ϕ(t, s) von Funktionen für die Hin- und Rücktransformation, für welche die Bedingung ϕ(t, s) = θ∗ (s, t)

(2.48)

gefordert wird. Ein Beispiel für eine Integraltransformation mit selbstreziprokem Kern ist die Fourier-Transformation (vgl. Abschnitt 3.5), in welcher mit T = S = R und s = f die Integrationskerne zu θ(f, t) = exp(−j2πf t) , ϕ(t, f ) = exp(j2πf t) = θ∗ (f, t)

28

2 Mathematische Grundlagen

gesetzt werden. Die Reziprozitätsbedingung ist für die Fourier-Transformation erfüllt: Z∞

Z∞

0

θ(f, t ) ϕ(t, f ) df = −∞

2.2.1.3

exp(j2πf (t − t0 )) df = δ(t − t0 ) .

−∞

Parseval’sches Theorem

In diesem Abschnitt beweisen wir das Parseval’sche Theorem, welches für viele Anwendungen eine entscheidende Rolle spielt. In Abhängigkeit des transformierenden Kerns ergeben sich zentrale Eigenschaften verschiedener Transformationen.

Satz 2.49 (Parseval’sches Theorem) Werden Signale mit Hilfe von selbstreziproken Integrationskernen transformiert, so ist das Innenprodukt zweier Signale invariant gegenüber der Integraltransformation, d. h. (2.50)

hx(t), y(t)it = hX(s), Y (s)is .

Das Innenprodukt zweier Signale ist als Integral über deren Produkt definiert (vgl. Abschnitt 3.1.2) und bewertet deren Ähnlichkeit. • Beweis: Man rechnet Z hX(s), Y (s)is =

X(s) Y ∗ (s) ds

S

Z Z Z = S T Z Z

=

x(t) θ(s, t) y ∗ (t0 ) θ∗ (s, t0 ) dt dt0 ds

T

x(t) y ∗ (t0 )

T T

Z S

| Z Z =

θ(s, t) θ∗ (s, t0 ) ds dt dt0 | {z } = ϕ(t0 ,s)

{z

x(t) y ∗ (t0 ) δ(t − t0 ) dt0 dt =

T T

= hx(t), y(t)it .

}

= δ(t−t0 )

Z T

x(t) y ∗ (t) dt

2.2 Integraltransformationen

29

Setzt man im Parseval’schen Theorem y(t) = x(t), so folgt kx(t)k = kX(s)k ,

(2.51)

da es sich bei den Energiesignalen um einen unitären Raum handelt, vgl. Abschnitt 3.1.2. Dies bedeutet, dass eine Integraltransformation mit selbstreziprokem Kern, welche die Reziprozitätsbedingung erfüllt, die Energie eines Signals nicht verändert. 2.2.1.4

Faltungskerne

Bei Faltungskernen handelt es sich um Integrationskerne, die lediglich von der Differenz t − s bzw. s − t abhängen. Dies führt auf vereinfachte Gleichungen für die Hin- und die Rücktransformation: Z∞ X(s) =

x(t) θ(s − t) dt = x(t) ∗ θ(t) , −∞ Z∞

x(t) =

X(s) ϕ(t − s) ds = X(s) ∗ ϕ(s) . −∞

Durch Fourier-Transformation der beiden Faltungsintegrale folgt im Vorgriff auf Abschnitt 3.5 die Multiplikation der Transformierten: Xs (f ) = Fs {X(s)} = Xt (f ) Θ(f ) , Xt (f ) = Ft {x(t)} = Xs (f ) Φ(f ) .

(2.52) (2.53)

Für die Signalrekonstruktion erhält man die Bedingung Θ(f ) · Φ(f ) = 1 .

(2.54)

Ein Beispiel für eine Integraltransformation mit Faltungskern ist die Hilbert-Transformation, die in Abschnitt 4.7 eingeführt wird. Bei dieser Transformation verwendet man Θ(f ) = −j sign(f ) Φ(f ) = j sign(f ) = Θ∗ (f ) und dementsprechend 1 , π · (s − t) 1 ϕ(t − s) = − = θ(s − t) . π · (t − s) θ(s − t) =

30

2.2.2

2 Mathematische Grundlagen

Zweidimensionale Transformationen

Die Integraltransformation eines zweidimensionalen Signals x(t1 , t2 ) ist definiert als Z Z X(s1 , s2 ) = x(t1 , t2 ) θ(s1 , s2 , t1 , t2 ) dt1 dt2 , s1 , s2 ∈ S . (2.55) T T

Die Rekonstruktion solch eines Signals ergibt sich analog als Z Z x(t1 , t2 ) = X(s1 , s2 ) ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 ,

t1 , t2 ∈ T .

(2.56)

S S

Eine Erweiterung von Funktionen einer Variablen auf Funktionen von zwei Variablen erstreckt sich ebenso auf die Intergrationskerne, welche dadurch als Funktionen von vier Variablen zu definieren sind. Alle Eigenschaften und Gleichungen ergeben sich durch eine dementsprechende Erweiterung. Somit lauten die Reziprozitätsbedingungen bei Vorhandensein zweier Variablen: Z Z ! θ(s1 , s2 , t01 , t02 ) ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 = δ(t1 − t01 ) · δ(t2 − t02 ) , (2.57) S S

Z Z

!

θ(s1 , s2 , t1 , t2 ) ϕ(t1 , t2 , s01 , s02 ) dt1 dt2 = δ(s1 − s01 ) · δ(s2 − s02 ) . (2.58)

T T

Als Spezialfall können bei zwei unabhängigen Variablen die Kerne faktorisiert werden. Sie setzen sich dann aus dem Produkt zweier einfacher Kerne zusammen, was sich mathematisch wie folgt ausdrücken lässt: θ(s1 , s2 , t1 , t2 ) = θ1 (s1 , t1 ) · θ2 (s2 , t2 ) , ϕ(t1 , t2 , s1 , s2 ) = ϕ1 (t1 , s1 ) · ϕ2 (t2 , s2 ) .

(2.59) (2.60)

Als Beispiel eines faktorisierbaren Kerns dient die zweidimensionale Fourier-Transformation, in der sich mit t = (t1 , t2 )T und f = (f1 , f2 )T die Korrespondenzen Z∞ Z∞ X(f ) = X(f1 , f2 ) = −∞ −∞ Z∞ Z∞

x(t) = x(t1 , t2 ) =

x(t1 , t2 ) e−j2π(f1 t1 + f2 t2 ) dt1 dt2 ,

(2.61)

X(f1 , f2 ) ej2π(f1 t1 + f2 t2 ) df1 df2

(2.62)

−∞ −∞

ergeben. Zweidimensionale Kerne finden in der Bildverarbeitung und allgemeiner bei der Bearbeitung optischer Signale Anwendung. In diesem Fall bezeichnen die Variablen t1 und t2 typischerweise örtliche Dimensionen in der Ebene, für die später anstelle von t = (t1 , t2 )T der Ortsvektor x = (x, y)T verwendet wird. Die Variablen f1 und f2 im Bildbereich sind dann die zugehörigen Ortsfrequenzen fx bzw. fy , die im Ortsfrequenzvektor f = (fx , fy )T zusammengefasst werden.

31

2.3 Operatoren

2.3

Operatoren

Abbildungen wurden bisher durch Funktionen y = f (x) dargestellt. Dabei wurde jedem x ∈ X eindeutig ein y ∈ Y zugeordnet. Meist wurde implizit davon ausgegangen, dass X und Y Mengen etwa der Form R, C, R3 usw. sind, d. h. die Elemente x bzw. y entweder reelle oder komplexe Zahlen oder Vektoren der reellen oder komplexen Zahlen sind. In Abschnitt 3.1 über die Funktionenräume wird gezeigt, dass Elemente von Räumen ohne Weiteres etwas anderes sein können, z. B. Funktionen. Zur Abbildung eines beliebigen Elements auf ein anderes beliebiges Element ist der Funktionsbegriff auf den Begriff des Operators zu erweitern.

2.3.1

Lineare Operatoren

Definition 2.63 (Linearer Operator) Ein Operator A : X −→ Y ist eine Rechenvorschrift, die jedem Element x ∈ X ein Element y = Ax = A{x} ∈ Y zuweist, wobei X und Y jeweils Vektorräume mit demselben Skalarkörper C sind. Lineare Operatoren haben folgende Eigenschaften: (O1) A{x + y} = A{x} + A{y} , (O2) A{ax} = aA{x} ,

(Additivität) (Homogenität)

a∈C.

Die Rechenregeln für das Rechnen mit linearen Operatoren sind wie folgt gegeben: (O3) A(BC) = (AB)C

(Assoziativität)

(O4) aAB = (aA)B = A(aB) ,

a∈C

(O5) A(B + C) = AB + AC (O6) I{x} = x ,

I : Einsabbildung

(O7) A{0} = 0 ,

0 : Nullelement .

(Distributivität)

Hier bezeichnet AB die Hintereinanderausführung „A nach B“, (AB){x} = A{B{x}}. Eine geeignete Voraussetzung für die Hintereinanderausführung ist X = Y .

Bemerkung 2.64 1. Im Allgemeinen gilt für Operatoren nicht das Kommutativgesetz (z. B. ist bei der Matrixmultiplikation AB 6= BA). 2. Ist die Menge Y skalar, also das Element y = A{x} ∈ Y eine reelle oder komplexe Zahl, so spricht man nicht von einem Operator, sondern von einem Funktional (vgl. Tabelle 2.1).

32

2 Mathematische Grundlagen Menge X

Menge Y

Operator:

Allgemein

Allgemein

Funktional:

Allgemein

Skalar

Funktion:

Skalar

Allgemein

Tabelle 2.1: Elemente der einzelnen Abbildungen.

3. Ist die Menge X skalar, d. h. das Element x ∈ X eine reelle oder komplexe Zahl, so spricht man von einer Funktion (vgl. Tabelle 2.1). 4. Häufig sind die Elemente Vektoren im klassischen Sinne. Dann kann der lineare Operator in Form einer Matrix angegeben werden. • Beispiel 2.65 (Funktional) Eine Funktion x(t) wird über das Intervall [− T2 , T2 ] gemittelt. Die Rechenvorschrift für den Mittelwert x ist ein Funktional: 1 x = T

T /2 Z

x(t) dt . −T /2

Bei der Beurteilung von Messergebnissen werden der Stichprobenmittelwert x ˆ und die Stichprobenvarianz s2 gebildet. Die Rechenvorschriften dafür sind Funktionale: n

x ˆ =

1X xi , n i=1

n

s2 =

1 X (xi − x ˆ)2 . n − 1 i=1



Beispiel 2.66 (Matrixoperator) Ein wichtiges Beispiel für einen Operator ist dadurch gegeben, dass man als Vektorräume X = Rn bzw. Y = Rn wählt. Man rechnet also mit Vektoren im üblichen Sinne. Es sei eine beliebige Matrix A ∈ Rn×n vorgegeben. Man kann nun mit Hilfe der Matrix A einen Operator A : X → Y definieren, indem man A{x} = A x setzt. Somit ist die gewöhnliche Matrixabbildung letztlich auch ein Operator. Diesen werden wir im folgenden Text noch oft als Beispiel heranziehen. • Des Weiteren werden für Operatoren die folgenden Definitionen verwendet: Definition 2.67 (Stetigkeit) Ein linearer Operator A : X −→ Y zwischen normierten Räumen X, Y heißt stetig, wenn gilt: lim A{εx0 } = lim εA{x0 } = 0 ,

ε→0

ε→0

x0 ∈ X .

(2.68)

33

2.3 Operatoren Definition 2.69 (Beschränktheit)

Ein linearer Operator A : X → Y zwischen normierten Räumen X, Y heißt beschränkt, wenn für ein M ≥ 0 gilt: kA{x}k ≤ M kxk ,

x∈X.

(2.70)

Definition 2.71 (Adjungierter Operator) In Hilbert-Räumen gibt es zu einem linearen Operator A einen adjungierten Operator A+ : Y → X, für den für alle zugelassenen x ∈ X und y ∈ Y gilt: hA{x}, yi = hx, A+ {y}i .

(2.72)

Ein adjungierter Operator A+ ist nicht mit der adjunkten Matrix adj(A) zu verwechseln, die zur Invertierung herangezogen wird. In der Matrizenschreibweise ergibt sich aus Definition 2.71 sofort die Rechenregel, wie von einer Matrix A die adjungierte Matrix A+ gebildet wird: oder (aij )+ = (aji )∗ .

A+ = AT∗

(2.73)

Für reelle Matrizen gilt A+ = AT

oder (aij )+ = (aji ) .

(2.74)

Gleichung (2.73) und (2.74) sind mittels Gleichung (2.72) leicht zu zeigen: hA x, yi = (A x)T · y∗ = xT AT · y∗ = xT (AT∗ y)∗ = hx, AT∗ yi !

= hx, A+ yi . 2.3.1.1

Eigenwerte und Eigenvektoren

In diesem Abschnitt betrachten wir einen Matrixoperator, wie er in Beispiel 2.66 eingeführt wurde. Dieser Operator wirkt auf Vektoren x ∈ Rn durch Linksmultiplikation, d. h. es ist A{x} = A x. Vielfach sind, auch für allgemeine Operatoren, Vektoren von Interesse, die bei Anwendung eines Operators A in ein Vielfaches von sich selbst übergehen. Aus diesem Grund definiert man die folgenden Begriffe: Definition 2.75 (Eigenwerte und Eigenvektoren eines Operators) Gegeben sei ein Operator A : X → X. Ein Skalar λ heißt Eigenwert des Operators A, falls ein x ∈ X, x 6= 0, existiert mit A{x} = λ x .

(2.76)

34

2 Mathematische Grundlagen

Dieses x ∈ X heißt dann Eigenvektor zum Eigenwert λ. Ist der Operator A ein Matrixoperator, d. h. A : Rn → Rn , A{x} = A x mit A ∈ Rn×n , so spricht man auch von einem Eigenwert der Matrix A bzw. einem Eigenvektor der Matrix A. Die Berechnung der Eigenwerte einer Matrix lässt sich auf die Bestimmung der Nullstellen einer geeigneten Gleichung zurückführen: Satz 2.77 (Eigenwerte eines Matrixoperators) Ist A : Rn → Rn , A{x} = A x, ein Matrixoperator, so erhält man die Eigenwerte als die Nullstellen der Gleichung det(A − λ I) = 0 . Somit ist nur noch eine rein algebraische Gleichung zu lösen.



Beweis: Die Eigenwerte erfüllen nach Voraussetzung die Gleichung A x = λ x. Wegen A x = λ x ⇔ (A − λ I) x = 0 sind genau jene Werte λ Eigenwerte, für die ein x 6= 0 existiert, welches diese Gleichung erfüllt. Dieses x 6= 0 existiert genau dann, wenn die Matrix (A − λ I) nicht invertierbar ist, was mit der Bedingung det(A − λ I) = 0 gleichbedeutend ist. Somit ist λ also ein Eigenwert der Matrix A, falls λ die behauptete Gleichung erfüllt. 2.3.1.2

Eigenvektoren adjungierter Matrixoperatoren

Ein Matrixoperator A und sein adjungierter Operator A+ haben dieselben Eigenwerte λk , die aus der Gleichung det(A − λ I) = det(A+ − λ I) = 0 berechnet werden [Kro91]. Als Nächstes sollen die Eigenvektoren von A und A+ untersucht werden. Wir betrachten hierzu zwei voneinander verschiedene Eigenwerte λi 6= λk mit zugehörigen Eigenvektoren xi und yk . Dann gilt: A xi = λi xi

,

A+ yk = λk yk .

Durch Multiplikation der ersten transponierten Gleichung mit yk∗ von rechts und der zweiten konjugiert komplexen Gleichung mit xT i von links erhält man: T ∗ T ∗ xT i A yk = λi xi yk

,

+∗ ∗ ∗ xT yk = λ∗k xT i A i yk .

Die Differenz der beiden Gleichungen lautet T +∗ ∗ xT ) yk∗ = (λi − λ∗k ) xT i (A − A i yk .

Die Differenz verschwindet jedoch, da AT = A+∗ gilt. Daraus folgt dann: ∗ xT i yk = 0

⇐⇒

λi 6= λ∗k .

(2.78)

Die Eigenvektoren yk des adjungierten Operators A stehen senkrecht auf den Eigenvektoren xi des Operators A, auch wenn beide dieselben Eigenwerte besitzen. +

2.3 Operatoren

35

Definition 2.79 (Selbstadjungierter Operator) Ein Operator A heißt selbstadjungiert, wenn A = A+

(2.80)

gilt. Ein solcher Operator wird auch als Hermite’scher Operator bezeichnet.

Satz 2.81 (Eigenvektoren selbstadjungierter Matrixoperatoren) Bei selbstadjungierten Matrixoperatoren A = A+ sind die Eigenvektoren verschiedener Eigenwerte untereinander orthogonal. • Ein anderer wichtiger Sonderfall sind Operatoren, für die A+ A = I und somit A+ = A−1 gilt:

Definition 2.82 (Unitärer Operator) Ein Operator A heißt unitär, wenn A+ A = AA+ = I bzw. A+ = A−1 gilt. Es folgt dann:

kA{x}k = x , hA{x}, A{y}i = hx, yi . (2.83) Unitäre Operatoren lassen die Norm und das innere Produkt unverändert.

Bei Matrixoperatoren erhält man Gleichung (2.83) sofort: hA x, A yi = xT AT · A∗ y∗ = xT (A AT∗ )∗ y∗ = xT y∗ = hx, yi . | {z } I

(2.84)

Beispiel 2.85 (Unitäre Matrixoperatoren) Standardbeispiele für unitäre Operatoren in Matrixschreibweise sind die Drehung eines Vektors und die Koordinatentransformation in eine neue orthonormale Basis. • Nach der Behandlung der Eigenschaften von allgemeinen Operatoren und von Matrixoperatoren folgt nun eine Vorstellung spezieller Typen von Operatoren.

2.3.2

Typen von linearen Operatoren

Die folgenden Unterabschnitte beschreiben Beispiele häufig vorkommender linearer Operatoren.

36

2 Mathematische Grundlagen

2.3.2.1

Lineare Vektortransformation

Hierbei wird ein Vektor im klassischen Sinn auf einen anderen Vektor abgebildet. Technisch gesehen kann der Vektor x eine gerichtete Ursache darstellen, die eine gerichtete Wirkung y erzeugt. Die Grundform lautet dann: (2.86)

y = Ax. Beispiel 2.87 (Lineare Vektortransformation)

Wenn x die elektrische Feldstärke in einem anisotropen Medium darstellt, so kann y die dielektrische Verschiebung beschreiben. • 2.3.2.2

Integraloperator

Der Integraloperator wird durch die Gleichung Zb y(t) =

k(t, s) x(s) ds



(2.88)

y = A{x}

a

dargestellt. Die Gleichung kann, je nach gewähltem Integrationskern k(t, s), eine Integraltransformation darstellen oder das Ausgangssignal eines Systems beschreiben, dem das Eingangssignal x(s) zugeführt wird. Beispiel 2.89 (Integraloperator) Für die inverse Fourier-Transformation wählt man: s = f , x(s) = Y (f ) , k(t, f ) = ej2πf t ,

a = −∞ ,

b = ∞.

Damit erhält man: Z∞ y(t) =

Y (f ) ej2πf t df .



−∞

2.3.2.3

Differentialoperator

Ein Beispiel eines Differentialoperators ist durch die Gleichung a0 y (n) + a1 y (n−1) + · · · + an y = b0 x(n) + b1 x(n−1) + · · · + bn x A{y} = B{x}

(2.90)

mit dk dk y(t) und x(k) = k x(t) k dt dt definiert. Solche Differentialgleichungen sind die Grundlage für die Beschreibung des Zeitverhaltens von linearen Prozessen und Systemen. y (k) =

37

2.3 Operatoren

2.3.3

Darstellungsmatrix

Mit Hilfe von orthonormalen Basen lassen sich lineare Operatoren in Matrixform mittels der Darstellungsmatrix schreiben. In der Matrizenrechnung beziehen sich die Komponenten eines Elements immer auf die Zerlegung mittels einer orthonormalen Basis. 2.3.3.1

Lineare Vektortransformation

Mittels einer orthonormalen Basis {e1 , e2 , . . . , eN } werden die Vektoren x und y nach Gleichung (2.29) in ihre Komponenten zerlegt: x = (x1 , x2 , . . . , xN )T ,

xi = hx, ei i ,

y = (y1 , y2 , . . . , yN )T ,

yi = hy, ei i .

Dann lässt sich der Operator A als Darstellungsmatrix A = (aij ) angeben. Die Gleichung y = A x hat für x nur dann eine eindeutige Lösung, wenn A−1 existiert, also det(A) 6= 0 gilt bzw. die Matrix A den vollen Rang besitzt. 2.3.3.2

Integraloperator

Beim Integraloperator werden für die Funktionen x(s) ∈ L2 (a, b) und y(t) ∈ L2 (a, b) jeweils eine Basis {u1 (s), u2 (s), . . .} und {v1 (t), v2 (t), . . .} gewählt. Dann gilt: x(s) =

Zb

∞ X

xj uj (s) ,

xj =

j=1

y(t) =

∞ X

x(s) u∗j (s) ds = hx, uj i ,

a

Zb yi vi (t) ,

yi =

i=1

y(t) vi∗ (t) dt = hy, vi i .

(2.92)

a

Setzt man Gleichung (2.88) in Gleichung (2.92) ein, so folgt   Zb Zb yi =  k(t, s) x(s) ds vi∗ (t) dt . a

(2.91)

(2.93)

a

Einsetzen von Gleichung (2.91) in Gleichung (2.93) ergibt: Zb yi =



∞ X

 k(t, s) 

 a

=

Zb

∞ X





xj uj (s) ds vi∗ (t) dt

(2.94)

j=1

a



Zb

xj 

j=1

a

|

 b   Z ∞ X  k(t, s) uj (s) ds vi∗ (t) dt = aij xj . j=1

a

{z = aij

}

(2.95)

38

2 Mathematische Grundlagen

Daraus folgt die Darstellungsmatrix A = (aij ) ,

(2.96)

i, j ∈ N .

Insgesamt kann man also schreiben: y = Ax. Der Vorteil der Darstellung des Integraloperators in Matrixform besteht darin, dass daraus ein lineares Gleichungssystem resultiert. 2.3.3.3

Differentialoperator

Ausgehend von der Differentialgleichung (2.90) werden die beiden Funktionen x(t) und y(t) im Funktionenraum L2 (− T20 , T20 ) in Fourier-Reihen entwickelt (vgl. Abschnitt 3.4): x(t) =

∞ X

1 Fk (t) = √ ej2πkt/T0 , T0

xk Fk (t) ,

k=−∞

y(t) =

∞ X

(2.97)

(2.98)

yk Fk (t) .

k=−∞

Durch Einsetzen in die Differentialgleichung (2.90) ergibt sich:  X ∞ dn dn−1 a0 n + a1 n−1 + · · · + an yk Fk (t) dt dt k=−∞   X ∞ dn dn−1 = b0 n + b1 n−1 + · · · + bn xk Fk (t) dt dt



(2.99)

k=−∞

oder ∞ X

 dn−1 dn yk a0 n + a1 n−1 + · · · + an Fk (t) dt dt k=−∞   ∞ X dn dn−1 = xk b0 n + b1 n−1 + · · · + bn Fk (t) . dt dt 

(2.100)

k=−∞

Die Anwendung des Differentialoperators auf Fk (t) mit f0 = di 1 Fk (t) = √ dti T0



2π j k T0

i

1 T0

ergibt

ej2πkt/T0 = (j2πf0 k)i Fk (t)

(2.101)

39

2.3 Operatoren für i ∈ {1, . . . , n}. Einsetzen in die Differentialgleichung ergibt: ∞ X

 yk a0 (j2πf0 k)n + a1 (j2πf0 k)n−1 + · · · + an Fk (t)

(2.102)

k=−∞

=

∞ X

 xk b0 (j2πf0 k)n + b1 (j2πf0 k)n−1 + · · · + bn Fk (t) .

(2.103)

k=−∞

Mittels Koeffizientenvergleich folgt: n P

yk = gk = i=0 n P xk

bi (j2πf0 k)n−i .

(2.104)

ai (j2πf0 k)n−i

i=0

Damit gilt yk = gk xk . Die Darstellungsmatrix ist eine Diagonalmatrix: A = (aij )

2.3.4

mit

aij = δij gi .

(2.105)

Verschiebungsoperator

In Abtastsystemen stehen Werte nur zu bestimmten Zeitpunkten zur Verfügung. So ist es möglich, einen Abtastwert um einen oder mehrere Abtastzeitpunkte zu verschieben. Hierbei entspricht die formale Multiplikation eines Signalwertes mit dem Verschiebungsoperator q einer Zeitverzögerung um eine Abtastzeit tA . Analog entspricht eine Zeitverzögerung um n Schritte einer Multiplikation mit q n . Eine negative Zeitverzögerung, d. h. ein Erscheinen eines Signalwertes um eine oder mehrere Abtastzeiten früher, wird mittels negativer Exponenten gekennzeichnet. Beispiel 2.106 (Zeitverzögerung) Ein abgetastetes Signal xn = x(ntA ) wird um zwei Abtastschritte verzögert. Das daraus entstehende Signal yn = y(ntA ) lässt sich durch yn = q 2 · xn charakterisieren. Besteht ein Signal zn = z(ntA ) aus der Addition des nichtverzögerten und des um einen Abtastschritt verzögerten Signals xn , so kann man es durch zn = xn + q · xn = (1 + q) · xn darstellen. Entsprechend ist die Bedeutung von wn = (1 + 2q + q 2 + q 4 ) · xn zu interpretieren.



40

2 Mathematische Grundlagen

2.4

Holomorphe Funktionen

Da die „andere Welt“ bei den Transformationen, also der Bildbereich, fast ausschließlich im komplexen Körper C liegt, werden an dieser Stelle wichtige Hilfsmittel aus der Theorie der holomorphen (d. h. in jedem Punkt komplex differenzierbaren) Funktionen wiederholt. Für eine ausführliche Einführung in diese Theorie sei auf die reichliche Literatur verwiesen, z. B. [Jän96]. Die hier vorgestellten Sätze und Definitionen stellen ein Gerüst dar, welches für die in diesem Buch benötigten Zwecke ausreichend ist. Der Vollständigkeit halber sind für die Sätze auch Beweise angegeben, die bei Interesse nachvollzogen werden können. Für den ausschließlich an der Systemtheorie interessierten Leser ist es jedoch ausreichend, die zentralen Resultate und Berechnungsformeln zu kennen, die als Sätze formuliert sind.

2.4.1

Cauchy’sche Integralformel

Mit der komplexen Größe z sei f (z) eine in einem einfach zusammenhängenden beschränkten Gebiet G, dessen Rand stückweise glatt sei, holomorphe Funktion, die auf G ∪ ∂G, d. h. auf dem Gebiet G und seinem Rand ∂G, stetig ist. Wird f (z) entlang eines geschlossenen, stückweise glatten Integrationsweges C ⊂ G integriert, dann gilt der Cauchy’sche Integralsatz I f (z) dz = 0 . (2.107) C

Somit verschwindet für eine holomorphe Funktion das Wegintegral über einen geschlossenen Integrationsweg. Bemerkung 2.108 1. Zur Erinnerung sei erwähnt, dass eine Abbildung φ : [a, b] → C, φ(t) = φR (t) + jφI (t), deren Real- und Imaginärteil stetig sind, als stückweise glatt bezeichnet wird, falls eine Einteilung a = t0 < t1 < · · · < tn = b existiert, sodass sowohl φR (t) als auch φI (t) in jedem Teilintervall [tk , tk+1 ] stetig differenzierbar sind ∂ ∂ ∂ und ∂t φ(t) = ∂t φR (t) + j ∂t φI (t) 6= 0 gilt. 2. Als Vorstellung kann für die späteren Anwendungen und Aussagen beispielsweise ein Kreis-Weg mit Radius ρ dienen, welcher die Darstellung [0, 2π] → ρ ejt besitzt. Die formulierten Sätze lassen sich damit oft leichter interpretieren. • Im Folgenden bezeichne Int{G} das Innere von G. Die um die Singularität bei z = z0 , z0 ∈ Int{G}, erweiterte Funktion f (z) z − z0 ist im gesamten Gebiet G außer im Punkt z0 holomorph, falls die Funktion f (z) in G holomorph ist. Sei C eine stückweise glatte, positiv orientierte und einmal durchlaufene Jordan-Kurve, die ganz in G liege, z0 enthält und deren Inneres Int{C} ebenfalls in G

41

2.4 Holomorphe Funktionen

liegt. Hierbei ist eine Jordan-Kurve eine Kurve, bei der die Abbildung W : t → z(t) bijektiv ist und bei der sowohl W als auch W −1 stetig sind. Da z0 nach Voraussetzung ein innerer Punkt von Int{C} ist, liegt der Kreis-Weg Wρ : |z − z0 | = ρ für ein hinreichend kleines ρ ganz im Inneren von C. Somit folgt I I f (z) f (z) dz = dz . z − z0 z − z0 C



Unter Beachtung von  I 2πj (ξ − z0 )K dξ = 0

für K = −1 sonst

(2.109)



und mittels der Zerlegung f (z) f (z0 ) f (z) − f (z0 ) = + z − z0 z − z0 z − z0 folgt I C

f (z) dz = 2πjf (z0 ) + z − z0

I Wρ

f (z) − f (z0 ) dz . z − z0

Da f (z) als holomorph vorausgesetzt war, ist f (z) insbesondere stetig, woraus die Existenz eines Radius ρ = ρ(ε) mit |f (z) − f (z0 )| < ε für alle z ∈ Wρ folgt. Somit kann das rechte Integral wie folgt abgeschätzt werden: I f (z) − f (z0 ) dz ≤ 2πε . z − z0 Wρ Beim Grenzübergang ε → 0 geht dieses Integral gegen null, woraus I 1 f (z) f (z0 ) = dz 2πj z − z0 C

folgt. Dieses Resultat wird als Cauchy’sche Integralformel bezeichnet und im folgenden Satz zusammengefasst. Satz 2.110 (Cauchy’sche Integralformel) Sei f (z) eine in einem einfach zusammenhängenden, abgeschlossenen Gebiet G ⊂ C holomorphe Funktion. Dann gilt für alle stückweise glatten, positiv orientierten und

42

2 Mathematische Grundlagen einmal durchlaufenen Jordan-Kurven Γ ⊂ G und alle Punkte z0 aus dem Inneren von Γ die Cauchy’sche Integralformel : I 1 f (z) f (z0 ) = dz . (2.111) 2πj z − z0 Γ

Nach [BS00] gilt für die k-te Ableitung von f (z): I k! f (z) f (k) (z0 ) = dz . 2πj (z − z0 )k+1

(2.112)

Γ

• Bemerkung 2.113 Die Cauchy’sche Integralformel besagt, dass die Werte einer holomorphen Funktion f (z0 ) im Inneren eines einfach geschlossenen Gebietes G vollständig durch die Werte von f (z) auf dem Rand bestimmt sind. Der Integrationsweg umschließt dabei den Punkt z0 . •

2.4.2

Laurent-Reihe

In diesem Abschnitt wird die Entwicklung einer komplexen Funktion in ihre LaurentReihe hergeleitet. Zuerst wird hierzu der Begriff der Laurent-Reihe definiert. Definition 2.114 (Laurent-Reihe) Eine Reihe der Form f (z) =

∞ X n=−∞

an (z − z0 )n =

∞ X n=0

an (z − z0 )n +

∞ X n=1

a−n (z − z0 )−n (2.115)

heißt Laurent-Reihe. Sie heißt konvergent, wenn beide auftretenden Summen konvergieren. Eine Laurent-Reihe hat, wie man sich unter Beachtung der geometrischen Reihe überlegt, als Konvergenzgebiet einen Kreisring der Form {z ∈ C : r+ < |z − z0 | < r− } . In Abschnitt 6.3.2, der sich mit dem Existenzbereich der z-Transformierten befasst, wird eine ähnliche Überlegung ausführlich vorgeführt. Es sei nun eine komplexe Funktion gegeben, die auf solch einem Kreisgebiet {z ∈ C : r+ < |z − z0 | < r− } holomorph ist. Zuerst wählt man ξ1 , ξ2 ∈ R mit der Eigenschaft r+ < ξ2 < ξ1 < r− und definiert die positiv orientierten Wege Γ1 : |z − z0 | = ξ1 und

43

2.4 Holomorphe Funktionen

Im{z}

z

C1

C

C2

C3 z0 r+

C4

r−

Re{z}

Abbildung 2.5: Integrationswege.

Γ2 : |z − z0 | = ξ2 . Nun bezeichnen wir noch den äußeren Weg mit C1 , C1 = Γ1 , und die Umorientierung des inneren Weges mit C2 , C2 = −Γ2 . Schneidet man den Kreisring mit einer Strecke P Q, P ∈ C1 , Q ∈ C2 , auf und bezeichnet die Schnittufer mit C3 bzw. C4 , vgl. Abbildung 2.5, dann ist Γ : C2 + C3 + C1 + C4 eine stückweise glatte und mathematisch positiv orientierte Jordan-Kurve. In diesem Fall folgt aus der Cauchy’schen Integralformel I 1 f (ξ) f (z) = dξ . 2πj ξ−z Γ

Beachtet man noch I I f (ξ) f (ξ) dξ = − dξ , ξ−z ξ−z C3

C4

so folgt   I I 1  f (ξ) f (ξ) f (z) = · dξ + dξ  . 2πj ξ−z ξ−z C1

(2.116)

C2

Definieren wir die Funktionen w1 (z) und w2 (z) als das Erste bzw. das Zweite der beiden Integrale, so sind also noch explizite Ausdrücke dafür zu bestimmen. 1. Da die Funktion f (z) auf C1 holomorph ist, ist sie insbesondere stetig. Somit ist w1 (z) in |z −z0 | < r− eine holomorphe Funktion und kann deshalb in eine Potenzreihe entwickelt werden. Durch Verwendung der geometrischen Reihe und unter Beachtung der Tatsache, dass die Bedingungen zur Vertauschung von Integration

44

2 Mathematische Grundlagen und Summation erfüllt sind, folgt diese Potenzreihe zu 1 w1 (z) = 2πj

f (ξ) ·

1 dξ ξ − z0 − (z − z0 )

f (ξ) ·

1 1 · dξ 0 ξ − z0 1 − z−z ξ−z0

I C1

1 = 2πj

I C1

1 = 2πj

I C1

1 = 2πj

n ∞  X 1 z − z0 f (ξ) · · dξ ξ − z0 n=0 ξ − z0

I f (ξ) · C1

∞ X (z − z0 )n dξ (ξ − z0 )n+1 n=0

I ∞ X 1 f (ξ) = dξ · (z − z0 )n n+1 2πj (ξ − z ) 0 n=0 C1

=

∞ X

an (z − z0 )n ,

n=0

wobei sich die Koeffizienten aus I 1 f (ξ) an = dξ 2πj (ξ − z0 )n+1 C1

berechnen. 2. Betrachten wir w2 (z) in |z − z0 | > r+ , so ist dort |ξ − z0 | < |z − z0 |, wodurch unter Anwendung der geometrischen Reihe wie im ersten Schritt ∞ X 1 (ξ − z0 )n =− ξ−z (z − z0 )n+1 n=0

im Bereich |z − z0 | > r+ folgt. Analog zu obiger Vorgehensweise erhält man hier die Darstellung w2 (z) = −

∞ X n=1

a−n (z − z0 )−n

mit a−n =

1 2πj

I C2

f (ξ) dξ . (ξ − z0 )−n+1

45

2.4 Holomorphe Funktionen

Setzen wir diese Darstellungen in die für f (z) gezeigte Formel (2.116) ein, so folgt für r+ < |z − z0 | < r− ∞ X

f (z) =

an (z − z0 )n

n=−∞

mit 1 an = 2πj

f (ξ) dξ. (ξ − z0 )n+1

I Γ

Diese Resultate ergeben den folgenden Satz. Satz 2.117 (Laurent-Reihe) Eine Funktion f (z) sei im Kreisringgebiet G = {z : r+ < |z − z0 | < r− } holomorph. Dann lässt sich die Funktion f (z) in G in eine eindeutig bestimmte Laurent-Reihe f (z) =

∞ X

an (z − z0 )n

(2.118)

f (ξ) dξ (ξ − z0 )n+1

(2.119)

n=−∞

mit an =

1 2πj

I Γ

bezüglich des Entwicklungszentrums z0 entwickeln. Hierbei ist Γ eine stückweise glatte, geschlossene Kurve, die im Kreisgebiet die Kreisscheibe |z − z0 | > r+ einmal im mathematisch positiven Sinn umrundet, wie dies beispielsweise für eine beliebige Kurve |z − z0 | = ρ mit r+ < ρ < r− erfüllt ist. • Beweis: Zu zeigen bleibt an dieser Stelle nur noch die Eindeutigkeit der Darstellung. Um diese nachzuweisen, nimmt man an, es gäbe eine weitere abweichende Darstellung f (z) =

∞ X

bn (z − z0 )n .

n=−∞

Betrachtet man die Funktion f (z)/(z − z0 )k , k ∈ Z, so ist diese im Kreisring holomorph. Durch Integration längs einer Kurve Γ, wie sie in obigem Satz gefordert wird, erhält man I I ∞ X f (ξ) dξ = b (ξ − z0 )n−k−1 dξ , n (ξ − z0 )k+1 n=−∞ Γ

Γ

46

2 Mathematische Grundlagen wobei ebenfalls Summation und Integration vertauscht wurden. Wegen Gleichung (2.109) ergibt sich I f (ξ) dξ = 2πjbk (ξ − z0 )k+1 Γ

und somit bk = ak für alle k ∈ Z.

2.4.3

Residuensatz

In diesem Abschnitt wird eine Herleitung des Residuensatzes gegeben, der in der Systemtheorie und somit insbesondere auch in diesem Buch Anwendung findet. Bei den verschiedenen Transformationen vom Zeitbereich in einen wie auch immer gearteten Bildbereich ist die Rücktransformation von entscheidender Bedeutung. Gerade diese Rücktransformation wird durch die Verwendung des Residuensatzes nicht selten vereinfacht, was in den folgenden Kapiteln auch einige Male demonstriert wird. Zur Einführung wird noch einmal an den Begriff der isolierten Singularität erinnert. Definition 2.120 (Isolierte Singularität) Eine Funktion f (z) hat im Punkt z0 eine isolierte Singularität, falls f (z) in z0 nicht holomorph ist, es jedoch ein R > 0 gibt, so dass f (z) in der punktierten Kreisscheibe 0 < |z − z0 | < R holomorph ist. Ebenfalls von großer Bedeutung ist der Begriff des Residuums, welcher der Vollständigkeit halber noch einmal definiert wird. Definition 2.121 (Residuum) Es sei z0 ∈ C eine isolierte Singularität der Funktion f (z). Die Funktion f (z) sei in der Kreisscheibe 0 < |z − z0 | < R in eine Laurent-Reihe der Gestalt f (z) =

∞ X

an (z − z0 )n

n=−∞

entwickelt. Dann heißt Res{f (z); z0 } = a−1

(2.122)

das Residuum von f (z) an der Stelle z0 . Die Residuen einer Funktion in einem vorgegebenen Punkt lassen sich durch einfache algebraische Rechnung erhalten. Der folgende Satz gibt an, wie diese Berechnung bei Kenntnis der Funktion f (z) erfolgen kann.

47

2.4 Holomorphe Funktionen Satz 2.123 (Residuum)

Das Residuum einer Funktion f (z) an einem Pol z∞i der Ordnung ki ist durch 1 Res{f (z); z∞i } = f (ki −1) (z∞i ) (2.124) (ki − 1)! 1 dki −1  = lim (z − z∞i )ki f (z) k −1 i (ki − 1)! z→z∞i dz bzw. für einfache Pole durch Res{f (z); z∞i } = lim (z − z∞i ) f (z) z→z∞i

gegeben.

(2.125) •

Der Residuensatz ermöglicht somit die Berechnung komplizierter Wegintegrale mittels einfacher algebraischer Kalkulation. Satz 2.126 (Residuensatz) Die Funktion f (z) sei in einem einfach zusammenhängenden Gebiet G mit Ausnahme endlich vieler Singularitäten z∞1 , . . . , z∞m holomorph. Weiter sei C eine stückweise glatte Jordan-Kurve, die einmal im mathematisch positiven Sinn durchlaufen wird. Die Kurve C verlaufe außerdem ganz innerhalb von G und alle Singularitäten liegen im Inneren von C. Dann gilt I f (z) dz = 2πj

m X

Res{f (z); z∞k } .

k=1

C

(2.127) •

Beweis: Um die Singularitäten z∞k seien jeweils Kreise mit Radien ρk > 0 gewählt, Ck = {z ∈ C : |z − z∞k | = ρk }, deren Radien so gewählt sind, dass die Kreise noch ganz im Inneren von C verlaufen und paarweise disjunkt sind. (Dies ist möglich, da die Singularitäten im Inneren von C liegen und nach Voraussetzung isoliert sind.) G∗ bezeichne nun das Gebiet, welches von C und den Kreisen C1 , . . . , Cm berandet wird. Der Rand dieses Gebietes sei so orientiert, dass C in mathematisch positiver Richtung verläuft, während die Wege C1 , . . . , Cm in mathematisch negativer Richtung verlaufen. Da f (z) in G∗ holomorph ist, folgt I f (z) dz = 0 ∂G∗

und somit I f (z) dz = − C

m I X k=1 C

k

f (z) dz .

48

2 Mathematische Grundlagen Bezeichnet C˜k den Weg, der durch Umorientierung von Ck entsteht, so ergibt sich I f (z) dz =

m I X

f (z) dz .

k=1 ˜ Ck

C

Stellt man f (z) im Inneren von C˜k durch eine Laurent-Reihe mit Entwicklungspunkt z∞k dar, so folgt I f (z) dz = C˜k

∞ X l=−∞

I al

(z − z∞l )l dz .

C˜k

Unter Beachtung von Gleichung (2.109) entsteht daraus I f (z) dz = a−1 2πj = Res{f (z); z∞k } · 2πj , C˜k

womit die behauptete Gleichung bewiesen ist.

Teil II

Zeitkontinuum

3

Zeitkontinuierliche Signale

Physikalisch entstehen Signale durch den kontinuierlichen Verlauf einer beobachteten Größe, d. h. sie lassen sich als kontinuierliche Zeitfunktion darstellen. Man bezeichnet solche Signale als analoge Signale. Dieses Kapitel widmet sich der Betrachtung und Beschreibung zeitkontinuierlicher Signale sowie ihrer Eigenschaften und Beschreibungsformen. Hierzu werden die aus der Funktionalanalysis vorgestellten Hilfsmittel in konkrete mathematische Anweisungen überführt. Unter stochastischen Signalen sind Signale zu verstehen, deren zeitlicher Verlauf analytisch nicht vorhergesagt werden kann. Ihre Beschreibung erfolgt mit Hilfe der Korrelationsfunktion, die selbst ein deterministisches Signal ist [KE08]. Im Gegensatz hierzu stehen die deterministischen Signale, bei denen der zeitliche Verlauf exakt beschrieben werden kann. Leider gibt es dafür keine einheitliche Vorgehensweise, da die beiden Klassen der Energie- und Leistungssignale unterschieden werden müssen. Die Fourier-Reihe ermöglicht eine anschauliche Spektralanalyse für periodische Signale. Die Erweiterung auf allgemeine zeitkontinuierliche Signale ist die Fourier-Transformation. Anschließend werden einige Testsignale eingeführt, die bei der Signaluntersuchung und -verarbeitung häufig eingesetzt werden. Bei endlicher Beobachtungsdauer des Signals im Zeitbereich entsteht der Leckeffekt. Hierbei ergibt sich im Spektrum eine „Verschmierung“, d. h. die Auflösung im Frequenzbereich wird schlechter. Hat das Signal eine Unstetigkeitsstelle, so lässt sich der Signalverlauf nach Fourier-Transformation und anschließender Rücktransformation nicht mehr exakt rekonstruieren. Diese Tatsache wird als Gibbs’sches Phänomen bezeichnet. Abschließend werden das Zeitdauer-Bandbreite-Produkt und das Lemma von RiemannLebesgue behandelt. Diese Eigenschaften sind jeweils für alle Signale gültig und beziehen sich nicht, wie das Gibbs’sche Phänomen und der Leckeffekt, nur auf bestimmte Signale.

3.1

Funktionenräume

In den Definitionen und Sätzen der Funktionalanalysis wurde in Kapitel 2 wenig über die Art der Vektoren gesprochen. Es wurde eigentlich instinktiv angenommen, dass es sich um Vektoren im klassischen Sinne handelt. Jedoch können mit allgemeinen Normen kxk, Distanzen d(x, y) und Innenprodukten hx, yi sehr viele verschiedene „Räume“ gebildet werden. In diesem Abschnitt werden speziell die Funktionenräume behandelt. Die Definitionen von Norm, Abstand und Innenprodukt hängen davon ab, was die Funktionen in der „realen“ Welt bedeuten. Trotzdem gelten für alle Funktionen die beiden folgenden De-

52

3 Zeitkontinuierliche Signale

finitionen über Addition und Skalarmultiplikation von Funktionen und den Abstand zweier Funktionen. Definition 3.1 (Addition und Skalarmultiplikation von Funktionen) Die Addition und die Skalarmultiplikation von Funktionen werden auf naheliegende Weise definiert: (F1) (f1 + f2 ) (t) = f1 (t) + f2 (t) , (F2) (c f1 ) (t) = c · f1 (t) . Mit diesen Definitionen wird die Funktionenmenge {f (t) : R → R} ein Vektorraum über dem Skalarkörper R.

Definition 3.2 (Abstand von Funktionen) Der Abstand zweier Funktionen f1 (t) und f2 (t) wird bei gegebener Norm über d(f1 (t), f2 (t)) = kf1 (t) − f2 (t)k

(3.3)

bestimmt. Natürlich kann der Abstand zweier Funktionen nur dann angegeben werden, wenn beide Funktionen eine endliche Norm besitzen: kfi (t)k < ∞ .

Hier stellt sich nun die Frage, wie das Innenprodukt und die Norm von Funktionen berechnet werden. Dazu unterscheidet man verschiedene Signalklassen.

3.1.1

Signalklassen

Bei der Betrachtung im Zeitintervall R unterscheidet man drei Signaltypen. Definition 3.4 (Energiesignale) Ein beschränktes, stückweise stetiges Signal y(t), für das Z∞

Z∞



y(t) y (t) dt = −∞

2

|y(t)| dt < ∞ −∞

gilt, nennt man Energiesignal.

53

3.1 Funktionenräume

Diese Bezeichnung kommt von der physikalischen Interpretation, da das Integral als Energie des Signals interpretiert werden kann. Somit sind also Energiesignale gerade diejenigen Signale, die eine endliche Energie besitzen. Damit die Konvergenz des Integrals gesichert ist, müssen die Signale für große Zeiten verschwinden. Eine notwendige Bedingung, damit eine Funktion y(t) überhaupt ein Energiesignal sein kann, ist also: lim y(t) = 0 .

t→±∞

Viele in der Praxis vorkommende Signale besitzen zwar keine endliche Energie, deren Leistung ist jedoch beschränkt. Deshalb definiert man: Definition 3.5 (Leistungssignale) Ein beschränktes, stückweise stetiges Signal y(t), für welches das Integral Z∞

y(t) y ∗ (t) dt

−∞

divergiert (unendliche Energie), jedoch der Grenzwert 1 lim T →∞ 2T

ZT −T

1 y(t) y (t) dt = lim T →∞ 2T ∗

ZT

2

|y(t)| dt < ∞ −T

existiert, nennt man Leistungssignal. Der Grenzwert lässt sich physikalisch als mittlere Leistung interpretieren. Beispielsweise handelt es sich bei der Klasse der beschränkten, periodischen Signale um Leistungssignale. Die mittlere Leistung von Energiesignalen ist null. Definition 3.6 (Sonstige Signale) Alle Zeitfunktionen y(t), für welche die Integrale Z∞

und

y(t) y ∗ (t) dt

−∞

1 lim T →∞ 2T

ZT −T

y(t) y ∗ (t) dt

nicht existieren, welche nicht stückweise stetig oder unbeschränkt sind, werden als sonstige Signale klassifiziert.

54

3 Zeitkontinuierliche Signale

Auch wenn aufgrund der Definitionen viele Funktionen als sonstige Signale zu klassifizieren sind, so lassen sich mit Hilfe der Energie- und Leistungssignale leistungsstarke Analyse- und Synthesemethoden in der Signal- und Systemtheorie beschreiben. Bemerkung 3.7 Betrachtet man nicht das Zeitintervall R, sondern ein endliches Intervall wie z. B. (a, b) oder [a, b], so fällt aufgrund der Endlichkeit des Zeitintervalls der Begriff des Leistungssignals weg, d. h. alle Leistungssignale werden in einem endlichen Zeitintervall zum Energiesignal, da das Integral Zb

y(t) y ∗ (t) dt

a

konvergiert. Da man sich ein auf einem endlichen Intervall definiertes Energiesignal stets periodisch wiederholt denken kann, könnte das periodisch wiederholte Signal • auch als Leistungssignal interpretiert werden. In praktischen Anwendungen ist ein unendliches Zeitintervall zur Messung von Signalen nicht möglich. Man wird es daher immer mit zeitbegrenzten Funktionen zu tun haben. In späteren Anwendungen geht man implizit häufig von einer periodischen Fortsetzung des Signals außerhalb des Zeitintervalls über alle Zeiten aus. Dadurch lassen sich diese Signale in die Klasse der Leistungssignale einordnen.

3.1.2

Norm und Innenprodukt von Signalen

Für Energie- und Leistungssignale lassen sich jeweils unitäre Funktionenräume mit Norm und Innenprodukt definieren. Definition 3.8 (Norm und Innenprodukt von Energiesignalen) Die Norm und das R ∞Innenprodukt von Energiesignalen im Funktionenraum L2 (R) := {y(t) : R → C : −∞ |y(t)|2 dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L2 (R) angegeben durch  ∞  12 Z ky(t)k =  y(t) y ∗ (t) dt < ∞ (3.9) −∞

beziehungsweise Z∞ hy1 (t), y2 (t)i = −∞

y1 (t) y2∗ (t) dt .

(3.10)

55

3.1 Funktionenräume

Bedingung für die Existenz der Norm ist die Konvergenz des Integrals. Existiert die Norm beider Funktionen y1 (t) und y2 (t), so existiert auch ihr Innenprodukt, was sich leicht über die Schwarz’sche Ungleichung (Satz 2.11) zeigen lässt: 2 ∞ Z ∗ |hy1 (t), y2 (t)i| = y1 (t) y2 (t) dt ≤ ky1 (t)k2 · ky2 (t)k2 . 2

−∞

Statt des Integrationsbereiches R kann natürlich auch ein endliches Intervall gewählt werden, womit sich dann ein entsprechender Raum L2 (a, b) ergibt. Definition 3.11 (Norm und Innenprodukt von Leistungssignalen) ˜ 2 (R) := Die Norm und das Innenprodukt für Leistungssignale im Funktionenraum L RT 1 2 ˜ 2 (R) {y(t) : R → C : limT →∞ 2T −T |y(t)| dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L durch  ky(t)k =  lim

T →∞

1 2T

ZT

 12 y(t) y ∗ (t) dt < ∞

(3.12)

−T

beziehungsweise 1 hy1 (t), y2 (t)i = lim T →∞ 2T

ZT

y1 (t) y2∗ (t) dt

(3.13)

−T

angegeben.

Bemerkung 3.14 Da in späteren Abschnitten auch Funktionen auftreten, welche von mehreren Zeitvariablen abhängen, wird bei Innenprodukten zwischen Funktionen oft die Variable, bezüglich der das Innenprodukt gebildet wird, als tiefgestellter Index angegeben. Somit lautet Gleichung (3.10) in dieser ausführlicheren Schreibweise: Z∞ hy1 (t), y2 (t)it =

y1 (t) y2∗ (t) dt .

(3.15)

−∞

Beispielsweise entstehen bei den Kurzzeittransformationen, welche in der Signalverarbeitung Anwendung finden, Funktionen, die von mehreren Zeit- oder Frequenzvariablen abhängen [KSW08]. Auch hier wird bei Faltungsoperatoren zur Verdeutlichung ein Index angegeben. •

56

3 Zeitkontinuierliche Signale

3.1.3

Norm und Innenprodukt mit Belegung

In diesem Abschnitt bezeichnen X und Y reellwertige Funktionen, die man sich als Zufallsvariablen vorstellen kann. Definition 3.16 (Norm und Innenprodukt mit Belegung) Mit den beiden reellen Belegungen µ(x) ≥ 0 und µ(x, y) ≥ 0, die den Wert x bzw. (x, y) entsprechend der Abbildung X bzw. (X, Y ) gewichten, werden die Norm und das Innenprodukt wie folgt definiert: 

Z∞

kXk = 

 12 x2 · µ(x) dx ,

(3.17)

−∞

Z∞ Z∞ hX, Y i =

xy · µ(x, y) dx dy .

(3.18)

−∞−∞

Hierzu lässt sich folgendes Beispiel angeben: Beispiel 3.19 (Erwartungswerte) Mit der Wahrscheinlichkeitsdichte f (x) ≥ 0 und der Verbundwahrscheinlichkeitsdichte f (x, y) ≥ 0 als reelle Belegungen, welche den Normierungsbedingungen Z∞ f (x) dx = 1 Z∞ Z∞

−∞

f (x, y) dx dy = 1 −∞−∞

genügen, kann man die Norm als quadratischen Mittelwert Z∞ 2 2 kXk = E{X } = x2 · f (x) dx

(3.20)

−∞

und das Innenprodukt als Kreuzkorrelation Z∞ Z∞ hX, Y i = E{XY } = xy · f (x, y) dx dy −∞ −∞

(3.21)

interpretieren. Mit Hilfe der Schwarz’schen Ungleichung (Satz 2.11) lässt sich einfach eine Abschätzung für die Kreuzkorrelation angeben: p p • hX, Y i ≤ kXk · kY k ⇐⇒ E{XY } ≤ E{X 2 } · E{Y 2 } .

57

3.2 Stochastische Signale

3.2

Stochastische Signale

Bei der Konstruktion, Berechnung oder Analyse von Systemen mit zeitkontinuierlichen Signalen muss man in der Regel das entsprechende Signal kennen. So kann bei einem bestimmten Eingangssignal das Ausgangssignal berechnet werden. Doch wenn alle Eingangssignale bereits im Voraus bekannt wären, so bräuchten wir sie eventuell gar nicht. Wenn man etwa vor der Messung einer Länge das Ergebnis schon kennt, so kann man sich die Messung sparen. Im Allgemeinen sind die Signale nicht vorherbestimmt, sondern unbestimmt. Wenn bei einer Nachrichtenübertragung das Signal nur für den Sender bekannt ist, so ist das Signal für den Empfänger ein Zufallssignal oder stochastisches Signal, da das übertragene Signal für den Empfänger unbekannt ist – sonst bräuchte man es nicht übertragen – und es ferner von zufälligen Störungen überlagert ist. Diese zufälligen oder auch stochastischen Signale können aber trotzdem schon im Voraus Informationen enthalten. So kennt man beim Wurf eines Würfels zwar nicht die als Nächstes erscheinende Augenzahl – trotzdem weiß man, dass bei einem idealen Würfel jede Augenzahl gleichwahrscheinlich auftritt. Nach einer kurzen Wiederholung des Wahrscheinlichkeitsbegriffs sowie einiger technisch wichtiger Wahrscheinlichkeitsdichten wird in diesem Abschnitt der stochastische Prozess eingeführt. Genauere Ausführungen findet man in [BS75, Hän83, Ise74, JW02].

3.2.1

Wahrscheinlichkeit

Zur Definition der Wahrscheinlichkeit sei zunächst ein Zufallsexperiment betrachtet, welches ein zufälliges Versuchsergebnis ω ∈ Ω aus einem Stichprobenraum Ω liefert. Der Stichprobenraum Ω entspricht dabei der Menge aller Elementarereignisse ω – also aller möglichen Ausgänge – des Zufallsexperimentes. Das Wahrscheinlichkeitsmaß wird jedoch nicht nur auf Elementarereignisse ω angewandt, sondern auch auf Mengen E ⊆ Ω von Elementarereignissen. Diese Betrachtung schließt insbesondere als Ereignisse E die Sonderfälle E = ∅ (unmögliches Ereignis) und E = Ω (sicheres Ereignis) mit ein. Ungeachtet von der konkreten Deutung von Wahrscheinlichkeit wird die Wahrscheinlichkeit eines Ereignisses E nach dem Mathematiker Kolmogorov axiomatisch definiert. Definition 3.22 (Wahrscheinlichkeit) Die Wahrscheinlichkeit P (E) eines Ereignisses E ∈ A ist ein Maß, welches die folgenden drei Bedingungen erfüllt: (P1)

Nichtnegativität:

P (E) ≥ 0

(P2)

Normierung:

P (Ω) = 1

(P3)

Additivität:

P (Ei + Ej ) = P (Ei ) + P (Ej )

falls

Ei ∩ Ej = ∅

Diese Bedingungen sind als die Axiome der Wahrscheinlichkeitstheorie bekannt.

58

3 Zeitkontinuierliche Signale

Dabei ist die Ereignismenge A ⊆ P(Ω) eine σ-Algebra, wobei P(Ω) die Potenzmenge von Ω bezeichnet. Eine nichtleere Menge A von Ereignissen E ⊆ Ω heißt σ-Algebra, wenn Ω ∈ A gilt und A bezüglich Komplementbildung und abzählbarer Vereinigungen abgeschlossen ist [JW02]. Mit der Definition der Wahrscheinlichkeit P spricht man bei dem Tripel (Ω, A, P ) von einem Wahrscheinlichkeitsraum.

3.2.2

Wahrscheinlichkeitsverteilung

Nachdem der genaue zeitliche Verlauf stochastischer Signale nicht angegeben werden kann, werden solche Signale anhand ihrer Amplitudenverteilung beschrieben. Dabei werden den Amplituden- oder Signalwerten Wahrscheinlichkeiten zugeordnet. Betrachtet man die unterschiedlichen Signalwerte als Ergebnisse eines Zufallsexperimentes, so ist formal eine Abbildung des Stichprobenraumes Ω auf R erforderlich, um den Verlauf der Wahrscheinlichkeit der Signalwerte als Funktion angeben zu können. Für diese Abbildung hat sich der Begriff der Zufallsvariablen etabliert. Definition 3.23 (Zufallsvariable) Eine Zufallsvariable ist eine Funktion, die jedem Ergebnis ω ∈ Ω eines Zufallsexperimentes eine reelle Zahl Y (ω) zuordnet. Bemerkung 3.24 1. Der Begriff „Zufallsvariable“ (engl. random variable) ist leider irreführend, da es sich bei Y (ω) offensichtlich um eine wohldefinierte Funktion handelt: Y :Ω→R

mit

Y (ω) = y .

Der Zufall spielt sich alleine im Zufallsexperiment ab, nicht in der deterministischen Abbildung Y . 2. Die Werte y(ωi ) werden als Realisierungen der Zufallsvariablen bezeichnet. 3. Je nachdem, ob die Elementarereignisse des betrachteten Zufallsexperimentes abzählbar sind oder nicht, werden diskrete und kontinuierliche Zufallsvariable unterschieden. Da im Folgenden amplitudenkontinuierliche Zufallssignale betrachtet werden, wird von kontinuierlichen Zufallsvariablen ausgegangen. • Definition 3.25 (Verteilungsfunktion) Die Verteilungsfunktion einer Zufallsvariablen Y , FY (y) := P {Y ≤ y} , gibt die Wahrscheinlichkeit an, mit welcher der Funktionswert von Y kleiner oder höchstens gleich y ist. Anstelle der Verteilungsfunktion wird meist die Wahrscheinlichkeitsdichte fY (y) (auch Dichtefunktion genannt) verwendet, die dieselbe Information enthält.

59

3.2 Stochastische Signale Definition 3.26 (Wahrscheinlichkeitsdichte) Die Wahrscheinlichkeitsdichte einer Zufallsvariablen Y ist fY (y) =

dFY (y) . dy

Wegen des Normierungsaxioms (P2) in der Definition 3.22 gilt dabei: Z∞ fY (y) dy = 1 . −∞

Bemerkung 3.27 Eine Zufallsvariable wird durch ihre Wahrscheinlichkeitsverteilung vollständig beschrieben. Da die Amplitudenverteilung eines Signals jedoch mit der Zeit variieren kann, kann durch eine Wahrscheinlichkeitsverteilung ein stochastisches Signal im Allgemeinen lediglich zu einem festen Zeitpunkt t0 beschrieben werden. Die Erweiterung auf die gesamte Zeitachse t ∈ R erfolgt durch den in Abschnitt 3.2.3 eingeführten stochastischen Prozess. • In der Natur zeigt sich, dass viele Ereignisse, die von einer oder mehreren zufälligen Größen abhängen, zumindest näherungsweise bestimmten Wahrscheinlichkeitsverteilungen gehorchen. Zu den am meisten verwendeten Verteilungen gehören die Gleichverteilung, die Normalverteilung und die Exponentialverteilung. 3.2.2.1

Gleichverteilung

Die Gleichverteilung einer Zufallsvariablen Y im Intervall [a, b] ist durch die Wahrscheinlichkeitsdichte   1 für a ≤ y ≤ b fY (y) = b − a (3.28)  0 sonst gegeben. In Abbildung 3.1 ist als Beispiel die Wahrscheinlichkeitsdichte einer Gleichverteilung im Intervall [a, b] dargestellt.

Abbildung 3.1: Wahrscheinlichkeitsdichte bei Gleichverteilung.

60

3 Zeitkontinuierliche Signale

Mittels einfacher Rechnung folgen der Erwartungswert E{Y }, der auch als Mittelwert bezeichnet und als µ geschrieben wird, Z∞

Zb

µ = E{Y } =

y fY (y) dy = −∞

y 1 b2 − a2 1 dy = = (a + b) , b−a 2 b−a 2

(3.29)

a

und die Varianz Var{Y }, die oft auch als σ 2 geschrieben wird: 2

Z∞

σ =

Zb 

2

(y − µ) fY (y) dy = −∞

1 y − (a + b) 2

2

1 dy b−a

a

1 = b−a

Zb 

 1 2 y − (a + b)y + (a + b) dy 4 2

a

  1 1 3 1 1 = (b − a3 ) − (a + b)(b2 − a2 ) + (a + b)2 (b − a) b−a 3 2 4 1 1 = (b3 − 3ab2 + 3a2 b − a3 ) 12 b − a 1 = (b − a)2 . 12

(3.30)

Beispiel 3.31 (Quantisierungsfehler eines Analog-Digital-Umsetzers) Der Quantisierungsfehler eines Analog-Digital-Umsetzers wird näherungsweise als gleichverteilt angenommen [KE08]. Wenn man also eine physikalische Größe diskretisiert, so ist der Fehler zwischen dem eigentlichen Wert und dem diskreten Wert • gleichverteilt. 3.2.2.2

Normalverteilung

Die Normalverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte   1 (y − µ)2 fY (y) = √ exp − (3.32) 2σ 2 2πσ mit den Parametern µ und σ 2 gegeben. In Abbildung 3.2 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte bei Normalverteilung. Man kann durch Rechnung zeigen, dass der Erwartungswert E{Y } gleich µ Z∞ E{Y } = −∞

1 y fY (y) dy = √ 2πσ

1 =√ 2πσ

Z∞ −∞

Z∞ −∞

(y − µ)2 y exp − 2σ 2

y2 (y + µ) exp − 2 2σ 



 dy

 dy

61

3.2 Stochastische Signale

Abbildung 3.2: Wahrscheinlichkeitsdichte bei Normalverteilung.

1 =√ 2πσ

Z∞ −∞

|

= 2√

µ 2πσ

    Z∞ y2 µ y2 y exp − 2 dy + √ exp − 2 dy 2σ 2σ 2πσ −∞ {z } =0

Z∞

y2 exp − 2 2σ 

 dy = 2 √

0

√ µ π 1 2πσ 2 √ 2σ (3.33)

=µ und die Varianz gleich σ 2 Z∞

2

E{(Y − E{Y }) } =

(y − µ)2 fY (y) dy

−∞

1 = √ 2πσ 1 = √ 2πσ

Z∞ −∞ Z∞ −∞ Z∞

(y − µ)2 (y − µ) exp − 2σ 2 2



y2 y exp − 2 2σ 2



 dy

 dy

  y2 y exp − 2 dy 2σ 0 √ √ 3 2 π( 2σ) = √ 4 2πσ 2 = √ 2πσ

= σ2

2

(3.34)

ist. Ist eine Zufallsvariable normalverteilt, so wird ihre Verteilung durch diese beiden Parameter vollständig bestimmt. Durch Variablentransformation kann man jede Normalverteilung in eine Standardnormalverteilung überführen, die den Mittelwert 0 und die Varianz 1 besitzt und deren Wahrscheinlichkeitsdichte durch y2 1 − fY (y) = √ e 2 2π

(3.35)

62

3 Zeitkontinuierliche Signale

gegeben ist. Bei Zufallsvektoren Y = (Y1 , . . . , YN )T wird der Mittelwert µ von einem Mittelwertvektor µ und die Varianz σ 2 von der Kovarianzmatrix Σ abgelöst. Die Elemente des Mittelwertvektors entsprechen den einzelnen Mittelwerten der Zufallsvariablen µ = (µ1 , . . . , µN )T ,

µi = E{Yi } ,

(3.36)

und die Elemente der Kovarianzmatrix Σ werden nach folgendem Schema bestimmt: (3.37)

σij = E{(Yi − µi )(Yj − µj )} .

Dann hat die Wahrscheinlichkeitsdichte der mehrdimensionalen Normalverteilung folgende Darstellung: fY (y) =

1 1

(2π)N/2 |Σ| 2

1 − (y − µ)T Σ−1 (y − µ) e 2 .

(3.38)

Die Normalverteilung kommt in der Natur sehr häufig vor [BS75, KE08]. 3.2.2.3

Exponentialverteilung

Die Exponentialverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte  −λy für y ≥ 0 fY (y) = λ e (3.39) 0 sonst charakterisiert. In Abbildung 3.3 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte bei Exponentialverteilung.

Abbildung 3.3: Wahrscheinlichkeitsdichte bei Exponentialverteilung.

Ihr Erwartungswert respektive Mittelwert beträgt, wie man leicht nachrechnet, E{Y } =

1 λ

(3.40)

und die Varianz lautet σ2 =

1 . λ2

(3.41)

3.2 Stochastische Signale

63

Beispiel 3.42 (Ausfallrate von Bauelementen) Die Zeiten bis zum Ausfall gleichartiger Bauelemente werden als exponentialverteilt angenommen. Der Proportionalitätsfaktor λ in der Differentialgleichung dN = −λN ⇒ N (t) = N0 · e−λt dt bezeichnet dabei die Ausfallrate. Die momentane Abnahme der intakten Bauelemente ist proportional zur Zahl N der intakten Bauelemente. Die Vorgeschichte der • Bauelementezahl bleibt dabei unberücksichtigt.

3.2.3

Stochastische Prozesse

Bei den klassischen Zufallsexperimenten werden die Elementarereignisse durch fest zugeordnete Werte gekennzeichnet, z. B. wird das Ergebnis beim Würfeln durch eine Zahl zwischen 1 und 6 beschrieben. In der Signalverarbeitung können die Zufallsereignisse nicht einem einzelnen Zahlenwert, sondern müssen einem parameterabhängigen Zahlenwert – also einer Funktion oder Folge – zugeordnet werden. Dieser Parameter ist im Folgenden die Zeit t bzw. der Zeitindex n. Im Allgemeinen darf der Parameter aber auch eine andere Bedeutung haben. Bei einem Zufallsexperiment, dessen Elementarereignisse ω ∈ Ω durch die Zahlenwerte einer Zufallsvariablen gekennzeichnet sind, müssen alle möglichen Zahlenwerte y (ω) , ω ∈ Ω, einer auf einem Wahrscheinlichkeitsraum (Ω, A, P ) definierten Zufallsvariablen Y : Ω → R zur Beschreibung des Zufallsexperimentes herangezogen werden. Wenn den Elementarereignissen Funktionen zugeordnet sind, müssen alle bei diesem Zufallsexperiment möglichen Funktionen zur Beschreibung dieses Zufallsexperimentes verwendet werden. Die Gesamtheit dieser Funktionen y (ω) (t), ω ∈ Ω, nennt man einen stochastischen Prozess. Definition 3.43 (Stochastischer Prozess) Ein stochastischer Prozess Y : T × Ω → R ist eine Familie von Zufallsvariablen, welche durch t ∈ T indiziert ist, wobei T als diskrete oder kontinuierliche Zeit interpretiert werden kann. Die Zufallsvariablen sind über demselben Wahrscheinlichkeitsraum (Ω, A, P ) definiert. Somit ist Y (t0 , ω) für ein festes t0 ∈ T eine gewöhnliche Zufallsvariable, während bei festem ω0 ∈ Ω durch Y (t, ω0 ) eine Zeitfunktion gegeben ist. Betrachtet man Y (t0 , ω) bei festem t0 ∈ T als Zufallsvariable, so wird diese Zufallsvariable oft auch mit Y (t0 ) bezeichnet, wobei dann die Abhängigkeit von ω dadurch deutlich wird, dass wie bei gewöhnlichen Zufallsvariablen ein Großbuchstabe verwendet wird. Die bei festem ω0 ∈ Ω entstehende Zeitfunktion wird Musterfunktion des stochastischen Prozesses genannt und mit y (ω0 ) (t) bezeichnet, um die Abhängigkeit von ω0 und somit die Zufälligkeit dieser Funktion hervorzuheben. Ein Signal, dessen Funktion mit den Mitteln eines stochastischen Prozesses untersucht werden kann, nennt man stochastisches Signal.

64

3 Zeitkontinuierliche Signale

Gehört zu jedem Elementarereignis ω ∈ Ω nicht nur eine einzige Funktion y (ω) (t), (ω) (ω) sondern sind ihm m Funktionen y1 (t), . . . , ym (t) fest zugeordnet, so handelt es sich um einen m-dimensionalen stochastischen Prozess {Y(t) = (Y1 (t), . . . , Ym (t))T }. Hier spricht man davon, dass ein m-dimensionaler stochastischer Prozess aus m einzelnen stochastischen Signalen besteht. Dies ist immer dann sinnvoll, wenn die m Signale im Zusammenhang als Einheit betrachtet werden können.

Beispiel 3.44 (Rauschspannung) Die Spannung u(t) an einem Widerstand R ist, bedingt durch thermisches Rauschen, verrauscht und kann auch bei Kenntnis des durchfließenden Stromes i(t) nicht vorhergesagt werden. Hierbei handelt es sich bei u(t) um einen stochastischen Prozess, dessen Funktion beliebige Werte annehmen kann. Die Schar aller möglichen Funktionen ist unendlich groß. •

Beispiel 3.45 (Elektronenspin) Der Spin eines Elektrons 1 L(s) ¯ z =± h 2 kann sich nicht nur mit der Zeit ändern, sondern ist im Allgemeinen auch nicht vorhersehbar. Hierbei handelt es sich um einen stochastischen Prozess, dessen Funktion nur zwei diskrete Werte annehmen kann. Die Schar aller möglichen Funktionen über der Zeit ist unendlich groß. •

Beispiel 3.46 (CD-Spieler) Das digitale Ausgangssignal yn , n ∈ {1, . . . , N }, eines CD-Spielers ist von der eingelegten CD abhängig und damit deterministisch. Betrachtet man aber einen zufällig ausgewählten CD-Spieler, so kann man das Ausgangssignal yn nicht vorhersagen. Zwar beschränkt sich die Schar der möglichen Ausgangssignale auf die endliche Anzahl aller existierenden CDs. Trotzdem muss man ohne Kenntnis der eingelegten CD von einem stochastischen Signal und damit von einem stochastischen Prozess ausgehen. •

3.2.3.1

Wahrscheinlichkeitsdichte

An dieser Stelle wird der Begriff der Wahrscheinlichkeitsdichte auf stochastische Prozesse erweitert. Wie bei den Zufallsvariablen wird dazu als Erstes die Verteilungsfunktion definiert, die Aussagen über das Verhalten der Amplitude zu einem Zeitpunkt t erlaubt.

65

3.2 Stochastische Signale Definition 3.47 (Verteilungsfunktion) Die Verteilungsfunktion eines stochastischen Prozesses {Y (t)}, FY (y, t) = P {Y (t) ≤ y} ,

gibt die Wahrscheinlichkeit an, mit der der zufällige Funktionswert (Signalwert) Y (t) zum Zeitpunkt t kleiner gleich y ist. Somit ist die Verteilungsfunktion von den beiden Parametern y und t abhängig. Hieraus folgt die Dichtefunktion als partielle Ableitung der Verteilungsfunktion. Definition 3.48 (Wahrscheinlichkeitsdichte) Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses {Y (t)} ergibt sich durch fY (y, t) =

∂FY (y, t) ∂y

(3.49)

ebenfalls als Funktion zweier Variablen. Dabei gilt: Z∞ fY (y, t) dy = 1 . −∞

Sowohl die Verteilungsfunktion als auch die Wahrscheinlichkeitsdichte hängen im allgemeinen Fall von der Zeit t ab. Die partielle Ableitung in Gleichung (3.49) ist als verallgemeinerte Ableitung anzusehen. An Stellen, an denen in der Verteilungsfunktion Sprünge auftreten, enthält die Wahrscheinlichkeitsdichte δ-Distributionen. Bei m-dimensionalen stochastischen Prozessen sind auch eine Verteilungsfunktion und eine Wahrscheinlichkeitsdichte definiert. Es bedarf lediglich einer Übertragung der eindimensionalen Begriffe auf mehrdimensionale Funktionen. Man betrachtet also gleichzeitig das Verhalten der eindimensionalen Zufallsgrößen Y1 (t), . . . , Ym (t) zu Zeitpunkten t1 , . . . , tm . Dies wird in der folgenden Definition erfasst. Definition 3.50 (Mehrdimensionale Verteilungsfunktion) Die Verteilungsfunktion eines m-dimensionalen stochastischen Prozesses {Y(t)}, Y(t) = (Y1 (t), . . . , Ym (t))T , FY (y1 , . . . , ym , t1 , . . . , tm ) = P ({Y1 (t1 ) ≤ y1 } ∩ · · · ∩ {Ym (tm ) ≤ ym }) , gibt die Wahrscheinlichkeit an, mit der die Funktionswerte (Signalwerte) Yi (t) zum Zeitpunkt ti kleiner oder höchstens gleich yi sind.

66

3 Zeitkontinuierliche Signale

Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion. Definition 3.51 (Mehrdimensionale Wahrscheinlichkeitsdichte) Die Wahrscheinlichkeitsdichte eines m-dimensionalen stochastischen Prozesses {Y(t)}, Y(t) = (Y1 (t), . . . , Ym (t))T , ist durch fY (y1 , . . . , ym , t1 , . . . , tm ) =

∂ m FY (y1 , . . . , ym , t1 , . . . , tm ) ∂y1 · · · ∂ym

gegeben. Dabei gilt: Z∞ Z∞ · · · fY (y1 , . . . , ym , t1 , . . . , tm ) dy1 · · · dym = 1 . −∞

−∞

Beim mehrdimensionalen stochastischen Prozess kommt noch der Begriff der statistischen Unabhängigkeit hinzu. Definition 3.52 (Statistische Unabhängigkeit) Die Komponenten Y1 (t), . . . , Ym (t) eines m-dimensionalen stochastischen Prozesses {Y(t)}, Y(t) = (Y1 (t), . . . , Ym (t))T , heißen statistisch unabhängig, wenn die Gleichungen FY (y1 , . . . , ym , t1 , . . . , tm ) = FY1 (y1 , t1 ) · . . . · FYm (ym , tm ) bzw. fY (y1 , . . . , ym , t1 , . . . , tm ) = fY1 (y1 , t1 ) · . . . · fYm (ym , tm ) gelten. Die m-dimensionale Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte ist das Produkt der m einzelnen Verteilungsfunktionen bzw. Wahrscheinlichkeitsdichten. Statistische Unabhängigkeit ist eine Eigenschaft, die experimentell höchstens näherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells für ein System kann sie — sofern sie nicht bereits aus den Annahmen über die Quellen auftretender Zufallsprozesse folgt — nur vorausgesetzt werden. Dies ist in der Regel berechtigt, wenn die stochastischen Signale verschiedene Ursachen haben. Statistische Unabhängigkeit bedeutet immer eine wesentliche Vereinfachung der Modellanalyse. Man wird daher oft auch dort versuchen, mit statistischer Unabhängigkeit zu arbeiten, wo die Quellen der stochastischen Signale zwar nicht völlig unabhängig voneinander sind, vorhandene Abhängigkeiten aber nicht interessieren oder keine allzu große Auswirkung auf die untersuchte Fragestellung haben.

67

3.2 Stochastische Signale 3.2.3.2

Momente

Mit Hilfe der Verteilungsfunktion oder der Wahrscheinlichkeitsdichte wird ein stochastischer Prozess beschrieben. Ob man aber auf diese Weise eine vollständige Beschreibung aller Eigenschaften des Prozesses erlangt und wie diese vollständige Beschreibung aussehen muss, soll hier nicht weiter vertieft werden. Schon aus rein praktischen Gründen kann man nämlich die Genauigkeit bei der Beschreibung der Eigenschaften eines stochastischen Prozesses im Allgemeinen nicht beliebig weit treiben. Allein um einen eindimensionalen stochastischen Prozess {Y (t)} durch seine Verteilungsfunktion FY (y, t) zu beschreiben, muss diese Funktion für genügend dicht gelegene Punkte t messtechnisch oder analytisch aus den Gesetzmäßigkeiten, denen die Musterfunktionen y (ω) (t) von {Y (t)} gehorchen, ermittelt werden. Dabei ist auch zu bedenken, dass meistens gar nicht alle möglichen Musterfunktionen eines Prozesses, sondern lediglich eine geringe Anzahl derselben gemessen werden können. Die Ermittlung der Verteilungsfunktion für mehrdimensionale stochastische Prozesse {Y(t)} ist offensichtlich noch aufwändiger. Aus diesen Gründen verzichtet man häufig darauf, die Eigenschaften eines stochastischen Prozesses durch seine Verteilungs- oder Dichtefunktion zu beschreiben. Man versucht stattdessen, die zugehörigen Momente – wie z. B. Erwartungswerte – zu ermitteln, wobei man sich in der Praxis auf die Momente erster und zweiter Ordnung beschränkt. Mit der Kenntnis dieser Momente lassen sich viele praktische Aufgaben lösen. Bei eindimensionalen stochastischen Prozessen werden die Momente durch folgende Definitionen beschrieben. Definition 3.53 (Moment eines stochastischen Prozesses) Durch n

Z∞

E{Y (t)} =

y n fY (y, t) dy

(3.54)

−∞

wird das n-te Moment des stochastischen Prozesses {Y (t)} definiert, welches auch als µn (t) bezeichnet wird. Durch eine Zentrierung der Zufallsgröße auf ihren Mittelwert ergibt sich das zentrale Moment eines stochastischen Prozesses. Definition 3.55 (Zentrales Moment eines stochastischen Prozesses) Durch n

Z∞

E{(Y (t) − E{Y (t)}) } =

(y − E{Y (t)})n fY (y, t) dy

−∞

wird das n-te zentrale Moment des stochastischen Prozesses {Y (t)} definiert.

(3.56)

68

3 Zeitkontinuierliche Signale

Bemerkung 3.57 1. Das erste Moment ist der zeitabhängige Erwartungswert oder Mittelwert µ(t). 2. Das zweite zentrale Moment heißt Varianz σ 2 (t). Sie ist ein Maß für die Streuung der Werte um den Mittelwert. Ihre Wurzel heißt Standardabweichung. 3. Bei der Berechnung der zentralen Momente wird vom Signalwert y der Mittelwert abgezogen. Damit ist bei mittelwertfreien stochastischen Signalen das i-te • Moment gleich dem i-ten zentralen Moment. Bei mehrdimensionalen stochastischen Prozessen können die Momente im Allgemeinen nicht mehr berechnet werden. Nur bei zweidimensionalen stochastischen Prozessen lassen sich die beiden ersten Momente noch berechnen. Definition 3.58 (Erstes Moment eines zweidimensionalen Prozesses) Das erste Moment eines zweidimensionalen stochastischen Prozesses {Y(t)}, Y(t) = (Y1 (t), Y2 (t))T , wird durch einen zweidimensionalen Vektor beschrieben. Die j-te Komponente lässt sich wie folgt bestimmen: Z∞ µj (t) = E{Yj (t)} =

yj fYj (yj , t) dyj ,

j = 1, 2 .

(3.59)

−∞

Definition 3.60 (Zweites Moment eines zweidimensionalen Prozesses) Das zweite Moment und das zweite zentrale Moment eines zweidimensionalen stochastischen Prozesses {Y(t)}, Y(t) = (Y1 (t), Y2 (t))T , werden jeweils durch eine (2 × 2)Matrix beschrieben. Die (jk)-te Komponente lässt sich beim zweiten Moment durch Z∞ Z∞ rjk (t1 , t2 ) = E{Yj (t1 ) Yk (t2 )} =

yj yk fY (yj , yk , t1 , t2 ) dyj dyk

(3.61)

−∞−∞

und beim zweiten zentralen Moment durch cjk (t1 , t2 ) = E {[Yj (t1 ) − E{Yj (t1 )}] · [Yk (t2 ) − E{Yk (t2 )}]} Z∞ Z∞ = (yj − µj (t1 )) (yk − µk (t2 )) fY (yj , yk , t1 , t2 ) dyj dyk

(3.62)

−∞−∞

berechnen. Dabei nennt man cjk die Kovarianz und rjk die Korrelation zwischen der j-ten und k-ten Komponente. Für j = k spricht man von Autokorrelation bzw. Autokovarianz , ansonsten von Kreuzkorrelation bzw. Kreuzkovarianz . Die (2×2)-Matrizen bezeichnet man entsprechend als Korrelationsmatrix RY,Y (t1 , t2 ) bzw. Kovarianzmatrix CY,Y (t1 , t2 ).

69

3.2 Stochastische Signale Bemerkung 3.63

Bei der Korrelation komplexwertiger Energie- oder Leistungssignale wird eines der beiden Signale komplex konjugiert. Die hier betrachteten stochastischen Prozesse • sind jedoch stets reellwertig, weswegen die Konjugation entfällt. Man beachte, dass die Korrelation rY2 ,Y1 (t1 , t2 ) den statistischen Zusammenhang zwischen Y2 (t1 ) und Y1 (t2 ) beschreibt. Dagegen beschreibt rY1 ,Y2 (t1 , t2 ) den Zusammenhang zwischen Y1 (t1 ) und Y2 (t2 ). Es gilt im Allgemeinen rY2 ,Y1 (t1 , t2 ) 6= rY1 ,Y2 (t1 , t2 ) ,

falls t1 6= t2 .

(3.64)

Die Korrelationsmatrix ist also für t1 6= t2 asymmetrisch und für t1 = t2 symmetrisch. Entsprechend gilt für die Kovarianzmatrix im Allgemeinen cY2 ,Y1 (t1 , t2 ) 6= cY1 ,Y2 (t1 , t2 ) ,

falls t1 6= t2 .

(3.65)

Im Falle eines m-dimensionalen stochastischen Prozesses {Y(t)}, der durch Y(t) = (Y1 (t), . . . , Ym (t))T definiert ist, wird die Korrelationsmatrix   rY1 ,Y1 (t1 , t2 ) · · · rY1 ,Ym (t1 , t2 )   .. .. .. RY,Y (t1 , t2 ) =  (3.66)  . . . rYm ,Y1 (t1 , t2 ) · · · rYm ,Ym (t1 , t2 ) bzw. die Kovarianzmatrix 

 cY1 ,Y1 (t1 , t2 ) · · · cY1 ,Ym (t1 , t2 )   .. .. .. CY,Y (t1 , t2 ) =   . . . cYm ,Y1 (t1 , t2 ) · · · cYm ,Ym (t1 , t2 )

(3.67)

aus den Elementen des zweidimensionalen Falles gebildet. Sowohl der Begriff der Korrelationsmatrix RY,Y (t1 , t2 ) als auch der der Kovarianzmatrix CY,Y (t1 , t2 ) lassen sich auf den Fall zweier m-dimensionaler stochastischer Prozesse {Y1 (t)} und {Y2 (t)} verallgemeinern. Dann beschreiben die Korrelationsmatrix RY1 ,Y2 (t1 , t2 ) und die Kovarianzmatrix CY1 ,Y2 (t1 , t2 ) keine Autokorrelationen bzw. Autokovarianzen, sondern Kreuzkorrelationen bzw. Kreuzkovarianzen. 3.2.3.3

Stationarität

Allgemein sind die Verteilungsfunktionen und damit auch die Wahrscheinlichkeitsdichten eines stochastischen Prozesses zeitabhängig. Dies hat zur Folge, dass sowohl die ersten Momente eine Funktion der Zeit t sind als auch die Korrelationen und Kovarianzen eine Funktion der Zeiten t1 und t2 sind. Wesentliche Vereinfachungen treten allerdings ein, wenn sich die statistischen Eigenschaften eines Prozesses oder die gemeinsamen statistischen Eigenschaften mehrerer Prozesse bei einer Verschiebung der Zeitachse nicht ändern. Man nennt derartige Zufallsprozesse stationär.

70

3 Zeitkontinuierliche Signale

Definition 3.68 (Stationarität) Ein m-dimensionaler stochastischer Prozess {Y(t)}, Y(t) = (Y1 (t), . . . , Ym (t))T , heißt streng stationär oder auch stationär im engeren Sinne, wenn seine statistischen Eigenschaften invariant gegenüber beliebigen Verschiebungen t0 der Zeit sind, d. h. falls FY (y1 , . . . , ym , t1 , . . . , tm ) = FY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )

(3.69)

fY (y1 , . . . , ym , t1 , . . . , tm ) = fY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )

(3.70)

bzw.

gilt. Zwei stochastische Prozesse heißen verbunden stationär, wenn beide stationär und ebenso ihre gemeinsamen statistischen Eigenschaften invariant gegenüber der Zeit sind. Hieraus folgt sofort für einen eindimensionalen stochastischen Prozess {Y (t)} wegen FY (y, t) = FY (y, t + t0 ) = FY (y)

(3.71)

fY (y, t) = fY (y, t + t0 ) = fY (y)

(3.72)

und

die Zeitunabhängigkeit der Verteilungsfunktion bzw. der Wahrscheinlichkeitsdichte. Die n-ten Momente n

Z∞

E{Y (t)} =

n

Z∞

y fY (y, t) dy = −∞

y n fY (y) dy = E{Y n }

(3.73)

−∞

hängen dementsprechend ebenfalls nicht mehr von der Zeit ab. Bei zweidimensionalen stationären stochastischen Prozessen {Y(t) = (Y1 (t), Y2 (t))T } erhält man mit der Zeittransformation t0 = t∗0 − t2 folgende Verteilungsfunktion: FY (y1 , y2 , t1 + t0 , t2 + t0 ) = FY (y1 , y2 , t1 − t2 + t∗0 , t∗0 ) . Da stationäre stochastische Prozesse invariant gegenüber der Zeit sind, kann man die Zeitverschiebung t∗0 außer Acht lassen, wodurch man mit τ = t1 − t2 eine Verteilungsfunktion FY (y1 , y2 , t1 , t2 ) = FY (y1 , y2 , τ )

(3.74)

erhält, die nur noch von der Zeitdifferenz τ abhängt. Die absoluten Zeiten sind wegen der Stationarität irrelevant. Entsprechend gilt für die Wahrscheinlichkeitsdichte: fY (y1 , y2 , t1 , t2 ) = fY (y1 , y2 , τ ) .

(3.75)

71

3.2 Stochastische Signale Für die zweiten Momente folgt, dass die Korrelation Z∞ Z∞ rjk (τ ) = E{Yj (t + τ ) Yk (t)} =

yj yk fY (yj , yk , τ ) dyj dyk

(3.76)

−∞−∞

und die Kovarianz cjk (τ ) = E {(Yj (t + τ ) − E{Yj }) (Yk (t) − E{Yk })} Z∞ Z∞ = (yj − µj ) (yk − µk ) fY (yj , yk , τ ) dyj dyk

(3.77)

−∞−∞

ebenfalls nur noch von der Zeitverschiebung abhängen. Neben der Stationarität im engeren Sinne gibt es auch die schwache Stationarität. Definition 3.78 (Schwache Stationarität) Ein stochastischer Prozess heißt schwach stationär oder auch im weiteren Sinne stationär, wenn die Invarianz gegenüber einer Translation der Zeit nur für die Momente erster und zweiter Ordnung gilt. Hierfür muss die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte selbst nicht invariant gegenüber einer Zeitverschiebung sein. Nur die Mittelwerte, Korrelationen und Kovarianzen sind nicht vom absoluten Zeitpunkt abhängig. Stationarität ist eine Eigenschaft eines stochastischen Prozesses, die nur aus der Gesamtheit aller Musterfunktionen bestimmt werden kann. Die Beobachtung endlich langer Abschnitte einzelner Musterfunktionen – und nur dies ist in einem Experiment möglich – kann höchstens Hinweise darauf geben, ob die Annahme eines stationären stochastischen Prozesses als Modell für ein Signal oder eine Störung angemessen ist oder nicht. Daneben hängt es weitgehend vom Untersuchungsziel ab, ob ein Vorgang durch einen instationären stochastischen Prozess modelliert werden muss, oder ob das in der Regel sehr viel einfachere Modell eines stationären Prozesses wirklichkeitsnah genug ist. 3.2.3.4

Ergodizität

Bei der Bestimmung des ersten Moments allgemeiner stochastischer Prozesse nach Gleichung (3.54), Z∞ E{Y (t)} =

y fY (y, t) dy , −∞

wird zu einem festen Zeitpunkt t über die Schar aller möglichen Musterfunktionen gemittelt. Dies nennt man den Scharmittelwert. Mittelt man hingegen über alle Zeiten t

72

3 Zeitkontinuierliche Signale

bei einer festen Musterfunktion y (ω) (t), so spricht man vom Zeitmittelwert. Der Zeitmittelwert sagt nur etwas über die eine Musterfunktion aus, für die er berechnet wurde. Er kann für jede Musterfunktion verschieden sein. Es gibt jedoch eine Klasse von stationären stochastischen Prozessen, bei denen die Scharmittelwerte und Zeitmittelwerte identisch sind. Man nennt derartige Prozesse ergodisch. Definition 3.79 (Ergodizität) Ein stationärer stochastischer Prozess heißt ergodisch, wenn die Zeitmittelwerte einer beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden Scharmittelwerten übereinstimmen. Stationarität ist in jedem Fall die Voraussetzung für Ergodizität. Dies geht schon daraus hervor, dass die Mittelwerte instationärer stochastischer Prozesse zeitabhängig sind und somit nicht für alle Zeiten mit den zeitunabhängigen Zeitmittelwerten übereinstimmen können. Bemerkung 3.80 Auch bei Ergodizität unterscheidet man zwischen Prozessen, die streng ergodisch oder schwach ergodisch sind. Bei streng ergodischen Prozessen gilt Definition 3.79 für alle Momente; bei schwach ergodischen Prozessen begnügt man sich damit, Aus• tauschbarkeit nur für Momente erster und zweiter Ordnung zu fordern. Nun ist zu untersuchen, unter welchen Voraussetzungen ein stationärer Zufallsprozess ergodisch ist. Der Zeitmittelwert für eine einzelne Musterfunktion, d. h. für ein festes ω ∈ Ω, stellt selbst eine Zufallsvariable dar: 1 mY (ω) = lim T →∞ 2T

Z+T

y (ω) (t) dt .

(3.81)

−T

Für mY (ω) kann somit ein Erwartungswert berechnet werden:   Z+T   1 E{mY (ω)} = E lim y (ω) (t) dt . T →∞ 2T  −T

Vertauscht man die Reihenfolge der Operationen, 1 E{mY (ω)} = lim T →∞ 2T

Z+T

E{y (ω) (t)} dt ,

−T

so folgt schließlich aufgrund der Stationarität E{mY (ω)} = E{y (ω) (t0 )} ,

t0 ∈ R .

(3.82)

73

3.2 Stochastische Signale

Dieses Ergebnis besagt, dass der Mittelwert aller Zeitmittelwerte mit dem Scharmittelwert übereinstimmt. Daher ist mY (ω) ein erwartungstreuer Schätzwert für den Scharmittelwert (erstes Moment). Sind zusätzlich alle Zeitmittelwerte mY (ω) mit der Wahrscheinlichkeit eins einander gleich, so ist die Ergodizität für den Mittelwert gegeben. Gleichheit mit Wahrscheinlichkeit eins bedeutet hier, dass die Mittelwerte einer Anzahl von Musterfunktionen vom Scharmittelwert abweichen können, solange die Wahrscheinlichkeit, dass eine dieser Musterfunktionen auftritt, gleich null ist. Der mathematisch strenge Nachweis der Ergodizität lässt sich höchstens in Sonderfällen erbringen. Daher kann in der Regel die Eigenschaft der Ergodizität für einen stochastischen Prozess nur angenommen werden. Diese Annahme bedeutet, dass aus einer einzelnen Musterfunktion y (ω) (t) alle statistischen Eigenschaften des Zufallsprozesses bestimmt werden können. Bei einem ergodischen Prozess ist somit jede beliebige Musterfunktion in der Lage, den ganzen stochastischen Prozess zu vertreten. Beispiel 3.83 (Schwingung mit zufälliger Phase als ergodischer Prozess) Gegeben sei der Zufallsprozess {Y (t)} mit den Musterfunktionen y (ω) (t) = sin(2πf t + ϕi (ω)) mit fester Frequenz f und einer Phase ϕi , die auf dem Intervall [0, 2π) gleichverteilt ist. Bei diesem Zufallsprozess erkennt man, dass sowohl der Zeitmittelwert – d. h. der Mittelwert einer Musterfunktion über alle Zeiten – als auch der Scharmittelwert – d. h. der Mittelwert aller Musterfunktionen zu einem Zeitpunkt – verschwinden. Durch Mittelung über eine gleichverteilte Phase bzw. über eine Periode einer Schwingung folgt: E{y (ω) (t)} = E{mY (ω)} = 0 . Der Prozess ist somit ergodisch.



Betrachtet man die Einteilung der Signale in die Signalklassen gemäß Abschnitt 3.1.1, so stellt sich die Frage, welche Signale Musterfunktionen ergodischer Prozesse sein können. Nach Beispiel 3.83 ist eine harmonische Schwingung mit zufälliger, gleichverteilter Phase ein ergodischer Prozess. Daraus schließt man, dass Leistungssignale Musterfunktionen ergodischer Prozesse sein können. Es kann sogar gezeigt werden, dass alle Musterfunktionen ergodischer Prozesse Leistungssignale sind. Energiesignale hingegen können keine Musterfunktionen ergodischer Prozesse sein, da sie nicht stationär sind: lim y(t) = 0

t→±∞



lim µn (t) = 0

t→±∞



keine Stationarität.

Da nach Voraussetzung Energiesignale für t → ±∞ verschwinden, verschwinden auch deren erste Momente. Damit ist die Zeitunabhängigkeit der Momente für nichttriviale Energiesignale verletzt. Die Momente eines ergodischen Prozesses werden nach den folgenden Regeln berechnet.

74

3 Zeitkontinuierliche Signale

Satz 3.84 (Moment eines ergodischen Prozesses) Das n-te Moment eines ergodischen Prozesses wird bei beliebigem ω0 ∈ Ω durch (n)

µ

1 = lim T →∞ 2T

bestimmt.

Z+T 

n y (ω0 ) (t) dt

−T



Der Index ω0 der Musterfunktion bedeutet dabei, dass eine feste Musterfunktion zur Bestimmung herangezogen wird. Satz 3.85 (Zentrales Moment eines ergodischen Prozesses) Das n-te zentrale Moment eines ergodischen Prozesses wird für ω0 ∈ Ω durch β berechnet.

(n)

1 = lim T →∞ 2T

Z+T 

y (ω0 ) (t) − µ(n)

n

dt

−T



Die Bewertung der Ähnlichkeit stochastischer Prozesse erfolgt mittels der Korrelation, vgl. Bemerkung 3.63. Satz 3.86 (Korrelation zweier ergodischer Prozesse) Die Korrelation zweier ergodischer Prozesse Yj (t) und Yk (t) wird bei beliebigen ω0 , ω1 ∈ Ω durch 1 rjk (τ ) = lim T →∞ 2T bestimmt.

Z+T

(ω0 )

yj

(ω1 )

(t + τ ) yk

(t) dt

−T



Satz 3.87 (Kovarianz zweier ergodischer Prozesse) Die Kovarianz zweier ergodischer Prozesse Yj (t) und Yk (t) ist bei beliebigen ω0 , ω1 ∈ Ω durch Z+T 1 (ω ) (ω ) (yj 0 (t + τ ) − µj ) (yk 1 (t) − µk ) dt cjk (τ ) = lim T →∞ 2T gegeben.

−T



In den Sätzen 3.86 und 3.87 werden Korrelation bzw. Kovarianz zwischen einzelnen Musterfunktionen berechnet. Da ergodische Musterfunktionen Leistungssignale sind, können die Definitionen für Korrelation und Kovarianz für ergodische Musterfunktionen auch bei deterministischen Leistungssignalen angewandt werden.

75

3.2 Stochastische Signale 3.2.3.5

Korrelation für Leistungssignale

Analog zu den ergodischen Musterfunktionen ist die Korrelation deterministischer Leistungssignale über das Innenprodukt als Kreuzkorrelation L Rxy (τ )

1 = hx(t + τ ), y(t)it = lim T →∞ 2T

bzw. als Autokorrelation L Ryy (τ )

1 = hy(t + τ ), y(t)it = lim T →∞ 2T

Z+T

x(t + τ ) y ∗ (t) dt

(3.88)

y(t + τ ) y ∗ (t) dt

(3.89)

−T

Z+T −T

definiert. Der hochgestellte Index L gibt an, dass es sich um die Korrelation von Leistungssignalen handelt. Beispiel 3.90 (Autokorrelation eines periodischen Signals) Das Signal s(t) = A sin(2πf0 t + ϕ) besitzt die Autokorrelation L Rss (τ )

1 = lim T →∞ 2T

Z+T A sin(2πf0 (t + τ ) + ϕ) A sin(2πf0 t + ϕ) dt −T

A2 cos(2πf0 τ ) , 2 die von der Phase unabhängig ist. =

3.2.3.6



Korrelation für Energiesignale

Da Energiesignale nicht zu den ergodischen Prozessen gehören, ist die Berechnung einer Korrelation mit obigen Mitteln eigentlich nicht möglich. Für die wichtige Anwendung des Signalvergleichs lässt sich aber auch für Energiesignale eine Korrelationsfunktion angeben, bei deren Definition das Innenprodukt Anwendung findet: Z∞ E Rxy (τ ) = hx(t + τ ), y(t)it = x(t + τ ) y ∗ (t) dt < ∞ . (3.91) −∞

Der Zusatz E kennzeichnet die abweichende Berechnungsvorschrift und die Tatsache, dass es sich hier nicht mehr um eine Korrelationsfunktion im stochastischen Sinne handelt. Vielfach spricht man auch von Impulskorrelation. E Die Autokorrelation Rxx (τ ) zum Zeitpunkt τ = 0, E Rxx (0) = hx(t), x(t)it = kx(t)k2 = Ex ,

ist gleich der Signalenergie.

76 3.2.3.7

3 Zeitkontinuierliche Signale Eigenschaften der Korrelation

Unter den definierten Momenten kommt der Korrelation eine besondere Bedeutung zu. Auf sie soll daher in diesem Abschnitt noch einmal eingegangen werden. Die folgenden Beziehungen gelten dabei für Energie- und Leistungssignale. Die Autokorrelation eines instationären stochastischen Prozesses {Y (t)} ist im Allgemeinen eine Funktion zweier Zeiten: RY Y (t1 , t2 ) = hY (t1 ), Y (t2 )i = E{Y (t1 ) Y (t2 )} . Hieraus folgt sofort die Vertauschbarkeit der beiden Zeiten: RY Y (t2 , t1 ) = E{Y (t2 ) Y (t1 )} = E{Y (t1 ) Y (t2 )} = RY Y (t1 , t2 ) .

(3.92)

Weiterhin lässt sich mit Hilfe der Schwarz’schen Ungleichung folgende Ungleichung zeigen: 2

(RY Y (t1 , t2 )) ≤ RY Y (t1 , t1 ) · RY Y (t2 , t2 ) ,

t1 , t2 ∈ R .

(3.93)

Es gilt nämlich |hY (t1 ), Y (t2 )i|2 ≤ hY (t1 ), Y (t1 )i · hY (t2 ), Y (t2 )i , woraus Gleichung (3.93) unmittelbar folgt. Bei stationären stochastischen Prozessen ist die Autokorrelation nur noch von τ = t1 −t2 abhängig. Wegen Gleichung (3.92) folgt damit aus (3.94)

RY Y (τ ) = RY Y (−τ ) ,

dass die Autokorrelation stationärer Prozesse eine gerade Funktion ist. Die Ungleichung (3.93) vereinfacht sich daher zu |RY Y (τ )| ≤ RY Y (0) ,

τ ∈ R.

(3.95)

Dies besagt, dass die Autokorrelation eines stationären Zufallsprozesses bei τ = 0 dem Betrage nach ihren größten Wert erreicht. Bei der Formulierung der Ungleichung (3.95) wurde noch berücksichtigt, dass RY Y (0) = E{Y (t)2 } ≥ 0 ,

(3.96)

d. h. dass RY Y (0) nicht negativ ist. Beschreibt der stochastische Prozess eine physikalische Größe – z. B. einen Strom, eine Spannung, einen Druck, eine Geschwindigkeit oder eine Kraft –, so ist RY Y (0) proportional der mittleren Leistung bzw. der Energie. Sind die Musterfunktionen eines stationären Prozesses periodisch mit der Periodendauer T0 , d. h. gilt y (ω) (t) = y (ω) (t + T0 ) ,

t ∈ R,

so ist, wie man leicht nachrechnet, seine Autokorrelation Ryy (τ ) = Ryy (τ + T0 ) ,

τ ∈ R,

ebenfalls periodisch mit der Periodendauer T0 .

(3.97)

77

3.3 Deterministische Signale

3.3

Deterministische Signale

Unter deterministischen Signalen sind Signale zu verstehen, deren zeitlicher Ablauf analytisch beschreibbar und exakt voraussagbar ist. Im Gegensatz hierzu stehen die stochastischen Signale, die durch ihre Wahrscheinlichkeitsverteilungen beschrieben werden können und die im letzten Abschnitt behandelt wurden. Ihr zeitlicher Verlauf kann nicht mit Hilfe einer analytischen Beschreibung exakt vorausgesagt werden. Bei der Darstellung deterministischer Signale stellt die aus der Funktionalanalysis stammende Entwicklung in Basisfunktionen ein mächtiges Werkzeug dar. Die Entwicklung in vollständige, biorthogonale Funktionensysteme ist eine Verallgemeinerung [KSW08]. Sie wird im Bereich der Kurzzeit-Fourier-Transformation und der Wavelet-Transformation benutzt.

3.3.1

Orthogonale Funktionensysteme

Im Funktionenraum L2 (a, b) der Energiesignale ergibt sich mit dem Innenprodukt Gl. (3.10) und der Definition 2.28 einer orthonormalen Basis die folgende Bedingung für ein mit der Indexmenge I indiziertes orthonormales Funktionensystem (φi (t))i∈I : Zb hφi (t), φj (t)it =

φi (t) φ∗j (t) dt = δij ,

 δij =

1 0

für i = j . (3.98) sonst

a

Das Schmidt’sche Orthonormalisierungsverfahren (Satz 2.30) beschränkt sich nicht nur auf Vektoren, sondern kann auch auf Funktionen angewendet werden. Dies bietet die Möglichkeit, damit orthonormale Funktionensysteme zu konstruieren. In den folgenden zwei Beispielen werden bekannte Orthonormalsysteme kurz vorgestellt. Beispiel 3.99 (Fourier-Reihe T -periodischer Funktionen in L2 (t0 , t0 + T )) Bei der Entwicklung von Funktionen bzw. deren periodischer Fortsetzung in ihre Fourier-Reihe treten folgende orthonormale Funktionen auf: 1 Fk (t) = √ ej2πkt/T , T

k ∈ Z.

(3.100)

Es ist zu beachten, dass die verwendeten Basisfunktionen orthonormal sind. Die im späteren Verlauf bei der Fourier-Reihe verwendeten Basisfunktionen sind hingegen nur orthogonal, da der Vorfaktor √1T fehlt. • Beispiel 3.101 (Legendre-Polynome in L2 (−1, 1)) 1/2 Die mit dem Vorfaktor ( 2k+1 multiplizierten Legendre-Polynome 2 ) r 2k + 1 1 dk 2 Pk (t) = (t − 1)k , k ∈ N0 , 2 2k k! dtk

(3.102)

78

3 Zeitkontinuierliche Signale bilden in L2 (−1, 1) ein orthonormales Funktionensystem. Die ersten Polynome sind: r r   1 3 5 3 2 1 √ P0 (t) = , P1 (t) = t, P2 (t) = t − . • 2 2 2 2 2

Genauso lassen sich aber auch eigene orthonormale Funktionensysteme bilden. Dies soll im folgenden Beispiel durch Anwendung des Schmidt’schen Orthonormalisierungsverfahrens gezeigt werden. Beispiel 3.103 (Schmidt’sches Orthonormalisierungsverfahren) Gegeben sind im Funktionenraum L2 (0, 3) folgende Funktionen: x1 (t) 16

x2 (t) 16

1 −1

2

x3 (t) 16

3 t

1

3 t

2

−1

1

2

3 t

−1

Durch sukzessive Anwendung des Schmidt’schen Orthonormalisierungsverfahrens in Verbindung mit der Definition des Innenproduktes im Funktionenraum L2 (0, 3) ergibt sich daraus ein orthonormales Funktionensystem. 1. Berechnen der Norm des Signals x1 (t) durch s Z 3 √ kx1 k = x1 (t) x∗1 (t) dt = 2 . 0

2. Das Signal φ1 (t) folgt damit als x1 (t) φ1 (t) = √ . 2 3. Bestimmung des Innenprodukts Z 3 hx2 (t), φ1 (t)it = x2 (t) φ∗1 (t) dt = 0 . 0

4. Daraus folgt nach Gleichung (2.33) h2 (t) = x2 (t) . 5. Berechnen der Norm s Z kh2 k = 0

3

h2 (t) h∗2 (t) dt =



2.

79

3.3 Deterministische Signale 6. Somit ergibt sich die zweite Basisfunktion x2 (t) φ2 (t) = √ . 2 7. Bestimmung der Innenprodukte Z 3 √ hx3 (t), φ1 (t)it = x3 (t) φ∗1 (t) dt = 2 , 0

Z hx3 (t), φ2 (t)it = 0

3

x3 (t) φ∗2 (t) dt = 0 .

8. Daraus folgt nach Gleichung (2.33) √ h3 (t) = x3 (t) − 2 φ1 (t) = x3 (t) − x1 (t) . 9. Berechnen der Norm s Z kh3 k =

3

0

h3 (t) h∗3 (t) dt = 1 .

10. Für das Signal φ3 (t) gilt somit φ3 (t) = x3 (t) − x1 (t) . Das Ergebnis des Schmidt’schen Orthonormalisierungsverfahrens sieht folgendermaßen aus: φ1 (t) 6

φ2 (t) 6

√1 2

φ3 (t) 6

√1 2

2

t − √12

2

t

2

3 t

−1 •

Orthonormale Funktionensysteme kann man verwenden, um andere Funktionen zu approximieren. Mit Gleichung (2.29) lässt sich eine T -periodische Funktion im Intervall [− T2 , T2 ] durch die Fourier-Reihe im Funktionenraum L2 (− T2 , T2 ) darstellen: ∞ 1 X √ yˆ(t) = ak ej2πkt/T T k=−∞

80

3 Zeitkontinuierliche Signale

mit T /2 Z

ak = hy(t), Fk (t)it =

y(t) Fk∗ (t) dt

−T /2

1 =√ T

T /2 Z

y(t) e−j2πkt/T dt .

−T /2

Mit dem in Beispiel 3.103 bestimmten orthonormalen Funktionensystem kann man ebenso die Funktion y(t) = sin( 2π 3 t) approximieren. Die einzelnen Koeffizienten a1 bis a3 lauten dabei: a1 = 0,5064 ,

a2 = 0,5064 ,

a3 = 0,7162 .

Die approximierte Funktion yˆ(t) = a1 φ1 (t) + a2 φ2 (t) + a3 φ3 (t) und die Originalfunktion y(t) sieht man in Abbildung 3.4.

Abbildung 3.4: Vergleich einer Sinusfunktion und deren Approximation durch die drei Basisfunktionen aus Beispiel 3.103.

Der Näherungsfehler kann durch Hinzunahme orthogonaler Basisfunktionen höherer Ordnung verringert werden (Bessel’sche Ungleichung). Bemerkung 3.104 Die zur Approximation verwendeten Basissysteme müssen nicht unbedingt orthonormal sein. Im Gegenteil sind beispielsweise die üblicherweise bei der Fourier-Reihe verwendeten Basisfunktionen nur orthogonal. Die Norm einer Funktion ist nur ein Skalar und somit nicht von größerer Bedeutung. Dieser Faktor wird bei der Berechnung der Koeffizienten mit einfließen. Wichtiger ist vielmehr die Tatsache, dass die verwendeten Basisfunktionen orthogonal sind, was eine zur Berechnung wesentliche Vereinfachung darstellt. •

3.3.2

Biorthogonale Funktionensysteme

In einem biorthogonalen Funktionensystem verwendet man nicht ein, sondern zwei Funktionensysteme (φi (t))i∈I und (ψi (t))i∈I [KSW08]. Diese beiden Funktionensysteme sind durch die Biorthogonalitätsbedingung miteinander verbunden.

81

3.4 Fourier-Reihe Definition 3.105 (Biorthogonalitätsbedingung)

Die beiden Funktionensysteme (φi (t))i∈I und (ψi (t))i∈I bilden ein biorthogonales System, wenn sie durch die Biorthogonalitätsbedingung Zb hφi (t), ψj (t)it =

φi (t) ψj∗ (t) dt = δij ,

 δij =

1 für i = j 0 sonst

(3.106)

a

verbunden sind. Angemerkt sei, dass hierbei im Allgemeinen φi 6= ψi ist und jedes Funktionensystem für sich alleine nicht orthonormal sein muss. Beide Funktionensysteme müssen jeweils den Funktionenraum L2 (a, b) vollständig aufspannen. Bei der Rekonstruktion eines beliebigen Signals (in diesem Fall eines Energiesignals) verwendet man das erste Funktionensystem zur Darstellung des Signals: X y(t) = ai φi (t) . (3.107) i∈I

Das erste Funktionensystem enthält die Synthesefunktionen. Die Koeffizienten dagegen werden mit den zu den Synthesefunktionen φi (t) biorthogonalen Analysefunktionen ψi (t) berechnet: Zb ai = hy(t), ψi (t)it =

y(t) ψi∗ (t) dt .

(3.108)

a

Dies lässt sich mit Hilfe der Biorthogonalitätsbedingung (3.106) leicht zeigen: DX E X X hy(t), ψj (t)it = ai φi (t), ψj (t) = ai hφi (t), ψj (t)it = ai δij = aj . t | {z } i∈I i∈I i∈I =δij

3.4

Fourier-Reihe

Ein orthogonales Funktionensystem besonderer Bedeutung bilden die trigonometrischen Funktionen im Intervall [−π, π]. Mit der Periodendauer T0 = 2π lauten diese   sk (t) = sin 2π Tk0 t , k = 1, 2, 3, . . .   (3.109) ck (t) = cos 2π Tk0 t , k = 0, 1, 2, . . . Diese erfüllen die Orthogonalitätsbedingungen:  Zπ 0 hsi (t), sj (t)it = si (t) sj (t) dt = π −π

für i 6= j , für i = j

(3.110)

82

3 Zeitkontinuierliche Signale Zπ hci (t), cj (t)it = −π

  0 für i 6= j 6 0 , ci (t) cj (t) dt = π für i = j =  2π für i = j = 0

Zπ hsi (t), cj (t)i =

(3.111)

(3.112)

si (t) cj (t) dt = 0 . −π

Aufgrund ihrer Periodizität sind trigonometrische Funktionen besonders geeignet, um periodische Funktionen in eine Reihe trigonometrischer Funktionen zu entwickeln. Diese Reihe heißt Fourier-Reihe und die Entwicklung einer periodischen Funktion in ihre Fourier-Reihe bezeichnet man als harmonische Analyse.

Satz 3.113 (Fourier-Reihe) Periodische Funktionen der Periodendauer T0 kann man durch die Fourier-Reihe y(t) =

    ∞  a0 X k k + ak cos 2π t + bk sin 2π t 2 T0 T0

(3.114)

k=1

darstellen. Entsprechend der Überlegung, dass sich die Koeffizienten bei orthogonalen Funktionensystemen gemäß Gleichung (2.29) durch Projektion berechnen lassen, und der Definition des Innenprodukts für Leistungssignale in Gleichung (3.13), berechnet man die Fourier-Koeffizienten ak und bk wie folgt: T0

ak =

Z2

2 T0



bk =

2 T0

T0 2 T0 2

Z −

T0 2

  k y(t) cos 2π t dt , T0

k = 0, 1, 2, . . . (3.115)

  k y(t) sin 2π t dt , T0

k = 1, 2, 3, . . . •

Da die Integranden periodisch mit der Periode T0 sind, kann anstelle des Grenzübergangs T0 → ∞ über eine Periode integriert werden. Somit stellt die Bestimmung der Fourier-Koeffizienten eine Abbildung des Periodenintervalls einer Funktion y(t) in zwei Folgen (ak )k≥0 und (bk )k≥1 dar. In praktischen Anwendungen wird man oft nach endlich vielen Gliedern abbrechen. Man erhält somit eine Approximation der periodischen Funktion durch ein trigonometrisches Polynom. In zwei Beispielen werden nun die Fourier-Koeffizienten bestimmt und die Originalfunktion mit diesen Koeffizienten approximiert.

83

3.4 Fourier-Reihe Beispiel 3.116 (Fourier-Reihe der Rechteckfunktion) Das periodische Rechtecksignal y(t) mit der Periode T0 = 2π  −1 für − π ≤ t < 0 y(t) = 1 für 0 ≤ t < π

soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die Fourier-Koeffizienten zu berechnen. Die Koeffizienten der Cosinusfunktionen, 1 ak = π

Zπ −π

 k  y(t) cos 2π t dt = 0 , T0

müssen verschwinden, da die Cosinusfunktion eine gerade Funktion und die Rechteckfunktion eine ungerade Funktion ist. Die Koeffizienten der Sinusfunktionen lassen sich einfach ermitteln: Zπ Zπ  k   k  1 2 bk = y(t) sin 2π t dt = sin 2π t dt π T0 π T0 −π 0  k  π  2 T0 2 T0 = − cos 2π t = 1 + (−1)k+1 π 2πk T0 π 2πk 0   4 für k ungerade kπ =  0 für k gerade. Zur Approximation werden die ersten drei von null verschiedenen Koeffizienten verwendet: !  1  sin(2π 3 t) sin(2π 5 t) 4 T0 T0 yˆ(t) = sin 2π t + + . π T0 3 5 Die approximierte Rechteckfunktion ist in Abbildung 3.5 dargestellt. 1 0,5 0 −0,5 −1 −2

0

2

Abbildung 3.5: Mit Hilfe einer FourierReihe approximierte Rechteckfunktion.



84

3 Zeitkontinuierliche Signale

Beispiel 3.117 (Fourier-Reihe der Dreieckfunktion) Das periodische Dreiecksignal y(t) mit der Periodendauer T0 = 2π ( y(t) =

1 + π2 t 1−

2 πt

für − π ≤ t < 0 für 0 ≤ t < π

soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die Fourier-Koeffizienten zu berechnen. Die Koeffizienten der Sinusfunktionen 1 bk = π

Zπ −π

 k  y(t) sin 2π t dt = 0 T0

müssen verschwinden, da die Sinusfunktion eine ungerade und die Dreieckfunktion eine gerade Funktion ist. Die Koeffizienten der Cosinusfunktionen ergeben sich zu:  Zπ   k  2 1 − t cos 2π t dt π T0 −π 0  π  Z Zπ  k   k  2 2 =  cos 2π t dt − t cos 2π t dt π T0 π T0 0 0 π " #π k k  k  4 cos(2π T0 t) t sin(2π T0 t) k6=0 2 T0 = sin 2π t − 2 + π 2πk T0 π (2π Tk0 )2 2π Tk0 0 0    4 (−1)k 1 4 =0− 2 + 0 − 2 − 0 = 2 2 1 + (−1)k+1 π k2 k k π  8  für k ungerade = k2 π2  0 für k gerade, k 6= 0.

1 ak = π



k  2 y(t) cos 2π t dt = T0 π 

Für k = 0 muss man den Koeffizienten separat berechnen: 2 a0 = 2π

Zπ −π

2 y(t) dt = π

Zπ 

1−

2  t dt = 0 . π

0

Zur Approximation werden die ersten drei von null verschiedenen Koeffizienten verwendet: !  1  cos(2π 3 t) cos(2π 5 t) 8 T0 T0 yˆ(t) = 2 cos 2π t + + . π T0 9 25 Die approximierte Dreieckfunktion erkennt man in Abbildung 3.6.



85

3.4 Fourier-Reihe

1 0,5 0 −0,5 −1 −2

0

2

Abbildung 3.6: Approximierte Dreieckfunktion.

Benutzt man die Fourier-Reihe nicht zur Synthese, sondern zur Analyse periodischer Funktionen, so ist zu untersuchen, wie die Fourier-Koeffizienten interpretiert werden können. Die Fourier-Koeffizienten ak und bk gehören zur trigonometrischen Funktion cos(2π Tk0 t) bzw. sin(2π Tk0 t) mit der Frequenz Tk0 . Somit geben ak und bk den Anteil einer Schwingung der Frequenz f = Tk0 an der Signalenergie an. Der Unterschied der beiden Koeffizienten liegt in der Phase. Dies ist aus folgender Beziehung ersichtlich:  k   k  q  k bk  ak cos 2π t + bk sin 2π t = a2k + b2k cos 2π t − arctan . T0 T0 T0 ak Mit Ak =

q

a2k

+

und

b2k

 ψk = − arctan

bk ak



(3.118)

erhält man Amplitude und Phase der Schwingungen. Die Fourier-Reihe eignet sich also zur Bestimmung der Spektralanteile in periodischen Funktionen. Mit der exponentiellen Darstellung der trigonometrischen Funktionen,   k  1 j2π Tk t −j2π Tk0 t 0 cos 2π t = e +e , T0 2    k  1 j2π Tk0 t −j2π Tk0 t sin 2π t = e −e , T0 2j 

(3.119) (3.120)

erhält man die Fourier-Reihe in komplexer Schreibweise. Satz 3.121 (Komplexe Darstellung der Fourier-Reihe) Eine T0 -periodische Funktion y(t) lässt sich durch die Fourier-Reihe y(t) =

∞ X k=−∞

ck e

j2π Tk0 t

(3.122)

86

3 Zeitkontinuierliche Signale in komplexer Schreibweise darstellen. Im Gegensatz zur reellen Darstellung gibt es nur noch eine Koeffizientenfolge (ck )k∈Z mit T0

1 ck = T0

Z2

−j2π Tk0 t y(t) e dt .

(3.123)

T − 20

• An dieser Stelle wird, wie schon in Bemerkung ??, erneut auf eine Besonderheit der Fourier-Reihe hingewiesen, welche zu Verwirrung führen kann. Bemerkung 3.124 In Beispiel 3.99 wurde die Fourier-Reihe bereits eingeführt. Sie enthielt dort, als orthonormales Funktionensystem, noch den Vorfaktor √1T . Im Gegensatz dazu bildet 0 die hier benutzte Fourier-Reihe lediglich ein orthogonales Funktionensystem. Diese Notation hat sich in der heutigen Literatur eingebürgert. • Der Fourier-Koeffizient ck ist die komplexe Amplitude des Spektralanteils mit der diskreten Frequenz fk =

k , T0

k ∈ Z.

In solch einem Fall spricht man von einem Linienspektrum. Bemerkenswert ist zudem, dass der Index in der komplexen Darstellung der Fourier-Reihe in Z läuft. Dies bedeutet, dass es auch Spektralanteile mit negativen Frequenzen geben kann. Dies ist durch die komplexe Darstellung einer Sinusschwingung gemäß  1  j2πf0 t sin(2πf0 t) = e − e−j2πf0 t 2j verständlich. Eine reelle Sinusschwingung mit der Frequenz f0 wird nämlich durch zwei komplexe Schwingungen mit den Frequenzen f0 und −f0 dargestellt. Mit Hilfe der komplexen Fourier-Koeffizienten ck kann man nun die komplexen Amplituden als eine Funktion der kontinuierlichen Frequenz f darstellen:  T0  Z2    1 y(t) e−j2πf t dt für f = Tk0 , k∈Z C(f ) = T0 (3.125)  T  − 20   0 sonst. Trägt man diese Funktion auf, so erkennt man deutlich das Linienspektrum. Der Abstand zweier Spektrallinien entspricht dem reziproken Wert der Periodendauer: ∆f =

1 . T0

(3.126)

87

3.4 Fourier-Reihe Beispiel 3.127 (Fourier-Reihe und Periodendauer)

In diesem Beispiel soll noch einmal verdeutlicht werden, wie die Spektralanteile und deren Abstand von der Periodendauer des Signals abhängen. Hierzu legen wir die Reckteckfunktion y(t) mit der Zeitdauer T = 1 s gemäß  1 für 0 ≤ t ≤ T y(t) = 0 sonst zugrunde und setzen diese mit der Periode T0 ≥ 2T fort. Wählt man die Periode dieser Fortsetzung zu T0 = lT mit l ≥ 2, so erhält man die Fourier-Koeffizienten: T0

 C

k T0

 =

Z2

1 T0



y(t) e

−j2π Tk0 t

T0 2

  sin π kl −jπ k   l  e πk =  1  l

dt =

1 T0

ZT

y(t) e

−j2π Tk0 t

dt

0

für k 6= 0 für k = 0.

Betrachten wir die beiden Fälle l = 2 und l = 4 und multiplizieren die Amplitude zur Normierung mit l, so erhalten wir die in Abbildung 3.7 bzw. Abbildung 3.8 abgebildeten Funktionen. Man erkennt, dass sich bei einer Vergrößerung der Periodendauer die Abstände der Spektrallinien entsprechend Gleichung (3.126) verringern. Dieses Resultat wird im nächsten Abschnitt noch einmal aufgegriffen. • 1,2

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

5

10

15

20

25

−5

0

Abbildung 3.7: Periodisches Signal und Linienspektrum für den Fall T0 = 2T .

5

88

3 Zeitkontinuierliche Signale 1,2

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

5

10

15

20

25

−5

0

5

Abbildung 3.8: Periodisches Signal und Linienspektrum für den Fall T0 = 4T .

3.5

Fourier-Transformation

Die Fourier-Reihe hat sich als ein Werkzeug zur Bestimmung der Frequenzanteile periodischer Funktionen erwiesen. Um aber nicht nur periodische Signale, sondern auch nichtperiodische Signale durch ihr Spektrum beschreiben zu können, führt man formal den Grenzübergang der Periodendauer nach unendlich T0 → ∞ durch. Hierdurch wird die Frequenzauflösung ∆f beliebig fein, sie geht also gegen null. Dies resultiert aber für Energiesignale in einer verschwindenden Amplitudenfunktion in Gleichung (3.125): T0 → ∞

=⇒

C(f ) = 0 ,

f ∈ R.

Statt der Amplitudenfunktion in Gleichung (3.125) führt man deshalb eine Amplitudendichte ein: T0

C(f ) FC (f ) = = C(f ) T0 = ∆f

Z2

y(t) e−j2πf t dt .

(3.128)

T − 20

Der Grenzwert der Amplitudendichte Gl. (3.128) für T0 → ∞, d. h. für ∆f → 0, entspricht der Spektraldichte oder der Fourier-Transformierten Z∞ lim FC (f ) =

T0 →∞

y(t) e−j2πf t dt = Y (f ) .

−∞

Zur Herleitung der Rücktransformation wird die komplexwertige Fourier-Reihe in Gleichung (3.122) mit Hilfe der Amplitudenfunktion C(f ) aus Gl. (3.125) umgeschrieben: y(t) =

∞ X k=−∞

 ∞ X j2π Tk0 t C(f ) ej2πf t ck e = k=−∞

 . f = Tk 0

89

3.5 Fourier-Transformation Nun ersetzt man die Amplitudenfunktion C(f ) durch die Amplitudendichte FC (f ):   ∞ X FC (f ) ej2πf t ∆f . C(f ) = FC (f ) · ∆f =⇒ y(t) = k k=−∞

f= T

0

Im Grenzübergang der Periodendauer T0 nach unendlich, T0 → ∞ ⇔ ∆f → 0, geht die R P Summe in das Integral , die Frequenzauflösung ∆f in das totale Differential df und die Amplitudendichte FC (f ) in die Fourier-Transformierte Y (f ) über: Z∞ y(t) =

Y (f ) ej2πf t df .

−∞

Hierdurch zerlegt man, analog zur Fourier-Reihe, das Signal y(t) in die Frequenzanteile Y (f ) der einzelnen kontinuierlichen Frequenzen f . Beispiel 3.129 (Herleitung der Fourier-Transformation aus der FourierReihe) Dieses Beispiel zeigt exemplarisch die Entstehung der Fourier-Transformation aus der Fourier-Reihe. Hierzu greifen wir noch einmal das Beispiel 3.127 auf. Während wir dort die beiden Fälle T0 = 2T und T0 = 4T betrachtet hatten, wird an dieser Stelle der für T0 → ∞ stattfindende Prozess verdeutlicht. Hierzu liefert bereits T0 = 20T ein repräsentatives Resultat, welches in Abbildung 3.9 dargestellt ist. 1,2

1,2

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

5

10

15

20

25

−5

0

5

Abbildung 3.9: Periodisches Signal und Linienspektrum für den Fall T0 = 20T .

Man erkennt, wie die diskrete Verteilung über die verschiedenen Frequenzen in eine kontinuierliche Frequenzverteilung übergeht. Man benötigt also zur Darstellung beliebiger nichtperiodischer Signale alle zur Verfügung stehenden Frequenzen und kann sich nicht wie beim periodischen Fall auf Frequenzen in gewissen diskreten Abständen beschränken. Durch Aufzeichnen aller Frequenzlinien in den Abständen 1/20 entsteht der Eindruck einer geschlossenen Fläche, da die einzelnen Linien in der Abbildung nicht mehr aufgelöst werden können. •

90

3.5.1

3 Zeitkontinuierliche Signale

Definition der Fourier-Transformation

Die Fourier-Transformation ist eine eigenständige Integraltransformation, die lediglich der Anschaulichkeit halber aus der Fourier-Reihe abgeleitet wurde. Im Folgenden soll diese Transformation formal definiert werden. Definition 3.130 (Fourier-Transformation) Die Fourier-Transformation bildet eine Funktion der Zeit y(t) in eine Funktion der Frequenz Y (f ) ab. Man schreibt symbolisch: y(t) ◦−• Y (f ) ,

Y (f ) = F{y(t)} ,

y(t) = F−1 {Y (f )} .

Die Transformationsvorschriften

Y (f ) = y(t), ej2πf t t =

Z∞ −∞

y(t) = Y (f ), e−j2πf t f =

y(t) e−j2πf t dt , Z∞

Y (f ) ej2πf t df

(3.131)

(3.132)

−∞

stellen Abbildungen des Zeitbereiches in den Frequenzbereich bzw. umgekehrt dar. Die Fourier-Transformierte einer Zeitfunktion bezeichnet man auch als deren Spektrum. Die Darstellung Gl. (3.132) für y(t) lässt sich in Analogie zur Fourier-Reihe in sehr anschaulicher Weise physikalisch deuten. Ist eine Funktion y(t) periodisch, so kann man sie als unendliche Summe von harmonischen Schwingungen darstellen. Deren Frequenzen sind die Vielfachen einer Grundfrequenz f0 = T10 . Eine analoge Struktur weist Gl. (3.132) auf. Hier ist die nichtperiodische Funktion y(t) ebenfalls aus harmonischen Schwingungen aufgebaut. Dabei sind aber nicht nur Schwingungen mit diskreten Frequenzen kf0 beteiligt, sondern grundsätzlich Schwingungen aller Frequenzen. Jede dieser Schwingungen ist mit ihrer infinitesimalen komplexen Amplitude Y (f ) df beteiligt. Ihre Summation führt zum Integral Gl. (3.132). Statt der Frequenz f kann man auch die Kreisfrequenz ω = 2πf verwenden. Dann ergeben sich mit dω = 2π df die beiden Fourier-Integrale in Kreisfrequenzschreibweise: Z∞ Y (ω) = −∞

1 y(t) = 2π

y(t) e−jωt dt , Z∞

−∞

Y (ω) ejωt dω .

(3.133)

(3.134)

91

3.5 Fourier-Transformation

In der Literatur [Doe76, Föl80, Jur64, OS75, Ach85, Pap77, SS67] findet man beide Darstellungen. Wir haben uns für die Frequenzschreibweise entschieden, da sie aufgrund ihrer Symmetrie einfacher zu erlernen ist. Die Eigenschaften und Rechenregeln der Fourier-Transformation sind natürlich unabhängig von der Schreibweise. Wenn man aber Spektraldichten oder Zeitfunktionen aus einer Korrespondenztabelle entnimmt, muss man darauf achten, welche Schreibweise der jeweilige Autor verwendet. Bei den Fourier-Integralen handelt es sich um uneigentliche Integrale. Deshalb stellt sich hier die Frage nach deren Konvergenz. Wegen ∞ Z Z∞ −j2πf t y(t) e dt ≤ |y(t)| dt −∞

−∞

konvergiert das Fourier-Integral sicherlich dann, wenn Z∞

(3.135)

|y(t)| dt < ∞ −∞

gilt, wenn also y(t) absolut integrierbar über R ist. Dann existiert auch das Umkehrintegral Gl. (3.132). Die Bedingung Gl. (3.135) ist z. B. für alle Funktionen y(t) erfüllt, die ein Energiesignal darstellen, d. h. für y(t) ∈ L2 (R). Die Bedingung der absoluten Integrierbarkeit ist allerdings nicht notwendig, sondern nur hinreichend. Die Fourier-Transformierte kann auch dann existieren, wenn Gl. (3.135) nicht erfüllt ist. Die mögliche Nichtexistenz des Fourier-Integrals soll an einem Beispiel gezeigt werden. Beispiel 3.136 (Nichtexistenz des Fourier-Integrals) Die Rampenfunktion  t y(t) = 0

für t ≥ 0 sonst

besitzt – wenn überhaupt – die Fourier-Transformierte ZT0 Y (f ) = lim

T0 →∞

t e−j2πf t dt .

0

Aus dem Integral ZT0 t e−j2πf t dt = 0

T0 1 −j2πf t (−j2πf t − 1) 2 e (−j2πf ) 0 h i 1 −j2πf T0 (j2πf T + 1) − 1 = 0 2 e (2πf )

92

3 Zeitkontinuierliche Signale und der Dreiecksungleichung |a ± b| ≥ |a| − |b| ≥ |a| − |b| wird mit Hilfe der Abschätzung h i 1 −j2πf T 0 (j2πf T0 + 1) − 1 (2πf )2 e 1 −j2πf T0 ≥ (j2πf T0 + 1) − |1| 2 e (2πf ) 1 = |1 + j2πf T0 | − 1 (2πf )2 |2πf T0 | T0 →∞ ≥ −→ ∞ (2πf )2 deutlich, dass das Fourier-Integral in diesem Fall nicht existiert.



Die Fourier-Transformation ist im Hilbert-Raum L2 (R) ein linearer, unitärer Operator, bei dem die Signalenergie erhalten bleibt. Es gilt die Parseval’sche Beziehung zwischen zwei Funktionen x(t) und y(t) (3.137)

hx(t), y(t)it = hX(f ), Y (f )if , welche sich leicht nachrechnen lässt: Z∞ hX(f ), Y (f )if = −∞ Z∞

X(f ) Y ∗ (f ) df Z∞

= −∞ −∞ Z∞ Z∞

x(t1 ) e−j2πf t1 dt1 Z∞

=

y ∗ (t2 ) ej2πf t2 dt2 df

−∞

x(t1 ) y ∗ (t2 ) e−j2πf (t1 − t2 ) df dt1 dt2

−∞ −∞ −∞ Z∞ Z∞

=

Z∞



Z∞

x(t1 ) y (t2 ) δ(t1 − t2 ) dt2 dt1 = −∞ −∞

= hx(t), y(t)it .

x(t1 )y ∗ (t1 ) dt1

−∞

Aus der Parseval’schen Beziehung folgt sofort, dass die Fourier-Transformation unitär ist: ky(t)k2 = hy(t), y(t)it = hY (f ), Y (f )if = kY (f )k2 .

93

3.5 Fourier-Transformation

3.5.2

Eigenschaften der Fourier-Transformation

Die Fourier-Transformation ist ein wichtiges „Denkwerkzeug“, mit dem viele unterschiedliche Problemstellungen und Sachverhalte der Systemtheorie anschaulich behandelt werden können. In der Praxis rechnet man jedoch meist nicht konkret mit der Fourier-Transformation nach den Gleichungen (3.131) und (3.132), denn die uneigentlichen Integrale sind im Allgemeinen unbequem. Vielmehr stellt man Zusammenhänge zwischen den Darstellungen im Zeit- und Frequenzbereich mit Hilfe einiger weniger Korrespondenzen, Operationen und Eigenschaften her. Eine Auflistung der gebräuchlichsten Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation findet man in Anhang A. Für die Abschätzung des Spektrums ist der folgende Satz hilfreich.

Satz 3.138 (Fourier-Transformierte eines positiven Signals) Für die Fourier-Transformierte eines im Zeitbereich positiven und reellen Signals y(t) ≥ 0 ,

t, y(t) ∈ R ,

gilt folgende Abschätzung: ∞ Z Z∞ −j2πf t |Y (f )| = y(t) e dt ≤ |y(t)| e−j2πf t dt | {z } −∞ −∞ =1 Z∞ Z∞ = |y(t)| dt = y(t) dt = Y (0) −∞

−∞

oder kürzer: y(t) ≥ 0 ,

t∈R

=⇒

|Y (f )| ≤ Y (0) ,

f ∈ R.



Ein im weiteren Verlauf des Buches benötigter Satz beschäftigt sich mit der Transformierten von reellen Zeitfunktionen. Betrachtet man die Fourier-Transformierte einer solchen reellen Funktion y(t), so folgt:  ∗

Z∞

Y (f ) =  −∞

Z∞ = −∞

∗

y(t) e−j2πf t dt =

Z∞

y ∗ (t) ej2πf t dt =

−∞

y(t) e−j2π(−f )t dt = Y (−f ) .

94

3 Zeitkontinuierliche Signale

Satz 3.139 (Fourier-Transformation eines reellen Signals) Für die Fourier-Transformierte eines reellen Zeitsignals y(t) ∈ R, t ∈ R, gilt Y ∗ (f ) = Y (−f )

(3.140)

und somit die Symmetrie des Betrages |Y (f )| = |Y (−f )| und die Schiefsymmetrie der Phase arg{Y (f )} = − arg{Y (−f )} . Aus dieser Eigenschaft folgen für Y (f ) = YR (f ) + j YI (f ) die Zusammenhänge YR (f ) = YR (−f ) , YI (f ) = −YI (−f ) und darüber hinaus |Y (f )|2 = Y (f ) Y ∗ (f ) = Y (f ) Y (−f ) .

(3.141) •

3.5.2.1

Faltung

Die Faltung ist ein Operator, der zwei Signale x(t) und y(t) miteinander verknüpft und als Ergebnis ein drittes Signal liefert. Sie ist wie folgt definiert: Z∞



x(t) ∗ y(t) = hx(t − τ ), y (τ )iτ =

x(t − τ ) y(τ ) dτ .

(3.142)

−∞

Genauso lässt sich die Faltung auch auf Frequenzfunktionen anwenden: ∗

Z∞

X(f ) ∗ Y (f ) = hX(f − ν), Y (ν)iν =

X(f − ν) Y (ν) dν .

(3.143)

−∞

Die Faltung zweier Signale x(t) und y(t) kann dadurch veranschaulicht werden, dass das Signal x(t) zunächst an der Ordinatenachse gespiegelt und zeitlich verschoben wird. Anschließend wird es mit dem Signal y(t) punktweise multipliziert, und schließlich wird das Ergebnissignal zeitlich aufintegriert. Diese Vorgehensweise ist in Bild 3.10 grafisch illustriert. Aufgrund der herausragenden Bedeutung der Faltung im Kontext der Systemanalyse – worauf in Kapitel 4 ausführlich eingegangen wird – stellt sich die Frage, ob diese verhältnismäßig komplexe (und bei ihrer Implementierung ebenfalls rechenintensive) Operation auf einfachere Weise berechnet werden kann. Erfreulicherweise stellt sich dabei heraus,

95

3.5 Fourier-Transformation

Abbildung 3.10: Grafische Veranschaulichung der Faltung.

dass die Faltung zweier Signale bei Anwendung der Fourier-Transformation in eine Multiplikation ihrer Spektren überführt wird – und damit deutlich vereinfacht wird: Z∞ Z∞ F{x(t) ∗ y(t)} = x(t − τ ) y(τ ) dτ e−j2πf t dt −∞ −∞ Z∞

y(τ ) e−j2πf τ

= −∞

Z∞

x(t − τ ) e−j2πf (t − τ ) dt dτ

−∞

|

{z

X(f )

} (3.144)

= X(f ) · Y (f ) . Aus diesem Ergebnis folgt unmittelbar die Kommutativität der Faltung: x(t) ∗ y(t) = F−1 {X(f ) · Y (f )} = F−1 {Y (f ) · X(f )} = y(t) ∗ x(t) .

Analog lässt sich zeigen, dass eine Multiplikation zweier Signale im Zeitbereich durch Fourier-Transformation in eine Faltung ihrer Spektren überführt wird:  ∞   ∞  Z Z x(t) · y(t) =  X(f ) ej2πf t df  ·  Y (ν) ej2πνt dν  −∞

Z∞ =



Z∞

X(f )  −∞ Z∞

Z∞

= −∞ −∞

−∞



Y (ν) ej2π(f + ν)t dν  df

−∞

X(f ) Y (ζ − f ) ej2πζt dζ df

f +ν = ζ dν = dζ

96

3 Zeitkontinuierliche Signale Z∞ =



Z∞

 −∞

 X(f ) Y (ζ − f ) df  · ej2πζt dζ

−∞

= F−1 {X(f ) ∗ Y (f )} . Für die Fourier-Transformation gilt also:

F{x(t) · y(t)} = x(t) · y(t), ej2πf t t



= x(t), ej2πf t t ∗ y(t), ej2πf t t = F{x(t)} ∗ F{y(t)} .

Bemerkung 3.145 Der Faltungsoperator wird häufig angewandt. Dies liegt daran, dass sich lineare Systeme durch eine Faltungsoperation realisieren lassen. Beispielsweise wird beim Entwurf von Filtern das gewünschte Frequenzverhalten vorgegeben und daraus eine das Filter charakterisierende Funktion berechnet. Anschließend kann das resultierende Antwortsignal des Filters auf ein bestimmtes Eingangssignal mittels einer Faltung mit dieser Funktion berechnet werden (vgl. Kapitel 4). •

3.5.2.2

Korrelation

Die Korrelation zweier Energiesignale ist nach Gleichung (3.91) durch das Innenprodukt definiert: E Rxy (τ )

Z∞ = hx(t + τ ), y(t)it =

x(t + τ ) y ∗ (t) dt .

−∞

Sie kann auch als Faltung geschrieben werden:

E Rxy (τ )

Z∞ =

t = −ξ dt = −dξ



x(t + τ ) y (t) dt −∞

−∞ Z Z∞ ∗ =− x(−ξ + τ ) y (−ξ) dξ = x(τ − ξ) y ∗ (−ξ) dξ ∞

= x(τ ) ∗ y ∗ (−τ ) .

−∞

(3.146)

97

3.5 Fourier-Transformation Die Korrelation der beiden Signale lässt sich auch vertauschen: E Rxy (τ )

Z∞ =

t+τ = ξ dt = dξ

x(t + τ ) y ∗ (t) dt

−∞

Z∞ =

Z∞



x(ξ) y (ξ − τ ) dξ = −∞

y ∗ (ξ − τ ) x(ξ) dξ

−∞

∗ E = Ryx (−τ ) . Im Anhang A findet man in den Tabellen A.2, A.3 und A.4 Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation, die sich meist relativ einfach nachrechnen lassen, wie im Folgenden am Beispiel der Modulation gezeigt wird. 3.5.2.3

Zeitverschiebung, Frequenzverschiebung und Modulation

Zuerst wird gezeigt, dass eine Verschiebung im Zeitbereich mit einer Modulation im Frequenzbereich korrespondiert. Sei hierzu ein Signal y(t) mitsamt seiner Fourier-Transformierten Y (f ) gegeben. Die Fourier-Transformierte der um τ verschobenen Zeitfunktion ergibt sich als: F{y(t − τ )} =

Z∞ −∞ Z∞

=

y(t − τ ) e−j2πf t dt

t−τ = ξ dt = dξ

y(ξ) e−j2πf (ξ + τ ) dξ

−∞

= F{y(t)} · e−j2πf τ . Somit entspricht eine Verschiebung im Zeitbereich einer Modulation im Frequenzbereich. Analog kann nachgewiesen werden, dass eine Frequenzverschiebung einer Modulation im Zeitbereich entspricht: F

−1

Z∞ {Y (f − ν)} = −∞ Z∞

=

Y (f − ν) ej2πf t df

f −ν = ζ df = dζ

Y (ζ) ej2πζt dζ · ej2πνt

−∞

= F−1 {Y (f )} · ej2πνt . Die meisten der in Anhang A aufgeführten Beziehungen lassen sich ähnlich leicht nachrechnen wie die eben bewiesene Zeitverschiebungs- und Modulationsregel. Oft genügt

98

3 Zeitkontinuierliche Signale

es, die Definition der Fourier-Transformation hinzuschreiben und diese mit der zu zeigenden Beziehung „im Hinterkopf“ umzuformen. Beispiel 3.147 (Bedeutung der Phase eines Signals) Wie jede komplexwertige Größe lässt sich das Fourier-Spektrum getrennt nach Betrag und Phase angeben. Oftmals wird vereinfachend lediglich das Betragsspektrum dargestellt, welches beschreibt, welche Frequenzen wie stark am Aufbau eines Signals beteiligt sind. Nach dem Verschiebungssatz liefert jedoch das Phasenspektrum die wichtige Information über die „Lage“, an der diese Frequenzen auftreten. Dies soll am Beispiel eines Bildsignals g(x) mit x = (x, y)T veranschaulicht werden. Für eine Ortsverschiebung um den Vektor τ = (τx , τy )T ergibt sich der Zusammenhang: g(x − τ )

◦−•

T G(f ) e−j2πf τ ,

(3.148)

wobei f = (fx , fy )T den Ortsfrequenzvektor bezeichnet (vgl. Abschnitt 2.2.2). Wegen T |e−j2πf τ | = 1 ändert eine Verschiebung um τ nur die Phase des Spektrums, nicht aber den Betrag. Um dies zu illustrieren, werden die Bildsignale g1 (x) und g2 (x) nach Abbildung 3.11(a) bzw. (b) einer Fourier-Transformation unterzogen. Im Fourier-Bereich wird dem Spektrum |G1 (f )| ejψ1 (f ) des ersten Signals die Phase ψ2 (f ) des zweiten Signals zugeordnet und umgekehrt. Anschließend werden beide Signale rücktransformiert, vgl. Abbildung 3.11(c) und (d). Es wird deutlich, dass die Lage der Spektralanteile und somit die in den Originalbildern erkenntlichen Strukturen durch das Phasenspektrum und nicht durch das Betragsspektrum beschrieben werden. Ohne die Phaseninformation lässt sich ein Signal daher nicht rekonstruieren. •

3.5.3

Energie- und Leistungsdichte

Das Energiedichtespektrum ist bei Energiesignalen als die Fourier-Transformierte der Korrelation definiert. Mit Hilfe der Korrespondenz zwischen Faltung und Multiplikation und mit Hilfe von  ∞ ∗ Z∞ Z y ∗ (−t) ◦−• y ∗ (−t) e−j2πf t dt =  y(t) e−j2πf t dt = Y ∗ (f ) −∞

−∞

lässt sich leicht der Zusammenhang zwischen dem Energiedichtespektrum und der Korrelation angeben: E Rxy (t) = x(t) ∗ y ∗ (−t)

◦−•

E SXY (f ) = X(f ) · Y ∗ (f ) .

(3.149)

L Entsprechend erhält man bei Leistungssignalen das Leistungsdichtespektrum SXY (f ) L als die Fourier-Transformierte der Korrelation Rxy (t): L Rxy (t)

◦−•

L SXY (f ) .

(3.150)

99

3.5 Fourier-Transformation

(a) g1 (x)

(b) g2 (x)

(c) F−1 {|G1 (f )| ejψ2 (f ) }

(d) F−1 {|G2 (f )| ejψ1 (f ) }

Abbildung 3.11: Beispiel zur Bedeutung der Phase eines Signals.

3.5.4

Cosinus- und Sinus-Transformation

Bei reellen Signalen y(t) kann man die Fourier-Transformation nach Gleichung (3.131), Z∞ Y (f ) = −∞

y(t) e−j2πf t dt ,

100

3 Zeitkontinuierliche Signale

mit der Euler’schen Formel ejx = cos(x) + j sin(x) zu Z∞ Y (f ) =

y(t) [cos(2πf t) − j sin(2πf t)] dt −∞ Z∞

=

Z∞ y(t) cos(2πf t) dt − j ·

−∞

y(t) sin(2πf t) dt

(3.151)

−∞

zerlegen. Da es sich um ein uneigentliches Integral handelt, ist dies natürlich nur dann möglich, wenn das Integral und die beiden entstehenden Teilintegrale absolut konvergent sind. Dies setzen wir hier ohne Beweis voraus. Man kann also den Real- und den Imaginärteil einer Fourier-Transformierten Y (f ) auch getrennt berechnen. Die Teilintegrale sind bei reellen Signalen y(t) reell. Zerlegt man die reelle Funktion y(t) gemäß (3.152)

y(t) = yg (t) + yu (t) in einen geraden und einen ungeraden Anteil, yg (t) = 12 (y(t) + y(−t)) ,

(3.153)

yu (t) = 12 (y(t) − y(−t)) , so kann man die zugehörige Fourier-Transformierte Z∞ Y (f ) =

[yg (t) + yu (t)] cos(2πf t) dt −∞

Z∞ − j·

[yg (t) + yu (t)] sin(2πf t) dt

(3.154)

−∞

R∞ weiter vereinfachen. Ein Integral der Form −∞ f (t) dt verschwindet, falls über eine ungerade Funktion f (t) integriert wird. Der Cosinus ist eine gerade Funktion, der Sinus ist eine ungerade Funktion. Damit folgt nun für die Fourier-Transformierte eines reellen Signals y(t): Z∞ Y (f ) =

Z∞ yg (t) cos(2πf t) dt − j ·

−∞

yu (t) sin(2πf t) dt . −∞

(3.155)

101

3.5 Fourier-Transformation Mit Gleichung (3.153) ergibt sich Z∞ Y (f ) = −∞

1 (y(t) + y(−t)) cos(2πf t) dt 2 Z∞ − j· −∞

Z∞ =

1 (y(t) − y(−t)) sin(2πf t) dt 2 Z∞

(y(t) + y(−t)) cos(2πf t) dt − j · 0

(y(t) − y(−t)) sin(2πf t) dt . 0

Die Teilintegrale nennt man Cosinus- bzw. Sinus-Transformation des Signals y(t).

Definition 3.156 (Cosinus- bzw. Sinus-Transformation) Die Cosinus-Transformation bzw. Sinus-Transformation ist für reelle Signale y(t) durch folgende Integrale bestimmt: Z∞ YC (f ) = COS{y(t)} =

(y(t) + y(−t)) cos(2πf t) dt 0

Z∞ =

y(t) cos(2πf t) dt , −∞

(3.157)

Z∞

YS (f ) = SIN{y(t)} =

(y(t) − y(−t)) sin(2πf t) dt 0

Z∞ =

y(t) sin(2πf t) dt .

(3.158)

−∞

Satz 3.159 (Zusammenhang mit der Fourier-Transformation) Die Fourier-Transformation lässt sich nach Gleichung (3.151) aus der Cosinus- und der Sinus-Transformation zusammensetzen: Y (f ) = YC (f ) − j · YS (f ) .

(3.160) •

102

3 Zeitkontinuierliche Signale

Wenn von der zu transformierenden Funktion bekannt ist, dass sie gerade oder ungerade ist, besteht der Vorteil der Cosinus- bzw. Sinus-Transformation gegenüber der FourierTransformation darin, dass man sich bei der Berechnung der Fourier-Transformierten auf den Cosinus- bzw. Sinus-Teil beschränken kann. Besitzt man keine Informationen über die zu transformierende Funktion, so entspricht die Cosinus-Transformierte der Fourier-Transformierten des geraden Anteils der Funktion, während sich die Sinus-Transformierte als Fourier-Transformierte des ungeraden Anteils ergibt.

3.6

Testsignale

Wie bereits in der Einleitung erwähnt, wird ein Signal durch eine Funktion der Zeit dargestellt. Aber nicht jede Zeitfunktion repräsentiert ein physikalisch erzeugbares Signal. Es erscheint jedoch zweckmäßig, auch physikalisch nicht realisierbare Signale als Modellsignale für theoretische Untersuchungen zu betrachten. Mit ihnen kann dann beispielsweise eine Korrespondenztabelle für die Fourier-Transformation aufgebaut werden. Hierbei wird als Erstes der Dirac-Impuls δ(t) eingeführt. Dieser ist nicht als Funktion im klassischen Sinne darstellbar. Trotzdem ist es sinnvoll, sich mit ihm zu beschäftigen, denn die Fourier-Transformation ist bereits bei vielen geläufigen und naheliegenden Funktionen wie beispielsweise dem Einheitssprung σ(t), der Schwingung sin(2πf t) und dergleichen im üblichen Sinn nicht konvergent. Viele dieser Funktionen sind im Rahmen der Distributionentheorie mathematisch behandelt. An dieser Stelle soll auf eine Einführung in die Theorie der Distributionen jedoch verzichtet werden. Diese Theorie findet sich ausführlicher beispielsweise in [Fli91] oder [Unb02].

3.6.1

Dirac-Impuls

Der Dirac-Impuls ist eine verallgemeinerte Funktion, auch Distribution genannt, bei der sich nicht wie gewohnt jedem Wert t ein Funktionswert zuordnen lässt. Der Dirac-Impuls ist stattdessen durch seine Wirkung auf eine klassische Funktion y(t) definiert. Definition 3.161 (Dirac-Impuls) Der Dirac-Impuls δ(t), auch Delta-Distribution genannt, ist durch Z∞ y(t0 ) =

y(t) δ(t − t0 ) dt

(3.162)

−∞

definiert. Man kann sagen, der Dirac-Impuls δ(t − t0 ) hat überall, mit Ausnahme des Punktes t0 , den Wert null. Außerdem ist der Dirac-Impuls gerade: δ(t) = δ(−t) .

(3.163)

103

3.6 Testsignale

Aus dieser Definition kann man z. B. sofort die Faltung einer Funktion y(t) mit dem zeitverschobenen Dirac-Impuls δ(t − t0 ) berechnen: Z∞ y(t) ∗ δ(t − t0 ) =

y(τ ) δ(t − τ − t0 ) dτ = y(t − t0 ) .

(3.164)

−∞

Jedoch sind bei obiger Definition die Möglichkeiten, mit Dirac-Impulsen zu rechnen, beschränkt. Um dieses Problem zu beseitigen, wird der Dirac-Impuls im Sinne der Distributionentheorie als Grenzwert δ(t) = lim

f →∞

sin(2πf t) πt

(3.165)

angegeben. Zur Überprüfung von Gleichung (3.165) muss nach der Definition des Grenzwertes für Distributionen folgende Gleichung erfüllt sein: Z∞ y(t0 ) = lim

f →∞ −∞

y(t)

sin(2πf (t − t0 )) dt . π(t − t0 )

(3.166)

Der exakte Beweis würde hier den Rahmen sprengen. Hierzu sei z. B. auf [Kro91] oder [Fli91] verwiesen. Die Fourier-Transformierte des zeitverschobenen Dirac-Impulses ergibt sich zu F{δ(t − t0 )} =

Z∞

δ(t − t0 ) e−j2πf t dt = e−j2πf t0 .

(3.167)

−∞

Der Dirac-Impuls selbst besitzt die Fourier-Transformierte F{δ(t)} = 1 .

(3.168)

Die Impulsreihe iT (t) =

∞ X

(3.169)

δ(t − kT )

k=−∞

ist eine T -periodische Funktion. Setzt man deren komplexe Fourier-Koeffizienten nach Gleichung (3.123) T

1 ck = T

Z2

k

δ(t) · e−j2π T t dt =

1 T

− T2

in die Synthesegleichung (3.122) der Fourier-Reihe ein, ∞ X 1 j2π k t T , iT (t) = e T k=−∞

104

3 Zeitkontinuierliche Signale

so erhält man die Poisson’sche Summenformel ∞ X

δ(t − kT ) =

k=−∞

∞ 1 X j2π k t T , e T

(3.170)

k=−∞

die sich in späteren Rechnungen als sehr hilfreich erweisen wird.

3.6.2

Konstantes Signal

Das konstante Signal (3.171)

y(t) = 1

scheint auf den ersten Blick in der Realität zu existieren. Man vergisst hierbei aber, dass eine physikalische Größe nicht für alle Zeiten t ∈ R einen konstanten Wert ungleich null haben kann. Ansonsten wäre die Energie des Signals unendlich groß. Die Fourier-Transformierte des konstanten Signals lässt sich mit Hilfe der Symmetrieeigenschaft der Fourier-Transformation, Y (t) ◦−• y(−f ) ,

(3.172)

und Gleichung (3.168) sofort als F{1} = δ(−f ) = δ(f )

(3.173)

angeben.

3.6.3

Vorzeichenfunktion

Die Vorzeichenfunktion, oder auch Signumfunktion,  −1 für t < 0 sign(t) = 1 für t ≥ 0

(3.174)

spielt in der Signalverarbeitung und in der Nachrichtentechnik eine wichtige Rolle. Sie besitzt, wie z. B. in [Föl80] gezeigt wird, die Fourier-Transformierte F{sign(t)} =

3.6.4

1 . jπf

(3.175)

Einheitssprung

Das Signal  σ(t) =

0 1

für t < 0 für t ≥ 0

(3.176)

105

3.6 Testsignale heißt Einheitssprung oder auch Sprungfunktion. Mit Hilfe der Beziehung σ(t) =

1 1 sign(t) + 2 2

zwischen Einheitssprung und Vorzeichenfunktion und der Linearitätseigenschaft der Fourier-Transformation lässt sich schnell die Fourier-Transformierte des Einheitssprungs angeben: F{σ(t)} =

3.6.5

1 1 1 1 F{sign(t)} + F{1} = + δ(f ) . 2 2 j2πf 2

(3.177)

Komplexe Schwingung

Das Signal y(t) = ej2πf0 t

(3.178)

heißt komplexe Schwingung der Frequenz f0 . Die Fourier-Transformierte der komplexen Schwingung lässt sich wiederum mit Hilfe der Symmetrieeigenschaft der Fourier-Transformation, Gleichung (3.172), leicht angeben: y(t) = ej2πf0 t

◦−•

(3.179)

Y (f ) = δ(f − f0 ) .

Dieses Resultat lässt sich auch über Gleichung (3.132) unter Beachtung der Eigenschaft (3.162) des Dirac-Impulses leicht nachrechnen. Bei Interpretation des Spektrums als Anteil der am Signal beteiligten Schwingungen ergibt sich also bei der harmonischen Schwingung der Frequenz f0 genau ein Spektralanteil an der „Stelle“ f0 . Die unendlich hohe Amplitude ist dadurch begründet, dass im Vergleich zur Fourier-Reihe aufgrund der kontinuierlichen Frequenzauflösung ein infinitesimal kleines Intervall betrachtet werden muss. Damit wird aus einem Anteil 1 · ∆f für ∆f → 0 ein Anteil der „Höhe unendlich“.

3.6.6

Rechteckfunktion

Für die Rechteckfunktion ( 1 rT (t) = 0

für |t| ≤ T2 sonst

(3.180)

folgt als Fourier-Transformierte der Sinus cardinalis oder, kurz, die Sinc-Funktion: T /2 Z

Y (f ) = −T /2

=

e−j2πf t dt =



1 e−j2πf t −j2πf

T /2 = −T /2

T sin(πf T ) = T si(πf T ) = T sinc(f T ) . πf T

ejπf T − e−jπf T j2πf (3.181)

106

3 Zeitkontinuierliche Signale

Um ein Gefühl für diesen Zusammenhang zu bekommen, ist in Abbildung 3.12 eine Rechteckfunktion rT (t) der Dauer T = 1 s mit ihrer Spektralfunktion zu sehen. Man erkennt deutlich, dass sich die Rechteckfunktion aus Schwingungen aller Frequenzen zusammensetzt, deren Anteil jedoch mit steigender Frequenz abnimmt. 1,5

1,5

1

1

0,5

0,5

0

0

−0,5 −2

−1

0

1

2

−0,5 −10

−5

0

5

10

Abbildung 3.12: Rechteckfunktion und Fourier-Transformierte für T = 1 s.

In der Literatur wird die Rechteckfunktion gelegentlich mit dem Vorfaktor T1 versehen. Dadurch wird die Fläche unter der Funktion auf eins normiert. Hier muss bei Verwendung anderer Quellen darauf geachtet werden, welche Definition der jeweilige Autor verwendet.

3.6.7

Exponentialimpuls

Aus der Zeitfunktion y(t) = e−at σ(t) ,

(3.182)

a ∈ R,

dem Exponentialimpuls, bildet man mit Gleichung (3.131) die Fourier-Transformierte: Z∞ Y (f ) =

e e−at e−j2πf t dt = −

∞ −(a + j2πf )t . a + j2πf

(3.183)

0

0

Nur wenn a > 0 ist, geht e−(a + j2πf )t für t → ∞ gegen null und es gilt: e−at σ(t)

◦−•

1 , a + j2πf

a > 0.

(3.184)

Diese Funktion wird mitsamt ihrer Fourier-Transformierten in Abbildung 3.13 dargestellt. Da das Spektrum des Exponentialimpulses im Gegensatz zu der Fourier-Transformierten der Rechteckfunktion eine komplexwertige Funktion ist, ist in Abbildung 3.13 der Betrag der Fourier-Transformierten aufgezeichnet.

107

3.6 Testsignale 1,5

1,5

1

1

0,5

0,5

0

0

−0,5

0

1

2

3

4

−0,5 −10

5

−5

0

5

10

Abbildung 3.13: Exponentialimpuls und Fourier-Transformierte für a = 1 Hz.

3.6.8

Doppelseitige Exponentialfunktion

Von einer doppelseitigen Exponentialfunktion y(t) = e−a|t| ,

(3.185)

a ∈ R,

ausgehend, erhält man die Fourier-Transformierte: Z0 Y (f ) =

eat e−j2πf t dt +

−∞

Z∞

e−at e−j2πf t dt

0

1 1 2a = + = 2 , a − j2πf a + j2πf a + (2πf )2

(3.186)

a > 0.

Die Funktion im Zeitbereich und das zugehörige Betragsspektrum sind in Abbildung 3.14 dargestellt. 2,5

1,5

2

1

1,5 1

0,5

0,5

0 −0,5 −5

0 0

5

−0,5 −10

−5

0

5

10

Abbildung 3.14: Doppelseitiger Exponentialimpuls und Fourier-Transformierte für a = 1 Hz.

108

3 Zeitkontinuierliche Signale

0

0

Abbildung 3.15: Reelles Exponentialsignal.

3.6.9

Exponentialsignal

Das komplexe Exponentialsignal y(t) = A · est

(3.187)

besitzt die komplexe Amplitude A = AR + jAI und den komplexen Frequenzparameter s = σ + jω. Ist ω = 0 und A = AR > 0 eine reelle Amplitude, so erhält man das reelle Exponentialsignal y(t) = AR · eσt .

(3.188)

Für σ > 0 wächst das Signal y(t) für t → ∞ über alle Grenzen, dagegen konvergiert es für σ < 0 gegen null. Dies ist in Abbildung 3.15 dargestellt. Für A = AR lässt sich Gleichung (3.187) zu y(t) = AR · e(σ + jω)t = AR · eσt (cos(ωt) + j sin(ωt))

(3.189)

mit dem Realteil yR (t) = AR · eσt cos(ωt)

(3.190)

und dem Imaginärteil yI (t) = AR · eσt sin(ωt)

(3.191)

umschreiben. Exponentialsignale gemäß Gl. (3.189) können aufklingende (σ > 0), abklingende (σ < 0) oder konstante (σ = 0) Schwingungen sein; siehe Abbildung 3.16.

109

3.6 Testsignale

0

0

Abbildung 3.16: Imaginärteile komplexer Exponentialsignale.

2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

−2

−1

0

Abbildung 3.17: Gauß-Impuls und Fourier-Transformierte für a = 5

1

2

3

1 . s2

Exponentialsignale mit reeller Amplitude und komplexem Frequenzparameter werden auch komplexe Exponentialsignale genannt. Wie die Gleichungen (3.190) und (3.191) sowie Abbildung 3.15 zeigen, treten reelle Exponentialsignale als Einhüllende von Realund Imaginärteil komplexer Exponentialsignale auf. Für σ = 0 handelt es sich bei den Gleichungen (3.190) und (3.191) um Cosinus- bzw. Sinussignale. In Gl. (3.189) erhält man eine komplexe Schwingung mit der Amplitude AR . Der reelle Frequenzparameter ω = 2πf, welcher schon im Zusammenhang mit der Definition der Fourier-Transformation auftrat, heißt Kreisfrequenz.

110

3 Zeitkontinuierliche Signale 2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

2

2

1,5

1,5

1

1

0,5

0,5

0 −3

−2

−1

0

1

2

3

0 −3

−2

−1

0

1

2

3

−2

−1

0

1

2

3

Abbildung 3.18: Gauß-Impuls und Fourier-Transformierte für a = 1

3.6.10

1 s2

bzw. a = 9

1 . s2

Gauß-Impuls

In späteren Abschnitten wird des Öfteren der Gauß-Impuls auftreten, den wir schon bei der Charakterisierung der Normalverteilung als zugehörige Dichte kennengelernt hatten. Das nicht auf die Fläche eins normierte Signal lautet im Zeitbereich: 2

y(t) = e−at ,

a > 0.

(3.192)

Die zugehörige Fourier-Transformierte ergibt sich mit Hilfe einer Korrespondenztabelle zu r 2 2 π −π f a . Y (f ) = e (3.193) a Beide Funktionen sind in Abbildung 3.17 für a = 5 s12 zu sehen. Die Form des Gauß-Impulses im Zeit- und Frequenzbereich wird durch den Parameter a bestimmt. In Abbildung 3.18 sind für die Fälle a = 1 s12 und a = 9 s12 noch einmal die Gauß-Impulse und die entsprechenden Fourier-Transformierten dargestellt. Man erkennt deutlich den Einfluss des Parameters a. Wird das Signal im Zeitbereich breiter, so verringert sich die Breite der Fourier-Transformierten und umgekehrt. Dies

111

3.7 Besonderheiten der Fourier-Transformation

ist eine Eigenschaft, welche für alle Signale zutrifft und in Abschnitt 3.8.1 als „Satz über das Zeitdauer-Bandbreite-Produkt“ konkretisiert werden wird. Hierzu wird der Begriff „Breite“ im Zeit- und im Frequenzbereich mit Hilfe mathematischer Definitionen formuliert.

3.7

Besonderheiten der Fourier-Transformation

In diesem Abschnitt werden Auswirkungen der Fourier-Transformation auf Funktionen mit bestimmten Eigenschaften aufgezeigt. Der Leckeffekt befasst sich mit der Auswirkung, die eine Zeitbegrenzung auf die Fourier-Transformierte einer Funktion hat. Als zweiter Punkt wird dargestellt, was durch Fourier-Transformation und anschließende Rücktransformation an Unstetigkeitsstellen geschieht. Hier zeigt sich, dass sich der rekonstruierte Signalwert als das Mittel des rechts- und des linksseitigen Grenzwertes ergibt und dass immer ein in der Höhe vom Signal unabhängiger Überschwinger auftritt.

3.7.1

Leckeffekt

Die Fourier-Transformation betrachtet ein Signal y(t) im gesamten Zeitbereich R. In der Realität kann man aber ein Signal nur in einem beschränkten Zeitintervall [a, b] beobachten. Um zu untersuchen, inwieweit sich die Fourier-Transformierte im beschränkten Zeitintervall [a, b], Zb Ya,b (f ) =

y(t) e−j2πf t dt ,

(3.194)

a

von der eigentlichen Fourier-Transformierten Z∞ Y (f ) =

y(t) e−j2πf t dt

−∞

unterscheidet, beschreibt man das beschränkte Zeitintervall durch die Fensterfunktion  1 für a ≤ t ≤ b w(t) = , (3.195) 0 sonst welche die folgende Fourier-Transformierte besitzt: Z∞ W (f ) = −∞

w(t) e−j2πf t dt =

Zb

e−j2πf t dt

a

i 1 h −j2πf b = e − e−j2πf a −j2πf i e−jπf (b + a) h −jπf (b − a) = e − ejπf (b − a) −j2πf

112

3 Zeitkontinuierliche Signale = e−jπf (b + a) ·

sin(πf (b − a)) . πf

Im Folgenden soll als Testsignal eine komplexe harmonische Schwingung y(t) = ej2πf0 t mit der Frequenz f0 der Fourier-Transformation unterzogen werden. Aufgrund des in praktischen Anwendungen beschränkten Beobachtungsintervalls [a, b] wird das Testsignal y(t) mit dem Fenster w(t) multipliziert, was die gefensterte Funktion yw (t) ergibt: yw (t) = y(t) · w(t) . Die Fourier-Transformierte Yw (f ) des gefensterten Signals Yw (f ) = F{y(t) · w(t)} = Y (f ) ∗ W (f ) = W (f − f0 ) sin(π(f − f0 )(b − a)) = e−jπ(f − f0 )(b + a) · π(f − f0 ) berechnet sich als Faltung beider Fourier-Transformierter. In Abbildung 3.19 sind der Betrag |Y (f )| der Fourier-Transformierten einer komplexen harmonischen Schwingung y(t) und der Betrag |Yw (f )| der Fourier-Transformierten einer im beschränkten Zeitintervall betrachteten Funktion yw (t) zu sehen. Während die Fourier-Transformierte der komplexen harmonischen Schwingung aus einem Dirac-Impuls mit unendlicher Amplitude bei der Frequenz f0 besteht, Y (f ) = δ(f − f0 ) , besitzt Yw (f ) bei allen Frequenzen endliche Werte. Aus dem Leistungssignal y(t) mit unendlicher Energie ist ein Energiesignal yw (t) geworden. k Die Nullstellen der Fourier-Transformierten Yw (f ) liegen bei den Frequenzen f0 + b−a , k ∈ Z\{0}. Das Maximum von |Yw (f )| liegt bei der Frequenz f0 . Die Abstände zwischen den Nullstellen und der Lage des Maximums sind umgekehrt proportional zur Breite (b − a) des verwendeten Zeitfensters.

Das „Verschmieren“ des Dirac-Impulses aufgrund des endlichen Beobachtungsintervalls [a, b] nennt man Leckeffekt (engl. leakage). Als Nächstes betrachtet man ein Signal y(t) = ej2πf0 t + A · ej2π(f0 + ∆f )t ,

|A|  1 ,

das aus zwei komplexen harmonischen Schwingungen besteht. Die Frequenz der zweiten Schwingung weiche von der Frequenz der ersten Schwingung nur minimal ab. Ihre Amplitude A sei aber sehr viel kleiner als die der ersten Schwingung. In Abbildung 3.20 ist zu sehen, dass die zweite Frequenzlinie im Spektrum des gefensterten Signals kaum noch zu erkennen ist. Aufgrund des Leckeffekts wird das Spektrum der zweiten Schwingung von dem der ersten überdeckt.

3.7 Besonderheiten der Fourier-Transformation

113

Abbildung 3.19: Ungefensterte und gefensterte komplexe harmonische Schwingung sowie deren Fourier-Transformierte.

Der Leckeffekt kann reduziert werden, indem man die Breite des Beobachtungsintervalls 2 [a, b] erhöht, welche reziprok zur Breite b−a der „Hauptspektrallinie“ ist. Dies ist in Abbildung 3.21 dargestellt. In Abschnitt 4.5 werden allgemeine Fensterfunktionen eingeführt. Der Leckeffekt tritt generell bei der Multiplikation eines Signals y(t) mit einer beliebigen Fensterfunktion w(t) auf. Dies gilt auch für Fensterfunktionen w(t) mit unendlicher Breite, aber endlicher Energie.

3.7.2

Gibbs’sches Phänomen

Im Folgenden soll untersucht werden, inwieweit ein Signal y(t) nach der Fourier-Transformation und anschließender Rücktransformation korrekt rekonstruiert wird. Dabei betrachten wir als Erstes wieder die Fourier-Rücktransformation nach Gleichung (3.132), Z∞ y(t) = −∞

Y (f ) ej2πf t df ,

114

3 Zeitkontinuierliche Signale

Abbildung 3.20: Ungefensterte und gefensterte komplexe harmonische Schwingungen sowie deren Spektren.

die als uneigentliches Integral in Wirklichkeit als Grenzwert ZF y(t) = lim

F →∞ −F

Y (f ) ej2πf t df

geschrieben werden muss. Setzt man für Y (f ) die Fourier-Transformation Gl. (3.131) ein, so ergibt sich:   ZF Z∞  yˆ(t) = lim y(τ ) e−j2πf τ dτ  ej2πf t df . F →∞ −F

−∞

Vertauscht man nun die beiden Integrale, so folgt   Z∞ ZF  ej2πf (t − τ ) df  y(τ ) dτ , yˆ(t) = lim F →∞ −∞

−F

3.7 Besonderheiten der Fourier-Transformation

115

Abbildung 3.21: Ungefensterte und gefensterte komplexe harmonische Schwingungen sowie deren Fourier-Transformierte bei erhöhter Fensterbreite.

wobei sich das innere Integral leicht berechnen lässt. Es folgt dann: Z∞ yˆ(t) = lim

F →∞ −∞

sin(2πF (t − τ )) y(τ ) dτ . π(t − τ )

(3.196)

Nun werden die Grenzwertbildung und das Integral vertauscht. Da im Sinne der Distributionentheorie lim

F →∞

sin(2πF (t − τ )) = δ(t − τ ) π(t − τ )

gilt, folgt für stetige Funktionen y(t) Z∞ yˆ(t) =

δ(t − τ ) y(τ ) dτ = y(t) , −∞

d. h. nach Hin- und Rücktransformation bleibt eine stetige Funktion erhalten.

116

3 Zeitkontinuierliche Signale

Im Folgenden soll nun eine stückweise stetige Funktion y(t) mit den Sprungstellen (ti )i∈I der Fourier-Transformation unterworfen werden. Bei der Rücktransformation soll geprüft werden, ob die entstehende Funktion yˆ(t) gleich der ursprünglichen Funktion y(t) ist. Jede unstetige Funktion lässt sich folgendermaßen durch eine stetige Funktion und eine Summe von Sprüngen darstellen: y(t) =

X yc (t) + (y(ti +) − y(ti −)) σ(t − ti ) . | {z } i∈I | {z } stetiger Teil Sprünge

Ohne Beschränkung betrachtet die folgende Ausführung nur den Fall, dass die Funktion y(t) lediglich eine Unstetigkeitsstelle im Ursprung besitzt, d. h. es gilt (3.197)

y(t) = yc (t) + (y(0+) − y(0−)) σ(t) . Setzt man Gleichung (3.197) in (3.196) ein, so ergibt sich Z∞ yˆ(t) = lim

F →∞ −∞

sin(2πF (t − τ )) yc (τ ) dτ + π(t − τ ) Z∞

+ lim (y(0+) − y(0−)) F →∞

−∞

sin(2πF (t − τ )) σ(τ ) dτ . π(t − τ )

Mit obiger Grenzwertbetrachtung folgt daraus: Z∞ yˆ(t) = yc (t) + (y(0+) − y(0−)) · lim

F →∞ −∞

|

sin(2πF (t − τ )) σ(τ ) dτ . π(t − τ ) {z } σF (t)

Für den Ausdruck σF (t) erfolgt eine gesonderte Betrachtung. Man rechnet Z∞ σF (t) = −∞

sin(2πF (t − τ )) σ(τ ) dτ = π(t − τ )

Z∞

sin(2πF (t − τ )) dτ . π(t − τ )

0

Mit der Substitution u = 2πF (t − τ ) , du = −2πF dτ

(3.198)

117

3.7 Besonderheiten der Fourier-Transformation ergibt sich −∞ Z

σF (t) =

sin u 1 2F · du = u −2πF

2πF t

Z0 = −∞

sin u du + πu

2πF Z t

2πF Z t −∞

sin u du πu

sin u du . πu

0

Wegen Z0 −∞

sin u π du = u 2

(3.199)

erhält man schließlich 1 1 σF (t) = + 2 π

2πF Z t

sin u du . u

(3.200)

0

Das Integral ist als Integralsinus bekannt. Insgesamt folgt daraus:   2πF Z t 1 1 sin u  yˆ(t) = yc (t) + (y(0+) − y(0−)) ·  + lim du . 2 π F →∞ u

(3.201)

0

Diskutiert man das Ergebnis, so treten zwei Fragen auf: 1. Was macht die Funktion an der Stelle t = 0? Da σF (t = 0) = 12 ist, folgt yˆ(0) = yc (0) +

1 (y(0+) − y(0−)) . 2

Nach der Rücktransformation besitzt die resultierende Zeitfunktion an der Sprungstelle den Funktionswert der halben Sprunghöhe. Dies ist das Gibbs’sche Phänomen. 2. Wo und wie findet man dieses Phänomen in der Realität? Vorausgreifend gilt für das Ausgangssignal y(t) ◦−• Y (f ) eines LTI-Systems mit der Impulsantwort g(t) ◦−• G(f ) und dem Eingangssignal x(t) ◦−• X(f ) der Zusammenhang Y (f ) = G(f ) · X(f ) . Das Ausgangssignal kann man also berechnen, indem man das Eingangssignal fourier-transformiert, mit der Übertragungsfunktion G(f ) multipliziert und dann

118

3 Zeitkontinuierliche Signale rücktransformiert. Bei den obigen Rechnungen für yˆ(t) wurde nur fourier-transformiert und sofort rücktransformiert; dies entspricht einem System mit der Übertragungsfunktion G(f ) = 1 , welches aber in der Realität nicht vorkommt, da es kein System gibt, das beliebig hohe Frequenzen übertragen kann. Das heißt jedes reale System ist so gesehen ein Tiefpass. Was passiert aber bei unseren obigen Rechnungen mit einem Tiefpass? Der Grenzwert für F geht nicht mehr bis unendlich, sondern bricht schon vorher ab: F → Fmax . Betrachten wir den Einheitssprung als ursprüngliche Funktion, so gilt für dessen Rekonstruktion 1 1 yˆ(t) = + 2 π

2πF Z max t

sin u du , u

0

was in Abbildung 3.22 zu sehen ist. Der Überschwinger von etwa 9 % bleibt unverändert, solange Fmax endlich ist. Bei realen Systemen weisen Sprünge daher immer sogenannte Gibbs’sche Überschwinger auf. Abbildung 3.23 zeigt ein weiteres Beispiel aus dem Gebiet der Bildverarbeitung. Nach einer Bandbegrenzung des Originalbildes mit einem Tiefpass sind im Ergebnisbild deutliche Überschwinger in der Nähe der Kanten zu erkennen. 1 0,8 0,6 0,4 0,2 0 −0,05

0

0,05

Abbildung 3.22: Betrachtung des Gibbs’schen Phänomens bei endlicher Frequenz F anhand der Sprungfunktion.

Die Ausführungen zeigen deutlich, dass es an Unstetigkeitsstellen Probleme gibt: 1. Bei Verwendung der Fourier-Transformation wird an Sprungstellen nicht der exakte Funktionswert, sondern der Mittelwert zwischen dem linksseitigen und dem rechtsseitigen Grenzwert erreicht. Eine Verbesserung ist nicht möglich. 2. Bei einer T -periodischen Funktion, die zwischen den Funktionswerten y(−T /2) und y(T /2) einen Sprung hat, geht die Approximation mittels einer Fourier-Reihe durch den Mittelwert. Eine Verbesserung ist nicht durch eine Erhöhung der Ordnung der Fourier-Reihe zu erreichen (Gibbs’sche Überschwinger). Besser ist es, das Periodenintervall so zu legen, dass der Sprung nicht im Intervallinneren liegt.

119

3.8 Allgemeine Signaleigenschaften

(a) Originalbild

(b) Ergebnis der Bandbegrenzung

Abbildung 3.23: Gibbs’sches Phänomen bei einem Bildsignal mit ausgeprägten Stufenkanten.

3.8

Allgemeine Signaleigenschaften

In Rahmen dieses Buches kann nicht über alle Eigenschaften und Beschreibungsmethoden zeitkontinuierlicher Signale gesprochen werden – vielmehr findet man hier eine kleine Auswahl, die sich auf wichtige Eigenschaften impulsförmiger Signale und die Abschätzung von Spektren mittels des Riemann-Lebesgue’schen Lemmas beschränkt.

3.8.1

Zeitdauer-Bandbreite-Produkt

Reale Signale sind energiebegrenzt. Auch ihre Spektren besitzen nur eine bestimmte Bandbreite, in der sich der wesentliche Anteil der Signalenergie konzentriert. Für die Zeitdauer ∆t und die Bandbreite ∆f eines energiebegrenzten Signals sind zahlreiche Definitionen denkbar und auch in Gebrauch. So kann man z. B. eine Schwelle ySchwelle legen, die proportional von der maximalen Höhe ymax des Signals abhängt, ySchwelle = ε ymax ,

0 < ε < 1,

und die Zeitdauer ∆t als diejenige Zeit festlegen, für die y(t) > ySchwelle gilt. Eine andere Definition von Zeitdauer ∆t und Bandbreite ∆f eines Signals y(t) basiert auf einem Vergleich der Fläche unter der Funktion y(t) bzw. Y (f ) mit einem flächengleichen Rechteck der Höhe ymax bzw. Ymax . Die festgelegte Größe entspricht dann der Rechteckbreite, siehe Abbildung 3.24. Wählt man ein nichtnegatives, energiebegrenztes Signal, so liegt nach Satz 3.138 der maximale Wert von Y (f ) bei f = 0. Alternativ werden zur Definition von Zeitdauer ∆t und Bandbreite ∆f häufig die folgenden Root-Mean-Square-Definitionen (RMS-Definitionen) verwendet.

120

3 Zeitkontinuierliche Signale

Abbildung 3.24: Definition der Zeitdauer ∆t über ein flächengleiches Rechteck.

Definition 3.202 (Zeitdauer und Bandbreite – RMS-Definitionen) Das nichtnegative, reelle Energiesignal y(t) wird auf der Zeitachse so verschoben, dass sein Maximum ymax an der Position t = 0 zu liegen kommt: ymax = y(0) . Des Weiteren gilt aufgrund der Nichtnegativität im Frequenzbereich Ymax = Y (0) . Die Zeitdauer ∆t berechnet sich über die Varianz der normierten Energiedichte im Zeitbereich Z∞

2

(∆t ) = −∞

|y(t)|2 t · dt E 2

mit

Z∞ E=

|y(t)|2 dt

−∞

zu v u Z∞ u1 u ∆t = t t2 |y(t)|2 dt , E

(3.203)

−∞

und die Bandbreite ∆f aus der Varianz der normierten spektralen Energiedichte 2

Z∞

(∆f ) = −∞

|Y (f )|2 f · df E 2

mit

Z∞ E=

|Y (f )|2 df

−∞

zu v u Z∞ u1 u ∆f = t f 2 |Y (f )|2 df . E −∞

(3.204)

121

3.8 Allgemeine Signaleigenschaften

Diese Definitionen entsprechen den auf die Energie E normierten zweiten Momenten der Zeit- bzw. Spektralfunktionen. Will man die Zeit- bzw. Frequenzanteile bestimmen, in denen das Signal wesentliche Energieanteile enthält, so muss man dafür ein Vielfaches der Zeitdauer k∆t bzw. der Bandbreite k∆f heranziehen. Dies entspricht dem Vorgehen in der Wahrscheinlichkeitsrechnung, wo der Vertrauensbereich als Vielfaches der Standardabweichung berechnet wird, vgl. [KE08]. Nach der Definition von Zeitdauer und Bandbreite soll der Zusammenhang zwischen beiden Größen hergestellt werden. Dafür wird auf die Ableitung der Zeitfunktion dy(t) dt

◦−•

j2πf · Y (f )

der Satz von Parseval angewendet: Z∞  −∞

dy(t) dt

Z∞

2

4π 2 f 2 |Y (f )|2 df = 4π 2 E · ∆2f .

dt =

(3.205)

−∞

Aus der Schwarz’schen Ungleichung folgt D E 2 t · y(t), dy(t) ≤ kt · y(t)k2 dt t



dy(t) 2

·

dt .

Werden Innenprodukt und Norm in Integralform ausgedrückt, so ergibt sich daraus: 

Z∞



  t2 · y 2 (t) dt · 

−∞

−∞



Z∞

≥ −∞

dy(t) dt

2



2

dt

2  Z∞  dy(t)  1 d 2 t · y(t) dt = t y (t) dt dt 2 dt 

−∞



=

Z∞ 

∞ 1  2 t y (t) − 4 −∞

Z∞ −∞

2

y 2 (t) dt =

1 2 E . 4

Nach Auflösen der Integrale folgt E ∆2t · 4π 2 E · ∆2f ≥

1 2 E 4

und somit für das Zeitdauer-Bandbreite-Produkt die untere Schranke ∆t · ∆ f ≥

1 . 4π

122

3 Zeitkontinuierliche Signale

Satz 3.206 (Zeitdauer-Bandbreite-Produkt) Für das Zeitdauer-Bandbreite-Produkt jedes Signals gilt bei Verwendung der RMSDefinitionen die Abschätzung ∆t · ∆f ≥

1 . 4π

(3.207)

Hat ein Signal eine kurze Zeitdauer ∆t , so besitzt es eine große Bandbreite ∆f . Umgekehrt ist bei einem Signal mit geringer Bandbreite die Zeitdauer groß. • Bemerkung 3.208 Das Gleichheitszeichen in der Schwarz’schen Ungleichung gilt nach Bemerkung 2.12, falls t y(t) und y(t) ˙ linear abhängig sind, falls also −α t y(t) = y(t) ˙ gilt. Diese Differentialgleichung führt auf den Gauß-Impuls, der damit unter allen impulsförmigen Signalen bei dieser Definition von Zeitdauer ∆t und Bandbreite ∆f das kleinste Zeitdauer-Bandbreite-Produkt besitzt. Die beiden Funktionen in Zeit- und Frequenzbereich unterscheiden sich dann nur um einen Faktor. Man erhält als Lösung der Differentialgleichung 2

y(t) = e−at ,

a > 0,

(3.209)

im Zeitbereich und r Y (f ) =

2

π −π f a e a

2

(3.210)

im Frequenzbereich.

3.8.2



Riemann-Lebesgue’sches Lemma

Für die Darstellung von Signalen im Frequenzbereich gibt es weitere nützliche Abschätzungen. Das Riemann-Lebesgue’sche Lemma liefert eine Abschätzung für das Spektrum zeitbegrenzter Signale. Satz 3.211 (Riemann-Lebesgue’sches Lemma) Ist eine Funktion y(t) zeitbegrenzt, d. h. gilt für

y(t) = 0

|t| ≥ T0 ,

und existieren K beschränkte, stückweise stetige Ableitungen, dann gilt mit einer Konstante M ≥ 0 folgende Abschätzung: |Y (f )| ≤

M . |f |K+1

(3.212)

Für Linienspektren (f = k · ∆f ) gilt entsprechend: |Y (k∆f )| ≤

M . |k|K+1

(3.213)

123

3.8 Allgemeine Signaleigenschaften

Bei der Fourier-Reihe einer periodischen Funktion yp (t), die in ihren K Ableitungen beschränkt ist, gilt für die Fourier-Koeffizienten: |Yk | ≤

M . |k|K+1

(3.214) •

Bemerkung 3.215 Die K-te Ableitung soll also möglichst die letzte beschränkte, stückweise stetige Ableitung sein. Insofern gilt für ein m > 0 |y (K) (t)| < m ,

t ∈ R.

Des Weiteren darf aufgrund der stückweise geltenden Stetigkeit nur eine endliche Anzahl von Sprungstellen vorhanden sein. Gibt es bei einer Ableitung eine „Knickstelle“, die stetig aber nicht differenzierbar ist, so darf für die Ableitung an dieser Stelle entweder die rechtsseitige oder die linksseitige Ableitung verwendet werden. • Beweis: Für das Fourier-Spektrum des zeitbegrenzten Signals ZT0 Y (f ) =

y(t) e−j2πf t dt

−T0

folgt nach partieller Integration: Y (f ) =

T0 ZT0 1 1 e−j2πf t y(t) − e−j2πf t y 0 (t) dt −j2πf −j2πf −T0 −T0

 1  = y(T0 ) e−j2πf T0 − y(−T0 ) ej2πf T0 −j2πf ZT0 1 + y 0 (t) e−j2πf t dt . j2πf −T0

Wegen y(±T0 ) = 0 sind die ersten Terme gleich null. Man erhält: 1 Y (f ) = j2πf

ZT0

y 0 (t) e−j2πf t dt .

(3.216)

−T0

Aufgrund der Stetigkeit der Ableitungen an der Stelle ±T0 besitzt y (k) (t) an der Stelle ±T0 jeweils den Wert y (k) (±T0 ) = 0 für k = 1, . . . , K − 1. Führt man nun die

124

3 Zeitkontinuierliche Signale

partielle Integration K-mal unter Beachtung der Tatsache durch, dass die beschränkte, stückweise stetige Ableitung y (K) (t) existiert, so ergibt sich für das Spektrum: 1 Y (f ) = (j2πf )K

ZT0

y (K) (t) e−j2πf t dt .

−T0

Mit Hilfe des zweiten Mittelwertsatzes der Integralrechnung, bei dem es mit einer monotonen Funktion f (x) und einer stetigen Funktion g(x) einen Punkt ξ ∈ (a, b) gibt, so dass Zξ

Zb

Zb

f (x) g(x) dx = f (a) a

g(x) dx + f (b) a

g(x) dx ξ

gilt, folgt mit g(x) = e−j2πf t ,

f (x) = y (K) (t) ,

a = −T0 ,

b = T0

für die K-fach partiell integrierte Fourier-Transformierte:   Zξ ZT0 1  (K)  Y (f ) = e−j2πf t dt + y (K) (T0 ) e−j2πf t dt y (−T0 ) (j2πf )K −T0

ξ

"

=

  1 1 y (K) (−T0 ) e−j2πf ξ − ej2πf T0 K (j2πf ) −j2πf | {z } Betrag ≤ 2 #   1 (K) −j2πf T −j2πf ξ 0 + y (T0 ) e −e . −j2πf | {z } Betrag ≤ 2

Durch Betragsbildung erhält man die Abschätzung: |Y (f )| ≤

  2 (K) (K) |y (−T )| + |y (T )| . 0 0 |2πf |K+1

Nach Voraussetzung des 2. Mittelwertsatzes der Integralrechnung muss zwar die vor das Integral gezogene Funktion monoton sein. Da man aber jede beliebige Funktion als Summe einer monoton wachsenden und einer monoton fallenden Funktion zerlegen kann, (K)

y (K) (t) = y1

(K)

(t) + y2

(t) ,

(K)

y1

(t) % ,

(K)

y2

(t) & ,

und daraus die Abschätzung (K)

|y (K) (t)| ≤ |y1

(K)

(t)| + |y2

(t)|

(3.217)

3.8 Allgemeine Signaleigenschaften

125

erhält, ergibt sich insgesamt |Y (f )| ≤

  2 (K) (K) (K) (K) |y (−T )| + |y (T )| + |y (−T )| + |y (T )| . 0 0 0 0 1 1 2 2 |2πf |K+1

Mit M=

  2 (K) (K) (K) (K) |y (−T )| + |y (T )| + |y (−T )| + |y (T )| 0 0 0 0 1 1 2 2 (2π)K+1

folgt die Behauptung |Y (f )| ≤

M . |f |K+1

Bemerkung 3.218 1. Der Beweis besagt nicht, dass die Abschätzung nur dann gültig ist, wenn man die „letzte mögliche“ Ableitung verwendet. Natürlich kann man nur k < K Ableitungen nehmen. Dadurch wird die Abschätzung nicht falsch, sondern nur schlechter. Mehr als K Ableitungen sind dagegen nicht möglich, da eventuell die (K + 1)-te Ableitung Dirac-Impulse enthält. Auf solche Funktionen ist der 2. Mittelwertsatz der Integralrechnung nicht mehr anwendbar. 2. Die Voraussetzung war, dass die Zeitfunktion y(t) zeitbegrenzt ist. Dies gilt dann natürlich auch für ihre Ableitungen y (K) (t). Für ihre monotonen Kom(K) (K) ponenten y1 (t) und y2 (t) gilt dies aber im Allgemeinen nicht. Somit ist es möglich, dass eine von ihnen zum Zeitpunkt t = ±T0 einen Funktionswert 6= 0 besitzen kann. • Da das Verständnis des Riemann-Lebesgue’schen Lemmas nicht einfach ist, folgt ein ausführliches Beispiel, welches gerade auch die Problematik der monotonen Komponenten behandelt. Beispiel 3.219 (Dreieckimpuls) Gegeben sei der im folgenden Bild dargestellte Dreieckimpuls. Für diesen wird zuerst die Fourier-Transformierte auf herkömmliche Art berechnet. Anschließend folgt die Abschätzung des Spektrums mittels des Riemann-Lebesgue’schen Lemmas. y(t) 1 6 @ @ @ −T0 −1

@ @ 1

T0 t

126

3 Zeitkontinuierliche Signale

Die Fourier-Transformierte kann man anhand einer Korrespondenztabelle ermitteln: Z∞ Y (f ) =

y(t) e−j2πf t dt =

−∞

[sin(πf )]2 . (πf )2

Zur Abschätzung des Spektrums mittels Riemann-Lebesgue bestimmt man die letzte beschränkte stückweise stetige Ableitung. Dies ist bereits die erste Ableitung, d. h. K = 1. Die Ableitung selbst ist in der folgenden Skizze abgebildet. y 0 (t) 6 1 1 −1 −T0

−1

T0 t

Für die Bestimmung der Konstanten M benötigt man die beiden monotonen Funktionen y10 (t) und y20 (t), welche im Folgenden abgebildet sind. y10 (t) 6 2

y20 (t) 6

−1

1 -

1

−T0 −1

1

T0 t

−T0

−2

T0 t

Aus den beiden Skizzen für y10 (t) und y20 (t) liest man ab: y10 (−T0 ) = 0 ,

y20 (−T0 ) = 0 ,

y10 (T0 ) = 2 ,

y20 (T0 ) = −2 .

Daraus ergibt sich wegen K = 1   2 (K) (K) (K) (K) M = |y1 (−T0 )| + |y1 (T0 )| + |y2 (−T0 )| + |y2 (T0 )| K+1 (2π) 2 = 2. π Als Abschätzung entsteht somit |Y (f )| ≤

2 . (π|f |)2

Dies ist offensichtlich erfüllt: [sin(πf )]2 2 ≤ |Y (f )| = . (πf )2 (π|f |)2

127

3.8 Allgemeine Signaleigenschaften 2 1,5 1 0,5 0

−2

−1

0

1

2

Abbildung 3.25: Tatsächliches Spektrum des Dreieckimpulses (–) sowie Abschätzungen nach Satz 3.138 (− · ) und Satz 3.211 (– –).

Als weitere Möglichkeit der Abschätzung verwenden wir die in Satz 3.138 gezeigte Aussage y(t) ≥ 0 ,

t∈R

=⇒

|Y (f )| ≤ Y (0) ,

f ∈ R,

welche auf |Y (f )| ≤ 1 führt. √



Im Bereich [ −π 2 , π2 ] ist die Abschätzung gemäß Satz 3.138 besser als die Abschätzung mittels des Riemann-Lebesgue’schen Lemmas. Deshalb wird man beide Abschätzungen verwenden, um alle zur Verfügung stehenden Informationen zu nutzen. Man erhält also eine Eingrenzung des Spektrums, welche schärfer ist, als es beide Methoden bei getrennter Anwendung ermöglichen. Beide Abschätzungen für das Spektrum des Dreieckimpulses sind mitsamt des tatsächlichen Spektrums in Abbil• dung 3.25 eingezeichnet.

4

Zeitkontinuierliche Systeme

In Abschnitt 1.2 wurde bereits unter dem Begriff System eine Einrichtung eingeführt, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) reagiert. Mathematisch wird dieses Verhalten durch eine Operatorgleichung ya (t) = S{ye (t)}

(4.1)

und somit das System durch einen Operator S dargestellt, der das Verhalten zwischen Eingang und Ausgang des Systems beschreibt. In praktischen Fällen wird meist nicht der Operator gegeben sein, sondern das System implizit definiert sein. In diesem Kapitel werden zuerst allgemeine Eigenschaften von Systemen mit Hilfe von Operatoren formuliert, ohne eine konkretere Ausführungsvorschrift des Operators zu kennen. Anschließend wird die Beschreibung des Systemverhaltens durch Differentialgleichungen eingeführt. Zur deren Lösung ist die Laplace-Transformation hilfreich. Diese wird mitsamt ihren Eigenschaften dargestellt. Nach der Filterung mit Fensterfunktionen folgt die Beschreibung für den Entwurf zeitkontinuierlicher Filter im Frequenzbereich. Das Kapitel schließt mit der Behandlung der Hilbert-Transformation.

4.1

Eigenschaften

Bereits bei Kenntnis der Operatorgleichung (4.1) lassen sich viele Eigenschaften von Systemen beschreiben. Dabei klassifiziert man Systeme nach bestimmten Merkmalen. Jede Systemklasse hat bestimmte Grundeigenschaften, die für das Verhalten und für die rechnerische Behandlung des Systems wichtig sind. Definition 4.2 (Zeitkontinuierliches System) Ein zeitkontinuierliches System ist ein System gemäß der Operatorgleichung (4.1), dessen Eingangssignal ye (t) und Ausgangssignal ya (t) zeitkontinuierliche Signale sind. Eine der wichtigsten Eigenschaften von Systemen ist die Linearität.

130

4 Zeitkontinuierliche Systeme

Definition 4.3 (Linearität) Ein System S heißt linear, wenn für beliebige Eingangssignale ye1 (t) und ye2 (t) und beliebige Konstanten c1 und c2 die Gleichung S{c1 ye1 (t) + c2 ye2 (t)} = c1 S{ye1 (t)} + c2 S{ye2 (t)}

(4.4)

gilt.

Linearität ist der Zusammenschluss von Additivität und Homogenität. Additivität bedeutet, dass die Antwort auf eine Summe von Eingangssignalen gleich der Summe der Antworten auf die einzelnen Eingangssignale ist. Homogenität bedeutet, dass die Antwort auf das c-fache Eingangssignal gleich dem c-fachen der Antwort auf das Eingangssignal ist. Ein lineares System erfüllt damit das Superpositionsprinzip S

(N X

) ci yei (t)

=

i=1

N X

ci S{yei (t)} .

(4.5)

i=1

Geht man von der Summe zum Integral über, so ergibt sich, falls beide Integrale existieren, schließlich auch Z S

 c(τ ) ye (τ ) dτ

Z =

c(τ ) S{ye (τ )} dτ .

(4.6)

Es ist also die Antwort auf das Integral eines Eingangssignals gleich dem Integral über die Antwort auf das Eingangssignal selbst. Bemerkung 4.7 Für den Übergang zu Integralen ist die endliche Additivität nicht mehr ausreichend. Vielmehr benötigt man an dieser Stelle „Stetigkeit“ der Systeme, d. h. eine unendliche Additivität, da ein Grenzprozess durchgeführt wird. Dies ist jedoch bei realen Systemen stets erfüllt, da das Verhalten realer Systeme aufgrund nicht vorhandener Sprungfähigkeit immer stetig ist. Aus diesem Grund werden wir die Stetigkeit immer als erfüllt ansehen, wenn das System additiv ist. • Natürlich soll ye (t) = 0 stets als Eingangssignal zulässig sein. Hierauf reagiert ein lineares System, wie man Gleichung (4.4) unmittelbar entnimmt, mit ya (t) = S{0} = 0 .

(4.8)

131

4.1 Eigenschaften Beispiel 4.9 (Linearität)

Ein System S1 , das ein Eingangssignal ye (t) mit einem konstanten Faktor a multipliziert, S1 :

ya (t) = S1 {ye (t)} = a · ye (t) ,

ist linear. Dies lässt sich mit der Linearitätsgleichung (4.4) schnell überprüfen. Hingegen ist das System S2 , das ein Eingangssignal ye (t) mit sich selbst multipliziert, S2 :

ya (t) = S2 {ye (t)} = (ye (t))2 ,

nicht linear, da z. B. die Homogenität nicht erfüllt ist: c6=0,1

S2 {c · ye (t)} = c2 ye2 (t) 6= c · ye2 (t) = c · S2 {ye (t)} .



Definition 4.10 (Zeitinvarianz) Ein System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye (t − t0 ) mit dem entsprechend zeitlich verschobenen Ausgangssignal ya (t − t0 ) antwortet: ya (t) = S{ye (t)}

=⇒

ya (t − t0 ) = S{ye (t − t0 )} .

(4.11)

Systeme, die Gl. (4.11) nicht genügen, heißen zeitvariant.

Beispiel 4.12 (Zeitinvarianz) Das System S1 S1 :

ya (t) = a · ye (t)

ist zeitinvariant, hingegen ist das System S2 S2 :

ya (t) = a(t) · ye (t)

mit a(t) = m t + c , für m 6= 0 zeitvariant.

m, c ∈ R , •

132

4 Zeitkontinuierliche Systeme

Abbildung 4.1: Nichtkausales und kausales System.

Definition 4.13 (Kausalität) Ein System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt (vgl. Abbildung 4.1). Dies bedeutet, dass für ein System S aus ye1 (t) = ye2 (t) ,

t ≤ t1 ,

(4.14)

und ya1 (t) = S{ye1 (t)} ,

ya2 (t) = S{ye2 (t)} ,

(4.15)

bei willkürlichem t1 stets ya1 (t) = ya2 (t) ,

t ≤ t1

(4.16)

folgt. Die Definitionsgleichungen (4.14) und (4.16) haben angesichts Gl. (4.8) zur Folge, dass ein lineares, kausales System S auf jedes zulässige Eingangssignal ye (t) mit der Eigenschaft ye (t) = 0 ,

t ≤ t1 ,

(4.17)

mit einem Ausgangssignal ya (t) antwortet, das die Eigenschaft ya (t) = 0 ,

t ≤ t1 ,

(4.18)

aufweist. Alle realisierbaren, d. h. physikalischen, Systeme sind kausal. Die Wirkung kann nicht vor der Ursache eintreten. Die Bedingung der Kausalität bedeutet oft eine erhebliche Einschränkung bei der mathematischen Formulierung von Systemeigenschaften. Ohne Beweis sei hier angemerkt, dass ein System S, das aus Addition, Subtraktion, Multiplikation mit konstanten Faktoren, Integration bis zum aktuellen Zeitpunkt t und Differentiation besteht, linear, zeitinvariant und kausal ist.

133

4.1 Eigenschaften Definition 4.19 (Dynamik)

Ein System S heißt dynamisch, wenn die Antwort ya (t) des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye (t), sondern auch von den vergangenen (bei nichtkausalen Systemen auch von zukünftigen) Werten abhängt. Die Antwort ya (t) eines nichtdynamischen Systems hängt damit nur vom augenblicklichen Wert des Eingangssignals ye (t) ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer T , wenn die Antwort ya (t0 ) durch die Werte der Erregung im Intervall [t0 − T, t0 ] vollständig bestimmt ist. Ohne Beweis sei hier angemerkt, dass ein nichtdynamisches System S keine Operatoren enthalten darf, die das Eingangssignal differenzieren oder integrieren. Beispiel 4.20 (Dynamik) Ein System S, das als Antwort ya (t) das Gesamtgewicht m des auf einem Förderband befindlichen Schüttguts ausgibt, wobei als Eingangssignal ye (t) der Massenfluss m ˙ der neu hinzukommenden Masse dient, besitzt ein Gedächtnis der Zeitdauer T , die das Schüttgut benötigt, um wieder vom Band zu kommen (vgl. Abbildung 4.2).

Abbildung 4.2: Förderband.

Die Zeitdauer T berechnet sich hier aus der Länge l des Förderbands und der Geschwindigkeit v, mit der es sich fortbewegt: T =

l . v

Die Gesamtmasse zum Zeitpunkt t0 hängt vom Massenfluss m ˙ ab, der im Zeitintervall [t0 − T, t0 ] auftrat. • Definition 4.21 (Stabilität) Ein System S heißt genau dann stabil, wenn jedes beschränkte zulässige Eingangssignal ye (t) ein ebenfalls beschränktes Ausgangssignal ya (t) zur Folge hat, d. h. wenn aus der Beschränktheit des Eingangssignals ∃ m > 0 : |ye (t)| < m < ∞ ,

t∈R

134

4 Zeitkontinuierliche Systeme

die Beschränkung des Ausgangssignals ∃ M > 0 : |ya (t)| < M < ∞ ,

t∈R

folgt. Man spricht hier auch von BIBO-Stabilität (engl.: bounded-input boundedoutput).

Beispiel 4.22 (Stabilität) Ein System S, das als Ausgangssignal das integrierte Eingangssignal Zt ya (t) =

ye (τ ) dτ −∞

ausgibt, ist instabil. Das beschränkte Sprungsignal  1 für t ≥ 0 ye (t) = 0 für t < 0 führt zu einem unbeschränkten Ausgangssignal  t für t ≥ 0 ya (t) = 0 für t < 0 des Systems S.

4.1.1



Lineare, zeitinvariante Systeme (LTI-Systeme)

Von besonderem Interesse sind lineare, zeitinvariante Systeme, welche abkürzend als LTI-Systeme (LTI = ˆ linear, time-invariant) bezeichnet werden. Diese Systeme besitzen eine einfache mathematische Darstellung, die ihre Analyse und Synthese erleichtert. Hierzu wird der Begriff der Impulsantwort eingeführt. Definition 4.23 (Impulsantwort) Die Antwort g(t) eines Systems S auf den Dirac-Impuls δ(t) g(t) = S{δ(t)}

(4.24)

nennt man Impulsantwort. Aus Gl. (3.162) ist bekannt, dass sich ein Signal ye (t) mit Hilfe des Dirac-Impulses als Z∞ ye (t) =

ye (t − τ ) δ(τ ) dτ −∞

135

4.1 Eigenschaften

darstellen lässt. Benutzt man das Signal ye (t) als Eingangssignal eines LTI-Systems S, so erhält man das Ausgangssignal ya (t) wegen

ya (t) = S{ye (t)} = S

 ∞ Z

ye (t − τ ) δ(τ ) dτ

 = S

 ∞ Z 

Z∞ =

−∞

  

−∞

 Z∞  ye (µ) δ(t − µ) dµ = ye (µ) S{δ(t − µ)} dµ  −∞

ye (µ)g(t − µ) dµ = ye (t) ∗ g(t) −∞

als Faltung des Eingangssignals ye (t) mit der Impulsantwort g(t) des Systems S. Dies bedeutet, dass LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind. Satz 4.25 (Impulsantwort) Die Impulsantwort eines LTI-Systems S g(t) = S{δ(t)} charakterisiert das System S vollständig. Die Antwort ya (t) auf ein Signal ye (t) berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: (4.26)

ya (t) = ye (t) ∗ g(t) .

• Satz 4.27 (Kausalität) Aus den Gleichungen (4.17) und (4.18) folgt, dass ein LTI-System S genau dann kausal ist, wenn die Impulsantwort für t < 0 verschwindet: S kausal

⇐⇒

g(t) = 0 für t < 0 .

(4.28) •

Beweis: 1. Das LTI-System sei als kausal vorausgesetzt, und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 für t < 0 .

(4.29)

136

4 Zeitkontinuierliche Systeme Für das Ausgangssignal ergibt sich gemäß Gl. (4.26) Z∞ ya (t) = g(t − τ ) ye (τ ) dτ

(4.29)

−∞ Z∞

=

t−τ = µ dτ = −dµ

g(t − τ ) ye (τ ) dτ 0

Z0 =

!

g(µ) ye (t − µ) dµ = 0

für t < 0 .

(4.30)

−∞

Dies kann aber für beliebige Eingangssignale, welche Gl. (4.29) gehorchen, nur dann erfüllt sein, wenn g(t) = 0 für alle t < 0 gilt. 2. Es gelte nun g(t) = 0 für t < 0, und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 für t < 0. Dann rechnet man Z∞ ya (t) = g(t − τ ) ye (τ ) dτ −∞

Zt

=

g(t − τ ) σ(t − τ ) ye (τ ) σ(τ ) dτ

(4.31)

0

=0

für t < 0 ,

(4.32)

womit das System als kausal nachgewiesen ist. Beispiel 4.33 (Akausales Mittelwertfilter) Ein Beispiel für ein akausales Filter ist die Mittelwertbildung, die durch folgende Impulsantwort realisiert wird (vgl. Abbildung 4.3): g(t) =

1 rT (t) . T

1,5 1 0,5 0 −1

−0,5

0

0,5

1

Abbildung 4.3: Impulsantwort des akausalen Mittelwertfilters für T = 1 s.

137

4.1 Eigenschaften Berechnet man das Ausgangssignal dieses Filters, so ergibt sich: Z∞ ya (t) = g(t) ∗ ye (t) = −∞

1 1 rT (t − τ ) ye (τ ) dτ = T T

t+T Z /2

ye (τ ) dτ . t−T /2

Sowohl aus der Impulsantwort als auch aus der berechneten Darstellung des Ausgangssignals wird deutlich, dass es sich hierbei um ein akausales Filter handelt. • Definition 4.34 (Kausale Signale) Durch Satz 4.27 motiviert, werden auch Funktionen bzw. Signale als kausal bezeichnet, falls sie für negative Zeiten den Wert null besitzen: f (t) kausal

⇐⇒

f (t) = 0

für t < 0 .

(4.35)

Diese Bezeichnung wird auch im folgenden Text gelegentlich verwendet. Mit der Definition 4.21 soll die Stabilität eines LTI-Systems untersucht werden. Hierfür ergibt sich der folgende Satz. Satz 4.36 (Stabilität von LTI-Systemen) Ein LTI-System ist genau dann stabil, wenn die Impulsantwort g(t) die Bedingung Z∞

(4.37)

|g(t)| dt < ∞ −∞

erfüllt.



Beweis: 1. Die Impulsantwort g(t) sei absolut integrierbar und ye (t) ein beschränktes Eingangssignal, d. h. |ye (t)| < m ∀ t ∈ R. Stellt man das Ausgangssignal ya (t) mittels des Faltungsintegrals Gl. (4.26) dar, so folgt: ∞ Z Z∞ |ya (t)| = ye (τ ) · g(t − τ ) dτ ≤ |ye (τ )| |g(t − τ )| dτ . −∞

−∞

138

4 Zeitkontinuierliche Systeme Da nach Voraussetzung das Eingangssignal beschränkt ist, ergibt sich die Ungleichung Z∞ |ya (t)| < m ·

Z∞ |g(t − τ )| dτ = m ·

−∞

|g(µ)| dµ < M < ∞ , −∞

womit das Ausgangssignal als beschränkt nachgewiesen ist. 2. Um zu beweisen, dass die Bedingung Gl. (4.37) für die Stabilität auch notwendig ist, geben wir bei bekannter Impulsantwort g(t) das spezielle, beschränkte Eingangssignal ye (t) =

g(−t) |g(−t)|

vor [Fli91]. Es gilt |ye (t)| = 1 ∀ t ∈ R. Das Ausgangssignal ya (t) an der Stelle t = 0 ergibt sich nach Gleichung (4.26) als Z∞ ya (0) =

Z∞ ye (τ ) g(−τ ) dτ =

−∞ Z∞

=

Z∞ |g(−τ )| dτ =

−∞

−∞

g 2 (−τ ) dτ |g(−τ )|

|g(τ )| dτ . −∞

Ist also die Impulsantwort nicht absolut integrierbar, so ist auch das System nicht stabil, da für ein beschränktes Eingangssignal ein unbeschränktes Ausgangssignal resultieren kann. Bei kausalen Systemen verschwindet die Impulsantwort für negative Zeiten, so dass die Bedingung (4.37) vereinfacht werden kann, indem die Integration erst bei null beginnt: Z∞ |g(t)| dt < ∞ . 0

Abschließend soll untersucht werden, wie ein LTI-System S auf eine gegebene komplexe Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t ,

A ∈ C,

reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort g(t) und dem Eingangssignal ye (t):

139

4.2 Beschreibung durch Differentialgleichungen Z∞ ya (t) =

Z∞ g(τ ) ye (t − τ ) dτ =

−∞ Z∞

=

g(τ ) A · ej2πf0 (t − τ ) dτ

−∞

g(τ ) e−j2πf0 τ dτ · A · ej2πf0 t = G(f0 ) · A · ej2πf0 t .

−∞

Somit haben wir das folgende Resultat erhalten: Satz 4.38 (Frequenzgang) Ein LTI-System S, das mit einer komplexen Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte G(f ) der Impulsantwort g(t) bei der Frequenz f0 . Man nennt die Fourier-Transformierte G(f ) den Frequenzgang des Systems S. Der Betrag |G(f )| ist der Amplitu• dengang und das Argument arg G(f ) der Phasengang des Systems.

4.1.2

Mehrgrößensysteme

Bislang wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und eine Ausgangsgröße besitzen. Dies muss natürlich nicht so sein. Alle bis jetzt beschriebenen Eigenschaften lassen sich auch auf sogenannte Mehrgrößensysteme erweitern. Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgrößen spricht man von SISO(single input – single output)- und MIMO-(multiple input – multiple output)-Systemen bzw. deren Mischformen SIMO und MISO. Bei Mehrgrößensystemen wird aus dem Eingangssignal ye (t) der Eingangssignalvektor ye (t) und aus dem Ausgangssignal ya (t) der Ausgangssignalvektor ya (t). Das System wird weiterhin allgemein als Operatorgleichung beschrieben: ya (t) = S{ye (t)} .

4.2

(4.39)

Beschreibung durch Differentialgleichungen

Bis jetzt wurden Eigenschaften von Systemen behandelt, ohne eine konkrete Darstellung einzuführen. Die Verwendung von Differentialgleichungen zur Abbildung eines oder mehrerer Eingangssignale ye (t) auf ein oder mehrere Ausgangssignale ya (t) bildet eine Möglichkeit der Darstellung. Diese ist z. B. in der Physik, aber auch in der Elektrotechnik weit verbreitet.

140

4 Zeitkontinuierliche Systeme

In der allgemeinen Form wird der Ausgangssignalvektor ya (t) als Funktion der Ableitungen des Ausgangssignalvektors, des Eingangssignalvektors ye (t), seiner Ableitungen und der Zeit t dargestellt:   ya (t) = f ya(1) (t), ya(2) (t), . . . , ye (t), ye(1) (t), ye(2) (t), . . . , t (4.40) mit y(i) (t) =

di y(t) . dti

Der in Beispiel 1.4 vorgestellte RC-Tiefpass etwa erfüllt die Differentialgleichung RC · u˙ a (t) + ua (t) = ue (t) . Betrachtet man die Eingangsspannung ue (t) als Eingangssignal ye (t) und die Ausgangsspannung ua (t) als Ausgangssignal ya (t), so lässt sich der RC-Tiefpass gemäß Gl. (4.40) durch ya (t) = −RC · y˙ a (t) + ye (t)

(4.41)

beschreiben. Bei der Betrachtung von LTI-Systemen geht die allgemeine Differentialgleichung (4.40) in eine lineare Differentialgleichung mit zeitunabhängigen Konstanten, n X ν=0

aν ya(ν) (t) =

m X

bµ ye(µ) (t) ,

(4.42)

µ=0

über. Die Konstanten aν , ν = 1, . . . , n, und bµ , µ = 1, . . . , m, charakterisieren dabei das System. Man erkennt, dass es sich bei der Differentialgleichung (4.41) des RC-Tiefpasses um eine lineare Differentialgleichung mit zeitunabhängigen Konstanten handelt. Neben der Darstellung als lineare Differentialgleichung (4.42) existiert noch die Darstellung im Zustandsraum, die im folgenden Abschnitt beschrieben wird.

4.2.1

Zustandsraum

Für die bisherigen Betrachtungen genügte es, Systeme mit Hilfe ihrer Eingangs- und Ausgangssignale zu beschreiben. Für viele Anwendungen reicht diese Betrachtungsweise jedoch nicht aus. Neben den Eingangs- und Ausgangssignalen werden „innere“ Signale, die Zustandsgrößen, eingeführt. Damit kann man die innere Struktur eines Systems nachvollziehen. Dabei werden diese inneren Zustandsgrößen durch einen Signalvektor z(t) dargestellt. Die Zustandsraumdarstellung besitzt mehrere Vorteile: • Es können Fälle „innerer“ Systeminstabilitäten erkannt werden, die bei alleiniger Betrachtung des Eingangs-Ausgangsverhaltens nicht festgestellt werden können.

4.2 Beschreibung durch Differentialgleichungen

141

• Die Darstellungsweise ist der Theorie der Differentialgleichungen angepasst, so dass die entsprechenden Methoden anwendbar werden. • Die Behandlung theoretischer Aufgabenstellungen, z. B. in der Netzwerktheorie oder der Regelungstechnik, wird erleichtert. • Die Systemdarstellung im Zustandsraum eignet sich besonders zur Darstellung von Systemen im Rechner und bietet Vorteile bei der numerischen Behandlung. Definition 4.43 (Zustandsraumdarstellung) Ein System S lässt sich mit seinen Eingangs- und Ausgangssignalen ye (t) bzw. ya (t) sowie seinen inneren Zustandsgrößen z(t) durch ˙ z(t) = f (z(t), ye (t), t) ya (t) = g(z(t), ye (t), t)

(4.44)

im Zustandsraum beschreiben. Dabei nennt man die erste Gleichung die Zustandsgleichung und die zweite Gleichung die Ausgangsgleichung. Für einen Anfangszeitpunkt t0 bestimmen die Eingangsgrößen ye (t) für t ≥ t0 und die Zustandsgrößen z(t0 ) durch die Zustandsgleichung den Zustandsvektor z(t) für t ≥ t0 , und somit durch die Ausgangsgleichung auch den Ausgangsvektor ya (t) für t ≥ t0 . Der Zustandsvektor z(t) repräsentiert sozusagen die gesamte Vergangenheit des Systems, die im Wesentlichen durch die Eingangsgrößen ye (t) bestimmt ist. Definition 4.45 (Ordnung eines Systems) Die kleinste Anzahl von Zustandsgrößen, d. h. die minimale Dimension des Zustandsvektors z(t), die zur eindeutigen Kennzeichnung des Systemzustands erforderlich sind, nennt man Ordnung des Systems. Herleitung der Zustandsraumdarstellung eines LTI-Systems. Im Folgenden soll die Zustandsraumdarstellung für LTI-Systeme mit einer Eingangs- und einer Ausgangsgröße hergeleitet werden. Dabei geht man von der Darstellung Gl. (4.42) aus: n X ν=0

aν ya(ν) (t) =

m X

bµ ye(µ) (t) .

µ=0

In technisch realisierbaren Systemen gilt wegen der bedingten Sprungfähigkeit der Ausgangsgröße die Ungleichung n ≥ m. Damit kann in solchen Systemen die Ausgangsgröße nicht von der zeitlichen Änderung der Eingangsgröße abhängen. Die Umformung der linearen Differentialgleichung in die Zustandsraumdarstellung erfolgt nach [BS93] in fünf Schritten.

142

4 Zeitkontinuierliche Systeme (n)

1. Die Differentialgleichung (4.42) wird nach ya (t) aufgelöst, wobei bµ = 0 für m < µ ≤ n gesetzt wird.  1  ya(n)= b0 ye −a0 ya +b1 y˙ e −a1 y˙ a + · · · +bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) an 2. Es werden die Zustandsgrößen nach folgendem Schema eingeführt:  1  ya(n)= b0 ye −a0 ya +b1 y˙ e −a1 y˙ a + · · · +bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) an | {z } z˙0 (t) | {z } (2)

z1 (t) |

{z

}

(n) zn−1 (t)

Man erhält also z˙0 (t) (i+1) zi (t)

= b0 ye (t) − a0 ya (t) (i)

= zi−1 (t) + bi ye(i) (t) − ai ya(i) (t) ,

i = 1, . . . , n − 1.

3. Durch i-fache Integration der i-ten Definitionsgleichungen erhält man nur noch erste Ableitungen: z˙i (t) = zi−1 (t) + bi ye (t) − ai ya (t) ,

i = 1, . . . , n − 1 .

(4.46)

4. Die Differentialgleichung aus dem zweiten Schritt kann man unter Verwendung der (n − 1)-ten Zustandsgröße verkürzt als  1  (n) ya(n) (t) = zn−1 (t) + bn ye(n) (t) an schreiben. Hieraus folgt durch n-fache Integration die Ausgangsgleichung ya (t) =

1 (zn−1 (t) + bn ye (t)) an

der Zustandsraumdarstellung. 5. Einsetzen der Ausgangsgleichung in die einzelnen integrierten Definitionsgleichungen der Zustandsgrößen liefert:   z˙0 = b0 ye − a0 ya = − aan0 zn−1 + b0 − bn aan0 ye   z˙1 = z0 + b1 ye − a1 ya = z0 − aan1 zn−1 + b1 − bn aan1 ye   z˙2 = z1 + b2 ye − a2 ya = z1 − aan2 zn−1 + b2 − bn aan2 ye .. .. .. .. . . . .   an−1 z˙n−1 = zn−2 + bn−1 ye − an−1 ya = zn−2 − an−1 ye . an zn−1 + bn−1 − bn an

143

4.2 Beschreibung durch Differentialgleichungen Daraus ergeben sich in Vektorschreibweise die Zustandsgleichung     0 0 · · · − aan0 b0 − bn aan0     z˙0 z0  1 0 · · · − aa1   b1 − bn aa1  n n  z1    z˙1    a2    b2 − bn aan2   z˙   0 1 · · · − an   z      2 = 2  a · ·y b3 − bn aan3   .   0 0 · · · − an3   . +    e  ..   . .   .    ..  .. .  .. .. . . .   . . z˙n−1 zn−1 an−1 an−1 0 0 · · · − an bn−1 −bn an und die Ausgangsgleichung   ya (t) =

0, 0, . . . , 0,

1 an

   ·  

z0 z1 z2 .. .

   bn +  an ye (t) 

zn−1 der Zustandsraumdarstellung. Hieraus folgt die Vektordarstellung im Zustandsraum ˙ z(t) = A z(t) + b ye (t) ya (t) = cT z(t) + d ye (t), wobei A, b, c und d entsprechend den obigen Gleichungen zu definieren sind. Die eben beschriebene Vorgehensweise erzeugt die Beobachter-Normalform im Zustandsraum. Analog hierzu ist noch die Regelungs-Normalform gebräuchlich, vergleiche hierzu [Föl06]. Bei den Mehrgrößensystemen sind mehrere Eingangs- oder Ausgangssignale vorhanden, die zu einem Vektor ye (t) bzw. ya (t) zusammengefasst werden. Eine Zustandsraumdarstellung kann auch für solche Systeme angegeben werden. Definition 4.47 (Zustandsraumdarstellung für LTI-Systeme) LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch folgende Vektorgleichungen darstellen: ˙ z(t) = A z(t) + B ye (t) ya (t) = C z(t) + D ye (t)

(4.48)

Hierbei heißt A die Systemmatrix , B die Steuermatrix , C die Beobachtungsmatrix und D die Durchschaltmatrix . Die Struktur eines solchen Systems ist in Abbildung 4.4 dargestellt (Bedeutung der Elemente des Blockschaltbildes vgl. Anhang D). Dabei wird das Systemverhalten von der Matrix A beeinflusst. Sind die zur Beschreibung eines Systems erforderlichen Matrizen A, B, C und D zeitabhängig, so ist das

144

4 Zeitkontinuierliche Systeme

Abbildung 4.4: Struktur der Zustandsraumdarstellung.

zugehörige System zeitvariant, ansonsten ist es zeitinvariant. Es sei angemerkt, dass es für ein und dasselbe System verschiedene Zustandsraumdarstellungen mit unterschiedlichen Zustandsgrößen gibt. Die Darstellung eines Systems im Zustandsraum wird nun anhand eines ausführlichen Beispiels gezeigt. Beispiel 4.49 (Masse-Feder-Dämpfer-System) Abbildung 4.5 zeigt den Aufbau eines Masse-Feder-Dämpfer-Systems. Das System wird durch seine physikalischen Eigenschaften beschrieben. Die Bewegungsgleichung X mx ¨= F = Fa + Fc + Fd beschreibt die Beschleunigungskraft als Summe aller angreifenden Kräfte. Hierzu zählt die von außen kommende Anregungskraft Fa , die Rückholkraft Fc = −c x der Feder, die proportional zur Auslenkung x ist, und die Dämpfungskraft Fd = −d v des Dämpfungsglieds, die proportional zur Geschwindigkeit der Masse m ist. Mit dem Verhältnis zwischen der Auslenkung x und der Geschwindigkeit v v = x˙ ,

v˙ = x ¨,

Abbildung 4.5: Aufbau des Masse-FederDämpfer-Systems.

4.2 Beschreibung durch Differentialgleichungen

145

erhält man die das System beschreibende Differentialgleichung: m¨ x = Fa − c x − d x˙ . Dabei wird die Auslenkung x so gewählt, dass in der Ruhelage x = 0 ist. Ansonsten würde es sich nicht um ein lineares System handeln (vgl. Gl. (4.8)). Bei der Darstellung im Zustandsraum verwendet man als Zustandsgrößen die Auslenkung x und die Geschwindigkeit v. Hieraus ergeben sich sofort die einzelnen Differentialgleichungen der Zustandsgleichung: x˙ = v , c d 1 v˙ = − x − v+ Fa . m m m Damit kann das System im Zustandsraum in Vektorschreibweise beschrieben werden:         0 1 0 x˙ x = · + 1 · Fa , c d v˙ v −m −m m    x • x = 10 · + 0 · Fa . v Bemerkung 4.50 Bei diesem Beispiel werden andere Zustandsgrößen verwendet, als sie bei Anwendung der fünf Rechenschritte entstehen würden. Geht man entsprechend den formulierten Schritten vor, so ergibt ein einfaches Einsetzen in die Bewegungsgleichung: mx ¨ = Fa − c x − d x˙ , was man zu c d 1 x+ x˙ + x ¨= Fa m m m umformen kann. Dies ist eine Gleichung der Gestalt von Gl. (4.42) mit den Größen c d 1 , a1 = , a2 = 1 und b0 = . m m m Setzt man noch b1 = 0 und b2 = 0, so kann man direkt obige Herleitungen verwenden, woraus sich die Zustandsgleichung !  !   c 1 0 −m z˙0 z0 m = + Fa d z˙1 z1 0 1 −m a0 =

und die Ausgangsgleichung x(t) = z1 (t) ergeben. Diese Darstellung weicht von der oben aufgeführten Darstellung ab, womit die Existenz mehrerer gültiger Zustandsraumdarstellungen an einem Beispiel demonstriert wurde. •

146

4.3

4 Zeitkontinuierliche Systeme

Laplace-Transformation

Ein LTI-System S wird durch seine Impulsantwort g(t) vollständig charakterisiert. Da die Impulsantwort g(t) ein Signal ist, auf das die Hilfsmittel der Signalverarbeitung angewendet werden können, könnte man z. B. durch Anwendung der Fourier-Transformation auf die Impulsantwort g(t) weitere Informationen über das System S selbst gewinnen. Leider existiert das Fourier-Integral (3.131) wegen eventueller Konvergenzschwierigkeiten nur für eine beschränkte Klasse von Funktionen. So wurde in Beispiel 3.136 gezeigt, dass für die Funktion y(t) = t das Fourier-Integral nicht konvergiert. Um die Konvergenz für eine größere Klasse von Funktionen zu sichern, erweitert man den Integranden um den Faktor e−δt , δ ∈ R, der im Fall δ > 0 für t → ∞ schnell gegen null strebt und so die Konvergenz zumindest für hinreichend großes t ∈ R sichert. Somit geht also der Frequenzparameter j2πf in den Frequenzparameter δ + j2πf über. Zwar führt diese Erweiterung des Integranden gleichzeitig zu einer Verschlechterung der Konvergenz des Integrals für t → −∞. Bei Betrachtung kausaler Systeme ist dieses Problem jedoch irrelevant, da die untersuchten Signale für negative Zeiten verschwinden.

4.3.1

Definition

Die Erweiterung des Integranden mit e−δt erzeugt aus der Fourier-Transformation die Laplace-Transformation. Definition 4.51 (Zweiseitige Laplace-Transformation) Die zweiseitige Laplace-Transformation einer Funktion y(t) ist durch Y (s) = LII {y(t)} =

Z∞

y(t) e−st dt

(4.52)

−∞

definiert, wobei s = δ + j2πf = δ + jω den Frequenzparameter bezeichnet. Das Signal wird somit im gesamten Zeitbereich R betrachtet und dort in die „komplexen Frequenzen“ s = δ + jω zerlegt. Der Index II dient dazu, die zweiseitige Laplace-Transformation von der später einzuführenden einseitigen Laplace-Transformation zu unterscheiden. Bemerkung 4.53 Die Laplace-Transformierte eines Signals y(t) entspricht gerade der Fourier-Transformierten des Signals y(t) e−δt : Y (s) = LII {y(t)} = F{y(t) · e−δt } .

(4.54)

Nach den bei der Einführung der Fourier-Transformation gemachten Betrachtungen

147

4.3 Laplace-Transformation ist somit die Konvergenz von Z∞

|y(t) e−δt | dt < ∞

−∞

eine hinreichende Bedingung für die Existenz der Laplace-Transformierten.



Eine Funktion y(t), t ∈ R, kann in ihren kausalen Teil yk (t) mit  y(t) für t ≥ 0 yk (t) = 0 für t < 0 und ihren antikausalen Teil yak (t) mit  0 für t ≥ 0 yak (t) = y(t) für t < 0 aufgeteilt werden. Unterzieht man die Funktion y(t) nun der Laplace-Transformation, dann folgt aufgrund der Linearität: LII {y(t)} =

Z∞

yk (t) e−st dt +

−∞

Z∞

=

Z∞

yak (t) e−st dt

−∞

y(t) e−st dt +

Z0

y(t) e−st dt .

(4.55)

−∞

0

Bemerkung 4.56 Nach [Föl80] umfasst der Konvergenzbereich der zweiseitigen Laplace-Transformation stets einen Streifen parallel zur j-Achse. Hierbei gehören die Pole links des Streifens der absoluten Konvergenz zum kausalen Teil, Pole rechts davon zum anti• kausalen Teil des Signals. Beweis: Um diese Aussage einzusehen, betrachten wir zuerst den kausalen Teil des Signals. Im Vorgriff auf die inverse einseitige Laplace-Transformation in Abschnitt 4.3.5.1 lässt sich der kausale Teil darstellen als 1 yk (t) = 2πj

α+j∞ Z

Y (s) est ds ,

t ≥ 0.

α−j∞

Aufgrund des Residuensatzes folgt deshalb yk (t) =

M X k=1

Res{Y (s) est ; sk } ,

t ≥ 0,

148

4 Zeitkontinuierliche Systeme

wobei die Pole links des Integrationsweges zu nehmen sind. Da der Integrationsweg in dem Streifen der absoluten Konvergenz von Y (s) liegt, sind dies gerade die Pole links des Streifens der absoluten Konvergenz. Für die Aussage über den antikausalen Teil transformiert man das zweite Integral in Gleichung (4.55) zu Z0

yak (t) e−st dt =

−∞

Z∞

yak (−t) est dt =

0

Z∞

yak (−t) e−(−s)t dt .

0

Dies definiert analog eine einseitige Laplace-Transformation mit der Variablen −s. Somit ergibt sich yak (−t) =

M X

Res{Y (−s) est ; sk } ,

t ≥ 0,

k=1

und somit das antikausale Signal im Zeitbereich. Die Pole rechts des Streifens der Konvergenz bestimmen den antikausalen Teil. Häufig treten kausale Funktionen y(t) auf – d. h. Funktionen, die für negative Zeiten verschwinden – etwa im Falle der Impulsantwort eines kausalen LTI-Systems. Für derartige Funktionen geht die zweiseitige Laplace-Transformation über in Z∞

y(t) e−st dt .

0−

Als untere Integrationsgrenze wird hier „0−“ gewählt, um Sprünge bei null und den Dirac-Impuls berücksichtigen zu können. Da diese Formel jedoch auch für beliebige Funktionen angesetzt werden kann, bei denen sie dann nur den Zeitabschnitt [0, ∞) betrachtet, wird dafür die einseitige Laplace-Transformation eingeführt. Definition 4.57 (Einseitige Laplace-Transformation) Die einseitige Laplace-Transformation einer Funktion y(t) ist durch Y (s) = LI {y(t)} = L{y(t)} =

Z∞

y(t) e−st dt

(4.58)

0−

gegeben. Im Gegensatz zur zweiseitigen Laplace-Transformation wird hier nur der Zeitabschnitt [0, ∞) inklusive des linksseitigen Grenzwertes der Funktion an der Stelle 0 betrachtet. Dies ist von großem Interesse, da häufig kausale Funktionen zu untersuchen sind.

149

4.3 Laplace-Transformation Bemerkung 4.59

1. Falls im folgenden Text die Variante der Laplace-Transformation nicht mehr durch einen Index gekennzeichnet wird, ist immer die einseitige Laplace-Transformation gemeint. 2. Für kausale Signale stimmen beide Laplace-Transformierten überein: y(t) kausal

=⇒

LII {y(t)} = LI {y(t)} .

3. Für die Laplace-Transformation werden die Schreibweisen y(t) ◦−• Y (s) ,

Y (s) = LI/II {y(t)} ,

y(t) = L−1 I/II {Y (s)}

verwendet. 4. Wie bei der zweiseitigen kann man auch die einseitige Laplace-Transformation mittels der Fourier-Transformation darstellen: LI {y(t)} = F{y(t) e−δt σ(t)} . (4.60) 5. Es sei noch einmal betont, dass im Folgenden kausale Signale betrachtet werden. Diese Einschränkung hat ihre Berechtigung darin, dass der Großteil der in technischen und kommerziellen Anwendungen auftretenden Signale kausal ist. •

4.3.2

Konvergenz der Laplace-Transformation

Bei Verwendung von uneigentlichen Integralen ist die Frage der Konvergenz wichtig. Für die Laplace-Transformation soll dies anhand zweier einführender Beispiele illustriert werden. Beispiel 4.61 (Laplace-Transformation des Einheitssprungs) Mit der Definition des Einheitssprungs  0 für t < 0 σ(t) = 1 für t ≥ 0 und der Gleichung (4.58) folgt  t=+∞ Z∞ Z∞ 1 −st LI/II {σ(t)} = σ(t) e dt = e−st dt = − e−st s t=0 −∞ 0     1 1 = lim − e−st − − e−s0 . t→+∞ s s Zur Bestimmung des Grenzwertes wird der Term e−st = e−(δ + jω)t = e−δt e−jωt = e−δt (cos(ωt) − j sin(ωt))

(4.62)

150

4 Zeitkontinuierliche Systeme

betrachtet. Er entspricht einer komplexen harmonischen Schwingung, die in Abhängigkeit des Parameters δ eine aufklingende, abklingende oder eine konstante Amplitude e−δt aufweist. Wegen  für δ > 0 0 für δ = 0 lim e−δt = 1 (4.63) t→+∞  +∞ für δ < 0 klingt die Schwingung für δ > 0 ab, man erhält eine Dauerschwingung für δ = 0 und eine aufklingende Schwingung für δ < 0. Nur für δ > 0 existiert der Grenzwert   1 −st lim − e = 0. t→+∞ s Es gilt also: LI/II {σ(t)} =

Z∞

σ(t) e−st dt =

−∞

1 , s

Re{s} > 0 .

(4.64)

Das Konvergenzgebiet ist somit nach Gleichung (4.63) die rechte komplexe Halb• ebene (vgl. Abbildung 4.6). Beispiel 4.65 (Einseitige Laplace-Transformierte der e-Funktion) Die einseitige Laplace-Transformierte der Funktion y(t) = eβt ,

β ∈ C,

lautet entsprechend den Überlegungen im vorherigen Beispiel L{y(t)} =

Z∞ 0

eβt e−st dt =

Z∞

e−(s − β)t dt =

1 , s−β

0

sofern Re{s − β} > 0, d. h. Re{s} > Re{β} ist.

Abbildung 4.6: Konvergenzgebiet des Einheitssprungs in der s-Ebene.



151

4.3 Laplace-Transformation Bemerkung 4.66

Allgemein lässt sich nach [Föl80] zeigen, dass für jede Zeitfunktion ein α ∈ R existiert, so dass das Konvergenzgebiet der einseitigen Laplace-Transformation dieser Zeitfunktion gerade durch {s ∈ C : Re{s} > α}

(4.67)

gegeben ist. Somit ist das Konvergenzgebiet der einseitigen Laplace-Transformation 2 2 immer eine Halbebene der s-Ebene, die in Grenzfällen, wie z. B. bei e−t oder et , in die gesamte Ebene bzw. in die leere Ebene übergeht. • Die Laplace-Transformierte ist konvergent, falls y(t) in eine konvergierende Taylor-Reihe entwickelbar ist, d. h. eine analytische Funktion darstellt.

4.3.3

Inverse Laplace-Transformation

Aus der Darstellung der einseitigen Laplace-Transformation mit Hilfe der Fourier-Transformation (4.60) folgt die inverse Laplace-Transformation durch Auflösung von Gleichung (4.60) nach y(t): Y (s) = Ft {y(t) · e−δt · σ(t)} ⇒ y(t) · e−δt · σ(t) = Ff−1 {Y (s)}

s=δ+j2πf

.

Hierbei muss δ so gewählt werden, dass Y (δ + j2πf ) definiert ist, d. h. im Konvergenzbereich der Laplace-Transformierten liegt. Hieraus folgt durch inverse Fourier-Transformation für t ≥ 0: Z∞ y(t) =

Y (δ + j2πf ) · eδt ej2πf t df .

−∞

Mittels der Substitution s = δ + j2πf , ds = j2π df folgt daraus für t ≥ 0 1 y(t) = 2πj

δ+j∞ Z

Y (s) est ds .

δ−j∞

152

4 Zeitkontinuierliche Systeme

Definition 4.68 (Inverse Laplace-Transformation) Die inverse Laplace-Transformation der Funktion Y (s) eines Transformationspaares y(t) ◦−• Y (s) ist durch 1 y(t) = 2πj

c+j∞ Z

Y (s) est ds

(4.69)

c−j∞

gegeben.

4.3.4

Eigenschaften

Die Eigenschaften der Laplace-Transformation entsprechen im Wesentlichen denen der Fourier-Transformation. In diesem Rahmen werden einige Eigenschaften in Anlehnung an [CW04] aufgeführt und exemplarisch berechnet. Weitere Eigenschaften findet man in Anhang B aufgelistet. Eine genauere Darstellung der Eigenschaften der Laplace-Transformation findet sich beispielsweise in [Föl80]. Hier werden alle Eigenschaften für die einseitige Laplace-Transformation gezeigt, die im Folgenden kurz als Laplace-Transformation bezeichnet wird. 4.3.4.1

Linearität

Die Laplace-Transformierte einer gewichteten Summe von Einzelfunktionen ist die gewichtete Summe der Laplace-Transformierten der Funktionen: ( ) X X L ai yi (t) = ai L{yi (t)} . (4.70) i

i

Entsprechende Beziehungen bestehen für das Umkehrintegral (4.69). Diese Eigenschaften zeigen, dass die Laplace-Transformation eine lineare Integraltransformation ist. 4.3.4.2

Verschiebung im Zeitbereich

Wählt man anstelle des Zeitmaßstabes t den um t0 verschobenen Zeitmaßstab τ = t−t0 , was einer Zeitverschiebung des Signals entspricht, so erhält man über L{y(t − t0 )} =

Z∞

y(t − t0 ) e−st dt

0− Z∞

= −t0

y(τ ) e−s(τ + t0 ) dτ = e−st0

t − t0 = τ dt = dτ Z∞

y(τ ) e−sτ dτ

−t0

die Laplace-Transformierte der zeitverschobenen Funktion. Da zur Anwendung der Laplace-Transformation kausale Funktionen y(t) vorausgesetzt wurden, muss jetzt zwischen zwei Fällen unterschieden werden.

153

4.3 Laplace-Transformation

1. Für t0 > 0 ist die untere Integrationsgrenze −t0 negativ. Da die betrachteten Funktionen als kausal angenommen wurden, folgt sofort die Laplace-Transformierte bei positiver Zeitverschiebung: Z∞

L{y(t − t0 )} = e−st0

y(τ ) e−sτ dτ = e−st0 L{y(t)} ,

t0 > 0 .

0−

(4.71) 2. Bei negativer Zeitverschiebung t0 < 0 ist die untere Integrationsschranke −t0 positiv. Durch Erweiterung des Integrals um den Integrationsbereich [0−, −t0 ] folgt über L{y(t − t0 )} = e−st0

Z∞

y(τ ) e−sτ dτ

−t0



= e−st0 

Z∞

 Z−t0 y(τ ) e−sτ dτ − y(τ ) e−sτ dτ 

0−

0−

die Laplace-Transformierte für negative Zeitverschiebungen:   Z−t0 L{y(t − t0 )} = e−st0 L{y(t)} − y(τ ) e−sτ dτ  ,

t0 < 0 .

0−

(4.72) 4.3.4.3

Verschiebung im Frequenzbereich

Ersetzt man in der Laplace-Transformierten Y (s) die Größe s durch s + b mit b ∈ C, so erhält man aus Gl. (4.58) den Dämpfungssatz der Laplace-Transformation: Z∞ Y (s + b) = y(t) e−(s + b)t dt = L{y(t) e−bt } . (4.73) 0−

Eine Dämpfung der Zeitfunktion y(t) mit der Exponentialfunktion e−bt erzeugt somit eine Verschiebung um b im Frequenzbereich. 4.3.4.4

Differentiation im Zeitbereich

Setzt man voraus, dass die Funktion y(t) für t > 0 differenzierbar ist, und dass die Laplace-Transformierte von y(t) ˙ existiert, dann ergibt sich durch partielle Integration die Differentiationsregel im Zeitbereich: L



dy(t) dt

Z∞

 =

h i∞ dy(t) −st e dt = y(t) e−st +s dt 0−

0−

= s Y (s) − y(0−) .

Z∞

0−

y(t) e−st dt

154

4 Zeitkontinuierliche Systeme

Durch wiederholtes Anwenden dieser Regel erhält man die Beziehung für höhere Ableitungen:  n  d y(t) L = sn Y (s) − sn−1 y(0−) − sn−2 y(0−) ˙ − · · · − y (n−1) (0−) . (4.74) dtn Diese Eigenschaft ist zur Laplace-Transformation einer Differentialgleichung wichtig. 4.3.4.5

Skalierung

Streckt oder staucht man die Zeitachse durch die Transformation t → at, a > 0, so ergibt sich über L{y(at)} =

Z∞

y(at) e−st dt =



at = τ a dt = dτ

0−



1 = a

Z∞

s

y(τ ) e− a τ dτ

0−

der Ähnlichkeitssatz der Laplace-Transformation für die skalierte Zeitachse: 1 s L{y(at)} = Y . a a 4.3.4.6

(4.75)

Faltung

Die Multiplikation zweier Funktionen im Zeitbereich entspricht der Faltung der beiden Laplace-Transformierten, wobei die Faltung im Frequenzbereich geeignet – d. h. unter Verwendung eines Vorfaktors – zu definieren ist. Man rechnet dazu:    c+j∞ d+j∞ Z Z 1  1  y1 (t) · y2 (t) =  Y1 (s1 ) e−s1 t ds1   Y2 (s2 ) e−s2 t ds2  2πj 2πj c−j∞

=

1 2πj

d−j∞



c+j∞ Z

 1 Y1 (s1 )  2πj

c−j∞

1 = 2πj



c+j∞ Z

 1 Y1 (s1 )  2πj

c+j∞ Z

1 2πj

d+j∞ Z

 Y2 (s − s1 ) e−st ds ds1

d+j∞ Z

Y1 (s1 ) Y2 (s − s1 ) e−st ds ds1

d−j∞

d+j∞ Z



 1 2πj

d−j∞

s = s1 + s2 ds = ds2 

d−j∞

c−j∞

1 = 2πj

 Y2 (s2 ) e−(s1 + s2 )t ds2  ds1

d−j∞

c−j∞

1 = 2πj



d+j∞ Z

c+j∞ Z



Y1 (s1 ) Y2 (s − s1 ) ds1  · e−st ds

c−j∞

155

4.3 Laplace-Transformation = L−1 {Y1 (s) ∗ Y2 (s)} .

Entsprechend lässt sich die Faltung zweier Funktionen im Zeitbereich als Multiplikation der beiden Laplace-Transformierten darstellen: L{y1 (t) ∗ y2 (t)} = Y1 (s) · Y2 (s) . 4.3.4.7

(4.76)

Grenzwertsätze

Die Grenzwertsätze der Laplace-Transformation ermöglichen eine vereinfachte Berechnung von Grenzwerten einer Funktion y(t) für t → 0 und t → ∞ aus den Grenzwerten von s Y (s). Da es sich bei den Laplace-Transformierten oft um verhältnismäßig einfache algebraische Funktionen handelt, sind die Grenzwerte im Frequenzbereich gelegentlich einfacher zu berechnen. 1. Anfangswertsatz Für n = 1 ergibt die Differentiationsregel (4.74) L



dy(t) dt

Z∞

 =

dy(t) −st e dt = s Y (s) − y(0−) . dt

0−

Betrachtet wird nun eine Funktion y(t), die einen Sprung der Höhe h bei t = 0 besitzt: y(t) = y˜(t) + h · σ(t) . Dabei bezeichnet y˜(t) die stetige Restfunktion ohne Sprung bei t = 0. Die Ableitung dieser Funktion ergibt dy(t) d˜ y (t) = + h · δ(t) . dt dt Lässt man s → ∞ gehen, wobei Re{s} → ∞ wesentlich ist, so folgt wegen e−st → 0 für t > 0 Z∞ lim

s→∞ 0−

Z∞ Z∞ dy(t) −st d˜ y (t) −st e dt = lim e dt + h · lim δ(t) e−st dt = h , s→∞ s→∞ dt dt 0− 0− | {z } | {z } →0

=1

falls die Laplace-Transformierte von y(t) ˙ existiert. Es folgt der Anfangswertsatz der Laplace-Transformation: lim s Y (s) = y(0−) + h = y(0+) ,

s→∞

(4.77)

wobei h die Sprunghöhe der Unstetigkeit an der Stelle t = 0 ist. Besitzt y(t) keine Unstetigkeit bei t = 0, so gilt h = 0 und y(0−) = y(0+).

156

4 Zeitkontinuierliche Systeme

2. Endwertsatz Lässt man dagegen s → 0 gehen, so erhält man wegen e−st → 1 und Z∞ lim

s→0 0−

dy(t) −st e dt = dt

Z∞

dy(t) dt = y(∞) − y(0−) dt

0−

= lim [s Y (s) − y(0−)] = lim s Y (s) − y(0−) s→0

s→0

den Endwertsatz der Laplace-Transformation: lim s Y (s) = y(∞) .

s→0

(4.78)

Hierbei wird vorausgesetzt, dass der Grenzwert y(∞) existiert und endlich ist [Doe76].

4.3.5

Rücktransformation

Ist für ein Problem die Lösung im Bildbereich ermittelt worden, so besteht in vielen Fällen die Aufgabe noch darin, die Lösung in den Zeitbereich zurückzutransformieren. Die theoretische Rücktransformation besteht in der Auswertung des komplexen Umkehrintegrals Gl. (4.69). Dies ist aber im Allgemeinen nicht einfach. Eine weitere Möglichkeit besteht in der Anwendung von Korrespondenztabellen. Damit kann die gesuchte Umkehrfunktion oft direkt einer Tabelle entnommen werden. Dabei muss die Bildfunktion durch einige Umformungen in Ausdrücke umgewandelt werden, die man in solchen Korrespondenztabellen wiederfindet. Im Folgenden wird die Rücktransformation über die Residuen und durch Partialbruchzerlegung vorgestellt. 4.3.5.1

Residuensatz

Die Bildfunktion Y (s) sei eine Laplace-Transformierte, die in der endlichen s-Ebene (sEbene ohne den Punkt ∞) als einzige Singularitäten Pole s1 , . . . , sM besitzt. Da Y (s) in der Halbebene rechts eines gewissen α ∈ R holomorph ist, liegen diese Pole sämtlich in der Halbebene links von α; vgl. Gl. (4.67). Weiterhin sei Y (s) eine gebrochen rationale Funktion der Form Y (s) = Z(s)/N (s) mit grad [Z(s)] < grad [N (s)]. Am Rande der Halbebene der absoluten Konvergenz des zu Y (s) gehörenden Laplace-Integrals werde nun eine Gerade g parallel zur komplexen Achse gelegt (vgl. Abbildung 4.7), welche den konstanten Realteil Re{g} = α besitzt. Von g ausgehend werden Kurven Hn , n = 1, 2, . . ., gezogen, die in α + jRn beginnen und in α − jRn enden. Dabei soll Rn eine Folge reeller Zahlen mit Rn → ∞ für n → ∞ bezeichnen. Die Endpunkte der Kurven Hn definieren ein Geradenstück gn der Geraden g, welches mit wachsendem n in die gesamte Gerade g übergeht. Bezeichnen wir nun die aus gn und Hn bestehende geschlossene Kurve mit Cn = gn + Hn ,

157

4.3 Laplace-Transformation f

s2 α s3

δ g2

H1

s4 H3

g1

s1

g3

H2

g

Abbildung 4.7: Zur Berechnung des komplexen Umkehrintegrals mit Re{s} > α.

dann sollen die Hn so gelegt werden, dass das Innere jeder Kurve Cn+1 außer dem Inneren der vorhergehenden Kurve Cn noch mindestens einen weiteren Pol umschließt. Falls Y (s) nur endlich viele Pole hat, ist diese Forderung hinfällig, sobald alle Pole von einem Cn umschlossen werden. Jedes weitere Cn soll dann ebenfalls sämtliche Pole einschließen. Nach dem Residuensatz Gl. (2.127) gilt nun für n ≥ M : 1 2πj

Z

Y (s) est ds =

M X

Res{Y (s) est ; sk } .

(4.79)

k=1

Cn

Da est in der endlichen Ebene überall holomorph ist, fallen die Pole von Y (s) est mit den Polen von Y (s) zusammen. Für Gl. (4.79) kann man auch 1 2πj

Z

1 Y (s) est ds + 2πj

gn

Z

Y (s) est ds =

M X

Res{Y (s) est ; sk }

(4.80)

k=1

Hn

schreiben. Lässt man nun n → ∞ streben, dann geht dabei [Föl80] Z 1 Y (s) est ds → 0 . 2πj Hn

Aus Gl. (4.80) folgt wegen gn → g die Formel für die Rücktransformation mit Hilfe des Residuensatzes: 1 y(t) = 2πj

α+j∞ Z

Y (s) est ds =

α−j∞

M X k=1

Res{Y (s) est ; sk } ,

t ≥ 0.

(4.81)

158

4 Zeitkontinuierliche Systeme

Die Rücktransformation mittels des Residuensatzes kannR man sich auch dadurch anschaulich machen, dass im Grenzübergang n → ∞ mit gn über ein abgeschlossenes Kreisringgebiet mit dem Punkt ∞ integriert wird. Die Vorgehensweise bei der Bestimmung der Originalfunktion mittels des Residuensatzes wird anhand eines Beispiels vorgeführt. Beispiel 4.82 (Residuensatz) Betrachtet man die Laplace-Transformierte Y (s) =

3s2 − 2s + 1 , s3 − s2 + s − 1

so berechnen sich die Nullstellen des Nennerpolynoms zu s∞1 = −j ,

s∞2 = j ,

s∞3 = 1 .

Mittels des Residuensatzes folgt nun 1 y(t) = 2πj

α+j∞ Z

Y (s) est ds =

3 X k=1

α−j∞

Res{Y (s) est ; s∞k } .

Hierbei ist α eine reelle Zahl, die so groß sei, dass der Konvergenzbereich von Y (s) die Gerade von α − j∞ bis α + j∞ umfasst. Mit der Berechnungformel (2.125) lassen sich die Residuen einfacher Polstellen durch Res{Y (s) est ; s } = lim (s − s ) Y (s) est ∞k

s→s∞k

∞k

berechnen. Somit ergibt sich für den Pol s∞1 = −j das Residuum Res{Y (s) est ; s∞1 } = lim (s + j)Y (s)est s→−j

3s2 − 2s + 1 st e s→−j (s − j)(s − 1) 3j2 + 2j + 1 −jt = e (−2j)(−j − 1) = 1 · e−jt . = lim

Analog berechnet man die Residuen Res{Y (s) est ; s∞2 } = ejt und Res{Y (s) est ; s∞3 } = et . Mit diesen folgt die Originalfunktion y(t) = e−jt + ejt + et = 2 cos(t) + et ,

t ≥ 0.



159

4.3 Laplace-Transformation 4.3.5.2

Partialbruchzerlegung

Für die Partialbruchzerlegung geht man bei der Laplace-Transformierten Y (s) von einer teilerfremden rationalen Funktion Y (s) =

Z(s) N (s)

mit grad [Z(s)] < grad [N (s)] aus. Das Nennerpolynom N (s) sei durch N (s) = q0 · (s − s1 )α1 . . . (s − sM )αM dargestellt. Für alle s ∈ C, für die N (s) 6= 0 gilt, kann die Bildfunktion Y (s) in Partialbrüche zerlegt werden: a11 a12 a1α1 + + ··· + 2 s − s1 (s − s1 ) (s − s1 )α1 a21 a22 a2α2 + + + ··· + 2 s − s2 (s − s2 ) (s − s2 )α2 .. . aM 1 aM 2 aM αM + + + ··· + . 2 s − sM (s − sM ) (s − sM )αM

Y (s) =

(4.83)

Hierbei sind die aij ,

i = 1, 2, . . . , M ,

j = 1, 2, . . . , αi ,

eindeutig bestimmte Konstanten. Die Koeffizienten aiαi bei der höchsten Nenner-Ordnung können durch aiαi = lim Y (s) · (s − si )αi , s→si

i = 1, 2, . . . , M ,

(4.84)

berechnet werden. Die anderen Koeffizienten ermittelt man z. B. durch Ausmultiplizieren und Koeffizientenvergleich, was auf ein lineares Gleichungssystem führt. Nach der Partialbruchzerlegung der Laplace-Transformierten Y (s) kann man diese mittels aij (s − si )j

•−◦

aij tj−1 esi t (j − 1)!

zurücktransformieren. Hierzu ein kleines Beispiel. Beispiel 4.86 (Partialbruchzerlegung) Die Laplace-Transformierte Y (s) =

3s2 − 2s + 1 s3 − s2 + s − 1

(4.85)

160

4 Zeitkontinuierliche Systeme

besitzt das Nennerpolynom N (s) = s3 − s2 + s − 1 = (s + j) · (s − j) · (s − 1) . Hieraus folgt mit dem Ansatz der Partialbruchzerlegung Y (s) =

a21 a31 a11 + + , s+j s−j s−1

und mit der Berechnung der einzelnen Koeffizienten: 3s2 − 2s + 1 a11 = =1 (s − j)(s − 1) s=−j 2 3s − 2s + 1 a21 = =1 (s + j)(s − 1) s=j 2 3s − 2s + 1 a31 = =1 (s + j)(s − j) s=1

die Partialbruchdarstellung der Laplace-Transformierten Y (s): Y (s) =

1 1 1 + + . s+j s−j s−1

Hieraus lässt sich nun die Rücktransformierte leicht ermitteln: y(t) = L−1 {Y (s)} n 1 o n 1 o n 1 o = L−1 + L−1 + L−1 s+j s−j s−1 −jt jt t =e +e +e , t≥0 = 2 cos(t) + et ,

t ≥ 0. •

Bemerkung 4.87 Die Ergänzung t ≥ 0 kann vermieden werden, indem aus den Korrespondenztabellen ein Term σ(t) mitgeführt wird. In diesem Fall lautet die vorletzte Zeile des vorherigen Beispiels:   y(t) = e−jt σ(t) + ejt σ(t) + et σ(t) = 2 cos(t) + et · σ(t) Das Mitführen des Ausdrucks σ(t) bei den weiteren Berechnungen ist zwar umständ• lich, jedoch oft hilfreich.

4.3.6

Anwendung bei der Systembeschreibung

Um den Rahmen dieses Buches nicht zu sprengen, sei für eine größere Menge an Anwendungen der Laplace-Transformation auf andere Quellen, wie z. B. [Föl80], verwiesen.

161

4.3 Laplace-Transformation

Hier wird das Ausgangssignal einer linearen Differentialgleichung betrachtet. Weiterhin wird die Zustandsraumdarstellung, wie sie in Abschnitt 4.2.1 eingeführt wurde, mit den durch die Laplace-Transformation zur Verfügung gestellten Methoden bearbeitet. 4.3.6.1

Lineare Differentialgleichung

Die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, dessen Verhalten durch eine lineare Differentialgleichung der Form (4.42) beschrieben wird, n X

aν ya(ν) (t) =

ν=0

m X

bµ ye(µ) (t) ,

µ=0

erhält man zu ( 0=L

m X

bµ ye(µ) (t)



µ=0

=

m X

bµ L{ye(µ) (t)} −

µ=0

n X ν=0 n X

) aν ya(ν) (t)

(4.88)

aν L{ya(ν) (t)} .

(4.89)

ν=0

Mit dem Differentiationssatz der Laplace-Transformation Gl. (4.74) und unter Beachtung der Tatsache, dass bei einem kausalen LTI-System die Funktionswerte und die Werte aller Ableitungen von ye (t) und ya (t) zum Zeitpunkt 0− verschwinden, folgt für die Ableitungen: L{ye(µ) (t)} = sµ Ye (s)

bzw.

L{ya(ν) (t)} = sν Ya (s) .

Hieraus folgt für die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, welches durch eine lineare Differentialgleichung beschrieben wird, über den Zwischenschritt 0=

m X

bµ sµ Ye (s) −

µ=0

n X

aν sν Ya (s)

ν=0

der Zusammenhang: m P

Ya (s) =

µ=0 n P

bµ sµ · Ye (s) .

(4.90)

aν sν

ν=0

Der in dieser Gleichung auftretende Bruch heißt Übertragungsfunktion des Systems – ein Begriff, der in Abschnitt 4.4 näher eingeführt und betrachtet wird.

162 4.3.6.2

4 Zeitkontinuierliche Systeme Laplace-Transformation der Zustandsdarstellung

Aus der Zustandsraumdarstellung Gl. (4.48) ˙ z(t) = A z(t) + B ye (t) , ya (t) = C z(t) + D ye (t)

(4.91) (4.92)

folgt mittels der Laplace-Transformation s Z(s) − z(t0 −) = A Z(s) + B Ye (s) , Ya (s) = C Z(s) + D Ye (s) . Geht man davon aus, dass sich das System vor der Anregung in Ruhe befand, so folgt z(t0 −) = 0 und somit mittels einfacher Rechnung Z(s) = (s I − A)−1 B Ye (s) und   Ya (s) = C (s I − A)−1 B + D Ye (s) . Somit erhält man mit der folgenden Definition G(s) = C (s I − A)−1 B + D

(4.93)

eine Gleichung für das Ausgangssignal: Ya (s) = G(s) Ye (s) .

(4.94)

Die Matrix G(s) wird dann in Anlehnung an die oben erwähnte Übertragungsfunktion als Übertragungsmatrix bezeichnet. Das Element Gij (s) in der i-ten Zeile und der j-ten Spalte entspricht der Übertragungsfunktion eines Systems, welches mit (ye (t))j angeregt wird und darauf mit (ya (t))i reagiert. Bemerkung 4.95 Da es sich bei der Gleichung ˙ z(t) = A z(t) + B ye (t)

(4.96)

um eine Differentialgleichung handelt, kann – sofern diese lösbar ist – eine Lösung berechnet werden. Hierbei bedient man sich der üblichen Vorgehensweise, indem man zuerst die Lösung der homogenen Gleichung ˙ z(t) = A z(t) berechnet und anschließend den Ansatz der Variation der Konstanten wählt. Hier soll lediglich die Lösung der Gleichung (4.96) angegeben werden; für eine Herleitung sei beispielsweise auf [Fli91] verwiesen.

163

4.4 Systemfunktion Die Lösung der Vektorgleichung (4.96) lässt sich mit Hilfe der Definition Φ(t) = eAt

(4.97)

als z(t) = eA(t − t0 ) z(t0 −) +

Zt

eA(t − τ ) B ye (τ ) dτ

t0 −

Zt = Φ(t − t0 ) z(t0 −) +

Φ(t − τ ) B ye (τ ) dτ

(4.98)

t0 −

berechnen. Als Ausgangssignal erhält man damit durch Einsetzen Zt ya (t) = C Φ(t − t0 ) z(t0 −) +

C Φ(t − τ ) B ye (τ ) dτ + D ye (t) . (4.99)

t0 −

4.3.7



Vergleich zwischen Laplace- und Fourier-Transformation

Zur Diskussion, welche Transformation nun besser ist, sei angemerkt, dass dies stark von der Anwendung abhängt. Die Laplace-Transformation ist für die analytische Behandlung kausaler Signale vorteilhaft. Sie kann ohne Beachtung einer Vielzahl von Regeln angewendet werden. Der Vorrat an konvergierenden Funktionen ist größer. Aufgrund der einfachen Lösung linearer Differentialgleichungen gemäß Gl. (4.90) wird die Laplace-Transformation zur Beschreibung des Übertragungsverhaltens von linearen Systemen angewendet. Die Fourier-Transformation vermittelt dem Ingenieur besser die Anschauung, dass ein Signal aus harmonischen Schwingungen zusammengesetzt ist. Alle leistungsfähigen numerischen Verfahren wie DFT und FFT gehen auf die Fourier-Transformierte zurück. Für weitere Aspekte und Eigenschaften der Fourier- und Laplace-Transformation wird auf [Fli91, Pap77, Föl80, Doe76, BS00, Ach85] verwiesen.

4.4

Systemfunktion

Bei LTI-Systemen entsteht das Ausgangssignal nach Gl. (4.26) als Faltung des Eingangssignals mit der Impulsantwort g(t) des Systems, ya (t) = g(t) ∗ ye (t) , das System wird also durch die Impulsantwort beschrieben. Führt man die LaplaceTransformation von Gl. (4.26) durch, so ergibt sich unter Beachtung des Faltungssatzes

164

4 Zeitkontinuierliche Systeme

der Laplace-Transformation die Bildfunktion des Ausgangssignals als Produkt der Bildfunktionen von Impulsantwort und Eingangssignal: Ya (s) = G(s) · Ye (s) . Das System ist durch die Laplace-Transformierte der Impulsantwort eindeutig beschrieben. Diese Laplace-Transformierte nennt man Systemfunktion oder auch Übertragungsfunktion G(s) des Systems. Sobald im Folgenden der Begriff der Impulsantwort oder der Übertragungsfunktion benutzt wird, ist dies auf ein LTI-System bezogen. Definition 4.100 (Systemfunktion, Übertragungsfunktion) Die Laplace-Transformierte G(s) der Impulsantwort (4.101)

g(t) = S{δ(t)} eines LTI-Systems S heißt Systemfunktion oder auch Übertragungsfunktion: Z∞

G(s) = L{g(t)} =

g(t) e−st dt .

(4.102)

0−

Bemerkung 4.103 Da die Systemfunktion eines Systems durch Anwendung der Laplace-Transformation berechnet wird, ist eine Rechnung mit Systemfunktionen nur unter Angabe von Konvergenzgebieten vollständig. Dies wird im Folgenden nicht immer durchgeführt, sondern es wird davon ausgegangen, dass man sich bei Berechnungen im Bildbereich innerhalb dieses Konvergenzgebietes befindet. Oft ergeben sich aus den zugrunde liegenden Voraussetzungen schon Forderungen an das Konvergenzgebiet. Beispielsweise wird gezeigt werden, dass ein stabiles, kausales, zeitkontinuierliches LTI-System nur Pole links der imaginären Achse besitzt. • In Abschnitt 4.3.6.1 wurde die Bildfunktion Ya (s) des Ausgangssignals ya (t) eines linearen Differentialgleichungssystems in Gl. (4.90) als Produkt einer gebrochen rationalen Funktion und der Bildfunktion Ye (s) des Eingangssignals ye (t) dargestellt: m P

Ya (s) =

bµ sµ

µ=0 n P

· Ye (s) . aν sν

ν=0

Diese gebrochen rationale Funktion ist die Übertragungsfunktion m P

G(s) =

µ=0 n P ν=0

bµ sµ = aν



Z(s) N (s)

(4.104)

165

4.4 Systemfunktion

des durch das lineare Differentialgleichungssystem beschriebenen LTI-Systems. In der Darstellung (4.104) heißen Z(s) das Zählerpolynom und N (s) das Nennerpolynom von G(s). Bemerkung 4.105 Aufgrund der bedingten Sprungfähigkeit technischer Systeme erfüllen reale Übertragungsfunktionen die Bedingung m ≤ n, d. h. Zählergrad ≤ Nennergrad. •

4.4.1

Pol- und Nullstellen

Aus der Funktionentheorie ist bekannt, dass es für gebrochen rationale Funktionen verschiedene Darstellungsformen gibt und jede dieser Formen unter bestimmten Voraussetzungen Vorteile besitzt. Wenn mit s0µ die Nullstellen des Zählerpolynoms Z(s), d. h. die Nullstellen der Übertragungsfunktion G(s), und mit s∞ν die Nullstellen des Nennerpolynoms N (s), d. h. die Polstellen der Übertragungsfunktion G(s), bezeichnet werden und mittels Normierung an = 1 gilt, kann die Übertragungsfunktion in Linearfaktoren von Zähler- und Nennerpolynom dargestellt werden: m Q

G(s) = G0 ·

(s − s0µ )

µ=1 n Q

,

(4.106)

m ≤ n.

(s − s∞ν )

ν=1

Mit Hilfe der Partialbruchzerlegung erhält man für m < n bei einfachen Polen die Übertragungsfunktion in Summendarstellung, G(s) =

n X

Aν , s − s∞ν ν=1

die man dann einfach zurücktransformieren kann: g(t) =

n X

Aν es∞ν t · σ(t) .

ν=1

Setzt man die Impulsantwort in die Bedingung für die Stabilität des LTI-Systems (4.37) ein, so folgt mit der Dreiecksungleichung folgende Abschätzung: Z∞ −∞

Z∞ X Z∞ n n X s t ∞ν |g(t)| dt = Aν e · σ(t) dt ≤ |Aν | es∞ν t dt . −∞

ν=1

ν=1

0

Die einzelnen Integrale konvergieren, wenn die Realteile der Polstellen s∞ν negativ sind. Dies ist die Stabilitätsbedingung für die Pole von LTI-Systemen.

166

4 Zeitkontinuierliche Systeme

Satz 4.107 (Stabilität) Ein kausales LTI-System S ist genau dann stabil, wenn alle Polstellen der Übertragungsfunktion G(s) in der offenen linken Halbebene liegen, d. h. die Bedingung (4.108)

Re{s∞ν } < 0 für alle ν erfüllt ist.



Diese Bedingung ist nicht mit der Konvergenzbedingung der Laplace-Transformation Re{s} > α zu verwechseln. Bemerkung 4.109 1. Im Fall mehrfacher Pole erhält man eine Darstellung der Form G(s) =

nν K X X ν=1 i=1

Aν,i , (s − s∞ν )i

(4.110)

wobei die Vielfachheit des Poles s∞ν durch nν gegeben ist. Transformiert man diese Ausdrücke in den Zeitbereich zurück, so erhält man die Zeitfunktion g(t) =

nν K X X Aν,i i−1 s∞ν t t e · σ(t) . (i − 1)! ν=1 i=1

Da bei Erfüllung der Bedingung Gl. (4.108) der exponentielle Term es∞ν t für t → ∞ „schneller“ gegen null strebt als der polynomiale Term ti−1 gegen ∞, konvergiert auch das Integral von |g(t)|. Somit ist die Bedingung (4.108) immer hinreichend für die Stabilität eines kausalen LTI-Systems. 2. Aus der Forderung (4.108) folgt insbesondere auch, dass ein stabiles, kausales LTI-System keinen Pol (d. h. keine Unendlichkeitsstelle) bei s = ∞ besitzen darf, woraus für die Übertragungsfunktion eines solchen Systems stets Zählergrad ≤ Nennergrad folgt. •

Definition 4.111 (Reellwertige Systeme) Ein kausales LTI-System, welches auf ein reelles Eingangssignal mit einem reellen Ausgangssignal antwortet, wird als reellwertig bezeichnet. Satz 4.112 (Reellwertige Systeme) Ein kausales LTI-System ist genau dann reellwertig, wenn für seine Übertragungsfunktion G∗ (s) = G(s∗ )

(4.113)

gilt. Somit sind für Pole und Nullstellen der Übertragungsfunktion stets auch die komplex konjugierten Größen Pole und Nullstellen. •

167

4.4 Systemfunktion Beweis: Bei einem LTI-System erhält man das Ausgangssignal durch die Faltung ya (t) = g(t) ∗ ye (t) .

Das Ausgangssignal eines reellen, kausalen LTI-Systems ist somit genau dann reellwertig, wenn die Impulsantwort g(t) reellwertig ist. Die konjugiert komplexe Übertragungsfunktion ist damit Z∞



G (s) =

∗ g(t) e−s t dt = G(s∗ ) .

0

Aufgrund dessen ist mit einem Pol s∞ν oder einer Nullstelle s0µ stets auch deren komplex konjugierte Größe ein Pol s∗∞ν bzw. eine Nullstelle s∗0µ .

Für ein reellwertiges System ergeben sich aus Gleichung (4.113) die Folgerungen |G(s)| = |G(s∗ )| , arg{G(s)} = − arg{G(s∗ )} .

(4.114) (4.115)

Wie in [Fli91] aufgeführt, ist somit die allgemeine Darstellung solch einer Übertragungsfunktion mit m0 Nullstellen in s = 0, m1 einfachen Nullstellen ungleich null, m2 komplexen Nullstellenpaaren, n0 Polstellen in s = 0, n1 einfachen Polstellen ungleich null und n2 komplexen Polstellenpaaren durch sm0 G(s) = G0 sn0

m Q1

(s − s0µ )

µ=1 n1 Q

(s − s∞ν )

ν=1

m Q2

|s

|

(s2 + s Q0µ + |s0µ |2 ) 0µ

µ=1 n2 Q ν=1

∞ν | 2 (s2 + s |s Q∞ν + |s∞ν | )

(4.116)

gegeben, wobei der Zählergrad m = m0 +m1 +2m2 und der Nennergrad n = n0 +n1 +2n2 sind. Die Parameter Q0µ und Q∞ν werden als Nullstellengüten bzw. Polstellengüten bezeichnet. Der Faktor G0 ergibt sich mittels Gleichung (4.104) als G0 =

bm . an

Da die Koeffizienten bµ und aν des Zähler- bzw. des Nennerpolynoms für reellwertige Systeme reell sind, ist somit der (Verstärkungs-)Faktor G0 für reellwertige LTI-Systeme eine reelle Größe. Bemerkung 4.117 Bei einem stabilen, reellen, kausalen LTI-System liegen die Pole der Übertragungsfunktion links der imaginären Achse. Nach Satz 4.38 erhält man den zugehörigen

168

4 Zeitkontinuierliche Systeme

x

x

x

x

Abbildung 4.8: Spiegelung der Pole einer Übertragungsfunktion G(s) am Ursprung.

Amplitudengang |G(f )| aus der Übertragungsfunktion G(s) durch Einsetzen von s = j2πf : |G(f )|2 = G(s) G∗ (s)|s=j2πf = G(s) G(s∗ )|s=j2πf .

(4.118)

Der Amplitudengang kann auch über die Beziehung |G(f )|2 = G(s) G(−s)|s=j2πf

(4.119)

berechnet werden, da bei s = j2πf der Realteil von s zu null gesetzt wird. Bei einem stabilen, reellen, kausalen LTI-System G(s) wird mit dem Übergang auf G(−s) ein instabiles, reelles, antikausales LTI-System erzeugt. Die Pole von G(−s) entstehen durch Negieren des Real- und des Imaginärteils der Pole von G(s). Dies entspricht einer Spiegelung der Pole am Ursprung der komplexen Ebene (vgl. Abbildung 4.8). Will man einem gewünschten Amplitudengang |G(f )|2 ein stabiles, reelles, kausales LTI-System G(s) zuordnen, so wählt man aus den Polen von G(s) G(−s) gerade die links der imaginären Achse liegenden Pole aus. • Bemerkung 4.120 Auch konjugiert komplexe Pole, wie sie in reellwertigen LTI-Systemen auftreten, führen bei der Stabilitätsbetrachtung auf dieselben Resultate wie in Gleichung (4.108). Hat man nämlich ein solches komplex konjugiertes Polpaar s∞ν1 und s∞ν2 = s∗∞ν1 , ν1 6= ν2 , vorliegen, so liest man aus Gl. (4.113) ab, dass die zugehörigen Koeffizienten in der Partialbruchentwicklung ebenfalls zueinander konjugiert sind, d. h. Aν2 = A∗ν1 . Somit erhält man nach der Rücktransformation Ausdrücke der Gestalt Z∞ |Aν1 | 0

es∞ν1 t dt + |A∗ν1 |

Z∞ 0

∗ es∞ν1 t dt = |Aν1 |

Z∞ 

 ∗ es∞ν1 t + es∞ν1 t dt .

0

Auch dieses Integral konvergiert genau dann, wenn Re{s∞ν1 } = Re{s∞ν2 } < 0 gilt. •

169

4.4 Systemfunktion

4.4.2

Verknüpfung von Systemfunktionen

Systeme setzen sich häufig aus vielen Teilsystemen zusammen, die ihrerseits wiederum aus weiteren Teilsystemen bestehen. Um den Aufbau eines Systems darzustellen, werden sogenannte Blockschaltbilder verwendet, die ein System darstellen, indem die Teilsysteme und deren Verknüpfungen innerhalb des Systems grafisch dargestellt werden. Die einfachsten Systeme bestehen aus einem Block, der elementare Operationen an dem Eingangssignal vornimmt. Als Beispiel hierzu dient beispielsweise ein Integrationsblock, der das Ausgangssignal integriert, oder ein Differentiationsblock, der das eingehende Signal differenziert. Eine Darstellung der wichtigsten Blockbilder findet man in Anhang D. Die Strukturdarstellung eines Systems, wie sie in Abschnitt 4.4.6 eingeführt wird, ist ein Spezialfall der Darstellung mittels Blockschaltbildern. Nun stellt sich die Frage, auf welche Weise Elementarblöcke und komplexe Systeme verknüpft werden. In diesem Abschnitt wird untersucht, wie sich die resultierende Übertragungsfunktion bei Verknüpfung einzelner Systeme zu einem Gesamtsystem ermitteln lässt. In Abbildung 4.9 werden die beiden Fälle Reihenschaltung und Parallelschaltung von Systemen dargestellt, mit deren Hilfe eine Aufgliederung in Teilsysteme oder eine Fusion zu einem Gesamtsystem beschrieben werden kann.

Abbildung 4.9: Verknüpfung von Systemen: Reihenschaltung (oben) und Parallelschaltung (unten).

Bei der Reihenschaltung bildet das Ausgangssignal ya1 (t) = g1 (t) ∗ ye (t) = S1 {ye (t)} des Systems S1 mit der Impulsantwort g1 (t) das Eingangssignal des Systems S2 mit der Impulsantwort g2 (t): ya (t) = g2 (t) ∗ ya1 (t) = g2 (t) ∗ (g1 (t) ∗ ye (t)) = S2 {S1 {ye (t)}} . Führt man diese Operation im Bildbereich durch, so ergibt sich die gesamte Übertragungsfunktion der beiden in Reihe geschalteten Systeme als Produkt ihrer einzelnen Übertragungsfunktionen: Ya1 (s) = G1 (s) · Ye (s) Ya (s) = G2 (s) · Ya1 (s) = G2 (s) · (G1 (s) · Ye (s)) = (G1 (s) · G2 (s)) · Ye (s) .

170

4 Zeitkontinuierliche Systeme

Satz 4.121 (Reihenschaltung von Systemen) Werden ein System S1 mit der Übertragungsfunktion G1 (s) und ein System S2 mit der Übertragungsfunktion G2 (s) in Reihe geschaltet, so ist die Gesamtübertragungsfunktion das Produkt der beiden einzelnen Übertragungsfunktionen: •

G(s) = G1 (s) · G2 (s) . Bei der Parallelschaltung erfolgt eine Addition der beiden Ausgangssignale: ya (t) = ya1 (t) + ya2 (t) = (g1 (t) ∗ ye (t)) + (g2 (t) ∗ ye (t)) .

Nach Transformation in den Bildbereich ergibt sich die Gesamtübertragungsfunktion als Summe der beiden einzelnen Übertragungsfunktionen Ya (s) = (G1 (s) · Ye (s)) + (G2 (s) · Ye (s)) = (G1 (s) + G2 (s)) · Ye (s) . Satz 4.122 (Parallelschaltung von Systemen) Werden bei gleichem Eingangssignal das Ausgangssignal ya1 (t) eines Systems S1 mit der Übertragungsfunktion G1 (s) und das Ausgangssignal ya2 (t) eines Systems S2 mit der Übertragungsfunktion G2 (s) addiert, so verhält sich das resultierende System wie ein System mit der Übertragungsfunktion G(s), die als Summe der beiden einzelnen Übertragungsfunktionen, G(s) = G1 (s) + G2 (s) , beschrieben wird.



Die Verknüpfung von Systemen wird an zwei Beispielen demonstriert. Beispiel 4.123 (Verknüpfung dreier Systeme) Die Systeme S1 , S2 und S3 werden wie in Abbildung 4.10 gezeigt verknüpft. Mit Hilfe der Verknüpfungsregeln ergibt sich sofort G(s) = G1 (s) · G2 (s) + G3 (s) als Übertragungsfunktion des Gesamtsystems.



Abbildung 4.10: Beispiel zur Verknüpfung dreier Systeme.

171

4.4 Systemfunktion

Abbildung 4.11: Beispiel zur Verknüpfung eines Systems mit Rückkopplung.

Beispiel 4.124 (Verknüpfung eines Systems mit Rückkopplung) Das System S1 wird, wie in Abbildung 4.11 gezeigt, über eine Rückkopplung verknüpft. Das Ausgangssignal ya (t) = g1 (t) ∗ ye1 (t) wird dabei über eine Rückkopplung zum Eingangssignal ye (t) addiert. Diese Summe ye1 (t) = ye (t) + ya (t) dient als Eingangssignal des Systems S1 . Transformiert man die beiden Gleichungen in den Bildbereich, Ya (s) = G1 (s) · Ye1 (s) Ye1 (s) = Ye (s) + Ya (s) , so erhält man die Übertragungsfunktion des gesamten Systems mit Rückkopplung wegen Ya (s) = G1 (s) · (Ye (s) + Ya (s)) zu G(s) =

4.4.3

G1 (s) . 1 − G1 (s)



Frequenzgang

Bereits in Satz 4.38 wurde die Fourier-Transformierte G(f ) der Impulsantwort g(t) eines LTI-Systems als Frequenzgang eingeführt. Sie ist gerade der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung ye (t) = A · ej2πf t angeregt wird. Da die Fourier-Transformierte eines Signals im Allgemeinen komplexwertig ist, interessieren für das Übertragungsverhalten von Schwingungen der Betrag und die Phase des Proportionalitätsfaktors. Mit dem Frequenzgang G(f ) = A(f ) · ejψ(f ) , der sich, falls die komplexe Achse im Konvergenzbereich der Laplace-Transformierten liegt, aus G(s) für s = j2πf ergibt, lassen sich nun Betrag und Phase angeben.

172

4 Zeitkontinuierliche Systeme

Definition 4.125 (Amplitudengang) Der Betrag des Frequenzgangs p A(f ) = |G(f )| = (Re{G(f )})2 + (Im{G(f )})2 wird als Amplitudengang bezeichnet. Er beschreibt betragsmäßig den Zusammenhang zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der Frequenz f angeregt wird.

Definition 4.126 (Dämpfung) Die Dämpfung eines Systems mit dem Frequenzgang G(f ) ist durch a(f ) = −20 log10 |G(f )| = −20 lg |G(f )| gegeben. Die Dämpfung wird in Dezibel (dB) angegeben. Sie beschreibt, wie stark die Amplitude eines Eingangssignals der Frequenz f beim Durchlauf durch das entsprechende System gedämpft wird, indem sie das Ein- und das Ausgangssignal in Beziehung setzt und diese Größe logarithmisch bewertet.

Beispiel 4.127 (Dämpfung) Eine Halbierung der Amplitude durch ein System, |G(f )| = 12 , entspricht einer Dämpfung von a(f ) = −20 lg 12 ≈ 6 dB. Eine Verstärkung des Eingangssignals um den Faktor 2, |G(f )| = 2, ergibt eine negative Dämpfung a(f ) = −6 dB. • Definition 4.128 (Phasengang, Phase) Der Winkel bzw. das Argument des komplexen Frequenzgangs     arctan Im{G(f )} Re{G(f )}   ψ(f ) = arg{G(f )} = 6 G(f ) = Im {G(f )}  arctan Re{G(f )} − π

für Re{G(f )} ≥ 0 für Re{G(f )} < 0

wird als Phasengang oder Phase bezeichnet. Er beschreibt die unterschiedliche Phase zwischen Ein- und Ausgangssignal eines Systems S, das mit einer komplexen Schwingung der Frequenz f angeregt wird. Bemerkung 4.129 1. Die Phase ist stets 2π-periodisch. Deshalb wird die Phase meist im Intervall von −π bis π dargestellt. Wird der Wert ±π unter- oder überschritten, resultiert dies in einem „Sprung“ der Phase. Dieser Sprung entsteht dann aber lediglich aufgrund der Darstellung und spiegelt keine Charakteristik des Systems wider.

173

4.4 Systemfunktion

2. Im Falle Re{G(f )} = 0 ergibt sich das Argument des Arkustangens zu Unendlich und somit die Phase zu ± π2 . Dies ist auch intuitiv klar, wenn man beachtet, dass die Bedingung Re{G(f )} = 0 gerade für rein imaginäre Zahlen erfüllt ist. 3. Bei der Definition 4.128 der Phase als Argument des Frequenzgangs entspricht eine negative Phase eines Systems einer Verzögerung des Eingangssignals (siehe Abschnitt 3.5.2.3). Diese Zuordnung erschwert zwar manchmal das ingenieur• mäßige Verständnis, hat sich aber in dieser Form weitgehend durchgesetzt. Neben Amplitude und Phase interessiert auch die Änderung der Phase im Verlauf der Frequenz. Hierzu betrachtet man die Gruppenlaufzeit. Definition 4.130 (Gruppenlaufzeit) Die Ableitung der Phase eines Systems nach der Frequenz τg (f ) = −

1 0 1 d ψ (f ) = − ψ(f ) 2π 2π df

bezeichnet man als Gruppenlaufzeit. Eine positive Gruppenlaufzeit entspricht einer mit der Frequenz abfallenden Phase. Durchläuft ein Signal ein System mit gegebener Gruppenlaufzeit, so kann jede Frequenzkomponente des Signals eine andere Laufzeit erfahren, vergleiche den Zeitverschiebungssatz der Fourier-Transformation in Abschnitt 3.5.2.3. Bemerkung 4.131 Ist ein System mit der Übertragungsfunktion G(s) gegeben, so berechnet sich der Frequenzgang über G(f ) = G(s = j2πf ). Das System wird nun mit einem Eingangssignal x(t) = s(t) exp(j2πf0 t) angeregt, welches durch Modulation eines sehr schmalbandigen Informationssignals s(t) auf eine Trägerfrequenz f0 entsteht. Aufgrund der vorausgesetzten Schmalbandigkeit um f0 ist G(f ) lediglich im schma∆f len Frequenzband [f0 − ∆f 2 , f0 + 2 ] der Breite ∆f interessant. Ist diese Breite ∆f hinreichend klein, so kann dort die Phase durch eine Gerade approximiert werden: ψ(f ) ≈ ψ0 − 2πτg (f0 )f ,

ψ0 = ψ(f0 ) .

(4.132)

Wird der Amplitudengang durch den Wert G(f0 ) approximiert, so ergibt sich für den Frequenzgang die Näherung G(f ) ≈ |G(f0 )| · ej(ψ0 − 2πτg (f0 )f ) . Für das Ausgangssignal folgt damit: Y (f ) = X(f ) · G(f )   = S(f ) ∗ δ(f − f0 ) · G(f ) ≈ S(f − f0 ) · |G(f0 )| · ej(ψ0 − 2πτg (f0 )f ) = |G(f0 )| ejψ0 · S(f − f0 ) · e−j2πτg (f0 )f .

174

4 Zeitkontinuierliche Systeme

Durch inverse Fourier-Transformation ergibt sich das Ausgangssignal im Zeitbereich: y(t) = |G(f )| ejψ0 s(t − τ (f )) exp(j2πf (t − τ (f ))) 0

g

0

0

g

0

= |G(f0 )| ejψ0 x(t − τg (f0 )) . Damit ist τg (f0 ) die Laufzeit, welche ein Signal mit Spektralanteilen nur bei einer • „Gruppe“ von Frequenzen um f0 beim Durchlauf durch das System benötigt. Bemerkung 4.133 Die obigen Betrachtungen sind nur durchführbar, falls die Approximation in Gleichung (4.132) möglich ist. Diese entspricht der Entwicklung der Phase in eine Art Taylor-Reihe und dem Abbruch der Entwicklung nach dem ersten Term. Somit ist auch die Interpretation der Gruppenlaufzeit als Durchlaufzeit bestimmter Frequenz• gruppen durch das System nur bedingt zulässig. Beispiel 4.134 (Konstante Gruppenlaufzeit) Ist τg (f ) konstant, so entspricht dies einem System mit einem linearen Phasenverlauf, wie in Abbildung 4.12 gezeigt ist. Die „Zacken“ in der Darstellung der Phase rühren, wie in Bemerkung 4.129 erwähnt, von der Konvention, die Phase immer im Bereich von −π bis π darzustellen. • Mit Gleichung (4.106) ist die Systemfunktion durch ihre Pol- und Nullstellen eindeutig festgelegt. Damit können auch der Amplituden- und Phasengang eines Systems durch die Pol- und Nullstellen beschrieben werden. Für die Bestimmung von Amplituden- und Phasengang wird die Systemfunktion G(s) an der Stelle j2πf m Q

G (s = j2πf ) = G0 ·

(j2πf − s0µ )

µ=1 n Q ν=1

(j2πf − s∞ν )

4

2

2

1

0

0

−2

−1

−4 −2

−1

0

1

2

−2 −2

−1

0

1

2

Abbildung 4.12: Darstellung eines Systems mit linearem Phasenverlauf und daraus resultierender konstanter Gruppenlaufzeit.

175

4.4 Systemfunktion

betrachtet. Dabei stellen j2πf − s∞ν und j2πf − s0µ die Differenzen zwischen dem Frequenzpunkt auf der imaginären Achse und den Pol- bzw. Nullstellen dar. Beschreibt man die komplexen Differenzen und die Konstante G0 in Polarkoordinaten, j2πf − s0µ = Nµ · ejβµ , j2πf − s∞ν = Pν · ejαν , G0 = C · ejγ ,

Nµ ≥ 0 , Pν ≥ 0 , C ≥ 0,

so erhält man die Systemfunktion an der Stelle j2πf

G (s = j2πf ) = C ·

m Y

Nµ ·

µ=1

n Y

jγ + j Pν−1 · e

m P

βµ − j

µ=1

n P

αν

ν=1

ν=1

in Polarkoordinatendarstellung. In Abbildung 4.13 sieht man ein Beispiel für eine Konstellation von zwei Pol- und zwei Nullstellen. Die Abstände der Pol- und Nullstellen sind durch Pν bzw. Nµ und die Winkel der Verbindungsgeraden zur Abzisse durch αν bzw. βµ gegeben. Hieraus folgen der Amplitudengang in Pol-Nullstellendarstellung A(f ) = |G (s = j2πf )| = C ·

m Y µ=1

Nµ ·

n Y

Pν−1

(4.135)

ν=1

und der Phasengang in Pol-Nullstellendarstellung: ψ(f ) = 6 |G (s = j2πf )| =

m X µ=1

βµ + γ −

n X

αν .

(4.136)

ν=1

Bemerkung 4.137 Mit ansteigender Ordnung des Systems (d. h. höherer Anzahl an Pol- und Nullstellen) verändert sich der Phasengang stärker über der Frequenz. Um diese Tatsache einzusehen, kann man sich die möglichen Verläufe von Polynomen der Ordnungen • 1, 2, 3 . . . in Erinnerung rufen.

Abbildung 4.13: Zusammenhang zwischen Pol-Nullstellendiagramm der Übertragungsfunktion und Frequenzgang.

176

4.4.4

4 Zeitkontinuierliche Systeme

Bode-Diagramm

Im vorigen Abschnitt wurde der Frequenzgang G(f ) = |G(f )| · ejψ(f ) eines Systems eingeführt. Das Bode-Diagramm dient zur grafischen Darstellung des Frequenzgangs getrennt nach Betrag und Phase. Dabei wird der Amplitudengang |G(f )| logarithmisch in Dezibel aufgetragen, 20 lg |G(f )| = −a(f ) , der Phasengang ψ(f ) dagegen linear. Dadurch ergeben sich Vorteile bei der Behandlung einer Reihenschaltung von Systemen G(f ) = G1 (f ) · G2 (f ), da in diesem Fall sowohl der logarithmierte Amplitudengang 20 lg |G(f )| = 20 lg |G1 (f )| + 20 lg |G2 (f )| des Gesamtsystems als auch die Gesamtphase ψ(f ) = ψ1 (f ) + ψ2 (f ) durch eine Addition der Beiträge der jeweiligen Teilsysteme angegeben werden können. Die Darstellung der beiden Komponenten des Frequenzgangs erfolgt als Funktion der logarithmierten Frequenz, wobei in der Literatur üblicherweise die Kreisfrequenz ω = 2πf als unabhängige Variable gewählt wird, d. h. man betrachtet G(ω) = G(2πf ). Aufgrund der logarithmischen Einteilung der Frequenzachse werden Frequenzintervalle oftmals in Dekaden oder in Oktaven angegeben. Eine Dekade bezeichnet dabei ein Intervall, dessen Grenzen sich um den Faktor zehn unterscheiden. Der Abstand zwischen zwei Frequenzen, die sich um den Faktor zwei unterscheiden, wird in Analogie zur Musik als eine Oktave bezeichnet. Nun stellt sich die Frage, wie Amplituden- und Phasengang konkret angegeben oder approximiert werden können. Die folgenden Betrachtungen skizzieren die Vorgehensweise und können ausführlich in [Fli91] nachgelesen werden. Approximation des Amplitudengangs. Verwendet man die Form (4.116) einer Übertragungsfunktion, so folgt für die Amplitude (in dB) nach kurzer Rechnung −a(f ) = 20 lg |G˜0 | + 20 (m0 − n0 ) lg |j2πf | m m P1 P )2 j2πf + 20 lg j2πf 20 lg (2πf s0µ − 1 + |s0µ |2 − Q0µ |s0µ | − 1 µ=1 1 +1 µ=m n1 n P P j2πf )2 j2πf − 20 lg s∞ν − 1 − 20 lg (2πf |s∞ν |2 − Q∞ν |s∞ν | − 1 , ν=1

ν=n1 +1

wobei m m Q1 Q |s0µ | · |s0µ |2 µ=1 µ=m1 +1 ˜ G0 = |G0 | · Q n1 n Q |s∞ν | · |s∞ν |2 ν=1

ν=n1 +1

177

4.4 Systemfunktion

gilt. Nun gilt es, die verschiedenen Terme zu untersuchen. Der Ausdruck 20 lg |G˜0 | ist über alle Frequenzen konstant und beschreibt eine Grundverstärkung. Der Term 20 (m0 − n0 ) lg |j2πf | entsteht durch die Pol- und Nullstellen im Ursprung und resultiert in einer Verstärkung der Steigung (m0 −n0 ) · 6 dB pro Oktave bzw. (m0 −n0 ) · 20 dB pro Dekade. Eine reelle Polstelle s∞ν = σ∞ν trägt zum Amplitudengang den Term 2πf −20 lg j − 1 σ∞ν bei. Für 2πf → 0 geht dieser Ausdruck gegen 0, während er für 2πf  |σ∞ν | gegen 2πf −20 lg σ∞ν geht, d. h. gegen eine Asymptote der Steigung −6 dB pro Oktave bzw. −20 dB pro Dekade, die bei 2πf = |σ∞ν | die 0 dB-Achse schneidet. Der Beitrag reeller Nullstellen zum Amplitudengang ist bis auf das Vorzeichen derselbe. Jetzt ist noch zu untersuchen, welchen Beitrag ein konjugiert komplexes Polstellenpaar leistet. Hierzu betrachten wir    2πf 2πf (2πf )2 2Re{s∞ν } −20 lg j −1 j ∗ − 1 = −20 lg 1 − − j2πf . s∞ν s∞ν |s∞ν |2 |s∞ν |2 Dies strebt ebenfalls gegen null, wenn 2πf gegen null geht. Im Übergang 2πf  |s∞ν | hingegen strebt der Amplitudenverlauf gegen eine Asymptote der Steigung −12 dB pro Oktave bzw. −40 dB pro Dekade, welche bei 2πf = |s∞ν | die 0 dB-Achse schneidet. Der Beitrag eines konjugiert komplexen Nullstellenpaares ist bis auf das Vorzeichen derselbe. Mittels obiger Herleitungen kann somit der Amplitudenverlauf eines Systems aus den Pol- und Nullstellen der Übertragungsfunktion durch Überlagerung von Geradenstücken entsprechend der jeweiligen Anteile approximiert werden. Approximation des Phasengangs. Ähnlich wie der Amplitudengang kann auch der Phasengang aus der Übertragungsfunktion ermittelt werden. Ausgehend von Gleichung (4.106) berechnet sich die Phase, wie bereits gezeigt, zu 

m Q

(j2πf − s0µ )





m Q

|j2πf − s0µ | ejβµ



    µ=1  = arg G0 µ=1  ψ(f ) = arg  n n G0 Q    Q jα (j2πf − s∞ν ) |j2πf − s∞ν | e ν ν=1 m X

= arg(G0 ) +

µ=1

ν=1

βµ −

n X

αν ,

ν=1

wobei die Winkel αν und βµ dem Pol-Nullstellenplan entnommen werden können und den Winkeln entsprechen, welche in mathematisch positiver Richtung von jω = j2πf und der Parallelen durch einen Pol bzw. eine Nullstelle eingeschlossen werden. An dieser Stelle wird auf die Approximation des Phasengangs jedoch nicht näher eingegangen, sondern auf [Fli91] verwiesen. Die entscheidende Idee liegt darin, die Anteile ähnlich zur Approximation des Amplitudenganges anzunähern.

178

4 Zeitkontinuierliche Systeme

Beispiel 4.138 (Bode-Diagramm des Amplitudengangs) Im folgenden Beispiel soll die Approximation des Amplitudenverlaufs eines Übertragungsgliedes mittels eines Bode-Diagrammes vorgeführt werden. Hierzu betrachten wir das System mit der Übertragungsfunktion G(s) = 0,1

(s + 1)(s2 + 2s + 4) . (s + 0,5)(s + 8)(s2 + 0,5 s + 1)

(4.139)

Die Nullstellen und Polstellen dieses Systems sind durch √ s01 = −1 , s02/3 = −1 ± j 3 bzw. s∞1 = −0,5 ,

s∞2 = −8 ,

s∞3/4

1 =− ±j 4

r

15 16

gegeben. Nach unseren Betrachtungen resultieren die Pol- bzw. Nullstellen dieser Übertragungsfunktion in folgenden Beiträgen zur Dämpfung: Bezeichnung g1 g2 h3 h4 h5 k6

Stelle |s01 | = 1 |s02 | = 2 |s∞1 | = 0,5 |s∞2 | = 8 |s∞3 | = 1 konst. Offset

Amplitudenverlauf 20 dB/Dekade 40 dB/Dekade −20 dB/Dekade −20 dB/Dekade −40 dB/Dekade −20 dB

Die „Halbgeraden“ beginnen auf der x-Achse an den Stellen der jeweiligen Nullstellenbzw. Pol-Beträge. Bei einer logarithmierten x-Achse beginnt somit die Halbgerade gµ bzw. hν an der Stelle lg(|s0µ |) bzw. lg(|s∞ν |). Zur Approximation des Amplitudenverlaufs müssen diese Halbgeraden additiv überlagert werden. Die Grundverstärkung G0 ist bedingt durch den Vorfaktor 0,1. In Abbildung 4.14 sind die approximierenden Geraden gemäß der Legende, der tatsächliche Amplitudenverlauf als graue Linie und der approximierte Amplitudenverlauf als schwarze Linie dargestellt. Es ist erkennbar, dass die Approximation in diesem Beispiel den Amplitudenverlauf nur näherungsweise nachzubilden vermag. Um einen exakten Verlauf zu erhalten, ist es unumgänglich, diesen zu berechnen. •

4.4.5

Minimalphasensystem und Allpass

Je nach Lage der Pole s∞ν relativ zur imaginären Achse unterscheidet man zwischen stabilen und instabilen Systemen. Bei stabilen Systemen liegen die Pole in der linken Halbebene. Bewertet man die Nullstellen s0µ von Übertragungsfunktionen ebenfalls nach ihrer Lage relativ zur imaginären Achse, so erhält man als neue Klassen von Systemfunktionen die Minimalphasensysteme und die Allpässe. Im Folgenden wird gezeigt, dass sich jede Systemfunktion in einen Minimalphasen- und einen Allpassanteil zerlegen lässt. Hierzu werden zunächst die Begriffe Allpass und Minimalphasensystem definiert.

179

4.4 Systemfunktion 20 10 0 −10 −20 −30 −40 −50 −60 −1 10

0

1

10

10

2

10

Abbildung 4.14: Approximierter (grau) und tatsächlicher (schwarz) Amplitudenverlauf des Systems mit der Übertragungsfunktion (4.139) sowie approximierende Elementarausdrücke.

Definition 4.140 (Allpass) Ein System mit gebrochen rationaler Übertragungsfunktion, dessen Amplitudengang A(f ) für alle Frequenzen gleich eins ist, d. h. die Bedingung A(f ) = |G(f )| = 1 ,

f ∈ R,

erfüllt, heißt Allpass. Für solche Systeme ist zwangsläufig der Zählergrad gleich dem Nennergrad, und es dürfen keine Pol- oder Nullstellen auf der imaginären Achse liegen. Aus der Forderung nach einem konstanten Amplitudengang A(f ) = 1 folgt m Q

|G(f )|2 =

|j2πf − s0µ |2

µ=1 n Q ν=1

!

= 1.

|j2πf − s∞ν |2

Um Triviallösungen auszuschließen, fordern wir s0µ 6= s∞ν , µ = ν. Der Betrag des Zählers ist gleich dem Betrag des Nenners, wenn s0µ = −s∗∞ν ,

µ=ν,

180

4 Zeitkontinuierliche Systeme

gewählt wird. Durch Einsetzen wird dies verifiziert: n Q

|G(f )|2 =

ν=1 n Q ν=1

|j2πf + s∗∞ν |2 |j2πf − s∞ν |2

n Q

=

| − j2πf − s∗∞ν |2

ν=1 n Q

ν=1

= 1.

|j2πf − s∞ν |2

Die Zählerterme sind konjugiert komplex zu den Nennertermen. Die Beträge beider sind jeweils gleich. Bei reellwertigen Systemen liegen immer zueinander konjugiert komplexe Pol- und Nullstellen vor. Man erreicht den konstanten Amplitudengang des Allpasses deshalb für s0µ = −s∞ν ,

µ=ν.

Die Nullstellen erhält man dann durch Spiegelung der Polstellen am Ursprung. Satz 4.141 (Reellwertiger Allpass) Ein reellwertiges System ist genau dann ein Allpass, wenn die Pol- und Nullstellen der Übertragungsfunktion G(s) die Bedingungen m = n und s0µ = −s∞ν ,

µ, ν = 1, . . . , m ,

µ=ν

erfüllen. Da bei stabilen Systemen die Polstellen links der imaginären Achse liegen, müssen die Nullstellen eines Allpasses rechts der imaginären Achse liegen. Die Übertragungsfunktion GA (s) des Allpasses ist somit: GA (s) = (−1)n

N (−s) . N (s)



Definition 4.142 (Minimalphasensystem) Ein stabiles System S mit gebrochen rationaler Übertragungsfunktion heißt Minimalphasensystem, wenn die Nullstellen s0µ seiner Übertragungsfunktion GM (s) =

Z(s) N (s)

in der linken Halbebene liegen, d. h. wenn sie die folgende Bedingung erfüllen: Re{s0µ } ≤ 0 .

Satz 4.143 (Zerlegung kausaler LTI-Systeme) Jedes kausale LTI-System lässt sich in ein Minimalphasensystem und einen Allpass aufspalten. •

181

4.4 Systemfunktion

Abbildung 4.15: Zerlegung eines kausalen LTI-Systems in ein Minimalphasensystem und einen Allpass.

Beweis: Zum Beweis wird ein System mit einer Übertragungsfunktion G(s) betrachtet, deren Zählerpolynom Z(s) auch Nullstellen in der rechten Halbebene besitzt. Dann zerlegt man Z(s) gemäß Z(s) = Z1 (s) · Z2 (s) in zwei Teilpolynome Z1 (s)

=

Z2 (s) =

m Q1

(s − s0µ ) ,

µ=1 m Q

(s − s0µ ) ,

Re{s0µ } ≤ 0 ,

µ = 1, . . . , m1 ,

Re{s0µ } > 0 ,

µ = m1 + 1, . . . , m ,

µ=m1 +1

die jeweils nur Nullstellen in der abgeschlossenen linken bzw. offenen rechten Halbebene besitzen. Durch Erweiterung der Übertragungsfunktion mit Z2 (−s) gemäß G(s) =

Z(s) Z1 (s) · Z2 (−s) Z2 (s) = (−1)m−m1 · (−1)m−m1 N (s) N (s) Z2 (−s) | {z } | {z } =GM (s)

=GA (s)

ergibt sich die Zusammensetzung der Übertragungsfunktion aus einem Minimalphasensystem GM (s), das nur noch Nullstellen in der linken Halbebene besitzt, und einem Allpass GA (s) (vgl. Abbildung 4.15). Die charakteristische Eigenschaft eines Minimalphasensystems wird durch den folgenden Satz beschrieben. Durch diese Eigenschaft begründet sich die Wahl des Namens für ein System mit Nullstellen ausschließlich in der linken Halbebene. Satz 4.144 (Minimalphasensysteme) Minimalphasensysteme besitzen die Eigenschaft, für einen gegebenen Amplitudenverlauf A(f ) die kleinstmögliche Gruppenlaufzeit zu besitzen.

182

4 Zeitkontinuierliche Systeme

Für reellwertige Systeme ist damit auch der absolute Phasenhub über alle Frequenzen, d. h. von f = −∞ bis f = +∞, bei Verwendung eines Minimalphasensystems minimal. • Beweis: Sei G(s) die reellwertige Übertragungsfunktion eines stabilen, nicht minimalphasigen Systems. Das System wird in ein Minimalphasensystem GM (s) und einen Allpass GA (s) zerlegt: G(s) = GM (s) ·

n Y s + s∞ν , s − s∞ν ν=1 | {z }

Re{s∞ν } < 0 .

GA (s)

Zur Einhaltung der Stabilität des Allpasses gilt s∞ν = −αν + j2πfν ,

αν > 0 .

Die Phase eines Faktors s + s∞ν Gν (s) = s − s∞ν erhält man wegen

ejψν (f ) =

j2πf + (−αν + j2πfν ) −αν + j2π(f + fν ) = j2πf − (−αν + j2πfν ) αν + j2π(f − fν )

nach Gleichung (4.136) zu  ψν (f ) = arctan

2π(f + fν ) −αν



 − arctan

2π(f − fν ) αν

 ,

was zur Gesamtphase ψA (f ) =

n X

ψν (f )

ν=1

des Allpasses GA (s) führt. Die Gruppenlaufzeiten 1 d τgA (f ) = − ψν (f ) 2π df   1 1 = αν + 2 >0 αν2 + 4π 2 (f + fν )2 αν + 4π 2 (f − fν )2 sind positiv, da der Realteil αν > 0 positiv angesetzt war. Somit ist die Gesamtphase ψA (f ) des Allpasses monoton fallend und dessen Gruppenlaufzeit positiv. Aus ψ(f ) = ψM (f ) + ψA (f ) folgt für die Gruppenlaufzeit des Gesamtsystems τg (f ) = τgM (f ) + τgA (f ) ≥ τgM (f ) . Es lässt sich also sagen, dass von allen Systemen mit gleichem Amplitudenverlauf die minimalphasigen die kleinste Gruppenlaufzeit τgM (f ) besitzen.

183

4.4 Systemfunktion

Für reellwertige Systeme ist der Phasenverlauf nach Gleichung (4.115) schiefsymmetrisch, geht also durch den Ursprung. Für reellwertige Systeme ist deshalb auch die absolute Phase |ψ(f )| bei einem Minimalphasensystem minimal.

4.4.6

Strukturdarstellung kontinuierlicher LTI-Systeme

Nach Gleichung (4.104) ist die allgemeine Form einer Übertragungsfunktion durch m P

G(s) =

µ=0 n P

bµ sµ (4.145) aν



ν=0

gegeben. Anhand dieser Übertragungsfunktion werden LTI-Systeme in verschiedene Klassen eingeteilt. Zur Visualisierung solch eines Systems wird die Übertragungsfunktion in eine Darstellung überführt, die dem Betrachter auf naheliegende Weise die Vorgänge im System veranschaulicht. Hierzu verwandelt man die Gleichung (4.145) in ein Strukturbild. Je nach Art des Systems ergeben sich verschiedene Darstellungen. Definition 4.146 (ARMA-Filter) Ein ARMA-Filter ist dadurch charakterisiert, dass die Übertragungsfunktion sowohl aus einem Zähler- als auch einem Nennerpolynom besteht, und stellt die allgemeine Form eines gebrochen rationalen Übertragungsgliedes dar. Die Übertragungsfunktion ist durch Gl. (4.145) gegeben. Um die Strukturdarstellung des Systems zu erhalten, betrachten wir noch einmal die Übertragungsfunktion des Systems. Damit bei der Darstellung für ya (t) und ye (t) die gleiche Anzahl von Zweigen vorliegt, wählt man M = max{n, m}, ergänzt das Polynom niedrigeren Grades um Potenzen von s mit den Koeffizienten null und erhält somit M P

G(s) =

bµ sµ

µ=0 M P

(4.147)

. aν sν

ν=0

Dies lässt sich bei verschwindenden Anfangswerten über die inverse Laplace-Transformation in die folgende Differentialgleichung umwandeln: M X ν=0

aν ya(ν) (t) =

M X

bµ ye(µ) (t) .

µ=0

Hierzu müssen die Anfangswerte des Systems zu null angenommen werden, d. h. das System muss sich zum Zeitpunkt t = 0 in Ruhe befinden.

184

4 Zeitkontinuierliche Systeme

Abbildung 4.16: Struktur eines ARMA-Filters.

Integrieren wir nun, ohne Beachtung mathematisch exakter Notation, beide Seiten M mal, so erhalten wir Z Z Z aM ya (t) + aM −1 ya (t) + · · · + a0 . . . ya (t) | {z } M -mal Z Z Z = bM ye (t) + bM −1 ye (t) + · · · + b0 . . . ye (t) . (4.148) | {z } M -mal

Die Integration wird durch ein Quadrat mit eingezeichneter Diagonale visualisiert. Für die Darstellung der Strukturen normieren wir die Koeffizienten der Übertragungsfunktion noch auf aM = 1, was eine einfachere Darstellung ermöglicht. Abbildung 4.16 stellt die Struktur eines ARMA-Filters dar. Man erkennt, wie das Zähler- und das Nennerpolynom bzw. die Gleichung (4.148) in die Darstellung eingehen. Das Zählerpolynom ist in den linken Zweigen der Darstellung enthalten und sorgt dafür, dass neben dem Eingangssignal auch dessen Ableitungen auf das Ausgangssignal einwirken. Das Nennerpolynom repräsentiert die rekursive Komponente des Systems und koppelt das Ausgangssignal zurück. Wirkt das Eingangssignal nur direkt auf das Ausgangssignal ein, d. h. spielen seine Ableitungen keine Rolle, während Rückkopplungen des Ausgangssignals auftreten, so entsteht Abbildung 4.17. Diese Struktur nennt man AR-Filter. Man erkennt an dieser Zeichnung die Zweige, die das Ausgangssignal zurückkoppeln und somit für das Nennerpolynom verantwortlich sind.

185

4.4 Systemfunktion Definition 4.149 (AR-Filter)

Als AR-Filter (engl.: auto-regressive) wird ein System bezeichnet, bei dem sich die Übertragungsfunktion G(s) wie folgt angeben lässt: G(s) =

bM sM . M P aν sν ν=0

Bei einem MA-Filter sind keine Rückkopplungen des Ausgangs vorhanden. Das Ausgangssignal wird aus dem Eingangssignal und integrierten Eingangssignalen aufgebaut. Somit stellt das Ausgangssignal eine Mittelung über das Eingangssignal dar. Definition 4.150 (MA-Filter) Ein System wird MA-Filter (engl.: moving average) genannt, falls es die Übertragungsfunktion m P

G(s) =

bµ sµ

µ=0

aM sM

besitzt. Es ergibt sich die in Abbildung 4.18 dargestellte Struktur.

Abbildung 4.17: Struktur eines AR-Filters.

186

4 Zeitkontinuierliche Systeme

4.5

Filterung mit Fensterfunktionen

In Abschnitt 3.7.1 wurde bereits der Begriff der Fensterfunktion eingeführt, die einer Multiplikation im Zeitbereich und einer Faltung im Bildbereich entspricht. Dieser Begriff wird hier genauer spezifiziert. Definition 4.151 (Fensterfunktion) Eine Fensterfunktion w(t) ist eine Funktion, die mit einem Signal y(t) multipliziert wird und folgende Charakteristika aufweist: • Die Energie konzentriert sich in einem endlichen Zeitraum, welcher ein Vielfaches der Zeitdauer ∆t beträgt. • Die Fensterfunktion ist bei geeigneter Verschiebung eine zur y-Achse symmetrische Funktion. Hieraus entsteht das gefensterte Signal yw (t) = y(t) · w(t) .

(4.152)

Die Verwendung einer Fensterfunktion ist mit der allgemeinen Systemgleichung, die ein System mittels eines Operators darstellt, beschreibbar, yw (t) = S{y(t)} , da das Eingangssignal y(t) in das gefensterte Ausgangssignal yw (t) überführt wird.

Abbildung 4.18: Struktur eines MA-Filters.

187

4.6 Frequenzselektive Filter Die Fourier-Transformierte eines gefensterten Signals yw (t), Z∞ Yw (f ) = −∞

yw (t) e−j2πf t dt =

Z∞

y(t) · w(t) e−j2πf t dt ,

−∞

lässt sich mit der Korrespondenz zwischen Multiplikation und Faltung deutlich vereinfachen: Yw (f ) = F{y(t) · w(t)} = Y (f ) ∗ W (f ) .

(4.153)

Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) entspricht also der Faltung zwischen der Fourier-Transformierten Y (f ) des Originalsignals y(t) mit der Fourier-Transformierten W (f ) der Fensterfunktion w(t). Das Spektrum Yw (f ) des gefensterten Signals ist gegenüber dem nicht gefensterten Spektrum Y (f ) verfälscht. Die Fourier-Transformierte Yw (f ) des gefensterten Signals yw (t) muss der FourierTransformierten Y (f ) des Originalsignals y(t) entsprechen, wenn das Fenster w(t) ≡ 1 verwendet wurde. Das Fenster w(t)≡1 besitzt die Fourier-Transformierte W (f ) = δ(f ), und bei der Faltung einer Funktion mit dem Dirac-Impuls ist das Ergebnis die Funktion selbst. Die Tatsache, dass bei unendlich breitem Zeitfenster das dazugehörige Spektrum infinitesimal schmal ist, ergibt sich aus dem Zeitdauer-Bandbreite-Produkt (3.207). Im Zusammenhang mit dem Zeitdauer-Bandbreite-Produkt hatten wir den Gauß-Impuls r 2 2 π − (πf ) −at a w(t) = e ◦−• W (f ) = e (4.154) a als die Funktion mit dem kleinsten Zeitdauer-Bandbreite-Produkt kennengelernt. Somit ist also zu erwarten, dass bei Verwendung des Gauß-Impulses als Fensterfunktion die Signalanalyse effektiver ausfällt, da die Auswirkung des Leckeffekts auf die FourierTransformierte minimiert wird. Trotz der Fensterung im Zeitbereich wird die FourierTransformierte insgesamt weniger verfälscht als z. B. bei einer Fensterung mit einem Rechteckfenster. Zur Veranschaulichung wird das aus zwei harmonischen Schwingungen zusammengesetzte Signal aus Abbildung 3.20 statt mit einem Rechteckfenster mit dem Gauß-Impuls gleicher Zeitdauer gefenstert. Das Ergebnis ist in Abbildung 4.19 (Mitte) dargestellt. Wird nun dieser Gauß-Impuls gleicher Zeitdauer zusätzlich noch mit einem Rechteckfenster multipliziert, so wird dessen Spektrum etwas stärker verfälscht. Das Resultat ist ebenfalls in Abbildung 4.19 (unten) zu sehen. Man erkennt deutlich, dass die resultierende Fourier-Transformierte viel weniger verschmiert ist, als bei ausschließlicher Verwendung des Rechteckfensters. Die zweite harmonische Schwingung mit der kleineren Amplitude ist jetzt deutlich zu erkennen.

4.6

Frequenzselektive Filter

Frequenzselektive Filter haben die Aufgabe, bestimmte Frequenzen eines Signals möglichst unbeeinflusst zu lassen und andere vollständig zu unterdrücken. Sie werden eingeteilt in Tiefpass-, Hochpass- und Bandpass-Filter – je nachdem, welche Frequenzen

188

4 Zeitkontinuierliche Systeme

ausgeblendet werden sollen. Idealerweise besitzen sie einen Amplitudengang, der im Durchlassbereich den Wert eins und im Sperrbereich den Wert null besitzt. Abbildung 4.20 zeigt die Amplitudengänge idealer Tiefpass-, Hochpass-, Bandpass-Filter sowie einer idealen Bandsperre. Soll ein frequenzselektives Filter als LTI-System realisiert werden, ist die Übertragungsfunktion gebrochen rational. Offensichtlich können jedoch solche idealen Verläufe, wie sie in Abbildung 4.20 dargestellt sind, mit gebrochen rationalen Funktionen nicht erreicht werden und somit solche idealen frequenzselektiven Filter nicht als LTI-Systeme realisiert werden. Dies lässt sich mittels des Riemann-Lebesgue’schen-Lemmas zeigen. Aufgrund der durch eine unendlich steile Flanke begrenzten Übertragungsfunktion ist die dazugehörige Zeitfunktion – die Impulsantwort – nicht zeitbegrenzt. Ein Filter mit solch einer Impulsantwort ist natürlich nicht realisierbar, da ein Signal stets auf einen endlichen Zeitraum begrenzt ist. Der Frequenzgang eines idealen Filters kann also nur approximiert werden. Die Abweichungen vom gewünschten Verhalten werden in einem Toleranzschema zusammengestellt. Abbildung 4.21 stellt solche Toleranzschemata dar. Die zugelassenen Abweichungen vom idealen Amplitudengang im Durchlass- und im Sperrbereich sind δD bzw. δS . Die Grenzen des Durchlass- bzw. Sperrbereiches sind durch fD bzw. fS gekennzeichnet.

Abbildung 4.19: Ungefensterte (oben) und gefensterte (Mitte, unten) harmonische Schwingungen und zugehörige Spektren.

4.6 Frequenzselektive Filter

189

Für den Entwurf frequenzselektiver Filter wird eine auf die Durchlassfrequenz fD normierte Frequenzachse f0 =

f fD

benutzt. Der Entwurf findet dann im f 0 -Bereich statt. Die dort gefundene Übertragungsfunktion G0 (j2πf 0 ) wird anschließend durch die Substitution   f G(j2πf ) = G0 j2π (4.155) fD zurücktransformiert.

4.6.1

Filtertransformation

Mit Hilfe von Filtertransformationen gelingt es, Tiefpässe, Hochpässe und Bandpässe auf normierte Tiefpässe abzubilden. Der Entwurf einer Bandsperre kann durch Entwurf eines Bandpasses und eines Filters mit der Übertragungsfunktion G(f ) = 1 realisiert werden. Damit wird der Entwurf für alle diese Filtertypen auf den Entwurf normierter Tiefpässe zurückgeführt. Satz 4.156 (Tiefpass – Tiefpass) Mit Hilfe der Tiefpass-Tiefpass-Transformation f0 =

f fD

Abbildung 4.20: Amplitudengänge idealer frequenzselektiver Filter.

190

4 Zeitkontinuierliche Systeme

Abbildung 4.21: Toleranzschemata für die Amplitudengänge frequenzselektiver Filter.

erhält man aus einem Tiefpass mit gegebener Durchlassfrequenz fD einen normierten Tiefpass mit fD0 = 1. • Satz 4.157 (Hochpass – Tiefpass) Mit Hilfe der Hochpass-Tiefpass-Transformation f0 =

fD f

erhält man aus einem Hochpass einen normierten Tiefpass und bildet dabei die Durchlassgrenze f = fD auf fD0 = 1 ab. • Satz 4.158 (Bandpass – Tiefpass) Mit Hilfe der Bandpass-Tiefpass-Transformation f0 =

f 2 − fD f−D (fD − f−D )f

erhält man aus einem symmetrischen Bandpass einen normierten Tiefpass. Dies gilt für symmetrische Bandpässe, d. h. wenn die Bedingung fD f−D = fS f−S erfüllt ist.



191

4.6 Frequenzselektive Filter Bemerkung 4.159

Bei symmetrischen Bandpässen handelt es sich nicht um die der Vorstellung entsprechende Interpretation der Symmetrie. Vielmehr ist die geforderte Symmetrie auf die Bedürfnisse zur Transformation auf einen normierten Tiefpass angepasst. Exemplarisch sollen zur Verdeutlichung die „Bildfrequenzen“ von fD und fS berechnet werden: f 2 − fD f−D fD (fD − f−D ) fD0 = D = = 1, (fD − f−D )fD (fD − f−D )fD f 2 − fD f−D fS (fS − f−S ) fS − f−S fS0 = S = = . (fD − f−D )fS (fD − f−D )fS fD − f−D • Die normierte Sperrfrequenz ist offensichtlich größer als 1. Die Filtertransformationen bilden also die Toleranzschemata der verschiedenen Filtertypen auf das Toleranzschema des normierten Tiefpasses ab, welches in Abbildung 4.22 dargestellt ist.

Abbildung 4.22: Toleranzschema für den Amplitudengang eines normierten Tiefpasses.

4.6.2

Entwurf normierter Tiefpässe

In diesem Abschnitt werden Standardverfahren zum Entwurf normierter Tiefpässe behandelt. Die Aufgabe besteht letztlich darin, Funktionen zu finden, die einem Toleranzschema der in Abbildung 4.22 dargestellten Form genügen. Zur Lösung der Aufgabe wird der Ansatz A2 (f 0 ) = |G0 (s0 = j2πf 0 )|2 =

1 , 1 + ε2 |D(f 0 )|2

(4.160)

ε∈R

mit einer geeignet zu wählenden Funktion D(f 0 ) gemacht. Da ε quadratisch eingeht, kann ab sofort ε > 0 angenommen werden. Statt |G0 (s0 = j2πf 0 )|2 verwendet man auch die Darstellung für das Betragsquadrat der Übertragungsfunktion für reellwertige Systeme nach Gleichung (4.119) 0 0 0 0 0 0 0 0 2 0 Q(s ) = G (s ) · G (−s ) =⇒ |G (s = j2πf )| = Q(s ) , 0 0 s =j2πf

deren Pole (und auch die Nullstellen) punktsymmetrisch zum Ursprung sowohl in der rechten als auch in der linken Halbebene liegen. Hat man einen entsprechenden Ampli-

192

4 Zeitkontinuierliche Systeme

tudengang A(f ) gefunden, so lässt sich die Übertragungsfunktion Q(s0 ) durch 0 2 0 Q(s ) = A (f ) = G0 (s0 ) · G0 (−s0 ) 0 s0 f = j2π

bestimmen. Für die Übertragungsfunktion G0 (s0 ) sucht man sich die Pole der Übertragungsfunktion Q(s0 ) aus, die ein stabiles und somit ein realisierbares System darstellen, also die Pole in der linken Halbebene. Aus (4.160) folgt sofort p 1 − A2 (f 0 ) ε |D(f )| = , A(f 0 ) 0

(4.161)

woraus deutlich wird, dass stets A(f 0 ) ≤ 1 bleiben muss. Aus dem Toleranzschema, wie es in Abbildung 4.22 dargestellt ist, ergeben sich die folgenden Forderungen für den Durchlass- und Sperrbereich: A(f 0 ) ≥ 1 − δD , A(f 0 ) ≤ δS ,

0 ≤ f0 ≤ 1 , f 0 ≥ fS0 .

(4.162)

Nach Gl. (4.161) werden diese Forderungen eingehalten, wenn die Bedingungen p 2 2δD − δD ∆D = ≥ ε|D(f 0 )| , 0 ≤ f0 ≤ 1 (4.163) 1 − δD und p 1 − δS2 ∆S = ≤ ε|D(f 0 )| , δS

f 0 ≥ fS0

(4.164)

erfüllt sind. Die Lösung der Entwurfsaufgabe besteht darin, unter den beiden Bedingungen (4.163) und (4.164) eine Konstante ε und eine Funktion D(f 0 ) so zu bestimmen, dass aus der Funktion A2 (f 0 ) eine gebrochen rationale Übertragungsfunktion G0 (s0 ) mit |G0 (s0 = j2πf 0 )| = A(f 0 ) gewonnen werden kann, die einen kleinstmöglichen Grad besitzt und ein realisierbares zeitkontinuierliches Filter beschreibt. Hierfür sind verschiedene Ansätze möglich. 4.6.2.1

Butterworth-Filter

Beim Butterworth-Filter wird der Ansatz D(f 0 ) = (j2πf 0 )N

(4.165)

|D(f 0 )|2 = (2πf 0 )2N

(4.166)

und somit

193

4.6 Frequenzselektive Filter

gemacht. Aus Gl. (4.160) folgt damit die Bestimmungsgleichung für die Pole von Q(s0 ), 1 1 2 0 0 A (f ) = Q(s ) = = , 2 |D(f 0 )|2 2 (2πf 0 )2N 0 1 + ε 1 + ε 0 s =j2πf

die sich mit 1 + ε2

 0 2N s =0 j

zu s0∞ν = jε− N ej 1

(2ν−1)π 2N

π 1 = ε− N ej( 2 +

2ν−1 π N 2)

,

ν = 1, . . . , 2N ,

(4.167) 1

ergeben. Sie liegen also gleichmäßig verteilt auf einem Kreis mit dem Radius r = ε− N . Für das stabile, kausale Filter werden für G(s0 ) die Pole in der linken s0 -Halbebene benutzt (ν = 1, . . . , N ). Aus der Bedingung (4.163) mit |D(f 0 )| = |2πf 0 |N , p 2 2δD − δD ∆D = ≥ ε|2πf 0 |N , 0 ≤ f0 ≤ 1 , 1 − δD erhält man ε≤

∆D , (2π)N (f 0 )N

0 ≤ f0 ≤ 1 ,

(4.168)

und somit das maximal mögliche ε für f 0 = 1 zu ε=

∆D . (2π)N

(4.169)

Setzt man |D(f 0 )| = |2πf 0 |N in die Bedingung (4.164) ein, p 1 − δS2 ∆S = ≤ ε(2πf 0 )N , f 0 ≥ fS0 , δS so erhält man mit Gl. (4.169) die folgende Bedingung für den Sperrbereich: ∆S ≤ ∆D · (f 0 )N ,

f 0 ≥ fS0 .

Da diese Ungleichung für alle Frequenzen f 0 ≥ fS0 gelten muss, folgt hieraus durch Auflösung nach N für die Ordnung K eines Butterworth-Filters:   ∆S ln ∆ D K≥N ≥ . (4.170) 0 ln(fS ) Damit der Grad des Filters mit dieser Wahl von D(f 0 ) minimal wird, muss K offenbar als die kleinstmögliche ganze Zahl gewählt werden, die Gl. (4.170) erfüllt. Natürlich

194

4 Zeitkontinuierliche Systeme

Abbildung 4.23: Pol-Schema der Übertragungsfunktion G(s) bei einem Butterworth-Ansatz der Ordnung K = 4.

kann K auch wesentlich größer als N gewählt werden. Dann steigt zwar einerseits der Realisierungsaufwand, andererseits wird jedoch das Toleranzschema besser eingehalten. Die nach dem Butterworth-Verfahren berechneten Filter zeichnen sich durch einen maximal flachen Verlauf im Durchlass- und Sperrbereich aus. Ein großer Nachteil der Butterworth-Tiefpässe ist der breite Übergang vom Durchlass- zum Sperrbereich bei gegebener Ordnung K. Durch andere Entwurfsverfahren, die im folgenden Abschnitt beschrieben werden, lässt sich dieses Übergangsverhalten günstiger gestalten. Allerdings hat man dafür einen Preis zu zahlen, indem man beispielsweise auf den flachen Verlauf des Amplitudengangs im Durchlassbereich verzichtet. Beispiel 4.171 (Butterworth-Filter) Das Toleranzschema eines normierten Tiefpasses mit fD0 = 1 ,

fS0 = 2 ,

und

δD = 0,2

δS = 0,1

erzeugt über die Gleichungen (4.163) und (4.164) die Parameter p p 2 √ 2δD − δD 1 − δS2 3 ∆D = = und ∆S = = 99 ≈ 9,95 . 1 − δD 4 δS Mit der Abschätzung K≥N ≥





∆S ∆D ln(fS0 )

ln

≈ 3,73

erhält man die minimale Ordnung des Filters zu K = 4. Die Pole des stabilen Systems nach Gl. (4.167), s0∞ν = 

1 ∆D (2π)4

π

j( + 1/4 e 2

2ν−1 π) 8

=

2π 1/4 ∆D

π

ej( 2 +

2ν−1 π) 8

,

ν = 1, . . . , 4 ,

195

4.6 Frequenzselektive Filter findet man in Abbildung 4.23 skizziert. Numerisch lauten diese: s∞1 = −2,5838 + j 6,2378 , s∞3 = −6,2378 − j 2,5838 ,

s∞2 = −6,2378 + j 2,5838 , s∞4 = −2,5838 − j 6,2378 .

Der Amplitudengang und das Toleranzschema finden sich in Abbildung 4.24. Man erkennt, dass der Entwurf das Toleranzschema erfüllt. Abbildung 4.25 zeigt den Phasengang und die Gruppenlaufzeit von G(s). • Beispiel 4.172 (Butterworth-Filter steilerer Flanke) In diesem Beispiel wird auf der Basis desselben Toleranzschemas wie in Beispiel 4.171 ein Butterworth-Filter steilerer Flanke entworfen. Verwendet man hierzu die Ordnung K = 12 und berechnet damit erneut die Größen ∆D , ∆S und ε, so entsteht der in Abbildung 4.26 dargestellte Amplitudengang. Bei Betrachtung der Phase und der Gruppenlaufzeit für diesen Entwurf ist zu erkennen, dass die steilere Flanke im Amplitudengang auf eine stärkere Verzerrung der Phase führt. Dies ist in Abbildung 4.27 dargestellt. • 4.6.2.2

Tschebyscheff-Filter

Beim Tschebyscheff-Filter unterscheidet man die beiden Arten Typ I und Typ II. Der Typ I besitzt im Durchlassbereich eine gleichmäßige Welligkeit und ist im Sperrbereich monoton fallend. Dagegen ist Typ II im Durchlassbereich monoton fallend und besitzt im Sperrbereich eine gleichmäßige Welligkeit. Beim Tschebyscheff-Filter Typ I wird der Ansatz |D(f 0 )|2 = TN2 (f 0 )

(4.173)

mit dem erweiterten Tschebyscheff-Polynom  cos(N arccos(f 0 )) TN (f 0 ) = cosh (N arcosh (f 0 ))

für |f 0 | ≤ 1 für |f 0 | > 1

(4.174)

1 0,8 0,6 0,4 0,2 0

0

1

2

3

Abbildung 4.24: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4.

196

4 Zeitkontinuierliche Systeme 4

0,05 0,04

2

0,03 0

0,02 0,01

−2 −4 −10

0 −5

0

5

10

−10

−5

0

5

10

Abbildung 4.25: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4.

gemacht. Wegen ε|D(f 0 )| = ε |cos(N arccos(f 0 ))| ≤ ∆D ,

0 ≤ f0 ≤ 1 ,

muss ε ≤ ∆D gelten und man kann (4.175)

ε = ∆D wählen. Mit dem so gewählten ε folgt aus Gl. (4.164) die Gleichungskette ε|D(f )|

!

0

= ∆D TN (fS0 ) = ∆D cosh (N arcosh (fS0 )) ≥ ∆S ,

(4.176)

f 0 =fS0

1 0,8 0,6 0,4 0,2 0

0

1

2

3

Abbildung 4.26: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12.

197

4.6 Frequenzselektive Filter 4

0,05 0,04

2

0,03 0

0,02 0,01

−2 −4 −10

0 −5

0

5

10

−10

−5

0

5

10

Abbildung 4.27: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12.

woraus die Abschätzung für die Ordnung K des Systems folgt:   ∆S arcosh ∆ D K≥N ≥ . 0 arcosh (fS )

(4.177)

Die Pole liegen auf einer Ellipse mit den Halbachsen sinh(α) und cosh (α), wobei   1 1 α= arsinh K ∆D gilt. Beim Tschebyscheff-Filter Typ II wird der Ansatz |D(f 0 )|2 =

TN2 (fS0 )  0 f TN2 fS0

(4.178)

gewählt. Mit den Gleichungen (4.163) und (4.164) erhält man analog zu obiger Herleitung bei erneuter Wahl von ε = ∆D auch hier die Abschätzung   ∆S arcosh ∆ D K≥N ≥ (4.179) 0 arcosh (fS ) für die Ordnung des Systems. In Abbildung 4.28 werden die Amplitudengänge eines Tschebyscheff-Filters Typ I und Typ II jeweils bei gerader bzw. ungerader Ordnung dargestellt. Einen weiteren Filtertyp, der sowohl im Durchlass- als auch im Sperrbereich eine gleichmäßige Welligkeit besitzt und bei gleicher Ordnung noch steiler als die TschebyscheffFilter abfällt, stellen die elliptischen Cauer-Filter dar, deren Behandlung in diesem Rahmen jedoch nicht erfolgen soll. Eine Beschreibung ist beispielsweise in [KK09] zu finden.

198

4 Zeitkontinuierliche Systeme

4.6.3

Bestimmung der Übertragungsfunktion

Zum Abschluss der frequenzselektiven Filter wird die Ermittlung der Übertragungsfunktion des Filters bei gegebenen Pol- und Nullstellen behandelt. G(s) und G0 (s0 ) besitzen nur Pole in der linken Halbebene. Daher sind die gefundenen Systeme stabil. Butterworth- und Tschebyscheff-Typ-I-Filter haben keine Nullstellen, während Tschebyscheff-Typ-II-Filter Nullstellen auf der imaginären Achse haben. Die bisher beschriebenen Verfahren für den Entwurf normierter Tiefpässe führen auf eine Übertragungsfunktion der Form m Q

G0 (s0 ) = G0 ·

µ=1 n Q

(s0 − s00µ ) ,

m ≤ n.

(s0 − s0∞ν )

ν=1

Hierbei ist zu bedenken, dass es sich um eine normierte Übertragungsfunktion handelt, Typ I − Ordnung ungerade

Typ I − Ordnung gerade 1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0

1

2

3

0

0

Typ II − Ordnung gerade 1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2 0

1

2

2

3

Typ II − Ordnung ungerade

1

0

1

3

0

0

1

2

3

Abbildung 4.28: Amplitudengänge von Tschebyscheff-Filtern des Typs I und des Typs II jeweils bei gerader bzw. ungerader Ordnung.

199

4.6 Frequenzselektive Filter

aus der die eigentliche Übertragungsfunktion erst noch gemäß Gleichung (4.155) abgeleitet werden muss. Für die Rücktransformation eines normierten Tiefpasses erhält man beispielsweise: m Q

G(s) = G0



s fD

 = G0 ·

m Q

( fsD − s00µ )

µ=1 n Q

=

( fsD − s0∞ν )

µ=1 G0 · fDn−m Q n

ν=1

(s − fD s00µ ) .

(s − fD s0∞ν )

ν=1

Analoge Rechnungen ergeben sich bei den anderen Transformationen. Sind die Pole und Nullstellen bekannt, so lässt sich die Systemkonstante G0 bei den beschriebenen Verfahren aufgrund der Forderung |G0 (j2π)| = 1−δD wie folgt berechnen: n Q

|s0 − s0∞ν | |G0 | = (1 − δD ) · ν=1 m Q 0 0 |s − s0µ | µ=1

.

(4.180)

s0 =j2π

Für die Ordnung n des Nennerpolynoms wird nach den Gleichungen (4.170), (4.177) oder (4.179) die gefundene minimale Ordnung K eingesetzt. Das Zählerpolynom hat beim Butterworth-Filter die Ordnung m = 0. Bemerkung 4.181 Für die Konstante G0 lässt sich aus obigen Gleichungen nur der Betrag bestimmen, da die Eigenschaft A(f 0 = 1) = |G(f 0 = 1)| verwendet wird. Die Lösungen dieser Gleichung bilden einen Kreis in der komplexen Ebene mit dem Radius |G0 |. Bei Betrachtung reellwertiger LTI-Systeme ist ein reeller Verstärkungsfaktor zu wählen, weshalb G0 als positive reelle Größe gewählt wird. • Bemerkung 4.182 Bei den behandelten Approximationsverfahren wurde ε=

∆D (2π)K

im Falle des Butterworth-Filters beziehungsweise ε = ∆D im Falle der Tschebyscheff-Filter gewählt. Für den normierten Amplitudengang ergibt sich aus dem Toleranzschema A(f 0 = 1) = 1 − δD , was sich leicht nachrechnen lässt und hier exemplarisch für das Butterworth-Filter

200

4 Zeitkontinuierliche Systeme

durchgeführt wird: s 0

A(f = 1) = v u u = t

4.7

1 = 2 1 + ε D2 (f 0 = 1) 1 1+

∆2D (2π)2K (2π)2K

s

1 ε2 (2π)2K

1+ v u 1 u =t = 1 − δD . 2 2δD −δD 1 + (1−δD )2



Hilbert-Transformation

Die Hilbert-Transformation ist nicht wie die Fourier- oder die Laplace-Transformation eine Transformation im klassischen Sinne. Sie ist ein akausales Filter, das praktisch nicht exakt realisiert werden kann. Trotzdem lohnt es sich, die Hilbert-Transformation als mathematisches Modell einzuführen, denn mit Hilfe von Mikrorechnern lässt sich die Hilbert-Transformation zumindest annähern, vgl. Abschnitt 6.9.1. Es wird ein Quadraturfilter mit der Übertragungsfunktion   −j für f > 0 für f = 0 GQ (f ) = 0 j für f < 0

(4.183)

definiert. Das Filter operiert auf dem Eingangssignal mittels Phasendrehung, wobei die Anteile der positiven Frequenzen um − π2 = b − 90◦ und die Anteile der negativen π ◦ Frequenzen um + 2 = b 90 gedreht werden. Für die Berechnung der Impulsantwort dieses Filters definiert man mit α > 0 die Hilfsfunktion  für f > 0  −j e−αf für f = 0 , G(f ) = 0  αf je für f < 0 welche ebenfalls ein Filter beschreibt. Die entsprechende Impulsantwort lautet Z∞ g(t) =

G(f ) ej2πf t df

−∞

Z0

=j −∞

e(α + j2πt)f df − j

Z∞

e(−α + j2πt)f df

0

j j = + . α + j2πt −α + j2πt Im Grenzübergang α → 0 geht G(f ) in GQ (f ) über. Die Impulsantwort g(t) wird dann

201

4.7 Hilbert-Transformation zur Impulsantwort ( gQ (t) =

1 πt 0

für t 6= 0 für t = 0

(4.184)

des Quadraturfilters. Satz 4.185 (Quadraturfilter) Die Impulsantwort eines Quadraturfilters, d. h. eines Filters mit dem Frequenzgang   −j für f > 0 für f = 0 , GQ (f ) = 0 (4.186) j für f < 0 ist durch ( gQ (t) =

1 πt 0

für t 6= 0 für t = 0

(4.187)

gegeben.



Definition 4.188 (Hilbert-Transformation) Durchläuft ein Signal y(t) ein Quadraturfilter mit der Impulsantwort gQ (t), so resultiert das Signal yˇ(t) = y(t) ∗ gQ (t), welches als Hilbert-Transformierte des Signals y(t) bezeichnet wird und als yˇ(t) = H{y(t)} geschrieben wird. Wegen GQ (0) = 0 ist die Hilbert-Transformierte eines mittelwertbehafteten Signals mittelwertfrei. Ist das Signal mittelwertfrei, so ist die Hilbert-Transformierte bis auf das Vorzeichen „selbst-invers“. Die Bedingung der Mittelwertfreiheit des Signals ist nötig, da nach der Anwendung der Hilbert-Transformation ein mittelwertfreies Signal entsteht. Somit kann nur in diesem Fall die folgende Aussage nachgewiesen werden: Satz 4.189 (Hilbert-Transformation) Die zweimalige Anwendung der Hilbert-Transformation entspricht bei mittelwertfreien Signalen dem Negativen des Ursprungssignals: y(t) mittelwertfrei

=⇒

H{H{y(t)}} = −y(t) . •

202

4 Zeitkontinuierliche Systeme

Beweis: Wegen F{H{H{y(t)}}} = F{H{y(t)}} · GQ (f ) = Y (f ) · GQ (f ) · GQ (f ) ergibt sich für ein Signal mit Y (0) = 0 sofort die behauptete Aussage. Nachdem für zwei Funktionen die Hilbert-Transformierte berechnet wird, folgt im Anschluss die Herleitung einer weiteren Eigenschaft der Hilbert-Transformation und eine Erklärung des theoretischen und praktischen Nutzens dieser Transformation.

Beispiel 4.190 (Hilbert-Transformierte des Cosinussignals) Es gilt:

y(t) = cos(2πf0 t)

◦−•

Y (f ) =

1 (δ(f + f0 ) + δ(f − f0 )) . 2

Hieraus folgt die Hilbert-Transformierte j Yˇ (f ) = Y (f ) · GQ (f ) = (δ(f + f0 ) − δ(f − f0 )) 2 • ◦ yˇ(t) = sin(2πf0 t) . Das Ergebnis ist auch sofort verständlich, da sich das Sinussignal vom Cosinussignal durch eine Phasenverschiebung von π/2 unterscheidet und das Filter GQ (f ) gerade solch eine Phasendrehung vornimmt. •

Beispiel 4.191 (Hilbert-Transformierte der Sinc-Funktion) Es gilt: sin(2πf0 t) y(t) = sinc(2f0 t) = 2πf0 t

 ◦−•

Y (f ) =

1 2f0

0

für |f | ≤ f0 . für |f | > f0

203

4.7 Hilbert-Transformation Hieraus folgt die Hilbert-Transformierte:  −j für 0 < f ≤ f0   2f0 j ˇ Y (f ) = Y (f ) · GQ (f ) = 2f für − f0 ≤ f < 0   0 0 für |f | > f0 und f = 0 • ◦ Z∞ yˇ(t) = F−1 {Yˇ (f )} = Yˇ (f ) ej2πf t df  =

j   2f0

−∞

Z0

ej2πf t df −

=

1 4πf0 t

  ej2πf t df 

0

−f0

h

Zf0

 i 1 − cos(2πf0 t) 1 − e−j2πf0 t − ej2πf0 t − 1 = . 2πf0 t 

Die Originalfunktion y(t) und die Hilbert-Transformierte yˇ(t) sind in Abbildung 4.29 zu sehen. • 1 0,5 0 −0,5 −1

−1

−0,5

0

0,5

1

Abbildung 4.29: sin(t) -Funktion und ihre t Hilbert-Transformierte.

Das Ausgangssignal des Quadraturfilters erhält man als Faltung des Eingangssignals mit der Impulsantwort: Z∞ yˇ(t) =

y(τ ) −∞

1 dτ = y(t) ∗ gQ (t) . π(t − τ )

(4.192)

Die Hilbert-Transformation ist somit eine Integraltransformation mit selbstreziprokem Kern (vgl. Abschnitt 2.2.1.2) und den Funktionen Θ(f ) = GQ (f ) = −j sign(f ) , 1 Φ(f ) = = j sign(f ) = Θ∗ (f ) . GQ (f )

204

4 Zeitkontinuierliche Systeme

Aus diesem Grund ist das Innenprodukt zweier Hilbert-Transformierter gleich dem Innenprodukt der Eingangssignale (vgl. Abschnitt 2.2.1.3): hˇ x(t), yˇ(t)it = hGQ (f )X(f ), GQ (f )Y (f )if Z∞ = |GQ (f )|2 X(f ) Y ∗ (f ) df | {z } −∞

=1

(4.193)

= hx(t), y(t)it .

Eine weitere wichtige Eigenschaft der Hilbert-Transformation wird im folgenden Satz formuliert.

Satz 4.194 (Reelles Signal und Hilbert-Transformierte) Ein reelles Signal x(t) ist orthogonal zu seiner Hilbert-Transformierten: (4.195)

hx(t), x ˇ(t)it = 0 .

• Beweis: Es ist Z∞ hx(t), x ˇ(t)it =



Z∞

x(t) x ˇ (t) dt = −∞ Z∞

=

X(f ) G∗Q (f ) X ∗ (f ) df

−∞

|X(f )|2 j sign(f ) df = 0 .

−∞

Die Orthogonalität des Signals zu seiner Hilbert-Transformierten folgt somit aus dem Parseval’schen Theorem.

Beispiel 4.196 (Hilbert-Transformierte des Cosinussignals) Die Hilbert-Transformierte von y(t) = cos(2πf0 t) ist gegeben durch yˇ(t) = sin(2πf0 t) . Diese beiden reellen Signale sind orthogonal zueinander.



Formt man aus der reellen Zeitfunktion y(t) durch Addition der mit der imaginären Einheit j multiplizierten Hilbert-Transformierten yˇ(t) ein Signal z(t), so heißt z(t) das zu y(t) gehörige analytische Signal.

205

4.7 Hilbert-Transformation Definition 4.197 (Analytisches Signal)

Das zu einer reellen Zeitfunktion y(t) gehörige analytische Signal erhält man, indem man zu y(t) die mit dem Faktor j gewichtete Hilbert-Transformierte addiert. Das heißt das zu y(t) zugehörige analytische Signal z(t) ist gegeben durch (4.198)

z(t) = y(t) + j yˇ(t) .

Nun soll das Leistungsdichtespektrum des analytischen Signals untersucht werden. Dafür wird zunächst die zugehörige Autokorrelationsfunktion betrachtet: Rzz (τ ) = hz(t + τ ), z(t)it = hy(t + τ ) + j yˇ(t + τ ), y(t) + j yˇ(t)it = hy(t + τ ), y(t)it + hy(t + τ ), j yˇ(t)it + hj yˇ(t + τ ), y(t)it +hj yˇ(t + τ ), j yˇ(t)it = Ryy (τ ) − j Ryyˇ(τ ) + j Ryˇy (τ ) + j(−j) Ryˇyˇ(τ ) = Ryy (τ ) + Ryˇyˇ(τ ) + j (Ryˇy (τ ) − Ryyˇ(τ )) . Die Leistungsdichtespektren sind f 6=0

SYˇ Yˇ (f ) = |GQ (f )|2 · SY Y (f ) = SY Y (f ) , SYˇ Y (f ) = GQ (f ) · SY Y (f ) , SY Yˇ (f ) = SYˇ Y (−f ) = GQ (−f ) SY Y (+f ) = −GQ (f )SY Y (f ) = −SYˇ Y (f ) . Demzufolge gilt für die Korrelationsfunktionen Ryˇy (τ ) = −Ryyˇ(τ ) , Ryˇyˇ(τ ) = Ryy (τ ) . Damit wird die Autokorrelationsfunktion des analytischen Signals zu Rzz (τ ) = 2 [Ryy (τ ) + j Ryˇy (τ )] und dessen Leistungsdichtespektrum SZZ (f ) = 2 [SY Y (f ) + j SYˇ Y (f )] = 2 SY Y (f ) [1 + j GQ (f )]   4 SY Y (f ) für f > 0 = 2 SY Y (f ) für f = 0 . 0 für f < 0

(4.199)

Satz 4.200 (Analytisches Signal) Das analytische Signal besitzt nur positive Frequenzanteile. Das Leistungsdichtespektrum stimmt im positiven Bereich mit dem Leistungsdichtespektrum der Urfunktion bis auf die Amplitude überein. • Dieser Satz soll anhand eines Beispiels verdeutlicht werden.

206

4 Zeitkontinuierliche Systeme

Beispiel 4.201 (Leistungsdichtespektrum eines analytischen Signals) Es ist gegeben: y(t) = cos(2πf0 t) . Hieraus folgt das analytische Signal z(t) = cos(2πf0 t) + j sin(2πf0 t) = ej2πf0 t . Die Fourier-Transformierten lauten: 1 Y (f ) = (δ(f + f0 ) + δ(f − f0 )) , 2 1 j Z(f ) = (δ(f + f0 ) + δ(f − f0 )) + j · (δ(f + f0 ) − δ(f − f0 )) 2 2 = δ(f − f0 ) . Hieraus folgen die Leistungsdichtespektren 1 SY Y (f ) = Y (f ) · Y ∗ (f ) = (δ(f + f0 ) + δ(f − f0 )) , 4 SZZ (f ) = Z(f ) · Z ∗ (f ) = δ(f − f0 ) . Dies stimmt mit dem Ergebnis aus Gl. (4.199) überein.



Die Hilbert-Transformation und das analytische Signal finden Anwendung bei der im folgenden Beispiel behandelten Einseitenband-Modulation [Unb02]. Beispiel 4.202 (Erzeugung komplexer Bandpass-Signale) Ist x(t) ein reelles Tiefpass-Signal, so kann mit Hilfe der Hilbert-Transformation x ˇ(t) = H{x(t)} daraus das analytische Tiefpass-Signal z(t) = x(t) + j x ˇ(t) erzeugt werden, das Spektralanteile nur bei positiven Frequenzen besitzt. Durch Modulation mit einer komplexen Harmonischen erhält man das komplexe Bandpass-Signal y(t) = z(t) ej2πf0 t = [x(t) + j x ˇ(t)] [cos(2πf t) + j sin(2πf t)] 0

0

= x(t) cos(2πf0 t) − x ˇ(t) sin(2πf0 t) + j [x(t) sin(2πf0 t) + x ˇ(t) cos(2πf0 t)] , dessen Real- und Imaginärteil mit der Hilbert-Transformation aus dem reellen Tiefpass-Signal x(t) berechnet werden können. In Abbildung 4.30 ist die Erzeugung eines reellen Bandpass-Signals als Signalflussgraph dargestellt. Im Frequenzbereich entspricht die Modulation einer Frequenzverschiebung: ˇ − f0 ) . Y (f ) = Z(f − f0 ) = X(f − f0 ) + j X(f

4.7 Hilbert-Transformation

207

Abbildung 4.30: Einseitenband-Modulation – Erzeugung eines reellen Bandpass-Signals.

Abbildung 4.31: Einseitenband-Demodulation.

Der Imaginärteil des komplexen Bandpass-Signals y(t) ist gerade die Hilbert-Transformierte des Realteils: Im{Y (f )} = GQ (f ) · Re{Y (f )} , Im{y(t)} = H{Re{y(t)}} . Es reicht also aus, nur das reelle Bandpass-Signal Re{y(t)} zu berechnen, was einer Einseitenband-Modulation von x(t) entspricht. Der zur Demodulation benötigte komplexe Teil Im{y(t)} kann mit Hilfe der Hilbert-Transformation berechnet werden. Die Demodulation ergibt x(t) = Re{z(t)} = Re{y(t) e−j2πf0 t } = Re{y(t)} cos(2πf0 t) + H{Re{y(t)}} sin(2πf0 t) . Dies ist in Abbildung 4.31 dargestellt. Bei der Übertragung von Signalen können diese aufgrund von Laufzeiten phasenverschoben werden. Wir gehen davon aus, dass das Bandpass-Signal einer festen Phasendrehung ϕ unterworfen werde. Dann steht am Eingang des Demodulators

208

4 Zeitkontinuierliche Systeme

das phasenverschobene reelle Bandpass-Signal Re{y(t) ejϕ } = Re{y(t)} cos(ϕ) − Im{y(t)} sin(ϕ) = x(t) cos(2πf0 t) cos(ϕ) − x ˇ(t) sin(2πf0 t) cos(ϕ) − x(t) sin(2πf0 t) sin(ϕ) − x ˇ(t) cos(2πf0 t) sin(ϕ) = x(t) cos(2πf0 t + ϕ) − x ˇ(t) sin(2πf0 t + ϕ) an. Der dazugehörige Imaginärteil ist entsprechend Im{y(t) ejϕ } = Im{y(t)} cos(ϕ) + Re{y(t)} sin(ϕ) = x(t) sin(2πf0 t) cos(ϕ) + x ˇ(t) cos(2πf0 t) cos(ϕ) + x(t) cos(2πf0 t) sin(ϕ) − x ˇ(t) sin(2πf0 t) sin(ϕ) = x(t) sin(2πf0 t + ϕ) + x ˇ(t) cos(2πf0 t + ϕ) . Bei der Demodulation erhält man aufgrund der Phasenverschiebung das Signal s(t) anstelle von x(t): s(t) = Re{y(t) ejϕ e−j2πf0 t } = Re{y(t) ejϕ } cos(2πf0 t) + Im{y(t) ejϕ } sin(j2πf0 t) = x(t) cos(2πf0 t + ϕ) cos(2πf0 t) − x ˇ(t) sin(2πf0 t + ϕ) cos(2πf0 t) + x(t) sin(2πf0 t + ϕ) sin(2πf0 t) + x ˇ(t) cos(2πf0 t + ϕ) sin(2πf0 t) = x(t) cos(ϕ) − x ˇ(t) sin(ϕ) . Das verzögerte, demodulierte Signal s(t) setzt sich aus dem ursprünglichen reellen Tiefpass-Signal x(t) und dessen Hilbert-Transformierter x ˇ(t) zusammen. Für ϕ = π2 geht nur die Hilbert-Transformierte x ˇ(t) ein. Ohne Anwendung der Hilbert-Transformation würde ein Informationsverlust auftreten. Wenn das reelle Tiefpass-Signal x(t) lediglich mit cos(2πf0 t) und sin(2πf0 t) moduliert und dann verzögert würde, so ergäbe sich die Demodulation s˜(t) = x(t) cos(2πf0 t + ϕ) cos(2πf0 t) + x(t) sin(2πf0 t + ϕ) sin(2πf0 t) = x(t) cos(ϕ) . Für ϕ =

π 2

wäre dann das demodulierte Signal s˜(t) = 0.



Teil III

Zeitdiskretisierung

5

Zeitdiskrete Signale

In der Digitaltechnik ist es nicht möglich, physikalische Signale kontinuierlich zu bearbeiten, wie dies in der Analogtechnik der Fall ist. Digitale Komponenten werden im Allgemeinen getaktet, d. h. es werden Zeitmarken ausgegeben, zu denen dann jeweils ein Arbeitsschritt pro Takt ausgeführt wird. Um physikalische Signale mittels digitaler Technik zu erfassen und zu bearbeiten, müssen die Signale abgetastet bzw. zeitdiskretisiert werden, d. h. die Werte der Signale werden nur zu bestimmten Zeitpunkten erfasst und bearbeitet. Im den meisten Fällen liegen diese Zeitpunkte äquidistant.

5.1

Grundlagen

5.1.1

Zeitdiskretisierung

Ein kontinuierliches Signal zeichnet sich dadurch aus, dass man zu jedem beliebigen Zeitpunkt den Signalwert angeben kann. Bei physikalisch realisierbaren Signalen sind diese Signalwertfunktionen stetig. Bei der Zeitdiskretisierung werden nur die Signalwerte zu äquidistanten Zeitpunkten erfasst, d. h. die Signalwerte zwischen diesen Zeitpunkten gehen verloren. Unter bestimmten, im Abtasttheorem beschriebenen Voraussetzungen kann man die Signalwerte zwischen den Zeitpunkten wieder vollständig rekonstruieren. Zur mathematischen Darstellung zeitdiskreter Signale gibt es hauptsächlich zwei Ansätze. Bei dem ersten Ansatz wird das zeitdiskrete Signal als Folge yn = y(n tA ) ,

n ∈ Z,

(5.1)

angegeben, deren Folgenglieder den Signalwerten zu den Abtastzeitpunkten n tA entsprechen. Bei dem zweiten Ansatz wird das zeitdiskrete Signal durch das Produkt des zeitkontinuierlichen Signals mit einer Impulsreihe y∗ (t) = y(t) ·

∞ X

δ(t − n tA )

(5.2)

n=−∞

beschrieben, bei der die Signalwerte in den Abtastzeitpunkten durch Impulse der „Höhe“ yn = y(n tA ) und das Signal zwischen den Abtastzeitpunkten durch den Wert 0 dargestellt wird. Dies ist exemplarisch in Abbildung 5.1 dargestellt. Welche Modellierung wann zum Einsatz kommt, wird aus dem Zusammenhang klar. So wird bei Berechnungen mit Summen meist die Modellierung als Folge verwendet, bei

212

5 Zeitdiskrete Signale 6y∗ (t) 6 6

6 6

6 6 ?

6

?

666

6

66

6 ?

??

t

?

?

? ?

?

?

?

?

Abbildung 5.1: Darstellung eines abgetasteten Signals als Impulsreihe.

Berechnungen mit Integralen die Modellierung als Impulsreihe. Hier macht man sich die besonderen Eigenschaften des Dirac-Impulses bei Integralen gemäß Gl. (3.164) zunutze. Diese Eigenschaften werden bei der Herleitung der Fourier-Transformation zeitdiskreter Signale genutzt. Die Zeitdauer zwischen zwei Abtastpunkten wird als Abtastzeit tA bezeichnet. Der Kehrwert fA =

1 tA

heißt Abtastfrequenz . Es stellt sich die Frage, in welchen Größenordnungen die Abtastzeit tA und die Abtastfrequenz fA realer Systeme liegen. Für die Abtastzeit tA gibt es nach oben keine technische Grenze, da man zwischen zwei Abtastzeitpunkten fast beliebig lange warten kann. Dann enthielte das abgetastete Signal aber keine relevanten Informationen mehr. Für die minimale Abtastzeit tA bzw. die maximale Abtastfrequenz fA gibt es jedoch technische Grenzen. Da die Abtastwerte meist mit einem Mikrocontroller oder mit Signalprozessoren verarbeitet werden, bestimmen diese durch ihre Verarbeitungsgeschwindigkeit die maximale Abtastfrequenz. Tabelle 5.1 gibt Beispiele von Abtastfrequenzen in technischen Systemen an. Tabelle 5.1: Abtastfrequenzen in technischen Systemen.

Regelkreise in der Verfahrenstechnik CD-Audio-Aufzeichnung DVD-Audio-Aufzeichnung Verarbeitung mittels Mikrocontroller Verarbeitung mittels Signalprozessor Speicheroszilloskop

Abtastfrequenz 1–10 Hz 44,1 kHz bis 192 kHz bis 200 MHz bis 1 GHz bis 50 GHz

213

5.1 Grundlagen

5.1.2

Abtasttheorem

Bei der Abtastung gehen die Signalwerte zwischen den Abtastzeitpunkten verloren. Unter bestimmten Bedingungen kann man die verlorengegangenen Signalwerte vollständig rekonstruieren – angenommen das Signal ändere sich zwischen den Abtastzeitpunkten nicht zu schnell. Diese Bedingungen nennt das Abtasttheorem. Satz 5.3 (Abtasttheorem) Das Signal y(t) sei bandbegrenzt, d. h. für seine Fourier-Transformierte Y (f ) gilt mit B > 0 Y (f ) = 0

für

(5.4)

|f | ≥ B .

Dann folgt, dass die Funktion y(t) zu jedem beliebigen Zeitpunkt t durch die Werte y(tn ) = y(n tA ) = yn ,

n ∈ Z,

festgelegt ist, die sie in zeitlichen Abständen tA =

1 2B

annimmt. Mit Hilfe der Bandbegrenzung des Spektrums erhält man das rekonstruierte Signal ∞ X sin(πfA (t − tn )) yˆ(t) = y(tn ) πfA (t − tn ) n=−∞ =

∞ X

y(tn ) sinc(fA (t − tn )) ,

n=−∞

fA =

1 . tA

(5.5)

Die Summe rekonstruiert das im Zeitbereich stetige Signal y(t) vollständig auch zwischen den diskreten Werten y(tn ), wenn die Abtastzeit tA ≤ 1/(2B) und somit die Abtastfrequenz fA ≥ 2B ist. • Beweis: Das zeitkontinuierliche Signal y(t) geht bei zeitäquidistanter Abtastung in das Signal y∗ (t) über. Dies geschieht durch Multiplikation mit einer Impulsreihe: y∗ (t) = y(t) ·

∞ X

δ(t − n tA ) .

n=−∞

Die Fourier-Transformierte Y∗ (f ) des abgetasteten Signals y∗ (t) wird durch Faltung im Frequenzbereich als ( ∞ ) X Y∗ (f ) = Y (f ) ∗ F δ(t − n tA ) n=−∞

214

5 Zeitdiskrete Signale

1,5

1

0,5

0

−6

−4

−2

0

2

4

Abbildung 5.2: Schematische Darstellung der Wiederholung des Spektrums bei der Abtastung für den Fall fA = 4 Hz.

6

beschrieben. Unter Verwendung der Poisson’schen Summenformel (3.170) folgt ( ∞ ) ( ) ∞ X 1 X j2π tk t A F δ(t − n tA ) = F e tA n=−∞ k=−∞   ∞ 1 X j2π tkA t = F e tA k=−∞   ∞ 1 X k = δ f− . tA tA k=−∞

Setzt man dieses Resultat in obige Formel für Y∗ (f ) ein, so ergibt sich   ∞ 1 X k Y∗ (f ) = Y (f ) ∗ · δ f− tA tA k=−∞

Z∞ = −∞

=

  ∞ 1 X k Y (ν) · δ f −ν− dν tA tA

1 · tA

k=−∞

∞ X k=−∞

 Y

f−

k tA

 .

Man erkennt, dass das ursprüngliche Spektrum Y (f ) in Abständen fA = 1/tA periodisch wiederholt wird, wie dies in Abbildung 5.2 für fA = 4 Hz schematisch dargestellt ist. Damit eine eindeutige Rekonstruktion des Ursprungsspektrums überhaupt noch möglich ist, muss die höchste im Signal vorkommende Frequenz kleiner als 1/(2tA ) sein, damit sich die Spektren nicht überlappen. Insbesondere muss bereits an der Bandgrenze B die Bedingung Y (B) = 0 erfüllt sein. Insgesamt folgt also: Die höchste im kontinuierlichen Signal vorkommende Frequenz fmax < B muss die halbe Abtastfrequenz unterschreiten, wenn das abgetastete Signal vollständig rekonstruiert werden soll: fA fmax < B ≤ . 2

215

5.1 Grundlagen

Um aus dem Spektrum des abgetasteten Signals Y∗ (f ) das Spektrum des zeitkontinuierlichen Signals Y (f ) zu rekonstruieren, muss man es mit dem gewichteten symmetrischen Rechteckfenster tA · r1/tA (f ) = tA · rfA (f ) multiplizieren. Auf diese Weise wird die Periodizität des Spektrums aufgehoben. Man erhält das Originalspektrum. Eine Multiplikation im Frequenzbereich entspricht einer Faltung im Zeitbereich, womit für die rekonstruierte Fourier-Transformierte des abgetasteten Signals Yˆ (f ) = Y∗ (f ) · tA rfA (f )

•−◦

yˆ(t) = y∗ (t) ∗ F−1 {tA rfA (f )}

folgt. Durch den Vorfaktor tA wird das Rechteckfenster auf die Fläche eins normiert. Unter Beachtung von F−1 {tA rfA (f )} =

sin(πfA t) = sinc(fA t) , πfA t

fA =

1 , tA

wird daraus yˆ(t) = =

∞ X n=−∞ ∞ X

y(ntA ) δ(t − ntA ) ∗ sinc(fA t) y(ntA ) · sinc(fA (t − ntA )) .

n=−∞

Dies beweist die in Gl. (5.5) behauptete Formel. Abbildung 5.3 veranschaulicht das Abtasttheorem. Das bandbegrenzte Signal y(t) wird durch Multiplikation mit einer Impulsreihe abgetastet und ergibt damit das Abtastsignal y∗ (t). Nach dem Faltungssatz der Fourier-Transformation korrespondiert die Multiplikation von y(t) mit der Impulsreihe mit einer Faltung des Spektrums Y (f ) mit der Fourier-Transformierten der Impulsreihe (d. h. einer weiteren Impulsreihe) im Frequenzbereich, was somit zu einer periodischen Fortsetzung des Spektrums führt. Die Rekonstruktion basiert auf einer Unterdrückung der periodischen Fortsetzungen des Spektrums durch Multiplikation mit dem idealen Tiefpass tA rfA (f ). Im Zeitbereich entspricht diese Filterung einer Faltung mit einer Sinc-Funktion und ergibt bei Einhaltung der Abtastbedingung fA ≥ 2B das perfekt rekonstruierte Signal yˆ(t). Wird die Abtastbedingung jedoch verletzt, so kommt es wegen der zu niedrigen Abtastfrequenz fA zu einer Überlappung der Spektren in Y∗ (f ). Das ursprüngliche Signal lässt sich dann nicht mehr rekonstruieren. Die ideale Rekonstruktion entspricht einer Entwicklung der Funktion y(t) in die zeitverschobenen Sinc-Funktionen. Bei Einhaltung des Abtasttheorems bilden diese ein vollständiges Funktionensystem, das den Raum der quadratisch integrierbaren Funktionen aufspannt. Die Koeffizienten sind gerade die Abtastwerte y(n tA ). Bei Einhaltung des Abtasttheorems ändert sich die Funktion zwischen den Abtastwerten hinreichend langsam, so dass sie durch diese Werte charakterisiert werden kann. Die Rekonstruktion konvergiert gegen die zeitkontinuierliche Funktion y(t). Somit lässt sich also in diesem Fall die Funktion eindeutig aus den Abtastwerten rekonstruieren. In den Abbildungen 5.4 und 5.5 sind Signale und deren versuchte Rekonstruktion gemäß dem Abtasttheorem, d. h. über Sinc-Funktionen, dargestellt. Hier ist das Originalsignal

216

5 Zeitdiskrete Signale

Abbildung 5.3: Veranschaulichung des Abtasttheorems.

stets als gestrichelte Linie und die rekonstruierten Signale sind als durchgehende Linien eingezeichnet. In Abbildung 5.4 ist exemplarisch die Rekonstruktion eines Signals über die gewichteten Sinc-Funktionen dargestellt. Wie deutlich zu sehen ist, kann das Signal nicht vollständig rekonstruiert werden. Ist jedoch eine ungefähre Gleichheit ausreichend, so ist diese Rekonstruktion durchaus brauchbar. Anders verhält sich dies mit der Rekonstruktion in Abbildung 5.5. Hier ist eine Abtastfrequenz gewählt worden, die deutlich unter der vom Abtasttheorem geforderten

217

5.1 Grundlagen 6

6

5

5

4

4

3

3

2

2

1

1

0

0

1

2

3

4

5

0

1

2

3

4

5

6

6

5

5

4

4

3

3

2 1

2

0

1 0

0

−1 2

2,5

3

2

2,5

3

Abbildung 5.4: Beispiel zur gelungenen Rekonstruktion des Zeitverlaufs gemäß dem Abtasttheorem.

Frequenz liegt. Als Konsequenz ist die Rekonstruktion des ursprünglichen Signals unmöglich. Das heißt, die Entwicklung in die Sinc-Funktionen, wie sie laut Abtasttheorem vorgesehen ist, konvergiert nicht gegen die Ursprungsfunktion. Bemerkung 5.6 1. Das Abtasttheorem gilt natürlich auch, wenn die Abtastwerte im zeitlichen Abstand t0A < tA genommen werden (d. h. bei sogenannter Überabtastung). 2. Für die Gültigkeit des Abtasttheorems kommt es nicht auf die absolute Lage der Abtastzeitpunkte an. Wichtig ist nur, dass sie äquidistant sind und dass ihr Abstand tA weniger als 1/(2B) beträgt. 3. Für praktische Anwendungen ist zu beachten, dass das Abtasttheorem eine theoretische Aussage liefert. Daher müssen die Fehler abgeschätzt werden, die durch Abweichungen von den Voraussetzungen des Satzes entstehen. Die im Wesentlichen zu beachtenden Fehler sind: • Der Quantisierungsfehler, da sich aufgrund der endlichen Ausgabelänge eines Analog-Digital-Umsetzers die digitalen Amplitudenwerte von den exakten, stetigen Signalwerten unterscheiden. Dies wird z. B. in [KE08] unter-

218

5 Zeitdiskrete Signale

6

6

5

5

4

4

3

3

2

2

1

1

0

0

1

2

3

4

5

0

1

2

3

4

5

6

6

5

5

4

4

3

3

2 1

2

0

1 0

0

−1 2

2,5

3

2

2,5

3

Abbildung 5.5: Beispiel zur misslungenen Rekonstruktion des Zeitverlaufs gemäß dem Abtasttheorem, Abtasttheorem verletzt.

sucht. • Der Fehler durch das benutzte endliche Beobachtungsfenster T0 , da es in jeder realen Anwendung nur gelingt, einen zeitlich begrenzten Ausschnitt der Signalfunktion zu beobachten (Leckeffekt). Dies wird in Abschnitt 5.5.6 behandelt. • Fehler durch spektrale Überlappungen, auch Aliasing genannt, da vollständig bandbegrenzte Signale in der Praxis nicht existieren. Dies wird in Abschnitt 5.1.3 untersucht. • Fehler durch den Jitter des Abtastzeitpunktes, da sich der wahre Abtastzeitpunkt vom theoretisch richtigen Abtastzeitpunkt unterscheidet. Dies wird ebenfalls in [KE08] behandelt. •

5.1.3

Aliasing

Im Beweis des Abtasttheorems wurde das Spektrum Y∗ (f ) des abgetasteten Signals y∗ (t) als Summe der um ganzzahlige Vielfache der Abtastfrequenz fA verschobenen

219

5.1 Grundlagen

Abbildung 5.6: Spektrale Überlappung bei nicht bandbegrenztem Signal.

Spektren Y (f ) hergeleitet: Y∗ (f ) = fA ·

∞ X

Y (f − k fA ) .

k=−∞

Erstreckt sich das Spektrum Y (f ) über den gesamten Frequenzbereich, so kommt es zu spektralen Überlappungen, die als Aliasing bezeichnet werden und die in Abbildung 5.6 dargestellt sind. Der Name ist vom englischen Begriff alias abgeleitet. Ist das Spektrum Y (f ) bandbegrenzt, so kann es trotz der Abtastung sein, dass es zu keiner Überlappung der Spektren kommt, und zwar dann, wenn die Abtastfrequenz fA kleiner als das Doppelte der höchsten im Signal vorkommenden Frequenz ist. In Abbildung 5.7 erkennt man diesen Fall. Im linken Fall ist die Abtastfrequenz so hoch, dass es zu keiner spektralen Überlappung kommt. Im rechten Fall tritt ein Bandüberlappungsfehler (Aliasing) auf. Hier ist die Abtastfrequenz zu klein.

Abbildung 5.7: Spektrale Überlappung bei bandbegrenztem Signal.

220

5 Zeitdiskrete Signale

Sind die Voraussetzungen des Abtasttheorems nicht erfüllt, ist also das Spektrum des abzutastenden Signals y(t) nicht bandbegrenzt oder die Abtastfrequenz fA kleiner als die doppelte Maximalfrequenz im Signal y(t), so kommt es zu spektraler Überlappung. Eine eindeutige Zuordnung der Spektralanteile ist nicht mehr möglich. Wie im folgenden Beispiel gezeigt, können die Auswirkungen von Aliasing auch im Zeitbereich festgestellt werden. Beispiel 5.7 (Aliasing bei einem zeitkontinuierlichen Signal) Das zeitkontinuierliche Signal y(t) = y1 (t) + y2 (t) = sin (2π · 50 Hz · t) + sin (2π · 250 Hz · t) , bestehend aus zwei harmonischen Schwingungen der Frequenzen 50 Hz und 250 Hz, soll mit einer Abtastfrequenz von fA = 200 Hz und somit einer Abtastzeit von tA =

1 = 0,005 s fA

abgetastet werden. Die Abtastwerte lauten:     50 Hz 250 Hz yn = y(ntA ) = sin 2π n + sin 2π n 200 Hz 200 Hz       1 1 = sin 2π n + sin 2π 1 + n 4 4 π  π  = sin n + sin n + 2πn 2  2 π = 2 · sin n . 2 Die beiden harmonischen Schwingungen können im abgetasteten Signal offensichtlich nicht mehr unterschieden werden, da sich ihre Spektralanteile überlappen (vgl. • Abbildungen 5.8 und 5.9). Zur Verhinderung spektraler Überlappung gibt es nun zwei Möglichkeiten: 1 0,5 0 −0,5 −1

0

0,01

0,02

0,03

0,04

Abbildung 5.8: Abtastwerte einer 50 Hzund einer 250 Hz-Schwingung y1 (t) bzw. y2 (t) bei einer Abtastfrequenz von 200 Hz.

221

5.1 Grundlagen

−300

−100

0

100

300

Abbildung 5.9: Betragsspektrum des Signals y∗ (t).

1. Bei nicht bandbegrenzten Signalen muss man vor der Abtastung mit Hilfe eines Tiefpasses Frequenzanteile ab der halben Abtastfrequenz vollständig verschwinden lassen. In der Praxis muss zumindest sichergestellt werden, dass die Spektralanteile, die Aliasing erzeugen, mit einem Bandbegrenzungsfilter auf eine vernachlässigbare Stärke herausgefiltert worden sind. 2. Bei bandbegrenzten Signalen muss die Abtastfrequenz fA größer als das Doppelte der höchsten im Signal vorkommenden Frequenz sein. Kann man die Abtastfrequenz fA nicht beliebig erhöhen bzw. ist die Abtastfrequenz festgelegt, so muss man wie unter Punkt 1 mit Hilfe eines Tiefpasses die Aliasing erzeugenden Spektralanteile unterdrücken. An Bandbegrenzungsfilter (sog. Anti-Aliasing-Filter ) sind natürlich hohe Forderungen gestellt. Im Spektralbereich bis zur halben Abtastfrequenz, der als Nyquistband bezeichnet wird, darf das Signal nicht verändert werden. Oberhalb der halben Abtastfrequenz müssen alle Spektralanteile vollständig verschwinden. Dies ist nur mit Hilfe eines idealen Tiefpasses mit der Grenzfrequenz f2A möglich. Ein idealer Tiefpass ist in der realen Welt nicht zu verwirklichen. Man muss hier mit sehr steilflankigen Filtern auskommen, vgl. Abschnitt 6.8.4.

5.1.4

Rekonstruktion

In der Praxis interessiert nicht nur die Abtastung, also der Übergang vom zeitkontinuierlichen zum zeitdiskreten Signal, sondern auch die Rekonstruktion, d. h. der Übergang vom zeitdiskreten zum zeitkontinuierlichen Signal (z. B. nach einer digitalen Verarbeitung des Signals). Hierzu werden im Folgenden einige Methoden dargestellt. Systemtheoretisch wird die Rekonstruktion als Faltung der Impulsreihe y∗ (t) =

∞ X

yn · δ(t − n tA )

n=−∞

mit der Impulsantwort g(t) eines Interpolationsfilters bzw. Rekonstruktionsfilters be-

222

5 Zeitdiskrete Signale

schrieben: yˆ(t) = y∗ (t) ∗ g(t) . Dies entspricht einer Multiplikation im Frequenzbereich von Y∗ (f ) mit der jeweiligen Übertragungsfunktion G(f ) = F{g(t)} des Rekonstruktionsfilters. 5.1.4.1

Idealer Tiefpass (Cardinal Hold )

Das Abtasttheorem besagt, dass bei Abtastung von y(t) mit der Abtastfrequenz fA das Signal y(t) durch y(t) =

∞ X n=−∞

yn

∞ X sin(πfA (t − ntA )) = yn sinc(fA (t − ntA )) πfA (t − ntA ) n=−∞

vollständig rekonstruiert werden kann, wenn die Bedingungen des Abtasttheorems eingehalten worden sind. Die Rekonstruktion entspricht der Multiplikation mit einem symmetrischen Rechteckfenster im Frequenzbereich, das nur die Frequenzanteile des Nyquistbandes   fA fA − , 2 2 durchlässt, d. h. durch die Nyquistfrequenz fN = f2A nach oben und durch die negative Nyquistfrequenz nach unten begrenzt wird. Das Rechteckfenster macht somit die durch den Abtastvorgang entstandene Periodizität des Spektrums Y∗ (f ) rückgängig. Diese Rekonstruktionsmethode wird idealer Tiefpass oder auch Cardinal Hold genannt. Beim idealen Tiefpass hat die Impulsantwort g(t) des Rekonstruktionsfilters die Form: g(t) =

sin(πfA t) = sinc(fA t) . πfA t

(5.8)

Die Übertragungsfunktion ist rechteckförmig mit der halben Abtastfrequenz als Grenzfrequenz. Der ideale Tiefpass hat im Frequenzbereich unendlich steile Flanken. Man stellt weiterhin fest, dass bei der Rekonstruktion zu jedem Zeitpunkt alle Abtastwerte benötigt werden und diese Methode somit akausal ist; sie ist deshalb in der Praxis nicht durchführbar. Man muss daher eine andere Möglichkeit finden, durch geschickte Interpolation der Abtastwerte yn das zeitkontinuierliche Signal y(t) zu reproduzieren. Realisierbare Rekonstruktionsfilter stellen somit eine Näherung des idealen Tiefpassfilters dar. Die gebräuchlichsten werden in den nächsten Abschnitten behandelt. 5.1.4.2

Halteglied 0. Ordnung (Zero-Order Hold )

Das Halteglied 0. Ordnung (zero-order hold ) ist das einfachste realisierbare Rekonstruktionsfilter. Es wird auch box-car circuit, sample-and-hold oder data clamp genannt. Dabei wird angenommen, dass die Abtastzeitpunkte so dicht liegen, dass sich die Funktion zwischen den Abtastwerten nur unwesentlich ändert. Zwischen den Abtastzeitpunkten

223

5.1 Grundlagen

Abbildung 5.10: Rekonstruktion des Zeitverlaufs mit dem Halteglied 0. Ordnung.

hält das Halteglied 0. Ordnung den letzten Abtastwert als Funktionswert und springt an den Abtastzeitpunkten jeweils auf den neuen Abtastwert. Aus dem gewichteten Impulszug y∗ (t) entsteht eine Treppenfunktion, welche die ursprüngliche Funktion grob annähert. Dies ist in Abbildung 5.10 exemplarisch zu erkennen. Die Impulsantwort des Halteglieds 0. Ordnung  1 für 0 ≤ t < tA g(t) = 0 sonst

(5.9)

ist in Abbildung 5.11 links zu sehen. Der zugehörige Frequenzgang G(f ) = tA ·

sin(πf tA ) −jπf tA ·e πf tA

(5.10)

(Betrag siehe Abbildung 5.11 rechts) zeigt, dass erstens eine starke Verzerrung innerhalb des Nyquistbandes stattfindet und dass zweitens unerwünschte Frequenzanteile oberhalb der Nyquistfrequenz vorhanden sind (vgl. Abbildung 5.12). 2

1

1,5

0,8 0,6

1

0,4

0,5 0

0,2 0 0

0,2

0,4

0,6

0,8

1

−5

0

5

Abbildung 5.11: Impulsantwort und Amplitudengang des Halteglieds 0. Ordnung für tA = 1 s.

224

5 Zeitdiskrete Signale

Abbildung 5.12: Spektralverzerrung durch Verwendung des Halteglieds 0. Ordnung.

5.1.4.3

Linearer Interpolator (Linear Point Connector )

Als weitere einfache Rekonstruktionsmöglichkeit bietet es sich an, die Abtastwerte mittels gerader Linien zu verbinden. Dies entspricht der Trapezregel. Die Impulsantwort des Rekonstruktionsfilters lässt sich wie folgt angeben:  t für − tA ≤ t < 0   1 + tA t für 0 ≤ t < tA g(t) = 1 − tA .   0 sonst

Abbildung 5.13: Rekonstruktion des Zeitverlaufs mit dem linearen Interpolator.

(5.11)

225

5.1 Grundlagen 1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 −1

−0,5

0

0,5

1

−4

−2

0

2

4

Abbildung 5.14: Impulsantwort und Amplitudengang des linearen Interpolators für tA = 1 s.

Der entsprechende Frequenzgang ist: G(f ) = tA sinc2 (f tA ) = tA

sin2 (πf tA ) . (πf tA )2

(5.12)

Bei der Betrachtung von Abbildung 5.14 wird deutlich, dass dieses Rekonstruktionsfilter im Frequenzbereich eine bessere Konvergenz als das Halteglied 0. Ordnung aufweist. Der rekonstruierte Verlauf ist zwar im Vergleich zum Halteglied 0. Ordnung besser, aber man erkennt sofort, dass dieses Rekonstruktionsfilter im Gegensatz dazu nicht kausal ist, da man den nächsten Abtastwert bereits benötigt. Dieses Problem kann man dadurch umgehen, dass man die Ausgabe um einen Abtastschritt verzögert. Im n-ten Intervall wird dann nicht die Verbindungsgerade zwischen den Abtastwerten yn und yn+1 ausgegeben, sondern die Verbindungsgerade zwischen den Abtastwerten yn−1 und yn . Das kann man immer genau dann tun, wenn die dadurch entstehende Totzeit tA unkritisch ist. So stellt es z. B. bei der Rekonstruktion der Audiodaten auf einer CD kein Problem dar, wenn die zeitkontinuierlichen Toninformationen um tA =

1 1 = = 22,7 µs fA 44,1 kHz

später vom CD-Spieler geliefert werden. 5.1.4.4

Spline-Interpolation

Eine weitere Methode, um aus einer Folge von Abtastwerten eine kontinuierliche Funktion zu rekonstruieren, ist die Spline-Interpolation. An dieser Stelle wird keine vollständige Einführung in die Spline-Interpolation gegeben. Lediglich die Resultate werden vorgestellt. Für eine vollständige Einführung sei auf [KE08, Kro91] verwiesen. Eine verkürzte Herleitung findet sich in Anhang E. Je nach Anzahl der verwendeten Stützstellen ergeben sich verschiedene Rekonstruktionsfilter. In der Praxis wird man die Anzahl von Stützstellen vorgeben und anschließend die Abtastwerte der Spline-Interpolation unterziehen. Man interpoliert zwischen

226

5 Zeitdiskrete Signale 1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0

−0,2

−2

−1

0

1

2

−0,2

−2

−1

0

1

2

Abbildung 5.15: Impulsantworten von Spline-Rekonstruktionsfiltern bei Verwendung von 5 bzw. 3 Stützstellen.

einer sehr großen Anzahl von Stützwerten, was einer Lösung eines großen linearen Gleichungssystems entspricht, vgl. Anhang E. In Anhang E wird auch die Impulsantwort eines Rekonstruktionsfilters auf der Basis einer Spline-Interpolation mit den fünf Stützstellen −2, −1, 0, 1, 2 berechnet. In Abbildung 5.15 ist neben dieser Impulsantwort noch die Impulsantwort dargestellt, die bei Verwendung der drei Stützstellen −1, 0, 1 entsteht. 5.1.4.5

Rekonstruktion über die Fourier-Reihe

Das im Zeitbereich abgetastete Signal y∗ (t) soll mit Hilfe der Fourier-Reihe rekonstruiert werden. Die N zeitdiskreten Werte sind yn = y(n tA ) ,

n=−

N N ,..., − 1, 2 2

wobei wir der Einfachheit halber von einem geraden N ausgehen. 1. Man setzt eine Fourier-Reihe mit endlich vielen Koeffizienten an, was auf N 2

yˆ(t) =

−1 X

Yk ej2πk · ∆f · t ,

k=− N 2

∆f =

1 , N tA

führt. Die Spektralfunktion wird damit nur in dem Grundband mit den Werten Y− N , . . . , Y N −1 2

2

berücksichtigt. Dadurch sind periodische Wiederholungen im Spektralbereich mit einem idealen Rechteckfilter beseitigt worden. Die untere Grundfrequenz ist die Beobachtungsfrequenz ∆f = 1/(N tA ).

227

5.2 Diskrete Zufallsvariablen

2. Die Koeffizienten in obiger Darstellung berechnen sich, wie man durch einen Vergleich mit der Definitionsgleichung (3.123) und der später erarbeiteten Gleichung (5.74) für die diskrete Fourier-Transformation (DFT) erkennt, über Yk =

N −1 n 1 X yn e−j2π N k , N n=0

k=−

N N ,..., − 1. 2 2

Dies ähnelt bis auf den Vorfaktor gerade der diskreten Fourier-Transformation, die in Abschnitt 5.5.1 definiert wird. Aufgrund des diskreten Spektrums wird die Zeitfunktion periodisch fortgesetzt. Die Rekonstruktion mit der Fourier-Reihe liefert immer dann hervorragende Ergebnisse, wenn die periodische Fortsetzung im Zeitbereich keine Störungen über das Gibbs’sche Phänomen einbringt. Dazu müssen die Sprünge an den Bereichsgrenzen klein sein. Die Rekonstruktion ist allerdings nicht schrittweise in Echtzeit durchführbar. Beispiel 5.13 (Rekonstruktion eines Signals mittels der Fourier-Reihe) In diesem Beispiel wird die Funktion y(t) = e−t · (1 − cos(2π · 2 Hz · t)) ,

0 ≤ t ≤ 2,5 s ,

erst mit tA = 0,25 s abgetastet und anschließend mit Hilfe der Fourier-Reihe rekonstruiert. Das Resultat dieser Rekonstruktion ist in Abbildung 5.16 zu sehen. Obwohl das Abtasttheorem gerade noch als Grenzfall erfüllt ist, erhält man eine gute Rekonstruktion des Signals. • 2

2

1,5

1,5

1

1

0,5

0,5

0

0

−0,5

0

0,5

1

1,5

2

2,5

−0,5

0

0,5

1

1,5

2

2,5

Abbildung 5.16: Beispiel der Rekonstruktion einer Funktion mittels einer Fourier-Reihe.

5.2

Diskrete Zufallsvariablen

In der Digitaltechnik liefern stochastische Prozesse keinen stetigen Fluss von Zufallswerten X, sondern geben diese zu äquidistanten Zeitpunkten aus, d. h. der Zeitbereich

228

5 Zeitdiskrete Signale

T aus der Definition 3.43 ist gerade N oder eine endliche Teilmenge davon. In diesem Fall spricht man von einem zeitdiskreten stochastischen Prozess. Weiterhin kann ein digitales Signal nur endlich viele, insbesondere also maximal abzählbar viele, Werte xi , i ∈ I, I ⊆ Z, annehmen. Eine Zufallsvariable, die eine solche Eigenschaft aufweist, wird als diskrete Zufallsvariable bezeichnet. In diesem Fall geht die Wahrscheinlichkeitsdichte in eine diskrete Wahrscheinlichkeitsverteilung über: X (p(xi ))i∈I mit p(xi ) = 1 . (5.14) i∈I

Die Zahl X

P (X ≤ x) =

(5.15)

p(xi )

xi ≤x

gibt dabei die Wahrscheinlichkeit an, dass das stochastische Signal X einen Wert kleiner gleich x besitzt. Entsprechend werden das n-te Moment X E{X n } = xni p(xi ) (5.16) i∈I

und das n-te zentrale Moment E{(X − E{X})n } =

X

(xi − E{X})n p(xi )

(5.17)

i∈I

definiert. Die Berechnung der Wahrscheinlichkeit und der Momente bei mehrdimensionalen diskreten Zufallsvektoren erfolgt entsprechend. Auch die Begriffe Kovarianz, Korrelation, Stationarität und Ergodizität lassen sich von den zeitkontinuierlichen stochastischen Prozessen meist mit Hilfe minimaler Modifikationen übernehmen. Der interessierte Leser findet hierzu in [BS75, Hän83, Ise74] genauere Ausführungen.

5.3

Fourier-Transformation zeitdiskreter Signale

Zur Bearbeitung von Problemen der Mess-, Steuerungs- und Regelungstechnik werden Digitalrechner verwendet. Die Signale werden in solchen Digitalrechnern nicht mehr kontinuierlich verarbeitet, sondern müssen davor abgetastet werden. Zwar erreicht man bei genügend hoher Abtastrate eine quasikontinuierliche Verarbeitung, trotzdem unterscheiden sich die Spektren eines kontinuierlichen und eines abgetasteten Signals prinzipiell. Dieser Unterschied wird im folgenden Abschnitt untersucht.

5.3.1

Definition der Fourier-Transformation zeitdiskreter Signale

Ein zeitkontinuierliches Signal y(t) werde mit der Abtastzeit tA = 1/fA abgetastet. Das abgetastete Signal y∗ (t) ergibt sich aus y(t) durch Multiplikation mit einer Impulsreihe y∗ (t) = y(t) ·

∞ X

n=−∞

δ(t − ntA )

(5.18)

229

5.3 Fourier-Transformation zeitdiskreter Signale oder als Folge yn = y(ntA ) ,

(5.19)

n ∈ Z.

Setzt man Gleichung (5.18) in (3.131) ein, so erhält man die Fourier-Transformierte des zeitdiskreten Signals y∗ (t) als Z∞ Y∗ (f ) =

y∗ (t) e−j2πf t dt =

−∞

=

=

∞ X

Z∞

Z∞ X ∞

y(t) δ(t − ntA ) e−j2πf t dt

−∞ n=−∞

y(t) · δ(t − ntA ) e−j2πf t dt

n=−∞−∞ ∞ X

∞ X

y(ntA ) e−j2πf ntA =

n=−∞

yn e−j2πf ntA .

n=−∞

Satz 5.20 (Fourier-Transformation zeitdiskreter Signale) Das Spektrum eines mit der Abtastfrequenz fA abgetasteten Signals y(t) ist durch Y∗ (f ) =

∞ X

∞ X

yn e−j2πf ntA =

n=−∞

y(ntA ) e−j2πf ntA

(5.21)

n=−∞

gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung durch Integration über das Nyquistband: fZA /2

yn = t A

Y∗ (f ) ej2πf ntA df .

(5.22)

−fA /2

Dies entspricht einer Rekonstruktion des zeitkontinuierlichen Signals y(t) mit anschließender Abtastung zu yn . • Beweis: Zum Beweis von Gleichung (5.22) integrieren wir Y∗ (f ) über das Nyquistband und setzen für Y∗ (f ) Gleichung (5.21) ein: fZA /2

Y∗ (f ) e

j2πf ntA

fZA /2

∞ X

df =

−fA /2

−fA /2

=

0

yn0 e−j2πf n tA ej2πnf tA df

n0 =−∞

∞ X n0 =−∞

fZA /2

yn0 −fA /2

0

ej2π(n−n )tA f df .

230

5 Zeitdiskrete Signale

Mit der Substitution f tA = f 0 , df 0 = tA df folgt: fA

Z2 −

1

Y∗ (f ) ej2πf ntA df =

fA 2

=

∞ X

Z2 y n0

n0 =−∞ ∞ X

ej2πf

0

(n−n0 )

fA df 0

− 12

yn0 fA δ(n − n0 ) = yn fA .

n0 =−∞

Man erkennt, dass das Spektrum (5.21) mit fA = 1/tA periodisch ist, da für k ∈ Z gilt:  Y∗

k f+ tA

∞ X

 =

y(ntA ) e

−j2π(f +

k tA )ntA

n=−∞ ∞ X

−j2π tkA ntA y(ntA ) e−j2πf ntA e| {z } n=−∞ =1 = Y∗ (f ) . =

Dies folgt bereits daraus, dass für Y∗ (f ) im Beweis des Abtasttheorems die Darstellung   ∞ 1 X k Y∗ (f ) = Y f− tA tA k=−∞

hergeleitet wurde, aus welcher die Periodizität unmittelbar abzulesen ist. Zur Vereinfachung wird die Frequenz f oft auf die Abtastfrequenz 1/tA normiert. Dabei ergibt sich die normierte Kreisfrequenz Ω=

2πf = 2πf tA . 1/tA

(5.23)

Dadurch vereinfacht sich (5.21) zu: Y∗ (Ω) =

∞ X

yn e−jΩn .

(5.24)

n=−∞

Nun ist das Spektrum 2π-periodisch. Satz 5.25 (Fourier-Transformation zeitdiskreter Signale, normierte Version) Das normierte Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals y(t) ist mit Ω = 2πf tA wie folgt gegeben: Y∗ (Ω) =

∞ X n=−∞

yn e−jΩn =

∞ X n=−∞

y(n tA ) e−jΩn .

(5.26)

231

5.3 Fourier-Transformation zeitdiskreter Signale Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung durch 1 yn = 2π



Y∗ (Ω) ejΩn dΩ .

(5.27)

−π

• Bemerkung 5.28 1. Es ist zu beachten, dass die Variable Ω die Abtastfrequenz fA beinhaltet und nicht losgelöst von dieser betrachtet werden kann. 2. Die normierte Fourier-Transformation zeitdiskreter Signale wird in der Literatur oft in Anlehnung an die englische Bezeichnung „Discrete-Time Fourier Transform“ auch mit DTFT{yn } = Y∗ (Ω) ,

DTFT−1 {Y∗ (Ω)} = yn

bezeichnet, ist aber nicht mit der diskreten Fourier-Transformation (DFT) zu verwechseln. 3. Hat das ursprüngliche zeitkontinuierliche Spektrum Y (Ω) von null verschiedene Anteile nur im Bereich Ω = [−π, π] , so stimmt das Spektrum Y∗ (Ω) der im Zeitbereich abgetasteten Funktion y∗ (t) in diesem Bereich mit dem Spektrum Y (Ω) der zeitkontinuierlichen Funktion y(t) überein. Genau dies ist die Aussage des Abtasttheorems von Shannon. Normierte Kreisfrequenzen mit |Ω| ≥ π werden wegen der Periodizität des Spektrums in den Bereich −π bis π gespiegelt. Dies wurde in Abschnitt 5.1.3 • behandelt.

5.3.2

Eigenschaften der Fourier-Transformation zeitdiskreter Signale

In diesem Abschnitt werden einige Eigenschaften für die normierte Fourier-Transformation zeitdiskreter Signale vorgestellt. Diese erweisen sich bei der Betrachtung zeitdiskreter Signale oft als hilfreich und sind in den meisten Fällen analog zu den entsprechenden Aussagen bei zeitkontinuierlichen Signalen. Satz 5.29 (Zeitversatz) Die Fourier-Transformierte der zeitverschobenen Folge yn−n0 ist durch eine modulierte Frequenzfunktion gegeben. Es gilt: DTFT{yn−n0 } = e−jΩn0 Y∗ (Ω) .

(5.30) •

232

5 Zeitdiskrete Signale

Beweis: Die Aussage folgt durch Anwenden der Definitionsgleichung: ∞ X

DTFT{yn−n0 } =

yn−n0 e−jΩn =

n=−∞

= Y∗ (Ω) e

∞ X

yn−n0 e−jΩ(n−n0 ) e−jΩn0

n=−∞ −jΩn0

.

Satz 5.31 (Frequenzversatz) Die Fourier-Transformierte einer modulierten Wertefolge yn ejΩ0 n ergibt sich über eine Frequenzverschiebung der Spektralfunktion: DTFT{yn ejΩ0 n } = Y∗ (Ω − Ω0 ) .

(5.32) •

Beweis: Ebenfalls mittels der Definitionsgleichung ergibt sich: DTFT{yn ejΩ0 n } =

∞ X

yn ejΩ0 n e−jΩn =

n=−∞

∞ X

yn e−j(Ω−Ω0 )n

n=−∞

= Y∗ (Ω − Ω0 ) . Die beiden folgenden Aussagen lassen sich ebenfalls relativ einfach durch Anwendung der Gleichungen (5.26) und (5.27) beweisen. Satz 5.33 (Multiplikation zweier Wertefolgen) Für die Fourier-Transformation eines Produktes zweier Wertefolgen xn und yn gilt DTFT{xn · yn } =

1 X∗ (Ω) ∗ Y∗ (Ω) . 2π

(5.34) •

Satz 5.35 (Faltung zweier Wertefolgen) Die Faltung xn ∗ yn zweier Folgen xn und yn im Zeitbereich geht durch die FourierTransformation in eine Multiplikation über. Mit X∗ (Ω) = DTFT{xn } und Y∗ (Ω) = DTFT{yn } folgt DTFT{xn ∗ yn } = X∗ (Ω) · Y∗ (Ω) .

(5.36) •

233

5.3 Fourier-Transformation zeitdiskreter Signale

5.3.3

Energie- und Leistungsdichte

Die Kreuzkorrelation zweier zeitdiskreter Energiesignale x(n), y(n) mit diskreter Zeitverschiebung τ = k tA wird als das zeitdiskrete Innenprodukt berechnet: ∞ X

E Rxy (k) = hx(n + k), y(n)in =

x(n + k) y ∗ (n) .

(5.37)

n=−∞

Ähnlich wie in Abschnitt 3.5.2.2 kann die Korrelation mit der Substitution m = −n als Faltungssumme formuliert werden: ∞ X

E Rxy (k) =

x(k − m) y ∗ (−m) = x(k) ∗ y ∗ (−k) .

(5.38)

m=−∞

Die Fourier-Transformierte der zeitdiskreten Kreuzkorrelation für Energiesignale ist die Kreuzenergiedichte E S∗xy (f ) =

∞ X

E Rxy (k) e−j2πf ktA .

(5.39)

k=−∞

Bei Energiesignalen kann man die Energiedichte im Frequenzbereich ohne Umweg über die Korrelation unmittelbar aus dem Produkt der Fourier-Transformierten berechnen. Durch Einsetzen von Gleichung (5.38) in Gleichung (5.39) folgt E S∗xy (f ) =

=

∞ X

∞ X

x(k − m) y ∗ (−m) e−j2πf ktA

k=−∞ m=−∞ ∞ ∞ X X

x(k − m) e−j2πf (k−m)tA · y ∗ (−m) e−j2πf mtA .

k=−∞ m=−∞

Mit der Substitution k 0 = k − m wird dies gleich dem Produkt E S∗xy (f ) =

∞ X

0

x(k 0 ) e−j2πf k tA

∞ X m=−∞

k0 =−∞

y ∗ (−m) e−j2πf mtA = X∗ (f ) · Y∗∗ (f ) .

Die inverse Fourier-Transformation der Energiedichte im Frequenzbereich ist mit Gleichung (5.22) die zeitdiskrete Korrelation fA

E Rxy (k) = tA

Z2



S∗xy (f ) ej2πf ktA df .

fA 2

Die Energie des abgetasteten Signals ist gleich der Autokorrelationsfunktion an der Stelle k = 0: fA

E E∗x = Rxx (k = 0) =

∞ X n=−∞

|x(n)|2 = tA

Z2



fA 2

E S∗xx (f ) df .

234

5 Zeitdiskrete Signale

Die Energie E∗x des abgetasteten Signals ist im Allgemeinen nicht identisch mit der Energie Ex des zeitkontinuierlichen Signals. Die Fourier-Transformierte der zeitdiskreten Korrelationsfunktion für zeitdiskrete Leistungssignale ist die Leistungsdichte S∗xy (f ). Eine unmittelbare Berechnung aus den Fourier-Transformierten der Signale ist bei Leistungssignalen nicht möglich. Die Signalleistung des zeitdiskreten Signals ist gleich der zeitdiskreten Autokorrelationsfunktion für die Zeitverschiebung k = 0, fA

P∗x

Z2 N X 1 2 = Rxx (k = 0) = lim |x(n)| = tA S∗xx (f ) df , N →∞ 2N + 1 n=−N



fA 2

entsprechend dem Integral der Leistungsdichte des zeitdiskreten Signals über dem Nyquistband.

5.4

Abtastfrequenz

Es ist einleuchtend, dass die Wahl einer geeigneten Abtastfrequenz einen zentralen Punkt der digitalen Signalverarbeitung darstellt. Das Abtasttheorem gibt Bedingungen zur Vermeidung von Aliasing vor. Kann dieses jedoch nicht eingehalten werden, so sollen durch geschickte Wahl der Abtastfrequenz fA Aliasingeinflüsse minimiert werden. Da das Spektrum realer Signale für hohe Frequenzen gegen null geht, könnte man mit einer genügend hohen Abtastfrequenz fA Aliasingfehler nahezu ausschließen. In der Praxis ist dieser Weg nicht immer gangbar. Wo hochfrequente Signale anfallen, beispielsweise in der Bild- und Sprachverarbeitung, kommt man sehr nahe an die Grenze der Leistungsfähigkeit der digitalen Signalverarbeitungsanlagen. Damit ist die Abtastfrequenz durch die technischen Gegebenheiten begrenzt. Wichtig für die Wahl der Abtastfrequenz ist auch die Frage, wann die verarbeiteten Daten zur Verfügung stehen müssen. Werden beispielsweise Versuchsdaten auf Datenträgern abgespeichert und die Signalverarbeitung im Offline-Betrieb vorgenommen, so muss die Auswertung nicht mit dem gleichen Takt wie die Abtastung erfolgen. Der Offline-Betrieb kann jedoch nur dann gewählt werden, wenn das Ergebnis der Auswertung nicht in den Versuch zurückgeführt werden muss. Der Vorteil liegt in der möglichen Verwendung akausaler Filter, da aufgrund der verspäteten Auswertung auch „zukünftige“ Werte vorliegen. Im Gegensatz zum Offline-Betrieb stehen beim Online-Betrieb neben dem aktuellen Abtastwert lediglich alle vergangenen Abtastwerte zur Verfügung und das Ergebnis der Signalverarbeitung muss idealerweise bereits beim darauffolgenden Abtastschritt vorhanden sein. Der Verarbeitungsalgorithmus muss also kausal sein. In vielen Fällen der digitalen Signalverarbeitung, so z. B. bei der Sprach- und Bildverarbeitung, ist eine um N +1 Abtastschritte verzögerte Ausgabe des Ergebnisses tolerierbar. Hierdurch könnten die N dem aktuellen Zeitpunkt folgenden Abtastwerte in die aktuelle Berechnung mit eingehen. Dadurch erreicht man eine Art Quasikausalität. Dies ist in Abbildung 5.17 skizziert.

235

5.4 Abtastfrequenz

Abbildung 5.17: Quasikausalität im Online-Betrieb.

Bei der Wahl der Abtastfrequenz gibt es zwei wichtige Begriffe, auf die im Folgenden näher eingegangen wird. Bei der Überabtastung wird eine Abtastfrequenz fA gewählt, die deutlich höher ist, als es vom Abtasttheorem gefordert wird. Bei der Unterabtastung liegt die Abtastfrequenz fA hingegen deutlich niedriger.

5.4.1

Überabtastung

Bei der Verarbeitung zeitkontinuierlicher Signale durch Digitalrechner werden diese Signale abgetastet und anschließend rekonstruiert. Die Realisierung dafür geeigneter Anti-Aliasing- und Rekonstruktionsfilter kann dabei erhebliche Probleme aufwerfen. Im Folgenden wird gezeigt, wie man durch Überabtastung und zeitdiskrete Filterung den Aufwand für Anti-Aliasing- und Rekonstruktionsfilter reduzieren kann. 5.4.1.1

Überabtastung bei der Anti-Aliasing-Filterung

Interessieren die Spektralinformationen eines Signals y(t) in einem Frequenzbereich [−fN , fN ], so muss aufgrund des Abtasttheorems das Signal y(t) mindestens mit der Frequenz fA = 2fN abgetastet werden. Um Aliasing zu vermeiden, muss das Signal y(t) zuerst mit einem idealen Tiefpass auf das Nyquistband [−fN , fN ] beschränkt werden. In der Praxis gibt es keinen idealen Tiefpass – außerdem bewirken Tiefpässe mit hoher Flankensteilheit starke Phasenverzerrungen (vgl. Beispiel 4.172) und sind sehr aufwändig zu realisieren. Mit Hilfe der Überabtastung kann man dieses Problem umgehen. Dabei verwendet man zuerst ein relativ einfaches Anti-Aliasing-Filter mit geringer Flankensteilheit und tastet das gefilterte Signal mit einer deutlich höheren Abtastfrequenz fA0 ab, siehe Abbildung 5.18. Das resultierende zeitdiskrete Signal yn0 wird dann mit einem zeitdiskreten Filter hoher Flankensteilheit auf das eigentliche Nyquistband [−fN , fN ] begrenzt. Danach reduziert man die Abtastfrequenz wieder auf fA = 2fN , was als Downsampling bezeichnet wird. Liegt die Frequenz fN in einem Bereich, bei dem es technisch kein Problem darstellt, mit einer weitaus höheren Abtastfrequenz als 2fN überabzutasten, dann wird das Signal y(t) mit der r-fachen Abtastfrequenz fA0 = r · fA = r · 2fN ,

r  1,

(5.40)

abgetastet. Der Faktor r ist der Grad der Überabtastung – man spricht etwa bei r = 4 von einer 4-fachen Überabtastung. Bei der späteren Betrachtung des Downsampling ergibt sich der Faktor r sinnvollerweise als eine ganze Zahl.

236

5 Zeitdiskrete Signale Analoges Anti-AliasingFilter

Überabtastung mit

Zeitdiskretes Anti-AliasingFilter

Downsampling

Verarbeitung, Speicherung

Upsampling

Zeitdiskretes InterpolationsFilter

Analoges RekonstruktionsFilter

Abbildung 5.18: Vorgehensweise bei der Überabtastung.

Das mit der r-fachen Abtastfrequenz fA0 abgetastete Signal yn0 wird nun mit Hilfe eines zeitdiskreten Filters im Spektralbereich auf das Nyquistband [−fN , fN ] reduziert: zn0 = S{yn0 } .

(5.41)

Dabei können zeitdiskrete Filter im Digitalrechner verwendet werden, die den Phasenverlauf weniger stark stören (siehe Abschnitt 6.8.4). Das gefilterte, zeitdiskrete Signal zn0 besitzt definitionsgemäß nur Frequenzanteile im eigentlichen Nyquistband, d. h. eine höhere Abtastrate als fA ist nicht mehr erforderlich. Zur Berechnung von zm wird nun ein Gedankenexperiment durchgeführt. Dabei wird das gefilterte, zeitdiskrete Signal zn0 zuerst ideal rekonstruiert und anschließend mit der einfachen Abtastfrequenz fA wieder abgetastet. Das gefilterte, zeitdiskrete Signal zn0 wurde zu den Zeitpunkten n n t0n = = tA , n∈Z 2rfN r

(5.42)

überabgetastet. Hieraus ergibt sich nach Gl. (5.5) mit B = rfN das rekonstruierte Signal    n ∞ sin 2πrfN t − 2rf X N   zˆ(t) = zn0 . (5.43) n 2πrfN t − 2rfN n=−∞ Das zeitkontinuierliche Signal zˆ(t) wird nun zu den Zeitpunkten m tm = , m ∈ Z, 2fN

(5.44)

mit der niedrigen Abtastrate 2fN abgetastet. Die Abtastwerte ergeben sich zu    n ∞ sin 2πrfN 2fmN − 2rf X N   zm = zˆ(tm ) = zn0 m n 2πrfN 2fN − 2rfN n=−∞ =

∞ X n=−∞

zn0

sin (π(rm − n)) . π(rm − n)

(5.45)

5.4 Abtastfrequenz

237

Ist r ∈ Z \ {0}, dann gilt für den sin(x) x -Bruch  sin (π(rm − n)) 1 für rm = n = . 0 sonst π(rm − n) Hieraus folgt dann 0 zm = zrm .

(5.46)

Dies bedeutet, dass zur Reduzierung der Abtastrate lediglich jeder r-te Abtastwert von zn0 weiterverwendet wird. Für allgemeine r ∈ R wäre keine Vereinfachung gemäß Gl. (5.46) möglich, sondern die Abtastwerte zm mit der einfachen Abtastfrequenz fA müssten nach Gl. (5.45) bestimmt werden. In der Praxis wäre das nicht durchführbar, weil nicht alle Abtastwerte zn0 , n ∈ Z, zur Verfügung stehen. Die Betrachtung im Frequenzbereich zeigt, dass bei der idealen Rekonstruktion (5.5) das Spektrum Z∗0 (f ) des zeitdiskreten Signals zn0 im Frequenzbereich [−rfN , rfN ] vollständig und unverzerrt erhalten bleibt, seine Periodizität verschwindet und es außerhalb des Frequenzbereiches [−rfN , rfN ] keine Signalanteile besitzt. Die Abtastung mit der einfachen Abtastfrequenz fA erzeugt eine periodische Fortsetzung des Spektrums mit Nyquistband [−fN , fN ]. Um Aliasing zu vermeiden, müssen zuvor im Spektrum Z∗0 (f ) des zeitdiskreten Signals zn0 alle Signalanteile im Frequenzbereich [−rfN , −fN ] bzw. [fN , rfN ] beseitigt werden. Der gesamte Vorgang der Überabtastung wird in Abbildung 5.19 im Spektralbereich gezeigt. Dabei wird das Signal y(t) durch 2-fache Überabtastung abgetastet, im zeitdiskreten Bereich auf das Nyquistband begrenzt und anschließend durch Downsampling auf die einfache Abtastfrequenz gebracht. Der Vorteil der Überabtastung liegt in der Verwendung eines kostengünstig im Mikrorechner realisierbaren zeitdiskreten Anti-Aliasing-Filters. Der Nachteil liegt offensichtlich in der anfänglich höheren Abtastrate. Zum Abschluss wird die Überabtastung an einem Beispiel demonstriert. Beispiel 5.47 (Überabtastung bei der CD-Aufnahme) Die technischen Daten einer Audio-CD schreiben eine Abtastfrequenz von fA = 44,1 kHz vor, die Nyquistfrequenz liegt also bei fN = 22.050 Hz. Der von einer Audio-CD übertragene Frequenzbereich liegt etwa zwischen 5 Hz und 20.000 Hz. Da an der oberen Grenze des Hörbereiches das Signal um maximal 3 dB und bei der Nyquistfrequenz um mindestens 60 dB gedämpft werden soll, müsste man ohne Überabtastung ein Anti-Aliasing-Filter sehr hoher Ordnung verwenden. Dies würde zu starken Phasenverzerrungen führen, die im Audiobereich nicht tolerierbar sind, da das menschliche Ohr hierfür sehr empfindlich ist. Hingegen liegt bei 8-facher Überabtastung die Abtastfrequenz bei 352,8 kHz, was technisch kein Problem darstellt. Um hier Aliasingeffekte zu vermeiden, muss das

238

5 Zeitdiskrete Signale

Abbildung 5.19: 2-fache Überabtastung eines Signals y(t) im Spektralbereich.

Audiosignal erst ab 176,4 kHz praktisch verschwinden. Dies ist oftmals allein durch das Übertragungsverhalten des Mikrophons gegeben. Nach zeitdiskreter Filterung auf die eigentliche Nyquistfrequenz 22.050 Hz folgt dann das Downsampling auf die Abtastfrequenz 44,1 kHz. • 5.4.1.2

Überabtastung bei der Rekonstruktion

Die Überabtastung spielt nicht nur bei der Abtastung eines Signals und bei der Vermeidung von Aliasing eine Rolle, sondern auch bei der Rekonstruktion des zeitkontinuierlichen Signalverlaufes. In Abschnitt 5.1.4 wurde gezeigt, dass die Rekonstruktion keine triviale Aufgabe ist, da man zur vollständigen, fehlerfreien Rekonstruktion einen idealen Tiefpass benötigt. Ähnlich wie bei Überabtastung zur Vermeidung steilflankiger Filter kann man auch hier den Weg der Überabtastung gehen. Zur Konstruktion eines überabgetasteten zeitdiskreten Signals zn0 wird die Abtastrate durch äquidistantes Einfügen von r − 1 zusätzlichen Werten zwischen den eigentlichen Abtastwerten zm um den Faktor r erhöht. Damit sinken die Anforderungen an das Rekonstruktionsfilter. Beim Einfügen von zusätzlichen Werten bieten sich zwei Methoden an. Auf der einen Seite werden Nullen eingefügt. Dies hat den Vorteil, dass der Energiegehalt des Signals nicht geändert wird. Dann wird das Spektrum mit einem über das Nyquistband [− f2A , f2A ] reichenden Tiefpassfilter gefiltert. Die Filterung entspricht einer Interpolation, bei der die eingefügten Nullen durch interpolierte Zwischenwerte ersetzt werden. Die zweite Möglichkeit besteht in der Wiederholung des jeweils letzten ursprünglichen Abtastwertes, d. h. ein Abtastwert zm wird (r −1)-mal zusätzlich eingefügt. Dadurch erhöht sich natürlich der Energiegehalt des Signals. Dies soll nun mathematisch analysiert

239

5.4 Abtastfrequenz

werden. Hierbei werden die beiden Möglichkeiten zur Ausfüllung der Zwischenstellen separat betrachtet. Einfügen von Nullen. Das Spektrum des zeitdiskreten Signals zm = z(mtA ), m ∈ Z, ergibt sich nach Gleichung (5.21) zu Z∗ (f ) =

∞ X

zm e−j2πf mtA .

m=−∞

Beim Einfügen von Nullen entstehen aus den einfachen mit der Abtastfrequenz fA abgetasteten Abtastwerten zm die Abtastwerte  zm für n = r · m zn0 = (5.48) 0 sonst mit der Abtastfrequenz rfA , deren Spektrum sich vom Spektrum Z∗ (f ) des ursprünglichen, zeitdiskreten Signals zm nicht unterscheidet: Z∗0 (f ) = =

∞ X

zn0 e−j2πf n

n=−∞ ∞ X

tA r

=

∞ X

zm e−j2πf rm

tA r

m=−∞

zm e−j2πf mtA = Z∗ (f ) .

m=−∞

Dies ist auch einleuchtend, denn betrachtet man ein zeitdiskretes Signal als Impulsreihe, so werden beim Einfügen von Nullen nur Impulse der Höhe null eingefügt. Die zeitdiskrete Funktion z∗ (t) ändert sich nicht. Die Zeit- und Spektralfunktionen finden sich in Abbildung 5.20. • Wiederholen des Abtastwertes. Bei (r − 1)-fachem Wiederholen des letzten Abtastwertes werden die neuen Abtastwerte zu zn00 = zm ,

n = rm + i ,

i = 0...r − 1,

m ∈ Z.

Deren Fourier-Transformierte Z∗00 (f ) = =

∞ X

zn00 e−j2πf n

tA r

=

n=−∞ ∞ X m=−∞

∞ r−1 X X

tA zm e−j2πf (rm + i) r

m=−∞ i=0

zm e−j2πf mtA ·

r−1 X tA e−j2πf i r i=0

wird mit  r−1 X tA 1 sin (πf tA )  e−j2πf i r = e−jπf tA 1 − r · sin πf trA i=0

(5.49)

240

5 Zeitdiskrete Signale

Originalspektrum

0,6 z∗ (t), z∗′ (t)

|Z∗ (f )|, |Z∗′ (f )|

4

0

0,2 0

–0,2 –2

fA′

fA

0,4

–1

f /Hz Spektrum nach zeitdiskreter Filterung

0

1

2

1

2

t/s

4

0,6 x′∗ (t)

|X∗′ (f )|

0,4 0,2 0 0 f /Hz

fA′

–0,2 –2

–1

0 t/s

Abbildung 5.20: Originalspektrum = Spektrum nach Einfügen von Nullwerten; darunter Spektrum nach zeitdiskreter Filterung, was einer Interpolation entspricht, bei Überabtastung um den Faktor 4.

wie folgt beschrieben: Z∗00 (f ) = Z∗ (f ) · e−jπf tA 1 −

1 r



·

sin (πf tA ) . sin πf trA

(5.50)

Hier erkennt man auf der einen Seite eine Phasenverzerrung durch e−jπf tA (1−1/r) und auf der anderen Seite eine Amplitudenverzerrung durch den Quotienten zweier SinusSchwingungen. In Abbildung 5.21 sieht man deutlich die Verzerrung des Spektrums bei Wiederholen des letzten Abtastwertes. • In der Praxis wird man also Nullen einfügen, um eine Verzerrung des Spektrums zu vermeiden. Durch das Upsampling auf zn0 bzw. Z∗0 (f ) verändert sich das Spektrum nicht. Die Interpolation zwischen vorhandenen Stützstellen (Abstand tA ) ersetzt die willkürlich eingefügten Nullen (Abstand trA ) durch interpolierte Stützstellen. Die Interpolation erfolgt mit einem idealen zeitdiskreten Rechtecktiefpass mit der Grenzfrequenz f2A (nicht r f2A !).

241

5.4 Abtastfrequenz

Originalspektrum

4

0,6 0,4 z∗ (t)

|Z∗ (f )|

3 2

0,2

1

0

0

–0,2 –2

fA

–1

f /Hz Spektrum nach Wiederholen des Abtastwertes

4

1

2

1

2

0,6 z∗′′ (t)

3 |Z∗′′ (f )|

0 t/s

2

0,4 0,2

1

0

0

–0,2 –2

fA′′

f /Hz

–1

0 t/s

Abbildung 5.21: Ursprüngliches Spektrum eines zeitdiskreten Signals; darunter Spektrum nach Wiederholen des letzten Abtastwertes bei 4-facher Überabtastung; deutlich erkennbar ist die Erhöhung der Energie.

Die Aufeinanderfolge von Upsampling und Interpolationsfilter kann analytisch durch eine Rekonstruktion der zm und anschließende Überabtastung mit fA0 = rfA beschrieben werden. Die Rekonstruktion ist nach Gleichung (5.5) x ˆ(t) =

∞ X

zm

m=−∞

sin(πfA (t − mtA )) . πfA (t − mtA )

Die Überabtastung ergibt

x0n = x ˆ(t = nt0A ) =

∞ X m=−∞

=

∞ X m=−∞

zm

zm

sin(πfA ( nr tA − mtA )) πfA ( nr tA − mtA )

sin(π( nr − m)) . π( nr − m)

242

1 0,5 0

m

0

fA

f /Hz

1 0,5 0

n

0

f /Hz

fA′

|X∗′ (f )|

x′n

|Z∗′ (f )|

zn′

|Z∗ (f )|

zm

5 Zeitdiskrete Signale

1 0,5 0

n

0

f /Hz

fA′

Abbildung 5.22: Vorgang bei der Rekonstruktion; die interpolierten Stützstellen mit n 6= rm werden durch ideale Tiefpassfilterung gewonnen.

In den ursprünglichen Stützstellen gilt n = rm und damit x0n = zn/r .

Beispiel 5.51 (Überabtastung bei der CD-Wiedergabe) Bei der Wiedergabe einer Audio-CD liegen die zeitdiskreten Audiosignale mit der festen Abtastfrequenz fA = 44,1 kHz vor. Um die Verwendung eines steilflankigen zeitkontinuierlichen Rekonstruktionsfilters zu vermeiden, wird in CD-Wiedergabegeräten die Methode des Überabtastens verwendet. Bei einer exemplarischen Überabtastrate von 4 fügt man drei Nullwerte äquidistant zwischen den von der CD gelesenen Abtastwerten ein. Dadurch erhöht sich die Abtastfrequenz fA um den Faktor 4. Nun filtert man mit Hilfe eines zeitdiskreten Filters die Frequenzanteile von der eigentlichen Nyquistfrequenz fN bis zur überabgetasteten Nyquistfrequenz fN0 heraus. Damit ist das eigentliche Signal wiederhergestellt und kann dann mit Hilfe eines einfachen Rekonstruktionsfilters ausgegeben werden. In Abbildung 5.22 sieht man in der ersten Abbildung die von der CD gelesenen Abtastwerte zm , in der zweiten Abbildung das dazugehörige Spektrum Z∗ (f ). In der

243

5.4 Abtastfrequenz

dritten Abbildung sieht man die Wertefolge zn0 nach dem Einfügen von Nullen, in der vierten Abbildung das dazugehörige unveränderte Spektrum Z∗0 (f ). In der fünften Abbildung sieht man die interpolierte Wertefolge x0n . Diese wurde durch Rechteckfilterung des Nyquistbandes ermittelt, wie das dazugehörige Spektrum X∗ (f ) in der sechsten Abbildung zeigt. • Schon hier sei angemerkt, dass eine zeitdiskrete Filterung durch Additionen, Multiplikationen und Speicherungen durchgeführt wird. Fügt man zur Überabtastung Nullen zwischen den ursprünglichen Werten ein, so erhöht sich der „Rechenaufwand“ nur unwesentlich, da die Multiplikation bzw. die Addition mit null trivial ist und keiner Rechenzeit bedarf.

5.4.2

Unterabtastung

Bei der Überabtastung wählt man eine höhere Abtastfrequenz, um ein Signal y(t) verzerrungsärmer abzutasten bzw. zu rekonstruieren. Dies ist nur dann sinnvoll, wenn der größere Aufwand für die höhere Abtastfrequenz durch die bessere Qualität des Signals gerechtfertigt wird. Die höhere Abtastfrequenz muss natürlich technologisch realisierbar sein. Hat man hingegen ein Bandpass-Signal y(t) mit sehr hohen Frequenzanteilen (z. B. ein Bildsignal oder das Signal einer UKW-Antenne), und kann die nach dem Abtasttheorem geforderte kleinste Abtastfrequenz gar nicht oder nur mit unverhältnismäßig hohem Aufwand realisiert werden, so muss man eine kleinere Abtastfrequenz wählen. Welche Bedingungen erfüllt sein müssen, damit diese Unterabtastung nicht zu Aliasingeffekten führt, soll im Folgenden behandelt werden. Zum Verständnis der Funktionsweise der Unterabtastung wird das folgende Beispiel betrachtet. Beispiel 5.52 (Unterabtastung einer harmonischen Schwingung) Ein Signal y(t) bestehe aus einer einzigen harmonischen Schwingung der Frequenz f0 = 120 Hz. Dieses Signal wird mit der Frequenz fA = 100 Hz abgetastet. In diesem Fall wird die Bedingung des Abtasttheorems, dass die Abtastfrequenz größer als das Doppelte der höchsten vorkommenden Frequenz sein muss, nicht eingehalten. Die harmonische Schwingung findet sich im Nyquistband [−fN , fN ] bei der Frequenz 20 Hz wieder. Genauso würden sich bei dieser Abtastfrequenz harmonische Schwingungen der Frequenzen f0 = 20 Hz + r · 100 Hz ,

r ∈ Z,

bei der Frequenz 20 Hz wiederfinden. Trotzdem tritt kein Aliasing auf, wenn das Signal y(t) nur bei einer dieser Frequenzen einen Spektralanteil besitzt, da sich dann keine Spektralanteile überlappen können. • Nun bestehen Signale in der Regel nicht nur aus einzelnen harmonischen Schwingungen, sondern zumindest aus einem Frequenzband. Durch geschickte Wahl der Abtastfrequenz, die hier kleiner als jede vorkommende Frequenz ist, kann eventuell Aliasing vermieden werden. Hierzu muss der Begriff des Frequenzbandes definiert werden.

244

5 Zeitdiskrete Signale

Definition 5.53 (Frequenzband) Besitzt ein Signal nur Spektralanteile innerhalb eines bestimmten Frequenzintervalls, welches dann als Frequenzband bezeichnet wird, so gibt die Mittenfrequenz f0 die mittlere Frequenz dieses Intervalls und die Bandbreite B die Differenz zwischen der höchsten und niedrigsten vorkommenden Frequenz an. Hierbei wird B  f0 gefordert. Abbildung 5.23 stellt ein Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B dar.

Abbildung 5.23: Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B.

Bemerkung 5.54 1. Die Variable B hat im Zusammenhang mit einem Frequenzband eine andere Bedeutung als die bei der Definition des Abtasttheorems verwendete Größe B. 2. Da bandbegrenzte reelle Signale Spektralanteile sowohl im positiven als auch im negativen Frequenzbereich besitzen, müsste man bei ihnen immer zwei Frequenzbänder angeben. Da aber die Bandbreite beider Frequenzbänder gleich ist und sich die Mittenfrequenzen, vom Vorzeichen abgesehen, auch nicht unterscheiden, spricht man auch bei reellen Signalen immer nur von einem Frequenzband. Trotzdem muss man das zweite Frequenzband bei der Unterabtastung • berücksichtigen, um Aliasingeffekte auszuschließen. Bei der Wahl der Abtastfrequenz fA zur Unterabtastung der Mittenfrequenz muss festgelegt werden, bei welcher Frequenz f00 im Nyquistband die Mittenfrequenz f0 erscheinen soll. Dabei wird die Wahl der Abtastfrequenz fA nicht eindeutig sein. Die Bandbreite B des Frequenzbandes dient dann zur Bestimmung der Abtastfrequenz, bei der kein Aliasing auftritt. Entsprechend Beispiel 5.52 erscheint bei Verwendung der Abtastfrequenz fA die Mittenfrequenz bei den Frequenzen f0 + r · fA ,

r ∈ Z.

Besitzt man eine feste Mittenfrequenz f0 , so projizieren alle Abtastfrequenzen fA =

f0 − f00 , r

r ∈ Z \ {0} ,

(5.55)

die Mittenfrequenz f0 auf die Frequenz f00 im Nyquistband, vgl. Abbildung 5.24. Die Abtastfrequenzen werden mit größer werdendem r immer kleiner. Die untere Schranke für die wählbare Abtastfrequenz stellt die Bandbreite B dar, wie im Folgenden gezeigt wird. Nach Kenntnis der möglichen Frequenzen, die im Nyquistband als Bildfrequenzen erreicht werden können, stellt sich die Frage, auf welche Frequenz f00 die Mittenfrequenz

245

5.4 Abtastfrequenz

Abbildung 5.24: Schematische Darstellung der Projektion einer Mittenfrequenz ins Nyquistband.

Abbildung 5.25: Bandspektrum eines reellen Signals.

f0 projiziert werden soll. Zwei typische Möglichkeiten sind die Frequenzen f00 = 0 Hz und f00 = f2N . Weshalb das so ist, soll nun untersucht werden. Da man bei reellen Signalen beide Frequenzbänder beachten muss, führt man das in Abbildung 5.25 dargestellte Bandspektrum YB (f ) ein, das dem um die Mittenfrequenz f0 verschobenen positiven Frequenzband des zeitkontinuierlichen Signals y(t) entspricht:    Y (f + f0 ) für f ∈ − B2 , B2 YB (f ) = . 0 sonst Das Spektrum Y (f ) besteht aus den beiden Frequenzbändern im positiven bzw. negativen Frequenzbereich, die durch Y (f ) = Y + (f ) + Y − (f )

(5.56)

mit Y + (f ) = YB (+f − f0 ) Y − (f ) = YB (−(f + f0 )) = YB (−f − f0 ) definiert sind. Ihr zeitdiskretes Spektrum Y∗ (f ) nach Abtastung mit der Abtastfrequenz fA wird durch Y∗ (f ) = Y∗+ (f ) + Y∗− (f )

(5.57)

246

5 Zeitdiskrete Signale

mit Y∗+ (f ) = fA · Y∗− (f ) = fA ·

∞ X k=−∞ ∞ X

YB (+f − f0 + kfA ) YB (−f − f0 + kfA )

k=−∞

beschrieben. 5.4.2.1

Symmetrische Bandspektren

Möchte man nun die Mittenfrequenz f0 auf die Frequenz f00 = 0 Hz projizieren, so kann man als Abtastfrequenz fA =

f0 , r

r ∈ Z,

wählen. Im Nyquistband [−fN , fN ] erhält man für ein ganzzahliges k mit k≤

f0 = r, fA,min

k ∈ N,

keine spektrale Überlappung. Das Spektrum des zeitdiskreten Signals yn im Nyquistband [− f2A , f2A ] ist dann: Y∗0 (f ) = fA (YB (f ) + YB (−f )) . Die Summe von YB (f ) und YB (−f ) stellt eine spektrale Überlappung um die Frequenz 0 Hz dar. Ist das Bandspektrum YB (f ) aber achsensymmetrisch: YB (f ) = YB (−f ) , d. h. ist das Frequenzband des reellen Signals symmetrisch um die Mittenfrequenz, so folgt für das Spektrum im Nyquistband [−fN , fN ] : Y∗0 (f ) = 2 fA YB (f ) . Es tritt damit kein Aliasing auf. Abbildung 5.26 veranschaulicht, dass das Bandspektrum mit seiner Bandbreite B das gesamte Nyquistband ausfüllen darf. Das heißt die Abtastfrequenz bei achsensymmetrischen Signalen wird durch die Ungleichung B < 2fN = fA,min nach unten begrenzt. In Abbildung 5.26 sind ein ursprüngliches und ein durch die Unterabtastung entstehendes Spektrum dargestellt. Man erkennt die Überlagerung infolge der Unterabtastung, die zur doppelten Höhe des Spektrums führt. Zusammenfassend gilt nun der folgende Satz.

247

5.4 Abtastfrequenz

Abbildung 5.26: Maximal zulässige Bandbreite bei einem symmetrischen Bandspektrum.

Satz 5.58 (Unterabtastung bei symmetrischen Bandspektren) Bei symmetrischen Bandspektren wird die Mittenfrequenz idealerweise auf die Frequenz f00 = 0 Hz projiziert. Dafür stehen die Abtastfrequenzen fA =

f0 , r

r ∈ Z \ {0} ,

(5.59)

zur Verfügung, wobei als untere Schranke für die Abtastfrequenzen die Ungleichung fA,min > B

(5.60)

f0 B

(5.61)

und somit k≤r=

gilt. Das Spektrum des unterabgetasteten Signales im Nyquistband [−fN , fN ] wird durch Y∗ (f ) = 2 fA YB (f ) beschrieben. 5.4.2.2

(5.62) •

Unsymmetrische Bandspektren

Bei unsymmetrischen Bandspektren ist eine Projektion auf die Frequenz f00 = 0 Hz nicht möglich, da sich die Frequenzbänder im positiven bzw. negativen Frequenzbereich nach der Projektion spektral überlappen und somit aufgrund der nicht vorhandenen

248

5 Zeitdiskrete Signale

Symmetrie Information zerstören würden. Für die positive Mittenfrequenz f0 ist also eine Stelle zu suchen, bei der nach der Projektion die beiden Mittenfrequenzen f00 und −f00 möglichst weit voneinander entfernt sind und dennoch die Spektren im Nyquistband liegen. Dies ist bei der Frequenz f00 =

fN fA = 2 4

der Fall. Damit ergeben sich durch f0 =

fA + r · fA 4



fA =

4f0 4r + 1

alle möglichen Abtastfrequenzen. Soll das Spektrum im halben negativen und im halben positiven Nyquistband [−fN , 0] bzw. [0, fN ] betrachtet werden, so erhält man für ein ganzzahliges k k≤r=

f0 1 − , fA,min 4

k ∈ N,

das Spektrum Y∗0 (f )

 = fA YB



 fA  fA  f− + YB − f − 4 4



des zeitdiskreten Signals yn im Nyquistband [− f2A , f2A ]. Aufgrund der Verschiebung um fA 4 gibt es keine Überlappung der beiden Teilspektren. Die untere Schranke B < fN =

fA,min 2

der Abtastfrequenz fA für unsymmetrische Bandspektren erkennt man in Abbildung 5.27. Insgesamt gilt also der folgende Satz. Satz 5.63 (Unterabtastung bei unsymmetrischen Bandspektren) Bei unsymmetrischen Bandspektren wird die Mittenfrequenz f0 idealerweise auf die halbe Nyquistfrequenz f00 = f2N projiziert. Damit stehen die Abtastfrequenzen fA =

4f0 , 4r + 1

r ∈ Z,

(5.64)

zur Verfügung, wobei als untere Schranke für die Abtastfrequenz fA die Ungleichung fA,min > 2B

(5.65)

und somit k≤r=

f0 1 − 2B 4

(5.66)

249

5.4 Abtastfrequenz

Abbildung 5.27: Maximal zulässige Bandbreite bei unsymmetrischen Bandspektren.

gilt. Das Spektrum im Nyquistband [−fN , fN ] wird durch      fA fA Y∗ (f ) = fA YB f − + YB −f − 4 4

(5.67)

beschrieben.



Die Unterabtastung soll nun an einem Beispiel demonstriert werden. Beispiel 5.68 (Radiosignal) Ein Radiosignal mit der Mittenfrequenz f0 = 20 MHz und der Bandbreite B = 248 kHz soll abgetastet werden. Um den Projektionspunkt f00 der Mittenfrequenz f0 festzulegen, unterscheidet man die beiden Fälle eines symmetrischen und eines unsymmetrischen Bandspektrums. 1. Bei einem symmetrischen Bandspektrum, wie es z. B. bei der Amplitudenmodulation vorkommt, wird die Mittenfrequenz auf die Frequenz f00 = 0 Hz projiziert. Mit Gl. (5.59) erhält man nun alle möglichen Abtastfrequenzen: fA =

20 MHz , r

r ∈ Z \ {0} .

Gleichung (5.60) gibt die untere Schranke für die Abtastfrequenz fA vor: fA,min > B = 248 kHz . Die kleinste Abtastfrequenz fA , die dies erfüllt, ergibt sich mit r = 80 zu fA = 250 kHz .

250

5 Zeitdiskrete Signale 2. Bei einem unsymmetrischen Bandspektrum, wie es z. B. bei der Frequenzmodulation vorkommt, wird die Mittenfrequenz f0 auf die halbe Nyquistfrequenz projiziert. Mit Gl. (5.64) erhält man alle möglichen Abtastfrequenzen: fA =

4 · 20 MHz , 4r + 1

r ∈ Z.

Gleichung (5.65) gibt die untere Schranke für die Abtastfrequenz fA an: fA,min > 2B = 496 kHz . Hieraus ergibt sich mit k = 40 die kleinste Abtastfrequenz zu fA = 496,89 kHz.



Bemerkung 5.69 Die Unterabtastung setzt voraus, dass das abzutastende Signal ein Bandpass-Signal ist. Dies ist natürlich im Allgemeinen nicht immer gegeben. Das heißt, man muss vor der Abtastung das Signal auf den wesentlichen Frequenzbereich bandpassfiltern. Da die Unterabtastung hauptsächlich bei sehr hochfrequenten, aber schmalbandigen Signalen benutzt wird, stellt die Filterung, z. B. durch ein steilflankiges Quarzfilter, kein Problem dar. Die Rekonstruktion des ursprünglichen hochfrequenten Signals aus den zeitdiskreten Signalwerten nach der Unterabtastung ist im Allgemeinen nicht möglich, da bei der Rekonstruktion immer das Nyquistband wiederhergestellt wird. Dieses liegt nach der Unterabtastung im niederfrequenten Bereich. Eine Rekonstruktion wäre nur dann möglich, wenn man das abgetastete Signal yn durch Einfügen von Nullwerten auf eine Abtastfrequenz überabtastet, die mindestens doppelt so groß ist wie die maximal vorkommende Frequenz im Bandpass-Signal y(t). Durch zeitdiskrete Filterung könnte man dann das Bandpass-Signal im hochfrequenten Nyquistband isolieren und rekonstruieren. Dies ist aber meist nicht sinnvoll, weil die Unterabtastung gerade deshalb angewendet wurde, um höhere Abtastfrequenzen zu umgehen. Die Unterabtastung ist auch im Zeitdiskreten möglich. Dabei nimmt man z. B. nur jeden r-ten Abtastwert für die weitere Verarbeitungskette. Damit reduziert sich die Abtastfrequenz auf 1/r der alten Abtastfrequenz. Voraussetzung ist wieder ein Bandpass-Signal, das man durch zeitdiskrete Filterung erreichen kann. Eine eventuelle Verschiebung des Signals im Frequenzbereich um f0 in positive bzw. negative Richtung erreicht man, wie bei der Betrachtung der Fourier-Transformation nachgewiesen, durch Modulation des Signals im Zeitbereich mit ej2πf0 t bzw. e−j2πf0 t . Die Unterabtastung eines amplitudenmodulierten Signals mit Projektion der Mittenfrequenz f0 auf die Frequenz 0 Hz entspricht der Demodulation des Signals. •

5.5

Spektralanalyse

Die bisher betrachteten Transformationen eignen sich nicht für eine Spektralanalyse auf Digitalrechnern. Zu diesem Zweck wird die diskrete Fourier-Transformation eingeführt, bei der zusätzlich zum Zeitbereich auch der Frequenzbereich diskretisiert wird.

251

5.5 Spektralanalyse

5.5.1

Diskrete Fourier-Transformation (DFT)

In der Praxis ist die Fourier-Transformation zeitdiskreter Signale nicht anwendbar, denn bei der Ausführung auf einem Digitalrechner oder allgemein durch ein digitales System treten zwei Probleme auf: • Es können nur endlich viele Abtastwerte yn verarbeitet werden, da der Speicherplatz in einem Rechner endlich ist. • Neben der Zeitvariablen muss auch die Frequenzvariable diskretisiert werden, da der Rechner nur diskrete Zahlenwerte verarbeiten kann. Die beiden aufgezeigten Probleme lassen sich mittels geschickter Ansätze relativ einfach beheben. Man muss lediglich betrachten, was man bei der Diskretisierung „verloren“ hat. Das kontinuierliche Spektrum eines abgetasteten Signals lautet nach Gleichung (5.26): Y∗ (Ω) =

∞ X

yn e−jΩn .

n=−∞

Praktisch kann das Signal yn nur während eines endlichen Intervalls T0 beobachtet werden, in welchem lediglich N Abtastwerte enthalten sind. Die Beobachtungszeit T0 = N · tA

(5.70)

entspricht dem Produkt der Abtastzeit tA mit der Anzahl N der betrachteten Abtastwerte. Die Beobachtungsfrequenz resultiert zu ∆f =

1 1 fA = = . T0 N tA N

(5.71)

Bei insgesamt N Abtastwerten läuft der Zählindex n für den Zeitparameter in der Summe z. B. von 0 bis N − 1. Die Funktion ist außerhalb der N Abtastwerte im Zeitbereich periodisch fortgesetzt. Damit ist das Spektrum auch im Frequenzbereich diskret. Das erste der genannten Probleme ist gelöst. Um auch das zweite Problem zu lösen, erinnert man sich der Tatsache, dass das Spektrum eines zeitdiskreten Signals periodisch ist. Deshalb reicht zur Beschreibung des Spektrums eine einzige Periode aus. Bei der Frequenzdiskretisierung wird eine Periode des Spektrums durch endlich viele Spektrallinien beschrieben. Ihre Anzahl ist zwar grundsätzlich beliebig wählbar, aber es ist günstig, dieselbe Anzahl N von Stützstellen im Spektralbereich wie im Zeitbereich zu wählen. Bei Verwendung der Abtastfrequenz fA =

1 = N · ∆f tA

(5.72)

ist die Auflösung des Spektrums durch die Beobachtungsfrequenz gegeben: ∆f =

fA 1 = . N N tA

(5.73)

252

5 Zeitdiskrete Signale

Setzt man die Bedingung 0 ≤ n ≤ N − 1 für das beschränkte Zeitintervall in Gleichung (5.26) ein und diskretisiert man die normierte Kreisfrequenz mit fk = k ∆f auf Ωk =

2πfk 2πk∆f 2πktA = = = 2πk/N , 1/tA 1/tA N tA

so erhält man die Diskrete Fourier-Transformation (DFT) als rechnertaugliche Näherung der Fourier-Transformation: Yk =

N −1 X

yn e−j2πkn/N ,

k = 0, . . . , N − 1 .

(5.74)

n=0

Bemerkung 5.75 Durch die Bedingung 0 ≤ k ≤ N − 1 wird das Nyquistband nicht mehr, wie bisher, als ein um die Frequenz null symmetrisches Band betrachtet. Die Indizes bzw. die dementsprechenden Amplitudenwerte werden stattdessen über eine Periode betrachtet, welche bei der Frequenz null beginnt. Aufgrund der periodischen Fortsetzung von yn bzw. Yk bleiben die Summationsergebnisse in Gleichung (5.74) unverändert, • wenn von 0, . . . , N − 1 anstelle von − N2 , . . . , N2 − 1 summiert wird. Es stellt sich die Frage nach der Rücktransformation in den Zeitbereich. Bei der FourierTransformation zeitdiskreter Signale wird dies durch Integration über die frequenzkontinuierliche Spektralfunktion Y∗ (Ω) erreicht; hier sind dagegen lediglich diskrete Spektralwerte Yk verfügbar. Man erinnert sich an die Fourier-Reihe, bei der die Zeitfunktion als mit den „Spektralwerten“ ck gewichtete Summe von Exponentialfunktionen dargestellt wird. Entsprechend kann man die Wertefolge ebenfalls als Summe angeben. Zur Berechnung der zu Yk gehörigen Wertefolge zu einem bestimmten Zeitpunkt l = t/tA multipliziert man Gl. (5.74) mit ej2πkl/N und summiert über alle N Frequenzwerte: N −1 X

Yk ej2πkl/N =

N −1 N −1 X X

yn e−j2πk(n − l)/N

k=0 n=0

k=0

=

N −1 X

yn

n=0

=

N −1 X

N −1 X

e−j2πk(n − l)/N

k=0

yn N δ(n − l) = N yl .

n=0

Mit n = l ergibt sich daraus die inverse diskrete Fourier-Transformation (IDFT) : N −1 1 X yn = Yk ej2πkn/N . N

(5.76)

k=0

Insgesamt ist durch die bisherigen Ausführungen die folgende Definition gerechtfertigt.

253

5.5 Spektralanalyse Definition 5.77 (Diskrete Fourier-Transformation, DFT) Als diskrete Fourier-Transformation bezeichnet man die Wertepaare yn

◦−•

Yk ,

k, n = 0, . . . , N − 1 ,

die durch folgende Beziehungen verbunden sind: Yk =

N −1 X

yn e−j2πkn/N =

n=0

yn =

N −1 X

kn yn wN

N −1 N −1 1 X 1 X −kn Yk ej2πkn/N = Yk wN N N k=0

(5.78)

n=0

(5.79)

k=0

mit wN = e−j2π/N .

(5.80)

n Die Faktoren wN , n = 0, . . . , N − 1 sind die N komplexen Wurzeln der Gleichung N n wN = 1. Es gilt: |wN | = 1.

Bemerkung 5.81 1. Durch Betrachten der Definitionsgleichung wird offensichtlich, dass es sich bei der diskreten Fourier-Transformation um eine lineare Transformation handelt. 2. Für die Beziehung yn ◦−• Yk benutzt man oft auch die Operatorschreibweise DFT{yn } = Yk .

(5.82)

Ebenso verstehen sich die Bezeichnungen IDFT{Yk } bzw. DFT−1 {Yk }. 3. Die diskrete Fourier-Transformation ist umkehrbar eindeutig. Man kann unbedenklich und beliebig oft vom Zeitbereich in den Frequenzbereich und umgekehrt wechseln. • Abbildung 5.28 veranschaulicht die DFT schematisch am Beispiel eines kausalen Signals y(t) (a). Die Abtastung mit der Impulsreihe (b) bewirkt eine periodische Fortsetzung des Spektrums (c), die im abgebildeten Fall mit einem Aliasingfehler einhergeht. Die Multiplikation mit dem Fenstersignal (d) begrenzt die Anzahl der Abtastwerte auf N (e). Im Fourier-Bereich korrespondiert diese Fensterung mit einer Faltung mit einem Sinc-Signal, die zu einer Verschmierung des Spektrums (Leckeffekt) führt. Schließlich erfolgt eine Diskretisierung des Spektrums durch Multiplikation mit einer Impulsreihe (f), was im Zeitbereich eine periodische Fortsetzung des Signals zur Folge hat. Das resultierende Spektrum Yk enthält Informationen lediglich an diskreten Frequenzen, was anschaulich als Lattenzaun-Effekt (engl. picket fence effect) bezeichnet wird.

254

Abbildung 5.28: Grafische Veranschaulichung der DFT.

5 Zeitdiskrete Signale

255

5.5 Spektralanalyse yn r

r

0

1

r r 2

r 3

r 4

-

5

n

Abbildung 5.29: Wertefolge vor periodischer Wiederholung.

Beispiel 5.83 (DFT) Eine Wertefolge mit N = 6 laute: y0 = 1 ,

y1 = 1 ,

y2 = 0 ,

y3 = 0 ,

y4 = 0 ,

y5 = 1 .

Mit Gleichung (5.78) folgt die diskrete Fourier-Transformierte: Yk =

5 X

yn e−jπkn/3 = 1 + e−jπk/3 + e−jπk5/3

n=0

= 1 + e−jπk/3 + ejπk/3 π  = 1 + 2 cos k . 3 Dass die Werte Yk reell sind, ist nicht überraschend, da die Folge yn eine reelle und nach periodischer Fortsetzung gerade Folge ist, vgl. Abbildung 5.29. •

Beispiel 5.84 (DFT eines Signals) Abbildung 5.30 zeigt oben die aus einem Gleichanteil und drei harmonischen Schwingungen mit den Frequenzen f1 = 14 Hz, f2 = 31,5 Hz und f3 = 40 Hz bestehende Funktion y(t) = 0,2 + 0,1 sin(2πf1 t) + 0,6 sin(2πf2 t) + 0,5 sin(2πf3 t) sowie das Ergebnis ihrer Abtastung mit der Frequenz fA = 100 Hz. Da das Abtasttheorem eingehalten wird, kommt es zu keinem Bandüberlappungsfehler. Das DFT-Spektrum entsteht durch Abtastung des kontinuierlichen DTFT-Spektrums des gefensterten Signals (unteres Bild). Am DTFT-Spektrum erkennt man deutlich den Leckeffekt. Dessen Abtastung illustriert den Lattenzaun-Effekt. • Betrachtet man den Rechenaufwand für eine DFT, so erkennt man, dass man für N zu transformierende Werte N 2 komplexe Multiplikationen und Additionen benötigt. Durch geschickte Umsortierung der Multiplikationen und Additionen erhält man einen Algorithmus, der lediglich etwa N · ld(N ) solche Operationen benötigt: die Schnelle Fourier-Transformation oder Fast Fourier Transform (FFT), welche im nächsten Abschnitt behandelt wird.

256

5 Zeitdiskrete Signale

1 0,5 0 −0,5 −1

0

0,1

0,2

0,3

0,4

0,5

0,6

20 15 10 5 0

0

10

20

30

40

50

Abbildung 5.30: Diskrete Werte im Zeit- und Frequenzbereich.

5.5.2

Schnelle Fourier-Transformation (FFT)

Die Schnelle Fourier-Transformation (FFT) führt die identische Rechnung durch wie die diskrete Fourier-Transformation. Lediglich die Zahl der Rechenoperationen ist durch Ausnutzung von Symmetrien erheblich kleiner, wodurch sie für die Implementierung besser geeignet ist. Der Zusammenhang zwischen den Folgen yn und Yk soll an einigen Beispielen klar gemacht werden. Dazu beginnen wir mit der sukzessiven Betrachtung einer 2-PunkteFFT, dann folgt eine 4-Punkte-FFT usw. 2-Punkte-FFT. Yk = y0 + y1 e−jπk 4-Punkte-FFT. k Yk = y0 + y1 e−jπ 2 + y2 e−jπk + y3 e−j3πk/2    k  = y0 + y2 e−jπk + e−jπ 2 y1 + y3 e−jπk

257

5.5 Spektralanalyse

Man erkennt, dass sich die 4-Punkte-FFT aus zwei gewichteten 2-Punkte-FFT zusammensetzt. 8-Punkte-FFT. k

k

k

Yk = y0 + y1 e−jπ 4 + y2 e−jπ 2 + · · · + y7 e−j7π 4   = y0 + y4 e−jπk + e−jπk/4 y1 + y5 e−jπk +   + e−jπk/2 y2 + y6 e−jπk + e−j3πk/4 y3 + y7 e−jπk h  i = y0 + y4 e−jπk + e−jπk/2 y2 + y6 e−jπk + h  i + e−jπk/4 y1 + y5 e−jπk + e−jπk/2 y3 + y7 e−jπk Hier stellt man fest, dass eine 8-Punkte-FFT entweder als 4 mal 2-Punkte-FFT oder als 2 mal 4-Punkte-FFT, die ihrerseits selbst aus 2 mal 2-Punkte-FFT bestehen, umgeschrieben werden kann. Eine 16-Punkte-FFT ließe sich so in 2 mal 8-Punkte-FFT, die jeweils in 2 mal 4-Punkte-FFT, die wiederum jeweils in 2 mal 2-Punkte-FFT aufgeteilt sind, zerlegen. Man erkennt, dass zur Anwendung dieser Vereinfachungen der Umfang N einer FFT eine Zweierpotenz sein muss, d. h. N = 2n ,

(5.85)

n ∈ N.

Zur Anwendung der FFT auf eine Zeitfolge y0 , . . . , yN −1 bei N 6= 2n kann die Wertefolge auf die nächsthöhere Zweierpotenz „aufgefüllt“ werden. Man kann zeigen, dass der Rechenaufwand durch die Umstrukturierung auf N · ld(N ) Multiplikationen und Additionen verringert wird. Dies macht sich aber erst ab der 16Punkte-FFT bemerkbar. Vorher unterscheidet sich die Anzahl der Multiplikationen und Additionen zwischen DFT und FFT nicht. Betrachtet man noch einmal die letzte Zeile bei der Darstellung der 8-Punkte-FFT, so scheint die Reihenfolge der verwendeten Abtastwerte ohne Zusammenhang zu sein. Bei genauerem Hinsehen erkennt man jedoch, dass ein Zusammenhang besteht. Schreibt man den Index als Binärzahl, und dreht die Binärzahl einfach um (bit reversal ), so erhält man den Laufindex in binärer Schreibweise. Abtastwert Index binär bit reversal Laufindex

y0 0 000 000 0

y4 4 100 001 1

y2 2 010 010 2

y6 6 110 011 3

y1 1 001 100 4

y5 5 101 101 5

y3 3 011 110 6

y7 7 111 111 7

Zur Bestimmung des entsprechenden Abtastwertes geht man den Weg rückwärts und erhält so aus dem Laufindex den zu verwendenden Index.

258

5 Zeitdiskrete Signale

Die FFT besitzt exakt die gleichen Eigenschaften wie die DFT, da dieselben Ergebnisse geliefert werden. Lediglich die Berechnung erfolgt schneller. Da uns in diesem Rahmen nur die Eigenschaften und Besonderheiten der „Zahlenfolgen“ und nicht deren Berechnungsweise interessiert, wird hier für eine genauere Herleitung und weitere Anmerkungen der FFT auf z. B. [KK09] verwiesen.

5.5.3

Eigenschaften der DFT

In diesem Abschnitt werden einige Eigenschaften der DFT behandelt, um das Verständnis der Definitionsgleichung zu vertiefen und den Umgang mit dieser Transformation zu üben. Hierzu werden Zahlenfolgen x0 , . . . , xN −1 und y0 , . . . , yN −1 mit den zugehörigen diskreten Fourier-Transformierten X0 , . . . , XN −1 und Y0 , . . . , YN −1 vorgegeben: xn , yn ,

n = 0, . . . , N − 1 n = 0, . . . , N − 1

◦−• ◦−•

Xk , k = 0, . . . , N − 1 , Yk , k = 0, . . . , N − 1 .

Zuerst werden einige Eigenschaften bewiesen, die sich bei einer Umdefinition der Wertefolge ergeben und sich meistens durch Nachrechnen unter Beachtung der Definitionsgleichung zeigen lassen. Satz 5.86 (Eigenschaften der diskreten Fourier-Transformation) Für die diskrete Fourier-Transformation ergeben sich folgende Eigenschaften und Rechenregeln: ∗ y−n y−n

Yk∗ , Y−k .

◦−• ◦−•

(5.87) (5.88) •

Beweis: Die erste Eigenschaft folgt wegen Yk∗ =

N −1 X n=0

n0 =−(N −1)

N X

=

0 X

kn

yn∗ ej2π N =

n00 =1

∗ −j2π y−n 00 +N e

kn00 N

∗ −j2π y−n 0 e

kn0 N

e−j2πk .

Aufgrund der Periodizität der DFT ist y−n00 +N = y−n00 . Außerdem kann die Summation wegen N

0

y−N e−j2πk N = y0 e−j2πk N geändert werden in Yk∗ =

N −1 X n00 =0

∗ −j2πk y−n 00 e

n00 N

∗ = DFT{y−n }.

259

5.5 Spektralanalyse Die zweite Eigenschaft folgt ebenso aus der Definition durch den Ansatz Y−k =

N −1 X

−nk yn wN

n=0

durch einfache Umformungen. Satz 5.89 (Faltungssatz der DFT) Für die DFT der Faltung zweier Wertefolgen gilt: xn ∗ yn

◦−•

(5.90)

Xk · Yk .

• Beweis: Zum Beweis des Faltungssatzes betrachte man zwei Wertefolgen xn ◦−• Xk ,

yn ◦−• Yk .

Dann berechnet sich die Rücktransformation durch xn =

N −1 kn 1 X Xk ej2π N N

bzw.

yn =

k=0

N −1 kn 1 X Yk ej2π N . N k=0

Für das Faltungsprodukt ergibt sich daraus: xn ∗ yn =

N −1 X

xm yn−m

m=0

=

N −1 X m=0

N −1 km 1 X Xk ej2π N N

!

k=0

N −1 l(n−m) 1 X Yl ej2π N N l=0

Durch Umsortieren der (endlichen) Summen folgt: xn ∗ yn =

N −1 X l=0

=

N −1 X l=0

=

N −1 X l=0

N −1 N −1 X X (k−l)m 1 j2π ln N Y · e X · ej2π N l k 2 N m=0 k=0

ln 1 Yl · ej2π N N2

N −1 X

Xk · N δ(k − l)

k=0

ln 1 Yl Xl · N ej2π N N2

= IDFT{Xk · Yk } .

! .

260

5 Zeitdiskrete Signale

Abbildung 5.31: Akausale Impulsantwort durch periodische Wiederholung.

Abbildung 5.32: Kausale Impulsantwort durch Verdopplung des Periodizitätsintervalls.

Bemerkung 5.91 Bei der DFT sind die Signale periodisch in T0 = N tA . Dies muss man bei der Transformation von kausalen Signalen beachten, z. B. bei der Impulsantwort von LTI-Systemen. Dort ergibt sich das Ausgangssignal ya,n als Faltung des Eingangssignals ye,n mit der Impulsantwort gn des LTI-Systems. Bei Berechnung dieser Operation mit der DFT wird die Impulsantwort gn periodisch in T0 wiederholt, wodurch aus der kausalen eine akausale Impulsantwort wird, vgl. Abbildung 5.31. • Will man diese ungewollte Verfälschung vermeiden, so muss das Periodizitätsintervall auf 2T0 = 2N tA erweitert werden, vgl. Abbildung 5.32. Satz 5.92 (Parseval’sche Formel und Energiesatz) Aus oben bewiesenen Eigenschaften ergeben sich durch Einsetzen die Parseval’sche Formel und der Energiesatz der DFT: N −1 X

xn yn∗ =

n=0 N −1 X n=0

N −1 1 X Xk Yk∗ , N

(5.93)

N −1 1 X |Xk |2 . N

(5.94)

k=0

|xn |2 =

k=0



5.5.4

Auflösung im Zeit- und Frequenzbereich

Bei der Fourier-Transformation zeitdiskreter Signale wurde die Wahl der Abtastfrequenz fA diskutiert. Bei der diskreten Fourier-Transformation (DFT) kommt die Wahl

261

5.5 Spektralanalyse

Abbildung 5.33: Beziehungen zwischen Abtastzeit und Beobachtungszeit.

der Anzahl N der Abtastwerte hinzu. Um dies verständlich zu machen, werden zuerst einige Zusammenhänge wiederholt, um dann das Problem der Wahl von N anhand eines Beispiels zu erläutern. Mittels der Abtastfrequenz fA kann man die Abtastzeit tA bestimmen: tA =

1 . fA

Zusammen mit der Anzahl N der Abtastwerte ergibt sich nach Gleichung (5.70) die Beobachtungszeit bzw. Beobachtungsdauer der diskreten Fourier-Transformation zu T0 = N · tA =

N . fA

Hieraus folgt aus Gl. (5.71) die Frequenzauflösung, d. h. die Beobachtungsfrequenz, ∆f =

fA 1 1 = = N N tA T0

als Inverse der Beobachtungszeit. Diese Beziehungen sind in Abbildung 5.33 verdeutlicht. Bei der Betrachtung der Auflösung im Zeit- und Frequenzbereich muss natürlich beachtet werden, dass bei einer Abtastung mit der Abtastfrequenz fA nur Frequenzen im Nyquistband [−fN , fN ] mit fN = f2A betrachtet werden können. Beispiel 5.95 (Auflösung im Zeit- und Frequenzbereich) Ein Signal y(t) besitze Spektralanteile im Frequenzbereich 2 . . . 20 Hz. Nach der Abtastung des Signals und der Bestimmung des Spektrums mit Hilfe der diskreten Fourier-Transformation (DFT) soll die Frequenzauflösung mindestens eine Feinheit von ∆fWunsch = 0,1 Hz besitzen. Aufgrund des Spektrums Y (f ) ist zur Einhaltung des Abtasttheorems eine Abtastfrequenz fA > 40 Hz zu wählen. Die Beobachtungszeit muss größer oder gleich der Inversen der Frequenzauflösung sein: T0 ≥

1 = 10 s . ∆fWunsch

262

5 Zeitdiskrete Signale

Wählt man die Abtastfrequenz fA = 50 Hz , so folgt für die Anzahl der Abtastwerte N=

T0 = T0 · fA ≥ 500 tA

eine untere Schranke. Wählt man N = 512, so kann die DFT mit dem FFT-Algorithmus berechnet werden. • Anhand des Beispiels erkennt man eine Vorgehensweise, die sich in zwei Schritte gliedert: 1. Die Abtastzeit tA bzw. die Abtastfrequenz fA legt die Auflösung im Zeitbereich fest. Diese ist unter Betrachtung des Spektrums Y (f ) des abzutastenden Signals y(t) zu wählen. 2. Die Anzahl N der Abtastwerte legt zusammen mit der Abtastfrequenz fA die Beobachtungszeit und damit die Frequenzauflösung ∆f fest. Dabei bewirkt eine höhere Anzahl von Abtastwerten eine größere Beobachtungszeit und somit eine feinere Frequenzauflösung.

5.5.5

DFT einer komplexen Schwingung ohne Leckeffekt

Betrachtet man Abtastwerte einer komplexen Schwingung yn = ej2πf0 ntA

(5.96)

der Frequenz f0 , wobei zunächst offen sein soll, in welchem Verhältnis die Schwingfrequenz f0 und die Abtastfrequenz fA zueinander stehen, so lautet die DFT unter Verwendung von N Werten: Yk =

N −1 X n=0

N −1 X kn n −j2π N yn e = ej2π(f0 tA N − k) N ,

k = 0, . . . , N − 1 .

n=0

(5.97) Über die Summenformel für die endliche geometrische Reihe mit α 6= 2πl, l ∈ Z, N N N 1 − ejαN ejα 2 e−jα 2 − ejα 2 jαn e = = 1 · 1 1 1 − ejα n=0 ejα 2 e−jα 2 − ejα 2 (N −1) sin(α N ) 2 = ejα 2 · sin(α 12 )

N −1 X

ergibt sich aus Gl. (5.97) mit α = 2π f0 tANN −k 6= 2πl, l ∈ Z: N −1 sin(π(f0 tA N − k)) Yk = ejπ(f0 tA N − k) N · , π sin( N (f0 tA N − k))

k = 0, . . . , N −1 . (5.98)

263

5.5 Spektralanalyse

Abbildung 5.34: Spektralanalyse einer komplexen Schwingung mit Hilfe einer 16Punkte-DFT und einem Frequenzverhältnis 5 von ffA0 = 16 , d. h. l = 5, N = 16.

Die so gewonnene Spektralfolge Yk wird zunächst für den Fall untersucht, dass das Verhältnis von Schwingfrequenz f0 und Frequenzauflösung ∆f ganzzahlig ist: f0 = f0 tA N = l ∆f

⇐⇒

f0 =

l = l · ∆f , N tA

(5.99)

l ∈ N.

Die Schwingfrequenz f0 passt genau in das diskrete Raster der Beobachtungsfrequenz ∆f . Dann folgt aus Gl. (5.98) Yk = ejπ(l − k)

N −1 N

·

sin(π(l − k)) . π sin( N (l − k))

(5.100)

Der Zähler des Bruchs verschwindet für alle Werte von k, während der Nenner im Intervall 0 ≤ k ≤ N − 1 mit der Ausnahme k = l von null verschieden ist. Mit der Methode von l’Hospital erhält man den Funktionswert an der Stelle k = l: lim

α→0

sin(α) cos(α) lim 1 α = α→0 α =N. sin( N ) N cos( N )

(5.101)

Damit ergibt sich aus Gl. (5.100) die Spektralfolge der komplexen Schwingung: Yk = N · δ(k − l) ,

0 ≤ k, l ≤ N − 1 .

(5.102)

Abbildung 5.34 zeigt ein Beispiel, bei dem die Schwingfrequenz f0 ein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Trotz des begrenzten Beobachtungsfensters von N Abtastwerten im Zeitbereich tritt kein Leckeffekt auf. Dies liegt daran, dass das Signal aufgrund der Abtastung im Frequenzbereich im Zeitbereich periodisch wiederholt wird. Wenn die Schwingfrequenz f0 genau in das diskrete Raster der Beobachtungsfrequenz ∆f passt, entsteht aufgrund der periodischen Fortsetzung kein Fehler durch das endliche Beobachtungsfenster. Es tritt kein Informationsverlust auf.

5.5.6

DFT einer komplexen Schwingung mit Leckeffekt

Andere Resultate ergeben sich, wenn die Bedingung (5.99) nicht erfüllt ist, also wenn die Schwingfrequenz f0 kein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Dann

264

5 Zeitdiskrete Signale

15 10 5 0

0

5

10

15

0

5

10

15

0

5

10

15

15 10 5 0

15 10 5 0

Abbildung 5.35: Verdeutlichung des Leckeffekts anhand einer 16-Punkte-DFT einer komplexen Schwingung.

ist f0 t A N = l + a ,

l ∈ N,

−0,5 < a ≤ 0,5 .

(5.103)

Die Schwingfrequenz f0 liegt dann nicht mehr im diskreten Raster der Beobachtungsfrequenz ∆f . Für die DFT der komplexen Schwingung ergibt sich: Yk = ejπ(l − k + a)

N −1 N

·

sin(π(l − k + a)) , π sin( N (l − k + a))

k = 0, . . . , N − 1 .

(5.104)

Abbildung 5.35 zeigt die hieraus errechneten Spektralfolgen für verschiedene Werte a. Zur Veranschaulichung sind jeweils die kontinuierlichen Hüllkurven angedeutet. Für a = 0 wird diese Hüllkurve einmal im Maximum und sonst in den äquidistanten Nullstellen abgetastet. Das Ergebnis ist die im letzten Abschnitt diskutierte ideale Spektralanalyse, welche nicht durch den Leckeffekt beeinflusst ist. In den beiden anderen Fällen hingegen liegen die Nulldurchgänge der Hüllkurve zwischen den diskreten Frequenzpunkten der DFT. Daraus enstehen folgende Fehler: Zum einen wird die Hüllkurve nicht mehr in ihrem Maximum abgetastet, so dass sich zwei Hauptlinien ergeben, deren Beträge gegenüber N reduziert sind. Darüber hinaus entstehen an sämtlichen DFT-Rasterpunkten fehlerhafte Anteile, d. h. die Hauptspektrallinie „leckt“ durch alle

265

5.5 Spektralanalyse

Periode Beobachtungsintervall

Abbildung 5.36: Erläuterung des Leckeffekts im Zeitbereich.

Rasterpunkte hindurch. Aus diesem Grunde wird der beschriebene Fehler in Anlehnung an die englische Bezeichnung leakage auch als Leckeffekt bezeichnet. Der Leckeffekt lässt sich auch anschaulich im Zeitbereich erklären. Als Beispiel betrachtet man den in Abbildung 5.36 dargestellten Realteil einer komplexen Schwingung. In diesem Fall beträgt die Schwingfrequenz ein Zwölftel der Abtastfrequenz f0 tA =

1 , 12

f0 =

1 fA , 12

woraus sich bei einer DFT-Länge von N = 16 wegen ∆f =

fA 1 = fA N 16

aufgrund obiger Überlegungen ein Leckeffekt mit f0 tA N =

f0 fA 16 1 · = =1+ , fA ∆f 12 3

(5.105)

d. h. a=

1 , 3

(5.106)

ergibt. Die um 12 Abtastwerte periodische Wertefolge yn führt bei periodischer Wiederholung nach 16 Abtastwerten (außerhalb des Beobachtungsintervalls) zu einer unstetigen Fortsetzung. Die Fourier-Analyse der fortgesetzten Funktion liefert Spektrallinien an den Vielfachen der Grundfrequenz ∆f =

1 1 fA = = , N tA 16 tA 16

(5.107)

also an den diskreten Frequenzpunkten der DFT, was auf den Leckeffekt führt. Das von der Periode der Schwingung abweichende Beobachtungsintervall verfälscht bei der Multiplikation mit dem Beobachtungsfenster und der nachfolgenden periodischen Fortsetzung die Schwingung. Es stellt sich hier die Frage, wie groß der Fehler der DFT bei Auftreten des Leckeffekts werden kann. Hierzu werden zwei Fälle untersucht.

266

5 Zeitdiskrete Signale

1. Das Maximum der DFT liegt bei der Frequenz l · ∆f , es müsste aber bei (l + a) · ∆f liegen. Da |a| ≤ 0,5 ist, entspricht der maximale Frequenzfehler der halben Frequenzauflösung Fmax {f } =

∆f 1 fA = = . 2 2 N tA 2N

(5.108)

2. Der relative Fehler des maximalen DFT-Betrags ist durch sin(πa) sin(π a ) − N |Yl | − N N F {Y } = = N N

(5.109)

gegeben. Der maximale Fehler liegt ohne Beweis bei a = 0,5:

Mit N 

π 2

1 π sin( 2N )

−N

.

(5.110)

−N 2 = − 1 ≈ −0,36 . N π

(5.111)

Fmax {Y } = F {Y } a=0,5 =

N

folgt hieraus Fmax {Y } ≈

2N π

Will man die Genauigkeit der DFT bei Auftreten des Leckeffekts erhöhen, so kann man durch Erhöhen der Anzahl N der Abtastwerte yn den Frequenzfehler verkleinern. Der maximale relative Amplitudenfehler bleibt unter der Voraussetzung, dass a sich nicht ändert, konstant. Er beträgt weiterhin maximal etwa 36 %. Für den Fall a = 0,5 wird das Verhältnis zwischen den Amplituden des Haupt- und des ersten Nebenzipfels + 1)) sin(π(aa+1 Yl+1 sin(π N ) sin(π Na ) = = Yl sin(πa) sin(π a+1 ) mit sin(π(a+1)) = − sin(πa) N sin(π a ) N für N  a wie folgt abgeschätzt: Yl+1 π Na a 1 ≈ = Yl π a+1 a + 1 ≤ 3 , N

0 ≤ a ≤ 0,5 .

(5.112)

Bei einigen Signalen kann man durch geschickte Auswahl der Abtastzeit tA erreichen, dass f0 tA N ∈ N

(5.113)

gilt. Dann tritt kein Leckeffekt auf. Dies ist aber nicht bei allen Signalen möglich, da normalerweise ein Signal nicht nur aus einer einzigen komplexen Schwingung besteht, sondern aus einer Überlagerung verschiedener Schwingungen. Bei den zeitdiskreten Systemen werden in Abschnitt 6.7 Möglichkeiten untersucht, mittels derer die Spektralfehler des Leckeffekts mit Hilfe von Fensterfunktionen reduziert werden können.

267

5.5 Spektralanalyse

5.5.7

Zero-Padding

Bei einer Vergrößerung des Beobachtungsintervalls T0 , z. B. durch eine größere Anzahl N von Abtastwerten, wird der Frequenzfehler des Spektrums verringert. Dazu müssen allerdings zusätzliche Abtastwerte gemessen werden. Liegen diese aber nicht vor, oder besteht keine Möglichkeit, sie nachträglich zu messen, so können lediglich andere Werte willkürlich hinzugefügt werden. Bei künstlichem Verlängern der Wertefolge yn durch Einfügen von M Nullen entstehen die Abtastwerte  yn für 0 ≤ n ≤ N − 1 0 yn = . (5.114) 0 für N ≤ n ≤ N + M − 1 Dies wird als Zero-Padding bezeichnet. Der Einfluss von Zero-Padding auf das Spektrum ergibt sich durch Berechnung der diskreten Fourier-Transformation Yk0 von yn0 : Yk0 =

N +M X−1

yn0 e

−j2π Nkn +M

=

n=0

N −1 X

yn e

−j2π Nkn +M

,

k = 0, . . . , N +M −1 .

n=0

Durch die Erhöhung der Beobachtungszeit T0 erhält man eine feinere Frequenzauflösung ∆f . Die Abtastfrequenz fA wurde dabei nicht verändert, d. h. die beiden Spektren Yk und Yk0 erstrecken sich über das gleiche Nyquistband. Um die beiden Spektren Yk und Yk0 unterschiedlicher Auflösung vergleichen zu können, transformiert man den Index k: k0 = k ·

N . N +M

Der neue Frequenzindex k 0 ist damit eine reelle Zahl und es folgt Yk00 =

N −1 X

yn e−j2π

k0 n N

= Yk0 .

n=0

Die Spektren Yk0 und Yk sind identisch. Sie werden nur an unterschiedlichen Stellen abgetastet. Yk0 hat M Abtastwerte mehr als Yk . Die Einhüllende ist aber bei beiden Spektren gleich, denn das Anfügen von Nullen stellt keinen Informationsgewinn dar. Hebt man die Beschränkung auf endlich viele yn auf, d. h. betrachtet man nicht nur N , sondern unendlich viele Werte, so ist das Spektrum wegen der Zeitbegrenzung mit einem rechteckigen Fenster die Faltung des Spektrums der zeitlich unbeschränkten Abtastwerte mit einer dem Rechteckfenster entsprechenden Sinc-Funktion. Durch Anfügen der Nullen an die anzahlmäßig beschränkte Folge wird diese der unbeschränkten Folge besser angenähert, d. h. die Sinc-Funktion wird genauer dargestellt. Dies kann man in Abbildung 5.35 erkennen, in der die Einhüllenden durch Zero-Padding erzeugt wurden. An die 16 Abtastwerte wurden 240 Nullen angefügt. Die resultierenden 256 Abtastwerte erzeugen ein Spektrum Yk0 , das das eigentliche Spektrum Y∗ (f ) deutlich besser annähert. Vorteilhaft ist das Zero-Padding immer dann, wenn man z. B. die Lage lokaler Maxima des Spektrums genauer bestimmen will.

268

5 Zeitdiskrete Signale 1

15

0.5 10 0 5

−0.5 −1

0

5

10

0

15

1

0

5

10

15

0

10

20

30

15

0.5 10 0 5

−0.5 −1

0

10

20

0

30

Abbildung 5.37: Beispiel zur Anwendung des Zero-Paddings.

Beispiel 5.115 (Zero-Padding) In diesem Beispiel wird der Effekt des Zero-Padding anhand einer Schwingung verdeutlicht. In Abbildung 5.37 ist in der oberen Hälfte eine Schwingung bestehend aus 16 Abtastwerten und deren diskrete Fourier-Transformierte dargestellt. In der unteren Bildhälfte wurde die Zeitfunktion durch Hinzufügen von Nullen auf 32 Werte erweitert und anschließend der DFT unterzogen. •

5.5.8

Periodogramm

Entsprechend dem Energiedichtespektrum bei zeitkontinuierlichen bzw. zeitdiskreten Signalen stellt das Periodogramm den Energieanteil der diskreten Frequenzen bei anzahlmäßig beschränkten Folgen dar:

Sk =

1 Yk · Yk∗ , N

k = 0, . . . , N − 1 .

(5.116)

In der Anwendung wird zur besseren Bestimmung des Periodogramms meist über mehrere Spektren gemittelt. Dadurch werden die zufälligen Fehler herausgefiltert, sofern diese als mittelwertfrei bekannt sind [KE08].

5.6 Weitere diskrete Transformationen

5.6

269

Weitere diskrete Transformationen

Für die bis jetzt vorgestellten Transformationen wurde das zugrunde liegende orthonormale Funktionensystem immer aus komplexen Exponentialfunktionen aufgebaut. Diese Exponentialfunktionen haben aber den Nachteil, dass sie sich schlecht auf einem Digitalrechner berechnen lassen. Vorteilhaft sind daher orthonormale Funktionensysteme, die durch geeignete Definition den Rechenaufwand wesentlich reduzieren.

5.6.1

Walsh-Transformation

Ein orthonormales Funktionensystem, bei dem nur zwei binäre reelle Funktionswerte auftreten, sind die Walsh-Funktionen. Zu deren Definition teilt man das Zeitintervall [0, 1] in 2n Teilintervalle gleicher Länge, die mit i = 0, . . . , 2n − 1 indiziert sind. Die Teilintervallnummer lässt sich als Binärzahl schreiben: (i)10 = (in , . . . , i1 )2 .

(5.117)

Ebenso stellt man auch eine „verallgemeinerte Frequenz“ k als Binärzahl dar, die auf eine bestimmte Art die Nulldurchgänge der Walsh-Funktionen bestimmt und deren Bedeutung später veranschaulicht wird: (k)10 = (0, kn , kn−1 , . . . , k1 )2 .

(5.118)

Dann definiert man den Begriff der Walsh-Funktion wie folgt. Definition 5.119 (Walsh-Funktionen) Die Walsh-Funktionen in der sequenziellen Anordnung walw (k, t) werden im Intervall [0, 1] definiert und außerhalb dieses Intervalles periodisch fortgesetzt. Hierzu setzt man für ti ≤ t < ti+1 , d. h. im i-ten Teilintervall, n P

(kl ⊕ kl+1 ) in−l+1 walw (k, t) = (−1)l=1 ,

(5.120)

wobei ⊕ die Exklusiv-Oder-Verknüpfung (XOR) bezeichnet. Die Walsh-Funktionen nehmen nur Funktionswerte aus {+1, −1} an und (walw (k, t))k bildet ein orthonormales Funktionensystem in L2 ([0, 1]), d. h. es gilt Z1

walw (i, t) walw (j, t) dt = δij .

(5.121)

0

Mit Hilfe dieses Orthonormalsystems approximiert man die Funktion y(t) und erhält Koeffizienten Y0 , . . . , YN −1 , die in Analogie zur Fourier-Reihe als Spektralanteile der Funktion interpretiert werden können.

270

5 Zeitdiskrete Signale

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

1 0 −1

0

1/8 1/4 3/8 1/2 5/8 3/4 7/8

1

0

1/8 1/4 3/8 1/2 5/8 3/4 7/8

1

Abbildung 5.38: Analogie zwischen den Walsh-Funktionen (links) und dem Realteil der Fourier-Funktionen (rechts).

Bemerkung 5.122 Durch einen zusätzlichen Index wird die unterschiedliche Darstellung verschiedener Systeme von Walsh-Funktionen angegeben. Verschiedene Indizes deuten darauf hin, dass bei gleicher Ordnung k die Reihenfolge der Walsh-Funktionen unterschiedlich ist. So repräsentiert ein tiefgestellter Index w die sequenzielle Reihenfolge, wie sie in Abbildung 5.38 (links) dargestellt ist. • Walsh-Funktionen weisen, wie in Abbildung 5.38 erkennbar, eine unmittelbare Analogie zu den Fourier-Funktionen auf. Die „verallgemeinerte Frequenz“ k lässt sich als Zahl der Nulldurchgänge im Zeitbereich 0 < t < 1 ansehen und wird als „zero-crossing per second“ (zps) bezeichnet. Bemerkung 5.123 1. Neben der sequenziellen Anordnung gibt es auch Walsh-Funktionen in der natürlichen Anordnung waln (k, t). Diese sind zwar einfacher zu berechnen, doch es fehlt ihnen die direkte Analogie zu den Fourier-Funktionen in Abbildung 5.38. 2. Die geraden und ungeraden Walsh-Funktionen können entsprechend der Sinus-

271

5.6 Weitere diskrete Transformationen und Cosinusfunktion aufgeteilt werden in calw (sk , t) = walw (k, t) , salw (sk , t) = walw (k, t) ,

k = 0, 2, 4, . . . , k = 1, 3, 5, . . . ,

sk = k/2 , sk = (k + 1)/2 .

3. Das Walsh-Leistungsspektrum Sk wird entsprechend dem Periodogramm der diskreten Fourier-Transformation berechnet, Sk =

1 Yk · Yk∗ , N

k = 0, . . . , N − 1 .

(5.124)

Es handelt sich um ein Punktspektrum. 4. Der große Vorteil der Walsh-Transformation liegt in der einfachen Berechnung, was sich insbesondere bei einer großen Zahl von Teilintervallen, z. B. bei Anwendungen in der Bildverarbeitung, als nützlich erweist. Eine Filterung im Frequenzbereich ist aber nicht in der Art möglich, wie dies bei der FourierTransformation der Fall ist. Die Faltung im Zeitbereich ist nicht gleich der Multiplikation im Frequenzbereich. Die Walsh-Transformation ist deshalb auf die Berechnung und die Analyse von Spektren beschränkt. Durch die nicht-äquidistanten Nulldurchgänge und die abschnittsweise konstanten Funktionswerte enthält das Walsh-Spektrum zusätzliche Störanteile. Die meisten Anwendungen • werden dadurch aber nur wenig beeinträchtigt. Im folgenden Beispiel wird die Anwendung der Walsh-Transformation zur Analyse von Signalen demonstriert. Beispiel 5.125 (Anwendung der Walsh-Transformation) Dieses Beispiel vergleicht die DFT mit der Walsh-Transformation bei der Analyse eines Signals. Hierzu werden N = 256 Abtastwerte herangezogen. Zur Analyse wird ein Signal betrachtet, welches aus zwei Schwingungen der Frequenzen 17 Hz und 40 Hz mit den Amplituden 1 bzw. 12 aufgebaut ist (vgl. Abb. 5.39): y(t) = sin(2π · 17 Hz · t) +

1 sin(2π · 40 Hz · t) 2

1,5 1 0,5 0 −0,5 −1 −1,5

0

0,2

0,4

0,6

0,8

1

Abbildung 5.39: Signal zum Vergleich der DFT und der Walsh-Transformation.

272

5 Zeitdiskrete Signale

15000

15000

10000

10000

5000

5000

0

0

50

0

100

0

50

100

Abbildung 5.40: Spektren des Signals bei Anwendung der DFT und der Walsh-Transformation.

bzw. nach Abtastung des Signals yn = sin(2π · 17 Hz · n tA ) +

1 sin(2π · 40 Hz · n tA ) . 2

Die Analyse des Signals ergibt die Frequenzanteile |Yk | für die DFT und |Wk | für die Walsh-Transformation. Beide Spektren sind in der Abbildung 5.40 dargestellt. Man erkennt, dass die Walsh-Transformation das Fourier-Spektrum in diesem Fall brauchbar annähert. Im Vergleich zur Anwendung der Fourier-Funktionen ist die Rechnung mit Walsh-Funktionen deutlich weniger rechenintensiv. Jedoch muss gesagt werden, dass die Approximation nicht immer so gute Übereinstimmungen liefert. Deutlich sind jedoch auch hier Abweichungen und fälschlich detektierte Spektralanteile zu erkennen. •

5.6.2

Allgemeine diskrete Transformation

Ausgehend von der diskreten Fourier-Transformation wird eine allgemeine diskrete Transformation definiert. Definition 5.126 (Allgemeine diskrete Transformation) −1 Mit einem orthonormalen Funktionensystem {fn (k)}N n=0 wird die allgemeine diskrete Transformation wie folgt definiert:

Y (k) =

N −1 X n=0

y(n) fn (k) ,

k = 0, . . . , N − 1 .

(5.127)

273

5.6 Weitere diskrete Transformationen Mit der Transformationsmatrix  f0 (0) f1 (0)  f0 (1) f1 (1)  F= .. ..  . . f0 (N − 1) f1 (N − 1)

... ... .. .

fN −1 (0) fN −1 (1) .. .

    

(5.128)

. . . fN −1 (N − 1)

lässt sich die allgemeine diskrete Transformation in Matrixschreibweise formulieren: Y = Fy ,

y = F−1 Y .

(5.129)

Für die diskrete Fourier-Transformation (DFT) gilt dabei beispielsweise kn fn (k) = e−j2π N .

(5.130)

Wählt man stattdessen  n fn (k) = walw k, , N

(5.131)

so erhält man die Walsh-Transformation. Dann bezeichnet man obige Transformationsmatrix F als Hadamard-Matrix H :   1 1 ... 1  1 0 . . . walw N − 1, N1    H =  .. (5.132) . .. .. .. .  . . .   1 walw 1, NN−1 . . . walw N − 1, NN−1 Die Inverse der Hadamard-Matrix H−1 =

1 H N

(5.133)

lässt sich einfach berechnen. Dadurch kann der Rechenaufwand bei der Walsh-Transformation auf das Multiplizieren mit ±1 und die Addition beschränkt werden.

6

Zeitdiskrete Systeme

In Kapitel 4 wurden zeitkontinuierliche Systeme als eine Einrichtung behandelt, die auf ein zeitkontinuierliches Eingangssignal ye (t) mit einem zeitkontinuierlichen Ausgangssignal ya (t) antwortet. Zeitdiskrete Systeme werden durch eine Eingangsfolge angeregt, die als Funktion ye : N → R bzw. ye : Z → R aufgefasst werden kann, wobei ye,n = ye (n) = ye (ntA ) den n-ten Abtastwert bezeichnet. Als Ausgangssignal entsteht eine Ausgangsfolge ya : N → R bzw. ya : Z → R, deren n-ter Wert ebenfalls mit ya,n = ya (n) bezeichnet wird. In diesem Kapitel werden zuerst die allgemeinen Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. Auf Besonderheiten der Zeitdiskretisierung wird explizit eingegangen und elementare Blöcke werden eingeführt. Anschließend wird die mathematische Beschreibung mittels Differenzengleichungen bzw. mit Hilfe der z-Transformation dargestellt. Nach der zeitdiskreten Darstellung zeitkontinuierlicher Systeme behandelt das Kapitel die frequenzselektiven Filter und die Filterung mit Fensterfunktionen, wie sie schon bei den zeitkontinuierlichen Systemen beschrieben wurden. Schließlich werden die in diesem Buch eingeführten Begriffe und Definitionen anhand praktischer Beispiele veranschaulicht.

6.1

Eigenschaften

Wie bereits erwähnt, behandelt dieses Kapitel das Verhalten zeitdiskreter Systeme, also Beziehungen von Folgen. Betrachtet werden somit stets diskrete Funktionen y, ye , ya : N → R bzw. y, ye , ya : Z → R, die aus einem kontinuierlichen Signal durch Abtasten entstehen. Bei den Bezeichnungen werden die folgenden Konventionen benutzt: Sowohl die gesamte Folge als auch ein einzelner Wert des Signals werden mit yn = y(n) kenntlich gemacht. Unter Beachtung der Tatsache, dass zeitdiskrete Systeme stets Folgen auf Folgen abbilden, sind durch diese Bezeichnungsweise keine Missverständnisse zu befürchten. (Man betrachte die Analogie zum zeitkontinuierlichen Fall, in welchem durch y(t) sowohl die gesamte Funktion als auch der Funktionswert an einer bestimmten Stelle t bezeichnet wird.) Im folgenden Abschnitt sei stets ye,n = ye (n) ,

ya,n = ya (n) ,

ye , ya : Z → R

vorausgesetzt. Mit der zeitdiskreten Operatorgleichung ya,n = S{ye,n }

(6.1)

276

6 Zeitdiskrete Systeme

lassen sich alle Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. Bemerkung 6.2 Gleichung (6.1) ist nach obigen Bemerkungen keineswegs so zu verstehen, dass die n-te Komponente des Ausgangssignals sich durch einen Operator aus der n-ten Komponente des Eingangssignals ergibt, sondern stellt nach obigen Voraussetzungen eine • Beziehung zwischen Zahlenfolgen her. Definition 6.3 (Zeitdiskretes System) Ein zeitdiskretes System S ist ein System mit der Operatorgleichung (6.1), dessen Eingangssignal ye,n und Ausgangssignal ya,n zeitdiskrete Signale, d. h. Wertefolgen, sind. Die Eigenschaften der Linearität, Zeitinvarianz, Kausalität, Dynamik und Stabilität lassen sich einfach auf zeitdiskrete Systeme übertragen. Definition 6.4 (Linearität) Ein zeitdiskretes System S heißt linear, wenn für zwei beliebige Eingangssignale ye1,n und ye2,n und zwei beliebige Konstanten c1 , c2 ∈ R oder C S{c1 ye1,n + c2 ye2,n } = c1 S{ye1,n } + c2 S{ye2,n }

(6.5)

gilt. Der Linearitätsbegriff lässt sich auf N Eingangssignale (N ) N X X S ci yei,n = ci S{yei,n } i=1

und sogar auf unendlich viele Eingangssignale ( ∞ ) ∞ X X S ci yei,n = ci S{yei,n } i=−∞

(6.6)

i=1

(6.7)

i=−∞

erweitern, wobei Gleichung (6.7) wieder die Stetigkeit des Systems impliziert, vgl. Bemerkung 4.7.

277

6.1 Eigenschaften Definition 6.8 (Zeitinvarianz)

Ein zeitdiskretes System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye,n−n0 mit dem entsprechend zeitlich verschobenen Ausgangssignal ya,n−n0 antwortet: ya,n = S{ye,n }

=⇒

ya,n−n0 = S{ye,n−n0 } .

(6.9)

Zeitdiskrete Systeme, die Gl. (6.9) nicht genügen, heißen zeitvariant.

Definition 6.10 (Kausalität) Ein zeitdiskretes System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt. Dies bedeutet, dass für ein System S aus ye1,n = ye2,n

für n ≤ n1

(6.11)

und ya1,n = S{ye1,n } ,

ya2,n = S{ye2,n }

(6.12)

stets ya1,n = ya2,n

für n ≤ n1

(6.13)

folgt. Die beiden Signale ye1,n und ye2,n sind hier nach Voraussetzung für n ≤ n1 identisch. An Abtastzeitpunkten n > n1 können sie sich unterscheiden. Gehen jedoch bei einem System zukünftige Werte in die Berechnung des Ausgangswertes ya,n ein, so können sich bei einem nichtkausalen System die beiden Ausgangswerte ya1,n und ya2,n unterscheiden.

Definition 6.14 (Dynamik) Ein zeitdiskretes System S heißt dynamisch, wenn die Antwort ya,n des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye,n , sondern auch von den vergangenen, bei nichtkausalen Systemen auch von zukünftigen Werten abhängt. Die Antwort ya,n eines nichtdynamischen Systems hängt damit nur von dem augenblicklichen Wert des Eingangssignals ye,n ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer N , wenn die Antwort ya,n0 durch Werte der Erregung im Intervall {n0 − N, . . . , n0 } vollständig bestimmt ist. Ein nichtdynamisches System hat demnach ein Gedächtnis der Dauer null.

278

6 Zeitdiskrete Systeme

Definition 6.15 (Stabilität) Ein zeitdiskretes System S heißt stabil, wenn jedes beschränkte, zulässige zeitdiskrete Eingangssignal ye,n ein ebenfalls beschränktes Ausgangssignal ya,n zur Folge hat, d. h. wenn aus der Bedingung ∃ m > 0 mit |ye,n | < m < ∞

für alle n ∈ Z

die Aussage ∃ M > 0 mit |ya,n | < M < ∞

für alle n ∈ Z

folgt. Man spricht hier auch von BIBO-Stabilität, was von der englischen Bezeichnung bounded input – bounded output abgeleitet ist.

6.1.1

Lineare zeitinvariante Systeme (LTI-Systeme)

Auch bei zeitdiskreten Systemen sind die linearen zeitinvarianten Systeme (LTI-Systeme) von großem Interesse. Doch hierzu ist zuerst der zeitdiskrete Dirac-Impuls, also das zeitdiskrete Pendant zu Gl. (3.162), zu definieren. Definition 6.16 (Zeitdiskreter Dirac-Impuls) Der zeitdiskrete Dirac-Impuls wird durch  1 für n = 0 δn = 0 für n 6= 0

(6.17)

definiert. Entsprechend Gl. (3.162) erhält man den Wert einer Folge zum diskreten Zeitpunkt n0 als Faltung der Folge mit dem Dirac-Impuls im Zeitpunkt n0 : y n0 =

∞ X

yn δn−n0 = yn ∗ δn |n=n0 .

(6.18)

n=−∞

Nun kann die zeitdiskrete Impulsantwort eingeführt werden. Definition 6.19 (Impulsantwort) Die Antwort eines zeitdiskreten Systems S auf den Impuls δn als Eingangssignal gn = S{δn } nennt man Impulsantwort gn des zeitdiskreten Systems.

(6.20)

279

6.1 Eigenschaften Mit Gl. (6.18) lässt sich ein Eingangssignal ye,n als Faltungssumme ye,n =

∞ X

ye,i δn−i

i=−∞

darstellen. Benutzt man das Signal ye,n als Eingangssignal eines (stetigen) LTI-Systems S, so erhält man das Ausgangssignal als Faltung des Eingangssignals ye,n mit der Impulsantwort gn des Systems S, ( ∞ ) ∞ X X ya,n = S{ye,n } = S ye,i δn−i = ye,i S{δn−i } i=−∞

=

∞ X

i=−∞

ye,i gn−i = ye,n ∗ gn ,

i=−∞

wobei die Faltung zweier Zahlenfolgen xn , yn durch xn ∗ yn =

∞ X

xn−k yk =

k=−∞

∞ X

xk yn−k

(6.21)

k=−∞

definiert ist. Dies bedeutet, dass zeitdiskrete LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind. Satz 6.22 (Impulsantwort) Die Impulsantwort gn = S{δn } eines zeitdiskreten LTI-Systems S charakterisiert das System vollständig. Die Antwort ya,n bei gegebenem Eingangssignal ye,n berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: ya,n = ye,n ∗ gn .

(6.23) •

Zeitdiskrete Systeme können demzufolge mittels ihrer Impulsantwort charakterisiert werden. Die Unterscheidung im Hinblick auf die Dauer der Impulsantwort liefert die folgende Definition. Definition 6.24 (FIR- und IIR-Systeme) Zeitdiskrete Systeme S, deren Impulsantwort eine endliche Länge besitzt, werden als FIR-Systeme (FIR: finite impulse response) bezeichnet. Systeme mit unendlich langer Impulsantwort heißen IIR-Systeme (IIR: infinite impulse response). Die Aussagen zur Kausalität und Stabilität zeitdiskreter LTI-Systeme lassen sich aus den Untersuchungen zeitkontinuierlicher Systeme übertragen; die entsprechenden Beweise sind analog.

280

6 Zeitdiskrete Systeme

Satz 6.25 (Kausalität) Ein zeitdiskretes LTI-System S ist genau dann kausal, wenn die Impulsantwort gn für negative Indizes verschwindet, d. h. wenn gn = 0

für

(6.26)

n 0,

bzw. bei nichtkausalen Systemen vergangene und zukünftige Werte yn+i ,

i ∈ Z \ {0} ,

Abbildung 6.1: Annäherung der Ableitung eines Signals durch eine Differenzengleichung.

282

6 Zeitdiskrete Systeme

in die Differenzengleichung ein. Damit lässt sich in der allgemeinen Form der Ausgangswert ya,n eines zeitdiskreten Systems S zur Zeit n als Funktion der anderen Werte der Ausgangsfolge ya,n−i , i ∈ Z \ {0}, der Werte der Eingangsfolge ye,n , n ∈ Z, und des Zeitindex n darstellen. Bei kausalen Systemen werden nur vergangene Werte benutzt: ya,n = f (ya,n−1 , . . . , ye,n , ye,n−1 , . . . , n) .

(6.32)

Bei der Betrachtung zeitdiskreter LTI-Systeme geht die allgemeine Darstellung in eine lineare Differenzengleichung mit zeitunabhängigen Koeffizienten über: n2 X ν=n1

aν ya,n−ν =

m2 X

bµ ye,n−µ .

(6.33)

µ=m1

Dabei charakterisieren die Koeffizienten aν und bµ das System. Die dabei vorkommenden Indexgrenzen n1 , n2 , m1 und m2 sagen etwas über die Kausalität und andere Eigenschaften des Systems aus. Man kann dabei ohne Einschränkung n1 ≤ n2 und m1 ≤ m2 voraussetzen. Sind alle Indizes negativ oder gleich null, so handelt es sich um ein antikausales System. Sind alle Indizes positiv oder gleich null, so handelt es sich um ein kausales System. Ansonsten ist es ein akausales System. Beispiel 6.34 (Differenzengleichung des RC-Tiefpasses) Der in Beispiel 1.4 vorgestellte RC-Tiefpass besitzt die Differentialgleichung RC · u˙ a (t) + ua (t) = ue (t) . Mit Gl. (6.31) entsteht daraus die Differenzengleichung ua,n − ua,n−1 RC · + ua,n = ue,n tA RC tA ⇐⇒ ua,n = ua,n−1 + ue,n . RC + tA RC + tA Durch Vergleich mit Gl. (6.33) lassen sich an dieser Gleichung sowohl die Linearität als auch die Kausalität des Systems unmittelbar erkennen. • Neben der Darstellung eines zeitdiskreten Systems S als lineare Differenzengleichung nach Gl. (6.33) existiert noch die Darstellung im Zustandsraum, die im Folgenden beschrieben wird.

6.2.1

Zustandsraum

Entsprechend den Überlegungen bei zeitkontinuierlichen Systemen werden für zeitdiskrete Systeme die allgemeine Zustandsraumdarstellung und die Zustandsraumdarstellung für lineare, zeitinvariante Systeme ohne Herleitung angegeben.

283

6.2 Beschreibung durch Differenzengleichungen Definition 6.35 (Zustandsraumdarstellung)

Ein zeitdiskretes System S lässt sich mit seinen Eingangssignalen ye,n und Ausgangssignalen ya,n sowie seinen inneren Zustandsgrößen zn durch zn+1 = f (zn , ye,n , n) ya,n = g(zn , ye,n , n)

(6.36)

im Zustandsraum beschreiben. Dabei bezeichnet man, analog zum zeitkontinuierlichen Fall, die erste Gleichung als Zustandsgleichung und die zweite Gleichung als Ausgangsgleichung.

Definition 6.37 (Zustandsraumdarstellung für zeitdiskrete LTI-Systeme) Zeitdiskrete LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch die Vektorgleichungen zn+1 = A zn + B ye,n ya,n = C zn + D ye,n

(6.38)

darstellen, wobei die auftretenden Matrizen wiederum mit Systemmatrix für die Matrix A, Steuermatrix für die Matrix B sowie Beobachtungsmatrix und Durchschaltmatrix für C bzw. D bezeichnet werden. Beispiel 6.39 (Zustandsraumdarstellung) Als Beispiel für eine Zustandsraumdarstellung wird das System aus Abbildung 6.2 betrachtet. Es handelt sich um eine gleitende Mittelwertbildung, die vergangene Werte gemäß den Faktoren bi gewichtet. Im Vorgriff auf Abschnitt 6.3 ist in den Blöcken die z-Übertragungsfunktion z −1 zu sehen, die eine Verzögerung des Eingangssignals um die Abtastzeit tA bewirkt. Diese z-Übertragunsfunktion darf nicht mit den Elementen zi,n des Zustandsvektors verwechselt werden. Aus der Zeichnung können die folgenden Gleichungen abgelesen werden: z2,n+1 = b2 ye,n , z1,n+1 = b1 ye,n + z2,n + a1 ya,n , ya,n = z1,n + b0 ye,n . Einsetzen der Gleichungen ineinander ergibt: A



z1,n+1 z2,n+1



ya,n

B

z }| {  z }|    { a1 1 z1,n b1 + a1 b0 = + ye,n , 0 0 z2,n b2   z1,n = (1, 0) + (b0 ) ye,n . | {z } z2,n |{z} C

D



284

6 Zeitdiskrete Systeme

Abbildung 6.2: Zeitdiskretes Beispielsystem.

6.3

Die z-Transformation

Zur Beschreibung zeitkontinuierlicher Signale und Systeme benutzt man die FourierTransformation und die Laplace-Transformation. Digitalrechner arbeiten jedoch mit diskreten Signalen und Systemen. Die Beschreibung zeitdiskreter Systeme mit Hilfe der z-Transformation bietet ähnliche Möglichkeiten wie die Beschreibung kontinuierlicher Systeme mit der Laplace-Transformation.

6.3.1

Definition und Beziehung zur Laplace-Transformation

Bei der Herleitung der Fourier-Transformation zeitdiskreter Signale wurde das Signal in seiner Darstellung als Impulsreihe der Fourier-Transformation unterzogen. Dieser Weg wird auch bei der Herleitung der z-Transformation durch Anwendung der LaplaceTransformation auf die Impulsreihe gegangen. Wird ein zeitkontinuierliches Signal y(t) mit der Frequenz fA = 1/tA abgetastet, so lässt sich das gewonnene zeitdiskrete Signal y∗ (t) nach Gl. (5.18) als Impulsreihe y∗ (t) = y(t) ·

∞ X

∞ X

δ(t − ntA ) =

n=−∞

y(ntA ) δ(t − ntA )

(6.40)

n=−∞

darstellen. Wendet man auf diese Gleichung die zweiseitige Laplace-Transformation an, so erhält man als die Laplace-Transformierte des zeitdiskreten Signals: ( Y∗ (s) = LII {y∗ (t)} = LII =

Z∞ X ∞ −∞ n=−∞

∞ X

) y(ntA ) δ(t − ntA )

(6.41)

n=−∞

y(ntA ) δ(t − ntA ) e−st dt =

∞ X n=−∞

y(ntA ) e−ntA s .

285

6.3 Die z-Transformation Diese ist wegen e−ntA s = e−ntA (s + j2πl/tA ) ,

l ∈ Z,

eine Funktion, die bei Änderung des Imaginärteils um ein Vielfaches von 2π/tA = 2πfA unverändert bleibt: Y∗ (s + j2πl/tA ) = Y∗ (s) ,

l ∈ Z.

In der komplexen s-Ebene wiederholt sich damit der Informationsgehalt periodisch. Bei Einhaltung des Abtasttheorems steckt bereits die gesamte Information über das Signal y∗ (t) im Streifen {s = δ + j2πf ∈ C : |2πf | < πfA } = {s ∈ C : |Im{s}| < πfA } . Zur Vermeidung dieser Periodizität wird die s-Ebene mittels der konformen Abbildung z = etA s

(6.42)

eindeutig und nichtlinear auf die z-Ebene abgebildet. Alle Punkte gleicher Information gehen somit in denselben Bildpunkt über. Die Mehrdeutigkeiten in Gl. (6.41) verschwinden, weil sie mehrfach in sich selbst abgebildet werden. Mit Abbildung 6.3 ergeben sich die in Tabelle 6.1 gezeigten Korrespondenzen. Der Übergang zur z-Transformation besitzt aber auch noch andere Vorteile. So wird der Bereich der Stabilität δ 0 aufspalten. Mit der Definition der entsprechenden z-Transformierten, Y+ (z) =

∞ X

yn z −n ,

(6.45)

n=0

Y− (z) =

0 X n=−∞

yn z −n =

∞ X n=0

y−n z n ,

(6.46)

erhält man die Darstellung Y (z) = Y+ (z) + Y− (z) − y(0) .

(6.47)

Eine Folge yn = y(n) bestimmt eindeutig die z-Transformierte Y (z). Umgekehrt ist, wie später exemplarisch gezeigt wird, eine Folge yn = y(n) durch Y (z) nur dann eindeutig bestimmt, wenn zu Y (z) das Konvergenzgebiet der Summe in z angegeben wird. Bemerkung 6.48 Im Folgenden wird anstelle der Darstellung y(n), welche die Abstammung der zeitdiskreten Werte von einer Abtastung verdeutlicht, wieder die Folgendarstellung yn verwendet, die keinerlei Information über die Herkunft der Werte mehr enthält. •

287

6.3 Die z-Transformation

6.3.2

Existenz

Die Existenz der z-Transformierten ist von der Angabe des Konvergenzgebietes abhängig. Die z-Transformierte nach Gleichung (6.44) ist die Laurent-Reihen-Entwicklung Gleichung (2.118) der Funktion ∞ X

Y (z) =

an (z − z0 )n

n=−∞

mit den Koeffizienten an = y−n , n ∈ Z und z0 = 0. Das Konvergenzgebiet der z-Transformierten muss also ein Kreisringgebiet um z0 = 0 der Gestalt r+ < |z| < r− ,

r+ < r− ,

(6.49)

sein. Die beiden Radien r+ und r− sind von der jeweiligen Wertefolge yn abhängig. Es lässt sich jedoch zeigen, dass sie jeweils nur vom kausalen oder vom antikausalen Teil der Wertefolge abhängig sind. Dazu spaltet man die Reihe wieder in einen kausalen und in einen antikausalen Teil auf. 1. Kausaler Teil, n ≥ 0: Die z-Transformierte des kausalen Teils y+ (n) lautet: Y+ (z) =

∞ X

yn z −n .

n=0

Mit w = 1/z ist dies eine gewöhnliche Potenzreihe im Sinne der Funktionentheorie: Y+

  X ∞ 1 = yn wn . w n=0

Wie dies allgemein bei Potenzreihen möglich ist, kann der Konvergenzradius R dieser Reihe gemäß der Formel R=

 −1 lim sup |yn |1/n n→∞

bestimmt werden, wobei 1/0 = ∞ und 1/∞ = 0 gesetzt wird. Somit konvergiert diese Reihe, was mit der Existenz von Y+ w1 gleichbedeutend ist, im Bereich |w| < R . Also existiert der kausale Teil Y+ (z) außerhalb der Kreisscheibe mit Mittelpunkt 0 und Radius 1/R : |z| > r+ =

1 . R

288

6 Zeitdiskrete Systeme

2. Antikausaler Teil, n ≤ 0: Die z-Transformierte des antikausalen Teils y− (n) ist: Y− (z) =

0 X

yn z −n .

n=−∞

Bevor obiges Vorgehen auf diese Reihe angewandt werden kann, muss sie in die Standarddarstellung gebracht werden. Diese lautet mit einfacher Umindizierung Y− (z) =

∞ X n=0

y−n z n .

Analog zum kausalen Teil erhält man hier den Konvergenzradius  −1 1/n r = lim sup |y−n | n→∞

mit denselben Festlegungen 1/0 = ∞, 1/∞ = 0, und somit das Konvergenzgebiet des antikausalen Teils Y− (z) zu |z| < r− = r . Betrachtet man nun die Definitionsbereiche der Funktionen Y+ (z) und Y− (z), so fällt sofort auf, dass die z-Transformierte Y (z), wie bereits behauptet, nur in einem Kreisring um den Nullpunkt existiert, wobei sich die Radien gemäß r+ = 1/R und r− = r ergeben.

Weiterhin wird aus der Herleitung deutlich, dass die Radien r+ und r− nur vom kausalen bzw. vom antikausalen Teil der Folge yn abhängen und somit unabhängig voneinander sind. Ist eine kausale Wertefolge gegeben, wie dies in technischen Anwendungen häufig der Fall ist, so ergibt sich r− = ∞. Bemerkung 6.50 Ist die Wertefolge eine rechtsseitige Folge, d. h. existiert ein nmin mit yn = 0 für n < nmin , so hat das Konvergenzgebiet wegen limn→−∞ yn = 0 und somit r− = ∞ stets die Form r+ < |z|. Analog entsteht bei linksseitigen Wertefolgen – bei welchen yn = 0 für n > nmax und somit r+ = 0 gilt – stets ein Konvergenzgebiet der Gestalt |z| < r− . • Bemerkung 6.51 1. Enthält das Konvergenzgebiet der z-Transformierten einer Wertefolge den Einheitskreis, dann ist für diese Folge auch die zeitdiskrete Fourier-Transformierte konvergent, vgl. Gleichung (5.21) in Abschnitt 5.3.1. Die Fourier-Transformierte kann mittels z = ej2πf tA aus der z-Transformierten berechnet werden. 2. Ist die Wertefolge yn endlich, d. h. gilt yn 6= 0 nur für endlich viele Indizes n, so konvergiert die z-Transformation automatisch für alle z mit 0 < |z| < ∞. • Im folgenden Beispiel soll die Bestimmung des Kreisringgebietes, aber auch die Wichtigkeit der Angabe dieses Gebiets zur Eindeutigkeit der z-Transformierten gezeigt werden.

289

6.3 Die z-Transformation Beispiel 6.52 (Bestimmung des Konvergenzgebietes) Bei der Wertefolge  n a für n ≥ 0 yn = bn für n < 0

mit

a, b ∈ C

stellen sich drei Fragen: Wie sieht die z-Transformierte aus? Welchen Bedingungen müssen a ∈ C und b ∈ C genügen, damit die z-Transformierte existiert? Für welche z-Werte ist die z-Transformierte dann konvergent? Nach Aufteilen erhält man den kausalen Teil ∞  n a X a 1 z Y+ (z) = = = , < 1, a z 1 − z − a z z n=0 welcher für a ⇔ |z| > |a| = r+ r− .

(6.59)

293

6.3 Die z-Transformation

Der Integrationsweg C liegt im Inneren dieses Kreisrings, in dem sich keine Polstellen befinden. Zur Anwendung des Residuensatzes muss der Integrationsweg die Polstellen umschließen. Dabei müssen die Polstellen auf der linken Seite, d. h. im Inneren, relativ zum Integrationsweg liegen. Hierbei gibt es zwei Möglichkeiten. 1. Der Integrationsweg verläuft in mathematisch positiver Richtung, vgl. C1 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind also die Pole innerhalb des Kreisrings, d. h. die Pole mit |z∞ | < r+ .

Hier verwendet man nur die Pole, die für den kausalen Teil des Signals verantwortlich sind. 2. Der Integrationsweg verläuft in mathematisch negativer Richtung, vgl. C2 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind die Pole außerhalb des Kreisrings, d. h. die Pole mit |z∞ | > r− .

Diese Pole sind für den antikausalen Teil des Signals verantwortlich. Hierbei ist zu beachten, dass bei mathematisch negativer Richtung das Vorzeichen umzudrehen ist. Des Weiteren muss, falls vorhanden, die Unendlichkeitsstelle bei |z| → ∞ berücksichtigt werden.

Abbildung 6.6: Integrationswege.

Fasst man die vorherigen Ausführungen zusammen, so lässt sich für den kausalen Teil X yn = Res{Y (z) z n−1 ; |z∞i | < r+ } , n ≥ 0, (6.60) i

und für den antikausalen Teil X yn = − Res{Y (z) z n−1 ; |z∞i | > r− } ,

n ≤ 0,

(6.61)

i

schreiben. Im antikausalen Teil muss, wenn vorhanden, die Unendlichkeitsstelle bei |z| → ∞ beachtet werden.

294

6 Zeitdiskrete Systeme

Beispiel 6.62 (Rücktransformation mittels Residuensatz) Die Funktion Y (z) =

z z−a

mit

|z| > a

ist die z-Transformierte einer kausalen Folge. Man berechnet leicht  yn = Res Y (z) z n−1 ; z∞ = a  n  z = Res ; z∞ = a z−a zn = lim (z − a) = an , n ≥ 0. z→a z−a



Als weiteres Beispiel soll die in Beispiel 6.52 berechnete z-Transformierte rücktransformiert werden. Beispiel 6.63 (Rücktransformation mittels Residuensatz) Die z-Transformierte lautet: Y (z) =

z (a − b) (z − a)(z − b)

mit

|a| < |z| < |b| .

Zur Berechnung der Wertefolge yn bestimmt man die Pole und die Unendlichkeitsstellen. 1. |z∞ | < r+ = |a| Hier gibt es nur eine Pol- bzw. Unendlichkeitsstelle z∞ = a. Für n ≥ 0 folgt: yn = Res{Y (z) z n−1 ; z∞ = a}   z n (a − b) = Res ; z∞ = a (z − a)(z − b) z n (a − b) = lim (z − a) = an , z→a (z − a)(z − b)

n ≥ 0.

2. |z∞ | > r− = |b| Hier gibt es auch nur einen Pol bzw. eine Unendlichkeitsstelle z∞ = b, da limz→∞ Y (z) = 0 gilt, und es ergibt sich: yn = −Res{Y (z) z n−1 ; z∞ = b}   z n (a − b) = −Res ; z∞ = b (z − a)(z − b) z n (a − b) = − lim (z − b) = bn , z→b (z − a)(z − b)

n < 0.

Das Resultat der Rücktransformation stimmt mit dem Ausgangspunkt von Beispiel 6.52 überein. •

6.3 Die z-Transformation 6.3.4.3

295

Polynomdivision

Ist die z-Transformierte Y (z) als gebrochen rationale Funktion der Form 1 1 + · · · + bM M z z Y (z) = 1 1 a0 + a1 + · · · + aN N z z b0 + b1

(6.64)

gegeben, so kann für kausale Signale die Wertefolge yn durch Polynomdivision gewonnen werden, da aus     1 1 1 1 1 b0 + b1 + · · · + bM M ÷ a0 + a1 + · · · + aN N = y0 + y1 + · · · z z z z z durch Multiplikation auf beiden Seiten       1 1 1 1 1 b0 + b1 + · · · + bM M = a0 + a1 + · · · + aN N · y0 + y1 + · · · z z z z z folgt. Nun können durch Koeffizientenvergleich die Werte yn mittels Lösen eines linearen Gleichungssystems bestimmt werden. Der Nachteil der Polynomdivision ist, dass sie im Allgemeinen kein analytisches Ergebnis liefert, da die resultierende Folge yn unendlich lang ist. Es muss ab einer bestimmen Stelle abgebrochen werden. Dieses Verfahren ist besonders für Digitalrechner geeignet.

6.3.4.4

Partialbruchzerlegung

Die z-Transformierte Y (z) sei eine teilerfremde rationale Funktion Y (z) =

p(z) q(z)

(6.65)

mit grad{p(z)} < grad{q(z)}. Das Nennerpolynom q(z) sei durch q(z) = q · (z − z1 )α1 · (z − z2 )α2 · . . . · (z − zK )αK · (6.66) · (z 2 + γ1 z + δ1 )β1 · (z 2 + γ2 z + δ2 )β2 · . . . · (z 2 + γL z + δL )βL darstellbar, wobei die komplexen Polpaare zu den Ausdrücken z 2 + γz + δ zusammengefasst sind. Für alle z ∈ C, für die q(z) 6= 0 gilt, kann die Funktion Y (z) in Partialbrüche

296

6 Zeitdiskrete Systeme

zerlegt werden: a11 a12 a1α1 + + ··· + (6.67) z − z1 (z − z1 )2 (z − z1 )α1 a21 a22 a2α2 + + + ··· + z − z2 (z − z2 )2 (z − z2 )α2 .. . aK1 aK2 aKαK + + + ··· + z − zK (z − zK )2 (z − zK )αK b11 z + c11 b12 z + c12 b1β z + c1β1 + 2 + 2 + ··· + 2 1 2 z + γ1 z + δ 1 (z + γ1 z + δ1 ) (z + γ1 z + δ1 )β1 b21 z + c21 b22 z + c22 b2β z + c2β2 + 2 + 2 + ··· + 2 2 2 z + γ2 z + δ 2 (z + γ2 z + δ2 ) (z + γ2 z + δ2 )β2 .. . bL1 z + cL1 bL2 z + cL2 bLβ z + cLβL + 2 + 2 + ··· + 2 L . z + γL z + δ L (z + γL z + δL )2 (z + γL z + δL )βL

Y (z) =

Hierbei sind aij , bij , cij ,

i = 1, 2, . . . , K , i = 1, 2, . . . , L ,

j = 1, 2, . . . , αK j = 1, 2, . . . , βL

eindeutig bestimmte Konstanten. Wenn alle Koeffizienten in Y (z) reell sind, so gibt es entweder nur reelle Polstellen ··· (z − zi )αi oder konjugiert komplexe Polstellenpaare ··· . (z 2 + γi z + δi )βi Dann sind auch die Koeffizienten aij , bij und cij reell. Die Koeffizienten aiαi mit der höchsten Ordnung – bei einfachen reellen Polen also die ai1 – können wie folgt berechnet werden: aiαi = lim Y (z) · (z − zi )αi . z→zi

(6.68)

Die anderen Koeffizienten ermittelt man am einfachsten durch Ausmultiplizieren und Koeffizientenvergleich, welcher auf ein lineares Gleichungssystem führt. Man kann aber auch die anderen Koeffizienten über  m  1 ∂ αi ai(αi −m) = (Y (z) · (z − z ) ) i m! ∂z m z=zi

(6.69)

ermitteln. Hat man die z-Transformierte Y (z) in Partialbrüche zerlegt, so kann man diese mittels der geometrischen Reihe oder einer Transformationstabelle ganz einfach rücktransformieren. Dies wird nun an zwei Beispielen demonstriert.

297

6.3 Die z-Transformation Beispiel 6.70 (Partialbruchzerlegung) Die z-Transformierte laute 3z 2 + 2z − 10 . − 5z 2 + 8z − 4 Der Nenner besitzt die Produktdarstellung Y (z) =

z3

z 3 − 5z 2 + 8z − 4 = (z − 1) (z − 2)2 . Daraus folgt für die Partialbruchzerlegung der Ansatz a11 b11 z + c11 + . z−1 (z − 2)2

Y (z) =

Nach Gleichung (6.68) gilt 3z 2 + 2z − 10 = −5 . z→1 (z − 2)2

a11 = lim Y (z) · (z − 1) = lim z→1

Durch Ausmultiplizieren, d. h. durch Bildung des Hauptnenners, folgt !

3z 2 + 2z − 10 = −5 · (z − 2)2 + (b11 z + c11 ) · (z − 1) = (−5 + b11 )z 2 + (20 − b11 + c11 )z + (−20 − c11 ) . Durch Koeffizientenvergleich erhält man das Gleichungssystem −5 + b11 = 3 20 − b11 + c11 = 2 −20 − c11 = −10 mit der Lösung b11 = 8 ,

c11 = −10 ,

woraus die Partialbruchzerlegung 3z 2 + 2z − 10 5 8z 10 =− + − 3 2 2 z − 5z + 8z − 4 z − 1 (z − 2) (z − 2)2

Y (z) =

folgt. Natürlich hätte man sich die separate Berechnung von a11 ersparen und diesen Wert auch im Gleichungssystem mitberechnen können. Hat ein System aber nur oder überwiegend reelle Pole erster Ordnung, so reduziert die vorherige Berechnung der entsprechenden Koeffizienten die Ordnung des Gleichungssystems. Mit den Korrespondenzen an−1 · σn−1

◦−•

1 z−a

und n an · σn

◦−•

za (z − a)2

sowie dem Verschiebungssatz erhält man Y (z)

◦−•

y(n) = −5 σn−1 + 4 n · 2n · σn − 5 (n − 1) · 2n−1 · σn−1 . •

298

6 Zeitdiskrete Systeme

Beispiel 6.71 (Partialbruchzerlegung) Die z-Transformierte laute 1 1 Y (z) = 3 = . 2 z − 2z + z z · (z − 1)2 Daraus folgt der Ansatz der Partialbruchzerlegung zu Y (z) =

z3

1 a11 a21 a22 = + + . 2 − 2z + z z z − 1 (z − 1)2

Nach Gleichung (6.68) gilt 1 =1 z→0 z→0 (z − 1)2 1 a22 = lim Y (z) · (z − 1)2 = lim = 1 . z→1 z→1 z Dies ergibt bis jetzt a11 = lim Y (z) · z = lim

Y (z) =

z3

1 1 a21 1 = + + . 2 − 2z + z z z − 1 (z − 1)2

Den Koeffizienten a21 könnte man nun durch Bilden des Hauptnenners und Koeffizientenvergleich oder mit Hilfe der Formel (6.69) bestimmen. Einfacher ist es jedoch, einen geeigneten z-Wert einzusetzen, der keine Polstelle ist. Wählt man z. B. z = −1, so resultiert: 1 a21 1 Y (z = −1) = − = −1 − + =⇒ a21 = −1 4 2 4 und insgesamt Y (z) =

1 1 1 − + , z z − 1 (z − 1)2

was nach inverser z-Transformation die folgende Wertefolge ergibt: y(n) = δn−1 − σn−1 + (n − 1) · σn−1 . 6.3.4.5



Transformationstabelle

Natürlich darf die Transformationstabelle als Weg der Rückführung von der z-Transformierten zur Wertefolge nicht vergessen werden. Oftmals wird die Funktion Y (z) erst durch Partialbruchzerlegung so vereinfacht, dass die Transformationstabelle angewendet werden kann, falls sie nicht bereits aus Funktionen besteht, deren Urfolge bekannt ist. Die Transformationstabelle für die z-Transformation findet man in Anhang C.

6.3.5

Eigenschaften

Bei der z-Transformation sind, wie bei den anderen Transformationen, die Eigenschaften für deren Anwendung von Interesse. Die wichtigsten werden hier dargestellt. Darüber hinaus sind sie ebenfalls im Anhang C tabellarisch zusammengefasst.

299

6.3 Die z-Transformation 6.3.5.1

Linearität

Es gilt die Linearität für z-Transformierte nX o X Z ci yi,n = ci Yi (z) i

(6.72)

i

mit dem Gültigkeitsbereich max{ri+ } < |z| < min{ri− } , i

i

da zur Berechnung der Summe jede der z-Transformierten existieren muss. 6.3.5.2

Zeitumkehr

Bei der Zeitumkehr entsteht aus ∞ X Y (z) = yn z −n ,

r+ < |z| < r− ,

n=−∞

die z-Transformierte der zeitumgekehrten Folge y−n als Yˆ (z) =

∞ X n=−∞

= Y

y−n z

−n

∞ X

∞ X

 −n 1 = yn z = yn z n=−∞ n=−∞ n

  1 z

(6.73)

mit dem Konvergenzgebiet 1 1 < |z| < . r− r+ 6.3.5.3

Zeitverschiebung

Bei der Zeitverschiebung der Folge um l ∈ Z Werte, d. h. yn → yn−l , entsteht aus Y (z) =

∞ X

yn z −n ,

r+ < |z| < r− ,

n=−∞

für allgemeine – d. h. zweiseitige – Folgen die z-Transformierte: Yˆ (z) =

∞ X

yn−l z

−n

=z

−l

n=−∞

∞ X

yn−l z −(n−l)

n=−∞

= z −l Y (z) ,

(6.74)

r+ < |z| < r− .

Kausale Folgen würden jedoch bei einer Verschiebung um l < 0 akausal. Soll die zeitverschobene kausale Folge weiterhin kausal bleiben, so wird ein Teil der Folge abgeschnitten, und dieser Teil muss von der z-Transformierten wieder abgezogen werden: yn+l

◦−•

l

z Y+ (z) −

l−1 X i=0

yi z l−i

mit

l ≥ 0.

(6.75)

300 6.3.5.4

6 Zeitdiskrete Systeme Modulation

Bei der Modulation, d. h. der Multiplikation im Zeitbereich mit an , a ∈ C, folgt aus ∞ X

Y (z) =

yn z −n ,

r+ < |z| < r− ,

n=−∞

die z-Transformierte des modulierten Signals an yn für a 6= 0 zu ∞ X

Yˆ (z) =

an yn z −n =

n=−∞

= Y

∞  −n ∞  z −n X X 1 yn z −n = yn a a n=−∞ n=−∞

z 

(6.76)

a

mit dem Gültigkeitsbereich |a| r+ < |z| < |a| r− . 6.3.5.5

Lineare Gewichtung

Aus der Ableitung der z-Transformierten Y (z) ∞ ∞ X d d X −n Y (z) = yn z = − n yn z −n−1 dz dz n=−∞ n=−∞

= −

∞ 1 X n yn z −n z n=−∞

(6.77)

folgt die Regel der z-Transformation für eine linear gewichtete Funktion: Z{nyn } = −z 6.3.5.6

d Y (z) , dz

(6.78)

r+ < |z| < r− .

Faltung

Die z-Transformierte der Faltung zweier Zahlenfolgen xn ∗ yn =

∞ X

∞ X

xk yn−k =

k=−∞

xn−k yk

k=−∞

ergibt sich als Produkt der z-Transformierten: Z{xn ∗ yn } = =

∞ X

(xn ∗ yn ) z −n =

n=−∞ ∞ X k=−∞

xk

∞ X n=−∞

= X(z) · Y (z) .

yn−k z

∞ X

∞ X

xk yn−k z −n

n=−∞ k=−∞ ∞ X −n

=

xk z

k=−∞

−k

∞ X

yn−k z −(n−k)

n=−∞

(6.79)

301

6.3 Die z-Transformation Als Konvergenzbereich ergibt sich der Kreisring max{rx+ , ry+ } < |z| < min{rx− , ry− } . 6.3.5.7

Korrelation

Die Korrelation zweier reeller Zahlenfolgen ist wie folgt definiert: ∞ X ν = i+n Rxy (n) = xi+n yi i = ν −n =

i=−∞ ∞ X

xν y−(n−ν) = xn ∗ y−n .

ν=−∞

Mit den Transformationsregeln für die Faltung und die Zeitumkehr erhält man:   1 Sxy (z) = Z{Rxy (n)} = X(z) Y , (6.80) z   1 Sxx (z) = X(z) X . z Als Konvergenzbereich ist hier der Streifen zu nehmen, in dem beide Funktionen konvergieren. Hierzu ist neben einer zur Faltung analogen Betrachtung noch das Verhalten bei Zeitumkehr zu beachten: n n 1 o 1 o max rx+ , < |z| < min rx− , . ry− ry+ 6.3.5.8

Anfangswertsatz

Für kausale Folgen yn gilt mit Y (z) = Y+ (z) =

∞ X

yn z −n = y0 + y1 z −1 + y2 z −2 + · · ·

n=0

der Anfangswertsatz der z-Transformation: (6.81)

lim Y (z) = y0 .

z→∞

Für beliebige Folgenelemente yn mit positivem Index n > 0 gilt wegen z n Y+ (z) = z n y0 + z n−1 y1 + · · · + yn + yn+1 z −1 + · · · und somit yn = z n Y+ (z) −

n−1 X

z n−i yi −

i=0

∞ X

z −i yn+i

i=1

bei Existenz des Grenzwerts der verallgemeinerte Anfangswertsatz für positive Indizes: ! n−1 X yn = lim z n Y+ (z) − z n−i yi , n ≥ 0. (6.82) z→∞

i=0

302 6.3.5.9

6 Zeitdiskrete Systeme Endwertsatz

Die kausale Wertefolge yn lässt sich mit Hilfe des Residuensatzes berechnen: X yn = Res{Y (z) z n−1 ; |z∞i | < r+ } . i

Unter der Bedingung, dass eine Polstelle bei z∞ = 1 liegt, und dass alle anderen Pole innerhalb des Einheitskreises |z∞i | < 1 liegen, kann der Residuensatz wie folgt geschrieben werden: X yn = lim (z − 1) Y (z) z n−1 + lim (z − z∞i ) Y (z) z n−1 . z→1

|z∞i | 0,2 fA ist die Steigung des Phasenverlaufs positiv und damit die Gruppenlaufzeit negativ; gleichzeitig bleibt aber die absolute Phase weiterhin negativ, was einer Verzögerung beim Durchlauf durch das FIR-System entspricht. • Beispiel 6.121 (IIR-System) Die Differenzengleichung ya,n − a ya,n−1 = b ye,n eines IIR-Systems soll untersucht werden. Mit Hilfe der z-Transformierten Ya (z) − a z −1 Ya (z) = b Ye (z) erhält man die Übertragungsfunktion G(z) =

Ya (z) b bz = = , Ye (z) 1 − a z −1 z−a

deren Null- und Polstellen bei z0 = 0

bzw.

z∞ = a

liegen. Soll das System stabil sein, so muss |z∞ | = |a| < 1

324

6 Zeitdiskrete Systeme

0,5 0,4 0,3 0,2 0,1 0 −0,1 −2

0

2

4

6

8

10

Abbildung 6.18: Unendlich lange Impulsantwort gn des IIR-Systems.

gelten. Die Impulsantwort gn = b · an · σn ist für die Parameter a = 0,5 und b = 0,5 in Abbildung 6.18 zu erkennen. Sie ist unendlich lang. Der Amplitudengang A(f ) = G(z = ej2πf tA ) =

|b| |ej2πf tA

− a|

und der Phasengang  n o ψ(f ) = arg G(z = ej2πf tA ) = arg

b −j2πf tA 1 − ae



dieses Systems sind in Abbildung 6.19 für die Parameter tA = 1 s und a = b = 0,5 dargestellt. Man erkennt die Tiefpasscharakteristik des betrachteten Systems. Hier ist ebenfalls aufgrund der reellwertigen Impulsantwort der Amplitudengang symmetrisch und der Phasengang schiefsymmetrisch. • 1

4

0,8

2

0,6

0

0,4

−2

0,2 0 −0,5

0

0,5

−4 −0,5

0

0,5

Abbildung 6.19: Amplitudengang A(f ) und Phasengang ψ(f ) des zeitdiskreten IIR-Systems für den Fall tA = 1 s und a = b = 0,5.

325

6.5 Linearphasige Systeme

6.5

Linearphasige Systeme

In der Signalverarbeitung ist man bestrebt, Systeme zu entwerfen, die im Durchlassbereich eine möglichst geringe Phasenverzerrung aufweisen, da solche Verzerrungen eine Veränderung der Signalform bewirken. Im Idealfall sind daher Systeme erwünscht, bei denen der Phasengang frequenzunabhängig den konstanten Wert null annimmt. Derartige Phasengänge lassen sich jedoch bei kausalen Systemen nicht realisieren. Als Kompromiss bieten sich Systeme mit einer linearen Phase an. In diesem Abschnitt erfolgt nach der Definition eines linearphasigen Systems eine Zerlegung der Phase in einen dem ganzzahligen Vielfachen der Abtastzeit proportionalen Anteil und einen Rest. Dies führt auf eine Zeitverschiebung der zugehörigen Impulsantwort. Ein Beispiel veranschaulicht die eingeführten Begriffe. Anschließend wird eine notwendige Bedingung hergeleitet, mittels welcher überprüft werden kann, ob ein vorliegendes System linearphasig sein kann. Der zweite Abschnitt untersucht diese Bedingung für den Fall eines FIR-Filters. Es ergeben sich zwei Möglichkeiten zur Konstruktion linearphasiger FIR-Filter, welche auf Symmetriebetrachtungen der Impulsantwort zurückgeführt werden können. Abschließend illustrieren zwei Beispiele die theoretischen Begriffe.

6.5.1

Definition und Eigenschaften

Im Folgenden werden Systeme betrachtet, deren Frequenzgang eine lineare Phase besitzt. Also muss ψ(f ) = c · f mit c ∈ R gelten. Dies lässt sich für Systeme mit bestimmten Übertragungsfunktionen nachweisen: Satz 6.122 (Linearphasiges System) Ein zeitdiskretes LTI-System, dessen Übertragungsfunktion die Form G(z) = |G(z)| · z −k ,

k ∈ R,

hat, besitzt eine lineare Phase und eine konstante Gruppenlaufzeit.

(6.123) •

Beweis: Wir untersuchen den Frequenzgang des Systems, indem G(z) mit z = exp(j2πf tA ) betrachtet wird: G (f ) = A(f ) · e−j2πf tA · k . ∗

Dann ergibt sich die Phase ψ(f ) = 6 G∗ (f ) = −2πf tA · k als eine in der Frequenz lineare Funktion, und die Gruppenlaufzeit τg (f ) = − ist konstant.

1 d ψ(f ) = tA k = const 2π df

326

6 Zeitdiskrete Systeme

Zur weiteren Betrachtung der Phase teilen wir den Exponenten k einer linearen Phase in einen ganzzahligen Anteil nv und einen Rest α auf: k = nv + α ,

nv ∈ Z ,

0 ≤ α < 1.

Die Phase entsteht als ganzzahliges Vielfaches der Abtastzeit und dem Rest: ψ(f ) = −2πf tA nv − 2πf tA α . Diese Aufteilung wird später bei der Betrachtung der Symmetrieeigenschaften der zugehörigen Impulsantworten wichtig sein. Zuerst soll jedoch ein Beispiel für ein System mit linearer Phase behandelt werden. Beispiel 6.124 (Verzögerter Rechtecktiefpass) Ein verzögerter Rechtecktiefpass ist durch den Frequenzgang G∗ (f ) = R(f ) · e−j2πf tA (nv + α) mit dem akausalen Rechtecktiefpass der Grenzfrequenz fg <  1 für |f | < fg R(f ) = 0 sonst

fA 2

als Amplitudengang gegeben. Die Phase ist nach Satz 6.122 linear. Die Impulsantwort berechnet sich nach Gleichung (5.22) zu: Zfg gn = tA

ej2πf tA (n − nv − α) df

−fg

h ifg tA ej2πf tA (n − nv − α) j2πtA (n − nv − α) −fg 1 = sin(2πfg tA (n − nv − α)) π(n − nv − α) fg sin(2πfg tA (n − nv − α)) = fA · . 2πfg tA (n − nv − α) 2 =

Die in Abbildung 6.20 dargestellte Impulsantwort ist um k = nv + α symmetrisch. • Darüber hinaus existiert eine Vielzahl von Systemen, deren Phase zwar prinzipiell einen linearen Verlauf besitzt, jedoch durch einen Vorzeichenwechsel des Frequenzgangs Sprünge aufweist. Das soll an einem weiteren Beispiel verdeutlicht werden. Beispiel 6.125 (Zeitdiskretes Mittelwertfilter) Ein zeitdiskretes LTI-System mit der Impulsantwort ( 1 für 0 ≤ n ≤ M gn = M +1 0 sonst

327

6.5 Linearphasige Systeme 0,5 0,4 0,3 0,2 0,1 0 −0,1 −0,2 −5

0

5

Abbildung 6.20: Impulsantwort des verzögerten Rechtecktiefpasses für nv = 3 und α = 13 .

10

bildet wegen M

ya,n = ye,n ∗ gn =

1 X ye,n−i M + 1 i=0

zu jedem Zeitpunkt den Mittelwert der vergangenen M + 1 Eingangswerte. Den Frequenzgang solch eines Systems berechnet man zu: G∗ (f ) =

M X

1 e−j2πf ntA M + 1 n=0

1 1 − e−j2πf tA (M +1) M +1 1 − e−j2πf tA −jπf tA (M +1) jπf tA (M +1) 1 e e − e−jπf tA (M +1) = −jπf t jπf t A A − e−jπf tA M +1 e e 1 sin(πf tA (M + 1)) −jπf tA M = e . M +1 sin(πf tA ) Diesem System würde aufgrund des Exponenten ein linearer Phasenverlauf zugewiesen werden. Da jedoch der Frequenzgang Nullstellen hat, bei deren Duchlaufen sich das Vorzeichen ändert, entsteht bei diesen Frequenzen zusätzlich ein Phasensprung um ±π. • =

Aufgrund des letzten Beispiels lassen wir zur Verallgemeinerung eine zusätzliche abschnittsweise konstante Phasenverschiebung ψ0 zu. Definition 6.126 (Verallgemeinert lineare Phase) Ein System heißt verallgemeinert linearphasig, wenn die Übertragungsfunktion in die Gestalt G∗ (f ) = A(f ) e−j2πf tA k + jψ0 gebracht werden kann.

328

6 Zeitdiskrete Systeme

Dann ist die Phase verallgemeinert abschnittsweise linear ψ(f ) = −2πf tA k + ψ0 und damit die Gruppenlaufzeit entsprechend abschnittsweise konstant. Der um ψ0 erweiterte Frequenzgang mit verallgemeinert linearer Phase G∗ (f ) = A(f ) · e−j [2πf tA (nv + α) − ψ0 ] kann mit Hilfe der Euler’schen Formel wie folgt zerlegt werden: G∗ (f ) = A(f ) cos (2πf tA (nv + α) − ψ0 ) − jA(f ) sin (2πf tA (nv + α) − ψ0 ) . Wird die Impulsantwort gn als reellwertig angenommen, so kann der aus der z-Transformation ∞ X

G(z) =

gn z −n

n=−∞

mit z = exp(j2πf tA ) resultierende Frequenzgang ebenfalls in G∗ (f ) =

∞ X

gn cos(2πf n tA ) − j

n=−∞

∞ X

gn sin(2πf n tA )

n=−∞

zerlegt werden. Da die beiden Darstellungen des Frequenzganges übereinstimmen müssen, muss der Tangens des Phasenwinkels gleich sein: ∞ P

tan(ψ(f )) =

n=−∞ ∞ P

gn sin(2πf ntA ) !

= gn cos(2πf ntA )

sin(2πf tA (nv + α) − ψ0 ) . cos(2πf tA (nv + α) − ψ0 )

n=−∞

Durch Ausmultiplizieren erhält man die notwendige Bedingung an reellwertige Systeme mit abschnittsweise linearer Phase als ∞ X

  ! gn sin 2πf tA (n − nv − α) + ψ0 = 0 ,

f ∈ R.

(6.127)

n=−∞

Diese Bedingung wird in den nächsten Abschnitten beim Entwurf linearphasiger FIRFilter angewendet. Dabei wird zur Vereinfachung der Betrachtungen in den folgenden Ableitungen M als gerade angenommen. Für ungerade M kann man durch entsprechenM −1 de Methoden Frequenzgänge ableiten. Hierzu hat man lediglich k = M + 12 , 2 = 2 d. h. nv = M2−1 und α = 12 zu setzen.

329

6.5 Linearphasige Systeme

6.5.2

Linearphasige FIR-Filter

FIR-Filter lassen sich besonders einfach linearphasig entwerfen. Hierzu sei die Impulsantwort gn als reellwertig angenommen und habe nur im Beobachtungszeitraum [0, M tA ] von null verschiedene Werte. Nach obiger Bemerkung wird im Folgenden angenommen, dass M gerade sei. Die Verzögerung k (vgl. Beispiel 6.124) entspreche der halben Beobachtungszeit, d. h. nv =

M , 2

(6.128)

α = 0.

Bei Gültigkeit von Gleichung (6.128) kann man nach [OS98] zwei Fälle unterscheiden, in denen die Bedingung in Gleichung (6.127) erfüllt wird. Diese werden in den nächsten beiden Abschnitten untersucht. 6.5.2.1

Symmetrische Impulsantwort um

M 2

Die Symmetriebedingung lautet mathematisch gn = gM −n ,

n = 0, . . . ,

M , 2

(6.129)

und die abschnittsweise konstante Phasenverschiebung beträgt ψ0 = 0 bzw. ψ0 = ±π. Wir fassen bei der Summation in Gleichung (6.127) jeweils zwei Terme zusammen: M

      2  X M M ! gn sin 2πf tA n − + gM −n sin 2πf tA −n = 0. 2 2 n=0 Hierbei ist das doppelte Auftreten des Summanden mit Index M 2 nicht von Belang, da dieser jeweils mit dem Faktor null gewichtet wird. Durch Zusammenfassen der Sinusterme erhält man M 2 X

n=0

   M (gn − gM −n ) sin 2πf tA n − = 0, | {z } 2

f ∈ R.

=0

Die Bedingung in Gleichung (6.127) ist also für den gewählten Ansatz erfüllt. Zur Berechnung des Frequenzganges wird ein Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten: G∗ (f ) =

M X n=0

gn e−j2πf tA n = e−j2πf tA

M 2

M X n=0

M

gn e−j2πf tA (n− 2 ) .

330

6 Zeitdiskrete Systeme

Bei der Summation werden wiederum zwei Terme zusammengefasst: G∗ (f ) = e−j2πf tA

M  2 −1 h i X M M  gn e−j2πf tA (n− 2 ) + gM −n e−j2πf tA ( 2 −n) + g M 

M 2

2

n=0

 = e



 M2 −1 h  i X  M −j2πf tA (n− M   2 ) + ej2πf tA (n− 2 ) g e + g M . n  2   n=0 | {z } 2 cos(2πf tA (n − M 2 )) | {z } Rg (f )

−j2πf tA M 2

Somit besitzen Systeme mit symmetrischen Impulsantworten nach Gleichung (6.129) stets eine lineare Phase. Die Amplitudenfunktion M 2

Rg (f ) =

−1 X

n=0

  M  2 gn cos 2πf tA n − + gM 2 2

(6.130)

ist eine gerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit symmetrischer Impulsantwort lautet damit G∗ (f ) = Rg (f ) e−j2πf tA

M 2

(6.131)

.

Aus Gleichung (6.130) ist ersichtlich, dass Rg (f ) auch ein negatives Vorzeichen annehmen kann. Man erhält aus Rg (f ) den Amplitudengang Ag (f ), indem man das negative Vorzeichen von Rg (f ) in eine Phasenverschiebung von ψ0 = ±π umwandelt. An den Nulldurchgängen von Rg (f ) treten dann Phasensprünge auf. Ag (f ) ist eine gerade Funktion in f . 6.5.2.2

Schiefsymmetrische Impulsantwort um

M 2

In diesem Fall ergibt sich die Schiefsymmetrie gn = −gM −n ,

n = 0, . . . ,

M , 2

(6.132)

und die Phasenverschiebung beträgt ψ0 = ± π2 . Aus der Bedingung für die Schiefsymmetrie der Impulsantwort folgt unmittelbar, dass die Impulsantwort die Eigenschaft g M = 0 erfüllen muss. Die Summation in Gleichung (6.127) lautet: 2

M X

   M π gn sin 2πf tA n − ± = 0. 2 2 n=0 Wieder werden bei der Summation jeweils zwei Terme zusammengefasst: M     2  X M M gn cos 2πf tA (n − ) + gM −n cos 2πf tA ( − n) = 0. 2 2 n=0

331

6.5 Linearphasige Systeme Daraus ergibt sich M 2 X

n=0



 M (gn + gM −n ) cos 2πf tA (n − ) = 0, {z } | 2

f ∈ R.

=0

Aufgrund des Ansatzes ist also die Bedingung in Gleichung (6.127) erfüllt. Bei der Bestimmung des Frequenzganges wird ein mit −j multipliziertes Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten:

G∗ (f ) =

M X

gn e−j2πf tA n = −j e−j2πf tA

n=0

M 2

M X

  M 1 gn − e−j2πf tA (n− 2 ) j n=0

M

= −j e

−j2πf tA M 2

= −j e

−j2πf tA M 2

2  X M M 1 −gn e−j2πf tA (n− 2 ) − gM −n e−j2πf tA ( 2 −n) j n=0 M 2 X

gn

n=0

|

 M 1  j2πf tA (n− M ) 2 e − e−j2πf tA (n− 2 ) . j | {z } M 2 sin(2πf tA (n − 2 )) {z } Ru (f )

Ein System mit einer schiefsymmetrischen Impulsantwort nach Gleichung (6.132) besitzt eine verallgemeinert lineare Phase. Die Amplitudenfunktion M

Ru (f ) =

2 X

  M  2 gn sin 2πf tA n − 2 n=0

(6.133)

ist eine ungerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit schiefsymmetrischer Impulsantwort lautet damit   M G∗ (f ) = Ru (f ) −j e−j2πf tA 2 = Ru (f ) e−j2πf tA

M 2

−j π 2

.

Der Verzögerung um die halbe Beobachtungszeit tA M 2 ist eine Phasenverschiebung von π überlagert. 2 Den Amplitudengang Au (f ) erhält man, indem man das negative Vorzeichen von Ru (f ) bei negativen Frequenzen über einen Phasensprung von ψ0 = ±π umwandelt. Der Amplitudengang Au (f ) ist eine gerade Funktion in f .

332

6 Zeitdiskrete Systeme

6.5.2.3

Beispiele

Anhand zweier Beispiele werden die in den letzten Abschnitten berechneten Amplitudenfunktionen dargestellt. Hierzu wird eine zu M 2 symmetrische bzw. schiefsymmetrische Impulsantwort vorgegeben, aus welcher nach Gleichungen (6.130) bzw. (6.133) die Amplitudenfunktionen berechnet werden. Die Amplitudenfunktion ergibt sich als eine gerade Funktion Rg (f ) im Fall einer symmetrischen Impulsantwort und als eine ungerade Funktion Ru (f ) im Fall einer schiefsymmetrischen Impulsantwort. Beispiel 6.134 (FIR-Filter linearer Phase mit symmetrischer Impulsantwort) Angesetzt wird für den symmetrischen Fall ein Filter mit der Impulsantwort: ( 4 für 0 ≤ n ≤ M 2n 2 gn = M4 . M (M − n) für < n ≤ M 2 M 2 Diese Impulsantwort gn und die zugehörige gerade Amplitudenfunktion Rg (f ) sind in Abbildung 6.21 dargestellt. • Beispiel 6.135 (FIR-Filter linearer Phase mit schiefsymmetrischer Impulsantwort) Als Beispiel für eine schiefsymmetrische Impulsantwort wird  4  − n für 0 ≤ n ≤ M  2 −1  M (M −2) M für n = 2 gn = 0   4  (M − n) für M + 1 ≤ n ≤ M M (M −2)

2

betrachtet. Diese ist zusammen mit der aus Gleichung (6.133) resultierenden Amplitudenfunktion Ru (f ) in Abbildung 6.22 dargestellt. • 2/M

0,8 0,6 0,4 0,2 0

0 0

M/2

M

−0,2 −5

0

5

Abbildung 6.21: Beispiel eines FIR-Filters mit linearer Phase und symmetrischer Impulsantwort für tA = 0,1 s.

333

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme 2/M

0,6 0,4 0,2

0

0 −0,2 −0,4

−2/M

−0,6 0

M/2

M

−0,8 −5

0

5

Abbildung 6.22: Beispiel eines FIR-Filters mit linearer Phase und schiefsymmetrischer Impulsantwort für tA = 0,1 s.

6.6

Zeitdiskrete Darstellung kontinuierlicher Systeme

Zeitdiskrete Systeme dienen dazu, zeitdiskrete Signale zu verarbeiten. Da zeitdiskrete Signale von sich aus nicht in der Natur vorkommen, können nur zeitkontinuierliche Signale nach der Abtastung zeitdiskret verarbeitet und anschließend rekonstruiert werden.

6.6.1

Aufbau

Mit der Kenntnis des Aliasing und den Möglichkeiten der Rekonstruktion kann man ein zeitdiskretes System S zur Verarbeitung zeitkontinuierlicher Signale aufbauen, wie es in Abbildung 6.23 dargestellt ist. Es besteht aus einem Tiefpass mit der Grenzfrequenz fg zur Bandbegrenzung des zeitkontinuierlichen Signals y(t), sofern das Signal nicht von vornherein bandbegrenzt ist. Es folgt ein Abtaster zur Abtastung des Signals, der mit einer Abtastfrequenz fA entsprechend dem Abtasttheorem mit fA > 2 · fg betrieben wird. Damit der bandbegrenzende Tiefpass keine zu steile Flanke zwischen Durchlass- und Sperrbereich aufweisen muss, wählt man in der Praxis für fA einen Wert, der ein Vielfaches der 3 dB-Grenzfrequenz des Tiefpasses betragen kann.

Abbildung 6.23: Aufbau eines zeitdiskreten Systems zur Verarbeitung zeitkontinuierlicher Signale.

Nach der Abtastung steht das zeitdiskrete Signal yn zur Verfügung, das anschließend in einem zeitdiskreten System (z. B. einem Computer) zum Signal zn verarbeitet und dem

334

6 Zeitdiskrete Systeme

Digital-Analog-Umsetzer zugeführt wird. Das Rekonstruktionsfilter erzeugt hieraus das zeitkontinuierliche Ausgangssignal z(t).

6.6.2

Umsetzung der Übertragungsfunktion

Die Aufgabe eines solchen zeitdiskreten Systems besteht darin, zeitkontinuierliche Systeme nachzubilden. Das zeitdiskrete System besitzt dabei eine Übertragungsfunktion G(z), die in ihrem Verhalten der zeitkontinuierlichen Übertragungsfunktion G(s) sehr nahe kommt. Eine Anwendung ist z. B. der Entwurf zeitdiskreter Filter in Abschnitt 6.8. Die Aufgabe der zeitdiskreten Darstellung einer zeitkontinuierlichen Übertragungsfunktion wird im Folgenden durch drei Ansätze behandelt. 1. Die Impulsantwort eines Systems charakterisiert das System. Tastet man nun die Impulsantwort ab, so ist das Verhalten in den Abtastpunkten identisch. 2. Die Pole und die Nullstellen der Übertragungsfunktion charakterisieren das System. Diese kann man mittels der nichtlinearen Abbildung z = estA in den z-Bereich übertragen. 3. Das Problem der fehlenden Integration im zeitdiskreten Bereich kann durch das Verfahren der numerischen Integration beseitigt werden.

6.6.3

Impulsinvarianz

Die Impulsantwort g(t) eines zeitkontinuierlichen Systems S charakterisiert das System. Durch Abtastung der Impulsantwort mit der Abtastzeit tA erhält man eine zeitdiskrete Impulsantwort gn , deren z-Transformierte G(z) die Übertragungsfunktion des zeitdiskreten Systems ist, welches das zeitkontinuierliche System darstellen soll. Satz 6.136 (Impulsinvarianz) Tastet man die Impulsantwort g(t) eines zeitkontinuierlichen Systems S mit der Abtastzeit tA ab, gn = g(ntA ) ,

n ∈ Z,

und transformiert die zeitdiskrete Impulsantwort in den z-Bereich, so spricht man von Impulsinvarianz. Der Übergang von der zeitkontinuierlichen zur zeitdiskreten Übertragungsfunktion wird wie folgt beschrieben: G(s)

=⇒ |{z} L−1

g(t)

=⇒ |{z} Abtastung

gn

=⇒ |{z} Z

G(z) . •

Bemerkung 6.137 Der Proportionalitätsfaktor ändert sich bei dieser Methode mit der Wahl der Abtastzeit tA . Damit das zeitdiskrete System bei einer bestimmten Frequenz f0 das gleiche

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

335

Übertragungsverhalten wie das kontinuierliche besitzt, kann eine zusätzliche Konstante eingeführt werden. Dies wird in Abschnitt 6.6.4 illustriert. • Beispiel 6.138 (Impulsinvarianz) Ein zeitkontinuierliches System mit der Übertragungsfunktion 1 T

G(s) =

s+

1 T

soll durch das Verfahren der Impulsinvarianz mit Hilfe eines zeitdiskreten Systems dargestellt werden. Aus der zugehörigen Impulsantwort 1 −t/T e · σ(t) T folgt durch Abtasten g(t) =

gn =

1 −ntA /T e · σn . T

Durch z-Transformation erhält man die Übertragungsfunktion 1 z T z − e−tA /T des zeitdiskreten Systems. In Abbildung 6.24 werden alle hier behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme verglichen. • G(z) =

6.6.4

Pol-/Nullstellenübertragung

Die Pole und die Nullstellen einer Übertragungsfunktion charakterisieren das System. Überträgt man diese mit der nichtlinearen Abbildung z = estA , so erhält man ein System mit gleichem Übertragungsverhalten. Dabei muss beachtet werden, dass Nullstellen im Unendlichen s0 → ∞ auf z0 = −1 (= ˆ halbe Abtastfrequenz) übertragen werden. In solchen Fällen besitzt das Zählerpolynom der zeitkontinuierlichen Übertragungsfunktion G(s) einen kleineren Grad als das Nennerpolynom. Bei der Pol-/Nullstellenübertragung bleibt der Proportionalitätsfaktor unberücksichtigt. Dieser wird daher so gewählt, dass die beiden Systeme bei einer bestimmten Frequenz f0 gleiches Übertragungsverhalten  ! G(s = j2πf0 ) = G z = ej2πf0 tA besitzen. In der Regelungstechnik wird meistens statische Genauigkeit verlangt, weshalb hier die Frequenz f0 = 0 Hz gewählt wird: !

G(s = 0) = G(z = 1) . Zusammenfassend ergibt sich folgender Satz zur Anwendung der Pol-/Nullstellenübertragung.

336

6 Zeitdiskrete Systeme Zeitkontinuierliches System

1 0,5 0

0,5

0

1

2

3

4

Rechteckregel vorwärts

1

0

1

2

3

4

Rechteckregel rückwärts

0,5

0

1

2

3

4

Trapezregel

1

0

1

0

2

3

4

Pol−/Nullstellenübertragung

1

0,5 0

0

1

0,5 0

Impulsinvariantes System

1

0,5

0

1

2

3

4

0

0

1

2

3

4

Abbildung 6.24: Vergleich der behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme.

Satz 6.139 (Pol-/Nullstellenübertragung) Bei der Pol-/Nullstellenübertragung zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme geht man nach folgenden Schritten vor: 1. Alle Pole und Nullstellen von G(s) werden mit der Abbildung z = estA in den z-Bereich übertragen. 2. Alle Nullstellen im Unendlichen, s0 → ∞, werden auf den Punkt z0 = −1 übertragen. 3. Der fehlende Proportionalitätsfaktor wird durch gleiches Übertragungsverhalten  ! G(s = j2πf0 ) = G z = ej2πf0 tA bei einer bestimmten Frequenz f0 berechnet.



337

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme Beispiel 6.140 (Pol-/Nullstellenübertragung) Das zeitkontinuierliche System mit der Übertragungsfunktion 1 T

G(s) =

s+

1 T

soll durch das Verfahren der Pol-/Nullstellenübertragung bei statischer Genauigkeit mit Hilfe eines zeitdiskreten Systems dargestellt werden. Die Polstelle und die Nullstelle werden entsprechend übertragen: s∞ = −

1 T

s0 = ∞

=⇒

z∞ = e−tA /T ,

=⇒

z0 = −1 .

Hieraus ergibt sich der folgende Ansatz für die zeitdiskrete Übertragungsfunktion: z+1 . z − e−tA /T Bei statischer Genauigkeit muss die Bedingung G(z) = k ·

G(s = 0) = 1 = G(z = 1) = k ·

2 1 − e−tA /T

=⇒

k=

1 − e−tA /T 2

eingehalten werden. Zusammenfassend lässt sich die zeitdiskrete Übertragungsfunktion wie folgt angeben: 1 − e−tA /T z+1 · . 2 z − e−tA /T Das Resultat dieser Vorgehensweise ist ebenfalls in Abbildung 6.24 zu sehen. G(z) =

6.6.5



Numerische Integration

Die numerische Integration von Differentialgleichungen, wie sie LTI-Systemen zugrunde liegen, führt immer zu Lösungen. Das numerische Integrationsverfahren soll am Beispiel der einfachen Differentialgleichung 1 s eingeführt werden. Die Integration der Differentialgleichung mit dem Anfangswert ya (−∞) = 0 zum Abtastzeitpunkt n tA lässt sich auf den alten Ausgangswert zum Zeitpunkt (n − 1) tA zurückführen: y˙ a (t) = ye (t)

◦−•

G(s) =

(n−1) Z tA

ntA Z

ya (ntA ) =

ye (t) dt = −∞

ntA Z

ye (t) dt + −∞

 = ya (n − 1) tA +

(n−1) tA ntA Z

(n−1) tA

ye (t) dt .

ye (t) dt

338

6 Zeitdiskrete Systeme

Abbildung 6.25: Verfahren zur numerischen Integration.

Der zweite Term auf der rechten Seite lässt sich nun durch unterschiedliche Verfahren annähern; die drei einfachsten werden in Abbildung 6.25 veranschaulicht. Bei der Rechteckregel vorwärts wird das Integral durch ye,n−1 tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n−1 angenähert. Dessen Übertragungsfunktion GI (z) =

tA z −1 tA = 1 − z −1 z−1

lässt sich mit s=

z−1 tA

auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen. Bei der Rechteckregel rückwärts wird das Integral durch ye,n tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n angenähert. Dessen Übertragungsfunktion GI (z) =

tA z tA = −1 1−z z−1

lässt sich mit s=

z−1 tA z

auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen.

6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme

339

Bei der Trapezregel wird das Integral durch den Wert tA (ye,n−1 + ye,n )/2 und somit das Ausgangssignal durch ya,n ≈ ya,n−1 +

 tA · ye,n + ye,n−1 2

angenähert. Dessen Übertragungsfunktion  tA −1 tA z + 1 2 1+z GI (z) = = · 1 − z −1 2 z−1 lässt sich mit s=

2 z−1 · tA z + 1

auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen. Die Trapezregel wird auch als bilineare Transformation bezeichnet. Satz 6.141 (Numerische Integration) Bei der numerischen Integration entsteht die zeitdiskrete Übertragungsfunktion G(z) durch Ersetzen der Variablen s der zeitkontinuierlichen Übertragungsfunktion durch: s=

z−1 tA

(Rechteckregel vorwärts),

s=

z−1 tA z

(Rechteckregel rückwärts) oder

s=

2 z−1 · tA z + 1

(Trapezregel / bilineare Transformation).



Abbildung 6.26 zeigt die Abbildung der s-Ebene in die z-Ebene bei den drei verschiedenen Verfahren zur numerischen Integration. Liegen alle Pole des zeitkontinuierlichen Systems G(s) in der linken s-Halbebene, so ist das System stabil. Wird die linke s-Halbebene auf das Innere des Einheitskreises der z-Ebene abgebildet, so bleibt das System auch bei der numerischen Integration stabil. Dies ist ein Vorteil, den man nicht missen möchte. Bei der Rechteckregel vorwärts kann ein im s-Bereich stabiles System im z-Bereich instabil werden. Beispiel 6.142 (Numerische Integration) Das zeitkontinuierliche System mit der Übertragungsfunktion G(s) =

1 T

s+

1 T

340

6 Zeitdiskrete Systeme

1

1

1

Abbildung 6.26: Abbildung der s-Ebene in die z-Ebene bei den verschiedenen Verfahren zur numerischen Integration.

soll durch Anwendung der numerischen Integration mit allen drei Methoden zeitdiskret dargestellt werden. Dabei erhält man mit Hilfe der Rechteckregel vorwärts tA 1 T G(z) = G(s) = z−1T 1 = , z−1 z − (1 − tTA ) + tA T s=

tA

mit der Rechteckregel rückwärts G(z) = G(s) = z−1 s= zt

1 T z−1 tA z

+

1 T

=

(1 +

tA T z tA T )z

−1

A

und mit der Trapezregel G(z) = G(s)

= s= t2

A

· z−1 z+1

2 tA

·

1 T z−1 z+1

+

1 T

=

(2 +

tA T z tA T )z

+ tTA − (2 −

tA T )

die einzelnen Übertragungsfunktionen G(z) des zeitdiskreten Systems. In Abbildung 6.24 werden auch diese Verfahren aufgezeichnet und können daher mit den anderen vorgestellten Verfahren verglichen werden. •

341

6.7 Filterung mit Fensterfunktionen

6.7

Filterung mit Fensterfunktionen

In Abschnitt 5.5.6 wurde die diskrete Fourier-Transformation einer komplexen, harmonischen Schwingung mit Leckeffekt behandelt. Betrachtet man die DFT Yk einer Signalfolge yn als Abtastung der Fourier-Transformierten Y∗R (f ) einer zeitbegrenzten Signalfolge ynR , so erhält man eine etwas allgemeinere Interpretation. Hierzu wird das zeitdiskrete Signal yn mit Hilfe der Rechteckfolge  1 für 0 ≤ n ≤ N − 1 rn = (6.143) 0 sonst durch Multiplikation auf das der DFT zugrunde liegende Zeitintervall begrenzt:  yn für 0 ≤ n ≤ N − 1 R yn = yn · rn = . (6.144) 0 sonst Die Fourier-Transformierte dieser zeitbegrenzten Folge ynR erhält man aus der Faltung der beiden Fourier-Transformierten der Folge yn und der Rechteckfolge rn : Y∗R (f )

Z∞ = Y∗ (f ) ∗ R∗ (f ) =

Y∗ (ν) · R∗ (f − ν) dν .

(6.145)

−∞

Mit der Fourier-Transformierten der Rechteckfolge, die sich zu R∗ (f ) = =

∞ X

rn · e−j2πf ntA

(6.146)

n=−∞ N −1 X

1 − e−j2πf N tA e−j2πf ntA = 1 − e−j2πf tA n=0

N N N e−j2πf tA 2 ej2πf tA 2 − e−j2πf tA 2 = 1 · 1 1 e−j2πf tA 2 ej2πf tA 2 − e−j2πf tA 2 N −1 sin(2πf tA N ) 2 = e−j2πf tA 2 · sin(2πf tA 12 )

(6.147)

berechnet, und bei Vorliegen einer komplexen Schwingung yn = ej2πf0 ntA mit der Fourier-Transformierten ∞ 1 X  m Y∗ (f ) = δ f − f0 + tA m=−∞ tA

(6.148)

ergibt sich die Faltungssumme Y∗R (f ) =

1 tA

∞ X

 m R∗ f − f0 + . tA m=−∞

(6.149)

342

6 Zeitdiskrete Systeme

Die Fourier-Transformierte der zeitbegrenzten komplexen Schwingung wird damit:   m N ∞ sin 2π(f −f + ) t X m N −1 0 A tA 2 1 −j2π(f −f0 + tA ) tA 2   . Y∗R (f ) = e · m tA m=−∞ sin 2π(f −f + ) t 1 0

tA

A2

Durch Beschränkung auf das Nyquistband [0, t1A ) und Abtastung des Frequenzbereiches, f 7→ fk =

k , tA N

0 ≤ k ≤ N − 1,

(6.150)

erhält man die diskreten Spektralanteile:

Yk =

=

1 tA

∞ X

−j2π( NktA e

− f0 +

m N −1 tA ) tA 2

m=−∞

  sin 2π( NktA − f0 + tmA ) tA N2   · sin 2π( NktA − f0 + tmA ) tA 12

∞ 1 X −jπ(k − f0 N tA + mN ) N −1 sin (π(k − f0 N tA + mN )) N · . e π tA m=−∞ sin N (k − f0 N tA + mN )

Hierbei erkennt man, dass die bei der DFT entstehenden Leckeffekte als Folge der Zeitbegrenzung durch ein Rechteckfenster zu interpretieren sind. Es liegt nun nahe, das Rechteckfenster durch eine andere, ebenfalls zeitbegrenzte Fensterfunktion zu ersetzen, die aber nun so optimiert wird, dass sich günstigere Spektraleigenschaften ergeben. Gehen die Werte der Fensterfunktion und möglichst viele ihrer Ableitungen am Fensterrand stark gegen null, so werden dort die Funktionssprünge, wie sie in Abbildung 5.36 (Seite 265) dargestellt worden sind, gedämpft. Dies lässt sich anschaulich durch das Riemann-Lebesgue’sche Lemma (Satz 3.211) erklären.

6.7.1

Definition

Die folgende Definition des Begriffes „Fenster“ dient als Grundlage für weitere Betrachtungen. Definition 6.151 (Zeitdiskretes Fenster) Ein zeitdiskretes Fenster ist eine Folge wN,n , deren wesentliche Signalenergie in einem endlichen Zeitraum konzentriert ist, welcher ein Vielfaches der Zeitdauer ∆t beträgt. Die DFT einer mit einer Fensterfolge wN,n gefensterten Signalfolge yn entspricht dabei der Faltung der Fourier-Transformierten des zeitdiskreten Signals und des Fensters: Yk = Y∗ (f ) ∗ W∗ (f ) , k = 0, . . . , N − 1 . (6.152) f = NktA

343

6.7 Filterung mit Fensterfunktionen

Das Ausmaß des Fehlers durch Auftreten des Leckeffekts hängt sehr stark von der Form der Fensterfunktion ab. Betrachtet man als Signalfolge die komplexe Schwingung yn = ej2πf0 ntA ,

n ∈ Z,

so entspricht die DFT direkt der Abtastung der um f0 verschobenen zeitdiskreten Fourier-Transformierten der Fensterfunktion. Zur Anwendung der Fensterfunktionen multipliziert man die N abgetasteten Folgenwerte yn mit den Werten der Fensterfolge: ynw = yn · wN,n ,

(6.153)

0 ≤ n ≤ N − 1.

Für die folgenden Betrachtungen wird der Einfachheit halber ein gerades N verwendet. Des Weiteren sind die Amplitudengänge auf den Wert |W∗ (0)| normiert.

6.7.2

Rechteckfenster

Abbildung 6.27 zeigt das zeitdiskrete Rechteckfenster  1 für n = 0, . . . , N − 1 wN,n = 0 sonst

(6.154)

und seine Fourier-Transformierte  N −1 sin 2πf tA N 2 W∗ (f ) = e−j2πf tA 2 · , sin 2πf tA 12

(6.155)

wobei W∗ (f ) betragsmäßig als Amplitudengang einmal linear (Mitte) und einmal logarithmisch in Dezibel (unten) aufgetragen wurde. 1 0,5 0

0

N

1 0,5 0 0 −20 −40 −60 −80 −100

Abbildung 6.27: Zeitdiskretes Rechteckfenster.

2N

344

6 Zeitdiskrete Systeme

Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Rechteckfensters liegt bei 1 2π f= bzw. Ω= . (6.156) N tA N Dies ist ein Maß für die Breite des Hauptmaximums, die sich dann zu 2/(N tA ) ergibt. Die relative Höhe des ersten Nebenmaximums 3π sin( 2 ) W∗ (f = 3 ) sin( 3π ) 2N tA 2N N 1 2 (6.157) = = 3π ≈ 0,212 N W∗ (0) ist ein Maß für den Einfluss des Leckeffekts.

6.7.3

Dreieckfenster

Abbildung 6.28 zeigt das zeitdiskrete Dreieck- oder auch Bartlett-Fenster  2n für 0 ≤ n ≤ N2 − 1   N wN,n = 2(NN−n) für N2 ≤ n ≤ N − 1   0 sonst

(6.158)

und seine Fourier-Transformierte W∗ (f ) = e−jπf tA (N − 1)

 !2 sin 2πf tA N4  . sin 2πf tA 12

(6.159)

1 0,5 0

0

N

1 0,5 0 0 20 40 60 80

Abbildung 6.28: Zeitdiskretes Dreieckfenster.

2N

345

6.7 Filterung mit Fensterfunktionen Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Dreieckfensters

f=

2 N tA

bzw.

Ω=

4π N

liegt um den Faktor 2 weiter von null entfernt als die erste Nullstelle bei Verwendung des zeitdiskreten Rechteckfensters, d. h. das Hauptmaximum wird breiter. Wie sich zeigen wird, ist dies bei allen im Folgenden betrachteten Fensterfunktionen der Fall. Die relative Höhe des ersten Nebenmaximums ist jedoch verglichen mit dem Rechteckfenster beim Dreieckfenster kleiner. Man kann damit bereits erahnen, dass die Auswahl einer Fensterfunktion immer einen Kompromiss zwischen der Unterdrückung der Nebenmaxima und der Verbreiterung des Hauptmaximums darstellt.

6.7.4

Hann-Fenster

Abbildung 6.29 zeigt das zeitdiskrete Hann-Fenster ( wN,n =

1 2

1 − cos

2πn N



für 0 ≤ n ≤ N − 1

(6.160)

sonst

0

1 0,5 0

0

N

1 0,5 0 0 −20 −40 −60 −80 −100

Abbildung 6.29: Zeitdiskretes Hann-Fenster.

2N

346

6 Zeitdiskrete Systeme

und seine Fourier-Transformierte  1 sin 2πf tA N2  + (6.161) 2 sin 2πf tA 12     N πN N πN 1 sin 2πf tA 2 − N −1 1 sin 2πf tA 2 + N −1    +   . + 4 sin 2πf t 1 − π 4 sin 2πf t 1 + π A2 A2 N −1 N −1

N −1 W∗ (f ) = e−j2πf tA 2

Die erste Nullstelle im Spektrum des zeitdiskreten Hann-Fensters liegt wieder bei f=

6.7.5

2 N tA

bzw.

Ω=

4π . N

Blackman-Fenster

Das zeitdiskrete Blackman-Fenster  0,42 − 0,5 · cos wN,n = 0

2πn N



+ 0,08 · cos

4πn N



für 0 ≤ n ≤ N − 1 sonst

ist in Abbildung 6.30 gezeigt. Die erste Nullstelle der Fourier-Transformierten liegt bei f=

3 N tA

bzw.

Ω=

6π . N

1 0,5 0

0

N

1

0,5

0 0 −20 −40 −60 −80 −100

Abbildung 6.30: Zeitdiskretes Blackman-Fenster.

2N

347

6.7 Filterung mit Fensterfunktionen

Damit ist das Hauptmaximum beim zeitdiskreten Blackman-Fenster dreimal so breit wie beim Rechteckfenster. Dafür sind die Nebenmaxima stärker gedämpft.

6.7.6

Dolph-Tschebyscheff-Fenster

Im Gegensatz zu den bisher behandelten Fenstern kann das Dolph-Tschebyscheff-Fenster nicht in einer geschlossenen Darstellung angegeben werden, sondern wird als zeitdiskrete, inverse Fourier-Transformierte eines idealen Frequenzgangs definiert. Dabei wird auf eine hohe Sperrdämpfung und ein schmales Hauptmaximum geachtet. Natürlich ist beim Entwurf darauf zu achten, dass das Fenster im Zeitbereich eine begrenzte Länge hat. Es gilt  wN,n =

F−1 {W∗ (f )} 0

für n = 0, . . . , N − 1 , sonst

(6.162)

wobei W∗ (f ) den gewünschten Frequenzgang beschreibt, den man wie folgt wählt:  h  i  e−jπf tA (N −1) · cosh (N − 1) arcosh cos(πf tA ) ) h  cos(πfg tAi W∗ (f ) =  e−jπf tA (N −1) · cos (N − 1) arccos cos(πf tA ) cos(πfg tA )

für 0 ≤ f < fg für fg ≤ f
−20 lg(0,001) = 60 dB . |G(0)| Die Funktion g(t) wird abgetastet, um die zeitdiskrete Impulsantwort gn = g(ntA ) zu erhalten (Methode der Impulsinvarianz ). Aufgrund obiger Bemerkung über fg ist eine Abtastfrequenz von fA = 10 Hz ausreichend, was einer Abtastzeit von tA = 0,1 s entspricht. Hierdurch entsteht die in Abbildung 6.36 dargestellte Impulsantwort. Butterworth-Filter der Ordnung K=8

Impulsantwort bei Ordnung K=8

3

1

2

0,8 0,6

1

0,4

0

0,2

−1

0 0

1

2

3

−2

0

1

2

3

4

5

Abbildung 6.35: Amplitudengang und kausale Impulsantwort des zeitkontinuierlichen Systems für K = 8.

354

6 Zeitdiskrete Systeme Abgetastete Impulsantwort

3 2 1 0 −1 −2

0

1

2

3

4

5

Abbildung 6.36: Abgetastete Impulsantwort des zeitkontinuierlichen Systems für K = 8.

Um ein FIR-Filter zu erhalten, muss die Impulsantwort zeitlich gefenstert werden. Es sollen zwei verschiedene Fensterfunktionen untersucht werden – ein kausales Rechteckfenster der Form  1 für 0 ≤ n ≤ N − 1 rn = 0 sonst und ein rechteckgefenstertes, kausales Gauß-Fenster der Form  2 2 e−(ntA ) /(2a ) für 0 ≤ n ≤ N − 1 rG,n = . 0 sonst Beide Fenster sind in der Abbildung 6.37 dargestellt. Begrenzt man mittels dieser Fenster die (bereits abgetastete) Impulsantwort auf N = 30 Werte, so erhält man die FIR-Impulsantworten gnR , n = 0, . . . , 29, für das Rechteckfenster und gnRG , n = 0, . . . , 29, für das rechteckgefensterte Gauß-Fenster, welche in Abbildung 6.38 in den beiden oberen Grafiken dargestellt sind. In den weiRechteckfenster für N=30

Gauß−Fenster für a=2,5 und N=30

1

1

0,8

0,8

0,6

0,6

0,4

0,4

0,2

0,2

0

0 0

10

20

30

40

0

10

20

30

40

Abbildung 6.37: Zeitdiskretes Rechteck- und Gauß-Fenster (a = 2,5) für N = 30.

355

6.8 Frequenzselektive Filter

teren Betrachtungen werden der Einfachheit halber die hochgestellten Kennzeichnungen unterdrückt und die Impulsantworten stets mit gn bezeichnet. Diese zeitdiskreten Impulsantworten sollen nun darauf untersucht werden, inwiefern der dazugehörige Amplitudengang das geforderte Toleranzschema erfüllt. Zu diesem Zweck unterziehen wir die Impulsantworten (durch Nullen fortgesetzt) der z-Transformation und bestimmen daraus den Amplitudengang aus A(f ) = |G(f )|:  G(f ) = G z = ej2πf tA =

N −1 X

gn e−j2πf ntA .

(6.167)

n=0

Das Resultat ist ebenfalls in Abbildung 6.38 dargestellt. Der resultierende Amplitudengang verletzt das Toleranzschema im Durchlassbereich, bietet aber gleichzeitig Reserve im Sperrbereich und im Übergangsbereich. Diese Tatsache wird für einen neuerlichen Entwurf verwendet. Hierzu geht man folgendermaßen vor: Der Amplitudengang A(f ) wird mittels Skalierung nach rechts verschoben. Dies geschieht über die Abbildung f 7→

3

f , α

α ∈ (1, fS0 ) .

Rechteckgefensterte Impulsantwort für N=30

(6.168) Gauß−gefensterte Impulsantwort für a=2,5 und N=30 3

2

2

1

1

0

0

−1

−1

−2

0

10

20

30

40

50

Rechteckfenster (N=30)

1,5

−2

0

10

20

30

40

50

Rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1,5

1

1

0,5

0,5

0

0 0

1

2

3

0

1

2

3

Abbildung 6.38: Gefensterte Impulsantworten des FIR-Filters und die rekonstruierten Amplitudengänge.

356

6 Zeitdiskrete Systeme

Hierzu ist eine Skalierung der Übertragungsfunktion G(s) mit dem Parameter α erforderlich: s G(s) 7→ G . (6.169) α Die Übertragungsfunktion G(s) geht in die folgende skalierte Übertragungsfunktion über: s G0 G0 αK Gα (s) = G = K = K .  Q s Q α (s − α s∞ν ) α − s∞ν ν=1

ν=1

Da G (s) durch Skalierung aus G(s) entstanden ist, ergibt sich für die Impulsantwort nach dem Ähnlichkeitssatz der Laplace-Transformation (Gleichung (4.75)) n  s o g α (t) = L−1 {Gα (s)} = L−1 G = α g(α t) . (6.170) α α

Mit dem Faktor α = 1,3 resultiert für den skalierten Amplitudengang und die skalierte Impulsantwort der Verlauf in Abbildung 6.39, welche sich die Reserve im Übergangsbereich zu Nutze macht. Nach dem Abtasten ergibt sich die Impulsantwort: gα,n = g α (n tA ) = α g(α n tA ) .

(6.171)

Bei Anwendung eines Rechteck- und eines Gauß-Fensters erhält man die in Abbildung 6.40 dargestellten Impulsantworten und die jeweiligen Amplitudengänge. Diese halten jetzt das geforderte Toleranzschema ein. Aufgrund der Diskretisierung entsteht lediglich bei Verwendung des Rechteckfensters eine Überschreitung im Durchlassbereich, die aber vernachlässigbar ist. Die Phase dieser beiden Filter ist in Abbildung 6.41 zu sehen. Man erkennt, dass die Phasenverzerrungen bei Verwendung • des Gauß-Fensters deutlich geringer ausfallen. Mit α=1,3 skaliertes BW−Filter der Ordnung K=8 1

Skalierte Impulsantwort

3 2

0,8 0,6

1

0,4

0

0,2

−1

0 0

1

2

3

−2

0

1

2

3

4

5

Abbildung 6.39: Amplitudengang und Impulsantwort des skalierten, kausalen zeitkontinuierlichen Filters der Ordnung K = 8.

357

6.8 Frequenzselektive Filter Skalierte rechteckgefensterte Impulsantwort für N=30 3

Skalierte Gauß−gefensterte Impulsantwort für N=30 3

2

2

1

1

0

0

−1

−1

−2

0

10

20

30

40

50

Skaliertes Rechteckfenster (N=30)

1,5

−2

0

40

30

20

10

50

Skaliertes rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1,5

1

1

0,5

0,5

0

0 0

1

2

3

0

1

2

3

Abbildung 6.40: Abgetastete und gefensterte Impulsantworten der skalierten FIR-Filter sowie deren rekonstruierte Amplitudengänge.

6.8.2

Akausales FIR-Filter über die DFT

Für die zweite Entwurfsmethode eines akausalen FIR-Filters wählt man als Ausgangspunkt die Fourier-Transformation zeitdiskreter Signale (vgl. Abschnitt 5.3.1), die durch 1

Y∗ (f ) =

∞ X

yn e−j2πf ntA ,

n=−∞

Z2tA y n = tA

Y∗ (f ) ej2πf ntA df

− 2t1

A

dargestellt wird. Wählt man einen bestimmten Amplitudengang A(f ) im Nyquistband, A(f ) = |G∗ (f )| , so wird mit den bekannten Methoden aus Abschnitt 4.6 das zeitkontinuierliche Filter G(s) entworfen. Aus diesem könnte man mit der Rücktransformation, d. h. durch Integration über das Nyquistband, unmittelbar die komplexen Koeffizienten 1

Z2tA gn = tA − 2t1 A

G(f ) ej2πf ntA df ,

n ∈ Z,

(6.172)

358

6 Zeitdiskrete Systeme

Phasengang des rechteckgefensteren FIR−Filters 4

Gruppenlaufzeit des rechteckgefensteren FIR−Filters 0,1

2

0,05

0

0

−2

−0,05

−4 −5

0

−0,1 −5

5

0

5

Gruppenlaufzeit des Gauß−gefensteren FIR−Filters 0,05

Phasengang des Gauß−gefensteren FIR−Filters 4 2 0

0

−2 −4 −5

0

−0,05 −5

5

0

5

Abbildung 6.41: Phasengang und Gruppenlaufzeit der skalierten FIR-Filter.

eines unendlich langen akausalen Filters bestimmen. Zur numerischen Berechnung wird der Frequenzgang im Nyquistband diskretisiert, Gk = G(f = k∆f ) ,

k = −N, . . . , N − 1 ,

wobei die Abstände ∆f =

fA 2N

(6.173)

gewählt werden, damit 2N komplexe Werte Gk im Nyquistband liegen. Damit wird das Integral Gl. (6.172) über die Rechteckregel durch gn = tA

N −1 X

∆f · G(k∆f ) ej2πk∆f ntA

(6.174)

k=−N

=

N −1 kn 1 X Gk ej2π 2N , 2N

n = −N, . . . , N − 1 ,

(6.175)

k=−N

angenähert. Die Impulsantwort ist auf den Bereich n = −N, . . . , N − 1 beschränkt.

359

6.8 Frequenzselektive Filter

Die Diskretisierung im Frequenzbereich bewirkt eine periodische Wiederholung der Impulsantwort mit der Periode T0 = 2N tA im Zeitbereich. Die resultierende Berechnung der diskreten Impulsantwort entspricht der inversen DFT (Definition 5.77). Zur Reduzierung des Leckeffekts kann die Impulsantwort mit einem weiteren akausalen Fenster multipliziert werden, z. B. dem symmetrischen, akausalen Gauß-Fenster: gn0 = gn · w2N,n . Das Filter ist akausal, so dass das Ausgangssignal erst um N Abtastwerte verzögert vorliegt. Man verzögert deshalb die Ausgabe des Ausgangssignals, damit zur Berechnung des Wertes ya,n0 auch der Wert ye,n0 +N einfließen kann. Satz 6.176 (FIR-Filterentwurf durch inverse DFT) Der Entwurf von FIR-Filtern durch die inverse DFT vollzieht sich in sieben Schritten: 1. Festlegen des Toleranzschemas und des gewünschten Amplitudenganges A(f ). Bei Bedarf bei A(f ) etwas steilere Flanken annehmen, um Diskretisierungsfehler auszugleichen. 2. Entwurf eines zeitkontinuierlichen Filters G(s) gemäß den Vorgaben. 3. Festlegen der Zahl 2N der Abtastpunkte im Nyquistband. Abtastung des Frequenzgangs Gk = G(f = k∆f ) mit ∆f gemäß Gleichung (6.173). 4. Berechnen der zeitdiskreten Impulsantwort über die inverse DFT gn =

N −1 1 X Gk ej2πkn/2N , 2N

n = −N, . . . , N − 1 .

k=−N

5. Gewichten der Impulsantwort mit einer akausalen, diskreten Fensterfunktion w2N,n , um den Leckeffekt zu verringern: gn0 = gn · w2N,n . 6. Bei Bedarf Verschiebung der Impulsantwort um N Abtastschritte: 0 gn00 = gn−N

◦−•

G00 (z) = G0 (z) · z −N .

Durch die Verschiebung ergibt sich eine zusätzliche lineare Phasendrehung, vgl. Satz 6.122. 7. Überprüfung, ob das gewünschte Toleranzbandschema eingehalten wird. Sollte dies nicht der Fall sein, so wird ein modifizierter Amplitudengang A(f ) höherer Ordnung angesetzt oder die Zahl der Abtastpunkte N erhöht. Danach beginnt • man bei Punkt 2. Die resultierende Differenzengleichung für das verschobene, akausale Filter ist nach Satz 6.22 die Faltungssumme ya,n−N =

2N −1 X i=0

0 ye,n−i · gi−N .

360

6 Zeitdiskrete Systeme

Beispiel 6.177 (Entwurf eines akausalen FIR-Filters) Für den Entwurf eines Filters nach dem Satz 6.176 wird der Amplitudengang vorgegeben. Hierbei wird von Anfang an ein zeitkontinuierliches Filter G(s) höherer Ordnung mit K = 6 angesetzt, damit nach der Durchführung der Entwurfsschritte das Toleranzschema eingehalten wird. Der Amplitudengang A(f ) ist in Abbildung 6.42 zusammen mit den N = 10 Abtastwerten im Bereich [0, f2A ] dargestellt (fA = 10 Hz). Für die weitere Rechnung wird nach Gleichung (6.175) jedoch nicht der Amplitudengang A(f ), sondern der abgetastete Frequenzgang Gk benötigt. Somit sind also die Abtastwerte komplex, da sie aus der Abtastung des Frequenzganges G(k ∆f ) entstehen. Aus A(f ) werden deshalb das zeitkontinuierliche Filter G(s) und daraus die komplexen Abtastwerte Gk = G(s = j2πtA k · ∆f ) berechnet. Die resultierende Impulsantwort, die entsprechend der inversen DFT in Gleichung (6.175) berechnet wird, findet sich in Abbildung 6.43 zusammen mit dem für dieses Filter rekonstruierten Amplitudengang. Das Toleranzschema wird aufgrund der Diskretisierung im Durchlassbereich nach oben hin verletzt. Butterworth-Filter der Ordnung K=6 1 0,8 0,6 0,4 0,2 0 0

0,3

1

2

3

4

5

Impulsantwort des Filters der Ordnung K=6

Abbildung 6.42: Vorgegebener und abgetasteter Amplitudengang. Amplitudengang des akausalen, zeitdiskreten Filters 1

0,2

0,8

0,1 0

0,6

−0,1

0,4

−0,2

0,2

−0,3 −0,4 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.43: Impulsantwort und rekonstruierter Amplitudengang des akausalen, zeitdiskreten Filters.

361

6.8 Frequenzselektive Filter

Um dies zu korrigieren, wird die Impulsantwort mit einem symmetrischen GaußFenster gemäß Abbildung 6.44 gefenstert. Nach der Fensterung entsteht die Impulsantwort in Abbildung 6.45. Man erkennt, dass aufgrund der Fensterung Signalenergie verloren geht. Der hieraus rekonstruierte Amplitudengang verletzt das Toleranzschema nun „nach unten“, d. h. durch eine zu starke Dämpfung im Durchlassbereich. Um dies auszugleichen, kann man wie in Abschnitt 6.8.1 einen skalierten Entwurf durchführen, wobei hier als Skalierungsfaktor α = 1,2 gewählt wird. Dies führt auf den skalierten Amplitudengang in Abbildung 6.46. Wendet man nun auf diesen die Entwurfsmethode erneut an und gewichtet das Resultat mit einem Gauß-Fenster, so entstehen die Impulsantwort und deren rekonstruierter Amplitudengang in Abbildung 6.47. Die Phase des Filters ist in Abbildung 6.48 zu sehen. •

1

Gauß−Fenster für a=0,8

0,8 0,6 0,4 0,2 0 −1

−0,5

0

0,5

1

Gefensterte Impulsantwort des Filters der Ordnung K=6 0,2 0,1

Abbildung 6.44: Symmetrisches GaußFenster zur Fensterung der Impulsantwort des FIR-Filters. Amplitudengang des akausalen, gefensterten Filters 1 0,8

0

0,6

−0,1

0,4 0,2

−0,2 −0,3 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.45: Impulsantwort und rekonstruierter Amplitudengang des gefensterten, akausalen, zeitdiskreten FIR-Filters

362

6 Zeitdiskrete Systeme Mit α=1,2 skaliertes BW−Filter der Ordnung K=6 1 0,8 0,6 0,4 0,2 0 0

1

2

3

4

5

Skalierte Impulsantwort des Filters der Ordnung K=6 0,3 0,2

Abbildung 6.46: Skalierter vorgegebener Amplitudengang für α = 1,2. Amplitudengang des skalierten, gefensterten Filters 1 0,8

0,1 0

0,6

−0,1

0,4

−0,2

0,2

−0,3 −0,4 −1

0 −0,5

0

0,5

1

0

1

2

3

4

5

Abbildung 6.47: Impulsantwort und rekonstruierter Amplitudengang des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters. Phasengang des skalierten, gefensterten FIR−Filters 4

Gruppenlaufzeit des skalierten, gefensterten FIR−Filters 1

2

0,5

0

0

−2

−0,5

−4 −5

0

5

−1 −5

0

5

Abbildung 6.48: Phasengang und Gruppenlaufzeit des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters.

6.8.3

IIR-Filter über die zeitdiskrete Übertragungsfunktion

Der in Abschnitt 4.6 verwendete Ansatz soll wiederum Ausgangspunkt für den Entwurf eines zeitdiskreten IIR-Filters sein. Dazu wird aus dem zeitkontinuierlichen Filter

6.8 Frequenzselektive Filter

363

G(s) mittels der in Abschnitt 6.6 vorgestellten Methoden ein zeitdiskretes Filter G(z) entworfen. Hierbei entfällt die Fensterung, welche zum Entwurf von FIR-Filtern notwendig war. Die Impulsantwort ist unendlich lang, das System besitzt in seiner kanonischen Darstellung eine rekursive Komponente. Satz 6.178 (IIR-Filterentwurf ) Unter Verwendung der Ansätze bei den zeitkontinuierlichen Systemen in Abschnitt 4.6 erfolgt der Entwurf frequenzselektiver IIR-Filter in vier Schritten [KK09]. 1. Vorgabe des kontinuierlichen Toleranzschemas. 2. Entwurf eines zeitkontinuierlichen, frequenzselektiven Filters im s-Bereich, was auf eine Übertragungsfunktion G(s) führt. 3. Übertragung der zeitkontinuierlichen Übertragungsfunktion G(s) des frequenzselektiven Filters in eine zeitdiskrete Darstellung G(z) mit einer der Methoden, die in Abschnitt 6.6 aufgezeigt wurden. Dazu muss die Abtastzeit so gewählt werden, dass das Abtasttheorem eingehalten wird. 4. Überprüfung, ob das gewünschte Toleranzschema  A(f ) = G z = ej2πf tA eingehalten wird. Sollte dies nicht der Fall sein, so wird der Entwurf von G(s) mit höherer Ordnung K wiederholt. • Bemerkung 6.179 Entsteht bei der zeitdiskreten Darstellung der zeitkontinuierlichen Übertragungsfunktion G(s) eine gebrochen rationale zeitdiskrete Übertragungsfunktion G(z), so kann aus G(z) unter Beachtung der Verschiebungsregel der z-Transformation unmittelbar die das System beschreibende Differenzengleichung bestimmt werden. Durch fortlaufende Berechnung der Differenzengleichung wird das IIR-Filter auf einem Mi• krorechner realisiert. Bemerkung 6.180 Anstelle der im Punkt 4 vorgeschlagenen Erhöhung der Ordnung K kann bei geringen Abweichungen vom Toleranzschema evtl. die in Beispiel 6.166 verwendete Skalierung benutzt werden. Davon wird im folgenden Beispiel Gebrauch gemacht. • Der Entwurf des zeitkontinuierlichen, frequenzselektiven Filters G(s) erfolgt entsprechend Abschnitt 4.6. Der Übergang auf die zeitdiskrete Darstellung G(z) des zeitkontinuierlichen Systems G(s) verwendet eine der in Abschnitt 6.6 behandelten Methoden. Am häufigsten wird dazu die Trapezregel herangezogen, vgl. Abschnitt 6.6.5. Die entstehenden zeitdiskreten Systeme sind autoregressiv und stellen somit IIR-Filter dar.

364

6 Zeitdiskrete Systeme

Beispiel 6.181 (Entwurf eines IIR-Filters) In diesem Beispiel erfolgt die Konstruktion eines IIR-Filters mit der in Satz 6.178 vorgestellten Methode. Wir geben uns dasselbe Toleranzschema (Abbildung 6.34) wie beim Entwurf der vorherigen FIR-Filter vor. Dieses ergibt die kontinuierliche Übertragungsfunktion G(s) der Ordnung K = 4 nach Beispiel 4.171. Nun muss diese Übertragungsfunktion G(s) in eine zeitdiskrete Systemfunktion G(z) übertragen werden. Bei der Zeitdiskretisierung muss die Abtastzeit festgelegt werden. Das Signal wird wie im ersten Beispiel bei fg = 4 Hz mit einer Dämpfung von 60 dB als bandbegrenzt angesehen. Eine Abtastfrequenz von fA = 10 Hz bzw. eine Abtastzeit von tA = 0,1 s erfüllt dann praktisch das Abtasttheorem. Wir wenden die in Abschnitt 6.6.5 vorgestellte bilineare Transformation an, um aus der zeitkontinuierlichen Übertragungsfunktion G(s) die zeitdiskrete Übertragungsfunktion G(z) zu gewinnen. Es folgt: G0 G(z) = G(s) = K   2 z−1 Q 2 z−1 s= t z+1 − s ∞ν A tA z+1 ν=1

 = G0

tA 2

K

(z + 1)K K  Q

z(1 −

ν=1

tA 2 s∞ν )

− (1 +

. tA 2 s∞ν )



Bei Verwendung der bilinearen Transformation ist die resultierende Übertragungsfunktion G(z) im Gegensatz zur Methode der Impulsinvarianz wieder eine gebrochen rationale Funktion. Diese kann dann in eine das System repräsentierende Differenzengleichung überführt werden. Für einen Butterworth-Entwurf der Ordnung K = 4 erhält man die Pole: s∞1 = −2,5838 + j 6,2378 , s∞3 = −6,2378 − j 2,5838 ,

s∞2 = −6,2378 + j 2,5838 , s∞4 = −2,5838 − j 6,2378 .

Die resultierende zeitdiskrete Übertragungsfunktion ist durch G(z) =

0,0054 z 4 + 0,0218 z 3 + 0,0327 z 2 + 0,0218 z + 0,0054 z 4 − 2,3110 z 3 + 2,2223 z 2 − z + 0,1759

gegeben, woraus sich mit der Umformung G(z) =

0,0054 + 0,0218 z −1 + 0,0327 z −2 + 0,0218 z −3 + 0,0054 z −4 1 − 2,3110 z −1 + 2,2223 z −2 − z −3 + 0,1759 z −4

die folgende Differenzengleichung ergibt: ya,n = 0,0054 ye,n + 0,0218 ye,n−1 + 0,0327 ye,n−2 + 0,0218 ye,n−3 + 0,0054 ye,n−4 + 2,3110 ya,n−1 − 2,2223 ya,n−2 + ya,n−3 − 0,1759 ya,n−4 . Der rekonstruierte Amplitudengang A(f ) = |G(z = ej2πf tA )| dieses IIR-Filters ist in Abbildung 6.49 dargestellt.

365

6.8 Frequenzselektive Filter Verwendung der Trapezregel 1 0,8 0,6 0,4 0,2 0 0

1

2

Abbildung 6.49: Rekonstruierter Amplitudengang des IIR-Filters bei Anwendung der bilinearen Transformation.

3

Das Toleranzschema wird mit dem zeitdiskreten IIR-Filter nur wenig an der Grenze des Durchlassbereiches verletzt. Dafür besteht aber ein ausreichender Abstand zur Grenze des Sperrbereiches. Aus diesem Grund wird eine Skalierung mit α = 1,1 durchgeführt, mit welcher die Reserve im Übergangsbereich genutzt wird. Dies geschieht durch Berechnung der skalierten, zeitkontinuierlichen Übertragungsfunktion s G0 αK Gα (s) = G = K Q α (s − α s∞ν )

(6.182)

ν=1

und anschließender Anwendung der bilinearen Transformation: G0 αK α α G (z) = G (s) = K 2 z−1 Q s= t z+1 (s − α s∞ν ) s= t2A z−1 z+1 A ν=1

 = G0

tA 2

K

αK

(z + 1)K K Q ν=1

 z(1 −

tA 2 α s∞ν )

− (1 +

. tA 2 α s∞ν )



Durch Aα (f ) = |Gα (f )| = Gα (z = ej2πf tA ) entsteht der rekonstruierte Amplitudengang in Abbildung 6.50, der das vorgegebene Toleranzschema einhält. Die Phase und die Gruppenlaufzeit des Systems finden sich in Abbildung 6.51. Durch Rücktransformation der Übertragungsfunktion und Anwendung der Verschiebungsregel der z-Transformation erhält man die dazugehörige Differenzengleichung: ya,n = 0,0073 ye,n + 0,0293 ye,n−1 + 0,0440 ye,n−2 + 0,0293 ye,n−3 + 0,0073 ye,n−4 + 2,1577 ya,n−1 − 1,9940 ya,n−2 + 0,8677 ya,n−3 − 0,1487 ya,n−4 .



366

6 Zeitdiskrete Systeme Skalierung und Verwendung der Trapezregel 1

0,8 0,6 0,4 0,2 0 0

1

2

3

Abbildung 6.50: Rekonstruierter Amplitudengang bei Anwendung der Skalierung und der bilinearen Transformation. 0,05

4 2

0

0 −2 −4 −5

0

5

−0,05 −5

0

5

Abbildung 6.51: Phase und Gruppenlaufzeit bei Anwendung der Skalierung und der bilinearen Transformation.

6.8.4

FIR-Filter über Transformation des Frequenzganges

In diesem Abschnitt wird eine Möglichkeit zum Entwurf eines digitalen Filters vorgestellt, welche vom Entwurfsaufwand einfacher als die anderen Methoden ist. Hierzu greifen wir später noch einmal das Beispiel 6.124 auf. Zuerst soll jedoch ein analytischer Zusammenhang zwischen der Impulsantwort und dem gewünschten Frequenzgang hergeleitet werden. Als Basis der Herleitung dient die Systemfunktion eines zeitdiskreten Systems, G(z) =

∞ X

gn z −n ,

n=−∞

in welcher die Werte der Impulsantwort als Koeffizienten einer Reihe in der Variablen z auftreten. Aus dieser erhält man den Frequenzgang ∞ X  G(f ) = G z = ej2πf tA = gn e−j2πf ntA . n=−∞

367

6.8 Frequenzselektive Filter

Besitzt die Impulsantwort 2N + 1 Werte symmetrisch um den Ursprung, so vereinfacht sich die Summation zu N X

G(f ) =

gn e−j2πf ntA .

(6.183)

n=−N

Dieser Frequenzgang wird analytisch vorgegeben. Mit der Fourier-Transformation zeitdiskreter Signale in Satz 5.20 berechnet sich die zum Frequenzgang G(f ) zugehörige Impulsantwort als fA

Z2

1 gn = fA

G(f ) e

j2π fnA f

df ,

n = −N, . . . , N .

f − 2A

Ist der gewünschte Frequenzgang eine gerade Funktion in f , so vereinfacht sich die Berechnung der Impulsantwort: fA

2 gn = fA

Z2 0

  n G(f ) cos 2π f df fA

(6.184)

fA

Z2 = 2tA

G(f ) cos (2πntA f ) df ,

n = −N, . . . , N .

(6.185)

0

Die Impulsantwort ist somit ebenfalls eine gerade Wertefolge g−n = gn ,

n = 1, . . . , N ,

die sich mittels symbolischer Intergralberechnungen aus dem gewünschten Frequenzgang ergibt. Beispiel 6.186 (Idealer Tiefpass aus dem Frequenzgang) Soll ein idealer Tiefpass mit dem gewünschten Frequenzgang  1 für |f | ≤ fg G(f ) = 0 für |f | > fg mit den beschriebenen Methoden entworfen werden, so berechnen sich die Werte der Impulsantwort zu:  fg Zfg 2tA gn = 2tA cos (2πntA f ) df = sin (2πntA f ) 2πntA 0 0   fg 2tA fg sin 2πn fA = sin (2πntA fg ) = 2 , n = −N, . . . , N . f 2πntA fA 2πn g fA

368

6 Zeitdiskrete Systeme

Für den Fall N = 5 und die Frequenzparameter fA = 100 Hz sowie fg = 25 Hz f ergeben sich fAg = 14 und die Werte g−5 = 0,0637 , g−1 = 0,3183 , g3 = −0,1061 ,

g−4 = 0 , g0 = 0,5000 , g4 = 0 ,

g−3 = −0,1061 , g1 = 0,3183 , g5 = 0,0637 .

g−2 = 0 , g2 = 0 ,

Die Impulsantwort ist in Abbildung 6.52 dargestellt. Die das System beschreibende Differenzengleichung lautet: ya,n =

N X

gi ye,n−i

i=−N

Der Frequenzgang des Systems ist in Abbildung 6.53 zu sehen. Da die Zeitfunktion eine reelle und gerade Funktion ist, ist der Frequenzgang reell. Man erkennt, wie sich das Gibbs’sche Phänomen auswirkt. Die Überschwinger können nach Abschnitt 3.7.2 in ihrer Höhe nicht gedämpft werden. Zur Veranschaulichung dieser Tatsache ist in Abbildung 6.54 der Frequenzgang eines Filters der Ordnung N = 25 dargestellt. Es ist deutlich zu erkennen, dass dieser den idealen Rechteckverlauf besser wiedergibt. Dennoch besitzen die Überschwinger dieselbe Höhe wie im Fall N = 5. Um die Überschwinger zu reduzieren, kann die Impulsantwort mit einem GaußFenster multipliziert werden. Das Fenster und die gefensterte Impulsantwort sind in 0,6 0,4 0,2 0 −0,2 −5

0

5

Abbildung 6.52: Impulsantwort des einfachen FIR-Filterentwurfs für N = 5.

50

Abbildung 6.53: Rekonstruierter Frequenzgang des einfachen FIR-Filterentwurfs für N = 5.

1,5 1 0,5 0 −0,5 −50

0

369

6.8 Frequenzselektive Filter 1,5 1 0,5 0 −0,5 −50

0

50

Abbildung 6.54: Rekonstruierter Frequenzgang des einfachen FIR-Filterentwurfs für N = 25. 0,6

1

0,4

0,8

0,2

0,6 0,4

0

0,2 0

−20

−10

0

10

−0,2

20

−20

−10

0

10

20

Abbildung 6.55: Gauß-Fenster und gefensterte Impulsantwort des einfachen FIR-Filterentwurfs für N = 25 bei Verwendung eines Gauß-Fensters mit a = 20. 1,5 1 0,5 0 −0,5 −50

0

50

Abbildung 6.56: Rekonstruierter Frequenzgang des Gauß-gefensterten einfachen FIR-Filterentwurfs für N = 25 und a = 20.

Abbildung 6.55 dargestellt. Man erkennt, dass durch die Fensterung die Werte am „Rand“ der Impulsantwort in ihrer Höhe gedämpft werden. Für die gefensterte Impulsantwort zeigt Abbildung 6.56 den resultierenden Frequenzgang. Durch Anwendung eines Gauß-Fensters werden die Auswirkungen des Gibbs’schen Phänomens reduziert. Nachteilig an dieser Entwurfsmethode ist, dass kein Toleranzschema angegeben wer-

370

6 Zeitdiskrete Systeme

den kann. Dies schränkt die Möglichkeiten der Einflussnahme ein. Zudem ist eine analytische Lösung des Integrals in Gleichung (6.185) zur Bestimmung der Werte der Impulsantwort notwendig. Auf der anderen Seite ist dieser Entwurf deutlich einfacher als die in den letzten Abschnitten dargestellten Entwürfe. Durch Erhöhung der Zahl der Abtastwerte N kann die Flankensteilheit des Filters erhöht werden. Bei Verschiebung der Impulsantwort um N2 Schritte für Echtzeitanwendungen gibt es aber eine praktische obere Grenze. Da der Phasengang des resultierenden Filters null ist, eignet sich diese Entwurfsmethode für Anti-Aliasing- und Rekonstruktions-Filter. •

6.9

Spezielle zeitdiskrete Filter

In den folgenden Abschnitten werden verschiedene zeitdiskrete Filter und deren Anwendungen präsentiert.

6.9.1

Zeitdiskrete Hilbert-Transformation

Für praktische Anwendungen wird die Hilbert-Transformierte in zeitdiskreter Form benötigt. Das Ziel dieses Abschnittes ist es, die zeitdiskrete Hilbert-Transformation herzuleiten und deren Eigenschaften zu untersuchen. Hierzu werden Forderungen an das zeitdiskrete Spektrum des analytischen Signals gestellt, welche denjenigen der zeitkontinuierlichen Hilbert-Transformation entsprechen. Die nachfolgenden Betrachtungen finden sich ausführlicher in [OS98]. Es wird die Wertefolge zn des zeitdiskreten analytischen Signals angesetzt, deren Spektrum im Bereich negativer Frequenzen definitionsgemäß verschwinden soll: !

Z∗ (f ) = 0

für



fA < f < 0. 2

(6.187)

Man beachte hier die Bedeutung des Begriffes „negative Frequenzen“. Bei zeitdiskreten Signalen sind die betrachteten Spektren periodisch mit der Periode fA . Somit ist das Analogon zur Auslöschung des analytischen Signals bei negativen Frequenzen in Gleichung (6.187) durch das Verschwinden des Spektrums im negativen Teil des Nyquistbandes gegeben. Aufgrund der Periodizität ergibt sich die Tatsache, dass das Spektrum an der Stelle fA gleich null sein muss. Durch Zerlegung des analytischen Signals in seinen Real- und Imaginärteil, zn = xR,n + j xI,n , ergeben sich zwei reelle Folgen xR,n , xI,n zur Darstellung von zn . Diese können über zn + zn∗ , 2 ∗ zn − zn = Im{zn } = 2j

xR,n = Re{zn } = xI,n

371

6.9 Spezielle zeitdiskrete Filter

berechnet werden. Mit den jeweiligen Fourier-Transformierten XR (f ), XI (f ) folgt aufgrund der Linearität der Fourier-Transformation im Spektralbereich der Zusammenhang Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) .

Die Real- und Imaginärteile der Fourier-Transformierten ergeben sich zu 1 (Z∗ (f ) + Z∗∗ (−f )) , 2 1 j XI,∗ (f ) = (Z∗ (f ) − Z∗∗ (−f )) . 2

(6.188)

XR,∗ (f ) =

(6.189)

Die Real- und Imaginärteile von Z∗ (f ) weisen Symmetrien im Frequenzbereich auf. So ist XR,∗ (f ) konjugiert symmetrisch zur Mittenfrequenz null, d. h. ∗ XR,∗ (f ) = XR,∗ (−f ) ,

und XI,∗ (f ) konjugiert punktsymmetrisch, d. h. ∗ j XI,∗ (f ) = −j XI,∗ (−f ) .

Nach Gleichung (6.187) soll das Spektrum des analytischen Signals im negativen Teil des Nyquistbandes verschwinden: !

für

Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) = 0



fA < f < 0. 2

Daraus folgt fA < f < 0. (6.190) 2 Darüber hinaus wird gefordert, dass das Spektrum des analytischen Signals Z∗ (f ) im positiven Teil des Nyquistbandes seinem doppelten Realteil entsprechen soll: XI,∗ (f ) = j XR,∗ (f )

für



!

Z∗ (f ) = XR,∗ (f ) + j XI,∗ (f ) = 2XR,∗ (f )

für

0M 2

374

6 Zeitdiskrete Systeme 1

1

0,5

0,5

0

0

−0,5

−0,5

−1

0

20

40

60

80

−1

0

20

40

60

80

Abbildung 6.58: Endliche Cosinus-Schwingung und Impulsantwort des Hilbert-Transformators für tA = 1 s und M = 40.

verwendet. In Abbildung 6.58 sind die endliche Schwingung und die Impulsantwort des Hilbert-Transformators zu sehen. Entsprechend Bemerkung 5.91 ist die Impulsantwort zur Sicherung der Kausalitätseigenschaft des Systems auf die doppelte Länge 2M erweitert. Die Cosinus-Schwingung wird im zweiten Teilintervall mit Nullen aufgefüllt (Zero-Padding). Das entstehende Ausgangssignal yˇM,n = gQ,M,n ∗ yM,n ,

n = 0, . . . , M ,

wird nicht exakt der zeitdiskreten Hilbert-Transformation entsprechen, da durch die Beschränkung auf endlich viele Eingangswerte Fehler entstehen. Das Resultat der Faltung findet sich in Abbildung 6.59. Man erkennt, dass aufgrund der endlichen Folgen Fehler entstehen und das Ausgangssignal entsprechend der kausalen Impulsantwort um M 2 verschoben ist. Im Bereich um M ist die Näherung aber recht gut. • Nun soll auch noch das andere im Zeitkontinuum behandelte Beispiel zeitdiskret berechnet werden. 1 0,5 0 −0,5 −1

0

20

40

60

80

Abbildung 6.59: Faltung einer endlichen Cosinus-Schwingung und einer endlichen kausalen Impulsantwort des HilbertTransformators für tA = 1 s und M = 40.

375

6.9 Spezielle zeitdiskrete Filter

Beispiel 6.197 (Hilbert-Transformation einer zeitdiskreten Sinc-Funktion) Auch hier soll zur Erfüllung des Abtasttheorems lediglich der Fall f0 < werden. Ausgangspunkt bildet die abgetastete Sinc-Folge yn =

sin(2πf0 ntA ) 2πf0 ntA

◦−•

Y∗ (f ) =

fA 2

betrachtet

  fA fA f∈ − , . 2 2

fA r2f0 (f ) , 2f0

Die Hilbert-Transformation ergibt wegen Yˇ∗ (f ) = Y (f ) · GQ (f ) für die HilbertTransformation der zeitdiskreten Sinc-Funktion  jfA  für 0 < f < f0  − 2f0 ˇ Y∗ (f ) = + jfA für − f0 < f < 0 .   2f0 0 sonst Die Rücktransformation in den Zeitbereich erfolgt durch Integration der Spektralfunktion: Z0 Zf0 jfA j2πf ntA jfA j2πf ntA yˇn = tA e df − tA e df 2f0 2f0 −f0

0

h i0 h if0 j −j = ej2πf ntA + ej2πf ntA 2f0 j2πntA 2f0 j2πntA −f0 0 h i h i j −j = 1 − e−j2πf0 ntA + ej2πf0 ntA − 1 2f0 j2πntA 2f0 j2πntA 1 = (1 − cos(2πf0 ntA )) . 2πf0 ntA



Definition 6.198 (Zeitdiskretes analytisches Signal) Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal bestimmt sich durch zn = yn + j yˇn .

Das Leistungsdichtespektrum des analytischen Signals erhält man wie beim zeitkontinuierlichen analytischen Signal mittels der Autokorrelationsfunktion Rzz (k) = Ryy (k) + Ryˇyˇ(k) + j [Ryˇy (k) − Ryyˇ(k)] zu:   4 SY Y (f ) SZZ (f ) = 2 SY Y (f )  0

für 0 < f < f2A für f = 0 für − f2A ≤ f < 0,

. f=

fA 2

(6.199)

376

6 Zeitdiskrete Systeme

Satz 6.200 (Zeitdiskretes analytisches Signal) Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal zn besitzt nur Spektralanteile im positiven Frequenzbereich. Das Leistungsdichtespektrum stimmt dort bis auf den Faktor mit dem Leistungsdichtespektrum von yn überein. • Die Erzeugung eines zeitdiskreten analytischen Signals wird nun an einem Beispiel illustriert.

Beispiel 6.201 (Zeitdiskretes analytisches Signal) Betrachten wir das Signal yn = cos(2πf0 ntA ). Die Hilbert-Transformierte berechnet sich nach Beispiel 6.195 zu yˇn = sin(2πf0 ntA ). Hieraus resultiert das zugehörige zeitdiskrete analytische Signal: zn = yn + j yˇn = cos(2πf0 ntA ) + j sin(2πf0 ntA ) = ej2πf0 ntA . Dieses hat das Spektrum Z∗ (f ) = Y∗ (f ) + j Yˇ∗ (f ) 1 j = (δ(f + f0 ) + δ(f − f0 )) + j (δ(f + f0 ) − δ(f − f0 )) 2 2 1 1 = (δ(f + f0 ) + δ(f − f0 )) − (δ(f + f0 ) − δ(f − f0 )) 2 2 = δ(f − f0 ) . Es ist zu erkennen, dass aus den zwei Frequenzanteilen bei ±f0 ein einziger Frequenzanteil bei f0 entstanden ist, der aber die doppelte Amplitude besitzt. Das Spektrum erhöht sich im Gegensatz zum Leistungsdichtespektrum „nur“ um den Faktor zwei, da bei der Berechnung des Leistungsdichtespektrums sowohl die Autokorrelationsfunktion des Signals als auch die Autokorrelationsfunktion der zugehörigen Hilbert-Transformierten einfließen. •

6.9.2

Zeitdiskreter Differenzierer

Zur Herleitung der Impulsantwort eines zeitdiskreten Differenzierers überträgt man den Frequenzgang eines zeitkontinuierlichen Differenzierers (Differentiationssatz der Fourier-Transformation) auf den zeitdiskreten Fall. Der Frequenzgang im Nyquistband ist  GD (f ) =

j2πf tA 0

für |f | ≤ fg sonst

377

6.9 Spezielle zeitdiskrete Filter mit einer vorgegeben Grenzfrequenz fg < des zeitdiskreten Differenzierers zu: Zfg gn = tA

fA 2 .

Hieraus berechnet sich die Impulsantwort

j2πf tA ej2πf tA n df

−fg n6=0

=

j2πf t2A

Zfg fg 1 1 j2πf tA n e − j2πt2A ej2πf tA n df j2πtA n j2πtA n −fg −fg

 tA fg 1 ej2πfg tA n − e−j2πfg tA n 2 n j2πn t A fg 1 = 2 cos(2πfg tA n) − sin(2πfg tA n) n πn2 fg 1 fg 1 fg = fA · cos(π fA n) − sin(π fA n) . 2 n πn 2 2 2  ej2πfg tA n + e−j2πfg tA n −

=

Für fg =

fA 2

erhält man: ( 0 gn = 1 n cos(πn)

für n = 0 sonst

.

Die Impulsantwort ist akausal. Für eine kausale Impulsantwort endlicher Länge muss gn auf ein Beobachtungsfenster mit M Abtastschritten begrenzt und um M 2 verzögert werden. Man erhält für gerade M die schiefsymmetrische kausale Impulsantwort: ( 1 M für 0 ≤ n ≤ M, n 6= M M cos(π(n − 2 )) 2 gD,kaus,n = n− 2 . 0 für n = M , n < 0, n >M 2 Diese ist in Abbildung 6.60 dargestellt. Der dazugehörige Frequenzgang ist GD,kaus (f ) = 2πf tA e−j(2πf tA

M 2

−π 2)

.

(6.202)

Impulsantwort des zeitdiskreten Differenzierers 1 0,5 0 −0,5 −1 0

5

10

15

20

Abbildung 6.60: Impulsantwort des zeitdiskreten Differenzierers für M = 20.

378

6 Zeitdiskrete Systeme

Somit besitzt der kausale Differenzierer eine verallgemeinert lineare Phase, vgl. Abschnitt 6.5.

6.9.3

Korrektur der Gruppenlaufzeit eines Filters

Nach dem Entwurf eines Filters, beispielsweise nach den Methoden in Abschnitt 6.8, weist dieses Filter den gewünschten Amplitudengang oder eine Approximation desselben auf. Soll der Phasengang ebenfalls einen gewünschten Verlauf besitzen, welcher von dem sich durch den Entwurf ergebenden Verlauf abweicht, so muss der Phasengang korrigiert werden. Dies kann durch Hinzufügen oder Abspalten eines Allpasses erreicht werden. Der folgende Abschnitt zeigt eine Möglichkeit auf, mittels welcher solch eine Korrektur vorgenommen werden kann. Hierzu wird exemplarisch ein Allpass mit zwei konjugiert komplexen Pol- und Nullstellen verwendet, der die Übertragungsfunktion GA (z) =

∗ (1 − z z∞ν )(1 − z z∞ν ) , ∗ ) (z − z∞ν )(z − z∞ν

z∞ν = rν ejφν ,

|rν | < 1 ,

(6.203)

besitzt. Mit z = ej2πf tA berechnet sich der Frequenzgang dieses Allpasses zu:     1 − rν ej(2πf tA −φν ) · 1 − rν ej(2πf tA +φν )   . GA (f ) = j2πf t  A 1 − r e−j(2πf tA −φν ) e · ej2πf tA 1 − rν e−j(2πf tA +φν ) ν Die Nullstellenwinkel sind nach der Herleitung in Bemerkung 6.105  β1 = − arctan  β2 = − arctan

rν sin(2πf tA − φν ) 1 − rν cos(2πf tA − φν )



rν sin(2πf tA + φν ) 1 − rν cos(2πf tA + φν )



,

und die Polstellenwinkel:  α1 = 2πf tA + arctan  α2 = 2πf tA + arctan

rν sin(2πf tA − φν ) 1 − rν cos(2πf tA − φν )



rν sin(2πf tA + φν ) 1 − rν cos(2πf tA + φν )



, .

Insgesamt ist der Phasenwinkel: X X ψ(f ) = βν − αν ν

ν



rν sin(2πf tA − φν ) = −4πf tA − 2 arctan 1 − rν cos(2πf tA − φν )   rν sin(2πf tA + φν ) − 2 arctan . 1 − rν cos(2πf tA + φν )



379

6.9 Spezielle zeitdiskrete Filter

Die Gruppenlaufzeit ergibt sich daraus durch Ableitung:   1 − rν2 1 − rν2 . τg (f ) = tA + 1 − 2rν cos(2πf tA − φν ) + rν2 1 − 2rν cos(2πf tA + φν ) + rν2 Im folgenden Beispiel wird durch Hinzufügen des Allpasses aus Gleichung (6.203) die Korrektur einer Gruppenlaufzeit vorgenommen. Beispiel 6.204 (Korrektur einer Gruppenlaufzeit) Als Grundlage der folgenden Betrachtungen dient das zeitdiskrete IIR-System aus Beispiel 6.121. Für die Übertragungsfunktion G(z) =

bz , z−a

|a| < 1 ,

ergibt sich mit den Parametern a = b = 0,5 der in Abbildung 6.61 dargestellte Amplituden- und Phasengang:   A(f ) = G z = ej2πf tA , n  o ψ(f ) = arg G z = ej2πf tA . Die Gruppenlaufzeit entsteht durch Ableiten und Gewichten des Phasengangs τg (f ) = −

1 d ψ(f ) 2π df

und ist in Abbildung 6.62 zu sehen. Ab ca. |f | > 0,2 Hz ist die Gruppenlaufzeit negativ. Erwünscht sei ein Filter mit ausschließlich positiver Gruppenlaufzeit. Dazu wird ein Allpass nach Gleichung (6.203) in Serie geschaltet. 1

4

0,8

2

0,6

0

0,4

−2

0,2 0 −0,5

0

0,5

−4 −0,5

0

Abbildung 6.61: Amplitudengang und Phasengang des zeitdiskreten IIR-Filters für a = b = 0,5.

0,5

380

6 Zeitdiskrete Systeme

10

−3

x 10

8 6 4 2 0 −0,5

0

0,5

Abbildung 6.62: Gruppenlaufzeit des zeitdiskreten IIR-Filters für a = b = 0,5.

Zur Korrektur der Gruppenlaufzeit werden vier verschiedene Pol-Nullstellen-Konfigurationen des Allpasses betrachtet. Hierzu geben wir den Pol z∞ν = rν ejφν mit den willkürlich gewählten Radien rν = 0,2 und rν = 0,75 bzw. den Argumenten φν = 22,5◦ (0,3927 rad) bzw. φν = 122,5◦ (2,138 rad) vor. Mit diesen entstehen für den Allpass GA (z) =

∗ (1 − z z∞ν )(1 − z z∞ν ) ∗ ) (z − z∞ν )(z − z∞ν

die in Abbildung 6.63 gezeigten Gruppenlaufzeiten. Diese vier verschiedenen Allpässe werden nun auf ihre Eignung zur Korrektur der Gruppenlaufzeit des ursprünglichen IIR-Systems G(z) untersucht. Hierzu schaltet man diese Allpässe zu dem System G(z) in Serie, woraus das neue Gesamtsystem Gges (z) = G(z) · GA (z) entsteht. Wegen |Gges (f )| = |G(f )| · |GA (f )| = |G(f )| ändert sich der Amplitudengang hierdurch nicht. Der Phasengang des Systems Gges (z) ist ψges (f ) = ψ(f ) + ψA (f ) , woraus sich entsprechend für die Gruppenlaufzeit τg,ges (f ) = τg (f ) + τg,A (f )

(6.205)

ergibt. Die aus der Gleichung (6.205) für die vier möglichen Kombinationen entstehenden Gruppenlaufzeiten τg,ges (f ) des Gesamtsystems Gges (z) sind in Abbildung 6.64 dargestellt. Ein Allpass mit rν = 0,2, φν = 2,138 rad bringt für das Gesamtsystem eine annähernd konstante Gruppenlaufzeit und damit eine lineare Phase. Für rν = 0,2 und φν = 2,138 lautet die Differenzengleichung des phasenkorrigierten IIR-Filters: ya,n − 0,2851 ya,n−1 − 0,0675 ya,n−2 − 0,02 ya,n−3 = 0,02 ye,n − 0,1075 ye,n−1 + 0,5 ye,n−2 .



381

6.9 Spezielle zeitdiskrete Filter

10

−3

x 10

10

8

8

6

6

4

4

2

2

0

0

−0,5

10

0

0,5

−3

x 10

−0,5

10

8

8

6

6

4

4

2

2

0

0

−0,5

0

0,5

−3

x 10

0

0,5

0

0,5

−3

x 10

−0,5

Abbildung 6.63: Gruppenlaufzeiten der zeitdiskreten Allpässe GA (z) bei den gewählten Polen.

382

6 Zeitdiskrete Systeme

10

−3

x 10

10

8

8

6

6

4

4

2

2

0

0

−0,5

10

0

0,5

−3

x 10

−0,5

10

8

8

6

6

4

4

2

2

0

0

−0,5

0

0,5

−3

x 10

0

0,5

0

0,5

−3

x 10

−0,5

Abbildung 6.64: Gruppenlaufzeiten des resultierenden Gesamtsystems Gges (z) nach Korrektur der Gruppenlaufzeit bei den gewählten Polen.

A

Zusammenfassung der Fourier-Transformationen

Die im Buch vorgestellten Fourier-Transformationen zur Spektralanalyse von Signalen werden kurz wiederholt und gegeneinander abgegrenzt. Die mathematischen Zusammenhänge zwischen den Signalen und ihren Spektren bei den Fourier-Transformationen findet man in Tabelle A.1. In Abbildung A.1 werden exemplarisch entsprechende Signale und deren Spektren dargestellt.

Fourier-Transformation Die Fourier-Transformation stellt die allgemeine Form zur Spektralanalyse dar. So lassen sich die Fourier-Reihe, die Fourier-Transformation zeitdiskreter Signale und die diskrete Fourier-Transformation mit Hilfe der Fourier-Transformation darstellen.

Fourier-Reihe Die Fourier-Reihe verwendet man zur Spektralanalyse periodischer, zeitkontinuierlicher Signale. Das Spektrum ist frequenzdiskret und nicht periodisch. Bei einer Periodendauer von T0 beträgt der Abstand der Frequenzlinien ∆f = T10 .

Fourier-Transformation zeitdiskreter Signale (DTFT) Bei der Fourier-Transformation zeitdiskreter Signale wird das im Zeitbereich nicht periodische Signal äquidistant mit der konstanten Abtastzeit tA abgetastet. Das Spektrum ist frequenzkontinuierlich und mit der Abtastfrequenz fA = t1A periodisch. Es gilt: Y∗ (f ) = fA ·

∞ X

Y (f − kfA ) .

k=−∞

Das zeitdiskrete Signal kann man als Folge yn oder als eine Funktion in Form einer Impuls-Reihe darstellen. Die Höhe der Impulse entspricht dem Funktionswert des abgetasteten Signals y∗ (t) = y(t) ·

∞ X

δ(t − ntA )

n=−∞

bzw. den einzelnen Folgengliedern y∗ (t) =

∞ X n=−∞

yn δ(t − ntA ) .

384

A Fourier-Transformationen

Tabelle A.1: Tabelle der Fourier-Transformationen.

Eigenschaft im Zeitbereich Frequenzbereich zeitkontinuierlich ⇐⇒ nicht periodisch zeitdiskret ⇐⇒ periodisch periodisch ⇐⇒ frequenzdiskret nicht periodisch ⇐⇒ frequenzkontinuierlich Fourier-Transformation Z∞ y(t) =

Y (f ) ej2πf t df

Z∞ Y (f ) =

−∞

y(t) e−j2πf t dt

−∞

Fourier-Reihe (periodische Signale) T0

yp (t) =

∞ X

Yk e

j2π Tk0 t

k=−∞

Z2

1 Yk = T0

yp (t) e

−j2π Tk0 t

dt

T − 20

Fourier-Transformation zeitdiskreter Signale fA

Z2 yn = tA −

Y∗ (f ) ej2πf ntA df

Y∗ (f ) =

fA 2

∞ X

yn · e−j2πf ntA

n=−∞

Diskrete Fourier-Transformation

yn =

N −1 kn 1 X Yk ej2π N N k=0

Yk =

N −1 X

kn

yn e−j2π N

n=0

Diskrete Fourier-Transformation (DFT) Bei der diskreten Fourier-Transformation ist das Signal zeitdiskret und N -periodisch. Das Spektrum ist entsprechend frequenzdiskret und über N Frequenzwerte periodisch. Die Periodendauer T0 des Signals ist T0 = N · tA . Hieraus folgen die Frequenzauflösung ∆f = T10 = N ·1tA und eine spektrale Periodizität mit der Abtastfrequenz fA = t1A . Erwähnenswert ist, dass sowohl bei der Hin- als auch bei der Rücktransformation weder eine Frequenz noch eine Zeit bzw. Zeitdauer benötigt wird. Zwar impliziert der Zeitindex n die Zeit t, gerechnet wird in beiden Fällen aber nur mit den Zahlenfolgen.

385

A Fourier-Transformationen Signal − zeitkontinuierlich, nicht periodisch

Spektrum − frequenzkontinuierlich, nicht periodisch

Signal − zeitkontinuierlich, periodisch

Spektrum − frequenzdiskret, nicht periodisch

Signal − zeitdiskret, nicht periodisch

Spektrum − frequenzkontinuierlich, periodisch

Signal − zeitdiskret, periodisch

Spektrum − frequenzdiskret, periodisch

Abbildung A.1: Gegenüberstellung von Signalen und deren Spektren.

Ambivalenz zwischen Diskretisierung und Periodizität Es zeigt sich, dass die Diskretisierung des Signals bzw. des Spektrums und die Periodizität des Spektrums bzw. des Signals ambivalent sind. Dies wird in der Tabelle A.1 dargestellt. In den Tabellen A.2, A.3 und A.4 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.

386

A Fourier-Transformationen

Tabelle A.2: Eigenschaften der Fourier-Transformation.

Linearität c1 · y1 (t) + c2 · y2 (t)

◦−•

c1 · Y1 (f ) + c2 · Y2 (f )

◦−•

Y ∗ (−f )

Konjugiert komplexe Funktionen y ∗ (t)

Umkehrung der Zeit- bzw. Frequenzachse y(−t)

◦−•

Y (−f )

Y (t)

◦−•

y(−f )

y(t) reell, gerade



Y (f ) reell, gerade

y(t) reell, ungerade



Y (f ) imaginär, ungerade

y(t) imaginär, gerade



Y (f ) imaginär, gerade

y(t) imaginär, ungerade



Y (f ) reell, ungerade

Symmetrie

Gerade und ungerade Funktionen

Positive Signale y(t) ≥ 0

=⇒

|Y (f )| ≤ Y (0)

Grenzwert des Spektrums Z∞ |y(t)| dt < ∞ −∞

=⇒

lim Y (f ) = 0

f →±∞

387

A Fourier-Transformationen Tabelle A.3: Rechenregeln der Fourier-Transformation.

a ∈ R 6= 0

Maßstabsänderung, Skalierung y(at)

◦−•

  1 f Y |a| a t0 ∈ R

Zeitverschiebung y(t − t0 )

◦−•

e−j2πf t0 · Y (f ) f0 ∈ R

Modulation ej2πf0 t · y(t)

◦−•

Y (f − f0 )

◦−•

(j2πf )n Y (f )

Differentiation der Zeitfunktion y (n) (t)

Differentiation der Spektralfunktion (−j2πt)n y(t)

◦−•

Integration der Zeitfunktion Zt y(τ ) dτ

◦−•

−∞

Multiplikation im Zeitbereich y1 (t) · y2 (t)

◦−•

Y (n) (f )

Y (f ) 1 + Y (0) δ(f ) j2πf 2 R∞ |y (t)|2 dt < ∞ i = 1, 2 −∞ i Z∞ Y1 (f )∗Y2 (f ) = Y1 (ν) Y2 (f − ν) dν −∞

Faltung im Zeitbereich Z∞ y1 (t)∗y2 (t) = y1 (τ ) y2 (t − τ ) dτ −∞

∃i = 1, 2 ∀t : |yi (t)| < M ◦−•

Y1 (f ) · Y2 (f )

388

A Fourier-Transformationen

Tabelle A.4: Korrespondenzen der Fourier-Transformation.

1 ◦−• δ(f ) ∞ X

δ(t − nT ) ◦−•

n=−∞

k=−∞

sign(t) ◦−•  σ(t) = ( rT (t) =

dT (t) =

  

2 T

t+1

1−  0

2 T

t

1 0

für t ≥ 0 für t < 0

1

für |t| ≤

0

für |t| >

T 2 T 2

◦−•

für t ∈ [0, ] sonst T 2

◦−•

cos(2πf0 t) ◦−• sin(2πf0 t) ◦−•

e−a|t| sign(t) ,

−j πf 1 j δ(f ) − 2 2πf

◦−• T si(πf T ) = T sinc(f T )

für t ∈ [− T2 , 0]

e−a|t| ,

∞ 1 X  k δ f− T T

a > 0 ◦−•

  T 2 T si πf 2 2 1 (δ(f + f0 ) + δ(f − f0 )) 2 j (δ(f + f0 ) − δ(f − f0 )) 2 2a a + (2πf )2 2

a > 0 ◦−• −j

4πf a2 + (2πf )2

e−at σ(t) ,

a > 0 ◦−•

1 a + j2πf

te−at σ(t) ,

a > 0 ◦−•

1 (a + j2πf )2

2 e−at ,

r a > 0 ◦−•

π −(πf )2 /a e a

B

Zusammenfassung der Laplace-Transformation

Die Laplace-Transformation bildet eine Zeitfunktion y(t) in den s-Bereich mit einer komplexen Variablen s ab. Die Transformationsvorschriften sind für die einseitige LaplaceTransformation, die bei kausalen Systemen zum Einsatz kommt, wie folgt gegeben: Y (s) = L{y(t)} =

Z∞

y(t) e−st dt ,

0−

y(t) = L

−1

c+j∞ Z

1 {Y (s)} = j2π

Y (s) est ds .

c−j∞

Der Integrationsweg parallel zur imaginären Achse muss in der Konvergenzhalbebene verlaufen, d. h. auf dem Integrationsweg, und rechts davon ist Y (s) analytisch. In den Tabellen B.1, B.2 und B.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Laplace-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden. Tabelle B.1: Eigenschaften der Laplace-Transformation.

Linearität c1 · y1 (t) + c2 · y2 (t)

◦−•

c1 · Y1 (s) + c2 · Y2 (s)

Inneres Produkt Z∞

y1 (t) y2∗ (t) dt

Z∞ =

−∞

Y1 (s) Y2∗ (s) ds

−∞

Anfangswertsatz lim y(t)

=

lim y(t)

=

t→0+

lim sY (s)

s→∞

Endwertsatz t→∞

lim sY (s)

s→0

390

B Laplace-Transformation

Tabelle B.2: Rechenregeln der Laplace-Transformation.

Zeitverschiebung nach rechts, t0 > 0 y(t − t0 )

◦−•

 Z −t s 0 e Y (s) +

0

y(t) e−st dt

−t0

Zeitverschiebung nach links, t0 > 0 y(t + t0 )

◦−•

 Z et0 s Y (s) −

t0

 y(t) e−st dt

0

Dämpfung der Zeitfunktion, α ∈ C y(t) · eαt

◦−•

Y (s − α)

y(at)

◦−•

1 s Y a a

◦−•

sn Y (s) −

Skalierungssatz, a > 0

Differentiation der Zeitfunktion y (n) (t)

n−1 X

sn−1−i y (i) (0−)

i=0

Differentiation der Bildfunktion (−1)n tn y(t)

◦−•

Y (n) (s)

Integration der Zeitfunktion Zt y(τ ) dτ

◦−•

1 Y (s) s

◦−•

1 j2π

0

Multiplikation im Zeitbereich y1 (t) · y2 (t)

c+j∞ Z

Y1 (z) Y2 (s − z) dz c−j∞

Faltung im Zeitbereich Z∞ y1 (t)∗y2 (t) = y1 (τ ) y2 (t − τ ) dτ −∞

◦−•

Y1 (s) · Y2 (s)



391

B Laplace-Transformation

Tabelle B.3: Korrespondenzen der Laplace-Transformation (dabei ist stets y(t) = 0 für t < 0).

δ(t − t0 ), t0 > 0 ◦−• e−t0 s 1 bzw. σ(t) ◦−• t ◦−• 1 2 t 2 1 n t n!

◦−• ◦−•

eαt

◦−•

t eαt

◦−•

1 n αt t e n! t 1 δ(t) − e− T T

◦−• ◦−•

t

1 − e− T ◦−•   t − T t−T 1−e ◦−• sin(ωt) ◦−• cos(ωt) ◦−• e−δt sin(ωt) ◦−• e−δt cos(ωt) ◦−•

1 s 1 s2 1 s3 1 n+1 s 1 s−α 1 (s − α)2 1 (s − α)n+1 Ts 1 + Ts 1 s(1 + T s) 1 s2 (1 + T s) ω s2 + ω 2 s s2 + ω 2 ω 2 s + 2δs + δ 2 + ω 2 s+δ 2 s + 2δs + δ 2 + ω 2

C

Zusammenfassung der z-Transformation

Die z-Transformation bildet eine Wertefolge yn , n ∈ Z, in den z-Bereich mit einer komplexen Variablen z ab. Die Transformationsvorschriften sind wie folgt gegeben: ∞ X

Y (z) = Z{yn } =

yn z −n ,

n=−∞

1 j2π

yn = Z−1 {Y (z)} =

I

Y (z) z n−1 dz .

C

Y (z) ist nur für solche z definiert, für welche die Reihe absolut konvergiert. Das Konvergenzgebiet ist immer ein Kreisringgebiet. Der Integrationsweg C ist ein einfacher geschlossener Weg, der ganz im Innern des Konvergenzgebietes verläuft und sämtliche Singularitäten der z-Transformierten Y (z) umschließt. In den Tabellen C.1, C.2 und C.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der z-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden. Tabelle C.1: Eigenschaften der z-Transformation.

Linearkombination c1 · y1n + c2 · y2n

◦−•

c1 · Y1 (z) + c2 · Y2 (z)

Anfangswertsatz, yn = 0 , n < 0

Endwertsatz

y0

=

lim yn

=

n→∞

Summation

∞ X

yn

lim Y (z)

z→∞

lim (z − 1)Y (z)

z→1

=

Y (1)

=

1 j2π

n=−∞

Parseval’sche Gleichung ∞ X n=−∞

y1n y2n

I C

  1 dz Y1 (z) Y2 z z

394

C z-Transformation

Tabelle C.2: Rechenregeln der z-Transformation und resultierende Konvergenzgebiete (ursprüngliches Konvergenzgebiet: ri+ < |z| < ri− ).

Verschiebungssatz yn−n0

◦−•

z −n0 Y (z) ,

r+ < |z| < r−

Verschiebung um n0 > 0 nach links für kausale Wertefolgen yn+n0

◦−•

z n0 Y (z) −

nX 0 −1

yi z n0 − i ,

r+ < |z|

i=0

Lineare Gewichtung n yn

◦−•

−z

yn · an

◦−•

Y

y−n

◦−•

Y

◦−•

1 j2π

dY (z) , dz

r+ < |z| < r−

Modulation der Wertefolge z  a

,

ar+ < |z| < ar−

,

1 1 < |z| < r− r+

Zeitumkehr 1 z

Multiplikation im Zeitbereich y1n · y2n

I Y1 (ξ) Y2

 z  dξ ξ

ξ

,

C

r1+ r2+ < |z| < r1− r2− Faltung im Zeitbereich y1n ∗ y2n =

∞ X

y1m y2(n−m)

◦−•

Y1 (z) · Y2 (z) ,

m=−∞

maxi {ri+ } < |z| < mini {ri− }

395

C z-Transformation Tabelle C.3: Korrespondenzen der z-Transformation mit Konvergenzgebieten.

δn  δn−k =

◦−• z

−k

 ,

0 < |z| für k > 0 |z| < ∞ für k < 0

1 für n ≥ k 0 für n < k

◦−•

z −k+1 , z−1

−1 , n ≤ −1 0 , n≥0

◦−•

z , z−1

n · σn

◦−•

z , (z − 1)2

1 < |z|

n2 · σn

◦−•

z(z + 1) , (z − 1)3

1 < |z|

an−1 · σn−1

◦−•

1 , z−a

|a| < |z|

an · σn

◦−•

z , z−a

|a| < |z|

n an · σn

◦−•

za , (z − a)2

rn sin(ωn) · σn

◦−•

z r sin ω , z 2 − 2zr cos ω + r2

r, ω ∈ R+ ,

0 ≤ r < |z|

rn cos(ωn) · σn

◦−•

z (z − r cos ω) , z 2 − 2zr cos ω + r2

r, ω ∈ R+ ,

0 ≤ r < |z|

an für 0 ≤ n ≤ N − 1 0 sonst

◦−•

 σn−k =  −σ−n−1 =



1 für n = k 0 für n 6= k

alle z

◦−• 1 ,



|z| < 1

z N − aN , − a)

z N −1 (z

1 < |z| für k ≥ 0 1 < |z| < ∞ für k < 0

|a| < |z|

0 < |z|

D

Blockschaltbilder

In Abbildung D.1 sind die vier wichtigsten Elemente von Blockschaltbildern dargestellt. Dabei finden die Addition, Subtraktion und die Verstärkung sowohl im zeitkontinuierlichen als auch im zeitdiskreten Bereich Anwendung. Die Integration kommt nur im zeitkontinuierlichen und die Verzögerung nur im zeitdiskreten Fall vor.

Abbildung D.1: Elemente von Blockschaltbildern für den zeitkontinuierlichen und zeitdiskreten Bereich.

E

Herleitung der Spline-Interpolation

Das Ziel ist die Interpolation einer vorgegebenen Funktion y(t) durch die Funktion s(t) im Intervall [x0 , xN ] mit den Stützstellen xi , i = 0, . . . , N , und den Werten yi = s(xi ), i = 0, . . . , N . Hierzu bezeichnet man die Interpolationsfunktion im Teilintervall [xi , xi+1 ] mit si (t). Die Gesamtfunktion s(t) setzt sich aus den verschiedenen Funktionen si (t) zusammen. Die Spline-Interpolation ergibt sich nach [KE08] aus den folgenden Forderungen an die Funktion s(t): si (xi ) s00i (xi + 0) s000 (x0 ) s(4) (x)

= yi , = s00i−1 (xi − 0) , = s00n−1 (xN ) , = 0,

i = 0, . . . , N , i = 1, . . . , N − 1 ,

(E.1)

x∈ / {x0 , . . . , xN } .

Diese Forderungen führen zu einer Funktion, die in den Stützstellen mit der Originalfunktion übereinstimmt und die in jedem Teilintervall ein Polynom dritter Ordnung ist [Kro91]. Aus diesem Grund bezeichnet man die interpolierende Funktion s(t) als kubischen Spline. Zur Berechnung solch eines Splines setzt man hi = xi+1 − xi und wählt si (t) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di

(E.2)

als Ansatz für das gesuchte Polynom. Durch oben aufgeführte Bedingungen folgt: si (xi ) si (xi+1 ) s0i (xi ) s0i (xi+1 ) s00i (xi ) s00i (xi+1 )

= di = ai h3i + bi h2i + ci hi + di = ci = 3ai h2i + 2bi hi + ci = 2bi = 6ai hi + 2bi

= yi = yi+1

= yi00 00 = yi+1

.

Es resultieren die Berechnungsvorschriften:  00 ai = 6h1 i yi+1 − yi00 bi = 12 yi00 ci = h1i (yi+1 − yi ) − di = yi .

hi 6

00 yi+1 + 2yi00



(E.3)

400

E Herleitung der Spline-Interpolation

Die Berechnung der gesuchten Koeffizienten wird somit auf die Bestimmung der Werte yi00 zurückgeführt, die sich als Lösung des linearen Gleichungssystems    00  y1 2(h0 + h1 ) h1 0 ··· 0    y200  h 2(h + h ) h 0 · · · 0 1 1 2 2       ..  .. .. ..    . .  . . 0     =  

···

0 0 hN −2 2(hN −2 + hN −1 )  6 6 h1 (y2 − y1 ) + h0 (y1 − y0 )  6 6  h2 (y3 − y2 ) + h1 (y2 − y1 )   ..  .  6 6 (y − y ) + (y − y ) N N −1 N −1 N −2 hN −1 hN −2

00 yN −1

00 ergeben. Da y000 und yN vorgegeben sind, kann nach der Lösung des Gleichungssystems die Interpolationsfunktion in jedem Teilintervall angegeben werden. Exemplarisch wird dies bei der Angabe der Impulsantwort eines Spline-Rekonstruktionsfilters durchgeführt.

Beispiel 5.4 (Impulsantwort eines Spline-Rekonstruktionsfilters) Geben wir uns mit N = 4 die Stützstellen x0 = −2, x1 = −1, x2 = 0, x3 = 1, x4 = 2 00 und die Bedingungen g000 (x0 ) = gN −1 (xN ) = 0 vor, so erhalten wir mit y0 = 0, y1 = 0, y2 = 1, y3 = 0, y4 = 0 und hi = 1 für alle Indizes i die Gleichung    00    2 · (2) 1 0 y1 6 · (1) − 6 · (0)  1 2 · (2) 1   y200  =  6 · (−1) − 6 · (1)  (E.5) 0 1 2 · (2) y300 6 · (0) − 6 · (−1) und daraus    y100 18/7  y200  =  −30/7  . y300 18/7 

Durch Ausrechnen der Parameter ai , bi , ci und di folgt 3 3 3  7 (t + 2) − 7 (t + 2)     − 8 (t + 1)3 + 9 (t + 1)2 + 6 (t + 1) 7 7 g(t) = 8 73 15 2   7t − 7 t + 1    3 − 7 (t − 1)3 + 97 (t − 1)2 − 67 (t − 1)

(E.6)

für − 2 ≤ t ≤ −1 für − 1 ≤ t ≤ 0 für 0 ≤ t ≤ 1

(E.7)

für 1 ≤ t ≤ 2 . •

Literaturverzeichnis [Ach85]

Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung. Springer-Verlag, Heidelberg, 1985.

[BS75]

Brammer, K. und G. Siffling: Stochastische Grundlagen des KalmanBucy-Filters. Oldenbourg-Verlag, München, 1975.

[BS93]

Bolch, G. und M.-M. Seidel: Prozeßautomatisierung. B. G. Teubner, Stuttgart, 2. Auflage, 1993.

[BS00]

Bronstein, I. N. und K. A. Semendjajew: Taschenbuch der Mathematik. Verlag Harri Deutsch, Thun und Frankfurt/Main, 2000.

[CW04]

Clausert, H. und G. Wiesemann: Grundgebiete der Elektrotechnik. Oldenbourg-Verlag, München, Wien, 9. Auflage, 2004.

[Doe76]

Doetsch, G.: Einführung in Theorie und Anwendung der LaplaceTransformation. Birkhäuser, Basel, 1976.

[Fli91]

Fliege, N.: Systemtheorie. B. G. Teubner, Stuttgart, 1991.

[Föl80]

Föllinger, O.: Laplace- und Fouriertransformation. AEG-Telefunken, Berlin, 1980.

[Föl06]

Föllinger, O.: Regelungstechnik. Hüthig, Heidelberg, 2006.

[Heu86]

Heuser, H.: Funktionalanalysis. B. G. Teubner, Stuttgart, 1986.

[Heu04]

Heuser, H.: Lehrbuch der Analysis. B. G. Teubner, Stuttgart, 2004.

[HW98]

Heuser, H. und H. Wolf: Algebra, Funktionalanalysis und Codierung. B. G. Teubner, Stuttgart, 1998.

[Hän83]

Hänsler, E.: Grundlagen der Theorie statistischer Signale. Springer-Verlag, Berlin, Heidelberg, New York, 1983.

[Ise74]

Isermann, R.: Prozeßidentifikation. New York, 1974.

[Jur64]

Jury, E.: Theory and Application of the z-Transform Method. John Wiley & Sons, New York, 1964.

[JW02]

Jondral, F. und A. Wiesler: Wahrscheinlichkeitsrechnung und stochastische Prozesse. B. G. Teubner, Stuttgart, 2002.

Springer-Verlag, Berlin, Heidelberg,

402

Literaturverzeichnis

[Jän96]

Jänich, K.: Funktionentheorie: eine Einführung. Springer-Verlag, Berlin, Heidelberg, 6. Auflage, 1996.

[KA78]

Kantorowitsch, L. W. und G. P. Akilow: Funktionalanalysis in normierten Räumen. Verlag Harri Deutsch, Frankfurt/Main, 1978.

[KE08]

Kiencke, U. und R. Eger: Messtechnik. Springer-Verlag, Heidelberg, 7., erw. u. korr. Aufl. Auflage, 2008.

[KK09]

Kammeyer, K.-D. und K. Kroschel: Digitale Signalverarbeitung: Filterung und Spektralanalyse. Vieweg + Teubner, Wiesbaden, 7. Auflage, 2009.

[Kro91]

Kronmüller, H.: Digitale Signalverarbeitung. Springer-Verlag, Berlin Heidelberg, 1991.

[KSW08] Kiencke, U., M. Schwarz und T. Weickert: Signalverarbeitung – ZeitFrequenz-Analyse und Schätzverfahren. Oldenbourg-Verlag, München, 2008. [Mar86]

Marko, H.: Methoden der Systemtheorie. Springer-Verlag, Berlin, Heidelberg, New York, London, Paris, Tokyo, 2. Auflage, 1986.

[Mer96]

Mertins, A.: Signaltheorie. B. G. Teubner, Stuttgart, 1996.

[OS75]

Oppenheim, A. and R. Schafer: Digital Signal Processing. Prentice-Hall, Englewood Cliffs, 1975.

[OS98]

Oppenheim, A. und R. Schafer: Digitale Signalverarbeitung. OldenbourgVerlag, München, Wien, 3. Auflage, 1998.

[Pap77]

Papoulis, A.: Signal Analysis. McGraw-Hill, New York, 1977.

[SS67]

Sauer, R. und I. Szabo: Mathematische Hilfsmittel des Ingenieurs, Band 1. Springer-Verlag, Heidelberg, 1967.

[Unb98]

Unbehauen, R.: Systemtheorie – 2. Mehrdimensionale, adaptive und nichtlineare Systeme. Oldenbourg-Verlag, München, Wien, 7. Auflage, 1998.

[Unb02]

Unbehauen, R.: Systemtheorie – 1. Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. Oldenbourg-Verlag, München, Wien, 8. Auflage, 2002.

Index Abstand, 12 Funktion, 52 zweidimensionaler euklidischer Raum, 13 Abtastfrequenz, 212, 234–250, 261 Abtasttheorem, 213–218, 231 Abtastzeit, 212, 261 Addition Funktionen, 52 Vektoraddition, 13 adjungierter Operator, 33 Aliasing, 218 Allpass, 314, 315 Allpass zeitkontinuierlich, 178 Amplitude, 172, 306 Amplitudenfehler, 266 Amplitudengang, 172, 306 Analyse harmonisch, 82 analytisches Signal, 205 Anfangswertsatz, 155, 301 AR-Filter zeitdiskret, 318 zeitkontinuierlich, 183 ARMA-Filter zeitdiskret, 318 zeitkontinuierlich, 183 Ausfallrate, 63 Ausgangsgleichung, 141, 283 Autokorrelation, 68 Leistungssignal, 75 Autokovarianz, 68 Bandbegrenzung, 213 Bandbreite, 120, 244 Bandpass symmetrischer, 190 Bandspektren symmetrisch, 246 unsymmetrisch, 247

Basis, 19–25 orthogonal, 77 orthonormal, 21 Basisvektor, 6, 19 Beobachtungsdauer, 261 Beobachtungsfrequenz, 261 Beobachtungsmatrix, 143 Beobachtungszeit, 251 Bessel’sche Ungleichung, 24 bilineare Transformation, 339 biorthogonales Funktionensystem, 80–81 Biorthogonalitätsbedingung, 81 Bode-Diagramm, 176 Butterworth-Filter, 192 Cauchy’sche Integralformel, 40–42 Cauchy’scher Integralsatz, 40 Cauchy-Kriterium, 25 CD-Spieler, 64 Cosinus-Transformation, 99–102 Dämpfung, 172 Darstellungsmatrix, 37 Dekade, 176 Delta-Distribution, siehe Dirac-Impuls deterministisches Signal, 77–81 DFT, 251–255, 262, 263 Eigenschaften, 258 Energiesatz, 260 Faltungssatz, 259 Parseval’sche Formel, 260 Differentialgleichung, 139–145 Differentialoperator, 36, 38 Differenzengleichung, 281–284 Dimension, 19 Dirac-Funktion, siehe Dirac-Impuls Dirac-Impuls zeitdiskret, 278 zeitkontinuierlich, 102 Dirac-Stoß, siehe Dirac-Impuls Diskrete Fourier-Transformation, 251–255, 262, 263

404 inverse, 252 diskrete Transformationen, 269–273 diskrete Zufallsvariablen, 227 doppelseitige Exponentialfunktion, 107 Dreieckimpuls, 125 Dreiecksungleichung, 12, 13, 15, 17 Durchlassbereich, 188 Durchschaltmatrix, 143 Dynamik, 133, 277 Eigenvektor, 33, 34 selbstadjungierter Operator, 35 Einheitssprung, 104, 149 Einleitung, 3–9 Elektronenspin, 64 Elementarereignis, 57 Endwertsatz, 156, 302 Energiedichte, 98, 233–234 Energiedichtespektrum, 268 Energiesignal, 52 Ergodizität, 71–74 Erwartungswert, 56 euklidischer Raum, 14 Exponentialfunktion doppelseitig, 107 Exponentialimpuls, 106 Exponentialsignal, 108 Exponentialverteilung, 62–63 Faltung, 94 Laplace-Transformation, 154 Fenster, 186–187, 341–349 Fensterfunktion, 111 Fensterfunktionen, 186–187, 341–349 FFT, 256 Filter, 187–200, 350–370 AR, 183, 318 ARMA, 183, 318 frequenzselektiv, 350–370 MA, 183, 318 Filterentwurf, 351 Filtertransformation, 189 FIR, 279 Fourier-Reihe, 77, 81–87 komplexe Darstellung, 85 Fourier-Transformation, 88–102, 163 diskret, 251–255, 262, 263 Eigenschaft, 93–97 schnell, 256

Index zeitdiskret, 228–234 Frequenzauflösung, 260 Frequenzband, 244 Frequenzfehler, 266 Frequenzgang, 139, 171, 280 Frequenzverschiebung, 97 Funktion, 32 holomorph, 40–48 Funktional, 31, 32 Funktionenaddition, 52 Funktionenraum, 14, 51 Funktionensystem biorthogonal, 80–81 orthogonal, 77–80 orthonormal, 77 Gauß-Impuls, 110 geometrische Reihe, 291 endliche, 262 Gibbs’sches Phänomen, 113–118 Gleichverteilung, 59–60 Gram’sche Matrix, 20 Gram-Schmidt’sches Orthonormalisierungsverfahren, 21 Gruppenlaufzeit, 173, 307 Hadamard-Matrix, 273 harmonische Analyse, 82 Hermite’sche Matrix, 20 Hilbert-Raum, 18–19 Hilbert-Transformation, 200–208 zeitdiskret, 372 holomorphe Funktion, 40–48 IDFT, 252 IIR, 279 Impulsantwort, 134, 135, 278, 279 eines kausalen LTI-Systems, 135, 280 eines stabilen LTI-Systems, 137, 280 Impulsfunktion, siehe Dirac-Impuls Impulsinvarianz, 334 Impulsreihe, 211 Innenprodukt, 15–17, 77 Belegung, 56 Energiesignal, 54 Innenproduktraum, 15 Integraloperator, 36, 37 Integraltransformation, 26

Index Integration numerisch, 337 Integrationskern, 26 Interpolationsfilter, 221 inverse z-Transformation, 291 geometrische Reihe, 291 Partialbruchzerlegung, 295 Polynomdivision, 295 Residuensatz, 292 Transformationstabelle, 298 Kardinalsinus, siehe Sinc-Funktion kausal, 132 Kausalität LTI-System, 135, 280 Kausalität, 132, 277 Kerbfilter, 311 Kern reziproker, 27 komplexe Leistung, 18 komplexe Schwingung, 105 konstantes Signal, 104 Konvergenz Laplace-Transformation, 149 z-Transformation, 287 Konvergenzgebiet, 150, 151 Korrelation, 74, 76, 96, 98 Energiesignal, 75 Leistungssignal, 75 Kovarianz, 74 Kreisfrequenz normiert, 230 Kreuzkorrelation, 56, 68 Energiesignal, 75 Leistungssignal, 75 Kreuzkovarianz, 68 Laplace-Transformation, 146–163 Anfangswertsatz, 155 Differentiation, 153 Eigenschaft, 152–156 einseitige, 148 Endwertsatz, 156 Faltung, 154 Grenzwertsatz, 155 inverse, 151 Konvergenz, 149 Linearität, 152 Rücktransformation, 156

405 Skalierung, 154 Verschiebung im Frequenzbereich, 153 Verschiebung im Zeitbereich, 152 zweiseitige, 146 Lattenzaun-Effekt, 253, 255 Laurent-Reihe, 42–46 Leakage, 111–113 Leckeffekt, 111–113, 253, 263 Legendre-Polynome, 77 Leistungsdichte, 98, 233–234 Leistungssignal, 53 lineare Unabhängigkeit, 20 lineare Vektortransformation, 36, 37 linearer Operator, 31–39 linearer Raum, 13–14 lineares, zeitinvariantes System, 134–139, 278–280 Linearität, 130, 131, 276 LTI-System, 134–139, 278–280 kausal, 135 reellwertig, 166 stabil, 133 MA-Filter zeitdiskret, 318 zeitkontinuierlich, 183 mathematische Grundlagen, 11–48 Matrixoperator, 32 mehrdimensionale Verteilungsfunktion, 65 mehrdimensionale Wahrscheinlichkeitsdichte, 66 Mehrgrößensystem, 139, 143, 281 Metrik, 12 metrischer Raum, 12–13 MIMO, 139, 281 Minimalphasensystem, 314, 315 zeitdiskret, 315 zeitkontinuierlich, 178 MISO, 139, 281 Mittelwert, 56 Mittelwertfilter zeitdiskret, 326 Mittenfrequenz, 244 Modulation, 97 Moment, 67–69, 74 erstes, 68 stochastischer Prozess, 67 zentrales, 67, 74

406 zweites, 68 zweites zentrales, 68 Musterfunktion, 63 Norm Belegung, 56 Energiesignal, 54 Leistungssignal, 55 Normalverteilung, 60–62 normierte Kreisfrequenz, 230 normierter Raum, 15 Notch-Filter, 311 Nullstelle, 165 numerische Integration, 337 Nyquistband, 222, 261 Nyquistfrequenz, 222 offline, 234 Oktave, 176 on-line, 234 Operator, 31–39 adjungiert, 33 Beschränktheit, 33 Differentialoperator, 36, 38 Integraloperator, 36, 37 linear, 31–39 selbstadjungiert, 35 Stetigkeit, 32 unitär, 35 unitärer Matrixoperator, 35 Verschiebungsoperator, 39 Ordnung eines Systems, 141 orthogonale Basis, 77 orthogonale Projektion, 25 orthogonaler Raum, 23 orthogonales Funktionensystem, 77–80 Orthogonalität, 17 orthonormale Basis, 21 orthonormales Funktionensystem, 77 Parallelschaltung, 169, 170 Parselval’sche Beziehung, 92 Partialbruchzerlegung, 159, 295–298 Periodizität, 230 Periodogramm, 268 Phase, 172, 307 Phasengang, 172, 307 Poisson’sche Summenformel, 104 Pol-Nullstellenübertragung, 335

Index Polstelle, 165 Polynom trigonometrisch, 82 Polynomdivision, 295 Projektionstheorem, 25 Prozess stochastischer, 63–76 Quadraturfilter, 200, 201 zeitdiskret, 372 Quantisierungsfehler, 60 Quasikausalität, 234, 235 Raum, 11–25 euklidisch, 14 Funktionenraum, 14, 51 Hilbert-Raum, 18–19 Innenproduktraum, 15–17 linear, 13–14 metrisch, 12–13 normiert, 15 orthogonal, 23 unitär, 17–18 Rauschspannung, 64 Rechenaufwand, 255 Rechteckfunktion, 105 Rechteckregel rückwärts, 338 vorwärts, 338 Reihenschaltung, 169, 170 Rekonstruktion, 221–227, 238 Rekonstruktionsfilter, 221 Residuensatz, 46–48, 156, 292 Residuum, 47 Reziprozitätsbedingung, 27 Riemann-Lebesgue’sches Lemma, 122–127 RMS-Definition, 120 Root-Mean-Square-Definition, 120 Scharmittelwert, 71 Schmidt’sches Orthonormalisierungsverfahren, siehe Gram-Schmidt’sches Orthonormalisierungsverfahren, 77, 78 schnelle Fourier-Transformation, 256 Schwarz’sche Ungleichung, 16 Schwingung komplex, 105

407

Index Selbstadjungierter Operator, 35 Si-Funktion, siehe Sinc-Funktion σ-Algebra, 58 Signal abgetastet, 228 deterministisch, 77–81 Energiesignal, 52 kausal, 137 konstant, 104 Leistungssignal, 53 stochastisch, 57–76, 227–228 Testsignal, 102–109 zeitdiskret, 211–273 zeitkontinuierlich, 51 Signaleigenschaften, 119–127 Signalfolge, 9 Signalfunktion, 9 Signalklassen, 52 Signaltransformation, 7 Signalverarbeitung, 6 Signumfunktion, 104 SIMO, 139, 281 Sinc-Funktion, 105 Sinus cardinalis, siehe Sinc-Funktion Sinus-Transformation, 99–102 SISO, 139, 281 Skalarmultiplikation, 13 Funktionen, 52 Spaltfunktion, siehe Sinc-Funktion Spektralanalyse, 250–268 Sperrbereich, 188 Stabilität, 133, 166, 278, 305 LTI-System, 137, 280 Standardnormalverteilung, 61 Stationarität, 69–71 statische Genauigkeit, 335 statistische Unabhängigkeit, 66 Steuermatrix, 143 Stichprobenraum, 57–58 stochastischer Prozess, 63–76 stochastisches Signal, 57–76, 227–228 Strukturbild zeitdiskret, 318 zeitkontinuierlich, 183 System, 4 linear zeitinvariant, 134–139, 278–280 Stabilität, 133, 278 zeitdiskret, 275–380

Eigenschaften, 275–281 zeitkontinuierlich, 129–208 Eigenschaften, 129–139 Systemfunktion, 163–186 Systemmatrix, 143 Systemordnung, 141 Testsignal, 102–109 Tiefpass normiert, 189 Entwurf, 191 Toleranzschema, 188 Transformation bilineare, 339 Trapezregel, 339 trigonometrisches Polynom, 82 Tschebyscheff-Filter, 195 Übertragungsfunktion, 161, 163–186 Übertragungsmatrix, 162 Überabtastung, 235 Rekonstruktion, 238 Überschwinger, 118 unitärer Matrixoperator, 35 unitärer Operator, 35 unitärer Raum, 17–18 Unterabtastung, 243 Vektoraddition, 13 Vektortransformation linear, 36, 37 verallgemeinerter Fourier-Koeffizient, 24 Verbundwahrscheinlichkeitsdichte, 56 Verschiebungsoperator, 39 Verteilungsfunktion, 58, 65 mehrdimensional, 65 Vorzeichenfunktion, 104 Wahrscheinlichkeit, 57–58 Wahrscheinlichkeitsdichte, 56, 58–66 mehrdimensional, 66 Wahrscheinlichkeitsraum, 58, 63 Wahrscheinlichkeitsverteilung, 58–63 Walsh-Funktionen, 269 Walsh-Leistungsspektrum, 271 Walsh-Transformation, 269 z-Transformation, 284–302 Anfangswertsatz, 301

408 Eigenschaften, 298 Endwertsatz, 302 Existenz, 287 invers, 291 Konvergenz, 287 Zeitdauer, 120 Zeitdauer-Bandbreite-Produkt, 119–122 zeitdiskrete Fourier-Transformation, 228–234 zeitdiskretes Signal, 211–273 Grundlage, 211–227 zeitdiskretes System Eigenschaften, 275–281 Zeitdiskretisierung, 9, 211–212 Zeitinvarianz, 131, 277 zeitkontinuierliche Signale, 51 zeitkontinuierliches System, 129–208 Eigenschaften, 129–139 Zeitkontinuum, 9 Zeitmittelwert, 72 Zeitverschiebung, 97 Zero-Padding, 267 Zufallsexperiment, 57 Zufallsvariable, 14, 58–63 Zufallsvariablen diskret, 227 Zustandsgleichung, 141, 283 Zustandsgröße, 140 Zustandsraum, 140–145, 282

Index