292 79 6MB
German Pages [463] Year 2009
Signale und Systeme von Prof. Dr. Uwe Kiencke, Dr.-Ing. Holger Jäkel 4., korrigierte Auflage
Oldenbourg Verlag München
Prof. Dr. Uwe Kiencke lehrt seit 1992 an der Universität Karlsruhe (TH) am Institut für Industrielle Informationstechnik (IIIT). Nach Studium und Promotion war er von 1972 – 1987 bei der Robert Bosch GmbH, Schwieberdingen und von 1988 – 1992 bei Siemens Automotive, Regensburg. 1987 wurde er mit dem Arch T. Colwell Merit Award der Society of Automotive Engineers (USA) ausgezeichnet. Dr.-Ing. Holger Jäkel (Jg. 1973) wurde 2003 an der Universität Karlsruhe (TH), Fakultät für Informatik, promoviert. Er arbeitet am Institut für Nachrichtentechnik. Seine Forschungsgebiete sind Signalverarbeitung in der Nachrichtentechnik, Ultra Wide Band Kommunikation, Cognitive Radio und Dynamische Ressourcenallokation.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© 2008 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D -81671 München Telefon: (089) 4 50 51- 0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Anton Schmid Herstellung: Dr. Rolf Jäger Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg ISBN 978-3-486-58734-0
Vorwort zur vierten Auflage Die vierte Auflage des vorliegenden Buches brauchte inhaltlich nicht überarbeitet zu werden. Dank vieler Anregungen von Hörern der gleichnamigen Vorlesung konnten allerdings wieder etliche Fehler korrigiert werden. Weiterhin bedanken wir uns bei Herrn Dipl.-Ing. Thomas Weickert, der das Manuskript gepflegt hat. Uwe Kiencke, Holger Jäkel
Karlsruhe, im März 2008
Vorwort zur dritten Auflage Aufgrund der großen Nachfrage wurde schneller als erwartet eine dritte Auflage notwendig. Bei dieser Gelegenheit wird der Phasenwinkel an die in der angelsächsischen Literatur übliche Definition angepasst. Durch Hinweise von Lesern und Hörern konnten erneut Fehler korrigiert bzw. Erläuterungen verbessert werden. Besonderer Dank gilt Herrn Benedikt Merz für wertvolle Hinweise und die Korrektur des Manuskripts. Weiterhin danken wir dem OldenbourgVerlag für die wiederum ausgezeichnete Zusammenarbeit. Uwe Kiencke, Holger Jäkel
Karlsruhe, im Juli 2005
Vorwort zur zweiten Auflage In der vorliegenden zweiten Auflage wurde die Struktur des Buches „Signale und Systeme“ beibehalten, weil sie sich im Lehrbetrieb bewährt hat. Viele Ableitungen wurden aber mit dem Ziel besserer Verständlichkeit überarbeitet sowie Abbildungen und Beispiele hinzugefügt. Erweitert wurden die Abschnitte über den Entwurf von Filtern, weil sie eine in der Praxis wichtige Anwendung der zuvor präsentierten Grundlagen darstellen. Die erste Auflage war unter großem Zeitdruck entstanden, um ein Textbuch zur gleichnamigen Vorlesung anbieten zu können. Seit dem Erscheinen der ersten Auflage dieses Buches kamen gerade von Seiten der Studenten viele Verbesserungsvorschläge und Fehlerkorrekturen, die möglichst vollständig aufgenommen wurden. Außerdem wurden in vielen Abschnitten Erweiterungen eingefügt. In der nun vorliegenden zweiten Auflage konnten viele Fehler korrigiert werden, die sich daraus ergeben haben. Den Lesern und Hörern der Vorlesung, die durch ihre Hinweise dazu beigetragen haben, sei herzlich gedankt. Weiterhin gilt der Dank wiederum dem Oldenbourg-Verlag für die ausgezeichnete Zusammenarbeit. Uwe Kiencke, Holger Jäkel
Karlsruhe, im Juni 2002
VI
Vorwort Das vorliegende Studienbuch zum Thema „Signale und Systeme“ wendet sich an Studenten der Fachrichtung Elektrotechnik an wissenschaftlichen Hochschulen sowie an Ingenieure und Naturwissenschaftler, die einen Einblick in dieses Gebiet gewinnen wollen. Es entstand in Zusammenhang mit der gleichnamigen Vorlesung an der Universität Karlsruhe. Das vorliegende Buch kann somit zur Begleitung einer etwa drei Semesterwochenstunden umfassenden Vorlesung benutzt werden. Zur Nutzung dieses Buches werden grundlegende Kenntnisse in der Elektrotechnik, gute Kenntnisse in der höheren Mathematik, der Wahrscheinlichkeitsrechnung und Grundkenntnisse in der Fourier- und Laplace-Transformation vorausgesetzt. Die mathematischen Grundlagen führen den Begriff des Hilbert-Raumes ein. Auf dieser Basis können Gesetzmäßigkeiten aus dem euklidischen Vektorraum auf den Funktionenraum übertragen werden. Bei den Transformationen geht es um deren wichtigste Eigenschaften in praktischen Anwendungen. Die Fourier-Transformation wird üblicherweise auf Signale, die Laplace- und z-Transformation auf Systeme angewendet. Die Signale und Systeme werden dabei zuerst im kontinuierlichen und dann im diskreten Zeitbereich betrachtet. Gerade die erste Auflage eines Buches kann, trotz mehrmaligen Durchschauens, nicht ohne Fehler sein. Verbesserungsvorschläge und Fehlerkorrekturen sind dem Autor jederzeit willkommen. Abschließend danke ich Herrn Dipl.-Ing. Ralf Schernewski, dessen großes Engagement wesentlich zum Gelingen dieses Buches beigetragen hat; insbesondere danke ich für die Erstellung der LATEX-Dateien, das Durchrechnen der Beweise und die langen konstruktiven Diskussionen, in denen der klare und verständliche Aufbau dieses Buches entstanden ist. Außerdem möchte ich dem Oldenbourg-Verlag für die gute Zusammenarbeit danken. Uwe Kiencke
Karlsruhe, im November 1997
Inhaltsverzeichnis I
Einführung
1
1
Einleitung
3
1.1
Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2
Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Signalverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4
Struktur des Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2
Mathematische Grundlagen
2.1 2.1.1
Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Metrische und lineare Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 2.2.1 2.2.2
Integraltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Integrationskerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Zweidimensionale Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 2.3.1 2.3.2 2.3.3 2.3.4
Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Typen von linearen Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verschiebungsoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31 31 36 37 40
2.4 2.4.1 2.4.2 2.4.3
Holomorphe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cauchysche Integralformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Residuensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40 41 43 47
II
Zeitkontinuum
11
51
3
Zeitkontinuierliche Signale
53
3.1 3.1.1 3.1.2 3.1.3
Funktionenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt mit Belegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53 55 56 58
VIII
Inhaltsverzeichnis
3.2 3.2.1 3.2.2
Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 3.3.1 3.3.2
Deterministische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Orthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Biorthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.4
Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.5 3.5.1 3.5.2 3.5.3 3.5.4
Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cosinus- und Sinus-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89 91 94 98 99
3.6 3.6.1 3.6.2 3.6.3 3.6.4 3.6.5 3.6.6 3.6.7 3.6.8 3.6.9 3.6.10
Testsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konstantes Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einheitssprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Komplexe Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doppelseitige Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gauß-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
101 101 103 103 104 104 105 105 106 107 108
3.7 3.7.1 3.7.2
Besonderheiten der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Leckeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Gibbssches Phänomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.8 3.8.1 3.8.2
Allgemeine Signaleigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Zeitdauer-Bandbreite-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Riemann-Lebesguesches Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4
Zeitkontinuierliche Systeme
4.1 4.1.1 4.1.2
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.2 4.2.1
Beschreibung durch Differenzialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5
Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konvergenz der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
127
144 144 147 149 150 155
Inhaltsverzeichnis
IX
4.3.6 4.3.7
Anwendung bei der Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Vergleich zwischen Laplace- und Fourier-Transformation . . . . . . . . . . . . . . . 162
4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.5 4.4.6
Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bode-Diagramme für Dämpfung und Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung kontinuierlicher LTI-Systeme . . . . . . . . . . . . . . . . . . . . . .
4.5
Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.6 4.6.1 4.6.2 4.6.3
Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Filtertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entwurf normierter Tiefpässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bestimmung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7
Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
III
162 164 168 170 175 178 182
188 189 191 198
Zeitdiskretisierung
209
5
Zeitdiskrete Signale
211
5.1 5.1.1 5.1.2 5.1.3 5.1.4
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
211 211 213 217 220
5.2
Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.3 5.3.1 5.3.2 5.3.3
Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4 5.4.1 5.4.2
Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Überabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Unterabtastung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
5.5 5.5.1 5.5.2 5.5.3 5.5.4 5.5.5 5.5.6 5.5.7 5.5.8
Spektralanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskrete Fourier-Transformation, DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schnelle Fourier-Transformation, FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auflösung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung ohne Leckeffekt . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung mit Leckeffekt . . . . . . . . . . . . . . . . . . . . . . Zeropadding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
227 228 231 232
250 250 254 256 258 260 262 265 267
X
Inhaltsverzeichnis
5.6 5.6.1 5.6.2
Weitere diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Walsh-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Allgemeine diskrete Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6
Zeitdiskrete Systeme
6.1 6.1.1 6.1.2
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
6.2 6.2.1
Beschreibung durch Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
6.3 6.3.1 6.3.2 6.3.3 6.3.4 6.3.5
Die z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Möglichkeiten der Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
282 282 285 289 290 297
6.4 6.4.1 6.4.2 6.4.3 6.4.4 6.4.5
Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung zeitdiskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . .
301 303 304 305 314 318
6.5 6.5.1 6.5.2
Linearphasige Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 Linearphasige FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
6.6 6.6.1 6.6.2 6.6.3 6.6.4 6.6.5
Zeitdiskrete Darstellung kontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . . Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Umsetzung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol-Nullstellenübertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
332 333 333 334 335 337
6.7 6.7.1 6.7.2 6.7.3 6.7.4 6.7.5 6.7.6 6.7.7 6.7.8
Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechteckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dreieckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hanning-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dolph-Tschebyscheff-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretes Gauß-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
340 342 343 344 345 346 346 347 348
6.8 6.8.1 6.8.2
Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Kausales FIR-Filter über Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Akausales FIR-Filter über die DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
273
Inhaltsverzeichnis
XI
6.8.3 6.8.4
IIR-Filter über die zeitdiskrete Übertragungsfunktion . . . . . . . . . . . . . . . . . . 363 FIR-Filter über Transformation des Frequenzganges . . . . . . . . . . . . . . . . . . . . 367
6.9 6.9.1 6.9.2 6.9.3
Spezielle zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskrete Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskreter Differenzierer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korrektur der Gruppenlaufzeit eines Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . .
371 371 377 379
A
Fourier-Transformationen
383
B
Laplace-Transformation
391
C
z-Transformation
395
D
Blockbilder
399
E
Herleitung der Spline-Interpolation
401
F
Symbole
403
Literaturverzeichnis
405
Index
407
Teil I
Einführung
1
Einleitung
Wenn man ein Buch über Signale und Systeme schreibt, so stellen sich am Anfang die Fragen: Was sind Signale? Was sind Systeme? Neben der Materie und der Energie, die durch Einsteins Formel E = m · c2 verknüpft sind, ist der Begriff „Information“ von großer Bedeutung. Informationen können, genauso wie Materie und Energie, gewonnen, verarbeitet, transportiert, gelagert und „gebraucht“ werden. Der Weg der Stahlkarosserie eines Automobiles lässt sich etwa so beschreiben: Eisenerz wird gewonnen, dann in Hochöfen zu Rohstahl verarbeitet, zum Automobilhersteller transportiert, dort zwischengelagert und danach wird daraus die Karosserie gefertigt. Auch für die Energie lässt sich ein Beispiel angeben: Die potentielle Energie eines Staudamms wird in kinetische Energie des herabströmenden Wassers umgewandelt. In der Wasserturbine geht diese dann über in die rotatorische Energie des Turbine-GeneratorSystems. Der Generator erzeugt daraus elektrische Energie, die hochtransformiert zum Verbraucher transportiert wird. Es soll hier nicht darüber diskutiert werden, welche Möglichkeiten es gibt, Materie und Energie zu gewinnen, zu verarbeiten, zu transportieren, zu lagern und zu nutzen, sondern diese Kette soll auf Informationen angewandt werden. Unabhängig vom abstrakten Begriff „Information“ ist diese in unserer technischen Welt immer als physikalische Größe, d.h. als Signal, dargestellt. So kann man also Signale gewinnen („messen“), verarbeiten, übertragen, speichern und nutzen („regeln und steuern“). Die Signalgewinnung, d.h. das Messen physikalischer Größen, ist im Bereich der Messtechnik behandelt. Die Signalübertragung findet ihren Platz in der Nachrichtentechnik. In der heutigen technischen Welt werden Signale zum Beispiel dazu verwendet, um Prozesse zu regeln und zu steuern. Das Speichern von Signalen ist mehr ein interdisziplinärer Fachbereich, zumal digitale Signale äußerst einfach gespeichert werden können. Übrig geblieben ist die Signalverarbeitung. Nun sollte es einfacher sein, die Verarbeitung gegenüber den anderen Gliedern der Kette abzugrenzen. Man versteht unter Signalverarbeitung die Aufbereitung unterschiedlichster Signale, um bestimmte Informationen „herauszufiltern“. Genauso wie das Eisen erst aus dem Eisenerz gewonnen werden muss, müssen bestimmte Informationen aus dem „verrauschten“ Signal gefiltert werden. Des Weiteren können, entsprechend der Energie, Signale in andere Signale umgeformt werden. Auch hier erhält man neue Informationen.
4
1 Einleitung
1.1
Signale
Um auf die Frage näher eingehen zu können, was Signale sind, betrachten wir als Erstes nachfolgende Definition.
Unter einem Signal versteht man den sich zeitlich verändernden Verlauf einer beobachteten Größe, die eine für den Betrachter relevante Information enthält.
Beobachtete Größen können unterschiedlicher Natur sein. So kommen gemessene physikalische Größen in Betracht, wie z.B. Spannung und Strom in der Elektrotechnik oder Schalldruck und Schallschnelle in der Akustik. Die physikalische Größe braucht in vielen Fällen gar nicht unmittelbar messbar zu sein, wenn es gelingt, sie aus anderen vorhandenen Messgrößen zu schätzen. Solche Schätzverfahren sind allerdings nicht Gegenstand dieses Buches. Die beobachtete Größe kann aber auch ganz anderer Natur sein, z.B. das Datenwort in einem Computer oder Daten, die über das Internet bezogen werden. So ist der zeitliche Verlauf des Börsenkurses einer Aktie ein Signal. Die Aktienkurse schwanken bekanntlich stark, was als Störung angesehen werden kann. Anleger sind mehr am längerfristigen Kurstrend interessiert. Die Störungen müssen deshalb herausgefiltert werden. Auch dazu dient die Signalverarbeitung. Mathematisch werden Signale durch reell- oder komplexwertige Funktionen der Zeit dargestellt, das heißt, es handelt sich um eindeutige Abbildungen von R nach R oder nach C. Nicht jede Funktion der Zeit repräsentiert ein physikalisch erzeugbares Signal. Es erscheint jedoch notwendig, auch physikalisch nicht realisierbare Signale als Signalmodelle für theoretische Untersuchungen zur Verfügung zu haben.
1.2
Systeme
Unter dem Begriff System versteht man eine Einrichtung, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) antwortet, vgl. Abbildung 1.1.
ye (t)
System
ya (t)=S{ye(t)}
Abbildung 1.1: Zur Definition des Systembegriffs
Mathematisch wird dieses Verhalten durch eine Operatorgleichung beschrieben: ya (t) = S{ye (t)} . Als Beispiele sollen ein Spannungsteiler und ein RC-Tiefpass betrachtet werden.
(1.1)
1.2 Systeme
5
Beispiel 1.2 (Spannungsteiler als System) Eine Eingangsspannung ue (t) wird an einen Spannungsteiler gelegt (siehe Abb. 1.2). Ohne große Rechnung ergibt sich sofort, dass die Ausgangsspannung ua (t) durch ua (t) =
R2 · ue (t) R1 + R2
(1.3)
beschrieben wird. R1 ue(t)
R
ua(t)
2
Abbildung 1.2: Spannungsteiler
Der Spannungsteiler stellt ein System dar, das die Eingangsspannung ue (t) in eine Ausgangsspannung ua (t) überführt. Will man das System mathematisch beschreiben, so dient dazu Gleichung (1.3). • Beispiel 1.4 (RC-Tiefpass als System) Eine Eingangsspannung ue (t) wird an einen RC-Tiefpass gelegt (siehe Abb. 1.3). Mit dem Zusammenhang zwischen Strom und Spannung an einem Kondensator, iC (t) = C ·
duC (t) , dt
(1.5)
kann man den RC-Tiefpass als Differenzialgleichung zwischen der Ausgangsspannung ua (t) und der Eingangsspannung ue (t) darstellen: RC · u˙ a (t) + ua (t) = ue (t) .
(1.6)
Benutzt man hingegen eine Zeigerdiagrammdarstellung aus den Grundlagen der Elektrotechnik, so ergibt sich mit Ua =
1 jωC
R+
1 jωC
· Ue =
1 · Ue 1 + jωRC
R ue(t)
C
ua(t) Abbildung 1.3: RC-Tiefpass
(1.7)
6
1 Einleitung eine andere Darstellung zwischen Ein- und Ausgangsspannung. Während die Darstellung des Systems „RC-Tiefpass“ als Differenzialgleichung für alle möglichen Eingangsspannungen eine Lösung anbietet, gilt die Zeigerdiagrammdarstellung nur bei sinusförmigen Spannungen. •
Anhand der beiden Beispiele zeigt sich, wie schwierig es ist, ein System mathematisch zu beschreiben. Dabei versucht man, wie bei den Signalen, die Systeme durch eine Art Systemfunktion zu beschreiben.
1.3
Signalverarbeitung
Die Aufgabe der Signalverarbeitung ist die gezielte Bereitstellung von Systemen zur kontrollierten Beeinflussung von Signalen. Soll z.B. eine Spannung u(t) halbiert werden, so kann man einen Spannungsteiler verwenden. Da sowohl die Signale als auch die Systeme durch Funktionen dargestellt werden, sind für die Ermittlung einer optimalen Systemfunktion Kenntnisse der Funktionalanalysis nötig. Um die grundlegende Struktur der Untersuchung von Signalen und die gezielte Bereitstellung von Systemen darstellen zu können, wird in diesem Abschnitt statt der Funktionalanalysis die Vektoranalysis, die aus den Grundlagen-Vorlesungen der höheren Mathematik bekannt ist, zur Motivation herangezogen. Dabei werden Signale als eine Art Vektoren dargestellt. Ein N -dimensionaler Vektor y stellt einen Punkt im N -dimensionalen Raum dar, d.h. jedes Signal wird durch einen Punkt dargestellt. Untersucht man nun eines oder mehrere Signale nach bestimmten Eigenschaften, so untersucht man die Lage der den Signalen entsprechenden Punkte im Raum. Beispiel 1.8 (Änderung der Basisvektoren) Es soll untersucht werden, ob gegebene Signale auf einer Geraden liegen. Natürlich könnte man sämtliche Signalpunkte in die Geradengleichung einsetzen und überprüfen, ob sie diese erfüllen. Da aber im Realen Signale gemessene physikalische Größen beschreiben, weisen die Messwerte Störungen auf, d.h. auch wenn sich die physikalische Größe auf der Gerade befand, so befinden sich die Messwerte im Allgemeinen nicht darauf. Eine zweite Möglichkeit bestünde darin, den Abstand zwischen den Punkten und der Geraden zu bestimmen. Überschreitet der Abstand ein bestimmtes Maß nicht, so kann man annehmen, dass der jeweilige Punkt auf der Geraden liegt. Die dritte, und hier weiter betrachtete Möglichkeit ist eine Änderung der Basisvektoren, so dass die Gerade parallel zu bzw. senkrecht auf den Basisvektoren steht. Dann müssen die Koordinaten, zu denen die Gerade senkrecht auf den Basisvektoren steht, innerhalb eines bestimmten Intervalls liegen. Die Änderung der Basisvektoren soll an Abbildung 1.4 exemplarisch gezeigt werden. Während der Punkt P im kartesischen Koordinatensytem die Koordinaten pT = (1, 1) besitzt, lassen sich diese im neuen Basisvektorensystem S = {s1 , s2 },
1.3 Signalverarbeitung
7
2 s
2
P
1
s1
-1
1
2 s1 = , 1 über
Abbildung 1.4: Änderung der Basisvektoren
2
s2 =
1 2 · 1 1 3 p1 = = , 5 2 2 · 1 1
−1 2
,
1 −1 · 1 2 1 = p2 = 5 −1 −1 · 2 2
berechnen. Im Allgemeinen wird die i-te Koordinate eines Vektors im neuen Basisvektorensystem S durch pi =
p · si si · si
(1.9)
angegeben. Handelt es sich bei S um ein orthonormales Basisvektorensystem, so ist der Nenner si · si = 1 und die i-te Koordinate wird durch pi = p · si
(1.10)
bestimmt. Von großer Bedeutung ist also das Innenprodukt „·“ zwischen zwei Vektoren. Mit dem Innenprodukt kann man ein Signal in eine neue Darstellungsweise transformieren. Nach der Einführung eines verallgemeinerten Innenprodukts zwischen zwei Funktionen im Rahmen der Funktionalanalysis kann man mit dem Innenprodukt auch Signaltransformationen im Funktionenraum durchführen. Hierbei sei angemerkt, dass solch eine Transformation nicht das Signal, sondern nur seine Darstellungsweise ändert. So liegt der Punkt P immer noch an der gleichen Stelle. Er besitzt im neuen Basisvektorensystem S nur andere Koordinaten. • Die gesamte Signaluntersuchung verändert also ein Signal nicht, sondern versucht durch geschickte Änderung der Darstellungsweise mehr Aussagen über das Signal zu gewinnen.
8
1 Einleitung
Systeme werden in der Vektoranalysis durch Matrizen S dargestellt. Die Multiplikation eines Eingangssignals y e mit einer Systemmatrix S ergibt ein Ausgangssignal y a : ya = S · ye .
(1.11)
Dies soll mit zwei kleinen Beispielen verdeutlicht werden. Beispiel 1.12 (Projektion auf die x-Achse) Möchte man einen Punkt P im zweidimensionalen Raum auf die x-Achse projizieren, so kann man dies mit Hilfe folgender Systemmatrix S tun: 10 S= . 00 So wird zum Beispiel der Punkt (2, 3)T mit der Systemmatrix S auf den Punkt 2 10 2 = · 0 00 3 •
projiziert. Beispiel 1.13 (Drehung um den Winkel ϕ)
Möchte man einen Vektor zum Punkt P im zweidimensionalen Raum um den Winkel ϕ drehen (siehe Abbildung 1.5), so kann man dies mit Hilfe folgender Systemmatrix S tun: cos ϕ − sin ϕ S= . sin ϕ cos ϕ
y P’
P ϕ x
Abbildung 1.5: Drehung eines Vektors zum Punkt um den Winkel ϕ
1.4 Struktur des Buches
9
So wird zum Beispiel der Punkt (2, 1)T bei einer Drehung von 30◦ mit der Systemmatrix S auf den Punkt √ √ 3 2 3−1 1 2 − 2 √2 √2 = · 3+2 3 1 1 2
2
2
•
abgebildet.
Die beiden Beispiele haben gezeigt, dass ein System im Bereich der Vektoranalysis durch eine Matrix dargestellt werden kann. Im Bereich der Funktionalanalysis werden Systeme durch Systemfunktionen beschrieben.
1.4
Struktur des Buches
Nach einer Einführung in die Funktionalanalysis werden zuerst Untersuchungsmethoden von Signalen und dann Eigenschaften, Darstellung, Untersuchung und Entwurf von Systemen sowohl für kontinuierliche als auch für diskrete Zeitänderungen vorgestellt. Im Zeitkontinuum kann man reale physikalische Prozesse und deren Signale und Systeme beschreiben. Dabei werden die physikalischen Größen in stetige Signale abgebildet, d.h. das Signal kann durch eine Funktion dargestellt werden. Signalfunktion y(t) :
y : R −→ R
(1.14)
Bei der Zeitdiskretisierung liegen die Werte der physikalischen Größe nur zu äquidistanten Zeitpunkten vor, d.h. das Signal wird durch eine Folge dargestellt. Im Gegensatz zur üblichen mathematischen Folge existiert die Signalfolge auch für negative Indizes. Signalfolge yn :
y : Z −→ R
(1.15)
Im Anhang findet man einen Vergleich aller Transformationen für zeitkontinuierliche und zeitdiskrete Signale sowie Tabellen mit Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-, Laplace- und z-Transformation.
Vorwort zur vierten Auflage Die vierte Auflage des vorliegenden Buches brauchte inhaltlich nicht überarbeitet zu werden. Dank vieler Anregungen von Hörern der gleichnamigen Vorlesung konnten allerdings wieder etliche Fehler korrigiert werden. Weiterhin bedanken wir uns bei Herrn Dipl.-Ing. Thomas Weickert, der das Manuskript gepflegt hat. Uwe Kiencke, Holger Jäkel
Karlsruhe, im März 2008
Vorwort zur dritten Auflage Aufgrund der großen Nachfrage wurde schneller als erwartet eine dritte Auflage notwendig. Bei dieser Gelegenheit wird der Phasenwinkel an die in der angelsächsischen Literatur übliche Definition angepasst. Durch Hinweise von Lesern und Hörern konnten erneut Fehler korrigiert bzw. Erläuterungen verbessert werden. Besonderer Dank gilt Herrn Benedikt Merz für wertvolle Hinweise und die Korrektur des Manuskripts. Weiterhin danken wir dem OldenbourgVerlag für die wiederum ausgezeichnete Zusammenarbeit. Uwe Kiencke, Holger Jäkel
Karlsruhe, im Juli 2005
Vorwort zur zweiten Auflage In der vorliegenden zweiten Auflage wurde die Struktur des Buches „Signale und Systeme“ beibehalten, weil sie sich im Lehrbetrieb bewährt hat. Viele Ableitungen wurden aber mit dem Ziel besserer Verständlichkeit überarbeitet sowie Abbildungen und Beispiele hinzugefügt. Erweitert wurden die Abschnitte über den Entwurf von Filtern, weil sie eine in der Praxis wichtige Anwendung der zuvor präsentierten Grundlagen darstellen. Die erste Auflage war unter großem Zeitdruck entstanden, um ein Textbuch zur gleichnamigen Vorlesung anbieten zu können. Seit dem Erscheinen der ersten Auflage dieses Buches kamen gerade von Seiten der Studenten viele Verbesserungsvorschläge und Fehlerkorrekturen, die möglichst vollständig aufgenommen wurden. Außerdem wurden in vielen Abschnitten Erweiterungen eingefügt. In der nun vorliegenden zweiten Auflage konnten viele Fehler korrigiert werden, die sich daraus ergeben haben. Den Lesern und Hörern der Vorlesung, die durch ihre Hinweise dazu beigetragen haben, sei herzlich gedankt. Weiterhin gilt der Dank wiederum dem Oldenbourg-Verlag für die ausgezeichnete Zusammenarbeit. Uwe Kiencke, Holger Jäkel
Karlsruhe, im Juni 2002
VI
Vorwort Das vorliegende Studienbuch zum Thema „Signale und Systeme“ wendet sich an Studenten der Fachrichtung Elektrotechnik an wissenschaftlichen Hochschulen sowie an Ingenieure und Naturwissenschaftler, die einen Einblick in dieses Gebiet gewinnen wollen. Es entstand in Zusammenhang mit der gleichnamigen Vorlesung an der Universität Karlsruhe. Das vorliegende Buch kann somit zur Begleitung einer etwa drei Semesterwochenstunden umfassenden Vorlesung benutzt werden. Zur Nutzung dieses Buches werden grundlegende Kenntnisse in der Elektrotechnik, gute Kenntnisse in der höheren Mathematik, der Wahrscheinlichkeitsrechnung und Grundkenntnisse in der Fourier- und Laplace-Transformation vorausgesetzt. Die mathematischen Grundlagen führen den Begriff des Hilbert-Raumes ein. Auf dieser Basis können Gesetzmäßigkeiten aus dem euklidischen Vektorraum auf den Funktionenraum übertragen werden. Bei den Transformationen geht es um deren wichtigste Eigenschaften in praktischen Anwendungen. Die Fourier-Transformation wird üblicherweise auf Signale, die Laplace- und z-Transformation auf Systeme angewendet. Die Signale und Systeme werden dabei zuerst im kontinuierlichen und dann im diskreten Zeitbereich betrachtet. Gerade die erste Auflage eines Buches kann, trotz mehrmaligen Durchschauens, nicht ohne Fehler sein. Verbesserungsvorschläge und Fehlerkorrekturen sind dem Autor jederzeit willkommen. Abschließend danke ich Herrn Dipl.-Ing. Ralf Schernewski, dessen großes Engagement wesentlich zum Gelingen dieses Buches beigetragen hat; insbesondere danke ich für die Erstellung der LATEX-Dateien, das Durchrechnen der Beweise und die langen konstruktiven Diskussionen, in denen der klare und verständliche Aufbau dieses Buches entstanden ist. Außerdem möchte ich dem Oldenbourg-Verlag für die gute Zusammenarbeit danken. Uwe Kiencke
Karlsruhe, im November 1997
Inhaltsverzeichnis I
Einführung
1
1
Einleitung
3
1.1
Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2
Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Signalverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4
Struktur des Buches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2
Mathematische Grundlagen
2.1 2.1.1
Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Metrische und lineare Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 2.2.1 2.2.2
Integraltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Integrationskerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Zweidimensionale Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 2.3.1 2.3.2 2.3.3 2.3.4
Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Typen von linearen Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verschiebungsoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31 31 36 37 40
2.4 2.4.1 2.4.2 2.4.3
Holomorphe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cauchysche Integralformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Laurent-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Residuensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40 41 43 47
II
Zeitkontinuum
11
51
3
Zeitkontinuierliche Signale
53
3.1 3.1.1 3.1.2 3.1.3
Funktionenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Signalklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm und Innenprodukt mit Belegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53 55 56 58
VIII
Inhaltsverzeichnis
3.2 3.2.1 3.2.2
Stochastische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 3.3.1 3.3.2
Deterministische Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Orthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Biorthogonale Funktionensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.4
Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.5 3.5.1 3.5.2 3.5.3 3.5.4
Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cosinus- und Sinus-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89 91 94 98 99
3.6 3.6.1 3.6.2 3.6.3 3.6.4 3.6.5 3.6.6 3.6.7 3.6.8 3.6.9 3.6.10
Testsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konstantes Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorzeichenfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einheitssprung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Komplexe Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechteckfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialimpuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doppelseitige Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exponentialsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gauß-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
101 101 103 103 104 104 105 105 106 107 108
3.7 3.7.1 3.7.2
Besonderheiten der Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Leckeffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Gibbssches Phänomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.8 3.8.1 3.8.2
Allgemeine Signaleigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Zeitdauer-Bandbreite-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Riemann-Lebesguesches Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4
Zeitkontinuierliche Systeme
4.1 4.1.1 4.1.2
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.2 4.2.1
Beschreibung durch Differenzialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5
Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konvergenz der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
127
144 144 147 149 150 155
Inhaltsverzeichnis
IX
4.3.6 4.3.7
Anwendung bei der Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Vergleich zwischen Laplace- und Fourier-Transformation . . . . . . . . . . . . . . . 162
4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.5 4.4.6
Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bode-Diagramme für Dämpfung und Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung kontinuierlicher LTI-Systeme . . . . . . . . . . . . . . . . . . . . . .
4.5
Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.6 4.6.1 4.6.2 4.6.3
Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Filtertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entwurf normierter Tiefpässe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bestimmung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7
Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
III
162 164 168 170 175 178 182
188 189 191 198
Zeitdiskretisierung
209
5
Zeitdiskrete Signale
211
5.1 5.1.1 5.1.2 5.1.3 5.1.4
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
211 211 213 217 220
5.2
Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.3 5.3.1 5.3.2 5.3.3
Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . . . . . Eigenschaften der Fourier-Transformation zeitdiskreter Signale . . . . . . . . . Energie- und Leistungsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4 5.4.1 5.4.2
Abtastfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Überabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Unterabtastung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
5.5 5.5.1 5.5.2 5.5.3 5.5.4 5.5.5 5.5.6 5.5.7 5.5.8
Spektralanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskrete Fourier-Transformation, DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schnelle Fourier-Transformation, FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auflösung im Zeit- und Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung ohne Leckeffekt . . . . . . . . . . . . . . . . . . . . . DFT einer komplexen Schwingung mit Leckeffekt . . . . . . . . . . . . . . . . . . . . . . Zeropadding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Periodogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
227 228 231 232
250 250 254 256 258 260 262 265 267
X
Inhaltsverzeichnis
5.6 5.6.1 5.6.2
Weitere diskrete Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Walsh-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 Allgemeine diskrete Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
6
Zeitdiskrete Systeme
6.1 6.1.1 6.1.2
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Lineare zeitinvariante Systeme, LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 Mehrgrößensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
6.2 6.2.1
Beschreibung durch Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
6.3 6.3.1 6.3.2 6.3.3 6.3.4 6.3.5
Die z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Möglichkeiten der Rücktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
282 282 285 289 290 297
6.4 6.4.1 6.4.2 6.4.3 6.4.4 6.4.5
Systemfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol- und Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfung von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Minimalphasensystem und Allpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Strukturdarstellung zeitdiskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . .
301 303 304 305 314 318
6.5 6.5.1 6.5.2
Linearphasige Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 Linearphasige FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
6.6 6.6.1 6.6.2 6.6.3 6.6.4 6.6.5
Zeitdiskrete Darstellung kontinuierlicher Systeme . . . . . . . . . . . . . . . . . . . . . . Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Umsetzung der Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pol-Nullstellenübertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
332 333 333 334 335 337
6.7 6.7.1 6.7.2 6.7.3 6.7.4 6.7.5 6.7.6 6.7.7 6.7.8
Filterung mit Fensterfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechteckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dreieckfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hanning-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Blackman-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dolph-Tschebyscheff-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskretes Gauß-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
340 342 343 344 345 346 346 347 348
6.8 6.8.1 6.8.2
Frequenzselektive Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Kausales FIR-Filter über Impulsinvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Akausales FIR-Filter über die DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
273
Inhaltsverzeichnis
XI
6.8.3 6.8.4
IIR-Filter über die zeitdiskrete Übertragungsfunktion . . . . . . . . . . . . . . . . . . 363 FIR-Filter über Transformation des Frequenzganges . . . . . . . . . . . . . . . . . . . . 367
6.9 6.9.1 6.9.2 6.9.3
Spezielle zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskrete Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zeitdiskreter Differenzierer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korrektur der Gruppenlaufzeit eines Filters . . . . . . . . . . . . . . . . . . . . . . . . . . . .
371 371 377 379
A
Fourier-Transformationen
383
B
Laplace-Transformation
391
C
z-Transformation
395
D
Blockbilder
399
E
Herleitung der Spline-Interpolation
401
F
Symbole
403
Literaturverzeichnis
405
Index
407
Teil I
Einführung
1
Einleitung
Wenn man ein Buch über Signale und Systeme schreibt, so stellen sich am Anfang die Fragen: Was sind Signale? Was sind Systeme? Neben der Materie und der Energie, die durch Einsteins Formel E = m · c2 verknüpft sind, ist der Begriff „Information“ von großer Bedeutung. Informationen können, genauso wie Materie und Energie, gewonnen, verarbeitet, transportiert, gelagert und „gebraucht“ werden. Der Weg der Stahlkarosserie eines Automobiles lässt sich etwa so beschreiben: Eisenerz wird gewonnen, dann in Hochöfen zu Rohstahl verarbeitet, zum Automobilhersteller transportiert, dort zwischengelagert und danach wird daraus die Karosserie gefertigt. Auch für die Energie lässt sich ein Beispiel angeben: Die potentielle Energie eines Staudamms wird in kinetische Energie des herabströmenden Wassers umgewandelt. In der Wasserturbine geht diese dann über in die rotatorische Energie des Turbine-GeneratorSystems. Der Generator erzeugt daraus elektrische Energie, die hochtransformiert zum Verbraucher transportiert wird. Es soll hier nicht darüber diskutiert werden, welche Möglichkeiten es gibt, Materie und Energie zu gewinnen, zu verarbeiten, zu transportieren, zu lagern und zu nutzen, sondern diese Kette soll auf Informationen angewandt werden. Unabhängig vom abstrakten Begriff „Information“ ist diese in unserer technischen Welt immer als physikalische Größe, d.h. als Signal, dargestellt. So kann man also Signale gewinnen („messen“), verarbeiten, übertragen, speichern und nutzen („regeln und steuern“). Die Signalgewinnung, d.h. das Messen physikalischer Größen, ist im Bereich der Messtechnik behandelt. Die Signalübertragung findet ihren Platz in der Nachrichtentechnik. In der heutigen technischen Welt werden Signale zum Beispiel dazu verwendet, um Prozesse zu regeln und zu steuern. Das Speichern von Signalen ist mehr ein interdisziplinärer Fachbereich, zumal digitale Signale äußerst einfach gespeichert werden können. Übrig geblieben ist die Signalverarbeitung. Nun sollte es einfacher sein, die Verarbeitung gegenüber den anderen Gliedern der Kette abzugrenzen. Man versteht unter Signalverarbeitung die Aufbereitung unterschiedlichster Signale, um bestimmte Informationen „herauszufiltern“. Genauso wie das Eisen erst aus dem Eisenerz gewonnen werden muss, müssen bestimmte Informationen aus dem „verrauschten“ Signal gefiltert werden. Des Weiteren können, entsprechend der Energie, Signale in andere Signale umgeformt werden. Auch hier erhält man neue Informationen.
4
1 Einleitung
1.1
Signale
Um auf die Frage näher eingehen zu können, was Signale sind, betrachten wir als Erstes nachfolgende Definition.
Unter einem Signal versteht man den sich zeitlich verändernden Verlauf einer beobachteten Größe, die eine für den Betrachter relevante Information enthält.
Beobachtete Größen können unterschiedlicher Natur sein. So kommen gemessene physikalische Größen in Betracht, wie z.B. Spannung und Strom in der Elektrotechnik oder Schalldruck und Schallschnelle in der Akustik. Die physikalische Größe braucht in vielen Fällen gar nicht unmittelbar messbar zu sein, wenn es gelingt, sie aus anderen vorhandenen Messgrößen zu schätzen. Solche Schätzverfahren sind allerdings nicht Gegenstand dieses Buches. Die beobachtete Größe kann aber auch ganz anderer Natur sein, z.B. das Datenwort in einem Computer oder Daten, die über das Internet bezogen werden. So ist der zeitliche Verlauf des Börsenkurses einer Aktie ein Signal. Die Aktienkurse schwanken bekanntlich stark, was als Störung angesehen werden kann. Anleger sind mehr am längerfristigen Kurstrend interessiert. Die Störungen müssen deshalb herausgefiltert werden. Auch dazu dient die Signalverarbeitung. Mathematisch werden Signale durch reell- oder komplexwertige Funktionen der Zeit dargestellt, das heißt, es handelt sich um eindeutige Abbildungen von R nach R oder nach C. Nicht jede Funktion der Zeit repräsentiert ein physikalisch erzeugbares Signal. Es erscheint jedoch notwendig, auch physikalisch nicht realisierbare Signale als Signalmodelle für theoretische Untersuchungen zur Verfügung zu haben.
1.2
Systeme
Unter dem Begriff System versteht man eine Einrichtung, die auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) antwortet, vgl. Abbildung 1.1.
ye (t)
System
ya (t)=S{ye(t)}
Abbildung 1.1: Zur Definition des Systembegriffs
Mathematisch wird dieses Verhalten durch eine Operatorgleichung beschrieben: ya (t) = S{ye (t)} . Als Beispiele sollen ein Spannungsteiler und ein RC-Tiefpass betrachtet werden.
(1.1)
1.2 Systeme
5
Beispiel 1.2 (Spannungsteiler als System) Eine Eingangsspannung ue (t) wird an einen Spannungsteiler gelegt (siehe Abb. 1.2). Ohne große Rechnung ergibt sich sofort, dass die Ausgangsspannung ua (t) durch ua (t) =
R2 · ue (t) R1 + R2
(1.3)
beschrieben wird. R1 ue(t)
R
ua(t)
2
Abbildung 1.2: Spannungsteiler
Der Spannungsteiler stellt ein System dar, das die Eingangsspannung ue (t) in eine Ausgangsspannung ua (t) überführt. Will man das System mathematisch beschreiben, so dient dazu Gleichung (1.3). • Beispiel 1.4 (RC-Tiefpass als System) Eine Eingangsspannung ue (t) wird an einen RC-Tiefpass gelegt (siehe Abb. 1.3). Mit dem Zusammenhang zwischen Strom und Spannung an einem Kondensator, iC (t) = C ·
duC (t) , dt
(1.5)
kann man den RC-Tiefpass als Differenzialgleichung zwischen der Ausgangsspannung ua (t) und der Eingangsspannung ue (t) darstellen: RC · u˙ a (t) + ua (t) = ue (t) .
(1.6)
Benutzt man hingegen eine Zeigerdiagrammdarstellung aus den Grundlagen der Elektrotechnik, so ergibt sich mit Ua =
1 jωC
R+
1 jωC
· Ue =
1 · Ue 1 + jωRC
R ue(t)
C
ua(t) Abbildung 1.3: RC-Tiefpass
(1.7)
6
1 Einleitung eine andere Darstellung zwischen Ein- und Ausgangsspannung. Während die Darstellung des Systems „RC-Tiefpass“ als Differenzialgleichung für alle möglichen Eingangsspannungen eine Lösung anbietet, gilt die Zeigerdiagrammdarstellung nur bei sinusförmigen Spannungen. •
Anhand der beiden Beispiele zeigt sich, wie schwierig es ist, ein System mathematisch zu beschreiben. Dabei versucht man, wie bei den Signalen, die Systeme durch eine Art Systemfunktion zu beschreiben.
1.3
Signalverarbeitung
Die Aufgabe der Signalverarbeitung ist die gezielte Bereitstellung von Systemen zur kontrollierten Beeinflussung von Signalen. Soll z.B. eine Spannung u(t) halbiert werden, so kann man einen Spannungsteiler verwenden. Da sowohl die Signale als auch die Systeme durch Funktionen dargestellt werden, sind für die Ermittlung einer optimalen Systemfunktion Kenntnisse der Funktionalanalysis nötig. Um die grundlegende Struktur der Untersuchung von Signalen und die gezielte Bereitstellung von Systemen darstellen zu können, wird in diesem Abschnitt statt der Funktionalanalysis die Vektoranalysis, die aus den Grundlagen-Vorlesungen der höheren Mathematik bekannt ist, zur Motivation herangezogen. Dabei werden Signale als eine Art Vektoren dargestellt. Ein N -dimensionaler Vektor y stellt einen Punkt im N -dimensionalen Raum dar, d.h. jedes Signal wird durch einen Punkt dargestellt. Untersucht man nun eines oder mehrere Signale nach bestimmten Eigenschaften, so untersucht man die Lage der den Signalen entsprechenden Punkte im Raum. Beispiel 1.8 (Änderung der Basisvektoren) Es soll untersucht werden, ob gegebene Signale auf einer Geraden liegen. Natürlich könnte man sämtliche Signalpunkte in die Geradengleichung einsetzen und überprüfen, ob sie diese erfüllen. Da aber im Realen Signale gemessene physikalische Größen beschreiben, weisen die Messwerte Störungen auf, d.h. auch wenn sich die physikalische Größe auf der Gerade befand, so befinden sich die Messwerte im Allgemeinen nicht darauf. Eine zweite Möglichkeit bestünde darin, den Abstand zwischen den Punkten und der Geraden zu bestimmen. Überschreitet der Abstand ein bestimmtes Maß nicht, so kann man annehmen, dass der jeweilige Punkt auf der Geraden liegt. Die dritte, und hier weiter betrachtete Möglichkeit ist eine Änderung der Basisvektoren, so dass die Gerade parallel zu bzw. senkrecht auf den Basisvektoren steht. Dann müssen die Koordinaten, zu denen die Gerade senkrecht auf den Basisvektoren steht, innerhalb eines bestimmten Intervalls liegen. Die Änderung der Basisvektoren soll an Abbildung 1.4 exemplarisch gezeigt werden. Während der Punkt P im kartesischen Koordinatensytem die Koordinaten pT = (1, 1) besitzt, lassen sich diese im neuen Basisvektorensystem S = {s1 , s2 },
1.3 Signalverarbeitung
7
2 s
2
P
1
s1
-1
1
2 s1 = , 1 über
Abbildung 1.4: Änderung der Basisvektoren
2
s2 =
1 2 · 1 1 3 p1 = = , 5 2 2 · 1 1
−1 2
,
1 −1 · 1 2 1 = p2 = 5 −1 −1 · 2 2
berechnen. Im Allgemeinen wird die i-te Koordinate eines Vektors im neuen Basisvektorensystem S durch pi =
p · si si · si
(1.9)
angegeben. Handelt es sich bei S um ein orthonormales Basisvektorensystem, so ist der Nenner si · si = 1 und die i-te Koordinate wird durch pi = p · si
(1.10)
bestimmt. Von großer Bedeutung ist also das Innenprodukt „·“ zwischen zwei Vektoren. Mit dem Innenprodukt kann man ein Signal in eine neue Darstellungsweise transformieren. Nach der Einführung eines verallgemeinerten Innenprodukts zwischen zwei Funktionen im Rahmen der Funktionalanalysis kann man mit dem Innenprodukt auch Signaltransformationen im Funktionenraum durchführen. Hierbei sei angemerkt, dass solch eine Transformation nicht das Signal, sondern nur seine Darstellungsweise ändert. So liegt der Punkt P immer noch an der gleichen Stelle. Er besitzt im neuen Basisvektorensystem S nur andere Koordinaten. • Die gesamte Signaluntersuchung verändert also ein Signal nicht, sondern versucht durch geschickte Änderung der Darstellungsweise mehr Aussagen über das Signal zu gewinnen.
8
1 Einleitung
Systeme werden in der Vektoranalysis durch Matrizen S dargestellt. Die Multiplikation eines Eingangssignals y e mit einer Systemmatrix S ergibt ein Ausgangssignal y a : ya = S · ye .
(1.11)
Dies soll mit zwei kleinen Beispielen verdeutlicht werden. Beispiel 1.12 (Projektion auf die x-Achse) Möchte man einen Punkt P im zweidimensionalen Raum auf die x-Achse projizieren, so kann man dies mit Hilfe folgender Systemmatrix S tun: 10 S= . 00 So wird zum Beispiel der Punkt (2, 3)T mit der Systemmatrix S auf den Punkt 2 10 2 = · 0 00 3 •
projiziert. Beispiel 1.13 (Drehung um den Winkel ϕ)
Möchte man einen Vektor zum Punkt P im zweidimensionalen Raum um den Winkel ϕ drehen (siehe Abbildung 1.5), so kann man dies mit Hilfe folgender Systemmatrix S tun: cos ϕ − sin ϕ S= . sin ϕ cos ϕ
y P’
P ϕ x
Abbildung 1.5: Drehung eines Vektors zum Punkt um den Winkel ϕ
1.4 Struktur des Buches
9
So wird zum Beispiel der Punkt (2, 1)T bei einer Drehung von 30◦ mit der Systemmatrix S auf den Punkt √ √ 3 2 3−1 1 2 − 2 √2 √2 = · 3+2 3 1 1 2
2
2
•
abgebildet.
Die beiden Beispiele haben gezeigt, dass ein System im Bereich der Vektoranalysis durch eine Matrix dargestellt werden kann. Im Bereich der Funktionalanalysis werden Systeme durch Systemfunktionen beschrieben.
1.4
Struktur des Buches
Nach einer Einführung in die Funktionalanalysis werden zuerst Untersuchungsmethoden von Signalen und dann Eigenschaften, Darstellung, Untersuchung und Entwurf von Systemen sowohl für kontinuierliche als auch für diskrete Zeitänderungen vorgestellt. Im Zeitkontinuum kann man reale physikalische Prozesse und deren Signale und Systeme beschreiben. Dabei werden die physikalischen Größen in stetige Signale abgebildet, d.h. das Signal kann durch eine Funktion dargestellt werden. Signalfunktion y(t) :
y : R −→ R
(1.14)
Bei der Zeitdiskretisierung liegen die Werte der physikalischen Größe nur zu äquidistanten Zeitpunkten vor, d.h. das Signal wird durch eine Folge dargestellt. Im Gegensatz zur üblichen mathematischen Folge existiert die Signalfolge auch für negative Indizes. Signalfolge yn :
y : Z −→ R
(1.15)
Im Anhang findet man einen Vergleich aller Transformationen für zeitkontinuierliche und zeitdiskrete Signale sowie Tabellen mit Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-, Laplace- und z-Transformation.
2
Mathematische Grundlagen
Die Betrachtung von Signalen und Systemen kommt als Ingenieurwissenschaft ohne mathematische Hilfsmittel nicht aus. Die Vorlesungen der Höheren Mathematik bauen ein stabiles Fundament auf, das durch weitere Begriffe der Funktionalanalysis erweitert wird. Ausgehend von linearen Vektorräumen werden die für die Signalverarbeitung wichtigen Hilberträume eingeführt und die linearen Operatoren behandelt. Von diesem Punkt aus ergibt sich eine gute Übersicht über die verwendeten mathematischen Methoden. Die gemeinsame Basis der Verfahren wird deutlich. Ähnlichkeiten erscheinen nicht zufällig, sie lassen sich begründen. Die kurze Darstellung ist keine Einführung in die Funktionalanalysis. Wer eine vollständige und abgeschlossene Darstellung wünscht, findet sie unter [Heu86, Heu04, HW98, KA78]. Neben den normalen vier Grundrechenarten gibt es weitere „Rechenzeichen“, die Operatoren. Sie beschreiben, je nach Art, eine jeweils andere Abbildung einer Definitionsmenge in eine Bildmenge. Im Bereich der Signalverarbeitung und Systembeschreibung werden nicht nur reellwertige Funktionen benutzt, sondern auch Funktionen, welche die reellen Zahlen in die komplexe Ebene oder die komplexe Ebene in sich abbilden. Hierzu werden die holomorphen Funktionen in komprimierter Form wiederholt. Beim Überblättern des 2. Kapitels wird dem Leser eine recht mathematische Darstellungsweise auffallen. Diese ist nicht zur Abschreckung gedacht, sondern bei der axiomatischen Vorgehensweise unumgänglich.
2.1
Räume
Man kann die hier behandelten Räume als abstrakte Erweiterung des aus unserer Erfahrungswelt wohl bekannten dreidimensionalen euklidischen Raumes R3 , in dem wir leben, auffassen. Die axiomatische Vorgehensweise der Mathematik ermöglicht eine Übertragung der „typischen“ Eigenschaften dieses Raumes auf „Vektoren“, die jetzt aus Zufallsvariablen, Wertefolgen oder gewöhnlichen Funktionen bestehen können. Durch diesen Zusammenhang kann man aber fast immer auf die Visualisierung von unanschaulichen Formulierungen durch geometrische Darstellungen zurückgreifen. Abbildung 2.1 zeigt den Weg, der von den unstrukturierten Mengen durch die Einführung von algebraischen und metrischen Strukturen hin zu den Hilbert-Räumen führt.
12
2 Mathematische Grundlagen
unstrukturierte Mengen
H
H HH H j H
Lineare Räume: Addition, Multiplikation mit Skalaren
Metrische Räume: Abstand d(x, y)
9 ? Normierte Räume: Norm ||x|| Abstand d(x, y) = ||x − y||
H HH
?
Innenprodukträume: Innenprodukt x, y
HH j H
Unitäre Räume: ||x|| = x, x
? Hilbert-Raum: Vollständigkeit, Fundamentalfolge
Abbildung 2.1: Zusammenhang mathematischer Räume
2.1 Räume
13
2.1.1
Metrische und lineare Räume
2.1.1.1
Metrischer Raum
Ein metrischer Raum erlaubt die Berechnung von Abständen zwischen den betrachteten Elementen.
Definition 2.1 (Metrischer Raum) Eine Menge M von Elementen heißt ein metrischer Raum, wenn jedem Elementepaar x, y ∈ M eine reelle Zahl d(x, y) mit folgenden Eigenschaften zugeordnet ist: (M1)
d(x, y) ≥ 0,
d(x, y) = 0 ⇔ x = y
(M2)
d(x, y) = d(y, x)
(M3)
d(x, y) ≤ d(x, z) + d(z, y)
(Dreiecksungleichung, Abbildung 2.2 )
Man nennt d(x, y) den Abstand zwischen x und y.
d(x, z)
z A A
x
A A
d(y, z) A A y
d(x, y)
Abbildung 2.2: Dreiecksungleichung
Beispiel 2.2 (Abstand im zweidimensionalen euklidischen Raum) Im zweidimensionalen euklidischen Raum mit den Ortsvektoren x = (x1 , x2 )T und y = (y1 , y2 )T wird der Abstand der durch die beiden Ortsvektoren dargestellten Punkte durch d(x, y) = (x1 − y1 )2 + (x2 − y2 )2 berechnet. 2.1.1.2
•
Linearer Raum
Der schon in der Schulzeit geprägte Begriff des Vektors wird hier erweitert. Dabei muss der „neue“ Vektor nicht die „Pfeilgestalt“ des „alten“ Vektors besitzen. Vielmehr gilt jetzt allgemein:
14
2 Mathematische Grundlagen
Definition 2.3 (Linearer Raum, Vektorraum) Eine Menge V von Objekten (den Vektoren) heißt Linearer Raum oder Vektorraum über dem Körper C (den Skalaren), wenn gilt: 1. Es existiert eine Operation, genannt Vektoraddition, die jedem Paar von Vektoren x, y ∈ V einen Vektor x + y ∈ V zuweist, so dass die Eigenschaften (L1)
x+y =y+x
(Kommutativ)
(L2)
x + (y + z) = (x + y) + z
(L3)
Es gibt einen Nullvektor 0 ∈ V , so dass x + 0 = x
(L4)
Zu jedem Vektor x ∈ V gibt es einen inversen Vektor −x ∈ V , so dass gilt x + (−x) = 0.
(Assoziativ) ,x ∈ V .
erfüllt sind. Die Vektoren bilden also bezüglich der Addition eine kommutative Gruppe. 2. Es existiert eine Operation, genannt skalare Multiplikation, die jedem Skalar c ∈ C und Vektor x ∈ V einen Vektor cx ∈ V zuweist, so dass (L5)
1x = x
(L6)
(c1 c2 )x = c1 (c2 x)
(L7)
c(x + y) = cx + cy (c1 + c2 )x = c1 x + c2 x
(Assoziativ) (Distributiv)
erfüllt sind. Es sind nicht nur lineare Räume über dem Körper der reellen Zahlen, sondern auch über den komplexen Zahlen möglich.
Beispiel 2.4 (n-dimensionaler euklidischer Raum) Beim n-dimensionalen euklidischen Raum werden die Skalare durch den Körper der reellen Zahlen gebildet. Die Vektoren sind n-Tupel der Form x = (x1 , x2 , . . . , xn )T , wobei die xi reelle Zahlen sind und die i-te Komponente von x genannt werden. Die Vektoraddition und die skalare Multiplikation werden komponentenweise erklärt: x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn )T , cx = (cx1 , cx2 , . . . , cxn )T . Der Nullvektor ist durch 0 = (0, 0, . . . , 0)T und das Inverse eines Vektors x durch −x = (−x1 , −x2 , . . . , −xn )T gegeben. • Ein weiterer im Folgenden auftretender Raum ist der Raum der Funktionen einer Zeitvariablen.
2.1 Räume
15
Beispiel 2.5 (Funktionenraum) Die Menge aller Funktionen x(t) ∈ V = {x : R −→ R} bilden einen Vektorraum über dem Körper der reellen Zahlen, wenn man die Funktionenaddition und Multiplikation mit einem Skalar wie gewöhnlich punktweise definiert. • Beispiel 2.6 (Zufallsvariablen) Wenn C = R den Körper der reellen Zahlen bezeichnet, V die Menge der Zufallsvariablen mit endlichem Mittelwert und endlicher Varianz und c1 x + c2 y für x, y ∈ V, c1 , c2 ∈ C in gewohnter Weise definiert ist, erhält man ebenfalls einen Vektorraum. Eine Zufallsvariable ist eine Variable, die nicht explizit bekannt ist. Ein stochastischer Prozess ist eine Funktion, die von einer Zufallsvariablen abhängt, und deren zeitlicher Verlauf nicht bekannt ist. Jedoch kann man mit Hilfe der Dichtefunktion dieser Zufallsvariable Aussagen darüber machen, wie hoch die Wahrscheinlichkeit ist, dass der Funktionswert der Funktion innerhalb eines bestimmten Intervalls liegt. Der Mittelwert und die Varianz einer Zufallsvariablen lassen sich aus der Dichtefunktion ermitteln. Nimmt man zwei Elemente, d. h. zwei beliebige zufällige Funktionen, aus diesem Raum heraus und addiert sie in einer Linearkombination miteinander, so entsteht wieder eine zufällige Funktion mit endlichem Mittelwert und Varianz, also eine Funktion aus V . • 2.1.1.3
Normierte Räume
Die Bewertung der Länge eines Vektors wird durch eine Norm ermöglicht.
Definition 2.7 (Normierte Räume) Ein linearer Raum V über dem Körper C heißt normierter Raum, wenn jedem Element x ∈ V eine reelle Zahl ||x||, die Norm des Elementes x, zugeordnet ist und diese Norm folgende Eigenschaften hat: (N1)
||x|| ≥ 0,
||x|| = 0 ⇔ x = 0
(N2)
||αx|| = |α| · ||x|| , α ∈ C
(N3)
||x + y|| ≤ ||x|| + ||y||
(positive Definitheit) (Homogenität) (Dreiecksungleichung)
Ein normierter Raum V wird durch die Definition d(x, y) = ||x − y||
(2.8)
zu einem metrischen Raum. In einem normierten Raum sind durch (2.8) alle Eigenschaften (M1) bis (M3) einer Metrik erfüllt. Die Metrik (2.8) hat noch die weiteren
16
2 Mathematische Grundlagen
Eigenschaften: d(x + z, y + z) = d(x, y) d(αx, αy) = |α| · d(x, y)
2.1.1.4
Innenproduktraum
Als Nächstes wird der Begriff des Innenproduktes eingeführt. Definition 2.9 (Innenproduktraum) Ein (reeller bzw. komplexer) linearer Raum V heißt Innenproduktraum, wenn jedem Elementepaar x, y ∈ V eine (reelle bzw. komplexe) Zahl x, y, das Innenprodukt der Elemente x und y, mit folgenden Eigenschaften zugeordnet ist: (IP1)
x, x ≥ 0 , x, x = 0 ⇔ x = 0
(IP2)
x, y = y, x∗
(IP3)
x + y, z = x, z + y, z
(IP4)
αx, y = α · x, y
In einem linearen Raum mit Innenprodukt gilt Satz 2.10 (Vertauschung des Skalars) Aus (IP2) und (IP4) folgt: αx, y = αx, y = αy, x∗ = (α∗ y, x)∗ = α∗ y, x∗ = x, α∗ y
•
und Satz 2.11 (Schwarzsche Ungleichung) Es gilt die Schwarzsche Ungleichung |x, y|2 ≤ x, x y, y.
•
2.1 Räume
17
Beweis: Für den Fall y = 0 ist die Aussage klar. Ist jedoch y = 0, so ergibt sich für alle α: 0 ≤ x + αy, x + αy = x, x + α∗ x, y + αy, x + |α|2 y, y Setzt man nun α=−
x, y , y, y
so erhält man 0 ≤ x, x −
y, xx, y x, yy, x x, yy, x − y, y. + y, y |y, y|2 y, y
Die Multiplikation mit y, y ergibt die Schwarzsche Ungleichung aus Satz 2.11: 0 ≤ x, x · y, y − x, y · y, x |x,y|2
Bemerkung 2.12 Aus obigem Beweis ist sofort ersichtlich, dass in der Schwarzschen Ungleichung die Gleichheit gilt, falls x + αy = 0 erfüllt ist, d.h. x und y linear abhängig sind. • Auf eine besondere, dem Leser jedoch wohl bekannte Eigenschaft des inneren Produktes soll noch hingewiesen werden. Die Norm und der Abstand sind positiv und nur dann null, wenn x = 0 bzw. x = y ist. Beim Innenprodukt x, y gibt es dagegen viele Vektoren y, für welche bei gegebenem Vektor x das Innenprodukt verschwindet. Dabei sind weder x noch y gleich null.
Definition 2.13 (Orthogonalität) Man bezeichnet zwei Vektoren x und y mit x, y = 0 als zueinander orthogonal und schreibt x ⊥ y, falls x, y = 0 gilt.
Beispielsweise sind die Einheitsvektoren im kartesischen Koordinatensystem zueinander orthogonal. Das Innenprodukt der Vektoren x und y ist dort gegeben durch x, y = ||x|| ||y|| cos (ϑ), wobei ϑ der von x und y eingeschlossene Winkel ist. Das Innenprodukt für ||x|| und ||y|| wird zu Null, wenn ϑ = π2 oder ϑ = 3π 2 ist, also wenn x und y einen rechten Winkel einschließen.
18
2 Mathematische Grundlagen
2.1.1.5
Unitärer Raum
Führt man in einem linearen Raum V mit Innenprodukt die „Norm“ ||x|| = x, x , x ∈ V ein, dann ist V ein normierter Raum. Es ergibt sich nämlich ||x + y||2 = x + y, x + y = x, x + x, y + y, x + y, y = x, x + x, y + x, y∗ + y, y ≤ x, x + 2|x, y| + y, y = ||x||2 + 2 |x, y|2 + ||y||2 und dann mit Hilfe der Schwarzschen Ungleichung (Satz 2.11) ||x + y||2 ≤ ||x||2 + 2||x|| ||y|| + ||y||2 = (||x|| + ||y||)2 die Dreiecksungleichung ||x + y|| ≤ ||x|| + ||y||. Alle anderen Eigenschaften einer Norm sind durch die für ein Innenprodukt geforderten Eigenschaften offensichtlich auch erfüllt.
Definition 2.14 (Unitärer Raum) Ein normierter Raum V heißt unitär, wenn V ein Innenproduktraum ist, in dem Norm und Skalarprodukt durch die Beziehung ||x|| = x, x für alle x ∈ V zusammenhängen. Unitäre Räume, also normierte Räume mit Innenprodukt, braucht man in der Technik und in der Signalverarbeitung häufig. Wie im nächsten Beispiel gezeigt, lässt sich beispielsweise die Berechnung der Leistung in elektrischen Systemen damit beschreiben. Beispiel 2.15 (Komplexe Leistung) Wie schon aus den Grundlagen der Elektrotechnik bekannt, kann man sinusförmige Wechselspannungen und -ströme als komplexe Größen darstellen. Die komplexe Leistung kann dann als Innenprodukt S=
1 U, I 2
angegeben werden. Dabei ist die komplexe Leistung als eine Energiedichtefunktion zu interpretieren. Das Integral von −∞ bis ∞ würde im Allgemeinen eine unendlich
2.1 Räume
19
große Energie ergeben, d.h. das Integral konvergiert nicht. Deshalb wird das Innenprodukt als die mittlere Leistung, d.h. als mittlere Energie pro Zeiteinheit, mit Hilfe eines Integrals berechnet: T
1 S¯ = T
2
• u(t)i(t) dt .
− T2
2.1.1.6
Hilbert-Raum
Zum Abschluss kommt nun noch die Definition der Hilbert-Räume. Für die Definition des Hilbert-Raums benötigt man den Begriff der Vollständigkeit. Diesen kann man im Bezug auf metrische Räume leicht angeben. Definition 2.16 (Vollständigkeit in metrischen Räumen) Ein metrischer Raum M heißt vollständig, wenn jede konvergente Folge von Punkten aus M einen Grenzpunkt im Raum M besitzt. Die Vollständigkeit lässt sich anschaulich an einem kleinen Beispiel aus der Schulmathematik betrachten: √ Beispiel 2.17 (Bestimmung von 2) √ Es soll der Wert von 2 bestimmt werden, d.h. man sucht die Nullstelle der Funktion f (x) = x2 − 2. Mit Hilfe des Newtonschen Verfahrens lässt sich die Approximation der Nullstelle mit der Iterationsvorschrift xn+1 = xn −
f (xn ) x2n − 2 − = x n f (xn ) 2xn
formulieren. Wählt man den Anfangswert aus den √ rationalen Zahlen Q, so ist jeder weitere Wert xn ebenfalls aus Q. Der Grenzwert 2 ist dagegen nicht aus Q, d.h. Q ist nicht vollständig. • In [Heu86] wird gezeigt, dass Räume endlicher Dimension immer vollständig sind. Mit dem Begriff der Vollständigkeit kann man die Definition des Hilbert-Raums angeben: Definition 2.18 (Hilbert-Raum) Jeder vollständige unitäre Raum V heißt ein Hilbert-Raum. In Abschnitt 3.1 werden die Funktionenräume eingeführt. Hierbei handelt es sich um Hilbert-Räume, deren Elemente Funktionen sind.
20 2.1.1.7
2 Mathematische Grundlagen Basis
Folgender Sprachgebrauch hat sich eingebürgert: Eine Basis des R3 , z.B. die kartesischen Koordinaten oder die Kugelkoordinaten, spannt den Raum R3 auf. Hierbei bedeutet R, dass die Koordinaten den reellen Zahlen entnommen sind. Die natürliche Zahl N = 3 ist die Dimension des Raumes und entspricht der Zahl der Basisvektoren. In einem Vektorraum sind verschiedene Koordinatensysteme möglich. Der Leser hat sicher in seiner Studienzeit erlebt, wie entscheidend eine übersichtliche, elegante Rechnung von der Wahl eines geeigneten Koordinatensystems abhängt. Offensichtlich lassen sich die Punkte im Raum durch verschiedene Koordinatensysteme beschreiben. Durch die Wahl des Abstandes zweier Vektoren d(x, y), der Metrik, das innere Produkt x, y und durch die Länge der Vektoren ||x||, Norm, strukturiert man sein Koordinatensystem, d.h. die Basis. Ein Vektor y wird im Einklang mit den Rechenregeln von Definition 2.3 als Linearkombination der „Basisvektoren“ x1 , . . . , xN dargestellt: y = a1 x1 + a2 x2 + . . . + aN xN .
(2.19)
Dadurch kann jeder Vektor in einem festgelegten Koordinatensystem durch seine Koordinaten a1 , . . . , aN beschrieben werden und umgekehrt. Die Frage ist, wie die Koordinaten ai bestimmt werden können. Dazu multipliziert man von rechts nacheinander mit den Vektoren x1 , . . . , xN und erhält ein in den ai lineares Gleichungssystem: y, x1 = a1 x1 , x1 + a2 x2 , x1 + · · · + aN xN , x1 y, x2 = a1 x1 , x2 + a2 x2 , x2 + · · · + aN xN , x2 .. .. .. .. . . = . + . + .. + . y, xN = a1 x1 , xN + a2 x2 , xN + · · · + aN xN , xN
(2.20)
In Matrixschreibweise lässt sich Gleichung (2.20) schreiben als y, x1 x1 , x1 .. .. = . . x1 , xN y, xN
a1 · · · xN , x1 .. .. .. · . . . aN · · · xN , xN
(2.21)
oder mit geeigneten Definitionen auch als z = G a.
(2.22)
Lässt sich die Matrix G invertieren, existiert eine eindeutige Lösung für a. Die Bedingung für die Invertierbarkeit von G ist bekanntlich, dass die Determinante |G| nicht verschwindet.
2.1 Räume
21
Definition 2.23 (Basis) Eine Basis (x1 , . . . , xN ) spannt einen N -dimensionalen Raum RN auf, wobei die Vektoren xi linear unabhängig sein müssen. Dazu muss die Gramsche Matrix G regulär sein, d.h. für die Determinante gilt: det(G) = |G| = 0. Eine Basis als Menge eines übergeordneten Raumes R heißt vollständig, wenn die Basisvektoren den Raum vollständig aufspannen, d.h. jeder Punkt im Raum durch Linearkombination der Basisvektoren erreichbar ist und somit RN = R gilt.
Satz 2.24 (Lineare Unabhängigkeit) Aus Definition 2.23 folgt, dass die Vektoren x1 , . . . , xN linear unabhängig sind, wenn die Matrix G mit gij = xi , xj regulär ist. D.h., die Linearkombination der Vektoren x1 , . . . , xN verschwindet bei linear unabhängigen Vektoren xi nur dann, wenn alle ai null sind, d.h.: n
ai xi = 0 =⇒ ai = 0 , i ∈ {1, . . . , n} .
(2.25)
i=1
• Satz 2.26 (Hermitesche Matrix) Aus der Definition 2.9, (I2), zusammen mit der Gleichung (2.21) folgt, dass die ∗ Gramsche Matrix die Eigenschaft gij = gji bzw. G = GT ∗ besitzt. Solche Matrizen heißen hermitesche Matrizen. • Sehr vereinfachend bei der Berechnung der Koordinaten ai sind die so genannten orthonormalen Basen.
Definition 2.27 (Orthonormale Basis) Eine orthonormale Basis (e1 , . . . , eN ) ist eine Basis mit den zusätzlichen Eigenschaften: (OB1) ||ei || = 1 (normiert) (OB2) ei , ej = δij
, wobei δij =
1 für i = j 0 sonst
Dann ist die Matrix, die aus diesen Vektoren gebildet wird, E = (e1 , . . . , eN ), eine orthogonale Matrix, denn wegen ei , ej = δij folgt: ET · E∗ = I
22
2 Mathematische Grundlagen
und somit E −1 = E T ∗ .
Hierbei folgt die erste Eigenschaft (OB1) aus der zweiten (OB2), wird aber aus Gründen der Übersichtlichkeit separat aufgeführt. Mit Hilfe der Definition 2.27 lässt sich Gleichung (2.20) bei orthogonalen Basisvektoren drastisch vereinfachen: y, e1 = a1 y, e2 = a2 .. .
(2.28)
y, eN = aN Für die Gramsche Matrix G gilt G = I, wodurch sich die Invertierung erübrigt. Von unseren Erfahrungen im Raum R3 wissen wir, dass sich immer eine orthonormale Basis schaffen lässt. Dies gilt für alle unitären Räume. Jeder Vektor y ∈ V N lässt sich als Linearkombination von N unabhängigen Basisvektoren darstellen. Wie man von einer Basis (x1 , . . . , xN ) zu einer orthonormalen Basis kommt, zeigt das Verfahren von Erhard Schmidt, vgl. [HW98]: Satz 2.29 (Schmidtsches Orthonormalisierungsverfahren) Es sei B die Basis (x1 , . . . , xN ) mit linear unabhängigen Vektoren xi . Dann gibt es eine orthonormale Basis E = (e1 , . . . , eN ), welche denselben Raum aufspannt. Man findet E durch folgende Vorgehensweise: x1 e1 = (2.30) ||x1 || hk ek = ,mit (2.31) ||hk || hk = xk −
k−1
xk , ei ei
, k = 2, . . . , N
(2.32)
i=1
Dass der Vektor hk wirklich senkrecht zu allen bisherigen Basisvektoren el , l ≤ k − 1, steht, lässt sich einfach zeigen. Durch Multiplikation mit el von rechts ergibt sich hk , el = xk , el −
k−1 i=1
xk , ei ei , el = 0. δil xk , el
Diese Formeln gestatten, das Orthonormalsystem E, mit e1 beginnend, der Reihe nach auszurechnen. Das Verfahren wird bis k = N durchgeführt. •
2.1 Räume
23 p p −x2 , e1 e1 *A K p p p p p p A p p p p A p p Y H * p p H A p p H h HH A 2 p p x2 , e1 e1 H A H AK x x2 HH 1 H A e2 * H HA e1
Abbildung 2.3: Schmidtsches Orthonormalisierungsverfahren in der Ebene
Genauso kann man nun ein Orthonormalsystem E um eine Dimension erhöhen, indem man, ausgehend von einem zu e1 , . . . , eN orthogonalen und somit auch linear unabhängigen Vektor xN +1 , Gleichung (2.31) und (2.32) anwendet. Abbildung 2.3 zeigt die Prozedur in der Ebene. Beispiel 2.33 (Schmidtsches Orthonormalisierungsverfahren) Im dreidimensionalen euklidischen Raum ist die Basis 1 2 3 x1 = 0 , x2 = 0 , x3 = 4 0 1 4 gegeben. Um aus der Basis (x1 , x2 , x3 ) eine orthonormale Basis zu konstruieren, wendet man das Schmidtsche Orthonormalisierungsverfahren Schritt für Schritt an. 0,6 x1 1. Mit (2.30): e1 = = 0 ||x1 || 0,8 0,8 2. Mit (2.32): h2 = x2 − x2 , e1 e1 = 0 −0,6 2 0,8 h2 = 0 3. Mit (2.31): e2 = ||h2 || −0,6 0 2 4. Mit (2.32): h3 = x3 − x3 , ei ei = 4 i=1 0 0 h3 5. Mit (2.31): e3 = = 1 ||h3 || 0
24
2 Mathematische Grundlagen Man kann leicht überprüfen, dass die Vektoren e1 ,e2 und e3 eine orthonormale Basis bilden. •
Am Schmidtschen Orthonormalisierungsverfahren haben wir erfahren, dass sich mit unabhängigen Vektoren x1 , . . . , xk eine orthonormale Basis e1 , . . . , ek schaffen lässt, die einen Raum V k aufspannt. Kommen neue unabhängige Vektoren xk+1 , . . . , xk+n hinzu, so lassen sich orthonormale Vektoren ek+1 , . . . , ek+n konstruieren, die einen Raum V n aufspannen. Beide Räume zusammen bilden den k + n dimensionalen Raum V k+n . Die Unterräume sind Teilräume von V k+n : V k ⊆ V k+n und V n ⊆ V k+n . Jeder Vektor y ∈ V k steht senkrecht auf jedem Vektor x ∈ V n , weil wegen y =
k
ai ei
k+n
,x =
i=1
bi ei
i=k+1
das Innenprodukt für alle ai und bi verschwindet: x, y = 0. Man sagt deshalb auch, der Raum V k steht senkrecht auf dem Raum V n : Vk ⊥Vn.
(2.34)
Beispiel 2.35 (Orthogonale Räume) Im dreidimensionalen Raum mit der orthonormalen Basis e1 , e2 und e3 in x-, y- und z-Richtung sei V 1 der Unterraum in x-Richtung. Der zweite Unterraum V 2 ist die yz-Ebene. Die beiden Unterräume bilden den dreidimensionalen Raum V 3 . Jeder • Vektor xe1 ∈ V 1 steht senkrecht zu jedem Vektor ye2 + ze3 ∈ V 2 . Eine orthonormale Basis (e1 , . . . , eN ) spanne einen N -dimensionalen Raum V N auf. V N sei ein Unterraum eines Raumes V höherer Dimension: V N ⊆ V , wobei sowohl V N als auch V unitäre Räume seien. Wir betrachten einen Vektor y ∈ V und bestimmen die Koordinaten yi = y, ei , i = 1, . . . , N . Man erhält mit diesen Koordinaten als Koeffizienten einen Vektor N yi ei ∈ V N . (2.36) yˆ = i=1
Das Quadrat des Abstandes zwischen y und yˆ ergibt sich zu: d2 (y, yˆ) = ||y − yˆ||2 = y −
N
yi ei , y −
i=1
= ||y||2 − y,
N
N
N N N yi ei − yi ei , y + yi ei , yj ej
i=1
= ||y||2 −
yi ei
i=1
i=1
N
i=1
N
j=1
N N
yi∗ y, ei − yi ei , y + yi yj∗ ei , ej i=1 i=1 i=1 j=1 yi
yi∗
δij
2.1 Räume
25
d2 (y, yˆ) = ||y||2 −
N
yi yi∗ ≥ 0
(2.37)
i=1
Aus Gleichung (2.37) folgt sofort Satz 2.38 (Besselsche Ungleichung) Sind y ∈ V und yˆ ∈ V N und weiter V N ⊆ V , so gilt die Besselsche Ungleichung ||y||2 ≥
N
yi yi∗
, wobei yi = y, ei .
(2.39)
i=1
Das Gleichheitszeichen gilt, wenn das orthonormale System (e1 , . . . , eN ) den ganzen Raum V aufspannt. Das orthonormale System heißt dann vollständig. Gleichung (2.39) ist in diesem Fall der verallgemeinerte Satz des Pythagoras. Das Produkt eines Vektors mit einem Vektor einer orthonormalen Basis heißt verallgemeinerter Fourier-Koeffizient: yi = y, ei . • In den Anwendungen kommen Räume von abzählbarer unendlicher Dimension vor. Wir stellen Vektoren mit endlicher Norm ||y|| dar. Die Summe in Gleichung (2.39) muss also konvergieren. Die Teilsumme sN =
N
|yi |2
i=1
muss mit wachsendem N gegen einen festen Wert oder der Vektor yˆN =
N
yi ei
i=1
gegen einen festen Punkt konvergieren: lim yˆ
N →∞ N
= y
,
lim d(ˆ y N , y) = lim ||ˆ y N − y|| = 0 .
N →∞
N →∞
In Hilbert-Räumen ist das Cauchy-Kriterium eine für die Konvergenz einer Folge yˆN hinreichende und notwendige Bedingung. Das Cauchy-Kriterium fordert, dass für jedes ε > 0 gilt: ||ˆ y N − yˆM || < ε , N, M > N0 (ε) .
(2.40)
Die Notwendigkeit von Gleichung (2.40) ist leicht zu beweisen. Schreibt man yˆN − yˆM y N − y|| ≤ ε2 und umständlicher als yˆN − y + y − yˆM und wählt N und M so, dass ||ˆ ||y − yˆM || ≤ ε2 für N, M > N0 ( ε2 ), so gilt mit der Dreiecksungleichung (Definition 2.1 (M3)): ||ˆ y N − yˆM || ≤ ||ˆ y N − y|| + ||y − yˆM || < ε . Ein wichtiger Satz ist
26
2 Mathematische Grundlagen
Satz 2.41 (Projektionstheorem) Ein Vektor y ∈ V soll durch einen Vektor yˆN ∈ V N approximiert werden. Dabei sei V N ein Unterraum des Raumes V höherer Dimension, d.h. V N ⊂ V . Den kleinsten Abstand zwischen beiden Vektoren und damit die optimale Approximation erhält man für d(y, yˆN ) = ||y − yˆN || −→ min. Bei minimalem Abstand ist der Fehlervektor y − yˆN orthogonal zum optimalen Näherungsvektor yˆN und zu allen anderen Vektoren y N ∈ V N des Unterraumes. Der Vektor yˆN heißt orthogonale Projektion des Vektors y auf den Unterraum V N : y − yˆN , yˆN = 0
y − yˆN , y N = 0 , y N ∈ V N .
(2.42) •
Beweis: Das Quadrat des Abstandes zwischen y ∈ V und einer möglichen Näherung y N ∈ V ist allgemein: ||y − y N ||2 =||y − yˆN + yˆN − y N ||2 =||y − yˆN ||2 + y − yˆN , yˆN − y N +ˆ y N − y N , y − yˆN + ||ˆ y N − y N ||2 y N − y N ||2 . =||y − yˆN ||2 + ||ˆ Der minimale Abstand wird bei festem y für y N = yˆN erreicht. In Abbildung 2.4 ist dies für den Raum R3 dargestellt.
e
3
IR
3
y e
y
2
2
IR e
2
1
Abbildung 2.4: Beispiel einer orthogonalen Projektion
2.2 Integraltransformationen
2.2
27
Integraltransformationen
Mit Hilfe von Integraltransformationen werden Signale in andere Darstellungsformen überführt, vgl. [Mer96]. Diese andere Darstellung dient zur besseren Handhabung oder zur besseren Analyse des Informationsgehaltes dieses Signals. Die zentrale und entscheidende Größe einer Integraltransformation ist deren so genannter Integrationskern, über welchen die Bewertung einzelner Funktionswerte gesteuert wird. Diese werden im nächsten Abschnitt eingeführt.
2.2.1
Integrationskerne
Bei Integrationskernen handelt es sich um Funktionen, die sowohl von der Zeitvariablen t als auch von der unabhängigen Zielvariablen s abhängen. Durch Multiplikation des Signals x(t) mit dem Integrationskern θ(s, t) und anschließender Integration gewinnt man daraus die Bildfunktion X(s),
x(t)θ(s, t) dt
X(s) =
, s ∈ S.
(2.43)
T
Hierbei ist T der Grundraum im Zeitbereich und S der Grundraum im Bildbereich. Um aus einer transformierten Funktion die ursprüngliche Funktion wiedergewinnen zu können, ist die Reziprozitätsbedingung wichtig, welche im nächsten Abschnitt dargestellt wird.
2.2.1.1
Reziprozitätsbedingung
Die Hin-Transformation erfolgte mit Hilfe eines Integrationskerns θ(s, t), wobei t ∈ T die unabhängige Variable vor der Transformation und s ∈ S die unabhängige Variable danach ist. Man definiert also für eine Zeitfunktion x(t) die Transformierte wie in Gleichung (2.43) als
X(s) =
x(t)θ(s, t) dt
, s ∈ S.
T
Mit Hilfe eines zu θ(s, t) reziproken Kernes ϕ(t, s) soll sich das ursprüngliche Signal rekonstruieren lassen: !
x(t) =
X(s)ϕ(t, s) ds
,t ∈ T .
(2.44)
S
Um diese Bedingung zu erfüllen, muss der Kern der Rücktransformation geeignet bestimmt werden. Durch Einsetzen der Definitionsgleichung in die Gleichung der Rück-
28
2 Mathematische Grundlagen
transformation !
x(t) =
x(t )θ(s, t )ϕ(t, s) dt ds
S T
x(t )
= T
θ(s, t )ϕ(t, s) ds dt
S
!
= δ(t − t ) erhält man die Reziprozitätsbedingung
θ(s, t )ϕ(t, s) ds = δ(t − t ).
(2.45)
S
Entsprechend gelangt man zur zweiten Reziprozitätsbedingung
ϕ(t, s )θ(s, t) dt = δ(s − s ),
(2.46)
T
die sich analog herleiten lässt. Diese Bedingungen stellen notwendige Forderungen für die Rekonstruierbarkeit eines Signals aus seiner Bildfunktion dar, was bei einer Analyse in der Praxis sinnvoll ist. 2.2.1.2
Selbstreziproke Kerne
Bei selbstreziproken Integrationskernen handelt es sich um ein Paar θ(s, t), ϕ(t, s) von Funktionen für die Hin- und Rücktransformation, für welche die Bedingung ϕ(t, s) = θ∗ (s, t)
(2.47)
gefordert wird. Ein Beispiel für eine Integraltransformation mit selbstreziprokem Kern ist die Fourier-Transformation, vgl. Abschnitt 3.5, in welcher mit T = S = R und s = f θ(f, t) = exp(−j2πf t) ϕ(t, f ) = exp(j2πf t) = θ∗ (f, t) gesetzt wird. Die Reziprozitätsbedingung ist für die Fourier-Transformation erfüllt:
∞ −∞
2.2.1.3
θ(f, t )ϕ(t, f ) df =
∞
exp(j2πf (t − t )) df = δ(t − t ) .
−∞
Parsevalsches Theorem
In diesem Abschnitt beweisen wir das Parsevalsche Theorem, welches für viele Anwendungen eine entscheidende Rolle spielt. In Abhängigkeit des transformierenden Kerns ergeben sich zentrale Eigenschaften verschiedener Transformationen.
2.2 Integraltransformationen
29
Satz 2.48 (Parsevalsches Theorem) Werden Signale mit Hilfe von Integrationskernen transformiert, welche selbst die Reziprozitätsbedingung erfüllen, so ist das Innenprodukt zweier Signale invariant gegenüber der Integraltransformation, d.h. x(t), y(t)t = X(s), Y (s)s .
(2.49)
Das Innenprodukt zweier Signale ist als Integral über deren Produkt definiert, vgl. Abschnitt 3.1.2, und bewertet deren Ähnlichkeit. • Beweis: Man rechnet
X(s), Y (s)s =
X(s)Y ∗ (s) ds
S
=
x(t)θ(s, t)y ∗ (t )θ∗ (s, t ) dt dt ds
S T T
∗
x(t)y (t )
= T T
=
θ(s, t) θ∗ (s, t ) ds dt dt =ϕ(t ,s)
S
=δ(t−t )
x(t)y ∗ (t )δ(t − t ) dt dt =
T T
x(t)y ∗ (t) dt
T
= x(t), y(t)t . Setzt man im Parsevalschen Theorem y(t) = x(t), so folgt ||x(t)|| = ||X(s)|| ,
(2.50)
da es sich bei den Energiesignalen um einen unitären Raum handelt, vgl. Abschnitt 3.1.2. Dies bedeutet, dass eine Integraltransformation mit selbstreziprokem Kern, welche die Reziprozitätsbedingung erfüllt, die Energie eines Signals nicht verändert. 2.2.1.4
Faltungskerne
Bei Faltungskernen handelt es sich um Integrationskerne, die lediglich von der Differenz t − s bzw. s − t abhängen. Dies führt auf vereinfachte Gleichungen für die Hin- und Rücktransformation:
∞ x(t)θ(s − t) dt = x(t) ∗ θ(t) ,
X(s) = −∞
∞
X(s)ϕ(t − s) ds = X(s) ∗ ϕ(s) .
x(t) = −∞
30
2 Mathematische Grundlagen
Durch Fourier-Transformation der beiden Faltungsintegrale folgt somit im Vorgriff auf Abschnitt 3.5 die Multiplikation der Transformierten: Xt (f ) = Ft {x(t)} = Xs (f )Φ(f ) Xs (f ) = Fs {X(s)} = Xt (f )Θ(f )
(2.51) (2.52)
Für die Signalrekonstruktion erhält man die Bedingung Θ(f ) · Φ(f ) = 1.
(2.53)
Ein Beispiel für eine Integraltransformation mit Faltungskern ist die Hilbert-Transformation, die in Abschnitt 4.7 eingeführt wird. Bei dieser Transformation verwendet man Θ(f ) = −j sign(f ) Φ(f ) = j sign(f ) = Θ∗ (f ) und dementsprechend 1 , π · (s − t) 1 ϕ(t − s) = − = θ(s − t). π · (t − s) θ(s − t) =
2.2.2
Zweidimensionale Transformationen
Die Integraltransformation eines zweidimensionalen Signals x(t1 , t2 ) ist definiert als
x(t1 , t2 )θ(s1 , s2 , t1 , t2 ) dt1 dt2 , s1 , s2 ∈ S. (2.54) X(s1 , s2 ) = T T
Die Rekonstruktion solch eines Signals ergibt sich analog als
X(s1 , s2 )ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 x(t1 , t2 ) =
, t1 , t2 ∈ T.
(2.55)
S S
Eine Erweiterung von Funktionen einer Variablen auf Funktionen von zwei Variablen erstreckt sich ebenso auf die Intergrationskerne, welche dadurch als Funktionen von vier Variablen zu definieren sind. Alle Eigenschaften und Gleichungen ergeben sich durch einfaches Erweitern. Somit lauten die Reziprozitätsbedingungen bei Vorhandensein zweier Variablen
! θ(s1 , s2 , t1 , t2 )ϕ(t1 , t2 , s1 , s2 ) ds1 ds2 = δ(t1 − t1 ) · δ(t2 − t2 ) , (2.56) S S
T T
!
θ(s1 , s2 , t1 , t2 )ϕ(t1 , t2 , s1 , s2 ) dt1 dt2 = δ(s1 − s1 ) · δ(s2 − s2 ) . (2.57)
2.3 Operatoren
31
Als Spezialfall können bei zwei unabhängigen Variablen die Kerne faktorisiert werden. Sie setzen sich aus dem Produkt zweier einfacher Kerne zusammen, was sich mathematisch als θ(s1 , s2 , t1 , t2 ) = θ1 (s1 , t1 )θ2 (s2 , t2 ) ϕ(t1 , t2 , s1 , s2 ) = ϕ1 (t1 , s1 )ϕ2 (t2 , s2 )
(2.58) (2.59)
ausdrücken lässt. Als Beispiel eines faktorisierbaren Kerns dient die zweidimensionale Fourier-Transformation, in der sich die Korrespondenzen
∞ ∞ X(f1 , f2 ) = −∞ −∞
∞ ∞
x(t1 , t2 ) =
x(t1 , t2 )e−j(2πf1 t1 + 2πf2 t2 ) dt1 dt2
(2.60)
X(f1 , f2 )ej(2πf1 t1 + 2πf2 t2 ) df1 df2
(2.61)
−∞ −∞
ergeben. Zweidimensionale Kerne finden in der Bildverarbeitung beziehungsweise allgemeiner bei der Bearbeitung optischer Reize Anwendung. Im Rahmen dieses Buches werden sie jedoch nicht weiter vertieft.
2.3
Operatoren
Abbildungen wurden bisher durch Funktionen y = f (x) dargestellt. Dabei wurde jedem x ∈ X eindeutig ein y ∈ Y zugeordnet. Meist ging man davon aus, dass die Mengen X und Y Mengen etwa der Form R, C, R3 usw. sind, d.h. die Elemente x bzw. y entweder reelle oder komplexe Zahlen oder mehrdimensionale Vektoren der reellen oder komplexen Zahlen sind. In Abschnitt 3.1 über die Funktionenräume wird gezeigt, dass Elemente von Räumen ohneweiteres etwas anderes sein können, z.B. Funktionen. Zur Abbildung eines beliebigen Elements auf ein anderes beliebiges Element ist der Funktionsbegriff zu erweitern.
2.3.1
Lineare Operatoren
Definition 2.62 (Linearer Operator) Ein Operator A : X −→ Y ist eine Rechenvorschrift, die einem Element x ∈ X ein Element y = Ax = A{x} ∈ Y zuweist, wobei X und Y jeweils Vektorräume mit demselben Skalarkörper C sind. Lineare Operatoren haben folgende Eigenschaften: (O1) A{x + y} = A{x} + A{y} ,
(Additivität)
(O2) A{ax} = aA{x} , a ∈ C .
(Homogenität)
32
2 Mathematische Grundlagen
Die Rechenregeln für das Rechnen mit linearen Operatoren sind durch (O3) A(BC) = (AB)C
(Assoziativ)
(O4) aAB = (aA)B = A(aB) , a ∈ C (O5) A(B + C) = AB + AC
(Distributiv)
(O6) I{x} = x , I : Einsabbildung (O7) A{0} = 0 , 0 : Nullelement gegeben, wobei AB die Hintereinanderausführung „A nach B“ bezeichnet, (AB){x} = A{B{x}}. Eine geeignete Voraussetzung für die Hintereinanderausführung ist x = y.
Folgende Anmerkungen sind zu machen: Bemerkung 2.63 1. Im Allgemeinen gilt für Operatoren nicht das Kommutativgesetz (z.B. ist bei der Matrixmultiplikation AB = BA ). 2. Ist die Menge Y skalar, d.h. das Element y = A{x} ∈ Y eine reelle oder komplexe Zahl, so spricht man nicht von einem Operator, sondern von einem Funktional. 3. Ist die Menge X skalar, d.h. das Element x ∈ X eine reelle oder komplexe Zahl, so spricht man von einer Funktion. 4. Häufig sind die Elemente Vektoren im klassischen Sinne. Dann kann der lineare • Operator in Form einer Matrix angegeben werden.
Operator: Funktional: Funktion:
Menge X Allgemein Allgemein Skalar
Menge Y Allgemein Skalar Allgemein
Tabelle 2.1: Elemente der einzelnen Abbildungen
Beispiel 2.64 (Funktional) Eine Funktion x(t) wird über das Intervall [− T2 , T2 ] gemittelt. Die Rechenvorschrift für den Mittelwert x ist ein Funktional: 1 x = T
T /2
x(t) dt . −T /2
2.3 Operatoren
33
Bei der Beurteilung von Messergebnissen werden der Stichprobenmittelwert und die Stichprobenvarianz gebildet. Die Rechenvorschriften für x ˆ und s2 sind Funktionale: 1 xi n i=1 n
x ˆ =
1 (xi − x ˆ)2 . n − 1 i=1 n
,
s2 =
•
Beispiel 2.65 (Matrixoperator) Ein sehr wichtiges und im Folgenden häufig bemühtes Beispiel für einen Operator ist dadurch gegeben, dass man als Vektorräume X = Rn bzw. Y = Rn wählt. Man rechnet also mit Vektoren im üblichen Sinne. Es sei eine beliebige Matrix A ∈ Rn×n vorgegeben. Man kann nun mit Hilfe der Matrix A einen Operator A : X → Y definieren, indem man A{x} = A x setzt. Somit ist die gewöhnliche Matrixabbildung letztlich auch ein Operator. Diesen werden wir im folgenden Text noch oft als Beispiel heranziehen. • Des Weiteren gilt für Operatoren:
Definition 2.66 (Stetigkeit) Ein linearer Operator A : X −→ Y zwischen normierten Räumen X, Y heißt stetig, wenn gilt: lim A{εx0 } = lim εA{x0 } = 0 , x0 ∈ X .
ε→0
ε→0
(2.67)
Definition 2.68 (Beschränktheit) Ein linearer Operator A : X −→ Y zwischen normierten Räumen X, Y heißt beschränkt, wenn für ein M ≥ 0 gilt: ||A{x}|| ≤ M ||x|| , x ∈ X .
(2.69)
Definition 2.70 (Adjungierter Operator) In Hilbert-Räumen gibt es zu einem linearen Operator A einen adjungierten Operator A+ , für den für alle zugelassenen x und y gilt: A{x}, y = x, A+ {y}.
(2.71)
34
2 Mathematische Grundlagen
Ein adjungierter Operator A+ ist nicht mit der adjunkten Matrix adj(A) zu verwechseln, die zur Invertierung herangezogen wird. In der Matrizenschreibweise ergibt sich aus Definition 2.70 sofort die Rechenregel, wie von einer Matrix A die adjungierte Matrix A+ gebildet wird: A+ = AT ∗
oder (aij )+ = (aji )∗ .
(2.72)
Für reelle Matrizen gilt A+ = A T
oder (aij )+ = (aji ).
(2.73)
Gleichung (2.72) und (2.73) sind mittels Gleichung (2.71) leicht zu zeigen: A x, y = (A x)T · y ∗ = xT AT · y ∗ = xT (AT ∗ y)∗ = x, AT ∗ y !
= x, A+ y . 2.3.1.1
Eigenwerte und Eigenvektoren
In diesem Abschnitt betrachten wir einen Matrixoperator, wie er in Beispiel 2.65 eingeführt wurde. Dieser Operator wirkt auf Vektoren x ∈ Rn durch Linksmultiplikation, d.h. es ist A{x} = A x. Vielfach sind, auch für allgemeine Operatoren, Vektoren von Interesse, die bei Anwendung eines Operators A in ein Vielfaches von sich selbst übergehen. Aus diesem Grund definiert man die folgenden Begriffe: Definition 2.74 (Eigenwerte und Eigenvektoren eines Operators) Gegeben sei ein Operator A : X → Y. Ein Skalar λ heißt Eigenwert des Operators A, falls ein x ∈ X, x = 0 existiert mit A{x} = λx.
(2.75)
Dieses x ∈ X heißt dann Eigenvektor zum Eigenwert λ. Ist der Operator A ein Matrixoperator, d.h. A : Rn → Rn , A{x} = A x mit A ∈ Rn×n , so spricht man auch von einem Eigenwert der Matrix A bzw. einem Eigenvektor der Matrix A. Die Berechnung der Eigenwerte einer Matrix lässt sich auf die Bestimmung von Nullstellen einer Gleichung zurückführen: Satz 2.76 (Eigenwerte eines Matrixoperators) Ist A : Rn → Rn , A{x} = A x, ein Matrixoperator, so erhält man die Eigenwerte als die Nullstellen der Gleichung det(A − λI) = 0. Somit ist nur noch eine rein algebraische Gleichung zu lösen.
•
2.3 Operatoren
35
Beweis: Die Eigenwerte erfüllen nach Voraussetzung die Gleichung A x = λx. Wegen A x = λx ⇔ (A − λI) x = 0 sind genau die Werte λ Eigenwerte, für die ein x = 0 existiert, welches diese Gleichung erfüllt. Dieses x = 0 existiert genau dann, wenn die Matrix (A−λI) nicht invertierbar ist, was mit der Bedingung det(A−λI) = 0 gleichbedeutend ist. Somit ist λ also ein Eigenwert der Matrix A, falls λ die behauptete Gleichung erfüllt. 2.3.1.2
Eigenvektoren adjungierter Matrixoperatoren
Ein Matrixoperator A und sein adjungierter Operator A+ haben dieselben Eigenwerte λk (vgl. [Kro91]), die aus der Gleichung det(A − λI) = det(A+ − λI) = 0 berechnet werden. Als Nächstes sollen die unterschiedlichen Eigenvektoren von A und A+ betrachtet werden. Wir betrachten hierzu zwei voneinander verschiedene Eigenwerte λi und λk mit zugehörigen Eigenvektoren xi und y k . Dann gilt: A xi = λi xi
,
A+ y k = λk y k .
Durch Multiplikation der ersten Gleichung mit y ∗k von rechts und der zweiten Gleichung mit xi von links erhält man: xTi AT y ∗k = λi xTi y ∗k
,
xTi A+∗ y ∗k = λ∗k xTi y ∗k .
Die Differenz der beiden Gleichungen lautet xTi (AT ∗ − A+ )∗ y ∗k = (λi − λ∗k )xTi y ∗k . Die Differenz verschwindet jedoch, da AT ∗ = A+ gilt. Daraus folgt dann: xTi y ∗k = 0
⇐⇒
λi = λ∗k .
(2.77)
Die Eigenvektoren y k des adjungierten Operators A+ stehen senkrecht auf den Eigenvektoren xi des Operators A, auch wenn beide dieselben Eigenwerte besitzen.
Definition 2.78 (Selbstadjungierter Operator) Ein Operator A heißt selbstadjungiert, wenn A = A+ gilt. Ein solcher Operator wird auch als hermitescher Operator bezeichnet.
(2.79)
36
2 Mathematische Grundlagen
Satz 2.80 (Eigenvektoren selbstadjungierter Matrixoperatoren) Bei selbstadjungierten Matrixoperatoren, d.h. A = A+ , sind die Eigenvektoren verschiedener Eigenwerte untereinander orthogonal. • Für hermitesche Operatoren gilt A+ A = AA+ = A2 . Ein wichtiger Sonderfall ist, wenn A+ A = I, d.h. A+ = A−1 gilt. Definition 2.81 (Unitärer Operator) Ein Operator A heißt unitär, wenn A+ A = AA+ = I bzw. A+ = A−1 gilt. Es folgt dann: ||x|| = ||A{x}||
, A{x}, A{y} = x, y .
(2.82)
Unitäre Operatoren lassen die Norm und das innere Produkt unverändert. Bei Matrixoperatoren erhält man Gleichung (2.82) sofort:
A x, Ay = xT AT · A∗ y ∗ = xT (AAT ∗ )∗ y ∗ = xT y ∗ = x, y . I
(2.83)
Beispiel 2.84 (Unitäre Matrixoperatoren) Standardbeispiele für unitäre Operatoren in Matrixschreibweise sind die Drehung eines Vektors und die Koordinatentransformation in eine neue orthonormale Basis. • Nach den Eigenschaften allgemeiner Operatoren oder Matrixoperatoren folgt nun die Vorstellung von bestimmten Typen von Operatoren.
2.3.2
Typen von linearen Operatoren
Häufig vorkommende lineare Operatoren sind beispielsweise: 2.3.2.1
Lineare Vektortransformation
Hierbei wird ein Vektor im klassischen Sinn auf einen anderen Vektor abgebildet. Technisch gesehen kann der Vektor x eine gerichtete Ursache darstellen, die eine gerichtete Wirkung y erzeugt. Die Grundform lautet dann: y = Ax.
(2.85)
2.3 Operatoren
37
Beispiel 2.86 (Lineare Vektortransformation) Wenn x die elektrische Feldstärke in einem anisotropen Medium darstellt, so kann y die dielektrische Verschiebung beschreiben. • 2.3.2.2
Integraloperator
Der Integraloperator wird durch die Gleichung
b y(t) =
↔
k(t, s) x(s) ds
y = A{x}
(2.87)
a
dargestellt. Die Gleichung kann, je nach gewählter Kern-Funktion k(t, s), eine Integraltransformation sein oder das Ausgangssignal eines Systems darstellen, dem das Eingangssignal x(s) zugeführt wird. Beispiel 2.88 (Integraloperator) Für die inverse Fourier-Transformation wählt man: s=f
x(s) = Y (f ) k(t, f ) = ej2πf t
a = −∞ b = ∞ .
Dann erhält man:
∞ y(t) =
Y (f )ej2πf t df .
•
−∞
2.3.2.3
Differenzialoperator
Ein Beispiel eines Differenzialoperators ist durch die Gleichung a0 y (n) + a1 y (n−1) + . . . + an y = b0 x(n) + b1 x(n−1) + . . . + bn x A{y} = B{x}
(2.89)
mit y (k) =
dk y(t) dtk
x(k) =
dk x(t) dtk
definiert. Solche linearen Differenzialgleichungen sind die Grundlage für die Beschreibung des Zeitverhaltens von Prozessen und Systemen.
2.3.3
Darstellungsmatrix
Mit Hilfe von orthonormalen Basen lassen sich lineare Operatoren in Matrixform mittels der Darstellungsmatrix schreiben. In der Matrizenrechnung sind die Komponenten eines Elements immer als Zerlegung mittels einer orthonormalen Basis zu verstehen.
38 2.3.3.1
2 Mathematische Grundlagen Lineare Vektortransformation
Mittels einer orthonormalen Basis (e1 , e2 , . . . , eN ) werden die Vektoren x und y nach Gleichung (2.28) in ihre Komponenten zerlegt: x = (x1 , x2 , . . . , xN )T
, xi = x, ei ,
y = (y1 , y2 , . . . , yN )T
, yi = y, ei .
Dann lässt sich der Operator A als Darstellungsmatrix A = (aij ) angeben. Die Gleichung y = A x hat für x nur dann eine eindeutige Lösung, wenn A−1 existiert bzw. det(A) = 0 gilt bzw. die Matrix A den vollen Rang besitzt. 2.3.3.2
Integraloperator
Beim Integraloperator werden für die Funktionen x(s) ∈ L2 (a, b) und y(t) ∈ L2 (a, b) jeweils eine Basis (u1 (s), u2 (s), . . .) und (v1 (t), v2 (t), . . .) gewählt. Dann gilt: x(s) =
b
∞
xj uj (s)
, xj =
j=1
y(t) =
∞
x(s)u∗j (s) ds = x, uj ,
a
b yi vi (t)
, yi =
i=1
y(t)vi∗ (t) dt = y, vi .
(2.91)
a
Setzt man Gleichung (2.87) in Gleichung (2.91) ein, so folgt
b b yi = k(t, s)x(s) ds vi∗ (t) dt. a
(2.90)
(2.92)
a
Einsetzen von (2.90) in (2.92) ergibt:
b yi =
a
=
∞
∞
∞ k(t, s) xj uj (s) ds vi∗ (t) dt
(2.93)
j=1
a
xj
j=1
=
b
b a
b
k(t, s)uj (s) ds vi∗ (t) dt
a
aij xj .
= aij
(2.94)
(2.95)
j=1
Daraus folgt die Darstellungsmatrix A = (aij )
, i, j ∈ N.
(2.96)
2.3 Operatoren
39
Insgesamt kann man also schreiben: y = Ax. Der Vorteil der Darstellung des Integraloperators in Matrixform besteht darin, dass sich ein lineares Gleichungssystem gebildet hat. 2.3.3.3
Differenzialoperator
Ausgehend von der Differenzialgleichung (2.89) werden die beiden Funktionen x(t) und y(t) im Funktionenraum L2 (− T20 , T20 ) in Fourier-Reihen, vgl. Abschnitt 3.4, entwickelt: ∞
x(t) =
xk Fk (t)
k=−∞ ∞
y(t) =
1 , Fk (t) = √ ej2πkt/T0 T0
(2.97)
(2.98)
yk Fk (t)
k=−∞
Durch Einsetzen in die Differenzialgleichung folgt: ∞ dn dn−1 yk Fk (t) a0 n + a1 n−1 + . . . + an dt dt k=−∞ ∞ dn dn−1 b0 n + b1 n−1 + . . . + bn xk Fk (t) dt dt
=
(2.99)
k=−∞
oder
dn dn−1 yk a0 n + a1 n−1 + . . . + an Fk (t) dt dt k=−∞ ∞ dn dn−1 xk b0 n + b1 n−1 + . . . + bn Fk (t) . dt dt ∞
=
(2.100)
k=−∞
Die Anwendung des Differenzialoperators auf Fk (t) mit f0 = di 1 Fk (t) = √ i dt T0
j
2π k T0
i
1 T0
ergibt
ej2πkt/T0 = (j2πf0 k)i Fk (t)
(2.101)
für i ∈ {1, . . . , n}. Einsetzen in die Differenzialgleichung ergibt: ∞
=
yk a0 (j2πf0 k)n + a1 (j2πf0 k)n−1 + . . . + an Fk (t)
(2.102)
xk b0 (j2πf0 k)n + b1 (j2πf0 k)n−1 + . . . + bn Fk (t) .
(2.103)
k=−∞ ∞ k=−∞
40
2 Mathematische Grundlagen
Mittels Koeffizientenvergleich folgt: n
yk = gk = i=0 n xk
bi (j2πf0 k)n−i .
(2.104)
ai (j2πf0 k)n−i
i=0
Das heißt es gilt yk = gk xk . Die Darstellungsmatrix ist eine Diagonalmatrix: A = (aij )
2.3.4
, mit aij = δij gi .
(2.105)
Verschiebungsoperator
In abgetasteten Systemen stehen Werte nur zu ganz bestimmten Zeitpunkten zur Verfügung. So ist es möglich, einen Abtastwert um einen oder mehrere Abtastzeitpunkte zu verschieben. Hierbei entspricht die formale Multiplikation eines Signalwertes mit dem Verschiebungsoperator q einer Zeitverzögerung um eine Abtastzeit tA . Analog entspricht eine Zeitverzögerung um n Schritte einer Multiplikation mit q n . Eine negative Zeitverzögerung, d.h. ein Erscheinen eines Signalwertes um eine oder mehrere Abtastzeiten früher, wird mittels negativer Exponenten gekennzeichnet. Beispiel 2.106 (Zeitverzögerung) Ein abgetastetes Signal xn = x(ntA ) wird um zwei Abtastschritte verzögert. Das daraus entstehende Signal yn = y(ntA ) lässt sich durch yn = q 2 · xn angeben. Besteht ein Signal zn = z(ntA ) aus der Addition des nichtverzögerten und des um einen Abtastschritt verzögerten Signals xn , so kann man es durch zn = xn + q · xn = (1 + q) · xn charakterisieren. Entsprechendes gilt für ein Signal wn = (1 + 2q + q 2 + q 4 ) · xn .
2.4
•
Holomorphe Funktionen
Da die „andere Welt“ bei den Transformationen fast ausschließlich im komplexen Körper C liegt, werden an dieser Stelle einige Hilfsmittel aus der Theorie der holomorphen Funktionen wiederholt. Für eine ausführliche Einführung in diese Theorie sei auf die reichliche Literatur verwiesen, z.B. [Jän96].
2.4 Holomorphe Funktionen
41
Die hier vorgestellten Sätze und Definitionen stellen ein Gerüst dar, welches für die in diesem Buch benötigten Zwecke ausreichend ist. Der Vollständigkeit halber sind für die Sätze auch Beweise angegeben, die bei Interesse nachvollzogen werden können. Für den ausschließlich an der Systemtheorie interessierten Leser ist es jedoch ausreichend, die zentralen Resultate und Berechnungsformeln zu kennen, die als Sätze formuliert sind.
2.4.1
Cauchysche Integralformel
Mit der komplexen Größe z sei f (z) eine in einem einfach zusammenhängenden beschränkten Gebiet G, dessen Rand stückweise glatt sei, holomorphe Funktion, die auf G ∪ ∂G, d.h. auf dem Gebiet G und seinem Rand ∂G, stetig ist. Wird f (z) entlang eines geschlossenen, stückweise glatten Integrationsweges C ⊂ R aufintegriert, dann gilt der Cauchysche Integralsatz f (z) dz = 0. (2.107) C
Somit verschwindet für eine holomorphe Funktion das Wegintegral über einen geschlossenen Integrationsweg. Bemerkung 2.108 1. Zur Erinnerung sei erwähnt, dass eine Abbildung φ : [a, b] → C, φ(t) = φR (t) + jφI (t), deren Real- und Imaginärteil stetig sind, als stückweise glatt bezeichnet wird, falls eine Einteilung a = t0 < t1 < . . . < tn = b existiert, so dass sowohl φR (t) als auch φI (t) in jedem Teilintervall [tk , tk+1 ] stetig differenzierbar sind ∂ ∂ ∂ und ∂t φ(t) = ∂t φR (t) + j ∂t φI (t) = 0 gilt. 2. Als Vorstellung kann man sich für die späteren Anwendungen und Aussagen beispielsweise einen Kreis-Weg mit Radius ρ vorstellen, welcher die Darstellung [0, 2π] → ρejt besitzt. Die formulierten Sätze lassen sich damit oft leichter • interpretieren. Die um die Singularität bei z = z0 , z0 ∈ Int{G}, erweiterte Funktion f (z) z − z0 ist im gesamten Gebiet G außer in dem Punkt z0 ebenfalls holomorph, falls dies für die Funktion f (z) zutrifft. Sei C eine stückweise glatte, positiv orientierte und einmal durchlaufene Jordan-Kurve, die ganz in G liege, die z0 enthält und deren Inneres Int{C} ebenfalls in G sei. Hierbei ist eine Jordan-Kurve eine Kurve, bei der die Abbildung W : t → z(t) bijektiv ist und bei der sowohl W als auch W −1 stetig sind. Da z0 nach Voraussetzung ein innerer Punkt von Int{C} ist, liegt der Kreis-Weg Wρ : |z − z0 | = ρ für ein hinreichend kleines ρ ganz im Inneren von C. Somit folgt f (z) f (z) dz = dz. z − z0 z − z0 C
Wρ
42
2 Mathematische Grundlagen
Unter Beachtung von 2πj , K = −1 (ξ − z0 )K dξ = 0 , sonst
(2.109)
Wρ
und mittels der Zerlegung f (z0 ) f (z) − f (z0 ) f (z) = + z − z0 z − z0 z − z0 folgt C
f (z) dz = 2πjf (z0 ) + z − z0
Wρ
f (z) − f (z0 ) dz. z − z0
Da f (z) als holomorph vorausgesetzt war, ist f (z) insbesondere stetig, woraus die Existenz eines Radius ρ = ρ(ε) mit |f (z) − f (z0 )| < ε für alle z ∈ Wρ folgt. Somit kann man das rechte Integral abschätzen als f (z) − f (z0 ) dz ≤ 2πε. z − z0 Wρ Bei Grenzübergang ε → 0 geht dieses Integral gegen null, woraus f (z) 1 f (z0 ) = dz 2πj z − z0 C
folgt. Dieses Resultat wird als Cauchysche Integralformel bezeichnet und im folgenden Satz zusammengefasst. Satz 2.110 (Cauchysche Integralformel) Sei f (z) eine in einem einfach zusammenhängenden abgeschlossenen Gebiet G ⊂ C holomorphe Funktion. Dann gilt für alle stückweise glatten, positiv orientierten und einmal durchlaufenen Jordan-Kurven Γ ⊂ G und alle Punkte z0 aus dem Inneren von Γ die Cauchysche Integralformel : f (z) 1 f (z0 ) = dz. (2.111) z − z0 2πj Γ
Nach [BS00] gilt für die k-te Ableitung von f (z): f (z) k! f (k) (z0 ) = dz . 2πj (z − z0 )k+1
(2.112)
Γ
•
2.4 Holomorphe Funktionen
43
Bemerkung 2.113 Die Cauchysche Integralformel besagt, dass die Werte einer holomorphen Funktion f (z0 ) im Inneren eines einfach geschlossenen Gebietes G vollständig durch die Werte von f (z) auf dem Rand bestimmt sind. Der Integrationsweg umschließt dabei den Punkt z0 . •
2.4.2
Laurent-Reihe
In diesem Abschnitt soll die Entwicklung einer komplexen Funktion in ihre LaurentReihe hergeleitet werden. Zuerst definieren wir hierzu den Begriff der Laurent-Reihe. Definition 2.114 (Laurent-Reihe) Eine Reihe der Form f (z) =
∞
an (z − z0 )n =
n=−∞
∞ n=0
an (z − z0 )n +
∞
a−n (z − z0 )−n (2.115)
n=1
heißt Laurent-Reihe. Sie heißt konvergent, wenn beide auftretenden Summen konvergieren. Eine Laurent-Reihe hat, wie man sich unter Beachtung der geometrischen Reihe überlegt, einen Kreisring der Form {z ∈ C : r+ < |z − z0 | < r− } als Konvergenzgebiet. In Abschnitt 6.3.2, der sich mit dem Existenzbereich der so genannten z-Transformierten befasst, wird eine ähnliche Überlegung ausführlich vorgeführt. Es sei nun eine komplexe Funktion gegeben, die auf solch einem Kreisgebiet {z ∈ C : r+ < |z − z0 | < r− } holomorph ist. Zuerst wählt man ξ1 , ξ2 ∈ R mit der Eigenschaft r+ < ξ2 < ξ1 < r− und definiert die positiv orientierten Wege Γ1 : |z − z0 | = ξ1 und Γ2 : |z − z0 | = ξ2 . Nun bezeichnen wir noch den äußeren Weg mit C1 , C1 = Γ1 , und die Umorientierung des inneren Weges mit C2 , C2 = −Γ2 . Schneidet man den Kreisring mit einer Strecke P Q, P ∈ C1 , Q ∈ C2 , auf und bezeichnet die Schnittufer mit C3 bzw. C4 ,vgl. Abbildung 2.5, dann ist Γ : C2 + C3 + C1 + C4 eine stückweise glatte und mathematisch positiv orientierte Jordan-Kurve. In diesem Fall folgt aus der Cauchyschen Integralformel f (ξ) 1 dξ. f (z) = 2πj ξ−z Γ
44
2 Mathematische Grundlagen
Beachtet man noch f (ξ) f (ξ) dξ, dξ = − ξ−z ξ−z C3
C4
so folgt 1 f (ξ) f (ξ) f (z) = dξ + dξ . · 2πj ξ−z ξ−z C1
(2.116)
C2
Definieren wir die Funktionen w1 (z) bzw. w2 (z) als das Erste bzw. das Zweite der beiden Integrale, so sind also noch explizite Ausdrücke dafür zu bestimmen. 1. Da die Funktion f (z) auf C1 holomorph ist, ist sie insbesondere stetig. Somit ist w1 (z) in |z −z0 | < r− eine holomorphe Funktion und kann deshalb in eine Potenzreihe entwickelt werden. Durch Verwendung der geometrischen Reihe und unter Beachtung der Tatsache, dass die Bedingungen zur Vertauschung von Integration und Summation erfüllt sind, folgt diese Potenzreihe zu 1 w1 (z) = 2πj
f (ξ) ·
1 dξ ξ − z0 − (z − z0 )
f (ξ) ·
1 1 · dξ 0 ξ − z0 1 − z−z ξ−z0
C1
=
1 2πj
C1
1 = 2πj
C1
=
1 2πj
n ∞ z − z0 1 f (ξ) · · dξ ξ − z0 n=0 ξ − z0
f (ξ) · C1
∞ (z − z0 )n dξ (ξ − z0 )n+1 n=0
∞ 1 f (ξ) = dξ · (z − z0 )n n+1 2πj (ξ − z ) 0 n=0 C1
=
∞
an (z − z0 )n ,
n=0
wobei sich die Koeffizienten aus f (ξ) 1 an = dξ 2πj (ξ − z0 )n+1 C1
berechnen.
2.4 Holomorphe Funktionen
45 z
C1
Im{z}
C
C2
C3 z0 r+
C4 '
r-
Re{z}
Abbildung 2.5: Integrationswege
2. Betrachten wir w2 (z) in |z − z0 | > r+ , so ist dort |ξ − z0 | < |z − z0 |, wodurch unter Anwendung der geometrischen Reihe wie im ersten Schritt ∞ 1 (ξ − z0 )n =− ξ−z (z − z0 )n+1 n=0
im Bereich |z − z0 | > r+ folgt. Analog zu obiger Vorgehensweise erhält man hier die Darstellung w2 (z) = −
∞
a−n (z − z0 )−n
n=1
mit a−n =
1 2πj
C2
f (ξ) dξ. (ξ − z0 )−n+1
Setzen wir diese Darstellungen in die für f (z) gezeigte Formel (2.116) ein, so folgt für r+ < |z − z0 | < r− f (z) =
∞
an (z − z0 )n
n=−∞
mit an =
1 2πj
Γ
f (ξ) dξ. (ξ − z0 )n+1
Diese Resultate ergeben folgenden Satz.
46
2 Mathematische Grundlagen
Satz 2.117 (Laurent-Reihe) Eine Funktion f (z) sei im Kreisringgebiet G = {z : r+ < |z − z0 | < r− } holomorph. Dann lässt sich die Funktion f (z) in G in eine eindeutig bestimmte Laurent-Reihe f (z) =
∞
an (z − z0 )n
(2.118)
f (ξ) dξ (ξ − z0 )n+1
(2.119)
n=−∞
mit an =
1 2πj
Γ
bezüglich des Entwicklungszentrums z0 entwickeln. Hierbei ist Γ eine stückweise glatte, geschlossene Kurve, die mathematisch positiv orientiert in dem Kreisgebiet die Kreisscheibe |z − z0 | < r+ einmal umrundet, wie dies beispielsweise für eine • beliebige Kurve |z − z0 | = ρ mit r+ < ρ < r− erfüllt ist. Beweis: Zu zeigen bleibt an dieser Stelle nur noch die Eindeutigkeit der Darstellung. Um diese nachzuweisen, nimmt man an, es gebe eine weitere abweichende Darstellung f (z) =
∞
bn (z − z0 )n .
n=−∞
Betrachtet man die Funktion f (z)/(z − z0 )k , k ∈ Z, so ist diese in dem Kreisring holomorph. Durch Integration längs einer Kurve Γ, wie sie in obigem Satz gefordert wird, erhält man Γ
∞ f (ξ) dξ = bn (ξ − z0 )n−k−1 dξ, (ξ − z0 )k+1 n=−∞ Γ
wobei ebenfalls Summation und Integration vertauscht wurden. Wegen Gleichung (2.109) ergibt sich Γ
f (ξ) dξ = 2πjbk (ξ − z0 )k+1
und somit bk = ak für alle k ∈ Z.
2.4 Holomorphe Funktionen
2.4.3
47
Residuensatz
In diesem Abschnitt wird eine Herleitung des Residuensatzes gegeben, der in der Systemtheorie und somit insbesondere auch in diesem Buch Anwendung findet. Bei den verschiedenen Transformationen vom Zeitbereich in einen wie auch immer gearteten Bildbereich ist die Rücktransformation von entscheidender Bedeutung. Gerade diese Rücktransformation wird durch die Verwendung des Residuensatzes nicht selten vereinfacht, was in diesen Kapiteln dann auch einige Male demonstriert wird. Zur Einführung erinnern wir noch einmal an den Begriff der isolierten Singularität. Definition 2.120 (Isolierte Singularität) Eine Funktion f (z) hat im Punkt z0 eine isolierte Singularität, falls f (z) in z0 nicht holomorph ist, es jedoch ein R > 0 gibt, so dass f (z) in der punktierten Kreisscheibe 0 < |z − z0 | < R holomorph ist. Ebenfalls von großer Bedeutung ist der Begriff des Residuums, welcher der Vollständigkeit halber noch einmal definiert wird. Definition 2.121 (Residuum) Es sei z0 ∈ C eine isolierte Singularität der Funktion f (z). Die Funktion f (z) sei in der Kreisscheibe 0 < |z − z0 | < R in eine Laurent-Reihe der Gestalt f (z) =
∞
an (z − z0 )n
n=−∞
entwickelt. Dann heißt Res{f (z); z0 } = a−1
(2.122)
das Residuum von f (z) an der Stelle z0 . Die Residuen einer Funktion in einem vorgegebenen Punkt lassen sich durch einfache algebraische Rechnung erhalten. Der folgende Satz gibt an, wie diese Berechnung bei Kenntnis der Funktion f (z) erfolgen kann. Satz 2.123 (Residuum) Das Residuum einer Funktion f (z) an einem Pol z∞i ki -ter Ordnung ist durch 1 Res{f (z); z∞i } = (2.124) f (ki −1) (z∞i ) (ki − 1)! dki −1 1 (z − z∞i )ki f (z) = lim k −1 i z→z (ki − 1)! ∞i dz
48
2 Mathematische Grundlagen bzw. für einfache Pole Res{f (z); z∞i } = lim (z − z∞i )f (z) z→z∞i
(2.125) •
gegeben.
Der Residuensatz ermöglicht somit die Berechnung komplizierter Wegintegrale mittels einfacher algebraischer Kalkulation. Satz 2.126 (Residuensatz) Die Funktion f (z) sei in einem einfach zusammenhängenden Gebiet G mit Ausnahme endlich vieler Singularitäten z∞1 , . . . , z∞m holomorph. Weiter sei C eine stückweise glatte Jordan-Kurve, die einmal im mathematisch positiven Sinn durchlaufen wird. Die Kurve C liege außerdem ganz in G und alle Singularitäten sollen im Inneren von C liegen. Dann gilt f (z)dz = 2πj
m
Res{f (z); z∞k }.
(2.127)
k=1
C
• Beweis: Um die Singularitäten z∞k seien jeweils Kreise mit Radien ρk > 0 gewählt, Ck = {z ∈ C : |z − z∞k | = ρk }, deren Radien so gewählt sind, dass die Kreise noch ganz im Inneren von C verlaufen und paarweise disjunkt sind. (Dies ist möglich, da die Singularitäten im Inneren von C liegen und nach Voraussetzung isoliert sind.) G∗ bezeichne nun das Gebiet, welches von C und den Kreisen C1 , . . . , Cm berandet wird. Der Rand dieses Gebietes sei so orientiert, dass C in mathematisch positiver Richtung verläuft, während die Wege C1 , . . . , Cm in mathematisch negativer Richtung verlaufen mögen. Da f (z) in G∗ holomorph ist, folgt f (z)dz = 0 ∂G∗
und somit f (z)dz = −
m
f (z)dz.
k=1C k
C
Bezeichnet nun C˜k gerade den Weg, der durch Umorientierung von Ck entsteht, so ergibt sich f (z)dz = C
m k=1 ˜ Ck
f (z)dz.
2.4 Holomorphe Funktionen
49
Stellt man nun f (z) im Inneren von C˜k durch eine Laurent-Reihe mit Entwicklungspunkt z∞k dar, so folgt f (z)dz = C˜k
∞ l=−∞
al
(z − z∞l )l dz.
C˜k
Unter Beachtung von Gleichung (2.109) entsteht daraus f (z)dz = a−1 2πj = Res{f (z); z∞k } · 2πj, C˜k
womit die behauptete Gleichung bewiesen ist.
Teil II
Zeitkontinuum
3
Zeitkontinuierliche Signale
Physikalisch entstehen Signale durch den kontinuierlichen Verlauf einer beobachteten Größe, d.h. sie lassen sich als kontinuierliche Zeitfunktion darstellen. Man bezeichnet solche Signale als analoge Signale. Dieses Kapitel beinhaltet die Betrachtung und Beschreibung von zeitkontinuierlichen Signalen, deren Eigenschaften und ihre unterschiedlichen Beschreibungsformen. Hierzu werden die aus der Funktionalanalysis vorgestellten Hilfsmittel in konkrete mathematische Anweisungen überführt. Unter stochastischen Signalen sind Signale zu verstehen, deren zeitlicher Verlauf mit Hilfe einer analytischen Beschreibung nicht vorhergesagt werden kann. Ihre Verarbeitung erfolgt mit Hilfe der Korrelationsfunktion, die ein deterministisches Signal ist [KE05]. Im Gegensatz hierzu stehen die deterministischen Signale. Bei ihnen ist der zeitliche Verlauf exakt beschreibbar. Leider gibt es dafür keine einheitliche Regelung, da die beiden Klassen der Energie- bzw. Leistungssignale unterschieden werden müssen. Die Fourier-Reihe ermöglicht eine anschauliche Spektralanalyse für periodische Signale. Die Erweiterung für allgemeine, zeitkontinuierliche Signale ist die Fourier-Transformation. Anschließend werden einige Testsignale eingeführt, die bei der Signaluntersuchung und -verarbeitung häufig eingesetzt werden. Bei endlicher Beobachtungsdauer des Signals im Zeitbereich entsteht der Leckeffekt. Hierbei ergibt sich im Spektrum eine „Verschmierung“, d.h. die Auflösung im Frequenzbereich wird schlechter. Hat das Signal eine Unstetigkeitsstelle, so lässt sich der Signalverlauf nach einer Fourier-Transformation durch die Rücktransformation nicht mehr exakt rekonstruieren. Diese Tatsache wird als das Gibbssche Phänomen bezeichnet. Abschließend wird das Zeitdauer-Bandbreite-Produkt und das Lemma von RiemannLebesgue behandelt. Diese Eigenschaften sind jeweils für alle Signale gültig und beziehen sich nicht, wie das Gibbssche Phänomen und der Leckeffekt, nur auf bestimmte Signale.
3.1
Funktionenräume
In den einzelnen Definitionen und Sätzen der Funktionalanalysis wurde in Kapitel 2 wenig über die Art der Vektoren gesprochen. Es wurde eigentlich instinktiv angenommen, dass es sich um Vektoren im klassischen Sinne handelt. Jedoch können mit allgemeinen Normen ||x||, Distanzen d(x, y) und Innenprodukten x, y sehr viele verschiedene „Räume“ gebildet werden.
54
3 Zeitkontinuierliche Signale
In diesem Abschnitt werden die Funktionenräume behandelt. Die Definitionen von Norm, Abstand und Innenprodukt hängen davon ab, was die Funktionen in der „realen“ Welt bedeuten. Trotzdem gelten für alle Funktionen die beiden folgenden Definitionen über Addition und Skalarmultiplikation von Funktionen und den Abstand zweier Funktionen. Definition 3.1 (Addition und Skalarmultiplikation von Funktionen) Die Addition und die Skalarmultiplikation von Funktionen werden auf nahe liegende Weise definiert: (F1) (f1 + f2 ) (t) = f1 (t) + f2 (t) , (F2) (c f1 ) (t) = c · f1 (t) . Mit diesen Definitionen wird die Funktionenmenge {f (t) : R −→ R} ein Vektorraum über dem Skalarkörper R.
Definition 3.2 (Abstand von Funktionen) Der Abstand zweier Funktionen f1 (t) und f2 (t) wird über die Norm bestimmt: d(f1 (t), f2 (t)) = ||f1 (t) − f2 (t)|| .
(3.3)
Natürlich kann der Abstand zweier Funktionen nur dann angegeben werden, wenn die beiden Funktionen eine endliche Norm ||fi (t)|| < ∞ besitzen. Hier stellt sich nun die Frage, wie das Innenprodukt und die Norm von Funktionen berechnet werden. Dazu unterscheidet man verschiedene Signale.
3.1 Funktionenräume
3.1.1
55
Signalklassen
Bei der allgemeinen Betrachtung im Zeitintervall R unterscheidet man drei Signaltypen.
Definition 3.4 (Energiesignale) Ein beschränktes, stückweise stetiges Signal y(t), für das
∞
∞
∗
−∞
2
|y(t)| dt < ∞
y(t)y (t) dt = −∞
gilt, nennt man Energiesignal.
Der Name kommt von der physikalischen Interpretation, da das Integral als Energie des Signals interpretiert werden kann. Somit sind also Energiesignale gerade diejenigen Signale, welche eine endliche Energie besitzen. Damit die Konvergenz des Intergrals gesichert ist, müssen die Signale für große Zeiten verschwinden. Eine notwendige Bedingung, damit eine Funktion y(t) überhaupt ein Energiesignal sein kann, ist also: lim y(t) = 0.
t→±∞
Definition 3.5 (Leistungssignale) Ein beschränktes, stückweise stetiges Signal y(t), für welches das Integral
∞
y(t)y ∗ (t) dt
−∞
divergiert (unendliche Energie), jedoch der Grenzwert 1 lim T →∞ 2T
T −T
1 y(t)y (t) dt = lim T →∞ 2T ∗
T
2
|y(t)| dt < ∞ −T
existiert, nennt man Leistungssignal.
Der Grenzwert lässt sich physikalisch als mittlere Leistung interpretieren. Beispielsweise handelt es sich bei der Klasse der beschränkten, periodischen Signale um Leistungssignale. Die mittlere Leistung von Energiesignalen ist null.
56
3 Zeitkontinuierliche Signale
Definition 3.6 (Sonstige Signale) Alle Zeitfunktionen y(t), für welche die Integrale
∞
y(t)y ∗ (t) dt
−∞
bzw. 1 lim T →∞ 2T
T
y(t)y ∗ (t) dt
−T
nicht existieren, welche unstetig oder unbeschränkt sind, werden als sonstige Signale klassifiziert.
Auch wenn aufgrund der Definitionen die meisten Funktionen als sonstige Signale zu klassifizieren sind, so lassen sich mit Hilfe der Energie- und Leistungssignale leistungsstarke Analyse- und Synthesemethoden in der Signal- und Systemtheorie beschreiben. Bemerkung 3.7 Betrachtet man nicht das Zeitintervall R sondern ein endliches Zeitintervall wie z.B. (a, b) oder [a, b], so fällt aufgrund der Endlichkeit des Zeitintervalls der Begriff des Leistungssignals weg, d.h. alle Leistungssignale werden in einem endlichen Zeitintervall zum Energiesignal, da das Integral
b
y(t)y ∗ (t) dt
a
konvergiert. Da man sich ein auf einem endlichen Intervall definiertes Energiesignal stets periodisch wiederholt denken kann, könnte das periodisch wiederholte Signal auch als Leistungssignal interpretiert werden. • In praktischen Anwendungen ist ein unendliches Zeitintervall zur Messung von Signalen nicht möglich. Man wird es daher immer mit zeitbegrenzten Funktionen zu tun haben. In späteren Anwendungen geht man implizit häufig von einer periodischen Fortsetzung des Signals außerhalb des Zeitintervalls über alle Zeiten aus. Dadurch lassen sich diese Signale in die Klasse der Leistungssignale einordnen.
3.1.2
Norm und Innenprodukt von Signalen
Für Energie- und Leistungssignale lassen sich jeweils unitäre Funktionenräume mit Norm und Innenprodukt definieren.
3.1 Funktionenräume
57
Definition 3.8 (Norm und Innenprodukt von Energiesignalen) Die Norm und das ∞Innenprodukt von Energiesignalen im Funktionenraum L2 (R) = {y(t) : R → C : −∞ |y(t)|2 dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L2 (R) angegeben durch ∞ 21
||y(t)|| = y(t)y ∗ (t) dt < ∞ (3.9) −∞
beziehungsweise
∞ y1 (t), y2 (t) =
y1 (t)y2∗ (t) dt.
(3.10)
−∞
Bemerkung 3.11 Da in späteren Abschnitten auch Funktionen auftreten, welche von mehreren Zeitvariablen abhängen, wird bei Innenprodukten zwischen Funktionen stets die Variable als tief gestellter Index angegeben, bezüglich der das Innenprodukt gebildet wird. Somit lautet Gleichung (3.10) in dieser ausführlicheren Schreibweise:
∞ y1 (t), y2 (t)t =
y1 (t)y2∗ (t) dt .
(3.12)
−∞
Beispielsweise entstehen bei den Kurzzeittransformationen, welche in der Signalverarbeitung Anwendung finden, Funktionen, die von mehreren Zeit- oder Frequenzvariablen abhängen. Auch hier wird bei Faltungsoperatoren zur Verdeutlichung ein • Index angegeben. Bedingung für die Existenz der Norm ist die Konvergenz des Integrals. Existiert die Norm beider Funktionen y1 (t) und y2 (t), so existiert auch ihr Innenprodukt, was sich leicht über die Schwarzsche Ungleichung (2.11) zeigen lässt:
|y1 (t), y2 (t)t | = 2
∞
−∞
y1 (t)y2∗ (t)
2 dt ≤ ||y1 (t)||2 · ||y2 (t)||2 .
Statt des Integrationsbereiches R kann natürlich auch ein endliches Intervall gewählt werden, womit sich dann ein entsprechender Raum L2 (a, b) ergibt.
58
3 Zeitkontinuierliche Signale
Definition 3.13 (Norm und Innenprodukt von Leistungssignalen) ˜ 2 (R) = Die Norm und das Innenprodukt für Leistungssignale im Funktionenraum L T 1 ˜ 2 (R) |y(t)|2 dt < ∞} werden für y(t), y1 (t), y2 (t) ∈ L {y(t) : R → C : limT →∞ 2T −T durch ||y(t)|| = lim
T →∞
1 2T
T
12 y(t)y ∗ (t) dt < ∞
(3.14)
−T
beziehungsweise 1 y1 (t), y2 (t)t = lim T →∞ 2T
T
y1 (t)y2∗ (t) dt
(3.15)
−T
angegeben.
3.1.3
Norm und Innenprodukt mit Belegung
In diesem Abschnitt bezeichnen X und Y reellwertige Funktionen, die man sich als Zufallsvariablen vorstellen kann. Definition 3.16 (Norm und Innenprodukt mit Belegung) Mit den beiden reellen Belegungen µ(x) ≥ 0 und µ(x, y) ≥ 0, die den Wert x bzw. (x, y) entsprechend der Abbildung X bzw. (X, Y ) gewichten, wird die Norm und das Innenprodukt wie folgt definiert: ||X|| =
∞
12 x2 · µ(x) dx ,
(3.17)
−∞
∞ ∞
xy · µ(x, y) dx dy .
X, Y = −∞−∞
Hierzu lässt sich folgendes Beispiel angeben:
(3.18)
3.2 Stochastische Signale
59
Beispiel 3.19 (Erwartungswerte) Mit den reellen Belegungen f (x) ≥ 0 und f (x, y) ≥ 0, welche den Normierungsbedingungen
∞ f (x) dx = 1
∞ ∞
−∞
f (x, y) dx dy = 1 −∞−∞
genügen, kann man die Norm als quadratischen Mittelwert 2
||X||
∞
2
= E{X } =
x2 · f (x) dx
(3.20)
−∞
und das Innenprodukt als Kreuzkorrelation
∞ ∞ X, Y = E{XY } =
xy · f (x, y) dx dy
(3.21)
−∞−∞
interpretieren. Mit Hilfe der Schwarzschen Ungleichung (2.11) lässt sich einfach eine Abschätzung für die Kreuzkorrelation ermitteln: • X, Y ≤ ||X|| · ||Y || ⇐⇒ E{XY } ≤ E{X 2 } · E{Y 2 }
3.2
Stochastische Signale
Bei der Konstruktion, Berechnung oder Analyse von Systemen mit zeitkontinuierlichen Signalen muss man im Allgemeinen das Signal kennen. So wird bei einem bestimmten Eingangssignal das Ausgangssignal berechnet. Doch wenn wir alle Eingangssignale bereits im Voraus kennen würden, so bräuchten wir sie eventuell gar nicht. Wenn man vor der Messung einer Länge das Ergebnis schon kennt, so kann man sich die Messung sparen. Im Allgemeinen sind die Signale nicht vorherbestimmt, sondern unbestimmt. Wenn bei einer Nachrichtenübertragung das Signal für den Sender bekannt ist, so ist das Signal für den Empfänger ein Zufallssignal oder stochastisches Signal, da das übertragene Signal für den Empfänger unbekannt ist – sonst bräuchte man es nicht übertragen – und es von zufälligen Störungen überlagert ist. Diese zufälligen oder auch stochastischen Signale können aber trotzdem schon im Voraus Informationen enthalten. So kennt man beim Wurf eines Würfels zwar nicht die als Nächstes erscheinende Augenzahl, trotzdem weiß man, dass bei einem idealen Würfel jede Augenzahl gleichwahrscheinlich auftritt. In diesem Abschnitt wird, nach kurzer Wiederholung einiger technisch wichtiger Wahrscheinlichkeitsdichten, der stochastische Prozess eingeführt. Genauere Ausführungen findet man in [BS75, Hän83, Ise74, Jon00].
60
3.2.1
3 Zeitkontinuierliche Signale
Wahrscheinlichkeitsverteilung
In der Natur zeigt sich, dass viele Ereignisse, die von einer oder mehreren zufälligen Größen abhängen, zumindest näherungsweise bestimmten Wahrscheinlichkeitsverteilungen gehorchen. Zu den am meisten verwendeten Verteilungen gehören die Gleichverteilung, die Normalverteilung und die Exponentialverteilung.
3.2.1.1
Gleichverteilung
Die Gleichverteilung einer Zufallsvariablen Y im Intervall [a, b] ist durch ihre Wahrscheinlichkeitsdichte fY (y) =
1 b−a
für a ≤ y ≤ b sonst
0
(3.22)
gegeben. In Abbildung 3.1 ist als Beispiel die Wahrscheinlichkeitsdichte einer Gleichverteilung im Intervall [a, b] dargestellt. fY (y) 1 b-a
a
b
Abbildung 3.1: Wahrscheinlichkeitsdichte bei Gleichverteilung
y
Der Erwartungswert E{Y }, der auch als Mittelwert bezeichnet und als µy geschrieben wird,
∞ µy = E{Y } =
b y fY (y) dy =
−∞
a
y 1 b2 − a2 1 dy = = (a + b) (3.23) b−a 2 b−a 2
und die Varianz V {Y }, die oft auch als σ 2 geschrieben wird,
∞
2
2
(y − µy ) fY (y) dy =
σ = −∞
=
b
1 b−a
a
b a
2 1 1 y − (a + b) dy 2 b−a
1 y 2 − (a + b)y + (a + b)2 dy 4
1 1 3 1 1 = (b − a3 ) − (a + b)(b2 − a2 ) + (a + b)2 (b − a) b−a 3 2 4
3.2 Stochastische Signale
61
1 1 (b3 − 3ab2 + 3a2 b − a3 ) 12 b − a 1 = (b − a)2 12
=
(3.24)
folgen mittels einfacher Rechnung. Der Quantisierungsfehler eines Analog-Digital-Wandlers wird beispielsweise näherungsweise als gleichverteilt angenommen, vgl. [KE05]. Wenn man also eine physikalische Größe diskretisiert, so ist der Fehler zwischen dem eigentlichen Wert und dem diskreten Wert gleichverteilt. 3.2.1.2
Normalverteilung
Die Normalverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte 1 (y − µ)2 fY (y) = √ (3.25) exp − 2σ 2 2πσ mit den Parametern µ und σ 2 gegeben. In Abbildung 3.2 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte bei Normalverteilung. fY (y)
y−σ
y
y+σ
Abbildung 3.2: Wahrscheinlichkeitsdichte bei Normalverteilung
y
Man kann durch Rechnung zeigen, dass der Erwartungswert E{Y } gleich µ
∞ E{Y } = −∞
= √
1 y fY (y) dy = √ 2πσ
1 2πσ
1 = √ 2πσ
∞
(y − µ)2 2σ 2 dy ye −
−∞ 2
y − (y + µ) e 2σ 2 dy
−∞
∞ −∞
µ = 2√ 2πσ =µ
∞
y2 y2
∞ − 2 µ 2 y e 2σ dy + √ e 2σ dy 2πσ −∞ −
=0
∞ 0
y2 √ π µ 2 2σ e dy = 2 √ 1 2πσ 2 √ 2σ −
(3.26)
62
3 Zeitkontinuierliche Signale
und die Varianz gleich σ 2
∞
2
E{(Y − E{Y }) } =
(y − µ)2 fY (y) dy
−∞
1 = √ 2πσ
∞
(y − µ)2 2σ 2 dy (y − µ)2 e −
−∞
y2 y2
∞ − 2 y 2 e 2σ 2 dy y 2 e 2σ 2 dy = √ 2πσ −∞ 0 √ √ 3 π( 2σ) 2 = √ 4 2πσ
1 = √ 2πσ
∞
−
= σ2
(3.27)
ist. Ist eine Zufallsvariable normalverteilt, so wird ihre Verteilung durch diese beiden Parameter vollständig bestimmt. Durch Variablentransformation kann man jede Normalverteilung in eine „Einheitsnormalverteilung“ überführen, die den Mittelwert 0 und die Varianz 1 besitzt und deren Wahrscheinlichkeitsdichte durch y2 1 − fY (y) = √ e 2 2π
(3.28)
gegeben ist. Bei mehrdimensionalen Zufallsvektoren Y = (Y1 , . . . , YN )T wird der Mittelwert µ von einem Mittelwertvektor m und die Varianz σ 2 von der Kovarianzmatrix C Y abgelöst. Die Elemente des Mittelwertvektors entsprechen den einzelnen Mittelwerten der Zufallsvariablen m = (µ1 , . . . , µN )T
, µi = E{Yi },
(3.29)
und die Elemente der Kovarianzmatrix werden nach folgendem Schema bestimmt: cij = E{(Yi − µi )(Yj − µj )} .
(3.30)
Dann hat die Wahrscheinlichkeitsdichte der mehrdimensionalen Normalverteilung folgende Darstellung:
fY (y) =
1
1 − (y − m)T C −1 Y (y − m) 2 e . 1
(2π)N/2 |C Y | 2
(3.31)
Die Normalverteilung kommt sehr häufig in der Natur vor. Zum Beispiel ist der Signalwert eines weißen Rauschens normalverteilt [BS75].
3.2 Stochastische Signale 3.2.1.3
63
Exponentialverteilung
Die Exponentialverteilung einer Zufallsvariablen Y ist durch die Wahrscheinlichkeitsdichte −λy für y ≥ 0 fY (y) = λe (3.32) 0 sonst charakterisiert. In Abbildung 3.3 sieht man ein Beispiel einer Wahrscheinlichkeitsdichte bei Exponentialverteilung. f (y) Y
λ
y
Abbildung 3.3: Wahrscheinlichkeitsdichte bei Exponentialverteilung
Ihr Erwartungswert respektive Mittelwert beträgt, wie man leicht nachrechnet, E{Y } =
1 λ
(3.33)
und die Varianz lautet σ2 =
1 . λ2
(3.34)
Die Zeiten bis zum Ausfall gleichartiger Bauelemente werden beispielsweise als exponentialverteilt angenommen. Hierbei ist die Ausfallrate λ der Proportionalitätsfaktor in der Differenzialgleichung dN = −λN dt
=⇒
N (t) = N0 · e−λt .
Die momentane Abnahme der intakten Bauelemente ist proportional zur Zahl der intakten Bauelemente. Die Vorgeschichte der Bauelementezahl bleibt dabei unberücksichtigt.
3.2.2
Stochastische Prozesse
Bei den klassischen Zufallsexperimenten werden die Elementarereignisse durch fest zugeordnete Werte gekennzeichnet, z.B. wird das Ergebnis beim Würfeln durch eine Zahl zwischen 1 und 6 beschrieben. Im Bereich der Signalverarbeitung können die Zufallsereignisse nicht einem einzelnen Zahlenwert, sondern müssen einem parameterabhängigen Zahlenwert, also einer Funktion bzw. Folge zugeordnet werden. Dieser Parameter ist im Folgenden die Zeit t bzw. der Zeitindex n. Im Allgemeinen darf der Parameter aber auch eine andere Bedeutung haben. Bei einem Zufallsexperiment, dessen Elementarereignisse ω ∈ Ω durch die Zahlenwerte einer Zufallsvariablen gekennzeichnet sind, müssen alle möglichen Zahlenwerte y (ω) ,
64
3 Zeitkontinuierliche Signale
ω ∈ Ω, einer auf einem Wahrscheinlichkeitsraum (Ω, A, P ) definierten Zufallsvariablen Y : Ω −→ R zur Beschreibung des Zufallsexperimentes herangezogen werden. Wenn den Elementarereignissen Funktionen zugeordnet sind, müssen alle bei diesem Zufallsexperiment möglichen Funktionen zur Beschreibung dieses Zufallsexperiments verwendet werden. Die Gesamtheit dieser Funktionen y (ω) (t), ω ∈ Ω, nennt man einen stochastischen Prozess. Definition 3.35 (Stochastischer Prozess) Ein stochastischer Prozess Y : T × Ω −→ R ist eine Familie von Zufallsvariablen, welche durch t ∈ T indiziert ist, wobei T als diskrete oder kontinuierliche Zeit interpretiert werden kann. Die Zufallsvariablen sind über demselben Wahrscheinlichkeitsraum (Ω, A, P ) definiert. Somit ist Y (t, ω) für festes t ∈ T eine gewöhnliche Zufallsvariable, während bei festem ω ∈ Ω durch Y (t, ω) eine Zeitfunktion gegeben ist. Betrachtet man Y (t, ω) bei festem t ∈ T als Zufallsvariable, so wird diese Zufallsvariable oft auch mit Y (t) bezeichnet, wobei dann die Abhängigkeit von ω dadurch verdeutlicht ist, dass wie bei gewöhnlichen Zufallsvariaben ein Großbuchstabe verwendet wird. Die bei festem ω ∈ Ω entstehende Zeitfunktion wird Musterfunktion des stochastischen Prozesses genannt und mit y (ω) (t) bezeichnet, um die Abhängigkeit von ω und somit die Zufälligkeit dieser Funktion hervorzuheben. Ein Signal, dessen Funktion mit den Mitteln eines stochastischen Prozesses untersucht werden kann, nennt man stochastisches Signal. Gehört zu jedem Elementarereignis ω ∈ Ω nicht nur eine einzige Funktion y (ω) (t), (ω) (ω) sondern sind ihm m Funktionen y1 (t), . . ., ym (t) fest zugeordnet, so handelt es sich um einen m-dimensionalen stochastischen Prozess {Y (t) = (Y1 (t), . . . , Ym (t))T }. Hier spricht man davon, dass ein m-dimensionaler stochastischer Prozess aus m einzelnen stochastischen Signalen besteht. Dies ist immer dann sinnvoll, wenn die m Signale im Zusammenhang als Einheit betrachtet werden können. Beispiel 3.36 (Rauschspannung) Die Spannung u(t) an einem Widerstand R ist, bedingt durch thermisches Rauschen, verrauscht und kann auch bei Kenntnis des durchfließenden Stromes i(t) nicht vorhergesagt werden. Hierbei handelt es sich um einen stochastischen Prozess, dessen Funktion beliebige Werte annehmen kann. Die Schar aller möglichen Funktionen ist unendlich groß. • Beispiel 3.37 (Elektronenspin) Der Spin eines Elektrons 1 L(s) ¯ z =± h 2
3.2 Stochastische Signale
65
kann sich nicht nur mit der Zeit ändern, sondern ist im Allgemeinen auch nicht vorhersehbar. Hierbei handelt es sich um einen stochastischen Prozess, dessen Funktion nur zwei diskrete Werte annehmen kann. Auch hier ist die Schar aller möglichen Funktionen über der Zeit unendlich groß. • Beispiel 3.38 (CD-Spieler) Das digitale (wert- und zeitdiskrete) Ausgangssignal yn , n ∈ {1, . . . , N }, eines CDSpielers ist von der eingelegten CD abhängig und damit deterministisch. Betrachtet man aber einen zufällig ausgewählten CD-Spieler, so kann man das Ausgangssignal yn , n ∈ {1, . . . , N }, nicht vorhersagen. Zwar beschränkt sich die Schar aller möglichen Ausgangssignale auf die Anzahl aller möglichen CDs, und diese Anzahl ist endlich. Trotzdem geht man ohne Kenntnis der eingelegten CD von einem stochastischen Signal und damit von einem stochastischen Prozess aus. • 3.2.2.1
Wahrscheinlichkeitsdichte
Die Definition der Wahrscheinlichkeitsdichte folgt unmittelbar aus der klassischen Wahrscheinlichkeitsrechnung. Dazu wird als Erstes die Verteilungsfunktion definiert, die Aussagen über das Verhalten der Amplitude zu einem Zeitpunkt t erlaubt. Definition 3.39 (Verteilungsfunktion) Die Verteilungsfunktion eines stochastischen Prozesses {Y (t)}, FY (y, t) = P ({Y (t) ≤ y}) , gibt die Wahrscheinlichkeit an, mit der der zufällige Funktionswert (Signalwert) Y (t) zum Zeitpunkt t kleiner gleich y ist. Somit ist die Verteilungsfunktion von den beiden Parametern y und t abhängig. Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion. Definition 3.40 (Wahrscheinlichkeitsdichte) Die Wahrscheinlichkeitsdichte eines stochastischen Prozesses {Y (t)} ergibt sich durch fY (y, t) =
∂FY (y, t) ∂y
ebenfalls als Funktion zweier Variablen. Dabei gilt:
∞ fY (y, t) dy = 1 . −∞
(3.41)
66
3 Zeitkontinuierliche Signale
Sowohl die Verteilungsfunktion als auch die Wahrscheinlichkeitsdichte hängen im allgemeinen Fall von der Zeit t ab. Die partielle Ableitung in Gleichung (3.41) ist als verallgemeinerte Ableitung anzusehen. An Stellen, an denen in der Verteilungsfunktion Sprünge auftreten, enthält die Wahrscheinlichkeitsdichte δ-Distributionen. Betrachtet man nun m-dimensionale stochastische Prozesse, so ist auch hier eine Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte definiert. Es bedarf lediglich einer Übertragung der eindimensionalen Begriffe auf mehrdimensionale Funktionen. Man betrachtet also gleichzeitig das Verhalten der eindimensionalen Zufallsgrößen Y1 (t), . . . , Ym (t) zu Zeitpunkten t1 , . . . , tm . Dies wird in der folgenden Definition erfasst: Definition 3.42 (Mehrdimensionale Verteilungsfunktion) Die Verteilungsfunktion eines m-dimensionalen stochastischen Prozesses {Y (t)} , Y (t) = (Y1 (t), . . . , Ym (t))T , FY (y1 , . . . , ym , t1 , . . . , tm ) = P ({Y1 (t1 ) ≤ y1 } ∩ · · · ∩ {Ym (tm ) ≤ ym }) , gibt die Wahrscheinlichkeit an, mit der die Funktionswerte (Signalwerte) Yi (t) zum Zeitpunkt ti kleiner oder höchstens gleich yi sind. Hieraus folgt die Wahrscheinlichkeitsdichte als partielle Ableitung der Verteilungsfunktion. Definition 3.43 (Mehrdimensionale Wahrscheinlichkeitsdichte) Die Wahrscheinlichkeitsdichte eines m-dimensionalen stochastischen Prozesses {Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , ist durch fY (y1 , . . . , ym , t1 , . . . , tm ) =
∂ m FY (y1 , . . . , ym , t1 , . . . , tm ) ∂y1 · · · ∂ym
gegeben. Dabei gilt:
∞ ∞ · · · fY (y1 , . . . , ym , t1 , . . . , tm ) dy1 · · · dym = 1 . −∞
−∞
Beim mehrdimensionalen stochastischen Prozess kommt noch der Begriff der statistischen Unabhängigkeit hinzu.
3.2 Stochastische Signale
67
Definition 3.44 (Statistische Unabhängigkeit) Die Komponenten Y1 (t), . . . , Ym (t) eines m-dimensionalen stochastischen Prozesses {Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , heißen statistisch unabhängig, wenn die Gleichungen FY (y1 , . . . , ym , t1 , . . . , tm ) = FY1 (y1 , t1 ) · . . . · FYm (ym , tm ) bzw. fY (y1 , . . . , ym , t1 , . . . , tm ) = fY1 (y1 , t1 ) · . . . · fYm (ym , tm ) gelten. Die m-dimensionale Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte ist das Produkt der m einzelnen Verteilungsfunktionen bzw. Wahrscheinlichkeitsdichten.
Statistische Unabhängigkeit ist eine Eigenschaft, die experimentell höchstens näherungsweise nachgewiesen werden kann. Bei der Formulierung eines Modells für ein System kann sie — sofern sie nicht bereits aus den Annahmen über die Quellen auftretender Zufallsprozesse folgt — nur als Voraussetzung formuliert werden. Dies ist in der Regel berechtigt, wenn die stochastischen Signale verschiedene Ursachen haben. Statistische Unabhängigkeit bedeutet immer eine wesentliche Vereinfachung der Modellanalyse. Man wird daher oft auch dort versuchen, mit statistischer Unabhängigkeit zu arbeiten, wo die Quellen der stochastischen Signale zwar nicht völlig unabhängig voneinander sind, vorhandene Abhängigkeiten aber nicht interessieren oder keine allzu große Auswirkung auf die untersuchte Fragestellung haben. 3.2.2.2
Momente
Mit Hilfe der Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte wird ein stochastischer Prozess beschrieben. Ob man aber auf diese Weise eine vollständige Beschreibung aller Eigenschaften des Prozesses erlangt und wie diese vollständige Beschreibung aussehen muss, soll hier nicht weiter vertieft werden. Schon aus rein praktischen Gründen kann man nämlich die Genauigkeit bei der Beschreibung der Eigenschaften eines stochastischen Prozesses im Allgemeinen nicht beliebig weit treiben. Allein um einen eindimensionalen, stochastischen Prozess {Y (t)} durch seine Verteilungsfunktion FY (y, t) zu beschreiben, muss diese Funktion für genügend dicht gelegene Punkte t messtechnisch oder analytisch aus den Gesetzmäßigkeiten, denen die Musterfunktionen y (ω) (t) von {Y (t)} gehorchen, ermittelt werden. Dabei ist auch zu bedenken, dass meistens gar nicht alle möglichen Musterfunktionen eines Prozesses, sondern lediglich eine geringe Anzahl derselben gemessen werden können. Die Ermittlung der Verteilungsfunktion für zweidimensionale stochastische Prozesse {Y (t)} wird offensichtlich noch aufwändiger werden. Aus diesen Gründen verzichtet man auch häufig darauf, die Eigenschaften eines stochastischen Prozesses durch seine Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte zu beschreiben. Man versucht stattdessen, die zugehörigen Momente, wie z.B. Erwartungswerte, zu ermitteln, wobei man sich in der Praxis auf die Momente erster und
68
3 Zeitkontinuierliche Signale
zweiter Ordnung beschränkt. Mit der Kenntnis dieser Momente lassen sich viele praktische Aufgaben lösen. Bei eindimensionalen stochastischen Prozessen werden die Momente durch folgende Definitionen beschrieben.
Definition 3.45 (Moment eines stochastischen Prozesses) Durch
∞ E{Y n (t)} =
y n fY (y, t)dy
(3.46)
−∞
wird das n-te Moment des stochastischen Prozesses {Y (t)} definiert, welches auch als µn (t) bezeichnet wird.
Durch eine Verschiebung der Zufallsgröße auf ihren Mittelwert ergibt sich das zentrale Moment eines stochastischen Prozesses.
Definition 3.47 (Zentrales Moment eines stochastischen Prozesses) Durch
∞ E{(Y (t) − E{Y (t)}) } =
(y − E{Y (t)})n fY (y, t) dy
n
(3.48)
−∞
wird das n-te zentrale Moment des stochastischen Prozesses {Y (t)} definiert. Bemerkung 3.49 1. Das erste Moment ist der zeitabhängige Erwartungswert beziehungsweise der Mittelwert µ(t). 2. Das zweite zentrale Moment heißt Varianz σ 2 (t). Sie ist ein Maß für die Streuung der Werte um den Mittelwert. Die Wurzel der Varianz heißt Standardabweichung. 3. Bei der Berechnung der zentralen Momente wird vom Signalwert y der Mittelwert abgezogen. Das heißt bei mittelwertfreien stochastischen Signalen ist das • i-te Moment gleich dem i-ten zentralen Moment. Bei mehrdimensionalen stochastischen Prozessen können die Momente im Allgemeinen nicht mehr berechnet werden. Nur noch bei zweidimensionalen stochastischen Prozessen lassen sich die beiden ersten Momente berechnen.
3.2 Stochastische Signale
69
Definition 3.50 (Erstes Moment eines zweidimensionalen Prozesses) Das erste Moment eines zweidimensionalen stochastischen Prozesses {Y (t)}, Y (t) = (Y1 (t), Y2 (t))T , wird durch einen zweidimensionalen Vektor beschrieben. Die j-te Komponente lässt sich durch
∞ µj (t) = E{Yj (t)} =
yj fYj (yj , t) dyj
, j = 1, 2,
(3.51)
−∞
bestimmen.
Definition 3.52 (Zweites Moment eines zweidimensionalen Prozesses) Das zweite Moment bzw. das zweite zentrale Moment eines zweidimensionalen stochastischen Prozesses {Y (t)}, Y (t) = (Y1 (t), Y2 (t))T , wird durch eine (2 × 2)-Matrix beschrieben. Die (jk)-te Komponente lässt sich beim zweiten Moment durch
∞ ∞ yj yk fY (yj , yk , t1 , t2 ) dyj dyk (3.53)
rjk (t1 , t2 ) = E{Yj (t1 )Yk (t2 )} = −∞−∞
und beim zweiten zentralen Moment durch cjk (t1 , t2 ) = E {[Yj (t1 ) − E{Yj (t1 )}] · [Yk (t2 ) − E{Yk (t2 )}]}
∞ ∞ = (yj − µj (t1 ))(yk − µk (t2 ))fY (yj , yk , t1 , t2 ) dyj dyk
(3.54)
−∞−∞
berechnen. Dabei nennt man cjk die Kovarianz und rjk die Korrelation zwischen der j-ten und k-ten Komponente. Für j = k spricht man von Autokorrelation bzw. Autokovarianz, ansonsten von Kreuzkorrelation bzw. Kreuzkovarianz. Die (2×2)-Matrizen bezeichnet man entsprechend als Korrelationsmatrix RY ,Y (t1 , t2 ) bzw. Kovarianzmatrix C Y ,Y (t1 , t2 ).
Bemerkung 3.55 Bei der Korrelation komplexwertiger Energie- oder Leistungs-Signale wird eines der beiden Signale komplex konjugiert. Die hier betrachteten stochastischen Prozesse sind jedoch stets reellwertig, weswegen die Konjugation entfällt. • Man beachte, dass die Korrelation rY2 ,Y1 (t1 , t2 ) den statistischen Zusammenhang beschreibt, der zwischen Y2 (t1 ) und Y1 (t2 ) besteht. rY1 ,Y2 (t1 , t2 ) beschreibt hingegen den
70
3 Zeitkontinuierliche Signale
Zusammenhang zwischen Y1 (t1 ) und Y2 (t2 ). Es gilt im Allgemeinen rY2 ,Y1 (t1 , t2 ) = rY1 ,Y2 (t1 , t2 )
, falls t1 = t2 .
(3.56)
Die Korrelationsmatrix ist also für t1 = t2 eine asymmetrische und für t1 = t2 eine symmetrische Matrix. Entsprechend gilt für die Kovarianzmatrix im Allgemeinen cY2 ,Y1 (t1 , t2 ) = cY1 ,Y2 (t1 , t2 )
, falls t1 = t2 .
(3.57)
Im Falle eines m-dimensionalen stochastischen Prozesses {Y (t)}, der durch Y (t) = (Y1 (t), . . . , Ym (t))T definiert ist, wird die Korrelationsmatrix rY1 ,Y1 (t1 , t2 ) · · · rY1 ,Ym (t1 , t2 ) .. .. .. RY ,Y (t1 , t2 ) = . . . rYm ,Y1 (t1 , t2 ) · · · rYm ,Ym (t1 , t2 )
(3.58)
bzw. die Kovarianzmatrix cY1 ,Y1 (t1 , t2 ) · · · cY1 ,Ym (t1 , t2 ) .. .. .. C Y ,Y (t1 , t2 ) = . . . cYm ,Y1 (t1 , t2 ) · · · cYm ,Ym (t1 , t2 )
(3.59)
aus den Elementen des zweidimensionalen Falles gebildet. Sowohl der Begriff der Korrelationsmatrix RY ,Y (t1 , t2 ) als auch der Kovarianzmatrix C Y ,Y (t1 , t2 ) lassen sich für zwei m-dimensionale stochastische Prozesse {Y 1 (t)} und {Y 2 (t)} verallgemeinern. Dann enthält die Korrelationsmatrix RY 1 ,Y 2 (t1 , t2 ) bzw. Kovarianzmatrix C Y 1 ,Y 2 (t1 , t2 ) keine Autokorrelationen bzw. Autokovarianzen, sondern nur Kreuzkorrelationen bzw. Kreuzkovarianzen.
3.2.2.3
Stationarität
Allgemein sind die Verteilungsfunktionen bzw. die Wahrscheinlichkeitsdichten eines stochastischen Prozesses zeitabhängig. Dies hat zur Folge, dass die ersten Momente eine Funktion der Zeit t bzw. die Korrelationen und Kovarianzen eine Funktion der Zeiten t1 und t2 sind. Wesentliche Vereinfachungen treten ein, wenn sich die statistischen Eigenschaften eines Prozesses oder die gemeinsamen statistischen Eigenschaften mehrerer Prozesse bei einer Verschiebung der Zeitachse nicht ändern. Man nennt derartige Zufallsprozesse stationär.
3.2 Stochastische Signale
71
Definition 3.60 (Stationarität) Ein m-dimensionaler stochastischer Prozess {Y (t)}, Y (t) = (Y1 (t), . . . , Ym (t))T , heißt stationär oder auch stationär im engeren Sinne, wenn seine statistischen Eigenschaften invariant gegenüber beliebigen Verschiebungen t0 der Zeit sind, d.h. falls FY (y1 , . . . , ym , t1 , . . . , tm ) = FY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )
(3.61)
fY (y1 , . . . , ym , t1 , . . . , tm ) = fY (y1 , . . . , ym , t1 + t0 , . . . , tm + t0 )
(3.62)
bzw.
gilt. Zwei stochastische Prozesse heißen verbunden stationär, wenn beide stationär und ebenso ihre gemeinsamen statistischen Eigenschaften invariant gegenüber der Zeit sind. Hieraus folgt sofort für einen eindimensionalen stochastischen Prozess {Y (t)} wegen FY (y, t) = FY (y, t + t0 ) = FY (y)
(3.63)
fY (y, t) = fY (y, t + t0 ) = fY (y)
(3.64)
bzw.
die Zeitunabhängigkeit der Verteilungsfunktion bzw. Wahrscheinlichkeitsdichte. Die nten Momente
∞ E{Y n (t)} =
∞ y n fY (y) dy = E{Y n }
y n fY (y, t) dy = −∞
(3.65)
−∞
hängen dementsprechend auch nicht mehr von der Zeit ab. Bei zweidimensionalen, stationären stochastischen Prozessen {Y (t) = (Y1 (t), Y2 (t))T } erhält man mit der Zeittransformation t0 = t∗0 − t2 folgende Verteilungsfunktion: FY (y1 , y2 , t1 + t0 , t2 + t0 ) = FY (y1 , y2 , t1 − t2 + t∗0 , t∗0 ) . Da stationäre stochastische Prozesse invariant gegenüber der Zeit sind, kann man die Zeitverschiebung t∗0 außer Acht lassen, wodurch man mit τ = t1 − t2 FY (y1 , y2 , t1 , t2 ) = FY (y1 , y2 , τ )
(3.66)
eine Verteilungsfunktion erhält, die nur noch von der Zeitdifferenz τ abhängt. Die absoluten Zeiten sind wegen der Stationarität irrelevant. Entsprechend gilt für die Wahrscheinlichkeitsdichte: fY (y1 , y2 , t1 , t2 ) = fY (y1 , y2 , τ ) .
(3.67)
72
3 Zeitkontinuierliche Signale
Für die zweiten Momente folgt, dass die Korrelation
∞ ∞ rjk (τ ) = E{Yj (t + τ )Yk (t)} =
yj yk fY (yj , yk , τ ) dyj dyk
(3.68)
−∞−∞
bzw. die Kovarianz cjk (τ ) = E {(Yj (t + τ ) − E{Yj }) (Yk (t) − E{Yk })} =
∞ ∞ (yj − µj )(yk − µk )fY (yj , yk , τ ) dyj dyk
(3.69)
−∞−∞
auch nur noch von der Zeitverschiebung abhängen. Neben der Stationarität im engeren Sinne gibt es auch die schwache Stationarität. Definition 3.70 (Schwache Stationarität) Ein stochastischer Prozess heißt schwach stationär oder auch im weiteren Sinne stationär, wenn die Invarianz gegenüber einer Translation der Zeit nur für die Momente erster und zweiter Ordnung gilt. Hierfür muss die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte selbst nicht invariant gegenüber einer Zeitverschiebung sein. Nur die Mittelwerte, Korrelationen und Kovarianzen sind nicht vom absoluten Zeitpunkt abhängig. Stationarität ist eine Eigenschaft eines stochastischen Prozesses, die nur aus der Gesamtheit aller Musterfunktionen bestimmt werden kann. Die Beobachtung endlich langer Abschnitte einzelner Musterfunktionen – und nur dies ist in einem Experiment möglich – kann höchstens Hinweise darauf geben, ob die Annahme eines stationären stochastischen Prozesses als Modell für ein Signal oder eine Störung angemessen ist, oder nicht. Daneben hängt es weitgehend vom Untersuchungsziel ab, ob ein Vorgang durch einen instationären stochastischen Prozess modelliert werden muss, oder ob das in der Regel sehr viel einfachere Modell eines stationären Prozesses wirklichkeitsnah genug ist. 3.2.2.4
Ergodizität
Bei der Bestimmung des ersten Moments allgemeiner stochastischer Prozesse nach Gleichung (3.46),
∞ E{Y (t)} =
y fY (y, t)dy, −∞
wird zu einem festen Zeitpunkt t über die Schar aller möglichen Musterfunktionen gemittelt. Dies nennt man den Scharmittelwert. Mittelt man hingegen über alle Zeiten t
3.2 Stochastische Signale
73
bei einer festen Musterfunktion y (ω) (t), so spricht man vom Zeitmittelwert. Der Zeitmittelwert sagt nur etwas über die eine Musterfunktion aus, für die er berechnet wurde. Er kann für jede Musterfunktion verschieden sein. Es gibt jedoch eine Klasse von stationären stochastischen Prozessen, bei denen die Scharmittelwerte und Zeitmittelwerte identisch sind. Man nennt derartige Prozesse ergodisch. Definition 3.71 (Ergodizität) Ein stationärer stochastischer Prozess heißt ergodisch, wenn die Zeitmittelwerte einer beliebigen Musterfunktion mit der Wahrscheinlichkeit eins mit den entsprechenden Scharmittelwerten übereinstimmen. Stationarität ist in jedem Fall die Voraussetzung für Ergodizität. Dies geht schon daraus hervor, dass die Mittelwerte instationärer stochastischer Prozesse zeitabhängig sind und somit nicht für alle Zeiten mit den zeitunabhängigen Zeitmittelwerten übereinstimmen können. Bemerkung 3.72 Auch bei Ergodizität unterscheidet man zwischen Prozessen, die streng ergodisch oder schwach ergodisch sind. Bei streng ergodischen Prozessen gilt Definition 3.71 für alle Momente, bei schwach ergodischen Prozessen begnügt man sich damit, Aus• tauschbarkeit nur für Momente erster und zweiter Ordnung zu fordern. Nun ist zu untersuchen, unter welchen Voraussetzungen ein stationärer Zufallsprozess ergodisch ist. Der Zeitmittelwert für eine einzelne Musterfunktion, d.h. für ein festes ω ∈ Ω, 1 T →∞ 2T
+T
mY (ω) = lim
y (ω) (t) dt
(3.73)
−T
stellt selbst eine Zufallsvariable dar. Für mY (ω) kann somit ein Erwartungswert berechnet werden:
+T 1 E{mY (ω)} = E lim y (ω) (t) dt . T →∞ 2T −T
Vertauscht man die Reihenfolge der Operationen, 1 E{mY (ω)} = lim T →∞ 2T
+T
E{y (ω) (t)} dt,
−T
so folgt schließlich aufgrund der Stationarität E{mY (ω)} = E{y (ω) (t0 )} , t0 ∈ R.
(3.74)
74
3 Zeitkontinuierliche Signale
Dieses Ergebnis besagt, dass der Mittelwert aller Zeitmittelwerte mit dem Scharmittelwert übereinstimmt. Daher ist mY (ω) ein erwartungstreuer Schätzwert für den Scharmittelwert (erstes Moment). Sind zusätzlich alle Zeitmittelwerte mY (ω) mit der Wahrscheinlichkeit eins einander gleich, so ist die Ergodizität für den Mittelwert gegeben. Gleichheit mit Wahrscheinlichkeit eins bedeutet hier, dass die Mittelwerte einer Anzahl von Musterfunktionen vom Scharmittelwert abweichen können, solange die Wahrscheinlichkeit, dass eine dieser Musterfunktionen auftritt, gleich null ist. Der mathematisch strenge Nachweis der Ergodizität lässt sich höchstens in Sonderfällen erbringen. Daher kann in der Regel die Eigenschaft der Ergodizität für einen stochastischen Prozess nur angenommen werden. Diese Annahme bedeutet, dass aus einer einzelnen Musterfunktion y (ω) (t) alle statistischen Eigenschaften des Zufallsprozesses bestimmt werden können. Bei einem ergodischen Prozess sind somit einzelne Musterfunktionen repräsentativ für den stochastischen Prozess. Beispiel 3.75 (Schwingung mit zufälliger Phase als ergodischer Prozess) Gegeben sei der Zufallsprozess {Y (t)} mit den Musterfunktionen y (ω) (t) = sin(2πf t + ϕi (ω)) mit fester Frequenz f und einer Phase ϕi , die auf dem Intervall [0, 2π) gleichverteilt ist. Bei diesem Zufallsprozess erkennt man, dass sowohl der Zeitmittelwert, d.h. der Mittelwert einer Musterfunktion über alle Zeiten, als auch der Scharmittelwert, d.h. der Mittelwert aller Musterfunktionen zu einem Zeitpunkt, verschwindet. Durch Ausrechnen, d.h. Mittelung über eine gleichverteilte Phase bzw. über eine Periode einer Schwingung, folgt: E{y (ω) (t)} = E{mY (ω)} = 0 •
Der Prozess ist somit ergodisch.
Betrachtet man die Einteilung der Signale in die Signalklassen gemäß Abschnitt 3.1.1, so stellt sich die Frage, welche Signale Musterfunktionen ergodischer Prozesse sein können. Nach Beispiel 3.75 ist eine harmonische Schwingung mit zufälliger, gleichverteilter Phase ein ergodischer Prozess. Daraus schließt man, dass Leistungssignale Musterfunktionen ergodischer Prozesse sein können. Die Bildung von Zeitmittelwerten ist also erlaubt. Es kann sogar gezeigt werden, dass alle Musterfunktionen ergodischer Prozesse Leistungssignale sind. Energiesignale hingegen können keine Musterfunktionen ergodischer Prozesse sein, da sie nicht stationär sind: lim y(t) = 0
t→±∞
=⇒
lim µn (t) = 0
t→±∞
=⇒
keine Stationarität
Da nach Voraussetzung Energiesignale für t → ±∞ verschwinden, verschwinden auch deren erste Momente. Damit ist die Zeitunabhängigkeit der Momente für Energiesignale verletzt.
3.2 Stochastische Signale
75
Die Momente eines ergodischen Prozesses werden nach folgenden Regeln berechnet. Satz 3.76 (Moment eines ergodischen Prozesses) Das n-te Moment eines ergodischen Prozesses wird bei beliebigem ω0 ∈ Ω durch (n)
µ
1 = lim T →∞ 2T
+T '
(n y (ω0 ) (t) dt
−T
•
bestimmt.
Der Index ω0 der Musterfunktion bedeutet, dass eine feste Musterfunktion zur Bestimmung herangezogen wurde. Satz 3.77 (Zentrales Moment eines ergodischen Prozesses) Das n-te zentrale Moment eines ergodischen Prozesses wird für ω0 ∈ Ω durch β
(n)
1 = lim T →∞ 2T
+T '
y (ω0 ) (t) − µ(n)
(n dt
−T
•
berechnet.
Die Bewertung der Ähnlichkeit von stochastischen Prozessen erfolgt mittels der Korrelation, vgl. Bemerkung 3.55: Satz 3.78 (Korrelation zweier ergodischer Prozesse) Die Korrelation zweier ergodischer Prozesse Yj (t) und Yk (t) wird bei beliebigen ω0 , ω1 ∈ Ω durch 1 rjk (τ ) = lim T →∞ 2T
+T
(ω0 )
yj
(ω1 )
(t + τ )yk
(t) dt
−T
•
bestimmt. Satz 3.79 (Kovarianz zweier ergodischer Prozesse)
Die Kovarianz zweier ergodischer Prozesse Yj (t) und Yk (t) ist bei beliebigen ω0 , ω1 ∈ Ω durch 1 cjk (τ ) = lim T →∞ 2T gegeben.
+T (ω ) (ω ) (yj 0 (t + τ ) − µj )(yk 1 (t) − µk ) dt −T
•
76
3 Zeitkontinuierliche Signale
In den Sätzen 3.78 und 3.79 werden Korrelation bzw. Kovarianz zwischen einzelnen Musterfunktionen berechnet. Da ergodische Musterfunktionen Leistungssignale sind, können die Definitionen für Korrelation und Kovarianz für ergodische Musterfunktionen auch bei deterministischen Leistungssignalen angewandt werden. 3.2.2.5
Korrelation für Leistungssignale
Analog zu den ergodischen Musterfunktionen ist die Korrelation deterministischer Leistungssignale über das Innenprodukt 1 T →∞ 2T
+T
L Rxy (τ ) = x(t + τ ), y(t)t = lim
x(t + τ )y ∗ (t) dt
(3.80)
y(t + τ )y ∗ (t) dt
(3.81)
−T
als Kreuz- bzw. als L Ryy (τ )
1 = y(t + τ ), y(t)t = lim T →∞ 2T
+T −T
Autokorrelation definiert. Der hochgestellte Index L gibt an, dass es sich um die Korrelation von Leistungssignalen handelt. Beispiel 3.82 (Autokorrelation eines periodischen Signals) Das Signal s(t) = A sin(2πf0 t + ϕ) besitzt die Autokorrelation L Rss (τ )
1 = lim T →∞ 2T
+T A sin(2πf0 (t + τ ) + ϕ)A sin(2πf0 t + ϕ) dt −T
A2 = cos(2πf0 τ ), 2 die von der Phase unabhängig ist. 3.2.2.6
•
Korrelation für Energiesignale
Da Energiesignale nicht zu den ergodischen Prozessen gehören, ist die Berechnung einer Korrelation mit obigen Mitteln eigentlich nicht möglich. Für die wichtige Anwendung des Signalvergleichs lässt sich aber auch für Energiesignale eine Korrelationsfunktion angeben, bei deren Definition das Innenprodukt Anwendung findet:
∞ E Rxy (τ )
= x(t + τ ), y(t)t = −∞
x(t + τ )y ∗ (t) dt < ∞ .
(3.83)
3.2 Stochastische Signale
77
Der Zusatz E kennzeichnet die abweichende Berechnungsvorschrift und die Tatsache, dass es sich hier nicht mehr um eine Korrelationsfunktion im stochastischen Sinne handelt. Vielfach spricht man auch von Impulskorrelation. E Die Autokorrelation Rxx (τ ) zum Zeitpunkt τ = 0 E (0) = x(t), x(t)t = ||x(t)||2 = Ex Rxx
ist gleich der Signalenergie. 3.2.2.7
Eigenschaften der Korrelation
Unter den definierten Momenten kommt der Korrelation eine besondere Bedeutung zu. Auf sie soll daher in diesem Abschnitt noch einmal eingegangen werden. Die folgenden Beziehungen gelten dabei sowohl für Energie- als auch für Leistungssignale. Die Autokorrelation eines instationären stochastischen Prozesses {Y (t)} ist im Allgemeinen eine Funktion zweier Zeiten: RY Y (t1 , t2 ) = Y (t1 ), Y (t2 ) = E{Y (t1 )Y (t2 )} Hieraus folgt sofort RY Y (t2 , t1 ) = E{Y (t1 )Y (t2 )} = E{Y (t2 )Y (t1 )} = RY Y (t1 , t2 ),
(3.84)
die Vertauschbarkeit der beiden Zeiten. Weiterhin lässt sich mit Hilfe der Schwarzschen Ungleichung folgende Ungleichung zeigen: 2
(RY Y (t1 , t2 )) ≤ RY Y (t1 , t1 ) · RY Y (t2 , t2 ) , t1 , t2 ∈ R
(3.85)
Es gilt nämlich |Y (t1 ), Y (t2 )|2 ≤ Y (t1 ), Y (t1 ) · Y (t2 ), Y (t2 ), woraus Gleichung (3.85) unmittelbar folgt. Bei stationären stochastischen Prozessen ist die Autokorrelation nur noch von τ = t1 −t2 abhängig. Wegen (3.84) folgt damit aus RY Y (τ ) = RY Y (−τ ),
(3.86)
dass die Autokorrelation stationärer Prozesse eine gerade Funktion ist. Die Ungleichung (3.85) vereinfacht sich daher zu |RY Y (τ )| ≤ RY Y (0) , τ ∈ R.
(3.87)
Dies besagt, dass die Autokorrelation eines stationären stochastischen Prozesses bei τ = 0 dem Betrage nach ihren größten Wert erreicht. Bei der Formulierung der Ungleichung (3.87) wurde noch berücksichtigt, dass RY Y (0) = E{Y (t)2 } ≥ 0,
(3.88)
78
3 Zeitkontinuierliche Signale
d.h. dass RY Y (0) nicht negativ ist. Beschreibt der stochastische Prozess eine physikalische Größe, z.B. einen Strom, eine Spannung, einen Druck, eine Geschwindigkeit oder eine Kraft, so ist RY Y (0) proportional der mittleren Leistung bzw. der Energie. Sind die Musterfunktionen eines stationären Prozesses periodisch mit der Periodendauer T0 , d.h. gilt y (ω) (t) = y (ω) (t + T0 ) , t ∈ R, so ist, wie man leicht nachrechnet, seine Autokorrelation ebenfalls periodisch Ryy (τ ) = Ryy (τ + T0 ) , τ ∈ R
(3.89)
mit der Periodendauer T0 .
3.3
Deterministische Signale
Unter deterministischen Signalen sind Signale zu verstehen, deren zeitlicher Ablauf analytisch beschreibbar und exakt voraussagbar ist. Im Gegensatz hierzu stehen die stochastischen Signale, die durch ihre Wahrscheinlichkeitsverteilungen beschrieben werden können und die im letzten Abschnitt behandelt wurden. Ihr zeitlicher Verlauf kann nicht mit Hilfe einer analytischen Beschreibung exakt vorausgesagt werden. Bei der Darstellung deterministischer Signale stellt die aus der Funktionalanalysis stammende Entwicklung in Basisfunktionen ein mächtiges Werkzeug dar. Die Entwicklung in vollständige, biorthogonale Funktionensysteme ist eine Verallgemeinerung. Sie wird im Bereich der Kurzzeit-Fourier-Transformation und der Wavelet-Transformation benutzt.
3.3.1
Orthogonale Funktionensysteme
Im Funktionenraum der Energiesignale, L2 (a, b), mit der Definition des Innenprodukts (3.10) und der Bedingung 2.27 für eine orthonormale Basis ergibt sich die folgende Bedingung für ein mit der Indexmenge I indiziertes orthonormales Funktionensystem (φi (t))i∈I :
b φi (t), φj (t)t =
φi (t)φ∗j (t) dt
= δij
, δij =
1 ,i = j . 0 , sonst
(3.90)
a
Die Anwendung des Schmidtschen Orthonormalisierungsverfahrens 2.29 beschränkt sich nicht nur auf Vektoren. Es kann auch auf Funktionen angewendet werden, um ein Orthonormalsystem zu bilden. Dies bietet somit eine Möglichkeit zur Konstruktion solcher Funktionensysteme. Einige bekannte Orthonormalsysteme sind:
3.3 Deterministische Signale
79
Beispiel 3.91 (Fourier-Reihe T -periodischer Funktionen in L2 (t0 , t0 + T )) Bei der Entwicklung von Funktionen in ihre Fourier-Reihe treten folgende orthonormale Funktionen auf: 1 Fk (t) = √ ej2πkt/T T
,k ∈ Z.
(3.92) •
Bemerkung 3.93 Im vorigen Beispiel ist zu beachten, dass die verwendeten Basisfunktionen orthonormal sind. Die im späteren Verlauf bei der Fourier-Reihe verwendeten Basisfunktionen sind hingegen nur orthogonal, da der Vorfaktor √1T fehlt. • Beispiel 3.94 (Legendre-Polynome in L2 (−1, 1)) Die Legendre-Polynome werden durch ) 2k + 1 1 dk 2 (t − 1)k Pk (t) = 2 2k k! dtk definiert. Die ersten drei Polynome lauten: ) 3 1 P0 (t) = √ , P1 (t) = t, 2 2
, k ∈ N0 ,
(3.95)
) 5 3 2 1 . P2 (t) = t − 2 2 2
•
Genauso lassen sich aber auch eigene orthonormale Funktionensysteme bilden. Dies soll im folgenden Beispiel durch Anwendung des Schmidtschen Orthonormalisierungsverfahrens gezeigt werden. Beispiel 3.96 (Anwendung Schmidtsches Orthonormalisierungsverfahren) Gegeben sind im Funktionenraum L2 (0, 3) folgende Funktionen: x1 (t) 16
x2 (t) 16
1 -1
2
3 t
x3 (t) 16
1 -1
2
3 t
1
2
3 t
-1
Durch sukzessive Anwendung des Schmidtschen Orthonormalisierungsverfahrens in Verbindung mit der Definition des Innenproduktes im Funktionenraum L2 (0, 3) ergibt sich daraus ein orthonormales Funktionensystem.
80
3 Zeitkontinuierliche Signale 1. Berechnen der Norm des Signals x1 (t) durch *
3 √ x1 (t)x∗1 (t) dt = 2 . ||x1 || = 0
2. Das Signal φ1 (t) folgt damit als x1 (t) φ1 (t) = √ . 2 3. Bestimmung des Innenprodukts
3 x2 (t), φ1 (t)t = x2 (t)φ∗1 (t) dt = 0 . 0
4. Daraus folgt nach Gleichung (2.32) h2 (t) = x2 (t) . 5. Berechnen der Norm * ||h2 || =
3
0
h2 (t)h∗2 (t) dt =
√
2.
6. Somit ergibt sich die zweite Basisfunktion x2 (t) φ2 (t) = √ . 2 7. Bestimmung der Innenprodukte
3 √ x3 (t), φ1 (t)t = x3 (t)φ∗1 (t) dt = 2 , 0
x3 (t), φ2 (t)t =
0
3
x3 (t)φ∗2 (t) dt = 0 .
8. Daraus folgt nach Gleichung (2.32) √ h3 (t) = x3 (t) − 2φ1 (t) = x3 (t) − x1 (t) . 9. Berechnen der Norm * ||h3 || =
0
3
h3 (t)h∗3 (t) dt = 1 .
10. Für das Signal φ3 (t) gilt somit φ3 (t) = x3 (t) − x1 (t) .
3.3 Deterministische Signale
81
Das Ergebnis des Schmidtschen Orthonormalisierungsverfahrens sieht folgendermaßen aus: φ1 (t) 6
φ2 (t) 6
√1 2
φ3 (t) 6
√1 2
2
t − √12
2
t
2
3 t
−1 •
Orthonormale Funktionensysteme kann man dazu verwenden, um andere Funktionen zu approximieren. Mit Gleichung (2.28) lässt sich eine T -periodische Funktion im Intervall [− T2 , T2 ] durch die Fourier-Reihe im Funktionenraum L2 (− T2 , T2 ) darstellen, ∞ 1 yˆ(t) = √ ak ej2πkt/T T k=−∞
mit T /2
ak = y(t), Fk (t)t =
y(t)Fk∗ (t) dt
−T /2
1 =√ T
T /2
y(t)e−j2πkt/T dt.
−T /2
Mit dem in Beispiel 3.96 bestimmten orthonormalen Funktionensystem kann man ebenso die Funktion y(t) = sin( 2π 3 t) approximieren. Die einzelnen Koeffizienten a1 bis a3 lauten dabei: a1 = 0,5064 ,
a2 = 0,5064 ,
a3 = 0,7162 .
Die approximierte Funktion yˆ(t) = a1 φ1 (t) + a2 φ2 (t) + a3 φ3 (t) und die Originalfunktion y(t) sieht man in Abbildung 3.4.
Abbildung 3.4: Vergleich einer Sinusfunktion und deren Approximation durch drei Basisfunktionen aus Beispiel 3.96
82
3 Zeitkontinuierliche Signale
Der Näherungsfehler kann durch Hinzunahme orthogonaler Basisfunktionen höherer Ordnung verringert werden (Besselsche Ungleichung). Bemerkung 3.97 Die zur Approximation verwendeten Basissysteme müssen nicht unbedingt orthonormal sein. Im Gegenteil sind beispielsweise die üblicherweise bei der Fourier-Reihe verwendeten Basisfunktionen nur orthogonal. Die Norm einer Funktion ist nur ein Skalar und somit nicht von größerer Bedeutung. Dieser Faktor wird bei der Berechnung der Koeffizienten mit einfließen. Wichtiger ist vielmehr die Tatsache, dass die verwendeten Basisfunktionen orthogonal sind, was eine zur Berechnung entschei• dende Voraussetzung darstellt.
3.3.2
Biorthogonale Funktionensysteme
In einem biorthogonalen Funktionensystem, vgl. [KSW08], verwendet man nicht ein, sondern zwei Funktionensyteme (φi (t))i∈I und (ψi (t))i∈I . Diese beiden Funktionensysteme sind durch die Biorthogonalitätsbedingung miteinander verbunden. Definition 3.98 (Biorthogonalitätsbedingung) Die beiden Funktionensysteme (φi (t))i∈I und (ψi (t))i∈I bilden ein biorthogonales System, wenn sie durch die Biorthogonalitätsbedingung
b φi (t), ψj (t)t =
φi (t)ψj∗ (t) dt = δij
, δij =
1 , für i = j 0 , sonst
(3.99)
a
verbunden sind. Angemerkt sei, dass hierbei im Allgemeinen φi = ψi ist und jedes Funktionensystem für sich alleine weder orthonormal noch ein Basissystem sein muss. Beide Funktionensysteme müssen jeweils den Funktionenraum L2 (R) vollständig aufspannen. Bei der Rekonstruktion eines beliebigen Signals (in diesem Fall eines Energiesignals) verwendet man das erste Funktionensystem zur Darstellung des Signals: y(t) = ai φi (t) . (3.100) i∈I
Das erste Funktionensystem enthält die Synthesefunktionen. Die Koeffizienten dagegen werden mit den zu den Synthesefunktionen φi (t) biorthogonalen Analysefunktionen ψi (t) berechnet.
b ai = y(t), ψi (t)t = a
y(t)ψi∗ (t) dt
(3.101)
3.4 Fourier-Reihe
83
Dies lässt sich mit Hilfe der Biorthogonalitätsbedingung (3.99) leicht zeigen: y(t), ψj (t)t = ai φi (t), ψj (t)t = ai φi (t), ψj (t)t = ai δij = aj i∈I i∈I i∈I =δij
3.4
Fourier-Reihe
Ein orthogonales Funktionensystem besonderer Bedeutung bilden die trigonometrischen Funktionen im Intervall [−π, π]. Mit der Periodendauer T0 = 2π lauten diese ' ( sk (t) = sin 2π Tk0 t ( ' ck (t) = cos 2π Tk0 t
, k = 1, 2, 3, . . . (3.102) , k = 0, 1, 2, . . .
Hieraus folgen die einzelnen Orthogonalitätsbedingungen:
π si (t), sj (t)t =
si (t)sj (t) dt =
0 π
, für i = j , für i = j
(3.103)
−π
π ci (t), cj (t)t = −π
0 , für i = j 0 ci (t)cj (t) dt = π , für i = j = 2π , für i = j = 0
(3.104)
π si (t), cj (t) =
si (t)cj (t) dt = 0
(3.105)
−π
Die Periodizität der trigonometrischen Funktionen lässt sie besonders geeignet erscheinen, um periodische Funktionen in eine Reihe trigonometrischer Funktionen zu entwickeln. Diese Reihe heißt Fourier-Reihe, und die Entwicklung einer periodischen Funktion in ihre Fourier-Reihe bezeichnet man als harmonische Analyse.
Satz 3.106 (Fourier-Reihe) Periodische Funktionen der Periodendauer T0 kann man durch die Fourier-Reihe y(t) =
∞ k k a0 ak cos 2π t + bk sin 2π t + 2 T0 T0
(3.107)
k=1
darstellen. Entsprechend den Überlegungen für orthogonale Funktionensysteme, Gleichung (2.28) und der Definition Gleichung (3.15) für Leistungssignale, berechnet
84
3 Zeitkontinuierliche Signale man die Fourier-Koeffizienten ak und bk durch T0
ak =
2
2 T0
−
bk =
2 T0
T0 2 T0 2
k y(t) cos 2π t dt , k = 0, 1, 2, . . . T0 y(t) sin 2π
T − 20
k t T0
(3.108)
dt , k = 1, 2, 3, . . .
•
Da die Integranden periodisch mit der Periode T0 sind, kann anstelle des Grenzübergangs T0 → ∞ über eine Periode integriert werden. Somit stellt die Bestimmung der Fourier-Koeffizienten eine Abbildung des Periodenintervalls einer Funktion y(t) in zwei Folgen (ak )k≥0 und (bk )k≥1 dar. In praktischen Anwendungen wird man oft nach endlich vielen Gliedern abbrechen. Man erhält somit eine Approximation der periodischen Funktion durch ein trigonometrisches Polynom. In zwei Beispielen werden nun die Fourier-Koeffizienten bestimmt und die Originalfunktion mit diesen Koeffizienten approximiert. Beispiel 3.109 (Fourier-Reihe der Rechteckfunktion) Das periodische Rechtecksignal y(t) mit der Periode T0 = 2π[sec] −1 , −π ≤ t < 0 y(t) = 1 ,0 ≤ t < π soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die FourierKoeffizienten zu berechnen. Die Koeffizienten der Cosinusfunktionen, ak =
1 π
π y(t) cos(2π −π
k t) dt = 0, T0
müssen verschwinden, da die Cosinusfunktion eine gerade Funktion und die Rechteckfunktion eine ungerade Funktion ist. Die Koeffizienten der Sinusfunktionen lassen sich einfach ermitteln:
π
π 1 k 2 k bk = y(t) sin(2π t) dt = sin(2π t) dt π T0 π T0 −π 0 π 2 T0 2 T0 k =− 1 + (−1)k+1 cos(2π t) = π 2πk T0 π 2πk 0 4 , k ungerade = kπ 0 , k gerade
3.4 Fourier-Reihe
85
1
y(t)
0.5 0 −0.5 −1 −2
0 t [sec]
Abbildung 3.5: Mit Hilfe einer Fourier-Reihe approximierte Rechteckfunktion
2
Zur Approximation werden die ersten drei von Null verschiedenen Koeffizienten verwendet. Die approximierte Rechteckfunktion erkennt man in Abbildung 3.5. 4 yˆ(t) = π
sin(2π T30 t) sin(2π T50 t) 1 sin(2π t) + + T0 3 5
•
Beispiel 3.110 (Fourier-Reihe der Dreieckfunktion) Das periodische Dreiecksignal y(t) mit der Periodendauer T0 = 2π[sec] + y(t) =
1 + π2 t 1−
2 πt
, −π ≤ t < 0 ,0 ≤ t < π
soll durch eine Fourier-Reihe dargestellt werden. Hierzu sind die FourierKoeffizienten zu berechnen. Die Koeffizienten der Sinusfunktionen 1 bk = π
π y(t) sin(2π −π
k t) dt = 0 T0
müssen verschwinden, da die Sinusfunktion eine ungerade und die Dreieckfunktion eine gerade Funktion ist. Die Koeffizienten der Cosinusfunktionen ergeben sich zu:
π
2 k 1 − t cos(2π t) dt π T0 −π 0 π
π k 2 k 2 t cos(2π t) dt cos(2π t) dt − = π T0 π T0
1 ak = π
π
0
k 2 y(t) cos(2π t) dt = T0 π
0
86
3 Zeitkontinuierliche Signale
1
y(t)
0.5 0 −0.5 −1 −2
0 t [sec]
Abbildung 3.6: Approximierte Dreieckfunktion
2
π , -π k k 4 cos(2π T0 t) t sin(2π T0 t) 2 T0 k + = sin(2π t) − 2 π T0 π 2πk (2π Tk0 )2 2π Tk0 0 0 4 (−1)k 1 4 =0− 2 + 0 − 2 − 0 = 2 2 1 + (−1)k+1 π k2 k k π 8 , k ungerade = k2 π 2 0 , k gerade, k = 0 k=0
Für k = 0 muss man den Koeffizienten separat berechnen: 2 a0 = 2π
π −π
2 y(t) dt = π
π 0
2 1− t π
dt = 0 .
Zur Approximation werden die ersten drei von Null verschiedenen Koeffizienten verwendet. Die approximierte Dreieckfunktion erkennt man in Abbildung 3.6. cos(2π T30 t) cos(2π T50 t) 1 8 + yˆ(t) = 2 cos(2π t) + • π T0 9 25 Benutzt man die Fourier-Reihe nicht zur Synthese sondern zur Analyse periodischer Funktionen, so ist zu untersuchen, wie die Fourier-Koeffizienten interpretiert werden können. Der Fourier-Koeffizient ak bzw. bk gehört zur trigonometrischen Funktion cos(2π Tk0 t) bzw. sin(2π Tk0 t) mit der Frequenz Tk0 . Somit geben ak und bk den Anteil einer Schwingung der Frequenz f = Tk0 an der Signalenergie an. Der Unterschied der beiden Koeffizienten liegt in der Phase. Dies ist aus folgender Beziehung ersichtlich: . k k k bk ak cos 2π t +bk sin 2π t = a2k + b2k cos 2π t − arctan T0 T0 T0 ak Mit . Ak = a2k + b2k
,
ψk = − arctan
bk ak
(3.111)
3.4 Fourier-Reihe
87
erhält man Amplitude und Phase der Schwingungen. Die Fourier-Reihe eignet sich also zur Bestimmung der Spektralanteile in periodischen Funktionen. Mit der exponentiellen Darstellung der trigonometrischen Funktionen, 1 j2π Tk t k −j2π Tk0 t 0 e t) = +e T0 2 k 1 j2π Tk0 t −j2π Tk0 t e sin(2π t) = −e , T0 2j
cos(2π
(3.112) (3.113)
lässt sich die Fourier-Reihe umschreiben: Satz 3.114 (Komplexe Darstellung der Fourier-Reihe) Eine T0 -periodische Funktion y(t) lässt sich durch die Fourier-Reihe ∞
y(t) =
ck e
j2π Tk0 t
(3.115)
k=−∞
in komplexer Schreibweise darstellen. Im Gegensatz zur reellen Darstellung gibt es nur noch eine Koeffizientenfolge (ck )k∈Z mit T0
ck =
1 T0
2
y(t)e −
−j2π Tk0 t
dt.
(3.116)
T0 2
• An dieser Stelle wird, wie schon in Bemerkung 3.93, erneut auf eine Besonderheit der Fourier-Reihe hingewiesen, welche zu Verwirrung führen kann: Bemerkung 3.117 In Beispiel 3.91 wurde die Fourier-Reihe bereits eingeführt. Sie enthielt dort, als orthonormales Funktionensystem, noch den Vorfaktor √1T . Im Gegensatz dazu bildet 0 die hier benutzte Fourier-Reihe lediglich ein orthogonales Funktionensystem. Das Weglassen des Vorfaktors hat sich in der heutigen Literatur eingebürgert. • Der Fourier-Koeffizient ck ist die komplexe Amplitude des Spektralanteils mit der diskreten Frequenz fk =
k T0
, k ∈ Z.
In solch einem Fall spricht man von einem Linienspektrum. Bemerkenswert ist zudem, dass der Index in der komplexen Darstellung der Fourier-Reihe in Z läuft. Dies bedeutet,
88
3 Zeitkontinuierliche Signale
dass es auch Spektralanteile mit negativen Frequenzen geben kann. Dies ist durch die komplexe Darstellung einer Sinusschwingung ( 1 ' j2πf0 t e sin(2πf0 t) = − e−j2πf0 t 2j verständlich. Die reelle Sinusschwingung mit der Frequenz f0 wird durch zwei komplexe Schwingungen mit den Frequenzen f0 und −f0 dargestellt. Mit Hilfe der komplexen Fourier-Koeffizienten bestimmt man die komplexen Amplituden als eine Funktion der Frequenz. T0
2 1 y(t)e−j2πf t dt , für f = Tk0 ,k ∈ Z C(f ) = T0 (3.118) T − 20 0 , sonst Trägt man diese Funktion auf, so erkennt man deutlich das Linienspektrum. Der Abstand zweier Spektrallinien entspricht dem reziproken Wert der Periodendauer: ∆f =
1 . T0
(3.119)
Beispiel 3.120 (Fourier-Reihe und Periodendauer) In diesem Beispiel soll noch einmal verdeutlicht werden, wie die Spektralanteile und deren Abstand von der Periodendauer des Signals abhängen. Hierzu legen wir die Reckteckfunktion y(t) mit der Zeitdauer T = 1[sec] gemäß 1 ,0 ≤ t ≤ T y(t) = 0 , sonst zugrunde und setzen diese mit der Periode T0 ≥ 2T fort. Wählt man die Periode dieser Fortsetzung zu T0 = lT mit l ≥ 2, so erhält man die Fourier-Koeffizienten: C
k T0
T0
1 = T0 +
2
y(t)e −
T0 2
k
−j2π Tk0 t
sin π l −jπ k l e πk 1
1 dt = T0
T y(t)e
−j2π Tk0 t
dt
0
, k = 0 ,k = 0 l Betrachten wir die beiden Fälle l = 2 bzw. l = 4 und multiplizieren die Amplitude zur Normierung mit l, so erhalten wir die in Abbildung 3.7 bzw. Abbildung 3.8 abgebildeten Funktionen. Man erkennt, dass sich bei einer Vergrößerung der Periodendauer die Abstände der Spektrallinien entsprechend Gleichung (3.119) verringern. Dieses Resultat wird im nächsten Abschnitt noch einmal aufgegriffen werden. • =
3.5 Fourier-Transformation
89
1.2
1
1
l ⋅ C(k/T0) ≈ |Y(f)|
1.2
y(t)
0.8 0.6 0.4
0.8 0.6 0.4
0.2
0.2
0
0 0
5
10 15 t [sec]
20
25
−5
0 f [Hz]
5
0 f [Hz]
5
Abbildung 3.7: Spektralbereich für den Fall T0 = 2T 1.2
1.2 l ⋅ C(k/T0) ≈ |Y(f)|
1
y(t)
0.8 0.6 0.4 0.2
1 0.8 0.6 0.4 0.2
0
0 0
5
10 15 t [sec]
20
25
−5
Abbildung 3.8: Spektralbereich für den Fall T0 = 4T
3.5
Fourier-Transformation
Die Fourier-Reihe hat sich als ein Werkzeug zur Bestimmung der Frequenzanteile periodischer Funktionen erwiesen. Um aber nicht nur periodische Signale sondern auch nichtperiodische Signale durch ihr Spektrum beschreiben zu können, führt man formal den Grenzübergang der Periodendauer nach Unendlich T0 → ∞ durch. Hierdurch wird die Frequenzauflösung ∆f beliebig fein, geht also gegen null. Dies resultiert aber für Energiesignale in einer verschwindenden Amplitudenfunktion in Gleichung (3.118). T0 → ∞
=⇒
C(f ) = 0 , f ∈ R
Statt der Amplitudenfunktion in (3.118) führt man deshalb eine Amplitudendichte ein: T0
C(f ) FC (f ) = = C(f )T0 = ∆f
2
T − 20
y(t)e−j2πf t dt .
(3.121)
90
3 Zeitkontinuierliche Signale
Der Grenzwert der Amplitudendichte (3.121) für T0 → ∞, d.h. ∆f → 0, entspricht der Spektraldichte bzw. der Fourier-Transformierten
∞ lim FC (f ) =
T0 →∞
y(t)e−j2πf t dt = Y (f ) .
−∞
Die Synthesegleichung mittels der Fourier-Reihe (3.115) wird mit Hilfe der Amplitudenfunktion (3.118) umgeschrieben: ∞ ∞ j2π Tk0 t j2πf t C(f )e . y(t) = ck e = k k=−∞
f= T
k=−∞
0
Nun ersetzt man die Amplitudenfunktion durch die Amplitudendichte: ∞ j2πf t FC (f )e C(f ) = FC (f ) · ∆f =⇒ y(t) = ∆f k=−∞
. f = Tk 0
Im Grenzübergang der Periodendauer T0 nach Unendlich, T0 → ∞ ⇔ ∆f → 0, geht die Summe in das Integral , die Frequenzauflösung ∆f in das totale Differenzial df und die Amplitudendichte FC (f ) in die Fourier-Transformierte Y (f ) über:
∞ y(t) =
Y (f )ej2πf t df .
−∞
Hierdurch zerlegt man, analog zur Fourier-Reihe, das Signal y(t) in die Frequenzanteile Y (f ) der einzelnen kontinuierlichen Frequenzen f . Beispiel 3.122 (Herleitung der Fourier-Transformation aus der FourierReihe) Dieses Beispiel zeigt exemplarisch die Entstehung der Fourier-Transformation aus der Fourier-Reihe. Hierzu greifen wir noch einmal das Beispiel 3.120 auf. Während wir dort die beiden Fälle T0 = 2T und T0 = 4T betrachtet hatten, wollen wir an dieser Stelle den für T0 → ∞ stattfindenden Prozess verdeutlichen. Hierzu liefert bereits T0 = 20T ein repräsentatives Resultat, welches in Abbildung 3.9 dargestellt ist. Man erkennt, wie die diskrete Verteilung über die verschiedenen Frequenzen in eine kontinuierliche Frequenzverteilung übergeht. Man benötigt also zur Darstellung beliebiger nicht-periodischer Signale alle zur Verfügung stehenden Frequenzen und kann sich nicht wie beim periodischen Fall auf Frequenzen gewisser diskreter Abstände beschränken. Durch Aufzeichnen aller Frequenzlinien in den Abständen 1/20 entsteht der Eindruck einer geschlossenen Fläche, da die einzelnen Linien in der Abbildung nicht mehr aufgelöst werden können. •
3.5 Fourier-Transformation
91
1.2
1
1
l ⋅ C(k/T0) ≈ |Y(f)|
1.2
y(t)
0.8 0.6 0.4
0.8 0.6 0.4
0.2
0.2
0
0 0
5
10 15 t [sec]
20
25
−5
0 f [Hz]
5
Abbildung 3.9: Spektralbereich für den Fall T0 = 20T
3.5.1
Definition der Fourier-Transformation
Die Fourier-Transformation ist formal eine eigenständige Integraltransformation, die lediglich der Anschaulichkeit halber aus der Fourier-Reihe abgeleitet wurde. Im Folgenden soll diese Transformation formal definiert werden:
Definition 3.123 (Fourier-Transformation) Die Fourier-Transformation bildet eine Funktion der Zeit, y(t), in eine Funktion der Frequenz, Y (f ), ab. Man schreibt symbolisch: y(t) ◦−• Y (f )
Y (f ) = F{y(t)}
y(t) = F −1 {Y (f )}
Die Transformationsvorschriften Y (f ) = y(t), ej2πf t t =
∞ −∞
y(t) = Y (f ), e−j2πf t f =
y(t)e−j2πf t dt
∞
Y (f )ej2πf t df
(3.124)
(3.125)
−∞
stellen Abbildungen des Zeitbereiches in den Frequenzbereich bzw. umgekehrt dar. Die Fourier-Transformierte einer Zeitfunktion bezeichnet man auch als deren Spektrum.
Die Darstellung (3.125) für y(t) lässt sich in Analogie zur Fourier-Reihe in sehr anschaulicher Weise physikalisch deuten. Ist eine Funktion y(t) periodisch, so kann man sie als unendliche Summe von harmonischen Schwingungen darstellen. Deren Frequenzen sind die Vielfachen einer Grundfrequenz f0 = T10 . Einen analogen Aufbau zeigt (3.125). Hier
92
3 Zeitkontinuierliche Signale
ist die nichtperiodische Funktion y(t) ebenfalls aus harmonischen Schwingungen aufgebaut. Dabei sind aber nicht nur Schwingungen mit diskreten Frequenzen kf0 beteiligt, sondern grundsätzlich Schwingungen aller Frequenzen. Jede dieser Schwingungen ist mit ihrer infinitesimalen komplexen Amplitude Y (f ) df beteiligt. Ihre Summation führt zu dem Integral (3.125). Statt der Frequenz f kann man auch die Kreisfrequenz ω = 2πf einführen. Dann ergeben sich mit dω = 2π df
∞ Y (ω) = −∞
1 y(t) = 2π
y(t)e−jωt dt
∞
Y (ω)ejωt dω
(3.126)
(3.127)
−∞
die beiden Fourier-Integrale in Kreisfrequenzschreibweise. In der Literatur [Doe76, Föl80, Jur64, OS75, Ach78, Pap77, SS67] findet man beide Arten. Wir haben uns für die Frequenzschreibweise entschieden, da sie durch ihre symmetrische Darstellung einfacher zu erlernen ist. Die Eigenschaften und Rechenregeln der Fourier-Transformation sind natürlich unabhängig von der Schreibweise. Wenn man aber Spektraldichten oder Zeitfunktionen aus einer Korrespondenztabelle entnimmt, muss man darauf achten, welche Schreibweise der jeweilige Autor verwendet. Bei den Fourier-Integralen handelt es sich um uneigentliche Integrale. Deshalb stellt sich hier die Frage nach deren Konvergenz. Wegen ∞
∞ −j2πf t y(t)e dt ≤ |y(t)| dt −∞
−∞
konvergiert das Fourier-Integral sicherlich dann, wenn
∞ |y(t)| dt < ∞
(3.128)
−∞
gilt, wenn also y(t) absolut integrierbar über R ist. Dann existiert auch das Umkehrintegral (3.125). Die Bedingung (3.128) ist z.B. für alle Funktion y(t) erfüllt, die ein Energiesignal darstellen, d.h. y(t) ∈ L2 (R). Die Bedingung der absoluten Integrierbarkeit ist allerdings nicht notwendig, sondern nur hinreichend. Die Fourier-Transformierte kann existieren, auch wenn (3.128) nicht erfüllt ist. Die mögliche Nichtexistenz des Fourier-Integrals soll an einem Beispiel gezeigt werden.
3.5 Fourier-Transformation
93
Beispiel 3.129 (Nichtexistenz des Fourier-Integrals) Die Rampenfunktion y(t) =
t 0
, für t ≥ 0 , sonst
besitzt, wenn überhaupt, die Fourier-Transformierte
T0 Y (f ) = lim
T0 →∞
te−j2πf t dt.
0
Aus dem Integral
T0 0
T0 1 −j2πf t e (−j2πf t − 1) (−j2πf )2 0 0 1 1 −j2πf T0 (j2πf T + 1) − 1 = 0 2 e (2πf )
te−j2πf t dt =
und der Dreiecksungleichung |a ± b| ≥ |a| − |b| ≥ |a| − |b| wird mit Hilfe der Abschätzung 0 1 1 −j2πf T0 (j2πf T + 1) − 1 e 0 (2πf )2 1 −j2πf T0 ≥ (j2πf T + 1) − |1| e 0 2 (2πf ) 1 = ||(1 + j2πf T0 )| − |1|| (2πf )2 |2πf T0 | T0 →∞ ≥ −→ ∞ (2πf )2 schnell deutlich, dass das Fourier-Integral in diesem Fall nicht existiert.
•
Die Fourier-Transformation ist im Hilbert-Raum L2 (R) ein linearer, unitärer Operator, bei dem die Signalenergie erhalten bleibt. Es gilt die Parsevalsche Beziehung zwischen zwei Funktionen x(t) und y(t) x(t), y(t)t = X(f ), Y (f )f ,
(3.130)
94
3 Zeitkontinuierliche Signale
welche sich leicht nachrechnen lässt.
∞ X(f ), Y (f )f = −∞
∞
X(f )Y ∗ (f ) df
∞
= −∞ −∞
∞ ∞
x(t1 )e−j2πf t1 dt1
∞
=
∞
y ∗ (t2 )ej2πf t2 dt2 df
−∞
x(t1 )y ∗ (t2 )e−j2πf (t1 − t2 ) df dt1 dt2
−∞ −∞ −∞
∞ ∞
∞
∗
x(t1 )y (t2 )δ(t1 − t2 ) dt2 dt1 =
=
x(t1 )y ∗ (t1 ) dt1
−∞
−∞ −∞
= x(t), y(t)t Aus der Parsevalschen Beziehung folgt sofort, dass die Fourier-Transformation unitär ist: ||y(t)||2 = y(t), y(t)t = Y (f ), Y (f )f = ||Y (f )||2 .
3.5.2
Eigenschaften der Fourier-Transformation
In der Praxis bildet die Fourier-Transformation ein sehr anschauliches Denkmodell. Meist rechnet man jedoch nicht konkret mit der Fourier-Transformation nach den Gleichungen (3.124) und (3.125), denn die uneigentlichen Integrale sind im Allgemeinen unbequem. Vielmehr denkt man im Zeit- und Frequenzbereich mit Hilfe einiger weniger Korrespondenzen, Operationen und Eigenschaften. Eine Auflistung der gebräuchlichsten Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation findet man in Anhang A. Für die Abschätzung des Spektrums ist der folgende Satz hilfreich: Satz 3.131 (Fourier-Transformierte eines positiven Signals) Für die Fourier-Transformierte eines im Zeitbereich positiven und reellen Signals y(t) ≥ 0 , t, y(t) ∈ R gilt folgende Abschätzung: ∞
∞ y(t)e−j2πf t dt ≤ |y(t)| |e−j2πf t | dt |Y (f )| = −∞ −∞ =1
∞
∞ = |y(t)|dt = y(t)dt = Y (0) −∞
−∞
3.5 Fourier-Transformation
95
oder kürzer: y(t) ≥ 0 , t ∈ R
•
=⇒ |Y (f )| ≤ Y (0) , f ∈ R .
Ein im weiteren Verlauf des Buches benötigter Satz beschäftigt sich mit der Transformierten von im Zeitbereich reellen Funktionen. Betrachtet man die Fourier-Transformierte einer solchen reellen Funktion y(t), so folgt: Y (f ) = ∗
∞
∗ y(t)e−j2πf t dt =
−∞
∞ =
∞
y ∗ (t)ej2πf t dt =
−∞
y(t)e−j2π(−f )t dt = Y (−f ) .
−∞
Satz 3.132 (Fourier-Transformation eines reellen Signals) Für die Fourier-Transformierte eines im Zeitbereich reellen Signals y(t) ∈ R , t ∈ R, gilt Y ∗ (f ) = Y (−f )
(3.133)
und somit die Symmetrie des Betrages |Y (f )| = |Y (−f )| und die Schiefsymmetrie der Phase arg{Y (f )} = − arg{Y (−f )}. Aus dieser Eigenschaft folgen für Y (f ) = YR (f ) + jYI (f ) die Zusammenhänge YR (f ) = YR (−f ) YI (f ) = −YI (−f ) und darüber hinaus |Y (f )|2 = Y (f )Y ∗ (f ) = Y (f )Y (−f ).
(3.134) •
3.5.2.1
Faltung
Die Faltung ist ein Operator, der durch
∞
∗
x(t) ∗ y(t) = x(t − τ ), y (τ )τ =
x(t − τ ) y(τ ) dτ
(3.135)
−∞ ∗
∞ X(f − ν) Y (ν) dν
X(f ) ∗ Y (f ) = X(f − ν), Y (ν)ν = −∞
(3.136)
96
3 Zeitkontinuierliche Signale
definiert ist. Die Faltung korrespondiert bei Anwendung der Fourier-Transformation mit der Multiplikation. Dies lässt sich einfach zeigen: ∞ ∞
x(t) · y(t) = X(f )ej2πf t df · Y (ν)ej2πνt dν −∞
∞ =
X(f )
−∞
−∞
∞
Y (ν)ej2π(f + ν)t dν df
−∞
f +ν =ζ dν = dζ ∞
∞ = X(f ) Y (ζ − f )ej2πζt dζ df
=
−∞
∞
∞
=
−∞
X(f )Y (ζ − f )ej2πζt dζ df
−∞ −∞
∞ =
∞
X(f )Y (ζ − f ) df · ej2πζt dζ
−∞ −∞ −1
=F
{X(f ) ∗ Y (f )}
Für die Fourier-Transformation gilt also: F{x(t) · y(t)} = x(t) · y(t), ej2πf t t = x(t), ej2πf t ∗ y(t), ej2πf t t
t
= F{x(t)} ∗ F{y(t)} Das andere Äquivalent von Faltung und Multiplikation kann man in gleicher Weise zeigen: F{x(t) ∗ y(t)} = F{x(t)} · F{y(t)} .
(3.137)
Aus Gleichung (3.137) erkennt man auch sofort, dass die Faltung eine kommutative Operation darstellt, d.h. x(t) ∗ y(t) = y(t) ∗ x(t) gilt, denn: x(t) ∗ y(t) = F −1 {X(f ) · Y (f )} = F −1 {Y (f ) · X(f )} = y(t) ∗ x(t) . Bemerkung 3.138 Der Faltungs-Operator wird häufig angewandt. Dies liegt daran, dass man beispielsweise beim Entwurf von Filtern das Frequenzverhalten vorgibt und dann das Zeit• verhalten mittels einer Faltung berechnet.
3.5 Fourier-Transformation 3.5.2.2
97
Korrelation
Die Korrelation zweier Energiesignale ist nach Gleichung (3.83) durch das Innenprodukt definiert:
∞ E (τ ) Rxy
= x(t + τ ), y(t)t =
x(t + τ )y ∗ (t) dt
(3.139)
−∞
Sie kann auch als Faltung geschrieben werden:
∞ E Rxy (τ )
=
x(t + τ )y ∗ (t) dt =
−∞
t = −ξ dt = −dξ
−∞
∞ ∗ x(−ξ + τ )y (−ξ) dξ = x(τ − ξ)y ∗ (−ξ) dξ =− ∞
−∞
= x(τ ) ∗ y ∗ (−τ ) Die Korrelation der beiden Signale lässt sich auch vertauschen.
∞ E Rxy (τ )
=
∗
x(t + τ )y (t) dt =
t+τ =ξ dt = dξ
−∞
∞
∗
∞
x(ξ)y (ξ − τ ) dξ =
= −∞
y ∗ (ξ − τ )x(ξ) dξ
−∞
∗ E = Ryx (−τ ) Im Anhang A findet man in den Tabellen A.2, A.3 und A.4 Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation, die sich meist relativ einfach nachrechnen lassen, wie im Folgenden anhand des Beispiels der Modulation gezeigt wird.
3.5.2.3
Zeitverschiebung, Frequenzverschiebung und Modulation
Zuerst wird gezeigt, dass eine Verschiebung im Zeitbereich mit einer Modulation im Frequenzbereich korrespondiert. Sei hierzu ein Signal y(t) mitsamt seiner Fourier-Transformierten Y (f ) gegeben. Die Fourier-Transformierte der um τ verschobenen Zeitfunktion
98
3 Zeitkontinuierliche Signale
ergibt sich als:
∞ F{y(t − τ )} = −∞
∞
=
y(t − τ )e−j2πf t dt =
t−τ =ξ dt = dξ
y(ξ)e−j2πf (ξ + τ ) dξ
−∞
= F{y(t)} · e−j2πf τ Somit entspricht eine Verschiebung im Zeitbereich einer Modulation im Frequenzbereich. Analog kann nachgerechnet werden, dass eine Frequenzverschiebung einer Modulation im Zeitbereich entspricht: F
−1
∞ {Y (f − ν)} = −∞
∞
=
Y (f − ν)ej2πf t df =
f −ν =ζ df = dζ
Y (ζ)ej2πζt dζ · ej2πνt
−∞
= F −1 {Y (f )} · ej2πνt Die meisten der in Anhang A aufgeführten Beziehungen lassen sich ähnlich leicht nachrechnen wie die eben bewiesene Zeitverschiebungs- und Modulationsregel. Oft genügt es, die Definition der Fourier-Transformation hinzuschreiben und diese mit der zu zeigenden Beziehung „im Hinterkopf“ umzuformen.
3.5.3
Energie- und Leistungsdichte
Das Energiedichtespektrum ist bei Energiesignalen als die Fourier-Transformierte der Korrelation definiert. Mit Hilfe der Korrespondenz zwischen Faltung und Multiplikation und mit Hilfe von ∞ ∗
∞
−j2πf t −j2πf t ∗ ∗ y (−t) ◦−• y (−t)e dt = y(t)e dt = Y ∗ (f ) −∞
−∞
lässt sich leicht der Zusammenhang zwischen dem Energiedichtespektrum und der Korrelation angeben: E Rxy (t) = x(t) ∗ y ∗ (−t)
◦−•
E SXY (f ) = X(f ) · Y ∗ (f ) .
(3.140)
L (f ) Entsprechend erhält man bei Leistungssignalen das Leistungsdichtespektrum SXY L als die Fourier-Transformierte der Korrelation Rxy (t), L L (t) ◦−• SXY (f ). Rxy
(3.141)
3.5 Fourier-Transformation
3.5.4
99
Cosinus- und Sinus-Transformation
Bei reellen Signalen y(t) kann man die Fourier-Transformation nach (3.124)
∞ Y (f ) =
y(t)e−j2πf t dt
−∞
mit der Eulerschen Formel ejx = cos(x) + j sin(x) zu
∞ y(t)[cos(2πf t) − j sin(2πf t)] dt
Y (f ) = −∞
∞
∞ y(t) cos(2πf t) dt − j ·
= −∞
y(t) sin(2πf t) dt
(3.142)
−∞
zerlegen. Da es sich um ein uneigentliches Integral handelt, ist dies natürlich nur dann möglich, wenn das Integral und die beiden entstehenden Teilintegrale absolut konvergent sind. Dies setzen wir hier ohne Beweis voraus. Man kann also den Real- bzw. Imaginärteil einer Fourier-Transformierten Y (f ) auch getrennt berechnen. Die Teilintegrale sind bei reellen Signalen y(t) reell. Zerlegt man nun die reelle Funktion y(t) gemäß (3.143)
y(t) = yg (t) + yu (t), in einen geraden und einen ungeraden Anteil, yg (t) = 12 (y(t) + y(−t)) yu (t) = 12 (y(t) − y(−t)),
(3.144)
so kann man die nun entstehende Fourier-Transformierte
∞ Y (f ) =
[yg (t) + yu (t)] cos(2πf t) dt −∞
∞ −j ·
[yg (t) + yu (t)] sin(2πf t) dt
(3.145)
−∞
∞ weiter vereinfachen. Ein Integral der Form −∞ f (t) dt verschwindet, falls über eine ungerade Funktion f (t) integriert wird. Der Cosinus ist eine gerade Funktion, der Sinus ist eine ungerade Funktion. Das Ergebnis einer Multiplikation von geraden bzw. ungeraden Funktionen lässt sich aus folgender Tabelle ablesen:
100
3 Zeitkontinuierliche Signale
g u
g g u
u u g
Damit folgt nun für die Fourier-Transformierte eines reellen Signals y(t):
∞
∞ yg (t) cos(2πf t) dt − j ·
Y (f ) = −∞
yu (t) sin(2πf t) dt
(3.146)
−∞
Mit Gleichung (3.144) ergibt sich
∞ Y (f ) = −∞
1 (y(t) + y(−t)) cos(2πf t) dt 2
∞ −j −∞
∞
1 (y(t) − y(−t)) sin(2πf t) dt 2
∞
(y(t) + y(−t)) cos(2πf t) dt − j
= 0
(y(t) − y(−t)) sin(2πf t) dt. 0
Die Teilintegrale nennt man Cosinus- bzw. Sinus-Transformation des Signals y(t). Definition 3.147 (Cosinus- bzw. Sinus-Transformation) Die Cosinus-Transformation bzw. Sinus-Transformation ist für reelle Signale y(t) durch folgende Integrale bestimmt:
∞ YC (f ) = COS{y(t)} =
(y(t) + y(−t)) cos(2πf t) dt = 0
∞ =
y(t) cos(2πf t) dt −∞
(3.148)
∞ (y(t) − y(−t)) sin(2πf t) dt =
YS (f ) = SIN{y(t)} = 0
∞ =
y(t) sin(2πf t) dt −∞
(3.149)
3.6 Testsignale
101
Satz 3.150 (Zusammenhang zur Fourier-Transformation) Die Fourier-Transformation lässt sich aus der Cosinus- und der Sinus-Transformation nach Gleichung (3.142) als Y (f ) = YC (f ) − j · YS (f ) zusammensetzen.
(3.151) •
Wenn von der zu transformierenden Funktion bekannt ist, dass sie gerade bzw. ungerade ist, besteht der Vorteil der Cosinus- bzw. Sinus-Transformation gegenüber der FourierTransformation darin, dass man sich bei der Berechnung der Fourier-Transformierten auf den Cosinus- bzw. Sinus-Teil beschränken kann. Besitzt man keine Informationen über die zu transformierende Funktion, so entspricht die Cosinus-Transformierte der Fourier-Transformierten des geraden Anteils der Funktion, während sich die Sinus-Transformierte als Fourier-Transformierte des ungeraden Anteils ergibt.
3.6
Testsignale
Wie bereits in der Einleitung erwähnt, wird ein Signal durch eine Funktion der Zeit dargestellt. Aber nicht jede Funktion der Zeit repräsentiert ein physikalisch erzeugbares Signal. Es erscheint jedoch zweckmäßig, auch physikalisch nicht realisierbare Signale als Modellsignale für theoretische Untersuchungen zu betrachten. Mit ihnen kann dann beispielsweise eine Korrespondenztabelle für die Fourier-Transformation aufgebaut werden. Hierbei wird als Erstes der Dirac-Impuls δ(t) eingeführt. Dieser ist nicht als Funktion im klassischen Sinne darstellbar. Trotzdem ist es sinnvoll, sich mit ihm zu beschäftigen, denn die Fourier-Transformation ist bereits bei vielen geläufigen und nahe liegenden Funktionen wie beispielsweise dem Einheitssprung σ(t), der Schwingung sin(2πf t) und dergleichen im üblichen Sinn nicht konvergent. Viele dieser Funktionen sind im Rahmen der Distributionentheorie mathematisch behandelt. An dieser Stelle soll auf eine Einführung in die Theorie der Distributionen jedoch verzichtet werden. Diese Theorie findet sich ausführlicher beispielsweise in [Fli91] oder [Unb02].
3.6.1
Dirac-Impuls
Der Dirac-Impuls ist eine verallgemeinerte Funktion, auch Distribution genannt, bei der sich nicht wie gewohnt jedem Wert t ein Funktionswert zuordnen lässt. Der Dirac-Impuls ist stattdessen durch seine Wirkung auf eine klassische Funktion y(t) definiert.
102
3 Zeitkontinuierliche Signale
Definition 3.152 (Dirac-Impuls) Der Dirac-Impuls δ(t) ist durch
∞ y(t)δ(t − t0 ) dt
y(t0 ) =
(3.153)
−∞
definiert. Man kann sagen, der Dirac-Impuls δ(t − t0 ) hat überall, mit Ausnahme des Punktes t0 , den Wert Null. Außerdem ist der Dirac-Impuls gerade, (3.154)
δ(t) = δ(−t).
Aus dieser Definition kann man z.B. sofort die Faltung einer Funktion y(t) mit dem zeitverschobenen Dirac-Impuls δ(t − t0 ) berechnen:
∞ y(t) ∗ δ(t − t0 ) =
y(τ )δ(t − τ − t0 ) dτ = y(t − t0 ) .
(3.155)
−∞
Jedoch sind bei obiger Definition die Möglichkeiten, mit Dirac-Impulsen zu rechnen, beschränkt. Um dieses Problem zu beseitigen, wird der Dirac-Impuls im Sinne der Distributionentheorie als Grenzwert sin(2πf t) f →∞ πt
δ(t) = lim
(3.156)
angegeben. Zur Überprüfung von Gleichung (3.156) muss nach der Definition des Grenzwertes für Distributionen folgende Gleichung erfüllt sein:
∞ y(t0 ) = lim
f →∞ −∞
y(t)
sin(2πf (t − t0 )) dt . π(t − t0 )
(3.157)
Der exakte Beweis würde hier den Rahmen sprengen. Hierzu sei z.B. auf [Kro91] oder [Fli91] verwiesen. Die Fourier-Transformierte des zeitverschobenen Dirac-Impulses wird durch
∞ F{δ(t − t0 )} =
δ(t − t0 )e−j2πf t dt = e−j2πf t0
(3.158)
−∞
angegeben. Der Dirac-Impuls selbst besitzt die Fourier-Transformierte F{δ(t)} = 1.
(3.159)
3.6 Testsignale
103
Die Impulsreihe ∞
iT (t) =
δ(t − kT )
(3.160)
k=−∞
ist eine T -periodische Funktion. Setzt man deren komplexe Fourier-Koeffizienten nach (3.116) T
2
1 ck = T
δ(t) · e−j2π T t dt = k
1 T
− T2
in die Synthesegleichung (3.115) der Fourier-Reihe ein, iT (t) =
∞ 1 j2π k t T , e T
k=−∞
so erhält man die Poissonsche Summenformel ∞
δ(t − kT ) =
k=−∞
3.6.2
∞ 1 j2π k t T . e T
(3.161)
k=−∞
Konstantes Signal
Das konstante Signal y(t) = 1
(3.162)
scheint auf den ersten Blick in der Realität zu existieren. Man vergisst hierbei aber, dass eine physikalische Größe nicht für alle Zeiten t ∈ R einen konstanten Wert ungleich Null haben kann. Ansonsten wäre die Energie des Signals unendlich groß. Die Fourier-Transformierte des konstanten Signals lässt sich mit Hilfe der Symmetrieeigenschaft der Fourier-Transformation, Y (t) ◦−• y(−f ),
(3.163)
und Gleichung (3.159) sofort als F{1} = δ(−f ) = δ(f )
(3.164)
angeben.
3.6.3
Vorzeichenfunktion
Die Vorzeichenfunktion, oder auch Signumfunktion, −1 , t < 0 sign(t) = 1 ,t ≥ 0
(3.165)
104
3 Zeitkontinuierliche Signale
besitzt, wie z.B. in [Föl80] gezeigt wird, die Fourier-Transformierte F{sign(t)} =
3.6.4
1 . jπf
(3.166)
Einheitssprung
Das Signal σ(t) =
0 1
,t < 0 ,t ≥ 0
(3.167)
heißt Einheitssprung. Es wird auch Sprungfunktion genannt. Mit Hilfe der Beziehung σ(t) =
1 1 sign(t) + 2 2
zwischen Einheitssprung und Vorzeichenfunktion und der Linearitätseigenschaft der Fourier-Transformation lässt sich schnell die Fourier-Transformierte des Einheitssprungs angeben: F{σ(t)} =
3.6.5
1 1 1 1 F{sign(t)} + F{1} = + δ(f ) . 2 2 j2πf 2
(3.168)
Komplexe Schwingung
Das Signal y(t) = ej2πf0 t
(3.169)
heißt komplexe Schwingung der Frequenz f0 . Die Fourier-Transformierte der komplexen Schwingung lässt sich wiederum mit Hilfe der Symmetrieeigenschaft der FourierTransformation, Gleichung (3.163), leicht angeben: y(t) = ej2πf0 t ◦−• Y (f ) = δ(f − f0 )
(3.170)
Dieses Resultat lässt sich auch über Gleichung (3.125) unter Beachtung der Eigenschaft (3.153) des Dirac-Impulses leicht nachrechnen. Bei Interpretation des Spektrums als Anteil der am Signal beteiligten Schwingungen ergibt sich also bei der harmonischen Schwingung der Frequenz f0 genau ein Spektralanteil an der „Stelle“ f0 . Die unendlich hohe Amplitude ist dadurch begründet, dass im Vergleich zur Fourier-Reihe aufgrund der kontinuierlichen Frequenzauflösung ein infinitesimal kleines Intervall betrachtet werden muss. Damit wird aus einem Anteil 1 · ∆f für ∆f → 0 ein Anteil der „Höhe Unendlich“.
3.6 Testsignale
3.6.6
105
Rechteckfunktion
Für die Rechteckfunktion + 1 rT (t) = 0
, |t| ≤ T2 , sonst
(3.171)
folgt die Fourier-Transformierte: T /2
Y (f ) =
e−j2πf t dt =
−T /2
=
1 e−j2πf t −j2πf
T /2 −T /2
ejπf T − e−jπf T T sin(πf T ) = = T si(πf T ) j2πf T πf
(3.172)
1.5
1.5
1
1 Y(f)
T
r (t)
Um ein Gefühl für diese Begriffe zu bekommen, ist die Rechteckfunktion rT (t) für T = 1[sec] mit ihrer Spektralfunktion in Abbildung 3.10 zu sehen. Man erkennt deutlich, dass sich die Rechteckfunktion aus Schwingungen aller Frequenzen zusammensetzt, deren Anteil jedoch mit steigender Frequenz abnimmt.
0.5
0
−0.5 −2
0.5
0
−1
0 t [sec]
1
2
−0.5 −10
−5
0 f [Hz]
5
10
Abbildung 3.10: Rechteckfunktion und Fourier-Transformierte für T = 1[sec]
In der Literatur wird die Rechteckfunktion gelegentlich mit dem Vorfaktor T1 versehen. Dadurch wird die Fläche unter der Funktion auf eins normiert. Hier muss bei Verwendung verschiedener Literatur darauf geachtet werden, welche Definition der jeweilige Autor verwendet.
3.6.7
Exponentialimpuls
Aus der Zeitfunktion y(t) = e−at σ(t) , a ∈ R,
(3.173)
106
3 Zeitkontinuierliche Signale
dem Exponentialimpuls, bildet man mit (3.124) die Fourier-Transformierte: ∞
∞ −(a + j2πf )t e Y (f ) = e−at e−j2πf t dt = − a + j2πf
(3.174)
0
0
Nur wenn a > 0 ist, geht e−(a + j2πf )t für t → ∞ gegen null und es gilt: e−at σ(t) ◦−•
1 a + j2πf
(3.175)
,a > 0.
1.5
1.5
1
1 |Y(f)|
y(t)
Diese Funktion wird mitsamt ihrer Fourier-Transformierten in Abbildung 3.11 dargestellt. Da das Spektrum des Exponentialimpulses im Gegensatz zu der Fourier-Transformierten der Rechteckfunktion eine komplexwertige Funktion ist, ist in Abbildung 3.11 der Betrag der Fourier-Transformierten aufgezeichnet.
0.5
0.5
0
−0.5
0
0
1
2 3 t [sec]
4
−0.5 −10
5
−5
0 f [Hz]
5
10
Abbildung 3.11: Exponentialimpuls und Fourier-Transformierte für a = 1[Hz]
3.6.8
Doppelseitige Exponentialfunktion
Von einer doppelseitigen Exponentialfunktion y(t) = e−a|t|
, a ∈ R,
(3.176)
ausgehend, erhält man die Fourier-Transformierte:
0 Y (f ) = −∞
eat e−j2πf t dt +
∞
e−at e−j2πf t dt
0
1 1 2a = + = 2 a − j2πf a + j2πf a + (2πf )2
,a > 0
(3.177)
Die Funktion im Zeitbereich und das zugehörige Betragsspektrum sind in Abbildung 3.12 dargestellt.
3.6 Testsignale
107
1.5
2.5 2
1 |Y(f)|
y(t)
1.5 0.5
1 0.5
0 0 −0.5 −5
0 t [sec]
−0.5 −10
5
−5
0 f [Hz]
5
10
Abbildung 3.12: Doppelseitiger Exponentialimpuls und Fourier-Transformierte für a = 1[Hz]
3.6.9
Exponentialsignal
Das komplexe Exponentialsignal y(t) = A · est
(3.178)
besitzt die komplexe Amplitude A = AR + jAI und den komplexen Frequenzparameter s = σ + jω. Ist ω = 0 und A = AR > 0 eine reelle Amplitude, so erhält man das reelle Exponentialsignal y(t) = AR · eσt .
(3.179)
Für σ > 0 wächst das Signal y(t) für t → ∞ über alle Grenzen, dagegen konvergiert es für σ < 0 gegen null. Dies ist in Abbildung 3.13 dargestellt.
y(t)
σ>0
y(t)
σ 0) oder abklingende (σ < 0) oder konstante (σ = 0) Schwingungen sind. Exponentialsignale mit reeller Amplitude und komplexem Frequenzparameter werden auch komplexe Exponentialsignale genannt. Wie (3.181), (3.182) und Abbildung 3.13 zeigen, treten reelle Exponentialsignale als Einhüllende von Real- bzw. Imaginärteil komplexer Exponentialsignale auf. Für σ = 0 handelt es sich bei (3.181) bzw. (3.182) um Cosinus- bzw. Sinussignale. In (3.180) erhält man eine komplexe Schwingung mit der Amplitude AR . Der reelle Frequenzparameter ω = 2πf, welcher schon im Zusammenhang mit der Definition der Fourier-Transformation auftrat, heißt Kreisfrequenz.
3.6.10
Gauß-Impuls
In späteren Abschnitten wird des Öfteren der Gauß-Impuls auftreten, den wir schon bei der Charakterisierung der Normalverteilung als zugehörige Dichte kennen gelernt
3.6 Testsignale
109
1.5
1.5
Ya=5(f)
2
ya=5(t)
2
1
0.5 0 −3
1
0.5
−2
−1
0 t [sec]
1
2
0 −3
3
−2
−1
0 f [Hz]
1
2
3
1 Abbildung 3.15: Gauß-Impuls und Fourier-Transformierte für a = 5 [sec 2]
1.5
1.5 Ya=1(f)
2
ya=1(t)
2
1
0.5 0 −3
1
0.5
−2
−1
0 t [sec]
1
2
0 −3
3
1.5
1.5 Ya=9(f)
2
ya=9(t)
2
1
0.5 0 −3
−2
−1
0 f [Hz]
1
2
3
−2
−1
0 f [Hz]
1
2
3
1
0.5
−2
−1
0 t [sec]
1
2
3
0 −3
1 1 Abbildung 3.16: Gauß-Impuls und Fourier-Transformierte für a = 1 [sec 2 ] bzw. a = 9 [sec2 ]
hatten. Das nicht auf die Fläche eins normierte Signal lautet im Zeitbereich: 2
y(t) = e−at
,a > 0
(3.183)
110
3 Zeitkontinuierliche Signale
Die zugehörige Fourier-Transformierte ergibt sich mit Hilfe einer Korrespondenztabelle zu ) 2 2 π −π f a . (3.184) Y (f ) = e a 1 Diese sind in Abbildung 3.15 für a = 5 [sec 2 ] zu sehen.
Die Form des Gauß-Impulses im Zeit- und Frequenzbereich wird durch den Parameter a 1 1 bestimmt. In Abbildung 3.16 sind für den Fall a = 1 [sec 2 ] bzw. a = 9 [sec2 ] noch einmal die Gauß-Impulse bzw. die entsprechenden Fourier-Transformierten dargestellt. Man erkennt deutlich den Einfluss des Parameters a. Wird das Signal im Zeitbereich breiter, so verringert sich die Breite der Fourier-Transformierten, und umgekehrt. Dies ist eine Eigenschaft, welche für alle Signale zutrifft und in Abschnitt 3.8.1 als „Satz über das Zeitdauer-Bandbreite-Produkt“ konkretisiert werden wird. Hierzu wird der Begriff „Breite“ im Zeit- und im Frequenzbereich mit Hilfe mathematischer Definitionen formuliert.
3.7
Besonderheiten der Fourier-Transformation
In diesem Abschnitt werden Auswirkungen der Fourier-Transformation auf Funktionen mit bestimmten Eigenschaften aufgezeigt. Der Leckeffekt befasst sich mit der Auswirkung, die eine Zeitbegrenzung auf die Fourier-Transformierte einer Funktion hat. Als zweiter Punkt wird dargestellt, was durch Fourier-Transformation und anschließender Rücktransformation an Unstetigkeitsstellen geschieht. Hier zeigt sich, dass sich der rekonstruierte Signalwert als das Mittel des rechts- und des linksseitigen Grenzwertes ergibt und dass immer ein in der Höhe vom Signal unabhängiger Überschwinger auftritt.
3.7.1
Leckeffekt
Die Fourier-Transformation betrachtet ein Signal y(t) im gesamten Zeitbereich R. In der Realität kann man aber ein Signal nur in einem beschränkten Zeitintervall [a, b] beobachten. Um die Frage zu beantworten, inwieweit sich die Fourier-Transformierte im beschränkten Zeitintervall [a, b],
b Ya,b (f ) =
y(t)e−j2πf t dt,
a
von der eigentlichen Fourier-Transformierten
∞ Y (f ) = −∞
y(t)e−j2πf t dt
(3.185)
3.7 Besonderheiten der Fourier-Transformation
111
unterscheidet, beschreibt man das beschränkte Zeitintervall durch die Fensterfunktion 1 ,a ≤ t ≤ b w(t) = , (3.186) 0 , sonst welche die Fourier-Transformierte
∞ W (f ) =
w(t)e−j2πf t dt =
−∞
b
e−j2πf t dt
a
0 1 1 e−j2πf b − e−j2πf a = −j2πf 1 e−jπf (b + a) 0 −jπf (b − a) = e − ejπf (b − a) −j2πf sin(πf (b − a)) = e−jπf (b + a) · πf besitzt. Im Folgenden soll als Testsignal die komplexe, harmonische Schwingung der Frequenz f0 , y(t) = ej2πf0 t , der Fourier-Transformation unterzogen werden. Aufgrund des in praktischen Anwendungen beschränkten Beobachtungsintervalls [a, b] wird das Testsignal y(t) mit dem Fenster w(t) multipliziert, was die gefensterte Funktion yw (t) ergibt: yw (t) = y(t) · w(t) . Es ergibt sich die Fourier-Transformierte Yw (f ) des gefensterten Signals Yw (f ) = F{y(t) · w(t)} = Y (f ) ∗ W (f ) sin(π(f − f0 )(b − a)) = e−jπ(f − f0 )(b + a) · π(f − f0 ) als eine Faltung beider Fourier-Transformierter. Der Betrag des Spektrums ist |b − a| · sinx x . In Abbildung 3.17 ist der Betrag |Y (f )| der Fourier-Transformierten einer komplexen, harmonischen Schwingung y(t) und der Betrag |Yw (f )| der FourierTransformierten einer im beschränkten Zeitintervall betrachteten Funktion yw (t) zu sehen. Während die Fourier-Transformierte der komplexen, harmonischen Schwingung Y (f ) = δ(f − f0 ) aus einem Dirac-Impuls bei der Frequenz f0 mit unendlicher Amplitude besteht, besitzt Yw (f ) bei allen Frequenzen endliche Werte. Aus dem Leistungssignal y(t) mit unendlicher Energie ist ein Energiesignal yw (t) geworden.
3 Zeitkontinuierliche Signale
|Y(f)|
Re{y(t)}
112
b t [sec]
a
b t [sec]
f0 f [Hz]
|Yw (f )|
Re{yw (t)}
a
f0 f [Hz]
Abbildung 3.17: Ungefensterte und gefensterte komplexe, harmonische Schwingung sowie deren Fourier-Transformierte
Die Nullstellen der Fourier-Transformierten Yw (f ) liegen bei den Frequenzen f0 + k b−a , k ∈ Z \ {0}. Das Maximum von |Yw (f )| liegt bei der Frequenz f0 . Die Abstände der Nullstellen von der Lage des Maximums sind umgekehrt proportional zur Breite (b − a) des verwendeten Zeitfensters. Das „Verschmieren“ des Dirac-Impulses aufgrund des endlichen Beobachtungsintervalls [a, b] nennt man Leckeffekt (engl. Leakage). Als Nächstes betrachtet man ein Signal y(t) = ej2πf0 t + A · ej2π(f0 + ∆f )t
, |A| 1,
das aus zwei komplexen, harmonischen Schwingungen besteht. Die Frequenz der zweiten Schwingung weiche von der Frequenz der ersten Schwingung nur minimal ab. Ihre Amplitude ist aber sehr viel kleiner als die der ersten Schwingung. In Abbildung 3.18 ist zu sehen, dass die zweite Frequenzlinie im Spektrum des gefensterten Signals kaum noch zu erkennen ist. Aufgrund des Leckeffekts wird das Spektrum der zweiten Schwingung von dem der ersten überdeckt.
113
|Y (f )|
Re{y(t)}
3.7 Besonderheiten der Fourier-Transformation
b t [sec]
a
b t [sec]
f0 f [Hz]
|Yw (f )|
Re{yw (t)}
a
f0 f [Hz]
Abbildung 3.18: Ungefensterte und gefensterte komplexe, harmonische Schwingungen sowie deren Spektren
Der Leckeffekt kann reduziert werden, indem man die Breite des Beobachtungsintervalls 2 [a, b] erhöht, welche reziprok zur Breite b−a der „Hauptspektrallinie“ ist. Dies ist in Abbildung 3.19 zu sehen. In Abschnitt 4.5 werden allgemeine Fensterfunktionen eingeführt. Der Leckeffekt tritt generell bei der Multiplikation eines Signals y(t) mit einer beliebigen Fensterfunktion w(t) auf. Dies gilt auch für Fensterfunktionen w(t) unendlicher Breite, aber endlicher Energie.
3.7.2
Gibbssches Phänomen
Im Folgenden soll untersucht werden, inwieweit ein Signal y(t) nach der Fourier-Transformation und anschließender Rücktransformation korrekt rekonstruiert wird. Dabei betrachten wir als Erstes wieder die Fourier-Rücktransformation nach Gleichung (3.125),
∞ y(t) = −∞
Y (f )ej2πf t df,
3 Zeitkontinuierliche Signale
|Y (f )|
Re{y(t)}
114
a
b
f0 f [Hz]
|Yw (f )|
Re{yw (t)}
t [sec]
a
b t [sec]
f0 f [Hz]
Abbildung 3.19: Ungefensterte und gefensterte komplexe, harmonische Schwingungen sowie deren Fourier-Transformierte bei erhöhter Fensterbreite
die als uneigentliches Integral in Wirklichkeit als Grenzwert
F y(t) = lim
F →∞ −F
Y (f )ej2πf t df
geschrieben werden muss. Setzt man für Y (f ) die Fourier-Transformation (3.124) ein, so ergibt sich:
F ∞ yˆ(t) = lim y(τ )e−j2πf τ dτ ej2πf t df . F →∞ −F
−∞
Vertauscht man nun die beiden Integrale, so folgt
∞ F ej2πf (t − τ ) df y(τ )dτ, yˆ(t) = lim F →∞ −∞
−F
3.7 Besonderheiten der Fourier-Transformation
115
wobei sich das innere Integral leicht berechnen lässt. Es folgt dann:
∞ sin(2πF (t − τ )) y(τ )dτ. yˆ(t) = lim F →∞ π(t − τ )
(3.187)
−∞
Nun vertauschen wir die Grenzwertbildung und das Integral. Da im Sinne der Distributionentheorie sin(2πF (t − τ )) lim = δ(t − τ ) F →∞ π(t − τ ) gilt, folgt für stetige Funktionen y(t)
∞ δ(t − τ )y(τ )dτ = y(t),
yˆ(t) = −∞
d.h. nach Hin- und Rücktransformation bleibt eine stetige Funktion erhalten. Im Folgenden soll nun eine stückweise stetige Funktion y(t) mit den Sprungstellen (ti )i∈I der Fourier-Transformation (3.124) unterworfen werden. Bei der Rücktransformation soll geprüft werden, ob die entstehende Funktion yˆ(t) gleich der ursprünglichen Funktion y(t) ist. Jede unstetige Funktion lässt sich folgendermaßen als eine stetige Funktion und eine Summe von Sprüngen darstellen: + (y(ti +) − y(ti −)) σ(t − ti ) . y(t) = yc (t) i∈I stetiger Teil Sprünge Ohne Beschränkung betrachtet die folgende Ausführung nur den Fall, dass die Funktion y(t) lediglich eine Unstetigkeitsstelle im Ursprung besitzt, d.h. es gilt y(t) = yc (t) + (y(0+) − y(0−)) σ(t).
(3.188)
Setzt man Gleichung (3.188) in (3.187) ein, so ergibt sich
∞ yˆ(t) = lim
F →∞ −∞
sin(2πF (t − τ )) yc (τ )dτ + π(t − τ )
∞
+ lim (y(0+) − y(0−)) F →∞
−∞
sin(2πF (t − τ )) σ(τ )dτ. π(t − τ )
Mit obiger Grenzwertbetrachtung folgt daraus:
∞ yˆ(t) = yc (t) + (y(0+) − y(0−)) · lim
F →∞ −∞
sin(2πF (t − τ )) σ(τ )dτ . π(t − τ ) σF (t)
116
3 Zeitkontinuierliche Signale
Für den Ausdruck σF (t) erfolgt eine gesonderte Betrachtung. Man rechnet
∞ σF (t) = −∞
sin(2πF (t − τ )) σ(τ )dτ = π(t − τ )
∞ 0
sin(2πF (t − τ )) dτ. π(t − τ )
Mit der Substitution u = 2πF (t − τ ) du = −2πF dτ
(3.189)
ergibt sich −∞
σF (t) = 2πF t
0 = −∞
sin(u) 1 2F · du = u −2πF
sin(u) du + πu
2πF
t
0
2πF
t
−∞
sin(u) du πu
sin(u) du. πu
Wegen
0 −∞
π sin(u) du = u 2
(3.190)
erhält man schließlich 1 1 σF (t) = + 2 π
2πF
t
0
sin(u) du. u
(3.191)
Das Integral ist als Integralsinus bekannt. Insgesamt folgt daraus: 2πF
t sin(u) 1 1 lim du . yˆ(t) = yc (t) + (y(0+) − y(0−)) · + 2 π F →∞ u
(3.192)
0
Diskutiert man das Ergebnis, so treten zwei Fragen auf: 1. Was macht die Funktion an der Stelle t = 0? Da σF (t = 0) = 12 ist, folgt yˆ(0) = yc (0) +
1 (y(0+) − y(0−)) . 2
Nach der Rücktransformation besitzt die resultierende Zeitfunktion an der Sprungstelle den Funktionswert der halben Sprunghöhe. Dies ist das Gibbssche Phänomen.
3.7 Besonderheiten der Fourier-Transformation
117
1
y(t)
0.8 0.6 0.4 0.2 0 −0.05
0 t [sec]
0.05
Abbildung 3.20: Betrachtung des Gibbsschen Phänomens bei endlicher Frequenz F anhand der Sprungfunktion
2. Wo und wie findet man dieses Phänomen in der Realität? Vorausgreifend gilt für das Ausgangssignal y(t) ◦−• Y (f ) eines LTI-Systems mit der Impulsantwort g(t) ◦−• G(f ) und dem Eingangssignal x(t) ◦−• X(f ) der Zusammenhang Y (f ) = G(f ) · X(f ). Das Ausgangssignal kann man also berechnen, indem man das Eingangssignal fourier-transformiert, mit der Übertragungsfunktion G(f ) multipliziert und dann rücktransformiert. Bei unseren obigen Rechnungen für yˆ(t) wurde nur fouriertransformiert und sofort rücktransformiert; dies entspricht einem System mit der Übertragungsfunktion G(f ) = 1, welches aber in der Realität nicht vorkommt, da es kein System gibt, das beliebig hohe Frequenzen übertragen kann. Das heißt jedes reale System ist so gesehen ein Tiefpass. Was passiert aber bei unseren obigen Rechnungen mit einem Tiefpass? Der Grenzwert für F geht nicht mehr bis unendlich, sondern bricht schon vorher ab: F → Fmax . Betrachten wir den Einheitssprung als ursprüngliche Funktion, so gilt für dessen Rekonstruktion 1 1 yˆ(t) = + 2 π
2πF
max t
0
sin(u) du, u
was in Abbildung 3.20 zu erkennen ist. Der Überschwinger von etwa 9 % bleibt unverändert, solange Fmax endlich ist. Daraus erkennen wir, dass bei reellen Systemen Sprünge immer durch so genannte Gibbssche Überschwinger zu erkennen sind. Die Ausführungen zeigen, dass es mit Unstetigkeiten Probleme gibt im Fall einer 1. Fourier-Transformation: Hier wird nicht der exakte Funktionswert bei Sprüngen erreicht, sondern der Mittelwert zwischen linksseitigem und rechtsseitigem Grenzwert an der Sprungstelle. Eine Verbesserung ist nicht möglich.
118
3 Zeitkontinuierliche Signale
2. Fourier-Reihen: Bei einer T -periodischen Funktion, die zwischen den Funktionswerten y(−T /2) und y(T /2) einen Sprung hat, geht die Approximation durch den Mittelwert. Eine Verbesserung ist nicht durch eine Erhöhung der Ordnung der Fourier-Reihe zu erreichen (Gibbsscher Überschwinger). Besser ist es, das Periodenintervall so zu legen, dass der Sprung nicht im Intervallinneren liegt.
3.8
Allgemeine Signaleigenschaften
In diesem Rahmen kann nicht über alle Eigenschaften und Beschreibungsmethoden zeitkontinuierlicher Signale gesprochen werden, vielmehr findet man hier eine kleine Auswahl. Diese Auswahl beschränkt sich auf Eigenschaften impulsförmiger Signale und die Abschätzung von Spektren mittels des Riemann-Lebesgueschen Lemmas.
3.8.1
Zeitdauer-Bandbreite-Produkt
Reale Signale sind energiebegrenzt. Auch ihre Spektren besitzen nur eine bestimmte Bandbreite, in der sich der wesentliche Anteil der Signalenergie konzentriert. Für die Zeitdauer ∆t und die Bandbreite ∆f eines energiebegrenzten Signals sind zahlreiche Definitionen denkbar und auch in Gebrauch. So kann man z.B. eine Schwelle ySchwelle legen, die proportional von der maximalen Höhe ymax des Signals abhängt, ySchwelle = εymax
, 0 < ε < 1,
und die Zeitdauer ∆t als diejenige Zeit festlegen, für die y(t) > ySchwelle gilt. Eine andere Möglichkeit besteht darin, die Fläche unter der Funktion y(t) bzw. der Funktion Y (f ) durch ein flächengleiches Rechteck der Höhe ymax bzw. Ymax zu ersetzen, und damit die Zeitdauer ∆t und die Bandbreite ∆f des Signals y(t) festlegen, siehe Abbildung 3.21. Wählt man ein nicht negatives, energiebegrenztes Signal, so liegt nach Satz 3.131 der maximale Wert von Y (f ) bei f = 0.
Abbildung 3.21: Definition der Zeitdauer über flächengleiches Rechteck
3.8 Allgemeine Signaleigenschaften
119
Die häufig verwendeten Definitionen für Zeitdauer und Bandbreite lauten wie folgt: Definition 3.193 (Root-Mean-Square-Definition) Das nichtnegative, reelle Energiesignal y(t) wird auf der Zeitachse so verschoben, dass ymax = y(0) gilt. Des Weiteren gilt aufgrund der Nichtnegativität im Frequenzbereich Ymax = Y (0). Die Zeitdauer ∆t berechnet sich aus
∞
2
∞
2
|y(t)| dt =
(∆t )
−∞
t2 · |y(t)|2 dt
−∞
E
zu 2 3 ∞ 31 3 ∆t = 4 t2 |y(t)|2 dt, E
(3.194)
−∞
und die Bandbreite ∆f aus 2
∞
∞
2
|Y (f )| df =
(∆f )
−∞
f 2 · |Y (f )|2 df
−∞
E
zu 2 3 ∞ 31 3 f 2 |Y (f )|2 df . ∆f = 4 E
(3.195)
−∞
Diese Definitionen entsprechen den auf die Energie normierten zweiten Momenten der Zeit- bzw. Spektralfunktionen. Will man die Zeit- bzw. Frequenzanteile bestimmen, in denen das Signal wesentliche Energieanteile enthält, so muss man dafür ein Vielfaches der Zeitdauer k∆t bzw. der Bandbreite k∆f heranziehen. Dies entspricht dem Vorgehen in der Wahrscheinlichkeitsrechnung, wo der Vertrauensbereich als Vielfaches der Standardabweichung berechnet wird, vgl. [KE05].
120
3 Zeitkontinuierliche Signale
Auf die Ableitung der Zeitfunktion dy(t) ◦−• j2πf · Y (f ) dt wird der Satz von Parseval angewendet:
∞ −∞
dy(t) dt
2
∞ dt =
4π 2 f 2 |Y (f )|2 df = 4π 2 E · ∆2f .
(3.196)
−∞
Aus der Schwarzschen Ungleichung folgt 52 2 5 5 5 t · y(t), dy(t) t ≤ t · y(t)2 · 5 dy(t) 5 5 dt dt 5 und damit in Integralform:
∞
−∞
t2 · y 2 (t) dt ·
≥
∞
−∞
∞
−∞
dy(t) dt
2
dt
2 2 ∞
d dy(t) 1 y 2 (t) dt t t · y(t) = dt dt 2 dt −∞
2
∞
∞ 1 2 1 ty (t) = − y 2 (t) dt = e2 4 4 −∞ −∞
Nach Auflösen der Integrale folgt E ∆2t · 4π 2 E · ∆2f ≥
1 2 e 4
und somit für das Zeitdauer-Bandbreite-Produkt die untere Schranke ∆t · ∆f ≥
1 . 4π
Satz 3.197 (Zeitdauer-Bandbreite-Produkt) Für das Zeitdauer-Bandbreite-Produkt jedes Signals gilt die Abschätzung ∆ t · ∆f ≥
1 . 4π
(3.198)
Hat ein Signal eine kurze Zeitdauer ∆t , so besitzt es eine große Bandbreite ∆f , umgekehrt ist bei einem Signal mit geringerer Bandbreite die Zeitdauer groß. •
3.8 Allgemeine Signaleigenschaften
121
Bemerkung 3.199 Das Gleichheitszeichen in der Schwarzschen Ungleichung gilt nach Bemerkung 2.12, falls ty(t) und y(t) ˙ linear abhängig sind, falls also −αty(t) = y(t) ˙ gilt. Dies gilt für den Gauß-Impuls, der damit unter allen impulsförmigen Signalen bei dieser Definition von Zeitdauer ∆t und Bandbreite ∆f das kleinste Zeitdauer-Bandbreite-Produkt besitzt. Die beiden Funktionen in Zeit- und Frequenzbereich unterscheiden sich dann nur um einen Faktor. Man erhält 2
w(t) = e−at
, a > 0,
(3.200)
im Zeit- und ) W (f ) =
2
π −π f a e a
2
•
im Frequenzbereich.
3.8.2
(3.201)
Riemann-Lebesguesches Lemma
Bei der Darstellung einer Funktion im Frequenzbereich gibt es weitere Abschätzungen für den Zusammenhang zwischen Zeit- und Frequenzbereich. Hier gilt z.B. das RiemannLebesguesche Lemma: Satz 3.202 (Riemann-Lebesguesches Lemma) Ist eine Funktion y(t) zeitbegrenzt, d.h. gilt y(t) = 0 für
|t| ≥ T0 ,
und existieren K beschränkte, stückweise stetige Ableitungen, dann gilt mit einer Konstante M ≥ 0 folgende Abschätzung: |Y (f )| ≤
M . |f |K+1
(3.203)
Für Linienspektren (f = k · ∆f ) gilt entsprechend: |Y (k∆f )| ≤
M . |k|K+1
(3.204)
Für die Fourier-Reihe einer periodischen Funktion yp (t), die in ihren K Ableitungen beschränkt ist, gilt für die Fourier-Koeffizienten: |Yk | ≤
M . |k|K+1
(3.205) •
122
3 Zeitkontinuierliche Signale
Bemerkung 3.206 Die K-te Ableitung soll also möglichst die letzte beschränkte, stückweise stetige Ableitung sein. Das heißt es gilt für ein m > 0 |y (K) (t)| < m , t ∈ R. Des Weiteren dürfen aufgrund der stückweisen Stetigkeit nur eine endliche Anzahl von Sprungstellen vorhanden sein. Gibt es bei einer Ableitung eine „Knickstelle“, die stetig aber nicht differenzierbar ist, so darf für die Ableitung an dieser Stelle • entweder die rechtsseitige oder die linksseitige Ableitung verwendet werden. Beweis: Für das Fourier-Spektrum des zeitbegrenzten Signals
∞ Y (f ) =
y(t)e−j2πf t dt =
−∞
T0
y(t)e−j2πf t dt
−T0
folgt nach partieller Integration: T0
T0 1 1 −j2πf t Y (f ) = − e y(t) e−j2πf t y (t)dt −j2πf −j2πf −T0 −T0
' ( 1 y (T0 ) e−j2πf T0 − y (−T0 ) ej2πf T0 = −j2πf
T0 1 y (t)e−j2πf t dt + j2πf −T0
Wegen y(±T0 ) = 0 ergibt sich daraus 1 Y (f ) = j2πf
T0
y (t)e−j2πf t dt.
(3.207)
−T0
Aufgrund der Stetigkeit der Ableitungen an der Stelle ±T0 besitzt y (k) (t) an der Stelle ±T0 jeweils den Wert y (k) (±T0 ) = 0 , k = 1, .., K − 1. Führt man nun die partielle Integration K-mal unter Beachtung der Tatsache durch, dass die beschränkte, stückweise stetige Ableitung y (K) (t) existiert, so ergibt sich für das Spektrum:
Y (f ) =
1 (j2πf )K
T0
y (K) (t)e−j2πf t dt .
−T0
Mit Hilfe des zweiten Mittelwertsatzes der Integralrechnung, bei dem es mit einer monotonen Funktion f (x) und einer stetigen Funktion g(x) einen Punkt ξ ∈ (a, b)
3.8 Allgemeine Signaleigenschaften
123
gibt, so dass
b
ξ
b
f (x)g(x) dx = f (a) a
g(x)dx + f (b) a
g(x)dx ξ
gilt, folgt mit f (x) = y (K) (t) ,
g(x) = e−j2πf t
,
a = −T0
,
b = T0
für die K-fach partiell integrierte Fourier-Transformierte:
ξ
T0 1 (K) −j2πf t dt + y (K) (T ) e−j2πf t dt Y (f )= y (−T0 ) e 0 (j2πf )K −T0
=
1 (j2πf )K
ξ
' ( 1 (K) e−j2πf ξ − ej2πf T0 y (−T0 ) −j2πf Betrag ≤ 2
' ( 1 e−j2πf T0 − e−j2πf ξ . −j2πf Betrag ≤ 2 Der Betrag wird damit abgeschätzt zu ' ( 2 (K) (K) |Y (f )| ≤ |y (−T )| + |y (T )| . 0 0 |2πf |K+1 + y (K) (T0 )
Nach Voraussetzung des 2. Mittelwertsatzes der Integralrechnung muss die vor das Integral gezogene Funktion monoton sein. Da man aber jede beliebige Funktion als Summe einer monoton wachsenden und einer monoton fallenden Funktion zerlegen kann, (K)
y (K) (t) = y1
(K)
(t) + y2
(K)
(t)
, y1
(K)
(t) , y2
(t) ,
und daraus die Abschätzung (K)
|y (K) (t)| ≤ |y1
(K)
(t)| + |y2
(t)|
(3.208)
erhält, ergibt sich insgesamt |Y (f )| ≤ Mit M=
' ( 2 (K) (K) (K) (K) |y (−T )| + |y (T )| + |y (−T )| + |y (T )| . 0 0 0 0 1 1 2 2 |2πf |K+1 ' ( 2 (K) (K) (K) (K) |y (−T )| + |y (T )| + |y (−T )| + |y (T )| 0 0 0 0 1 1 2 2 (2π)K+1
124
3 Zeitkontinuierliche Signale
folgt die Behauptung |Y (f )| ≤
M . |f |K+1
Bemerkung 3.209 1. Der Beweis besagt nicht, dass die Abschätzung nur dann gültig ist, wenn man die „letzte mögliche“ Ableitung verwendet. Natürlich kann man nur k < K Ableitungen nehmen. Dadurch wird die Abschätzung nicht falsch, sondern nur schlechter. Mehr als K Ableitungen sind dagegen nicht machbar, da eventuell die (K + 1)-te Ableitung Dirac-Impulse enthält. Auf solche Funktionen ist der 2. Mittelwertsatz der Integralrechnung nicht mehr anwendbar. 2. Die Voraussetzung war, dass die Zeitfunktion y(t) zeitbegrenzt ist. Dies gilt dann natürlich auch für ihre Ableitungen y (K) (t). Für ihre monotonen Kom(K) (K) ponenten y1 (t) und y2 (t) gilt dies aber im Allgemeinen nicht. Somit ist es möglich, dass eine von ihnen zum Zeitpunkt t = ±T0 einen Funktionswert = 0 besitzen kann. • Da das Verständnis des Riemann-Lebesgueschen Lemmas nicht einfach ist, folgt ein ausführliches Beispiel, welches gerade auch die Problematik der monotonen Komponenten behandelt. Beispiel 3.210 (Dreieckimpuls) Gegeben sei der dargestellte Dreieckimpuls. Für diesen soll zuerst die Fourier-Transformierte auf herkömmliche Art berechnet werden. Anschließend folgt die Abschätzung des Spektrums mittels des Riemann-Lebesgueschen Lemmas. y(t) 1 6 @ @ @
@ @ 1
−T0 −1
T0 t
Die Fourier-Transformierte kann man anhand einer Korrespondenztabelle ermitteln:
∞ Y (f ) = −∞
y(t)e−j2πf t dt =
[sin(πf )]2 . (πf )2
Zur Abschätzung des Spektrums mittels Riemann-Lebesgue bestimmt man die letzte beschränkte stückweise stetige Ableitung. Dies ist bereits die erste Ableitung, d.h. K = 1. Die Ableitung selbst ist in der Skizze abgebildet.
3.8 Allgemeine Signaleigenschaften
125
y (t) 6 1 1 −1 −T0
−1
T0 t
Für die Bestimmung der Konstanten M benötigt man die beiden monotonen Funktionen y1 (t) und y2 (t), welche im Folgenden abgebildet sind. y1 (t) 6 2
−1
y2 (t) 6
1
-
1 −T0 −1
1
T0 t
−2
−T0
T0 t
Aus den beiden Skizzen für y1 (t) und y2 (t) liest man ab: y1 (−T0 ) = 0
y2 (−T0 ) = 0
y1 (T0 ) = 2
y2 (T0 ) = −2 .
Daraus ergibt sich wegen K = 1 ' ( 2 (K) (K) (K) (K) |y (−T )| + |y (T )| + |y (−T )| + |y (T )| M= 0 0 0 0 1 1 2 2 (2π)K+1 2 = 2. π Als Abschätzung entsteht somit |Y (f )| ≤
2 . (π|f |)2
Dies ist offensichtlich erfüllt, da gilt: [sin(πf )]2 2 ≤ |Y (f )| = . (πf )2 (π|f |)2 Als weitere Möglichkeit der Abschätzung verwenden wir die in Satz 3.131 gezeigte Aussage y(t) ≥ 0 , t ∈ R =⇒ |Y (f )| ≤ Y (0) , f ∈ R, √
√
welche auf |Y (f )| ≤ 1 führt. In dem Bereich [ −π 2 , π2 ] ist die Abschätzung gemäß Satz 3.131 besser als die Abschätzung mittels des Riemann-Lebesgueschen Lemmas.
126
3 Zeitkontinuierliche Signale 2
|Y(f)|
1.5
1
0.5
0 −2
−1
0 f [Hz]
1
2
Abbildung 3.22: Tatsächliches Spektrum des Dreieckimpulses (–) sowie die Abschätzungen nach 3.131 (–.) und 3.202 (– –)
Deshalb wird man beide Abschätzungen verwenden, um alle zur Verfügung stehenden Informationen zu nutzen. Man erhält also eine Eingrenzung des Spektrums, welche schärfer ist, als es beide Methoden bei getrennter Anwendung ermöglichen. Beide Abschätzungen für das Spektrum des Dreieckimpulses sind mitsamt des tat• sächlichen Spektrums in Abbildung 3.22 eingezeichnet.
4
Zeitkontinuierliche Systeme
In Abschnitt 1.2 wurde bereits unter dem Begriff System eine Einrichtung eingeführt, die auf auf ein Eingangssignal ye (t) mit einem Ausgangssignal ya (t) reagiert. Mathematisch wird dieses Verhalten durch eine Operatorgleichung
ya (t) = S{ye (t)}
(4.1)
und somit das System durch einen Operator S dargestellt, der das Eingangs- zu Ausgangs-Verhalten des Systems beschreibt. In praktischen Fällen wird meist nicht der Operator gegeben sein, sondern das System implizit definiert sein. In diesem Kapitel werden zuerst allgemeine Eigenschaften von Systemen mit Hilfe von Operatoren formuliert, ohne eine konkretere Ausführungsvorschrift des Operators zu kennen. Anschließend wird die Beschreibung des Systemverhaltens durch Differenzialgleichungen eingeführt. Zur deren Lösung ist die Laplace-Transformation hilfreich. Diese wird mitsamt ihrer Eigenschaften dargestellt. Nach der Filterung mit Fensterfunktionen folgt die Beschreibung für den Entwurf zeitkontinuierlicher Filter im Frequenzbereich. Das Kapitel schließt mit der Behandlung der Hilbert-Transformation.
4.1
Eigenschaften
Bereits mit Kenntnis der Operatorgleichung (4.1) lassen sich viele Eigenschaften von Systemen beschreiben. Dabei klassifiziert man Systeme nach bestimmten Merkmalen. Jede Klasse hat bestimmte Grundeigenschaften, die für das Verhalten des Systems und die rechnerische Behandlung wichtig sind. Definition 4.2 (Zeitkontinuierliches System) Ein zeitkontinuierliches System ist ein System nach der Operatorgleichung (4.1), dessen Eingangssignal ye (t) und Ausgangssignal ya (t) zeitkontinuierliche Signale sind. Eine der wichtigsten Eigenschaften von Systemen ist die Linearität.
128
4 Zeitkontinuierliche Systeme
Definition 4.3 (Linearität) Ein System S heißt linear, wenn für beliebige Eingangssignale ye1 (t) und ye2 (t) und beliebige Konstanten c1 und c2 die Gleichung S{c1 ye1 (t) + c2 ye2 (t)} = c1 S{ye1 (t)} + c2 S{ye2 (t)}
(4.4)
gilt.
Linearität ist der Zusammenschluss von Additivität und Homogenität. Additivität bedeutet, dass die Antwort auf eine Summe von Eingangssignalen gleich der Summe der Antworten auf die einzelnen Eingangssignale ist. Homogenität bedeutet, dass die Antwort auf das c-fache Eingangssignal gleich dem c-fachen der Antwort auf das Eingangssignal ist. Ein lineares System erfüllt damit das Superpositionsprinzip
S
+N
8 ci yei (t)
=
i=1
N
ci S{yei (t)}.
(4.5)
i=1
Geht man von der Summe zum Integral über, so ergibt sich, falls beide Integrale existieren, schließlich auch 9
S
c(τ )ye (τ ) dτ
=
c(τ )S{ye (τ )} dτ.
(4.6)
Es ist also die Antwort auf das Integral eines Eingangssignals gleich dem Integral über die Antwort auf das Eingangssignal selbst. Bemerkung 4.7 Für den Übergang zu Integralen ist die endliche Additivität nicht mehr ausreichend. Vielmehr benötigt man an dieser Stelle „Stetigkeit“ der Systeme, d.h. eine unendliche Additivität, da ein Grenzprozess durchgeführt wird. Dies ist jedoch bei realen Systemen stets erfüllt, da das Verhalten realer Systeme aufgrund nicht vorhandener Sprungfähigkeit immer stetig ist. Aus diesem Grund werden wir die Stetigkeit immer als erfüllt ansehen, wenn das System additiv ist. • Natürlich soll ye (t) = 0 stets als Eingangssignal zulässig sein. Hierauf reagiert ein lineares System, wie man (4.4) unmittelbar entnimmt, mit ya (t) = S{0} = 0.
(4.8)
4.1 Eigenschaften
129
Beispiel 4.9 (Linearität) Ein System S1 , das ein Eingangssignal ye (t) mit einem konstanten Faktor a multipliziert, S1 :
ya (t) = S1 {ye (t)} = a · ye (t),
ist linear. Dies lässt sich mit der Linearitätsgleichung (4.4) schnell überprüfen. Hingegen ist das System S2 , das ein Eingangssignal ye (t) mit sich multipliziert, S2 :
ya (t) = S2 {ye (t)} = (ye (t))2 ,
nicht linear, da z.B. die Homogenität nicht erfüllt ist. c=0,1
S2 {c · ye (t)} = c2 ye2 (t) = c · ye2 (t) = c · S2 {ye (t)}
•
Definition 4.10 (Zeitinvarianz) Ein System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye (t − t0 ) mit dem entsprechend zeitlich verschobenen Ausgangssignal ya (t − t0 ) antwortet. ya (t) = S{ye (t)}
=⇒
ya (t − t0 ) = S{ye (t − t0 )}
(4.11)
Systeme, die (4.11) nicht genügen, heißen zeitvariant.
Beispiel 4.12 (Zeitinvarianz) Das System S1 S1 :
ya (t) = a · ye (t)
ist zeitinvariant, hingegen ist das System S2 S2 :
ya (t) = a(t) · ye (t)
mit a(t) = mt + c , m, c ∈ R für m = 0 zeitvariant.
•
130
4 Zeitkontinuierliche Systeme
t
t1
t
Abbildung 4.1: Nicht-kausales und kausales System
Definition 4.13 (Kausalität) Ein System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt (vgl. Abbildung 4.1). Dies bedeutet, dass für ein System S aus ye1 (t) = ye2 (t) , t ≤ t1
(4.14)
ya1 (t) = S{ye1 (t)} , ya2 (t) = S{ye2 (t)}
(4.15)
und
bei willkürlichem t1 stets ya1 (t) = ya2 (t) , t ≤ t1
(4.16)
folgt. Die Definitionsgleichungen (4.14) und (4.16) haben angesichts (4.8) zur Folge, dass ein lineares, kausales System S auf jedes zulässige Eingangssignal ye (t) mit der Eigenschaft ye (t) = 0 , t ≤ t1
(4.17)
mit einem Ausgangssignal ya (t) antwortet, das die Eigenschaft ya (t) = 0 , t ≤ t1
(4.18)
aufweist. Alle realisierbaren, d.h. physikalischen, Systeme sind kausal. Die Wirkung kann nicht vor der Ursache eintreten. Die Bedingung der Kausalität bedeutet oft eine erhebliche Einschränkung bei der mathematischen Formulierung von Systemeigenschaften. Ohne Beweis sei hier angemerkt, dass ein System S, das aus Addition, Subtraktion, Multiplikation mit konstanten Faktoren, Integration bis zum aktuellen Zeitpunkt t und Differenziation besteht, linear, zeitinvariant und kausal ist.
4.1 Eigenschaften
131
Definition 4.19 (Dynamik) Ein System S heißt dynamisch, wenn die Antwort ya (t) des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye (t), sondern auch von den vergangenen (bei nichtkausalen Systemen auch von zukünftigen) Werten abhängt. Die Antwort ya (t) eines nichtdynamischen Systems hängt damit nur von dem augenblicklichen Wert des Eingangssignals ye (t) ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer T , wenn die Antwort ya (t0 ) durch die Werte der Erregung im Intervall [t0 − T, t0 ] vollständig bestimmt ist. Ohne Beweis sei hier angemerkt, dass ein nichtdynamisches System S keine Operatoren enthalten darf, die das Eingangssignal differenzieren oder integrieren. Beispiel 4.20 (Dynamik) Ein System S, das als Antwort ya (t) das Gesamtgewicht m des auf einem Förderband befindlichen Schüttguts ausgibt, wobei als Eingangssignal ye (t) der Massenfluss m ˙ der neu hinzukommenden Masse dient, besitzt ein Gedächtnis der Zeitdauer T , die das Schüttgut benötigt, um wieder vom Band zu kommen (vgl. Abbildung 4.2).
. m v
Abbildung 4.2: Förderband
l
Die Zeitdauer T berechnet sich hier aus der Länge l des Förderbands und der Geschwindigkeit v, mit der es sich fortbewegt: T =
l . v
Die Gesamtmasse zum Zeitpunkt t0 hängt vom Massenfluss m ˙ ab, der im Zeitintervall [t0 − T, t0 ] auftrat. • Definition 4.21 (Stabilität) Ein System S heißt genau dann stabil, wenn jedes beschränkte zulässige Eingangssignal ye (t) ein ebenfalls beschränktes Ausgangssignal ya (t) zur Folge hat, d.h., wenn aus der Beschränktheit des Eingangssignals es ex. m > 0 : |ye (t)| < m < ∞ , t ∈ R
132
4 Zeitkontinuierliche Systeme
die Beschränkung des Ausgangssignals es ex. M > 0 : |ya (t)| < M < ∞ , t ∈ R folgt. Man spricht hier auch von BIBO-Stabilität (engl.: bounded-input boundedoutput).
Beispiel 4.22 (Stabilität) Ein System S, das als Ausgangssignal das integrierte Eingangssignal
t ya (t) =
ye (τ ) dτ −∞
ausgibt, ist instabil. Das beschränkte Sprungsignal 1 ,t ≥ 0 ye (t) = 0 ,t < 0 führt zu dem unbeschränkten Ausgangssignal t ,t ≥ 0 ya (t) = 0 ,t < 0 •
des Systems S.
4.1.1
Lineare zeitinvariante Systeme, LTI-Systeme
Von besonderem Interesse sind lineare, zeitinvariante Systeme, welche meist als LTISysteme (LTI = ˆ linear, time-invariant) bezeichnet werden. Diese Systeme besitzen eine einfache mathematische Darstellung und erleichtern somit die Analyse und Synthese von Systemen. Hierzu wird der Begriff der Impulsantwort eingeführt. Definition 4.23 (Impulsantwort) Die Antwort g(t) eines Systems S auf den Dirac-Impuls δ(t) g(t) = S{δ(t)}
(4.24)
nennt man Impulsantwort. Aus (3.153) ist bekannt, dass sich ein Signal ye (t) mit Hilfe des Dirac-Impulses als
∞ ye (t − τ )δ(τ ) dτ
ye (t) = −∞
4.1 Eigenschaften
133
darstellen lässt. Benutzt man das Signal ye (t) als Eingangssignal eines LTI-Systems S, so erhält man das Ausgangssignal ya (t) wegen ∞
ya (t) = S{ye (t)} = S ∞
=S
∞
ye (t − τ )δ(τ ) dτ
−∞
ye (µ)δ(t − µ) dµ
−∞
∞ ye (µ)S{δ(t − µ)} dµ
= −∞
ye (µ)g(t − µ) dµ = ye (t) ∗ g(t)
= −∞
als Faltung des Eingangssignals ye (t) mit der Impulsantwort g(t) des Systems S. Dies bedeutet, dass LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind. Satz 4.25 (Impulsantwort) Die Impulsantwort eines LTI-Systems S g(t) = S{δ(t)} charakterisiert das System S vollständig. Die Antwort ya (t) auf ein Signal ye (t) berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: ya (t) = ye (t) ∗ g(t) .
(4.26) •
Satz 4.27 (Kausalität) Mit den Gleichungen (4.17) und (4.18) folgt, dass ein LTI-System S genau dann kausal ist, wenn die Impulsantwort für t < 0 verschwindet: S kausal ⇐⇒ g(t) = 0 , t < 0 .
(4.28) •
Beweis: 1. Das LTI-System sei als kausal vorausgesetzt, und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 , t < 0.
(4.29)
134
4 Zeitkontinuierliche Systeme Für das Ausgangssignal ergibt sich gemäß (4.26)
∞ g(t − τ )ye (τ )dτ
ya (t) =
(4.29)
−∞
=
∞ g(t − τ )ye (τ )dτ
=
0
t−τ =µ dτ = −dµ
9
0 g(µ)ye (t − µ)dµ
= −∞
!
= 0 , t < 0.
(4.30)
Dies kann aber für beliebige Eingangssignale, welche (4.29) gehorchen, nur dann erfüllt sein, wenn g(t) = 0 für alle t < 0 gilt. 2. Es gelte nun g(t) = 0 , t < 0 und ye (t) sei ein beliebiges Eingangssignal mit ye (t) = 0 , t < 0. Dann rechnet man
∞ g(t − τ )ye (τ )dτ
ya (t) = −∞
t g(t − τ )σ(t − τ )ye (τ )σ(τ )dτ
=
(4.31)
0
= 0 , t < 0,
(4.32)
womit das System als kausal nachgewiesen ist. Beispiel 4.33 (Akausaler Mittelwertbilder) Als Beispiel für ein akausales Filter betrachten wir eine Mittelwertbildung. Diese wird durch die Impulsantwort g(t) =
1 rT (t) T
realisiert, vgl. Abbildung 4.3. Berechnet man das Ausgangssignal solch eines Filters, so ergibt sich:
∞ 1 ya (t) = g(t) ∗ ye (t) = rT (t − τ )ye (τ )dτ T −∞
=
1 T
t+T
/2
ye (τ )dτ . t−T /2
Sowohl aus der Impulsantwort als auch aus der berechneten Darstellung des Ausgangssignals wird deutlich, dass es sich hierbei nicht um ein kausales Filter handelt. •
4.1 Eigenschaften
135
1.5
g(t)
1
0.5
0 −1
−0.5
0 t [sec]
0.5
1
Abbildung 4.3: Impulsantwort des akausalen Mittelwertbilders für T = 1[sec]
Definition 4.34 (Kausale Signale) Durch diesen Satz motiviert, werden auch Funktionen bzw. Signale als kausal bezeichnet, falls sie für negative Zeiten den Wert Null besitzen: f (t) kausal ⇐⇒ f (t) = 0 , t < 0 .
(4.35)
Diese Bezeichnung wird auch im folgenden Text gelegentlich verwendet. Mit der Definition 4.21 soll die Stabilität eines LTI-Systems untersucht werden. Hierfür ergibt sich der folgende Satz 4.36 (Stabilität) Ein LTI-System ist genau dann stabil, wenn die Impulsantwort g(t) die Bedingung
∞ |g(t)| dt < ∞
(4.37)
−∞
•
erfüllt. Beweis:
1. Die Impulsantwort g(t) sei absolut integrierbar und ye (t) ein beschränktes Eingangssignal, d.h.|ye (τ )| < m , t ∈ R. Stellt man das Ausgangssignal ya (t) mittels der Gleichung (4.26) dar, so folgt: ∞
∞ ye (τ ) · g(t − τ ) dτ ≤ |ye (τ )| |g(t − τ )| dτ |ya (t)| = −∞
−∞
136
4 Zeitkontinuierliche Systeme Da nach Voraussetzung das Eingangssignal beschränkt ist, ergibt sich die Ungleichung
∞ |ya (t)| < m ·
∞ |g(t − τ )| dτ = m ·
−∞
|g(µ)| dµ < M < ∞,
−∞
womit das Ausgangssignal als beschränkt nachgewiesen ist. 2. Um zu beweisen, dass die Bedingung (4.37) für die Stabilität auch notwendig ist, geben wir bei bekannter Impulsantwort g(t) das spezielle, beschränkte Eingangssignal ye (t) =
g(−t) |g(−t)|
entsprechend [Fli91] vor. Es gilt |ye (t)| = 1 , t ∈ R. Das Ausgangssignal ya (t) an der Stelle t = 0 ergibt sich nach Gleichung (4.26) als
∞ ya (0) =
∞ ye (τ )g(−τ )dτ =
−∞
∞
∞ |g(−τ )|dτ =
= −∞
−∞
g 2 (−τ ) dτ |g(−τ )|
|g(τ )|dτ. −∞
Ist also die Impulsantwort nicht absolut intergrierbar, so ist auch das System nicht stabil, da für ein beschränktes Eingangssignal ein unbeschränktes Ausgangssignal resultieren kann. Bei kausalen Systemen verschwindet die Impulsantwort für negative Zeiten, sodass die Bedingung (4.37) vereinfacht werden kann, indem die Integration erst bei Null beginnt:
∞ |g(t)| dt < ∞ . 0
Abschließend soll untersucht werden, wie ein LTI-System S auf eine gegebene komplexe Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort g(t) und dem Eingangssignal ye (t):
4.2 Beschreibung durch Differenzialgleichungen
∞
∞ g(τ )ye (t − τ ) dτ =
ya (t) = −∞
∞
=
137
g(τ )A · ej2πf0 (t − τ ) dτ
−∞
g(τ )e−j2πf0 τ dτ · A · ej2πf0 t
−∞
= G(f0 ) · A · ej2πf0 t . Satz 4.38 (Frequenzgang) Ein LTI-System S, das mit einer komplexen Schwingung der Frequenz f0 ye (t) = A · ej2πf0 t angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte G(f ) der Impulsantwort g(t) bei der Frequenz f0 . Man nennt die FourierTransformierte G(f ) den Frequenzgang des Systems S. G(f ) ist auch für instabile Systeme erklärt. Der Betrag |G(f )| ist der Amplitudengang und das Argument • arg G(f ) der Phasengang.
4.1.2
Mehrgrößensysteme
Bis jetzt wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und eine Ausgangsgröße besitzen. Dies muss natürlich nicht so sein. Alle bis jetzt beschriebenen Eigenschaften lassen sich auch auf so genannte Mehrgrößensysteme erweitern. Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgrößen spricht man von SISO(Single Input – Single Output)- und MIMO-(Multiple Input – Multiple Output)-Systemen bzw. deren Mischsystemen SIMO und MISO. Bei Mehrgrößensystemen wird aus dem Eingangssignal ye (t) der Eingangssignalvektor y e (t) und aus dem Ausgangssignal ya (t) der Ausgangssignalvektor y a (t). Das System wird weiterhin allgemein als Operatorgleichung y a (t) = S{y e (t)}
(4.39)
beschrieben.
4.2
Beschreibung durch Differenzialgleichungen
Bis jetzt wurden Eigenschaften von Systemen behandelt, ohne eine konkrete Darstellung einzuführen. Die Verwendung von Differenzialgleichungen zur Abbildung eines oder mehrerer Eingangssignale y e (t) auf ein oder mehrere Ausgangssignale y a (t) bildet eine Möglichkeit der Darstellung. Diese ist z.B. in der Physik, aber auch in der Elektrotechnik weit verbreitet.
138
4 Zeitkontinuierliche Systeme
In der allgemeinen Form wird der Ausgangssignalvektor y a (t) als Funktion der Ableitungen des Ausgangssignalvektors, des Eingangssignalvektors y e (t), seiner Ableitungen und der Zeit t dargestellt: ' ( (2) (1) (2) y a (t) = f y (1) (t), y (t), . . . , y (t), y (t), y (t), . . . , t (4.40) a a e e e mit y (i) (t) =
di y(t) . dti
Der in Beispiel 1.4 vorgestellte RC-Tiefpass etwa erfüllt die Differenzialgleichung RC · u˙ a (t) + ua (t) = ue (t). Betrachtet man die Eingangsspannung ue (t) als Eingangssignal ye (t) und die Ausgangsspannung ua (t) als Ausgangssignal ya (t), so lässt sich der RC-Tiefpass gemäß (4.40) durch ya (t) = −RC · y˙ a (t) + ye (t)
(4.41)
beschreiben. Bei der Betrachtung von LTI-Systemen ist es sofort ersichtlich, dass die allgemeine Differenzialgleichung (4.40) in eine lineare Differenzialgleichung mit zeitunabhängigen Konstanten, n ν=0
aν ya(ν) (t) =
m
bµ ye(µ) (t),
(4.42)
µ=0
übergeht. Die Konstanten aν , ν = 1, . . . , n, und bµ , µ = 1, . . . , m, charakterisieren dabei das System. Man erkennt sofort, dass es sich bei der Differenzialgleichung des RC-Tiefpasses (4.41) um eine lineare Differenzialgleichung mit zeitunabhängigen Konstanten handelt. Neben der Darstellung als lineare Differenzialgleichung (4.42) existiert noch die Darstellung im Zustandsraum, die im folgenden Abschnitt beschrieben wird.
4.2.1
Zustandsraum
Für die bisherigen Betrachtungen genügte es, Systeme mit Hilfe ihrer Eingangs- bzw. Ausgangssignale zu beschreiben. Für viele Anwendungen reicht diese Betrachtungsweise jedoch nicht mehr aus. Neben den Eingangs- und Ausgangssignalen werden „innere“ Signale, die so genannten Zustandsgrößen, eingeführt. Damit kann man die innere Struktur eines Systems nachvollziehen. Dabei werden die „inneren“ Zustandsgrößen durch einen Signalvektor z(t) dargestellt. Die Zustandsraumdarstellung besitzt mehrere Vorteile: • Es können Fälle „innerer“ Systeminstabilitäten erkannt werden, die bei alleiniger Betrachtung des Eingangs-Ausgangsverhaltens nicht festgestellt werden können.
4.2 Beschreibung durch Differenzialgleichungen
139
• Die Darstellungsweise ist der Theorie der Differenzialgleichungen angepasst, so dass die entsprechenden Methoden anwendbar werden. • Die Behandlung theoretischer Aufgabenstellungen, z.B. in der Netzwerktheorie oder der Regelungstechnik, wird erleichtert. • Die Systemdarstellung im Zustandsraum eignet sich besonders zur Darstellung von Systemen im Rechner und bietet Vorteile bei der numerischen Behandlung.
Definition 4.43 (Zustandsraumdarstellung) Ein System S lässt sich mit seinen Eingangs- bzw. Ausgangssignalen y e (t) bzw. y a (t) und seinen inneren Zustandsgrößen z(t) durch z(t) ˙ = f (z(t), y e (t), t) y a (t) = g(z(t), y e (t), t)
(4.44)
im Zustandsraum beschreiben. Dabei nennt man die erste Gleichung die Zustandsgleichung und die zweite Gleichung die Ausgangsgleichung. Für einen Anfangszeitpunkt t0 bestimmen die Eingangsgrößen y e (t), t ≥ t0 , und die Zustandsgrößen z(t0 ) durch die Zustandsgleichung den Zustandsvektor z(t), t ≥ t0 , und somit durch die Ausgangsgleichung auch den Ausgangsvektor y a (t), t ≥ t0 . Der Zustandsvektor z(t) repräsentiert sozusagen die gesamte Vergangenheit des Systems, die im Wesentlichen durch die Eingangsgrößen y e (t) bestimmt ist. Definition 4.45 (Ordnung eines Systems) Die kleinste Anzahl von Zustandsgrößen, d.h. die minimale Dimension des Zustandsvektors z(t), die zur eindeutigen Kennzeichnung des Systemzustands erforderlich sind, nennt man Ordnung des Systems. Herleitung der Zustandsraumdarstellung eines LTI-Systems. Im Folgenden soll die Zustandsraumdarstellung für LTI-Systeme mit einer Eingangs- und einer Ausgangsgröße hergeleitet werden. Dabei geht man von der Darstellung (4.42), n ν=0
aν ya(ν) (t) =
m
bµ ye(µ) (t),
µ=0
aus. In technisch realisierbaren Systemen gilt wegen der bedingten Sprungfähigkeit der Ausgangsgröße die Ungleichung n ≥ m. Die Umformung der linearen Differenzialgleichung in die Zustandsraumdarstellung erfolgt nach [BS93] in fünf Schritten.
140
4 Zeitkontinuierliche Systeme (n)
1. Die Differenzialgleichung (4.42) wird nach ya (t) aufgelöst, wobei bµ = 0 für m < µ ≤ n gesetzt wird. ( 1 ' b0 ye −a0 ya +b1 y˙ e −a1 y˙ a +. . .+bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) ya(n)= an 2. Es werden die Zustandsgrößen nach folgendem Schema eingeführt: ( 1 ' ya(n)= b0 ye −a0 ya +b1 y˙ e −a1 y˙ a +. . .+bn−1 ye(n−1) −an−1 ya(n−1) +bn ye(n) an z˙0 (t) (2)
z1 (t)
(n) zn−1 (t)
Man erhält also z˙0 (t) (i+1) zi (t)
= b0 ye (t) − a0 ya (t) (i)
= zi−1 (t) + bi ye(i) (t) − ai ya(i) (t)
, i = 1, . . . , n − 1.
3. Durch i-fache Integration der i-ten Definitionsgleichungen erhält man nur noch erste Ableitungen: z˙i (t) = zi−1 (t) + bi ye (t) − ai ya (t)
, i = 1, . . . , n − 1 .
(4.46)
4. Die Differenzialgleichung aus dem zweiten Schritt kann man unter Verwendung der (n − 1)-ten Zustandsgröße verkürzt als ( 1 ' (n) ya(n) (t) = zn−1 (t) + bn ye(n) (t) an schreiben. Hieraus folgt durch n-fache Integration die Ausgangsgleichung ya (t) =
1 (zn−1 (t) + bn ye (t)) an
der Zustandsraumdarstellung. 5. Das Einsetzen der Ausgangsgleichung in die einzelnen integrierten Definitionsgleichungen der Zustandsgrößen liefert: ( ' z˙0 = b0 ye − a0 ya = − aan0 zn−1 + b0 − bn aan0 ye ( ' z˙1 = z0 + b1 ye − a1 ya = z0 − aan1 zn−1 + b1 − bn aan1 ye ( ' z˙2 = z1 + b2 ye − a2 ya = z1 − aan2 zn−1 + b2 − bn aan2 ye .. .. .. .. . . . . ( ' an−1 z˙n−1 = zn−2 + bn−1 ye − an−1 ya = zn−2 − an zn−1 + bn−1 − bn an−1 ye an
4.2 Beschreibung durch Differenzialgleichungen
141
Hieraus folgt in der Vektorschreibweise die Zustandsgleichung
0 1 0 = 0 . .. z˙n−1 0
z˙0 z˙1 z˙2 .. .
0 0 1 0 .. . 0
··· ··· ··· ··· .. . ···
− aan0 − aan1 − aan2 − aan3 .. . − an−1 an
b0 − bn aan0 b1 − bn aa1 n b2 − bn aa2 n + a3 · b3 − bn an .. . zn−1 bn−1 −bn an−1 an
z0 z1 z2 .. .
· ye
und die Ausgangsgleichung ya (t) =
0, 0, · · · , 0,
1 an
·
z0 z1 z2 .. .
bn + an ye (t)
zn−1 der Zustandsraumdarstellung. Hieraus folgt die Vektordarstellung im Zustandsraum z(t) ˙ = A z(t) + b ye (t) ya (t) = cT z(t) + d ye (t), wobei A, b, c und d entsprechend obiger Gleichungen zu definieren sind. Die eben beschriebene Vorgehensweise erzeugt die Beobachter-Normalform im Zustandsraum. Analog hierzu ist noch die Regelungs-Normalform gebräuchlich, vergleiche hierzu [Föl06]. Besteht die Eingangs- bzw. Ausgangsgröße nicht nur jeweils aus einer Funktion, so handelt es sich um ein Mehrgrößensystem. Die Zustandsraumdarstellung kann man auch für solche Systeme definieren.
Definition 4.47 (Zustandsraumdarstellung für LTI-Systeme) LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch folgende Vektorgleichungen darstellen: z(t) ˙ = A z(t) + B y e (t) y a (t) = C z(t) + D y e (t)
(4.48)
Hierbei heißt A die Systemmatrix , B die Steuermatrix , C die Beobachtungsmatrix und D die Durchschaltmatrix . Die Struktur eines solchen Systems ist in Abbildung 4.4 dargestellt.
142
4 Zeitkontinuierliche Systeme
D z(t) ye(t)
B
C
ya(t)
A Abbildung 4.4: Struktur der Zustandsraumdarstellung
Dabei wird das Systemverhalten von der Matrix A beeinflusst. Sind die zur Beschreibung eines Systems erforderlichen Matrizen A, B, C und D zeitabhängig, so ist das zugehörige System zeitvariant, ansonsten zeitinvariant. Es ist anzumerken, dass es für ein und dasselbe System verschiedene Zustandsraumdarstellungen mit unterschiedlichen Zustandsgrößen gibt. Die Darstellung eines Systems im Zustandsraum wird nun anhand eines ausführlichen Beispiels gezeigt. Beispiel 4.49 (Masse-Feder-Dämpfer-System) In Abbildung 4.5 sieht man den Aufbau eines Masse-Feder-Dämpfer-Systems. Das System wird durch seine physikalischen Eigenschaften beschrieben. Die Bewegungsgleichung m¨ x= F = Fa + Fc + Fd beschreibt die Beschleunigungskraft als Summe aller angreifenden Kräfte. Hierzu zählt die von außen kommende Anregungskraft Fa , die Rückholkraft Fc = −cx der Feder, die proportional zur Auslenkung x ist, und die Dämpfungskraft Fd = −dv
c
m Fa
d
x
Abbildung 4.5: Aufbau des Masse-FederDämpfer-Systems
4.2 Beschreibung durch Differenzialgleichungen
143
des Dämpfungsglieds, die proportional zur Geschwindigkeit der Masse m ist. Mit dem Verhältnis zwischen der Auslenkung x und der Geschwindigkeit v v = x˙ ,
v˙ = x ¨
erhält man die das System beschreibende Differenzialgleichung: m¨ x = Fa − cx − dx˙ . Dabei ist die Auslenkung x so gewählt, dass in der Ruhelage x = 0 ist. Ansonsten würde es sich nicht um ein lineares System handeln (vgl. (4.8)). Bei der Darstellung im Zustandsraum verwendet man als Zustandsgrößen die Auslenkung x und die Geschwindigkeit v. Hieraus ergeben sich sofort die einzelnen Differenzialgleichungen x˙ = v c d 1 v˙ = − x − v + Fa m m m der Zustandsgleichung. Nun kann man das System im Zustandsraum mittels der Vektorschreibweise beschreiben: 0 1 0 x˙ x = · + 1 · Fa c d v˙ v −m −m m : ; x • x= 10 · + 0 · Fa v Bemerkung 4.50 Bei diesem Beispiel werden andere Zustandsgrößen verwendet, als sie bei Anwendung der fünf Rechenschritte entstehen würden. Geht man entsprechend der formulierten Schritte vor, so erhält man sukzessive folgende Gleichungen: Ein einfaches Einsetzen ergibt m¨ x = Fa − cx − dx, ˙ was man zu c 1 d ¨ = Fa x + x˙ + x m m m umformen kann. Somit hat man also eine Gleichung der Gestalt (4.42) mit den Größen a0 =
c m
b0 =
1 m
,
a1 =
d m
,
a2 = 1
bzw.
erhalten. Setzt man noch b1 = 0 und b2 = 0, so kann man direkt obige Herleitungen verwenden, woraus sich die Zustandsgleichung 1 c 0 −m z˙0 z0 = + m Fa d z˙1 z1 0 1 −m
144
4 Zeitkontinuierliche Systeme
und die Ausgangsgleichung x(t) = z1 (t) ergeben. Diese Darstellung weicht von oben aufgeführter Darstellung ab, womit die Existenz mehrerer gültiger Zustandsraumdarstellungen an einem Beispiel demonstriert wurde. •
4.3
Laplace-Transformation
Ein LTI-System S ist durch seine Impulsantwort g(t) vollständig charakterisiert. Da die Impulsantwort g(t) ein Signal darstellt, auf das die Hilfsmittel der Signalverarbeitung angewendet werden können, könnte man z.B. durch Anwendung der FourierTransformation auf die Impulsantwort g(t) weitere Informationen über das System S selbst gewinnen. Leider existiert das Fourier-Integral (3.124) wegen eventueller Konvergenzschwierigkeiten nur für eine beschränkte Klasse von Funktionen. So haben wir in Beispiel 3.129 gezeigt, dass für die Funktion y(t) = t das Fourier-Integral nicht konvergiert. Um die Konvergenz für eine größere Klasse von Funktionen zu sichern, erweitert man den Integranden um den Faktor e−δt , δ ∈ R, der im Fall δ > 0 für t → ∞ schnell gegen 0 strebt und so die Konvergenz zumindest für hinreichend großes t ∈ R sichert. Somit geht also der Frequenzparameter j2πf über in den Frequenzparameter δ + j2πf .
4.3.1
Definition
Die Erweiterung der betrachteten Funktion y(t) mit e−δt erzeugt aus der FourierTransformation die Laplace-Transformation. Definition 4.51 (Zweiseitige Laplace-Transformation) Die zweiseitige Laplace-Transformation einer Funktion y(t) ist durch
∞ Y (s) = LII {y(t)} =
y(t)e−st dt
(4.52)
−∞
definiert, wobei s = δ + j2πf = δ + jω den Frequenzparameter bezeichnet. Das Signal wird somit im gesamten Zeitbereich R betrachtet und dort in die „komplexen Frequenzen“ s = δ + jω zerlegt. Der Index II dient dazu, die zweiseitige Laplace-Transformation von der später eingeführten einseitigen Laplace-Transformation zu unterscheiden.
4.3 Laplace-Transformation
145
Bemerkung 4.53 Die Laplace-Transformierte eines Signals y(t) entspricht gerade der Fourier-Transformierten des Signals y(t)e−δt : Y (s) = LII {y(t)} = F{y(t) · e−δt }
(4.54)
Nach den bei der Einführung der Fourier-Transformation gemachten Betrachtungen ist somit die Konvergenz von
∞
|y(t)e−δt | dt < ∞
−∞
eine hinreichende Bedingung für die Existenz der Laplace-Transformierten.
•
Eine Funktion y(t), t ∈ R, kann in ihren kausalen Teil yk (t) mit y(t) , t ≥ 0 yk (t) = 0 ,t < 0 und in ihren antikausalen Teil yak (t) mit 0 ,t ≥ 0 yak (t) = y(t) , t < 0 aufgeteilt werden. Unterzieht man die Funktion y(t) nun der Laplace-Transformation, dann hat man aufgrund der Linearität
∞ LII {y(t)} =
yk (t)e−st dt +
−∞
∞ = 0
∞
yak (t)e−st dt
−∞
y(t)e−st dt +
0
y(t)e−st dt.
(4.55)
−∞
Bemerkung 4.56 Nach [Föl80] umfasst der Konvergenzbereich der zweiseitigen Laplace-Transformation stets einen Streifen parallel zur j-Achse. Hierbei gehören die Pole links des Streifens der absoluten Konvergenz zum kausalen Teil, Pole rechts davon zum • antikausalen Teil des Signals.
146
4 Zeitkontinuierliche Systeme
Beweis: Um diese Aussage einzusehen, betrachten wir zuerst den kausalen Teil des Signals. Im Vorgriff auf die inverse einseitige Laplace-Transformation in Abschnitt 4.3.5.1 lässt sich der kausale Teil darstellen als 1 yk (t) = 2πj
α+j∞
Y (s)est ds,
t ≥ 0.
α−j∞
Aufgrund des Residuensatzes folgt deshalb yk (t) =
M
Res{Y (s)est ; sk } , t ≥ 0,
k=1
wobei die Pole links des Integrationsweges zu nehmen sind. Da der Integrationsweg in dem Streifen der absoluten Konvergenz von Y (s) liegt, sind dies gerade die Pole links des Streifens der absoluten Konvergenz. Für die Aussage über den antikausalen Teil transformiert man das zweite Integral in Gleichung (4.55) zu
0
yak (t)e−st dt =
−∞
∞ 0
yak (−t)est dt =
∞
yak (−t)e−(−s)t dt.
0
Dies definiert analog eine einseitige Laplace-Transformation mit der Variablen −s. Somit ergibt sich yak (−t) =
M
Res{Y (−s)est ; sk } , t ≥ 0
k=1
und somit das antikausale Signal im Zeitbereich. Die Pole rechts des Streifens der Konvergenz bestimmen den antikausalen Teil. Wie beispielsweise im Falle der Impulsantwort eines kausalen LTI-Systems treten häufig kausale Funktionen y(t) auf, d.h. Funktionen, die für negative Zeiten verschwinden. Für derartige Funktionen geht die soeben definierte zweiseitige Laplace-Transformation über in
∞
y(t)e−st dt.
0−
Als untere Integrationsgrenze wird hier 0− gewählt, um Sprünge bei 0 und den DiracImpuls betrachten zu können. Da diese Formel jedoch auch für beliebige Funktionen angesetzt werden kann, bei denen sie dann nur den Zeitabschnitt [0, ∞) betrachtet, entsteht die einseitige Laplace-Transformation.
4.3 Laplace-Transformation
147
Definition 4.57 (Einseitige Laplace-Transformation) Die einseitige Laplace-Transformation einer Funktion y(t) ist durch
∞ Y (s) = LI {y(t)} = L{y(t)} =
y(t)e−st dt
(4.58)
0−
gegeben. Im Gegensatz zur zweiseitigen Laplace-Transformation wird hier nur der Zeitbereich [0, ∞) inklusive des linksseitigen Grenzwertes der Funktion an der Stelle 0 betrachtet. Dies ist, wie bereits erwähnt, von großem Interesse, da häufig kausale Funktionen zu untersuchen sind.
Bemerkung 4.59 1. Falls im folgenden Text die Art der Laplace-Transformation nicht mehr durch einen Index gekennzeichnet wird, ist immer die einseitige Laplace-Transformation zugrunde gelegt. 2. Für kausale Signale stimmen beide Laplace-Transformierten überein: y(t) kausal =⇒ LII {y(t)} = LI {y(t)} . 3. Auch für die eben definierten Transformationen werden die Schreibweisen y(t) ◦−• Y (s)
Y (s) = LI / II {y(t)}
y(t) = L−1 I / II {Y (s)}
verwendet. 4. Wie bei der zweiseitigen kann man auch die einseitige Laplace-Transformation mittels der Fourier-Transformation darstellen: LI {y(t)} = F{y(t)e−δt σ(t)} .
(4.60)
5. Es sei noch einmal betont, dass im Folgenden kausale Signale betrachtet werden. Diese Einschränkung hat ihre Berechtigung darin, dass der Großteil der in technischen und kommerziellen Anwendungen auftretenden Signale kausal ist. •
4.3.2
Konvergenz der Laplace-Transformation
Bei der Verwendung von uneigentlichen Integralen ist die Frage der Konvergenz wichtig. Für die Laplace-Transformation soll dies anhand zweier einführender Beispiele behandelt werden.
148
4 Zeitkontinuierliche Systeme
Beispiel 4.61 (Laplace-Transformation des Einheitssprungs) Mit der Definition des Einheitssprungs 0 ,t < 0 σ(t) = 1 ,t ≥ 0 und der Gleichung (4.58) folgt
∞
∞ 1 −st −st LI/II {σ(t)} = dt = − e−st σ(t)e dt = e s −∞ 0 1 1 = lim − e−st − − e−s0 . t→+∞ s s
(4.62)
t=+∞ t=0
Zur Bestimmung des Grenzwertes wird folgende Überlegung angestellt: e−st = e−(δ + jω)t = e−δt e−jωt = e−δt (cos(ωt) − j sin(ωt)) ist eine komplexe Schwingung, die in Abhängigkeit des Parameters δ eine aufklingende, abklingende oder einer Dauerschwingung der Amplitude e−δt darstellt. Für t → +∞ folgt ,δ > 0 0 ,δ = 0 . e−δt → 1 (4.63) +∞ , δ < 0 Also klingt diese Schwingung für δ > 0 ab, man erhält eine Dauerschwingung für δ = 0 und eine aufklingende Schwingung für δ < 0. Nur für δ > 0 existiert der Grenzwert 1 −st lim − e = 0. t→+∞ s
Abbildung 4.6: Konvergenzgebiet des Einheitssprungs in der s-Ebene
4.3 Laplace-Transformation
149
Es gilt also:
∞ LI/II {σ(t)} =
σ(t)e−st dt =
−∞
1 s
, Re{s} > 0
(4.64)
Das Konvergenzgebiet ist somit nach Gleichung (4.63) die rechte komplexe Halbebene (vgl. Abbildung 4.6). • Beispiel 4.65 (Einseitige Laplace-Transformierte der e-Funktion) Die einseitige Laplace-Transformierte der Funktion y(t) = eβt
, β ∈ C,
lautet entsprechend den Überlegungen im vorherigen Beispiel
∞ L{y(t)} =
eβt e−st dt =
0
∞
e−(s − β)t dt =
0
1 , s−β
sofern Re{s − β} > 0, d.h. Re{s} > Re{β} ist.
•
Bemerkung 4.66 Allgemein lässt sich zeigen, [Föl80], dass für jede Zeitfunktion ein α ∈ R existiert, so dass das Konvergenzgebiet der Laplace-Transformation dieser Zeitfunktion gerade durch {s ∈ C : Re{s} > α}
(4.67)
gegeben ist. Somit ist das Konvergenzgebiet der Laplace-Transformation immer eine 2 2 Halbebene der s-Ebene, die im Grenzfall, wie z.B. bei e−t bzw. et , in die gesamte • Ebene bzw. in die leere Ebene übergeht. Die Laplace-Transformierte ist konvergent, falls y(t) in eine konvergierende Taylor-Reihe entwickelbar ist, d.h. eine analytische Funktion darstellt.
4.3.3
Inverse Laplace-Transformation
Aus der Darstellung der einseitigen Laplace-Transformation mit Hilfe der Fourier-Transformation (4.60) folgt die inverse Laplace-Transformation durch Auflösung von (4.60) nach y(t): Y (s) = F{y(t) · e−δt · σ(t)} =⇒ y(t) · e−δt · σ(t) = F −1 {Y (s)} . s=δ+j2πf
150
4 Zeitkontinuierliche Systeme
Hierbei muss δ so gewählt werden, dass Y (δ + j2πf ) definiert ist, d.h. im Konvergenzbereich der Laplace-Transformierten liegt. Hieraus folgt durch inverse FourierTransformation für t ≥ 0 :
∞ Y (δ + j2πf ) · eδt ej2πf t df. y(t) = −∞
Mittels der Substitution s = δ + j2πf ds = j2π df folgt daraus für t ≥ 0 δ+j∞
1 y(t) = 2πj
Y (s)est ds.
δ−j∞
Definition 4.68 (Inverse Laplace-Transformation) Die inverse Laplace-Transformation der Funktion Y (s) eines Transformationspaares y(t) ◦−• Y (s) ist durch 1 y(t) = 2πj
c+j∞
Y (s)est ds
(4.69)
c−j∞
gegeben.
4.3.4
Eigenschaften
Die Eigenschaften der Laplace-Transformation entsprechen im Wesentlichen denen der Fourier-Transformation. In diesem Rahmen werden einige Eigenschaften in Anlehnung an [CW04] aufgeführt und exemplarisch berechnet. Weitere Eigenschaften findet man in Anhang B aufgelistet. Eine genauere Darstellung der Eigenschaften der LaplaceTransformation findet sich beispielsweise in [Föl80]. Hier werden alle Eigenschaften für die einseitige Laplace-Transformation gezeigt, die im Folgenden kurz als LaplaceTransformation bezeichnet wird. 4.3.4.1
Linearität
Die Laplace-Transformierte einer gewichteten Summe von Einzelfunktionen ist die gewichtete Summe der Laplace-Transformierten der Funktionen: + 8 L ai yi (t) = ai L{yi (t)} (4.70) i
i
Entsprechende Beziehungen bestehen für das Umkehrintegral (4.69). Diese Eigenschaften zeigen, dass die Laplace-Transformation eine lineare Integraltransformation ist.
4.3 Laplace-Transformation 4.3.4.2
151
Verschiebung im Zeitbereich
Wählt man an Stelle des Zeitmaßstabes t den um t0 verschobenen Zeitmaßstab τ = t−t0 , was einer Zeitverschiebung des Signals entspricht, so erhält man über
∞ L{y(t − t0 )} =
y(t − t0 )e−st dt =
0−
∞
=
t − t0 = τ dt = dτ
y(τ )e−s(τ + t0 ) dτ = e−st0
−t0
∞
y(τ )e−sτ dτ
−t0
die Laplace-Transformierte der zeitverschobenen Funktion. Da zur Anwendung der Laplace-Transformation kausale Funktionen y(t) vorausgesetzt wurden, muss jetzt zwischen zwei Fällen unterschieden werden. 1. Für t0 > 0 ist die untere Integrationsgrenze −t0 negativ. Da die betrachteten Funktionen als kausal angenommen wurden, folgt sofort
∞
L{y(t − t0 )} = e−st0
y(τ )e−sτ dτ = e−st0 L{y(t)} , t0 > 0
0−
(4.71) die Laplace-Transformierte bei positiver Zeitverschiebung. 2. Bei negativer Zeitverschiebung t0 < 0 ist die untere Integrationsschranke −t0 positiv. Durch Erweiterung des Integrals um den Integrationsbereich [0−, −t0 ] folgt über
L{y(t − t0 )} = e−st0
∞
y(τ )e−sτ dτ
−t0
= e−st0
∞
−t0 y(τ )e−sτ dτ − y(τ )e−sτ dτ
0−
0−
die Laplace-Transformierte für negative Zeitverschiebungen:
−t0 y(τ )e−sτ dτ L{y(t − t0 )} = e−st0 L{y(t)} −
, t0 < 0
0−
(4.72)
152 4.3.4.3
4 Zeitkontinuierliche Systeme Verschiebung im Frequenzbereich
Ersetzt man in der Laplace-Transformierten Y (s) die Größe s durch s + b, so erhält man aus (4.58)
∞ Y (s + b) =
y(t)e−(s + b)t dt = L{y(t)e−bt }
(4.73)
0−
den Dämpfungssatz der Laplace-Transformation, d.h. die Dämpfung der Zeitfunktion y(t) mit einer Exponentialfunktion e−bt erzeugt im Frequenzbereich eine Verschiebung um b. 4.3.4.4
Differenziation im Zeitbereich
Setzt man voraus, dass die Funktion y(t) für t > 0 differenzierbar ist, und dass die Laplace-Transformierte von y(t) ˙ existiert, dann ergibt sich durch partielle Integration L
dy(t) dt
9
∞ = 0−
0 1∞ dy(t) −st +s e dt = y(t)e−st dt 0−
∞
y(t)e−st dt
0−
= sY (s) − y(0−) die Differenziationsregel im Zeitbereich. Durch wiederholtes Anwenden dieser Regel findet man die Beziehung 9 n d y(t) = sn Y (s) − sn−1 y(0−) − sn−2 y(0−) L ˙ − . . . − y (n−1) (0−) (4.74) dtn für höhere Ableitungen. Diese Eigenschaft ist zur Laplace-Transformation einer Differenzialgleichung wichtig. 4.3.4.5
Skalierung
Streckt oder staucht man die Zeitachse durch die Transformation t → at , a > 0, so ergibt sich über
∞ L{y(at)} =
y(at)e−st dt =
0−
at = τ a dt = dτ
9
1 = a
∞
y(τ )e− a τ dτ s
0−
der Ähnlichkeitssatz der Laplace-Transformation für die skalierte Zeitachse: L{y(at)} =
1 's( . Y a a
(4.75)
4.3 Laplace-Transformation 4.3.4.6
153
Faltung
Die Multiplikation zweier Funktionen im Zeitbereich entspricht der Faltung der beiden Laplace-Transformierten, wobei die Faltung im Frequenzbereich geeignet, d.h. unter Verwendung eines Vorfaktors, zu definieren ist. Man rechnet dazu: 1 y1 (t) · y2 (t) = 2πj
d+j∞
1 Y1 (s1 )e−s1 t ds1 Y2 (s2 )e−s2 t ds2 2πj
c+j∞
c−j∞
=
1 2πj
=
=
d−j∞
c+j∞
1 Y1 (s1 ) 2πj
c−j∞
c+j∞
1 Y1 (s1 ) 2πj
c−j∞
1 = 2πj
=
1 2πj
=L
1 2πj
Y2 (s − s1 )e−st ds ds1
d+j∞
Y1 (s1 )Y2 (s − s1 )e−st ds ds1
d−j∞ c+j∞
d+j∞
1 2πj
d−j∞ −1
d+j∞
d−j∞
c+j∞
c−j∞
Y2 (s2 )e−(s1 + s2 )t ds2 ds1
d−j∞
s = s1 + s2 ds = ds2
1 2πj
d+j∞
Y1 (s1 )Y2 (s − s1 ) ds1 · e−st ds
c−j∞
{Y1 (s) ∗ Y2 (s)} .
Entsprechend lässt sich die Faltung zweier Funktionen im Zeitbereich als Multiplikation der beiden Laplace-Transformierten darstellen: L{y1 (t) ∗ y2 (t)} = Y1 (s) · Y2 (s) . 4.3.4.7
(4.76)
Grenzwertsätze
Die Grenzwertsätze der Laplace-Transformation ermöglichen eine vereinfachte Berechnung von Grenzwerten einer Funktion y(t) für t → 0 und t → ∞ aus den Grenzwerten von sY (s). Da es sich bei den Laplace-Transformierten oft um verhältnismäßig einfache algebraische Funktionen handelt, sind die Grenzwerte im Frequenzbereich gelegentlich einfacher zu berechnen.
154
4 Zeitkontinuierliche Systeme
1. Anfangswertsatz Für n = 1 ergibt die Differenziationsregel (4.74) L
dy(t) dt
9
∞ = 0−
dy(t) −st e dt = sY (s) − y(0−). dt
Betrachtet wird nun eine Funktion y(t), die einen Sprung mit Höhe h bei t = 0 besitze: y(t) = y˜(t) + h · σ(t). Dabei ist y˜(t) eine Restfunktion ohne Sprung bei t = 0. Die Ableitung dieser Funktion ergibt d˜ y (t) dy(t) = + h · δ(t) dt dt Lässt man s → ∞ gehen, wobei Re{s} → ∞ wesentlich ist, so folgt wegen e−st → 0 für t > 0
∞ lim
s→∞ 0−
∞
∞ dy(t) −st d˜ y (t) −st e dt = lim e dt + h· lim δ(t)e−st dt = h, s→∞ s→∞ dt dt 0− 0− →0
=1
falls die Laplace-Transformierte von y(t) ˙ existiert. Es folgt der Anfangswertsatz der Laplace-Transformation:
(4.77)
lim sY (s) = y(0−) + h = y(0+) .
s→∞
wobei h die Sprunghöhe der Unstetigkeit an der Stelle t = 0 ist. Besitzt y(t) keine Unstetigkeit bei t = 0, ist h = 0 und y(0−) = y(0+). 2. Endwertsatz Lässt man dagegen s → 0 gehen, so erhält man wegen e−st → 1 und
∞ lim
s→0 0−
dy(t) −st e dt = dt
∞ 0−
dy(t) dt = y(∞) − y(0−) dt
= lim [sY (s) − y(0−)] = lim sY (s) − y(0−) s→0
s→0
4.3 Laplace-Transformation
155
den Endwertsatz der Laplace-Transformation:
lim sY (s) = y(∞) .
s→0
4.3.5
(4.78)
Rücktransformation
Ist für ein Problem die Lösung im Bildbereich ermittelt worden, so besteht in vielen Fällen die Aufgabe nun noch darin, die Lösung in den Zeitbereich zurückzutransformieren. Die theoretische Rücktransformation besteht in der Auswertung des komplexen Umkehrintegrals (4.69). Dies ist aber im Allgemeinen nicht einfach. Eine weitere Möglichkeit besteht in der Anwendung von Korrespondenztabellen. Damit kann die gesuchte Umkehrfunktion oft direkt einer Tabelle entnommen werden. Dabei muss die Bildfunktion durch einige Umformungen in Ausdrücke umgewandelt werden, die man in solchen Korrespondenztabellen wiederfindet. Im Folgenden wird die Rücktransformation über die Residuen und durch Partialbruchzerlegung vorgestellt. 4.3.5.1
Residuensatz
Die Bildfunktion Y (s) sei eine Laplace-Transformierte, die in der endlichen s-Ebene (s-Ebene ohne den Punkt ∞) als einzige Singularitäten Pole s1 , . . . , sM besitzt. Da Y (s) in der Halbebene rechts eines gewissen α ∈ R holomorph ist, liegen diese Pole sämtlich in der Halbebene links von α, vgl. (4.67). Weiterhin sei Y(s) eine gebrochen rationale Funktion Z(s)/N (s) mit grad [Z(s)] < grad [N (s)]. Am Rande der Halbebene der absoluten Konvergenz des zu Y (s) gehörenden Laplace-Integrals werde nun eine Gerade g parallel zur komplexen Achse gelegt, vgl. Abbildung 4.7, welche den konstanten Realteil Re{g} = α besitzt.
Abbildung 4.7: Zur Berechnung des komplexen Umkehrintegrals mit Re{s} > α
156
4 Zeitkontinuierliche Systeme
Von g ausgehend werden Kurven Hn , n = 1, 2, . . . gezogen, die in α + jRn beginnen und in α − jRn enden. Dabei soll Rn eine Folge reeller Zahlen mit Rn → ∞ für n → ∞ bezeichnen. Die Endpunkte der Kurven Hn definieren ein Geradenstück gn der Gerade g, welches mit wachsendem n in die gesamte Gerade g übergeht. Bezeichnen wir nun die aus gn und Hn bestehende geschlossene Kurve mit Cn = gn + Hn , dann sollen die Hn so gelegt werden, dass das Innere jeder Kurve Cn+1 außer dem Inneren der vorhergehenden Kurve Cn noch mindestens einen weiteren Pol umschließt. Falls Y (s) nur endlich viele Pole hat, ist diese Forderung hinfällig, sobald alle Pole von einem Cn umschlossen werden. Jedes weitere Cn soll dann ebenfalls sämtliche Pole einschließen. Nach dem Residuensatz (2.127) gilt nun für n ≥ M : 1 2πj
Y (s)est ds =
M
Res{Y (s)est ; sk }.
(4.79)
k=1
Cn
Da est in der endlichen Ebene überall holomorph ist, fallen die Pole von Y (s)est mit den Polen von Y (s) zusammen. Für (4.79) kann man auch 1 2πj
Y (s)est ds +
1 2πj
gn
Y (s)est ds =
M
Res{Y (s)est ; sk }
(4.80)
k=1
Hn
schreiben. Lässt man nun n → ∞ streben, dann geht dabei [Föl80] 1 2πj
Y (s)est ds → 0.
Hn
Aus (4.80) folgt wegen gn → g die Formel für die Rücktransformation mit Hilfe des Residuensatzes: 1 y(t) = 2πj
α+j∞
Y (s)est ds =
α−j∞
M
Res{Y (s)est ; sk } , t ≥ 0 .
(4.81)
k=1
Die Rücktransformation mittels des Residuensatzes kann man sich auch dadurch anschaulich machen, dass im Grenzübergang n → ∞ mit gn über ein abgeschlossenes Kreisringgebiet mit dem Punkt ∞ integriert wird. Die Vorgehensweise bei der Bestimmung der Originalfunktion mittels des Residuensatzes wird nun anhand eines Beispiels vorgeführt.
4.3 Laplace-Transformation
157
Beispiel 4.82 (Residuensatz) Betrachtet man die Laplace-Transformierte Y (s) =
3s2 − 2s + 1 , − s2 + s − 1
s3
so berechnen sich die Nullstellen des Nennerpolynoms zu s∞1 = −j
s∞2 = j
s∞3 = 1 .
Mittels des Residuensatzes folgt nun 1 y(t) = 2πj
α+j∞
Y (s)est ds =
3
Res{Y (s)est ; s∞k }.
k=1
α−j∞
Hierbei ist α eine reelle Zahl, die so groß sei, dass der Konvergenzbereich von Y (s) die Gerade von α −j∞ bis α +j∞ umfasst. Mit der Berechnungformel (2.125) lassen sich die Residuen einfacher Polstellen durch Res{Y (s)est ; s∞k } = lim (s − s∞k )Y (s)est s→s∞k
berechnen. Somit ergibt sich für den Pol s∞1 = −j das Residuum Res{Y (s)est ; s∞1 } = lim (s + j)Y (s)est s→−j
3s2 − 2s + 1 st e s→−j (s − j)(s − 1) 3j 2 + 2j + 1 −jt e = (−2j)(−j − 1) = 1 · e−jt . = lim
Analog berechnet man die Residuen Res{Y (s)est ; s∞2 } = ejt und Res{Y (s)est ; s∞3 } = et . Mit diesen folgt die Originalfunktion y(t) = e−jt + ejt + et = 2 cos(t) + et
, t ≥ 0.
•
158 4.3.5.2
4 Zeitkontinuierliche Systeme Partialbruchzerlegung
Für die Partialbruchzerlegung geht man bei der Laplace-Transformierten Y (s) von einer teilerfremden rationalen Funktion Y (s) =
Z(s) N (s)
mit grad [Z(s)] < grad [N (s)] aus. Das Nennerpolynom N (s) sei durch N (s) = q0 · (s − s1 )α1 . . . (s − sM )αM dargestellt. Für alle s ∈ C, für die N (s) = 0 gilt, kann die Bildfunktion Y (s) in Partialbrüche zerlegt werden: a12 a1α1 a11 + + ··· + (s − s1 )2 (s − s1 )α1 s − s1 a21 a22 a2α2 + + + ··· + s − s2 (s − s2 )2 (s − s2 )α2 .. . aM 1 aM 2 aM αM + + + ··· + . s − sM (s − sM )2 (s − sM )αM
Y (s) =
(4.83)
Hierbei sind die aij
, i = 1, 2, . . . , M
, j = 1, 2, . . . , αi
eindeutig bestimmte Konstanten. Die Koeffizienten aiαi bei der höchsten Nenner-Ordnung können durch aiαi = lim Y (s) · (s − si )αi s→si
, i = 1, 2, . . . , M
(4.84)
berechnet werden. Die anderen Koeffizienten ermittelt man am einfachsten durch Ausmultiplizieren und Koeffizientenvergleich, welcher auf ein lineares Gleichungssystem führt. Hat man die Laplace-Transformierte Y (s) in einzelne Partialbrüche zerlegt, so kann man diese mittels aij aij •−◦ (4.85) tj−1 esi t (s − si )j (j − 1)! zurücktransformieren. Hierzu ein kleines Beispiel. Beispiel 4.86 (Partialbruchzerlegung) Die Laplace-Transformierte Y (s) =
3s2 − 2s + 1 − s2 + s − 1
s3
4.3 Laplace-Transformation
159
besitzt das Nennerpolynom N (s) = s3 − s2 + s − 1 = (s + j) · (s − j) · (s − 1). Hieraus folgt mit dem Ansatz der Partialbruchdarstellung Y (s) =
a11 a21 a31 + + (s + j) (s − j) (s − 1)
und mit der Berechnung der einzelnen Koeffizienten 3s2 − 2s + 1 =1 a11 = (s − j)(s − 1) s=−j 3s2 − 2s + 1 a21 = =1 (s + j)(s − 1) s=j 3s2 − 2s + 1 a31 = =1 (s + j)(s − j) s=1
die Partialbruchdarstellung der Laplace-Transformierten Y (s). Y (s) =
1 1 1 + + s+j s−j s−1
Hieraus lässt sich nun die Rücktransformierte leicht ermitteln: y(t) = L−1 {Y (s)} 1 1 1 = L−1 { } + L−1 { } + L−1 { } s+j s−j s−1 = e−jt + ejt + et , t ≥ 0 = 2 cos(t) + et
,t ≥ 0 •
Bemerkung 4.87 Die Ergänzung t ≥ 0 kann vermieden werden, indem aus den Korrespondenztabellen ein Term σ(t) mitgeführt wird. In diesem Fall lautet die vorletzte Zeile des vorherigen Beispieles: ' ( y(t) = e−jt σ(t) + ejt σ(t) + et σ(t) = 2 cos(t) + et · σ(t) Das Mitführen des Ausdrucks σ(t) bei den weiteren Berechnungen ist umständlich, • oft aber auch hilfreich.
4.3.6
Anwendung bei der Systembeschreibung
Um den Rahmen dieses Buches nicht zu sprengen, sei für eine größere Menge an Anwendungen der Laplace-Transformation auf andere Quellen, wie z.B. [Föl80], verwiesen. Hier
160
4 Zeitkontinuierliche Systeme
soll das Ausgangssignal eines linearen Differenzialgleichungssystems betrachtet werden. Weiterhin soll die Zustandsraumdarstellung, wie sie in Abschnitt 4.2.1 eingeführt wurde, mit den durch die Laplace-Transformation zur Verfügung gestellten Methoden bearbeitet werden. 4.3.6.1
Lineares Differenzialgleichungssystem
Die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, dessen Verhalten durch eine lineare Differenzialgleichung der Form (4.42), n
aν ya(ν) (t) =
m
bµ ye(µ) (t),
µ=0
ν=0
beschrieben ist, erhält man zu + 0=L
m
bµ ye(µ) (t)
−
µ=0
=
m
bµ L{ye(µ) (t)} −
µ=0
n ν=0 n
8 aν ya(ν) (t)
(4.88)
aν L{ya(ν) (t)}.
(4.89)
ν=0
Mit dem Differenziationssatz der Laplace-Transformation, (4.74), und unter Beachtung der Tatsache, dass bei einem kausalen LTI-System die Funktionswerte und die Werte aller Ableitungen von ya (t) und ye (t) zum Zeitpunkt 0− verschwinden, folgt für die Ableitungen L{ye(µ) (t)} = sµ Ye (s) bzw.
L{ya(ν) (t)} = sν Ya (s).
Hieraus folgt nun die Laplace-Transformierte des Ausgangssignals ya (t) eines Systems, welches durch eine lineare Differenzialgleichung beschrieben wird, über den Zwischenschritt 0=
m
bµ sµ Ye (s) −
µ=0
n
aν sν Ya (s)
ν=0
als m
Ya (s) =
µ=0 n
bµ sµ · Ye (s).
(4.90)
aν sν
ν=0
Der Bruch heißt Übertragungsfunktion des Systems, ein Begriff, der in Abschnitt 4.4 genauer eingeführt und betrachtet werden wird.
4.3 Laplace-Transformation 4.3.6.2
161
Laplace-Transformation der Zustandsdarstellung
Aus der Zustandsraumdarstellung (4.48), z(t) ˙ = A z(t) + B y e (t)
(4.91)
y a (t) = C z(t) + D y e (t),
(4.92)
folgt mittels der Laplace-Transformation sZ(s) − z(t0 −) = A Z(s) + B Y e (s) Y a (s) = C Z(s) + D Y e (s). Geht man davon aus, dass das System sich vor der Anregung in Ruhe befand, so folgt z(t0 −) = 0 und somit mittels einfacher Rechnung Z(s) = (sI − A)−1 B Y e (s) und ; : Y a (s) = C(sI − A)−1 B + D Y e (s). Somit erhält man bei der Definition G(s) = C(sI − A)−1 B + D
(4.93)
eine Gleichung für das Ausgangssignal: Y a (s) = G(s)Y e (s) .
(4.94)
Die Matrix G(s) wird dann in Anlehnung an oben erwähnte Übertragungsfunktion als Übertragungsmatrix bezeichnet. Das Element in der i-ten Zeile und der j-ten Spalte, Gij (s), entspricht der Übertragungsfunktion eines Systems, welches mit (y e (t))j angeregt wird und darauf mit (y a (t))i reagiert. Bemerkung 4.95 Da es sich bei der Gleichung z(t) ˙ = A z(t) + B y e (t)
(4.96)
um eine Differenzialgleichung handelt, kann, sofern diese lösbar ist, eine Lösung berechnet werden. Hierbei bedient man sich der üblichen Vorgehensweise, indem man erst die Lösung der homogenen Gleichung z(t) ˙ = A z(t) berechnet und anschließend den Ansatz der Variation der Konstanten wählt. Hier wird lediglich die Lösung angegeben, für eine Herleitung sei beispielsweise auf [Fli91] verwiesen.
162
4 Zeitkontinuierliche Systeme
Die Lösung der Vektorgleichung (4.96) lässt sich mit Hilfe der Definition Φ(t) = eAt
(4.97)
als z(t) = eA(t − t0 ) z(t0 −) +
t
eA(t − τ ) B y e (τ )dτ
t0 −
t = Φ(t − t0 )z(t0 −) +
Φ(t − τ ) B y e (τ )dτ
(4.98)
t0 −
berechnen. Als Ausgangssignal erhält man damit durch Einsetzen
t ya (t) = C Φ(t − t0 )z(t0 −) +
C Φ(t − τ ) B y e (τ )dτ + Dy e (t). (4.99)
t0 −
4.3.7
•
Vergleich zwischen Laplace- und Fourier-Transformation
Zur Diskussion, welche Transformation nun besser ist, sei angemerkt, dass dies stark von der Anwendung abhängt. Die Laplace-Transformation ist für die analytische Behandlung kausaler Signale vorteilhaft. Sie kann ohne Beachtung einer Vielzahl von Regeln angewendet werden. Der Vorrat an konvergierenden Funktionen ist größer. Aufgrund der einfachen Lösung linearer Differenzialgleichungen in (4.90) wird die Laplace-Transformation zur Beschreibung des Übertragungsverhaltens von linearen Systemen angewendet. Die Fourier-Transformation vermittelt dem Ingenieur besser die Anschauung, dass ein Signal aus harmonischen Schwingungen zusammengesetzt ist. Alle leistungsfähigen numerischen Verfahren wie DFT und FFT gehen auf die Fourier-Transformierte zurück. Insgesamt kann für Fourier- und Laplace-Transformation auf [Fli91, Pap77, Föl80, Doe76, BS00, Ach78] verwiesen werden.
4.4
Systemfunktion
Bei LTI-Systemen war das Ausgangssignal nach (4.26) als Faltung des Eingangssignales mit der Impulsantwort des Systems entstanden, ya (t) = g(t) ∗ ye (t), d.h. das System wird durch die Impulsantwort beschrieben. Führt man mit (4.26) die Laplace-Transformation durch, so ergibt sich unter Beachtung des Faltungssatzes der
4.4 Systemfunktion
163
Laplace-Transformation die Bildfunktion des Ausgangssignals als Produkt der Bildfunktionen von Impulsantwort und Eingangssignal. Ya (s) = G(s) · Ye (s) Hier ist das System durch die Laplace-Transformierte der Impulsantwort eindeutig beschrieben. Diese Laplace-Transformierte nennt man Systemfunktion G(s) des Systems. Sobald im Folgenden der Begriff der Impulsantwort oder der Übertragungsfunktion benutzt wird, ist dies auf ein LTI-System bezogen. Definition 4.100 (Systemfunktion) Die Laplace-Transformierte G(s) der Impulsantwort g(t) eines LTI-Systems S heißt Systemfunktion oder auch Übertragungsfunktion. (4.101)
g(t) = S{δ(t)}
∞ G(s) = L{g(t)} =
g(t)e−st dt
(4.102)
0−
Bemerkung 4.103 Da die Systemfunktion eines Systems durch Anwendung der Laplace-Transformation berechnet wird, ist eine Rechnung mit Systemfunktionen nur unter Angabe von Konvergenzgebieten vollständig. Dies wird im Folgenden nicht immer durchgeführt, sondern es wird davon ausgegangen, dass man sich bei Berechnungen im Bildbereich innerhalb dieses Konvergenzgebietes befindet. Oft ergeben sich aus den zugrunde liegenden Voraussetzungen schon Forderungen an das Konvergenzgebiet. Beispielsweise wird gezeigt werden, dass ein stabiles, kausales, zeitkontinuierliches LTI-System nur Pole links der imaginären Achse besitzt. • In Abschnitt 4.3.6.1 wurde die Bildfunktion Ya (s) des Ausgangssignals ya (t) eines linearen Differenzialgleichungssystems in (4.90) als Produkt einer gebrochen rationalen Funktion und der Bildfunktion Ye (s) des Eingangssignals ye (t) dargestellt: m
bµ sµ
µ=0
Ya (s) = n
· Ye (s) . aν sν
ν=0
Diese gebrochen rationale Funktion ist die Systemfunktion m
G(s) =
µ=0 n ν=0
bµ sµ = aν sν
Z(s) N (s)
(4.104)
164
4 Zeitkontinuierliche Systeme
des durch das lineare Differenzialgleichungssystem beschriebenen LTI-Systems. In der Darstellung (4.104) heißen Z(s) das Zählerpolynom und N (s) das Nennerpolynom von G(s). Bemerkung 4.105 Aufgrund der bedingten Sprungfähigkeit technischer Systeme erfüllen reale Übertragungsfunktionen die Bedingung m ≤ n, d.h. Zählergrad ≤ Nennergrad. •
4.4.1
Pol- und Nullstellen
Aus der Funktionentheorie ist bekannt, dass es für gebrochen rationale Funktionen verschiedene Darstellungsformen gibt, und jede dieser Formen unter bestimmten Voraussetzungen Vorteile besitzt. Wenn mit s0µ die Nullstellen des Zählerpolynoms Z(s), d.h. die Nullstellen der Übertragungsfunktion G(s), und mit s∞ν die Nullstellen des Nennerpolynoms N (s), d.h. die Polstellen der Übertragungsfunktion G(s), bezeichnet werden und mittels Normierung an = 1 gilt, erhält man die Darstellung der Übertragungsfunktion in Linearfaktoren von Zähler- und Nennerpolynom. m
α zu verwechseln. Bemerkung 4.109 1. Im Fall mehrfacher Pole erhält man eine Darstellung der Form G(s) =
nν K ν=1 i=1
Aν,i , (s − s∞ν )i
(4.110)
wobei die Vielfachheit des Poles s∞ν durch nν gegeben ist. Transformiert man diese Ausdrücke in den Zeitbereich zurück, so erhält man die Zeitfunktion g(t) =
nν K Aν,i i−1 s∞ν t · σ(t). t e (i − 1)! ν=1 i=1
Da bei gültiger Bedingung (4.108) im Falle einer Integration der exponentielle Term es∞ν t „stärker“ ist als der polynomiale Term ti−1 , konvergiert auch dort das Integral. Somit ist also die Bedingung (4.108) immer hinreichend für die Stabilität eines kausalen LTI-Systems. 2. Aus der Forderung (4.108) folgt auch, dass ein stabiles, kausales LTI-System keinen Pol bei ∞ besitzen darf, woraus für die Übertragungsfunktion eines solchen Systems stets Zählergrad ≤ Nennergrad folgt. •
Definition 4.111 (Reellwertige Systeme) Ein kausales LTI-System, welches auf ein reelles Eingangssignal mit einem reellen Ausgangssignal antwortet, wird als reellwertig bezeichnet.
Satz 4.112 (Reellwertige Systeme) Ein kausales LTI-System ist genau dann reellwertig, wenn für seine Übertragungsfunktion G∗ (s) = G(s∗ )
(4.113)
gilt. Somit sind für Pole und Nullstellen der Übertragungsfunktion stets auch die komplex konjugierten Größen Pole und Nullstellen. •
166
4 Zeitkontinuierliche Systeme
Beweis: Bei einem LTI-System erhält man das Ausgangssignal durch die Faltung ya (t) = g(t) ∗ ye (t). Das Ausgangssignal eines reellen, kausalen LTI-Systems ist somit genau dann reellwertig, wenn die Impulsantwort g(t) reellwertig ist. Die konjugiert komplexe Übertragungsfunktion ist damit
∞
∗
G (s) =
∗ g(t)e−s t dt = G(s∗ ).
0
Aufgrund dessen ist bei einem Pol s∞ν oder einer Nullstelle s0µ stets auch deren komplex konjugierte Größe ein Pol s∗∞ν bzw. eine Nullstelle s∗0µ . Für ein reellwertiges System ergeben sich aus Gleichung (4.113) die Folgerungen |G(s)| = |G(s∗ )|, arg{G(s)} = − arg{G(s∗ )}.
(4.114) (4.115)
Wie in [Fli91] aufgeführt, ist somit die allgemeine Darstellung solch einer Übertragungsfunktion mit m0 Nullstellen in s = 0, m1 einfachen Nullstellen ungleich null, m2 komplexen Nullstellenpaaren, n0 Polstellen in s = 0, n1 einfachen Polstellen ungleich null und n2 komplexen Polstellenpaaren durch sm0
m 0 angenommen werden. Statt |G (s = j2πf )|2 verwendet man auch die Darstellung für das Betragsquadrat der Übertragungsfunktion für reellwertige Systeme nach Gleichung (4.119) 2 Q(s ) = G (s ) · G (−s ) =⇒ |G (s = j2πf )| = Q(s ) , s =j2πf
deren Pole (und auch die Nullstellen) punktsymmetrisch zum Ursprung sowohl in der rechten als auch in der linken Halbebene liegen. Hat man einen entsprechenden Amplitudengang A(f ) gefunden, so lässt sich die Übertragungsfunktion Q(s ) durch Q(s ) = A2 (f ) = G (s ) · G (−s ) s f = j2π
bestimmen. Für die Übertragungsfunktion G (s ) sucht man sich die Pole der Übertragungsfunktion Q(s ) aus, die ein stabiles und somit ein realisierbares System darstellen, d.h. die Pole in der linken Halbebene. Aus (4.160) folgt sofort
1 − A2 (f ) ε|D(f )| = , A(f )
(4.161)
woraus deutlich wird, dass stets A(f ) ≤ 1 bleiben muss. Aus dem Toleranzschema, wie es in Abbildung 4.22 dargestellt ist, ergeben sich die folgenden Forderungen für den Durchlass- und Sperrbereich: A(f ) ≥ 1 − δD , 0 ≤ f ≤ 1 A(f ) ≤ δS , f ≥ fS .
(4.162)
192
4 Zeitkontinuierliche Systeme
Gemäß (4.161) werden diese Forderungen eingehalten, wenn die Bedingungen 2 2δD − δD ∆D = ≥ ε|D(f )| , 0 ≤ f ≤ 1 (4.163) 1 − δD und
1 − δS2 ∆S = ≤ ε|D(f )| δS
, f ≥ fS
(4.164)
erfüllt sind. Die Lösung der Entwurfsaufgabe besteht darin, unter den beiden Bedingungen (4.163) und (4.164) eine Konstante ε und eine Funktion D(f ) so zu bestimmen, dass aus der Funktion A2 (f ) eine gebrochen rationale Übertragungsfunktion G (s ) mit |G (s = j2πf )| = A(f ) gewonnen werden kann, die einen kleinstmöglichen Grad besitzt und ein realisierbares zeitkontinuierliches Filter beschreibt. Hierfür sind verschiedene Ansätze möglich: 4.6.2.1
Butterworth-Filter
Beim Butterworth-Filter wird der Ansatz D(f ) = (j2πf )N ,
(4.165)
|D(f )|2 = (2πf )2N ,
(4.166)
d.h.
gemacht. Hiermit ergibt sich aus (4.160) 1 1 A2 (f ) = Q(s ) = = , 2 |D(f )|2 2 (2πf )2N 1 + ε 1 + ε s =j2πf
d.h. die Bestimmungsgleichung für die Pole von Q(s ), die sich mit 1 + ε2
2N s =0 j
zu 1
s∞ν = jε− N ej
(2ν−1)π 2N
π 1 = ε− N ej( 2 +
2ν−1 π N 2)
, ν = 1, . . . , 2N
(4.167) 1
ergeben. Sie liegen also gleichmäßig verteilt auf einem Kreis mit dem Radius r = ε− N . Für das stabile, kausale Filter werden für G(s ) die Pole in der linken s -Halbebene benutzt (ν = 1, . . . , N ). Aus der Bedingung (4.163) mit |D(f )| = |2πf |N , 2 2δD − δD ≥ ε|2πf |N , 0 ≤ f ≤ 1 ∆D = 1 − δD
4.6 Frequenzselektive Filter
193
erhält man ε≤
∆D (2π)N (f )N
, 0 ≤ f ≤ 1
(4.168)
und somit das maximal mögliche ε für f = 1 zu ε=
∆D . (2π)N
(4.169)
Setzt man dieses in die Bedingung (4.164) ein, 1 − δS2 ∆S = ≤ ε(2πf )N , f ≥ fS , δS so erhält man die Bedingung ∆S ≤ ∆D (f )N
, f ≥ fS .
Da diese Ungleichung für alle Frequenzen f ≥ fS gelten muss, folgt hieraus für die Ordnung K eines Butterworth-Filters: ' ( ∆S ln ∆ D . (4.170) K≥N ≥ ln(fS ) Damit der Grad des Filters mit dieser Wahl von D(f ) minimal wird, wird K offenbar als die kleinstmögliche ganze Zahl gewählt, die (4.170) erfüllt. K kann natürlich auch wesentlich größer als N gewählt werden. Dann steigt einerseits der Realisierungsaufwand, andererseits wird das Toleranzschema besser erfüllt. Die nach dem Butterworth-Verfahren berechneten Filter zeichnen sich durch einen maximal flachen Verlauf im Durchlass- und Sperrbereich aus. Ein großer Nachteil der Butterworth-Tiefpässe ist der breite Übergang vom Durchlass- zum Sperrbereich bei gegebener Ordnung K. Durch andere Entwurfsverfahren, die im folgenden Abschnitt beschrieben werden, lässt sich dieses Übergangsverhalten günstiger gestalten. Allerdings hat man dafür einen Preis zu zahlen, indem man beispielsweise auf den flachen Verlauf des Amplitudengangs im Durchlassbereich verzichtet. Beispiel 4.171 (Butterworth-Filter) Das Toleranzschema eines normierten Tiefpasses mit fD =1
fS = 2
δD = 0,2
δS = 0,1
erzeugt über (4.163) und (4.164) die Parameter 2 √ 2δD − δD 1 − δS2 3 ∆D = , ∆S = = = 99 ≈ 9,95. 1 − δD δS 4
194
4 Zeitkontinuierliche Systeme
s
Abbildung 4.23: Pol-Schema der Übertragungsfunktion G(s) bei einem Butterworth-Ansatz der Ordnung K=4
Mit der Abschätzung (
'
K≥N ≥
∆S ∆D ln(fS )
ln
≈ 3, 73
erhält man die minimale Ordnung des Filters zu K = 4. Die Pole des stabilen Systems nach (4.167) s∞ν = ' =
1 ∆D (2π)4
2π 1/4 ∆D
(1/4 e π
ej( 2 +
2ν−1 j( π π) 2+ 8
2ν−1 π) 8
, ν = 1, .., 4
, ν = 1, .., 4
findet man in Abbildung 4.23 skizziert. Numerisch lauten diese: s∞1 = −2,5838 + j6,2378 s∞2 = −6,2378 + j2,5838 s∞3 = −6,2378 − j2,5838 s∞4 = −2,5838 − j6,2378
1
A(f’)
0.8 0.6 0.4 0.2 0
0
1
2 f’ [Hz]
3
Abbildung 4.24: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K=4
4.6 Frequenzselektive Filter
195
4
0.05 0.04
2 τg(f’)
ψ(f’)
0.03 0
0.02 0.01
−2
0 −4 −10
−5
0 f’ [Hz]
5
10
−10
−5
0 f’ [Hz]
5
10
Abbildung 4.25: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 4
Der Amplitudengang und das Toleranzschema finden sich in Abbildung 4.24. Man erkennt, dass der Entwurf das Toleranzschema erfüllt. In Abbildung 4.25 finden sich der Phasengang und die Gruppenlaufzeit von G(s). •
Beispiel 4.172 (Butterworth-Filter steilerer Flanke) In diesem Beispiel wird auf der Basis desselben Toleranzschemas wie in Beispiel 4.171 ein Butterworth-Filter steilerer Flanke entworfen. Verwendet man hierzu eine Ordnung K = 12 und berechnet damit erneut die Größen ∆D , ∆S und ε, so entsteht der in Abbildung 4.26 dargestellte Amplitudengang. Bei Betrachtung der Phase und der Gruppenlaufzeit für diesen Entwurf ist zu erkennen, dass die steilere Flanke im Amplitudengang auf eine stärkere Verzerrung der Phase führt. Dies ist in Abbildung 4.27 dargestellt. • 1
AK=12(f’)
0.8 0.6 0.4 0.2 0
0
1
2 f’ [Hz]
3
Abbildung 4.26: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12
196
4 Zeitkontinuierliche Systeme 4
0.05 0.04
0
ψ
K=12
(f’)
τg,K=12(f’)
2 0.03 0.02 0.01
−2
0 −4 −10
−5
0 f’ [Hz]
5
10
−10
−5
0 f’ [Hz]
5
10
Abbildung 4.27: Phasengang und Gruppenlaufzeit des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K = 12
4.6.2.2
Tschebyscheff-Filter
Beim Tschebyscheff-Filter unterscheidet man die beiden Arten Typ I und Typ II. Der Typ I besitzt im Durchlassbereich eine gleichmäßige Welligkeit und ist im Sperrbereich monoton fallend. Dagegen ist Typ II im Durchlassbereich monoton fallend und besitzt im Sperrbereich eine gleichmäßige Welligkeit. Beim Tschebyscheff-Filter Typ I wird der Ansatz |D(f )|2 = TN2 (f )
(4.173)
mit dem erweiterten Tschebyscheff-Polynom cos(N arccos(f )) , |f | ≤ 1 TN (f ) = cosh (N arcosh (f )) , |f | > 1
(4.174)
gemacht. Wegen ε|D(f )| = ε |cos(N arccos(f ))| ≤ ∆D
, 0 ≤ f ≤ 1
muss ε ≤ ∆D gelten, und man kann (4.175)
ε = ∆D wählen. Mit dem so gewählten ε folgt aus (4.164) die Gleichungskette ! ε|D(f )| = ∆D TN (fS ) = ∆D cosh (N arcosh (fS )) ≥ ∆S , f =fS
(4.176)
4.6 Frequenzselektive Filter
197
woraus die Abschätzung für die Ordnung K des Systems folgt: '
K≥N ≥
(
∆S ∆D arcosh (fS )
arcosh
(4.177)
.
Die Pole liegen auf einer Ellipse mit den Halbachsen sinh(α) und cosh (α), wobei 1 α = arsinh K
1 ∆D
gilt. Beim Tschebyscheff-Filter Typ II wird der Ansatz |D(f )|2 =
TN2 (fS ) ' ( f TN2 fS
(4.178)
0.8
0.6
0.6
A(f’)
0.8
0.4
0.4
0.2
0.2
0
A(f’)
Typ I − Ordnung ungerade 1
0
1
2
0
3
2
Typ II − Ordnung gerade
Typ II − Ordnung ungerade 1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
1 f’ [Hz]
1
0
0
f’ [Hz]
A(f’)
A(f’)
Typ I − Ordnung gerade 1
1
2 f’ [Hz]
3
0
0
1
2
3
3
f’ [Hz]
Abbildung 4.28: Amplitudengänge von Tschebyscheff-Filtern des Typs I und des Typs II jeweils bei gerader bzw. ungerader Ordnung
198
4 Zeitkontinuierliche Systeme
gewählt. Mit (4.163) und (4.164) erhält man analog zu obiger Herleitung bei erneuter Wahl von ε = ∆D auch hier die Abschätzung ' ( ∆S arcosh ∆ D K≥N ≥ (4.179) arcosh (fS ) für die Ordnung des Systems. In Abbildung 4.28 werden die Amplitudengänge eines Tschebyscheff-Filters Typ I und Typ II jeweils bei gerader bzw. ungerader Ordnung dargestellt. Einen weiteren Filtertyp, der sowohl im Durchlass- als auch im Sperrbereich eine gleichmäßige Welligkeit besitzt und bei gleicher Ordnung noch steiler als die TschebyscheffFilter abfällt, stellen die elliptischen Cauer-Filter dar, deren Behandlung in diesem Rahmen jedoch nicht erfolgen soll. Eine Beschreibung ist beispielsweise in [KK02] zu finden.
4.6.3
Bestimmung der Übertragungsfunktion
Zum Abschluss der frequenzselektiven Filter wird die Ermittlung der Übertragungsfunktion des Filters bei gegebenen Pol- bzw. Nullstellen behandelt. Die bisher beschriebenen Verfahren für den Entwurf normierter Tiefpässe führen auf eine Übertragungsfunktion der Form M <
G (s ) = G0 ·
µ=1 N < ν=1
(s − s0µ )
(s
, M ≤ N. −
s∞ν )
Hierbei ist zu bedenken, dass es sich um eine normierte Übertragungsfunktion handelt, aus der die eigentliche Übertragungsfunktion gemäß (4.155) erst noch abgeleitet werden muss. Für die Rücktransformation eines normierten Tiefpasses erhält man beispielsweise:
G(s) = G
= G0 ·
s fD M < ( fsD − s0µ ) µ=1 N < ν=1
( fsD − s∞ν )
M
90 gedreht werden. Für die Berechnung der Impulsantwort dieses Filters definiert man mit α > 0 die Hilfsfunktion ,f > 0 −je−αf ,f = 0, G(f ) = 0 αf je ,f < 0 welche ebenfalls ein Filter beschreibt. Die entsprechende Impulsantwort lautet
∞ g(t) =
G(f )ej2πf t df
−∞
0 =j
e(α + j2πt)f df − j
−∞
=
∞
e(−α + j2πt)f df
0
j j + . α + j2πt −α + j2πt
Im Grenzübergang α → 0 geht G(f ) in GQ (f ) über. Die Impulsantwort g(t) wird dann zur Impulsantwort 1 ,t = 0 gQ (t) = πt (4.184) 0 ,t = 0 des Quadraturfilters. Satz 4.185 (Quadraturfilter) Die Impulsantwort eines Quadraturfilters, d.h. eines Filters mit dem Frequenzgang −j , f > 0 ,f = 0 , GQ (f ) = 0 (4.186) j ,f < 0
4.7 Hilbert-Transformation ist durch
1 gQ (t) = πt 0
201
, t = 0 ,t = 0
(4.187) •
gegeben. Definition 4.188 (Hilbert-Transformation) Durchläuft ein Signal y(t) ein solches Quadraturfilter mit der Impulsantwort gQ (t), so resultiert das Signal yˇ(t) = y(t)∗gQ (t), welches als Hilbert-Transformierte des Signals y(t) bezeichnet wird und als yˇ(t) = H{y(t)} geschrieben wird. Wegen GQ (0) = 0 ist die Hilbert-Transformierte eines mittelwertbehafteten Signals mittelwertfrei.
Ist das Signal mittelwertfrei, so ist die Hilbert-Transformierte bis auf das Vorzeichen „selbst-invers“. Die Bedingung der Mittelwertfreiheit des Signals ist nötig, da nach der Anwendung der Hilbert-Transformation ein mittelwertfreies Signal entsteht. Somit kann nur in diesem Fall die folgende Aussage nachgewiesen werden: Satz 4.189 (Hilbert-Transformation) Die zweimalige Anwendung der Hilbert-Transformation entspricht bei mittelwertfreien Signalen dem Negativen des Ursprungssignals: y(t) mittelwertfrei =⇒ H{H{y(t)}} = −y(t) .
•
Beweis: Wegen F{H{H{y(t)}}} = F{H{y(t)}} · GQ (f ) = Y (f ) · GQ (f ) · GQ (f ) ergibt sich für ein Signal mit Y (0) = 0 sofort die behauptete Aussage. Nachdem für zwei Funktionen die Hilbert-Transformierte berechnet wird, folgt im Anschluss die Herleitung einer weiteren Eigenschaft der Hilbert-Transformation und eine Erklärung des theoretischen und praktischen Nutzens dieser Transformation. Beispiel 4.190 (Hilbert-Transformierte des Cosinussignals) Es gilt: y(t) = cos(2πf0 t) ◦−• Y (f ) =
1 (δ(f + f0 ) + δ(f − f0 )) . 2
Hieraus folgt die Hilbert-Transformierte j Yˇ (f ) = Y (f ) · GQ (f ) = (δ(f + f0 ) − δ(f − f0 )) 2 •−◦ yˇ(t) = sin(2πf0 t).
202
4 Zeitkontinuierliche Systeme
Das Ergebnis ist auch sofort verständlich, da sich das Sinussignal vom Cosinussignal durch eine Phasenverschiebung von π/2 unterscheidet und das Filter GQ (f ) gerade solch eine Phasendrehung vornimmt. • Beispiel 4.191 (Hilbert-Transformierte des Si-Signals) Es gilt: sin(2πf0 t) y(t) = si(2πf0 t) = ◦−• Y (f ) = 2πf0 t Hieraus folgt die Hilbert-Transformierte: Yˇ (f ) = Y (f ) · GQ (f ) = •−◦ yˇ(t) = F
−1
∞ {Yˇ (f )} =
=
j 2f0
−j 2f0 j 2f0
1 2f0
0
, |f | ≤ f0 , |f | > f0
, 0 < f ≤ f0 , −f0 ≤ f < 0 , |f | > f0 und f = 0
0
Yˇ (f )ej2πf t df
−∞
0
ej2πf t df −
f0
ej2πf t df
0
−f0
0'
( ' (1 1 1 − e−j2πf0 t − ej2πf0 t − 1 4πf0 t 1 − cos(2πf0 t) . = 2πf0 t Die Originalfunktion y(t) und die Hilbert-Transformierte yˇ(t) sind in Abbildung 4.29 zu sehen. • =
sin(t)/t, (1−cos(t))/t
1 0.5 0 −0.5 sin(t)/t (1−cos(t))/t
−1 −1
−0.5
0 t [sec]
0.5
1
Abbildung 4.29: sin(t) -Funktion und ihre t Hilbert-Transformierte
4.7 Hilbert-Transformation
203
Das Ausgangssignal des Quadraturfilters erhält man als Faltung des Eingangssignals mit der Impulsantwort.
∞ yˇ(t) =
y(τ ) −∞
1 dτ = y(t) ∗ gQ (t) π(t − τ )
(4.192)
Die Hilbert-Transformierte ist somit eine Integraltransformation mit selbstreproduzierendem Kern, vgl. Abschnitt 2.2.1.2, und den Funktionen Θ(f ) = GQ (f ) = −j sign(f ) 1 = j sign(f ) = Θ∗ (f ). Φ(f ) = GQ (f ) Aus diesem Grund ist das Innenprodukt zweier Hilbert-Transformierter gleich dem Innenprodukt der Eingangssignale, vgl. Abschnitt 2.2.1.3, ˇ x(t), yˇ(t)t = GQ (f )X(f ), GQ (f )Y (f )f
∞ = |GQ (f )|2 X(f )Y ∗ (f ) df −∞
=1
= x(t), y(t)t .
(4.193)
Eine weitere wichtige Eigenschaft der Hilbert-Transformation wird im folgenden Satz formuliert. Satz 4.194 (Reelles Signal und Hilbert-Transformierte) Ein reelles Signal x(t) ist orthogonal zu seiner Hilbert-Transformierten, x(t), x ˇ(t)t = 0.
(4.195) •
Beweis: Es ist
∞ x(t), x ˇ(t)t =
∗
∞
x(t)ˇ x (t) dt = −∞
∞
=
X(f )G∗Q (f )X ∗ (f ) df
−∞
|X(f )|2 j sign(f ) df = 0.
−∞
Die Orthogonalität des Signals zu seiner Hilbert-Transformierten folgt somit aus dem Parsevalschen Theorem.
204
4 Zeitkontinuierliche Systeme
Beispiel 4.196 (Hilbert-Transformierte des Cosinussignals) Die Hilbert-Transformierte von y(t) = cos(2πf0 t) ist gegeben durch yˇ(t) = sin(2πf0 t). •
Diese beiden reellen Signale sind orthogonal zueinander.
Formt man aus der reellen Zeitfunktion y(t) durch Addition der mit j multiplizierten Hilbert-Transformierten yˇ(t) ein Signal z(t), so heißt z(t) das zu y(t) gehörige analytische Signal.
Definition 4.197 (Analytisches Signal) Das zu einer reellen Zeitfunktion y(t) gehörige analytische Signal erhält man, indem man zu y(t) die mit dem Faktor j gewichtete Hilbert-Transformierte addiert. Das heißt das zu y(t) zugehörige analytische Signal z(t) ist gegeben durch (4.198)
z(t) = y(t) + j yˇ(t).
Die Autokorrelationsfunktion des analytischen Signals lautet: Rzz (τ ) = z(t + τ ), z(t)t = y(t + τ ) + j yˇ(t + τ ), y(t) + j yˇ(t)t = y(t + τ ), y(t)t + y(t + τ ), j yˇ(t)t + j yˇ(t + τ ), y(t)t +j yˇ(t + τ ), j yˇ(t)t = Ryy (τ ) − jRyyˇ(τ ) + jRyˇy (τ ) + j(−j)Ryˇyˇ(τ ) = Ryy (τ ) + Ryˇyˇ(τ ) + j (Ryˇy (τ ) − Ryyˇ(τ )) Die Leistungsdichtespektren sind f =0
SYˇ Yˇ (f ) = |GQ (f )|2 · SY Y (f ) = SY Y (f ) SYˇ Y (f ) = GQ (f ) · SY Y (f ) SY Yˇ (f ) = SYˇ Y (−f ) = GQ (−f ) · SY Y (+f ) = −GQ (f )SY Y (f ) = −SYˇ Y (f ). Demzufolge gilt für die Korrelationsfunktionen Ryˇy (τ ) = −Ryyˇ(τ ) Ryˇyˇ(τ ) = Ryy (τ ). Damit wird die Autokorrelationsfunktion des analytischen Signals zu Rzz (τ ) = 2 [Ryy (τ ) + jRyˇy (τ )]
4.7 Hilbert-Transformation
205
und dessen Leistungsdichtespektrum SZZ (f ) = 2 [SY Y (f ) + jSYˇ Y (f )] = 2SY Y (f ) [1 + jGQ (f )] 4SY Y (f ) , für f > 0 = 2SY Y (f ) , für f = 0 . 0 , für f < 0
(4.199)
Satz 4.200 (Analytisches Signal) Das analytische Signal besitzt nur positive Frequenzanteile. Das Leistungsdichtespektrum stimmt im positiven Bereich mit dem Leistungsdichtespektrum der Urfunktion bis auf die Amplitude überein. • Dieser Satz soll auch anhand eines Beispiels verdeutlicht werden.
Beispiel 4.201 (Leistungsdichtespektrum eines analytischen Signals) Es ist gegeben: y(t) = cos(2πf0 t) . Hieraus folgt das analytische Signal z(t) = cos(2πf0 t) + j sin(2πf0 t) = ej2πf0 t . Die Fourier-Transformierten lauten: 1 Y (f ) = (δ(f + f0 ) + δ(f − f0 )) 2 1 Z(f ) = (δ(f + f0 ) + δ(f − f0 )) + 2 j +j · (δ(f + f0 ) − δ(f − f0 )) 2 = δ(f − f0 ) . Hieraus folgen die Leistungsdichtespektren 1 (δ(f + f0 ) + δ(f − f0 )) 4 ∗ SZZ (f ) = Z(f ) · Z (f ) = δ(f − f0 ) .
SY Y (f ) = Y (f ) · Y ∗ (f ) =
Dies stimmt mit dem Ergebnis aus (4.199) überein.
•
Die Hilbert-Transformation bzw. das analytische Signal findet Anwendung bei der Einseitenband-Modulation, vgl. [Unb02]:
206
4 Zeitkontinuierliche Systeme
Beispiel 4.202 (Erzeugung komplexer Bandpass-Signale) Ist x(t) ein reelles Tiefpass-Signal, so kann mit Hilfe der Hilbert-Transformation x ˇ(t) = H{x(t)} daraus das analytische Tiefpass-Signal z(t) = x(t) + j x ˇ(t) erzeugt werden, das Spektralanteile nur bei positiven Frequenzen besitzt. Durch Modulation mit einer komplexen Harmonischen erhält man das komplexe Bandpass-Signal ˇ(t)] [cos(2πf0 t) + j sin(2πf0 t)] y(t) = z(t)ej2πf0 t = [x(t) + j x = x(t) cos(2πf0 t) − x ˇ(t) sin(2πf0 t) +j [x(t) sin(2πf0 t) + x ˇ(t) cos(2πf0 t)] , dessen Real- und Imaginärteil mit der Hilbert-Transformation aus dem reellen Tiefpass-Signal x(t) berechnet werden können. In Abbildung 4.30 ist die Erzeugung eines reellen Bandpass-Signals als Signalflussgraph dargestellt. Im Frequenzbereich entspricht die Modulation einer Frequenzverschiebung: ˇ − f0 ) . Y (f ) = Z(f − f0 ) = X(f − f0 ) + j X(f Der Imaginärteil des komplexen Bandpass-Signals y(t) ist gerade die HilbertTransformierte des Realteils. Im{Y (f )} = GQ (f ) · Re{Y (f )} Im{y(t)} = H{Re{y(t)}} Es reicht also aus, nur das reelle Bandpass-Signal Re{y(t)} zu berechnen, was einer Einseitenband-Modulation von x(t) entspricht. Der zur Demodulation benötigte
Reelles Tiefpass-Signal
Reelles Bandpass-Signal
cos(2pf0t)
x(t)
Re{y(t)}
+ -
H sin(2pf0t)
Abbildung 4.30: Einseitenband-Modulation – Erzeugung eines reellen Bandpass-Signals
4.7 Hilbert-Transformation
Reelles Bandpass-Signal
207
cos(2pf0t)
Re{y(t)}
Reelles Tiefpass-Signal + +
x(t)
H sin(2pf0t)
Abbildung 4.31: Einseitenband-Demodulation
komplexe Teil Im{y(t)} kann mit Hilfe der Hilbert-Transformation berechnet werden. Die Demodulation ergibt x(t) = Re{z(t)} = Re{y(t)e−j2πf0 t } = Re{y(t)} cos(2πf0 t) + H{Re{y(t)}} sin(2πf0 t). Dies ist in Abbildung 4.31 dargestellt. Bei der Übertragung von Signalen können diese aufgrund von Laufzeiten phasenverschoben werden. Wir gehen davon aus, dass das Bandpass-Signal einer festen Phasendrehung ϕ unterworfen werde. Dann steht am Eingang des Demodulators das phasenverschobene reelle Bandpass-Signal Re{y(t)ejϕ } = Re{y(t)} cos(ϕ) − Im{y(t)} sin(ϕ) ˇ(t) sin(2πf0 t) cos(ϕ) = x(t) cos(2πf0 t) cos(ϕ) − x −x(t) sin(2πf0 t) sin(ϕ) − x ˇ(t) cos(2πf0 t) sin(ϕ) = x(t) cos(2πf0 t + ϕ) − x ˇ(t) sin(2πf0 t + ϕ) an. Der dazugehörige Imaginärteil ist entsprechend Im{y(t)ejϕ } = Im{y(t)} cos(ϕ) + Re{y(t)} sin(ϕ) = x(t) sin(2πf0 t) cos(ϕ) + x ˇ(t) cos(2πf0 t) cos(ϕ) +x(t) cos(2πf0 t) sin(ϕ) − x ˇ(t) sin(2πf0 t) sin(ϕ) = x(t) sin(2πf0 t + ϕ) + x ˇ(t) cos(2πf0 t + ϕ). Bei der Demodulation erhält man aufgrund der Phasenverschiebung das Signal s(t) anstelle von x(t): s(t) = Re{y(t)ejϕ e−j2πf0 t } = Re{y(t)ejϕ } cos(2πf0 t) + Im{y(t)ejϕ } sin(j2πf0 t) = x(t) cos(2πf0 t + ϕ) cos(2πf0 t) − x ˇ(t) sin(2πf0 t + ϕ) cos(2πf0 t) +x(t) sin(2πf0 t + ϕ) sin(2πf0 t) + x ˇ(t) cos(2πf0 t + ϕ) sin(2πf0 t) = x(t) cos(ϕ) − x ˇ(t) sin(ϕ) .
208
4 Zeitkontinuierliche Systeme
Das verzögerte, demodulierte Signal s(t) setzt sich aus dem ursprünglichen reellen Tiefpass-Signal x(t) und dessen Hilbert-Transformierter x ˇ(t) zusammen. Für ϕ = π2 geht nur die Hilbert-Transformierte x ˇ(t) ein. Ohne Anwendung der HilbertTransformation würde ein Informationsverlust auftreten. Wenn das reelle TiefpassSignal x(t) lediglich mit cos(2πf0 t) und sin(2πf0 t) moduliert und dann verzögert würde, so ergäbe sich die Demodulation s˜(t) = x(t) cos(2πf0 t + ϕ) cos(2πf0 t) + x(t) sin(2πf0 t + ϕ) sin(2πf0 t) = x(t) cos(ϕ). Für ϕ =
π 2
wäre dann das demodulierte Signal s˜(t) = 0.
•
Teil III
Zeitdiskretisierung
5
Zeitdiskrete Signale
In der Digitaltechnik ist es nicht möglich, physikalische Signale kontinuierlich zu bearbeiten, wie dies in der Analogtechnik der Fall ist. Digitale Komponenten werden im Allgemeinen getaktet, d.h. es werden Zeitmarken ausgegeben, bei denen dann jeweils ein Arbeitsschritt pro Takt ausgeführt wird. Um physikalische Signale mittels digitaler Technik zu erfassen und zu bearbeiten, müssen die Signale abgetastet bzw. zeitdiskretisiert werden, d.h. die Werte der Signale werden nur zu bestimmten Zeitpunkten erfasst und bearbeitet. Im Allgemeinen liegen diese Zeitpunkte äquidistant.
5.1
Grundlagen
5.1.1
Zeitdiskretisierung
Ein kontinuierliches Signal zeichnet sich dadurch aus, dass man zu jedem beliebigen Zeitpunkt den Signalwert angeben kann. Bei technisch realisierbaren Signalen sind diese Signalwertfunktionen stetig. Bei der Zeitdiskretisierung werden nur die Signalwerte zu äquidistanten Zeitpunkten erfasst, d.h. die Signalwerte zwischen diesen Zeitpunkten gehen verloren. Unter bestimmten, im Abtasttheorem beschriebenen Voraussetzungen kann man die Signalwerte zwischen den Zeitpunkten wieder vollständig rekonstruieren. Zur mathematischen Darstellung zeitdiskreter Signale gibt es hauptsächlich zwei Ansätze. Bei dem ersten Ansatz wird das zeitdiskrete Signal als Folge yn = y(ntA ) , n ∈ Z
(5.1)
angegeben, bei der die Folgenglieder den Signalwerten zu den Abtastzeitpunkten ntA entsprechen. Bei dem zweiten Ansatz wird das zeitdiskrete Signal durch das Produkt des zeitkontinuierlichen Signals mit einer Impulsreihe y∗ (t) = y(t) ·
∞
δ(t − ntA )
(5.2)
n=−∞
beschrieben, bei der die Signalwerte in den Abtastzeitpunkten durch Impulse der „Höhe“ yn = y(ntA ) und die Signalwerte zwischen den Abtastzeitpunkten durch 0 dargestellt werden. Dies ist exemplarisch in Abbildung 5.1 dargestellt. Welche Modellierung wann benutzt wird, wird aus dem Zusammenhang klar. So wird bei Berechnungen mit Summen meist die Modellierung als Folge benutzt, bei Berechnungen
212
5 Zeitdiskrete Signale 6y∗ (t) 6 6
6 6
6 6 ?
?
6 ?
666
6
66
6
??
? ?
?
?
? ?
?
t ?
Abbildung 5.1: Darstellung eines abgetasteten Signals als Impulsreihe
mit Integralen die Modellierung als Impulsreihe. Hier macht man sich die besonderen Eigenschaften (3.155) des Dirac-Impulses bei Integralen zunutze. Diese Eigenschaften werden bei der Herleitung der Fourier-Transformation zeitdiskreter Signale benutzt. Die Zeitdauer zwischen zwei Abtastpunkten wird als Abtastzeit tA bezeichnet. Der Kehrwert fA =
1 tA
heißt Abtastfrequenz. Es stellt sich die Frage, in welchen Größenordnungen die Abtastzeit tA bzw. die Abtastfrequenz fA liegen. Für die Abtastzeit tA gibt es nach oben keine Grenze, da man zwischen zwei Abtastzeitpunkten fast beliebig lang warten kann. Dann enthielte das abgetastete Signal aber keine relevanten Informationen mehr. Für die minimale Abtastzeit tA bzw. die maximale Abtastfrequenz fA gibt es jedoch technische Grenzen. Da die Abtastwerte meist mit einem Mikrocontroller oder mit Signalprozessoren verarbeitet werden, bestimmen diese durch ihre Verarbeitungsgeschwindigkeit die maximale Abtastfrequenz. Beispiele und technische Grenzen für Abtastfrequenzen gibt Tabelle 5.1 an.
Tabelle 5.1: Abtastfrequenzen in technischen Systemen
Regelkreise in der Verfahrenstechnik CD-Audio-Aufzeichnung DVD-Audio-Aufzeichnung Verarbeitung mittels Mikrocontroller Verarbeitung mittels Signalprozessor Speicheroszilloskop
Abtastfrequenz 1–10 Hz 44,1 kHz bis 192 kHz bis 50 MHz bis 720 MHz bis 10 GHz
5.1 Grundlagen
5.1.2
213
Abtasttheorem
Bei der Abtastung gehen die Signalwerte zwischen den Abtastzeitpunkten verloren. Unter bestimmten Bedingungen kann man diese Signalwerte vollständig rekonstruieren. Diese Bedingungen nennt das Abtasttheorem.
Satz 5.3 (Abtasttheorem) Das Signal y(t) sei bandbegrenzt, d.h. für seine Fourier-Transformierte Y (f ) gilt mit B>0 Y (f ) = 0
für |f | ≥ B.
(5.4)
Dann folgt, dass die Funktion y(t) zu jedem beliebigen Zeitpunkt t durch die Werte y(tn ) = y(ntA ) = yn
,n ∈ Z
festgelegt ist, die sie in zeitlichen Abständen tA =
1 2B
annimmt. Mit Hilfe der Bandbegrenzung des Spektrums erhält man yˆ(t) =
∞
y(tn )
n=−∞
sin(πfA (t − tn )) πfA (t − tn )
, fA =
1 . tA
(5.5)
Die Summe rekonstruiert das im Zeitbereich stetige Signal y(t) vollständig auch zwischen den diskreten Werten y(tn ), wenn die Abtastzeit tA ≤ 1/(2B) und somit die Abtastfrequenz fA ≥ 2B ist. • Beweis: Das zeitkontinuierliche Signal y(t) geht bei zeitäquidistanter Abtastung in das Signal y∗ (t) über. Dies geschieht durch Multiplikation mit einer Impulsreihe: y∗ (t) = y(t) ·
∞
δ(t − ntA ) .
n=−∞
Die Fourier-Transformierte Y∗ (f ) des abgetasteten Signals y∗ (t) wird durch Faltung im Frequenzbereich als + Y∗ (f ) = Y (f ) ∗ F
∞
n=−∞
8 δ(t − ntA )
214
5 Zeitdiskrete Signale
1.5
*
Y (f)
1
0.5
0
−6
−4
−2
0 2 f [Hz]
4
Abbildung 5.2: Schematische Darstellung der Wiederholung des Spektrums bei der Abtastung für den Fall fA = 4 Hz
6
beschrieben. Unter Verwendung der Poissonschen Summenformel (3.161) folgt 8 8 + + ∞ ∞ 1 j2π tk t A δ(t − ntA ) = F e F tA n=−∞ k=−∞ 9 ∞ 1 j2π tkA t = F e tA k=−∞ ∞ 1 k = . δ f− tA tA k=−∞
Setzt man dieses Resultat in obige Formel für Y∗ (f ) ein, so ergibt sich ∞ 1 k Y∗ (f ) = Y (f ) ∗ · δ f− tA tA k=−∞
∞ =
Y (ν) −∞
1 · = tA
∞ 1 k dν · δ f −ν− tA tA k=−∞
∞ k=−∞
Y
k f− tA
.
Man erkennt, dass das ursprüngliche Spektrum Y (f ) in Abständen fA = 1/tA periodisch wiederholt wird, wie dies in Abbildung 5.2 für fA = 4 Hz schematisch dargestellt ist. Damit eine eindeutige Rekonstruktion des Ursprungsspektrums überhaupt noch möglich ist, darf seine Bandbreite nicht größer als 1/(2tA ) sein, damit sich die Spektren nicht überlappen. Also folgt: Die Bandbreite des im Zeitbereich kontinuierlichen Signals darf die halbe Abtastfrequenz nicht überschreiten, wenn das abgetastete Signal vollständig rekonstruiert werden soll: B≤
fA . 2
5.1 Grundlagen
215
Um aus dem Spektrum des abgetasteten Signals Y∗ (f ) das Spektrum des zeitkontinuierlichen Signals Y (f ) zu rekonstruieren, muss man es mit dem gewichteten symmetrischen Rechteckfenster tA · r1/tA (f ) = tA · rfA (f ) multiplizieren. Auf diese Weise wird die Periodizität des Spektrums aufgehoben. Man erhält das Originalspektrum. Eine Multiplikation im Frequenzbereich entspricht einer Faltung im Zeitbereich, womit für die rekonstruierte Fourier-Transformierte des abgetasteten Signals Yˆ (f ) = Y∗ (f ) · tA rfA (f ) •−◦ yˆ(t) = y∗ (t) ∗ F −1 {tA rfA (f )} folgt. Durch den Vorfaktor tA wird das Rechteckfenster auf die Fläche eins normiert. Unter Beachtung von F −1 {tA rfA (f )} =
sin(πfA t) πfA t
, fA =
1 tA
wird daraus yˆ(t) = =
∞ n=−∞ ∞ n=−∞
y(ntA )δ(t − ntA ) ∗ y(ntA ) ·
sin(πfA t) πfA t
sin(πfA (t − ntA )) . πfA (t − ntA )
Dies beweist die in (5.5) behauptete Formel. Die ideale Rekonstruktion entspricht einer Entwicklung der Funktion y(t) in die zeitverschobenen Si-Funktionen. Bei Einhaltung des Abtasttheorems bilden diese ein vollständiges Funktionensystem, das den Raum der quadratisch integrierbaren Funktionen aufspannt. Die Koeffizienten sind gerade die Abtastwerte y(ntA ). Bei Einhaltung des Abtasttheorems ändert sich die Funktion zwischen den Abtastwerten hinreichend langsam, so dass sie durch diese Werte charakterisiert werden kann. Die Rekonstruktion konvergiert gegen die zeitkontinuierliche Funktion y(t). Somit lässt sich also in diesem Fall die Funktion eindeutig aus den Abtastwerten rekonstruieren. In den Abbildungen 5.3 und 5.4 sind Signale und deren versuchte Rekonstruktion gemäß dem Abtasttheorem, d.h. über Si-Funktionen, dargestellt. Hier ist das Originalsignal stets als gestrichelte Linie und die rekonstruierten Signale sind als durchgehende Linien eingezeichnet. In Abbildung 5.3 ist exemplarisch die Rekonstruktion eines Signals über die gewichteten Si-Funktionen dargestellt. Wie deutlich zu sehen ist, kann das Signal nicht vollständig rekonstruiert werden. Ist jedoch eine ungefähre Gleichheit ausreichend, so ist diese Rekonstruktion durchaus brauchbar. Anders verhält sich dies mit der Rekonstruktion in Abbildung 5.4. Hier ist eine Abtastfrequenz gewählt worden, die deutlich unter der vom Abtasttheorem geforderten Frequenz liegt. Als Konsequenz ist die Rekonstruktion des ursprünglichen Signals unmöglich. Das heißt, die Entwicklung in die Si-Funktionen, wie sie laut Abtasttheorem vorgesehen ist, konvergiert nicht gegen die Ursprungsfunktion.
5 Zeitdiskrete Signale
6
5
5
y(t) , yrekon(t)
6
4
4
*
y(t) , y (t)
216
3
3
2
2
1 0
1 0
1
2
3
4
0
5
0
1
t [sec]
3
4
5
t [sec]
6
6
5
(t)
5
4
rekon
4
y(t) , y
*
y(t) , y (t)
2
3 2
3 2 1 0
1
−1 0
2
2.5 t [sec]
3
2
2.5 t [sec]
3
Abbildung 5.3: Beispiel zur gelungenen Rekonstruktion des Zeitverlaufs gemäß dem Abtasttheorem
Bemerkung 5.6 1. Das Abtasttheorem gilt natürlich auch, wenn die Abtastwerte im zeitlichen Abstand tA < tA genommen werden (Überabtastung). 2. Für die Gültigkeit des Abtasttheorems kommt es nicht auf die absolute Lage der Abtastzeitpunkte an. Wichtig ist nur, dass sie äquidistant sind und dass ihr Abstand weniger als tA = 1/(2B) beträgt. 3. Für praktische Anwendungen ist zu beachten, dass das Abtasttheorem eine theoretische Aussage ist. Daher müssen die Fehler abgeschätzt werden, die durch Abweichungen von den Voraussetzungen des Satzes entstehen. Die im Wesentlichen zu beachtenden Fehler sind: • Der Quantisierungsfehler, da sich aufgrund der endlichen Ausgabe-Länge eines Analog-Digital-Wandlers die digitalen Amplitudenwerte von den exakten, stetigen Signalwerten unterscheiden. Dies wird z.B. in [KE05] untersucht. • Der Fehler durch das benutzte endliche Beobachtungsfenster T0 , da es in jeder realen Anwendung nur gelingt, einen zeitlich begrenzten Ausschnitt
217
6
5
5
y(t) , yrekon(t)
6
4
4
*
y(t) , y (t)
5.1 Grundlagen
3
3
2
2
1 0
1 0
1
2
3
4
0
5
0
1
t [sec]
3
4
5
t [sec]
6
6
5
y(t) , yrekon(t)
5 4
*
y(t) , y (t)
2
3 2
4 3 2 1 0
1
−1 0
2
2.5 t [sec]
3
2
2.5 t [sec]
3
Abbildung 5.4: Beispiel zur misslungenen Rekonstruktion des Zeitverlaufs gemäß dem Abtasttheorem, Abtasttheorem verletzt
der Signalfunktion zu beobachten (Leckeffekt). Dies wird in Abschnitt 5.5.6 behandelt. • Fehler durch spektrale Überlappungen, Aliasing, da vollständig bandbegrenzte Signale in der Praxis nicht existieren. Dies wird in Abschnitt 5.1.3 untersucht. • Fehler durch den Jitter des Abtastzeitpunktes, da sich der wahre Abtastzeitpunkt etwas von dem theoretisch richtigen Abtastzeitpunkt unterscheidet. Dies wird ebenfalls in [KE05] behandelt. •
5.1.3
Aliasing
Im Beweis des Abtasttheorems wurde das Spektrum Y∗ (f ) des abgetasteten Signals y∗ (t) als Summe der um ganzzahlige Vielfache der Abtastfrequenz fA verschobenen Spektren Y (f ) hergeleitet: Y∗ (f ) = fA ·
∞ k=−∞
Y (f − kfA ) .
218
5 Zeitdiskrete Signale Y(f)
f Y (f) *
f
fA
Abbildung 5.5: Spektrale Überlappung bei nicht bandbegrenztem Signal
Erstreckt sich das Spektrum Y (f ) über den gesamten Frequenzbereich, so kommt es zu spektralen Überlappungen, die als Aliasing bezeichnet werden und die in Abbildung 5.5 exemplarisch zu sehen sind. (Der Name ist von dem Begriff „alias“ abgeleitet.) Ist das Spektrum Y (f ) bandbegrenzt, so kann trotzdem eine spektrale Überlappung stattfinden, und zwar dann, wenn die Abtastfrequenz fA kleiner als das Doppelte der höchsten, im Signal vorkommenden Frequenz ist. In Abbildung 5.6 erkennt man diesen Fall. Im linken Fall ist die Abtastfrequenz so hoch, dass es nicht zu einer spektralen Überlappung kommt. Im rechten Fall tritt Aliasing auf. Hier ist die Abtastfrequenz zu klein. Sind die Voraussetzungen des Abtasttheorems also nicht erfüllt, d.h. ist das Spektrum des abzutastenden Signals y(t) nicht bandbegrenzt oder die Abtastfrequenz fA kleiner als das Doppelte der Frequenz des größten Spektralanteils des Signals y(t), so kommt es zu spektraler Überlappung, also zu Aliasing. Eine eindeutige Zuordnung der Spektralanteile ist nicht mehr möglich.
Y(f)
Y (f) *
Y (f) *
fA
f
f
fA
Abbildung 5.6: Spektrale Überlappung bei bandbegrenztem Signal
f
5.1 Grundlagen
219
Aliasing kann man aber nicht nur über den Frequenzbereich feststellen, sondern auch mit einem Beispiel im Zeitbereich zeigen. Beispiel 5.7 (Aliasing eines zeitkontinuierlichen Signals) Das zeitkontinuierliche Signal y(t) = sin (2π · 50 Hz · t) + sin (2π · 250 Hz · t) mit zwei harmonischen Schwingungen bei 50 Hz und 250 Hz soll mit einer Abtastfrequenz von fA = 200 Hz und somit einer Abtastzeit von tA =
1 = 0, 005s fA
abgetastet werden. Die Abtastwerte, die man auch in Abbildung 5.7 sehen kann, lauten:
1
y(t) , yn
0.5 0 −0.5 −1 0.01
0.02 0.03 t [sec]
0.04
Abbildung 5.7: Abtastwerte einer 50 Hzund einer 250 Hz-Schwingung bei einer Abtastfrequenz von 200 Hz
*
|Y (f)|
0
−300
−100
0 100 f [Hz]
300
Abbildung 5.8: Frequenzbereich des Signals y∗ (t)
220
5 Zeitdiskrete Signale
50 Hz 250 Hz yn = y(ntA ) = sin 2π n + sin 2π n 200 Hz 200 Hz 1 1 n = sin 2π n + sin 2π 1 + 4 4 'π ( 'π ( = sin n + sin n + 2πn 2' ( 2 π n . = 2 · sin 2 Die beiden harmonischen Schwingungen kann man im abgetasteten Zustand nicht mehr unterscheiden, d.h. ihre Spektralanteile überlappen sich. • Zur Verhinderung spektraler Überlappung gibt es nun zwei Möglichkeiten: 1. Bei nicht bandbegrenzten Signalen muss man vor der Abtastung mit Hilfe eines Tiefpasses Frequenzanteile ab der halben Abtastfrequenz vollständig verschwinden lassen. In der Praxis muss sichergestellt werden, dass die Spektralanteile, die Aliasing erzeugen, auf eine vernachlässigbare Stärke herausgefiltert worden sind. 2. Bei bandbegrenzten Signalen muss die Abtastfrequenz fA größer als das Doppelte der höchsten, im Signal vorkommenden Frequenz sein. Kann man die Abtastfrequenz fA nicht beliebig erhöhen bzw. ist die Abtastfrequenz festgelegt, so muss man wie unter Punkt 1. mit Hilfe eines Tiefpasses die Aliasing erzeugenden Spektralanteile herausfiltern. 5.1.3.1
Anti-Aliasing-Filter
An ein Filter, das Aliasing erzeugende Spektralanteile herausfiltert, ein Anti-AliasingFilter, sind natürlich hohe Forderungen gestellt. In dem Spektralbereich bis zur halben Abtastfrequenz, der als Nyquistband bezeichnet wird, darf das Signal nicht gestört werden. Oberhalb der halben Abtastfrequenz müssen alle Spektralanteile vollständig verschwinden. Dies ist nur mit Hilfe eines idealen Tiefpasses mit der Grenzfrequenz f2A möglich. Ein idealer Tiefpass ist in der realen Welt nicht zu verwirklichen. Man muss hier mit sehr steilflankigen Filtern auskommen, vgl. Abschnitt 6.8.4.
5.1.4
Rekonstruktion
In der Praxis interessiert nicht nur die Abtastung, also der Übergang vom zeitkontinuierlichen zum zeitdiskreten Signal, sondern auch die Rekonstruktion, d.h. der Übergang vom zeitdiskreten zum zeitkontinuierlichen Signal. Hierzu werden im Folgenden einige Methoden dargestellt. Systemtheoretisch wird die Rekonstruktion als Faltung der Impulsreihe y∗ (t) =
∞ n=−∞
yn · δ(t − ntA )
5.1 Grundlagen
221
mit der Impulsantwort g(t) eines Interpolationsfilters bzw. Rekonstruktionsfilters beschrieben: yˆ(t) = y∗ (t) ∗ g(t) . Dies entspricht einer Multiplikation bzw. Filterung im Frequenzbereich mit der Übertragungsfunktion G(s) = L{g(t)} der jeweiligen Rekonstruktionsmethode. 5.1.4.1
Cardinal Hold
Das Abtasttheorem besagt, dass bei Abtastung von y(t) mit der Abtastfrequenz fA das Signal y(t) durch y(t) =
∞ n=−∞
yn
sin(πfA (t − ntA )) πfA (t − ntA )
vollständig rekonstruiert werden kann, wenn die Bedingungen des Abtasttheorems eingehalten worden sind. Die Rekonstruktion entspricht der Multiplikation mit einem symmetrischen Rechteckfenster im Frequenzbereich, das nur die Frequenzanteile des Nyquistbandes fA fA − , 2 2 durchlässt, d.h. durch die Nyquistfrequenz fN = f2A nach oben und durch die negative Nyquistfrequenz nach unten begrenzt wird. Das Rechteckfenster macht somit die durch den Abtastvorgang entstandene Periodizität des Spektrums Y∗ (f ) rückgängig. Diese Rekonstruktionsmethode wird auch Cardinal Hold genannt. Das Cardinal-Hold-Filter hat im Frequenzbereich unendlich steile Flanken. Man stellt weiterhin fest, dass bei der Rekonstruktion zu jedem Zeitpunkt alle Abtastwerte benötigt werden und die Cardinal-Hold-Methode somit akausal ist. Cardinal Hold ist deshalb in der Praxis nicht durchführbar. Das heißt man muss eine andere Möglichkeit finden, durch geschickte Interpolation der Abtastwerte yn das zeitkontinuierliche Signal y(t) zu reproduzieren. Beim akausalen Cardinal-Hold-Filter ist die Impulsantwort g(t) des Rekonstruktionsfilters durch g(t) =
sin(πfA t) πfA t
(5.8)
gegeben, und die Übertragungsfunktion ist ein idealer Tiefpass mit der halben Abtastfrequenz als Grenzfrequenz. Die Verwendung anderer Rekonstruktionsfilter stellt eine Näherung dar. Die gebräuchlichsten werden in den nächsten Abschnitten behandelt. 5.1.4.2
Zero-Order Hold
Das Zero-Order Hold ist das einfachste praktische Rekonstruktionsfilter. Es wird auch box-car circuit, sample-and-hold oder data clamp genannt. Dabei wird angenommen,
222
5 Zeitdiskrete Signale y(t)
t
Abbildung 5.9: Rekonstruktion des Zeitverlaufs mit dem Zero-Order Hold
dass die Abtastzeitpunkte so dicht liegen, dass sich die Funktion zwischen den Abtastwerten nur unwesentlich ändert. Zwischen den Abtastzeitpunkten hält das Zero-Order Hold den letzten Abtastwert als Funktionswert und springt an den Abtastzeitpunkten jeweils auf den neuen Abtastwert. Aus dem gewichteten Impulszug y∗ (t) entsteht eine Treppenfunktion, welche die ursprüngliche Funktion grob annähert. Dies ist in Abbildung 5.9 zu erkennen. Die Impulsantwort des Rekonstruktionsfilters 1 , 0 ≤ t < tA g(t) = 0 , sonst
(5.9)
bzw. der Frequenzgang G(f ) = tA ·
sin(πf tA ) −jπf tA ·e πf tA
(5.10)
2 1 0.8 |G(f)|
g(t)
1.5
1
0.5
0.6 0.4 0.2 0
0
0
0.2
0.4 0.6 t [sec]
0.8
1
−5
0 f [Hz]
Abbildung 5.10: Impulsantwort und Amplitudengang des Zero-Order-HoldRekonstruktionsfilters für tA = 1[sec]
5
5.1 Grundlagen
223 |Y (f)| *
fA
f
fA
f
fA
f
|G(f)|
|Y(f)|
Abbildung 5.11: Spektralverzerrung durch Verwendung des Zero-Order Hold
des Zero-Order Hold, welche in Abbildung 5.10 aufgeführt sind, zeigen, dass erstens eine starke Verzerrung des Nyquistbandes stattfindet und dass zweitens Frequenzanteile oberhalb der Nyquistfrequenz vorhanden sind (siehe auch Abbildung 5.11).
5.1.4.3
Linear Point Connector
Als weitere einfache Rekonstruktionsmöglichkeit bietet es sich an, die Abtastwerte mittels gerader Linien zu verbinden. Dies entspricht der Trapezregel.
y(t)
t
Abbildung 5.12: Rekonstruktion des Zeitverlaufs mit dem Linear Point Connector
5 Zeitdiskrete Signale
1
1
0.8
0.8
0.6
0.6
|G(f)|
g(t)
224
0.4
0.4
0.2
0.2
0
0 −1
−0.5
0 t [sec]
0.5
1
−4
−2
0 f [Hz]
2
4
Abbildung 5.13: Impulsantwort und Amplitudengang des Linear-Point-Connector-Rekonstruktionsfilters für tA = 1[sec]
Die Impulsantwort des Rekonstruktionsfilters lässt sich durch t 1 + tA , −tA ≤ t < 0 g(t) = 1 − ttA , 0 ≤ t < tA 0 , sonst
(5.11)
angeben, womit der Frequenzgang zu G(f ) = tA si2 (πf tA ) = tA
sin2 (πf tA ) 2
(πf tA )
(5.12)
wird. Bei einer Betrachtung von Abbildung 5.13 wird deutlich, dass dieses Rekonstruktionsfilter im Frequenzbereich eine bessere Konvergenz als das Zero-Order-Hold-Filter aufweist. Der rekonstruierte Verlauf ist zwar im Vergleich zum Zero-Order Hold besser, aber man erkennt sofort, dass diese Rekonstruktionsmethode im Gegensatz zum Zero-Order Hold nicht kausal ist, da man den nächsten Abtastwert bereits benötigt. Dieses Problem kann man dadurch umgehen, indem man die Ausgabe um einen Abtastschritt verzögert. Im n-ten Intervall wird dann nicht die Verbindungsgerade zwischen den Abtastwerten yn und yn+1 ausgegeben, sondern die Verbindungsgerade zwischen den Abtastwerten yn−1 und yn . Das kann man immer genau dann tun, wenn die dadurch entstehende Totzeit tA nicht stört. So stellt es z.B. bei der Rekonstruktion von Audiodaten auf einer CD kein Problem dar, wenn die zeitkontinuierlichen Toninformationen um tA =
1 1 = = 22, 7µsec fA 44, 1 kHz
später vom CD-Spieler geliefert werden. 5.1.4.4
Spline-Interpolation
Diese Rekonstruktionsmethode verwendet die Spline-Interpolation, um aus einer Folge von Abtastwerten eine kontinuierliche Funktion zu erzeugen. An dieser Stelle wird keine
225
1
1
0.8
0.8
0.6
0.6 g(t)
g(t)
5.1 Grundlagen
0.4
0.4
0.2
0.2
0
0
−0.2
−2
−1
0 t [sec]
1
2
−0.2
−2
−1
0 t [sec]
1
2
Abbildung 5.14: Impulsantworten von Spline-Rekonstruktionsfiltern bei Verwendung von 5 bzw. 3 Stützstellen
vollständige Einführung in die Spline-Interpolation gegeben. Lediglich die Resultate werden vorgestellt. Für eine vollständige Einführung sei auf [KE05] und [Kro91] verwiesen. Eine verkürzte Herleitung findet sich der Vollständigkeit halber in Anhang E. Je nach Anzahl der verwendeten Stützstellen ergeben sich verschiedene Resultate. In der Praxis wird man sich die Anzahl von Stützstellen vorgeben und anschließend die Abtastwerte der Spline-Interpolation unterziehen. Man interpoliert zwischen einer sehr großen Anzahl von Stützwerten, was einer Lösung eines großen linearen Gleichungssystems entspricht, vgl. Anhang E. In Anhang E wird auch die Impulsantwort eines Rekonstruktionsfilters auf der Basis einer Spline-Interpolation mit den fünf Stützstellen −2, −1, 0, 1, 2 berechnet. In Abbildung 5.14 ist neben dieser Impulsantwort noch die Impulsantwort dargestellt, die bei Verwendung der drei Stützstellen −1, 0, 1 entsteht. 5.1.4.5
Rekonstruktion über die Fourier-Reihe
Das im Zeitbereich abgetastete Signal y∗ (t) soll mit Hilfe der Fourier-Reihe rekonstruiert werden. Die N zeitdiskreten Werte sind yn = y(ntA ) , n = −
N N ,..., − 1, 2 2
wobei wir der Einfachheit halber von einem geraden N ausgehen. 1. Man setzt eine Fourier-Reihe mit endlich vielen Koeffizienten an, was auf N 2
yˆ(t) =
−1
Yk ej2πk · ∆f · t
k=− N 2
, ∆f =
1 N tA
führt. Die Spektralfunktion wird damit nur in dem Grundband mit den Werten Y− N , . . . , Y N −1 2
2
226
5 Zeitdiskrete Signale berücksichtigt. Dadurch sind periodische Wiederholungen im Spektralbereich mit einem idealen Rechteckfilter beseitigt worden. Die untere Grundfrequenz ist die Beobachtungsfrequenz ∆f = 1/(N tA ).
2. Die Koeffizienten in obiger Darstellung berechnen sich, wie man durch einen Vergleich mit der Definitionsgleichung (3.116) und Gleichung (5.74) für die diskrete Fourier-Transformation (DFT) erkennt, über Yk =
N −1 n 1 yn e−j2π N k N n=0
,k = −
N N ,..., − 1. 2 2
Dies ähnelt bis auf den Vorfaktor gerade der diskreten Fourier-Transformation, die in Abschnitt 5.5.1 definiert wird. Aufgrund des diskreten Spektrums wird die Zeitfunktion periodisch fortgesetzt. Die Rekonstruktion mit der Fourier-Reihe liefert immer dann hervorragende Ergebnisse, wenn die periodische Fortsetzung im Zeitbereich keine Störungen über das Gibbssche Phänomen einbringt. Dazu müssen die Sprünge an den Bereichsgrenzen klein sein. Die Rekonstruktion ist allerdings nicht schrittweise in Echtzeit durchführbar. Beispiel 5.13 (Rekonstruktion eines Signals mittels der Fourier-Reihe) In diesem Beispiel wird die Funktion y(t) = e−t · (1 − cos(2π · 2 Hz · t)) , 0 ≤ t ≤ 2,5 [sec] , erst mit tA = 0,25 s abgetastet und anschließend mit Hilfe der Fourier-Reihe rekonstruiert. Das Resultat dieser Rekonstruktion ist in Abbildung 5.15 zu sehen. Obwohl das Abtasttheorem gerade noch als Grenzfall erfüllt ist, erhält man eine gute Re• konstruktion des Signals. 2
2 y(t) y*(t)
1.5 1
1
0.5
0.5
0
0
−0.5
0
0.5
1
1.5 t [sec]
2
y(t) yrekon(t)
1.5
2.5
−0.5
0
0.5
1
1.5 t [sec]
2
2.5
Abbildung 5.15: Beispiel der Rekonstruktion einer periodischen Funktion mittels einer Fourier-Reihe
5.2 Diskrete Zufallsvariable
5.2
227
Diskrete Zufallsvariable
In der Digitaltechnik gibt es stochastische Prozesse, die keinen stetigen Fluss von Zufallswerten betrachten, sondern die zu äquidistanten Zeitpunkten Zufallswerte X ausgeben, d.h. der Zeitbereich T , der in der Definition 3.35 auftritt, ist gerade N oder eine endliche Teilmenge davon. In diesem Fall spricht man von einem zeitdiskreten stochastischen Prozess. Weiterhin kann ein digital bearbeitetes Signal nur endlich viele, insbesondere also maximal abzählbar viele, Werte annehmen. Eine Zufallsvariable, die eine solche Eigenschaft aufweist, wird als diskrete Zufallsvariable bezeichnet. In diesem Fall geht die Wahrscheinlichkeitsdichte in eine diskrete Wahrscheinlichkeitsverteilung
mit
(p(xi ))i∈T
p(xi ) = 1
(5.14)
i∈T
über. Die Zahl
P (X ≤ x) =
(5.15)
p(xi )
xi ≤x
gibt dabei die Wahrscheinlichkeit an, dass das stochastische Signal X einen Wert kleiner gleich x besitzt. Entsprechend werden das n-te Moment E{X n } =
xni p(xi )
(5.16)
i∈T
und das n-te zentrale Moment E{(X − E{X})n } =
(xi − E{X})n p(xi )
(5.17)
i∈T
definiert. Die Berechnung der Wahrscheinlichkeit und der Momente bei mehrdimensionalen diskreten Zufallsvektoren geht entsprechend. Auch die Begriffe Kovarianz, Korrelation, Stationarität und Ergodizität lassen sich von den zeitkontinuierlichen stochastischen Prozessen meist mit Hilfe minimaler Modifikationen übernehmen. Der interessierte Leser findet hierzu in [BS75, Hän83, Ise74] genauere Ausführungen.
5.3
Fourier-Transformation zeitdiskreter Signale
Zur Bearbeitung von Problemen der Mess-, Steuerungs- und Regelungstechnik werden Digitalrechner verwendet. Die Signale werden in solchen Digitalrechnern nicht mehr kontinuierlich verarbeitet, sondern müssen abgetastet werden. Zwar erreicht man bei genügend hoher Abtastrate eine quasikontinuierliche Verarbeitung, trotzdem unterscheiden sich die Spektren eines kontinuierlichen und eines abgetasteten Signals prinzipiell. Dieser Unterschied wird im nächsten Abschnitt untersucht.
228
5.3.1
5 Zeitdiskrete Signale
Definition der Fourier-Transformation zeitdiskreter Signale
Ein zeitkontinuierliches Signal y(t) werde mit der Abtastzeit tA abgetastet. Das abgetastete Signal y∗ (t) ergibt sich aus y(t) durch Multiplikation mit einer Impulsreihe y∗ (t) = y(t) ·
∞
δ(t − ntA )
(5.18)
n=−∞
oder als Folge , n ∈ Z.
yn = y(ntA )
(5.19)
Setzt man (5.18) in (3.124) ein, so erhält man die Fourier-Transformierte des zeitdiskreten Signals y∗ (t) als
∞ Y∗ (f ) =
y∗ (t)e−j2πf t dt =
−∞
=
=
∞ ∞
∞ ∞
y(t)δ(t − ntA )e−j2πf t dt
−∞ n=−∞
y(t) · δ(t − ntA )e−j2πf t dt
n=−∞−∞ ∞
y(ntA )e−j2πf ntA =
∞
yn e−j2πf ntA .
n=−∞
n=−∞
Satz 5.20 (Fourier-Transformation zeitdiskreter Signale) Das Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals y(t) ist durch Y∗ (f ) =
∞
yn e−j2πf ntA =
n=−∞
∞
y(ntA )e−j2πf ntA
(5.21)
n=−∞
gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung durch Integration über das Nyquistband: 1
2tA y n = tA
Y∗ (f )ej2πf ntA df.
(5.22)
− 2t1 A
Dies entspricht einer Rekonstruktion des zeitkontinuierlichen Signals y(t) mit anschließender Abtastung zu yn . •
5.3 Fourier-Transformation zeitdiskreter Signale
229
Beweis: Zum Beweis von Gleichung (5.22) integrieren wir Y∗ (f ) über das Nyquistband und setzen Gleichung (5.21) ein: fA
fA
2
2
Y∗ (f )e −
j2πf ntA
∞
df =
fA 2
−
=
fA 2
yn e−j2πf n tA ej2πnf tA df
n =−∞
∞
fA
2
ej2π(n−n )tA f df
y n
n =−∞
−
fA 2
Mit der Substitution f tA = f , df = tA df folgt: fA
2
Y∗ (f )ej2πf ntA df = −
∞ n =−∞
fA 2
=
∞
1
2 ej2πf
y n
(n−n )
fA df
− 12
yn fA δ(n − n ) = yn fA .
n =−∞
Man erkennt, dass das Spektrum (5.21) mit fA = 1/tA periodisch ist, da für k ∈ Z gilt: ∞ k −j2π(f + = Y∗ f + y(ntA )e tA n=−∞
k tA )ntA
∞
−j2π tkA ntA y(ntA )e−j2πf ntA e n=−∞ =1 = Y∗ (f ).
=
Dies folgt bereits daraus, dass für Y∗ (f ) im Beweis des Abtasttheorems die Darstellung ∞ 1 k Y∗ (f ) = Y f− tA tA k=−∞
hergeleitet wurde, aus welcher die Periodizität unmittelbar abzulesen ist. Zur Vereinfachung wird die Frequenz f oft auf die Abtastfrequenz 1/tA normiert. Dabei ergibt sich die normierte Kreisfrequenz Ω=
2πf = 2πf tA . 1/tA
(5.23)
230
5 Zeitdiskrete Signale
Dadurch vereinfacht sich (5.21) zu: Y∗ (Ω) =
∞
yn e−jΩn .
(5.24)
n=−∞
Nun ist das Spektrum 2π-periodisch. Satz 5.25 (Fourier-Transformation zeitdiskreter Signale, normierte Version) Das normierte Spektrum eines mit der Abtastfrequenz 1/tA abgetasteten Signals y(t) ist mit Ω = 2πf tA durch Y∗ (Ω) =
∞
∞
yn e−jΩn =
n=−∞
y(ntA )e−jΩn
(5.26)
n=−∞
gegeben. Die inverse Fourier-Transformation berechnet sich bei Zeitdiskretisierung durch 1 yn = 2π
π Y∗ (Ω)ejΩn dΩ.
(5.27)
−π
• Bemerkung 5.28 1. Es ist zu beachten, dass die Variable Ω die Abtastfrequenz fA beinhaltet und nicht losgelöst von dieser betrachtet werden kann. 2. Die normierte Fourier-Transformation zeitdiskreter Signale wird in der Literatur oft in Anlehnung an die englische Bezeichnung „Discrete-Time FourierTransform“ auch mit DTFT{yn } = Y∗ (Ω) ,
IDTFT{Y∗ (Ω)} = yn
bezeichnet, ist aber nicht mit der diskreten Fourier-Transformation, DFT, zu verwechseln. 3. Hat das ursprüngliche zeitkontinuierliche Spektrum Y (Ω) von Null verschiedene Anteile nur im Bereich Ω = [−π, π], so stimmt das Spektrum Y∗ (Ω) der im Zeitbereich abgetasteten Funktion y∗ (t) in diesem Bereich mit dem Spektrum Y (Ω) der zeitkontinuierlichen Funktion y(t) überein. Genau dies ist die Aussage des Abtasttheorems von Shannon. Normierte Kreisfrequenzen mit |Ω| ≥ π werden wegen der Periodizität des Spektrums in den Bereich −π bis π gespiegelt. Dies wurde in Abschnitt 5.1.3 behandelt. •
5.3 Fourier-Transformation zeitdiskreter Signale
5.3.2
231
Eigenschaften der Fourier-Transformation zeitdiskreter Signale
In diesem Abschnitt werden exemplarisch einige Eigenschaften für die normierte FourierTransformation zeitdiskreter Signale vorgestellt. Diese erweisen sich bei der Betrachtung zeitdiskreter Signale oft als hilfreich und sind in den meisten Fällen analog zu den entsprechenden Aussagen bei zeitkontinuierlichen Signalen. Satz 5.29 (Zeitversatz) Die Fourier-Transformierte der zeitverschobenen Folge yn−n0 ist durch eine modulierte Frequenzfunktion gegeben. Es gilt: DTFT{yn−n0 } = e−jΩn0 Y∗ (Ω) .
(5.30) •
Beweis: Die Aussage folgt durch Anwenden der Definitionsgleichung: ∞ ∞ DTFT{yn−n0 } = yn−n0 e−jΩn = yn−n0 e−jΩ(n−n0 ) e−jΩn0 n=−∞
= Y∗ (Ω)e
n=−∞ −jΩn0
.
Satz 5.31 (Frequenzversatz) Die Fourier-Transformierte einer modulierten Wertefolge yn ejΩ0 n ergibt sich über eine Frequenzverschiebung der Spektralfunktion. Es gilt: DTFT{yn ejΩ0 n } = Y∗ (Ω − Ω0 ) .
(5.32) •
Beweis: Ebenfalls mittels der Definitionsgleichung ergibt sich: ∞ ∞ DTFT{yn ejΩ0 n } = yn ejΩ0 n e−jΩn = yn e−j(Ω−Ω0 )n n=−∞
n=−∞
= Y∗ (Ω − Ω0 ) . Die beiden folgenden Aussagen lassen sich ebenfalls relativ einfach durch Anwendung der Gleichungen (5.26) und (5.27) beweisen. Satz 5.33 (Multiplikation zweier Wertefolgen) Für die Fourier-Transformation eines Produktes zweier Wertefolgen xn und yn gilt DTFT{xn · yn } =
1 X∗ (Ω) ∗ Y∗ (Ω). 2π
(5.34) •
232
5 Zeitdiskrete Signale
Satz 5.35 (Faltung zweier Wertefolgen) Die Faltung xn ∗ yn zweier Folgen xn und yn im Zeitbereich geht durch die FourierTransformation in eine Multiplikation über. Mit X∗ (Ω) = DTFT{xn } und Y∗ (Ω) = DTFT{yn } folgt DTFT{xn ∗ yn } = X∗ (Ω) · Y∗ (Ω).
(5.36) •
5.3.3
Energie- und Leistungsdichte
Die Kreuzkorrelation zweier zeitdiskreter Energiesignale x(n), y(n) mit diskreter Zeitverschiebung τ = ktA wird als das zeitdiskrete Innenprodukt ∞
E (k) = x(n + k), y(n)n = Rxy
x(n + k)y ∗ (n)
(5.37)
n=−∞
berechnet. Die Korrelation kann mit der Substitution m = −n ähnlich wie in Abschnitt 3.5.2.2 als Faltungssumme ∞
E Rxy (k) =
x(k − m)y ∗ (−m) = x(k) ∗ y ∗ (−k)
(5.38)
m=−∞
formuliert werden. Die Fourier-Transformierte der zeitdiskreten Kreuzkorrelation für Energiesignale ist die Kreuzenergiedichte E S∗xy (f ) =
∞
E Rxy (k)e−j2πf ktA .
(5.39)
k=−∞
Bei Energiesignalen kann man die Energiedichte im Frequenzbereich ohne Umweg über die Korrelation unmittelbar aus dem Produkt der Fourier-Transformierten berechnen. Durch Einsetzen von Gleichung (5.38) in Gleichung (5.39) folgt E S∗xy (f ) =
=
∞
∞
k=−∞ m=−∞ ∞ ∞
x(k − m)y ∗ (−m)e−j2πf ktA x(k − m)e−j2πf (k−m)tA · y ∗ (−m)e−j2πf mtA .
k=−∞ m=−∞
Mit der Substitution k = k − m wird dies gleich dem Produkt E (f ) = S∗xy
∞ k =−∞
x(k )e−j2πf k tA
∞ m=−∞
y ∗ (−m)e−j2πf mtA = X∗ (f ) · Y∗∗ (f ) .
5.4 Abtastfrequenz
233
Die inverse Fourier-Transformation der Energiedichte im Frequenzbereich ist mit Gleichung (5.22) die zeitdiskrete Korrelation fA
2 E Rxy (k) = tA −
S∗xy (f )ej2πf ktA df . fA 2
Die Energie des abgetasteten Signals ist gleich der Autokorrelationsfunktion an der Stelle k = 0. E (k = 0) = E∗x = Rxx
∞ n=−∞
fA
|x(n)|2 = tA
2
−
E S∗xx (f )df . fA 2
Die Engergie E∗x des abgetasteten Signals ist im Allgemeinen nicht identisch mit der Energie Ex des zeitkontinuierlichen Signals. Die Fourier-Transformierte der zeitdiskreten Korrelationsfunktion für zeitdiskrete Leistungssignale ist die Leistungsdichte S∗xy (f ). Eine unmittelbare Berechnung aus den Fourier-Transformierten der Signale ist bei Leistungssignalen nicht möglich. Die Signalleistung des zeitdiskreten Signals ist gleich der zeitdiskreten Autokorrelationsfunktion an der Zeitverschiebung k = 0, fA
P∗x
2 N 1 = Rxx (k = 0) = lim |x(n)|2 = tA S∗xx (f )df , N →∞ 2N + 1 n=−N
−
fA 2
entsprechend dem Integral der Leistungsdichte des zeitdiskreten Signals über dem Nyquistband.
5.4
Abtastfrequenz
Es ist einleuchtend, dass die Wahl der geeigneten Abtastfrequenz einen zentralen Punkt der digitalen Signalverarbeitung darstellt. Das Abtasttheorem gibt Bedingungen zur Vermeidung von Aliasing vor. Kann dieses jedoch nicht eingehalten werden, so sollen durch geschickte Wahl der Abtastfrequenz fA Aliasingeinflüsse minimiert werden. Da das Spektrum realer Signale für hohe Frequenzen gegen null geht, könnte man mit einer genügend hohen Abtastfrequenz fA Aliasingfehler nahezu ausschließen. In der Praxis ist dieser Weg nicht immer gangbar. Wo hochfrequente Signale anfallen, beispielsweise in der Bild- und Sprachverarbeitung, kommt man sehr nahe an die Grenze der Leistungsfähigkeit der digitalen Signalverarbeitungsanlagen. Damit ist die Abtastfrequenz durch die technischen Gegebenheiten begrenzt. Wichtig für die Wahl der Abtastfrequenz ist auch die Frage, wann die verarbeiteten Daten zur Verfügung stehen müssen. Werden beispielsweise Versuchsdaten auf Datenträgern abgespeichert und die Signalverarbeitung im Off-line-Betrieb vorgenommen, so
234
5 Zeitdiskrete Signale
aktueller Zeitpunkt
hier muss das Ergebnis vorliegen
t zukünftige Werte, die in die Berechnung mit eingehen dürfen Abbildung 5.16: Quasikausalität im On-line-Betrieb
muss die Auswertung nicht mit dem gleichen Takt erfolgen, da die Signalwerte bereits abgetastet worden sind. Der Off-line-Betrieb ist aber nur dann durchführbar, wenn das Ergebnis der Auswertung nicht in den Versuch zurückgeführt werden muss. Der Vorteil liegt in der möglichen Verwendung akausaler Filter, da aufgrund der verspäteten Auswertung auch „zukünftige“ Werte bereits vorliegen. Im Gegensatz zum Off-line-Betrieb stehen beim On-line-Betrieb neben dem aktuellen Abtastwert lediglich alle bisherigen Abtastwerte zur Verfügung und das Ergebnis der Signalverarbeitung muss idealerweise bereits beim darauffolgenden Abtastschritt vorhanden sein. Der Verarbeitungsalgorithmus muss also kausal sein. In vielen Fällen der digitalen Signalverarbeitung, so z.B. bei der Sprach- und Bildverarbeitung, ist eine um N +1 Abtastschritte verzögerte Ausgabe des Ergebnisses tolerierbar. Hierdurch könnten die N dem aktuellen Zeitpunkt darauffolgenden Abtastwerte in die aktuelle Berechnung mit eingehen. Dadurch erreicht man eine Art Quasikausalität. Dies ist in Abbildung 5.16 zu erkennen. Bei der Wahl der Abtastfrequenz gibt es zwei wichtige Begriffe, auf die im Folgenden näher eingegangen wird. Bei der Überabtastung wird eine Abtastfrequenz fA gewählt, die deutlich höher ist, als es vom Abtasttheorem gefordert wird. Bei der Unterabtastung liegt die Abtastfrequenz fA hingegen deutlich niedriger.
5.4.1
Überabtastung
Bei der Verarbeitung zeitkontinuierlicher Signale durch Digitalrechner werden diese Signale abgetastet und anschließend rekonstruiert. Die Realisierung dafür geeigneter AntiAliasing- und Rekonstruktionsfilter kann dabei erhebliche Probleme aufwerfen. Im Folgenden wird gezeigt, wie man durch Überabtastung und zeitdiskrete Filterung den Aufwand für Anti-Aliasing- und Rekonstruktionsfilter reduzieren kann. 5.4.1.1
Überabtastung bei der Anti-Aliasing-Filterung
Interessieren die Spektralinformationen eines Signals y(t) in einem Frequenzbereich [−fN , fN ], so muss aufgrund des Abtasttheorems das Signal y(t) mit mindestens der Frequenz fA = 2fN abgetastet werden. Um Aliasing zu vermeiden, muss das Signal y(t) zuerst mit einem idealen Tiefpass auf das Nyquistband [−fN , fN ] beschränkt werden. In der Praxis gibt es keinen idealen Tiefpass, außerdem bewirken Tiefpässe mit hoher
5.4 Abtastfrequenz
y(t)
235
Analoges Anti-AliasingFilter
Überabtastung mit
Verarbeitung, Speicherung
Upsampling
fA
zm
yn
fA → fA
zn
Zeitdiskretes Anti-AliasingFilter
Zeitdiskretes InterpolationsFilter
Downsampling
zn
xn
fA → fA
Analoges RekonstruktionsFilter
zm
x ˆ(t)
Abbildung 5.17: Vorgehen bei Benutzung der Überabtastung
Flankensteilheit starke Phasenverzerrungen, vergleiche Beispiel 4.172, und sind sehr aufwendig zu realisieren. Mit Hilfe der Überabtastung kann man dieses Problem umgehen. Dabei verwendet man zuerst ein relativ einfaches Anti-Aliasing-Filter mit geringer Flankensteilheit und tastet das gefilterte Signal mit einer deutlich höheren Abtastfrequenz fA ab. Das resultierende zeitdiskrete Signal yn wird dann mit einem zeitdiskreten Filter hoher Flankensteilheit auf das eigentliche Nyquistband [−fN , fN ] begrenzt. Danach reduziert man die Abtastfrequenz wieder auf fA = 2fN , was als Downsampling bezeichnet wird. Liegt die Frequenz fN in einem Bereich, bei dem es technisch kein Problem darstellt, mit einer weitaus höheren Abtastfrequenz als 2fN überabzutasten, dann wird das Signal y(t) mit der r-fachen Abtastfrequenz fA = r · fA = r · 2fN
,r 1
(5.40)
abgetastet. Der Faktor r ist der Grad der Überabtastung, man spricht etwa bei r = 4 von einer 4fachen Überabtastung. Bei der späteren Betrachtung des so genannten Downsampling ergibt sich der Faktor r sinnvollerweise als eine ganze Zahl. Das mit der r-fachen Abtastfrequenz fA abgetastete Signal yn wird nun mit Hilfe eines zeitdiskreten Filters im Spektralbereich auf das Nyquistband [−fN , fN ] reduziert: zn = S{yn } .
(5.41)
Dabei können zeitdiskrete Filter im Digitalrechner verwendet werden, die den Phasenverlauf weniger stark stören (siehe Abschnitt 6.8.4). Das gefilterte, zeitdiskrete Signal zn besitzt definitionsgemäß nur Frequenzanteile im eigentlichen Nyquistband, d.h. eine höhere Abtastrate als fA ist nicht mehr erforderlich. Zur Berechnung von zm wird nun ein Gedankenexperiment durchgeführt. Dabei wird das gefilterte, zeitdiskrete Signal zn zuerst ideal rekonstruiert und anschließend mit der einfachen Abtastfrequenz fA wieder abgetastet. Das gefilterte, zeitdiskrete Signal zn wurde zu den Zeitpunkten tn =
n n = tA 2rfN r
,n ∈ Z
(5.42)
236
5 Zeitdiskrete Signale
überabgetastet. Hieraus ergibt sich nach (5.5) mit B = rfN das rekonstruierte Signal ' (( ' n ∞ sin 2πrfN t − 2rf N ( . ' zˆ(t) = (5.43) zn n t − 2πrf n=−∞ N 2rfN Das zeitkontinuierliche Signal zˆ(t) wird nun zu den Zeitpunkten tm =
m 2fN
,m ∈ Z
(5.44)
mit der niedrigen Abtastrate 2fN abgetastet. Die abgetasteten Werte ergeben sich zu
zm
' (( ' n sin 2πrfN 2fmN − 2rf N ( ' = zˆ(tm ) = zn m n 2πrfN 2fN − 2rfN n=−∞ ∞
=
∞ n=−∞
zn
sin (π(rm − n)) . π(rm − n)
(5.45)
Ist r ∈ Z \ {0}, dann gilt für den sin(x) x -Bruch sin (π(rm − n)) 1 , rm = n = . 0 , sonst π(rm − n) Hieraus folgt dann zm = zrm .
(5.46)
Dies bedeutet, dass zur Reduzierung der Abtastrate lediglich jeder r-te Abtastwert von zn weiterverwendet wird. Für allgemeine r ∈ R wäre keine Vereinfachung zu (5.46) möglich, sondern die Abtastwerte zm mit der einfachen Abtastfrequenz fA müssten nach (5.45) bestimmt werden. In der Praxis wäre das nicht durchführbar, weil nicht alle Abtastwerte zn , n ∈ Z, zur Verfügung stehen. Die Betrachtung im Frequenzbereich zeigt, dass bei der idealen Rekonstruktion (5.5) das Spektrum Z∗ (f ) des zeitdiskreten Signals zn im Frequenzbereich [−rfN , rfN ] vollständig und unverzerrt erhalten bleibt, seine Periodizität verschwindet und es außerhalb des Frequenzbereiches [−rfN , rfN ] keine Signalanteile besitzt. Die Abtastung mit der einfachen Abtastfrequenz fA erzeugt eine periodische Fortsetzung des Spektrums im Frequenzbereich [−fN , fN ]. Um Aliasing zu vermeiden, müssen zuvor im Spektrum Z∗ (f ) des zeitdiskreten Signals zn alle Signalanteile im Frequenzbereich [−rfN , −fN ] bzw. [fN , rfN ] verschwinden. Der gesamte Vorgang der Überabtastung wird in Abbildung 5.18 im Spektralbereich gezeigt. Dabei wird das Signal y(t) durch 2fache Überabtastung abgetastet, im zeitdiskreten Bereich auf das Nyquistband begrenzt und anschließend durch Downsampling auf die einfache Abtastfrequenz gebracht.
5.4 Abtastfrequenz
237 zeitkontinuierliches Signal
|Y(f)|
fN
fA
fN
fA
|Y '(f)|
f'A
f
f'A
f
überabgetastetes Signal
*
gefiltertes, überabgetastetes Signal
|Z '(f)| *
fN
fA
fN
fA
|Z (f)|
f'A
f
f'A
f
einfach abgetastetes Signal
*
Abbildung 5.18: 2fache Überabtastung eines Signals y(t) im Spektralbereich
Der Vorteil der Überabtastung liegt in der Verwendung eines kostengünstig im Mikrorechner realisierbaren zeitdiskreten Anti-Aliasing-Filters. Der Nachteil liegt offensichtlich in der anfänglich höheren Abtastrate. Zum Abschluss wird die Überabtastung an einem Beispiel demonstriert. Beispiel 5.47 (Überabtastung bei der CD-Aufnahme) Die technischen Daten einer Audio-CD schreiben eine Abtastfrequenz von fA = 44,1 kHz vor, d.h. die Nyquistfrequenz liegt bei fN = 22.050 Hz. Der von einer Audio-CD übertragene Frequenzbereich liegt etwa zwischen 5 Hz und 20.000 Hz. Da an der oberen Grenze des Hörbereiches das Signal um maximal 3 dB und bei der Nyquistfrequenz um mindestens 60 dB gedämpft werden soll, müsste man ohne Überabtastung ein Anti-Aliasing-Filter sehr hoher Ordnung verwenden. Dies würde zu starken Phasenverzerrungen führen, die im Audiobereich nicht tolerierbar sind, da das menschliche Ohr hierfür sehr empfindlich ist. Hingegen liegt bei 8facher Überabtastung die Abtastfrequenz bei 352,8 kHz, was technisch kein Problem darstellt. Um hier Aliasingeffekte zu vermeiden, muss das Audiosignal erst ab 176,4 kHz praktisch verschwinden. Dies ist oftmals allein durch das Übertragungsverhalten des Mikrophons gegeben. Nach zeitdiskreter Filterung auf die eigentliche Nyquistfrequenz 22.050 Hz folgt dann das Downsampling auf die Abtastfrequenz 44,1 kHz. •
238 5.4.1.2
5 Zeitdiskrete Signale Überabtastung bei der Rekonstruktion
Die Überabtastung spielt nicht nur bei der Abtastung eines Signals und bei der Vermeidung von Aliasing eine Rolle, sondern auch bei der Rekonstruktion des zeitkontinuierlichen Signalverlaufes. In Abschnitt 5.1.4 wurde gezeigt, dass die Rekonstruktion keine triviale Aufgabe ist, da man zur vollständigen, fehlerfreien Rekonstruktion mittels Cardinal Hold einen idealen Tiefpass benötigt. Ähnlich wie bei Überabtastung zur Vermeidung steilflankiger Filter kann man auch hier den Weg der Überabtastung gehen. Zur Konstruktion eines überabgetasteten zeitdiskreten Signals zn wird die Abtastrate durch äquidistantes Einfügen von r − 1 zusätzlichen Werten zwischen den eigentlichen Abtastwerten zm um den Faktor r erhöht. Damit sinken die Anforderungen an das Rekonstruktionsfilter. Beim Einfügen von zusätzlichen Werten bieten sich zwei Methoden an. Auf der einen Seite werden Nullen eingefügt. Dies hat den Vorteil, dass der Energiegehalt des Signals nicht geändert wird. Dann wird das Spektrum mit einem über das Nyquistband [− f2A , f2A ] reichenden Tiefpassfilter gefiltert. Die Filterung entspricht einer Interpolation, bei der die eingefügten Nullen durch interpolierte Zwischenwerte ersetzt werden. Die zweite Möglichkeit besteht in der Wiederholung des jeweils letzten ursprünglichen Abtastwertes, d.h. ein Abtastwert zm wird r − 1-Mal zusätzlich eingefügt. Dadurch erhöht sich natürlich der Energiegehalt des Signals. Dies soll nun mathematisch beschrieben werden. Hierbei werden die beiden Möglichkeiten zur Ausfüllung der Zwischenstellen separat betrachtet. Einfügen von Nullen. Das Spektrum des zeitdiskreten Signals zm = z(mtA ) , m ∈ Z, wird nach Gleichung (5.21) durch Z∗ (f ) =
∞
zm e−j2πf mtA
m=−∞
beschrieben. Beim Einfügen von Nullen entstehen aus den einfachen mit der Abtastfrequenz fA abgetasteten Abtastwerten zm die Abtastwerte zm , n = r · m zn = (5.48) 0 , sonst mit der Abtastfrequenz rfA , deren Spektrum sich vom Spektrum Z∗ (f ) des ursprünglichen, zeitdiskreten Signals zm nicht unterscheidet: Z∗ (f ) = =
∞
zn e−j2πf n
n=−∞ ∞
tA r
=
∞
zm e−j2πf rm
tA r
m=−∞
zm e−j2πf mtA = Z∗ (f ) .
m=−∞
Dies ist auch einleuchtend, denn betrachtet man ein zeitdiskretes Signal als Impulsreihe, so werden beim Einfügen von Nullen nur Impulse der Höhe null eingefügt. Die zeitdiskrete Funktion z∗ (t) ändert sich nicht. Die Zeit- und Spektralfunktionen finden sich in Abbildung 5.19. •
5.4 Abtastfrequenz
239
Originalspektrum
4 z∗ (t), z∗ (t)
|Z∗ (f )|, |Z∗ (f )|
0.6 0.4 0.2 0 0
-0.2 -2
fA
fA
-1
f [Hz] Spektrum nach zeitdiskreter Filterung
0
1
2
1
2
t [sec]
4 0.6 x∗ (t)
|X∗ (f )|
0.4 0.2 0 0
-0.2 -2
fA
f [Hz]
-1
0 t [sec]
Abbildung 5.19: Originalspektrum = Spektrum nach Einfügen von Nullwerten; darunter Spektrum nach zeitdiskreter Filterung, was einer Interpolation entspricht, bei Überabtastung um den Faktor 4
Wiederholen des Abtastwertes. Bei r − 1fachem Wiederholen des letzten Abtastwertes werden die neuen Abtastwerte durch zn = zm
, n = rm + i , i = 0 . . . r − 1 , m ∈ Z,
(5.49)
beschrieben. Deren Fourier-Transformierte Z∗ (f ) =
∞
zn e−j2πf n
tA r
=
n=−∞
=
∞ m=−∞
wird mit
∞ r−1
zm e−j2πf (rm + i)
m=−∞ i=0
zm e−j2πf mtA ·
r−1 tA e−j2πf i r i=0
r−1 tA 1 sin (πf tA ) e−j2πf i r = e−jπf tA 1 − r · sin πf trA i=0
tA r
240
5 Zeitdiskrete Signale
Originalspektrum
4
0.6 0.4 z∗ (t)
|Z∗ (f )|
3 2
0.2
1
0
0
-0.2 -2
fA
-1
f [Hz] Spektrum nach Wiederholen des Abtastwertes
4
1
2
1
2
0.6
3
0.4 z∗ (t)
|Z∗ (f )|
0 t [sec]
2 1
0.2 0
0 f [Hz]
fA
-0.2 -2
-1
0 t [sec]
Abbildung 5.20: Ursprüngliches Spektrum eines zeitdiskreten Signals; darunter Spektrum nach Wiederholen des letzten Abtastwertes bei 4facher Überabtastung; deutlich ist die Erhöhung des Energieinhalts erkennbar
durch
1 sin (πf tA ) Z∗ (f ) = Z∗ (f ) · e−jπf tA 1 − r · sin πf trA
(5.50)
beschrieben. Hier erkennt man auf der einen Seite eine Phasenverzerrung durch e−jπf tA (1−1/r) und auf der anderen Seite eine Amplitudenverzerrung durch den Quotienten zweier Sinus-Schwingungen. In Abbildung 5.20 sieht man deutlich die Verzerrung des Spektrums bei Wiederholen des letzten Abtastwertes. • In der Praxis wird man also Nullen einfügen, um eine Verzerrung des Spektrums zu vermeiden. Durch das Upsampling auf zn bzw. Z∗ (f ) verändert sich das Spektrum nicht. Die Interpolation zwischen vorhandenen Stützstellen (Abstand tA ) ersetzt die willkürlich eingefügten Nullen (Abstand trA ) durch interpolierte Stützstellen. Die Interpolation erfolgt mit einem idealen Rechtecktiefpass mit der Grenzfrequenz f2A (nicht r f2A !). Die Aufeinanderfolge von Upsampling und Interpolationsfilter kann analytisch durch eine Rekonstruktion der zm und anschließende Überabtastung mit fA = rfA beschrieben
241
1 0.5 0
m
fA
0
f [Hz]
1 0.5 0
n
f [Hz]
0
fA
|X∗ (f )|
xn
|Z∗ (f )|
zn
|Z∗ (f )|
zm
5.4 Abtastfrequenz
1 0.5 0
n
f [Hz]
0
fA
Abbildung 5.21: Vorgang bei der Rekonstruktion; die interpolierten Stützstellen mit n = rm werden durch Cardinal-Hold-Filterung gewonnen
werden. Die Rekonstruktion ist nach Gleichung (5.5) x ˆ(t) =
∞
zm
m=−∞
sin(πfA (t − mtA )) . πfA (t − mtA )
Die Überabtastung ergibt
xn = x ˆ(t = ntA ) =
∞ m=−∞
=
∞ m=−∞
zm
zm
sin(πfA ( nr tA − mtA )) πfA ( nr tA − mtA )
sin(π( nr − m)) . π( nr − m)
In den ursprünglichen Stützstellen gilt n = rm und damit xn = zn/r .
242
5 Zeitdiskrete Signale
Beispiel 5.51 (Überabtastung bei der CD-Wiedergabe) Bei der Wiedergabe einer Audio-CD liegen die zeitdiskreten Audiosignale mit der festen Abtastfrequenz fA = 44,1 kHz vor. Um die Verwendung eines steilflankigen zeitkontinuierlichen Rekonstruktionsfilters zu vermeiden, wird in CD-Wiedergabegeräten die Methode des Überabtastens verwendet. Bei einer exemplarischen Überabtastrate von 4 fügt man drei Nullwerte äquidistant zwischen den von der CD gelesenen Abtastwerten ein. Dadurch erhöht sich die Abtastfrequenz fA um den Faktor 4. Nun filtert man mit Hilfe eines zeitdiskreten Filters die Frequenzanteile von der eigentlichen Nyquistfrequenz fN bis zur überabgetaste ten Nyquistfrequenz fN heraus. Damit ist das eigentliche Signal wieder hergestellt. Dieses kann dann mit Hilfe eines einfachen Rekonstruktionsfilters ausgegeben werden. In Abbildung 5.21 sieht man in der ersten Abbildung die von der CD gelesenen Abtastwerte zm , in der zweiten Abbildung das dazugehörige Spektrum Z∗ (f ). In der dritten Abbildung sieht man die Wertefolge zn nach dem Einfügen von Nullen, in der vierten Abbildung das dazugehörige, unveränderte Spektrum Z∗ (f ). In der fünften Abbildung sieht man die interpolierte Wertefolge xn . Diese wurde durch Rechteckfilterung des Nyquistbandes ermittelt, wie das dazugehörige Spektrum X∗ (f ) in der sechsten Abbildung zeigt. • Schon hier sei angemerkt, dass eine zeitdiskrete Filterung durch Additionen, Multiplikationen und Speicherungen durchgeführt wird. Fügt man zur Überabtastung Nullen zwischen den ursprünglichen Werten ein, so erhöht sich der „Rechenaufwand“ nur unwesentlich, da die Multiplikation bzw. die Addition mit Null trivial ist und keiner Rechenzeit bedarf.
5.4.2
Unterabtastung
Bei der Überabtastung wählt man eine höhere Abtastfrequenz, um ein Signal y(t) verzerrungsärmer abzutasten bzw. zu rekonstruieren. Dies ist nur dann sinnvoll, wenn der größere Aufwand für die höhere Abtastfrequenz durch die bessere Qualität des Signals gerechtfertigt wird. Die höhere Abtastfrequenz muss natürlich technologisch realisierbar sein. Hat man hingegen ein Bandpass-Signal y(t) mit sehr hohen Frequenzanteilen (z.B. Bildsignal, Signal einer UKW-Antenne etc.), und kann die nach dem Abtasttheorem geforderte kleinste Abtastfrequenz gar nicht oder nur mit unverhältnismäßig hohem Aufwand realisiert werden, so muss man eine kleinere Abtastfrequenz wählen. Welche Bedingungen erfüllt sein müssen, damit diese Unterabtastung nicht zu Aliasingeffekten führt, soll im Folgenden behandelt werden. Zum Verständnis der Funktionsweise der Unterabtastung wird das folgende Beispiel betrachtet.
5.4 Abtastfrequenz
243
Beispiel 5.52 (Unterabtastung einer harmonischen Schwingung) Ein Signal y(t) bestehe aus einer einzigen harmonischen Schwingung der Frequenz f0 = 120 Hz. Dieses Signal wird nun mit der Frequenz fA = 100 Hz abgetastet. In diesem Fall ist die Bedingung des Abtasttheorems, dass die Abtastfrequenz größer als das Doppelte des höchsten vorkommenden Signalanteils sein muss, nicht eingehalten worden. Die harmonische Schwingung findet sich im Nyquistband [−fN , fN ] bei der Frequenz 20 Hz wieder. Genauso würden sich bei dieser Abtastfrequenz harmonische Schwingungen der Frequenzen f0 = 20 Hz + r · 100 Hz
, r ∈ Z,
bei der Frequenz 20 Hz wiederfinden. Trotzdem tritt kein Aliasing auf, wenn das Signal y(t) nur bei einer dieser Frequenzen einen Spektralanteil besitzt, da sich dann keine Spektralanteile überlappen können. • Nun bestehen Signale im Allgemeinen nicht nur aus einzelnen harmonischen Schwingungen, sondern zumindest aus einem Frequenzband. Durch geschickte Wahl der Abtastfrequenz, die hier kleiner als jede vorkommende Frequenz ist, kann eventuell Aliasing vermieden werden. Hierzu muss das Frequenzband definiert werden. Definition 5.53 (Frequenzband) Besitzt ein Signal nur Spektralanteile innerhalb eines bestimmten Frequenzintervalls, welches dann als Frequenzband bezeichnet wird, so gibt die Mittenfrequenz f0 die mittlere Frequenz dieses Intervalls und die Bandbreite B die Differenz zwischen der höchsten und niedrigsten vorkommenden Frequenz an. Hierbei wird B f0 gefordert. Abbildung 5.22 stellt ein Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B dar.
B
Y(f)
f0
f
Abbildung 5.22: Frequenzband mit der Mittenfrequenz f0 und der Bandbreite B
Bemerkung 5.54 1. Die Variable B hat im Zusammenhang mit einem Frequenzband eine andere Bedeutung als die bei der Definition des Abtasttheorems verwendete Variable B. 2. Da bandbegrenzte reelle Signale Spektralanteile sowohl im positiven als auch im negativen Frequenzbereich besitzen, müsste man bei ihnen immer zwei Frequenzbänder angeben. Da aber die Bandbreite beider Frequenzbänder gleich ist und sich die Mittenfrequenzen, vom Vorzeichen abgesehen, auch nicht unterscheiden, spricht man auch bei reellen Signalen immer nur von einem Frequenzband. Trotzdem muss man das zweite Frequenzband bei der Unterabtastung • berücksichtigen, um Aliasingeffekte auszuschließen.
244
5 Zeitdiskrete Signale
Entsprechend Beispiel 5.52 soll nun nur die Mittenfrequenz f0 bei der Unterabtastung herangezogen werden. Dabei wird die Wahl der Abtastfrequenz fA nicht eindeutig sein. Die Bandbreite B des Frequenzbandes dient dann zur Bestimmung der Abtastfrequenz, bei der kein Aliasing auftritt. Bei der Wahl der Abtastfrequenz fA zur Unterabtastung der Mittenfrequenz muss festgelegt werden, bei welcher Frequenz f0 im Nyquistband die Mittenfrequenz f0 erscheinen soll. Entsprechend Beispiel 5.52 erscheint bei der Abtastfrequenz fA die Mittenfrequenz bei den Frequenzen f0 = f0 + r · fA
, r ∈ Z.
Besitzt man eine feste Mittenfrequenz f0 , so projizieren alle Abtastfrequenzen fA =
f0 − f0 r
, r ∈ Z \ {0},
(5.55)
die feste Mittenfrequenz f0 auf die Frequenz f0 im Nyquistband. Die Abtastfrequenzen werden mit größer werdendem r immer kleiner. Die untere Schranke stellt die Bandbreite B dar, wie im Folgenden gezeigt wird. Nach Kenntnis der möglichen Frequenzen, die im Nyquistband als Bildfrequenzen erreicht werden können, stellt sich die Frage, auf welche Frequenz f0 die Mittenfrequenz f0 projiziert werden soll. Zwei typische Möglichkeiten sind die Frequenzen f0 = 0 Hz und f0 = f2N . Weshalb das so ist, soll nun untersucht werden. Da man bei reellen Signalen beide Frequenzbänder beachten muss, führt man ein Bandspektrum YB (f ) ein, das dem um die Mittenfrequenz f0 verschobenen positiven Frequenzband des zeitkontinuierlichen Signals y(t) entspricht, d.h. man definiert die Funktion ; : Y (f + f0 ) , f ∈ − B2 , B2 , YB (f ) = 0 , sonst welche in Abbildung 5.24 dargestellt ist. Nulllinie
−fA
f0
f0 + fA
f0 = f0 + rfA f0 + fA
f0 + 2rfA
Abbildung 5.23: Schematische Darstellung der Projektion einer Mittenfrequenz ins Nyquistband
5.4 Abtastfrequenz
245
Y(f)
Y (f) B
f0
f
Abbildung 5.24: Bandspektrum eines reellen Signals
Das Spektrum Y (f ) besteht aus den beiden Frequenzbändern im positiven bzw. negativen Frequenzbereich, die durch Y (f ) = Y + (f ) + Y − (f )
(5.56)
mit Y + (f ) = YB (+f − f0 ) Y − (f ) = YB (−(f + f0 )) = YB (−f − f0 ) definiert sind. Ihr zeitdiskretes Spektrum Y∗ (f ) nach Abtastung mit der Abtastfrequenz fA wird durch Y∗ (f ) = Y∗+ (f ) + Y∗− (f )
(5.57)
mit Y∗+ (f ) = fA ·
∞
YB (+f − f0 + kfA )
k=−∞ ∞
Y∗− (f ) = fA ·
YB (−f − f0 + kfA )
k=−∞
beschrieben. 5.4.2.1
Symmetrische Bandspektren
Möchte man nun die Mittenfrequenz f0 auf die Frequenz f0 = 0 Hz projizieren, so kann man als Abtastfrequenz fA =
f0 r
, r ∈ Z,
wählen. Soll das Spektrum im Nyquistband [−fN , fN ] betrachtet werden, so erhält man für ein ganzzahliges k mit k≤
f0 fA,min
=r
,k ∈ N
das Spektrum Y∗ (f ) = fA (YB (f ) + YB (−f ))
246
5 Zeitdiskrete Signale Y(f)
f
Y∗ (f)
f0 = 0
f
B
Abbildung 5.25: Maximal zulässige Bandbreite bei einem symmetrischen Bandspektrum
des zeitdiskreten Signals yn im Nyquistband [− f2A , f2A ]. Die Summe von YB (f ) und YB (−f ) stellt eine spektrale Überlappung um die Frequenz 0 Hz dar. Ist das Bandspektrum YB (f ) aber achsensymmetrisch, YB (f ) = YB (−f ), d.h. ist das Frequenzband des reellen Signals symmetrisch um die Mittenfrequenz, so folgt für das Spektrum im Nyquistband [−fN , fN ] : Y∗ (f ) = 2fA YB (f ) . Es tritt damit kein Aliasing auf. Abbildung 5.25 veranschaulicht, dass das Bandspektrum mit seiner Bandbreite B das gesamte Nyquistband ausfüllen darf. Das heißt die Abtastfrequenz bei achsensymmetrischen Signalen wird durch die Ungleichung B < 2fN = fA,min nach unten begrenzt. In Abbildung 5.25 sind ein ursprüngliches und ein durch die Unterabtastung entstehendes Spektrum dargestellt. Die durch die Unterabtastung entstehende Überlagerung, die zur doppelten Höhe des Spektrums führt, ist zu erkennen. Zusammenfassend gilt nun folgender Satz: Satz 5.58 (Unterabtastung bei symmetrischen Bandspektren) Bei symmetrischen Bandspektren wird die Mittenfrequenz idealerweise auf die Frequenz f0 = 0 Hz projiziert. Dafür stehen die Abtastfrequenzen fA =
f0 r
, r ∈ Z \ {0},
(5.59)
5.4 Abtastfrequenz
247
zur Verfügung, wobei als untere Schranke für die Abtastfrequenzen die Ungleichung (5.60)
fA,min > B und somit
f0 (5.61) B gilt. Das Spektrum des unterabgetasteten Signales im Nyquistband [−fN , fN ] wird durch k≤r=
(5.62)
Y∗ (f ) = 2fA YB (f )
•
beschrieben. 5.4.2.2
Unsymmetrische Bandspektren
Bei unsymmetrischen Bandspektren ist eine Projektion auf die Frequenz f0 = 0 Hz nicht möglich, da sich die Frequenzbänder im positiven bzw. negativen Frequenzbereich nach der Projektion spektral überlappen und somit aufgrund der nicht vorhandenen Symmetrie Information zerstören würden. Für die positive Mittenfrequenz f0 ist also eine Stelle zu suchen, bei der nach der Projektion die beiden Mittenfrequenzen f0 und −f0 möglichst weit voneinander entfernt sind und dennoch die Spektren im Nyquistband liegen. Dies ist bei der Frequenz fN fA = 2 4 der Fall. Damit ergeben sich durch f0 =
fA 4f0 + r · fA ⇐⇒ fA = 4 4r + 1 alle möglichen Abtastfrequenzen. Soll das Spektrum im halben negativen und im halben positiven Nyquistband [−fN , 0] bzw. [0, fN ] betrachtet werden, so erhält man für ein ganzzahliges k f0 =
k≤r=
f0 1 − fA,min 4
,k ∈ N
das Spektrum
fA fA Y∗ (f ) = fA YB (f − ) + YB (−f − ) 4 4
des zeitdiskreten Signals yn im Nyquistband [− f2A , f2A ]. Aufgrund der Verschiebung um fA 4 gibt es keine Überlappung der beiden Teilspektren. Die untere Schranke fA,min 2 der Abtastfrequenz fA für unsymmetrische Bandspektren erkennt man in Abbildung 5.26. B < fN =
Insgesamt gilt also der Satz:
248
5 Zeitdiskrete Signale Y(f)
f
Y∗ (f)
f0
fN
f
B
Abbildung 5.26: Maximal zulässige Bandbreite bei unsymmetrischen Bandspektren
Satz 5.63 (Unterabtastung bei unsymmetrischen Bandspektren) Bei unsymmetrischen Bandspektren wird die Mittenfrequenz f0 idealerweise auf die halbe Nyquistfrequenz f0 = f2N projiziert. Damit stehen die Abtastfrequenzen fA =
4f0 4r + 1
, r ∈ Z,
(5.64)
zur Verfügung, wobei als untere Schranke für die Abtastfrequenz fA die Ungleichung fA,min > 2B
(5.65)
und somit k≤r=
f0 1 − 2B 4
(5.66)
gilt. Das Spektrum im Nyquistband [−fN , fN ] wird durch fA fA + YB −f − Y∗ (f ) = fA YB f − 4 4 beschrieben. Die Unterabtastung wird an einem Beispiel demonstriert.
(5.67) •
5.4 Abtastfrequenz
249
Beispiel 5.68 (Radiosignal) Ein Radiosignal mit der Mittenfrequenz f0 = 20 MHz und der Bandbreite B = 248 kHz soll abgetastet werden. Um den Projektionspunkt f0 der Mittenfrequenz f0 festzulegen, unterscheidet man die beiden Fälle eines symmetrischen bzw. unsymmetrischen Bandspektrums. 1. Bei einem symmetrischen Bandspektrum, wie es z.B. bei der Amplitudenmodulation vorkommt, wird die Mittenfrequenz auf die Frequenz f0 = 0 Hz projiziert. Mit (5.59) erhält man nun alle möglichen Abtastfrequenzen: fA =
20 MHz r
, r ∈ Z \ {0} .
Gleichung (5.60) gibt die untere Schranke für die Abtastfrequenz fA vor: fA,min > B = 248 kHz . Die kleinste Abtastfrequenz fA , die dies erfüllt, ergibt sich mit r = 80 zu fA = 250 kHz. 2. Bei einem unsymmetrischen Bandspektrum, wie es z.B. bei der Frequenzmodulation vorkommt, wird die Mittenfrequenz f0 auf die halbe Nyquistfrequenz projiziert. Mit (5.64) erhält man alle möglichen Abtastfrequenzen: fA =
4 · 20 MHz 4r + 1
,r ∈ Z.
Gleichung (5.65) gibt die untere Schranke für die Abtastfrequenz fA an: fA,min > 2B = 496 kHz . Hieraus ergibt sich mit k = 40 die kleinste Abtastfrequenz zu fA = 496,89 kHz.
•
Bemerkung 5.69 Die Unterabtastung setzt voraus, dass das abzutastende Signal ein Bandpass-Signal ist. Dies ist natürlich im Allgemeinen nicht immer gegeben. Das heißt, man muss vor der Abtastung das Signal auf den wesentlichen Frequenzbereich bandpassfiltern. Da die Unterabtastung hauptsächlich bei sehr hochfrequenten, aber schmalbandigen Signalen benutzt wird, stellt die Filterung, z.B. durch ein steilflankiges Quarzfilter, kein Problem dar. Die Rekonstruktion des ursprünglichen, hochfrequenten Signals aus den zeitdiskreten Signalwerten nach der Unterabtastung ist im Allgemeinen nicht möglich, da bei der Rekonstruktion immer das Nyquistband wiederhergestellt wird. Dieses liegt nach der Unterabtastung im niederfrequenten Bereich. Eine Rekonstruktion wäre nur dann möglich, wenn man das abgetastete Signal yn durch Einfügen von Nullwerten auf eine Abtastfrequenz überabtastet, die mindestens doppelt so groß ist, wie
250
5 Zeitdiskrete Signale
die maximal vorkommende Frequenz im Bandpass-Signal y(t). Durch zeitdiskrete Filterung könnte man dann das Bandpass-Signal im hochfrequenten Nyquistband isolieren und rekonstruieren. Dies ist aber meist nicht sinnvoll, weil die Unterabtastung gerade deshalb angewendet wurde, um höhere Abtastfrequenzen zu umgehen. Die Unterabtastung ist auch im Zeitdiskreten möglich. Dabei nimmt man z.B. nur jeden r-ten Abtastwert für die weitere Verarbeitungskette. Damit reduziert sich die Abtastfrequenz auf 1/r der alten Abtastfrequenz. Voraussetzung ist wieder ein Bandpass-Signal, das man durch zeitdiskrete Filterung erreichen kann. Eine eventuelle Verschiebung des Signals im Frequenzbereich um f0 in positive bzw. negative Richtung erreicht man, wie bei der Betrachtung der Fourier-Transformation nachgewiesen, durch Modulation des Signals im Zeitbereich mit ej2πf0 t bzw. e−j2πf0 t . Die Unterabtastung eines amplitudenmodulierten Signals mit Projektion der Mittenfrequenz f0 auf die Frequenz 0 Hz entspricht der Demodulation des Signals. •
5.5
Spektralanalyse
Die bisher betrachteten Transformationen eignen sich nicht für eine Spektralanalyse auf Digitalrechnern. Zu diesem Zweck wird die geeignete diskrete Fourier-Transformation eingeführt, die zusätzlich zum Zeitbereich auch den Frequenzbereich diskretisiert.
5.5.1
Diskrete Fourier-Transformation, DFT
In der Praxis ist die Fourier-Transformation zeitdiskreter Signale nicht anwendbar, denn bei der Ausführung auf einem Digitalrechner oder allgemein durch ein digitales System treten zwei Probleme auf: • Es können nur endlich viele Abtastwerte yn verarbeitet werden, da der Speicherplatz in einem Rechner endlich ist. • Neben der Zeitvariablen muss auch die Frequenzvariable diskretisiert werden, da der Rechner nur diskrete Zahlenwerte verarbeiten kann. Die beiden aufgezeigten Probleme lassen sich mittels geschickter Ansätze relativ einfach beheben. Man muss lediglich betrachten, was man bei der Diskretisierung „verloren“ hat. Geht man von Gleichung (5.26) aus Y∗ (Ω) =
∞
yn e−jΩn
n=−∞
und berücksichtigt, dass man nicht unendlich viele Werte yn erfassen und bearbeiten kann, so beschränkt man sich in der Realität auf N Werte. Daraus ändert sich die Beobachtungszeit zu T 0 = N · tA ,
(5.70)
5.5 Spektralanalyse
251
dem Produkt der Abtastzeit tA mit der Anzahl N der betrachteten Abtastwerte, und die Beobachtungsfrequenz resultiert zu 1 1 fA . = = N T0 N tA
∆f =
(5.71)
Bei insgesamt N Abtastwerten läuft der Zählindex n für den Zeitparameter in der Summe z.B. von 0 bis N − 1. Die Funktion ist außerhalb der N Abtastwerte im Zeitbereich periodisch fortgesetzt. Damit ist das Spektrum auch im Frequenzbereich diskret. Das erste der genannten Probleme ist gelöst. Um auch das zweite Problem zu lösen, erinnert man sich der Tatsache, dass das Spektrum eines zeitdiskreten Signals periodisch ist. Deshalb benötigt man zur Beschreibung des Spektrums nur eine einzige Periode. Bei der Diskretisierung, d.h. der Abtastung des Spektrums werden in dieses Intervall endlich viele Spektrallinien gelegt. Ihre Anzahl ist grundsätzlich beliebig wählbar, jedoch ist es günstig, dieselbe Anzahl N von Stützstellen im Spektralbereich wie im Zeitbereich zu wählen. Bei Verwendung der Abtastfrequenz 1 = N · ∆f tA
fA =
(5.72)
ist die Auflösung des Spektrums durch die Beobachtungsfrequenz fA 1 = N N tA
∆f =
(5.73)
gegeben. Setzt man die Bedingung 0 ≤ n ≤ N − 1 für das beschränkte Zeitintervall in Gleichung (5.26) ein und diskretisiert man die normierte Kreisfrequenz mit fk = k∆f auf Ωk =
2πfk 2πk∆f 2πktA = = = 2πk/N, 1/tA 1/tA N tA
so erhält man die Diskrete Fourier-Transformation, DFT : Yk =
N −1
yn e−j2πkn/N
, k = 0, . . . , N − 1 .
(5.74)
n=0
Bemerkung 5.75 Durch die Bedingung 0 ≤ k ≤ N − 1 wird das Nyquistband nicht mehr, wie bisher, als ein um die Frequenz null symmetrisches Band betrachtet. Die Indizes bzw. die dementsprechenden Amplitudenwerte werden stattdessen über eine Periode betrachtet, welche bei der Frequenz null beginnt. Aufgrund der periodischen Fortsetzung von yn bzw. Yk bleiben die Summationsergebnisse in Gleichung (5.74) unverändert, • wenn von 0, . . . , N − 1 anstelle von − N2 , . . . , N2 − 1 summiert wird.
252
5 Zeitdiskrete Signale
Es stellt sich die Frage nach der Rücktransformation in den Zeitbereich. Bei der FourierTransformation zeitdiskreter Signale wird dies durch Integration über die frequenzkontinuierliche Spektralfunktion Y∗ (Ω) erreicht; hier dagegen sind lediglich diskrete Spektralwerte Yk verfügbar. Man erinnert sich an die Fourier-Reihe, bei der die Zeitfunktion als mit den „Spektralwerten“ ck gewichtete Summe von Exponentialfunktionen dargestellt wird. Entsprechend kann man die Wertefolge ebenfalls als Summe angeben. Zur Berechnung der zu Yk gehörigen Wertefolge zu einem bestimmten Zeitpunkt l = t/tA multipliziert man (5.74) mit ej2πkl/N und summiert über alle N Frequenzwerte: N −1
Yk ej2πkl/N =
N −1 N −1
yn e−j2πk(n − l)/N
k=0 n=0
k=0
=
N −1
yn
n=0
=
N −1
N −1
e−j2πk(n − l)/N
k=0
yn N δ(n − l) = N yl .
n=0
abgetastete Zeitfunktion 1 y(t) ; yn
0.5 0 −0.5 −1
0
0.1
0.2
0.3 0.4 t [sec] ; n Spektrum mittels DFT
0.5
0.6
|Y(f)| ; |Yk|
20 15 10 5 0
0
10
20
30 f [Hz] ; k
Abbildung 5.27: Diskrete Werte im Zeit- und Frequenzbereich
40
50
5.5 Spektralanalyse
253
Mit n = l ergibt sich daraus die inverse diskrete Fourier-Transformation, IDFT : yn =
N −1 1 Yk ej2πkn/N . N
(5.76)
k=0
Insgesamt ist durch die bisherigen Ausführungen folgende Definition gerechtfertigt:
Definition 5.77 (Diskrete Fourier-Transformation, DFT) Als diskrete Fourier-Transformation bezeichnet man die Wertepaare yn ◦−• Yk
, k, n = 0, . . . , N − 1,
die durch folgende Beziehungen verbunden sind:
Yk =
N −1
yn e−j2πkn/N =
n=0
yn =
N −1
kn yn wN
N −1 N −1 1 1 −kn Yk ej2πkn/N = Yk wN , N N k=0
(5.78)
n=0
(5.79)
k=0
mit wN = e−j2π/N .
(5.80)
n Die Faktoren wN , n = 0, . . . , N − 1 sind gerade die N komplexen Wurzeln der GleiN n | = 1. chung wN = 1. Es gilt: |wN
Bemerkung 5.81 1. Durch Betrachten der Definitionsgleichung wird offensichtlich, dass es sich bei der diskreten Fourier-Transformation um eine lineare Transformation handelt. 2. Für die Beziehung yn ◦−• Yk benutzt man oft auch die Schreibweise DFT{yn } = Yk . Ebenso versteht sich auch die Bezeichnung IDFT{Yk }. Beispiel 5.83 (DFT) Die Wertefolge laute mit N = 6: y0 = 1 y1 = 1 y2 = 0 y3 = 0 y4 = 0 y5 = 1
(5.82) •
254
5 Zeitdiskrete Signale yn r
r
0
1
r r 2
r 3
r 4
5
n
Abbildung 5.28: Wertefolge vor periodischer Wiederholung
Mit Gleichung (5.78) folgt die Fourier-Transformierte: Yk =
5
yn e−jπkn/3 = 1 + e−jπk/3 + e−jπk5/3
n=0
= 1 + e−jπk/3 + ejπk/3 'π ( k . = 1 + 2 cos 3 Dass die Werte Yk reell sind, ist nicht überraschend, da die Folge yn eine reelle und nach periodischer Fortsetzung gerade Folge ist. • Die diskrete Fourier-Transformation ist umkehrbar eindeutig. Man kann unbedenklich und beliebig oft vom Zeitbereich in den Frequenzbereich und umgekehrt wechseln. Betrachtet man den Rechenaufwand für eine DFT, so erkennt man, dass man für N zu transformierende Werte N 2 komplexe Multiplikationen und Additionen benötigt. Durch geschickte Umsortierung der Multiplikationen und Additionen erhält man einen Algorithmus, der lediglich etwa N · ld(N ) solche Operationen benötigt: die Schnelle Fourier-Transformation, Fast Fourier Transformation, FFT, welche im nächsten Abschnitt behandelt wird.
5.5.2
Schnelle Fourier-Transformation, FFT
Die Schnelle Fourier-Transformation, FFT, führt die identische Rechnung durch wie die diskrete Fourier-Transformation. Lediglich die Zahl der Rechenoperationen ist durch Ausnutzung von Symmetrien erheblich kleiner, wodurch sie für die Implementierung besser geeignet ist. Der Zusammenhang zwischen den Folgen yn und Yk soll an einigen Beispielen klar gemacht werden. Dazu beginnen wir mit der sukzessiven Betrachtung einer 2-PunkteFFT, dann folgt eine 4-Punkte-FFT u.s.w. 2-Punkte-FFT. Yk = y0 + y1 e−jπk 4-Punkte-FFT. k Yk = y0 + y1 e−jπ 2 + y2 e−jπk + y3 e−j3πk/2 ( ( ' k ' = y0 + y2 e−jπk + e−jπ 2 y1 + y3 e−jπk
5.5 Spektralanalyse
255
Man erkennt, dass sich die 4-Punkte-FFT aus zwei gewichteten 2-Punkte-FFT zusammensetzt. 8-Punkte-FFT. k
k
k
Yk = y0 + y1 e−jπ 4 + y2 e−jπ 2 + . . . + y7 e−j7π 4 = y0 + y4 e−jπk + e−jπk/4 y1 + y5 e−jπk + +e−jπk/2 y2 + y6 e−jπk + e−j3πk/4 y3 + y7 e−jπk 0 1 = y0 + y4 e−jπk + e−jπk/2 y2 + y6 e−jπk + 0 1 +e−jπk/4 y1 + y5 e−jπk + e−jπk/2 y3 + y7 e−jπk
Hier stellt man fest, dass eine 8-Punkte-FFT entweder als 4 mal 2-Punkte-FFT oder als 2 mal 4-Punkte-FFT, die ihrerseits selbst aus 2 mal 2-Punkte-FFT bestehen, umgeschrieben werden kann. Eine 16-Punkte-FFT ließe sich so in 2 mal 8-Punkte-FFT, die jeweils in 2 mal 4-PunkteFFT, die wiederum jeweils in 2 mal 2-Punkte FFT aufgeteilt sind, zerlegen. Man erkennt, dass zur Anwendung dieser Vereinfachungen der Umfang N einer FFT eine Zweierpotenz sein muss, d.h. N = 2n
, n ∈ N.
(5.84)
Zur Anwendung der FFT auf eine Zeitfolge y0 , . . . , yN −1 bei N = 2n kann die Wertefolge auf die nächsthöhere Zweierpotenz „aufgefüllt“ werden. Man kann zeigen, dass der Rechenaufwand durch die Umstrukturierung auf N · ld(N ) Multiplikationen und Additionen verringert worden ist. Dies macht sich aber erst ab der 16-Punkte-FFT bemerkbar. Vorher unterscheidet sich die Anzahl der Multiplikationen und Additionen zwischen DFT und FFT nicht. Betrachtet man noch einmal die letzte Zeile bei der Darstellung der 8-Punkte-FFT, so erkennt man, dass die Reihenfolge der verwendeten Abtastwerte scheinbar ohne Zusammenhang ist. Bei genauerem Hinsehen erkennt man jedoch, dass ein Zusammenhang besteht. Schreibt man den Index als Binärzahl, und dreht die Binärzahl einfach um (bit reversal), so erhält man den Laufindex in binärer Schreibweise. Abtastwert Index binär bit reversal Laufindex
y0 0 000 000 0
y4 4 100 001 1
y2 2 010 010 2
y6 6 110 011 3
y1 1 001 100 4
y5 5 101 101 5
y3 3 011 110 6
y7 7 111 111 7
Zur Bestimmung des entsprechenden Abtastwertes geht man den Weg rückwärts und erhält so aus dem Laufindex den zu verwendenden Index.
256
5 Zeitdiskrete Signale
Die FFT besitzt exakt die gleichen Eigenschaften wie die DFT, da dieselben Ergebnisse geliefert werden. Lediglich die Berechnung erfolgt schneller. Da uns in diesem Rahmen nur die Eigenschaften und Besonderheiten der „Zahlenfolgen“ und nicht deren Berechnungsweise interessiert, wird hier für eine genauere Herleitung und weitere Anmerkungen der FFT auf z.B. [KK02] verwiesen.
5.5.3
Eigenschaften der DFT
In diesem Abschnitt werden einige Eigenschaften der DFT bewiesen, deren Beweis die Definitionsgleichung vertieft und den Umgang mit dieser Definition bzw. mit dieser Transformation übt. Hierzu werden Zahlenfolgen x0 , . . . , xN −1 und y0 , . . . , yN −1 mit den zugehörigen diskreten Fourier-Transformierten X0 , . . . , XN −1 und Y0 , . . . , YN −1 vorgegeben: xn yn
, n = 0, . . . , N − 1 ◦−• Xk , k = 0, . . . , N − 1 , , n = 0, . . . , N − 1 ◦−• Yk , k = 0, . . . , N − 1 .
Zuerst werden einige Eigenschaften bewiesen, die sich bei einer Umdefinition der Wertefolge ergeben und sich meistens durch Nachrechnen unter Beachtung der Definitionsgleichung zeigen lassen. Satz 5.85 (Eigenschaften der diskreten Fourier-Transformation) Für die diskrete Fourier-Transformation ergeben sich folgende Eigenschaften und Rechenregeln: ∗ y−n ◦−• Yk∗ , (5.86) y−n ◦−• Y−k . (5.87) • Beweis: Die erste Eigenschaft folgt wegen Yk∗
=
N −1
kn yn∗ ej2π N
=
∗ −j2π y−n e
kn N
n =−(N −1)
n=0 N
=
0
∗ −j2π y−n +N e
kn N
e−j2πk .
n =1
Aufgrund der Periodizität der DFT ist y−n +N = y−n . Außerdem kann die Summation wegen N
0
y−N e−j2πk N = y0 e−j2πk N geändert werden in Yk∗ =
N −1 n =0
∗ −j2πk y−n e
n N
∗ = DFT{y−n }.
5.5 Spektralanalyse
257
Die zweite Eigenschaft folgt ebenso aus der Definition durch den Ansatz Y−k =
N −1
−nk yn wN
n=0
durch einfache Umformungen. Satz 5.88 (Faltungssatz der DFT) Für die DFT der Faltung zweier Wertefolgen gilt: xn ∗ yn ◦−• Xk · Yk .
(5.89) •
Beweis: Zum Beweis des Faltungssatzes betrachte man zwei Wertefolgen xn ◦−• Xk , yn ◦−• Yk . Dann berechnet sich die Rücktransformation durch xn =
N −1 kn 1 Xk ej2π N N
bzw.
yn =
k=0
N −1 kn 1 Yk ej2π N . N k=0
Für das Faltungsprodukt ergibt sich daraus: xn ∗ yn =
N −1 m=0
=
N −1 m=0
xm yn−m
N −1 km 1 Xk ej2π N N
k=0
N −1 l(n−m) 1 Yl ej2π N N l=0
Durch Umsortieren der (endlichen) Summen folgt: xn ∗ yn =
N −1 l=0
=
N −1 l=0
=
N −1 l=0
N −1 N −1 (k−l)m 1 j2π ln N Y · e X · ej2π N l k 2 N m=0 k=0
ln 1 Yl · ej2π N N2
N −1 k=0
ln 1 Yl Xl · N ej2π N N2
= IDFT{Xk · Yk }
Xk · N δ(k − l)
.
258
5 Zeitdiskrete Signale
Bemerkung 5.90 Bei der DFT sind die Signale periodisch in T0 = N tA . Dies muss man bei der Transformation von kausalen Signalen beachten, z.B. bei der Impulsantwort von LTISystemen. Dort ergibt sich das Ausgangssignal ya,n als Faltung des Eingangssignales ye,n mit der Impulsantwort gn des LTI-Systems. Bei Berechnung dieser Operation mit der DFT wird die Impulsantwort gn periodisch in T0 wiederholt, wodurch aus • der kausalen eine akausale Impulsantwort wird, vgl. Abbildung 5.29. Will man diese ungewollte Verfälschung vermeiden, so muss das Periodizitätsintervall auf 2T0 = 2N tA erweitert werden, vgl. Abbildung 5.30. Satz 5.91 (Parsevalsche Formel und Energiesatz) Aus oben bewiesenen Eigenschaften ergeben sich durch Einsetzen die Parsevalsche Formel und der Energiesatz der DFT: N −1
xn yn∗ =
n=0 N −1
(5.92)
N −1 1 |Xk |2 . N
(5.93)
k=0
|xn |2 =
n=0
5.5.4
N −1 1 Xk Yk∗ , N
k=0
•
Auflösung im Zeit- und Frequenzbereich
Bei der Fourier-Transformation zeitdiskreter Signale wurde die Wahl der Abtastfrequenz fA diskutiert. Bei der diskreten Fourier-Transformation, DFT, kommt die Wahl Kausale Impulsantwort
−N
g
gn
n
Akausale Impulsantwort
0
N−1
−N
0
N−1
n
n
Abbildung 5.29: Akausale Impulsantwort durch periodische Wiederholung
Abbildung 5.30: Kausale Impulsantwort durch Verdopplung des Periodizitätsintervalls
5.5 Spektralanalyse
259
der Anzahl N der Abtastwerte hinzu. Um dies verständlich zu machen, werden zuerst einige Zusammenhänge wiederholt, um dann das Problem der Wahl von N anhand eines Beispiels zu erläutern. Mittels der Abtastfrequenz fA kann man die Abtastzeit bestimmen: tA =
1 . fA
Zusammen mit der Anzahl N der Abtastwerte ergibt sich nach (5.70) die Beobachtungszeit bzw. Beobachtungsdauer der diskreten Fourier-Transformation zu T 0 = N · tA =
N . fA
Hieraus folgt aus (5.71) die Frequenzauflösung, d.h. die Beobachtungsfrequenz, ∆f =
1 fA 1 = = N N tA T0
als Inverse der Beobachtungszeit. Diese Beziehungen sind in Abbildung 5.31 verdeutlicht. Bei der ganzen Betrachtung der Auflösung im Zeit- und Frequenzbereich muss natürlich beachtet werden, dass bei einer Abtastung mit der Abtastfrequenz fA nur Frequenzen im Nyquistband [−fN , fN ] mit fN = f2A betrachtet werden können. Beispiel 5.94 (Auflösung im Zeit- und Frequenzbereich) Ein Signal y(t) besitze Spektralanteile im Frequenzbereich 2 . . . 20 Hz. Nach der Abtastung des Signals und der Bestimmung des Spektrums mit Hilfe der diskreten Fourier-Transformation, DFT, soll die Frequenzauflösung mindestens eine Feinheit von ∆fWunsch = 0,1 Hz besitzen. Aufgrund des Spektrums Y (f ) ist zur Einhaltung des Abtasttheorems eine Abtastfrequenz fA > 40 Hz
t
tA
f
∆f = 1/(N tA ) N tA
fA
Abbildung 5.31: Beziehungen zwischen Abtastzeit und Beobachtungszeit
260
5 Zeitdiskrete Signale
zu wählen. Die Beobachtungszeit muss größer oder gleich der Inversen der Frequenzauflösung sein: T0 ≥
1 ∆fWunsch
= 10 sec .
Wählt man die Abtastfrequenz fA = 50 Hz, so folgt für die Anzahl der Abtastwerte
N=
T0 = T0 · fA ≥ 500 tA
eine untere Schranke. Wählt man hier N = 512, so kann statt der DFT die FFT benutzt werden. • Anhand des Beispiels erkennt man eine Vorgehensweise, die sich in zwei Schritte gliedert:
1. Die Abtastzeit tA bzw. die Abtastfrequenz fA legt die Auflösung im Zeitbereich fest. Diese ist unter Betrachtung des Spektrums Y (f ) des abzutastenden Signals y(t) zu wählen.
2. Die Anzahl N der Abtastwerte legt zusammen mit der Abtastfrequenz fA die Beobachtungszeit und damit die Frequenzauflösung ∆f fest. Dabei bewirkt eine höhere Anzahl von Abtastwerten eine größere Beobachtungszeit und somit eine feinere Frequenzauflösung.
5.5.5
DFT einer komplexen Schwingung ohne Leckeffekt
Betrachtet man Abtastwerte einer komplexen Schwingung yn = ej2πf0 ntA
(5.95)
der Frequenz f0 , wobei zunächst offen sein soll, in welchem Verhältnis die Schwingfrequenz f0 und die Abtastfrequenz fA zueinander stehen, so lautet die DFT unter Verwendung von N Werten:
5.5 Spektralanalyse
Yk =
N −1
261 yn e−j2π N = kn
n=0
N −1
n ej2π(f0 tA N − k) N
, k = 0, . . . , N − 1 .
n=0
(5.96) Über die Summenformel für die endliche geometrische Reihe mit α = 2πl , l ∈ Z, N N N ejα 2 e−jα 2 − ejα 2 1 − ejαN jαn = e = 1 · 1 1 1 − ejα n=0 ejα 2 e−jα 2 − ejα 2 (N −1) sin(α N ) 2 = ejα 2 · sin(α 12 )
N −1
ergibt sich aus (5.96) mit α = 2π f0 tANN −k = 2πl , l ∈ Z : N −1 sin(π(f0 tA N − k)) Yk = ejπ(f0 tA N − k) N · π sin( N (f0 tA N − k))
, k = 0, . . . , N − 1 . (5.97)
Die so gewonnene Spektralfolge Yk wird zunächst für den Fall untersucht, dass das Verhältnis von Schwingfrequenz f0 und Frequenzauflösung ∆f ganzzahlig ist. f0 = f0 tA N = l ∆f
⇐⇒
f0 =
l = l · ∆f N tA
,l ∈ N
(5.98)
Die Schwingfrequenz f0 passt genau in das diskrete Raster der Beobachtungsfrequenz ∆f . Dann folgt aus (5.97) Yk = ejπ(l − k)
N −1 N
·
sin(π(l − k)) . π (l − k)) sin( N
(5.99)
Der Zähler des Bruchs verschwindet für alle Werte von k, während der Nenner im Intervall 0 ≤ k ≤ N − 1 mit der Ausnahme k = l von Null verschieden ist. Mit der Methode von l’Hospital erhält man den Funktionswert an der Stelle k = l. lim
α→0
sin(α) cos(α) lim 1 α = α→0 α =N sin( N ) N cos( N )
(5.100)
Damit ergibt sich wegen sin (π (l − k)) für k = l aus (5.99) die Spektralfolge der komplexen Schwingung. Yk = N · δ(k − l)
0 ≤ k, l ≤ N − 1
(5.101)
Abbildung 5.32 zeigt ein Beispiel, bei dem die Schwingfrequenz f0 ein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Trotz des begrenzten Beobachtungsfensters von N Abtastwerten im Zeitbereich tritt kein Leckeffekt auf. Dies liegt daran, dass das Signal aufgrund der Abtastung im Frequenzbereich im Zeitbereich periodisch wiederholt wird. Wenn die Schwingfrequenz f0 genau in das diskrete Raster der Beobachtungsfrequenz ∆f passt, entsteht aufgrund der periodischen Fortsetzung kein Fehler durch das endliche Beobachtungsfenster. Es tritt kein Informationsverlust auf.
262
5 Zeitdiskrete Signale Re{yn } N-1 n
Yk
Abbildung 5.32: Spektralanalyse einer komplexen Schwingung mit Hilfe einer 16Punkte DFT und einem Frequenzverhältnis 5 von ffA0 = 16 , d.h. l = 5, N = 16
N
l=5
5.5.6
k
N-1
DFT einer komplexen Schwingung mit Leckeffekt
Andere Resultate ergeben sich, wenn die Bedingung (5.98) nicht erfüllt ist, d.h. wenn die Schwingfrequenz f0 kein ganzzahliges Vielfaches der Frequenzauflösung ∆f ist. Dann ist f0 tA N = l + a
,l ∈ N
, −0,5 < a ≤ 0,5.
(5.102)
Die Schwingfrequenz f0 liegt nicht mehr im diskreten Raster der Beobachtungsfrequenz ∆f . Für die DFT der komplexen Schwingung ergibt sich dann: Yk = ejπ(l − k + a)
N −1 N
·
sin(π(l − k + a)) π sin( N (l − k + a))
, k = 0, . . . , N − 1 .
(5.103)
Abbildung 5.33 zeigt die hieraus errechneten Spektralfolgen für verschiedene Werte a. Zur Veranschaulichung sind jeweils die kontinuierlichen Hüllkurven angedeutet. Für a = 0 wird diese Hüllkurve einmal im Maximum und sonst in den äquidistanten Nullstellen abgetastet. Das Ergebnis ist die im letzten Abschnitt diskutierte ideale Spektralanalyse, welche nicht durch den Leckeffekt beeinflusst ist. In den beiden anderen Fällen hingegen liegen die Nulldurchgänge der Hüllkurve zwischen den diskreten Frequenzpunkten der DFT. Daraus enstehen folgende Fehler: Zum einen wird die Hüllkurve nicht mehr in ihrem Maximum abgetastet, so dass sich zwei Hauptlinien ergeben, deren Beträge gegenüber N reduziert sind. Darüber hinaus entstehen an sämtlichen DFT-Rasterpunkten fehlerhafte Anteile, d.h. die Hauptspektrallinie „leckt“ durch alle Rasterpunkte hindurch. Aus diesem Grunde wird der beschriebene Fehler in Anlehnung an die englische Bezeichnung leakage auch als Leckeffekt bezeichnet. Der Leckeffekt lässt sich auch anschaulich im Zeitbereich erklären. Als Beispiel betrachtet man den in Abbildung 5.34 dargestellten Realteil einer komplexen Schwingung. In diesem Fall beträgt die Schwingfrequenz ein Zwölftel der Abtastfrequenz 1 1 , f0 = fA , 12 12 woraus sich bei einer DFT-Länge von N = 16 wegen f0 tA =
∆f =
1 fA = fA N 16
5.5 Spektralanalyse
263
|Y |, a=0
15
k
10 5 0
0
5
10
15
10
15
10
15
k
|Y |, a=0.25
15
k
10 5 0
0
5 k
10
k
|Y |, a=0.5
15
5 0
0
5 k
Abbildung 5.33: Verdeutlichung des Leckeffekts anhand einer 16-Punkte DFT einer komplexen Schwingung Re{yn}
N
n
Periode Beobachtungsintervall
Abbildung 5.34: Erläuterung des Leckeffekts im Zeitbereich
aufgrund obiger Überlegungen ein Leckeffekt mit f0 tA N =
f0 fA 16 1 · = =1+ , fA ∆f 12 3
(5.104)
d.h. a=
1 , 3
(5.105)
264
5 Zeitdiskrete Signale
ergibt. Die um 12 Abtastwerte periodische Wertefolge yn führt bei periodischer Wiederholung nach 16 Abtastwerten (außerhalb des Beobachtungsintervalls) zu einer unstetigen Fortsetzung. Die Fourier-Analyse der fortgesetzten Funktion liefert Spektrallinien an den Vielfachen der Grundfrequenz ∆f =
fA 1 1 , = = N tA 16tA 16
(5.106)
also an den diskreten Frequenzpunkten der DFT, was auf den Leckeffekt führt. Das von der Periode der Schwingung abweichende Beobachtungsintervall verfälscht bei der Multiplikation mit dem Beobachtungsfenster und der nachfolgenden periodischen Fortsetzung die Schwingung. Es stellt sich hier die Frage, wie groß der Fehler der DFT bei Auftreten des Leckeffekts werden kann. Hierzu werden zwei Fehleraspekte untersucht. 1. Das Maximum der DFT liegt bei der Frequenz l·∆f , es müsste aber bei (l+a)·∆f liegen. Da |a| ≤ 0,5 ist, ist der maximale Frequenzfehler die halbe Frequenzauflösung, Fmax {f } =
1 ∆f fA = . = 2 2N tA 2N
(5.107)
2. Der relative Fehler des Betrags der Amplitude des maximalen DFT-Wertes ist durch sin(πa) a − N sin(π N ) |Yl | − N F {Y } = = (5.108) N N gegeben. Der maximale Fehler liegt ohne Beweis bei a = 0,5: Fmax {Y } = F {Y }|a=0,5 = Mit N
π 2
1 π sin( 2N )
−N
N
.
(5.109)
folgt hieraus Fmax {Y } =
2N π
−N 2 = − 1 ≈ −0,36. N π
(5.110)
Will man die Genauigkeit der DFT bei Auftreten des Leckeffekts erhöhen, so kann man durch Erhöhen der Anzahl N der Abtastwerte yn den Frequenzfehler verkleinern. Der maximale relative Amplitudenfehler bleibt unter der Voraussetzung, dass a sich nicht ändert, konstant. Er beträgt weiterhin maximal etwa 36 %. Für den Fall a = 0,5 wird das Verhältnis zwischen den Amplituden des Haupt- und des ersten Nebenzipfels + 1)) sin(π(aa+1 Yl+1 sin(π N ) sin(π Na ) = = mit sin(π(a+1)) = − sin(πa) Yl sin(πa) sin(π a+1 ) N a sin(π ) N
5.5 Spektralanalyse
265
für N a abgeschätzt: Yl+1 π Na a 1 = = Yl π a+1 a + 1 ≤ 3 N
, 0 ≤ a ≤ 0,5 .
(5.111)
Bei einigen Signalen kann man durch geschickte Auswahl der Abtastzeit tA erreichen, dass f0 tA N ∈ N
(5.112)
gilt. Dann tritt kein Leckeffekt auf. Dies ist aber nicht bei allen Signalen möglich, da normalerweise ein Signal nicht nur aus einer einzigen komplexen Schwingung besteht, sondern aus Überlagerung verschiedener Schwingungen. Bei den zeitdiskreten Systemen werden in Abschnitt 6.7 Möglichkeiten untersucht, mittels derer die Spektralfehler des Leckeffekts mit Hilfe von Fensterfunktionen reduziert werden können.
5.5.7
Zeropadding
Bei einer Vergrößerung des Beobachtungsintervalls T0 , z.B. durch eine größere Anzahl N von Abtastwerten, wird der Frequenzfehler des Spektrums verringert. Dazu müsste man die zusätzlichen Abtastwerte zuvor messen. Liegen diese aber nicht vor, oder besteht keine Möglichkeit sie nachträglich zu messen, so müssen andere Werte willkürlich hinzugefügt werden. Bei künstlichem Verlängern der Wertefolge yn durch Einfügen von M Nullen entstehen die Abtastwerte yn , 0 ≤ n ≤ N − 1 , yn = (5.113) 0 ,N ≤ n ≤ N + M − 1. Dies wird als Zeropadding bezeichnet. Der Einfluss von Zeropadding auf das Spektrum ergibt sich durch Berechnung der diskreten Fourier-Transformation Yk von yn : Yk
N +M −1
−j2π Nkn +M yn e
=
n=0
=
N −1
yn e
−j2π Nkn +M
, k = 0, . . . , N +M −1 .
n=0
Durch die Erhöhung der Beobachtungszeit T0 erhält man eine feinere Frequenzauflösung ∆f . Die Abtastfrequenz fA wurde dabei nicht verändert, d.h. die beiden Spektren Yk und Yk erstrecken sich über das gleiche Nyquistband. Um die beiden Spektren Yk und Yk unterschiedlicher Auflösung vergleichen zu können, transformiert man den Index von Yk durch k = k ·
N . N +M
Der neue Frequenzindex k ist damit eine reelle Zahl und es folgt Yk =
N −1 n=0
yn e−j2π
k n N
= Yk .
266
5 Zeitdiskrete Signale
Die Spektren Yk und Yk sind identisch. Sie werden nur an unterschiedlichen Stellen abgetastet. Yk hat M Abtastwerte mehr als Yk . Die Einhüllende ist aber bei beiden Spektren gleich, denn ein Anfügen von Nullen stellt keinen Informationsgewinn dar. Hebt man die Beschränkung auf endlich viele yn auf, d.h. betrachtet man nicht nur N sondern unendlich viele Werte, so ist das Spektrum wegen der Zeitbegrenzung mit einem rechteckigen Fenster die Faltung des Spektrums der zeitlich unbeschränkten Abtastwerte mit einer dem Rechteckfenster entsprechenden sin(x) x -Funktion. Durch Anfügen der Nullen an die anzahlmäßig beschränkte Folge wird diese der anzahlmäßig unbeschränkten Folge besser angenähert, d.h. die sin(x) x -Funktion wird genauer dargestellt. Dies kann man in Abbildung 5.33 erkennen, in dem die Einhüllenden durch Zeropadding erzeugt wurden. An die 16 Abtastwerte wurden 240 Nullen angefügt, d.h. die 256 Abtastwerte erzeugen ein Spektrum Yk , das das eigentliche Spektrum Y∗ (f ) viel besser annähern kann. Vorteilhaft ist das Verfahren des Zeropadding immer dann, wenn man z.B. die Lage lokaler Maxima des Spektrums genauer bestimmen will.
Beispiel 5.114 (Zeropadding) In diesem Beispiel wird der Effekt des Zeropadding anhand einer Schwingung verdeutlicht. In Abbildung 5.35 ist in der oberen Hälfte eine Schwingung bestehend aus 16 Abtastwerten und deren diskrete Fourier-Transformierte dargestellt. In der un-
1
15
0.5
k
|Y |
yn
10 0
5
−0.5
−1
0
5
10
0
15
0
5
n
10
15
20
30
k
1
15
0.5
k’
|Y |
yn’
10 0
5 −0.5
−1
0
10
20 n’
30
0
0
10 k’
Abbildung 5.35: Beispiel zur Anwendung des Zeropaddings
5.6 Weitere diskrete Transformationen
267
teren Bildhälfte wurde die Zeitfunktion durch Hinzufügen von Nullen auf 32 Werte erweitert und anschließend der DFT unterzogen. •
5.5.8
Periodogramm
Entsprechend dem Energiedichtespektrum bei zeitkontinuierlichen bzw. zeitdiskreten Signalen stellt das Periodogramm den Energieanteil der diskreten Frequenzen bei anzahlmäßig beschränkten Folgen dar: Sk =
1 Yk · Yk∗ N
, k = 0, . . . , N − 1 .
(5.115)
In der Anwendung wird zur besseren Bestimmung des Periodogramms meist über mehrere Spektren gemittelt. Dadurch werden die zufälligen Fehler herausgefiltert, sofern diese als mittelwertfrei bekannt sind.
5.6
Weitere diskrete Transformationen
Für die bis jetzt benutzten Transformationen wurde das zugrunde liegende orthonormale Funktionensystem immer aus komplexen Exponentialfunktionen aufgebaut. Diese Exponential-Funktionen haben aber den Nachteil, dass sie sich schlecht auf einem Digitalrechner berechnen lassen. Von Vorteil wären orthonormale Funktionensysteme, die durch geeignete Definition den Rechenaufwand wesentlich reduzieren.
5.6.1
Walsh-Transformation
Ein orthonormales Funktionensystem, bei dem nur zwei binäre reelle Funktionswerte auftreten, sind die Walshfunktionen. Zu deren Definition teilt man das Zeitintervall [0, 1] in 2n Teilintervalle gleicher Länge, die mit i = 0, . . . , 2n − 1 indiziert sind. Die Teilintervallnummer lässt sich als Binärzahl schreiben: (i)10 = (in , . . . , i1 )2 .
(5.116)
Ebenso stellt man auch eine „verallgemeinerte Frequenz“ k als Binärzahl dar, die auf eine bestimmte Art die Nulldurchgänge der Walshfunktionen bestimmt und deren Bedeutung später veranschaulicht wird: (k)10 = (0, kn , kn−1 , . . . , k1 )2 . Dann definiert man den Begriff der Walshfunktion wie folgt:
(5.117)
268
5 Zeitdiskrete Signale
Definition 5.118 (Walshfunktionen) Die Walshfunktionen in der sequenziellen Anordnung walw (k, t) werden im Intervall [0, 1] definiert und außerhalb dieses Intervalles periodisch fortgesetzt. Hierzu setzt man für ti ≤ t < ti+1 , d.h. im i-ten Teilintervall, n
(kl ⊕ kl+1 )in−l+1
walw (k, t) = (−1)l=1
.
(5.119)
Sie nehmen nur Funktionswerte aus {+1, −1} an und (walw (k, t))k bildet ein orthonormales Funktionensystem in L2 ([0, 1]), d.h. es gilt
1 walw (i, t) walw (j, t) dt = δij .
(5.120)
0
Mit Hilfe dieses Orthonormalsystems approximiert man die Funktion y(t) und erhält Koeffizienten Y0 , . . . , YN −1 , die in Analogie zur Fourier-Reihe als Spektralanteile der Funktion interpretiert werden können. Bemerkung 5.121 Durch einen zusätzlichen Index wird die unterschiedliche Darstellung verschiedener Systeme von Walshfunktionen angegeben. Verschiedene Indizes deuten darauf hin, dass bei gleicher Ordnung k die Reihenfolge der Walshfunktionen unterschiedlich ist. So repräsentiert ein tiefgestellter Index w die sequenzielle Reihenfolge, wie sie in • Abbildung 5.36(links) dargestellt ist. Dabei zeigen die Walshfunktionen, wie in Abbildung 5.36 erkennbar, eine unmittelbare Analogie zu den Fourier-Funktionen. Die „verallgemeinerte Frequenz“ k lässt sich als Zahl der Nulldurchgänge im Zeitbereich 0 < t < 1 ansehen und wird als „zerocrossing per second, zps“ bezeichnet. 1. Neben der sequenziellen Anordnung gibt es auch Walshfunktionen in der natürlichen Anordnung waln (k, t). Diese sind zwar einfacher zu berechnen, doch es fehlt ihnen die direkte Analogie zu den Fourier-Funktionen in Abbildung 5.36. 2. Die geraden und ungeraden Walshfunktionen können entsprechend der Sinus- und Cosinusfunktion aufgeteilt werden in calw (sk , t) = walw (k, t) , k = 0, 2, 4, . . . , sk = k/2 salw (sk , t) = walw (k, t) , k = 1, 3, 5, . . . , sk = (k + 1)/2. 3. Das Walshleistungsspektrum Sk wird entsprechend dem Periodogramm der diskreten Fourier-Transformation berechnet, 1 Sk = Yk · Yk∗ , k = 0, . . . , N − 1 . (5.122) N Es handelt sich um ein Punktspektrum.
5.6 Weitere diskrete Transformationen
269
1 0 −1
wal (0,t) w
1 0 −1
1 0 −1
walw(1,t)
1 0 −1
1 0 −1
wal (2,t) w
1 0 −1
1 0 −1
wal (3,t) w
1 0 −1
1 0 −1
wal (4,t) w
1 0 −1
1 0 −1
walw(5,t)
1 0 −1
1 0 −1
walw(6,t)
1 0 −1
1 0 −1
wal (7,t) w
1 0 −1
0
1/8 1/4 3/8 1/2 5/8 3/4 7/8
1
0
1/8 1/4 3/8 1/2 5/8 3/4 7/8
1
Abbildung 5.36: Analogie zwischen den Walsh- und den Fourier-Funktionen
4. Der große Vorteil der Walsh-Transformation liegt in der einfachen Berechnung, was sich insbesondere bei einer großen Zahl von Teilintervallen, z.B. bei Anwendungen in der Bildverarbeitung, als nützlich erweist. Eine Filterung im Frequenzbereich ist aber nicht in der Art möglich, wie dies bei der Fourier-Transformation der Fall ist. Die Faltung im Zeitbereich ist nicht gleich der Multiplikation im Frequenzbereich. Die Walsh-Transformation ist deshalb auf die Berechnung und die Analyse von Spektren beschränkt. Durch die nicht-äquidistanten Nulldurchgänge und die abschnittsweise konstanten Funktionswerte enthält das Walshspektrum zusätzliche Störanteile. Die meisten Anwendungen werden dadurch aber nur wenig beeinträchtigt. Im folgenden Beispiel wird die Anwendung der Walsh-Transformation zur Analyse von Signalen demonstriert.
Beispiel 5.123 (Anwendung der Walsh-Transformation) Das folgende Beispiel verwendet sowohl die DFT als auch die Walsh-Transformation zur Analyse eines Signals. Es werden hierzu N = 256 Abtastwerte betrachtet. Zur Analyse verwenden wir ein Signal, welches aus zwei Schwingungen der Frequenz 17 Hz und 40 Hz mit den Amplituden 1 bzw. 12 aufgebaut ist, d.h. y(t) = sin(2π17 Hz · t) +
1 sin(2π40 Hz · t) 2
270
5 Zeitdiskrete Signale
1.5 1
y(t) ; yn
0.5 0
−0.5 −1 −1.5 0
0.2
0.4
0.6
0.8
Abbildung 5.37: Signal zum Vergleich der DFT und der Walsh-Transformation
1
t;n
bzw. yn = sin(2π17 Hz · ntA ) +
1 sin(2π40 Hz · ntA ). 2
Dieses Signal ist in Abbildung 5.37 dargestellt. Die Analyse des Signals mit der DFT bzw. der Walsh-Transformation ergibt die Frequenzanteile |Yk | für die DFT bzw. |Wk | für die Walsh-Transformation. Beide Spektren sind in der Abbildung 5.38 dargestellt.
15000
10000
10000
|Wk|
2
15000
k
|Y |
2
Man erkennt, dass die Walsh-Transformation das Fourier-Spektrum in diesem Fall gut annähert. Im Vergleich zur Anwendung der Fourier-Funktionen ist die Rechnung mit Walsh-Funktionen deutlich weniger rechenintensiv. Jedoch muss gesagt werden, dass die Approximation nicht immer so gute Übereinstimmungen liefert, wie dies in Abbildung 5.38 der Fall ist. Deutlich sind jedoch auch hier Abweichungen und fälschlich detektierte Spektralanteile zu erkennen. •
5000
0
5000
0
50
100 k
0
0
50
100 k
Abbildung 5.38: Spektren des Signals bei Anwendung der DFT und der Walsh-Transformation
5.6 Weitere diskrete Transformationen
5.6.2
271
Allgemeine diskrete Transformation
Ausgehend von der diskreten Fourier-Transformation wird eine allgemeine diskrete Transformation definiert. Definition 5.124 (Allgemeine diskrete Transformation) −1 Mit einem orthonormalen Funktionensystem {fn (k)}N n=0 wird die allgemeine diskrete Transformation durch N −1
Y (k) =
y(n)fn (k) , k = 0, . . . , N − 1
(5.125)
n=0
definiert. Mit der Transformationsmatrix f0 (0) f1 (0) . . . f0 (1) f1 (1) . . . F = .. .. .. . . .
fN −1 (0) fN −1 (1) .. .
(5.126)
f0 (N − 1) f1 (N − 1) . . . fN −1 (N − 1)
lässt sich die allgemeine diskrete Transformation in Matrix-Vektorschreibweise formulieren: Y = Fy
,
y = F −1 Y .
(5.127)
Für die diskrete Fourier-Transformation, DFT, gilt dabei beispielsweise kn fn (k) = e−j2π N .
(5.128)
Wählt man stattdessen
' n( , (5.129) fn (k) = walw k, N so erhält man die Walsh-Transformation. Dann bezeichnet man obige Transformationsmatrix F als Hadamard-Matrix H : 1 1 ... 1 1 1 0 . . . walw N − 1, N H = .. (5.130) .. .. . . . . . N −1 . 1 walw 1, N . . . walw N − 1, NN−1 Die Inverse der Hadamard-Matrix 1 H −1 = H (5.131) N lässt sich einfach berechnen. Dadurch kann der Rechenaufwand bei der Walsh-Transformation auf das Multiplizieren mit ±1 und die Addition beschränkt werden.
6
Zeitdiskrete Systeme
In Kapitel 4 wurden zeitkontinuierliche Systeme als eine Einrichtung behandelt, die auf ein zeitkontinuierliches Eingangssignal ye (t) mit einem zeitkontinuierlichen Ausgangssignal ya (t) antwortet. Zeitdiskrete Systeme werden durch eine Eingangsfolge angeregt, die als Funktion ye : N → R bzw. ye : Z → R aufgefasst werden kann, wobei ye,n = ye (n) = ye (ntA ) den n-ten abgetasteten Wert bezeichnet. Als Ausgangssignal entsteht eine Ausgangsfolge ya : N → R bzw. ya : Z → R, deren n-ter Wert ebenfalls mit ya,n = ya (n) bezeichnet wird. In diesem Kapitel werden zuerst die allgemeinen Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. Auf Besonderheiten der Zeitdiskretisierung wird explizit eingegangen und elementare Blöcke werden eingeführt. Anschließend wird die mathematische Beschreibung mittels Differenzengleichungen bzw. mit Hilfe der z-Transformation dargestellt. Nach der zeitdiskreten Darstellung zeitkontinuierlicher Systeme behandelt das Kapitel die frequenzselektiven Filter und die Filterung mit Fensterfunktionen, wie sie schon bei den zeitkontinuierlichen Systemen beschrieben wurden. Schließlich werden die in diesem Buch eingeführten Begriffe und Definitionen anhand praktischer Beispiele veranschaulicht.
6.1
Eigenschaften
Wie bereits erwähnt, behandelt dieses Kapitel das Verhalten zeitdiskreter Systeme, also Beziehungen von Folgen. Betrachtet werden somit stets diskrete Funktionen y, ye , ya : N → R bzw. y, ye , ya : Z → R, die aus einem kontinuierlichen Signal durch Abtasten entstehen. Bei den Bezeichnungen werden wir die folgenden Konventionen benutzen: Sowohl die gesamte Folge als auch ein einzelner Wert des Signals werden mit yn = y(n) kenntlich gemacht. Unter Beachtung der Tatsache, dass zeitdiskrete Systeme stets Folgen auf Folgen abbilden, sind durch diese Bezeichnungsweise keine Missverständnisse zu befürchten. (Man betrachte die Analogie zum zeitkontinuierlichen Fall, in welchem durch y(t) sowohl die gesamte Funktion als auch der Funktionswert an einer bestimmten Stelle t bezeichnet wird.) Im folgenden Abschnitt sei stets ye,n = ye (n) , ya,n = ya (n) , ye , ya : Z → R vorausgesetzt. Mit der zeitdiskreten Operatorgleichung ya,n = S{ye,n }
(6.1)
274
6 Zeitdiskrete Systeme
lassen sich alle Eigenschaften zeitkontinuierlicher Systeme auf zeitdiskrete Systeme übertragen. Bemerkung 6.2 Gleichung (6.1) ist nach obigen Bemerkungen keineswegs so zu verstehen, dass die n-te Komponente des Ausgangssignals sich durch einen Operator aus der n-ten Komponente des Eingangssignals ergibt, sondern stellt nach obigen Voraussetzungen eine • Beziehung zwischen Zahlenfolgen her. Definition 6.3 (Zeitdiskretes System) Ein zeitdiskretes System S ist ein System mit der Operatorgleichung (6.1), dessen Eingangssignal ye,n und Ausgangssignal ya,n zeitdiskrete Signale, d.h. Wertefolgen, sind. Die Eigenschaften der Linearität, Zeitinvarianz, Kausalität, Dynamik und Stabilität lassen sich einfach auf zeitdiskrete Systeme übertragen. Definition 6.4 (Linearität) Ein zeitdiskretes System S heißt linear, wenn für zwei beliebige Eingangssignale ye1,n und ye2,n und zwei beliebige Konstanten c1 , c2 ∈ R S{c1 ye1,n + c2 ye2,n } = c1 S{ye1,n } + c2 S{ye2,n }
(6.5)
gilt. Der Linearitätsbegriff lässt sich auf N Eingangssignale +N 8 N S ci yei,n = ci S{yei,n } i=1
und sogar auf unendlich viele Eingangssignale 8 + ∞ ∞ S ci yei,n = ci S{yei,n } i=−∞
(6.6)
i=1
(6.7)
i=−∞
erweitern, wobei Gleichung (6.7) wieder die Stetigkeit des Systems impliziert, vgl. Bemerkung 4.7.
6.1 Eigenschaften
275
Definition 6.8 (Zeitinvarianz) Ein zeitdiskretes System S heißt zeitinvariant, wenn es auf ein zeitlich verschobenes Eingangssignal ye,n−n0 mit dem entsprechend zeitlich verschobenen Ausgangssignal ya,n−n0 antwortet: ya,n = S{ye,n }
=⇒
ya,n−n0 = S{ye,n−n0 } .
(6.9)
Zeitdiskrete Systeme, die (6.9) nicht genügen, heißen zeitvariant.
Definition 6.10 (Kausalität) Ein zeitdiskretes System S heißt kausal, wenn die Antwort nur von gegenwärtigen oder vergangenen, nicht jedoch von zukünftigen Werten des Eingangssignals abhängt. Dies bedeutet, dass für ein System S aus ye1,n = ye2,n
für n ≤ n1
(6.11)
und ya1,n = S{ye1,n } , ya2,n = S{ye2,n }
(6.12)
stets ya1,n = ya2,n
für n ≤ n1
(6.13)
folgt.
Die beiden Signale ye1,n und ye2,n sind für n ≤ n1 identisch. An Abtastzeitpunkten n > n1 können sie sich unterscheiden. Gehen jedoch bei einem System zukünftige Werte in die Berechnung des Ausgangswertes ya,n ein, so können sich bei einem nichtkausalen System die beiden Ausgangswerte ya1,n und ya2,n unterscheiden.
Definition 6.14 (Dynamik) Ein zeitdiskretes System S heißt dynamisch, wenn die Antwort ya,n des Systems nicht nur vom augenblicklichen Wert des Eingangssignals ye,n , sondern auch von den vergangenen, bei nichtkausalen Systemen auch von zukünftigen Werten abhängt. Die Antwort ya,n eines nichtdynamischen Systems hängt damit nur von dem augenblicklichen Wert des Eingangssignals ye,n ab. Man sagt auch, ein dynamisches System hat ein Gedächtnis der Dauer N , wenn die Antwort ya,n0 durch Werte der Erregung im Intervall {n0 − N, . . . , n0 } vollständig bestimmt ist. Ein nichtdynamisches System hat demnach ein Gedächtnis der Dauer null.
276
6 Zeitdiskrete Systeme
Definition 6.15 (Stabilität) Ein zeitdiskretes System S heißt stabil, wenn jedes beschränkte, zulässige zeitdiskrete Eingangssignal ye,n ein ebenfalls beschränktes Ausgangssignal ya,n zur Folge hat, d.h., wenn aus der Bedingung es ex. m > 0 mit |ye,n | < m < ∞
für alle n ∈ Z
die Aussage es ex. M > 0 mit |ya,n | < M < ∞
für alle n ∈ Z
folgt. Man spricht hier auch von BIBO-Stabilität, was von der englischen Bezeichnung bounded input – bounded output abgeleitet ist.
6.1.1
Lineare zeitinvariante Systeme, LTI-Systeme
Auch bei zeitdiskreten Systemen sind die linearen zeitinvarianten Systeme, LTI-Systeme, von großem Interesse. Doch hierzu ist zuerst der zeitdiskrete Dirac-Impuls, d.h. das zeitdiskrete Pendant zu (3.153), zu definieren.
Definition 6.16 (Zeitdiskreter Dirac-Impuls) Der zeitdiskrete Dirac-Impuls wird durch 1 ,n = 0 δn = 0 , n = 0
(6.17)
definiert. Entsprechend (3.153) erhält man den Wert einer Folge zum diskreten Zeitpunkt n0 als Faltung der Folge mit dem Dirac-Impuls im Zeitpunkt n0 : yn0 =
∞
yn δn0 −n = yn ∗ δn |n=n0 .
(6.18)
n=−∞
Nun kann die zeitdiskrete Impulsantwort eingeführt werden.
Definition 6.19 (Impulsantwort) Die Antwort eines zeitdiskreten Systems S auf den Impuls δn als Eingangssignal gn = S{δn } nennt man Impulsantwort gn des zeitdiskreten Systems.
(6.20)
6.1 Eigenschaften
277
Mit (6.18) lässt sich ein Eingangssignal ye,n als Faltungssumme ye,n =
∞
ye,i δn−i
i=−∞
darstellen. Benutzt man das Signal ye,n als Eingangssignal eines (stetigen) LTI-Systems S, so erhält man das Ausgangssignal als Faltung des Eingangssignals ye,n mit der Impulsantwort gn des Systems S, 8 + ∞ ∞ ye,i δn−i = ye,i S{δn−i } ya,n = S{ye,n } = S i=−∞
=
∞
i=−∞
ye,i gn−i = ye,n ∗ gn ,
i=−∞
wobei die Faltung zweier Zahlenfolgen xn , yn durch xn ∗ yn =
∞
xn−k yk =
k=−∞
∞
xk yn−k
(6.21)
k=−∞
definiert ist. Dies bedeutet, dass zeitdiskrete LTI-Systeme vollständig durch ihre Impulsantwort charakterisiert sind. Satz 6.22 (Impulsantwort) Die Impulsantwort gn = S{δn } eines zeitdiskreten LTI-Systems S charakterisiert das System vollständig. Die Antwort ya,n bei gegebenem Eingangssignal ye,n berechnet sich aus der Faltung des Eingangssignals mit der Impulsantwort: ya,n = ye,n ∗ gn .
(6.23) •
Zeitdiskrete Systeme können demzufolge mittels ihrer Impulsantwort charakterisiert werden. Die Unterscheidung im Hinblick auf die Dauer der Impulsantwort liefert die Definition: Definition 6.24 (FIR- und IIR-Systeme) Zeitdiskrete Systeme S, deren Impulsantwort eine endliche Länge besitzt, werden als FIR-Systeme, finite impulse response, bezeichnet. Systeme mit unendlich langer Impulsantwort heißen IIR-Systeme, infinite impulse response. Entsprechend den Untersuchungen zeitkontinuierlicher Systeme ergeben sich mit analogen Beweisen Aussagen für Kausalität und Stabilität von zeitdiskreten LTI-Systemen, die den bei zeitkontinuierlichen LTI-Systemen gemachten Aussagen entsprechen.
278
6 Zeitdiskrete Systeme
Satz 6.25 (Kausalität) Ein zeitdiskretes LTI-System S ist genau dann kausal, wenn die Impulsantwort gn für negative Indizes verschwindet, d.h. wenn gn = 0 für n < 0
(6.26) •
gilt.
Satz 6.27 (Stabilität) Ein zeitdiskretes LTI-System ist genau dann stabil, wenn die Impulsantwort gn die Bedingung ∞
|gn | < ∞
(6.28)
n=−∞
•
erfüllt.
Abschließend soll untersucht werden, wie ein zeitdiskretes LTI-System S auf eine komplexe harmonische Schwingung der Frequenz f0 ye,n = A · ej2πf0 ntA reagiert. Die Antwort ergibt sich als Faltung zwischen der Impulsantwort gn und dem Eingangssignal ye,n .
ya,n =
∞
ye,i gn−i =
i=−∞
= A · ej2πf0 ntA
∞
A · ej2πf0 itA · gn−i
i=−∞ ∞
gn−i · e−j2πf0 (n − i)tA
i=−∞
= ye,n · G∗ (f0 ) Satz 6.29 (Frequenzgang) Ein zeitdiskretes LTI-System S, das mit einer komplexen harmonischen Schwingung ye,n = A · ej2πf0 ntA angeregt wird, antwortet mit einem Ausgangssignal derselben Frequenz f0 . Der Proportionalitätsfaktor zwischen Ein- und Ausgangssignal ist die Fourier-Transformierte G∗ (f ) der zeitdiskreten Impulsantwort gn bei der Frequenz f0 . Man nennt die Fourier-Transformierte G∗ (f ) den Frequenzgang des zeitdiskreten Systems S. •
6.2 Beschreibung durch Differenzengleichungen
6.1.2
279
Mehrgrößensysteme
Bis jetzt wurde angenommen, dass die beschriebenen Systeme nur eine Eingangs- und eine Ausgangsgröße besitzen. Dies muss natürlich nicht so sein. Alle bisher beschriebenen Eigenschaften lassen sich auch auf so genannte Mehrgrößensysteme erweitern. Entsprechend der Anzahl der Eingangs- bzw. Ausgangsgrößen spricht man von SISO(Single Input – Single Output)- und MIMO-(Multiple Input – Multiple Output)-Systemen bzw. deren Mischsystemen SIMO und MISO. Bei Mehrgrößensystemen wird aus dem Eingangssignal ye,n der Eingangssignalvektor y e,n und aus dem Ausgangssignal ya,n der Ausgangssignalvektor y a,n . Das System wird weiterhin allgemein beschrieben durch die Operatorgleichung y a,n = S{y e,n }.
6.2
(6.30)
Beschreibung durch Differenzengleichungen
Der Zusammenhang zwischen den zeitkontinuierlichen Signalen eines technischen Systems wird meist durch Differenzialgleichungen beschrieben, in vielen Fällen, zumindest näherungsweise, durch lineare Differenzialgleichungen mit konstanten Koeffizienten. Bei Abtastregelungen, Impulssystemen der Nachrichtentechnik, aber auch bei mathematischen Modellen in den Wirtschaftswissenschaften liegen stattdessen zeitdiskrete Signale vor [Föl80]. Die Differenzialgleichungen basieren auf der i-ten Ableitung y (i) (t) eines Signals y(t). Ein Ableitungsbegriff existiert hingegen im zeitdiskreten Raum nicht. Man kann jedoch, wie in Abbildung 6.1 ersichtlich, die zeitkontinuierliche Ableitung z.B. durch eine einfache Differenzengleichung annähern: y(t) ˙ ≈
y(tn ) − y(tn−1 ) yn − yn−1 = tA tA
, t ∈ (tn−1 , tn ] .
(6.31)
Zentraler Baustein der Differenzengleichungen ist die zeitliche Verschiebung, d.h. es gehen nicht nur aktuelle Werte yn eines Signals, sondern auch vergangene Werte yn−i
,i > 0
y(t)
tn-1
tn
t
Abbildung 6.1: Annäherung der Ableitung eines Signals durch eine Differenzengleichung
280
6 Zeitdiskrete Systeme
bzw. bei nichtkausalen Systemen vergangene und zukünftige Werte yn+i
, i ∈ Z \ {0}
in die Differenzengleichung ein. Damit lässt sich in der allgemeinen Form der Ausgangswert ya,n eines zeitdiskreten Systems S zur Zeit n als Funktion der anderen Werte der Ausgangsfolge ya,n−i , i ∈ Z \ {0}, der Werte der Eingangsfolge ye,n , n ∈ Z, und des Zeitindex n darstellen. Bei kausalen Systemen werden nur Zeitverschiebungen vergangener Werte benutzt, d.h. man erhält ya,n = f (ya,n−1 , . . . , ye,n , ye,n−1 , . . . , n) .
(6.32)
Beispiel 6.33 (Differenzengleichung des RC-Tiefpass) Der in Beispiel 1.4 vorgestellte RC-Tiefpass besitzt die Differenzialgleichung RC · u˙ a (t) + ua (t) = ue (t). Mit (6.31) entsteht hier die Differenzengleichung ua,n − ua,n−1 RC · + ua,n = ue,n tA RC tA ue,n . ua,n−1 + ⇐⇒ ua,n = RC + tA RC + tA
•
Bei der Betrachtung zeitdiskreter LTI-Systeme geht die allgemeine Darstellung in eine lineare Differenzengleichung mit zeitunabhängigen Koeffizienten über: n2 ν=n1
aν ya,n−ν =
m2
bµ ye,n−µ .
(6.34)
µ=m1
Dabei charakterisieren die Koeffizienten aν und bµ das System. Die dabei vorkommenden Indexgrenzen n1 , n2 , m1 und m2 sagen etwas über die Kausalität und andere Eigenschaften des Systems aus. Man kann dabei ohne Einschränkung n1 ≤ n2 bzw. m1 ≤ m2 voraussetzen. Sind alle Indizes negativ oder gleich null, so handelt es sich um ein antikausales System. Sind alle Indizes positiv oder gleich null, so handelt es sich um ein kausales System. Ansonsten ist es ein akausales System. Neben der Darstellung eines zeitdiskreten Systems S als lineare Differenzengleichung nach (6.34) existiert noch die Darstellung im Zustandsraum, die hier kurz beschrieben wird.
6.2.1
Zustandsraum
Entsprechend den Überlegungen bei zeitkontinuierlichen Systemen werden für zeitdiskrete Systeme die allgemeine Zustandsraumdarstellung bzw. die Zustandsraumdarstellung für lineare, zeitinvariante Systeme ohne Herleitung angegeben.
6.2 Beschreibung durch Differenzengleichungen
281
Definition 6.35 (Zustandsraumdarstellung) Ein zeitdiskretes System S lässt sich mit seinen Eingangs- y e,n bzw. Ausgangssignalen y a,n und seinen inneren Zustandsgrößen z n durch z n+1 = f (z n , y e,n , n) y a,n = g(z n , y e,n , n)
(6.36)
im Zustandsraum beschreiben. Dabei bezeichnet man, analog zum zeitkontinuierlichen Fall, die erste Gleichung als Zustandsgleichung und die zweite Gleichung als Ausgangsgleichung.
Definition 6.37 (Zustandsraumdarstellung für zeitdiskrete LTI-Systeme) Zeitdiskrete LTI-Systeme lassen sich mit Hilfe der Zustandsraumdarstellung durch die Vektorgleichungen z n+1 = A z n + B y e,n y a,n = C z n + D y e,n
(6.38)
darstellen, wobei die auftretenden Matrizen wiederum mit Systemmatrix für die Matrix A, Steuermatrix für die Matrix B und Beobachtungsmatrix bzw. Durchschaltmatrix für C bzw. D bezeichnet werden.
Beispiel 6.39 (Zustandsraumdarstellung) Als Beispiel für eine Zustandsraumdarstellung betrachten wir ein System, dessen Struktur durch Abbildung 6.2 gegeben ist. Es handelt sich um eine gleitende Mittelwertbildung, die vergangene Werte mit unterschiedlichen Gewichten versieht. Aus der Zeichnung ist abzulesen: z2,n+1 = b2 ye,n
z1,n+1 = b1 ye,n + z2,n + a1 ya,n
ya,n = z1,n + b0 ye,n
Einsetzen der Gleichungen ineinander ergibt:
z1,n+1 z2,n+1
ya,n
A
B
a1 1 b1 + a1 b0 z1,n = + ye,n 0 0 z2,n b2 z1,n + (b0 ) ye,n = (1, 0) z2,n C
D
•
282
6 Zeitdiskrete Systeme ya,n
ye,n
b0 z 1,n z
-1 z 1,n+1
b1
a1
z 2,n z
-1 z 2,n+1
b2
ya,n = a1 ya,n-1+ b0 ye,n + b1 ye,n-1+ b2 ye,n-2 Abbildung 6.2: Zeitdiskretes Beispielsystem
6.3
Die z-Transformation
Zur Beschreibung zeitkontinuierlicher Signale und Systeme benutzt man die FourierTransformation und die Laplace-Transformation. Jedoch wird in Digitalrechnern mit diskreten Signalen und Systemen gearbeitet. Die Beschreibung zeitdiskreter Systeme mit Hilfe der z-Transformation bietet ähnliche Möglichkeiten wie die Beschreibung kontinuierlicher Systeme mit der LaplaceTransformation.
6.3.1
Definition und Beziehung zur Laplace-Transformation
Bei der Herleitung der Fourier-Transformation zeitdiskreter Signale wurde das Signal in seiner Darstellung als Impulsreihe der Fourier-Transformation unterzogen. Dieser Weg soll auch bei der Herleitung der z-Transformation durch Anwendung der LaplaceTransformation auf die Impulsreihe gegangen werden. Wird ein zeitkontinuierliches Signal y(t) mit der Frequenz fA = 1/tA abgetastet, so lässt sich das gewonnene zeitdiskrete Signal y∗ (t) nach (5.18) als Impulsreihe y∗ (t) = y(t) ·
∞ n=−∞
δ(t − ntA ) =
∞
y(ntA )δ(t − ntA )
(6.40)
n=−∞
darstellen. Wendet man auf Gleichung (6.40) die zweiseitige Laplace-Transformation an, so erhält man als die Laplace-Transformierte des zeitdiskreten Signals:
6.3 Die z-Transformation
283 +
Y∗ (s) = LII {y∗ (t)} = LII
8
∞
y(ntA )δ(t − ntA )
n=−∞
∞ ∞
=
=
y(ntA )δ(t − ntA )e−st dt
−∞ n=−∞ ∞
y(ntA )e−ntA s .
(6.41)
n=−∞
Diese ist wegen e−ntA s = e−ntA (s + j2πl/tA )
,l ∈ N
eine Funktion, die bei Änderung des Imaginärteils um ein Vielfaches von 2π/tA = 2πfA unverändert bleibt: Y∗ (s + j2πl/tA ) = Y∗ (s) In der komplexen s-Ebene wiederholt sich damit der Informationsgehalt periodisch. Bei Einhaltung des Abtasttheorems steckt bereits die gesamte Information über das Signal y∗ (t) in dem Streifen {s = δ + j2πf ∈ C : |j2πf | < πfA } = {s ∈ C : |Im{s}| < πfA }. Zur Vermeidung dieser Periodizität wird die s-Ebene mittels der konformen Abbildung z = etA s
(6.42)
eindeutig und nichtlinear auf die z-Ebene abgebildet. Alle Punkte gleicher Information gehen somit in denselben Bildpunkt über. Die Mehrdeutigkeiten in (6.41) verschwinden, weil sie mehrfach in sich selbst abgebildet werden. Mit Abbildung 6.3 ergeben sich die in Tabelle 6.1 gezeigten Korrespondenzen. Der Übergang zur z-Transformation besitzt aber auch noch andere Vorteile. So wird der Bereich der Stabilität δ 0 aufspalten. Mit der Definition der Funktionen Y+ (z) =
∞
yn z −n
(6.45)
n=0
Y− (z) =
0 n=−∞
yn z −n =
∞
y−n z n ,
(6.46)
n=0
welche als kausaler Teil bzw. antikausaler Teil bezeichnet werden, erhält man die Darstellung Y (z) = Y+ (z) + Y− (z) − y(0).
(6.47)
Eine Folge yn = y(n) bestimmt eindeutig die z-Transformierte Y (z). Umgekehrt ist, wie später exemplarisch gezeigt wird, eine Folge yn = y(n) durch Y (z) nur dann eindeutig bestimmt, wenn zu Y (z) das Konvergenzgebiet der Summe in z angegeben wird.
6.3 Die z-Transformation
285
Bemerkung 6.48 Im Folgenden wird anstelle der Darstellung y(n) , n ∈ Z, welche die Abstammung der zeitdiskreten Werte von einer Abtastung verdeutlicht, wieder die Folgendarstellung yn , n ∈ Z, verwendet, die keinerlei Information über die Herkunft der Werte mehr enthält. •
6.3.2
Existenz
Die Existenz der z-Transformierten ist von der Angabe des Konvergenzgebietes abhängig. Die z-Transformierte nach Gleichung (6.44) ist die Laurent-Reihen-Entwicklung Gleichung (2.118) der Funktion ∞
Y (z) =
an (z − z0 )n
n=−∞
mit den Koeffizienten an = y−n , n ∈ Z und z0 = 0. Das Konvergenzgebiet der z-Transformierten muss also ein Kreisringgebiet um z0 = 0 der Gestalt r+ < |z| < r−
(6.49)
, r+ < r−
sein. Die beiden Radien r+ und r− sind von der jeweiligen Wertefolge yn abhängig. Jedoch lässt sich zeigen, dass sie jeweils nur von einem Teil der Wertefolge abhängig sind. Dazu spaltet man die Reihe wieder in einen kausalen und in einen antikausalen Teil auf. 1. Kausaler Teil, n ≥ 0: Y+ (z) =
∞
yn z −n
n=0
Mit w = 1/z ist dies eine gewöhnliche Potenzreihe im Sinne der Funktionentheorie: Y+
∞ 1 = yn w n w n=0
Wie dies allgemein bei Potenzreihen möglich ist, kann der Konvergenzradius R dieser Reihe gemäß der Formel R=
lim sup |yn |1/n
−1
n→∞
bestimmt werden, wobei 1/0 = ∞ und 1/∞ = 0 gesetzt wird. Somit konvergiert diese Reihe, was mit der Existenz von Y+ w1 gleichbedeutend ist, in dem Bereich |w| < R.
286
6 Zeitdiskrete Systeme Also existiert der kausale Teil Y+ (z) außerhalb der Kreisscheibe mit Mittelpunkt 0 und Radius 1/R : kausaler Teil Y+ (z) :
|z| > r+ =
1 . R
2. Antikausaler Teil, n ≤ 0: Y− (z) =
0
yn z −n
n=−∞
Bevor obiges Vorgehen auf diese Reihe angewandt werden kann, muss sie in die Standarddarstellung gebracht werden. Diese lautet mit einfacher Umindizierung Y− (z) =
∞
y−n z n .
n=0
Ebenso wie beim kausalen Teil erhält man hier den Konvergenzradius r=
lim sup |y−n |1/n
−1
n→∞
mit denselben Festlegungen 1/0 = ∞, 1/∞ = 0 und somit: antikausaler Teil Y− (z) :
|z| < r− = r .
Betrachtet man nun die Definitionsbereiche der Funktionen Y+ (z) und Y− (z), so fällt sofort auf, dass die z-Transformierte Y (z), wie bereits behauptet, nur in einem Kreisring um den Nullpunkt existiert, wobei sich die Radien gemäß r+ = 1/R und r− = r bestimmen. Weiterhin wird aus der Herleitung deutlich, dass die Radien r+ bzw. r− nur vom kausalen bzw. vom antikausalen Teil der Folge yn abhängen und somit unabhängig voneinander sind. Ist eine kausale Wertefolge gegeben, wie dies in technischen Anwendungen häufig der Fall ist, so ergibt sich r− = ∞. Bemerkung 6.50 Ist die Wertefolge eine rechtsseitige Folge, d.h. existiert ein nmin mit yn = 0 für n < nmin , so hat das Konvergenzgebiet wegen limn→−∞ yn = 0 und somit r− = ∞ stets die Form r+ < |z|. Analog entsteht bei linksseitigen Wertefolgen, d.h. Folgen mit yn = 0 für n > nmax • und somit r+ = 0, stets ein Konvergenzgebiet der Gestalt |z| < r− .
6.3 Die z-Transformation
287
Bemerkung 6.51 1. Enthält das Konvergenzgebiet der z-Transformierten einer Wertefolge den Einheitskreis, dann ist für diese Folge auch die zeitdiskrete Fourier-Transformierte, vgl. Gleichung (5.21) in Abschnitt 5.3.1, konvergent. Die Fourier-Transformierte kann mittels z = ej2πf tA aus der z-Transformierten berechnet werden. 2. Ist die Wertefolge yn endlich, d.h. gilt yn = 0 nur für endlich viele Indizes n, so konvergiert die z-Transformation automatisch für alle z mit 0 < |z| < ∞. • Im folgenden Beispiel soll die Bestimmung des Kreisringgebietes, aber auch die Wichtigkeit der Angabe dieses Gebiets zur Eindeutigkeit der z-Transformierten gezeigt werden. Beispiel 6.52 (Bestimmung des Konvergenzgebietes) Bei der Wertefolge n a ,n ≥ 0 yn = bn , n < 0
, a, b ∈ C
stellen sich drei Fragen. Wie sieht die z-Transformierte aus? Welchen Bedingungen müssen a ∈ C und b ∈ C genügen, damit die z-Transformierte existiert? Für welche z-Werte ist die z-Transformierte dann konvergent? Nach Aufteilen in den kausalen Teil ∞ ' (n a 1 = Y+ (z) = z 1− n=0 welcher für
a |a| = r+
konvergiert, und den antikausalen Teil n 0 ∞ ' (n b z 1 Y− (z) = = = z b 1 − n=−∞ n=0 der im Fall
z 1 = r+ erhält man Y (z) =
1 z = z−1 1−
1 z
=
∞ n=0
z −n
•−◦
yn = σ n .
6.3 Die z-Transformation
|z|1
z
j
1
1
antikausal
kausal
Abbildung 6.5: Mehrdeutigkeit der z-Transformierten von
z z−1
2. Fall: Für |z| < 1 = r− ergibt sich Y (z) =
−1 z 1 =1− z −n •−◦ yn = −σ−n−1 . =− z−1 1−z n=−∞
Ohne Angabe des Konvergenzgebietes ist die z-Transformierte also nicht eindeutig, da wir für die identische Bildfunktion zwei verschiedene Urfolgen erhalten haben. Die Konvergenzgebiete der Folgen sind in Abbildung 6.5 skizziert. •
6.3.3
Inverse z-Transformation
Wie bereits erwähnt entspricht die z-Transformation Y (z) =
∞
yn z −n
n=−∞
einer Laurent-Reihe um z0 = 0. Durch Umschreiben mit an = y−n folgt Y (z) =
∞
an z n .
n=−∞
Für die Folge an gilt mit Hilfe der Gleichung (2.119), welche die Berechnung der Koeffizienten einer Laurent-Reihe ermöglicht: Y (ξ) 1 an = dξ . 2πj (ξ − z0 )n+1 C
Mit an = y−n und z0 = 0 erhält man die inverse z-Transformation als Umkehrintegral Y (ξ) 1 1 dξ = Y (ξ)ξ n−1 dξ. (6.55) yn = a−n = 2πj 2πj (ξ − z0 )−n+1 C
C
Dabei ist die Kurve C ein einfach geschlossener, mathematisch positiv orientierter Weg, der ganz im Inneren des Konvergenzgebietes von Y (ξ) verläuft.
290
6.3.4
6 Zeitdiskrete Systeme
Möglichkeiten der Rücktransformation
Die Rücktransformation vom z-Bereich in den Zeitbereich kann im Prinzip mit Hilfe des Umkehrintegrals (6.55) erfolgen. Ist Y (z) eine rationale Funktion, was meistens der Fall ist, so empfiehlt es sich aber, andere Methoden anzuwenden, die im Folgenden beschrieben werden. 6.3.4.1
Rückführung auf die geometrische Reihe
Ist yn eine kausale oder eine antikausale Wertefolge, so kann man die Rücktransformation in bestimmten Fällen auf die geometrische Reihe ∞
qn =
n=0
1 1−q
, |q| < 1
(6.56)
zurückführen. Durch Umformung der z-Transformierten auf die Darstellung 1 1−q kann man somit direkt auf die Wertefolge schließen. Wie jedoch Beispiel 6.54 gezeigt hat, ist dies ohne Angabe des Konvergenzgebietes nicht eindeutig. Das Konvergenzgebiet bestimmt sich hierbei durch die Forderung |q| < 1. Beispiel 6.57 (Rücktransformation mittels geometrischer Reihe) Wie lautet die Zahlenfolge yn , die zu der z-Transformierten Y (z) =
−1 (z − 1)(z − 2)
, 1 < |z| < 2
gehört? Für akausale Systeme (1 < |z| < 2) erhält man mit Hilfe der Partialbruchzerlegung −1 A B 1 1 = + = − (z − 1)(z − 2) z−1 z−2 z−1 z−2 unter Beachtung des Konvergenzgebietes Y (z) =
=
∞ ∞ 1 1 1 1 1 −n 1 −n n z + 2 z + = z 1 − 1/z 2 1 − z/2 z n=0 2 n=0 ∞ n=1
die Wertefolge: yn =
0
z −n +
2n−1 z −n
n=−∞
1 ,n ≥ 1 2n−1 , n < 1
Die Umformungen vor der Anwendung der geometrischen Reihe erfolgen damit unter Berücksichtigung des geforderten Konvergenzgebietes. •
6.3 Die z-Transformation 6.3.4.2
291
Residuensatz
Die inverse z-Transformation ist durch Gleichung (6.55) 1 Y (ξ)ξ n−1 dξ yn = 2πj C
definiert. Mit Hilfe des Residuensatzes 2.126 F (z)dz = 2πj
M
Res{F (z); z∞i }
i=1
C
ergibt dies yn =
Res{Y (z)z n−1 ; z∞i }.
(6.58)
i
Hier stellt sich die Frage, welche Pol- oder Unendlichkeitsstellen verwendet werden. Im Konvergenzgebiet dürfen aus der Definition heraus keine Polstellen liegen, sonst würde die z-Transformierte dort erst gar nicht konvergieren. Für die Polstellen gilt deshalb |z∞ | < r+
oder
|z∞ | > r− .
(6.59)
Der Integrationsweg C liegt im Inneren dieses Kreisrings, in dem sich keine Polstellen befinden. Zur Anwendung des Residuensatzes muss der Integrationsweg die Polstellen umschließen. Dabei müssen die Polstellen auf der linken Seite, d.h. im Inneren, relativ zum Integrationsweg liegen. Hierbei gibt es zwei Möglichkeiten. 1. Der Integrationsweg verläuft in mathematisch positiver Richtung, vgl. C1 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind also die Pole innerhalb des Kreisrings, d.h. die Pole mit |z∞ | < r+ . Hier verwendet man nur die Pole, die für den kausalen Teil des Signals verantwortlich sind. 2. Der Integrationsweg verläuft in mathematisch negativer Richtung, vgl. C2 in Abbildung 6.6. Die Polstellen innerhalb des Weges sind die Pole außerhalb des Kreisrings, d.h. die Pole mit |z∞ | > r− . Diese Pole sind für den antikausalen Teil des Signals verantwortlich. Hierbei ist zu beachten, dass bei mathematisch negativer Richtung das Vorzeichen umzudrehen ist. Des Weiteren muss, falls vorhanden, die Unendlichkeitsstelle bei |z| → ∞ berücksichtigt werden.
292
6 Zeitdiskrete Systeme Im{z} z
C1
Re{z}
C2
r+ C
r-
Abbildung 6.6: Integrationswege
Fasst man die vorherigen Ausführungen zusammen, so lässt sich für den kausalen Teil yn =
Res{Y (z)z n−1 ; |z∞i | < r+ } , n ≥ 0
(6.60)
i
und für den antikausalen Teil yn = − Res{Y (z)z n−1 ; |z∞i | > r− } , n ≤ 0
(6.61)
i
schreiben. Im antikausalen Teil muss, wenn vorhanden, die Unendlichkeitsstelle bei |z| → ∞ beachtet werden. Beispiel 6.62 (Rücktransformation mittels Residuensatz) Die Funktion Y (z) =
z z−a
mit |z| > a
ist die z-Transformierte einer kausalen Folge. Man berechnet leicht yn = Res Y (z)z n−1 ; z∞ = a n 9 z = Res ; z∞ = a z−a zn = lim (z − a) z→a z−a = an , n ≥ 0.
•
Als weiteres Beispiel soll die in Beispiel 6.52 berechnete z-Transformierte rücktransformiert werden.
6.3 Die z-Transformation
293
Beispiel 6.63 (Rücktransformation mittels Residuensatz) Die z-Transformierte lautet: Y (z) =
z(a − b) (z − a)(z − b)
, |a| < |z| < |b| .
Zur Berechnung der Wertefolge yn bestimmt man die Pole und die Unendlichkeitsstellen. 1. |z∞ | < r+ = |a| Hier gibt es nur einen Pol bzw. eine Unendlichkeitsstelle z∞ = a und es ergibt sich für n ≥ 0: yn = Res{Y (z)z n−1 ; z∞ = a} 9 z n (a − b) = Res ; z∞ = a (z − a)(z − b) z n (a − b) = lim (z − a) z→a (z − a)(z − b) ,n ≥ 0 = an 2. |z∞ | > r− = |b| Hier gibt es auch nur einen Pol bzw. eine Unendlichkeitsstelle z∞ = b, da limz→∞ Y (z) = 0 gilt, und es folgt: yn = −Res{Y (z)z n−1 ; z∞ = b} 9 z n (a − b) ; z∞ = b = −Res (z − a)(z − b) z n (a − b) = − lim (z − b) z→b (z − a)(z − b) n ,n < 0 =b Das Resultat der Rücktransformation stimmt mit dem Ausgangspunkt von Beispiel 6.52 überein. • 6.3.4.3
Polynomdivision
Ist die z-Transformierte Y (z) als gebrochen rationale Funktion der Form 1 1 + . . . + bM M z z Y (z) = 1 1 a0 + a1 + . . . + aN N z z b0 + b1
(6.64)
gegeben, so kann für kausale Signale die Wertefolge yn durch Polynomdivision gewonnen werden, da aus 1 1 1 1 1 b0 + b1 + . . . + bM M ÷ a0 + a1 + . . . + aN N = y0 + y1 + . . . z z z z z
294
6 Zeitdiskrete Systeme
durch Multiplikation auf beiden Seiten 1 1 1 1 1 b0 + b1 + . . . + bM M = a0 + a1 + . . . + aN N · y0 + y1 + . . . z z z z z folgt. Nun können durch Koeffizientenvergleich die Werte yn mittels Lösen eines linearen Gleichungssystems bestimmt werden. Der Nachteil der Polynomdivision ist, dass sie im Allgemeinen kein analytisches Ergebnis liefert, da die resultierende Folge yn unendlich lang ist. Es muss ab einer bestimmen Stelle abgebrochen werden. Dieses Verfahren ist besonders für Digitalrechner geeignet. 6.3.4.4
Partialbruchzerlegung
Die z-Transformierte Y (z) sei eine teilerfremde rationale Funktion Y (z) =
p(z) q(z)
(6.65)
mit grad p(z) < grad q(z). Das Nennerpolynom q(z) sei durch q(z) = q · (z − z1 )α1 · (z − z2 )α2 · . . . · (z − zK )αK · (6.66) ·(z 2 + γ1 z + δ1 )β1 · (z 2 + γ2 z + δ2 )β2 · . . . · (z 2 + γL z + δL )βL darstellbar, wobei die komplexen Polpaare zu den Ausdrücken z 2 + γz + δ zusammengefasst sind. Für alle z ∈ C, für die q(z) = 0 gilt, kann die Funktion Y (z) in Partialbrüche zerlegt werden: a12 a1α1 a11 + + ··· + (6.67) z − z1 (z − z1 )2 (z − z1 )α1 a21 a22 a2α2 + + + ··· + z − z2 (z − z2 )2 (z − z2 )α2 .. . aK1 aK2 aKαK + + + ··· + 2 z − zK (z − zK ) (z − zK )αK b11 z + c11 b12 z + c12 b1β z + c1β1 + 2 + 2 + ··· + 2 1 2 z + γ1 z + δ1 (z + γ1 z + δ1 ) (z + γ1 z + δ1 )β1 b21 z + c21 b22 z + c22 b2β z + c2β2 + 2 + 2 + ··· + 2 2 z + γ2 z + δ2 (z + γ2 z + δ2 )2 (z + γ2 z + δ2 )β2 .. . bL2 z + cL2 bLβ z + cLβL bL1 z + cL1 + 2 + ··· + 2 L . + 2 2 (z + γL z + δL ) (z + γL z + δL )βL z + γL z + δL
Y (z) =
6.3 Die z-Transformation
295
Hierbei sind , i = 1, 2, . . . , K , j = 1, 2, . . . , αK , i = 1, 2, . . . , L , j = 1, 2, . . . , βL
aij bij , cij
eindeutig bestimmte Konstanten. Wenn alle Koeffizienten in Y (z) reell sind, so gibt es entweder nur reelle Polstellen ··· (z − zi )αi oder konjugiert komplexe Polstellenpaare (z 2
··· . + γi z + δi )βi
Dann sind auch die Koeffizienten aij , bij und cij reell. Die Koeffizienten aiαi mit der höchsten Ordnung, d.h. bei einfachen reellen Polen die ai1 , können durch aiαi = lim Y (z) · (z − zi )αi
(6.68)
z→zi
berechnet werden. Die anderen Koeffizienten ermittelt man am einfachsten durch Ausmultiplizieren und Koeffizientenvergleich, welcher auf ein lineares Gleichungssystem führt. Man kann aber auch die anderen Koeffizienten über m ∂ 1 (Y (z) · (z − zi )αi ) ai(αi −m) = m! ∂z m
(6.69) z=zi
ermitteln. Hat man die z-Transformierte Y (z) in Partialbrüche zerlegt, so kann man diese mittels der geometrischen Reihe oder einer Transformationstabelle ganz einfach rücktransformieren. Dies wird nun an zwei Beispielen demonstriert. Beispiel 6.70 (Partialbruchzerlegung) Die z-Transformierte laute Y (z) =
3z 2 + 2z − 10 . z 3 − 5z 2 + 8z − 4
Der Nenner besitzt die Produktdarstellung z 3 − 5z 2 + 8z − 4 = (z − 1) · (z − 2)2 . Daraus folgt der Ansatz für die Partialbruchzerlegung Y (z) =
a11 b11 z + c11 . + z−1 (z − 2)2
296
6 Zeitdiskrete Systeme
Nach Gleichung (6.68) gilt 3z 2 + 2z − 10 = −5. z→1 (z − 2)2
a11 = lim Y (z) · (z − 1) = lim z→1
Durch Ausmultiplizieren, d.h. durch Bildung des Hauptnenners, folgt !
3z 2 + 2z − 10 = −5 · (z − 2)2 + (b11 z + c11 ) · (z − 1) = (−5 + b11 )z 2 + (20 − b11 + c11 )z + (−20 − c11 ). Durch Koeffizientenvergleich erhält man das Gleichungssystem −5 + b11 = 3 20 − b11 + c11 = 2 −20 − c11 = −10 mit der Lösung c11 = −10,
b11 = 8 ,
woraus die Partialbruchzerlegung 8z 3z 2 + 2z − 10 10 5 + − =− z 3 − 5z 2 + 8z − 4 z − 1 (z − 2)2 (z − 2)2
Y (z) =
folgt. Natürlich hätte man sich die separate Berechnung von a11 ersparen und diesen Wert auch im Gleichungssystem mitberechnen können. Hat ein System aber nur oder überwiegend reelle Pole erster Ordnung, so reduziert die vorherige Berechnung der entsprechenden Koeffizienten die Ordnung des Gleichungssystems. Mit den Korrespondenzen an−1 · σn−1
◦−•
1 z−a
und nan · σn
◦−•
za (z − a)2
sowie dem Verschiebungssatz erhält man Y (z)
◦−•
y(n) = −5 · σn−1 + 4 · n · 2n · σn − 5 · (n − 1) · 2n−1 · σn−1 •
Beispiel 6.71 (Partialbruchzerlegung) Die z-Transformierte laute Y (z) =
1 . z 3 − 2z 2 + z
6.3 Die z-Transformation
297
Der Nenner besitzt die Produktdarstellung z 3 − 2z 2 + z = z · (z − 1)2 . Daraus folgt der Ansatz der Partialbruchzerlegung Y (z) =
a11 a21 a22 1 = + + . z 3 − 2z 2 + z z z − 1 (z − 1)2
Nach Gleichung (6.68) gilt 1 =1 (z − 1)2 1 a22 = lim Y (z) · (z − 1)2 = lim = 1. z→1 z→1 z Dies ergibt bis jetzt a11 = lim Y (z) · z = lim z→0
Y (z) =
z3
z→0
1 a21 1 1 = + . + 2 z z − 1 (z − 1)2 − 2z + z
Den Koeffizienten a21 könnte man nun durch Bilden des Hauptnenners und Koeffizientenvergleich oder mit Hilfe der Formel (6.69) bestimmen. Da dies jedoch sehr aufwendig ist, setzt man einfach einen geeigneten z-Wert ein, der keine Polstelle ist, hier z.B. z = −1. Dadurch erhält man Y (z = −1) = −
a21 1 1 = −1 − + 4 2 4
=⇒
a21 = −1
und insgesamt Y (z) =
1 1 1 , − + z z − 1 (z − 1)2
also nach der Korrespondenztabelle y(n) = δn−1 − σn−1 + (n − 1) · σn−1 . 6.3.4.5
•
Transformationstabelle
Natürlich darf die Transformationstabelle als Weg der Rückführung von der z-Transformierten zur Wertefolge nicht vergessen werden. Oftmals wird die Funktion Y (z) erst durch Partialbruchzerlegung so vereinfacht, dass die Transformationstabelle angewendet werden kann, falls sie nicht bereits aus Funktionen besteht, deren Urfolge bekannt ist. Die Transformationstabelle für die z-Transformation findet man in Anhang C.
6.3.5
Eigenschaften
Bei der z-Transformation sind, wie bei den anderen Transformationen, die Eigenschaften für deren Anwendung von Interesse. Die wichtigsten werden hier dargestellt. Sie finden sich auch im Anhang.
298 6.3.5.1
6 Zeitdiskrete Systeme Linearität
Es gilt die Linearität für z-Transformierte Z{ ci yi,n } = ci Yi (z)
(6.72)
i
i
mit dem Gültigkeitsbereich max{ri+ } < |z| < min{ri− }, i
i
da zur Berechnung der Summe jede der z-Transformierten existieren muss. 6.3.5.2
Zeitumkehr
Bei der Zeitumkehr entsteht aus ∞ Y (z) = yn z −n
, r+ < |z| < r−
n=−∞
die z-Transformierte der zeitumgekehrten Folge y−n als Yˆ (z) =
∞
y−n z
−n
n=−∞
=Y
1 z
−n 1 = yn z = yn z n=−∞ n=−∞ ∞
n
∞
(6.73)
mit dem Konvergenzgebiet 1 1 < |z| < . r− r+ 6.3.5.3
Zeitverschiebung
Bei der Zeitverschiebung der Folge um l ∈ Z Werte, d.h. yn → yn−l , entsteht aus Y (z) =
∞
yn z −n
, r+ < |z| < r−
n=−∞
für allgemeine, d.h. zweiseitige Folgen die z-Transformierte: Yˆ (z) =
∞
yn−l z −n = z −l
n=−∞
= z −l Y (z)
∞
yn−l z −(n−l)
n=−∞
, r+ < |z| < r− .
(6.74)
Kausale Folgen würden jedoch bei einer Verschiebung um l < 0 akausal. Soll die zeitverschobene kausale Folge weiterhin kausal bleiben, so wird ein Teil der Folge abgeschnitten, und dieser Teil muss bei der z-Transformierten wieder abgezogen werden: yn+l
, l ≥ 0 ◦−• z l Y+ (z) −
l−1 i=0
yi z l−i .
(6.75)
6.3 Die z-Transformation 6.3.5.4
299
Modulation
Bei der Modulation, d.h. der Multiplikation im Zeitbereich mit an , a ∈ C, folgt aus ∞
Y (z) =
yn z −n
, r+ < |z| < r−
n=−∞
die z-Transformierte des modulierten Signals an yn für a = 0 zu ∞
Yˆ (z) =
n
a yn z
−n
n=−∞
=Y
'z (
∞ ∞ −n ' z (−n 1 yn = yn z −n = a a n=−∞ n=−∞
(6.76)
a
mit dem Gültigkeitsbereich |a|r+ < |z| < |a|r− . 6.3.5.5
Lineare Gewichtung
Aus der Ableitung der z-Transformierten Y (z) ∞ ∞ d d Y (z) = yn z −n = − nyn z −n−1 dz dz n=−∞ n=−∞ ∞ 1 =− nyn z −n z n=−∞
(6.77)
folgt die Regel der z-Transformation für eine linear gewichtete Funktion: Z{nyn } = −z 6.3.5.6
d Y (z) dz
, r+ < |z| < r− .
(6.78)
Faltung
Die z-Transformierte der Faltung zweier Zahlenfolgen xn ∗ yn =
∞
∞
xk yn−k =
k=−∞
xn−k yk
k=−∞
ergibt sich als Produkt der z-Transformierten: Z{xn ∗ yn } = =
∞
(xn ∗ yn )z −n =
n=−∞ ∞ k=−∞
xk
∞ n=−∞
= X(z) · Y (z) .
yn−k z
∞
∞
xk yn−k z −n
n=−∞ k=−∞ ∞ −n
=
xk z
k=−∞
−k
∞
yn−k z −(n−k)
n=−∞
(6.79)
300
6 Zeitdiskrete Systeme
Als Konvergenzbereich ergibt sich der Kreisring max{rx+ , ry+ } < |z| < min{rx− , ry− } . 6.3.5.7
Korrelation
Die Korrelation zweier Zahlenfolgen, die durch Rxy (n) =
∞
∞
xi+n yi =
xν y−(n−ν) = xn ∗y−n
ν = i+n, i = ν−n
ν=−∞
i=−∞
definiert ist, hat nach der für die Faltung bewiesenen Regel die z-Transformierte 1 (6.80) Sxy (z) = Z{Rxy (n)} = X(z)Y z 1 . Sxx (z) = X(z)X z Als Konvergenzbereich ist hier der Streifen zu nehmen, in dem beide Funktionen konvergieren. Hierzu ist neben einer zur Faltung analogen Betrachtung noch das Verhalten bei Zeitumkehr zu beachten: max{rx+ , 6.3.5.8
1 ry−
} < |z| < min{rx− ,
1 ry+
}.
Anfangswerttheorem
Für kausale Folgen yn gilt mit Y (z) = Y+ (z) =
∞
yn z −n = y0 + y1 z −1 + y2 z −2 + . . .
n=0
das Anfangswerttheorem (6.81)
lim Y (z) = y0 .
z→∞
Für beliebige Folgenelemente yn mit positivem Index n > 0 gilt wegen z n Y+ (z) = z n y0 + z n−1 y1 + . . . + yn + yn+1 z −1 + . . . und somit yn = z n Y+ (z) −
n−1
z n−i yi −
i=0
∞
z −i yn+i ,
i=1
bei Existenz des Grenzwerts der verallgemeinerte Anfangswertsatz für positive Indizes: n−1 yn = lim z n Y+ (z) − ,n ≥ 0. (6.82) z n−i yi z→∞
i=0
6.4 Systemfunktion 6.3.5.9
301
Endwerttheorem
Die kausale Wertefolge yn lässt sich mit Hilfe des Residuensatzes über Res{Y (z)z n−1 ; |z∞i | < r+ } yn = i
berechnen. Unter der Bedingung, dass eine Polstelle bei z∞ = 1 liegt, und dass alle anderen Pole innerhalb des Einheitskreises |z∞i | < 1 liegen, kann der Residuensatz als yn = lim (z − 1)Y (z)z n−1 + lim (z − z∞i )Y (z)z n−1 z→1
|z∞i | 0,2fA ist die Steigung des Phasenverlaufs positiv und damit die Gruppenlaufzeit negativ; gleichzeitig bleibt aber die absolute Phase weiterhin negativ, was einer Verzögerung beim Durchlauf durch das FIR-System entspricht. • Beispiel 6.121 (IIR-System) Die Differenzengleichung ya,n − aya,n−1 = bye,n eines IIR-Systems soll untersucht werden. Mit Hilfe der z-Transformierten Ya (z) − az −1 Ya (z) = bYe (z) erhält man die Übertragungsfunktion G(z) =
b bz Ya (z) = , = Ye (z) 1 − a z −1 z−a
deren Null- und Polstellen bei z0 = 0 ,
z∞ = a
liegen. Soll das System stabil sein, so muss |z∞ | = |a| < 1 gelten. Die Impulsantwort gn = b · an · σn ist für die Parameter a = 0, 5 und b = 0, 5 in Abbildung 6.18 zu erkennen. Sie ist unendlich lang.
0.5
gn
0.4 0.3 0.2 0.1 0 −0.1 −2
0
2
4 n
6
8
10
Abbildung 6.18: Unendlich lange Impulsantwort des IIR-Systems
324
6 Zeitdiskrete Systeme 1
4
0.8
2
A(f)
ψ(f)
0.6 0
0.4 −2
0.2 0 −0.5
0 f [Hz]
0.5
−4 −0.5
0 f [Hz]
0.5
Abbildung 6.19: Amplitudengang und Phasengang des zeitdiskreten IIR-Systems für den Fall tA = 1[sec] und a = b = 0, 5
Der Amplitudengang dieses Systems A(f ) = G(z = ej2πf tA ) =
|b| |ej2πf tA
− a|
und der Phasengang @ ? ψ(f ) = arg G(z = ej2πf tA ) = arg
b 1 − ae−j2πf tA
9
sind in Abbildung 6.19 für die Parameter tA = 1[sec] und a = b = 0, 5 dargestellt. Man erkennt die Tiefpasscharakteristik des betrachteten Systems. Hier ist ebenfalls aufgrund der reellwertigen Impulsantwort der Amplitudengang symmetrisch und der Phasengang schiefsymmetrisch. •
6.5
Linearphasige Systeme
In diesem Abschnitt erfolgt nach der Definition eines linearphasigen Systems eine Zerlegung der Phase in einen dem ganzzahligen Vielfachen der Abtastzeit proportionalen Anteil und einen Rest. Dies führt auf eine Verschiebung der zugehörigen Impulsantwort. Ein Beispiel veranschaulicht die eingeführten Begriffe. Anschließend wird eine notwendige Bedingung hergeleitet, mittels welcher überprüft werden kann, ob ein vorliegendes System linearphasig sein kann. Der zweite Abschnitt untersucht diese Bedingung für den Fall eines FIR-Filters. Es ergeben sich zwei Möglichkeiten zur Konstruktion linearphasiger FIR-Filter, welche auf Symmetriebetrachtungen der Impulsantwort zurückgeführt werden können. Abschließend verdeutlichen zwei Beispiele die theoretischen Begriffe.
6.5 Linearphasige Systeme
6.5.1
325
Definition und Eigenschaften
Im Folgenden sollen Systeme betrachtet werden, deren Frequenzgang eine lineare Phase besitzt. Also muss ψ(f ) = c · f mit c ∈ R gelten. Dies lässt sich für Systeme mit bestimmten Übertragungsfunktionen nachweisen: Satz 6.122 (Linearphasiges System) Ein zeitdiskretes LTI-System, dessen Übertragungsfunktion die Form G(z) = |G(z)| · z −k
,k ∈ R
(6.123)
hat, besitzt eine lineare Phase und eine konstante Gruppenlaufzeit.
•
Beweis: Wir untersuchen den Frequenzgang des System, indem G(z) mit z = exp(j2πf tA ) betrachtet wird: G∗ (f ) = A(f ) · e−j2πf tA ·k Dann ergibt sich die Phase ψ(f ) = G∗ (f ) = −2πf tA · k als eine in der Frequenz lineare Funktion und die Gruppenlaufzeit τg (f ) = −
1 d ψ(f ) = tA k = const(f ) 2π df
ist konstant. Zur weiteren Betrachtung der Phase teilen wir den Exponenten k einer linearen Phase in einen ganzzahligen Anteil nv und einen Rest α k = nv + α
, nv ∈ Z , 0 ≤ α < 1
auf. Die Phase entsteht als ganzzahliges Vielfaches der Abtastzeit und dem Rest: ψ(f ) = −2πf tA nv − 2πf tA α . Diese Aufteilung wird später bei der Betrachtung der Symmetrieeigenschaften der zugehörigen Impulsantworten wichtig sein. Zuerst soll jedoch ein Beispiel für ein System mit linearer Phase gegeben werden: Beispiel 6.124 (Verzögerter Rechtecktiefpass) Ein verzögerter Rechtecktiefpass ist durch den Frequenzgang G∗ (f ) = R(f ) · e−j2πf tA (nv + α)
326
6 Zeitdiskrete Systeme
0.5 0.4
0.2
g
n
0.3
0.1 0 −0.1 −0.2 −5
0
5
Abbildung 6.20: Impulsantwort des verzögerten Rechtecktiefpasses für nv = 3, α = 13
10
n
mit dem akausalen Rechtecktiefpass der Grenzfrequenz fg < 1 , |f | < fg R(f ) = 0 , sonst
fA 2
als Amplitudengang gegeben. Die Phase ist nach Satz 6.122 linear. Die Impulsantwort berechnet sich nach Gleichung (5.22) zu:
fg gn = tA
ej2πf tA (n − nv − α) df
−fg
0 1 fg tA ej2πf tA (n − nv − α) j2πtA (n − nv − α) −fg 1 = sin(2πfg tA (n − nv − α)) π(n − nv − α) fg sin(2πfg tA (n − nv − α)) . = fA · 2πfg tA (n − nv − α) 2
=
Die Impulsantwort, die in Abbildung 6.20 dargestellt ist, ist um k = nv + α symmetrisch. • Darüber hinaus existiert eine Vielzahl von Systemen, deren Phase zwar prinzipiell einen linearen Verlauf besitzt, jedoch durch einen Vorzeichenwechsel des Frequenzgangs Sprünge aufweist. Das soll an einem Beispiel verdeutlicht werden: Beispiel 6.125 (Zeitdiskreter Mittelwertbilder) Ein zeitdiskretes LTI-System mit der Impulsantwort 1 ,0 ≤ n ≤ M gn = M +1 0 , sonst bildet wegen 1 ye,n−i M + 1 i=0 M
ya,n = ye,n ∗ gn =
6.5 Linearphasige Systeme
327
zu jedem Zeitpunkt den Mittelwert der vergangenen M + 1 Eingangswerte. Den Frequenzgang solch eines System berechnet man zu: G∗ (f ) =
M
1 e−j2πf ntA M + 1 n=0
1 1 − e−j2πf tA (M +1) M + 1 1 − e−j2πf tA 1 e−jπf tA (M +1) ejπf tA (M +1) − e−jπf tA (M +1) = M + 1 e−jπf tA ejπf tA − ejπf tA 1 sin(πf tA (M + 1)) −jπf tA M = e M +1 sin(πf tA ) Diesem System würde aufgrund des Exponenten ein linearer Phasenverlauf zugewiesen werden. Da jedoch der Frequenzgang Nullstellen hat, bei deren Duchlaufen sich das Vorzeichen ändert, entsteht bei diesen Frequenzen zusätzlich ein Phasensprung um ±π. • =
Aufgrund des letzten Beispiels lassen wir zur Verallgemeinerung eine zusätzliche abschnittsweise konstante Phasenverschiebung ψ0 zu. Definition 6.126 (Verallgemeinert lineare Phase) Ein System heißt verallgemeinert linearphasig, wenn die Übertragungsfunktion in die Gestalt G∗ (f ) = A(f )e−j2πf tA k + jψ0 gebracht werden kann. Dann ist die Phase verallgemeinert abschnittsweise linear ψ(f ) = −2πf tA k + ψ0 und damit die Gruppenlaufzeit entsprechend abschnittsweise konstant. Der um ψ0 erweiterte Frequenzgang mit verallgemeinert linearer Phase G∗ (f ) = A(f ) · e−j [2πf tA (nv + α) − ψ0 ] kann mit Hilfe der Eulerschen Formel in G∗ (f ) = A(f ) cos (2πf tA (nv + α) − ψ0 ) − jA(f ) sin (2πf tA (nv + α) − ψ0 ) zerlegt werden. Wird die Impulsantwort gn als reellwertig angenommen, so kann der aus der z-Transformation G(z) =
∞ n=−∞
gn z −n
328
6 Zeitdiskrete Systeme
mit z = exp(j2πf tA ) resultierende Frequenzgang ebenfalls in G∗ (f ) =
∞
∞
gn cos(2πf ntA ) − j
n=−∞
gn sin(2πf ntA )
n=−∞
zerlegt werden. Da die beiden Darstellungen des Frequenzganges übereinstimmen müssen, muss der Tangens des Phasenwinkels gleich sein: ∞
tan (ψ(f )) =
n=−∞ ∞
gn sin(2πf ntA )
!
= gn cos(2πf ntA )
sin(2πf tA (nv + α) − ψ0 ) . cos(2πf tA (nv + α) − ψ0 )
n=−∞
Durch Ausmultiplizieren erhält man die notwendige Bedingung an reellwertige Systeme mit abschnittsweise linearer Phase als ∞
!
gn sin [2πf tA (n − nv − α) + ψ0 ] = 0 , f ∈ R.
(6.127)
n=−∞
Diese Bedingung wird in den nächsten Abschnitten beim Entwurf linearphasiger FIRFilter angewendet. Dabei wird zur Vereinfachung der Betrachtungen in den folgenden Ableitungen M als gerade angenommen. Für ungerade M kann man durch entspreM −1 1 chende Methoden Frequenzgänge ableiten. Hierzu hat man lediglich k = M 2 = 2 + 2, M −1 1 d.h. nv = 2 und α = 2 zu setzen.
6.5.2
Linearphasige FIR-Filter
FIR-Filter lassen sich besonders einfach linearphasig entwerfen. Hierzu sei die Impulsantwort gn als reellwertig angenommen und habe nur im Beobachtungszeitraum [0, M tA ] von Null verschiedene Werte. Nehmen wir nach obiger Bemerkung im Folgenden an, dass M gerade sei. Die Verzögerung k, vgl. Beispiel 6.124, entspreche der halben Beobachtungszeit, d.h. nv =
M 2
,
(6.128)
α = 0.
Bei Gültigkeit von Gleichung (6.128) kann man nach [OS98] zwei Fälle unterscheiden, in denen die Bedingung in Gleichung (6.127) erfüllt wird. Diese werden in den nächsten beiden Abschnitten untersucht. 6.5.2.1
Symmetrische Impulsantwort um
M 2
Die Symmetriebedingung lautet mathematisch gn = gM −n
, n = 0, . . . ,
M 2
(6.129)
6.5 Linearphasige Systeme
329
und die abschnittsweise Phasenverschiebung beträgt ψ0 = 0 bzw. ψ0 = ±π. Wir fassen bei der Summation in Gleichung (6.127) jeweils zwei Terme zusammen: 2 M M ! + gM −n sin 2πf tA gn sin 2πf tA n − = 0. −n 2 2 n=0 M
Hierbei ist das doppelte Auftreten des Summanden mit Index M 2 nicht von Belang, da dieser jeweils mit dem Faktor Null gewichtet wird. Durch Zusammenfassen der Sinusterme erhält man
n=0
M
2
(gn − gM −n ) sin 2πf tA
M n− 2
= 0 , f ∈ R.
=0
Die Bedingung in Gleichung (6.127) ist also für den gewählten Ansatz erfüllt. Zur Berechnung des Frequenzganges wird ein Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten: G∗ (f ) =
M
gn e−j2πf tA n = e−j2πf tA
M 2
M
M
gn e−j2πf tA (n− 2 ) .
n=0
n=0
Bei der Summation werden wiederum zwei Terme zusammengefasst: G∗ (f ) = e−j2πf tA
M 2
M 2 −1 0 1 M M gn e−j2πf tA (n− 2 ) + gM −n e−j2πf tA ( 2 −n) + g M 2
=e
−j2πf tA M 2
n=0
M2 −1 0 1 M −j2πf tA (n− M 2 ) + ej2πf tA (n− 2 ) +g e g M . n 2 n=0 2 cos(2πf tA (n − M 2 )) Rg (f )
Somit besitzen Systeme mit symmetrischen Impulsantworten nach Gleichung (6.129) stets eine lineare Phase. Die Amplitudenfunktion M 2
Rg (f ) =
−1
2gn cos(2πf tA (n −
n=0
M )) + g M 2 2
(6.130)
ist eine gerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit symmetrischer Impulsantwort lautet damit G∗ (f ) = Rg (f )e−j2πf tA
M 2
.
(6.131)
330
6 Zeitdiskrete Systeme
Aus Gleichung (6.130) ist ersichtlich, dass Rg (f ) auch negatives Vorzeichen annehmen kann. Man erhält aus Rg (f ) den Amplitudengang Ag (f ), indem man das negative Vorzeichen von Rg (f ) in eine Phasenverschiebung von ψ0 = ±π umwandelt. An den Nulldurchgängen von Rg (f ) treten dann Phasensprünge auf. Ag (f ) ist eine gerade Funktion in f . 6.5.2.2
Schiefsymmetrische Impulsantwort um
M 2
In diesem Fall ergibt sich die Schiefsymmetrie gn = −gM −n
, n = 0, . . . ,
M 2
(6.132)
und die Phasenverschiebung beträgt ψ0 = ± π2 . Aus der Bedingung für die Schiefsymmetrie der Impulsantwort folgt unmittelbar, dass die Impulsantwort die Eigenschaft g M = 0 erfüllen muss. Die Summation in Gleichung (6.127) lautet: 2
M π = 0. gn sin 2πf tA n − ± 2 2 n=0 M
Wieder werden bei der Summation jeweils zwei Terme zusammengefasst: M 2 M M gn cos 2πf tA (n − ) + gM −n cos 2πf tA ( − n) = 0. 2 2 n=0
Daraus ergibt sich
M (gn + gM −n ) cos 2πf tA (n − ) = 0 , f ∈ R. 2 n=0 M
2
=0
Aufgrund des Ansatzes ist also die Bedingung in Gleichung (6.127) erfüllt. Bei der Bestimmung des Frequenzganges wird ein mit −j multipliziertes Phasenglied mit der halben Beobachtungszeit nv = M 2 abgespalten: G∗ (f ) =
M
gn e
−j2πf tA n
= −je
n=0
−j2πf tA M 2
M n=0
gn
M 1 − e−j2πf tA (n− 2 ) j
M
= −je
−j2πf tA M 2
= −je
−j2πf tA M 2
2 ( M M 1' −gn e−j2πf tA (n− 2 ) − gM −n e−j2πf tA ( 2 −n) j n=0 M
2
n=0
gn
( M 1 ' j2πf tA (n− M ) 2 e − e−j2πf tA (n− 2 ) . j 2 sin(2πf tA (n − M )) 2 Ru (f )
6.5 Linearphasige Systeme
331
Ein System mit einer schiefsymmetrischen Impulsantwort nach Gleichung (6.132) besitzt eine verallgemeinert lineare Phase. Die Amplitudenfunktion M
Ru (f ) =
2
2gn sin(2πf tA (n −
n=0
M )) 2
(6.133)
ist eine ungerade Funktion in f . Der Frequenzgang des FIR-Filters linearer Phase mit schiefsymmetrischer Impulsantwort lautet damit ( ' M G∗ (f ) = Ru (f ) −je−j2πf tA 2 = Ru (f )e−j2πf tA
M 2
−j π 2
.
Der Verzögerung um die halbe Beobachtungszeit tA M 2 ist eine Phasenverschiebung von π überlagert. 2 Den Amplitudengang Au (f ) erhält man, indem man das negative Vorzeichen von Ru (f ) bei negativen Frequenzen über einen Phasensprung von ψ0 = ±π umwandelt. Der Amplitudengang Au (f ) ist eine gerade Funktion in f . 6.5.2.3
Beispiele
Anhand zweier Beispiele werden die in den letzten Abschnitten berechneten Amplitudenfunktionen dargestellt. Hierzu wird eine zu M 2 symmetrische bzw. schiefsymmetrische Impulsantwort vorgegeben, aus welcher nach Gleichungen (6.130) bzw. (6.133) die Amplitudenfunktionen berechnet werden. Die Amplitudenfunktion ergibt sich als eine gerade Funktion im Fall einer symmetrischen Impulsantwort und als eine ungerade Funktion im Fall einer schiefsymmetrischen Impulsantwort. Beispiel 6.134 (FIR-Filter linearer Phase mit symmetrischer Impulsantwort) Angesetzt wird für den symmetrischen Fall ein Filter mit der Impulsantwort: + 4 ,0 ≤ n ≤ M 2n 2 , gn = M4 M , 2 2 · fg betrieben wird. Damit der bandbegrenzende Tiefpass keine zu steile Flanke zwischen Durchlass- und Sperrbereich aufweisen muss, wählt man in der Praxis für fA einen Wert, der ein Vielfaches der 3 dB-Grenzfrequenz des Tiefpasses betragen kann.
/2
g
Abbildung 6.23: Aufbau eines zeitdiskreten Systems zur Verarbeitung zeitkontinuierlicher Signale
Nach der Abtastung steht das zeitdiskrete Signal yn zur Verfügung, das anschließend in einem zeitdiskreten System (Computer) zum Signal zn verarbeitet und dem DigitalAnalog-Wandler zugeführt wird. Das Rekonstruktionsfilter erzeugt hieraus das zeitkontinuierliche Ausgangssignal z(t).
6.6.2
Umsetzung der Übertragungsfunktion
Die Aufgabe eines solchen zeitdiskreten Systems besteht darin, zeitkontinuierliche Systeme nachzubilden. Das zeitdiskrete System besitzt dabei eine Übertragungsfunktion G(z), die in ihrem Verhalten der zeitkontinuierlichen Übertragungsfunktion G(s) sehr nahe kommt. Eine Anwendung ist z.B. der Entwurf zeitdiskreter Filter in Abschnitt 6.8. Die Aufgabe der zeitdiskreten Darstellung einer zeitkontinuierlichen Übertragungsfunktion wird im Folgenden durch drei Ansätze behandelt. 1. Die Impulsantwort eines Systems charakterisiert das System. Tastet man nun die Impulsantwort ab, so ist das Verhalten in den Abtastpunkten identisch. 2. Die Pole und die Nullstellen der Übertragungsfunktion charakterisieren das System. Diese kann man mittels der nichtlinearen Abbildung z = estA übertragen. 3. Das Problem der fehlenden Integration im zeitdiskreten Bereich wird durch das Verfahren der numerischen Integration beseitigt.
334
6.6.3
6 Zeitdiskrete Systeme
Impulsinvarianz
Die Impulsantwort g(t) eines zeitkontinuierlichen Systems S charakterisiert das System. Tastet man nun die Impulsantwort mit der Abtastzeit tA ab, so erhält man eine zeitdiskrete Impulsantwort gn , deren z-Transformierte G(z) die Übertragungsfunktion des zeitdiskreten Systems ist, welches das zeitkontinuierliche System darstellen soll. Satz 6.136 (Impulsinvarianz) Tastet man die Impulsantwort g(t) eines zeitkontinuierlichen Systems S mit der Abtastzeit tA ab, , n ∈ Z,
gn = g(ntA )
und transformiert die zeitdiskrete Impulsantwort in den z-Bereich, so spricht man von Impulsinvarianz. Der Übergang von der zeitkontinuierlichen zur zeitdiskreten Übertragungsfunktion wird durch G(s)
=⇒ L−1
g(t)
=⇒ Abtastung
gn
=⇒ Z
G(z) •
beschrieben. Beispiel 6.137 (Impulsinvarianz) Ein zeitkontinuierliches System mit der Übertragungsfunktion G(s) =
1 T
s+
1 T
soll durch das Verfahren der Impulsinvarianz mit Hilfe eines zeitdiskreten Systems dargestellt werden. Aus G(s) =
1 T
s+
1 T
⇒
g(t) =
1 −t/T · σ(t) e T
folgt durch Abtasten gn =
1 −ntA /T e · σn . T
Durch z-Transformation G(z) =
1 z T z − e−tA /T
erhält man die Übertragungsfunktion G(z) des zeitdiskreten Systems. In Abbildung 6.24 werden alle hier behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme verglichen. •
6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme Zeitkontinuierliches System
335
impulsinvariantes System
g(t) , gn
1
g(t) , gn
1
0.5
0.5
0
0 0
1 2 3 Rechteckregel vorwärts
4
1 2 3 Rechteckregel rückwärts
4
0
1 2 3 Pol−Nullstellenübertragung
4
g(t) , gn
1
g(t) , gn
1
0
0.5
0.5
0
0 0
1
2 Trapezregel
3
4
g(t) , gn
1
g(t) , gn
1
0.5
0.5
0
0 0
1
2 t [sec] , n
3
4
0
1
2 t [sec] , n
3
4
Abbildung 6.24: Vergleich der behandelten Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme
6.6.4
Pol-Nullstellenübertragung
Die Pole und die Nullstellen einer Übertragungsfunktion charakterisieren das System. Überträgt man diese mit der nichtlinearen Abbildung z = estA , so erhält man ein System mit gleichem Übertragungsverhalten. Dabei muss beachtet werden, dass Nullstellen im Unendlichen s0 → ∞ auf z0 = −1 (= ˆ halbe Abtastfrequenz) übertragen werden, d.h. das Zählerpolynom der zeitkontinuierlichen Übertragungsfunktion G(s) besitzt einen kleineren Grad als das Nennerpolynom. Leider verändert sich durch die Pol-Nullstellenübertragung der Proportionalitätsfaktor. Dieser wird dann so gewählt, dass die beiden Systeme bei einer bestimmten Frequenz f0 gleiches Übertragungsverhalten !
G(s = j2πf0 ) = G(z = ej2πf0 tA )
336
6 Zeitdiskrete Systeme
besitzen. Im Bereich der Regelungstechnik wird meistens statische Genauigkeit verlangt, d.h. hier wird die Frequenz f0 = 0 Hz gewählt: !
G(s = 0) = G(z = 1) . Zusammenfassend ergibt sich folgender Satz zur Anwendung der Pol-Nullstellenübertragung. Satz 6.138 (Pol-Nullstellenübertragung) Bei der Pol-Nullstellenübertragung zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme geht man nach folgenden Schritten vor: 1. Alle Pole und Nullstellen von G(s) werden mit der Abbildung z = estA in den z-Bereich übertragen. 2. Alle Nullstellen im Unendlichen, s0 → ∞, werden auf den Punkt z0 = −1 übertragen. 3. Der fehlende Proportionalitätsfaktor wird durch gleiches Übertragungsverhalten !
G(s = j2πf0 ) = G(z = ej2πf0 tA ) bei einer bestimmten Frequenz f0 berechnet.
•
Beispiel 6.139 (Pol-Nullstellenübertragung) Das zeitkontinuierliche System mit der Übertragungsfunktion G(s) =
1 T
s+
1 T
soll durch das Verfahren der Pol-Nullstellenübertragung bei statischer Genauigkeit mit Hilfe eines zeitdiskreten Systems dargestellt werden. Die Polstelle s∞ = −
1 T
=⇒
z∞ = e−tA /T
und die Nullstelle s0 = ∞
=⇒
z0 = −1
werden entsprechend übertragen. Hieraus ergibt sich der Ansatz G(z) = k ·
z+1 z − e−tA /T
6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme
337
für die zeitdiskrete Übertragungsfunktion. Bei statischer Genauigkeit muss die Bedingung G(s = 0) = 1 = G(z = 1) = k ·
2 1 − e−tA /T =⇒ k = 2 1 − e−tA /T
eingehalten werden. Zusammenfassend lässt sich die zeitdiskrete Übertragungsfunktion durch G(z) =
z+1 1 − e−tA /T · 2 z − e−tA /T
angeben. Das Resultat dieser Vorgehensweise ist ebenfalls in Abbildung 6.24 zu sehen. •
6.6.5
Numerische Integration
Die numerische Integration von Differenzialgleichungen, wie sie z.B. einem LTI-System zugrunde liegen, führt immer zu Lösungen. Das numerische Integrationsverfahren soll am Beispiel der einfachen Differenzialgleichung y˙ a (t) = ye (t)
◦−•
G(s) =
1 s
eingeführt werden. Die Integration der Differenzialgleichung mit dem Anfangswert ya (−∞) = 0 zum Abtastzeitpunkt ntA (n−1)t
A
ntA
ya (ntA ) =
ye (t) dt = −∞
ntA
ye (t) dt + −∞
= ya (n − 1)tA +
ye (t) dt
(n−1)tA ntA
ye (t) dt
(n−1)tA
lässt sich auf den alten Ausgangswert zum Zeitpunkt (n−1)tA zurückführen. Der zweite Term auf der rechten Seite lässt sich nun durch die unterschiedlichen Verfahren annähern. Die drei einfachsten numerischen Methoden werden in Abbildung 6.25 vorgestellt. Bei der Rechteckregel vorwärts wird das Integral durch ye,n−1 tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n−1 angenähert. Dessen Übertragungsfunktion GI (z) =
tA z −1 tA = 1 − z −1 z−1
338
6 Zeitdiskrete Systeme ya (t)
ya (t)
ya (t)
y e,n
y e,n
y e,n-1
y e,n-1
(n-1)tA
ntA
t
Rechteckregel vorwärts
(n-1)tA
ntA
t
Rechteckregel rückwärts
(n-1)tA
ntA
t
Trapezregel
Abbildung 6.25: Vorstellung der drei einfachsten Methoden zur numerischen Integration
lässt sich mit s=
z−1 tA
auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen. Bei der Rechteckregel rückwärts wird das Integral durch ye,n tA und somit der Ausgangswert durch ya,n ≈ ya,n−1 + tA · ye,n angenähert. Dessen Übertragungsfunktion GI (z) =
tA tA z = 1 − z −1 z−1
lässt sich mit s=
z−1 tA z
auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen. Bei der Trapezregel wird das Integral durch den Wert tA (ye,n−1 + ye,n )/2 und somit das Ausgangssignal durch tA ya,n ≈ ya,n−1 + · ye,n + ye,n−1 2 angenähert. Dessen Übertragungsfunktion tA −1 tA z + 1 2 1+z = GI (z) = · −1 1−z 2 z−1 lässt sich mit s=
2 z−1 · tA z + 1
auf die zeitkontinuierliche Übertragungsfunktion GI (s) für die Integration zurückführen. Die Trapezregel wird auch als bilineare Transformation bezeichnet.
6.6 Zeitdiskrete Darstellung kontinuierlicher Systeme
339
Satz 6.140 (Numerische Integration) Bei der numerischen Integration entsteht die zeitdiskrete Übertragungsfunktion G(z) durch Ersetzen der Variablen s der zeitkontinuierlichen Übertragungsfunktion durch: s=
z−1 tA
Rechteckregel vorwärts
s=
z−1 tA z
Rechteckregel rückwärts
s=
2 z−1 · Trapezregel / bilineare Transformation tA z + 1
•
Abbildung 6.26 zeigt die Abbildung der s-Ebene in die z-Ebene bei den drei verschiedenen Verfahren zur numerischen Integration. Liegen alle Pole des zeitkontinuierlichen Systems G(s) in der linken s-Halbebene, so ist das System stabil. Wird die linke s-Halbebene auf das Innere des Einheitskreises der z-Ebene abgebildet, so bleibt das System auch bei der numerischen Integration stabil. Dies ist ein Vorteil, den man nicht missen möchte. Bei der Rechteckregel vorwärts kann ein im s-Bereich stabiles System im z-Bereich instabil werden.
1
Rechteckregel vorwärts
s
s
s
z
z
z
1
Rechteckregel rückwärts
1
Trapezregel
Abbildung 6.26: Abbildung der s-Ebene in die z-Ebene bei den verschiedenen Verfahren zur numerischen Integration
340
6 Zeitdiskrete Systeme
Beispiel 6.141 (Numerische Integration) Das zeitkontinuierliche System mit der Übertragungsfunktion G(s) =
1 T
s+
1 T
soll durch Anwendung der numerischen Integration mit allen drei Methoden zeitdiskret dargestellt werden. Dabei erhält man mit Hilfe der Rechteckregel vorwärts tA 1 T = z−1T 1 = , G(z) = G(s) z−1 z − (1 − tTA ) + tA T s=
tA
mit der Rechteckregel rückwärts = G(z) = G(s) z−1 s= zt
A
1 T z−1 tA z
+
1 T
=
(1 +
tA T z tA T )z
−1
und mit der Trapezregel G(z) = G(s)
= s= t2 · z−1 z+1 A
2 tA
·
1 T z−1 z+1
+
1 T
=
tA T z
+ tTA (2 + tTA )z − (2 −
tA T )
die einzelnen Übertragungsfunktionen G(z) des zeitdiskreten Systems. In Abbildung 6.24 werden auch diese Verfahren aufgezeichnet und können daher mit den anderen vorgestellten Verfahren verglichen werden. •
6.7
Filterung mit Fensterfunktionen
In Abschnitt 5.5.6 wurde die diskrete Fourier-Transformation einer komplexen, harmonischen Schwingung mit Leckeffekt behandelt. Betrachtet man die DFT Yk einer Signalfolge yn als Abtastung der Fourier-Transformierten Y∗R (f ) einer zeitbegrenzten Signalfolge ynR , so erhält man eine etwas allgemeinere Interpretation. Hierzu wird das zeitdiskrete Signal yn mit Hilfe der Rechteckfolge 1 ,0 ≤ n ≤ N − 1 rn = (6.142) 0 , sonst durch punktweise Multiplikation auf das der DFT zugrunde liegende Zeitintervall begrenzt. yn , 0 ≤ n ≤ N − 1 R (6.143) y n = y n · rn = 0 , sonst
6.7 Filterung mit Fensterfunktionen
341
Die Fourier-Transformierte dieser zeitbegrenzten Folge ynR erhält man aus der Faltung
∞ Y∗R (f )
= Y∗ (f ) ∗ R∗ (f ) =
Y∗ (ν) · R∗ (f − ν) dν
(6.144)
−∞
der beiden Fourier-Transformierten der Folge yn und der Rechteckfolge rn . Mit der Fourier-Transformierten der Rechteckfolge, die sich zu ∞
R∗ (f ) =
rn · e−j2πf ntA
(6.145)
n=−∞ N −1
=
e−j2πf ntA =
n=0
1 − e−j2πf N tA 1 − e−j2πf tA
N N N e−j2πf tA 2 ej2πf tA 2 − e−j2πf tA 2 = 1 · 1 1 ej2πf tA 2 − e−j2πf tA 2 e−j2πf tA 2 N −1 sin(2πf tA N ) 2 = e−j2πf tA 2 · sin(2πf tA 21 )
(6.146)
berechnet, und bei Vorliegen einer komplexen Schwingung yn = ej2πf0 ntA mit der Fourier-Transformierten Y∗ (f ) =
∞ 1 m δ(f − f0 + ) tA m=−∞ tA
(6.147)
ergibt sich die Faltungssumme Y∗R (f ) =
∞ 1 m R∗ (f − f0 + ). tA m=−∞ tA
(6.148)
Die Fourier-Transformierte der zeitbegrenzten komplexen Schwingung wird damit: ( ' N m ∞ sin 2π(f − f + )t N −1 m 0 A tA 2 1 −j2π(f − f0 + tA )tA 2 ( . ' Y∗R (f ) = e · m tA m=−∞ sin 2π(f − f + )t 1 0
tA
A2
Durch Beschränkung auf das Nyquistband [0, t1A ) und Abtastung des Frequenzbereiches, f → fk =
k tA N
, 0 ≤ k ≤ N − 1,
Nyquistband,
(6.149)
342
6 Zeitdiskrete Systeme
erhält man die diskreten Spektralanteile:
Yk =
=
1 tA
∞
−j2π( NktA e
− f0 +
N −1 m tA )tA 2
m=−∞
( ' sin 2π( NktA − f0 + tmA )tA N2 ( ' · sin 2π( NktA − f0 + tmA )tA 21
∞ 1 −jπ(k − f0 N tA + mN ) N −1 sin (π(k − f0 N tA + mN )) N · π . e tA m=−∞ sin N (k − f0 N tA + mN )
Hierbei erkennt man, dass die bei der DFT entstehenden Leckeffekte als Folge der Zeitbegrenzung durch ein Rechteckfenster zu interpretieren sind. Es ist nun nahe liegend, das Rechteckfenster durch eine andere, ebenfalls zeitbegrenzte Fensterfunktion zu ersetzen, die aber nun so optimiert wird, dass sich günstigere Spektraleigenschaften ergeben. Gehen die Werte der Fensterfunktion und möglichst viele ihrer Ableitungen am Fensterrand stark gegen null, so werden dort die Funktionssprünge, wie sie in Abbildung 5.34 dargestellt worden sind, gedämpft. Dies lässt sich anschaulich durch das RiemannLebesguesche-Lemma (Satz 3.202) erklären.
6.7.1
Definition
Die folgende Definition des Begriffes „Fenster“ dient als Grundlage für weitere Betrachtungen. Definition 6.150 (Zeitdiskretes Fenster) Ein zeitdiskretes Fenster ist eine Folge wN,n , deren wesentliche Signalenergie in einem endlichen Zeitraum konzentriert ist, welcher ein Vielfaches der Zeitdauer ∆t beträgt. Dabei ist die DFT einer mit einer Fensterfolge wN,n gefensterten Signalfolge yn die Faltung der Fourier-Transformierten des zeitdiskreten Signals und des Fensters: Yk = Y∗ (f ) ∗ W∗ (f ) , k = 0, . . . , N − 1 . (6.151) f = NktA Das Ausmaß des Fehlers durch Auftreten des Leckeffekts hängt sehr stark von der Form der Fensterfunktion ab. Verwendet man als Signalfolge die komplexe Schwingung yn = ej2πf0 ntA
, n ∈ Z,
so entspricht die DFT direkt der Abtastung der um f0 verschobenen zeitdiskreten Fourier-Transformierten der Fensterfunktion. Zur Anwendung der Fensterfunktionen multipliziert man die N abgetasteten Folgenwerte yn mit den Werten der Fensterfolge: ynw = yn · wN,n
,0 ≤ n ≤ N − 1.
(6.152)
Für die folgenden Betrachtungen verwenden wir der Einfachheit halber ein gerades N . Des Weiteren sind die Amplitudengänge auf den Wert |W∗ (0)| normiert.
6.7 Filterung mit Fensterfunktionen
6.7.2
343
Rechteckfenster
Das zeitdiskrete Rechteckfenster 1 , n = 0, . . . , N − 1 wN,n = 0 , sonst
(6.153)
mit seiner Fourier-Transformierten
N −1 sin 2πf tA N −j2πf t 2 A 2 · W∗ (f ) = e sin 2πf tA 21
(6.154)
wird in Abbildung 6.27 dargestellt. Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Rechteckfensters liegt bei 2π 1 . (6.155) bzw. Ω= f= N tA N Dies ist ein Maß für die Breite des Hauptmaximums, die sich dann zu 2/(N tA ) ergibt. Die relative Höhe des ersten Nebenmaximums 3π sin( 2 ) W∗ (f = 3 ) sin( 3π ) 2N tA 2N N 1 2 (6.156) = = 3π ≈ 0,212 N W∗ (0) ist ein Maß für den Einfluss des Leckeffekts.
wN,n
1
0.5
0
0
N n
|W*(f)|
1
0.5
20 log10 |W*(f) / W*(0)|
0
f [Hz]
0 −20 −40 −60 −80 −100
f [Hz]
Abbildung 6.27: Zeitdiskretes Rechteckfenster
2N
344
6 Zeitdiskrete Systeme
6.7.3
Dreieckfenster
Das zeitdiskrete Dreieck- oder 2n N wN,n = 2(NN−n) 0
auch Bartlett-Fenster , 0 ≤ n ≤ N2 − 1 , N2 ≤ n ≤ N − 1 , sonst
mit seiner Fourier-Transformierten W∗ (f ) = e−jπf tA (N − 1)
(6.157)
2 sin 2πf tA N4 sin 2πf tA 21
(6.158)
wird in Abbildung 6.28 dargestellt. Die erste Nullstelle der Fourier-Transformation des zeitdiskreten Dreieckfensters 2 4π f= bzw. Ω= N tA N liegt um den Faktor 2 weiter von Null entfernt als die erste Nullstelle bei Verwendung des zeitdiskreten Rechteckfensters, d.h. das Hauptmaximum wird breiter. Wie sich zeigen wird, ist dies bei allen im Folgenden betrachteten Fensterfunktionen der Fall. Die relative Höhe des ersten Nebenmaximums ist im Verhältnis zum Rechteckfenster beim Dreieckfenster kleiner. Damit stellt die Auswahl einer Fensterfunktion immer einen Kompromiss zwischen der Unterdrückung der Nebenmaxima und der Verbreiterung des Hauptmaximums dar.
wN,n
1
0.5
0
0
N n
|W*(f)|
1
0.5
20 log10 |W*(f) / W*(0)|
0
f [Hz]
0 −20 −40 −60 −80 −100
f [Hz]
Abbildung 6.28: Zeitdiskretes Dreieckfenster
2N
6.7 Filterung mit Fensterfunktionen
6.7.4
345
Hanning-Fenster
Das zeitdiskrete Hanning-Fenster wN,n =
1 2
1 − cos
2πn N
0
,0 ≤ n ≤ N − 1 , sonst
(6.159)
mit seiner Fourier-Transformierten
1 sin 2πf tA N2 + (6.160) 2 sin 2πf tA 21 ( ( ' ' N N πN πN 1 sin 2πf tA 2 − N −1 1 sin 2πf tA 2 + N −1 ( + ( ' ' + 4 sin 2πf t 1 − π 4 sin 2πf t 1 + π A2 A2 N −1 N −1
N −1 W∗ (f ) = e−j2πf tA 2
zeigt Abbildung 6.29. Die erste Nullstelle im Spektrum des zeitdiskreten Hanning-Fensters liegt wieder bei f=
2 N tA
bzw.
Ω=
4π . N
wN,n
1
0.5
0
0
N n
|W*(f)|
1
0.5
20 log10 |W*(f) / W*(0)|
0
f [Hz]
0 −20 −40 −60 −80 −100
f [Hz]
Abbildung 6.29: Zeitdiskretes Hanning-Fenster
2N
346
6 Zeitdiskrete Systeme
6.7.5
Blackman-Fenster
Das zeitdiskrete Blackman-Fenster + 0, 08 · cos 4πn ,0 ≤ n ≤ N − 1 0, 42 − 0, 5 · cos 2πn N N wN,n = 0 , sonst (6.161) ist in Abbildung 6.30 gezeigt. Die erste Nullstelle der Fourier-Transformierten des zeitdiskreten Blackman-Fensters liegt bei f=
3 N tA
bzw.
Ω=
6π , N
d.h. das Hauptmaximum ist dreimal so breit wie beim Rechteckfenster. Dafür sind die Nebenmaxima stärker gedämpft.
wN,n
1
0.5
0
0
N n
2N
|W*(f)|
1
0.5
20 log10 |W*(f) / W*(0)|
0
f [Hz]
0 −20 −40 −60 −80 −100
f [Hz]
Abbildung 6.30: Zeitdiskretes Blackman-Fenster
6.7.6
Dolph-Tschebyscheff-Fenster
Im Gegensatz zu den bisher behandelten Fenstern kann das Dolph-Tschebyscheff-Fenster nicht in einer geschlossenen Darstellung angegeben werden, sondern wird als zeitdiskrete, inverse Fourier-Transformierte eines idealen Frequenzgangs definiert. Dabei wird auf eine hohe Sperrdämpfung und ein schmales Hauptmaximum geachtet. Natürlich ist
6.7 Filterung mit Fensterfunktionen
347
beim Entwurf darauf zu achten, dass das Fenster im Zeitbereich eine begrenzte Länge hat. Es gilt −1 F {W∗ (f )} , n = 0, . . . , N − 1 wN,n = (6.162) 0 , sonst, wobei W∗ (f ) den gewünschten Frequenzgang beschreibt. Hierzu verwendet man den Frequenzgang (1 0 ' e−jπf tA (N −1) · cosh (N − 1)arcosh cos(πf tA ) , 0 ≤ f < fg , ) 0 ' cos(πfg tA(1 W∗ (f ) = ) cos(πf t A −jπf t (N −1) A e , fg ≤ f < f2A . · cos (N − 1) arccos cos(πfg tA ) Für eine genauere Beschreibung sei auf die angegebene Literatur, insbesondere auf [KK02] und auf [Kro91], verwiesen.
6.7.7
Zeitdiskretes Gauß-Fenster
Bei der Berechnung und Herleitung des Zeitdauer-Bandbreite-Produktes, vgl. Abschnitt 3.8.1, hatten wir den Gauß-Impuls als die Funktion mit dem minimalen ZeitdauerBandbreite-Produkt erkannt. Der zeitkontinuierliche Gauß-Impuls, Gleichung (3.183), wird als Basis der Definition des zeitdiskreten Gauß-Fensters herangezogen. Zur Erzeugung einer endlichen Funktion ist diese Gauß-Funktion noch mit einem Rechteckfenster zu multiplizieren, was zu einem rechteckgefensterten Gauß-Fenster führt. Diskretisiert man die zeitkontinuierliche Gauß-Funktion, so erhält man das zeitdiskrete rechteckge-
wN,n
1
0.5
0
0
N n
2N
|W*(f)|
1
0.5
f [Hz]
0
20 log
10
*
*
|W (f) / W (0)|
0
−20 −40 −60 −80
f [Hz]
Abbildung 6.31: Zeitdiskretes rechteckgefenstertes Gauß-Fenster für a = 20
348
6 Zeitdiskrete Systeme
wN,n
1
0.5
0
0
N n
2N
|W*(f)|
1
0.5
20 log10 |W*(f) / W*(0)|
0
f [Hz]
0 −20 −40 −60 −80
f [Hz]
Abbildung 6.32: Zeitdiskretes rechteckgefenstertes Gauß-Fenster für a = 40
fensterte Gauß-Signal: −a(n− N 2−1 )2 , n = 0, . . . , N − 1 , wN,n = e 0 , sonst .
(6.163)
Für a = 20 erhält man aus dieser Konstruktion den in Abbildung 6.31 oben dargestellten Signalverlauf. In den beiden unteren Abbildungen sind der Amplitudengang und die Dämpfung eingezeichnet. Über den Skalierungsfaktor a kann die Breite des Gauß-Fensters beeinflusst werden. Einer wachsenden Zeitdauer entspricht dabei eine abnehmende Bandbreite und umgekehrt. Zur Verdeutlichung sind in Abbildung 6.32 für den Fall a = 40 noch einmal der Signalverlauf, der Amplitudengang und die Dämpfung eingezeichnet. Das Hauptmaximum ist breiter geworden, bei stärkerer Dämpfung der Nebenminima.
6.7.8
Zusammenfassung
Im Vergleich der traditionellen, in geschlossener Form darstellbaren Fensterfunktionen zeigt sich, dass Hanning- und Blackman-Fenster in der Praxis sehr gute Ergebnisse liefern. Dabei weist das Blackman-Fenster die größte Sperrdämpfung auf. Dies ist aber mit dem breitesten Durchlassbereich verbunden, was mit dem schmaleren Verlauf im Zeitbereich im Einklang steht. Ein Dolph-Tschebyscheff-Fenster ist den traditionellen Fenstern in der Stärke der Sperrdämpfung und in der Breite des Hauptmaximums überlegen. Dies erkauft man sich jedoch mit einem deutlich höheren Entwurfsaufwand. Beim zeitdiskreten Gauß-Impuls
6.7 Filterung mit Fensterfunktionen
349
wird die Sperrdämpfung durch das überlagerte Rechteckfenster verringert. Die Ergebnisse sind aber dennoch vergleichbar mit denen des Blackman-Fensters. Abschließend wird die Leistungsfähigkeit von Fensterfunktionen an einem Beispiel gezeigt. Beispiel 6.164 (Anwendung von Fensterfunktionen) Die Funktion y(t) aus Abschnitt 3.7.1, die aus zwei harmonischen Schwingungen stark unterschiedlicher Amplitude bei benachbarten Frequenzen besteht, soll mit Hilfe einer DFT im Spektralbereich analysiert werden. Dabei wird das Signal y(t) = A1 · sin(2πf1 t) + A2 · sin(2πf2 t) mit A1 = 1 ,
f1 = 10,5 Hz ,
A2 = 0,01 ,
f2 = 14 Hz
mit der Abtastfrequenz fA = 100 Hz und dem Umfang von N = 128 Abtastpunkten aufgenommen.
*
20 log
10
0
10 20 30 40 DFT mit Blackman−Fenster
50
0 −10 −20 −30 −40 −50 −60 −70 −80
0 10 20 30 40 50 DFT mit rechteckgefenstertem Gauß−Fenster, a=25 0 −10 −20 −30 −40 −50 −60 −70 −80 0 10 20 30 40 50 f [Hz]
10
*
*
(Y (f)*W (f) )
20 log
10
*
*
(Y (f)*W (f) )
50
20 log
10 20 30 40 DFT mit Hanning−Fenster
0 10 20 30 40 50 DFT mit rechteckgefenstertem Gauß−Fenster, a=15 0 −10 −20 −30 −40 −50 −60 −70 −80 0 10 20 30 40 50 f [Hz]
20 log10 (Y*(f)*W*(f) )
0 −10 −20 −30 −40 −50 −60 −70 −80
*
20 log10 (Y*(f)*W*(f) )
0
20 log10 (Y*(f)*W*(f) )
0 −10 −20 −30 −40 −50 −60 −70 −80
DFT mit Rechteckfenster (Y (f)*W (f) )
Spektrum der zeitkontinuierlichen Funktion 0 −10 −20 −30 −40 −50 −60 −70 −80
Abbildung 6.33: Spektrum des kontinuierlichen Signals und Spektren der DFT nach Anwendung unterschiedlicher Fensterfunktionen
350
6 Zeitdiskrete Systeme
Abbildung 6.33 zeigt das Spektrum des kontinuierlichen Signals, das Spektrum nach Anwendung der DFT mit einem Rechteckfenster, das Spektrum nach Anwendung der DFT mit einem Hanning-Fenster und das Spektrum nach Anwendung der DFT mit einem Blackman-Fenster. In Abbildung 6.33 sind außerdem die Spektren bei Anwendung eines rechteckgefensterten Gauß-Fensters für zwei verschiedene Werte des Parameters a aufgetragen. Man sieht deutlich, wie durch die Wahl des Parameters die Genauigkeit der Frequenzanalyse beeinflusst wird. Für a = 15 ist das Gauß-Fenster im Zeitbereich breiter. Dafür konvergiert es im Frequenzbereich stärker. Man erkennt im Spektrum des kontinuierlichen Signals die beiden Spektralanteile der harmonischen Schwingungen. Im DFT-Spektrum nach Anwendung des Rechteckfensters verschmieren aufgrund des Leckeffekts die beiden Spektralanteile. Der schwächere Anteil ist nicht mehr zu erkennen. Bei Anwendung des Hanning-, Blackman- und Gauß-Fensters treten drei Effekte auf: 1. Der schwächere Spektralanteil ist zu erkennen, wenn auch nur schwach. 2. Im Sperrbereich tritt eine deutlich höhere Dämpfung auf. 3. Der starke Spektralanteil wird aufgrund der größeren Hauptmaxima breiter. Mit Hilfe dieses Beispiels lässt sich auch ein Vergleich zwischen Hanning-, Blackmanund Gauß-Fenster anstellen. •
6.8
Frequenzselektive Filter
Frequenzselektive Filter haben die Aufgabe, im Frequenzbereich vorgegebene Eigenschaften exakt oder approximativ zu erfüllen. Zu den Forderungen gehört es, Signalanteile bei bestimmten Frequenzen möglichst unbeeinflusst zu lassen und bei anderen Frequenzen vollständig zu unterdrücken. Man gibt ein kontinuierliches Toleranzschema für den Amplitudengang (siehe Abschnitt 4.6) vor. Entsprechend der Einteilung zeitdiskreter LTI-Systeme wird das Toleranzschema durch FIR- oder IIR-Systeme approximiert (Abschnitt 6.4.5). Dabei werden die unterschiedlichen Verfahren zur zeitdiskreten Darstellung zeitkontinuierlicher Systeme (siehe Abschnitt 6.6) angewendet. Die im Folgenden vorgestellten Verfahren stellen lediglich eine kleine Auswahl aller möglichen Ansätze dar. Zuerst wird jeweils die Vorgehensweise beim Entwurf des zeitdiskreten Filters dargestellt. Danach folgen zur jeder Vorgehensweise Beispiele, die diesen Entwurf veranschaulichen und darüber hinaus weitere Anregungen bieten.
6.8.1
Kausales FIR-Filter über Impulsinvarianz
Nichtrekursive Systeme, d.h. FIR-Filter, haben nur Nullstellen und eventuell einen mehrfachen Pol im Ursprung. Deshalb muss die Zahl der Abtastwerte N (= ˆ Fensterlänge) ausreichend groß gewählt werden. Der folgende Entwurf in Satz 6.165 liefert ein kausales Filter. Er baut auf dem in Abschnitt 6.6.3 vorgestellten Verfahren der Impulsinvarianz auf.
6.8 Frequenzselektive Filter
351
Satz 6.165 (FIR-Filterentwurf, Methode der Impulsinvarianz) Der Entwurf von kausalen FIR-Filtern vollzieht sich in folgenden Schritten: 1. Festlegen des Toleranzschemas und des gewünschten kontinuierlichen Amplitudenganges A(f ) entsprechend Abschnitt 4.6.1. Das zeitdiskrete Filter stellt eine Approximation des zeitkontinuierlichen Filters dar. Zum Ausgleich von Approximationsfehlern muss die Ordnung K größer gewählt werden. 2. Über die Entwurfsmethoden bei zeitkontinuierlichen Systemen erhält man die kontinuierliche kausale Übertragungsfunktion G(s), indem man aus dem Ansatz |G(s)|2 = G(s)G(−s) durch Auswahl der Pole links der imaginären Achse unmittelbar eine stabile Übertragungsfunktion G(s) erhält. 3. Mittels der inversen einseitigen Laplace-Transformation berechnet man die kausale Impulsantwort aus G(s) : g(t) = L−1 {G(s)} . 4. Das Abtasten der Impulsantwort führt auf eine zeitdiskrete Funktion bzw. Folge gn , entsprechend Abschnitt 6.6.3. Dabei wird die Abtastfrequenz so gewählt, dass kein Aliasing auftritt. 5. Die Fensterung dieser Folge mit einer kausalen Fensterfunktion wn der Länge N erzeugt eine zeitbegrenzte Impulsantwort gn = gn · wn . Die kausale Fensterfunktion hat den maximalen Funktionswert bei n = 0, und fällt dann nach N − 1 ab. Die Auswirkungen des Leckeffekts lassen sich durch geschickte Wahl der Fensterfunktion reduzieren (Abschnitt 6.7). 6. Überprüfung, ob das gewünschte Toleranzschema eingehalten wird. Dazu wird der Amplitudengang A(f ) = |G(f )| über die diskrete Fourier-Transformation oder über die z-Transformation mit z = ej2πf tA berechnet. Sollte das Toleranzband nicht eingehalten werden, so wird der Entwurf von G(s) mit höherer Ordnung K wiederholt oder die Länge N des Fensters erhöht. Die resultierende Differenzengleichung des FIR-Filters lautet nach Satz 6.22 ya,n =
N −1
ye,n−i gi .
•
i=0
Beispiel 6.166 (Entwurf eines kausalen FIR-Filters) Das Entwurfsziel sei ein Tiefpass mit der Durchlassfrequenz fD und der Sperrfrequenz fS = 2fD . Weitere Einschränkungen ergeben sich durch die geforderte Dämpfung im Durchlass- und Sperrbereich. Als Vorgabe soll das Signal im Durchlassbereich maximal um den Faktor δD = 0,2 gedämpft werden, während im Sperrbereich eine Dämpfung auf δS = 0,1 gefordert wird. Diese Anforderung wird durch die Normierung auf ein normiertes Toleranzschema abgebildet, welches als Vorgabe für den Entwurf eines normierten Tiefpasses dient.
352
6 Zeitdiskrete Systeme 1
A(f’)
0.8 0.6 0.4 0.2 0
0
1
2
3
f’ [Hz]
Abbildung 6.34: Amplitudengang und Toleranzschema des normierten Tiefpasses bei einem Butterworth-Ansatz der Ordnung K=4
Hierdurch entsteht ein Toleranzschema, wie es in Beispiel 4.171 betrachtet wurde und in Abbildung 4.24 bzw. 6.34 eingezeichnet ist. In dieser Abbildung findet sich auch der aus dem Butterworth-Entwurf resultierende Amplitudengang. Die Berechnung des zeitkontinuierlichen Butterworth-Filters in Beispiel 4.171 ergab mit fD =1
fS = 2
δD = 0,2
δS = 0,1
die Parameter ∆D =
3 4
∆S =
√
99 ≈ 9,95.
Hieraus berechnet sich K=4
ε=
∆D = 4,8122 · 10−4 (2π)K
G0 = 2,078 · 103 . Beim Übergang auf eine zeitdiskrete Übertragungsfunktion und anschließender Rekonstruktion des Amplitudengangs entstehen Approximationsverluste. Das angestrebte Toleranzschema wird weniger gut bzw. gar nicht erfüllt. Damit auch das zeitdiskrete Filter das in Abbildung 6.34 vorgegebene Toleranzschema einhält, wird deshalb die Ordnung K des zuerst entworfenen zeitkontinuierlichen Filters deutlich erhöht. Die Toleranzparameter δD , δS bleiben unverändert, weshalb auch die Werte für ∆D , ∆S die gleichen Werte wie bei vorigem Entwurf besitzen, ∆D =
3 4
∆S =
√
99 ≈ 9,95.
Mit K = 8 anstelle von K = 4 ergeben sich die Parameter jetzt zu ε = 4,9141 · 10−8
6.8 Frequenzselektive Filter
353
und G0 = 3,239 · 106 . Die Pole links der imaginären Achse sind s∞1 s∞3 s∞5 s∞7
= −1,2707 + j6,3881 = −5,4156 + j3,6186 = −6,3881 − j1,2707 = −3,6186 − j5,4156
s∞2 s∞4 s∞6 s∞8
= −3,6186 + j5,4156 = −6,3881 + j1,2707 = −5,4156 − j3,6186 = −1,2707 − j6,3881
und die dazugehörigen Residuen r1 r3 r5 r7
= −27,7113 +j3,6372 r2 = −24,2100 +j13,9650 = 2,2241 +j0,5969 r4 = 1,4026 −j1,8264 = 33,1749 +j25,4767 r6 = −1,5066 −j11,4784 = 5,7845 +j10,0281 r8 = 10,8419 −j40,3991.
Dieses zeitkontinuierliche Filter (K = 8) erfüllt das Toleranzschema natürlich wesentlich besser als gefordert, vgl. Abbildung 6.35. Durch Rücktransformation der einzelnen Partialbrüche erhält man die in Abbildung 6.35 dargestellte kausale Impulsantwort. Man erkennt, dass die zeitkontinuierliche Impulsantwort für K = 8 bereits relativ „früh“ vernachlässigbar geringe Werte annimmt. Somit kann diese zumindest aus praktischer Sicht als zeitbegrenzt betrachtet werden. Der Amplitudengang A(f ) ist zwar nicht wirklich bandbegrenzt, jedoch nehmen die Spektralanteile für hohe Frequenzen stark ab. Bereits bei der Frequenz fg = 4 Hz ist die Dämpfung |G(fg )| > −20 log(0,001) = 60 dB. a(fg ) = −20 log |G(0)| BW−Filter der Ordnung K=8
Impulsantwort bei Ordnung K=8 3
1 2 1
0.6
g(t)
|GK=8(f)|
0.8
0.4
0
0.2
−1
0 0
1
2 f [Hz]
3
−2
0
1
2
3
4
5
t [sec]
Abbildung 6.35: Amplitudengang und kausale Impulsantwort des zeitkontinuierlichen Systems für K = 8
354
6 Zeitdiskrete Systeme Abgetastete Impulsantwort 3
g(t) , gn
2 1 0 −1 −2
0
1
2 3 t [sec] , n
4
Abbildung 6.36: Abgetastete Impulsantwort des zeitkontinuierlichen Systems für K = 8
5
Die Funktion g(t) wird abgetastet, um die zeitdiskretisierte Impulsantwort gn = g(ntA ) zu erhalten (Methode der Impulsinvarianz ). Aufgrund obiger Bemerkung über fg ist eine Abtastfrequenz von fA = 10 Hz ausreichend, was einer Abtastzeit von tA = 0,1 s entspricht. Hierdurch entsteht die in Abbildung 6.36 dargestellte Impulsantwort. Um ein FIR-Filter zu erhalten, wird die Impulsantwort zeitgefenstert. Hierzu benutzen wir zwei verschiedene Fenster, nämlich ein kausales Rechteckfenster der Form 1 ,0 ≤ n ≤ N − 1 Rn = 0 , sonst und ein rechteckgefenstertes, kausales Gauß-Fenster der Form 2 2 e−(ntA ) /(2a ) , 0 ≤ n ≤ N − 1 RGn = . 0 , sonst Beide Fenster sind in der Abbildung 6.37 dargestellt. Rechteckfenster für N=30
Gauß−Fenster für a=2,5 und N=30 1
0.8
0.8
0.6
0.6
Rn
RGn
1
0.4
0.4
0.2
0.2
0
0 0
10
20
30 n
40
0
10
20
30
40
n
Abbildung 6.37: Zeitdiskretes Rechteck- und Gauß-Fenster (a = 2,5) für N = 30
6.8 Frequenzselektive Filter
355
Rechteckgefensterte Impulsantwort für N=30
Gauß−gefensterte Impulsantwort für a=2,5 und N=30 3
3
2
1
1 gn
gn
R
RG
2
0
0
−1
−1
−2
0
10
20
30
40
−2
50
0
10
20
30
40
50
n
n
Rechteckfenster (N=30)
Rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1.5
1.5
1
R
A (f)
ARG(f)
1
0.5
0.5
0
0 0
1
2
3
0
1
f [Hz]
2
3
f [Hz]
Abbildung 6.38: Gefensterte Impulsantworten des FIR-Filters und die rekonstruierten Amplitudengänge
Begrenzt man mittels dieser Fenster die (bereits abgetastete) Impulsantwort auf N = 30 Werte, so erhält man die FIR-Impulsantworten gnR , n = 0, . . . , 29, für das Rechteckfenster und gnRG , n = 0, . . . , 29, für das rechteckgefensterte Gauß-Fenster, welche in Abbildung 6.38 in den beiden oberen Graphiken dargestellt sind. In den weiteren Betrachtungen sind der Einfachheit halber die hochgestellten Kennzeichnungen unterdrückt und die Impulsantworten stets mit gn bezeichnet. Diese zeitdiskreten Impulsantworten sollen nun darauf untersucht werden, inwiefern der dazugehörige Amplitudengang das geforderte Toleranzschema erfüllt. Zu diesem Zweck unterziehen wir die Impulsantworten (durch Nullen fortgesetzt) der z-Transformation und bestimmen daraus den Amplitudengang aus A(f ) = |G(f )| : G(f ) = G(z = ej2πf tA ) =
N −1
gn e−j2πf ntA
(6.167)
n=0
Das Resultat ist ebenfalls in Abbildung 6.38 dargestellt. Der resultierende Amplitudengang verletzt das Toleranzschema im Durchlassbereich, bietet aber gleichzeitig Reserve im Sperrbereich bzw. im Übergangsbereich. Diese
356
6 Zeitdiskrete Systeme Mit α=1,3 skaliertes BW−Filter der Ordnung K=8
Skalierte Impulsantwort 3
1 2
0.6
1
α
g (t)
|Gα (f)| K=8
0.8
0.4
0
0.2
−1
0 0
1
2
−2
3
f [Hz]
0
1
2
3
4
5
t [sec]
Abbildung 6.39: Amplitudengang und Impulsantwort des skalierten, kausalen zeitkontinuierlichen Filters der Ordnung K = 8
Tatsache wird für einen neuerlichen Entwurf verwendet. Hierzu geht man folgendermaßen vor: Der Amplitudengang A(f ) wird mittels Skalierung nach rechts verschoben. Dies geschieht über die Abbildung f →
f α
, α ∈ (1, fS ).
(6.168)
Hierzu ist eine Skalierung der Übertragungsfunktion G(s) mit dem Parameter α erforderlich: 's( . (6.169) G(s) → G α Die Übertragungsfunktion G(s) geht in die folgende, skalierte Übertragungsfunktion über: 's( G0 = K Gα (s) = G < s α α − s∞ν ν=1
=
G0 α K K < ν=1
.
(s − αs∞ν )
α
Da G (s) durch Skalierung aus G(s) entstanden ist, ergibt sich für die Impulsantwort nach Gleichung (4.75) 's( } = αg(αt). (6.170) g α (t) = L−1 {Gα (s)} = L−1 {G α Mit dem Faktor α = 1, 3 resultiert für den skalierten Amplitudengang und die skalierte Impulsantwort der Verlauf in Abbildung 6.39, welche sich die Reserve im Übergangsbereich zu Nutze macht.
6.8 Frequenzselektive Filter
357 Skalierte Gauß−gefensterte Impulsantwort für N=30 3 2
1
1
gα,RG
2
n
n
gα,R
Skalierte rechteckgefensterte Impulsantwort für N=30 3
0 −1 −2
0 −1
0
10
20
30
40
−2
50
0
10
20
30
40
50
n
n
Skaliertes Rechteckfenster (N=30)
Skaliertes rechteckgefenstertes Gauß−Fenster (a=2,5, N=30) 1.5
1.5
1
Aα,R(f)
Aα,RG(f)
1
0.5
0
0.5
0 0
1
2
3
0
1
f [Hz]
2
3
f [Hz]
Abbildung 6.40: Abgetastete und gefensterte Impulsantworten der skalierten FIR-Filter sowie deren rekonstruierte Amplitudengänge
Nach dem Abtasten ergibt sich die Impulsantwort: gα,n = g α (ntA ) = αg(αntA ) .
(6.171)
Bei Anwendung eines Rechteck- und eines Gauß-Fensters erhält man die in Abbildung 6.40 dargestellten Impulsantworten und jeweiligen Amplitudengänge. Diese halten jetzt das geforderte Toleranzschema ein. Aufgrund der Diskretisierung entsteht lediglich bei Verwendung des Rechteckfensters eine Überschreitung im Durchlassbereich, die aber vernachlässigbar ist. Die Phase dieser beiden Filter ist in Abbildung 6.41 zu sehen. Man erkennt, dass die Phasenverzerrungen bei Verwendung • des Gauß-Fensters deutlich geringer ausfallen.
358
6 Zeitdiskrete Systeme
Phasengang des rechteckgefensteren FIR−Filters 4
Gruppenlaufzeit des rechteckgefensteren FIR−Filters 0.1
0.05 τ (f)
0
−2
−4 −5
0
g
ψ(f)
2
−0.05
0 f [Hz]
−0.1 −5
5
Phasengang des Gauß−gefensteren FIR−Filters 4
0 f [Hz]
5
Gruppenlaufzeit des Gauß−gefensteren FIR−Filters 0.05
τ (f)
0
0
g
ψ(f)
2
−2
−4 −5
0 f [Hz]
5
−0.05 −5
0 f [Hz]
5
Abbildung 6.41: Phasengang und Gruppenlaufzeit der skalierten FIR-Filter
6.8.2
Akausales FIR-Filter über die DFT
Für die zweite Entwurfsmethode eines akausalen FIR-Filters wählt man als Ausgangspunkt die Fourier-Transformation zeitdiskreter Signale, vgl. Abschnitt 5.3.1, die durch 1
Y∗ (f ) =
∞
yn e−j2πf ntA
2tA ,
yn = t A
n=−∞
Y∗ (f )ej2πf ntA df
− 2t1
A
dargestellt wird. Wählt man einen bestimmten Amplitudengang A(f ) im Nyquistband, A(f ) = |G∗ (f )|, so wird mit den bekannten Methoden aus Abschnitt 4.6 das zeitkontinuierliche Filter G(s) entworfen. Aus diesem könnte man mit der Rücktransformation, d.h. der Integration über das Nyquistband, unmittelbar die komplexen Koeffizienten 1
2tA gn = tA − 2t1 A
G(f )ej2πf ntA df
,n ∈ Z
(6.172)
6.8 Frequenzselektive Filter
359
eines unendlichen langen, akausalen Filters bestimmen. Zur numerischen Berechnung wird der Frequenzgang im Nyquistband diskretisiert, Gk = G(f = k∆f ) , k = −N, . . . , N − 1, wobei die Abstände ∆f =
fA 2N
(6.173)
gewählt werden, damit 2N komplexe Werte Gk im Nyquistband liegen. Damit wird das Integral (6.172) über die Rechteckregel durch gn = tA
N −1
∆f · G(k∆f )ej2πk∆f ntA
, n = −N, . . . , N − 1
k=−N
=
N −1 kn 1 Gk ej2π 2N 2N
, n = −N, . . . , N − 1
(6.174)
k=−N
angenähert. Die Impulsantwort ist auf den Bereich n = −N, . . . , N − 1 beschränkt. Die Diskretisierung im Frequenzbereich bewirkt eine periodische Wiederholung der Impulsantwort mit der Periode T0 = 2N tA im Zeitbereich. Die resultierende Berechnung der diskreten Impulsantwort entspricht der inversen DFT (Definition 5.77). Zur Reduzierung des Leckeffekts kann die Impulsantwort mit einem weiteren akausalen Fenster multipliziert werden, z.B. dem symmetrischen, akausalen Gauß-Impuls. gn = gn · w2N,n Das Filter ist akausal, so dass das Ausgangssignal erst um N Abtastwerte verzögert vorliegt. Man verzögert deshalb die Ausgabe des Ausgangssignals, damit zur Berechnung des Wertes ya,n0 auch der Wert ye,n0 +N einfließen kann. Satz 6.175 (FIR-Filter-Entwurf durch inverse DFT) Der Filterentwurf von FIR-Filtern durch die inverse DFT vollzieht sich in sechs Schritten: 1. Festlegen des Toleranzschemas und des gewünschten Amplitudenganges A(f ). Bei Bedarf bei A(f ) etwas steilere Flanken annehmen, um Diskretisierungsfehler auszugleichen. 2. Entwurf eines zeitkontinuierlichen Filters G(s) gemäß den Vorgaben. 3. Festlegen der Zahl 2N der Abtastpunkte im Nyquistband. Abtastung des Frequenzgangs Gk = G(f = k∆f ) mit ∆f gemäß Gleichung (6.173). 4. Berechnen der zeitdiskreten Impulsantwort über die inverse DFT gn =
N −1 1 Gk ej2πkn/2N 2N k=−N
, n = −N, . . . , N − 1.
360
6 Zeitdiskrete Systeme 5. Gewichten der Impulsantwort mit einer akausalen, diskreten Fensterfunktion w2N,n , um den Leckeffekt zu verringern: gn = gn · w2N,n . 6. Bei Bedarf Verschiebung der Impulsantwort um N Abtastschritte. gn = gn−N
◦−•
G (z) = G (z) · z −N
Durch die Verschiebung ergibt sich eine zusätzliche lineare Phasendrehung, vgl. Satz 6.122. 7. Überprüfung, ob das gewünschte Toleranzbandschema eingehalten wird. Sollte dies nicht der Fall sein, so wird entweder ein modifizierter Amplitudengang A(f ) höherer Ordnung angesetzt, und/oder die Zahl der Abtastpunkte N erhöht. • Danach beginnt man bei Punkt 2. Die resultierende Differenzengleichung für das verschobene, akausale Filter ist nach Satz 6.22 die Faltungssumme ya,n−N =
2N −1
. ye,n−i · gi−N
i=0
Beispiel 6.176 (Entwurf eines akausalen FIR-Filters) Für den Entwurf eines Filters nach der in Satz 6.175 dargestellten Methode wird der Amplitudengang vorgegeben. Hierbei wird von Anfang an ein zeitkontinuierliches Filter G(s) höherer Ordnung mit K = 6 angesetzt, damit nach der Durchführung der Entwurfsschritte das Toleranzschema eingehalten wird. Der Amplitudengang A(f ) ist in Abbildung 6.42 zusammen mit den N = 10 Abtastwerten im Bereich [0, f2A ] dargestellt (fA = 10 Hz). Für die weitere Rechnung wird nach Gleichung (6.174) jedoch nicht der Amplitudengang A(f ), sondern der abgetastete Frequenzgang Gk benötigt. Somit sind also BW−Filter der Ordnung K=6
|GK=6(f)| , |Gk|
1 0.8 0.6 0.4 0.2 0 0
1
2 3 f [Hz] , k
4
5
Abbildung 6.42: Vorgegebener und abgetasteter Amplitudengang
6.8 Frequenzselektive Filter
361 Amplitudengang des akausalen, zeitdiskreten Filters
Impulsantwort des Filters der Ordnung K=6 0.3
1
0.2
0.8
0
A(f)
gn
0.1
−0.1
0.4
−0.2
0.2
−0.3 −0.4 −1
0.6
0 −0.5
0 n⋅t
0.5
1
0
1
2
3
4
5
f [Hz]
A
Abbildung 6.43: Impulsantwort und rekonstruierter Amplitudengang des akausalen, zeitdiskreten Filters
die Abtastwerte komplex, da sie aus der Abtasten des Frequenzganges G(k∆f ) entstehen. Aus A(f ) werden deshalb das zeitkontinuierliche Filter G(s) und daraus die komplexen Abtastwerte Gk = G(s = j2πtA k · ∆f ) berechnet. Die resultierende Impulsantwort, die entsprechend der inversen DFT in Gleichung (6.174) berechnet wird, findet sich in Abbildung 6.43 zusammen mit dem für dieses Filter rekonstruierten Amplitudengang. Das Toleranzschema wird aufgrund der Diskretisierung im Durchlassbereich nach oben hin verletzt. Um dies zu korrigieren wird die Impulsantwort mit einem symmetrischen Gauß-Fenster, wie in Abbildung 6.44 skizziert, gefenstert. Nach der Fensterung entsteht die Impulsantwort in Abbildung 6.45. Man erkennt, dass aufgrund der Fensterung Signalenergie verloren geht. Der hieraus rekonstruierte Amplitudengang verletzt das Toleranzschema nun „nach unten“, d.h. durch zu starke Dämpfung im Durchlassbereich.
Gauß−Fenster für a=0,8 1
RGn
0.8 0.6 0.4 0.2 0 −1
−0.5
0 n ⋅ tA
0.5
1
Abbildung 6.44: Symmetrisches GaußFenster zur Fensterung der Impulsantwort des FIR-Filters
362
6 Zeitdiskrete Systeme Amplitudengang des akausalen, gefensterten Filters
Gefensterte Impulsantwort des Filters der Ordnung K=6 0.2
1 0.1
0.8
g
n
A(f)
0
0.6 0.4
−0.1
0.2
−0.2
0 −0.3 −1
−0.5
0 n⋅t
0.5
1
0
1
2
3
4
5
f [Hz]
A
Abbildung 6.45: Impulsantwort und rekonstruierter Amplitudengang des gefensterten, akausalen, zeitdiskreten FIR-Filters Mit α=1,2 skalierter BW−Filter der Ordnung K=6
α
|GK=6(f)| , |Gk|
1 0.8 0.6 0.4 0.2 0 0
1
2 3 f [Hz] , k
4
5
Abbildung 6.46: Skalierter vorgegebener Amplitudengang für α = 1, 2 Amplitudengang des skalierten, gefensterten Filters
Skalierte Impulsantwort des Filters der Ordnung K=6 0.3
1
0.2
0.8
0
A(f)
gn
0.1
−0.1
0.4
−0.2
0.2
−0.3 −0.4 −1
0.6
0 −0.5
0 n⋅t
A
0.5
1
0
1
2
3
4
5
f [Hz]
Abbildung 6.47: Impulsantwort und rekonstruierter Amplitudengang des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters
6.8 Frequenzselektive Filter
363
Phasengang des skalierten, gefensterten FIR−Filters 4
Gruppenlaufzeit des skalierten, gefensterten FIR−Filters 1
0.5 τ (f)
0
g
ψ(f)
2
−2
0
−0.5
−4 −5
0 f [Hz]
5
−1 −5
0 f [Hz]
5
Abbildung 6.48: Phasengang und Gruppenlaufzeit des skalierten, gefensterten, akausalen, zeitdiskreten FIR-Filters
Um dies auszugleichen, kann man wie in Abschnitt 6.8.1 einen skalierten Entwurf durchführen, hier mit einem Skalierungsfaktor α = 1, 2. Dies führt auf den skalierten Amplitudengang in Abbildung 6.46. Wendet man nun auf diesen die Entwurfsmethode erneut an und gewichtet das Resultat mit einem Gauß-Fenster, so entstehen die Impulsantwort und deren rekonstruierter Amplitudengang in Abbildung 6.47. Die Phase des Filters ist in Abbildung 6.48 • zu sehen.
6.8.3
IIR-Filter über die zeitdiskrete Übertragungsfunktion
Der in Abschnitt 4.6 verwendete Ansatz soll wiederum Ausgangspunkt für den Entwurf eines zeitdiskreten IIR-Filters sein. Dazu wird aus dem zeitkontinuierlichen Filter G(s) mittels der in Abschnitt 6.6 vorgestellten Methoden ein zeitdiskretes Filter G(z) entworfen. Hierbei entfällt die Fensterung, welche zum Entwurf von FIR-Filtern notwendig war. Die Impulsantwort ist unendlich lang, das System besitzt in seiner kanonischen Darstellung eine rekursive Komponente. Satz 6.177 (IIR-Filterentwurf ) Unter Verwendung der Ansätze bei den zeitkontinuierlichen Systemen in Abschnitt 4.6 erfolgt der Entwurf frequenzselektiver IIR-Filter in fünf Schritten, vgl. [KK02]. 1. Vorgabe des kontinuierlichen Toleranzschemas. 2. Entwurf eines zeitkontinuierlichen, frequenzselektiven Filters im s-Bereich, was auf eine Übertragungsfunktion G(s) führt. 3. Übertragung der zeitkontinuierlichen Übertragungsfunktion G(s) des frequenzselektiven Filters in eine zeitdiskrete Darstellung G(z) mit einer der Methoden, die in Abschnitt 6.6 aufgezeigt wurden. Dazu muss die Abtastzeit so gewählt werden, dass das Abtasttheorem eingehalten wird.
364
6 Zeitdiskrete Systeme 4. Überprüfung, ob das gewünschte Toleranzschema A(f ) = |G(z = ej2πf tA )| eingehalten wird. Sollte dies nicht der Fall sein, so wird der Entwurf von G(s) • mit höherer Ordnung K wiederholt.
Bemerkung 6.178 Entsteht bei der zeitdiskreten Darstellung der zeitkontinuierlichen Übertragungsfunktion G(s) eine gebrochen rationale zeitdiskrete Übertragungsfunktion G(z), so kann aus G(z) unter Beachtung der Verschiebungsregel der z-Transformation unmittelbar die das System beschreibende Differenzengleichung bestimmt werden. Durch fortlaufende Berechnung der Differenzengleichung wird das IIR-Filter auf einem Mi• krorechner realisiert. Bemerkung 6.179 Anstelle der im Punkt 4. vorgeschlagenen Erhöhung der Ordnung K kann bei geringen Abweichungen vom Toleranzschema evtl. die in Beispiel 6.166 verwendete Skalierung benutzt werden. Davon wird im folgenden Beispiel Gebrauch gemacht. • Der Entwurf des zeitkontinuierlichen, frequenzselektiven Filters G(s) erfolgt entsprechend Abschnitt 4.6. Der Übergang auf die zeitdiskrete Darstellung G(z) des zeitkontinuierlichen Systems G(s) verwendet eine der in Abschnitt 6.6 behandelten Methoden. Die am meisten benutzte Übertragung geschieht mit der Trapezregel, vgl. Abschnitt 6.6.5. Die entstehenden zeitdiskreten Systeme sind autoregressiv und stellen somit IIRFilter dar.
Beispiel 6.180 (Entwurf eines IIR-Filters) In diesem Beispiel soll die Konstruktion eines IIR-Filters mit der in Satz 6.177 vorgestellten Methode erfolgen. Wir geben uns dasselbe Toleranzschema (Abbildung 6.34) wie beim Entwurf der vorherigen FIR-Beispiel-Filter vor. Es ergibt die kontinuierliche Übertragungsfunktion G(s) der Ordnung K = 4 nach Beispiel 4.171. Nun muss diese Übertragungsfunktion G(s) in eine zeitdiskrete Systemfunktion G(z) übertragen werden. Bei der Zeitdiskretisierung muss die Abtastzeit festgelegt werden. Das Signal wird wie im ersten Beispiel bei fg = 4 Hz mit 60 dB als bandbegrenzt angesehen. Eine Abtastfrequenz von fA = 10 Hz bzw. eine Abtastzeit tA = 0,1sec erfüllt dann praktisch das Abtasttheorem. Wir wenden die in Abschnitt 6.6.5 vorgestellte bilineare Transformation an, um aus der zeitkontinuierlichen Übertragungsfunktion G(s) die zeitdiskrete Übertragungsfunktion G(z) zu gewinnen. Es folgt:
6.8 Frequenzselektive Filter
365
G(z) = G(s) = G0
= z−1 A z+1
s= t2
tA 2
K ' < ν=1
K
G0 2 z−1 tA z+1
− s∞ν
(
(z + 1)K K : < z(1 − ν=1
tA 2 s∞ν )
− (1 +
;
.
tA 2 s∞ν )
Bei Verwendung der bilinearen Transformation ist die resultierende Übertragungsfunktion G(z) im Gegensatz zur Methode der Impulsinvarianz wieder eine gebrochen rationale Funktion. Diese kann dann in eine das System repräsentierende Differenzengleichung überführt werden. Für einen Butterworth-Entwurf der Ordnung K = 4 erhält man die Pole: s∞1 = −2,5838 + j6,2378 s∞2 = −6,2378 + j2,5838 s∞3 = −6,2378 − j2,5838 s∞4 = −2,5838 − j6,2378 Die resultierende zeitdiskrete Übertragungsfunktion ist durch G(z) =
0,0054z 4 + 0,0218z 3 + 0,0327z 2 + 0,0218z + 0,0054 z 4 − 2,3110z 3 + 2,2223z 2 − z + 0,1759
gegeben, woraus sich mit der Umformung G(z) =
0,0054 + 0,0218z −1 + 0,0327z −2 + 0,0218z −3 + 0,0054z −4 1 − 2,3110z −1 + 2,2223z −2 − z −3 + 0,1759z −4
die Differenzengleichung ergibt: ya,n = 0,0054ye,n + 0,0218ye,n−1 + 0,0327ye,n−2 +0,0218ye,n−3 + 0,0054ye,n−4 +2,3110ya,n−1 − 2,2223ya,n−2 + ya,n−3 − 0,1759ya,n−4 Der rekonstruierte Amplitudengang A(f ) = |G(z = ej2πf tA )| dieses IIR-Filters ist in Abbildung 6.49 dargestellt. Das Toleranzschema wird mit dem zeitdiskreten IIR-Filter nur wenig an der Grenze des Durchlassbereiches verletzt. Dafür besteht aber ein ausreichender Abstand zur Grenze des Sperrbereiches. Aus diesem Grund wird eine Skalierung mit α = 1,1 durchgeführt, mit welcher die Reserve im Übergangsbereich genutzt wird. Dies geschieht durch Berechnung der skalierten, zeitkontinuierlichen Übertragungsfunktion Gα (s) = G
's( α
=
G0 α K K < ν=1
(s − αs∞ν )
(6.181)
366
6 Zeitdiskrete Systeme Verwendung der Trapezregel 1
A(f)
0.8 0.6 0.4 0.2 0 0
1
2
Abbildung 6.49: Rekonstruierter Amplitudengang des IIR-Filters bei Anwendung der bilinearen Transformation
3
f [Hz]
und anschließender Anwendung der bilinearen Transformation: G0 α K α α G (z) = G (s) = K 2 z−1 < s= t z+1 (s − αs∞ν ) s= t2A z−1 z+1 A = G0
tA 2
ν=1
K αK
(z + 1)K K < ν=1
: z(1 −
tA 2 αs∞ν )
− (1 +
;
.
tA 2 αs∞ν )
Durch Aα (f ) = |Gα (f )| = Gα (z = ej2πf tA ) entsteht der rekonstruierte Amplitudengang in Abbildung 6.50. Dieser hält das vorgegebene Toleranzschema ein. Die Phase und die Gruppenlaufzeit des Systems finden sich in Abbildung 6.51.
Skalierung und Verwendung der Trapezregel 1
Aα(f)
0.8 0.6 0.4 0.2 0 0
1
2 f [Hz]
3
Abbildung 6.50: Rekonstruierter Amplitudengang bei Anwendung der Skalierung und der bilinearen Transformation
6.8 Frequenzselektive Filter
367
4
0.05
τg(f)
ψ(f)
2
0
0
−2
−4 −5
0 f [Hz]
5
−0.05 −5
0 f [Hz]
5
Abbildung 6.51: Phase und Gruppenlaufzeit bei Anwendung der Skalierung und der bilinearen Transformation
Durch Rücktransformation der Übertragungsfunktion und Anwendung der Verschiebungsregel der z-Transformation erhält man die dazugehörige Differenzengleichung: ya,n = 0,0073ye,n + 0,0293ye,n−1 + 0,0440ye,n−2 +0,0293ye,n−3 + 0,0073ye,n−4 +2,1577ya,n−1 − 1,9940ya,n−2 • +0,8677ya,n−3 − 0,1487ya,n−4
6.8.4
FIR-Filter über Transformation des Frequenzganges
In diesem Abschnitt wird eine Möglichkeit zum Entwurf eines digitalen Filters vorgestellt, welche vom Entwurfsaufwand einfacher als die anderen Methoden ist. Hierzu greifen wir später noch einmal das Beispiel 6.124 auf. Zuerst soll jedoch ein analytischer Zusammenhang zwischen der Impulsantwort und dem gewünschten Frequenzgang hergeleitet werden. Als Basis der Herleitung dient die Systemfunktion eines zeitdiskreten Systems, G(z) =
∞
gn z −n ,
n=−∞
in welcher die Werte der Impulsantwort als Koeffizienten einer Reihe in der Variablen z auftreten. Aus dieser erhält man den Frequenzgang ∞ ( ' gn e−j2πf ntA . G(f ) = G z = ej2πf tA = n=−∞
Besitzt die Impulsantwort 2N + 1 Werte symmetrisch um Null, so vereinfacht sich die Summation zu G(f ) =
N n=−N
gn e−j2πf ntA .
(6.182)
368
6 Zeitdiskrete Systeme
Dieser Frequenzgang wird analytisch vorgegeben. Mit der Fourier-Transformation zeitdiskreter Signale in Satz 5.20 berechnet sich die zum Frequenzgang G(f ) zugehörige Impulsantwort als fA
gn =
2
1 fA
G(f )e −
j2π fnA f
df
, n = −N, . . . , N.
fA 2
Ist der gewünschte Frequenzgang eine gerade Funktion in f , so vereinfacht sich die Berechnung der Impulsantwort: fA
2 gn = fA
2 0
n G(f ) cos 2π f fA
df
, n = −N, . . . , N
(6.183)
fA
2
G(f ) cos (2πntA f ) df
= 2tA
, n = −N, . . . , N
(6.184)
0
Die Impulsantwort ist somit ebenfalls eine gerade Wertefolge, g−n = gn
, n = 1, . . . , N,
die sich mittels symbolischer Intergralberechnungen aus dem gewünschten Frequenzgang ergibt. Beispiel 6.185 (Idealer Tiefpass aus dem Frequenzgang) Soll ein idealer Tiefpass mit dem gewünschten Frequenzgang 1 , |f | ≤ fg G(f ) = 0 , |f | > fg mit den beschriebenen Methoden entworfen werden, so berechnen sich die Werte der Impulsantwort zu:
fg fg 2tA gn = 2tA cos (2πntA f ) df = sin (2πntA f ) 2πntA 0 0 ( ' fg 2tA fg sin 2πn fA = sin (2πntA fg ) = 2 , n = −N, . . . , N . f 2πntA fA 2πn g fA
Für den Fall N = 5 und die Frequenz-Parameter fA = 100 Hz, fg = 25 Hz ergeben f sich fAg = 14 und die Werte g−5 = 0,0637 g−4 = 0 g−3 = −0,1061 g−2 = 0 g−1 = 0,3183 g0 = 0,5000 g1 = 0,3183 g2 = 0 . g3 = −0,1061 g4 = 0 g5 = 0,0637
6.8 Frequenzselektive Filter
369
0.6
gn
0.4
0.2
0
−0.2 −5
Abbildung 6.52: Impulsantwort des einfachen FIR-Filter-Entwurfs für N = 5
0 n
5
0 f [Hz]
50
Abbildung 6.53: Rekonstruierter Frequenzgang des einfachen FIR-Filter-Entwurfs für N = 5
0 f [Hz]
50
Abbildung 6.54: Rekonstruierter Frequenzgang des einfachen FIR-Filter-Entwurfs für N = 25
1.5
G(f)
1
0.5
0
−0.5 −50
1.5
G(f)
1
0.5
0
−0.5 −50
Die Impulsantwort ist in Abbildung 6.52 dargestellt. Die das System beschreibende Differenzengleichung lautet: ya,n =
N
gi ye,n−i
i=−N
Der Frequenzgang des Systems ist in Abbildung 6.53 zu sehen. Da die Zeitfunktion eine reelle und gerade Funktion ist, ist der Frequenzgang reell. Man erkennt, wie sich das Gibbssche Phänomen auswirkt. Die Überschwinger können nach Abschnitt 3.7.2 in ihrer Höhe nicht gedämpft werden. Zur Veranschaulichung dieser Tatsache ist in Abbildung 6.54 der Frequenzgang eines Filters der Ordnung
370
6 Zeitdiskrete Systeme 0.6 1 0.4 g ⋅ RG
0.6
0.2
n
RGn
n
0.8
0.4 0 0.2 0
−20
−10
0 n
10
−0.2
20
−20
−10
0 n
10
20
Abbildung 6.55: Gauß-Fenster und gefensterte Impulsantwort des einfachen FIR-Filter-Entwurfs für N = 25 bei Verwendung des Gauß-Fensters mit a = 20
N = 25 dargestellt. Es ist deutlich zu erkennen, dass dieser näher an dem idealen Rechteckverlauf liegt. Dennoch besitzen die Überschwinger dieselbe Höhe wie im Fall N = 5. Um dies zu vermeiden, kann die Impulsantwort mit einem Gauß-Fenster gefenstert werden. Das Fenster und die gefensterte Impulsantwort sind in Abbildung 6.55 dargestellt. Man erkennt, dass durch die Fensterung die Werte am „Rand“ der Impulsantwort in ihrer Höhe gedämpft werden. Für die gefensterte Impulsantwort zeigt Abbildung 6.56 den resultierenden Frequenzgang. Durch Anwendung eines Gauß-Fensters werden die Auswirkungen des Gibbsschen Phänomens reduziert. Als Nachteil dieser Entwurfsmethode kann kein Toleranzschema angegeben werden. Dies schränkt die Möglichkeiten der Einflussnahme ein. Zudem ist eine analytische Lösung des Integrals in Gleichung (6.184) zur Bestimmung der Werte der Impulsantwort notwendig. Auf der anderen Seite ist dieser Entwurf deutlich einfacher als die in den letzten Abschnitten dargestellten Entwürfe. Durch Erhöhung der Zahl der Abtastwerte N kann die Flankensteilheit des Filters erhöht werden. Bei Verschie1.5
G(f)
1
0.5
0
−0.5 −50
0 f [Hz]
50
Abbildung 6.56: Rekonstruierter Frequenzgang des Gauß-gefensterten einfachen FIR-Filter-Entwurfs für N = 25 und a = 20
6.9 Spezielle zeitdiskrete Filter bung der Impulsantwort um praktische obere Grenze.
371 N 2
Schritte für Echtzeitanwendungen gibt es aber eine
Da der Phasengang des resultierenden Filters null ist, eignet sich diese Entwurfsmethode für Anti-Aliasing- und Rekonstruktions-Filter. •
6.9
Spezielle zeitdiskrete Filter
In den folgenden Abschnitten werden verschiedene zeitdiskrete Filter und deren Anwendungen präsentiert.
6.9.1
Zeitdiskrete Hilbert-Transformation
Für praktische Anwendungen wird die Hilbert-Transformierte in zeitdiskreter Form benötigt. Das Ziel dieses Abschnittes ist es, die zeitdiskrete Hilbert-Transformation herzuleiten und deren Eigenschaften zu betrachten. Hierzu werden Forderungen an das zeitdiskrete Spektrum des analytischen Signals angestellt, welche denjenigen der zeitkontinuierlichen Hilbert-Transformation entsprechen. Die nachfolgenden Betrachtungen finden sich ausführlicher in [OS98]. Es wird die Wertefolge zn des zeitdiskreten analytischen Signals angesetzt, deren Spektrum im Bereich negativer Frequenzen definitionsgemäß verschwinden soll: !
Z∗ (f ) = 0 , −
fA < f < 0. 2
(6.186)
Man beachte hier die Bedeutung des Begriffes „negative Frequenzen“. Bei zeitdiskreten Signalen sind die betrachteten Spektren periodisch mit der Periode fA . Somit ist das Analogon zur Auslöschung des analytischen Signals bei negativen Frequenzen in Gleichung (6.186) durch das Verschwinden des Spektrums im negativen Teil des Nyquistbandes gegeben. Aufgrund der Periodizität ergibt sich die Tatsache, dass das Spektrum an der Stelle fA gleich null sein muss. Durch Zerlegung des analytischen Signals in seinen Real- und Imaginärteil, zn = xR,n + jxI,n , ergeben sich zwei reelle Folgen xR,n , xI,n zur Darstellung von zn . Diese können über zn + zn∗ 2 zn − zn∗ = Im{zn } = 2j
xR,n = Re{zn } = xI,n
berechnet werden. Mit den jeweiligen Fourier-Transformierten XR (f ), XI (f ) folgt aufgrund der Linearität der Fourier-Transformation im Spektralbereich der Zusammenhang Z∗ (f ) = XR,∗ (f ) + jXI,∗ (f ).
372
6 Zeitdiskrete Systeme
Die Real- und Imaginärteile der Fourier-Transformierten ergeben sich zu 1 (Z∗ (f ) + Z∗∗ (−f )) 2 1 jXI,∗ (f ) = (Z∗ (f ) − Z∗∗ (−f )) . 2
(6.187)
XR,∗ (f ) =
(6.188)
Die Real- und Imaginärteile von Z∗ (f ) weisen Symmetrien im Frequenzbereich auf. So ist X∗,R (f ) konjugiert symmetrisch zur Mittenfrequenz Null, d.h. ∗ (−f ), XR,∗ (f ) = XR,∗
und XI,∗ (f ) konjugiert punktsymmetrisch, d.h. ∗ (−f ). jXI,∗ (f ) = −jXI,∗
Nach Gleichung (6.186) soll das Spektrum des analytischen Signals im negativen Teil des Nyquistbandes verschwinden. !
Z∗ (f ) = XR,∗ (f ) + jXI,∗ (f ) = 0 , −
fA
M 2
375
1
1
0.5
0.5 gQ,M,n
yM,n
6.9 Spezielle zeitdiskrete Filter
0 −0.5
0 −0.5
−1
−1 0
20
40 n
60
80
0
20
40 n
60
80
Abbildung 6.58: Endliche Cosinus-Schwingung und Impulsantwort des Hilbert-Transformators für tA = 1[sec] und M = 40
yM,n * gQ,M,n
1 0.5 0 −0.5 −1 0
20
40 n
60
80
Abbildung 6.59: Faltung einer endlichen Cosinus-Schwingung und einer endlichen kausalen Impulsantwort des HilbertTransformators für tA = 1[sec] und M = 40
verwendet. In Abbildung 6.58 sind die endliche Schwingung und die Impulsantwort des Hilbert-Transformators zu sehen. Entsprechend Bemerkung 5.90 ist die Impulsantwort zur Sicherung der Kausalitätseigenschaft des Systems auf die doppelte Länge 2M erweitert. Die Cosinus-Schwingung wird im zweiten Teilintervall mit Nullen aufgefüllt (Zero-Padding). Das entstehende Ausgangssignal yˇM,n = gQ,M,n ∗ yM,n
, n = 0, . . . , M
wird nicht exakt der zeitdiskreten Hilbert-Transformation entsprechen, da durch die Beschränkung auf endlich viele Eingangswerte Fehler entstehen. Das Resultat der Faltung findet sich in Abbildung 6.59. Man erkennt, dass aufgrund der endlichen Folgen Fehler entstehen und das Ausgangssignal entsprechend der kausalen Impulsantwort um M 2 verschoben ist. Im Bereich um M ist die Näherung aber recht gut. • Nun soll auch noch das andere im kontinuierlichen Fall durchgeführte Beispiel zeitdiskret berechnet werden.
376
6 Zeitdiskrete Systeme
Beispiel 6.196 (Hilbert-Transformation einer zeitdiskreten Si-Funktion) Auch hier soll zur Erfüllung des Abtasttheorems lediglich der Fall f0 < f2A betrachtet werden. Ausgangspunkt bildet die abgetastete si-Folge sin(2πf0 ntA ) fA fA fA yn = . ◦−• Y∗ (f ) = r2f0 (f ) , f ∈ − , 2πf0 ntA 2f0 2 2 Die Hilbert-Transformation ergibt wegen Yˇ∗ (f ) = Y (f ) · GQ (f ) für die HilbertTransformation der zeitdiskreten si-Funktion jfA , 0 < f < f0 − 2f0 jf ˇ A Y∗ (f ) = + , −f0 < f < 0 . 2f0 0 , sonst Die Rücktransformation in den Zeitbereich erfolgt durch Integration der Spektralfunktion:
0
f0 jfA j2πf ntA jfA j2πf ntA yˇn = tA e df − tA e df 2f0 2f0 −f0
0
0 10 0 1 f0 j −j = ej2πf ntA ej2πf ntA + 2f0 j2πntA 2f0 j2πntA −f0 0 0 1 0 1 −j j 1 − e−j2πf0 ntA + ej2πf0 ntA − 1 = 2f0 j2πntA 2f0 j2πntA 1 (1 − cos(2πf0 ntA )) = 2πf0 ntA
•
Definition 6.197 (Zeitdiskretes analytisches Signal) Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal bestimmt sich durch zn = yn + j yˇn .
Das Leistungsdichtespektrum des analytischen Signals erhält man durch die Korrelation Rzz (k) = Ryy (k) + Ryˇyˇ(k) + j [Ryˇy (k) − Ryyˇ(k)] wie beim zeitkontinuierlichen analytischen Signal zu: 4SY Y (f ) , 0 < f < f2A SZZ (f ) = 2SY Y (f ) , f = 0 0 , − f2A ≤ f < 0, f =
(6.198) fA 2
6.9 Spezielle zeitdiskrete Filter
377
Satz 6.199 (Zeitdiskretes analytisches Signal) Das zu einer reellen Wertefolge yn gehörige zeitdiskrete analytische Signal zn besitzt nur Spektralanteile im positiven Frequenzbereich. Das Leistungsdichtespektrum stimmt dort bis auf den Faktor mit dem Leistungsdichtespektrum von yn überein. • Die Erzeugung eines zeitdiskreten analytischen Signals wird nun an einem Beispiel illustriert.
Beispiel 6.200 (Zeitdiskretes analytisches Signal) Betrachten wir das Signal yn = cos(2πf0 ntA ). Die Hilbert-Transformierte berechnet sich nach Beispiel 6.194 zu yˇn = sin(2πf0 ntA ). Hieraus resultiert das zugehörige zeitdiskrete analytische Signal: zn = yn + j yˇn = cos(2πf0 ntA ) + j sin(2πf0 ntA ) = ej2πf0 ntA . Dieses hat das Spektrum Z∗ (f ) = Y∗ (f ) + j Yˇ∗ (f ) 1 j = (δ(f + f0 ) + δ(f − f0 )) + j (δ(f + f0 ) − δ(f − f0 )) 2 2 1 1 = (δ(f + f0 ) + δ(f − f0 )) − (δ(f + f0 ) − δ(f − f0 )) 2 2 = δ(f − f0 ). Es ist zu erkennen, dass aus den zwei Frequenzanteilen bei ±f0 ein einziger Frequenzanteil bei f0 entstanden ist, der aber die doppelte Amplitude besitzt. Das Spektrum erhöht sich im Gegensatz zum Leistungsdichtespektrum „nur“ um den Faktor zwei, da bei der Berechnung des Leistungsdichtespektrums sowohl die Autokorrelationsfunktion des Signals als auch die Autokorrelationsfunktion der zugehörigen Hilbert-Transformierten einfließen. •
6.9.2
Zeitdiskreter Differenzierer
Zur Herleitung der Impulsantwort eines zeitdiskreten Differenzierers überträgt man den Frequenzgang eines zeitkontinuierlichen Differenzierers (Differenziationssatz der Fourier-Transformation) auf den zeitdiskreten Fall. Der Frequenzgang im Nyquistband ist GD (f ) =
j2πf tA 0
, |f | ≤ fg , sonst
mit einer vorgegeben Grenzfrequenz fg < des zeitdiskreten Differenzierers zu:
fA 2 .
Hieraus berechnet sich die Impulsantwort
378
6 Zeitdiskrete Systeme
fg gn = tA
j2πf tA ej2πf tA n df
−fg n=0
=
j2πf t2A
fg fg 1 1 j2πf tA n ej2πf tA n df − j2πt2A e j2πtA n j2πtA n −fg −fg
1 j2πfg tA n tA fg j2πfg tA n e e + e−j2πfg tA n − − e−j2πfg tA n = 2 n j2πn 1 tA fg cos(2πfg tA n) − sin(2πfg tA n) = 2 πn2 n fg 1 1 fg fg = fA · cos(π fA n) − sin(π fA n) . 2 n πn 2 2 2 Für fg =
fA 2
erhält man: 0 gn = 1 n cos(πn)
,n = 0 , sonst
Die Impulsantwort ist akausal. Für eine kausale Impulsantwort endlicher Länge muss gn auf ein Beobachtungsfenster mit M Abtastschritten begrenzt und um M 2 verzögert werden. Man erhält für gerade M die schiefsymmetrische kausale Impulsantwort: + 1 M , 0 ≤ n ≤ M, n = M M cos(π(n − 2 )) 2 gD,kaus,n = n− 2 (6.201) 0 ,n = M , n < 0, n > M 2 Diese ist in Abbildung 6.60 dargestellt. Der dazugehörige Frequenzgang ist GD,kaus (f ) = 2πf tA e−j(2πf tA
M 2
−π 2)
.
(6.202)
Somit besitzt der kausale Differenzierer eine verallgemeinert lineare Phase, vgl. Abschnitt 6.5. Impulsantwort des zeitdiskreten Differenzierers 1
gD,kaus,n
0.5 0
−0.5 −1 0
5
10 n
15
20
Abbildung 6.60: Impulsantwort des zeitdiskreten Differenzierers für M = 20
6.9 Spezielle zeitdiskrete Filter
6.9.3
379
Korrektur der Gruppenlaufzeit eines Filters
Nach dem Entwurf eines Filters, beispielsweise nach den Methoden in Abschnitt 6.8, weist dieses Filter den gewünschten Amplitudengang oder eine Approximation desselben auf. Soll der Phasengang ebenfalls einen gewünschten Verlauf besitzen, welcher von dem sich durch den Entwurf ergebenden Verlauf abweicht, so muss der Phasengang korrigiert werden. Dies kann durch Hinzufügen oder Abspalten eines Allpasses erreicht werden. Der folgende Abschnitt zeigt eine Möglichkeit auf, mittels welcher solch eine Korrektur vorgenommen werden kann. Hierzu wird exemplarisch ein Allpass mit zwei konjugiert komplexen Pol- und Nullstellen verwendet, der die Übertragungsfunktion GA (z) =
∗ )(1 − zz∞ν ) (1 − zz∞ν ∗ ) (z − z∞ν )(z − z∞ν
, z∞ν = rν ejφν
, |rν | < 1
(6.203)
besitzt. Durch z = ej2πf tA berechnet sich der Frequenzgang dieses Allpasses zu: ; : ; : 1 − rν ej(2πf tA −φν ) · 1 − rν ej(2πf tA +φν ) ; : ; GA (f ) = j2πf t : A 1 − r e−j(2πf tA −φν ) · ej2πf tA 1 − r e−j(2πf tA +φν ) e ν ν Die Nullstellenwinkel sind nach der Herleitung in Bemerkung 6.105 rν sin(2πf tA − φν ) β1 = − arctan 1 − rν cos(2πf tA − φν ) rν sin(2πf tA + φν ) β2 = − arctan 1 − rν cos(2πf tA + φν ) und die Polstellenwinkel:
rν sin(2πf tA − φν ) 1 − rν cos(2πf tA − φν ) rν sin(2πf tA + φν ) α2 = 2πf tA + arctan 1 − rν cos(2πf tA + φν )
α1 = 2πf tA + arctan
Insgesamt ist der Phasenwinkel: ψ(f ) = βν − αν ν
ν
rν sin(2πf tA − φν ) = −4πf tA − 2 arctan 1 − rν cos(2πf tA − φν ) rν sin(2πf tA + φν ) −2 arctan . 1 − rν cos(2πf tA + φν )
Die Gruppenlaufzeit ergibt sich daraus durch Ableitung: 1 − rν2 1 − rν2 τg (f ) = tA . + 1 − 2rν cos(2πf tA − φν ) + rν2 1 − 2rν cos(2πf tA + φν ) + rν2 Im folgenden Beispiel wird durch Hinzufügen des Allpasses aus Gleichung (6.203) die Korrektur einer Gruppenlaufzeit vorgenommen.
380
6 Zeitdiskrete Systeme
Beispiel 6.204 (Korrektur einer Gruppenlaufzeit) Als Grundlage der folgenden Betrachtungen dient das zeitdiskrete IIR-System aus Beispiel 6.121. Für die Übertragungsfunktion G(z) =
bz z−a
, |a| < 1
ergibt sich mit den Parametern a = b = 0,5 der in Abbildung 6.61 dargestellte Amplituden- und Phasengang: ' ( A(f ) = G z = ej2πf tA , ? ' (@ ψ(f ) = arg G z = ej2πf tA . Die Gruppenlaufzeit entsteht durch Ableiten und Gewichten des Phasengangs τg (f ) = −
1 d ψ(f ) 2π df
und ist in Abbildung 6.62 zu sehen. 1
4
0.8
2
A(f)
ψA(f)
0.6
0
0.4 −2
0.2 0 −0.5
0 f [Hz]
0.5
−4 −0.5
0 f [Hz]
0.5
Abbildung 6.61: Amplitudengang und Phasengang des zeitdiskreten IIR-Filters für a = b = 0,5 −3
10
x 10
8
g
τ (f)
6 4 2 0 −0.5
0 f [Hz]
0.5
Abbildung 6.62: Gruppenlaufzeit des zeitdiskreten IIR-Filters für a = b = 0,5
6.9 Spezielle zeitdiskrete Filter
−3
10
x 10
381
rν=0.2 , φν=0.3927
−3
10
6
6 g,A
τ
g,A
τ
4
2
0
0 0 f [Hz] −3
10
x 10
0.5
−0.5
rν=0.2 , φν=2.138
0 f [Hz] −3
10 8
6
6
x 10
0.5
rν=0.75 , φν=2.138
g,A
(f)
8
(f)
4
τ
g,A
4
2
−0.5
τ
rν=0.75 , φν=0.3927
(f)
8
(f)
8
x 10
2
2
0 −0.5
4
0 0 f [Hz]
0.5
−0.5
0 f [Hz]
0.5
Abbildung 6.63: Gruppenlaufzeiten der zeitdiskreten Allpässe GA (z) bei den gewählten Polen
Ab ca. |f | > 0,2 Hz ist die Gruppenlaufzeit negativ. Erwünscht sei ein Filter mit ausschließlich positiver Gruppenlaufzeit. Dazu wird ein Allpass nach Gleichung (6.203) in Serie geschaltet. Zur Korrektur der Gruppenlaufzeit werden vier verschiedene Pol-NullstellenKonfigurationen des Allpasses betrachtet. Hierzu geben wir den Pol z∞ν = rν ejφν mit den willkürlich gewählten Radien rν = 0,2 und rν = 0,75 bzw. den Argumenten φν = 22,5◦ (0,3927 rad) bzw. φν = 122,5◦ (2,138 rad) vor. Mit diesen entstehen für den Allpass GA (z) =
∗ )(1 − zz∞ν ) (1 − zz∞ν ∗ ) (z − z∞ν )(z − z∞ν
die in Abbildung 6.63 gezeigten Gruppenlaufzeiten. Diese vier verschiedenen Allpässe werden nun auf ihre Eignung zur Korrektur der Gruppenlaufzeit des ursprünglichen IIR-Systems G(z) untersucht. Hierzu schaltet man diese Allpässe zu dem System G(z) in Serie, woraus das neue Gesamt-System Gges (z) = G(z) · GA (z) entsteht. Wegen |Gges (f )| = |G(f )| · |GA (f )| = |G(f )|
382
6 Zeitdiskrete Systeme
−3
x 10
−3
10 8
6
6
τg,ges(f)
8
4
2
0
0 0 f [Hz] −3
10
x 10
0.5
−0.5
rν=0.2 , φν=2.138
8
6
6
4 2
rν=0.75 , φν=0.3927
0 f [Hz] −3
10
8
x 10
0.5
rν=0.75 , φν=2.138
4 2
0 −0.5
x 10
4
2
−0.5
τg,ges(f)
rν=0.2 , φν=0.3927
τg,ges(f)
τg,ges(f)
10
0 0 f [Hz]
0.5
−0.5
0 f [Hz]
0.5
Abbildung 6.64: Gruppenlaufzeiten des resultierenden Gesamtsystem Gges (z) nach Korrektur der Gruppenlaufzeit bei den gewählten Polen
ändert sich der Amplitudengang hierdurch nicht. Der Phasengang des Systems Gges (z) ist ψges (f ) = ψ(f ) + ψA (f ), woraus sich entsprechend für die Gruppenlaufzeit τg,ges (f ) = τg (f ) + τg,A (f )
(6.205)
ergibt. Die aus der Gleichung (6.205) für die vier möglichen Kombinationen entstehenden Gruppenlaufzeiten τg,ges (f ) des Gesamtsystems Gges (z) sind in Abbildung 6.64 dargestellt. Ein Allpass mit rν = 0,2, φν = 2, 138 rad bringt für das Gesamtsystem eine annähernd konstante Gruppenlaufzeit und damit eine lineare Phase. Für rν = 0,2 und φν = 2,138 lautet die Differenzengleichung des phasenkorrigierten IIR-Filters: ya,n − 0,2851ya,n−1 − 0,0675ya,n−2 − 0,02ya,n−3 = 0,02ye,n − 0,1075ye,n−1 + 0,5ye,n−2 .
•
A
Zusammenfassung der Fourier-Transformationen
Die im Buch vorgestellten Fourier-Transformationen zur Spektraluntersuchung von Signalen werden kurz wiederholt und gegeneinander abgegrenzt. Die mathematischen Zusammenhänge zwischen den Signalen und ihren Spektren bei den Fourier-Transformationen findet man in Tabelle A.1. In Abbildung A.1 werden exemplarisch entsprechende Signale und deren Spektren dargestellt.
Fourier-Transformation Die Fourier-Transformation stellt die allgemeine Form zur Spektralanalyse dar. So lassen sich die Fourier-Reihe, die Fourier-Transformation zeitdiskreter Signale und die diskrete Fourier-Transformation mit Hilfe der Fourier-Transformation darstellen.
Fourier-Reihe Die Fourier-Reihe verwendet man zur Spektraluntersuchung periodischer, zeitkontinuierlicher Signale. Das Spektrum ist frequenzdiskret und nicht periodisch. Bei einer Periodendauer von T0 beträgt der Abstand der Frequenzlinien damit ∆f =
1 T0 .
Fourier-Transformation zeitdiskreter Signale Bei der Fourier-Transformation zeitdiskreter Signale wird das im Zeitbereich nicht periodische Signal äquidistant mit der konstanten Abtastzeit tA abgetastet. Das Spektrum ist frequenzkontinuierlich und mit der Abtastfrequenz fA = t1A periodisch. Es gilt Y∗ (f ) = fA ·
∞
Y (f − kfA ).
k=−∞
Das zeitdiskrete Signal kann man als Folge yn oder als eine Funktion in Form einer Impuls-Reihe darstellen. Die Höhe der Impulse entspricht dem Funktionswert des abgetasteten Signals y∗ (t) = y(t) ·
∞ n=−∞
δ(t − ntA )
384
A Fourier-Transformationen
bzw. den einzelnen Folgengliedern y∗ (t) =
∞
yn δ(t − ntA ).
n=−∞
Diskrete Fourier-Transformation, DFT Bei der diskreten Fourier-Transformation, DFT, ist das Signal zeitdiskret und über N Abtastwerte periodisch. Das Spektrum ist entsprechend frequenzdiskret und über N Frequenzwerte periodisch. Die Periodendauer T0 des Signals lautet T0 = N · tA . Hieraus folgt der Abstand der 1 Frequenzlinien im Spektrum ∆f = T10 = N ·t und Periodizität mit der Abtastfrequenz A 1 fA = tA . Erwähnenswert ist, dass sowohl bei der Hin- als auch bei der Rück-Transformation weder eine Frequenz noch eine Zeit bzw. Zeitdauer benötigt wird. Zwar impliziert der Zeitindex n die Zeit t, gerechnet wird in beiden Fällen aber nur mit den Zahlenfolgen.
A Fourier-Transformationen
385
Ambivalenz zwischen Diskretisierung und Periodizität Es zeigt sich, dass die Diskretisierung im Signal bzw. im Spektrum und die Periodizität im Spektrum bzw. im Signal ambivalent sind. Dies wird in folgender Tabelle dargestellt. Tabelle A.1: Tabelle der Fourier-Transformationen
Eigenschaft im Zeitbereich Frequenzbereich zeitkontinuierlich ⇐⇒ nicht periodisch zeitdiskret ⇐⇒ periodisch periodisch ⇐⇒ frequenzdiskret nicht periodisch ⇐⇒ frequenzkontinuierlich
Fourier-Transformation
∞ y(t) =
Y (f )ej2πf t df
∞ Y (f ) =
−∞
y(t)e−j2πf t dt
−∞
Fourier-Reihe (periodische Signale)
yp (t) =
∞
T0
Yk
j2π Tk0 t e
Yk =
k=−∞
2
1 T0
yp (t)e −
−j2π Tk0 t
dt
T0 2
Fourier-Transformation zeitdiskreter Signale fA
2 y n = tA −
Y∗ (f )ej2πf ntA df
∞
Y∗ (f ) =
yn · e−j2πf ntA
n=−∞
fA 2
Diskrete Fourier-Transformation
yn =
N −1 kn 1 Yk ej2π N N k=0
Yk =
N −1
yn e−j2π N
kn
n=0
In den Tabellen A.2, A.3 und A.4 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
386
A Fourier-Transformationen Spektrum − frequenzkontinuierlich, nicht periodisch
y(t)
|Y(f)|
Signal − zeitkontinuierlich, nicht periodisch
f [Hz] Spektrum − frequenzdiskret, nicht periodisch
|Yk|
yp(t)
t [sec] Signal − zeitkontinuierlich, periodisch
k Spektrum − frequenzkontinuierlich, periodisch
yn
|Y*(f)|
t [sec] Signal − zeitdiskret, nicht periodisch
f [Hz] Spektrum − frequenzdiskret, periodisch
yn
|Yk|
n Signal − zeitdiskret, periodisch
n
k
Abbildung A.1: Gegenüberstellung der Signale und deren Spektren
A Fourier-Transformationen
387
Tabelle A.2: Eigenschaften der Fourier-Transformation
Linearkombination c1 · y1 (t) + c2 · y2 (t)
◦−•
c1 · Y1 (f ) + c2 · Y2 (f )
◦−•
Y ∗ (−f )
Konjugiert komplexe Funktionen y ∗ (t)
Umkehrung der Zeit- bzw. Frequenzachse y(−t)
◦−•
Y (−f )
Y (t)
◦−•
y(−f )
y(t) reell, gerade
⇔
Y (f ) reell, gerade
y(t) reell, ungerade
⇔
Y (f ) imaginär, ungerade
y(t) imaginär, gerade
⇔
Y (f ) imaginär, gerade
y(t) imaginär, ungerade
⇔
Y (f ) reell, ungerade
Symmetrieeigenschaft
Gerade und ungerade Funktionen
Positive Signale y(t) ≥ 0
=⇒
|Y (f )| ≤ Y (0)
Grenzwert des Spektrums
∞ |y(t)| dt < ∞ −∞
=⇒
lim Y (f ) = 0
f →±∞
388
A Fourier-Transformationen
Tabelle A.3: Rechenregeln der Fourier-Transformation
a ∈ R = 0
Maßstabsänderung, Skalierung y(at)
◦−•
1 f Y |a| a t0 ∈ R
Zeitverschiebung y(t − t0 )
◦−•
e−j2πf t0 · Y (f ) f0 ∈ R
Modulation ej2πf0 t · y(t)
◦−•
Y (f − f0 )
◦−•
(j2πf )n Y (f )
Differenziation der Zeitfunktion y (n) (t)
Differenziation der Spektralfunktion (−j2πt)n y(t)
◦−•
Y (n) (f )
Integration der Zeitfunktion
t y(τ ) dτ
◦−•
Y (f ) 1 + Y (0)δ(f ) j2πf 2 ∞ |y (t)|2 dt < ∞ i = 1, 2 −∞ i
∞ Y1 (f )∗Y2 (f ) = Y1 (ν)Y2 (f − ν) dν
−∞
Multiplikation im Zeitbereich y1 (t) · y2 (t)
◦−•
−∞
Faltung im Zeitbereich
∞ y1 (t)∗y2 (t) = y1 (τ )y2 (t − τ ) dτ −∞
∃i = 1, 2 ∀t : |yi (t)| < M ◦−•
Y1 (f ) · Y2 (f )
A Fourier-Transformationen
389
Tabelle A.4: Korrespondenzen der Fourier-Transformation
1 ◦−• δ(f ) ∞
δ(t − nT ) ◦−•
n=−∞
k=−∞
sign(t) ◦−• σ(t) = + rT (t) = dT (t) =
2 T
1 , für t ≥ 0 0 , für t < 0
1 , für |t| ≤ 0 , für |t| >
T 2 T 2
t + 1 , t ∈ [− T2 , 0]
1− 0
2 T
∞ 1 k δ f− T T
t , t ∈ [0, ] , sonst T 2
◦−•
−j πf j 1 δ(f ) − 2 2πf
◦−• T si(πf T )
◦−•
cos(2πf0 t) ◦−• sin(2πf0 t) ◦−• e−a|t| , a > 0 ◦−•
T T 2 si πf 2 2 1 (δ(f + f0 ) + δ(f − f0 )) 2 j (δ(f + f0 ) − δ(f − f0 )) 2 2a a2 + (2πf )2
e−a|t| sign(t), a > 0 ◦−• −j e−at σ(t), a > 0 ◦−• te−at σ(t), a > 0 ◦−• 2 e−at , a > 0 ◦−•
4πf a2 + (2πf )2
1 a + j2πf 1 (a + j2πf )2 )
π −(πf )2 /a e a
A
Zusammenfassung der Fourier-Transformationen
Die im Buch vorgestellten Fourier-Transformationen zur Spektraluntersuchung von Signalen werden kurz wiederholt und gegeneinander abgegrenzt. Die mathematischen Zusammenhänge zwischen den Signalen und ihren Spektren bei den Fourier-Transformationen findet man in Tabelle A.1. In Abbildung A.1 werden exemplarisch entsprechende Signale und deren Spektren dargestellt.
Fourier-Transformation Die Fourier-Transformation stellt die allgemeine Form zur Spektralanalyse dar. So lassen sich die Fourier-Reihe, die Fourier-Transformation zeitdiskreter Signale und die diskrete Fourier-Transformation mit Hilfe der Fourier-Transformation darstellen.
Fourier-Reihe Die Fourier-Reihe verwendet man zur Spektraluntersuchung periodischer, zeitkontinuierlicher Signale. Das Spektrum ist frequenzdiskret und nicht periodisch. Bei einer Periodendauer von T0 beträgt der Abstand der Frequenzlinien damit ∆f =
1 T0 .
Fourier-Transformation zeitdiskreter Signale Bei der Fourier-Transformation zeitdiskreter Signale wird das im Zeitbereich nicht periodische Signal äquidistant mit der konstanten Abtastzeit tA abgetastet. Das Spektrum ist frequenzkontinuierlich und mit der Abtastfrequenz fA = t1A periodisch. Es gilt Y∗ (f ) = fA ·
∞
Y (f − kfA ).
k=−∞
Das zeitdiskrete Signal kann man als Folge yn oder als eine Funktion in Form einer Impuls-Reihe darstellen. Die Höhe der Impulse entspricht dem Funktionswert des abgetasteten Signals y∗ (t) = y(t) ·
∞ n=−∞
δ(t − ntA )
384
A Fourier-Transformationen
bzw. den einzelnen Folgengliedern y∗ (t) =
∞
yn δ(t − ntA ).
n=−∞
Diskrete Fourier-Transformation, DFT Bei der diskreten Fourier-Transformation, DFT, ist das Signal zeitdiskret und über N Abtastwerte periodisch. Das Spektrum ist entsprechend frequenzdiskret und über N Frequenzwerte periodisch. Die Periodendauer T0 des Signals lautet T0 = N · tA . Hieraus folgt der Abstand der 1 Frequenzlinien im Spektrum ∆f = T10 = N ·t und Periodizität mit der Abtastfrequenz A 1 fA = tA . Erwähnenswert ist, dass sowohl bei der Hin- als auch bei der Rück-Transformation weder eine Frequenz noch eine Zeit bzw. Zeitdauer benötigt wird. Zwar impliziert der Zeitindex n die Zeit t, gerechnet wird in beiden Fällen aber nur mit den Zahlenfolgen.
A Fourier-Transformationen
385
Ambivalenz zwischen Diskretisierung und Periodizität Es zeigt sich, dass die Diskretisierung im Signal bzw. im Spektrum und die Periodizität im Spektrum bzw. im Signal ambivalent sind. Dies wird in folgender Tabelle dargestellt. Tabelle A.1: Tabelle der Fourier-Transformationen
Eigenschaft im Zeitbereich Frequenzbereich zeitkontinuierlich ⇐⇒ nicht periodisch zeitdiskret ⇐⇒ periodisch periodisch ⇐⇒ frequenzdiskret nicht periodisch ⇐⇒ frequenzkontinuierlich
Fourier-Transformation
∞ y(t) =
Y (f )ej2πf t df
∞ Y (f ) =
−∞
y(t)e−j2πf t dt
−∞
Fourier-Reihe (periodische Signale)
yp (t) =
∞
T0
Yk
j2π Tk0 t e
Yk =
k=−∞
2
1 T0
yp (t)e −
−j2π Tk0 t
dt
T0 2
Fourier-Transformation zeitdiskreter Signale fA
2 y n = tA −
Y∗ (f )ej2πf ntA df
∞
Y∗ (f ) =
yn · e−j2πf ntA
n=−∞
fA 2
Diskrete Fourier-Transformation
yn =
N −1 kn 1 Yk ej2π N N k=0
Yk =
N −1
yn e−j2π N
kn
n=0
In den Tabellen A.2, A.3 und A.4 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Fourier-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
386
A Fourier-Transformationen Spektrum − frequenzkontinuierlich, nicht periodisch
y(t)
|Y(f)|
Signal − zeitkontinuierlich, nicht periodisch
f [Hz] Spektrum − frequenzdiskret, nicht periodisch
|Yk|
yp(t)
t [sec] Signal − zeitkontinuierlich, periodisch
k Spektrum − frequenzkontinuierlich, periodisch
yn
|Y*(f)|
t [sec] Signal − zeitdiskret, nicht periodisch
f [Hz] Spektrum − frequenzdiskret, periodisch
yn
|Yk|
n Signal − zeitdiskret, periodisch
n
k
Abbildung A.1: Gegenüberstellung der Signale und deren Spektren
A Fourier-Transformationen
387
Tabelle A.2: Eigenschaften der Fourier-Transformation
Linearkombination c1 · y1 (t) + c2 · y2 (t)
◦−•
c1 · Y1 (f ) + c2 · Y2 (f )
◦−•
Y ∗ (−f )
Konjugiert komplexe Funktionen y ∗ (t)
Umkehrung der Zeit- bzw. Frequenzachse y(−t)
◦−•
Y (−f )
Y (t)
◦−•
y(−f )
y(t) reell, gerade
⇔
Y (f ) reell, gerade
y(t) reell, ungerade
⇔
Y (f ) imaginär, ungerade
y(t) imaginär, gerade
⇔
Y (f ) imaginär, gerade
y(t) imaginär, ungerade
⇔
Y (f ) reell, ungerade
Symmetrieeigenschaft
Gerade und ungerade Funktionen
Positive Signale y(t) ≥ 0
=⇒
|Y (f )| ≤ Y (0)
Grenzwert des Spektrums
∞ |y(t)| dt < ∞ −∞
=⇒
lim Y (f ) = 0
f →±∞
388
A Fourier-Transformationen
Tabelle A.3: Rechenregeln der Fourier-Transformation
a ∈ R = 0
Maßstabsänderung, Skalierung y(at)
◦−•
1 f Y |a| a t0 ∈ R
Zeitverschiebung y(t − t0 )
◦−•
e−j2πf t0 · Y (f ) f0 ∈ R
Modulation ej2πf0 t · y(t)
◦−•
Y (f − f0 )
◦−•
(j2πf )n Y (f )
Differenziation der Zeitfunktion y (n) (t)
Differenziation der Spektralfunktion (−j2πt)n y(t)
◦−•
Y (n) (f )
Integration der Zeitfunktion
t y(τ ) dτ
◦−•
Y (f ) 1 + Y (0)δ(f ) j2πf 2 ∞ |y (t)|2 dt < ∞ i = 1, 2 −∞ i
∞ Y1 (f )∗Y2 (f ) = Y1 (ν)Y2 (f − ν) dν
−∞
Multiplikation im Zeitbereich y1 (t) · y2 (t)
◦−•
−∞
Faltung im Zeitbereich
∞ y1 (t)∗y2 (t) = y1 (τ )y2 (t − τ ) dτ −∞
∃i = 1, 2 ∀t : |yi (t)| < M ◦−•
Y1 (f ) · Y2 (f )
A Fourier-Transformationen
389
Tabelle A.4: Korrespondenzen der Fourier-Transformation
1 ◦−• δ(f ) ∞
δ(t − nT ) ◦−•
n=−∞
k=−∞
sign(t) ◦−• σ(t) = + rT (t) = dT (t) =
2 T
1 , für t ≥ 0 0 , für t < 0
1 , für |t| ≤ 0 , für |t| >
T 2 T 2
t + 1 , t ∈ [− T2 , 0]
1− 0
2 T
∞ 1 k δ f− T T
t , t ∈ [0, ] , sonst T 2
◦−•
−j πf j 1 δ(f ) − 2 2πf
◦−• T si(πf T )
◦−•
cos(2πf0 t) ◦−• sin(2πf0 t) ◦−• e−a|t| , a > 0 ◦−•
T T 2 si πf 2 2 1 (δ(f + f0 ) + δ(f − f0 )) 2 j (δ(f + f0 ) − δ(f − f0 )) 2 2a a2 + (2πf )2
e−a|t| sign(t), a > 0 ◦−• −j e−at σ(t), a > 0 ◦−• te−at σ(t), a > 0 ◦−• 2 e−at , a > 0 ◦−•
4πf a2 + (2πf )2
1 a + j2πf 1 (a + j2πf )2 )
π −(πf )2 /a e a
B
Zusammenfassung der Laplace-Transformation
Die Laplace-Transformation bildet eine Zeitfunktion y(t) in den s-Bereich mit einer komplexen Variable s ab. Die Transformationsvorschriften sind für die einseitige LaplaceTransformation, welche aus bereits dargelegten Gründen hauptsächlich betrachtet wird, durch
∞ Y (s) = L{y(t)} =
y(t)e−st dt
0−
−1
y(t) = L
1 {Y (s)} = j2π
c+j∞
Y (s)est ds
c−j∞
gegeben. Der Integrationsweg parallel zur imaginären Achse muss in der Konvergenzhalbebene H verlaufen, d.h. auf dem Integrationsweg, und rechts davon ist Y (s) analytisch. In den Tabellen B.1, B.2 und B.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Laplace-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
392
B Laplace-Transformation
Tabelle B.1: Eigenschaften der Laplace-Transformation
Linearkombination c1 · y1 (t) + c2 · y2 (t)
◦−•
c1 · Y1 (s) + c2 · Y2 (s)
Inneres Produkt
∞
y1 (t)y2∗ (t) dt
∞ =
Y1 (s)Y2∗ (s) ds
−∞
−∞
Anfangswertsatz lim y(t)
=
lim y(t)
=
t→0+
lim sY (s)
s→∞
Endwertsatz
t→∞
lim sY (s)
s→0
B Laplace-Transformation
393
Tabelle B.2: Rechenregeln der Laplace-Transformation
Zeitverschiebung nach rechts, t0 > 0 ◦−•
−t s 0 e Y (s) +
◦−•
et0 s Y (s) −
y(t) · eαt
◦−•
Y (s − α)
y(at)
◦−•
1 's( Y a a
◦−•
sn Y (s) −
y(t − t0 )
0
y(t)e−st dt
−t0
Zeitverschiebung nach links, t0 > 0 y(t + t0 )
t0
y(t)e−st dt
0
Dämpfung der Zeitfunktion, α ∈ C
Skalierungssatz, a > 0
Differenziation der Zeitfunktion y (n) (t)
n−1
sn−1−i y (i) (0−)
i=0
Differenziation der Bildfunktion (−1)n tn y(t)
◦−•
Y (n) (s)
Integration der Zeitfunktion
t y(τ ) dτ
◦−•
1 Y (s) s
◦−•
1 j2π
0
Multiplikation im Zeitbereich y1 (t) · y2 (t)
c+j∞
Y1 (z)Y2 (s − z) dz c−j∞
Faltung im Zeitbereich
∞ y1 (t)∗y2 (t) = y1 (τ )y2 (t − τ ) dτ −∞
◦−•
Y1 (s) · Y2 (s)
394
B Laplace-Transformation
Tabelle B.3: Korrespondenzen der Laplace-Transformation (Dabei ist stets y(t) = 0 für t < 0)
δ(t − t0 ), t0 > 0 ◦−• e−t0 s 1 bzw. σ(t) ◦−• t ◦−• 1 2 t 2 1 n t n!
◦−•
eαt
◦−•
teαt
◦−•
1 n αt t e n! t 1 δ(t) − e− T T
◦−•
◦−•
◦−•
1 − e− T ◦−• t − T ◦−• t−T 1−e t
sin(ωt) ◦−• cos(ωt) ◦−• e−δt sin(ωt) ◦−• e−δt cos(ωt) ◦−•
1 s 1 s2 1 s3 1 sn+1 1 s−α 1 (s − α)2 1 (s − α)n+1 Ts 1 + Ts 1 s(1 + T s) 1 s2 (1 + T s) ω 2 s + ω2 s 2 s + ω2 ω 2 s + 2δs + δ 2 + ω 2 s+δ 2 s + 2δs + δ 2 + ω 2
C
Zusammenfassung der z-Transformation
Die z-Transformation bildet eine Wertefolge yn , n ∈ Z, in den z-Bereich mit einer komplexen Variablen z ab. Die Transformationsvorschriften sind durch
Y (z) = Z{yn } =
∞
yn z −n
n=−∞
yn = Z −1 {Y (z)} =
1 j2π
Y (z)z n−1 dz C
gegeben. Y (z) ist nur für solche z definiert, für welche die Reihe absolut konvergiert. Das Konvergenzgebiet R ist immer ein Kreisringgebiet. Der Integrationsweg C ist ein einfacher geschlossener Weg, der ganz im Innern des Konvergenzgebietes R verläuft und sämtliche Singularitäten der z-Transformierten Y (z) umschließt. In den Tabellen C.1, C.2 und C.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der z-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
396
C z-Transformation
Tabelle C.1: Eigenschaften der z-Transformation
Linearkombination c1 · y1n + c2 · y2n
◦−•
c1 · Y1 (z) + c2 · Y2 (z)
Anfangswertsatz, yn = 0 , n < 0 y0
=
lim yn
=
lim Y (z)
z→∞
Endwertsatz
n→∞
lim (z − 1)Y (z)
z→1
Summation ∞
yn
=
Y (1)
y1n y2n
=
1 j2π
n=−∞
Parsevalsche Gleichung ∞ n=−∞
Y1 (z)Y2 C
1 dz z z
C z-Transformation
397
Tabelle C.2: Rechenregeln der z-Transformation; ursprüngliches Konvergenzgebiet ri+ < |z| < ri−
Verschiebungssatz yn−n0
◦−•
z −n0 Y (z) , r+ < |z| < r−
Verschiebung nach links für kausale Wertefolgen yn+n0
, n0 ≥ 0
◦−•
z n0 Y (z) −
n 0 −1
yi z n0 − i
, r+ < |z|
i=0
Lineare Gewichtung dY (z) dz
nyn
◦−•
−z
yn · an
◦−•
Y
◦−•
1 Y z
◦−•
1 j2π
, r+ < |z| < r−
Modulation der Wertefolge 'z (
, ar+ < |z| < ar−
a
Zeitumkehr y−n
,
1 1 < |z| < r− r+
Multiplikation im Zeitbereich y1n · y2n
Y1 (ξ)Y2
z dξ ξ ξ
C
, r1+ r2+ < |z| < r1− r2− Faltung im Zeitbereich y1n ∗ y2n =
∞
y1m y2(n−m)
◦−•
Y1 (z) · Y2 (z)
m=−∞
, maxi {ri+ } < |z| < mini {ri− }
398
C z-Transformation
Tabelle C.3: Korrespondenzen der z-Transformation inklusive Konvergenzgebieten
δn
0 < |z| , k > 0 |z| < ∞ , k < 0
1 ,n = k 0 , n = k
◦−• z
1 ,n ≥ k 0 ,n < k
◦−•
z −k+1 z−1
−1 , n ≤ −1 0 ,n ≥ 0
◦−•
z z−1
n · σn
◦−•
z (z − 1)2
, 1 < |z|
n2 · σ n
◦−•
z(z + 1) (z − 1)3
, 1 < |z|
an−1 · σn−1
◦−•
1 z−a
, |a| < |z|
an · σn
◦−•
z z−a
, |a| < |z|
nan · σn
◦−•
za (z − a)2
rn sin(ωn) · σn
◦−•
zr sin(ω) z 2 − 2zr cos(ω) + r2
, r, ω ∈ R+ , 0 ≤ r < |z|
rn cos(ωn) · σn
◦−•
z(z − r cos(ω)) z 2 − 2zr cos(ω) + r2
, r, ω ∈ R+ , 0 ≤ r < |z|
an , 0 ≤ n ≤ N − 1 0 , sonst
◦−•
δn−k = σn−k = −σ−n−1 =
◦−• 1 , alle z
−k
,
,
1 < |z| ,k ≥ 0 1 < |z| < ∞ , k < 0
, |z| < 1
, |a| < |z|
z N − aN − a)
z N −1 (z
, 0 < |z|
D
Blockbilder
In Abbildung D.1 sind die vier wichtigsten Blockbilder dargestellt. Dabei finden die Addition, Subtraktion und die Verstärkung sowohl im zeitkontinuierlichen als auch im zeitdiskreten Bereich Anwendung. Die Integration kommt nur im zeitkontinuierlichen und die Verzögerung nur im zeitdiskreten Fall vor.
a
t
b
a+b-c
a(t)
a(t ) dt -
∞
c Addition / Subtraktion
a
k Verstärkung
Integration
ka
an
z-1
a n-1
Zeitverzögerung
Abbildung D.1: Blockbilder für den zeitkontinuierlichen und zeitdiskreten Bereich
E
Herleitung der Spline-Interpolation
Das Ziel ist die Interpolation einer vorgegebenen Funktion y(t) durch die Funktion s(t) in dem Intervall [x0 , xN ] mit den Stützstellen xi , i = 0, . . . , N und den Werten yi = s(xi ) , i = 0, . . . , N. Hierzu bezeichnet man die Interpolationsfunktion in dem Intervall [xi , xi+1 ] mit si (t), die sich zur Gesamtfunktion s(t) zusammensetzen. Die Spline-Interpolation ergibt sich nach [KE05] aus den folgenden Forderungen an die Funktion s(t): si (xi ) si (xi + 0) s0 (x0 ) s(4) (x)
= yi , i = 0, . . . , N = si−1 (xi − 0) , i = 1, . . . , N − 1 = sn−1 (xN ) =0 ,x ∈ / {x0 , . . . , xN }
(E.1)
Diese Forderungen führen zu einer Funktion, die in den Stützstellen mit der Originalfunktion übereinstimmt und die in jedem Teilintervall ein Polynom dritter Ordnung ist, vgl. [Kro91]. Aus diesem Grund bezeichnet man die interpolierende Funktion s(t) als kubischen Spline. Zur Berechnung solch eines Splines setzt man hi = xi+1 − xi und wählt si (t) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di
(E.2)
als Ansatz für das gesuchte Polynom. Durch oben aufgeführte Bedingungen folgt: si (xi ) si (xi+1 ) si (xi ) si (xi+1 ) si (xi ) si (xi+1 )
= di = ai h3i + bi h2i + ci hi + di = ci = 3ai h2i + 2bi hi + ci = 2bi = 6ai hi + 2bi
= yi = yi+1 = yi = yi+1
Es resultieren die Berechnungsvorschriften: − yi ai = 6h1 i yi+1 bi = 12 yi + 2yi ci = h1i (yi+1 − yi ) − h6i yi+1 d i = yi
(E.3)
402
E Herleitung der Spline-Interpolation
Die Berechnung der gesuchten Koeffizienten ist auf die Bestimmung der Werte yi zurückgeführt, die sich als Lösung des linearen Gleichungssystems y1 2(h0 + h1 ) h1 0 ··· 0 y2 ) h 0 · · · 0 h 2(h + h 1 1 2 2 .. .. .. .. . . . . 0 =
··· 0 0 hN −2 2(hN −2 + hN −1 ) 6 6 (y − y 1 ) + h0 (y1 − y0 ) h1 2 6 6 h2 (y3 − y2 ) + h1 (y2 − y1 ) .. . 6 6 hN −1 (yN − yN −1 ) + hN −2 (yN −1 − yN −2 )
yN −1
ergeben. Da y0 und yN vorgegeben sind, kann nach der Lösung des Gleichungssystems die Interpolationsfunktion in jedem Teilintervall angegeben werden. Exemplarisch wird dies bei der Angabe der Impulsantwort eines Spline-Rekonstruktionsfilters durchgeführt:
Beispiel 5.4 (Impulsantwort eines Spline-Rekonstruktionsfilters) Geben wir uns mit N = 4 die Stützstellen x0 = −2, x1 = −1, x2 = 0, x3 = 1, x4 = 2 und die Bedingungen g0 (x0 ) = gN −1 (xN ) = 0 vor, so erhalten wir mit y0 = 0, y1 = 0, y2 = 1, y3 = 0, y4 = 0 und hi = 1 für alle Indizes i die Gleichung 2 · (2) 1 0 y1 6 · (1) − 6 · (0) 1 2 · (2) 1 y2 = 6 · (−1) − 6 · (1) (E.5) 0 1 2 · (2) 6 · (0) − 6 · (−1) y3 und daraus
y1 18/7 y2 = −30/7 . 18/7 y3
Durch Ausrechnen der Parameter ai , bi , ci , di folgt 3 (t + 2)3 − 73 (t + 2) 78 − (t + 1)3 + 97 (t + 1)2 + 67 (t + 1) g(t) = 8 73 15 2 t − 7 t +1 73 − 7 (t − 1)3 + 97 (t − 1)2 − 67 (t − 1)
(E.6)
, −2 ≤ t ≤ −1 , −1 ≤ t ≤ 0 ,0 ≤ t ≤ 1 ,1 ≤ t ≤ 2 .
(E.7)
•
F
Symbole
Die Auflistung der Symbole spiegelt die Verwendungsweise in diesem Buch wider. Dabei wurde die internationale Schreibweise beachtet. Es muss jedoch darauf hingewiesen werden, dass sich in anderen Büchern, Schriften etc. die Schreibweise unterscheiden kann. A Systemmatrix A(f ) Amplitudengang ak reeller Fourier-Koeffizient B Bandbreite B Steuermatrix bk reeller Fourier-Koeffizient C Beobachtungsmatrix CXY
Kreuzkovarianz
ck komplexer Fourier-Koeffizient d2T (t) Dreiecksfunktion D Durchschaltmatrix ∆f Frequenzauflösung ∆f Bandbreite ∆t Zeitdauer δ(t) Dirac-Impuls E{ } Erwartungswertoperator F Fourieroperator F Allgemeine Transformationsmatrix FY (y, t) Wahrscheinlichkeitsverteilung f Frequenz f0 Mittenfrequenz, Schwingfrequenz
fS Grenzfrequenz des Sperrbereiches fY (y) Wahrscheinlichkeitsdichte G(s) Übertragungsfunktion eines zeitkontinuierlichen Systems G(z) Übertragungsfunktion eines zeitdiskreten Systems g(t) Impulsantwort eines zeitkontinuierlichen Filters, zeitkontinuierliches Fenster gn Impulsantwort eines zeitdiskreten Filters, zeitdiskretes Fenster H Hadamard-Matrix j imaginäre Einheit k Index Frequenzbereich K Filter-Ordnung L Laplaceoperator µ Mittelwert, Moment N Anzahl der Abtastwerte n Index Zeitbereich ν Frequenzverschiebung Ω Normierte Kreisfrequenz ω Kreisfrequenz
fA Abtastfrequenz
P (·) Wahrscheinlichkeit
fD Grenzfrequenz des Durchlassbereiches
ψ(f ) Phasengang
fN Nyquistfrequenz
φ(t) orthonormale bzw. biorthogonale Basisfunktion
404
F Symbole biorthogonale Basisfunktion Verschiebungsoperator Kreuzkorrelation Rechteckfunktion allgemeines System Energie- bzw. Leistungsdichte zeitdiskrete Energie- bzw. Leistungsdichte Sk diskrete Energie- bzw. Leistungsdichte (Periodogramm) σ 2 Varianz σ(t) Sprungfunktion T Zeitdauer tA Abtastzeit
ψ(t) q RXY rT (t) S S(f ) S∗ (f )
T0 Beobachtungsintervall, Periodendauer t Zeit, Zeitpunkte τ Zeitverschiebung τg (f ) Gruppenlaufzeit Y (f ) allgemeines Spektrum, Frequenzgang Y∗ (f ) Spektrum eines zeitdiskreten Signals Yk diskretes Spektrum y(t) allgemeines Signal yn zeitdiskretes Signal Z z-Operator z(t) Zustandsgrößen
Literaturverzeichnis [Ach78]
Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung. Springer, Heidelberg, 1978.
[BS75]
Brammer, K. und G. Siffling: Stochastische Grundlagen des KalmanBucy-Filters. Oldenbourg, München, 1975.
[BS93]
Bolch, G. und M.-M. Seidel: Prozeßautomatisierung. Teubner, Stuttgart, 2. Auflage, 1993.
[BS00]
Bronstein, I. N. und K. A. Semendjajew: Taschenbuch der Mathematik. Verlag Harri Deutsch, Thun und Frankfurt/Main, 2000.
[CW04]
Clausert, H. und G. Wiesemann: Grundgebiete der Elektrotechnik. Oldenbourg, München, Wien, 9. Auflage, 2004.
[Doe76]
Doetsch, G.: Einführung in Theorie und Anwendung der LaplaceTransformation. Birkhäuser, Basel, 1976.
[Föl80]
Föllinger, O.: Laplace- und Fouriertransformation. AEG-Telefunken, Berlin, 1980.
[Föl06]
Föllinger, O.: Regelungstechnik. Hüthig, Heidelberg, 2006.
[Fli91]
Fliege, N.: Systemtheorie. Teubner, Stuttgart, 1991.
[Heu86]
Heuser, H.: Funktionalanalysis. Teubner, Stuttgart, 1986.
[Heu04]
Heuser, H.: Lehrbuch der Analysis. Teubner, Stuttgart, 2004.
[Hän83]
Hänsler, E.: Grundlagen der Theorie statistischer Signale. Springer, Berlin, Heidelberg, New-York, 1983.
[HW98]
Heuser, H. und H. Wolf: Algebra, Funktionalanalysis und Codierung. Teubner, Stuttgart, 1998.
[Ise74]
Isermann, R.: Prozeßidentifikation. Springer, Berlin, Heidelberg, New York, 1974.
[Jän96]
Jänich, K.: Funktionentheorie: eine Einführung. Springer, Berlin, Heidelberg, 6. Auflage, 1996.
[Jon00]
Jondral, F.: Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure. Teubner, Stuttgart, 2000.
406
Literaturverzeichnis
[Jur64]
Jury, E.: Theory and Application of the z-Transform Method. John Wiley & Sons, New York, 1964.
[KA78]
Kantorowitsch, L. W. und G. P. Akilow: Funktionalanalysis in normierten Räumen. Verlag Harri Deutsch, Frankfurt/Main, 1978.
[KE05]
Kiencke, U. und R. Eger: Meßtechnik. Springer, Heidelberg, 6. Auflage, 2005.
[KK02]
Kammeyer, K.D. und K. Kroschel: Digitale Signalverarbeitung. Teubner, Stuttgart, 5. Auflage, 2002.
[Kro91]
Kronmüller, H.: Digitale Signalverarbeitung. Springer, Berlin, Heidelberg, 1991.
[KSW08] Kiencke, U., M. Schwarz und T. Weickert: Signalverarbeitung – ZeitFrequenz-Analyse und Schätzverfahren. Oldenbourg, München, 2008. [Mar86]
Marko, H.: Methoden der Systemtheorie. Springer, Berlin, Heidelberg, NewYork, London, Paris, Tokyo, 2. Auflage, 1986.
[Mer96]
Mertins, A.: Signaltheorie. Teubner, Stuttgart, 1996.
[OS75]
Oppenheim, A. and R. Schafer: Digital Signal Processing. Prentice-Hall, Englewood Cliffs, 1975.
[OS98]
Oppenheim, A. und R. Schafer: Digitale Signalverarbeitung. Oldenbourg, München, Wien, 3. Auflage, 1998.
[Pap77]
Papoulis, A.: Signal Analysis. McGraw-Hill, New York, 1977.
[SS67]
Sauer, R. und I. Szabo: Mathematische Hilfsmittel des Ingenieurs, Band 1. Springer, Heidelberg, 1967.
[Unb98]
Unbehauen, R.: Systemtheorie – 2. Mehrdimensionale, adaptive und nichtlineare Systeme. Oldenbourg, München, Wien, 7. Auflage, 1998.
[Unb02]
Unbehauen, R.: Systemtheorie – 1. Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. Oldenbourg, München, Wien, 8. Auflage, 2002.
Index Abstand, 13 Funktion, 54 zweidimensionaler euklidischer Raum, 13 Abtastfrequenz, 212, 233–250, 259 Abtasttheorem, 213–217, 230 Abtastzeit, 212, 259 Addition Funktionen, 54 Vektoraddition, 14 adjungierter Operator, 33 Aliasing, 217 Allpass zeitkontinuierlich, 178 Amplitude, 171, 306 Amplitudenfehler, 264 Amplitudengang, 171, 306 Analyse harmonisch, 83 analytisches Signal, 204 Anti-Aliasing-Filter, 220 AR-Filter zeitdiskret, 318 zeitkontinuierlich, 182 ARMA-Filter zeitdiskret, 318 zeitkontinuierlich, 182 Ausgangsgleichung, 139, 281 Autokorrelation, 69 Leistungssignal, 76 Autokovarianz, 69 Bandbegrenzung, 213 Bandbreite, 119, 243 Bandpass symmetrischer, 190 Bandspektren symmetrisch, 245 unsymmetrisch, 247 Basis, 20–26 orthogonal, 78
orthonormal, 21 Basisvektor, 6, 20 Beobachtungsdauer, 259 Beobachtungsfrequenz, 259 Beobachtungsmatrix, 141 Beobachtungszeit, 250 Besselsche Ungleichung, 25 bilineare Transformation, 338 biorthogonales Funktionensystem, 82–83 Biorthogonalitätsbedingung, 82 Bode-Diagramm, 175 Butterworth-Filter, 192 Cauchy-Kriterium, 25 Cauchysche Integralformel, 41–43 Cauchyscher Integralsatz, 41 CD-Spieler, 65 Cosinus-Transformation, 99–101 Dämpfung, 171 Darstellungsmatrix, 37 deterministisches Signal, 78–83 DFT, 250–254, 260, 262 Eigenschaften, 256 Energiesatz, 258 Faltungssatz, 257 Parsevalsche Formel, 258 Differenzengleichung, 279–282 Differenzialgleichung, 137–144 Differenzialoperator, 37, 39 Dimension, 20 Dirac-Impuls zeitdiskret, 276 zeitkontinuierlich, 101 diskrete Fourier-Transformation, 250–254, 260, 262 inverse, 253 diskrete Transformationen, 267–271 diskrete Zufallsvariable, 227 doppelseitige Exponentialfunktion, 106 Dreieckimpuls, 124
408 Dreiecksungleichung, 13, 15, 18 Durchlassbereich, 188 Durchschaltmatrix, 141 Dynamik, 131, 275 Eigenvektor, 34, 35 selbstadjungierter Operator, 36 Einheitssprung, 104, 148 Einleitung, 3–9 Elektronenspin, 64 Energiedichte, 98, 232–233 Energiesignal, 55 Ergodizität, 72–76 Erwartungswert, 59 euklidischer Raum, 14 Exponentialfunktion doppelseitig, 106 Exponentialimpuls, 105 Exponentialsignal, 107 Exponentialverteilung, 63 Faltung, 95 Laplace-Transformation, 153 Fenster, 186–188, 340–350 Fensterfunktion, 111 Fensterfunktionen, 186–188, 340–350 FFT, 254 Filter, 188–199, 350–371 AR, 182, 318 ARMA, 182, 318 frequenzselektiv, 350–371 MA, 182, 318 Filterentwurf, 351 Filtertransformation, 189 FIR, 277 Fourier-Reihe, 79, 83–88 komplexe Darstellung, 87 Fourier-Transformation, 89–101, 162 diskret, 250–254, 260, 262 Eigenschaft, 94–97 schnell, 254 zeitdiskret, 227–233 Frequenzauflösung, 258 Frequenzband, 243 Frequenzfehler, 264 Frequenzgang, 137, 170, 278 Frequenzverschiebung, 97 Funktion, 32 holomorph, 40–49
Index Funktional, 32 Funktionenaddition, 54 Funktionenraum, 15, 53 Funktionensystem biorthogonal, 82–83 orthogonal, 78–82 orthonormal, 78 Gauß-Impuls, 108 geometrische Reihe, 290 endliche, 261 Gibbssches Phänomen, 113–118 Gleichverteilung, 60 Gramsche Matrix, 20, 21 Gruppenlaufzeit, 172, 307 Hadamard-Matrix, 271 harmonische Analyse, 83 hermitesche Matrix, 21 Hilbert-Raum, 19 Hilbert-Transformation, 200–208 zeitdiskret, 373 holomorphe Funktion, 40–49 IDFT, 253 IIR, 277 Impulsantwort, 132, 133, 276, 277 eines kausalen LTI-Systems, 133, 278 eines stabilen LTI-Systems, 135, 278 Impulsinvarianz, 334 Impulsreihe, 211 Innenprodukt, 16–17, 78 Belegung, 58 Energiesignal, 57 Innenproduktraum, 16 Integraloperator, 37, 38 Integraltransformation, 27 Integration numerisch, 337 Integrationskern, 27 Interpolationsfilter, 221 inverse z-Transformation, 289 geometrische Reihe, 290 Partialbruchzerlegung, 294 Polynomdivision, 293 Residuensatz, 291 Transformationstabelle, 297 kausal, 130
Index Kausalität LTI-System, 133, 278 Kausalität, 130, 275 Kern reziproker, 27 komplexe Leistung, 18 komplexe Schwingung, 104 konstantes Signal, 103 Konvergenz Laplace-Transformation, 147 z-Transformation, 285 Konvergenzgebiet, 149 Korrelation, 75, 77–78, 97, 98 Energiesignal, 76 Leistungssignal, 76 Kovarianz, 75 Kreisfrequenz normiert, 229 Kreuzkorrelation, 59, 69 Energiesignal, 76 Leistungssignal, 76 Kreuzkovarianz, 69 Laplace-Transformation, 144–162 Differenziation, 152 Eigenschaft, 150–155 einseitige, 147 Faltung, 153 Grenzwertsatz, 153 inverse, 149 Konvergenz, 147 Linearität, 150 Rücktransformation, 155 Skalierung, 152 Verschiebung im Frequenzbereich, 152 Verschiebung im Zeitbereich, 151 zweiseitige, 144 Laurent-Reihe, 43–46 Leakage, 110–113 Leckeffekt, 110–113, 262 Legendre-Polynome, 79 Leistungsdichte, 98, 232–233 Leistungssignal, 55 lineare Unabhängigkeit, 21 lineare Vektortransformation, 36–38 linearer Operator, 31–40 linearer Raum, 13–15
409 lineares, zeitinvariantes System, 132–137, 276–278 Linearität, 128, 129, 274 LTI-System, 132–137, 276–278 kausal, 133 reellwertig, 165 stabil, 131 MA-Filter zeitdiskret, 318 zeitkontinuierlich, 182 mathematische Grundlagen, 11–49 Matrixoperator, 33 mehrdimensionale Verteilungsfunktion, 66 mehrdimensionale Wahrscheinlichkeitsdichte, 66 Mehrgrößensystem, 137, 141, 279 metrischer Raum, 13 MIMO, 137, 279 Minimalphasensystem zeitdiskret, 315 zeitkontinuierlich, 178 MISO, 137, 279 Mittelwert, 59 Mittelwertbilder zeitdiskret, 326 Mittenfrequenz, 243 Modulation, 97 Moment, 67–70, 75 erstes, 69 stochastischer Prozess, 68 zentrales, 68, 75 zweites, 69 zweites zentrales, 69 Norm Belegung, 58 Energiesignal, 57 Leistungssignal, 58 Normalverteilung, 61 normierte Kreisfrequenz, 229 normierter Raum, 15–16 Nullstelle, 164 numerische Integration, 337 Nyquistband, 221, 259 Nyquistfrequenz, 221 off-line, 233 on-line, 234
410 Operator, 31–40 adjungiert, 33 Beschränktheit, 33 Differenzialoperator, 37, 39 Integraloperator, 37, 38 linear, 31–40 selbstadjungiert, 35 Stetigkeit, 33 unitär, 36 unitärer Matrixoperator, 36 Verschiebungsoperator, 40 Ordnung eines Systems, 139 orthogonale Basis, 78 orthogonale Projektion, 26 orthogonaler Raum, 24 orthogonales Funktionensystem, 78–82 Orthogonalität, 17 orthonormale Basis, 21 orthonormales Funktionensystem, 78 Parselvalsche Beziehung, 93 Partialbruchzerlegung, 158, 294 Periodizität, 229 Periodogramm, 267 Phase, 171, 306 Phasengang, 171, 306 Poissonsche Summenformel, 103 Pol-Nullstellenübertragung, 335 Polstelle, 164 Polynomdivision, 293 Projektionstheorem, 26 Prozess stochastischer, 63–78 Quadraturfilter, 200 zeitdiskret, 373 Raum, 11–26 euklidisch, 14 Funktionenraum, 15, 53 Hilbert-Raum, 19 Innenproduktraum, 16–17 linear, 13–15 metrisch, 13 normiert, 15–16 orthogonal, 24 unitär, 18–19 Rauschspannung, 64 Rechenaufwand, 254
Index Rechteckfunktion, 105 Rechteckregel rückwärts, 338 vorwärts, 337 Rekonstruktion, 220–226, 238 Rekonstruktionsfilter, 221 Residuensatz, 47–49, 155, 291 Residuum, 47 Reziprozitätsbedingung, 28 Riemann-Lebesguesches Lemma, 121–126 RMS-Definition, 119 Root-Mean-Square-Definition, 119 Scharmittelwert, 72 Schmidtsches Orthonormalisierungsverfahren, 22, 78, 79 schnelle Fourier-Transformation, 254 Schwarzsche Ungleichung, 16 Schwingung komplex, 104 Selbstadjungierter Operator, 35 Signal abgetastet, 228 deterministisch, 78–83 Energiesignal, 55 kausal, 135 konstant, 103 Leistungssignal, 55 stochastisch, 59–78, 227 Testsignal, 101–108 zeitdiskret, 211–271 zeitkontinuierlich, 53 Signaleigenschaften, 118–126 Signalfolge, 9 Signalfunktion, 9 Signalklassen, 55 Signaltransformation, 7 Signalverarbeitung, 6 Signumfunktion, 103 SIMO, 137, 279 Simulation, 332–340 Sinus-Transformation, 99–101 SISO, 137, 279 Skalarmultiplikation, 14 Funktionen, 54 Spektralanalyse, 250–267 Sperrbereich, 188
Index Stabilität, 131, 165, 276, 304 LTI-System, 135, 278 Stationarität, 70–72 statische Genauigkeit, 336 statistische Unabhängigkeit, 67 Steuermatrix, 141 stochastischer Prozess, 63–78 stochastisches Signal, 59–78, 227 Strukturbild zeitdiskret, 318 zeitkontinuierlich, 182 System, 4 linear zeitinvariant, 132–137, 276–278 Stabilität, 131, 276 zeitdiskret, 273–382 Eigenschaften, 273–279 zeitkontinuierlich, 127–208 Eigenschaften, 127–137 Systemfunktion, 162–186 Systemmatrix, 141 Systemordnung, 139 Testsignal, 101–108 Tiefpass normiert, 189 Entwurf, 191 Toleranzschema, 189 Transformation bilineare, 338 Trapezregel, 338 Tschebyscheff-Filter, 196 Überabtastung, 234 Rekonstruktion, 238 Überschwinger, 117 unitärer Matrixoperator, 36 unitärer Operator, 36 unitärer Raum, 18–19 Unterabtastung, 242 Vektoraddition, 14 Vektortransformation linear, 36–38
411 verallgemeinerter Fourier-Koeffizient, 25 Verschiebungsoperator, 40 Verteilungsfunktion, 65 mehrdimensional, 66 Vorzeichenfunktion, 103 Wahrscheinlichkeitsdichte, 60–63, 65–67 mehrdimensional, 66 Wahrscheinlichkeitsverteilung, 60–63 Walsh-Transformation, 267 Walshfunktionen, 267, 268 Walshleistungsspektrum, 268 z-Transformation, 282–301 Anfangswerttheorem, 300 Eigenschaften, 297 Endwerttheorem, 301 Existenz, 285 invers, 289 Konvergenz, 285 Zeitdauer, 119 Zeitdauer-Bandbreite-Produkt, 118–121 zeitdiskrete Fourier-Transformation, 227–233 zeitdiskretes Signal, 211–271 Grundlage, 211–226 zeitdiskretes System Eigenschaften, 273–279 Zeitdiskretisierung, 9, 211–212 Zeitinvarianz, 129, 275 zeitkontinuierliche Signale, 53 zeitkontinuierliches System, 127–208 Eigenschaften, 127–137 Zeitkontinuum, 9 Zeitmittelwert, 73 Zeitverschiebung, 97 Zeropadding, 265 Zufallsvariable, 15 diskret, 227 Zustandsgleichung, 139, 281 Zustandsgröße, 138 Zustandsraum, 138–144, 280
B
Zusammenfassung der Laplace-Transformation
Die Laplace-Transformation bildet eine Zeitfunktion y(t) in den s-Bereich mit einer komplexen Variable s ab. Die Transformationsvorschriften sind für die einseitige LaplaceTransformation, welche aus bereits dargelegten Gründen hauptsächlich betrachtet wird, durch
∞ Y (s) = L{y(t)} =
y(t)e−st dt
0−
−1
y(t) = L
1 {Y (s)} = j2π
c+j∞
Y (s)est ds
c−j∞
gegeben. Der Integrationsweg parallel zur imaginären Achse muss in der Konvergenzhalbebene H verlaufen, d.h. auf dem Integrationsweg, und rechts davon ist Y (s) analytisch. In den Tabellen B.1, B.2 und B.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der Laplace-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
392
B Laplace-Transformation
Tabelle B.1: Eigenschaften der Laplace-Transformation
Linearkombination c1 · y1 (t) + c2 · y2 (t)
◦−•
c1 · Y1 (s) + c2 · Y2 (s)
Inneres Produkt
∞
y1 (t)y2∗ (t) dt
∞ =
Y1 (s)Y2∗ (s) ds
−∞
−∞
Anfangswertsatz lim y(t)
=
lim y(t)
=
t→0+
lim sY (s)
s→∞
Endwertsatz
t→∞
lim sY (s)
s→0
B Laplace-Transformation
393
Tabelle B.2: Rechenregeln der Laplace-Transformation
Zeitverschiebung nach rechts, t0 > 0 ◦−•
−t s 0 e Y (s) +
◦−•
et0 s Y (s) −
y(t) · eαt
◦−•
Y (s − α)
y(at)
◦−•
1 's( Y a a
◦−•
sn Y (s) −
y(t − t0 )
0
y(t)e−st dt
−t0
Zeitverschiebung nach links, t0 > 0 y(t + t0 )
t0
y(t)e−st dt
0
Dämpfung der Zeitfunktion, α ∈ C
Skalierungssatz, a > 0
Differenziation der Zeitfunktion y (n) (t)
n−1
sn−1−i y (i) (0−)
i=0
Differenziation der Bildfunktion (−1)n tn y(t)
◦−•
Y (n) (s)
Integration der Zeitfunktion
t y(τ ) dτ
◦−•
1 Y (s) s
◦−•
1 j2π
0
Multiplikation im Zeitbereich y1 (t) · y2 (t)
c+j∞
Y1 (z)Y2 (s − z) dz c−j∞
Faltung im Zeitbereich
∞ y1 (t)∗y2 (t) = y1 (τ )y2 (t − τ ) dτ −∞
◦−•
Y1 (s) · Y2 (s)
394
B Laplace-Transformation
Tabelle B.3: Korrespondenzen der Laplace-Transformation (Dabei ist stets y(t) = 0 für t < 0)
δ(t − t0 ), t0 > 0 ◦−• e−t0 s 1 bzw. σ(t) ◦−• t ◦−• 1 2 t 2 1 n t n!
◦−•
eαt
◦−•
teαt
◦−•
1 n αt t e n! t 1 δ(t) − e− T T
◦−•
◦−•
◦−•
1 − e− T ◦−• t − T ◦−• t−T 1−e t
sin(ωt) ◦−• cos(ωt) ◦−• e−δt sin(ωt) ◦−• e−δt cos(ωt) ◦−•
1 s 1 s2 1 s3 1 sn+1 1 s−α 1 (s − α)2 1 (s − α)n+1 Ts 1 + Ts 1 s(1 + T s) 1 s2 (1 + T s) ω 2 s + ω2 s 2 s + ω2 ω 2 s + 2δs + δ 2 + ω 2 s+δ 2 s + 2δs + δ 2 + ω 2
C
Zusammenfassung der z-Transformation
Die z-Transformation bildet eine Wertefolge yn , n ∈ Z, in den z-Bereich mit einer komplexen Variablen z ab. Die Transformationsvorschriften sind durch
Y (z) = Z{yn } =
∞
yn z −n
n=−∞
yn = Z −1 {Y (z)} =
1 j2π
Y (z)z n−1 dz C
gegeben. Y (z) ist nur für solche z definiert, für welche die Reihe absolut konvergiert. Das Konvergenzgebiet R ist immer ein Kreisringgebiet. Der Integrationsweg C ist ein einfacher geschlossener Weg, der ganz im Innern des Konvergenzgebietes R verläuft und sämtliche Singularitäten der z-Transformierten Y (z) umschließt. In den Tabellen C.1, C.2 und C.3 findet man eine Übersicht über die Eigenschaften, Rechenregeln und Korrespondenzen der z-Transformation. Weitere Korrespondenzen sind in [BS00] zu finden.
396
C z-Transformation
Tabelle C.1: Eigenschaften der z-Transformation
Linearkombination c1 · y1n + c2 · y2n
◦−•
c1 · Y1 (z) + c2 · Y2 (z)
Anfangswertsatz, yn = 0 , n < 0 y0
=
lim yn
=
lim Y (z)
z→∞
Endwertsatz
n→∞
lim (z − 1)Y (z)
z→1
Summation ∞
yn
=
Y (1)
y1n y2n
=
1 j2π
n=−∞
Parsevalsche Gleichung ∞ n=−∞
Y1 (z)Y2 C
1 dz z z
C z-Transformation
397
Tabelle C.2: Rechenregeln der z-Transformation; ursprüngliches Konvergenzgebiet ri+ < |z| < ri−
Verschiebungssatz yn−n0
◦−•
z −n0 Y (z) , r+ < |z| < r−
Verschiebung nach links für kausale Wertefolgen yn+n0
, n0 ≥ 0
◦−•
z n0 Y (z) −
n 0 −1
yi z n0 − i
, r+ < |z|
i=0
Lineare Gewichtung dY (z) dz
nyn
◦−•
−z
yn · an
◦−•
Y
◦−•
1 Y z
◦−•
1 j2π
, r+ < |z| < r−
Modulation der Wertefolge 'z (
, ar+ < |z| < ar−
a
Zeitumkehr y−n
,
1 1 < |z| < r− r+
Multiplikation im Zeitbereich y1n · y2n
Y1 (ξ)Y2
z dξ ξ ξ
C
, r1+ r2+ < |z| < r1− r2− Faltung im Zeitbereich y1n ∗ y2n =
∞
y1m y2(n−m)
◦−•
Y1 (z) · Y2 (z)
m=−∞
, maxi {ri+ } < |z| < mini {ri− }
398
C z-Transformation
Tabelle C.3: Korrespondenzen der z-Transformation inklusive Konvergenzgebieten
δn
0 < |z| , k > 0 |z| < ∞ , k < 0
1 ,n = k 0 , n = k
◦−• z
1 ,n ≥ k 0 ,n < k
◦−•
z −k+1 z−1
−1 , n ≤ −1 0 ,n ≥ 0
◦−•
z z−1
n · σn
◦−•
z (z − 1)2
, 1 < |z|
n2 · σ n
◦−•
z(z + 1) (z − 1)3
, 1 < |z|
an−1 · σn−1
◦−•
1 z−a
, |a| < |z|
an · σn
◦−•
z z−a
, |a| < |z|
nan · σn
◦−•
za (z − a)2
rn sin(ωn) · σn
◦−•
zr sin(ω) z 2 − 2zr cos(ω) + r2
, r, ω ∈ R+ , 0 ≤ r < |z|
rn cos(ωn) · σn
◦−•
z(z − r cos(ω)) z 2 − 2zr cos(ω) + r2
, r, ω ∈ R+ , 0 ≤ r < |z|
an , 0 ≤ n ≤ N − 1 0 , sonst
◦−•
δn−k = σn−k = −σ−n−1 =
◦−• 1 , alle z
−k
,
,
1 < |z| ,k ≥ 0 1 < |z| < ∞ , k < 0
, |z| < 1
, |a| < |z|
z N − aN − a)
z N −1 (z
, 0 < |z|
D
Blockbilder
In Abbildung D.1 sind die vier wichtigsten Blockbilder dargestellt. Dabei finden die Addition, Subtraktion und die Verstärkung sowohl im zeitkontinuierlichen als auch im zeitdiskreten Bereich Anwendung. Die Integration kommt nur im zeitkontinuierlichen und die Verzögerung nur im zeitdiskreten Fall vor.
a
t
b
a+b-c
a(t)
a(t ) dt -
∞
c Addition / Subtraktion
a
k Verstärkung
Integration
ka
an
z-1
a n-1
Zeitverzögerung
Abbildung D.1: Blockbilder für den zeitkontinuierlichen und zeitdiskreten Bereich
E
Herleitung der Spline-Interpolation
Das Ziel ist die Interpolation einer vorgegebenen Funktion y(t) durch die Funktion s(t) in dem Intervall [x0 , xN ] mit den Stützstellen xi , i = 0, . . . , N und den Werten yi = s(xi ) , i = 0, . . . , N. Hierzu bezeichnet man die Interpolationsfunktion in dem Intervall [xi , xi+1 ] mit si (t), die sich zur Gesamtfunktion s(t) zusammensetzen. Die Spline-Interpolation ergibt sich nach [KE05] aus den folgenden Forderungen an die Funktion s(t): si (xi ) si (xi + 0) s0 (x0 ) s(4) (x)
= yi , i = 0, . . . , N = si−1 (xi − 0) , i = 1, . . . , N − 1 = sn−1 (xN ) =0 ,x ∈ / {x0 , . . . , xN }
(E.1)
Diese Forderungen führen zu einer Funktion, die in den Stützstellen mit der Originalfunktion übereinstimmt und die in jedem Teilintervall ein Polynom dritter Ordnung ist, vgl. [Kro91]. Aus diesem Grund bezeichnet man die interpolierende Funktion s(t) als kubischen Spline. Zur Berechnung solch eines Splines setzt man hi = xi+1 − xi und wählt si (t) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di
(E.2)
als Ansatz für das gesuchte Polynom. Durch oben aufgeführte Bedingungen folgt: si (xi ) si (xi+1 ) si (xi ) si (xi+1 ) si (xi ) si (xi+1 )
= di = ai h3i + bi h2i + ci hi + di = ci = 3ai h2i + 2bi hi + ci = 2bi = 6ai hi + 2bi
= yi = yi+1 = yi = yi+1
Es resultieren die Berechnungsvorschriften: − yi ai = 6h1 i yi+1 bi = 12 yi + 2yi ci = h1i (yi+1 − yi ) − h6i yi+1 d i = yi
(E.3)
402
E Herleitung der Spline-Interpolation
Die Berechnung der gesuchten Koeffizienten ist auf die Bestimmung der Werte yi zurückgeführt, die sich als Lösung des linearen Gleichungssystems y1 2(h0 + h1 ) h1 0 ··· 0 y2 ) h 0 · · · 0 h 2(h + h 1 1 2 2 .. .. .. .. . . . . 0 =
··· 0 0 hN −2 2(hN −2 + hN −1 ) 6 6 (y − y 1 ) + h0 (y1 − y0 ) h1 2 6 6 h2 (y3 − y2 ) + h1 (y2 − y1 ) .. . 6 6 hN −1 (yN − yN −1 ) + hN −2 (yN −1 − yN −2 )
yN −1
ergeben. Da y0 und yN vorgegeben sind, kann nach der Lösung des Gleichungssystems die Interpolationsfunktion in jedem Teilintervall angegeben werden. Exemplarisch wird dies bei der Angabe der Impulsantwort eines Spline-Rekonstruktionsfilters durchgeführt:
Beispiel 5.4 (Impulsantwort eines Spline-Rekonstruktionsfilters) Geben wir uns mit N = 4 die Stützstellen x0 = −2, x1 = −1, x2 = 0, x3 = 1, x4 = 2 und die Bedingungen g0 (x0 ) = gN −1 (xN ) = 0 vor, so erhalten wir mit y0 = 0, y1 = 0, y2 = 1, y3 = 0, y4 = 0 und hi = 1 für alle Indizes i die Gleichung 2 · (2) 1 0 y1 6 · (1) − 6 · (0) 1 2 · (2) 1 y2 = 6 · (−1) − 6 · (1) (E.5) 0 1 2 · (2) 6 · (0) − 6 · (−1) y3 und daraus
y1 18/7 y2 = −30/7 . 18/7 y3
Durch Ausrechnen der Parameter ai , bi , ci , di folgt 3 (t + 2)3 − 73 (t + 2) 78 − (t + 1)3 + 97 (t + 1)2 + 67 (t + 1) g(t) = 8 73 15 2 t − 7 t +1 73 − 7 (t − 1)3 + 97 (t − 1)2 − 67 (t − 1)
(E.6)
, −2 ≤ t ≤ −1 , −1 ≤ t ≤ 0 ,0 ≤ t ≤ 1 ,1 ≤ t ≤ 2 .
(E.7)
•
F
Symbole
Die Auflistung der Symbole spiegelt die Verwendungsweise in diesem Buch wider. Dabei wurde die internationale Schreibweise beachtet. Es muss jedoch darauf hingewiesen werden, dass sich in anderen Büchern, Schriften etc. die Schreibweise unterscheiden kann. A Systemmatrix A(f ) Amplitudengang ak reeller Fourier-Koeffizient B Bandbreite B Steuermatrix bk reeller Fourier-Koeffizient C Beobachtungsmatrix CXY
Kreuzkovarianz
ck komplexer Fourier-Koeffizient d2T (t) Dreiecksfunktion D Durchschaltmatrix ∆f Frequenzauflösung ∆f Bandbreite ∆t Zeitdauer δ(t) Dirac-Impuls E{ } Erwartungswertoperator F Fourieroperator F Allgemeine Transformationsmatrix FY (y, t) Wahrscheinlichkeitsverteilung f Frequenz f0 Mittenfrequenz, Schwingfrequenz
fS Grenzfrequenz des Sperrbereiches fY (y) Wahrscheinlichkeitsdichte G(s) Übertragungsfunktion eines zeitkontinuierlichen Systems G(z) Übertragungsfunktion eines zeitdiskreten Systems g(t) Impulsantwort eines zeitkontinuierlichen Filters, zeitkontinuierliches Fenster gn Impulsantwort eines zeitdiskreten Filters, zeitdiskretes Fenster H Hadamard-Matrix j imaginäre Einheit k Index Frequenzbereich K Filter-Ordnung L Laplaceoperator µ Mittelwert, Moment N Anzahl der Abtastwerte n Index Zeitbereich ν Frequenzverschiebung Ω Normierte Kreisfrequenz ω Kreisfrequenz
fA Abtastfrequenz
P (·) Wahrscheinlichkeit
fD Grenzfrequenz des Durchlassbereiches
ψ(f ) Phasengang
fN Nyquistfrequenz
φ(t) orthonormale bzw. biorthogonale Basisfunktion
404
F Symbole biorthogonale Basisfunktion Verschiebungsoperator Kreuzkorrelation Rechteckfunktion allgemeines System Energie- bzw. Leistungsdichte zeitdiskrete Energie- bzw. Leistungsdichte Sk diskrete Energie- bzw. Leistungsdichte (Periodogramm) σ 2 Varianz σ(t) Sprungfunktion T Zeitdauer tA Abtastzeit
ψ(t) q RXY rT (t) S S(f ) S∗ (f )
T0 Beobachtungsintervall, Periodendauer t Zeit, Zeitpunkte τ Zeitverschiebung τg (f ) Gruppenlaufzeit Y (f ) allgemeines Spektrum, Frequenzgang Y∗ (f ) Spektrum eines zeitdiskreten Signals Yk diskretes Spektrum y(t) allgemeines Signal yn zeitdiskretes Signal Z z-Operator z(t) Zustandsgrößen
Literaturverzeichnis [Ach78]
Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung. Springer, Heidelberg, 1978.
[BS75]
Brammer, K. und G. Siffling: Stochastische Grundlagen des KalmanBucy-Filters. Oldenbourg, München, 1975.
[BS93]
Bolch, G. und M.-M. Seidel: Prozeßautomatisierung. Teubner, Stuttgart, 2. Auflage, 1993.
[BS00]
Bronstein, I. N. und K. A. Semendjajew: Taschenbuch der Mathematik. Verlag Harri Deutsch, Thun und Frankfurt/Main, 2000.
[CW04]
Clausert, H. und G. Wiesemann: Grundgebiete der Elektrotechnik. Oldenbourg, München, Wien, 9. Auflage, 2004.
[Doe76]
Doetsch, G.: Einführung in Theorie und Anwendung der LaplaceTransformation. Birkhäuser, Basel, 1976.
[Föl80]
Föllinger, O.: Laplace- und Fouriertransformation. AEG-Telefunken, Berlin, 1980.
[Föl06]
Föllinger, O.: Regelungstechnik. Hüthig, Heidelberg, 2006.
[Fli91]
Fliege, N.: Systemtheorie. Teubner, Stuttgart, 1991.
[Heu86]
Heuser, H.: Funktionalanalysis. Teubner, Stuttgart, 1986.
[Heu04]
Heuser, H.: Lehrbuch der Analysis. Teubner, Stuttgart, 2004.
[Hän83]
Hänsler, E.: Grundlagen der Theorie statistischer Signale. Springer, Berlin, Heidelberg, New-York, 1983.
[HW98]
Heuser, H. und H. Wolf: Algebra, Funktionalanalysis und Codierung. Teubner, Stuttgart, 1998.
[Ise74]
Isermann, R.: Prozeßidentifikation. Springer, Berlin, Heidelberg, New York, 1974.
[Jän96]
Jänich, K.: Funktionentheorie: eine Einführung. Springer, Berlin, Heidelberg, 6. Auflage, 1996.
[Jon00]
Jondral, F.: Grundlagen der Wahrscheinlichkeitsrechnung und stochastischer Prozesse für Ingenieure. Teubner, Stuttgart, 2000.
406
Literaturverzeichnis
[Jur64]
Jury, E.: Theory and Application of the z-Transform Method. John Wiley & Sons, New York, 1964.
[KA78]
Kantorowitsch, L. W. und G. P. Akilow: Funktionalanalysis in normierten Räumen. Verlag Harri Deutsch, Frankfurt/Main, 1978.
[KE05]
Kiencke, U. und R. Eger: Meßtechnik. Springer, Heidelberg, 6. Auflage, 2005.
[KK02]
Kammeyer, K.D. und K. Kroschel: Digitale Signalverarbeitung. Teubner, Stuttgart, 5. Auflage, 2002.
[Kro91]
Kronmüller, H.: Digitale Signalverarbeitung. Springer, Berlin, Heidelberg, 1991.
[KSW08] Kiencke, U., M. Schwarz und T. Weickert: Signalverarbeitung – ZeitFrequenz-Analyse und Schätzverfahren. Oldenbourg, München, 2008. [Mar86]
Marko, H.: Methoden der Systemtheorie. Springer, Berlin, Heidelberg, NewYork, London, Paris, Tokyo, 2. Auflage, 1986.
[Mer96]
Mertins, A.: Signaltheorie. Teubner, Stuttgart, 1996.
[OS75]
Oppenheim, A. and R. Schafer: Digital Signal Processing. Prentice-Hall, Englewood Cliffs, 1975.
[OS98]
Oppenheim, A. und R. Schafer: Digitale Signalverarbeitung. Oldenbourg, München, Wien, 3. Auflage, 1998.
[Pap77]
Papoulis, A.: Signal Analysis. McGraw-Hill, New York, 1977.
[SS67]
Sauer, R. und I. Szabo: Mathematische Hilfsmittel des Ingenieurs, Band 1. Springer, Heidelberg, 1967.
[Unb98]
Unbehauen, R.: Systemtheorie – 2. Mehrdimensionale, adaptive und nichtlineare Systeme. Oldenbourg, München, Wien, 7. Auflage, 1998.
[Unb02]
Unbehauen, R.: Systemtheorie – 1. Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich. Oldenbourg, München, Wien, 8. Auflage, 2002.
Index Abstand, 13 Funktion, 54 zweidimensionaler euklidischer Raum, 13 Abtastfrequenz, 212, 233–250, 259 Abtasttheorem, 213–217, 230 Abtastzeit, 212, 259 Addition Funktionen, 54 Vektoraddition, 14 adjungierter Operator, 33 Aliasing, 217 Allpass zeitkontinuierlich, 178 Amplitude, 171, 306 Amplitudenfehler, 264 Amplitudengang, 171, 306 Analyse harmonisch, 83 analytisches Signal, 204 Anti-Aliasing-Filter, 220 AR-Filter zeitdiskret, 318 zeitkontinuierlich, 182 ARMA-Filter zeitdiskret, 318 zeitkontinuierlich, 182 Ausgangsgleichung, 139, 281 Autokorrelation, 69 Leistungssignal, 76 Autokovarianz, 69 Bandbegrenzung, 213 Bandbreite, 119, 243 Bandpass symmetrischer, 190 Bandspektren symmetrisch, 245 unsymmetrisch, 247 Basis, 20–26 orthogonal, 78
orthonormal, 21 Basisvektor, 6, 20 Beobachtungsdauer, 259 Beobachtungsfrequenz, 259 Beobachtungsmatrix, 141 Beobachtungszeit, 250 Besselsche Ungleichung, 25 bilineare Transformation, 338 biorthogonales Funktionensystem, 82–83 Biorthogonalitätsbedingung, 82 Bode-Diagramm, 175 Butterworth-Filter, 192 Cauchy-Kriterium, 25 Cauchysche Integralformel, 41–43 Cauchyscher Integralsatz, 41 CD-Spieler, 65 Cosinus-Transformation, 99–101 Dämpfung, 171 Darstellungsmatrix, 37 deterministisches Signal, 78–83 DFT, 250–254, 260, 262 Eigenschaften, 256 Energiesatz, 258 Faltungssatz, 257 Parsevalsche Formel, 258 Differenzengleichung, 279–282 Differenzialgleichung, 137–144 Differenzialoperator, 37, 39 Dimension, 20 Dirac-Impuls zeitdiskret, 276 zeitkontinuierlich, 101 diskrete Fourier-Transformation, 250–254, 260, 262 inverse, 253 diskrete Transformationen, 267–271 diskrete Zufallsvariable, 227 doppelseitige Exponentialfunktion, 106 Dreieckimpuls, 124
408 Dreiecksungleichung, 13, 15, 18 Durchlassbereich, 188 Durchschaltmatrix, 141 Dynamik, 131, 275 Eigenvektor, 34, 35 selbstadjungierter Operator, 36 Einheitssprung, 104, 148 Einleitung, 3–9 Elektronenspin, 64 Energiedichte, 98, 232–233 Energiesignal, 55 Ergodizität, 72–76 Erwartungswert, 59 euklidischer Raum, 14 Exponentialfunktion doppelseitig, 106 Exponentialimpuls, 105 Exponentialsignal, 107 Exponentialverteilung, 63 Faltung, 95 Laplace-Transformation, 153 Fenster, 186–188, 340–350 Fensterfunktion, 111 Fensterfunktionen, 186–188, 340–350 FFT, 254 Filter, 188–199, 350–371 AR, 182, 318 ARMA, 182, 318 frequenzselektiv, 350–371 MA, 182, 318 Filterentwurf, 351 Filtertransformation, 189 FIR, 277 Fourier-Reihe, 79, 83–88 komplexe Darstellung, 87 Fourier-Transformation, 89–101, 162 diskret, 250–254, 260, 262 Eigenschaft, 94–97 schnell, 254 zeitdiskret, 227–233 Frequenzauflösung, 258 Frequenzband, 243 Frequenzfehler, 264 Frequenzgang, 137, 170, 278 Frequenzverschiebung, 97 Funktion, 32 holomorph, 40–49
Index Funktional, 32 Funktionenaddition, 54 Funktionenraum, 15, 53 Funktionensystem biorthogonal, 82–83 orthogonal, 78–82 orthonormal, 78 Gauß-Impuls, 108 geometrische Reihe, 290 endliche, 261 Gibbssches Phänomen, 113–118 Gleichverteilung, 60 Gramsche Matrix, 20, 21 Gruppenlaufzeit, 172, 307 Hadamard-Matrix, 271 harmonische Analyse, 83 hermitesche Matrix, 21 Hilbert-Raum, 19 Hilbert-Transformation, 200–208 zeitdiskret, 373 holomorphe Funktion, 40–49 IDFT, 253 IIR, 277 Impulsantwort, 132, 133, 276, 277 eines kausalen LTI-Systems, 133, 278 eines stabilen LTI-Systems, 135, 278 Impulsinvarianz, 334 Impulsreihe, 211 Innenprodukt, 16–17, 78 Belegung, 58 Energiesignal, 57 Innenproduktraum, 16 Integraloperator, 37, 38 Integraltransformation, 27 Integration numerisch, 337 Integrationskern, 27 Interpolationsfilter, 221 inverse z-Transformation, 289 geometrische Reihe, 290 Partialbruchzerlegung, 294 Polynomdivision, 293 Residuensatz, 291 Transformationstabelle, 297 kausal, 130
Index Kausalität LTI-System, 133, 278 Kausalität, 130, 275 Kern reziproker, 27 komplexe Leistung, 18 komplexe Schwingung, 104 konstantes Signal, 103 Konvergenz Laplace-Transformation, 147 z-Transformation, 285 Konvergenzgebiet, 149 Korrelation, 75, 77–78, 97, 98 Energiesignal, 76 Leistungssignal, 76 Kovarianz, 75 Kreisfrequenz normiert, 229 Kreuzkorrelation, 59, 69 Energiesignal, 76 Leistungssignal, 76 Kreuzkovarianz, 69 Laplace-Transformation, 144–162 Differenziation, 152 Eigenschaft, 150–155 einseitige, 147 Faltung, 153 Grenzwertsatz, 153 inverse, 149 Konvergenz, 147 Linearität, 150 Rücktransformation, 155 Skalierung, 152 Verschiebung im Frequenzbereich, 152 Verschiebung im Zeitbereich, 151 zweiseitige, 144 Laurent-Reihe, 43–46 Leakage, 110–113 Leckeffekt, 110–113, 262 Legendre-Polynome, 79 Leistungsdichte, 98, 232–233 Leistungssignal, 55 lineare Unabhängigkeit, 21 lineare Vektortransformation, 36–38 linearer Operator, 31–40 linearer Raum, 13–15
409 lineares, zeitinvariantes System, 132–137, 276–278 Linearität, 128, 129, 274 LTI-System, 132–137, 276–278 kausal, 133 reellwertig, 165 stabil, 131 MA-Filter zeitdiskret, 318 zeitkontinuierlich, 182 mathematische Grundlagen, 11–49 Matrixoperator, 33 mehrdimensionale Verteilungsfunktion, 66 mehrdimensionale Wahrscheinlichkeitsdichte, 66 Mehrgrößensystem, 137, 141, 279 metrischer Raum, 13 MIMO, 137, 279 Minimalphasensystem zeitdiskret, 315 zeitkontinuierlich, 178 MISO, 137, 279 Mittelwert, 59 Mittelwertbilder zeitdiskret, 326 Mittenfrequenz, 243 Modulation, 97 Moment, 67–70, 75 erstes, 69 stochastischer Prozess, 68 zentrales, 68, 75 zweites, 69 zweites zentrales, 69 Norm Belegung, 58 Energiesignal, 57 Leistungssignal, 58 Normalverteilung, 61 normierte Kreisfrequenz, 229 normierter Raum, 15–16 Nullstelle, 164 numerische Integration, 337 Nyquistband, 221, 259 Nyquistfrequenz, 221 off-line, 233 on-line, 234
410 Operator, 31–40 adjungiert, 33 Beschränktheit, 33 Differenzialoperator, 37, 39 Integraloperator, 37, 38 linear, 31–40 selbstadjungiert, 35 Stetigkeit, 33 unitär, 36 unitärer Matrixoperator, 36 Verschiebungsoperator, 40 Ordnung eines Systems, 139 orthogonale Basis, 78 orthogonale Projektion, 26 orthogonaler Raum, 24 orthogonales Funktionensystem, 78–82 Orthogonalität, 17 orthonormale Basis, 21 orthonormales Funktionensystem, 78 Parselvalsche Beziehung, 93 Partialbruchzerlegung, 158, 294 Periodizität, 229 Periodogramm, 267 Phase, 171, 306 Phasengang, 171, 306 Poissonsche Summenformel, 103 Pol-Nullstellenübertragung, 335 Polstelle, 164 Polynomdivision, 293 Projektionstheorem, 26 Prozess stochastischer, 63–78 Quadraturfilter, 200 zeitdiskret, 373 Raum, 11–26 euklidisch, 14 Funktionenraum, 15, 53 Hilbert-Raum, 19 Innenproduktraum, 16–17 linear, 13–15 metrisch, 13 normiert, 15–16 orthogonal, 24 unitär, 18–19 Rauschspannung, 64 Rechenaufwand, 254
Index Rechteckfunktion, 105 Rechteckregel rückwärts, 338 vorwärts, 337 Rekonstruktion, 220–226, 238 Rekonstruktionsfilter, 221 Residuensatz, 47–49, 155, 291 Residuum, 47 Reziprozitätsbedingung, 28 Riemann-Lebesguesches Lemma, 121–126 RMS-Definition, 119 Root-Mean-Square-Definition, 119 Scharmittelwert, 72 Schmidtsches Orthonormalisierungsverfahren, 22, 78, 79 schnelle Fourier-Transformation, 254 Schwarzsche Ungleichung, 16 Schwingung komplex, 104 Selbstadjungierter Operator, 35 Signal abgetastet, 228 deterministisch, 78–83 Energiesignal, 55 kausal, 135 konstant, 103 Leistungssignal, 55 stochastisch, 59–78, 227 Testsignal, 101–108 zeitdiskret, 211–271 zeitkontinuierlich, 53 Signaleigenschaften, 118–126 Signalfolge, 9 Signalfunktion, 9 Signalklassen, 55 Signaltransformation, 7 Signalverarbeitung, 6 Signumfunktion, 103 SIMO, 137, 279 Simulation, 332–340 Sinus-Transformation, 99–101 SISO, 137, 279 Skalarmultiplikation, 14 Funktionen, 54 Spektralanalyse, 250–267 Sperrbereich, 188
Index Stabilität, 131, 165, 276, 304 LTI-System, 135, 278 Stationarität, 70–72 statische Genauigkeit, 336 statistische Unabhängigkeit, 67 Steuermatrix, 141 stochastischer Prozess, 63–78 stochastisches Signal, 59–78, 227 Strukturbild zeitdiskret, 318 zeitkontinuierlich, 182 System, 4 linear zeitinvariant, 132–137, 276–278 Stabilität, 131, 276 zeitdiskret, 273–382 Eigenschaften, 273–279 zeitkontinuierlich, 127–208 Eigenschaften, 127–137 Systemfunktion, 162–186 Systemmatrix, 141 Systemordnung, 139 Testsignal, 101–108 Tiefpass normiert, 189 Entwurf, 191 Toleranzschema, 189 Transformation bilineare, 338 Trapezregel, 338 Tschebyscheff-Filter, 196 Überabtastung, 234 Rekonstruktion, 238 Überschwinger, 117 unitärer Matrixoperator, 36 unitärer Operator, 36 unitärer Raum, 18–19 Unterabtastung, 242 Vektoraddition, 14 Vektortransformation linear, 36–38
411 verallgemeinerter Fourier-Koeffizient, 25 Verschiebungsoperator, 40 Verteilungsfunktion, 65 mehrdimensional, 66 Vorzeichenfunktion, 103 Wahrscheinlichkeitsdichte, 60–63, 65–67 mehrdimensional, 66 Wahrscheinlichkeitsverteilung, 60–63 Walsh-Transformation, 267 Walshfunktionen, 267, 268 Walshleistungsspektrum, 268 z-Transformation, 282–301 Anfangswerttheorem, 300 Eigenschaften, 297 Endwerttheorem, 301 Existenz, 285 invers, 289 Konvergenz, 285 Zeitdauer, 119 Zeitdauer-Bandbreite-Produkt, 118–121 zeitdiskrete Fourier-Transformation, 227–233 zeitdiskretes Signal, 211–271 Grundlage, 211–226 zeitdiskretes System Eigenschaften, 273–279 Zeitdiskretisierung, 9, 211–212 Zeitinvarianz, 129, 275 zeitkontinuierliche Signale, 53 zeitkontinuierliches System, 127–208 Eigenschaften, 127–137 Zeitkontinuum, 9 Zeitmittelwert, 73 Zeitverschiebung, 97 Zeropadding, 265 Zufallsvariable, 15 diskret, 227 Zustandsgleichung, 139, 281 Zustandsgröße, 138 Zustandsraum, 138–144, 280