Digitale Signalverarbeitung: Filterung und Spektralanalyse mit MATLAB-Übungen [4, vollst. überarb. erw. Aufl.] 978-3-519-36122-0, 978-3-322-92702-6

F?r die hier vorgelegte 4. Auflage wurde das Studienbuch "Digitale Signalverarbeitung" einer gr?ndlichen ?bera

291 120 34MB

German Pages XII, 542S. 269 Abb.. [544] Year 1998

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages I-XII
Front Matter....Pages 1-1
Einleitung....Pages 3-7
Diskrete Signale und Systeme....Pages 9-51
Die Z-Transformation....Pages 53-76
Rekursive Filter....Pages 77-155
Nichtrekursive Filter....Pages 157-215
Die diskrete Fourier-Transformation (DFT)....Pages 217-255
Spektralanalyse determinierter Signale....Pages 257-291
Traditionelle Spektralschätzung....Pages 293-337
Parametrische Spektralschätzung....Pages 339-404
Front Matter....Pages 405-405
Einleitung....Pages 407-408
Aufgaben....Pages 409-439
Lösungen....Pages 441-496
m-Files....Pages 497-527
Back Matter....Pages 529-544
Recommend Papers

Digitale Signalverarbeitung: Filterung und Spektralanalyse mit MATLAB-Übungen [4, vollst. überarb. erw. Aufl.]
 978-3-519-36122-0, 978-3-322-92702-6

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Digitale Signalverarbeitung Filterung und セー・ォエイ。ャョケウ@ mit MATLAB-Ubungen Von Prof. Dr.-Ing. Karl-Dirk Kammeyer Universität Bremen und Prof. Dr.-Ing. Kristian Kroschel Universität Karlsruhe Unter Mitwirkung von Dipl.-Ing. Dieter Boss und Dipl.-Ing. Armin Dekorsy Universität Bremen 4., vollständig überarbeitete und erweiterte Auflage Mit 269 Abbildungen

B. G. Teubner Stuttgart 1998

Dr.-Ing. Karl Dirk Kammeyer Professor, Arbeitsbereich Nachrichtentechnik Universität Bremen Dr.-Ing. Kristian Kroschel Professor, Institut für Automation und Robotik Universität Karlsruhe Abteilungsleiter, Institut für Informationsund Datenverarbeitung (11TB) Karlsruhe

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Kammeyer, KarI-DIrk: Digitale Signalverarbeitung : Filterung und Spektralanalyse; mit MATLAB-Übungen / von Karl-Dirk Kammeyer und Kristian Kroschel. Unter Mitw. von Dieter Boss und Armin Dekorsy. - 4., vollst. überarb. und erw. Aufl. - Stuttgart : Teubner, Stuttgart (Teubner-Studienbücher: Elektrotechnik) ISBN 978-3-519-36122-0 ISBN 978-3-322-92702-6 (eBook) DOI 10.1007/978-3-322-92702-6 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb derengen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt besonders für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

© B. G. Teubner, Stuttgart 1998

Vorwort Die erste Auflage des vorliegenden Studienbuches erschien 1989. Seitdem bildet es in weitgehend unveränderter Form die Grundlage der von den Autoren an der Universität Karlsruhe, der TU Hamburg-Harburg sowie seit 1995 an der Universität Bremen gehaltenen Vorlesungen "Digitale Signalverarbeitung". Inzwischen wurde es auch von Kollegen an anderen Hochschulen als Textbuch für ihre Vorlesungen ausgewählt, und auch in den Entwicklungslabors der Industrie wird dieses Studienbuch vielfach benutzt. Ausschlaggebend für die inhaltliche Konzeption war die Überzeugung, daß es heute sicher nicht mehr möglich ist, eine auch nur halbwegs vollständige Darstellung des gesamten Gebietes der digitalen Signalverarbeitung in einem Buch zu vereinigen. Es galt also, eine Stoffauswahl zu treffen, die die moderne Methodik der digitalen Signalverarbeitung auf exemplarische Weise verdeutlicht. Neben dem klassischen Gebiet der digitalen Filter bot sich hierzu in besonderem Maße die Thematik der Spektralanalyse an. Im Zusammenhang mit determinierten Signalen kann dabei sehr anschaulich die effiziente Nutzung schneller Algorithmen, insbesondere der schnellen Fourier-Transformation, demonstriert und zugleich verdeutlicht werden, daß hier vom Anwender neue Grundüberlegungen zur Vermeidung oder Minimierung von Fehlern verlangt werden. Bei der Schätzung von Leistungsdichtespektren stochastischer Prozesse lassen sich traditionelle Methoden auf der Grundlage der diskreten Fourier-Transformation den modernen parametrischen Schätzverfahren gegenüberstellen. Das Prinzip der parametrischen Beschreibung von Rauschprozessen hat in den letzten Jahren vor allem im Bereich der Sprachverarbeitung außerordentliche Bedeutung erlangt. Daß diese Methoden in deutschsprachigen Lehrbüchern bisher kaum behandelt wurden, war ein guter Grund dafür, sie in dieses Buch aufzunehmen. An der Aktualität der Stoffauswahl hat sich seit dem ersten

IV

Vorwort

Erscheinen 1989 nichts geändert, was sich an der guten Akzeptanz dieses Studienbuchs zeigt. Es wird nun hier die vierte Auflage vorgelegt, die unter Beibehaltung der Stoffauswahl, prinzipiellen Gliederung und des inhaltlichen Grundkonzeptes in der äußeren Form und der didaktischen Gestaltung stark überarbeitet wurde. Die entscheidende äußere Veränderung besteht in der Umsetzung des Manuskriptes in Jb.'IEX, wodurch die Lesbarkeit vor allem der Formeln erheblich verbessert wurde, sowie in der neuen Erstellung fast aller Bilder. Der nicht unerhebliche Aufwand dieser Umgestaltung wurde zum Anlaß genommen, nun auch größere Textüberarbeitungen und -ergänzungen im Hinblick auf die weitere didaktische Optimierung vorzunehmen. Die wichtigste Erweiterung besteht darin, daß das Buch nunmehr um einen zweiten Teil ergänzt wurde, der eine Sammlung von praktischen Übungen unter dem inzwischen weit verbreiteten Programm MATLAB enthält. Die Autoren dieses Teils sind Dipl.-Ing. Dieter Boss und Dipl.-Ing. Armin Dekorsy vom Arbeitsbereich Nachrichtentechnik der Universität Bremen. MATLAB stellt inzwischen so etwas wie eine gemeinsame Basis für Ingenieure aus den Bereichen Signalverarbeitung, Nachrichtentechnik, Regelungstechnik und aus etlichen anderen Disziplinen dar, so daß in dieser Sprache inzwischen problemlos weltweit Programme und Lösungen verschiedenster Probleme ausgetauscht werden können. Aus diesem Grunde wurde auch für die neuen Übungen dieses Programm gewählt. Gerade die Probleme des Entwurfs und der Analyse digitaler Filter, der Anwendung der schnellen Fourier-Transformation, der Ausführung moderner Schätzalgorithmen entziehen sich in der Regel einer Behandlung in Form konventioneller Rechenaufgaben und verlangen vielmehr den Einsatz effizienter Programme auf modernen Computern. Man darf davon ausgehen, daß durch den neuen MATLAB-Aufgabenteil eine erhebliche Vertiefung und Veranschaulichung des Stoffes erreicht wird. Der erste Teil des Buches gliedert sich nunmehr in neun Kapitel (gegenüber acht in der bisherigen Form). Nach einer kurzen Einleitung folgt ein Überblick über die Eigenschaften diskreter Signale und Systeme. Besondere Beachtung findet stets eine auf komplexe Zeitsignale erweiterte Darstellung, da diese Signalbeschreibung insbesondere in der Nachrichtentechnik große Bedeutung hat. In dieser Auflage wurde zur besseren

Vorwort

v

Motivation für die Verwendung komplexer Zeitsignale die Herleitung der äquivalenten Tiefpaßdarstellung reeller Bandpaßsignale hinzugefügt. Im 3. Kapitel findet man eine Einführung in die Z- Transformation; neu gegenüber den vorangegangenen Auflagen sind hier einige zusätzliche Betrachtungen über Stabilitätskriterien im z-Bereich. Das ursprüngliche Kapitel 4 ist nun in zwei Kapitel aufgeteilt, da in der neuen Version rekursive und nichtrekursive Filter getrennt behandelt werden. Kapitel 4 ist demzufolge den rekursiven Strukturen allein gewidmet. Als wesentliche stoffliche Ergänzung ist neben einigen didaktischen Umgestaltungen ein neu hinzugekommener Abschnitt über Quantisierungseinflüsse zu nennen. Die heute sehr wichtig gewordenen nichtrekursiven Filter werden in Kapitel 5 behandelt. Zur besseren Veranschaulichung wurden einige neue Entwurfsbeispiele ergänzt sowie die Systematik der verschiedenen Filtertypen übersichtlicher und ausführlicher als bisher gestaltet.. Das der diskreten Fourier-Transformation und ihrer Realisierung durch die schnelle Fourier-Transformation gewidmete Kapitel 6 wurde - abgesehen von einigen kleineren Korrekturen - unverändert übernommen. Das gilt auch für Kapitel 7, in dem Anwendungen der schnellen Fourier-Transformation zur Spektralanalyse deterministischer Signale behandelt werden. Schließlich richten sich die beiden letzten Kapitel auf die Probleme der Spektralschätzung bei stochastischen Prozessen, wobei das 8. Kapitel die traditionellen Methoden behandelt, während das 9. Kapitel sich den modernen parametrischen Schätzverfahren zuwendet. Die hauptsächlichen Anwendungen der parametrischen Verfahren findet man in der Sprachverarbeitung; aus diesem Grunde wurden einige Beispiele aus dem Bereich der Sprachcodierung neu eingebracht, die die besondere Effizienz dieser Methoden praktisch demonstrieren. An den theoretischen Lehrstoff-Teil, auf den das Buch in der bisherigen Form beschränkt war, schließt sich nun der neue Teil mit praktischen MATLAB-Übungen an. Prinzipiell sollen zwei Ziele erreicht werden: Zum einen dienen diese Aufgaben wie bereits ausgeführt der Veranschaulichung des Stoffes durch die Behandlung ausgewählter Probleme. Daneben soll für den Anwender eine Sammlung wichtiger Routinen bereitgestellt werden, die er - auch losgelöst von den hier gestellten speziellen Übungsaufgaben - in der Praxis nutzen kann. Beispiele sind die verschiedenen Standard-Spektralschätzverfahren, die Burg-Methode, das RaderVerfahren zur Schätzung der Autokorrelationsfolgen und einige weitere Routinen.

VI

Vorwort

Es war die Frage zu klären, in welcher Form die Routinen, d.h. die MATLAB-rn-Files, dem Leser übermittelt werden sollten. Der bequemste Weg geht heute zweifellos über das INTERNET - sämtliche hier benutzten Routinen sind unter der Adresse

http://www.comm.uni-bremen.de/pub/ verfügbar. Es sollten aber auch Leser die rn-Files anwenden können, die keinen Zugang zum INTERNET haben. Aus diesem Grunde wurden die Quelltexte mit abgedruckt. Schließlich kann selbst derjenige noch einen Gewinn aus den Übungsaufgaben ziehen, der keinerlei Zugriff auf das Programm MATLAB hat, da das eingehende Studium der ausführlich kommentierten Lösungen erheblich zur Veranschaulichung des theoretischen Stoffes beiträgt. An der Herstellung der neuen Fassung dieses Lehrbuches haben einige Personen entscheidenden Anteil. Die Neugestaltung der Bilder unter dem Graphik-Programm CORELDRAW wurde großenteils von Frau A. Brennenstuhl und Frau A. Olbrich, Karlsruhe, und Herrn S. Aust, Bremen, vorgenommen. Die Roh-Übersetzung des Textes in die neue Tb'IEX-Form wurde von Frau KM. Schubart, Karlsruhe, durchgeführt, während die Herstellung der endgültigen Druckvorlage in den Händen von Herrn Dipl.-Ing. H. Schmidt, Bremen, lag. Die neu hinzugekommenen Beispiele zur parametrischen Sprachanalyse wurden von Herr Dipl.Ing. J. Bitzer eingebracht. Ihnen allen möchten die Autoren danken. Besonderer Dank gilt weiterhin Frau Dr.-Ing. T. Karp sowie Herrn Dr.Ing. S. Fischer: Sie haben in den vorangegangenen Jahren im Rahmen der Übungsbetreuungen in Hamburg-Harburg und Bremen zahlreiche MATLAB-Aufgaben entwickelt, die den Verfassern des neuen kommentierten Übungsteils, Dieter Boss und Armin Dekorsy, als entscheidende Grundlage dienten. Schließlich richtet sich der Dank der Autoren an die Mitarbeiter des Teubner-Verlages, allen voran Herrn Dr. J. Schlembach, für die gewohnt gute Zusammenarbeit. Bremen und Karlsruhe im Oktober 1997 K.D. Kammeyer

K. Kroschel

Inhaltsverzeichnis Vorwort

I

Grundlagen, Filterung und Spektralanalyse

1 Einleitung 2

III

1 3

Diskrete Signale und Systeme 9 2.1 Elementare diskrete Signale . . . . . . . . . . . . . . . .. 10 2.2 Eigenschaften diskreter Systeme . . . . . . . . . . . . . . 12 2.3 Eigenschaften diskreter Signale und Systeme im Frequenzbereich. . . . . . . . . . . . . . . . . . . . . . . . . . . .. 16 2.4 Das Abtasttheorem . . . . . . . . . . . . . . . . . . . . .. 20 2.4.1 Zusammenhang zwischen den Spektren diskreter und kontinuierlicher Zeitsignale . . . . . . . . . 20 2.4.2 Alternative Formulierung des Abtasttheorems: Spektrum eines abgetasteten Signals . . . . . . 23 2.4.3 Deutung des Abtasttheorems anhand der Interpolationsformel für bandbegrenzte Signale . . . . .. 25 2.5 Komplexe diskrete Zeitsignale . . . . . . . . . . . . . . .. 27 2.5.1 Äquivalente Tiefpaß-Darstellung reeller Bandpaßsignale . . . . . . . . . . . . . . 27 2.5.2 Spektren komplexer Zeitsignale 31 2.5.3 Komplexe Faltung . . . . . . . 34 2.6 Zeitdiskrete stochastische Prozesse . . 36 2.7 Spektraldarstellung diskreter stochastischer Prozesse 43 2.7.1 Definition der spektralen Leistungsdichte .. 43

VIII

2.8 3 Die 3.1 3.2 3.3 3.4 3.5

Inhaltsverzeichnis

2.7.2 Einfluß eines linearen Systems . . . . . . . Basisbanddarstellung stationärer Bandpaßprozesse

45 47

Z-Transformation 53 Definition der Z-Transformation . 53 Existenz der Z-Transformierten . 56 Inverse Z-Transformation . . . . 61 Eigenschaften der Z-Transformation 63 Die Systemfunktion . . . . . . . . . . 66 3.5.1 Herleitung der Z-Übertragungsfunktion 66 3.5.2 Amplitudengang, Phasengang und Gruppenlaufzeit diskreter Systeme . . . . . . 69 3.5.3 Stabilitätskriterium im z-Bereich . . . . . . . . .. 73

4 Rekursive Filter 77 4.1 Kanonische rekursive Filterstrukturen . . . . . . . . . .. 78 4.2 Entwurf selektiver rekursiver Filter . . . . . . . . . . . .. 82 4.2.1 Transformation kontinuierlicher in diskrete Systeme 82 4.2.2 Grundlagen zum Entwurf kontinuierlicher Systeme 88 4.2.3 Standardentwürfe im sI-Bereich. . . . 91 4.2.4 Entwurfsbeispiele für rekursive Filter. 94 4.3 Spezielle Formen rekursiver Filter. . . . 98 4.3.1 Komplexwertige rekursive Filter 98 4.3.2 Allpässe . . . . . . . 104 4.3.3 Digitale Integrierer . . . . . . . . 107 4.4 Quantisierungseinflüsse . . . . . . . . . . 109 4.4.1 Darstellung von Festkommazahlen 110 112 4.4.2 Quantisierung der Filterkoeffizienten 4.4.3 Stochastisches Modell des Quantisierungsrauschens 116 119 4.4.4 Quantisierungsrauschen in rekursiven Filtern. 122 4.4.5 Spektralformung des Quantisierungsrauschens . 4.4.6 Grenzzyklen . . . . . . . . . . . . . . . .. 126 4.4.7 Skalierung........... . . . . . .. 137 4.5 Entwurf digitaler Filter mit Hilfe von LC-Abzweigschaltungen . . . . . . . . . . . . . . . . . . . . . . . 141 4.5.1 Beschreibung von LC-Abzweigschaltungen durch Vierpolelemente . . . . . . . . . . . . . . . . . . . 142 4.5.2 Methode des invarianten Spannungsübertragungsverhältnisses . . . . . . . . . . . . . . . . . . . . . 144

IX

Inhaltsverzeichnis

4.5.3 4.5.4 4.5.5

Impedanz-Transformation . . . . . . . . Quellen und Abschlußwiderstände . . . Transformation des gesamten LC-Filters

149 151 152

5 Nichtrekursive Filter 157 5.1 Systeme mit endlicher Impulsantwort: FIR-Filter 158 163 5.2 Systeme mit linearer Phase . . . . . . . . . . . . 163 5.2.1 Komplexwertige linearphasige Systeme. . 5.2.2 Die vier Grundtypen reellwertiger linearphasiger 166 Filter . . . . . . . . . . . . . . . . . . . . . 5.3 Entwurf linearphasiger FIR-Filter . . . . . . . . . . . . . . 171 5.3.1 Grundformen idealisierter selektiver Filter . . . . . 171 5.3.2 Approximation im Sinne minimalen Fehlerquadrats: Fourier-Approximation . . . . . . . . . . . . 177 5.3.3 Filterentwurf durch Fensterbewertung der idealen Impulsantwort . . . . . . . . . . . . . . . . . . 180 5.3.4 Tschebyscheff-Approximation im Sperrbereich: Dolph-Tschebyscheff-Entwurf . . . . . . . . 188 5.3.5 Tschebyscheff-Approximation im Durchlaß192 und Sperrbereich: Remez-Entwurf . 5.4 Entwurf spezieller nicht rekursiver Systeme . . 195 5.4.1 Zeit diskrete Differenzierer . . . . . . . 195 5.4.2 Zeit diskrete Hilbert-Transformatoren . 199 5.4.3 Interpolationsfilter . . . . . . . . . . . 202 5.5 Komplexwertige Systeme . . . . . . . . . . . 207 5.5.1 Komplexwertige Systeme zur Erzeugung analytischer Zeitsignale . . . . . . . . . . . . . . . . . . . 207 5.5.2 Äquivalente Tiefpaßsysteme für digitale Bandpaßfilter . . . . . . . . . . . . . . . . . . . . . . . .. 212 6

Die 6.1 6.2 6.3

diskrete Fourier-Transformation (DFT) 217 Definition der DFT . . . . . . . . . . . . . . . . . . . .. 218 Eigenschaften der DFT . . . . . . . . . . . . . . . . . . 222 Zusammenhänge zwischen der DFT und anderen Transformationen . . . . . . . . . . . . . . . . . . 228 6.4 Die schnelle Fourier-Transformation (FFT) 232 6.4.1 Reduktion im Zeitbereich . . . 233 6.4.2 Reduktion im Frequenzbereich 239 242 6.4.3 Alternative Formen der FFT .

x

Inhaltsverzeichnis

6.5

6.4.4 Inverse FFT. . . . Anwendung der FFT zur digitalen Filterung: Schnelle Faltung .. . . . . . . . . 6.5.1 Overlap-add-Verfahren. 6.5.2 Overlap-save-Verfahren

244 246 246 253

7

Spektralanalyse determinierter Signale 257 7.1 Diskrete Fourier-Transformation reeller Folgen 258 7.1.1 Simultane Transformation zweier Folgen 259 7.1.2 Transformation einer Folge der Länge 2N durch eine N-Punkte-FFT. . . . . . . . 260 7.2 Spektraltransformation reeller Bandpaßsignale . 263 7.2.1 Abtasttheorem für Bandpaßsignale . . . . 263 7.2.2 Spektraltransformation der komplexen Einhüllenden269 7.3 Spektralanalyse periodischer Signale . . . . . . . . . . . . 272 7.3.1 Abtastung eines zeitkontinuierlichen periodischen Signals. . . . . . . . . . . . . . . . . . . . . . . . . 272 7.3.2 Diskrete Fourier-Transformation einer komplexen Exponentialfolge . . . . . . . . . . . . . . . 273 7.3.3 Der Leck-Effekt. . . . . . . . . . . . . . . . 276 7.4 Anwendung von Fensterfunktionen im Zeitbereich . 279 7.4.1 Allgemeine Interpretation des Leck-Effektes 279 7.4.2 Rann-Fenster als Beispiel für die prinzipielle Wirkungsweise einer Fensterung im Zeitbereich .. 280 7.4.3 Weitere gebräuchliche Fensterfunktionen . . .. 284 7.4.4 Gleichmäßige Approximation im Sperrbereich: 286 Dolph-Tschebyscheff-Fenster . . . . . . . . . . 7.4.5 Übersicht über die verschiedenen Fensterfunktionen 288

8

Traditionelle Spektralschätzung 8.1 Schätzung von Autokorrelationsfolgen . . . . . . 8.2 Berechnung von Autokorrelationsfolgen mit FFT 8.3 Das Periodogramm . . . . . . . . . . . . . . . . . 8.3.1 Zusammenhang zwischen Periodogramm und AKF-Schätzung. . . . . . . . . . . . . 8.3.2 Erwartungstreue des Periodogramms . 8.3.3 Varianz des Periodogramms . 8.4 Konsistente Spektralschätzung . . . . . . . .

293 295 302 311

312 314 317 321

Inhaltsverzeichnis

8.4.1

8.5 9

Mittelung von Periodogrammen (Bartlett-Methode) . . . . . . . 8.4.2 Fensterung der Datensegmente (Welch-Methode) . . . . . . . 8.4.3 Korrelogramm-Verfahren (Blackman-Thkey-Schätzung) Vergleich Periodogramm-Korrelogramm

XI

Parametrische Spektralschätzung 9.1 ARMA-Modelle zur Beschreibung von Rauschprozessen 9.2 MarkofI-Prozeß als autoregressives Modell erster Ordnung 9.3 Die Yule-Walker Gleichung . . . . . . . . . . . . . . 9.4 Lineare Prädiktion . . . . . . . . . . . . . . . . . . . 9.4.1 Ableitung der Wiener-Hopf Gleichung für ein nichtrekursives Prädiktionsfilter . . . . . . . . 9.4.2 Das Orthogonalitätsprinzip . . . . . . . . . . 9.4.3 Zusammenhang zwischen linearer Prädiktion und autoregressiver Modellierung . . . . . 9.5 Die Levinson-Durbin Rekursion. . . . . . . . 9.5.1 Ableitung der PARCOR-Koeffizienten 9.5.2 Rekursive Berechnung der Prädiktionsfehlerleistung . . . . . . . . 9.5.3 Rekursionsformel zur Berechnung der Prädiktorkoeffizienten (Levinson-Durbin Rekursion) . . 9.6 Die Lattice-Struktur . . . . . . . . . . . . . . . . . . 9.6.1 Ableitung des Analysefilters in Lattice-Form 9.6.2 Rekursive Synthesefilter in Lattice-Struktur 9.6.3 Minimalphasigkeit des Analysefilters Stabilität des Synthesefilters . . . . . . . . 9.6.4 Orthogonalität des Rückwärts-Prädiktorfehlers 9.6.5 Übersicht über die verschiedenen Beschreibungsformen für autoregressive Prozesse . . . . 9.7 Lösung der Yule-Walker Gleichung . . . . . . . . 9.7.1 Yule-Walker- oder Autokorrelationsansatz 9.7.2 Kovarianzmethode . . . . . . . . . . . . . 9.7.3 Burg-Algorithmus . . . . . . . . . . . . . 9.8 Beispiele zur parametrischen Spektralschätzung . 9.8.1 Erprobung anhand synthetischer Testsignale . 9.8.2 Anwendungen zur Sprachcodierung . . . . . .

321 323 326 331 339 341 346 349 352

352 356 358 360 360 363 365 368 368 372 374 378 382 384 385 388 389 394 394 397

XII

II

Inhaltsverzeichnis

Matlab-Übungen von D. Boss und A. Dekorsy

405

1. Einleitung

407

2. Aufgaben 2.1 Diskrete Signale und Systeme (Kap. 2) . 2.2 Rekursive Filter (Kap. 4) . . . . . . . . 2.3 Nichtrekursive Filter (Kap. 5) . . . . . . 2.4 Die diskrete Fourier-Transformation (Kap. 6) 2.5 Spektralanalyse determinierter Signale (Kap. 7) . 2.6 Traditionelle Spektralschätzung (Kap. 8) . . 2.7 Parametrische Spektralschätzung (Kap. 9) .

. . . . . . .

409 409 422 427 431 433 436 438

3. Lösungen 3.1 Diskrete Signale und Systeme (Kap. 2) . 3.2 Rekursive Filter (Kap. 4) . . . . . . . . 3.3 Nichtrekursive Filter (Kap. 5) . . . . . . 3.4 Die diskrete Fourier-Transformation (Kap. 6) 3.5 Spektralanalyse determinierter Signale (Kap. 7) . 3.6 Traditionelle Spektralschätzung (Kap. 8) . 3.7 Parametrische Spektralschätzung (Kap. 9)

. . . . . . .

441 441 459 463 471 474 485 491

4. rn-Files

497

Literaturverzeichnis

529

Sachverzeichnis

536

Teil I

Grundlagen, Filterung und Spektralanalyse

Kapitell

Einleitung Digitale Signalverarbeitung gibt es, historisch gesehen, schon seit den Tagen der Astronomen, die aus Zahlenkolonnen, die sie bei der Beobachtung der Bewegungen der Himmelskörper gewannen, analytische Aussagen über deren Bahnkurven machten. Von den ersten Ansätzen der modernen digitalen Signalverarbeitung kann man allerdings erst seit den fünfziger Jahren sprechen, als man sich in den Labors der Systemtheoretiker Gedanken darüber machte, ob man nicht von den damals gebräuchlichen Analogrechnern mit ihrer unflexiblen Programmierung über Steckbretter abkommen könnte. Die zu dem Zeitpunkt verfügbaren Digitalrechner stellten bei Aufgaben der Systemanalyse und -simulation zwar grundsätzlich eine Alternative dar, wegen ihrer Kosten und der geringen Operationsgeschwindigkeit war an eine Ablösung der Analogrechner durch sie damals jedoch nicht zu denken. Immerhin wurde dadurch aber die Frage aufgeworfen, in welcher Weise man analoge Systeme durch zeitdiskrete Techniken ersetzen könnte. Eine Antwort in Bezug auf die Darstellung im Frequenzbereich stellte die von Jury 1964 in seinem Buch [Jur64] vorgestellte Transformation abgetasteter Signale in den Frequenzbereich mit Hilfe der ZTransformation dar. Der daraus herleitbare Sonderfall der diskreten Fourier- Transformation eignete sich jedoch aus Gründen der Rechenzeit nicht für die Realisierung mit einem Digitalrechner. Erst die von Cooley und Tukey 1965 eingeführte schnelle Fourier-Transformation [CT65] ließ sich praktisch einsetzen. Der Begriff der digitalen Filter taucht 1966 in dem Buch von Kuo und Kaiser [KK66] auf, und von digitaler SignalverarK.-D. Kammeyer et al., Digitale Signalverarbeitung © B. G. Teubner, Stuttgart 1998

4

1 Einleitung

beitung wurde erstmals im Buch von Gold und Rader [GR69] gesprochen, das auch heute noch ein klassisches Standardwerk über dieses Gebiet ist. Das erste deutschsprachige Lehrbuch über digitale Signalverarbeitung wurde 1973 von H.W. Schüßler veröffentlicht [Sch73]. Neben der Darstellung der Theorie zeit diskreter Signale und Systeme enthält dieses Buch auch bereits eine Fülle von praktischen Realisierungsaspekten - von der Optimierung digitaler Filterstrukturen bis hin zur konkreten Darstellung einzelner Komponenten einer Hardware-Umsetzung. Die Probleme der Auswirkungen der Quantisierung von Filterkoeffizienten und Signalen, die den Effekten der Bauteiletoleranzen und der Rauscheinflüsse bei klassischen Analogsystemen entsprechen, waren Mitte der siebziger Jahre ein zentraler Gegenstand der Forschungsarbeiten. Aus dieser Zeit stammt auch der Vorschlag für eine völlig neue Form digitaler Filter, die sogenannten Wellendigitalfilter von A. Fettweis [Fet71]. Sie sind von den klassischen LC-Abzweigschaltungen abgeleitet und zeichnen sich durch besonders große Robustheit gegenüber Signal- und Parameterquantisierung aus. Die erste Hardware-Realisierung eines digitalen Filters für den Tonfrequenzbereich wurde Anfang der siebziger Jahre von Schüßler und seinen Mitarbeitern vorgestellt. Dies muß aus heutiger Sicht als bemerkenswerter Schritt gewürdigt werden, denn die Überzeugung, daß analoge Systeme auf zahlreichen Gebieten nach und nach durch digitale Konzepte abgelöst werden, war zum damaligen Zeitpunkt durchaus noch nicht selbstverständlich. Bei vielen Ingenieuren galt die digitale Signalverarbeitung als interessante Methode zur Systemsimulation auf Digitalrechnern; die mit den revolutionären technologischen Entwicklungen entstandenen Perspektiven für hochintegrierte Echtzeit-Realisierungen diskreter Systeme bis weit in den MHz-Bereich hinein waren selbst für Optimisten damals nicht absehbar. Das hauptsächliche Problem bei der Hardware-Realisierung digitaler Systeme bestand seinerzeit in der effizienten Ausführung der Multiplikationen mit den Mitte der siebziger Jahre verfügbaren Bausteinen. In diesem Punkt bot die damals aufkommende Verteilte Arithmetik [Kam77] einen interessanten Ausweg, da bei dieser Technik Multiplizierer durch billigere Speicherbausteine ersetzt werden konnten. Die Bedeutung dieses Realisierungskonzeptes ging allerdings sofort zurück, nachdem die ersten hochintegrierten 16 x 16-bit-Parallelmultiplizierer auf dem Markt erschienen. Der entscheidende Schritt in Richtung einer effizienten· Realisierbarkeit

5 digitaler Systeme wurde dann mit der Entwicklung sogenannter Signalprozessoren vollzogen, deren Recheneinheit aus einem Parallelmultiplizierer und einem Akkumulator besteht und somit auf zahlreiche Algorithmen der digitalen Signalverarbeitung unmittelbar zugeschnitten ist. Diese Entwicklung begann mit dem Typ 2920 von Intel, setzte sich über den 7720 von NEC oder den TMS 32010 von Texas Instruments fort und umfaßt heute eine Fülle von Bausteinen, die auch mit Fließkommaarithmetik arbeiten, im Gegensatz zu den zuerst genannten Prozessoren in Festkommaarithmetik. Heute gehören Hardware-Multiplizierer, Harvard-Architekturund Pipelining [Kr086a] zu den selbstverständlichen Charakteristiken moderner Hardware-Konzepte, auf die hier aber nicht näher eingegangen werden soll. Ganz allgemein befaßt sich die digitale Signalverarbeitung mit der Umformung von Zahlenfolgen durch digitale Techniken. Die Zahlenfolgen können durch Abtastung analoger Signale entstehen oder auch Daten sein, die innerhalb eines digitalen Systems, z.B. eines Rechners, anfallen. Die Umformung dieser Zahlenfolgen kann je nach Anwendungsgebiet sehr verschiedenartig sein: Probleme der Kontrastverschärfung von Bildvorlagen durch homomorphe Filterung gehören ebenso zu den Aufgaben wie die Extraktion von Merkmalen aus Körperschallsignalen von Verbrennungsmotoren zur Diagnose ihres Betriebszustandes. Das Anwendungsgebiet der digitalen Signalverarbeitung hat sich in wenigen Jahren in beispielloser Weise ausgedehnt und erstreckt sich heute auf praktisch alle denkbaren Disziplinen - die größte Revolution hat sie jedoch zweifellos in der modernen Kommunikations- und Medientechnik hervorgerufen. Während in der Anfangsphase der digitalen Signalverarbeitung die Filterung im Vordergrund stand, hat sich nach und nach ein äußerst vielfältiges Spektrum komplexer Verarbeitungsaufgaben entwickelt. Anwendungsbeispiele sind Komponenten in der Audiotechnik - vom Abspielgerät für Compact Discs (CD) für den Heimbereich bis hin zum vollständig digitalen Tonstudio - oder Geräte zur digitalen Übertragung - von Telefon-Modems bis zu hochintergierten Empfangsund Sendesystemen für die Satellitenkommunikation und den zellularen Mobilfunk. Ein anderes Beispiel ist die moderne Form der Quellencodierung: Ohne die effiziente parametrische Beschreibung von Sprache mit Hilfe von Linear Predictive Co ding (LPC) und seiner Varianten wäre das Mobiltelefon nach dem GSM Standard ("Global System for Mobile Communication", Standard für das europäische zellulare Mobilfunknetz) nicht vorstellbar. Das Übertragungskonzept des GSM ist überhaupt ein

6

1 Einleitung

Musterbeispiel für die Lösung extrem schwieriger Probleme durch modernste Methoden der digitalen Signalverarbeitung. Genannt seien nur die Realisierung der digitalen Modulation und Demodulation, Synchronisation, Kanalschätzung und -entzerrung durch den Viterbi-Algorithmus [Kam96] neben dem bereits erwähnten Problem der Sprachcodierung und -decodierung. Mit analogen Mitteln wäre die Umsetzung dieses Konzepts ausgeschlossen gewesen. Neue auf dem Massenmarkt eingesetzte Techniken wie das digitale Radio in Form von Digital Audio Broadcast (DAB), das digitale Fernsehen (DVB, Digital Video Broadcasting) oder Mobilfunksysteme der dritten Generation (UMTS, Universal Mobile Telecommunication System) kündigen sich an oder sind bereits Realität, so daß ein Ende des Einsatzbereiches der digitalen Signalverarbeitung nicht absehbar ist. Die Motive für die Anwendung der digitalen Signalverarbeitung lagen anfangs hauptsächlich in der Reproduzierbarkeit, d.h. beliebigen Genauigkeit bei entsprechender Steigerung des Realisierungsaufwandes und der Konstanz der Parameter ohne Temperatur- und Alterungsabhängigkeit. Für die Fertigung ergeben sich hieraus große Vorteile, da aufwendige Abgleichprozeduren entfallen. Hinzu kommt die sehr viel bessere Integrationsfähigkeit digitaler im Vergleich zu analogen Schaltungen. Diese Argumente gelten heute wie damals - jedoch liegt der eigentliche Grund für die revolutionäre Entwicklung der digitalen Signalverarbeitung weitaus tiefer: Neben den außerordentlichen Erfolgen in der Mikroelektronik sind in den letzten Jahren auch im Bereich leistungsfähiger Algorithmen bedeutende Fortschritte zu verzeichnen. Hieraus erwachsen prinzipiell neue Möglichkeiten, die mit analoger Technik nicht erschließbar sind. Ein typisches Beispiel hierfür ist die Fehlerkorrekturbei der digitalen Signalübertragung oder -speicherung. Knacken und Knistern einer Schallplatte sind durch entsprechende Filterung (unter Beeinflussung des Nutzsignals) lediglich etwas abzumildern, aber nicht gänzlich zu vermeiden, während Lesefehler beim Abspielen einer CD nachträglich mit Hilfe der dort benutzten Kanalcodierung korrigierbar sind und somit nicht hörbar werden. Bei extrem hoher Fehlerdichte kann es zum Versagen der Fehlerkorrektur kommen; dann besteht jedoch immer noch die Möglichkeit einer "Nachbesserung" von Bündelfehlern mit den Mitteln der digitalen Audiotechnik, z.B. durch Interpolation. Als zweites Beispiel für die Eigenständigkeit digitaler Lösungskonzepte wird nochmals die bereits erwähnte parametrische Sprachcodierung betrachtet. Führt die konventionelle PCM-Übertragung von Sprache bei

7

einer Abtastung mit 8 kHz und einer 8-bit-Quantisierung noch auf eine Bitrate von 64 kbit/s, so reduziert sich diese auf einen Bruchteil (z.B. 2,4 kbit/s), wenn man von modernen Codierungsverfahren Gebrauch macht. Dabei löst man sich vollständig von der klassischen Vorstellung der Übertragung des originalen Zeitverlaufs des Quellensignals in abgetasteter Form (Waveform Coding); statt dessen beschreibt man das Signal abschnittweise durch einige wenige geeignete Parameter. Diese werden dann anstelle der originalen Wellenform übertragen; am Empfänger wird das ursprüngliche Quellensignal anhand dieser Parameter wieder rekonstruiert. Auf diese Weise ist eine drastische Reduktion der ÜbertragungsBitrate zu erreichen. Im 9. Kapitel dieses Buches werden die theoretischen Grundlagen parametrischer Konzepte dargelegt. Die beiden Beispiele sollen die typische Entwicklung der digitalen Signalverarbeitung demonstrieren: Es geht längst nicht mehr um die Übersetzung von Problemstellungen aus dem analogen in den digitalen Bereich, wo sie gegebenenfalls besser lösbar sind oder zu besseren Resultaten führen; vielmehr werden heute völlig neue Konzepte und Strategien mit digitalen Mitteln umgesetzt: Es hat eine Verschiebung von den Filtern und Netzwerken zu umfassenden Algorithmen stattgefunden, wobei heute mathematische Teilprobleme auf einzelnen IC-Chips gelöst werden, die vor nicht allzu langer Zeit den Einsatz großer Rechenanlagen erforderten. Die Erweiterung der Möglichkeiten bringt es mit sich, daß auf den modernen Ingenieur vor allem auch auf theoretischem Gebiet erheblich höhere Erwartungen gerichtet werden als noch vor wenigen Jahren. Das vorliegende Lehrbuch versucht, dieser Entwicklung Rechnung zu tragen: Neben der ausführlichen Darstellung der Systemtheorie sowie der klassischen Grundlagen zu den digitalen Filtern und der schnellen FourierTransformation bilden insbesondere auch moderne Schätzalgorithmen wichtige Schwerpunkte. Zur Veranschaulichung des oftmals anspruchsvollen theoretischen Stoffes sollen die praktischen MATLAB-Übungen im zweiten Teil des Buches eine wesentliche Unterstützung bieten.

Kapitel 2

Diskrete Signale und Systeme Diskrete Signale erhält man meist dadurch, daß man kontinuierliche Signale abtastet. Beispiele für kontinuierliche Signale sind die Spannung xK(t) mit dem zeitkontinuierlichen Parameter t am Ausgang eines Sensors oder die Grauwerte xK(u, v) einer zweidimensionalen Bildvorlage mit den ortskontinuierlichen Parametern u und v. Im Rahmen dieses Buches werden nur eindimensionale Signale betrachtet, so daß man stets von der Vorstellung einer Zeitparametrierung ausgehen kann. Die Abtastung kann verschieden erfolgen, äquidistant, zufällig oder nach einem anderen Gesetz. Hier soll stets eine äquidistante Abtastung vorgenommen werden, die zudem so erfolgt, daß aus den Abtastwerten das ursprüngliche Signal fehlerfrei rekonstruiert werden kann, d.h. daß das Abtasttheorem [Sha49] eingehalten wird. Das Abtasttheorem wird in Abschnitt 2.4 hergeleitet. Für das diskrete oder hier auch das zeitdiskrete Signal soll die Schreibweise verwendet werden, wobei TA = 1/ JA := T das Abtastintervall und JA die Abtastfrequenz bezeichnet und k eine ganze Zahl im Bereich -00 < k < +00 ist. Da x(k) für einen bestimmten Wert k eine feste Zahl darstellt, für laufendes k aber eine Folge von Zahlen, wäre für das diskrete Signal die Bezeichnung {x(k)} angemessener, zumal es sich um K.-D. Kammeyer et al., Digitale Signalverarbeitung © B. G. Teubner, Stuttgart 1998

10

2 Diskrete Signale und Systeme

eine Zahlenfolge handelt, die hier wegen ihrer Entstehungsart durch Abtasten eines kontinuierlichen Signals auch als diskretes Signal bezeichnet wird. Zur Vereinfachung der Schreibweise soll jedoch in beiden Fällen die Bezeichnung x(k) verwendet werden. Es gibt diskrete Systeme, in denen wegen der verschiedenen Bandbreiten der verarbeiteten Signale verschiedene Abtastraten auftreten [CR83]. Diese Systeme bezeichnet man als multiratige Systeme [CR83, Fli93, Vai93], die z.B. bei Modulationssystemen und in der Spektralanalyse eingesetzt werden. Bisher wurde nur von diskreten, nicht jedoch digitalen Signalen gesprochen. Digitale und zeitdiskrete Signale unterscheiden sich darin, daß die Elemente der ihnen zugeordneten Zahlenfolgen im ersten Fall endliche, im zweiten Fall unendliche Stellenzahl besitzen, d.h. das diskrete Signal geht durch Quantisierung in das digitale Signal über, das sich durch eine endlich lange Binärzahlenfolge darstellen läßt. Durch die Quantisierung werden die Systeme, die digitale Signale verarbeiten, grundsätzlich nichtlinear. Da man bei der Realisierung der Systeme in der Regel eine hohe Stellenzahl verwendet, kann man viele Eigenschaften der Systeme mit der linearen Theorie beschreiben. Auf die Probleme, die sich aus den Quantisierungseffekten bei der Realisierung ergeben können, wird in Abschnitt 4.5 eingegangen.

2.1

Elementare diskrete Signale

Diskrete Signale bzw. die sie repräsentierenden Folgen können reell oder komplex sein. Die wichtigsten elementaren Signale, die z.B. zum Test für die Eigenschaften von Systemen geeignet sind und die man in vergleichbarer Form auch bei den zeitkontinuierlichen Signalen findet, zeigt Bild 2.1. Man unterscheidet u.a. • die Impulsfolge

c5(k) = { 1, 0,

k=O

(2.1.1)

k=l0

die dem Dirae-Impuls 1 zeit kontinuierlicher Signale entspricht, ohne die dort auftretenden Probleme bei der Definition aufzuweisen: Dirac-Impuls wird in der Literatur vielfach mit oo{t) bezeichnet; zur eindeutigen Unterscheidung wird die zeit diskrete Impulsfolge mit o{k) gekennzeichnet.

1 Der

11

2.1 Elementare diskrete Signale

unendlich große Amplitude, unendlich kurze Zeitdauer , Fläche vom Maß eins, • die Sprungjolge eCk) = {

I,

k?O

0,

k0 < O.

29

2.5 Komplexe diskrete Zeitsignale

7r

.J Mセ@

j sin(nk) dn

= :k (1- cos(1I' k))

o

{

= 0, ±2, ±4, ...

0,

k

7r\ '

k = ±1,±3,±5,···

(2.5.4)

Der ideale Hilbert-Transformator ist also nichtkausal und demzufolge nicht realisierbar. In Abschnitt 5.4.3 werden reale Hilbert-Transformatoren diskutiert, die auf nichtrekursiven Approximationen der idealen Impulsantwort (2.5.4) beruhen. Die diskrete Hilbert-Transformation läßt sich damit im Zeitbereich formulieren:

x(k) := H{x(k)} :=

セ@11' Lセ@

kX(Y) .

v=-oo

-Y

(2.5.5)

Die Hilbert-Transformation ist linear und zeitinvariant, da sie die Wirkung des linearen, zeitinvarianten Systems mit der Impulsantwort (2.5.4) bzw. der Übertragungsfunktion (2.5.3) beinhaltet. Weitere Eigenschaften sind

Umkehrung:

x(k) = -H{x(k)}

Orthogonalität: ャZセMッ@

Faltung:

H{x(k) * h(k)} = x(k) * h(k) = x(k) * h(k)

gerade und

x(k)

ungerade Folgen:

x(k) . x(k) =

= x( -k) x(k) = -x(-k)

°

= -xe -k) x(k) = x(-k).

-+ x(k) -+

(2.5.6) Einige wichtige Korrespondenzen der Hilbert-Transformation sind in Tabelle 2.1 zusammengestellt. In Hinblick auf eine kompakte mathematische Formulierung wird nun das Signalpaar xBp(k) und xBp(k) in Bild 2.5.1 zu einem komplexen Zeitsignal zusammengefaßt, in dem xBp(k) den Realteil und xBp(k) den Imaginärteil darstellt. (2.5.7) Man bezeichnet ein komplexes Zeitsignal, dessen Imaginärteil die Hilbert-Transformierte des Realteils ist, als analytisches Signal. Das Spektrum dieses Signals berechnet sich wegen der Linearität der zeitdiskreten

30

2 Diskrete Signale und Systeme

Tabelle 2.1: Korrespondenzen der Hilbert-Transformation

I x(k)

I x(k)

Voraussetzungen

1.

8(k)

2.

cos(nok)

k gerade 0, 2 k ungerade 7r k ' sin(nok)

3.

sin(nok)

- cos(nok)

4.

sin(n g k) ngk

1 - cos(n g k) ngk

5.

s(k) . cos(n o)

s(k) . sin(no)

S(eiO ) = 0, Inl

6.

s(k) . sin(n o)

-s(k) . cos(no)

n g < n o; n o + n g < 7r

-

o< o
Falle gilt

=

(3.5.30)

r;;r--

-2 ± V-t - a2 . al

(3.5.31)

ar /4 ergeben sich konjugiert komplexe Wurzeln, in dem ar = a2 (3.5.32) I = 4ar + (a2 - 4) Z OO1,21

2

j

als erste Koeffizientenbedingung folgt also

ar

(3.5.33)

Für reelle Lösungen von (3.5.30), also mit a2

< af!4, ist zu fordern

·· a2< 1 f ur

-1

al

< -2 ±

a2>4·

r;;rV"4 - a2

< 1.

(3.5.34)

Hieraus folgen die Koeffizientenbedingungen für

(3.5.35)

Bild 3.5.5 verdeutlicht die Bedingungen: Koeffizienten-Paare, die innerhalb der Dreieck-Umrandung liegen, führen auf stabile kausale Systeme zweiter Ordnung. Eingetragen sind weiterhin die Gebiete, in denen sich einerseits konjugiert komplexe und andererseits reelle Pole ergeben.

76

3 Die Z-Transformation

Bild 3.5.5: Koeffizientenkonstellationen für stabile, kausale, reellwertige Systeme zweiter Ordnung

Kapitel 4

Rekursive Filter In Abschnitt 3.5 wurde gezeigt, daß man die Übertragungseigenschaften linearer digitaler Systeme im z-Bereich durch eine gebrochen rationale Übertragungsfunktion beschreiben kann. Durch die Wahl der Parameter bl-' und a v wird es möglich, bestimmte Eigenschaften bezüglich des Amplitudenganges und der Phase bzw. der Gruppenlaufzeit zu realisieren. Besteht der gewünschte Amplitudengang aus stückweise konstanten Abschnitten, so spricht man von selektiven Filtern; die Grundformen sind als Tiefpaß, Hochpaß, Bandpaß oder Bandsperre bekannt. Für den Entwurf dieser Filterformen existieren geschlossene Verfahren, z.B. solche, die sich vom Entwurf klassischer Analognetzwerke herleiten. Bevor man sich jedoch dem Filterentwurfsproblem selbst widmet, muß man sich Gedanken über die Strukturen diskreter Systeme machen, die zur Realisierung dieser Filterformen geeignet sind. Dies soll im folgenden Abschnitt geschehen. Die Systemfunktion eines digitalen Filters läßt sich nach (3.5.5) durch () H( Z ) -_ y z X(z)

_ -

",m

Ltl-'=O

n

bI-'z -I-'

I:v=o avz- v

(4.0.1)

angeben. Anhand des Parameters n lassen sich zwei Grundstrukturen von digitalen Filtern unterscheiden: Mit n セ@ 1 ergibt sich ein rekursives Filter, wobei der Koeffizient ao auf eins festgelegt wird, während man für n = 0 ein nichtrekursives Filter erhält. Das vorliegende Kapitel ist der Klasse der rekursiven Filter gewidmet - nichtrekursive Filter werden gesondert in Kapitel 5 behandelt. K.-D. Kammeyer et al., Digitale Signalverarbeitung © B. G. Teubner, Stuttgart 1998

78

4 Rekursive Filter

Ein System, das die Systemfunktion (4.0.1) realisiert, muß Elemente zur Addition, Multiplikation und zur zeitlichen Verzögerung enthalten. Bild 4.0.1 zeigt diese Elemente einschließlich ihrer Darstellung durch Signalfiußgraphen.

X ( z ) - - -....--c·X(z)

c

X ( z ) - - -.....,---X(z). Z-l -1

Z

Bild 4.0.1: Rechenelemente eines digitalen Filters

Man bezeichnet eine Struktur als kanonisch [Sch91), die auf ein System mit der Minimalzahl an Speichern führt. Für eine Systemfunktion nach (4.0.1) sind das max{ m, n} Speicher. Weil Speicher in diskreter Hardware leicht zu realisieren sind, die Multiplikation dagegen problematischer ist, interessieren in der Praxis oft Strukturen mit der Minimalzahl an Multiplizierern, sogenannte multipliziererkanonische Strukturen, auf die an anderer Stelle [Hes93) näher eingegangen wird. Ein Beispiel dafür sind die in Abschnitt 4.3.2 betrachteten Allpässe sowie die im Kapitel 9 zur Realisierung linearer Prädiktionsfilter eingeführten LatticeStrukturen. Aus (4.0.1) lassen sich vier kanonische Strukturen ableiten. Der Nennerkoeffizient ao wird dabei ohne Einschränkung der Allgemeinheit zu ao = 1 angenommen, da man die Systemfunktion durch eine beliebige Konstante dividieren kann.

4.1

Kanonische rekursive Filterstrukturen

Zur Beschreibung von Systemstrukturen und Algorithmen verwendet man wegen ihrer kompakten Form gerne sogenannte Signalflußgraphen. In ihnen bezeichnen • Knoten die Stellen, an denen aus Flußrichtung kommende, d.h. mit einem Pfeil gekennzeichnete Werte addiert werden,

79

4.1 Kanonische rekursive Filterstrukturen

• Pfeile die Multiplikation des in Pfeilrichtung übertragenen Wertes mit dem angegebenen Faktor. Fehlt die Angabe dieses Faktors, so wird er zu eins gesetzt.

Es sollen hier die Signalflußgraphen der kanonischen Strukturen angegeben werden. Für die folgenden Betrachtungen wird m = n gesetzt. Aus (4.0.1) folgt dann mit ao = 1 n

+ セI「カxHコ@

Y(z) = boX(z)

- avY(z)]z-V

(4.1.1)

v=l

und daraus die im Bild 4.1.1 gezeigte kanonische Struktur. セ@

MャKBセ@

X(z)o--+-o •

)

----1j>---:::セMャᄋ@

oY(z

Bild 4.1.1: Die erste der vier kanonischen Strukturen

Bei der zweiten kanonischen Struktur wird über die Hilfsgröße W(z) = X(z)

1

1 + lセ]ャ@

a v . Z-V

(4.1.2)

zunächst der Nenner der Systemfunktion H(z) realisiert. Mit W(z)

= X(z) -

n

L av . z-VW(z)

(4.1.3)

v=l

erhält man das im Bild 4.1.2 links gezeigte Rückkopplungsnetzwerk. Mit der Hilfsgröße W(z) nach (4.1.2) und dem Zähler in (4.0.1) folgt für die Ausgangsgröße Y(z): n

Y(z) = W(z) .

L bvz- v

(4.1.4)

v=o

Der Zähler entspricht dem nichtrekursiven oder transversalen Netzwerk im rechten Teil von Bild 4.1.2. Die zwei parallelen Ketten von Speichern

80

4 Rekursive Filter

IW(Z) X(z)

-1

-1

セ@

Z

Z

-1

-1

z

-- 1 + Poo .

Setzt man für Poo den Maximalwert Poo = 1 ein, so erhält man 1

cOSU oo

> -12

bzw. 7f

o :S U oo < "4'

(4.4.31)

Dies bedeutet, daß die gekoppelte Struktur für Filter mit einer Grenzfrequenz bis zu einem Achtel der Abtastfrequenz geringeres Rauschen liefert als die Direktform; für Filter mit höherer Grenzfrequenz ist die Direktstruktur günstiger, was aus der höheren Dichte der Polstellenlagen im Bereich um z = j resultiert. Weitere Einzelheiten über Quantisierungseffekte und weitere Filterstrukturen findet man z.B. in [Zö96].

122

4 Rekursive Filter

4.4.5

Spektralformung des Quantisierungsrauschens

Bei modernen Signalprozessoren mit erweiterter Zahlendarstellung im Multiplikations- und Akkumulationsregister hat man die Möglichkeit, den Quantisierungsfehler eQ(k) explizit zu berechnen. Dies eröffnet die Möglichkeit, durch gezielte Einspeisung dieses Fehlers, z.B. Rückführung mit negativem Vorzeichen, eine bestimmte Spektralformung des Gesamtfehlers durchzuführen, wodurch der in das Nutzband fallende Leistungsanteil erheblich reduziert werden kann. Man bezeichnet diese Technik im Englischen als noise shaping.

xCk)

xCk) E$XQCk) eq(k} -1 j{k)

b)

a)

eQ{k}

Bild 4.4.8: Quantisierer mit rückgekoppelten Quantisierungsrauschen: a) Realisierung, b) Signalflußgraph des Rauschmodells

Das Verfahren wird zunächst anhand eines einfachen Quantisierers mit noise shaping demonstriert. Bild 4.4.8a zeigt eine entsprechende Anordnung, bei der der errechnete Quantisierungsfehler eQ(k) über ein Filter mit der Impulsantwort f(k) zurückgeführt wird. Dieses Filter muß eine Verzögerung um mindestens ein Abtastintervall enthalten, damit eine verzögerungsfreie Schleife vermieden wird. Für das quantisierte Ausgangs signal xQ(k) gilt damit

xQ(k) =

-----x(k)

+ eQ(k)

ohne noise shaping

eQ(k)

* f(k)

(4.4.32)

'-v-"

rückgeführter Fehler

wobei von dem infolge des Quantisierungsrauschens gegebenen Fehler eQ(k) nun der gleiche Fehler in gefilterter Version subtrahiert wird. Der neue gesamte Quantisierungsfehler ist mit (4.4.32) (4.4.33) er besteht also aus dem ursprünglichen Quantisierungsfehler , der eine neue Spektralformung erfahren hat. Um die Wirkung dieser Spektralformung an einem Beispiel zu veranschaulichen, sei angenommen, daß

123

4.4 Quantisierungseinflüsse

für das Filter f(k)

= 8(k -1) 0-. F(z) = Z-l

gelte, was mit (4.4.33) auf (4.4.34)

führt; das Quantisierungsrauschen wurde also durch die Übertragungsfunktion F. (z) = = 1 _ -1 (4.4.35) Q eQ(k) z

Z{eQ(k)}

gefiltert, also durch einen Hochpaß mit dem Frequenzgang

FQ(eirl ) = 2ei (7r-rl)/2 sin(Oj2).

(4.4.36)

Geht man davon aus, daß das Nutzsignal durch einen schmalbandigen Tiefpaß übertragen wird, der durch Pole in der Nähe von z = 1 charakterisiert wird, dann würde bei traditionellen Filterstrukturen das im Innern des Filters erzeugte Quantisierungsrauschen durch diese Pole erheblich verstärkt. Mit der Anwendung des noise shaping wird in die Rauschübertragungsfunktion an der Stelle z = 1 eine Nullstelle eingefügt, wodurch die Wirkung der Pole zum großen Teil wieder aufgehoben wird; die Verstärkung des Rauschens wird dadurch herabgesetzt.

-1

Z

-1

-1

z

eQ(k)

-2

x(k)

x(k) ·1

-ltt

Z

y (k)

-1

-ltt

-1

a)

-1

Z

-IZ:!

Z

-1

z

b)

-IZ:!

z

Bild 4.4.9: Direktformen mit Spektralformung des Rauschens: a) mit einer einfachen Nullstelle, b) mit einer doppelten Nullstelle bei z = 1

Wendet man diese Überlegung zur Reduktion des Quantisierungsrauschens auf die Direktstruktur eines rekursiven Filters zweiter Ordnung an und benutzt das im Beispiel verwendete noise-shaping-Filter F(z) = z-l, so erhält man den in Bild 4.4.9 im Teil a) gezeigten Signalflußgraphen. Während die Übertragungsfunktion für das Nutzsignal unverändert bleibt, ergibt sich für den Quantisierungsfehler aufgrund der

124

4 Rekursive Filter

zusätzlich eingeführten Nullstelle die Rauschübertragungsfunktion Hi(z) vom Einkoppelpunkt des Quantisierungsrauschens bis zum Ausgang 1- Z-l Hi(z) = 1 2 . (4.4.37) 1 + alZ- + a2ZBerechnet man wieder die Varianz des Rausehens am Ausgang des Systems mit (4.4.24), so folgt 2(1 + a2) + 2al ((1 - a2)[(1 + a2)2 - ar) 2 2

2 (1

Q

(4.4.38)

Um den Effekt der zusätzlichen Nullstelle auf das Rauschen zu untersuchen, sind die Varianzen der einfachen Direktform nach (4.4.27) und der mit der zusätzlichen Nullstelle nach (4.4.38) miteinander zu vergleichen. Es wird eine Bedingung dafür hergeleitet, daß das Rauschen am Ausgang der modifizierten Struktur mit noise shaping geringer ist als die konventionalle Direktstruktur. Dazu muß gelten 21+a2 1 2 2 (1 Q 1 _ a2 (1 + a2)2 > (1 Q (1 - a2) (1 + a2 - ad 1 + a2 2 > (1 + a2 + al)(l + a2 - al) 1 + a2 - al 1 (4.4.39) < -2"(1 + a2).

ar

Es ist nun zu prüfen, für welche stabilen Systeme diese Beziehung erfüllt ist. Dazu zeigt Bild 4.4.10 den durch (4.4.39) bestimmten Bereich im Stabilitätsdreieck von Systemen zweiter Ordnung sowie den zugehörigen Bereich in der z-Ebene. Man erkennt, daß die Bedingung (4.4.39) für Tiefpässe mit einer Polfrequenz bis f = fA/6 erfüllt ist. Man kann das Rauschen noch weiter reduzieren, indem man eine weitere Nullstelle bei Z = 1 hinzufügt, wie aus Bild 4.4.9 im Teil b) ersichtlich. Für die Übertragungsfunktion des Rausehens gilt hier

Hi(z)

1 - 2z- 1 + z-2

= 1 + alZ- 1 + a2Z- 2

(4.4.40)

Entsprechend (4.4.38) erhält man aus (4.4.24) für die Rauschleistung am Systemausgang (4.4.41)

125

4.4 Quantisierungseinflüsse jTJ

Bild 4.4.10: Bedingungen für die Koeffizienten bzw. die Pole zur Reduktion des Rausehens für noise shaping mit einer Nullstelle bei z = 1.

Um eine Bedingung dafür zu erhalten, daß durch Hinzufügen der Nullstelle das Rauschen weiter reduziert wird, muß mit (4.4.38) und (4.4.41) gelten 2

2

>

2 O"Q

6 + 2al - 2a2 (1 - a2)(1 + a2 - ad

(4.4.42) Damit das System stabil bleibt, kommen nur die in Bild 4.4.11 dargestellten Werte in Betracht. Danach reduziert sich gegenüber Bild 4.4.10 zwar der Bereich, in dem eine Verbesserung beim Quantisierungsrauschen erzielt wird, die Grenzfrequenz bleibt aber bei f = f A/6 bestehen. Da man oftmals vor allem an Filtern hoher Güte mit Polen in der Nähe des Einheitskreises interessiert ist, stellt die Einschränkung des Bereichs in der Praxis keinen Nachteil dar. Zum Schluß sei noch die gekoppelte Struktur betrachtet, bei der nur eine zusätzliche Nullstelle hinzuzufügen ist, da bereits eine der Übertragungsfunktionen für das Rauschen eine Nullstelle besitzt. Den Signalfiußgraphen zeigt Bild 4.4.12. Es sind zwei Rauschübertragungsfunktionen zu unterscheiden. Für die Übertragungsfunktion von der Rauschquelle eQl(k) zum Ausgang erhält man

Poo sin 0: 00 (1 - Z-'l )z-2 H) 1 (z = ...,..-:.....:..::----':..:......:.---::---'-.."-------,,. 1 - 2poo cos 0: 00 Z-l

+ ーセzMR@

(4.4.43)

und entsprechend für die Übertragungsfunktion von eQ2(k) zum Ausgang H 2(z) = (1- Poo cOSO: oo z-l)(1 1 - 2poo cos 0: 00 Z-l + ーセコMR@

z-l)Z-l

(4.4.44)

126

4 Rekursive Filter

セMKエ@

セ@

-1------1--7"71--+ セ@

1

Bild 4.4.11: Bedingungen für die Koeffizienten bzw. die Pole zur Reduktion des Rausehens für noise shaping mit einer doppelten Nullstelle bei z = 1

Für das gesamte Rauschen am Ausgang der gekoppelten Struktur erhält man nach [Zö96] 2

O"Ey

2 + al a2 . = O"Q1_

2

(4.4.45)

Sucht man wieder eine Bedingung dafür, daß dieses Ergebnis besser ist als der beste bisher bezüglich des Rausehens erzielte Wert nach (4.4.41), dann muß gelten 2 (JQ

6 + 2al - 2a2 (1 - a2)(1 + a2 - at) (4.4.46)

In [Zö96] wird gezeigt, daß diese Ungleichung nur für breitbandige Tiefpässe erfüllt wird und somit nur für diese Fälle das Ergebnis für die gekoppelte Struktur günstiger ist. Je geringer allerdings die Güte des Filters ist, desto geringer ist die Grenzfrequenz, bei der sich noch ein Vorteil für die gekoppelte Struktur ergibt. Setzt man nämlich a2 = p?x, = 1 in (4.4.46) ein, so wird die Ungleichung nur für 0 < al < 2 erfüllt, die Grenzfrequenz muß damit größer als Og = 7r/2 (d.h. fg > fA/4) sein. Wählt man hingegen a2 = p?x, < 1, so wird die Ungleichung auch für schmalbandigere Tiefpässe erfüllt, d.h. solche, deren Grenzfrequenz auch unterhalb von Og = 7r /2 liegt.

4.4.6

Grenzzyklen

Wie bereits an anderer Stelle bemerkt wurde, ist ein digitales System wegen der Quantisierung nicht mehr linear; deshalb gelten die in in Ab-

127

4.4 Quantisierungseinflüsse

-1

x(k)

t z-' z-'

Mーセ@

sina

ーセ@

ーセ@

」ッウ。セ@

ーセ@

ウゥョ。セ@

-1

tz-I 」ッウ。セ@

·1

z

y (k)

Bild 4.4.12: Gekoppelte Struktur mit Spektralformung

schnitt 3.5.3 hergeleiteten Stabilitätsbedingungen für lineare Systeme nicht mehr. Folglich kann ein System, das diese Stabiltätsbedingungen einhält, trotz fehlender Erregung am Ausgang ein oszillierendes Signal liefern, das man als Grenzzyklus oder im Englischen mit limit cycle bezeichnet. Man kann zwei Arten derartiger nichtlinearer Schwingungen unterscheiden: solche, die durch Quantisierung - Runden oder Abschneiden bei der Multiplikation entstehen, sogenannte Quantisierungsgrenzzyklen, und solche, die ihre Ursache im Zahlenüberlauf bei der Addition haben und deshalb als ÜberlauJgrenzzyklen oder auch Überlaufschwingungen bezeichnet werden. Die Amplitude der Quantisierungsgrenzzyklen ist bezogen auf die Nutzamplitude in der Regel klein, während die Überlaufgrenzzyklen durchaus in der Größenordnung der Nutzamplituden liegen. Nichtrekursive Systeme weisen keine Grenzzyklen auf, hier macht sich die Qantisierung lediglich als Verzerrung des Nutzsignals bemerkbar. Quantisierungsgrenzzyklen Das Phänomen der Quantisierungsgrenzzyklen soll anhand eines reellwertigen Systems erster Ordnung mit der Systemfunktion 1

H(z)-1+az- 1 '

aEIR

näher beschrieben werden. Dieser Systemfunktion entspricht die Differenzengleichung y(k) = x(k) - a· y(k - 1)

128

4 Rekursive Filter

bzw. bei Quantisierung des Produkts (4.4.47)

y(k) = x(k) - [a . y(k - l)]Q .

Es soll nun angenommen werden, daß die Werte am Ausgang auf eins begrenzt sind, ly(k)1 < 1, und daß das System mit x(k) = 0 unerregt ist, jedoch den Wert y(k -1) "# 0 speichert. Damit das System Grenzzyklen mit der Frequenz Og aufweist, muß eine der Bedingungen y(k - 1),

y(k) = {

Og =

-y(k - 1),

7r

(4.4.48)

Og = 0

erfüllt sein. In beiden Fällen klingt die Systemantwort nicht wie beim linearen Verhalten nach Null ab. Stattdessen liegt im ersten Fall am Ausgang eine Schwingung der Ordnung 2 - d.h. eine Schwingung der nomierten Frequenz Og = 7r - entsprechend fA/2 - an, im zweiten Fall eine Schwingung der Ordnung 1 bzw. ein nicht oszillierendes Signal mit der normierten Frequenz Og = O. Das System wirkt nach außen so, als hätte es eine Polst elle bei z = -1 bzw. bei z = 1. Damit die erste Bedingung in (4.4.48) zutrifft, muß die Beziehung

-la . y(k -

(4.4.49)

l)]Q = y(k - 1)

gelten. Führt man eine Rundung mit der Quantisierungsstufe Q durch, so folgt mit (4.4.49) Q

2"

Iy(k - 1) + a· y(k - 1)1 セ@

bzw. bei weiterer Abschätzung

+ a ·Iy(k -

Iy(k - 1)1

1)1

セ@ セ@

(4.4.50)

.

Da das Ausgangssignal infolge der Rundung einen der quantisierten Werte I· Q, lEIN annimmt, folgt aus (4.4.50) schließlich

+ a) ·Iy(k -

1)1




±all + ql - a2l 1+a2_ ql + q2 l

1 + a2 -

+ q2

1

I.

(4.4.55)

Dabei wurden die Werte von ql und q2 so gewählt, daß sich für lall der Minimalwert ergibt, so daß die Ungleichung 4.4.55 gilt. Der zweite Modus der Grenzzyklen entsteht bei Quantisierung des Produkts a2y(k - 2), so daß mit a2 = 1 die Wirkung eines Pols auf dem Einheitskreis hervorgerufen wird

was (4.4.49) entspricht. Wie dort erhält man als Bedingung für die Existenz von Grenzzyklen: l< 1 = d - 2(1 - la21) ,

lEIN.

(4.4.56)

Lösungen für diese Bedingung sind: 0,5 ::; 0,75::;

Rセi@

::;

la21 < 0,75 la21 < 0,833 la21