Theorie der Informationsübertragung [Reprint 2021 ed.]
 9783112550823, 9783112550816

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

AL. S P A T A R U

THEORIE DER INFORMATIONSÜBERTRAGUNG S i g n a l e und S t ö r u n g e n

ELEKTRONISCHES

RECHNEN

UND R E G E L N

Herausgegeben von Prof. Dr. H A N S F R Ü H A U F • Prof. Dr. W I L H E L M K Ä M M E R E R Prof. Dr. K U R T S C H R Ö D E R • Prof. Dr. H E L M U T T H I E L E Prof. Dr. H O R S T VÖLZ

Sonderband 18

T H E O R I E DER INFORMATIONSÜBERTRAGUNG von AL. S P Ä T A R U

A K A D E M I E - V E R L A G 19 7 3



B E R L I N

BERICHTIGUNG Seite 143; Gleichung (4.11) lies : i> h) = statt : ^„(«i.

r,{t2)} = [f(fx) - f ft)] Wh) - f(*i)]

h) =

{Wi), v(h)} = [£(h) - f («i)] Wh) - v(h))

Seite 145, Tabelle 4.1, Punkt 6; Zeitlicher Mittelwert lies :

statt :

f£«(i~)]2 _ [£(*)(*)]«

-

Seite 170, in Gleichung (4.86 und (4.87) lies :

1. i. m.

statt :

lim

Seite 242, Gleichung (6.132) lies :

(_

h(t) = u(t) ~

e

RC

statt :

t_

h^t) = «(() ~

e

RC

'

Seite 305, in Formel (8.71) lies :

statt :

\g(x)\ ^ M0 eu'x

|fif(a;)| g M0 e-u'x

Seite 472, 9. Zeile v. o. lies:

|fc| ^ 2

statt:

|fc| ^ 2

Seite 541, 12. Zeile v. o. Für die erste und zweite untere Integrationsgrenze lies :

qa

statt :

q"

statt:

pt (

r

-i- du = P (C ^ z) .

Ihre graphische Darstellung ist in Abb. 2.20 angegeben. Man hat .F(oo) = l ; F(- oo) = 0 und F(z) +F(-z) = 1 , F(Z). 7

•0,5

0

z •

Abb. 2.20. Verteilungsfunktion der normalen Verteilung

(2.43)

40

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

weil z

e

i

du -j

/



I

V2n . _

— .

= P ( — OO < 0,1 ; \2J 32 m0 = n p = 3,12; iW6)

" 3 - 1 2 = 0,0566 .

6!

2.5. Kontinuierliche zufällige Veränderliche In diesem Fall kann die zufällige (aleatorische) Veränderliche ein Kontinuum von Werten annehmen. Ein Beispiel der kontinuierlichen zufälligen Veränderlichen ist die Rauschspannung, die im Moment t = i 0 jeden Wert auf der reellen Achse annehmen kann. 2.5.1. Verteilungsfunktionen, Wahrscheinlichkeitsdichte Wie auch im Fall der diskreten zufälligen Veränderlichen ist die Verteilungsfunktion

F(x)

= P (£ )

X

für

x= — a.

u {x -f- a) + f w(x) dx — 00

für

x < a.

2.5. Kontinuierliche zufällige Veränderliche

49

wobei w(x)

= 0 . für

w(x)

4= 0 , für ' —

w{x)

= 0,

x

für

x



a;




mit

y) =

y

wa(®> — oo — oo /

/

y )

oc oo /

f

wz(xf

— CO — oo

y ) dxdy



d x

d

y.

1.

(2-65)

(2.66)

Für unabhängige Veränderliche hat man p (I ^ X, r, ^ y) = P (f ^ X) • P (r, ^ y) = Fn(z) • F^y)

(2.67)

und W*.y) = ^

dx oy

=

dx

oy

= wu(x) • ^ y ) .

(2.68)

50

2. Grundbegriffe der Wahrscheinlichkeitsrechnung D(x-,,y2)

A(K2,y2)

ß(x2>y?)

Abb. 2.28. Bereich des Bildpunktes eines Paares von zufälligen Veränderlichen

Die Wahrscheinlichkeit dafür, daß sich die zufällige Veränderliche in einem Bereich (Abb. 2.28) befinden soll, ist P

to


• • • > Vn) = j ^ j « ^ ! ' X2, . . . , X n )

(2.101)

wobei

A

=

syi gyi 8x1 8x2 ' 8xn öy* X2)

^2 ±

—co

/

—00

j+ 00x1 WutZj) dxx ±

/

^2)

^2

=

—00

f+00xa iv12(x2) dx2

und daher mi

oder allgemein

{Ix ± U

{

n

= ™i{li) ± 1

..

11

(2.H6) lc¿7 = 1f * Jf = £=»l» , { & } • Der Mittelwert der Summe ist also gleich der Summe der Einzelmittelwerte. 2.8.3. Mittelwert des Produktes von zwei zufälligen Veränderlichen Wenn r] = I j • | 2 ist, erhält man für den Mittelwert wx

+ 00+00 ( I i • I2} = / / X1x2w2{x1>x2) —00 —00

(2.117)

dx1dx2.

— Falls die zufälligen Veränderlichen unabhängig sind, gilt w2{xv x2) = wn(x 1) w12{x2) und mi

{Ii'

la } =

+ 00 +00 / J xixz — 00 —00

wn(xi)

wuix2)

dx-L dx2 = m^

} m^ £2}

und allgemein J Z ? l 4 == n m 1 { h } (¿=1 J 4=1

(2.H8)

Demnach ist im Falle unabhängiger zufälliger Veränderlichen der Mittelwert :s Produktes gleich dem Produkt der Einzelmittelwerte. I m speziellen Fall einer Konstante C ist m1{C^} = Cml{£) .

(2.119)

63

2.8. Mittelwerte der Funktionen

— Falls die zufälligen Veränderlichen nicht unabhängig sind, ergibt sich der folgende Mittelwert, der eine besondere praktische Bedeutung besitzt und gemischtes zentrales Moment zweiter Ordnung oder Kovarianz genannt wird. h)

= «H { ( f i -

fi)

Mit der Bezeichnung der Mittelwerte

¥*)}_=

und

(fi -

Fl) dz -

F%) •

(2.120)

mit x10 bzw. x20 erhält man

4- oo + oo

-^12 {

oder

' ¿"a} — f f (^1 — 00 —00

^10)

^20)

-r 00 +00 £2} =

und daraus

/

f

— CO —00

wz{xlt

x2) dXj dxz —

• £2

(2.121)

(2.122) {fi • £2} = W ^ } + f,} . Im Fall von unabhängigen zufälligen Veränderlichen ergibt sich, indem man die Beziehungen (2.122) und (2.118) vergleicht, Mn

= 0 .

2.8.4. Korrelationskoeffizient Der Korrelationskoeffizient Q wird durch folgende Beziehung definiert: (2.123) 0 = (fi - £) (fi -

Wi-Frf*

Mit den Bezeichnungen ^ = x10, £2 = x20 und M2{ lautet der Korrelationskoeffizient Q

_ (fl ~ ^lo) (I3 — xiü) «Tj cr2

(2.124) } = a\, M2{ £2} = o\,

fl ¿2 ~ g10 X20 ffj

ff2

(2.125)

Dieser Koeffizient ist ein Maß für die lineare Abhängigkeit der zwei zufälligen Veränderlichen. Die lineare Abhängigkeit ist die einfachste Form der Abhängigkeit und besitzt eine besondere praktische Bedeutung.

Abb. 2.36. Bildpunkte bei unabhängigen zufälligen Veränderlichen

64

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

Wenn eine Reihe von Experimenten durchgeführt wird, die als Ergebnis verschiedene mögliche Werte (xx, x2) der zwei zufälligen Veränderlichen haben, und wenn man diese Werte durch Punkte in der Ebene xx, xs darstellt, so findet man, daß im Fall von unabhängigen zufälligen Veränderlichen diese Punkte mehr oder weniger in der ganzen Ebene verteilt sind (Abb. 2.36). Wenn zwischen den Veränderlichen eine vollständige lineare Abhängigkeit besteht, dann ist q = 1 (Abb. 2.37).

Für eine besonders nichtlineare Abhängigkeit besteht beispielsweise die in Abb. 2.38 dargestellte Situation. Wenn eine partielle lineare Abhängigkeit besteht, sind die Punkte um eine Gerade gestreut (Abb. 2.39). X1

1



~'* -X.

/ 1 \ 0

N

\ 1 / xr

Abb. 2.38. Bildpunkte für zufällige Veränderliche bei nichtlinearer Abhängigkeit

E s wird die Aufgabe gestellt, die Gerade zu bestimmen, die am besten die Werte von | 2 voraussagt, wenn die Werte von ^ bekannt sind. Es sei diese Gerade rjt = a + b(1.

(2.126)

Die Worte am besten sind im Sinne des Minimalwertes des mittleren quadratischen Fehlers zu verstehen. Der Fehler ist e = £2 ~ %

2.8. Mittelwerte der Funktionen XJ

65

1

0

Abb. 2.39. Bildpunkte für zufällige Veränderliche mit partieller linearer Abhängigkeit

Dann ergibt sich für den Mittelwert des Fehlerquadrates e2 = & - %)2 = (f, - o - 6 Ii) 2 = = n + a> + b * J l - 2 b

2flfI+2a6f1.

Die Werte von a und b müssen so bestimmt werden, daß der mittlere quadratische Fehler minimal wird: gi2 8a

woraus sich ergibt

= 2 a — 2 f 2 + 2&£ 1 = 0

82* Hb

26£ - 2&

+ 2o& = 0,

Ut-h-h

oder b = (£i - *io) (fa - ¡«so)

und a = £2 — b & = xi0 — b

x10.

Durch Einsetzen in die Gleichung der Geraden erhält man % = %2o +

oder

b

(fi -

% = x20 +

io)

x

( f l _ x10)

Man sieht, daß sich der Punkt £ = x10, rj = x20 auf dieser Geraden befindet. Die Gleichung kann auch folgendermaßen geschrieben werden: Vi ~ X20

dl ~ ®lo) (^2

2o) (Sl

X

^10

(2.127)

66

2. Grundbegriffe der Wahrscheinlichkeitsrechnving

Durch Einführung der normierten Veränderlichen

_

tXj

M %M> , CXg a!

£2

a2

erhält man

20, Pi O

Vi ~ X10 , iTj

ß

=

n-2 -

*20

ß2 = g ixj,

( 2

1 2 8 )

(2.129)

wobei

(2.130) der durch die Beziehung (2.125) definierte Korrelationskoeffizient ist. Aus der Beziehung (2.129) ist ersichtlich, daß der Korrelationskoeffizient die Steilheit derjenigen Geraden ist, die am besten die Werte von 00 geht, so konvergiert nach dem Satz v o n LAPLACE auch P„{m) gegen die Normalverteilung (s. A b s c h n i t t 2.4.4.). W . FELLER u n d A . J. CHINTSCHIN haben diese A u f g a b e in allgemeinster F o r m

2.10. Zentraler Grenzwertsatz

wobei

71

+ 00 & i ( v ) =

f

w ^ X t )

d x

— 00

t

.

(2.153)

W e n n die Wahrscheinlichkeitsdichten der n zufälligen Veränderlichen bekannt sind, können die charakteristischen Funktionen 0i(v) bestimmt und daraus mit Hilfe der Beziehungen (2.152) und (2.137) die Wahrscheinlichkeitsdichte von nämlich w(x), errechnet werden. 2.9.3.1. Summe v o n unabhängigen zufälligen Veränderlichen mit Normalverteilung I n diesem Fall ist • _!?Ü 0I(V)=E3"LI 2 .

(2.154)

Mit den Bezeichnungen a = U at und a 2 — 2J a\, ergibt sich aus der BeI I ziehung (2.152)

a8»' &(v) = n 0t{v) = e" r

V

2

(2.155)

und weiter 1 (x-a)! 2

w{x) = — - — E

(2.156)

1/2 71 a 2

E s ist also die Verteilung der Summe von zufälligen Veränderlichen mit Normalverteilung ebenfalls eine Normalverteilung mit dem Mittelwert a — £ at und der Dispersion er2 = U a\.

2.10. Zentraler Grenzwertsatz W i e gezeigt wurde, ist die Verteilung der Summe v o n unabhängigen zufälligen Veränderlichen mit Normalverteilung wieder eine Normalverteilung. Dieses Ergebnis k a n n verallgemeinert werden. Z u m Beispiel stellt die binomische Verteilung Pn (m) die Wahrscheinlichkeit dafür dar, daß die zufällige Veränderliche n

17n =

E

ii den W e r t m annehmen soll, wobei

mit der Wahrscheinlichkeit p

i = l

den W e r t 1 und mit der Wahrscheinlichkeit q den W e r t Null annimmt (p + q = 1), und daher ist P ( r ]

n

=

m.)

=

P

n

( m )

.

W e n n die Zahl der Veränderlichen n —> 00 geht, so konvergiert nach dem Satz v o n LAPLACE auch P„{m) gegen die Normalverteilung (s. A b s c h n i t t 2.4.4.). W . FELLER u n d A . J. CHINTSCHIN haben diese A u f g a b e in allgemeinster F o r m

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

72

behandelt und die weitesten Bedingungen bestimmt, die die zufällige Verändern liche 7]n = I j erfüllen muß, damit sie gegen eine zufällige Veränderliche mit Normalverteilung (GAUSSsche Verteilung) konvergiert. Eine f ü r unsere Zwecke entsprechende Formulierung des zentralen Grenzwertsatzes ist die folgende: 1. wenn f j , £2, . . . , zufällige Veränderliche sind; 2. wenn der Mittelwert jeder zufälligen Veränderlichen gleich Null ist; 3. wenn die zufälligen Veränderlichen unabhängig sind oder Kreuzkorrelationskoeffizienten haben, die gegen Null gehen; 4. wenn der Einzelwert jeder Veränderlichen im Vergleich zur Summe der Werte aller Veränderlichen vernachlässigt werden k a n n ; dann konvergiert die Wahrscheinlichkeitsdichte der Summe rj = ZI f f ü r sehr i große Werte von n gegen e d. h., -rj besitzt eine Nor mal Verteilung. 2.10.1. Die Summe von Zeigern mit zufälliger Phase und Amplitude Es werde eine Summe von zufälligen Zeigern betrachtet (Abb. 2.40).

Abb. 2.40. Summe von zufälligen Zeigern Es sei einer der Zeiger (2.157) dann ist M f = E Si=

n E

n + i S

wobei I n = Vm

cos

n-a

l2i

(2.158)

2.10. Zentraler Grenzwertsatz

73

und

(2.159) sin

hi

=Vn V2i

ist. In vielen praktischen Fällen kann die Voraussetzung gemacht werden, daß die zufällige Veränderliche r/ 2i unabhängig von der zufälligen Veränderlichen ist und daß sie eine uniforme Verteilung besitzt; der einzelne Zeiger kann also mit der gleichen Wahrscheinlichkeit jeden Wert der Phase zwischen 0 und 2 n annehmen. In diesem Fall ist cos 772» = 0 ,

sin rj 2 i = 0

cos2 rj 2 i — sin2 rj 2 i =

~.

Daraus ergibt sich für die Mittelwerte £1» = nu



C0S

V2i

=

0:

=



sin

V2i

=

0

Vli

und für die Dispersionen iu

= Viicos2flzi

üi

= Vli

=

j V l i

und sin2

»72«' =

Y^it

'

mit ¿2 sii

1 2

1 2 i. 2~ e i — '

¿2 1 S2t — _2_??lt

1 2 2 2~ 8' ~~ 0 i '

2

Für sehr große Werte von n konvergierten nach dem zentralen Grenzwertn

n

satz £ i und U g e g e n die GAtrssschen zufälligen Veränderlichen und £2, ¿=1 »=1 _ ' _ deren Mittelwerte f j = 0 und f a = 0 sind und deren Dispersionen den gleichen Wert besitzen. Wie gezeigt wurde (s. Abschnitt 2.7.4.), besitzt unter diesen Bedingungen die Amplitude eine RAYLEIGH-Verteilung w

„ ( e ) = ! |2e /T

(2-160)

74

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

2.11.

TscHEBYscHEFFSche

Ungleichung

Es werde eine beliebige zufällige Veränderliche rj betrachtet, deren Wahrscheinlichkeitsdichte W{y) folgende Bedingung erfüllt: +

m

CO

= f y2

i{Tf}

d

v
£ ist, gilt WjI^2} ^

£2 f

\y\ie

W(y)

dy .

Das Integral stellt die Wahrscheinlichkeit dafür dar, daß \r]\ > e ist. Demnach ist £

Wenn V = £ ~I

ist, hat man P oder, indem man s =

{

\

= £ —a £

(

2

.

1

6

1

)

= k a setzt, ergibt sich (2.162)

also ist die Wahrscheinlichkeit dafür, daß die Abweichung vom Mittelwert die Standarddeviation bedeutend überschreitet, sehr klein. 2.12. Gesetz großer Zahlen Es sei angenommen, daß eine gewisse physikalische Größe a «-mal gemessen wird. Das Ergebnis jeder Messung ist eine zufällige Veränderliche, die mit fu • • • , f« bezeichnet wird. Es wird vorausgesetzt, daß keine systematischen Meßfehler gemacht werden, bzw. Wjlfj;} = a für jeden Wert k (1 ^ k 5S n) ist und daß die Fehler begrenzt sind, d. h. daß Jkf2{|»} < a 2 ist. Man betrachtet jetzt eine neue zufällige Veränderliche, die aus dem arithmetischen Mittel aller Messungen gebildet wird: f 1 + f , + • • • + Sn

74

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

2.11.

TscHEBYscHEFFSche

Ungleichung

Es werde eine beliebige zufällige Veränderliche rj betrachtet, deren Wahrscheinlichkeitsdichte W{y) folgende Bedingung erfüllt: +

m

CO

= f y2

i{Tf}

d

v
£ ist, gilt WjI^2} ^

£2 f

\y\ie

W(y)

dy .

Das Integral stellt die Wahrscheinlichkeit dafür dar, daß \r]\ > e ist. Demnach ist £

Wenn V = £ ~I

ist, hat man P oder, indem man s =

{

\

= £ —a £

(

2

.

1

6

1

)

= k a setzt, ergibt sich (2.162)

also ist die Wahrscheinlichkeit dafür, daß die Abweichung vom Mittelwert die Standarddeviation bedeutend überschreitet, sehr klein. 2.12. Gesetz großer Zahlen Es sei angenommen, daß eine gewisse physikalische Größe a «-mal gemessen wird. Das Ergebnis jeder Messung ist eine zufällige Veränderliche, die mit fu • • • , f« bezeichnet wird. Es wird vorausgesetzt, daß keine systematischen Meßfehler gemacht werden, bzw. Wjlfj;} = a für jeden Wert k (1 ^ k 5S n) ist und daß die Fehler begrenzt sind, d. h. daß Jkf2{|»} < a 2 ist. Man betrachtet jetzt eine neue zufällige Veränderliche, die aus dem arithmetischen Mittel aller Messungen gebildet wird: f 1 + f , + • • • + Sn

2.T3 Konvergenz von zufälligen Veränderlichen

Wenn die zufälligen Veränderlichen »hiV«)

1

Der

TSCHEB YSCHEFFSchen

. . . , f „ unabhängig sind, so ist n

mi{£k} = — n % k=i

n

75

= a\

n

k=l

Ungleichung zufolge ist

und wenn c 2 und e unveränderliche Werte sind, so ist lim P{\Vn - a\ ^ e} = 0 .

(2.163)

n->- oo

Dieses ist das Gesetz der großen Zahlen. Es besagt, daß im Falle unabhängiger zufälliger Veränderlichen f j , f a , . . . , f« mit gleichem Mittelwert und gleichmäßig beschränkter Dispersion die Wahrscheinlichkeit für eine absolute Abweichung des arithmetischen Mittelwertes vom statistischen Mittelwert größer als ein beliebiger Wert e > 0 mit n -> oo gegen Null strebt.

2.13. Konvergenz von zufälligen Veränderlichen Bei vielen Anwendungen ist es wichtig zu wissen, ob und in welchem Sinne eine Folge von zufälligen Veränderlichen gegen eine bestimmte statistische Grenze y konvergiert. Es gibt mehrere Arten von Konvergenz und zwar: 2.13.1. Konvergenz in Wahrscheinlichkeit Man sagt, daß rjn in Wahrscheinlichkeit gegen y konvergiert, wenn n wenn für jedes beliebige e > 0 lim P{

>£} = 0

oo und (2.164)

n~y oo

ist. Eine notwendige und hinreichende Bedingung für die Existenz des Grenzwertes ist, daß für beliebige positive Werte von s und X eine Zahl N vorhanden ist, für die gilt F

{Vln — Vm\ > e } oo und wenn limm1{(i?n-2/)2} = 0 (2.165) 7

Spataru

2.T3 Konvergenz von zufälligen Veränderlichen

Wenn die zufälligen Veränderlichen »hiV«)

1

Der

TSCHEB YSCHEFFSchen

. . . , f „ unabhängig sind, so ist n

mi{£k} = — n % k=i

n

75

= a\

n

k=l

Ungleichung zufolge ist

und wenn c 2 und e unveränderliche Werte sind, so ist lim P{\Vn - a\ ^ e} = 0 .

(2.163)

n->- oo

Dieses ist das Gesetz der großen Zahlen. Es besagt, daß im Falle unabhängiger zufälliger Veränderlichen f j , f a , . . . , f« mit gleichem Mittelwert und gleichmäßig beschränkter Dispersion die Wahrscheinlichkeit für eine absolute Abweichung des arithmetischen Mittelwertes vom statistischen Mittelwert größer als ein beliebiger Wert e > 0 mit n -> oo gegen Null strebt.

2.13. Konvergenz von zufälligen Veränderlichen Bei vielen Anwendungen ist es wichtig zu wissen, ob und in welchem Sinne eine Folge von zufälligen Veränderlichen gegen eine bestimmte statistische Grenze y konvergiert. Es gibt mehrere Arten von Konvergenz und zwar: 2.13.1. Konvergenz in Wahrscheinlichkeit Man sagt, daß rjn in Wahrscheinlichkeit gegen y konvergiert, wenn n wenn für jedes beliebige e > 0 lim P{

>£} = 0

oo und (2.164)

n~y oo

ist. Eine notwendige und hinreichende Bedingung für die Existenz des Grenzwertes ist, daß für beliebige positive Werte von s und X eine Zahl N vorhanden ist, für die gilt F

{Vln — Vm\ > e } oo und wenn limm1{(i?n-2/)2} = 0 (2.165) 7

Spataru

76

2. Grundbegriffe der Wahrscheinlichkeitsrechnung

ist. das auch wie folgt geschrieben werden kann lim 7]„ = y . Jl-yoo Eine notwendige und hinreichende Bedingung für die Existenz dieses Grenzwertes ist. daß für jedes beliebige e > 0 eine Zahl N vorhanden ist. für die gilt m

i {(Vn — Vm)2} < S ,

m,n^N

.

Die Konvergenz im quadratischen Mittel schließt die Konvergenz in Wahrscheinlichkeit ein.

3. DETERMINISTISCHE SIGNALE

Die Übertragung einer Information ist an die Ausbreitung einer Energie gebunden. Diese Ausbreitung k a n n die verschiedensten Formen annehmen: Ausbreitung elektromagnetischer Wellen, Ausbreitung akustischer Wellen usw. Eine gewünschte und nützliche Welle wird (in beschränktem Sinne) Signal genannt. Eine nichtgewünschte, also störende Welle wird kurz Störung genannt. Das Signal h a t einen zufälligen Charakter. Seine Werte sind am E m p f a n g nicht vollständig bekannt, denn wenn sie bekannt wären, wäre die Übertragung des Signals überflüssig, es könnte lokal erzeugt werden, würde also gar keine Information enthalten. Um eine Information zu enthalten, muß das Signal unbedingt einen mehr oder weniger stark ausgeprägten zufälligen Charakter haben. I n diesem umfassenden Sinne sind alle Signale zufällig. Wenn der zufällige Charakter des Signals weniger stark ausgeprägt ist, bzw. das Zufällige nur in parametrischer Form einwirkt, so sagt man, daß das Signal bedingt deterministisch ist. In diesem Sinne ist das Signal s(t) — A0 cos (co0 t + cp) , wo A0 und cü0 Konstante sind und

0), die im allgemeinen komplex ist und Spektrum von s(t) genannt wird, enthalten. Das Spektrum einer periodischen Funktion ist ein Linienspekt.rum, d a « nur ganze Werte annimmt. Die Beziehung (3.13) stellt die Synthese, hingegen die Beziehung (3.14) die Analyse des Signals s(t) dar. Das Spektrum von s(t) kann folgende Form haben: C(n w0) = \C(n ß>0)| e 3 '®«*^ .

(3,16)

Daraus ergibt sich: | C ( » o > o ) l

=

|

C

(

-

n

0

i

,

ungerade Werte für n S(t) T

s(t) = _ E sin a)0 i 71

y / l1

— sin 2 cu01 + — sin 3 co01 + 2 3

+ ( - l)(" + i>—sinna) 0 t, . n

2 / 1 •s(t) = E k + — sin ifc n cos co0 i + — sin 2 k n cos 2 co01 n \ 2

S(t)k

+ — sin n k n cos n cu0 t + • n

{

!co

-Jr 1

-TI

s

f J

i(t)

s

s (( + T )

dt

2

betrachtet. Da das Produkt zweier periodischer Funktionen mit gleicher Periodendauer T() auch eine periodische Funktion der Periodendauer T0 ist, kann man schreiben +Tol 2 •>'12(t)

=

j t

s

J

2(

t + r ) d t .

(3.19)

21 o/2

Für die FouRJER-Transformierten von Sj(i) und s2(t) ergibt sich nach den Beziehungen (3.13) und (3.14). «1(0

=

s H =

C

1

{ n o )

0

) e

J u m

'

t

:

(3.20)

— OO

+ 00

«,(0=

n

und

E— 00 (?,(»«),) c i " - ' (ft ;

-T./2 O

2

( n o >

0

) = ^ -

J -T.12

(3.21) d t .

3.2. Darstellung periodischer Signale

85

Durch Einführen des Ausdruckes für s2 (i + r) aus der Beziehung (3.20) in die Beziehung (3.19) erhält man + TJ2 '12M

=

j

r

jtl M„(H T)

C2 (n oj0) e3

H

'h(t)

f

dt.

-T„/2

Durch Vevtauschen der Reihenfolge von Addition und Integration erhält man -|-(X> /12(t)

=

. C2 (n Wq) e ' " 0; in diesem Fall ergibt sich die periodische DrRACsche ¿-Funktion: + 00 (3.55) öT(t) = E ö (t — n T0) . n= — oo Das Spektrum der Funktion o

=

d. h., das Spektrum ist konstant. Folglich ist + oo dT(t) = E C(nu> 0)ejnm«t

(3.56)

I

"o

, +00 = -^ r E ejna«' J T o n= —oo

n= —oo

und, da die Funktion reell ist, 2

+oo

dT(t) =

E 0

71=



COS

n CÜ01 .

OO

Die Funktion ÖT{t) besitzt Harmonische aller Ordnungen mit gleicher Amplitude -i—. To 3.2.6. Faltungssatz periodischer Funktionen Es werde das Integral + 2\>/2 f

«i(T)

(f - T) dr

(3.57)

-To/2

betrachtet, wobei •%(£) und s2(t) periodische Funktionen mit der Periodendauer T0 sind. Dieses Integral ist der Korrelationsfunktion ähnlich, h a t aber eine andere Bedeutung (in einer dieser Funktionen ist r negativ). Indem man s2 (t — R) durch die entsprechende FOURIER-Reihe ersetzt, ergibt sich +2

I

'°/ 2 r s

+0 ° Z n= —oo

(» o>o) ejnm°(t~T) dr . 0 J -ZV2 Durch Vertauschen der Reihenfolge von Addition und Integration entsteht /« =

/(«r dt ,

-T./2

C^ncoje^*"1

C (na>0) eino>0) Fourier-Transformierte.

Mit den Beziehungen (3.57) und (3.58) ergibt sich i r — s1(x)si(t-x)dx •*• 0 J -TJ2,

=

E C^n a>0) C2(nco0)e^tt'°i . n= — oo

(3.59)

Diese Beziehung stellt den Faltungssatz für periodische Funktionen dar. 3.2.6.1. Faltungssatz mit der periodischen DiRACSohen ¿-Funktion Wenn man in der Beziehung (3.57) s^i) = s(t) und s a (t — x) = öT (t — x) setzt, und berücksichtigt, daß die periodische DiRACsche ¿-Funktion ein konstantes Spektrum C\(n oj0) = -L- besitzt, so ergibt sich -*o i

r 0

und weiter

J -TJ2

s(x)öT(t-x)dx

i = ^r J

+

£ C (n a>0) einc"°' 0 n= — oo

+ 2 / s(x) St (t - T)dx . (3.60) -T0I2 Da im Zeitabstand nur ein einziger Delta-Impuls erscheint, folgt + TJ 2 s{t) = f s(r) d (t - t ) dx . (3.61) 2 Diese Beziehung ermöglicht eine Darstellung des periodischen Signals über dem Zeitintervall (— T0/2, + TJ2) als Grenzfall der Beziehung (3.1), in der die Summe durch ein Integral, der veränderliche Index i durch r, a,- durch s(x) und Si(t) durch d (t —x) dz ersetzt sind. Es ist ersichtlich, daß in diesem Fall die zusammensetzenden Funktionen DiRACsohe .00 nAr = ~ — wobei u(t) die Einheitssprungfunktion ist, oder weiter T0 nJr= + —— ,• , A u(t — n Ax) — u(t — n Ar — Ar) . s(t) = lim Z s{nAx) — -p -Ax. (3.62) A r ¿t+o , t. nAT n-too =-~2-

ßo

96

3. Deterministische Signale

Abb. 3.8. Darstellung eines Signals durch zusammensetzende Punktionen vom Typ der DiRACschen ¿-Funktion

Mit den Grenzübergängen lim n Ar = r A r->o

«->•00

und

.. u(t — n Ar) — uit — n Ar — Ar) hm — ' -— - = o(t — r) A T—

entsteht aus der Beziehung (3.62) bei Übergang zum Integral +n/2 s(t) = / s(t) 3 (t - r) dr . 3.2.6.2. Faltungssatz mit der Einheitssprungfunktion Die Beziehung (3.61) S(t) =

+ 5T./2 / s(r) d(t —r) dr -2V2

wird durch partielle Integration zu Ii. s(t) = woraus sich ergibt

s(r) & (t — r) 2

J s'(r) -T,l 2

U

(t, - r) dr

+ T.I2 (3.63) -TJ 2

Obige Beziehung kann auch in der Form 2'. s(t) = s(0) u(t) + / s'(r) u (t — r) dr geschrieben werden.

(3.64)

3.3. Darstellung nichtperioclischer Signale

97

vom Typ der Einheitssprungfunktion

Die Beziehung (3.64) gibt eine Darstellung des Signals als Grenzfall der Beziehung (3.1), wobei die Summe durch ein Integral, der veränderliche Index i durch r, et* durch s'(r) und «¿(i) durch u(t — r) dr ersetzt Sind. In diesem Fall sind die zusammensetzenden Funktionen Einheitssprungfunktionen (Abb. 3.9).

3.3. Darstellung nichtperiodischer Signale Auch im Falle von nichtperiodischen Signalen kann das Signal als Summe (Integral) von elementaren Signalen, genau wie im Falle periodischer Signale, dargestellt werden. 3. 3 . 1 . F o u r i e r - und L a p l a c e - T r a n s f o r m a t i o n e n

Man kann annehmen, daß die nichtperiodischen Funktionen aus den periodischen Funktionen dadurch entstehen, daß ihre Periode T0 unbegrenzt wächst. In diesem Fall strebt die periodische Funktion gegen eine nichtperiodische Funktion. Man betrachtet das Spektrum + TJ2 +TJ2 nm l C(nco0) = — f s(t)e ~i ' dt = - i - co0 f s(t) e~i no'' t dt . (3.65) T J 2n J -TJ 2 -T,l 2 Beim Grenzübergang T0 —^ oo geht co0 gegen dm, während n co0 die kontinuierliche Frequenz a> wird. In diesem Fall geht + TJ 2 C(nco0) _ J f me-^'dt s(t) e~ ina' t dt (3 66)

-T,l 2

3.3. Darstellung nichtperioclischer Signale

97

vom Typ der Einheitssprungfunktion

Die Beziehung (3.64) gibt eine Darstellung des Signals als Grenzfall der Beziehung (3.1), wobei die Summe durch ein Integral, der veränderliche Index i durch r, et* durch s'(r) und «¿(i) durch u(t — r) dr ersetzt Sind. In diesem Fall sind die zusammensetzenden Funktionen Einheitssprungfunktionen (Abb. 3.9).

3.3. Darstellung nichtperiodischer Signale Auch im Falle von nichtperiodischen Signalen kann das Signal als Summe (Integral) von elementaren Signalen, genau wie im Falle periodischer Signale, dargestellt werden. 3. 3 . 1 . F o u r i e r - und L a p l a c e - T r a n s f o r m a t i o n e n

Man kann annehmen, daß die nichtperiodischen Funktionen aus den periodischen Funktionen dadurch entstehen, daß ihre Periode T0 unbegrenzt wächst. In diesem Fall strebt die periodische Funktion gegen eine nichtperiodische Funktion. Man betrachtet das Spektrum + TJ2 +TJ2 nm l C(nco0) = — f s(t)e ~i ' dt = - i - co0 f s(t) e~i no'' t dt . (3.65) T J 2n J -TJ 2 -T,l 2 Beim Grenzübergang T0 —^ oo geht co0 gegen dm, während n co0 die kontinuierliche Frequenz a> wird. In diesem Fall geht + TJ 2 C(nco0) _ J f me-^'dt s(t) e~ ina' t dt (3 66)

-T,l 2

98

3. Deterministische Signale

gegen einen Grenzwert, der mit S(w) bezeichnet wird und der wie folgt ausgedrückt werden kann: +r„/2

S(a>)

= lim 2 7i T„->- oo

C(n( ] w°o =

o

-r0/2

f S(t)e~imtdt. J

(3.67)

Die Funktion S(a>) wird Spektraldichte genannt, da sie den Grenzwert des Verhältnisses zwischen Spektrum C (n a>0) und der Frequenz &>0 darstellt, wenn co„ dm. Unter Berücksichtigung früherer Ausführungen kann die Größe S(a>) dw als Spektralkomponente bezeichnet werden. Aus dem in der Gleichung (3.13) für s(t) gegebenen Ausdruck ergibt sich + OO

+ OO

1

s(t) = lim £ C (n co0) einm°( = lim £ — C(n w0) e^ 1 t w0 , T0-*oo n= — oo T0-*-oo n=—oo + oo

s(t) =-— f Sico) e'mt du . Inj— OO

(3.68)

D i e B e z i e h u n g e n (3.67) u n d (3.68) g e l t e n n u r f ü r

+ oo

f \s(t)\ dt

— oo


) dco besitzen. Die Frequenz 2

71

dieser Komponenten kann alle Werte im kontinuierlichen Bereich (— oo, oo) annehmen. Die Synthese des Signals s(t) kann auch durch eine erweiterte Klasse von Exponentialfunktionen erfolgen, zum Beispiel durch ept, wobei p die komplexe Frequenz genannt wird, die durch die Beziehung p = a + j a> bestimmt ist, wobei a und m reelle Werte annehmen. Wenn das Integral S(p)

=

f s(t) E - F dt
) des durch die Beziehung (3.110) bestimmten Signals

3.3. Darstellung nichtperiodischer Signale

113

Abb. 3.17. Darstellung des Kurzzeitspektrums SZ(A>) des durch die Beziehung (3.111) bestimmten Signals I n Wirklichkeit gibt es kein exakt periodisches Signal; das zyklische Signal nähert sich dem periodischen Signal, wenn seine Dauer bzw. die Beobachtungsdauer T groß ist. Das Kurzzeitspektrum S r (w) besitzt physikalische Bedeutung; es ist sowohl von der Frequenz als auch von der Zeit abhängig, und f ü r große Werte von r geht es gegen S(OJ). Da 8(CO) nicht von der Zeit abhängt und eine einfachere mathematische Struktur besitzt, ist es f ü r theoretische Untersuchungen geeigneter. 3.3.7. Faltungssatz nichtperiodischer Funktionen Bei nichtperiodischen Funktionen wird das Faltungsintegral durch folgende Beziehung definiert: +

/() = % { f ( t ) } .

(3.114) (3.11.5)

In ähnlicher Weise kann gezeigt werden, daß + OO

= — 2 71

G(oj)

S^Q)

F

J

S

2

( w

-

Q)dQ =

S^co)

*

8

2

{ O J )

(3.116)

— oo

ZU

G(w) =

+ oo

/ sx{t)s2{t)e-i

— oo

a t

dt

(3.117)

wird. Daraus folgt, daß g ( t ) = s ^ t ) s 2 ( t ) und G(a>) FouRiER-Transformierte sind.

G(co)

=

fi»

g(t) =

Sl

* S 2 ( a > ) = % W O • «,(()};

(t) • s2(t) =

G(co)} .

(3.118) (3.119)

Die Transformationsbeziehungen (3.114), (3.115) und (3.118), (3.119) stellen den Faltungssatz für nichtperiodische Funktionen dar. Wie bei periodischen Funktionen kann der Faltungssatz zur Darstellung des Signals durch DntACsche Funktionen oder die Einheitssprungfunktion verwendet werden. 3.3.7.1. Faltungssatz mit der DiRACSchen ¿-Funktion Wenn man in die Beziehungen (3.112) und (3.113) «x(t) =

Î(T);

S1(o) =

S(

w

);

«2 (t ~ t) = à (t - t) ; S z ( a > ) = 1 einsetzt, so erhält man + oo

J

+oo

s(t) ô (t - r) d r =

— oo

J

S { w ) e i m t dm = s ( t )

—oo

und daher wird 5(0 =

+ oo

/

— oo

s ( R ) ô (t -T) dx .

(3.120)

Die Interpretation dieser Darstellung von s ( t ) ist die gleiche wie die im Abschnitt 3.2.6. gegebene, wenn man T0 oo wachsen läßt. 3.3.7.2. Faltungssatz mit der Einheitssprungfunktion Wenn man in der Beziehung (3.120) eine Teilintegration durchführt und berücksichtigt, daß lim 5(0 = 0 ist, so ergibt sich £->±oo

m

= [ - « ( T ) î t (t -

+

+ oo

/ « ' ( r ) « (( - r ) dr

3.3. Darstellung nichtperiodischer Signale

115

und weiter •s'(i) =

+ 00

/

— oo

s'(r) u (t - t) dx .

(3.121)

Die Beziehungen (3.120) und (3.121) sind den für periodische Funktionen gültigen Beziehungen (3.61) und (3.64) ähnlich. 3.3.8. Abtasttheorem (Probensatz) Das Abtasttheorem besitzt eine besondere theoretische und praktische Bedeutung. Dieses Theorem zeigt, daß unter gewissen Bedingungen ein kontinuierliches Signal als Funktion seiner Ordinaten zu diskreten Zeitpunkten dargestellt werden kann. Nach dem Abtasttheorem ist ein Signal s(t), dessen Spektrum auf die höchste Frequenz W beschränkt ist, eindeutig bestimmt, wenn nur die Ordinaten s bekannt sind 4 wobei n eine ganze Zahl ist, die alle Werte von — oo bis + oo annimmt. I m folgenden werden verschiedene Formen dieses Theorems angegeben. 3.3.8.1. Interpolationsformel im Zeitbereich Wird die periodische DiEAGsche ¿-Funktion mit dem Signal s(t) multipliziert und bezeichnet man dieses Produkt mit s*(t), so nennt man das Abtastung-, s*(t) = s(t) dT{t) .

(3.122)

Man bezeichnet weiter mit s0(t) die Funktion sin2ji Wt

««(')=

2*Wt

,Q

'

,„,, (3 123)

"

die Spaltfunktion genannt wird. Diese Benennungen werden später begründet. Es wird erneut der Faltungssatz (3.113) betrachtet, in den nachstehende Beziehungen, eingesetzt werden: s1(t) = s*(t)

und

*,(«) = «0(0

S^m) = S*(w)

und

Sz(w) = S0(co) =

~

für

|cu| < 2 n W . Man erhält + oo

f(t) = j

s*(r)s0{t

+ oo

-r)dr

=

J

S*(co) S0{o>) e>°" Am .

(3.124)

116

3. Deterministische Signale

Die periodische DiRACsche ¿-Funktion + 00

ôT(t)=

E

i 11 der man Tn = -i— setzt, wird 0 2 W + 00

öT(t)=

Z

t

ô(t — nT0)

/

T0

\

+OO

ö l t - =

n= — 00

\

-f+ 0U 0U

L

2 W Z

^ "/



ei*®«'.

*

n=— 00

In den Faltungssatz eingesetzt, ergibt sich ....

/ (i) « =

+00 C

= J

I

+00 f

, . . sin 2 ji TP ({ — r) ,

oder »... tfn =

s ( r )

J

«(t)) =

S*(w) = 2Tf

+00 / s(t) -2W + 00 -fco

£

/

+00

Z

n— —00

eii7tWnt e~imt dt, :

s(i)

dt

71= — 00 —OO

0

comm*JCW

A A y V /I\ w \ / / \ / \/ \ / i \ / \ V 1V \ _ / \/ V a

\ /\ / \

1

0

cômmtJCW

œ

W«>)\

0 oümax - 4 nWn) . also eine Summe der Spektraldichten des Signals s(t), die auf

S*(co)

ist Frequenzachse u m Vielfache von 2 W verschoben sind (Abb. 3.18). Fürs 0 (i) =

S

1 er

'g ^

(3.1 der

^ ä l t m a n die Spektraldichte (siehe Tab. 3.3):

S0(co) =^

für -2nW



(3-140)

und aus D{-n) = k n ) = ^ folgt, daß die mit

w

s ( ^

(3.141)

multiplizierten diskreten Ordinaten im Zeitbereich die

Koeffizienten der FouRiER-Reihe der Spektraldichte bilden. 7. Das System sn(t) ist orthogonal. Nach der PARSEVALschen Gleichung für nichtperiodische Funktionen (3.104) ist +00 +00 J sm(t) s„(t) dt = - i - y Sn(a>) Sm(a>) dm .

3.3. Darstellung nichtperiodischer Signale

123

Indem man * 5

1 ito - t » ) = 2We

=

und Sm(oj)

•2Wt

einsetzt, ergibt sich jsn(t)sm(t)dt

= J-

J -2jz W

-oo

^ J e

—— (n — m) 'dœ

=

0

für

ji =t=

1 -— 2ÌF[2

für

n = m;

{

!

(3.142) also sind die Funktionen sn(t) orthogonal. Ebenso kann gezeigt werden, daß 0 f Fn(w) FJm) dio = 2 71 — r

für

n 4= m ;

... iur

n = m:

(3.143)

ist, also sind auch die Funktionen Fn(co) orthogonale Funktionen. 3.3.10. Energie des Signals als Funktion der diskreten Werte in den Abtastpunkten Die Energie des Signals ist durch folgende Beziehung gegeben: -foo +oo + OO E = J S*(t)dt = j

dt .

und nach der Beziehung (3.142) ergibt sich 1

+ OO

/

Die Energie eines Signals der Dauer T ist , n = 2 WT

,

,

(3.144)

>

(3.145)

2W

2 W n "= 1

I n derselben Weise kann die Energie als Funktion der Ordinaten der Spektraldichte in den Abtastpunkten ausgedrückt werden: -f 00 -f- oo E = J s2{t) dt = J L J S(w) S(m) dm = + oo +

=

10 Spätaru

r

" /

* /2

ir

J :n — — oo *

»= — 00

\

1

/

dcu ,

124

3. Deterministische Signale

und wenn man die Beziehung (3.143) berücksichtigt, ergibt sich

Für den Fall, daß das Spektrum durch die maximale Frequenz W begrenzt ist, ergibt sich für die Energie folgende Beziehung: 1

n=*W

ß n

a

\ * (2 n

\

3.4. Analytisches Signal Die in den Systemen der Nachrichtenübertragung verwendeten Signale x{t) sind reelle Funktionen der Zeit und besitzen eine begrenzte Energie. Eine sehr nützliche Verallgemeinerung dieser Signale erhält man bei Erweiterung auf komplexe Signale, die folgende Form haben: z(t) = x(t) - j y(t) ,

(3.148)

wobei x(t) und y(t) reelle Funktionen der Zeit sind. Im Rahmen sehr weiter Bedingungen kann gezeigt werden, daß eine Funktion z(t) einer komplexen Veränderlichen r = t + j u existiert, die in der oberen Halbebene Im (r) 0 analytisch ist und deren reeller Teil auf der reellen Achse gleich x(t) ist: 2(t) = x(t, u) - j y(t, u) .

(3.149)

Wennx -> t (bzw. u —> 0), so ergibt sich: z{t) = x{t) — j y(t) .

Der imaginäre Teil von z(r) nimmt auf der reellen Achse den Wert y(t) an und wird Signal in Quadratur genannt. Zwischen dem reellen und imaginären Teil der Funktion z(t) bestehen Beziehungen, die durch die HiLBEKT-Transformation (siehe Anhang I I ) gegeben sind + oo

x(t) = — V. P. n

J

f^Ldri : t - Tj

(3.150)

— CO

+ oo

y(t)=

-—V.p. n

J

f f i ^ d y , t -

j?

(3.151)

— 00

wobei V. P. der C h a u c h Y s c h e Hauptwert des Integrals bedeutet, der durch einen besonderen Grenzübergang erhalten wird. Die Beziehungen (3.150) und (3.151) werden abgekürzt wie folgt geschrieben: *( 0), so ergibt sich: z{t) = x{t) — j y(t) .

Der imaginäre Teil von z(r) nimmt auf der reellen Achse den Wert y(t) an und wird Signal in Quadratur genannt. Zwischen dem reellen und imaginären Teil der Funktion z(t) bestehen Beziehungen, die durch die HiLBEKT-Transformation (siehe Anhang I I ) gegeben sind + oo

x(t) = — V. P. n

J

f^Ldri : t - Tj

(3.150)

— CO

+ oo

y(t)=

-—V.p. n

J

f f i ^ d y , t -

j?

(3.151)

— 00

wobei V. P. der C h a u c h Y s c h e Hauptwert des Integrals bedeutet, der durch einen besonderen Grenzübergang erhalten wird. Die Beziehungen (3.150) und (3.151) werden abgekürzt wie folgt geschrieben: *()

eiat

d

"> •

(3.162)

Zum Beispiel x(t) = cos ojq t = —(ei"«* + e-ja°')

;

X{o)) = 7t [0 t, wobei co0 0 ist, wird aus der Beziehung (3.170) y(t) « — oc(t) sin w01 + ß{t) cos co 0 1.

(3.171)

3.4.3. Momentanfrequenz Die Momentanfrequenz ist als die Ableitung des Argumentes des analytischen Signals nach der Zeit definiert: W m =

l t

'"arg

128

3. Deterministische Signale

bzw. (3.1-72) Die physikalische Bedeutung dieser Größe ist manchmal fraglich. I n vielen praktischen Fällen ist jedoch der Begriff der Momentanfrequenz nützlich. 3.4.4. Abtasttheorem für Signale, deren Spektrum nicht bei Null beginnt Es wird erneut der Faltungssatz verwendet: + oo +oo Z * ( r ) Z0 (< - r)

dx = ~ J Z*(co) Z0(oo) dw,

/(«) = J

wobei ersetzt wird

+ oo

/

\

+oo

Z*(t) = z&) = 2(0 E ô (t - ~ = z(t)'W E eß2nWnl n=—oo \ "/ n=—oo

(3.174)

I n dieser Gleichung ist z(t) ein analytisches Signal, das dem gegebenen Signal x{t) zugeordnet ist und dessen Spektrum von Null verschiedene Werte nur zwischen W0 und W0 + W annimmt, wobei W < W0 und ZO(I) ow =

ej2n(Wc+W)t

_ ej2nWt j 2 n mW t

(3.175) K

'

ist. z0(i) ist die FouniEE-Transformierte der Spektraldichte: w und

=

für

f

2 7i W0 ^ co ) = 0 für

co < 2 n W0 oder

2 n (Tf0 + W) < oo

Wenn man die Ausdrücke (3.174) und (3.175) in den ersten Teil der Beziehung (3.173) einführt, so ergibt sich

... „/ n\ eWlWt+WHt-T) _ ej2*w(t-T) dr f(t)=fz(t) E 8 T-=) " ' — oo n= — oo \ f j " . j 2 7iW (t — r) woraus folgt -foo

/ \

j2nW

(3.177)

Für das Einsetzen in den zweiten Teil des Ausdruckes (3.173) muß vorerst

•Zj(oj) = Z*(co) errechnet werden.

Z*{co)-wf

+ oo

— oo + oo

Z*(œ) = w

E

n=-co

+ 00

z(t) E e}2nWt e~imt dt; 1= —oo + oo

f

J

z(t) e-Ha-2"w*>t dt;

(3.173)

129

3.4. Analytisches Signa]

wobei + 0 0

/ z(t) dt = Z ( 2JWa 2JT{W+W)

^ U) *

Abb. 3.25. Darstellung der Spektraldichte des analytischen Signals Z(t)

Setzt man in den zweiten Teil der Gleichung (3.173) die Beziehungen (3.176) und (3.178) ein, so ergibt sich 1 / ( i ) = J _

2ji(W,+ W) r 1 / J 2 71 Wo

2 Z(co n=—oo

-

2 71 W n ) ^

a t

doi .

Da man nur über das Intervall von W0 bis W0 + W integriert, erhält man 2 71 n(WV0W+0 TP) T rr / f J

¿7t

Z(w)ef*'d(o=

m .

(3.179)

Mit den Beziehungen (3.177) und (3.178) entsteht + OO

Da aber

/

»

J2n(W, + W ) ( t — j 2 n w ( t — £ j

(3.180) 3

2 a W

( * - w )

z[t) = x{t) + j $ { x ( t ) }

130

3. Deterministische Signale

ist, ergibt sich Um das reelle Signal

x(t) = Re {z(t)}

zu erhalten, bildet man den reellen Teil des Ausdruckes (3.180)

*(0=

+ 00

( n

E

\

W t-

n— — oo

+

»(2 w

W0+W)[t-^-

+

n(W t - n)

+ oo

E

n(W t - n)

n — — oo

Mit den Bezeichnungen

n Wt cos 2 71 Wt

sin

q(t)

(3.181)

und der HiLBEBT-Transformierten ~ , ... s

${»(*)} = ergibt sich das reelle Signal + oo

®(0=

n W t sm in 2 TT | W0 + n Wt

sin

j

(3.182)

(3.183)

E

n— —oo

Diese Beziehung geht in das erste Abtasttheorem (3. 130) über, wenn man W0 durch

W und W durch 2 W ersetzt. In diesem Fall wird ¡g{g} gleich Null. 2

Auch im vorliegenden Fall ist die Zahl der Parameter, die das Signal im Intervall T bestimmen, gleich 2 W T, da, obwohl die Abtastfrequenz nur W ist, zwei Signale, x(t) und $Q{x(t)}, abgetastet werden müssen. 3.5. Lokalisierung des Signals im Zeit- und Frequenzbereich Der Satz von K E L V I N über das Prinzip der stationären Phase findet vielfach praktische Anwendung. Ein Integral der Form

I = j'ü(x)

cos 0(x) dx — Re {

f'ü{x) e d x }

Xl

,

(3.184)

in dem sich U(x) langsam verändert, hingegen cos 0(x) im Integrationsbereich eine große Anzahl von Perioden durchläuft, ergibt einen kleinen Wert. Besonders, wenn vorausgesetzt wird, daß sich ü(x) sehr wenig verändert, hingegen

130

3. Deterministische Signale

ist, ergibt sich Um das reelle Signal

x(t) = Re {z(t)}

zu erhalten, bildet man den reellen Teil des Ausdruckes (3.180)

*(0=

+ 00

( n

E

\

W t-

n— — oo

+

»(2 w

W0+W)[t-^-

+

n(W t - n)

+ oo

E

n(W t - n)

n — — oo

Mit den Bezeichnungen

n Wt cos 2 71 Wt

sin

q(t)

(3.181)

und der HiLBEBT-Transformierten ~ , ... s

${»(*)} = ergibt sich das reelle Signal + oo

®(0=

n W t sm in 2 TT | W0 + n Wt

sin

j

(3.182)

(3.183)

E

n— —oo

Diese Beziehung geht in das erste Abtasttheorem (3. 130) über, wenn man W0 durch

W und W durch 2 W ersetzt. In diesem Fall wird ¡g{g} gleich Null. 2

Auch im vorliegenden Fall ist die Zahl der Parameter, die das Signal im Intervall T bestimmen, gleich 2 W T, da, obwohl die Abtastfrequenz nur W ist, zwei Signale, x(t) und $Q{x(t)}, abgetastet werden müssen. 3.5. Lokalisierung des Signals im Zeit- und Frequenzbereich Der Satz von K E L V I N über das Prinzip der stationären Phase findet vielfach praktische Anwendung. Ein Integral der Form

I = j'ü(x)

cos 0(x) dx — Re {

f'ü{x) e d x }

Xl

,

(3.184)

in dem sich U(x) langsam verändert, hingegen cos 0(x) im Integrationsbereich eine große Anzahl von Perioden durchläuft, ergibt einen kleinen Wert. Besonders, wenn vorausgesetzt wird, daß sich ü(x) sehr wenig verändert, hingegen

131

3.5. Lokalisierung des Signals

0(x) sich um 2 n verändert, heben sich die positiven Werte von cos &(x) gegen negative Werte auf, so daß der Wert des Integrals klein wird. Wenn hingegen

Wenn —— eine Funktion von co ist, so muß über den Frequenzbereich, der den dco

größten Teil der Energie des Signals enthält oder über den ganzen Frequenzbereich ein gewogener Mittelwert von dco gewählt werden. Die Gewichtsfunktion kann die Spektraldichte der Energie e(co) = |S(co)|2 sein: (3.188)

133

3.5. Lokalisierung des Signals

wobei die gesamte Energie des Signals gleich Eins angenommen wird, d. h., daß normiert gilt

3.5.2. L o k a l i s i e r u n g des Signals im Frequenzbereich

Betrachtet man das analytische Signal z(t) = A{t)

eW>

und die Spektraldichte Z(a>), die im Fall des analytischen Signals folgende Form besitzt: Z(cu) =

+ 00 / z(t)e-> atdt

=

— CO

+00 / A{t) —oo

dt.

Das Integral wird den Hauptwert um die Frequenz wh für die die Phase stationär ist, annehmen; also für -a>t]

bzw. (Ol

=

= 0

dy>(t) dt

(3.189)

Es ergibt sich auf diese Weise auch eine Erklärung des Begriffes der Momenttanfrequenz, die durch die Beziehung (3.172) bestimmt wurde. Um die Momentanfrequenz eoj herum besteht also eine Konzentration der Spektral-Energie (Abb. 3.28). Wenn

von der Zeit abhängig ist, so wählt man über den Zeitbereich, der

den größten Teil der Energie des Signals enthält, oder über den ganzen Zeit\F(UJ)\\

Abb. 3.28. Lokalisierung des Signals im Frequenzbereich

134

3. Deterministische Signale

bereich, einen gewogenen Mittelwert von Momentanleistung A2{t) des Signals sein: +

ö), =

dt

. Die Gewichtsfunktion kann die

fA2(t)^dt,

-oo

(3.190)



wobei die gesamte Energie des Signals gleich Eins angenommen wird : + oo f

— oo

A2(t)-dt

=

1 .

Wie im vorhergehenden Fall bemerkt man, daß sich für ein unveränderliches wieder die Beziehung (3.189) ergibt. dt

3.5.3. Beispiele 1. Lokalisierung der Spaltfunktion im Zeitbereich: sin 2 n

W

11

2 w \ 2 nwit-—) \ 2 W]

m

S»(t)

Betrachtet man die Spektraldichte der Spaltfunktion

Sn(w) v

'

=

.

1

- - e 2W

n

—32W tt>

für

- 27t

W
0)i

so ergibt sich, dem Prinzip der stationären Phase entsprechend, der Hauptwert des ersten Integrals dort, wo d — (co t — o)0 t) = 0 ,

daher

wt = w0

ist, und der Hauptwert des zweiten Integrals dort, wo d — (co t + (o0 0 dt

=

0 , daher wt = — co0 ist. Folglich sind die Hauptwerte der Spektraldichte S(co) bei den Frequenzen eo0 und — co0 lokalisiert (Abb. 3.17).

3.6. Bandbreite und Dauer der Signale Genau genommen hat ein Signal mit begrenztem Spektrum eine unbegrenzte Dauer, und umgekehrt besitzt ein Signal von begrenzter Dauer Spektralkomponenten, die sich über die ganze Frequenzachse erstrecken. Wenn der Wert eines Signals unter eine gewisse Grenze sinkt, so kann praktisch das Signal gleich Null gesetzt werden. Diese Grenze wird letztlich von den Fluktuationsgeräuschen bestimmt, die überall vorhanden sind. Manchmal wird das Signal bereits gleich Null gesetzt, ehe es unter das Fluktuationsgeräusch abgesunken ist; andererseits kann ein Signal, auch wenn es von Geräuschen überdeckt ist, erkannt werden. Das Problem der Signaldauer ist somit letztlich eine Frage der Übereinkunft. Das gleiche gilt auch für die Bandbreite. Alles hängt von dem speziellen Fall ab, auf den man sich bezieht und man einigt sich darauf, die Signaldauer und die Bandbreite so zu bestimmen, daß sie dem betreffenden Fall am besten angepaßt sind. In einigen Fällen wird vereinbart, daß als Bandbreite B der Frequenzbereich (Winkelfrequenz), in dem p°/0 der Energie (oder der Leistung) des Signals enthalten ist, definiert wird (3.191) -B 12

— 00

136

3. Deterministische Signale

und der gleiche für die Dauer des Signals T + T) 2 +oo jf s\t) dt = ^ 5 j f s 2 (0 dt. (3.192) -r/2 -oo Bandbreite und Dauer des Signals nach obiger Definition besitzen praktisch eine geringe Bedeutung, da B und T nicht explizite erscheinen. I m allgemeinen wird die Bandbreite in Abhängigkeit von dem behandelten Problem dadurch definiert, daß die Funktion S(a>) betrachtet und der Frequenzbereich B, in dem die wesentlichen Anteile des Spektrums liegen, angegeben wird. Ebenso wird die Signaldauer definiert, indem man den Zeitbereich T einschätzt, in dem das Signal Werte annimmt, die nicht vernachlässigt werden können. 3.6.1. Beziehungen zwischen Bandbreite und Dauer des Signals Es werde ein Signal s(t) mit der genauen Dauer T (Abb. 3.29) betrachtet, das längs der Zeitachse gedehnt oder komprimiert wird, wobei der Spitzenwert konstant gehalten wird. Der Spitzenwert wird deshalb konstant gehalten, weil im allgemeinen die Übertragungskanäle bezüglich der Amplitude auf einen bestimmten Maximalwert begrenzt sind. Es sei mit sk(t) das gedehnte Signal bezeichnet, das durch die Änderung des Zeitmaßstabes erhalten wird: s

Das Spektrum für sk(t) ist + oo

k

(t)=s(kt) .

+oo

_ ^

(3.193) — oo — oo d. h., wenn der Zeitmaßstab mit k multipliziert wird, so wird der Frequenzmaßstab durch k dividiert, mit anderen Worten, eine Ausdehnung des Signals auf der Zeitachse hat eine Komprimierung auf der Frequenzachse zur Folge. Diese Tatsache legt die Möglichkeit nahe, eine Funktion folgender Art zu verwenden: B-T = const, wobei B die Bandbreite und T die Dauer des Signals darstellen. Um zu einer solchen Beziehung zu gelangen, wurden Definitionen für die Bandbreite B und die Dauer T gesucht, die das Produkt T B ^¿.l ergeben, wobei l eine positive Zahl sein soll. Eine dieser Problemstellung entsprechende Definition für die Bandbreite ist r +oo -12 Sk(co)

=

t

Jsk(t)e-1° di

= ~ j s ( k t ) e ~

/

|S(®)1

B = kzf? + oo

3 i r k t

d ( k t )=

±-S^]J-,

du

/ |/S(a>)|2 da>

(3.194)

3.6. Bandbreite und Dauer der Signale

137

und analog für die Dauer r

/ WOI dt oo T = L— +00 / KOI2 dt

(3.195)

Um zu untersuchen, ob die verwendeten Definitionen nicht zu Widersprüchen führen, wenn die Bandbreite (oder die Dauer) nur in einer einzigen Art dargestellt werden kann, wie das beim Signal mit rechteckigem Spektrum der Fall ist (Abb. 3.30), wendet man die Definition (3.194) auf dieses spezieile Spektrum an und erhält

(Bai = B o2 • B Werden die vorhergehenden Definitionen auf ein GAtrsssches Signal angewendet. so ergibt sich

s{t) = e~P'1'; 1/—

\s(uj)\

1

i

a *

&

Abb. 3.30. Rechteckiges Spektrum eines Signals

138

3. Deterministische Signale

Nach den Beziehungen (3.194) und (3.195) erhält man B = |/2 a • ß ß woraus sich B • T = 2 n ergibt oder wenn B = 2 n Bf gesetzt wird, ergibt sich T

B, = 1 .

Das GAtrsssche Signal besitzt im Rahmen der für die Bandbreite und die Dauer gegebenen Definitionen das kleinste Produkt Bf • T.

4. Z U F Ä L L I G E SIGNALE

In diesem Kapitel werden die statistischen Eigenschaften der Signale untersucht. Die Bedeutung dieser Untersuchung folgt daraus, daß nur diejenigen Signale eine Information enthalten, die nicht oder nur teilweise vorhergesagt werden können.

4.1. Der Begriff des zufälligen Signals Ein zufälliges Signal ist ein zeitlich unbegrenzter Vorgang und ist zumindestens teilweise den Wahrscheinlichkeitsgesetzen unterworfen. Ein zufälliges Signal, bzw. ein stochastischer Prozeß wird in der Mathematik durch eine Funktion mit zwei Veränderlichen ausgedrückt: t) = ¿¡

• • • > tn) — P

^

>

ffe) =

' ' ' ' > ¿(¿n) =

x

n}

(4.3)

und die Wahrscheinlichkeitsdichte Wn(xlt

x2, . . . , Xn\ i j , f2, • • • » tn)

0« F„ (xv x%,...,

xn;

• • • > tn) — P

^

>

ffe) =

' ' ' ' > ¿(¿n) =

x

n}

(4.3)

und die Wahrscheinlichkeitsdichte Wn(xlt

x2, . . . , Xn\ i j , f2, • • • » tn)

0« F„ (xv x%,...,

xn; h) = Vik) = / / % 2/2 »2(^1. h> h) dxi> dVi • (4.8) —OO —OO

5. Streuung (Zentrales Moment 2. Ordnung):

y

=

jfM{

m

=

}

m

-

) -

fwi

KÄ)

£ & ) ]

H h )

-

fwi

(*-io)

b) Kreuzvarianzfunktion: K t J h ,

t2)

=

M

M

t

J

,

V

( t

2

) }

=

-

-

V

( t

2

) ]

.

(4.11)

4.3.2. Zeitliche Mittelwerte In diesem Fall wählt man aus der Menge der Realisierungen £(£) eine spezielle Realisierung | w ( i ) aus und betrachtet den zeitlichen Mittelwert derselben. Die zeitlichen Mittelwerte, die von praktischem Interesse sind, sind folgende: L. Mittelwert: + 5T/2 +T £ « ~ ( t +1) = lim f | ( so daß wn(xn~, tnjx^, x2, . . . , xn_i: tlr t2, . . . , tm_j)

=

w2(xn\ tnlxn_i;

tn_i)

wobei < t2 • • • < tn ist. Zieht man die Definition der bedingten Wahrscheinlichkeit heran, so ergibt sich: x2. . . . . Xn\ ij, t2, ... , tn) =

«)„_!(«!, x2, . . . , t2, . . • , tn_j) • w2(xn; tnjxn_i; iM_i)

, (4.28)

150

4. Zufällige Signale

und weiter: w

n-l(xl>

• • • •. xn-

1 ;

• • • ! K-l)

=

w

n-z{xl>

h> • • • >

so daß

•• •>

x

n-2-

2) ' wi(xn_

1:

'«-2) >

n

>Mxi> *2> • • • , * « ; fi, 0

die Autokorrelationsfunktion muß also im Punkt r = 0 eine stetige Funktion sein. Dieses ist eine notwendige und hinreichende Bedingung dafür, daß der Prozeß im Zeitpunkt t stetig ist. Umgekehrt kann gesagt werden, daß die Korrelationsfunktion eines zufälligen stationären stetigen Signals eine stetige Funktion ist. 12*

4. Zufällige Signale

1S8

4.9. Differentiation zufälliger Signale Das zufällige Signal £(t) ist im Zeitpunkt t im Sinne des quadratischen Mittels differenzierbar, wenn eine Funktion |'(i) besteht, die Ableitung genannt wird, so daß 21 .. i|£(i+r) - m lim m! { — — — £ (i) = 0 (4.44) T-i-0

1

II

ist. Die statistischen Eigenschaften der Ableitung f'(t) werden aus den statistischen Eigenschaften der Differenz von £ (t + r) — f(i) durch Grenzübergang erhalten. Für den Fall, daß man sich auf eine spezielle Realisierung | w ( f ) bezieht, hat die Ableitung die gleiche Bedeutung wie im Falle deterministischer Funktionen und zwar: = l i m ^ + ^ - ^ W . T T-+0

(4.45)

Betrachtet man das Ensemble aller möglichen Realisierungen, so wird die Ableitung des zufälligen Signals eine zufällige Funktion, die durch die Beziehung (4.44) definiert ist. 4.10. Integration zufälliger Signale Bezieht man sich auf eine spezielle Realisierung t), so kann die Integration des Signals im deterministischen Sinne ausgelegt werden: = f£m(t)dt, a

(4.46)

und der Wert des Integrals hängt von k bzw. von der betrachteten speziellen Realisierung ab. Betrachtet man das Ensemble aller möglichen Realisierungen, so wird der Integralwert eine zufällige Veränderliche rj, die mit der Wahrscheinlichkeit des Eintretens von | £ ( 2 \ t ) . . . die Werte rf^, . . . annehmen kann; in diesem Fall hat. man b r i = f £{t) dt , a

Wenn

/ m ^ H W l }cft

a

(4.47)

ist, so sind mit Ausnahme einer Menge der Wahrscheinlichkeit Null alle Beobachtungen f w ( f ) absolut integrierbar: f |£W(f)| dt < oo a

4. Zufällige Signale

1S8

4.9. Differentiation zufälliger Signale Das zufällige Signal £(t) ist im Zeitpunkt t im Sinne des quadratischen Mittels differenzierbar, wenn eine Funktion |'(i) besteht, die Ableitung genannt wird, so daß 21 .. i|£(i+r) - m lim m! { — — — £ (i) = 0 (4.44) T-i-0

1

II

ist. Die statistischen Eigenschaften der Ableitung f'(t) werden aus den statistischen Eigenschaften der Differenz von £ (t + r) — f(i) durch Grenzübergang erhalten. Für den Fall, daß man sich auf eine spezielle Realisierung | w ( f ) bezieht, hat die Ableitung die gleiche Bedeutung wie im Falle deterministischer Funktionen und zwar: = l i m ^ + ^ - ^ W . T T-+0

(4.45)

Betrachtet man das Ensemble aller möglichen Realisierungen, so wird die Ableitung des zufälligen Signals eine zufällige Funktion, die durch die Beziehung (4.44) definiert ist. 4.10. Integration zufälliger Signale Bezieht man sich auf eine spezielle Realisierung t), so kann die Integration des Signals im deterministischen Sinne ausgelegt werden: = f£m(t)dt, a

(4.46)

und der Wert des Integrals hängt von k bzw. von der betrachteten speziellen Realisierung ab. Betrachtet man das Ensemble aller möglichen Realisierungen, so wird der Integralwert eine zufällige Veränderliche rj, die mit der Wahrscheinlichkeit des Eintretens von | £ ( 2 \ t ) . . . die Werte rf^, . . . annehmen kann; in diesem Fall hat. man b r i = f £{t) dt , a

Wenn

/ m ^ H W l }cft

a

(4.47)

ist, so sind mit Ausnahme einer Menge der Wahrscheinlichkeit Null alle Beobachtungen f w ( f ) absolut integrierbar: f |£W(f)| dt < oo a

4.11. Leistungsspektraldichte

f ü r jedes k und

( b

159

)

. { / f M * } = /»%{£( absolut summierbar ist, erhält man durch Änderung der Integrations+0

°

= ^

4

/

X(

(k) ^

0J)

^

)(0J)

d0J =

k

! —}—*>



160

4. Zufällige Signale

Die Leistungsspektraldichte des begrenzten Signals wird durch folgende Beziehung bestimmt: (4.51) I n diesem Fall geht jede Information über die Phase in q^\oj) verloren. Die mittlere Leistung ist + oo

= J_ f $>(0,) dco .

pw

2

(4.52)

31 J • — 00

2

Da iX'y^co)! eine gerade Funktion von co ist, kann die Leistungsspektraldichte im Bereich nichtnegativer Frequenzen durch folgende Beziehung ausgedrückt werden:

pO-Xco) =

2 qm{w) ;

=

für

(453)

Wenn das Signal von unbegrenzter Dauer ist, kann die Existenz folgenden Grenzwertes angenommen werden: + oo

= lim P f = Hm -i- f q f ( c o ) dco .

pm

T-+00

(4.54)

T^-oo " n J

— oo

Diese Annahme ist dadurch begründet, daß das Signal immer von begrenzter Leistung ist. Um den Begriff der Leistungsspektraldichte auch auf zufällige Signale zu verallgemeinern, muß die Menge aller möglichen Realisierungen betrachtet und der Mittelwert bestimmt werden: ffT(®) = «1 j H ^ l l J = ! % { ! < » X>(a>)}

(4.55)

oder , daher ist

J

) = f f -T/2 -272 -ßrCi. ¿2) =

irih)

4.11. Leistungsspektraldichte

161

Für ein Signal, das in weitem Sinn stationär ist, hat man + T/2

= -T- f -T/2

und indem man t1 =

+17 2

f

BT(h-t2)e-^^dtKdt2

-T/2

-[- r setzt, erhält man + T/2

gT(w)=_L

J

+272

BT(T)e-']A,RDR

- r / 2

j -T/2

+T/2

dt2 =

J

Bt(i)

e~imTdi.

-T/2

Durch Grenzübergang für T

00 ergibt sich + 00 limg r (co) = g(ß)) = / .B(t) e ^ M r ;

T - > - 00

(4.58)

—00

die Leistungsspektraldichte ist also die FouiUEK-Transformierte der Autokorrelationsfunktion : ) ,

wobei u(a>) die Einheitssprungfunktion ist. Zur Vereinfachung wird im folgenden an Stelle der oben angegebenen Beziehung geschrieben: p(o>)

2

=

q(m)

.

Mit Obigem ergibt sich = 2

p(co)

oo B(r)

= 4f o

q(co)

cos

cor

dx

und oo B(r)

=

2nJ

fp(co)

c o s cor

da> .

o

Eine Zusammenfassung der in den Abschnitten 3.2.2. und 3.3.4. getroffenen Feststellungen f ü h r t zu folgenden Korrespondenzen: — F ü r periodische Signale s(t)

C(n

I r(r)

w0)

I — P(n

cü 0 ) .

— F ü r nichtperiodische Signale m - s ( j c o )

i

I e(co) .

k(r)

— F a r zufällige Signale m

i B(x)

-

q(w)

.

4.12. Leistungsspektraldichte und Autokorrelationsfunktion

163

4.12. Leistungsspektraldichte und Autokorrelationsfunktion der Ableitung des Signals Das durch Ableitung des im weiten Sinne stationären Signals f(i) erhaltene Signal f(i) ist

Nach der Beziehung (4.55) ist die Leistungsspektraldichte des Signals £(t) q{a>) =

hm

1

mx i

^

j..

Betrachtet man die Spektraldichte des feegrenzten Signals Z f { w)

= j w

X%\a>)

(4.64)

,

so kann die Leistungsspektraldichte des Signals £(i) wie folgt geschrieben werden: q^{a>) =

lim

m1

jjggW |

= lim co2 ml {

qc(m)

=

lim

| m i U °> ^ W

| ;

[• = co2 q(co) .

^

T-yoo

Die Leistungsspektraldichte der Abgeleiteten des Signals ist daher qs(w) = co2 q(co) .

(4.65)

Die Autokorrelationsfunktion des Signals £(i) ist + oo — oo Da das Integral gleichmäßig konvergiert, kann geschrieben werden + oo B

*

( r )

=

=

L

/{j — oo

w ) 2 q{a>) e i m T

d(ü

'

+ oo B][t)

ft(co)

ei°*da>

=

-

£c(r) .

(4.66)

Es ist daher die Autokorrelationsfunktion des abgeleiteten Signals f(i) gleich der negativen zweiten Ableitung der Autokorrelationsfunktion des Signals f(i). Die mittlere Leistung der Abgeleiteten des Signals ist + oo BA0) = - £¡(0)

i(«) da> .

164

4. Zufällige Signale

Da für r = 0 die Korrelationsfunktion ihren Maximalwert erreicht, ergibt sich £¡(0) < 0 . Da die mittlere Leistung des abgeleiteten Signals f(£) begrenzt ist, folgt + oo

daraus, daß das Integral J cd2 q(oo) dco immer beschränkt ist und daher das — oo

Leistungsspektrum des im weiten Sinne stationären Signals £(£) bei hohen Frequenzen rascher abfällt als

.

Umgekehrt, wenn der stationäre Prozeß ein Leistungsspektrum besitzt, das bei hohen Frequenzen rascher abfällt als —-, so kann der Vorgang differenziert ca2

werden. Damit ergibt sich die notwendige und hinreichende Bedingung dafür, daß das stationäre Signal £(i) differenziert werden kann, wie folgt: die zweite Ableitung der Autokorrelationsfunktion B"(r) muß im Ursprung beschränkt sein. 4.13. Leistungsspektraldichte und Autokorrelationsfunktion des Integrals des Signals Es sei das zufällige stationäre Signal f(i) und sein Integral gegeben: rj(t) = / f(t) dr . o Die Leistungsspektraldichte von rj(t) ist g » = Hm in l i i l f ^ l = lim „ f T-YOO

. ,

l

J

T->-OO

^

H 1

}; '

2

1 ,.

i IZ^co)! )

oder g » Damit

qV(A>)

für

CD

= ^ff(o)).

(4.67)

0 existiert, muß -OO

^

H 1

}; '

2

1 ,.

i IZ^co)! )

oder g » Damit

qV(A>)

für

CD

= ^ff(o)).

(4.67)

0 existiert, muß — oo —oo und da die mittlere Leistung des Signals Tj(t) beschränkt sein muß, ergibt sich

Bv{0) < oo . Dieses ist die Bedingung dafür, daß der Vorgang £(t) integrierbar ist, und sie wird erfüllt, wenn die mittlere Leistung des Signals f(i) beschränkt ist, d. h. wenn gilt + oo f q(m) dca < oo .

4.14. Leistungsspektraldichte gemischter Signale Es sei das Signal 17(0 = m + s(t) gegeben, wobei |(i) ein zufälliges und s(t) ein periodisches Signal ist. Wenn q^(oj) die Leistungsspektraldichte des zufälligen Signals ist, und die Leistungsspektraldichte des periodischen Signals nach der Beziehung 00 q(co) = 2 n E C%ò(co - n w0) n= —oo ist, so wird die Leistungsspektraldichte der Summe 00 qn{(ü) = ?«(«>) + 2 n

E

Ciò (a>-na>0).

n= — oo

(4.69) wenn (3.42) (4.70)

(4.71)

4.15. Eigenschaften der Autokorrelationsfunktion Es sei der Fall ergodischer Signale betrachtet, für den die zeitliche Autokorrelationsfunktion der statistischen Autokorrelationsfunktion gleich ist B(r) = S(r) = R (t2 - ij) = S(tj) • m

= i^t~Tt)~i~k~(ti+~th

(4-72)

1. Vorausgesetzt, daß das Signal keine deterministischen (periodischen) Komponenten enthält und r —oo geht, wird die Verbindung zwischen den zufälligen

4.15. Eigenschaften der Autokorrelationsfunktion

165

so ergibt sich mit der Beziehung (4.67) + oo W

= i . J Cü2 qv(a>)

da> = - B"n{r);

— 00

und man erhält Bs(z) = - B'jc) .

(4.68)

Die Streuung des Integrals des Signals |(i) ist + OO

+00

d(a = ¿71 K- ff = ¿i K-7tI] CO d°> — oo —oo und da die mittlere Leistung des Signals Tj(t) beschränkt sein muß, ergibt sich

Bv{0) < oo . Dieses ist die Bedingung dafür, daß der Vorgang £(t) integrierbar ist, und sie wird erfüllt, wenn die mittlere Leistung des Signals f(i) beschränkt ist, d. h. wenn gilt + oo f q(m) dca < oo .

4.14. Leistungsspektraldichte gemischter Signale Es sei das Signal 17(0 = m + s(t) gegeben, wobei |(i) ein zufälliges und s(t) ein periodisches Signal ist. Wenn q^(oj) die Leistungsspektraldichte des zufälligen Signals ist, und die Leistungsspektraldichte des periodischen Signals nach der Beziehung 00 q(co) = 2 n E C%ò(co - n w0) n= —oo ist, so wird die Leistungsspektraldichte der Summe 00 qn{(ü) = ?«(«>) + 2 n

E

Ciò (a>-na>0).

n= — oo

(4.69) wenn (3.42) (4.70)

(4.71)

4.15. Eigenschaften der Autokorrelationsfunktion Es sei der Fall ergodischer Signale betrachtet, für den die zeitliche Autokorrelationsfunktion der statistischen Autokorrelationsfunktion gleich ist B(r) = S(r) = R (t2 - ij) = S(tj) • m

= i^t~Tt)~i~k~(ti+~th

(4-72)

1. Vorausgesetzt, daß das Signal keine deterministischen (periodischen) Komponenten enthält und r —oo geht, wird die Verbindung zwischen den zufälligen

166

4. Zufällige Signale

Veränderlichen |(ij) und |(i2) immer schwächer und für sehr großes r werden sie unabhängig. In diesem Falle ist !(-00

oder a = /i?(oo) . Wenn r oo, nähert sich _R(T) asymptotisch dem Wert durch Schwingungen um den Wert a 2 herum (Abb. 4.11).

(4.73) a2,

sei es monoton oder

Abb. 4.11. Verhalten der Autokorrelationsfunktion für r -*• oo

2. Aus der Beziehung (4.63) ergibt sich für r — 0 oo R(0) = q{co) doj = P . Daher ist der Wert der Autokorrelationsfunktion im Ursprung gleich der Leistung des Signals. Andererseits ist lim R(r) = P(i) = m2{m } = B(0) , T-+0 und die Streuung a2 = m2{£(i)} - a2 = R(0) - a2 . Daher ist (4.74) a2 = R{0) - i?(oo) . 3. Aus der Beziehung (4.63) ergibt sich R(T) = R(-t) d. h., die Autokorrelationsfunktion ist eine gerade Funktion.

4.15. Eigenschaften der Autokorrelationsfunktion

167

4. Der Wert der Autokorrelationsfunktion im Ursprung R(0) kann von keinem Wert f ü r r 4= 0 übertroffen werden: R(0) ^ \B(r)\ • Zur Erläuterung dieser Beziehung betrachtet man das Anfangsmoment zweiter Ordnung: «iUKO

±Ht+

T)]2} = 2 R(0) ± 2 R(r) ^ 0 .,

woraus folgt R(0) ^ |Ä(r)| .

(4.75)

Auf Grund dieser Eigenschaften können bei bekannter Autokorrelationsfunktion (Abb. 4.12) die Gesamtleistung des Signals .ß(O), der Mittelwert |/ü(oo) und die Streuung a2 = R(0) — R(oo) errechnet werden.

Abb. 4.12. Bestimmung der Gesamtleistung, des Mittelwertes und der Streuung eines Signals mit Hilfe der Autokorrelationsfunktion Nimmt man die FOURIER-Transformierte der Autokorrelationsfunktion, so erhält man die Leistungsspektraldichte: oo q(co) = 2 J R(T) o

COS

cor dr .

Wenn das Signal periodische Komponenten enthält, so besitzt die Autokorrelationsfunktion, wie in Abb. 4.13 gezeigt ist, zwei Terme, einen aperiodischen, der der zufälligen Komponente entspricht, und einen periodischen, der den periodischen Komponenten entspricht. I m Falle GAtrssscher Signale sind bei bekannter Korrelationsfunktion die statistischen Eigenschaften des Signals bestimmt, da in diesem Fall die Wahrscheinlichkeitsdichte wie folgt lautet: (»-«)'

w(x)=-=L=e

,

168

4. Zufällige Signale

wobei er2 und a aus der Korrelationsfunktion bestimmt werden. Auch die Wahrscheinlichkeitsdichte zweiter und höherer Ordnung ist bei Kenntnis der Korrelationsfunktion eines GAtrss-Prozesses bestimmbar. 4.16. Zufällige periodische Signale Ein zufälliges Signal £(i), das stationär in weitem Sinn ist, wird periodisches Signal genannt, wenn seine Autokorrelationsfunktion B(r) eine periodische Funktion mit der Periodendauer T ist. Daraus ergibt sich, daß die zufälügen periodischen Veränderlichen |(i) und f (f -f- T) mit der Wahrscheinlichkeit 1 für jedes t gleich sind. Es wird vorausgesetzt, daß die Gleichkomponente gleich Null ist. Wenn alle Realisierungen $ k \ t ) des periodischen Signals (mit Ausnahme einer Menge mit der Wahrscheinlichkeit Null) periodisch sind, so ist das Signal periodisch in dem oben erläuterten Sinne. In diesem Fall kann geschrieben werden £0) eine zufällige, durch die Beziehung (4.77) definierte Veränderliche für jede Realisierung des Signals £(t) ist.

B^r),

a) _

b)

0)

2W o

r

Abb. 4.13. Darstellung der Autokorrelationsfunktion eines gemischten Signals

168

4. Zufällige Signale

wobei er2 und a aus der Korrelationsfunktion bestimmt werden. Auch die Wahrscheinlichkeitsdichte zweiter und höherer Ordnung ist bei Kenntnis der Korrelationsfunktion eines GAtrss-Prozesses bestimmbar. 4.16. Zufällige periodische Signale Ein zufälliges Signal £(i), das stationär in weitem Sinn ist, wird periodisches Signal genannt, wenn seine Autokorrelationsfunktion B(r) eine periodische Funktion mit der Periodendauer T ist. Daraus ergibt sich, daß die zufälügen periodischen Veränderlichen |(i) und f (f -f- T) mit der Wahrscheinlichkeit 1 für jedes t gleich sind. Es wird vorausgesetzt, daß die Gleichkomponente gleich Null ist. Wenn alle Realisierungen $ k \ t ) des periodischen Signals (mit Ausnahme einer Menge mit der Wahrscheinlichkeit Null) periodisch sind, so ist das Signal periodisch in dem oben erläuterten Sinne. In diesem Fall kann geschrieben werden £0) eine zufällige, durch die Beziehung (4.77) definierte Veränderliche für jede Realisierung des Signals £(t) ist.

B^r),

a) _

b)

0)

2W o

r

Abb. 4.13. Darstellung der Autokorrelationsfunktion eines gemischten Signals

4.16. Zufällige periodische Signale

169

Für die Menge der möglichen Realisierungen bzw. für f(£) kann geschrieben werden N

f(i) = l.i. m. E y (n co0)

,

N-*oo n= —N

(4.78)

wobei 1. i. m. ein Grenzwert im Sinne des quadratischen Mittels ist. Diese Entwicklung ist derjenigen für deterministische periodische Signale ähnlich mit dem Unterschied, daß die Koeffizienten der FouBJER-Reihenentwicklung zufällige Veränderliche und nicht Zahlen sind: T y (n

(o0)=±-f

o " Ein besonders wichtiger Fall der Reihenentwicklung der zufälligen Signale ergibt sich, wenn neben der Orthogonalität der Zeitfunktion auch die (statistische) Orthogonalität der Koeffizienten auftritt, und zwar wenn i(y

m

und

( n o^o) • y ( m ®o)}

=

0 ,

für

n =(= m

(4.79)

mi{y (n ®o)' y ( m )

dt, dt2 .

(4.80)

oo Da das Signal periodisch ist, ist die Autokorrelationsfunktion auch periodisch und kann daher in folgender Form geschrieben werden: B(t)=

+ oo

Z bte?*"»*.

(4.81)

k= —oo

Durch Einsetzen in die Beziehung (4.80) ergibt sich . *.

m {y(nco 0)y(ma> 0)} v. , . , .

., V

J

T T -1 i r r = ~r j i / J J 2

S

0ö ö0

1

T

+oo

^I2ifc=-oo

bk"¿h-U oo

/>

J

i «»„(»•-">>r

d r :

—oo n= —oo

+ oo • q{m) — 2 n ' E bnd (m — n a>0) . n= —oo Die Gesamtleistung des Signals ist + oo P = q(w)

(4.84)

E bn = B(0) .

J

(4.85)

n=-oo

4.17. Orthogonale Reihenentwicklung nichtperiodischer zufälliger Signale 4.17.1. Reihenentwicklung nach

FOURIER

Ein zufälliges nichtperiodisches Signal f(i), das im weiten Sinne stationär ist, kann für ein zeitlich beschränktes Intervall a ^ t b in eine FoURiER-Reihe entwickelt werden, wobei die Reihenentwicklung das Signal nur in dem angegebenen Intervall darstellt. Außerhalb des Intervalls wird das Signal durch die Reihenentwicklung wie im Falle deterministischer Signale periodisch fortgesetzt und stimmt mit dem tatsächlichen Signal nicht überein. Im Inneren des Intervalles ist N

E y (n co0) e^ n m ' t .

Ç(t) = Hm N->-oo

(4.86)

n= —N

Nur im Falle periodischer Signale sind die Koeffizienten nicht korreliert. Im Falle eines nichtperiodischen Signals besteht eine Korrelation zwischen den Koeffizienten. Bei einigen Anwendungen wird folgende Entwicklung bevorzugt: £(i) = lim jY->oo

N E

«=i

(«„ cos

n

(o0

t +

ß

n

sin

n

coQ

t)

(4.87)

170

4. Zufällige Signale

"Folglich ist m x {y (n ct>o) y (m co0)} = bn, w

w

i{/

wenn

m

o) y ( ft>0)} = 0 ,

n = m = ifc; 1

wenn

n =(= m .

4 g2

j

Aus der Beziehung (4.82) ergibt sich, daß die Koeffizienten der FOURIEJRReihenentwicklung der Autokorrelationsfunktion gleich den Anfangsmomenten zweiter Ordnung der gleichrangigen Koeffizienten der FouRiER-Reihenentwicklung des Signals f(f) sind, also &» = m i { | y ( « O l 2 }

(4-83)

ist. Die Leistungsspektraldichte des periodischen Signals £(t) ist + 00 +oo +oo q(co) =

/

B { r ) e ^

m t

d r

=

— oo

jf

E

b

n

¿>'>r

d r :

—oo n= —oo

+ oo • q{m) — 2 n ' E bnd (m — n a>0) . n= —oo Die Gesamtleistung des Signals ist + oo P = q(w)

(4.84)

E bn = B(0) .

J

(4.85)

n=-oo

4.17. Orthogonale Reihenentwicklung nichtperiodischer zufälliger Signale 4.17.1. Reihenentwicklung nach

FOURIER

Ein zufälliges nichtperiodisches Signal f(i), das im weiten Sinne stationär ist, kann für ein zeitlich beschränktes Intervall a ^ t b in eine FoURiER-Reihe entwickelt werden, wobei die Reihenentwicklung das Signal nur in dem angegebenen Intervall darstellt. Außerhalb des Intervalls wird das Signal durch die Reihenentwicklung wie im Falle deterministischer Signale periodisch fortgesetzt und stimmt mit dem tatsächlichen Signal nicht überein. Im Inneren des Intervalles ist N

E y (n co0) e^ n m ' t .

Ç(t) = Hm N->-oo

(4.86)

n= —N

Nur im Falle periodischer Signale sind die Koeffizienten nicht korreliert. Im Falle eines nichtperiodischen Signals besteht eine Korrelation zwischen den Koeffizienten. Bei einigen Anwendungen wird folgende Entwicklung bevorzugt: £(i) = lim jY->oo

N E

«=i

(«„ cos

n

(o0

t +

ß

n

sin

n

coQ

t)

(4.87)

4.17. Orthogonale Reihenentwicklung

171

wobei 2 71

CO „

b— a

2

71

und + T/2

an = -|r y f(£) cos nw0 tdt

;

- 2 72

(4.88)

+ T/2

¿9» = -|r y 1(0 sin nœ0 tdt sind. Die vorstehende Entwicklung kann auch noch in folgender Form geschrieben werden: m = l.i.m. oo sind die Koeffizienten korreliert. Ebenso wie bei periodischen Signalen kann die in periodische Komponenten entwickelte Autokorrelationsfunktion definiert werden, wobei die Entwicklung jedoch nur im begrenzten Intervall T = b — a gültig ist. 4.17.2. Reihenentwicklung in Spaltfunktionen

• Vorausgesetzt, daß das zufällige in weitem Sinne stationäre Signal eine auf die Frequenz W begrenzte Bandbreite besitzt, ergibt sich laut Abtasttheorem /

\

sin 2 n W 2 7t W \

(4.91) 2 W)

Betrachtet man die Menge aller möglichen Realisierungen, so kann geschrieben werden n sin 2 n W tN 2 W ! n \ (4.92) m = l.i.m. E I 2 w) N^-oo n= - N \ " / 2 7t W t 2 W) 13

Spätaru

172

4. Zufällige Signale 6

wobei |

^ne

zu

^ U i g e Veränderliche mit dem Mittelwert 0 ist:

W) = o . Da vorausgesetzt wurde, daß das Signal auf den Frequenzbereich (0, W) begrenzt ist, ergibt sich, daß auch die Leistungsspektraldichte auf den Frequenzbereich (0, W) begrenzt sein wird, und es kann demzufolge das Abtasttheorem auf ihre FouKiER-Transformierte bzw. auf die Autokorrelationsfunktion angewendet werden:

,

+ 00

.=-00

v

sin2jr w ( t - — \

\2W7

2 a W

\

t-JÜL) 2 W)

Die Leistungsspektraldichte ist die FouKiEE-Transformierte der Autokorrelationsfunktion; unter Berücksichtigung der Beziehung (3.133) ergibt sich

1

,,

m

1

\

00

/

\

u>

(4.94) 4.17.3. Reihenentwicklung mit unkorrelierten Koeffizienten Manchmal ist es nützlich, statt der Beziehung (4.86) eine Reihenentwicklung der zufälligen Signale zu finden, bei der die Koeffizienten unkorreliert sind. Diese kann in der Form + N

£(t) = l.i.m. N-+ oo

E fi 0 $ )

für

0

(4.95)

n— —N

ausgedrückt werden, wobei f0t(t)0i(t)=\ = { ? [Ai

f für

(4-98)

i = j

gilt. Der Einfachkeit halber wird angenommen, daß für alle Indizes i f = 0 ist. Führt man die Beziehung (4.97) in die Beziehung (4.98) ein, so erhält man m-

i/fl00 ist.

Abb. 4.14. Darstellung der Spektraldichte eines schmalbandigen Signals 13*

4.17. Orthogonale Reihenentwicklung

173

oder, nachdem man die Mittelung durchgeführt hat T T fn f 0At) dt f Kit, u)4>,(«) du = \ o o Ui

für

{ rfe: i •

für

1 = 3 .

(4.100)

Damit die Gleichung (4.100) für alle Indizes i und j besteht, ist es notwendig und hinreichend, daß T f

K ( t , u)

o

0j(u)du

=

0f(t)

(4.101)

ist, da in diesem Fall die Beziehung (4.100) in die Beziehung (4.96), die für alle Indizes i und j gültig ist, übergeht. Die Funktionen 0j(t) werden Eigenfunktionen, die Zahlen Zf Eigenwerte und die Kovarianz K(t, u) wird Kern der Integralgleichung genannt. Die Lösungen der Integralgleichung (4.101) bestimmen die orthonormierten Funktionen 0 j ( t ) , die die Darstellung (4.95) des zufälligen Signals |(i), dessen Kovarianz K{t, u) ist, mit unkorrelierten Koeffizienten ermöglichen. Wenn £(i) ein weißes Rauschen ist, so ist die entsprechende Autokorrelationsfunktion K ( t , u)

=

a 2ö{t

-

u)

.

Führt man diesen Wert in die Beziehung (4.101) ein, so erhält man T o2 f ö

o

(t — u)

0,(11)

du

=

0){t);

(4.102)

das weiße Rauschen kann folglich in jeden beliebigen Satz von orthogonalen Funktionen entwickelt werden.

4.18. Schmalbandige Signale Man nennt ein Signal f (t) schmalbandig, bei dem' die Leistungsspektraldichte q{w) um die Frequenzen + co0 und — ft 0 herum konzentriert ist (Abb. 4.14), wobei die Bandbreite Aa) kleiner als a>0 ist.

Abb. 4.14. Darstellung der Spektraldichte eines schmalbandigen Signals 13*

174

'

4. Zufällige Signale

U m den Ausdruck f ü r ein schmalbandiges Signal |(i) zu finden, wird das zufällige Signal y(t) betrachtet, dessen Leistungsspektraldichte die Bedingung ^g{a> + w0) +

- co0) = q(w)

(4.103)

erfüllt; aus dieser ergibt sich, daß g(a>) das Bild von q(o>) bezogen auf die Achse co — 0 darstellt und d a ß die Leistung des Signals y(t) doppelt so groß wie die Leistung des Signals £(t) ist. Nach der Beziehung (4.61) erhält m a n f ü r die Leistungsspektraldichte g(co) = lim T-*- oo

,

(4.104)

*

wobei G t ( w ) die FouEiEE-Transformierte des begrenzten Signals y ^ i t ) darstellt. Man errechnet das Faltungsprodukt =

g
(i) cos (co0 t + ) gleich und stellt die Leistungsspektraldichte eines schmalbandigen Signals und zwar nach der Beziehung (4.105) des Signals f(t) = y(t) cos (co01 + ) cos (co — co0) r dco -) / gr(co) cos (co + co0) r dco 8 ?r J 8 jt J +00 1 C 1 B(r) = —— | gr(co) cos co r cos co0 x dco = — Ä,(r) cos co0 r , i n j 2 — 00

(4.109)

wobei -BJ,(t) die Autokorrelationsfunktion des Signals y(i) darstellt. Berücksichtigt man die Eigenschaften der FouRiER-Transformierten, so ergibt sich, daß die Korrelationsfunktion auf der Zeitachse um so ausgedehnter ist, je schmaler das Spektrum des Signals ist.

4.19. Breitbandige Signale Betrachtet man nun das andere Extrem: das Leistungsspektrum des Signals ist auf einen großen Frequenzbereich ausgedehnt und wird bis zur Frequenz co0 als konstant angenommen (Abb. 4.15): p(co) = N0

für

0 < co co0

0

pfcujt

0 CO UJo Abb. 4.15. Darstellung der Spektraldichte eines breitbandigen Signals

176

4. Zufällige Signale

B(r)i

Abb. 4.16. Darstellung der Autokorrelationsfunktion eines breitbandigen Signals

Die Autokorrelationsfunktion wird (Abb. 4.16) B(œ) = ^-N0 2n

° co r

= B(0)

smft, T 0

sina>oT

co„ r

(4.110)

Betrachtet man den idealisierten Fall, der weißes Rauschen genannt wird und für den a)0 - > oo , so hat man q(w) = -i-iV 0 für jedes co (— oo < co < -(- oo) , ¿i und es ergibt sich daher + oo (4.111) Im Falle des weißen Rauschens sind also die Werte £(ij) und f(i a ) nicht korreliert, wenn sie auch noch so nahe nebeneinander liegen. Aus der Beziehung (4.104) kann der Ausdruck für den Korrelationskoeffizienten wie folgt erhalten werden: e(r)

=

B(z)

B(t) B(0)

sin cu0 r co„r

Im Falle des weißen Rauschens erhält man o(0) = 1 und Q(T) = 0, wenn t 0 ist, was sich aus der vorhergehenden Beziehung durch den Grenzübergang ft>0 —> oo ergibt. 4.20. GAuss-Signal Ein in weitem Sinne stationäres Signal £(t) wird ein GAxrsssches Signal genannt, wenn die Wahrscheinlichkeitsdichte in einem beliebigen Augenblick w^z) —

j/2 n a

2 o2 2

(4.112)

und die Wahrscheinlichkeitsdichte zweiter Ordnung (X1-a)' - 2e(r)(a:1-o)(®a - a) + (x„ - a)' 2o»[i-e«(T)] w2(z1, x2;t)= e 2 n o * y i - e2(r) (4.113)

176

4. Zufällige Signale

B(r)i

Abb. 4.16. Darstellung der Autokorrelationsfunktion eines breitbandigen Signals

Die Autokorrelationsfunktion wird (Abb. 4.16) B(œ) = ^-N0 2n

° co r

= B(0)

smft, T 0

sina>oT

co„ r

(4.110)

Betrachtet man den idealisierten Fall, der weißes Rauschen genannt wird und für den a)0 - > oo , so hat man q(w) = -i-iV 0 für jedes co (— oo < co < -(- oo) , ¿i und es ergibt sich daher + oo (4.111) Im Falle des weißen Rauschens sind also die Werte £(ij) und f(i a ) nicht korreliert, wenn sie auch noch so nahe nebeneinander liegen. Aus der Beziehung (4.104) kann der Ausdruck für den Korrelationskoeffizienten wie folgt erhalten werden: e(r)

=

B(z)

B(t) B(0)

sin cu0 r co„r

Im Falle des weißen Rauschens erhält man o(0) = 1 und Q(T) = 0, wenn t 0 ist, was sich aus der vorhergehenden Beziehung durch den Grenzübergang ft>0 —> oo ergibt. 4.20. GAuss-Signal Ein in weitem Sinne stationäres Signal £(t) wird ein GAxrsssches Signal genannt, wenn die Wahrscheinlichkeitsdichte in einem beliebigen Augenblick w^z) —

j/2 n a

2 o2 2

(4.112)

und die Wahrscheinlichkeitsdichte zweiter Ordnung (X1-a)' - 2e(r)(a:1-o)(®a - a) + (x„ - a)' 2o»[i-e«(T)] w2(z1, x2;t)= e 2 n o * y i - e2(r) (4.113)

177

4.21. Schmalbandiges GAirss-Signal

ist, wobei die Zeitdifferenz zwischen den Zeitpunkten, in denen die Werte des Signals berechnet werden; der Mittelwert des Signals; die Dispersion;

x = f2 a = rß =

der Korrelationskoeffizient oder die normierte Kovarianz ist. e(r) = ~zr~ Wenn g(r) = 0 für t =(= 0 und g(0) = 1 ist, dann hat man: (»i -ay fo-«)' 2 ! 2 a w2(x1,x2;r) = __—e ° e "' , (4.114) |/2 n a 2 j/2 n (

1

a+b *

o

1

ab

2

o

o

2

1 3

(d)

o1

a

c

»

2

4 o

1

Abb. 5.7. Elementare Äquivalenzen a) Addition; b) Multiplikation; c) Distribution; d) Faktorisierung

194

5. Signalraum und Signal-Flußdiagramme

5.4.2. Äquivalenz von Schleifen Ein Zweig, der sich, in dem gleichen Knotenpunkt schließt (Abb. 5.8), wird Schleife genannt. Wenn man mit y das Signal im Knotenpunkt der Schleife bezeichnet und dieses Signal der Summe der Signale, die dem Knotenpunkt zufließen gleich ist, so ergibt sich y = x + ty und daraus » = (1 - t ) y oder y=-J—-x.

(5.54)

Das Ausgangssignal aus dem Knotenpunkt mit Schleife ist also gleich dem mit ^*

multiplizierten äußeren Signal, das dem Knotenpunkt zufließt.

Diese Tatsache führt zu der in Abb. 5.8b dargestellten Äquivalenz. t

. . . i yû

J .

Q

a)

b>

A b b . 5.8. Äquivalenz der Schleife a) Signale; b) Äquivalenz

Der Knotenpunkt der Schleife kann auch in zwei durch einen Zweig der Transmittanz 1 verbundene Knotenpunkte aufgespaltet werden (Abb. 5.9).

> 0>

^JQU-jL- ,

Abb. 5.9. Spaltung des Knotenpunktes einer Schleife und die entsprechende Äquivalenz

Wenn im Knotenpunkt der Schleife mehrere Zweige verbunden sind, können diese in konvergierende und divergierende Zweige eingeteilt werden, und man erhält auf Grund der vorhergehenden Äquivalenz die in der Abb. 5.10 dargestellte Äquivalenz.

5.4. Signal-Flußdiagramme

195

gebunden sind

5.4.3. Absorption der Knotenpunkte Wenn die Wirkung eines Knotenpunktes in den neuen Werten der Transmittanz mit berücksichtigt ist, kann, wie im vorstehenden gezeigt wurde, der betreffende K n o t e n p u n k t beseitigt werden (Abb. 5.11).

Die Absorption eines Knotenpunktes entspricht der Elimination der betreffenden Veränderlichen durch Substitution im zugeordneten Gleichungssystem. Der Graph, der nach Absorption eines oder mehrerer Knotenpunkte entsteht, wird residualer Graph genannt. I n dem residualen Graph sind die Wirkungen aller durch den absorbierten K n o t e n p u n k t des originalen Graphen übertragenen Signale mit berücksichtigt. 5.4.4. Eeduktion der Graphen Mit Hilfe der elementaren Äquivalenzen können der Reihe nach alle Knotenpunkte eines Graphen, die sich zwischen einem Eingangs- und einem Ausgangsknotenpunkt befinden, absorbiert werden. ; I n den Abb. 5.12a und 5.12b sind die Ergebnisse der Anwendung dieser Operationen an den Zwischenknotenpunkten der in den Abb. 5.6a und 5.6b dargestellten Graphen angegeben.

]96

5. Signalraum und Signal-Flußdiagramme

Abb. 5.12. Reduktion eines Graphen a) Graph aus der Abb. 5.6 a; b) Graph aus der Abb. 6.6 b

Aus den partiellen Lösungen x'z und x\ ergibt sich die Endlösung: = x's + %'s = (« + b c + 6 de) x± + (g + e f ) xz .

(5.55)

Wenn man die oben angegebenen Äquivalenzen kennt, so kann man diese Lösung nach Inspektion des Diagramms der Abb. 5.5 direkt anschreiben. Dieser einfache Fall wurde zur Erläuterung der Methode dargestellt; bei der Einfachheit des Gleichungssystems (5.53) hätte man die,durch die Beziehung (5.55) gegebene Lösung direkt aus den Gleichungen ableiten können. 5.4.5. Allgemeine Signal-Flußdiagramme Neben den speziellen Verfahren, die auf Grund der elementaren Äquivalenzen die Beziehungen zwischen interessierenden Signalen aus dem Flußdiagramm ableiien, gibt es auch ein allgemeines Verfahren, das diese Ableitung ermöglicht. Um dieses Verfahren zu erläutern, werden einige Definitionen eingeführt. 5.4.6. Transmittanz des Graphen Man definiert allgemein für einen Graph mit beliebiger Struktur die Transmittanz Tjje,des Graphen als das Signal, das am Knotenpunkt k dann erscheint, wenn im Knotenpunkt j von außen ein Signal Eins eingespeist wird (Abb. 5.13) bzw.

197

5.4. Signal-Flußdiagramme

Im besonderen Fall können die Knotenpunkte j und k Eingangs- und Ausgangsknotenpunkte sein. Wenn das der Fall ist, brauchen äußere Knotenpunkte nicht mehr eingeführt zu werden. Durch Absorption aller Knotenpunkte kann der Graph auf einen einzigen Zweig mit zwei äußeren Knotenpunkten reduziert werden. Die Transmittanz dieses Zweiges ist T i k (Abb. 5.13b).

$L

I

Z*

b)

Abb. 5.13. Signale zur Definition der Transmittanz eines Graphen a) Originalgraph; b) Kesidualer Graph; 1 — Eingangsknotenpunkt; 2 — Ausgangsknotenpunkt

5.4.7. Bahn und Masche

Die Bahn ist eine Folge von Zweigen, die von einem Knotenpunkt zum anderen im Sinne der Pfeile durchlaufen werden. Auf einer offenen Bahn tritt ein bestimmter Knotenpunkt nur einmal auf. Die Transmittanz der Bahn ist das Produkt der Transmittanzen der Zweige, die diese Bahn bilden. Diese Transmittanz wird mit B bezeichnet. Die Masche ist eine geschlossene Bahn, längs der ein bestimmter Knotenpunkt nur einmal auftritt. Die Transmittanz der Masche ist das Produkt der Transmittanzen der Zweige, die die Masche bilden. Diese Transmittanz wird mit M bezeichnet. Im folgenden werden die Benennungen: Bahn und Transmittanz der Bahn, sowie Masche und Transmittanz der Masche als äquivalent betrachtet. 5.4.8. Aufspaltung eines Knotenpunktes

Durch Aufspalten eines Knotenpunktes (Abb. 5.14) bilden sich zwei Knotenpunkte, nämlich ein Eingangs- und ein Ausgangsknotenpunkt.

198

5. Signalraum und Signal-Flußdiagramme

a)

c) Abb. 5.14. Spaltung eines Knotenpunktes a) Originalknotenpunkt; b) Gespalteter Knotenpunkt; c) Graph mit mehreren Knotenpunkten; d) Derselbe Graph mit gespalteten Knotenpunkten

Alle konvergierenden Zweige sind im Ausgangsknotenpunkt verbunden, während die divergierenden Zweige im Eingangsknotenpunkt verbunden sind. 5.4.9. Maschentransmittanz eines Knotenpunktes und Maschentransmittanz eines Zweiges Die Maschentransmittanz r1 eines Knotenpunktes ist gleich dem in diesen Knotenpunkt zurückkehrenden Signal, wenn das Ausgangssignal des Knotenpunktes gleich Eins ist. Man versteht unter einem in den Knotenpunkt zurückkehrenden Signal das Signal, das vom abgespalteten Eingangsknotenpunkt zum abgespalteten Ausgangsknotenpunkt gelangt, und unter dem Ausgangssignal aus dem Knotenpunkt das dem abgespalteten Eingangsknotenpunkt entsprechende Signal. Zum Beispiel ist die Maschentransmittanz des Knotenpunktes 1 der Abb. 5.15:

Die neue Transmittanz Tk ist gleich der Transmittanz, die zwischen dem neuen Paar der durch Spaltung des Knotenpunktes k entstandenen Eingangs- und Ausgangsknotenpunkte entsteht.

a

d

Abb. 5.15. Spaltung eines Knotenpunktes zur Definition der Transmittanz der entsprechenden Masche

5.4. Signal-Flußdiagramme

199

Wenn durch Einführung eines Knotenpunktes ein Zweig in zwei seriell verbundene Zweige umgewandelt wird und wenn das Produkt der entsprechenden Transmittanzen gleich der Transmittanz des Originalzweiges ist, so handelt es sich um einen inneren Knotenpunkt. Laut Definition ist die Maschentransmittanz des Zweiges gleich der Maschentransmittanz des inneren Knotenpunktes. 5.4.10. Determinante des Graphen Die Graphendeterminante wird folgendermaßen definiert: A = (1 - r'i) (1 — t4) - - - (1 — x'n) ,

(5.56)

worin r'k die Maschentransmittanz des Knotenpunktes k darstellt, wenn die Knotenpunkte k + 1, & + 2, . . . , n gespaltet sind. Da r'k nur aus einem Teil des Graphen, nämlich aus dem von den ersten k Knotenpunkten gebildeten Teil errechnet wird, wird die Größe r'k auch noch partielle Maschentransmittanz des Knotenpunktes k genannt. Sie ist gleich der Transmittanz der eigenen Masche, die sich durch Absorption der Knotenpunkte 1, 2, — 1 im Knotenpunkt k ergibt. Obwohl die Werte r'k von der Numerierungsfolge der Knotenpunkte des Graphen abhängig sind, kann man durch Errechnung der Graphendeterminante für verschiedene Numerierungsfolgen leicht prüfen, daß der Wert der Determinante nicht von dieser Folge abhängig ist. Um die Berechnung der Transmittanzen, die in der Determinante A erscheinen, zu erläutern, wird der Graph der Abb. 5.16 betrachtet.

Abb. 5.16. Bestimmung der Maschentransmittanzen der Knotenpunkte eines Graphen a) Originalgraph; b) Graph zur Bestimmung von t^; c) dgl. von t^; d) dgl. von r 8

200

5. Signalraum und Signal-Flußdiagramme

Die Werte der Maschentransmittanzen der Knotenpunkte 1, 2, 3 können leicht aus der Abbildung errechnet werden und betragen Ti = a ; b c

Nachfolgend wird die Abhängigkeit der Größe x'n von den Transmittanzen der im Knotenpunkt n verbundenen Zweige untersucht. Durch Spaltung des Knotenpunktes n (Abb. 5.17) erhält man den Eingangsknotenpunkt n und den Ausgangsknotenpunkt n'. Zwei Zweige werden konfluente Zweige genannt, wenn sie denselben Anfangsknotenpunkt oder denselben Endknotenpunkt besitzen. Zum Beispiel sind die Zweige a und b sowie auch die Zweige c und d der Abb. 5.17 konfluent.

• Abb. 5.17. Konfluente Zweige eines Graphen

Aus dem Absorptions Vorgang der Knotenpunkte ist ersichtlich, daß die Trans mittanz x'n eine lineare Funktion der Transmittanz der im Punkt n verbundenen Zweige ist und daß die Produkte der Transmittanzen zweier im Knotenpunkt n konfluenter Zweige nicht vorkommen können. Außerdem stellt man fest, daß die Transmittanzen r[, r'^, . . . , x'n-\unabhängig von den Transmittanzen der im Punkt n verbundenen Zweige sind. Man kann deshalb sagen, daß die Determinante A eine lineare Funktion der Transmittanzen der Graphenzweige ist und daß im Ausdruck der Determinante Produkte der Transmittanzen konfluenter Zweige nicht erscheinen können. Die Linearität ist eine Folge der Tatsache, daß die Determinante A nicht von der Numerierungsfolge abhängig ist, und also der Reihe nach jeder Knotenpunkte als der Knotenpunkt n betrachtet werden kann. 5.4.11. Darstellung der Determinante des Graphen als Funktion der Transmittanzen der Maschen Wenn eine oder mehrere Transmittanzen in der Determinante gleich Null gesetzt werden, so erhält man eine neue Determinate A. Dieses ist die Determinante des Graphen, die aus dem Originalgraph durch Streichen eines oder mehrerer

201

5.4. Signal-Flußdiagramme

Zweige (die den gleich Null gesetzten Transmittanzen entsprechen) erhalten wird. Der auf diese Weise erhaltene Graph wird Untergraph genannt. Es ergibt sich, daß jedes Glied von A auch Glied von A ist, und folglich wird die Menge aller Untergraphen alle Glieder von A enthalten. Dieselbe Eigenschaft besitzt auch eine beschränktere Menge, nämlich die Menge nichtkonfluenter Untergraphen. Da kein Glied von A Produkt von Transmittanzen konfluenter Zweige ist, ergibt sich, daß die Determinante A der Menge nichtkonfluenter Graphen dieselben Glieder, wie die Determinante A enthält. Also können die Glieder der Determinante A durch Kenntnis der Glieder der Determinante A bestimmt werden. Definitionsgemäß enthält ein nichtkonfluenter Untergraph nur offene Maschen oder Bahnen, die sich nicht berühren. Ein Beispiel ist in Abb. 5.18 dargestellt.

9

Abb. 5.18. Nichtkonfluente Untergraphen

Die Determinante nichtkonfluenter Untergraphen kann leicht errechnet werden, da einige der Größen r'k gleich Null werden, während andere gleich den Transmittanzen ikfÄ der Maschen des Untergraphs sind. Es ergibt sich also, daß die Determinante A nichtkonfluenter Untergraphen nur aus Gliedern der Produkte von Maschen besteht, die sich nicht berühren. Zur Berechnung von A müssen alle Glieder der Menge nichtkonfluenter Graphen, oder anders gesagt, muß die Menge aller Maschen, die sich nicht berühren und die im Originalgraph enthalten sind, berücksichtigt werden. Danach kann die Graphendeterminante folgendermaßen ausgedrückt werden:

A = [(i - j f i M i - jf,)...(i

-

Mm)r,

(5.57)

wobei das Sternchen andeuten soll, daß diejenigen Glieder entfernt werden müssen, die Produkte von Transmittanzen oder Maschen, die sich berühren, enthalten.

202

5. Signalraum und Signal-Flußdiagramme

Die Beziehung (5.57) kann auch in der äquivalenten Form A = i -

E Mi + E n Mi -

2

E nMi

3

+ ... + ( -

lyEnMi

-

r

(5.58)

ausgedrückt werden, worin nur die Transmittanzen der Maschen, die sich nicht , berühren, vorkommen. 5.4.12. Allgemeine Darstellung der Transmittanz des Graphen Es soll wie in Abschnitt 5.4.6. die Transmittanz des Graphen zwischen den Knotenpunkten^' und k bestimmt werden. Dazu wird ein äußerer Knotenpunkt, der (n + l)-te, hinzugefügt, der durch zwei Zweige mit den Knotenpunkten j und k verbunden ist (Abb. 5.19).

Abb. 5.19. Einführung eines zusätzlichen Knotenpunktes für die Berechnung der Transmittanz des Graphen A — die eisten n Knotenpunkte

Auf diese Weise erhält man einen neuen Graph mit (n + 1) Knotenpunkten, dessen Determinante mit A' bezeichnet werden soll. Der neue Graph, der nach Hinzufügung des Knotenpunktes n + 1 entsteht, besitzt eine Maschenzahl, die um p größer als die Maschenzahl des Originalgraphen ist. Nach der Beziehung (5.57) kann die Determinante des Graphen wie folgt ausgedrückt werden: A' = [(1 -

MJ (1 - Mt) • • • (1 - Mm) (1 - Mm+1)...

(1 -

Mm+p)]*

,

oder, wenn man m + 1 = k setzt: A' -

{(1 -

M,)(l

-

M2)---(l

~Mm)

[1 — 2? Mk + E JJMk

+

•••]}*•

2

Da die Glieder, die Produkte der Form 77 Mn enthalten, gleich Null werden (die Maschen Mk berühren sich, da sie den Knotenpunkt n + 1 passieren), ergibt sich A' = [(1 - MJ (1 - Mt) ••• (1 - Mm) (1 - E

Mk)]*

,

oder A' = A-EMkAk,

(5.59)

wobei Ak die Determinante ist, die dem Teil des Graphen entspricht, der die neuentstandenen Maschen Mk nicht berührt.

5.4. Signal-Flußdiagramme

203

Wenn der K n o t e n p u n k t n + 1 aufgespaltet wird und man mit T die Maschentransmittanz r ' n + 1 dieses Knotenpunktes bezeichnet, ergibt sich unter Berücksichtigung der Beziehung (5.56): A' = A (1 - T) .

(5.60)

Durch Einsetzen in die Beziehung (5.59) entsteht T = ±-ZMkAh.

(5.61)

Da die Masche Mk durch Aufspaltung des Knotenpunktes n 1 unterbrochen wird, wird aus der Transmittanz Mk die Transmittanz der Bahn k zwischen dem aufgespalteten Eingangsknotenpunkt und dem aufgespalteten Ausgangsknotenpunkt und kann infolgedessen als Bk = Mk bezeichnet werden. Mit dieser Bezeichnung kann die Beziehung (5.61) folgendermaßen geschrieben werden: T =±-ZBkAk,

(5.62)

hierin ist T ' — die Transmittanz des Graphen zwischen dem Eingangs- und dem Ausgangsknotenpunkt (siehe Abschnitt 5.4.6.); Bk — die Transmittanz der Bahn k zwischen dem Eingangs- und dem Ausgangsknotenpunkt ; A — die Determinante des Graphen; An — die Determinante von dem Teil des Graphen, der die Bahn k nicht berührt (auch Kofaktor der Bahn k genannt).

Abb. 5.20. Beispiel zur Berechnung der Transmittanz eines Graphen

U m die Anwendungsmöglichkeiten der Beziehung (5.62) zu erläutern, wird der Graph der Abb. 5.20 betrachtet. F ü r diesen Graph h a t man B1 = bd; B2 = ac; 15

Spätaru

A1 = 1 — g; A2 = 1 — h;

204

5. Signalraum und Signal-Flußdiagramme ß3 =

b e c;

J =

1 -

4 = 1 ; 4

T

=

(g +

ef

+

(1 - g ) 6 r f + (l -K)ac+]bec

h) +

= 1 _(gr + e / + Ä ) +

Äp;

h g .

+ afd

+ i[\

1 - g - e f - h +

- (g + ef + h) + g h]

gh

I n einigen Fällen wird die Berechnung einfacher, wenn statt der Beziehung (5.62) die äquivalente Beziehung T

=

+

B2 + -.-+Bk)(

1 -

Mr) (1 - . « , ) . • . (1 -

[ ( 1 - ^ ( 1 - Mt)...(l

-

Mm)]*

Mm)] *

(5.63)

verwendet wird; das Sternchen bedeutet, daß die Glieder weggelassen werden müssen, die Produkte von Maschen oder Bahnen, die sich nicht berühren, enthalten.

6. L I N E A R E S T A T I O N Ä R E

SYSTEME

Die linearen stationären Systeme spielen bei den Problemen der Informationsübertragung eine sehr wichtige Rolle. Den Grund dafür bildet die Tatsache, daß diese Systeme mit einem ziemlich einfachen mathematischen Apparat untersucht werden können u n d daß eine weite Klasse von praktischen Systemen durch lineare Systeme angenähert werden kann.

6.1. Beschreibung linearer stationärer Systeme I n den verschiedenen Elementen des Übertragungskanals von der Nachrichtenquelle bis zum Nachrichtenempfänger werden die Signale einer Reihe von Transformationen unterworfen. I n der Folge wird als System entweder die Gesamtheit oder einzelne Elemente des Übertragungskanals bezeichnet. I m allgemeinen wandelt ein System ein Eingangssignal x(t) in ein Ausgangssignal y(t) um. Jedem System kann also ein Funktionaloperator zugeordnet werden, der den R a u m X des Eingangssignals x(t) in den R a u m F des Ausgangssignals y(t) transformiert. Wenn der Operator linear ist, so ist auch das entsprechende System linear. Wenn der Operator parametrisch oder nichtlinear ist, ist auch das System parametrisch oder nichtlinear. I m folgenden wird mit W der Operator bezeichnet, der ein beliebiges gegebenes System charakterisiert. Wenn mit x(t) das Eingangssignal und mit y{t) das Ausgangssignal bezeichnet wird, so gilt = y(t) . (6.1) Der Operator W, bzw. das System ist linear, wenn V {xj(i) + x2(t)} = Vl(t) + y2(t) (Überlagerungssatz)

(6.2)

W{X x(t)} = X xP{x(t)} (X = konstant)

(6.3)

und ist. Die Beziehung (6.2) besagt, daß die Antwort des linearen Systems auf eine Summe von Signalen gleich der Summe der Antworten ist, die m a n erhalten hätte, wenn das System mit jedem Signal einzeln beaufschlagt worden wäre. 15*

206

6. Lineare stationäre Systeme

Die Beziehung (6.3) besagt, daß auch das Ausgangssignal ¿-mal größer wird, wenn das Eingangssignal A-mal vergrößert wird. Der Operator W bzw. das System wird zeitinvariant genannt, wenn W

{x (t +

r)}

=

y (t

+ t)

(6.4)

ist, d. h., daß die durch die Beziehung (6.4) gegebene Transformation nicht von der Zeit abhängt (im Gegensatz zu linearen zeitabhängigen bzw. parametrischen Systemen). In diesem Kapitel werden nur die linearen zeitinvarianten Systeme behandelt. Es wird erst einmal vereinfachend angenommen, daß das Eingangssignal durch eine endliche Summe von Komponenten dargestellt werden kann x(t) =

S ak k= l

(6.5)

vk(t),

wobei vk(t) ein System orthonormierter Funktionen bildet. Es wird ebenfalls angenommen, daß der dem System zugeordnete Operator bekannt und durch die Matrix 3 V - •fin ~

pPn

^22 •

^21

(6.6)

ff JS1 ^«2 ' gegeben ist. Ebenso wie das Eingangssignal kann auch das Ausgangssignal bei bekannten Koeffizienten in der Form y{t) =

E b

k

(6.7)

vk(t)

k=1

dargestellt werden. Die Koeffizienten bk ergeben sich aus dem Gleichungssystem ^ n «i ^21«! !fiii %

+

+

W12a2

+ az +

n2

, •

' >+

in an



'•>



=

®2 "1" ' ' • j

^nn

(6.8) ==

K-

Wegen der Linearität des Systems, gekennzeichnet durch die Beziehungen (6.2) und (6.3), kann die Antwort auf jede Komponente des Eingangssignals getrennt berechnet und die gesamte Antwort durch Summierung der einzelnen Antworten erhalten werden. Einem System können mehrere, untereinander äquivalente Operatoren zugeordnet werden. Die Struktur des Operators muß der Art und Weise, in der die Synthese des Signals durchgeführt wird, entsprechen.

6.1. Beschreibung linearer stationärer Systeme

207

Es werden zwei Fälle betrachtet, die auch im Kapitel 3 behandelt wurden und zwar: 1. die Synthese des Signals wird mit Hilfe von Exponentialfunktionen durchgeführt (der Operator ist im Bereich der komplexen Frequenz bestimmt); 2. die Synthese des Signals wird mit Hilfe von DiEACSchen ¿-Funktionen durchgeführt (der Operator ist im Zeitbereich bestimmt). 6.1.1. Bestimmung des Operators f im Frequenzbereich Es wird angenommen, daß die Funktionen v^it) die Form vk{t) = ek*°t haben, also daß das Signal aus exponentiellen Komponenten zusammengesetzt ist. Da der Operator voraussetzungsgemäß linear und zeitinvariant ist, werden für i 4= k alle Elemente Wik = 0 und es ist "fll 0 0

0

• • -0

^22 ' •0 0

• * ^WB

Wenn die Elemente W a außerhalb der Hauptdiagonale nicht gleich Null wären, würde das bedeuten, daß z.B. ein Eingangssignal ePot durch die Elemente W21, l F n , . . . , Wni auch Ausgangssignale der komplexen Frequenzen 2 p0, 3 p0, . . . , n pa erzeugen würde. Dies ist bei einem linearen System, d. h. bei einem System, für das der Überlagerungssatz (6.2) gilt, nur dann der Fall, wenn der Operator bzw. das System zeitvariant, d. h. parametrisch ist. Bei nichtlinearen Systemen ist eine gliedweise Anwendung des Operators auf die einzelnen Komponenten des Signals unzulässig, da hierfür die Beziehung (6.2) nicht gilt. Für ein lineares zeitinvariantes System kann deshalb das Gleichungssystem 6.8 im vorliegenden Fall in der Form f «

für

t=l,2J...,n

(6.9)

geschrieben werden. Die Komponente Wkk des Operators ist von der physikalischen Struktur des Systems bestimmt und ergibt für die Transformation der Amplitude eines exponentiellen Signals mit der komplexen Frequenz k p0 beim Durchgang durch das System die Beziehung (6.9). Diese Komponente wird Übertragungsfaktor des Systems genannt und mit Wkk = Wk= H(kp0) bezeichnet. Durch Einsetzen in die Beziehung (6.9) ergibt sich 6* = H (k p0)

.

(6.10)

(6.11)

208

6. Lineare stationäre Systeme

Wenn dieser Ausdruck in die Beziehung (6.7) eingeführt wird, so kann man für den Fall exponentieller Signalkomponenten schreiben n

y(t) = U H(kp0)akek^.

(6.12)

k=1

Es ist ersichtlich, daß die Antwort des Systems bestimmt werden kann, wenn die Übertragungsfaktoren H (k p0) für alle Werte k von k = 1 bis k = n bekannt sind. Wenn anstatt der Darstellung des Signals in Form einer endlichen Summe nach der Beziehung (6.5) eine Darstellung in Form eines Integrals nach der Beziehung (3.71) verwendet würde, so könnte das Signal x(t) folgendermaßen ausgedrückt werden: 0»+joo =

wobei

x ePtd f W Pa„-jco

\

[V \ 1 % I / / s

» r

Abb. 6.3. Komplexe Ebene für die Definition der Realisierbarkeit einer Übertragungsfunktion im Frequenzbereich

6.2.3. Physikalisch realisierbare Systeme Die vorher definierten Begriffe der Stabilität und Realisierbarkeit sind unabhängig. Wenn ein stabiles System auch realisierbar ist, so wird es physikalisch realisierbar genannt. Ein physikalisch realisierbares System kann aus passiven Elementen synthetisiert werden, doch kann es auch aktive Elemente wie z.B. Verstärker enthalten, wenn diese nur die Dämpfung verringern, ohne positive Rückkopplungen oder nichtlineare Effekte einzuführen. Die Bedingungen, die ein physikalisch realisierbares System erfüllen muß, sind die folgenden: 1. I m Zeitbereich: + oo / Ih(t) dt\ < + oo (6.37) — CO und Ti(t) = 0 für i 0) analytisch sein und keine Singularitäten auf der imaginären Achse besitzen. Ein äquivalentes Kriterium, nachdem man feststellen kann, ob eine Übertragungsfunktion H(a>) physikalisch realisierbar ist, ist das P A L E Y - W I E N E R Kriterium, welches behauptet, daß für + oo / = f ltog|g(J)\ den Betrag einer Übertragungsfunktion eines physikalisch realisierbaren Systems darstellt.

215

6.3. Bestimmung der Übertragungsfunktion *

Wenn / < + oo ist, dann kann |H ( j co) |2 = H(j co) H ( j co) gesetzt werden und es ist möglich, H ( j co) so auszuwählen, daß H(p) keine Pole in der rechten Hälfte (Re {p} < 0) der komplexen Ebene besitzt. 6.3. Bestimmung der Übertragungsfunktion aus der Lage der Pole und Nullstellen Eine weite Klasse von Systemen, nämlich diejenigen, die mit konzentrierten Elementen realisiert werden, besitzen als Übertragungsfunktion eine rationale • Funktion von p und zwar: _ a P m + am-iP™- 1 + • • • + « ! ? + «o

,(.

wobei die Koeffizienten reelle Zahlen sind. Wenn man die Pole und die Nullstellen der Übertragungsfunktion (die auch Vielfache sein können) kennt, so kann man schreiben: H ( p )

=

A

fr-^fr-*») (P

-

P i ) (P

• • • ( * » - « » ) . -

Ps)

• • • (P

-

( 6

.

4 1 )

Pn)

Da die Beziehungen (6.40) und (6.41) die gleiche Funktion darstellen, erhält man die Beziehungen (ViETAScher Wurzelsatz) /

m

— a m-1

£

=

k = n — b

n

_ !

=

Zk ; 1

S

p

k

.

k = 1

Auf ähnliche Weise können man

usw. bestimmt werden. Endlich erhält

am_2>

bm_2

=

1 )m % z2 ' ' '

t>0

(

>

=

Da die Koeffizienten ak und bk reell sind, müssen die komplexen Nullstellen und Pole in konjugierten Paaren erscheinen. Die durch die Beziehung (6.41) gegebene Übertragungsfunktion H(p) hat eine sehr allgemeine Form, da m und n beliebig groß sein können; folglich kann H(p) mit einer beliebigen Genauigkeit jede analytische konjugierte 1 ) Funktion approximieren. Durch Entwicklung der in der Beziehung (6.41) gegebenen Übertragungsfunktion H(p) in Partialbrüche erhält man H ( p )

=

C

t

p *

+

G

k

_

1

+

p

k

~

1

+

P

~

. . .

+ P

~

Pi

+ Pi

+

C

2

p * +

C

l

+

P

+ C

0

+

(6.42) ( P ~

Pi)

x ) Die komplexen Pole und Nullstellen einer analytischen konjugierten Funktion müssen konjugiert sein.

215

6.3. Bestimmung der Übertragungsfunktion *

Wenn / < + oo ist, dann kann |H ( j co) |2 = H(j co) H ( j co) gesetzt werden und es ist möglich, H ( j co) so auszuwählen, daß H(p) keine Pole in der rechten Hälfte (Re {p} < 0) der komplexen Ebene besitzt. 6.3. Bestimmung der Übertragungsfunktion aus der Lage der Pole und Nullstellen Eine weite Klasse von Systemen, nämlich diejenigen, die mit konzentrierten Elementen realisiert werden, besitzen als Übertragungsfunktion eine rationale • Funktion von p und zwar: _ a P m + am-iP™- 1 + • • • + « ! ? + «o

,(.

wobei die Koeffizienten reelle Zahlen sind. Wenn man die Pole und die Nullstellen der Übertragungsfunktion (die auch Vielfache sein können) kennt, so kann man schreiben: H ( p )

=

A

fr-^fr-*») (P

-

P i ) (P

• • • ( * » - « » ) . -

Ps)

• • • (P

-

( 6

.

4 1 )

Pn)

Da die Beziehungen (6.40) und (6.41) die gleiche Funktion darstellen, erhält man die Beziehungen (ViETAScher Wurzelsatz) /

m

— a m-1

£

=

k = n — b

n

_ !

=

Zk ; 1

S

p

k

.

k = 1

Auf ähnliche Weise können man

usw. bestimmt werden. Endlich erhält

am_2>

bm_2

=

1 )m % z2 ' ' '

t>0

(

>

=

Da die Koeffizienten ak und bk reell sind, müssen die komplexen Nullstellen und Pole in konjugierten Paaren erscheinen. Die durch die Beziehung (6.41) gegebene Übertragungsfunktion H(p) hat eine sehr allgemeine Form, da m und n beliebig groß sein können; folglich kann H(p) mit einer beliebigen Genauigkeit jede analytische konjugierte 1 ) Funktion approximieren. Durch Entwicklung der in der Beziehung (6.41) gegebenen Übertragungsfunktion H(p) in Partialbrüche erhält man H ( p )

=

C

t

p *

+

G

k

_

1

+

p

k

~

1

+

P

~

. . .

+ P

~

Pi

+ Pi

+

C

2

p * +

C

l

+

P

+ C

0

+

(6.42) ( P ~

Pi)

x ) Die komplexen Pole und Nullstellen einer analytischen konjugierten Funktion müssen konjugiert sein.

216

6. Lineare stationäre Systeme

In dieser Entwicklung kommen drei Typen von Gliedern vor und zwar: 1. Die Glieder des Typs Ck pk, die bei Dauerbetrieb für ein EingangssignaJ der Form e^mt ein Ausgangssignal dfer Form (j u>)k Ck ejat bewirken. Die Antwort (J CO)K Ck eimt wächst mit steigendem OJ gegen Unendlich, was mit der physikalischen Realität im Widerspruch steht, da ein Eingangssignal von begrenzter Amplitude in einem stabilen System kein Ausgangssignal von unendlicher Amplitude hervorrufen kann. Dies bedeutet, daß die Glieder, die eine solche Antwort geben, gleich Null sein müssen: Ct = C2 = • • • Ck = 0 bzw. die Zahl der Nullstellen muß kleiner oder höchstens gleich der Zahl der Pole sein (m '"*>',

=

-

entsprechend der Beziehung Hr(p)

oder

Yr{p)

X(p)

p -

'

A

Pr'

p Yr(p) - pr Yr(p) = Ar X(p) .

(6.43)

Wenn p als ein Differentiationsoperator betrachtet wird, so kann man schreiben ^¿yAt)

~ PTVS)

=

Arx(t)

,

wovon man zur charakteristischen Gleichung A - pr =

0

bzw. zur Lösung, des Einschwingsvorganges yr(t) = B e?'1 = B e

"*>' (6.44) gelangt. Wenn a r > 0 ist, ist das System nicht stabil, da sich ein Ausgangssignal, das exponentiell mit der Zeit anwächst, ergibt, ohne daß irgendein Eingangssignal gegeben ist. Wenn a r = 0 ist, besitzt der Einschwingvorgang eine konstante Amplitude und das System — da es sich in einem Grenzzustand befindet — kann konventionell als stabil oder nichtstabil betrachtet werden. Wenn man die durch die Beziehung (6.28) gegebene Definition der Stabilität annimmt, entspricht dieser Zustand einem nichtstabilen System. Wenn aT < 0 ist, so klingt der Einschwingvorgang exponentiell mit der Zeit ab und man sagt, daß das System stabil ist.

6.3. Bestimmung der Übertragungsfunktion

217

Wenn die Übertragungsfunktion H(p) in der rechten Hälfte der komplexen Ebene mehrere Pole hat, so wird das System Schwingungen von mehreren Frequenzen erzeugen, wobei die Schwingungsfrequenz durch den imaginären Teil des Poles gegeben und die Anklinggeschwindigkeit der Schwingungen dem reellen Teil des Poles proportional ist. 3. Die Glieder des Typs

A(p -

PiY

geben eine Einschwingantwort der Form

Vi{t) = (c0 + ¿11 + c2 i» + • • • + c r _ ! t ' " 1 ) e*« ,

(6.45)

218

6. Lineare stationäre Systeme

die eine Lösung der Gleichung (p-*>,)'r)(jc°-f. Pi) (j 0) Pi)

j co — z1 = Z1 e3'"1; * ja) - zx = Z1e^'i; j co — p1 = Px ejßi; *

,

j a> — px = Pi e^i

(6.48)

(649)

6.3. Bestimmung der Übertragungsfunktion

219

einführt, so erhält man H(j(o)

wobei A

= A

ZJ}lZ},"'

e? + "i h

• -ft

: • •) = \H (j co)\ * ,

(6.50)

Z 1 Z' ) der Betrag und 0 die Phase der Übertragungsfunktion sind. P1P1 • • •

In Abb. 6.5 ist der Fall mit zwei Polen und zwei Nullstellen dargestellt. Wenn sich die Nullstellen in der linken Hälfte der komplexen Ebene befinden, besitzt die Phase der Übertragungsfunktion einen minimalen Wert 0 = «! + «i

-

ß1 ~ ß[ .

Es handelt sich in diesem Fall um eine Übertragungsfunktion minimaler Phase. ^ Wenn sich aber die Nullstellen in den Punkten z ]s und zls befinden würden, * die symmetrisch zu z1 und z1 bezüglich der imaginären Achse sind, so würde der Betrag der Übertragungsfunktion derselbe bleiben, und die Phase wäre 0 = 2n-) Dämpfung genannt und in Neper ausgedrückt wird. Nach Einsetzen in die Beziehung (6.60) erhält m a n H ( j co) = e«m)

.

(6.62)

Durch die Beziehung G(p) = In H(p)

(6.63)

kann eine neue Funktion G(p) definiert werden, und auf Grund der Beziehung (6.62) k a n n man schreiben G(j o)) = In H ( j co) = ) die Phase der Übertragungsfunktion darstellt. Die Dämpfung der Übertragungsfunktion ist «(co) = In ^4(co) .

(6.69)

Wenn H(p) eine Übertragungsfunktion minimaler Phase ist, dann ist die Funktion G ( j co) = In ff ( j co) — «(co) + j 0(co) (6.70) in der rechten Halbebene analytisch und man kann die HiLBERT-Transformation (s. Anhang II) +00

0(co) = -

n

angeben.

f v — a> — 00 J

(6.71)

224

6. Lineare stationäre Systeme

an Stelle H(j co) in die Beziehung (6.59) eingeführt werden, und man erhält einen neuen Ausdruck für den Satz der Phasenfläche und zwar oo J 0(OJ) dw =-J [«(oo) - «(0)]. (6.66) o Diese Beziehung besagt, daß die mit — multiplizierte Differenz zwischen der 2

Dämpfung (in Neper ausgedrückt) für die Frequenz Unendlich und Null gleich der Fläche ist, die von der Phasenfunktion über der logarithmischen Frequenzachse eingeschlossen wird. Führt man die Funktion G(j co) in die Beziehung (6.56) ein, so erhält man oo f [«(co) - «(oo)] dco = —J- lim [co )] , (6.67) ^ to-*-oo 0 worin im Gegensatz zu der vorigen Beziehung der logarithmische Frequenzmaßstab nicht eingeführt ist. Die Beziehung (6.67) wird Satz der Dämpfungsfläche genannt. Das Integral in der Beziehung (6.67) ist nur dann beschränkt, wenn CP(co) mit co -s- oo gegen Null geht. Wenn 0(co) nicht gegen Null geht, so ist das Integral unendlich. Wenn H(p) eine Nullstelle im Unendlichen besitzt, so ist af oo) = — 00 und die von der Dämpfungskurve bestimmte Fläche ist unendlich. Wenn die Dämpfung a(oo) begrenzt ist, so ist für Systeme minimaler Phase die Phase bei der Frequenz Unendlich gleich Null (das Integral der Beziehung (6.67) konvergiert.) J

6.5. Dämpfung und Phase der tjfcertragungsiunktion Wie vorher gezeigt wurde, kann die Übertragungsfunktion ff ( j co) in exponentieller Form geschrieben werden: H ( j co) = | ff ( j co)|

= A{(o) e

,

(6.68)

wobei A(w) den Betrag und &(a>) die Phase der Übertragungsfunktion darstellt. Die Dämpfung der Übertragungsfunktion ist «(co) = In ^4(co) .

(6.69)

Wenn H(p) eine Übertragungsfunktion minimaler Phase ist, dann ist die Funktion G ( j co) = In ff ( j co) — «(co) + j 0(co) (6.70) in der rechten Halbebene analytisch und man kann die HiLBERT-Transformation (s. Anhang II) +00

0(co) = -

n

angeben.

f v — a> — 00 J

(6.71)

225

6.5. Dämpfung und Phase der Übertragungsfunktionen

Aus der Beziehung (6.71) ergibt sich, daß bei bekannter Dämpfung oc(co) einer Übertragungsfunktion minimaler Phase auch die Phase

U)

Abb. 6.8. Amplitudencharakteristik eines idealen nichtrealisierbaren Tiefpasses

226

6. Lineare stationäre Systeme A(UJ)

/

-0J1

0

W

Abb. 6.9. Amplitudencharakteristik eines realisierbaren Tiefpasses

teristik nicht bis auf Null abfallen würde (Abb. 6.9), so würde das betreffende Filter realisierbar sein, wie klein auch immer e wäre. I n diesem Falle könnte die Phase des Filters (Abb. 6.10) nach der Beziehung (6.71) folgendermaßen ausgedrückt werden: (6.73) Aus der Beziehung (6.73) ist ersichtlich, daß für e = 0 &(io) unendlich wird. Auf diese Weise kann die Nichtrealisierbarkeit mathematisch dadurch ausgedrückt werden, daß einer nicht realisierbaren Amplitudencharakteristik eine unendliche Phase entspricht. Man kann annehmen, daß eine nichtrealisierbare Amplitudencharakteristik durch eine unendliche Kette von realisierbaren f i l t e r n erhalten werden kann. Aus dem vorigen Beispiel ist leicht ersichtlich, daß aus einer unendlichen Kette von Filtern mit einer in der Abb. 6.9 angegebenen Charakteristik eine in der Abb. 6.9 dargestellte Charakteristik erhalten werden kann, weil e )| = k m2 zu schnell mit der Frequenz wächst, so daß das durch die Beziehung (6.72) gegebene Integral divergiert. Die Phase, die der Charakteristik A(w) entspricht und die durch die HiLBERT-Transformierte gegeben ist, ist unendlich. Das GAUSSsche Filter kann durch eine große Zahl von hintereinander geschalteten iJC-Gliedern angenähert werden, so wie in Abb. 6.12 gezeigt wird. Die Übertragungsfunktion dieses Systems ist Hn(j o>) = K (1 + j a> BC)~"

(6.75)

wobei n die Zahl von Stufen bzw. von i? (7-Gliedern und K eine Konstante, die gleich Eins angenommen wird, darstellen. Es ist also H n ( j w ) = (1 + j a > B C ) - * , (6.76)

Abb. 6.12. System, das die Charakteristik eines ÖAtrssschen Filters annähert

228

6. Lineare stationäre Systeme

und man erhält für die entsprechende Amplitudencharakteristik n |Hn (j co)| = An(a>) = [1 + (co RCf] ~ T.

(6.77)

Wenn durch co1 die Frequenz bezeichnet wird (Bandbreite), bei der sich eine Dämpfung von 3 dB ergibt, so hat man - L = [1 + (coj B G f ] W

woraus sich ergibt

T

= RC = — (2n

2,

(6.78)

- 1)

Näherungsweise kann man schreiben l 2 - 1 «—In 2 . n

(6.79)

Unter Berücksichtigung von (6.78) und (6.79) wird aus Beziehung (6.76) =

(6-80)

und die Amplitude =

'

+

( 8

'

8 1 )

Aus der Beziehung (6.80) ergibt sich, daß die Phase (6.82)

^«(w) = n a r c tan —l/-^-?co, /

n

ist. Wenn man die Bedingung stellt, daß auch das GAtrsssche Filter für o> = ü)1 eine Dämpfung von 3 dB besitzen soll, so erhält man aus der Beziehung (6.74) 2 - k co.

1 w

woraus sich ergibt

k -

1

-ln2

Durch Einsetzen in die Beziehung (6.74) entsteht o>* In 2

(6.83)

A(o>) = e Die Beziehung (6.81) kann folgendermaßen geschrieben werden: aß An(w) =

[ l + ^ — Y \ o>\ n j

In 2 2

(6.84)

6.5. Dämpfung und Phase der Übertragungsfunktionen

229

woraus sich ergibt, daß lim An(co) = A(co) = e

(6.85)

ist; also strebt die Amplitude der Übertragungsfunktion Hn(j co) gegen die Amplitude des idealisierten GAtrssschen Filters, während die Phase 0n(o~>) mit n unendlich wächst. I n den Anwendungen kann das GAtrsssche Filter mit einer verhältnismäßig kleinen Zahl von RC-Gliedern angenähert werden. 6.5.3. Filter mit der Amplitudencharakteristik sin co r , sin2 co r und co t (co t) 2 Die Amplituden Charakteristiken (Abb. 6.13): A 1 (co) =

(6.86)

und Az(m)

=

(6.87)

(COT)2

erfüllen das PALEY-WiENER-Kriterium. Die entsprechenden Phasengänge sind linear: &1(co) = cor und 2(a>) = 2 cor, so daß die Übertragungsfunktionen folgendermaßen ausgedrückt werden können: sin co r „jmr (6.88) H1(j

Abb. 6.13. Amplitudencharakteristik einiger Filter sin w T 1 _ ( = A I



M )

=

230

6. Lineare stationäre Systeme

Obwohl ^ij(oj) und A2(a>) das PALEY-WIENER-Kriterium erfüllen, bedeutet das nicht, daß diese Funktionen mit ihrer unendlichen Zahl von Bögen exakt mit einer endlichen Zahl von Widerständen, Spulen und Kondensatoren realisiert werden können. Durch eine Folge von Filtern, die aus konzentrierten Elementen bestehen, können jedoch die Funktionen At(co) und A2(OJ) mit einem beliebig kleinen Fehler angenähert werden (Abb. 6.14). L,

Lz

Ln

H H

HH

Hl-

Cr

Cn

Abb. 6.14. System, das die Amplitudencharakteristik der Abb. 6.13 annähert

Zum Unterschied zu den vorigen Fällen, für die das Paley-WIENER-Kriterium nicht erfüllt war, konvergiert in diesem Fall die Phase gegen a> bzw. 2 a> so, wie die Zahl der Glieder wächst. Die Funktionen H^j w) und H2(j u>) können exakt mit einer endlichen Zahl von Leitungen mit Verteilten Parametern realisiert werden. Somit kann man sagen, daß die Amplitudencharakteristiken, die das PALEYWIENER-Kriterium erfüllen, entweder näherungsweise mit Hilfe einer endlichen Zahl von R, L, (7-Gliedern, oder exakt mit Hilfe einer unendlichen Zahl von R, L, (7-Gliedern (bzw. einer endlichen Zahl von Leitungen mit verteilten Parametern) realisiert werden können. Die Amplitudencharakteristiken, die nicht das PALEY-WIENER-Kriterium erfüllen, können nicht exakt realisiert werden, aber mit beliebiger Genauigkeit über jedem begrenzten Frequenzintervall angenähert werden. J e besser die Annäherung ist, um so größer ist die Laufzeit durch das Filter (die Phase wächst bis ins Unendliche, je größer die Zahl der Glieder ist). 6.6. Laufzeit und Gruppenlaufzeit Am Eingang des Systems, das durch die Übertragungsfunktion H(co) =

A((»)

gekennzeichnet ist, wird ein sinusförmiges Signal x(t) = ei«"1

(6.90)

angelegt. Die Antwort des Systems ist y(t) = H(w0) eJ tUoi = A{co0)

"o*+* — co0 — Aco)]

.

Die Zeit der Lokalisierung des Eingangssignals ist tj = 0, da zu dieser Zeit das Signal den Maximalwert, der gleich 2 ist, erreicht. Das Ausgangssignal ist + 00

y(t) = J _ ¿71

oder

2n[d(co-co0)+d(co-co0-Aco)]A(w)e^^e^'°tdw,

f

J

0

y(t) = A(a>0)

e ^ ' l e3™0' + A (co0 +

Am)


0 (der Integrationsweg befindet sich in der linken Halbebene der Abb. 6.45) f Hjüp) H1(-p)e^dp

= 2 n j . . ^ e

RC

Abb. 6.44. Darstellung der Leistungsspektraldichte am Ausgang des ÜC-Filters der Abb. 6.43

während man für r < 0

J

+ oo

H^p)

H^-

p) epr dp = 2Inj

2 HC

eRC

— oo erhält. Nach Einsetzen .in die Beziehung (6.205) ergibt sich

(6.206)

I n der Abb. 6.46 ist die Autokorrelationsfunktion am Ausgang des RCFilters dargestellt, wenn am Eingang weißes Rauschen angelegt ist.

261

6.9. Übertragung zufälliger Signale

Abb. 6.45. Integrationsweg in der komplexen Ebene zur Auswertung der Autokorrelationsfunktion nach der Beziehung (6.205)

0 T Abb. 6.46. Darstellung der Autokorrelationsfunktion am Ausgang des ifC-Pilters der Abb. 6.43

Die mittlere Leistung des Ausgangsrauschens ist 1 0) = N ° ~2~ ' 2BC '

(6.207)

wobei die Beziehung (6.206) wie folgt geschrieben werden kann lr | B&)

= ^(0)

e

RC

'

(6-208)

2. I m Fall des Ciü-Filters (Abb. 6.47) ist die Leistungsspektraldichte am Ausgang bei weißem Rauschen am Eingang = 1 N0 |H2(co)\* ,

(6.209)

wobei \Hz(o))\2 durch die Beziehung (6.129) mit (co HC)2 l+^RCf

, „ . ,12 l ^ l =

(6.210)

gegeben ist. Wenn man den Ausdruck (6.210) in die Beziehung (6.209) einführt, so ergibt sich für die Leistungsspektraldichte am Ausgang (Abb. 6.48) ^

=

i

(co RCf {toRCf

+

(6.211)

262

6. Lineare stationäre Systeme

Abb. 6.47. (ZR-Filter

% H

0

ÜJ

Abb. 6.48. Darstellung der Leistungsspektraldichte am Ausgang des Cü-Filters der Abb. 6.47

Abb. 6.49. Darstellung der Autokorrelationsfunktion am Ausgang des CÄ-Filters der Abb. 6.47 Die Autokorrelationsfunktion des Ausgangsrauschens (Abb. 6.49) kann wie im vorigen Fall b e s t i m m t werden u n d ist B, , Ö { r )

1 ~2BC

Irl HC e

(6.212)

6.9. Übertragung zufälliger Signale

263

Die mittlere Leistung des Ausgangsrauschens ist unendlich B2(0) = -^L ¿(0) , da die Spektraldichte der Ausgangsleistung gegen N0 strebt, wenn m gegen Unendlich geht. 6.9.4. Rauschersatzbandbreite I n einigen Berechnungen wird der reale Bandpaß durch einen idealen Bandpaß ersetzt, dessen Bandbreite Aw (Abb. 6,50) durch die Beziehung 2 Aw A\w0)

+ oo

= f A2(w) dw = 2 / A2{w) dw

(6.213)

gegeben ist.

Abb. 6.50. Darstellung der Rauschersatzbandbreite

Wenn am Eingang weißes Rauschen angelegt wird, so kann man die Leistungsspektraldichte q() am Ausgang des Filters dadurch errechnen, daß man die Beziehung (6.213) mit der Leistüngsspektraldichte — N0 des weißen Rauschens multipliziert;

+ oo

+ oo

2 Ao) q(w0) = / q(a>) dw = 2 / q(w) dw . (6.214) o — oo Das Integral der Beziehung (6.214) ist gleich der mit 2 n multiplizierten mittleren Leistung des Ausgangssignals. Aus der Beziehung (6.213) ist ersichtlich, daß die Bandbreite AOJ als die Bandbreite eines idealen Filters mit einer Amplitudencharakteristik -4(a>)|jiax = = A(w0) definiert wird. Das Rauschen am Ausgang dieses Filters hat die gleiche mittlere Leistung wie am Ausgang des realen Filters mit der Amplitudencharakteristik A(w). Die Bandbreite Aw ist j A2(a>) d co Aw =

A2(e> o)

(6.215)

264

6. Lineare stationäre Systeme

oder

+00 f q(co) dco

(6.216)

oder (6.217) wobei B(0) die Korrelationsfunktion f ü r r = 0 bzw. die mittlere Leistung des Ausgangssignals ist. Diese Definition der Bandbreite — auch Rauschbandbreite genannt — ist im allgemeinen verschieden von der Definition, die einer D ä m p f u n g von 3 d B entspricht, aber bei vielen praktischen Anwendungen sind die Differenzen nicht groß, so daß die zwei Definitionen als nahezu äquivalent angenommen werden können. 6.9.5. Korrelationsdauer Beim Durchgang weißen Rauschens (dessen Autokorrelationsfunktion die DiBACsche ¿-Funktion ist) durch lineare Schaltungen werden u m so größere Einschränkungen eingeführt, je schmaler die Bandbreite der Schaltungen ist. I m Grenzfall einer ^unendlich schmalen Bandbreite würde die Schaltung n u r eine einzige Komponente durchlassen und das Signal würde seinen zufälligen Charakter verlieren. Als Maß der von einer linearen Schaltung eingeführten Einschränkung wird die Korrelationsdauer definiert. ' Analog zum vorigen Fall wird die Korrelationsdauer T0 durch die Beziehung 2 T 0 B{0) = f B(r) dr = 2 / B(r) dr — OO 0

(6.218)

definiert; r 0 bestimmt also eine Fläche, die der von der Korrelationsfunktion bestimmten Fläche (Abb. 6.51) gleich ist. ßfrjn

Abb. 6.51. Darstellung der Korrelationsdauer

265

6.9. Übertragung zufälliger Signale

Aus der Beziehung (6.128) ergibt sich + oo f B(T) dt

_o To

(6.219)

B( 0)



Für den Fall des idealen Tiefpasses ergibt sich durch Einführen des Ausdruckes (6.197) in die Beziehung (6.219) + 0O r ^ I S i H = j L = i T = (6.220) J * (Ol ">i 2 a)L 4 fx o

wobei /j die Bandbreite des Filters ist. I m Fall des idealen Bandpasses kann die Korrelationsdauer in einer ähnlichen Weise definiert werden, indem man in die Beziehung (6.219) statt B(T) die durch den Ausdruck (6.201) gegebene Hüllkurve einsetzt. In diesem Fall ergibt sich . + 00 . r Aa> sin

t

0

0

=

|

J_cZT = -?-Si(oo) =

r Am

1

Am

K

'

* = _ ! _ ,

Am

2 Af

(6.221)

v

'

2 wobei Af die Bandbreite des Bandpasses ist. Die Korrelationsdauer r 0 ist ein Maß für die Einschränkung, die das Übertragungssystem auf das Signal ausübt. Je kleiner die Bandbreite (bzw. oder Af) ist, um so größer ist die Einschränkung und folglich um so größer die Korrelationsdauer. 6.9.6. Übertragung GAüssscher Signale durch lineare Systeme I m Falle GAtrssscher Signale kann neben der Leistungsspektraldichte und der Autokorrelationsfunktion auch leicht die Wahrscheinlichkeitsdichte w(y) des Ausgangssignals bestimmt werden. Das ist deshalb möglich, da das Signal am Ausgang eines linearen Systems, wenn am Eingang ein GAUSSsches Signa) angelegt wird, ebenfalls eine GATJSSsche Wahrscheinlichkeitsverteilung besitzt. Diese Behauptung kann wie folgt erläutert werden: Man schreibt das Faltungsintegral für eine spezielle Realisierung ! w ( i ) des Signals f(£) und zwar + 0O F]W(t) =

f

|«(T)

h(t

—T) dz .

— oo

Tastet man das Signal durch Multiplikation mit der DrBACschen ¿-Funktion ab, so ergibt sich + 00 rfh\t)

ö(t

-

nT)

und nach Integration

=

8{t -

n T) • / £ (r) — oo

h { t - r ) d r ,

+ oo

rfh) {nT)

= JT |(t) h (n T - r) dx .

(6.222)

266

6. Lineare stationäre Systeme

Das Eingangssignal kann in folgender Form geschrieben werden: !

(6.223) wobei T =

die Abtastperiode bzw. TT die höchste Frequenz im Spektrum

des Eingangssignals ist. Wenn man den Ausdruck (6.223) in die Beziehung (6.222) einführt, so erhält man + 00 +00 j/*> (n T) = E (n T) f sn (z - n T) h (n T - z) dz . (6.224) n= — oo —oo Bezeichnet man + 0O F(nT) = f sn (z - n T) h (n T - r) dz , (6.225) —OO so ergibt sich rfk) (n T) =

-j- 00

N=

E F(n T) £ (w 2') , — oo

(6.226)

wobei die F (n T) als Gewichtskoeffizienten betrachtet werden können. Wenn £ (n T) eine GAtrsssche Verteilung besitzt, so ergibt sich aus der Beziehung (6.226) auch für rj (n T) eine GAtrsssche Verteilung, da die Verteilung einer Summe von GAtrssschen zufälligen Veränderlichen auch eine GAtrsssche Verteilung ist, die den Mittelwert ay — E a^ und die Dispersion a2y = E a\ hat i i (a4- und o-i sind der Mittelwert bzw. die Dispersion der Glieder der Summe). Es ist also •w{y) = —==e, ]/2 n a2s

ia

y

,

(6.227)

wobei der Mittelwert und die Dispersion des Ausgangssignals z. B. aus der Kenntnis der Korrelationsfunktion B(z) am Ausgang bestimmt werden können a = ]/B(oo) , ' K ' '

0) des zeitbegrenzten Signals nähert sich um so mehr dem Werte der Lei stungsspektraldichte p'-k\co0) des nichtbegrenzten Signals,,je größer T wird.

6.9. Übertragung zufälliger Signale

269

Wenn bei wachsendem T p^Xw0) nicht gegen einen Grenzwert strebt (man erhält schwankende Werte), so muß P r in mehreren Zeitintervallen T gemessen werden; man kommt zu den Ergebnissen P'y, Py 1 , . . . , P%\ deren Mittelwert pT = pm

» 1

n

£ pm k=1

(6.239)

ist. I n diesem Fall hat die Leistungsspektraldichte für die Frequenz co0 den ungefähren Wert

der gegen p(co0') strebt, je größer T wird. Durch Veränderung der Mittenfrequenz des Bandfilters bei konstanter Bandbreite erhält man die Leistungsspektraldichte des Signals £(t) als Funktion der Frequenz.

Abb. 6.54. Blockschema einer Einrichtung zur Messung der'Leistungsspektraldichte 1 — Multiplikation; 2 — Schmalbandiges Filter

Praktisch geht man so vor, daß man mit Hilfe eines lokalen Oscillators, dessen Frequenz in den Grenzen von a> = Wj — o>, bis co- = a>1 veränderlich ist (cüj ist die feste Mittenfrequenz des Bandfilters und a>„ ist die höchste Frequenz im Spektrum des Signals s(i)), eine variable Frequenzumsetzung durchführt (Abb. 6.54). 6.9.9. Bestimmung der Impulsantwort eines linearen Systems durch Kreuzkorrelation Es sei Bsr(r) die Kreuzkorrelationsfunktion zwischen dem Signal s(t) am Eingang und dem Signal r(t) am Ausgang eines linearen Systems, bzw. +T Rsr(r)

= l i m - L f s(t) r ( t + r ) d t . T-yoo L 1 J -T

(6.241)

Wenn man die Antwort durch ein Faltungsintegral ausdrückt, so erhält man +T Rsr(r) 19*

+00

= Hm - L f s(t) dt f h(u) s(t + r - u ) du. T-yoo 2 'T J J —T —oo

(6.242)

270

6. Lineare stationäre Systeme

Durch Änderung der Integrationsreihenfolge ergibt sich

+ 00 RsM

+T u

= f H ) du Hm J — f S(t) s(t+ J -00

und wenn man

T-vco

T

" T J —

r — u) dt,

(6.243)

+T lim J L f S(t) s (t + r - u) dt = Rss (r - u) £1

T-*oo

-T

J

(6.244)

in die Beziehung (6.243) einsetzt, so ergibt sich +00 = / h(u) Rt> (r — u) du . (6.245) —00 Demnach ist die Kreuzkorrelationsfunktion zwischen dem Ausgangs- und dem Eingangssignal gleich der Faltung der Impulsantwort mit der Autokorrelationsfunktion des Eingangssignals. Wenn das Eingangssignal weißes Rauschen ist, so ist die dem Eingang entsprechende Autokorrelationsfunktion Rss (r - u) = 1 N 0 d (T - U) .

(6.246)

Wenn man in der Beziehung (6.245) den Ausdruck (6.246) einsetzt, so erhält man R

s r

( r ) = ~ N

0

h ( r ) .

(6.247)

Wenn also am Eingang weißes Rauschen angelegt wird, so ist die Kreuzkorrelationsfunktion zwischen dem Eingang und dem Ausgang der Gewichtsfunktion des Systems direkt proportional. Diese Tatsache führt zu einem neuen Verfahren für die Messung der Impulsantwort nach dem in Abb. 6.55 dargestellten Schema.

Abb. 6.55. Bestimmung der Impulsantwort eines linearen Systems durch Kreuzkorrelation 1 — Weißes Häuschen; 2 — Lineares System; 3 — Korrelator

Der Ausgang des Korrelators ist h(r) proportional. Der Vorteil dieses Verfahrens im Vergleich zu klassischen Verfahren (punktweise Messung der Übertragungsfunktion oder Eingabe eines kurzen Impulses und Registrierung der Antwort) besteht darin, daß die Form der auf diese Weise erhaltenen Impulsantwort nicht von den Störungen beeinflußt wird, die von innen oder von außen in das System eingeführt werden, so lange diese Störungen nicht vom Eingangssignal abhängig sind.

7. L I N E A R E Z E I T V A R I A B L E

SYSTEME

Die linearen zeitvariablen Systeme spielen u. a. bei den Problemen der Informationsübertragung eine wichtige Rolle, die das Verfahren der Quantisierung im Zeitbereich benützen. I m folgenden werden die wichtigsten Probleme der linearen zeitvariablen Systeme analysiert.

7.1. Beschreibung linearer zeitvariabler Systeme Man betrachtet ein System, für das zwischen dem Eingangssignal x(t) und dem Ausgangssignal y(t) folgende Beziehung besteht: y(t) = W{x(t)}

.

(7.1.)

Das System ist linear, wenn der kennzeichnende Operator W die Beziehung ¥{ a, Xl(t) + a2 x2(t) } = a1V{ xß)}

+ aa ¥{ x j f ) }

(7.2)

erfüllt, wobei ax und a 2 beliebige Konstanten sind. Das lineare System ist zeitvariabel (nicht zeitinvariant oder nichtstationär), wenn W{x{t+r)}^y{t+r) (7.3) gilt. I m Falle zeitvariabler Systeme sind ein oder mehrere Parameter mit der Zeit veränderlich; deshalb werden diese Systeme auch parametrische Systeme genannt. Wie bei linearen zeitinvarianten Systemen kann der Operator entweder im Zeitbereich oder im Frequenzbereich bestimmt werden.

7.1.1. Impulsantwort I m Fall zeitvariabler Systeme ist die Impulsantwort sowohl vom Zeitpunkt des Anlegens des Signals als auch von der Zeit, zu der die Antwort ausgewertet wird, abhängig. Folglich wird die Impulsantwort eine Funktion von zwei Veränderlichen sein und zwar, erstens der Zeit, zu der die Antwort ausgewertet wird und zweitens

272

7. Lineare zeitvariable Systeme

der Verzögerungszeit, d. h. der Zeit, die zwischen dem Moment, in dem der Impuls angelegt wurde und dem Moment der Auswertung vergangen ist. Die Impulsantwort wird in diesem Falle durch h{t, r) bezeichnet. Für physikalisch realisierbare Systeme gilt h(t, r) = 0

für

r < 0 .

(7.4)

Wenn am Eingang des Systems ein Signal x(t) angelegt wird, so erhält man das Ausgangssignal mit Hilfe des Faltungsintegrals + oo

y(t) =

/

h(t,

T) X

(t - r) dr .

(7.5)

— oo

Die Beziehung (7.5) stellt den allgemeinsten Fall eines linearen Systems dar, in dem die Parameter des Systems einen beliebigen Zeitverlauf haben, der in der Funktion h(t,r) enthalten ist. Wenn das System zeitinvariant ist, dann ist h(t, r) = h(r) und die Beziehung (7.5) geht in die Beziehung (6.24) über. Für Anwendungen sind folgende Spezialfälle von besonderem Interesse: Systeme mit trennbarer Gewichtsfunktion und Systeme mit periodischer Gewichtsfunktion (periodisch veränderliche Parameter). 7.1.1.1. Systeme mit trennbarer Gewichtsfunktion Die Gewichtsfunktion hat die Form h(t,r) = / ( i ) 3 ( r ) .

(7.6)

Wenn man die Beziehung (7.6) in die Beziehung (7.5) einführt, so erhält man in diesem Fall + 00 y{t) = ; M 6(r) x (t T) dx — f(t) x(t) . (7.7) — 00

Die durch die Beziehung (7.6) gegebene Impulsantwort charakterisiert also eine Schaltung zur Multiplikation des Eingangssignals x(t) mit der Funktion f(t). Dieser Fall tritt wie in Abb. 7.1a dargestellt ist, für ein System mit unendlich großer Bandbreite und mit einer veränderlichen zeitabhängigen Verstärkung « = f(t), z. B. einem Spannungsteiler mit zeitvariablem Teilerverhältnis, ein. Bei Anwendungen wird im allgemeinen die Multiplikationsschaltung mit einem vor- oder nachgeschalteten Filter benützt, wie in den Abb. 7.1b und 7.1c gezeigt. I m ersten Fall (Abb. 7.1b) durchläuft das Eingangssignal x(t) ein lineares Filter mit konstanten Parametern mit der Gewichtsfunktion g(t) und wird anschließend mit f(t) multipliziert, um das Ausgangssignal y(t) zu erzeugen. I n diesem Fall ist die Gewichtsfunktion des Systems h(t,r)=g(r)f(t),

(7.8)

7.1. Beschreibung linearer zeit variabler Systeme

also das Produkt zwischen/(I) und der Antwort g(r) des Systems auf den schen , t) = f h{t,x)e~jazdx . (7.13) — 00 Wenn am Eingang des Systems das Signal x(t) = e 3m °' angelegt wird, so erhält man am Ausgang y(t) = H(o)0, t) ei"'1 = A(t) . (7.14) Wenn das System zeitinvariant wäre, würde die Amplitude A(t) konstant sein. Da das System aber zeitvariabel ist, ist auch die Amplitude des Ausgangssignals zeitvariabel und demnach wird das Spektrum des Ausgangssignals des linearen zeitvariablen Systems auch Komponenten enthalten, die im Spektrum des Eingangssignals nicht anwesend waren.

7.1. Bescnreibung linearer zeitvariabler Systeme

275

Um die Antwort y(t) des linearen zeitvariablen Systems auf ein Eingangssignal x(t) zu errechnen, muß in der Beziehung (7.5) x (t — x) durch das entsprechende FotTEiER-Integral + oo X(t- t) = ~ f X(cd) e i ) H{O), t) eiat dm . 2n J — oo

(7.17)

Aus dieser Beziehung darf nicht die Folgerung gezogen werden, daß X(co) x X H(A), t) identisch mit Y(A>) ist, da der Ausdruck X(OJ). H(A>, t) sowohl eine Funktion der Frequenz als auch eine Funktion der Zeit ist. Man kann aber eine Funktion Y(a>, t) durch die Beziehung Y(w, t) = X(w) H(w, t) (7.18) definieren. Mit dieser Definition wird aus der Beziehung (7.17) + oo 2,(i) = _L f Y(w, t) eimt da). (7.19) 2n J — oo Statt der durch die Beziehung (7.13) gegebenen Übertragungsfunktion, die sowohl von der Frequenz als auch von der Zeit abhängt, ist es in manchen Fällen nützlicher, eine von zwei Frequenzen abhängige Übertragungsfunktion zu verwenden. Diese kann erhalten werden, indem man die FouRiER-Transformierte der Funktion H{o, t), die als Zeitfunktion betrachtet wird, berechnet: + oo %{H{a), i ) } = / H(w,t)e-irtdt. (7.20) — oo Um die Veränderlichen besser hervorzuheben, werden folgende Bezeichnungen eingeführt: t'e^»>l*dt1dt2 . (7.21)

276

7. Lineare zeitvariable Systeme

Die Frequenz oj1 ist mit dem Zeitverlauf des Eingangssignals und die Frequenz cua mit dem Zeitverlauf der Parameter des Übertragungssystems verbunden. U m die Antwort eines linearen zeitvariablen Systems zu berechnen, m u ß eine bifrequente Spektraldichte des Ausgangssignals durch die Beziehung r22(coj, co2) = Xico-y) H^w^ cu2) definiert werden. I n diesem Fall wird die Antwort durch die Beziehung -f-oo H-oo f

y(t) = -J^r

Y22(co1; cOA) ej^ e3'®2' doh doh

J

— oo

(7.22)

(7.23)

~oo

gegeben. Tatsächlich erhält m a n mit der Rücktransformation des durch die Beziehung (7.20) gegebenen Ausdruckes + 00

f

H2(oh, Cü2) ¿«^ doj2

(7.24)

— 00

durch Einsetzen in die Beziehung (7.17) + 00 y(t) = y(t2) = — l y - J X f a ) — 00 oder + oo +oo y(t) = -{¿jr

f

J

— OO

—oo

+00 doh j H2(oh, w2) e^'1' dah —00

(7.25)

(7-26)

W e n n man die Definition (7.22) berücksichtigt, so ergibt sich gerade die Beziehung (7.23).

7.2. Diskrete lineare zeitvariable Systeme E s sei ein lineares zeitvariables System, dessen Gewichtsfunktion h(t, r) = dT(t) •

4o x*(t)

Abb. 7.4. Schalter S a) symbolische Darstellung; b) entsprechender Graph

Abb. 7.6. System mit Abtastung am Eingang und am Ausgang

Abb. 7.7. System mit Abtastung am Eingang 7.2.1. 3-Transformation Die Operatorenrechnung auf der Grundlage der LAPLACE-Transformation kann auch auf den Fall der abgetasteten Signale erweitert werden. Dies kann durch Verallgemeinerung des Integrals, das die Transformation definiert, erreicht werden, indem es durch ein STIELTJES-Integral ersetzt wird. Anstatt der LAPLACE-Transformierten, die durch die Beziehung 4- oo

ü{x(t)} = f o

x{t) e~ pt d t ,

(7.30)

7.2. Diskrete lineare zeitvariable Systeme

279

(die voraussetzt, daß x = 0 für t < 0 ist) definiert ist, wird eine andere Transformierte eingeführt, die mit Hilfe eines STIELTJES-Integrals definiert werden kann und zwar + 00 ß * {x{t)} = / x(t) e-r( dg(t) (7.31) o Das STIELTJES-Integral existiert für stetige Funktionen dann, wenn die Funktion, bezüglich der die Integration erfolgt, monoton ist. Die Tatsache, daß der letzteren die Stetigkeitsbedingung nicht vorgeschrieben wird, ermöglicht die Erweiterung des Anwendbarkeitsbereiches der Operatorenrechnung. Wenn man diese Funktion gleich t oder gleich einer stetigen (und differenzierbaren) Funktion von t wählt, so bedeutet das eine Rückkehr zur LAFLACETransformierten der gegebenen Funktion oder zur LAPLACE-Transformierten der mit g'(t) multiplizierten Funktion. Die Funktion g(t), die etwas Neues bringen kann, muß also unter den diskontinuierlichen (unstetigen) monotonen Funktionen gesucht werden. Es wird die Treppenfunktion (Abb. 7.8) ausgewählt: oo

g{t) = E u(t - n T ) , n=0

(7.32)

wobei u(t) die Einheitssprungfunktion ist.

t

Tj

t

Abb. 7.8. Die durch die Beziehung (7.32) gegebene Treppenfunktion

Durch formale Ableitung ergibt sich M L a t

=

Z d ( t - n T ) .

(7.33)

«=o

Wenn man den Ausdruck (7.33) in die Beziehung (7.31) einführt, so erhält man oo

£*{a;(f)} = Z x (n T) e-n?T n=0

.

(7.34)

280

7. Lineare zeitvariable Systeme

Gewöhnlich bezeichnet man

z = e? T,

und es ist

(7.35)

oo

2 * {*(«)} = 8 {*(«)} =

Z x ( n T ) z ~ n= 0

n

=

X * ( z )

.

(7.36)

Die Transformation (7.36) gibt die $-Transformierte von x(t) an. In einigen Fällen ist es nützlich, daß die Reihe (7.36) absolut konvergiert bzw. oo

Z I x{n T) z~ n\ < oo . (7.37) «=o Der Betrag von z ~ ist e ~ ° , und wenn die Bedingung (7.37) für einen gewissen Wert a — a 0 erfüllt ist, so ist sie auch für alle Werte a > a 0 erfüllt. Die Bedingung der absoluten Konvergenz beschränkt die Menge der Funktionen, für die das STiELTJES-Integral definiert ist, auf die Funktionen für die n

n T

f

o

\x(t)\

e~

dg(t)

a t