211 9 133MB
German Pages 520 [527] Year 1987
Handbuch der Systemtheorie Herausgegeben von
Prof. Dr.-Ing. habil. Gerhard Wunsch Technische Universität Dresden
Mit 180 Abbildungen und 18 Tabellen
R. Oldenbourg Verlag München Wien 1986
Autoren : Prof. Dr. habil. Gerhard Wunsch (Abschn. 1.) Prof. Dr. Rolf Unbehauen, Erlangen (Abschn. 2.1.) Doz. Dr. sc. Helmut Schreiber, Dresden (Abschn. 2.2.) Doz. Dr. sc. Manfred Locke, Leipzig (Abschn. 2.3.) Dr. Manfred Gössel, Berlin (Abschn. 3.1.) Prof. Dr. sc. Dieter Bochmann, Karl-Marx-Stadt (Abschn. 3.2.) Prof. Dr. sc. Horst Strobel, Dresden (Abschn. 4.1.) Prof. Dr. habil. Gunter Schwarze, Berlin (Abschn. 4.2.)
CIP-Kurztitelaufnahme der Deutschen Bibliothek Handbuch der Systemtheorie / hrsg. von Gerhard Wunsch. [Autoren: Gerhard Wunsch ...]. — München; W i e n : Oldenbourg, 1986. — I S B N 3-486 -20017-8 N E : Wunsch, Gerhard [Hrsg.]
Erschienen im Akademie-Verlag Berlin, DDR-1086 Berlin, Leipziger Str. 3 - 4 © Akademie-Verlag Berlin 1986 Ausgabe für R . Oldenbourg Verlag GmbH München Printed in the German Democratic Republic Gesamtherstellung: V E B Druckerei „Thomas Müntzer", 5820 B a d Langensalza Lektor: Dipl.-Phys. Gisela Lagowitz I S B N 3-486-20017-8
Vorwort
Das „Handbuch der Systemtheorie" wendet sich an alle in der Praxis stehenden Ingenieure und Naturwissenschaftler, die die Ergebnisse und Erkenntnisse der allgemeinen Systemtheorie für die Lösung konkreter Aufgaben der Analyse (Systemidentifikation), der Synthese (Entwurf) und der Prozeßmodellierung (Systemsimulation) nutzen wollen. Die Darstellung ist demzufolge möglichst anwendungsnah gehalten, so daß die wichtigsten Ergebnisse aus den verschiedenen Teilgebieten der Systemtheorie (Differentialsysteme, Automaten usw.) ohne tieferes Studium der Grundlagen verstanden und angewendet werden können. Erleichternd für den praktischen Gebrauch dieses Handbuches wird sich auch auswirken, daß (trotz verschiedener Autoren) dem gesamten Handbuch eine einheitliche und moderne begriffliche Konzeption zugrunde gelegt werden konnte, die in den wesentlichen Grundzügen in Abschn. 1 dargestellt wurde. Vorausgesetzt für die Nutzung dieses Handbuches werden nur Grundkenntnisse der allgemeinen Systemtheorie, wie sie heute im Grundstudium an den Hoch- und Fachschulen vermittelt werden. Zur Aneignung oder Auffrischung notwendiger Vorkenntnisse sei auf den Anhang zu Abschn. 1. hingewiesen. In Abschn. 2 werden die Grundlagen der Differential- bzw. Differenzensysteme behandelt, wobei alle wichtigen Aussagen oder Berechnungsmethoden an typischen Beispielen erläutert werden. Während für die Theorie linearer Systeme eine relativ natürliche Abgrenzung und innere Geschlossenheit sichtbar gemacht werden kann, ist die Theorie nichtlinearer Systeme nur schwer nach durchgehend einheitlichen Prinzipien zu behandeln. Hier mußte eine Auswahl getroffen werden, die notwendigerweise immer etwas subjektiv orientiert ist. Abschn. 3 enthält die Grundlagen der Systeme mit endlichen Alphabeten und diskreter Zeit, also die Theorie der (linearen) Automaten. Die linearen Automaten stehen zu den Differenzensystemen in relativ enger Verwandtschaft und sind wie diese theoretisch sehr leicht zu überblicken. Eine Verallgemeinerung dieser Systemklasse bilden die superponierbaren Systeme, auf die hier kurz eingegangen wird. Die („nichtlinearen") Automaten (Mealy-Automat, MooreAutomat) werden üblicherweise auf der Grundlage der Booleschen Algebra behandelt. Eine in gewisser Hinsicht natürlichere und leistungsfähigere Systembeschreibung erhält man aber, wenn den Systemalphabeten eine Ringstruktur aufgeprägt wird. Auch auf diese mathematische Form der Systembeschreibung wurde in den Grundzügen eingegangen und deren Leistungsfähigkeit am Beispiel erläutert (bezüglich der formalen Grundbegriffe sei hier besonders auf den Anhang zu Abschn. 1 hingewiesen). Der letzte und größte Abschnitt ist speziellen Anwendungen vorbehalten: Systemidentifikation und Systemsimulation.
VI
Vorwort
Kennzeichen von Softwaresystemen für die Systemsimulation ist besonders, daß dabei gleichzeitig detefminierte wie stochastische Einflüsse berücksichtigt werden können. Entsprechend der Zielstellung stehen die determinierten Modelle im Vordergrund, d. h., bei den Beschreibungen der meisten Beispiele und Systeme (Modelle) wurde dieser verallgemeinernde Aspekt weggelassen, wobei es problemlos für den Nutzer ist, wenn er die notwendigen Grundkenntnisse hat, die Softwaresysteme aufgrund der gegebenen Beschreibung auch voll zu nutzen. X)iö Begriffe und Benennungen auf dem Gebiet der Systemsimulation — rechnerunterstützte Modellierung und Simulation — sind auch heute noch nicht endgültig einheitlich. Bereits „Simulation" wird mit durchaus recht unterschiedlichen Begriffsinhalten verwendet. Es wurde angestrebt, im Handbuch die Vielfältigkeit widerspiegeln zu lassen und mit einer Version weitgehend durchgängig in diesem Abschnitt die weiteren Beschreibungen vorzunehmen. Es wurde ein recht vielfältig und umfassend ausgewähltes Literaturverzeichnis erarbeitet, um sowohl auf bekannte Kongreß-Tagungsberichte und Buchpublikationen als auch auf weiterführende Einzelpublikationen zu verweisen. Das Handbuch kann in diesem Kapitel nicht mehr alle Auskunft allein geben und f ü h r t daher den Leser an vielfältige Verweise heran. Da das Handbuch die Grundzüge der Theorie der (dynamischen) Systeme bringt, erwartet der Leser gegebenenfalls auch eine Theorie der Systemsimulation. Einerseits handelt es sich hier um eine experimentelle Arbeitsmethode, die sicher auch in der Zukunft nicht allein mit theoretischen Mitteln beschreibbar ist, und andererseits kann man heute sicherlich noch nicht von einer ausgereiften Simulationstheorie (für Teilbereiche der Systemsimulation) sprechen, die. deutlich über das hinaus geht, was an allgemeiner Systemtheorie bekannt ist. Und diese ist ja eine Grundlage dafür. Durch Hinweise auf diesbesügliche Arbeiten im laufenden Text wurde dieser Aspekt gebührend berücksichtigt. Wir haben vereinbart, die allgemeinen Grundlagen, wie Methodologie und Softwaresysteme f ü r Modellierung und Simulation, in den Vordergrund zu stellen auch mit dem Ziel, daß in vielen Fällen auf der Basis grundlegender Kenntnisse in der Systemtheorie bei deren Anwendung ein Übergang zur Nutzung moderner Rechenautomaten bei der Lösung konkreter Aufgabenstellungen sowieso notwendig ist. Die Softwaresysteme f ü r Modellierung (Identifikation) und Simulation können dabei als ein Handwerkszeug benutzt werden, um schnell und rationell bestimmte Problemstellungen lösen zu können. Einen wesentlichen Beitrag leistet dann.die Systemtheorie und speziell die Systemidentifikation bei der Erarbeitung der systemtheoretisch beschriebenen Problemstellung und der Durchführung von Transformationen (äquivalente Umformungen, Modellvereinfachungen als Bsp.) auf daraus abgeleitete Problemstellungen, die dann, mit Softwaremitteln unterstützt, experimentell gelöst werden. I n diesem Sinne erscheint dann die Systemsimulation zusammen mit der Systemidentifikation als praxisrelevante Fortsetzung rein systemtheoretischer Arbeiten des Anwenders der Theorie. Der Herausgeber möchte nicht versäumen, allen Mitarbeitern und Autoren dieses Handbuches der Systemtheorie seinen herzlichen Dank auszusprechen. Mein besonderer Dank aber gilt nicht zuletzt auch der Lektorin Frau LAGOWITZ für die jederzeit verständnisvolle und gute Zusammenarbeit bei der Erarbeitung des Gesamtmanuskriptes. G . WUNSCH
Inhaltsverzeichnis
•1.
Systemtheorie — Prinzipien und Systemklassen
1
1.1.
Zeitsysteme
1
1.1.1. 1.1.2. 1.1.3.
Signale und Systeme Signaloperationen Allgemeine Zeitsysteme
1 5 7
1.2.
Dynamische (Zeit-) Systeme
9
1.2.1. 1.2.2.
Zustandsdarstellung Systemfunktional
9 11
1.8.
Systemklassen
11
1.3.1. 1.3.1.1. 1.3.1.2. 1.3.1.3. 1.3.1.4. 1.3.1.5. 1.3.2. 1.3.2.1. 1:3.2.1.1. 1.3.2.1.2. 1.3.2.1.3. 1.3.2.2. 1.3.2.2.1. 1.3.2.2.2.
Grundklassen Multivariable Systeme und endliche Systeme Zeitinvariante Systeme Systeme mit diskreter Zeit Lineare Systeme Differentialsysteme Spezielle Klassen — Überblick Differentialsysteme Lineare Systeme mit stetiger Zeit Lineare Systeme mit diskreter Zeit Nichtlineare Systeme . Endliche Systeme Lineare Automaten Automaten
11 11 12 14 15 15 17 17 17 20 21 24 24 25
1.4.
Anhang
26
1.4.1. 1.4.2. 1.4.2.1. 1.4.2.2. 1.4.3. 1.4.3.1. 1.4.3.2. 1.5.
Mengen Relationen und Abbildungen Relationen Abbildungen Strukturen Algebraische Strukturen Lineare Räume Literatur
26 27 27 28 29 29 31 34
,
VIII
Inhaltsverzeichnis
2.
Differentialsysteme
36
2.1.
Lineare Systeme mit stetiger Zeit
36
2.1.1. 2.1.1.1. 2.1.1.2. 2.1.1.3. 2.1.1.4. 2.1.2. 2.1.2.1. 2.1.2.2. 2.1.2.2.1. 2.1.2.2.2. 2.1.2.2.2.1. 2.1.2.2.2.2. 2.1.2.2.2.3. 2.1.2.2.3. 2.1.3. 2.1.4. 2.1.5. 2.1.6. 2.1.7. 2.1.7.1.
36 36 37 40 42 44 44 47 47 49 49 51 52 52 54 56 57 61 65
2.1.7.2.1. 2.1.7.2.2. 2.1.7.2.3. 2.1.7.2.4. 2.1.8. 2.1.8.1. 2.1.8.1.1. 2.1.8.1.2. 2.1.8.2. 2.1.9. 2.1.9.1. 2.1.9.2. 2.1.9.3. 2.1.9.4. 2.1.9.5. 2.1.10. 2.1.11.
Systembeschreibung im Zustandsraum Einführendes Beispiel Systemdarstellung im Zustandsraum Komposition von Systemen Aufstellung der Zustandsgieichungen bei RLC-Netzwerken Lösung der Systemgleichungen Lösung der homogenen Zustandsgieichung Lösung der inhomogenen Zustandsgieichung Der zeitinvariante Fall Praktische Berechnung der Übergangsmatrix Anwendung des Cayley-Hamilton-Theorems Diagonalisierung Laplace-Rücktransformation der charakteristischen Frequenzmatrix . . Der periodische zeitinvariante Fall Übergangsmatrix und Matrix der Impulsantworten Lineare Transformation des Zustandsraumes Steuerbarkeit Beobachtbarkeit Kanonische Zustandsdarstellungen Transformation von Eingang-Ausgang-Beschreibungen auf NormalDarstellungen im Zustandsraum Eine erste Normaldarstellung Eine zweite Normaldarstellung Transformation von beliebigen Zustandsdarstellungen auf Normal-Darstellung Erste Äquivalenztransformation Zweite Äquivalenztransformation Dritte Äquivalenztransformation Vierte Äquivalenztransformation Stabilität Stabilität nicht erregter Systeme Das Routh-Verfahren Das Hurwitz-Verfahren . . Stabilität erregter Systeme Regelung E i n Beispiel Grundprinzip der Regelung Zustandsgrößenrückkopplung Zustandsbeobachtung Bemerkungen zur optimalen Regelung Empfindlichkeiten ' Literatur
2.2.
Lineare Systeme mit diskreter Zeit
98
2.2.1. 2.2.1.1.
Diskrete Signale Signalbeschreibung im Zeitbereich
98 98
2.1.7.1.1. 2.1.7.1.2. 2.1.7.2.
65 65 67 70 71 72 73 74 75 75 78 79 81 84 84 86 87 90 93 94 97
Inhaltsverzeichnis
IX
2.2.1.1.1. Diskretes Signal 2.2.1.1.2. Getastetes Signal 2.2.1.1.3. Signaloperationen 2.2.1.1.4. Signalraum 2.2.1.2. Signalbeschreibung im Bildbereich (
(16)
t
t-Konkatenationsprodukt von x1 und x2. xJ ° x2 „verläuft" also für x < t wie x1 und für r ^ t wie x2 (Abb. 1.5).
t Abb. 1.5
T
Konkatenationsprodukt von x1 und x2
Liegen x1 und x2 in X c XT, so braucht x1 ° x2 nicht (für alle t € T) in X zu liegen. Folgt aber für alle t e T aus xv x2tX immer x1°x2i X, so heißt X konkatenationsabgeschlossen [14].
c) Sind x und y Elemente aus X und F , so kann man ihr direktes Produkt ([3], [14]) ,
x z X ,
(17)
yeY
definiert durch (vgl. (4)) (f) = (x(t), y(t))
(18)
einführen. Das direkte Produkt t' ab: y[t,t'] ist nur eine Funktion von z (zum Zeitpunkt f) und x[t^>y b) Es ist für t ig r t' wegen (34) G(t, z, x1 ° x2) = G(t, z, xt) ° G(t, Zjy x2), (35) zT = F(r, t, z, a g . Für jedes t e T ist durch das dynamische System Z die Input-Output-Menge Sf = {(x, G(t, z,x)) \xiX,zt Z} (36) definiert. Bei Einschränkung auf Tt erhält man die Menge St, die eine Teilmenge von X | Tt x Y | Tt bildet. Es gilt also mit (36) für jedes t e T St = S* \ T t c X t x Y t . (37) Wegen (35) gilt außerdem Sti | Tti c S ( i («x ^ t2) . (38) Aus (37) und (38) folgt: Die von einem dynamischen System erzeugten Input-OutputMengen St = Sf [ Tt (39) bilden die Abbildungsfamilie (St)t e T eines allgemeinen Zeitsystems S im Sinne von Def. 1. Die vorstehenden Überlegungen lassen sich umkehren: Ist S ein allgemeines Zeitsystem, so kann es durch ein dynamisches System dargestellt werden. Dieses Realisierungsproblem (Realisierung der Abbildungsfamilie S = (St)tf T eines allgemeinen Zeitsystems durch ein dynamisches System) kann hier nicht in allgemeiner Form behandelt werden (siehe hierzu [11], [13], [10]). Für spezielle Systemklassen (lineare Systeme) können sich relativ einfache Lösungen ergeben. Der Wert des Begriffs des dynamischen Systems besteht darin, daß es (zumindest in wichtigen Sonderfällen) leicht durch eine reale technische Anlage (elektrische Schaltung) verwirklicht werden kann. Das Realisierungsproblem von (St)u T ist also theoretisch im wesentlichen immer mit der Konstruktion eines (St)u T zugeordneten dynamischen Systems gelöst.
1.3.
Systemklassen
1.3.1.
Grundklassen
1.3.1.1.
Multivariable Systeme und endliche Systeme
Die dynamischen Systeme Z werden eingeteilt nach der Mächtigkeit und der Art der mathematischen Strukturierung ihrer Trägerpengen T, X, Y, Z, X und Y sowie nach den topologischen und Invarianzeigenschaften ihrer Abbildungen F und g [19].
1.3.1. Grundklassen 1.2.2.
11
Systemfunktional
Wir betrachten die durch G bzw. G definierte Menge von Input-Output-Paaren (x, y). Sie ergibt sich bei Berücksichtigung folgender Eigenschaften des Systemfunktionais bzw. -Operators O bzw. G. a) G: G(t', t, z, x) ist nach, (33) unabhängig von der Vergangenheit x \ Tl und der Zukunft x | Tt> von x 6 X. Ist der Zustand z zum Zeitpunkt t bekannt, so hängt also y(t) — y weder von den Input-Werten x(x) für r < t noch von denen für r > t' ab: y[t,t'] ist nur eine Funktion von z (zum Zeitpunkt f) und x[t^>y b) Es ist für t ig r t' wegen (34) G(t, z, x1 ° x2) = G(t, z, xt) ° G(t, Zjy x2), (35) zT = F(r, t, z, a g . Für jedes t e T ist durch das dynamische System Z die Input-Output-Menge Sf = {(x, G(t, z,x)) \xiX,zt Z} (36) definiert. Bei Einschränkung auf Tt erhält man die Menge St, die eine Teilmenge von X | Tt x Y | Tt bildet. Es gilt also mit (36) für jedes t e T St = S* \ T t c X t x Y t . (37) Wegen (35) gilt außerdem Sti | Tti c S ( i («x ^ t2) . (38) Aus (37) und (38) folgt: Die von einem dynamischen System erzeugten Input-OutputMengen St = Sf [ Tt (39) bilden die Abbildungsfamilie (St)t e T eines allgemeinen Zeitsystems S im Sinne von Def. 1. Die vorstehenden Überlegungen lassen sich umkehren: Ist S ein allgemeines Zeitsystem, so kann es durch ein dynamisches System dargestellt werden. Dieses Realisierungsproblem (Realisierung der Abbildungsfamilie S = (St)tf T eines allgemeinen Zeitsystems durch ein dynamisches System) kann hier nicht in allgemeiner Form behandelt werden (siehe hierzu [11], [13], [10]). Für spezielle Systemklassen (lineare Systeme) können sich relativ einfache Lösungen ergeben. Der Wert des Begriffs des dynamischen Systems besteht darin, daß es (zumindest in wichtigen Sonderfällen) leicht durch eine reale technische Anlage (elektrische Schaltung) verwirklicht werden kann. Das Realisierungsproblem von (St)u T ist also theoretisch im wesentlichen immer mit der Konstruktion eines (St)u T zugeordneten dynamischen Systems gelöst.
1.3.
Systemklassen
1.3.1.
Grundklassen
1.3.1.1.
Multivariable Systeme und endliche Systeme
Die dynamischen Systeme Z werden eingeteilt nach der Mächtigkeit und der Art der mathematischen Strukturierung ihrer Trägerpengen T, X, Y, Z, X und Y sowie nach den topologischen und Invarianzeigenschaften ihrer Abbildungen F und g [19].
12
1.3. Systemklassen
Ist insbesondere in (30) und (32) z € Z1 x Zz X ... X X
zn =
Z ,
6 X , x ... X Xi = X ,
z = (zv z2, ... , zn) = (Xj, ... , X;)
x
(40a)
x = Z ,
(53)
f(t, z, x) = z'
bestimmt, wenn f die durch f(t,z,x(t))
= F(t + l,t,z,x)
f e s t g e l e g t e (lokale) Über führ ungsfunktion
(54) b e z e i c h n e t [12].
Die Zustandsgieichungen lauten also im diskreten Fall z'=f{t,z,x),
z = z(t),
z'=z{t
y = g(t, z,x),
x = «({) ,
y =
+ y(t).
l),
(55)
15
1.3.1. Grundklassen
1.3.1.4.
• Lineare Systeme
Eine besonders einfache und leicht zu analysierende Klasse bilden die linearen dynamischen Systeme. Def. 4: Ein dynamisches System Z heißt linear, wenn folgende Bedingungen erfüllt sind: a) Die Alphabete X, Y,Z sind lineare Räume (Vektorräume) X = (X, +), Y = ( 7 , - f ) , Z = (Z, - f ) über einem Körper K = (K, + , •) (mit den Elementen k). Daraus ergibt sich: «) Durch Operationsübertragung aus X und K sind für die Signale x: T —• X aus X folgende Operationen definiert: {x1 + x2): (xl + x2) (t) = x^t) + x2(t) (Vektoraddition), k • x : (k • x)\t) = kx(t) (Skalarmultiplikation) .
(56)
Auch X erhält so die Struktur eines linearen Raumes (Vektorraumies) X = (JT, +) über dem Körper IK. ß) Die Produktstruktur (Z X
+ )
ist ebenfalls ein Vektorraum über K, wenn definiert wird (z, x) + (z, x') = (z + z', x + x') , k • (z, x) = (k • z, k • x) .
y) Entsprechendes gilt für die Produktstruktur (Z x X + ) (die man formal aus (57 a) erhält mit der Substitution x —• x). b) Die Funktion
F(t',
t, •): Z X X — Z i s t
+ (z2, x2)) = F(t', t, z1; iCi) + F(t', t, z2, x2) ,
F(t',
t, (zv xj)
F(t',
t, k • (z, x))
c) Die Funktion
linear:
t, z, x) .
= k • F(t',
g(t, •): Z X X —• Y ist
linear
g(t, (z1; x j + (z2) x2)) = g(t, zv xJ + g(t, z2, x2) , g(t,k
• (z, x)) = k • g(t, z,
x).
Aus (57) und (58) folgt mit (z, x) = (z, 0) + (0, x) F(t',
t, z, x) = F(t',
t, z, 0) + F(t',
t, 0, x)
(59)
bzw. mit (z, x) = (z, 0) + (0, x) g(t, z, x) = g(t, z, 0) + g(t, 0, x) ,
(60)
wenn wir durch 0 bzw. 0 die Nullelemente der entsprechenden linearen Räume bezeichnen ([18], [15]). 1.3.1.5.
Differentialsysteme
Die für die Anwendungen in Natur und Technik wichtigste Klasse dynamischer Systeme wird von den Differentialsystemen gebildet. Man erhält sie durch einen gewissen Grenzprozeß aus dem allgemeinen dynamischen System £ wie folgt.
16
1.3. S y s t e m k l a s s e n
Sind die Zustände z Elemente eines Vektorraumes Z über dem Körper IK und ist T = R, so kann man den Differenzenquotienten z{t' + At) — z(t') At
F(t' + At, t, z, x) — F(t', t, z, x) eZ At
bilden, der (für vollständige Räume Z im Sinne einer gegebenen Norm ||-||, also für Banach-Räume) einen Grenzwert z(i' + At) - z(t') . • d lim — = z(t') = F(t', t, z, x) = — F(t', t, T j(->o A* dt
z,x)eZ
annehmen kann (F(-, t, z, x) heißt dann in t' differenzierbar). Sind x, F(-, t, z, x) und F(t', t,z, •) (im Sinne geeigneter Normen) stetig, so gilt sogar z(t) = lim z(t') = h{t, z,x), x = x(t), z = z(t), f->( da bereits für die Berechnung von F(t', t, z, x) nur die Werte von x aus einem Intervall [t, t' + £ ) ( e > 0) bekannt sein müssen. Die zeitliche Ableitung z(t) = z der Zustandstrajektorie z an der Stelle t ist also unter bestimmten Voraussetzungen nur eine Funktion von t, z, x(t): ^ = .(i)
=
Zjx{t))
Dynamische Systeme mit der Eigenschaft (61) werden als Differentialsysteme net. Bei dieser Systemklasse sind also die Zustandstrajektorien Lösungen
(6i)
bezeich-
z: T —>• Z einer Differentialgleichung z(t) = h(t, z{t), x(t)) ,
(62a)
also durch eine einfachere, F erzeugende (infinitesimale) Funktion (vgl. (53)) h : T x Z x X ^ Z
(62b)
bestimmt. Z ist in allgemeineren Fällen ein unendlichdimensionaler Vektorraum (Banach-Raum); wir betrachten nur genauer den endlichdimensionalen Fall [5], [4], [16]. Def.5: Ein dynamisches System £ heißt (endlich-dimensionales) Differentialsystem, wenn gilt: a) T ist die Menge der reellen Zahlen R (mit Addition + und Ordnungsrelation ig). b) Es ist X C X\ c R1 und Rl der reelle Euklidische Vektorraum mit den Vektoren n i l (Zahlen-Ü-Tupel) x = (x1; ... , x{),
xt 6 R ,
(62)
für die Addition, Skalarmultiplikation und (Euklidische) Norm durch (xv ... , Xi) + {x[,... , x\) = (Xi + x'u ... , Xi + x\) , Je • (x 1 ; ..., Xi) = (fccp ... , hxi), IHIe = M + 4 + ... + gegeben sind.
(63)
17
1.3.2. Spezielle Klassen — Überblick
c) Analog ist Z C Zß C Rn und Rn der n-dimensionale reelle Euklidische mit den Vektoren z = (z x ,... , z„) , Zj-e R .
Vektorraum
d) Für die Überführungsfunktion F gilt: z = F{-, t0, z0, x)
(64 a)
ist die Lösung der Differentialgleichung
z = h(t, z, x(t))
(64 b)
mit den Anfangswerten z(t0) = z0, d. h., es ist
Z(t) = h(t, Z(t), X(t)) ,
Z(t0) =
ZQ .
Damit die (Vektor-)Differentialgleichung (64b) auch durch die Anfangswerte (t0, z0) e T X Z und die Eingabesignale x € X eindeutig bestimmte, mindestens für alle t ^ t0 definierte Lösungen (Trajektorien) z = F(-, t0, z0, x) besitzt, müssen h und x gewissen Stetigkeitsbedingungen genügen (Abb. 1.11).
z(t)
Abb. 1.11 Zustandstrajektorie im zweidimensionalen Zustandsraum (Phasenraum)
Bern.: Die in Def. 5 vorgenommene Einschränkung auf reelle Euklidische Vektorräume (spezielle Banach-Räume) ist nicht wesentlich. Die obenstehenden Überlegungen können ohne Änderung auf allgemeine Banach-Räume verallgemeinert werden [5].
Die in der Praxis auftretenden Systeme gehören im allgemeinen gleichzeitig mehreren der im vorstehenden beschriebenen Grundklassen an und sind damit immer von relativ spezieller Natur. Solche speziellen, in den Anwendungen aber besonders häufig vorkommenden Systemklassen wurden in diesem Handbuch berücksichtigt. Der nachfolgende Abschnitt gibt eine kurze Einführung in die allgemeinen Grundbegriffe und Definitionen, deren ausführlichere Behandlung den einzelnen Teilabschnitten vorbehalten ist. 1.3.2.
Spezielle Klassen — Überblick
1.3.2.1.
Differentialsysteme
1.3.2.1.1.
Lineare Systeme mit stetiger Zeit (s. a. Abschn. 2.1.)
Eine wichtige Klasse von (endlichdimensionalen) Differentialsystemen bilden die dynamischen Systeme, die gleichzeitig linear sind (Abb. 1.12). Wir betrachten zunächst endlichdimensionale lineare Systeme für den Fall X = Kl, Y = Km, Z = Kn , (66a)
18
1.3. Systemklassen Diskr. S.
Zeitinv. S .
Endl. S.
Abb. 1.12 Beziehungen zwischen den Systemklassen (die Ziffern bezeichnen die Hauptabschnitte des Handbuches) wobei K einen (endlichen oder unendlichen) Körper (.z. B. den Körper R) bezeichnen möge. Die Elemente x = (xv ... , xi), xt 6 IK, aus X bilden z. B. dann einen Z-dimensionalen Vektorraum über K, wenn definiert wird (vgl. (63)) (x1; ... , Xi) + {x\
x'i) = (x1 + x[, ... , Xi + x't) ,
(66 b)
k • (xv ... , Xi) = (kxlt ... , kxi) .
Entsprechende Definitionen für die Elemente von F und Z führen zu einem m- bzw. w-dimensionalen Vektorraum. Durch eine (56) entsprechende Operationsübertragung bilden auch die Signale x: T —• X x
,
x{t) = (x^t), ... , Xi(t)) ,
aus einem geeignet gewählten Signalraum X c XT über K : x
x' =
* ( * . ¥»(*> «o)l
(75)
20
1.3. Systemklassen.
ist die Matrix von n linear unabhängigen Lösungen » also durch ein Wort der Länge x gegeben. Man kann daher statt (108) auch kürzer und wie in der Automatentheorie üblich. F0{r, z, x) = f(z, x0, xv ... , xT_x) = f{z, x) schreiben. I n dieser Symbolik lautet (108) übersichtlicher /(•, (x0, xv ... , xr_S)
= /(•, X^-L) o /(., Xr_2) o ... o /(., X0) .
(112)
Zur effektiven Beschreibung des Verhaltens von multivariablen Automaten ist es üblich und zweckmäßig, als Automatenalphabete die Produktmengen X = Bl,
Y = Bm,
Z=Bn
(113)
zu nehmen und dabei B die Struktur einer zweielementigen Booleschen Algebra [20] (B, v, A , - ) ,
B = {0,1}
(114 a)
mit den Operationen Disjunktion, Konjunktion und Negation aufzuprägen. Die Boolesche Algebra (114 a) ist isomorph zur Mengenalgebra ({0, M}, u, n, - ) ,
(114b)
worin M eine beliebige und 0 die leere Menge bezeichnen. Mit (114a) bilden auch die Elemente der Mengen (113), also z. B. die Z-Tupel („Vektoren") x = [xit x2,... , Xi) ,
xt e B
(115)
26
1.3. S y s t e m k l a s s e n
aus B1 eine Boolesche Algebra mit 2l Elementen, wenn alle Operationen aus (114 a) komponentenweise ausgeführt werden. Bl kann aber auch auf andere Weise strukturiert werden. Die aus den Booleschen Operationen v, a und ~ gebildete Operation ^
= (ïj a x2) v (ij a x2)
{Antivalenz)
(116)
l
ist eine Gruppenoperation auf B , und zusammen mit der Konjunktion a erhält Bl sogar eine Ringstruktur, in Zeichen (B\ E -
A)"* B + D] x ( p ) .
(10)
Hierbei ist E die (n X n)-Einheitsmatrix; es wird davon ausgegangen, daß z(0 + ) und x bekannt sind. Zu beachten ist, daß die Determinante von pE, — A (abgesehen von einzelnen speziellen Werten für p, nämlich den Eigenwerten der Matrix A ) von Null verschieden ist, womit die Existenz der Inversen von pE — A sichergestellt ist. Von besonderer Bedeutung ist der Fall, daß der Anfangszustand z(0 + ) verschwindet. Dann lautet der Zusammenhang zwischen Ein- und Ausgangsgröße nach (10) y_(p) mit der
H(3>) x(p)
(11)
Übertragungsmatrix H ( p ) = C(ì>E -
A)"1 B + D = [ A , » ] .
(12)
I m weiteren heißt ein System, das durch lineare Systemgleichungen beschrieben wird, ein lineares System. Von einem linearen zeitinvarianten System wird gesprochen, wenn es durch lineare zeitinvariante Systemgleichungen beschrieben werden kann. Für das einführende Beispiel (Abschnitt 2.1.1.1.) ist n = 2, l = 1, m = 1. Die Systemgleichungen lassen sich in der Form (5) und (6) schreiben mit den Matrizen R2 ~L
A =
1 ~C
C =
1
0
T
B =
l ~ CR,~
1 _CR1_
1
D
1 R;
Hieraus erhält man zunächst die Matrix P + (pE - A ) " 1 =
R2
— 1—
L
L
1
1 p +
ÖB: P +
Rp
1
1
CRl
iT
1
R1 c) P
+
Lc( 1
+
R
R,
C
und gemäß (12) die Übertragungsmatrix (Übertragungsfunktion h = H = hllt da H ein 4*
40
2.1. Lineare Systeme mit stetiger Zeit
Skalar ist)
H(p) =
-1
X
-
X
Ry 1 h
p + CR X ]
p +
~c
0 R*
l
1 GR1 J
oder nach einiger Rechnung p2 +
h(p) = H(p) =
Ri L
2.1.1.3.
~TP
R^G 1
LG \
R-^
Komposition von Systemen
Oft besteht ein System aus Komponenten, die selbst Systeme sind und sich entsprechend beschreiben lassen. So kann etwa ein System aus zwei Subsystemen aufgebaut sein, die parallel, in K e t t e oder rückgekoppelt miteinander verbunden sind. Um diese besonders wichtigen Systemkompositionen näher zu beschreiben, wird davon ausgegangen, daß die beiden Subsysteme (jj, = 1,2) durch die Systemgleichungen Ajiß) — = A + B w ( t ) x w (13) di und M CW(i) z(«) x(M (14) (f* = 1.2) dargestellt werden können. Weiterhin wird angenommen, daß die Verbindung der Subsysteme S ( 1 ) und S ( 2 ) zum Gesamtsystem S rückwirkungsfrei erfolgt. Dies hat zur Folge, daß (13) und (14) auch im System S bestehen. Darüber hinaus muß noch vorausgesetzt werden, daß bei den verschiedenen Verbindungsarten die Dimensionen der Vektoren und Matrizen miteinander verträglich sind, worauf im folgenden nicht jedesmal explizit hingewiesen wird. F ü r das System S wird nun der Zustandsvektor z =
st«» eingeführt. Der Fall der Parallelverbindung von S ( 1 ) und S,(2> (Abb. 2.3) ist durch die Bedingung x = x (1) = x(2) für das Eingangssignal und y = y (1) + y (2) für das Ausgangssignal ausgezeichnet. J!>
J2Ì Abb. 2.3
s
y
(2)
Parallelverbindung zweier Systeme
2.1.1. Systembeschreibung im Zustandsraum
41
Man erhält unmittelbar als Systemgleichungen für das Gesamtsystem S dz di
A(1>(i)
0
0
A< >(i)_
~
und y = [C(1)(i)
7
2
c (2) (t)] z +
"B (!>( Abb. 2.4
y^y.
Kettenverbindung zweier Systeme
Der Fall der Rückkopplungsverbindung von S ( 1 ) und s ( 2 ) (Abb. 2.5) ist gekennzeichnet durch die Bedingungen x ( 1 ) = x — y (2) und y = y (1) = x (2) . Die Systemgleichungen
Abb. 2.5
Rückkopplungsverbindung zweier Systeme
ergeben sich nach einer Zwischenrechnung in der Form dz df
—B(1)((i) - B«(«) B(t) D(i) C(1)(f) :
B (f) (E - D (i) R(f) D (i)) C (i) (2)
(1)
+
(2)
(1)
A (2) (i) - B(2)((£, x), den Matrizen B(i), C(t) und D(i) andererseits. Im zeitinvarianten Fall wird H(i, r) = : H(I — T), und (56) vereinfacht sich zu ¡ 6 ^ 8 + ö{t) D
H(i)
für für
t^ 0t< 0,
(58)
während (57) für Eingangssignale mit der Eigenschaft x(i) = 0 für t < 0 das Ausgangssignal mit t+ y(i) = / H(f - a) x((t) da o liefert. Durch Anwendung der Laplace-Transformation ergibt sich mit (58) und der im Abschnitt 2.1.2.2.1. eingeführten charakteristischen Frequenzmatrix £(p)
= [€&(*>) B + D] | ( p ) .
Ein Vergleich mit (11) und (12) lehrt nun, daß die Übertragungsmatrix H(p) die Laplace-Transformierte der Matrix der Impulsantworten H() = 3
9 —s + P + 2
6 . , = (p + 2)2
Hp)
Hieraus ergibt sich durch Laplace-Rücktransformation sofort h(t) nach (59).
Die Gl. (58) erlaubt eine wichtige Aussage über die Zustandsdarstellung eines linearen zeitinvarianten Systems: Ersetzt man das Quadrupel von Systemmatrizen (A, B, C, D) durch das Matrizenquadrupel (AT, CT, BT, DT), dann geht die zugehörige Matrix der Impulsantworten über in die transponierte Matrix. Im Fall eines Systems mit einem Eingang und einem Ausgang ist die Matrix der Impulsantworten eine skalare Funktion und stimmt mit ihrer Transponierten überein. Dies bedeutet, daß die beiden Zustandsdarstellungen mit dem Matrizenquadrupel (A, b, cT, d) bzw. (AT, c, bT, d) dasselbe Ein-Ausgang-Verhalten aufweisen, d. h. sich in der Impulsantwort und Übertragungsfunktion nicht unterscheiden.
2.1.4.
Lineare Transformation des Zustandsraumes
Es besteht die Möglichkeit, die durch (5) und (6) gegebene Zustandsraumdarstellung eines linearen, zeitinvarianten Systems in eine äquivalente Zustandsraumbeschreibung überzuführen, indem man den Zustandsvektor z durch einen neuen Zustandsvektor ^ mit den Komponenten 'Q^ (fx = 1,2, ... , n) gemäß der Beziehung z =
(60)
ersetzt. Dabei wird vorausgesetzt, daß M nichtsingulär und von t unabhängig ist. Damit ist die Transformation umkehrbar: £ = M -1 z . Substituiert man (60) in (5) und (6), so erhält man M — = AM£ + Bx , di y = CM£ + Dx . Durch Linksmultiplikation der ersten Gleichung mit Mr 1 folgt ^ = M-1AMC + M _1 Bx . dt *
(61)
2.1.5. Steuerbarkeit
57
Damit ergibt sich die neue Zustandsraumdarstellung des Systems in der F o r m +
(62a)
di y = C ? + Dx
(62b)
mit den Matrizen B = M_1B , C = CM , D = D . (63 a, b, o, d) I = M _1 AM , Durch unterschiedliche Wahl der Matrix M lassen sich beliebig viele verschiedene Zustandsraumbeschreibungen f ü r ein und dasselbe System angeben. Dabei gibt es besonders ausgezeichnete System-Darstellungen. H a t die Matrix A genau n voneinander verschiedene Eigenwerte, so läßt sich bei Wahl von M als Modalmatrix erreichen, daß die Matrix A eine Diagonalmatrix A darstellt, deren Hauptdiagonalelemente mit den Eigenwerten (fi = 1, 2, ... , n) von A identisch sind. Die einzelnen Differentialgleichungen f ü r die Zustandsvariablen sind dann entkoppelt, sie haben die Form = Vt&y. + fß > wobei die auf die fi-te Zustandsvariable wirkende Erregung bedeutet. I m Fall mehrfacher Eigenwerte von A läßt sich mittels einer Matrix M eine Transformation auf Diagonalform im allgemeinen nicht erreichen. Es kann A jedoch auf die Jordansche Normalform gebracht werden, die dadurch ausgezeichnet ist, daß die transformierte Matrix A neben den Eigenwerten in der Hauptdiagonalen an bestimmten Stellen der oberen Nebendiagonalen noch Einsen, im übrigen aber nur Nullelemente hat. Dadurch sind bestimmte benachbarte Zustandsvariablen C^+i miteinander gekoppelt. Die Transformation auf Jordansche Normalform stimmt im Fall ausschließlich einfacher Eigenwerte mit der genannten Transformation auf Diagonalform überein. Sie ist von Bedeutung vor allem zur Erleichterung numerischer Berechnungen und zur Gewinnung gewisser Einsichten in das Systemverhalten. Auch im Fall eines linearen, zeitvarianten Systems k a n n man Äquivalenztransformationen durchführen, wobei die Transformationsmatrix M im allgemeinen als zeitabhängig betrachtet, jedoch f ü r alle t als nichtsingulär und in t stetig differenzierbar vorausgesetzt wird.
2.1.5.
Steuerbarkeit
Ein durch die Zustandsgieichung (3) dargestelltes lineares System heißt in dieser Darstellung (zustands-) steuerbar in einem Zeitpunkt t0, wenn der Zustand z von einem beliebigen Anfangszustand z (0) = z(i0) bei Wahl eines geeigneten Eingangssignals x in endlicher Zeit in einen willkürlich wählbaren Endzustand z (1) = z(ij) ü b e r f ü h r t werden kann. Andernfalls sagt man, daß das System zum Zeitpunkt (tv
o) B(a) x(--/
R^
Iii-"'
[j
IL.o-r
T A b b . 2.7
Beispiel zur E r l ä u t e r u n g der S t e u e r b a r k e i t
D i e Frage der Steuerbarkeit läßt sich f o l g e n d e r m a ß e n b e a n t w o r t e n : Satz 1. Ein lineares System ist in der Darstellung gemäß (3) steuerbar genau dann, wenn die n Vektorfunktionen in den Zeilen der Matrix
zum
Zeitpunkt
F(i 0> t) = *(< 0 , t) B(t) in irgendeinem Intervall [í 0 , f j ] (í 0 < t-¡) linear (n-dimensionalen) Vektor a aus der Identität
(65) unabhängig
ot T F(í 0 , i ) = 0 in einem
Intervall
t0
sind,
d. h., wenn mit
einem (66)
[i0, i j stets a = 0 folgt.
Beweis: Z u m N a c h w e i s der Notwendigkeit wird a n g e n o m m e n , d a ß d a s S y s t e m s t e u e r b a r ist, a b e r die n Zeilen der M a t r i x F( speziell d e n V e k t o r a u n d multipliziert d a n n (64) von links m i t aT4>(£0, tt), so ^ergibt sich die skalare Gleichung h 0 = o T a + / a T O(f 0 > a ) »( 2,...
, n — 1)
(78) zlt dy/dt =
(79a)
und mit (78) dz dt
= — Mfa — «iZj — ... — tXn^Zn + X .
(79b)
66
2.1. Lineare Systeme mit stetiger Zeit
F ü r das durch (78) gegebene System läßt sich also die Zustandsdarstellung "0" dz ^ — = Fz + di y = [1
0
...
x,
(80 a)
0] z
(80 b)
mit der sogenannten Frobenius-Matrix 0 0
1 0
0 1
... 0 0 ... 0
0
0
0 —«2
... 0 1 ... — « »
F =
(81)
—«0 - « 1
angeben.
Mit y = z1 erhält (78) die Form dnz, dtn
'
*
1
d "— - 1 1 + ... + «o«! = Z , n dt
woraus sich durch wiederholte Differentiation nach t und Berücksichtigung von (79 a) d % d tn
da; B - A) = 1» —
— 1) ,
ßn = d. Die gewonnene kanonische Darstellung (A, b, c T , d) liefert mit den Koeffizienten und ß ß direkt die Übertragungsfunktion des Systems. 2.1.7.2.4.
Vierte Äquivalenztransformation
Unter der Voraussetzung der Steuerbarkeit des Systems in der Darstellung mittels (A, b, CT, d) wird als Transformationsmatrix M = UA (95) gewählt, wobei die Matrix A durch (88) gegeben ist. Um die transformierte Systemmatrix A = M -1 AM zu erhalten, wird zunächst mit Hilfe von (95), (84a), (87b) und (88) das Produkt AM = [Ab, A 2 b,... , A w - 1 b, -E - A)"i b
(122)
folgt. Nun gilt weiterhin (pE - A)-i = J - [p^E D(p)
+ pn~\A
+ «„^E) +
+ pn~s{A? + ^ n - i A + « n _ 2 E ) + ...],
(123)
was sich dadurch verifizieren läßt, daß man die Gleichung von links mit D(p) (pE — A) durchmultipliziert. Die Gin. (122) und (123) liefern jetzt Dk(p) - D(p) = k ^ ^ E + pn~2(A+ n s
+ p - (A*
«„^E) +
+ « n - i A + 0 beschränkt mit \x(t)\^Mect
{M,c>
0) .
(12b)
Die Menge aller diskreten Signale mit den durch (12) gegebenen Eigenschaften bildet einen linearen Signalraum Xc (d. h., Xc ist eine Menge mit den Eigenschaften des linearen Raumes, vgl. Abschn. 1.4.3.2). Einige Beispiele diskreter Signale x € Xc sind: 1. das diskrete Impulssignal x = ( 1 , 0 , 0 , 0,...) = ö' , 2. das diskrete
(13a)
Sprungsignal
x = (1,1,1,1,...),
(13b)
3. das diskrete Signal vom Exponentialtyp mit a < c x = (1, e°, e2®, e3", ...) .
(13c)
I n Abb. 2.20 ist eine graphische Darstellung dieser Signale aufgezeichnet. X^IR
0 o)
f
-X=IR
2
Abb. 2.20 a) diskretes b) diskretes c) diskretes 8
Wunsch, Handbuch
3
iTlN
u
0 b)
17 21 3M O
Spezielle diskrete Signale Impulssignal, Sprungsignal, Signal vom Exponentialtyp
7
T=INn 0 c)
•
1 2 3
102
2.2. Lineare Systeme mit diskreter Zeit
2.2.1.2.
Signalbesehreibung im Bildbereich (¿ST-Transformation)
2.2.1.2.1.
^-Transformation
Jedem diskreten Signal x e Xe mit den Eigenschaften (12) kann eine Laurent-Reihe £ x(n) z~n = 35(0) + ^
x*{z) =
n = 0
+ ^ Z
+ ...
(14)
Z2
zugeordnet werden, in der z eine komplexe Zahl bezeichnet. Da diese Reihe wegen x(t) = 0 für t < 0 keinen ganzen Teil enthält, konvergiert sie (falls überhaupt) außerhalb eines Kreisgebietes der komplexen z-Ebene (Abb. 2.21). Für ein diskretes Signal Alm (z)
Reiz;
A b b . 2.21
Konvergenzgebiet und Integrationsweg
mit der Eigenschaft (12 b) ist das Konvergenzgebiet CR durch die Menge aller Punkte z gegeben, für die |z| > R = ec ist, d. h., es gilt Cs = {z I |z| > R = e"} .
(15)
In Abb. 2.21 ist diese Punktmenge durch Schraffur gekennzeichnet. Da eine konvergente Laurent-Reihe eine im Konvergenzgebiet reguläre Funktion darstellt, kann gefolgert werden, daß x* eine für alle |z| > R (und damit auch in z = oo) reguläre Funktion der komplexen Variablen z ist. Es gilt nun der folgende Satz: Jedes diskrete Signal x € Xc mit den Eigenschaften (12) läßt sich für die diskreten Zeitpunkte t = n = 0, 1, 2, ... durch ein komplexes Integral (16)
x(n) = — (ß x*{z) z " - 1 dz 2 nj J
über die durch (14) definierte Funktion x* auf dem in Abb. 2.21 eingezeichneten geschlossenen Weg C darstellen. Beweis:
Setzt man in' (16) den Integranden
x*(z) z « " 1 = sc(0) z " - 1 + ac(l) z " - 2 + ... + x(n -
1) z°
+ x(n) z" 1 + x(n + 1) z~2 + ... ein, so ist
—r ( f ) x*(z) zn~1 dz = 2nj ¥ 2 c
({) x(n) z'1 dz , c
2.2.1. Diskrete Signale
103
da die Integrale über die restlichen Glieder der Reihe verschwinden. Die weitere Rechnung liefert -
1
f
271)
^
,
(j, * * ( z )
x(n) Ç dz
dz = —
f
-
x(n)
= —
• 2„ =
.(»,
c c Durch die Laurent-Reihe (14) und das komplexe Integral (16) wird eine bijektive Abbildung des Signalraumes Xe auf den (gleichfalls linearen) Signalraum oo X* = {x* | x*(z) = Z x(n) z~n, x e Xc} (17) n= 0
vermittelt. Diese Abbildung heißt 3,-Transformation (genauer: einseitige ^-Transformation) [10]. Die inverse Abbildung von X* auf Xe wird als inverse 3- Transformation bezeichnet. Es handelt sich in beiden Fällen um lineare Abbildungen. Folgende Terminologie ist üblich: Das transformierte Signal x* heißt 3-Transformierte oder Bild (-signal) des diskreten Signals x. Die Menge X* ist der Bildbereich der ¿T-Transformation. Außerdem nennt man das diskrete Signal x das Original von x* und den Signalraum Xe den Originalbereich der ^-Transformation. Die Transformationsgleichungen werden meistens in der Form oo x*(z) = 3[x{n)] = Hx{n) z~n , (18a) »=o x(n) = ¿?-1[a?*(2)] = ~(ßx*(z) z " - 1 dz (18b) 271) J c notiert. In dieser Schreibweise bezeichnet man häufig auch x*(z) als ^-Transformierte von x(n), d. h., Signale und Signalwerte werden — wie in der technischen Literatur oft anzutreffen — nicht streng unterschieden. Beispiele: F ü r die in (13) angegebenen diskreten Signale x erhalten wir folgende Transformierten sc*:
3-
1. x = ( 1 , 0 , 0 , 0 , . . . ) , sc*: sc*(z) = 1 ,
(19a)
2. x = ( 1 , 1 , 1 , 1 , . . . ) , x*:x*(z)
=
°° 1 E *"• = r = n=0 1 — Z1
z
Z — 1
(|z| > 1) ,
(19b)
3. x = (1, e°, e 2 °, e 3 a , ...)
x * : x*(z) = 2.2.1.2.2.
z
06
£eanz~n= n=0
z -
e°
(|z| > e"),
(19c)
Bechenregeln der ^-Transformation
Dieof-Transformierte eines diskreten Signals « € Xc hat folgende Grundeigenschaften: 1. Das Bildsignal x* ist eine im Innern des Konvergenzgebietes CR (Abb. 2.21) reguläre komplexwertige Funktion der komplexen Variablen z, d. h., es ist x*:CR-*C. 8'
(20a)
104
2.2. Lineare Systeme mit diskreter Zeit
2. Für reelle diskrete Signale x ist x*(z) reell für z € R. Daraus folgt, daß x*(z) in den konjugiert komplexen Wert x*(z) übergeht, wenn z durch z ersetzt wird:
x*(z) = x*{z) .
(20b)
3. Im Unendlichen ist x* regulär und hat den Wert lim x*(z) = x(0) .
(20 c)
2—»• OO
4. Falls der Grenzwert lim x(n) existiert, so existiert x*(z) für \z\ > 1, und es ist n—>oo
lim x(n) =
lim (z - 1) x*{z) .
n—>-oo
(20d)
z—>1+0
5. Liegen alle singulären Stellen von x* im Innern des Einheitskreises (z( = 1 der z-Ebene, so gilt die Parsevalsche Formel für diskrete Signale ¿"[ic(w)] 2 .
— £x*{z)x*(—\z-1dz=
2 TtjJ w
\z )
«=o
(20 e)
Der geschlossene Integrationsweg W umfaßt die singulären Stellen von x*(z) und schließt die singulären Stellen von x*(ljz) aus. Aus der Definition der ym z(k)=(z1(k)1...,zn{k))
Abb. 2.25
Lineares zeitinvariantes diskretes System (allgemeines Schema)
Dabei sind X das Eingabealphabet, Y das Ausgabealphabet und Z das Zustandsaiphabet (der Zustandsraum), z. B. x(k) = (x^k), ... , Xi{k)),x (k) = [^(fc), ... , 2Cj(ä;)], vgl. Abschn. 1.4.3. T
2.2.2.1.2.
Systemmodell
Aus den Zustandsgleichungen (41) geht bereits hervor, aus welchen Grundbausteinen (Operationseinheiten) ein lineares zeitinvariantes diskretes System aufgebaut ist. In Abb. 2.26 sind diese Grundbausteine zusammengestellt.
2.2.2. Diskrete Systeme Xj(k)o x2(k)° I
115
O y(k)=Ix,(k)
r
I
Abb. 2.26 Grundbausteine diskreter Systeme a) Addierglied, b) Multiplizierglied, c) Verzögerungsglied Abb. 2.26a zeigt das Addierglied, welches die Summe (bzw. Differenz) von Signalen bildet (vgl. auch (10a)). Für dieses Glied gilt i y(k) = £x , ( i ) . (43 a) i= 1
In Abb. 2.26 b ist das Multiplizierglied (Verstärker) dargestellt. E s realisiert die Skalarmultiplikation eines Signals x mit einer Konstanten oc € R nach (9 a): y(lc) = otx(k).
(43 b)
Abb. 2.26 c zeigt schließlich das Verzögerungsglied (Speicher), welches einen im Taktzeitpunkt k — 1 eingegebenen Signalwert im Taktzeitpunkt k wieder ausgibt. Es gilt also (vgl. (9 b) mit m = 1) y{k)=x(k-l).
(43 c)
Mit Hilfe der in Abb. 2.26 dargestellten Grundbausteine läßt sich für ein lineares zeitinvariantes diskretes System das in Abb. 2.27 aufgezeichnete Systemmodell (Zustandsmodell) angeben.
Abb. 2.27
Systemmodell
116
2.2. Lineare Systeme mit diskreter Zeit
Beispiel: Für ein diskretes System mit den Zustandsgieichungen 0 -3
+1)" z^k + I) »(*) = [1
0]
2" -5
r
"0" x(k) , 2 (44)
\{Jc)
3 sc(fc)
erhält man das Systemmodell Abb. 2.28.
Abb. 2.28 2.2.2.1.3.
Systemmodell (Beispiel)
Fundamentalmatrix und Gewichtsmatrix
Die Lösung der Zustandsgieichungen (41) erhält man f ü r einen gegebenen Anfangszustand z(0), indem m a n in die erste Gleichung nacheinander ¿ = 0 , 1 , 2, ... einsetzt. D a n n ergibt sich z(l) = Az(0) + Bx(0) , z(2) = Az(l) + Bx(l) = A 2 z(0) + ABx(O) + B x ( l ) , z(3) = Az(2) + Bx(2) = A 3 z(0) + A 2 Bx(0) + ABx(l) + Bx(2) ,
und
k-1 z(k) = A*z(0) + Z A j Bx{k - i - 1) ¿=o
(45 a)
y (k) = Cz (k) + D x{k) k-1 = CA*z(0) + Z C A ^ / f c - i - 1) + Dx(fc) . ¿=o F ü h r t man noch die Fundamentalmatrix
(45 b)
(Übergangsmatrix) (46)
&(k) = A* und die Gewichtsmatrix (Matrix der Impulsantworten) H (k) =
|CAt_1B ,
k ^ 1,
1».
k = 0
(47)
2.2.2. Diskrete Systeme
117
ein, so erhält man anstelle von (45) ¿-1
z(k) = &{k) z(0) + Z *(») i=0
Bx(fc - i -
im
y(k) = C * ( k ) i(0)
(48 a)
1),
i) x(i) .
(48 b)
Die letzte Gleichung stellt die Eingabe-Ausgabe-Gleichung (Input-Output-Gleichung) des 'linearen diskreten Systems dar. Mit ihrer Hilfe kann das Ausgabesignal y bei bekanntem Anfangszustand z(0) und gegebenen Zustandsmatrizen A, B, C, D für jedes beliebige Eingabesignal x bestimmt werden. Die Fundamentalmatrix ~ (bzw. für [z| = 1) maßgebend sind. Man bezeichnet deshalb x*(z)
= A(e'm) z=eJ |y(£)| \{z).
2.2.2. Diskrete Systeme
133
Beispiel 1: Für das diskrete System Abb. 2.35 (Abschnitt 2.2.2.2) mit den Matrizen A =
[ _ ? 2
-g]'
B
=
[l '
C
f = -
D = [0] = [d]
9
erhält man QS =
[ B
AB] = p
und
_>]
f_9 A'C] = [ 5
Q»-[C
— 60l _4gj.
Man überzeugt sich leicht davon, daß Q a und Q B nicht singulär sind. Das System Abb. 2.35 ist damit vollständig steuerbar und beobachtbar. Beispiel 2: Für das in Abb. 2.37 dargestellte System erhält man die Zustandsgieichungen + 1) =
+ *(k)
z2(k + 1) = z^k) - 2zz(k) + y{k) = -z^k)
Abb. 2.37
+ z^k) -
x(k) x(k)
Beispiel eines diskreten Systems
mit den Matrizen B =
- r:
C= [-l
D = -1 .
1],
In diesem Fall gilt tz i=0
(88)
eines nichtrekursiven Systems ist dadurch gekennzeichnet, daß er einen w-fachen Pol an der Stelle z = 0 (und sonst keine weiteren Pole) enthält. Nichtrekursive Systeme sind deshalb stets, stabil. Ein Beispiel eines PN-Planes zeigt Abb. 2.41.
Abb. 2.41
2.2.2.3.5.
PN-Plan eines nichtrekursiven Systems
Systeme mit linearer Phase
Für den praktischen Filterentwurf haben diskrete Systeme mit linearer Phase insofern besondere Bedeutung, als diese Systeme eine konstante Gruppenlaufzeit haben. Systeme mit linearer Phase sind spezielle nichtrekursive Systeme, bei denen die Null-
2.2.2. Diskrete Systeme
137
stellen der Übertragungsfunktion h* spiegelbildlich zum Einheitskreis der z-Ebene angeordnet sind oder auf dem Einheitskreis selbst liegen. Die Übertragungsfunktion (88) läßt sich in diesem Fall in der Form h*(Z)
=
a
-i Z
(z -
i r
(2 + l r »
n { z v=l
/ z r ) (z \
—
1 \ r
Zv J
(89)
mit m = Wj + + w3 darstellen. In Abb. 2.42 ist der PN-Plan eines Systems mit linearer Phase aufgezeichnet.
Beispiel:
Für das linearphasige System mit der Übertragungsfunktion h*(z)
= 1
(z
- 1)2 (z - 2) (z
-
sind in Abb. 2.43 der Amplitudenfrequenzgang A(co) = |/i*(eJ1")| und der Phasenfrequenz gang b(co) = —arg h*(e'm) dargestellt. Die Linearität der Phase läßt sieh sofort ablesen
!
Abb. 2.43 Amplitudenfrequenzgang und Phase eines linearphasigen Systems (Beispiel) wenn man h*(z) in der Form h*(z) = z~2(z2 - 4,5« + 7 - 4,5z"1 + z"2) darstellt, woraus sofort h*(eim
folgt. Damit erhält man schließlich b((o) = 2co (0 ^ co < 2n).
138
2.2. Lineare Systeme mit diskreter Zeit
2.2.2.4.
Systemanalyse und -synthese
2.2.2.4.1.
Systemanalyse
Die in den vorangegangenen Abschnitten dargestellten Methoden der Systembeschreibung bilden im wesentlichen den Inhalt der im Zusammenhang mit der Analyse von Systemen zu lösenden Aufgaben. Bei der Systemanalyse (im engeren Sinne) geht man in der Regel von einem vorhandenen Systemmodell aus, d. h., eine Realisierung (auf dem Papier) mit bekannten Werten der Bauelemente ist gegeben. Man untersucht nun f ü r das vorliegende Systemmodell u. a. folgende Fragen: — Wie reagiert das System auf ein gegebenes Eingabesignal, wenn es sich in einem gegebenen Anfangszustand befindet ? — Durch welche Funktionen oder Parameter kann das System beschrieben werden ? (Fundamentalmatrix, Übertragungs- und Gewichtsfunktion). — Welche Eigenschaften hat das System ? (Stabilität, Steuerbarkeit und Beobachtbarkeit). — Wie ist das System zu klassifizieren? (Mindestphasensystem, Allpaß, rekursives oder nichtrekursives System usw.) Zur Illustration des Vorgehens bei der Systemanalyse betrachten wir das nachfolgende ausführliche Beispiel:
Für das diskrete System Abb. 2.44 erhält man die Zustandsgieichungen
z^k + 1) = 0,2 zt(k) + 2 sc(fc) z2(k + 1) = 0,5«2(fc) + 3ac(k)
y(k)
= öz^k) + 4 z2(k) + 3x(k)
Z
1
Abb. 2.44
Diskretes System (Beispiel)
mit den Matrizen
A = r ° ' [0
2 o
i , 0,5j
B=
C = [5
Die Fundamentalmatrix des Systems lautet im Bildbereieh
4>*(z) = (zE - A)" 1 z =
z z - 0,2 0
0 z — 0,5
4] ,
D = 3
2.2.2. Diskrete Systeme
139
und im Zeitbereich v
ro,2* 0
'
o 0,5*
Die Übertragungsmatrix H*(z) enthält nur eine Übertragungsfunktion, nämlich H*(z) = C(zE - A)"i B + D =
322 + z2 -
^ = h*(z) . 0,7z + 0,1
19,92
Daraus erhält man die Gewichtsfunktion (Impulsantwort) h(k) =
J3, 110 • 0 . 2 * - 1 + 12 • 0 , 5 1 - 1
k = 0, k = 1, 2, ... .
Befindet sich das System im Anfangszustand z(0)
lX(or » a (0)
so kann mit (63b) für jede beliebige Eingabe x das Ausgabesignal berechnet werden: t/*(z) = C) = 2 > ( » ) e - * •
(123)
i= 0
Hat das analoge System die Übertragungsfunktion h(p), so erhält man am Ausgang im Bildbereich 0 0
^
y(p) = h(p) xt(p) = ¿7 x(i) h(p) e"**
(124)
i=0
und im Originalbeteich oo y(t) = 21x(i) h(t-i)
.
i=0
Da für die Impulsantwort h des analogen Systems h(t) = 0 für t < 0 gilt, geht die letzte Gleichung in die endliche Summe y(t) = L »(») M* - i) ¿=o
(125)
über. Aus dem analogen Ausgangssignal y erhält man nach dem zweiten Schalter ebenfalls ein (durch Ö-Funktionen idealisiertes) getastetes Signal ys: 00 ya(t) = L y(k) d(t - k).
(126)
k=0
Für die (diskrete) Laplace-Transformierte von yd ergibt sich mit (125) m(p)
=
oo E y(k)
e
~
p k
k= 0
00 Je = £[£*{*) h(k-i)]e~Pk . =0i=0 Diese Doppelsumme kann als Summenprodukt in der Form oo UP) = U - a W e - * 1 ) k=0 = xs(p) Up)
oo ¿=0
{ZhMe-*1) (127)
dargestellt werden. Substituiert man in der letzten Gleichung formal e~pk = z~& bzw. e~pi = z~\ so folgt unmittelbar mit (30) y*(z) = h*{z) x*{z) .
(128)
153
2.2.2. Diskrete Systeme Das Abtastsystem funktion h*:
Abb. 2.52 kann also durch ein diskretes System mit der
Übertragungs-
h*(z) = dt[h{k)]
(129)
beschrieben werden, wenn das analoge System Abtastwerten h(0), /¡.(l), h(2), ... hat. Beispiel:
die Impulsantwort
h mit den
diskreten
Das analoge System habe die Übertragungsfunktion h: HP) =
1
, . P(P + a)
(a € JR) •
D a n n erhält m a n h(t) = £-\h(py]
= — (1 a
e~at)
und daraus die diskrete Übertragungsfunktion h*(z) = £[h(kT&)-]
= — a \z — 1
2 —
_ a(l e~aT*) ~ a(z - 1) (z -
e~aTA '
Bemerkung: Übereinstimmung zwischen der über das zeitdiskrete Ersatzsystem berechneten Übertragungsfunktion h*(z) = C(zE - l ) " 1 B + D und der zuletzt angewendeten Methode zur Berechnung von h*(z) erhält man, wenn man in Abb. 2.52 nach dem Schalter am Eingang noch ein Abtast-Halte-Glied einfügt, das für TA = 1 und Ar = 1 durch die Übertragungsfunktion hAH: AAH(P) =
-
P
(1 -
E-F)
charakterisiert werden kann. Dann" ist in (124) und in der anschließenden Rechnung anstelle von h(p) das Produkt hAn(-p) h(p) einzusetzen.
2.2.3.
Literatur
D . : Die Fourier-Transformation in der Signalverarbeitung. Kontinuierliche u n d diskrete Verfahren der Praxis. Berlin — Heidelberg — New York : SpringerVerlag 1977 [ 2 ] C H U R K I N , J . I . , J A K O W L E W , C . P . , W U N S C H , G . : Theorie u n d Anwendung der Signalabtastung. Berlin: V E B Verlag Technik 1966 [3] F Ö L L I N G E R , O. : Lineare Abtastsysteme. München: R.-Oldenbourg-Verlag 1974 [4] FKEBMANN, H . : Discrete-Time Systems. New York — London — Sydney: J o h n Wiley & Sons, Inc. 1965 [ 5 ] F R I T Z S C H E , G . : Zeitdiskrete und digitale Systeme. Berlin: Akademie-Verlag 1 9 8 1 (WTB-Reihe: B a n d 268) [1] ACHILLES,
154 [6] [7] [8] [9] [10] [11] [12]
2.3. Nichtlineare Systeme L. R . , G O L D , B . : Theory and Application of Digital Signal Processing. New Jersey: Prentice-Hall, Inc. 1975 R U G H , W. J.: Mathematical Description of Linear Systems. New York and Basel: Marcel Dekker Inc. 1975 S C H Ü S S L E R , H. W . : Digitale Systeme zur Signalverarbeitung. Berlin: SpringerVerlag 1973 S C H W A R Z , H . : Zeitdiskrete Regelungssysteme. Berlin: Akademie-Verlag 1979 VICH, R . : Z-Transformation. Berlin: V E B Verlag Technik 1964 W O S C H N I , E. G.: Informationstechnik. Berlin: V E B Verlag Technik 1973 W T J N S C H , G . : Systemtheorie. I n : Taschenbuch der Elektrotechnik von E. P H I L I P P O W (Hrsg.), Band 2: Grundlagen der Informationstechnik. Berlin: V E B Verlag Technik
RABINER,
1974
G.: Systemtheorie. Leipzig: Akademische Verlagsgesellschaft Geest & Portig K.-G. 1975 [14] Z Y P K I N , J. S.: Theorie der linearen Impulssysteme. Berlin: V E B Verlag Technik 1967 [13] WUNSCH,
2.3.
Nichtlineare Systeme*)
2.3.1.
Einführung
Im Ab sehn. 1. des Handbuches sind die Bedingungen formuliert, die ein lineares dynamisches System kennzeichnen (vgl. Definition 4, Abschn. 1.3.1.4.). Nichtlineare Systeme sind demnach zunächst alle denkbaren Systeme, die einige oder alle Bedingungen dieser Definition verletzen. Von allen diesen Systemen besitzen aber gegenwärtig vor allem diejenigen praktische Bedeutung, bei denen die Mengen X, Y, Z, X, Y weiterhin Trägermengen linearer Räume, aber die Überführungsfunktion F und i. allg. auch die Ausgabefunktion g nichtlinear sind. I m heutigen technischen und naturwissenschaftlichen Sprachgebrauch wird überwiegend in diesem Sinne von nichtlinearen Systemen gesprochen. In diesem Kapitel werden nichtlineare Differentialsysteme behandelt. Das entspricht ihrer großen Bedeutung in Naturwissenschaft und Technik, die mit der wissenschaftlich-technischen Entwicklung weiter wächst. Nach Definition 5, Abschn. 1.3.1.5. sind die Zustandsgieichungen solcher Systeme nichtlineare Differentialgleichungen. Demzufolge treten alle damit verbundenen Schwierigkeiten bei der Behandlung nichtlinearer Systeme in Erscheinung. Man hat es vor allem mit zwei Problemen zu tun. 1. Während im Falle linearer Systeme immer geschlossene Lösungen existieren, ist dies bei nichtlinearen Systemen i. allg. nicht der Fall. Man ist oft gezwungen, sich mit approximativen Lösungen zu begnügen oder ausgewählte Teillösungen zu studieren. 2. Die Analyse nichtlinearer Systeme erfordert umfangreichere und schwierigere mathematische Methoden als im Falle linearer Systeme und übersteigt deshalb oft das durchschnittliche Ausbildungsniveau der Mathematikausbildung in den nichtmathematischen Studiendisziplinen. *) v o n MANFRED
LOCKE
154 [6] [7] [8] [9] [10] [11] [12]
2.3. Nichtlineare Systeme L. R . , G O L D , B . : Theory and Application of Digital Signal Processing. New Jersey: Prentice-Hall, Inc. 1975 R U G H , W. J.: Mathematical Description of Linear Systems. New York and Basel: Marcel Dekker Inc. 1975 S C H Ü S S L E R , H. W . : Digitale Systeme zur Signalverarbeitung. Berlin: SpringerVerlag 1973 S C H W A R Z , H . : Zeitdiskrete Regelungssysteme. Berlin: Akademie-Verlag 1979 VICH, R . : Z-Transformation. Berlin: V E B Verlag Technik 1964 W O S C H N I , E. G.: Informationstechnik. Berlin: V E B Verlag Technik 1973 W T J N S C H , G . : Systemtheorie. I n : Taschenbuch der Elektrotechnik von E. P H I L I P P O W (Hrsg.), Band 2: Grundlagen der Informationstechnik. Berlin: V E B Verlag Technik
RABINER,
1974
G.: Systemtheorie. Leipzig: Akademische Verlagsgesellschaft Geest & Portig K.-G. 1975 [14] Z Y P K I N , J. S.: Theorie der linearen Impulssysteme. Berlin: V E B Verlag Technik 1967 [13] WUNSCH,
2.3.
Nichtlineare Systeme*)
2.3.1.
Einführung
Im Ab sehn. 1. des Handbuches sind die Bedingungen formuliert, die ein lineares dynamisches System kennzeichnen (vgl. Definition 4, Abschn. 1.3.1.4.). Nichtlineare Systeme sind demnach zunächst alle denkbaren Systeme, die einige oder alle Bedingungen dieser Definition verletzen. Von allen diesen Systemen besitzen aber gegenwärtig vor allem diejenigen praktische Bedeutung, bei denen die Mengen X, Y, Z, X, Y weiterhin Trägermengen linearer Räume, aber die Überführungsfunktion F und i. allg. auch die Ausgabefunktion g nichtlinear sind. I m heutigen technischen und naturwissenschaftlichen Sprachgebrauch wird überwiegend in diesem Sinne von nichtlinearen Systemen gesprochen. In diesem Kapitel werden nichtlineare Differentialsysteme behandelt. Das entspricht ihrer großen Bedeutung in Naturwissenschaft und Technik, die mit der wissenschaftlich-technischen Entwicklung weiter wächst. Nach Definition 5, Abschn. 1.3.1.5. sind die Zustandsgieichungen solcher Systeme nichtlineare Differentialgleichungen. Demzufolge treten alle damit verbundenen Schwierigkeiten bei der Behandlung nichtlinearer Systeme in Erscheinung. Man hat es vor allem mit zwei Problemen zu tun. 1. Während im Falle linearer Systeme immer geschlossene Lösungen existieren, ist dies bei nichtlinearen Systemen i. allg. nicht der Fall. Man ist oft gezwungen, sich mit approximativen Lösungen zu begnügen oder ausgewählte Teillösungen zu studieren. 2. Die Analyse nichtlinearer Systeme erfordert umfangreichere und schwierigere mathematische Methoden als im Falle linearer Systeme und übersteigt deshalb oft das durchschnittliche Ausbildungsniveau der Mathematikausbildung in den nichtmathematischen Studiendisziplinen. *) v o n MANFRED
LOCKE
2.3.1. Einführung
155
Diese Besonderheiten stellen für die theoretische Forschung eine Herausforderung dar zur Suche nach wissenschaftlich und auch ästhetisch ebenso befriedigenden Theorien, wie eine für lineare Systeme seit langem existiert. In der mathematischen Forschung der letzten Jahrzehnte hat man sich sehr intensiv mit Problemen nichtlinearer Systeme befaßt und diese mit unterschiedlichen Methoden, unter verschiedenartigen Aspekten und aus der Sicht verschiedener mathematischer Disziplinen untersucht/ Die Arbeiten dazu werden heute oft unter der Bezeichnung „Dynamische Systeme" oder „Nichtlineare Analyse" zusammengefaßt, wobei allerdings zumeist auch noch andere nichtlineare Probleme eingeschlossen werden, z . B . solche, die sich aus der Untersuchung von Systemen mit verteilten Parametern oder von stochastischen Systemen ergeben. Charakteristisch für diese Forschungen ist, daß ihre Untersuchungen i. allg. aus speziellen mathematischen Untersuchungen einzelner Modellansätze resultieren oder sich aus logischen Fortsetzungen innermathematischer Entwicklungen ergeben. Man findet deshalb unter den genannten Bezeichnungen Arbeiten zu gewöhnlichen und partiellen Differentialgleichungen, nichtlinearen Operatoren, Operator- und Funktionalgleichungen, zu Grenzzyklen, periodischen Lösungen, nichtlinearen Eigenwerten, Perturbationen, Bifurkationen und Katastrophen, zu speziellen nichtlinearen Problemen der optimalen Steuerung, der Stabilität, der dynamischen Programmierung u. a. m. Sie bezeichnen ein außerordentlich breites und vor allem heterogenes Arbeitsfeld. Man muß diese mathematischen Forschungen als wertvolle und unverzichtbare Grundlagen für die theoretische Durchdringung der Probleme nichtlinearer Systeme ansehen. Ihre ordnende Zusammenfassung und Darstellung ist aber gegenwärtig kaum möglich und verbietet sich hier auch schon aus Raumgründen. Sie werden deshalb nur soweit berücksichtigt, wie sie in die eigentlich systemtheoretische Grundlagenforschung bereits eingegangen sind. Dem interessierten Leser seien aber als Einstieg in diese Forschungen einige Sammelbände empfohlen: BEDNABEK/CESAKI [ 6 ] , KLUGE/MÜLLEB [ 2 6 ] , LAKSHMIKANTHAM [ 2 8 ] , MAKNING [ 3 1 ] , MARTIN [ 3 3 ] , NITECKI [ 3 7 ] , PEIXOTO [ 4 3 ] .
Während die mathematische Forschung hauptsächlich Einzelprobleme nichtlinearer Systeme zu lösen sucht und auch neue bzw. weiterentwickelte Methoden bereitstellt, die mehr oder weniger breit anwendbar sind, bemüht sich die systemtheoretische Forschung stärker um die Ausarbeitung geschlossener Theorien für spezielle Systemklassen nichtlinearer Systeme. Der dabei verfolgte Grundgedanke ist einfach. Um voranzukommen, muß man die zunächst rein negative Abgrenzung zu den linearen Systemen zugunsten einer konstruktiven Abgrenzung aufgeben, die Grundeigenschaften konstituiert, auf denen sinnvoll aufgebaut werden kann. Diese grundlegenden Eigenschaften definieren spezielle Systemklassen, für die mehr oder weniger leistungsfähige Grundlagen geschaffen werden können. Die bis heute nicht wirklich gelöste Schwierigkeit besteht in der zweckmäßigen Art der Klassenbildung. Wünschenswert ist es, Klassen zu bilden, deren theoretischen Beschreibungen leistungsfähig und gleichzeitig einfach sind, und dabei zu sichern, daß sie ein breites Anwendungsfeld besitzen, was nichts anderes heißt, als daß viele unterschiedliche reale Systeme zu den einzelnen Klassen gehören. Anders gesagt, die Klassenbildung sollte so erfolgen, daß die Invarianzeigenschaften möglichst vieler Systeme aus Natur und Technik erfaßt werden. Es ist aber wenig bekannt, welche Eigenschaften das sind. Deshalb geht man in der Systemtheorie gegenwärtig i. allg. so vor, daß die Systemklassen auf der Grundlage gewisser allgemeiner mathematischer Grundeigenschaften
156
2.3. Nichtlineare Systeme
definiert werden, die ihnen eine bestimmte Grundstruktur verleihen. So ist z. B. die Systemtheorie analytischer Systeme entstanden, die heute bereits relativ gut entwickelt ist und aus systemtheoretischer Sicht gegenwärtig die für die Untersuchung nichtlinearer Systeme bedeutungsvollste Theorie darstellt. I n mathematischer Hinsicht basieren wesentliche Grundlagen auf Arbeiten von V o l t e e e a und Wieneb. Herausragende Wissenschaftler bei der systemtheoretischen Erschließung analytischer S y s t e m e s i n d : D ' A l l e s s a n d b o , B b o c k e t t , Cbotjch, F o b s a n i n i , I s i d o e i , Maechesini, Mohlab, R u b e e t i , P a l m , Poggio, P a b e n t e , S c h e t z e n , Sussman. VlDYASAGAB U. a.
Die eingangs genannten Besonderheiten nichtlinearer Systeme waren von Anfang an auch eine Herausforderung zur Schaffung praktikabler Methoden für den praktisch tätigen Ingenieur, Physiker usw. Dies hat zur Ausbildung unterschiedlicher Methoden geführt. E s handelt sich dabei vor allem um Linearisierungsverfahren, die das nichtlineare System in geeigneter Weise zum linearen vereinfachen,, um die lineare Theorie einsetzen zu können. Es gibt mehrere solche Linearisierungsverfahren, von denen hier zwei besonders bedeutungsvolle behandelt werden. Neben der Linearisierungsmethode besitzt die Methode der Phasenebene für zweidimensionale Zustandsräume klassische Bedeutung. Wir beginnen im folgenden zunächst mit der Behandlung von Näherungsverfahren und mit der Methode der Phasenebene. Dann folgt eine Einführung in die Grundlagen der Theorie analytischer Systeme und schließlich ein Abriß der Stabilitätstheorie für nichtlineare Systeme.
2.3.2.
Näherungsverfahren zur Analyse nichtlinearer Systeme
2.3.2.1.
Linearisierung um einen Arbeitspunkt
Die Leistungsfähigkeit der linearen Systemtheorie legt den Gedanken nahe, ein nichtlineares System durch eine geeignete Linearisierung in ein lineares zu überführen und den dabei auftretenden Fehler innerhalb zulässiger Grenzen in Kauf zu nehmen. Von den heute bekannten Verfahren besitzen vor allem die Linearisierung um einen Arbeitspunkt und die sog. harmonische Linearisierung große praktische Bedeutung. Zunächst wird die Linearisierung um einen Arbeitspunkt unter Beschränkung auf zeitinvariante Systeme behandelt. Ein nichtlineares, zeitinvariantes Differentialsystem wird nach (89), Abschn. 1.3.2.1.3., durch die Gleichungen z = h(z, x) ,
y = g{z, x)
(1)
beschrieben, wobei z = (1z¡dt ist. (In der Regel werden im weiteren gepunktete Größen zur Kennzeichnung von Zeitableitungen verwendet.) Mit h = d- h. nach Abklingen aller evtl. Übergangsvorgänge.
157
2.3.2. Näherungsverfahren zur Analyse nichtlinearer Systeme
Dann ist z = 0, und für den Ruhezustand z0 bez. xg gilt die vektorielle Gleichung h(z0, x0) = 0 .
(3)
Wegen der nichtlinearen Funktion h ist z0 i. allg. nicht eindeutig definiert. Das System kann zu einem gegebenen x0 mehrere Ruhezustände besitzen. E s wird angenommen, daß einer dieser Zustände einem erwünschten Arbeitspunkt des Systems entspricht. Mit kleinen Abweichungen Ax, Az vom Arbeitspunkt gilt x = x0 + Ax ,
z = z0 + Az
(4)
mitzla; = (Axv ... ,Axi) undzlz = (Azv ... ,Azn). Dann geht (2) über in: ¿I =
Ä4(Z10 +
A z
v
...
, znQ
+
Az„,
x10
+
A x
v
...
, xl0
+
Axi)
.
(5)
Wir setzen voraus, daß ht für i = 1, ... , n im Arbeitspunkt (z0, x0) wenigstens einmal nach jeder Veränderlichen zit Xj (i = 1, ... , n; j = 1, ... , l) differenzierbar ist. Dann kann eine Taylor-Entwicklung vorgenommen werden, die zum Zweck der Linearisierung nach den linearen Gliedern abgebrochen wird. E s entsteht für alle i : hi(zw + Azv ... , z„0 + Az„, x10 + Axv ... , xn + Axt) ä ; hi(zJ0, ... , zn0, x10, ... , xl0) +. Az1 A Ax-l
*
dh
... +
Azn
dhi
+
dzn
dh% — axi
Axt
—
dhi dz1
(6)
dx1 dhi Hierin bezeichnet die partielle Ableitung von hi nach z} im Arbeitspunkt dzt (z0, x 0 ). Die Zusammenfassung aller Gleichungen ergibt die vektorielle Darstellung dh~
A z ä h(z0, a:0)
•Ax
•Az +
dz
(7)
mit den Matrizen
dh dï~
dhx
dAj
dz1
dzn >
dhn
dhn
dZi
dz„_
und zlx T = [Axv ... ,Axt],
'dh dx
AzT = [Az, ...,
dh^
dhi
dx1
dXi
dhn dxx
dhn dxi
(8)
Azn]-
In (7) ist h(z0, x0) gleich Null (vgl. (3)). Bezeichnet man die Lösung der zur Differentialgleichung gesetzten Näherung (7) mit Aznn, B =
\dh] —
einfach geschrieben werden: Azlin = AAznn
+ BAx
so kann mit A =
— dz
und
(9)
Wenn das nichtlineare System zeitvariabel ist und demzufolge z = h(t, z, x) gilt, kann die Linearisierung ganz analog durchgeführt werden. E s ergeben sich dann jedoch dht dhi Matrizen A(
nA2
2 «(.4) 3 4
+
Fläche der Hystereseschleife
B + kC fc
2.3.2. Näherungsverfahren zur Analyse nichtlineare Systeme
167
l'y
y= flu
A b b . 2.54 Regelkreis mit statischer Nichtlinearität u n d linearem dynamischem System mit Gewichtsfunktion h
kreis mit statischer Nichtlinearität untersucht (Abb. 254). Das nichtlineare Glied wird mittels seiner Beschreibungsfunktion J(A) beschrieben. Die Existenz von Dauerschwingungen wird auf folgende Weise ermittelt. Sei x(t) = A sin cot. Dann ist im eingeschwungenen Zustand näherungsweise bei Anwendung der harmonischen Linearisierung y(t) = 6j sin cot + ax cos cot. z(t) ist dann ebenfalls eine harmonische Schwingung und muß zur Aufrechterhaltung des Vorganges gleich —A sin cot sein. I m komplexen Bereich der Fourier-Transformation gelten damit folgende Zusammenhänge (vgl. Abschn. 5.) y(co) = J(A) x(co), h(co)-J(A)
z(co) = h(co) y{co) ,
x(co) = — «(co)
+ 1 = 0 .
(31a)
(31a) muß erfüllt sein, damit eine Dauerschwingung auftreten kann (Prinzip der harmonischen Balance). Häufig wird (31 a) in der Form h(a>) = v
—
'
(31 b)
J(A)
dargestellt, da dies eine grafische Interpretation erlaubt. Werden beide Funktionen h(co), —ljJ(A) als Ortskurven in der komplexen Ebene dargestellt, dann liefert der Schnittpunkt beider Kurven die Werte A und co, mit denen die Dauerschwingung auftritt. Wenn der Schnittpunkt fehlt, kommt es nicht zur Dauerschwingung. Das System ist dann entweder stabil oder instabil. Beispiel 3: E s sei ein Regelkreis mit Begrenzer u n d linearer D y n a m i k gegeben. D a n n ist J(A) rein reell u n d durch Nr. 1, T a b . 2.3, gegeben. H i e r a u s folgt sofort, d a ß bei Dauerschwingung h(co) ebenfalls rein reell sein m u ß . Deshalb können Glieder 1. oder 2. O r d n u n g nicht in F r a g e k o m m e n . Wegen ~ lh()) = 0, wenn cu = ^djd 2 ist. E i n e a u f t r e t e n d e Dauerschwingung h a t diese Frequenz. E s wird d a m i t h(^d,d2) = K/—d1d2(d1 + d2). (31 b) ist folglich erfüllt, wenn gilt: d-d^
+ d2) n 2 kK
= arc sin
C A
1
f
G ,1 , 1
C2
A \
A2
Die Gleichung m u ß f ü r gegebene P a r a m e t e r w e r t e numerisch n a c h A gelöst werden und liefert die A m p l i t u d e der Dauerschwingung. Genauere Überlegungen bez. der N a t u r dieser Dauerschwingung (stabil, Grenzschwingung) bedürfen der Einbeziehung von Stabilit ä t s b e t r a c h t u n g e n u n d müssen hier zurückgestellt werden. 12«
168
2.3. Nichtlineare Systeme
Abschließend sei bemerkt, daß sich die Methode der Beschreibungsfunktion auf den Fall unsymmetrischer Dauerschwingungen erweitern läßt, wo am Eingang des nichtlinearen Systems eine Funktion x(t) = x00 + A sin cot auftritt mit x00 = konst. Dann muß für das nichtlineare System eine Beschreibungsfunktion berechnet werden, die natürlich außer von A auch von xw abhängig ist. Literaturhinweise: GÖLDNEK/ K U B I K [ 2 0 ] , SOLODOWNIKOW [ 5 3 ] , N A S L I N [ 3 6 ] .
2.3.3.
Methode der Phasenebene
2.3.3.1.
Grundlagen
Die Zustandsgieichung (1) z = h(z, x) des nichtlinearen, zeitinvarianten Differentialsystems definiert ein System von Differentialgleichungen 1. Ordnung. Jeder Zustand z(t), der (1) erfüllt, läßt sich als Vektor des w-dimensionalen Raumes Rn interpretieren, der Zustandsraum heißt. Bei laufender Zeit beschreibt z eine Bahnkurve im Zustandsraum, die sogenannte Zustandsbahn oder Zustandstrajektorie. Wegen der Abhängigkeit des Lösungsvektors z(t) von Anfangszustand und Eingangsfunktion x ist die Trajektorie im Zustandsraum für eine bestimmte Eingangsfunktion x gültig. Einer anderen Funktion xx ist i. allg. eine andere Trajektorie zugeordnet. Um diese Abhängigkeit zu beseitigen, betrachtet man i. allg. einfach das zugeordnete autonome System (x(t) = 0 für alle i). In einfachen Fällen kann die Eingangsfunktion berücksichtigt werden, oder man versucht, durch eine geeignete Koordinatentransformation zu Zustandsgrößen eines autonomen Systems überzugehen. Die Zustandsbahnen des (autonomen) Systems gestatten Aussagen über seine Dynamik. Ihre grafische Darstellung ist allerdings auf Systeme maximal 3. Ordnung beschränkt und hat praktische Bedeutung für Systeme 2. Ordnung erlangt. Die Untersuchung solcher Systeme mittels der Zustandstrajektorien im autonomen Falle wird als Methode der Zustandsebene bezeichnet. Es liegt dabei der Fall zweier Differentialgleichungen 1. Ordnung vor: ¿i (t) = äi(*I (o. s 2 m ) > «,(*) = h^t), z2(t)) . Die Zustandsebene wird durch zt, z2 aufgespannt, und die Zustandstrajektorien sind durch die Differentialgleichung (32)
festgelegt. Sie stellen die Integralkurven dar, auf denen die Differentialgleichung erfüllt ist. Wenn speziell z2 = ¿j ist, so heißt die Zustandsebene Phasenebene, und man spricht dann von der Methode der Phasenebene. Dieser Fall hat besonders große Bedeutung erlangt. Er tritt immer auf, wenn die freie Bewegung der Ausgangsgröße y' eines Systems 2. Ordnung durch eine Differentialgleichung der Gestalt y = f(y, y) beschrieben werden kann. Dann führt die Festlegung von Zustandsgrößen z t = y, z2 = y auf die Zustandsgieichungen (33a)
=
¿2 = h2(zv ZG).,
ht = /
(33 b)
169
2.3.3. Methode der Phasenebene
und auf die Differentialgleichung d = dz1 z2
f
der Trajektorien in der Phasenebene (Phasenbahnen). Mit den Phasenbahnen, die das sogenannte Phasenportrait des Systems konstituieren, werden wir uns im folgenden befassen. 2.3.3.2.
•Die Konstruktion der Phasenbahnen Es gibt mehrere Möglichkeiten, die Phasenbahnen zu konstruieren oder ihren Verlauf abzuschätzen. Man kann sie grob in drei Gruppen einteilen. 1. Direkte Lösung der Differentialgleichungen, 2. Grafische Methoden, 3. Abschätzungsverfahren. Die Grundzüge der wichtigsten Verfahren werden im weiteren dargestellt. Direkte Lösung der Differentialgleichungen. (33) die Gestalt an (Abschn. 2.1.)
Im Falle linearer Systeme nimmt
¿! = z2» z2 = a21z1 + a22z2 .
(35 a) (35 b)
Die Lösung von (35) enthält keine Schwierigkeiten und ist aus der linearen Theorie gut bekannt. Es ist Zl{t)
= §3/ = 0
(38)
gegeben. Mit zx = y, z2 = y wird z1 = z2 und z2 = — u>qZx. Die Systemmatrix A = ( h a t die Eigenwerte Aj = j(o0, Aj = —jco0. Man erhält
/1 m = r - (\jcu ' 0 .
•w = '
;1 ), M-1 ) •„/ —JCO cos mat
1
2
1
|
2
®'
170
2.3. Nichtlineare Systeme
Mit z^O) = z10, * a (0) = z20 wird *i(0 — zio o o s Hierin ist
a + ~ sin a)0t = K sin (oi0t + tp) ,
co t
z2(t) = — a)0z10 sin co0t + z20 cos tu0{ - tu0iC cos (o>0J + /tu)-Halbebene sind in der (y, y/at) Halbebene demnach um F0/c nach links verschoben, die Halbkreise der unteren (w, iv/co)-Halbebene sind in der (y, y/m) -Halbebene um F0/c nach rechts verschoben. Die Phasenebene besteht aus zwei gegeneinander versetzten Halbebenen, den sog. Phasenblättern. Man spricht auch von mehrblättriger Phasenebene. Verursacht ist dies im Beispiel durch den Vorzeichenwechsel der Reibungskraft.
Abb. 2.57
Phasenportrait zu (41)
Unter Umständen kann es einfacher sein, die Differentialgleichung (34) der Phasenbahnen zu lösen. Das ist beispielsweise im Falle der Gleichung (38) der Fall. Man erhält mit z1 = y, z2 = y die folgende Differentialgleichung der Phasenbahnen: dz 2
dzj
2
= —w0
(44)
(44) kann auf einfache Weise durch Trennung der Variablen gelöst werden und führt direkt auf (40). Nichtlineare Systeme 2. Ordnung können unter gewissen Voraussetzungen nach dem Verfahren im Abschn. 2.3.2.1. linearisiert und in der Phasenebene näherungsweise dargestellt werden. Die Trajektorien des linearisierten Systems haben in den meisten Fällen in einer genügend kleinen Umgebung des Ursprunges denselben qualitativen Verlauf wie die Trajektorien des nichtlinearen Systems. Dies folgt aus einigen Theoremen der Stabilitätstheorie (vgl. z. B. Vid y as agak [62]). Insbesondere gilt es für den Fall, daß keine rein imaginären Eigenwerte des linearisierten Systems existieren. Isoklinenverfahren. Unter den grafischen Verfahren hat die Isoklinenmethode die größte Bedeutung erlangt. Man zeichnet in der Phasenebene die Isoklinen. Das sind Kurven gleicher Steigung der Phasenbahnen. Sie sind durch die Gleichung
172
2.3. Nichtlineare Systeme
(vgl. (34)) — = konst. = A = d z1
H^ILÎÎL z2
(45)
gegeben. Jede Phasenbahn, die eine durch (45) definierte Isokline schneidet, muß es mit demselben Neigungswinkel tun. Zur Konstruktion des Phasenportraits muß man eine hinreichend große Zahl von Isoklinen verschiedener Steigungen der Phasenbahnen zeichnen. Wir erläutern das Verfahren an einem Beispiel. Beispiel
6. E s sei f(zlt z2) = 1 — z 2 . D a n n sind die Isoklinen gegeben durch
1 — Zo
(46)
Z2
Sie sind unabhängig v o n z1 und demnach Parallelen zur Zj-Achse (Abb. 2.58).
Die Genauigkeit der Isoklinenmethode wird durch die Zahl der verwendeten Isoklinen bestimmt und kann im Bedarfsfalle weitgehend beliebig gesteigert werden. Abschätzungen. In autonomen Systemen können periodische Lösungen auftreten. Sie werden durch geschlossene Phasenbahnen charakterisiert und können isoliert sein oder nicht. Isoliert sind sie dann, wenn es zu jedem Punkt der geschlossenen Phasenbahn eine Nachbarschaft gibt, die keine Punkte einer anderen geschlossenen Phasenbahn enthält. In diesem Sinne sind die Phasenbahnen von Abb. 2.55 nicht isoliert. Dagegen existieren im Phasenportrait von Abb. 2.59 zwei isolierte geschlossene Phasenbahnen.
Abb. 2.59
Phasenportrait eines nichtlinearen Systems mit zwei Grenzzyklen 1 )
2.3.3. M e t h o d e der P h a s e n e b e n e
173
In der Literatur werden mitunter nur isolierte geschlossene Phasenbahnen Grenzzyklen oder Grenzschwingungen genannt. In diesem Sinne ist auch die Bemerkung in unserem Beispiel 3 zu verstehen. Jetzt wollen wir aber den Begriff allgemeiner definieren. Definition 2. Ein Grenzzyklus (auch Grenzschwingung genannt) der Phasenebene ist eine periodische Lösung der Zustandsgieichungen (33 a, b). Die Definition kann für die allgemeine Zustandsebene (¿x = A1(z1, z2)) verallgemeinert werden. Ein Grenzzyklus ist dann eine periodische Lösung der allgemeinen Zustandsgieichungen ¿1 = h(zv
z
z) .
(47a>
¿2 = h2{zv z2) .
(47 b)
Für die Analyse des Systems ist die Kenntnis der Existenz von Grenzzyklen von Bedeutung. Die folgenden Sätze geben Kriterien dafür an. Satz 1 (Satz von BENDIXSON). Sei D ein einfach zusammenhängendes in R2 2). Dann enthält D keine geschlossenen Phasenbahnen von (47 a, b), wenn j
=
dh^zz3) dz1
dh2(zv z2) dz2
Gebiet ^
in D das Vorzeichen nicht wechselt und in keinem Teilbereich von D identisch Null ist. Beispiel 7. G e g e b e n sei ein a u t o n o m e s S y s t e m , dessen V e r h a l t e n d u r c h eine V a n d e r P o l s c h e D i f f e r e n t i a l g l e i c h u n g festgelegt i s t :
y - o ( l - y*) y + y = 0 .
(49)
D a n n ist m i t y = z15 y = z2: ¿i = z2 ,
(50 a)
z2 = o ( l — z\) z2 — zx .
(50 b )
Die A n w e n d u n g v o n (48) f ü h r t auf Demnach:
In = a( 1 - zl) .
(51)
\zy\ < 1: / „ > 0 ,
kein G r e n z z y k l u s möglich .
1%] > 1: / „ < 0 ,
kein G r e n z z y k l u s möglich .
|z x | < k (k > 1): / „
0 ,
G r e n z z y k l u s möglich .
(Vgl. A b b . 2.60). O b in d e m in A b b . 2.60 angegebenen Gebiet möglicher G r e n z z y k l e n t a t s ä c h l i c h welche a u f t r e t e n , k a n n m i t d e m Satz v o n BENDIXSON n i c h t e n t s c h i e d e n w e r d e n . *) A u s TRTJXAL, J . G . ; E n t w u r f a u t o m a t i s c h e r R e g e l u n g s s y s t e m e — R . O l d e n b o u r g , W i e n , M ü n c h e n , 1960, S. 669. m i t f r e u n d l . G e n e h m i g u n g des O l d e n b o u r g Verlags München, Wien. 2 ) D ist e i n f a c h z u s a m m e n h ä n g e n d , w e n n je zwei P u n k t e d e r Menge d u r c h eine K u r v e v e r b u n d e n w e r d e n k ö n n e n , die ganz in D liegt, u n d w e n n d e r R a n d v o n D z u s a m m e n h ä n g e n d ist.
174
2.3. Nichtlineare Systeme z
2i i Ii V t-•
. nM .N/
e ' SV
''K CN es /G'A / tu/ •OSi -i K T Null ist. Durch (58) wird andererseits ein System-Operator G: X —» Y definiert, wenn man festlegt G[x]
(t) = G[x]
= G[x(t
-
T)] .
I n der Funktionalschreibweise (58) wird die Aufmerksamkeit auf den W e r t der Ausgangsfunktion in einem bestimmten Zeitpunkt t konzentriert, während sie in der Operatorschreibweise auf die vollständige Ausgangsfunktion gerichtet ist. VOLTERRA bezeichnet ein Funktional G als analytisch im Punkt x € X, wenn es dort beliedig oft differenzierbar ist und wenn die Werte der Ableitungen G?(n) mit n —• oo gegen Null gehen. Ein solches Funktional kann in eine Funktionalreihe entwickelt werden, deren Glieder Mehrfachintegrale darstellen (VOLTERRA [60], S. 21). Dies bildet die Grundlage für den Begriff des analytischen Systems (Abschn. 1.4.3.2.). Definition gilt:
4. Ein (zeitinvariantes) System heißt genau dann analytisch,
y(t) = G[x] = g0 +
G&x]
=
Gt[x] i=1
OO oo f ••• f 9t(*1. -
(60 a)
(VxtX)
. ti) ^
wenn
— ri) -
— T T2.) =
(84)
anderenfalls. ander«
10
Die Übertragungsfunktion ist nach (73 a): CO r8
9i{PvPi)
=
JJke
+i',)r''dr1
dr2 ,
o o oo
J
7fr + Pi [ 0 (85)
mit Konvergenzabszissen CT10 Beispiel 13. Gegeben sei eine Schaltung gemäß A b b . 2.68 mit gl(t) = e~llT° s(t), g*(t) = ö(t), g 3 (i) = e~2tlT° s(t) und s als Symbol der Einheitssprungfunktion. g1'2,3 sind Gewichtsfunktionen linearer Systeme. Die zugehörigen Übertragungsfunktionen sind: 9HP) =
?(P)
= 1 ,
(g\p)
93(P) =
= *(p))
.
J3 +
A b b . 2.68
Realisierung eines Volterra-Funktion als 2. Ordnung
Die Schaltung repräsentiert ein analytisches System 2. Ordnung mit G[ac] = C?2[a>], dessen Übertragungsfunktion g2(plt p2) durch Reihenschaltung aus einer Multiplikationsschaltung und einem nachgeschalteten linearen System entsteht. Die Multiplikationsschaltung besteht aus einem linearen System mit gi(Pi) = (jjj + (1/T 0 )) - 1 , g„ — 0 für n ^ l , und aus einem identischen Übertragungsglied mit gf(Pi) = 1, g„ = 0 für n # 1. Nach (81) gilt dann für die Multiplikationsschaltung: Bz(Pi> Pz) = 9\(Pi) gl(p*) =
Pi +
1
1/-i
o
•
2.3.4. Analytische Systeme mit skalarer Ein- und Ausgangsfunktion
191
F ü r die Reihenschaltung ist nach (82) damit: (86)
Pi) = 92 (Pi> Pi) 9l(Pi + Pi)
E i n Vergleich von (86) mit (85) zeigt zugleich, daß die Schaltung von Abb. 2.68 das System des Beispiels 12 realisiert, da die Vertauschung von pu p2 in beiden Gleichungen ohne Bedeutung ist. Beispiel 14. Gegeben sei die Schaltung von Abb. 2.69. E s sei: 9HP) =
9*(p) =
P + 1
P + 2
2/i = /°(w) = 1 + w + 2m ,
y2 = f(v)
2
Abb. 2.69
=
.
Schaltung zu Beispiel 14
Die Volterra-Darstellung der beiden Funktionale O1, G2 ergibt mit (75) und (81): SS = 1 , !7o = 9x(Pi) = ?!(ft)
9i(Pi) = 1 . = »2 = 1 Pi +
0
>
' 9&Pv Pi) = 2 , 93=
1
l Pi + 2
(Pi, Pf P3) = 1 >
& = 0 3» =
0
für
n = 3, 4, ... =
> 5> -
für
n
4
- . i>») = 0
für
n # 1,
... , p„) = 0
für
>i /
1.
Also: ¡75= 1 , S[(ft) = Si(Pi) 9i(Pi)
=
A + 1
di(Pi, Pi) = Si(Pi) ?i(p 2 ) g&Pn Pi) =
{Pi + i ) ( f t +
g"(Pi> Pi' Pa) = 9l(Pi) 9l(Pi) 9i(Ps) 9bs{Pi, Pi, Pa) und gl = 0 für n = 3, 4, ... , Gesamtsystem das Ergebnis:
i)
(Pi + 2) (Pi + 2) (p3 + 2)
= 0 für n # 3. Nach (81) erhält man schließlich für das
9o = ?i(Pi) = 9iiPi, Pi) = 0 , Pt> Pi) = 4 (Pi + i) 77 (pt + 2) t = 2
— > Pt,) = 9i(Pl> Pi) ?37(P3. Pl> Pi) = ~2 77 (pi + 1) 77 (Pi + 2) i=l i=3 =-0
für
n = 6, 7, ...
Die mehrdimensionale Laplace-Transformation kann für die Lösung nichtlinearer Differentialgleichungen eingesetzt werden. In der Literatur werden verschiedene Vorgehensweisen dafür angegeben. Folgender Satz liefert eine allgemeine Grundlage für eine relativ große Klasse nichtlinearer Differentialgleichungen. Satz 3 (Parente).
Ein analytisches SystemS
t Ax dx dy ^ d T ' - ' - d r ^ ' d ? ' - '
dw\ d i u
sei durch eine Differentialgleichung ... i
a
l
l
„ e
t
(87)
und Nebenbedingungen beschriehen, die nichtanalytische Lösungen ausschließen, f ist eine skalare Funktion von m + n + 2 reellen Variablen, deren Taylor-Entwicklung nach diesen Variablen existiere. Dann kann die Differentialgleichung (87) in eine Menge algebraischer Gleichungen transformiert werden, in denen die Übertragungsfunktionen der Volterra-Darstellungen von St (i = 1, ... , m + n + 2) auftreten, wobei für S« gilt: « ,
, 1 0
| !,, - « . ] } , I . c {x, %
^
,
|
Ä j
.
Es ist klar, daß unter den St auch das gesuchte analytische System S enthalten ist. Die Transformation der Differentialgleichung in die angegebene Form erlaubt die schrittweise Elimination der Übertragungsfunktionen g„ (n = 0,1, 2, ...) von S. Durch Rücktransformation erhält man daraus die Volterra-Kerne und damit die gesuchte Lösung in Form einer Volterra-Reihe. Im algebraischen Lösungsbereich kommen dabei die Regeln für die Verknüpfung von Übertragungsfunktionen zur Anwendung. Das Verfahren ist praktikabel für Differentialgleichungen mit schnell konvergierenden Taylor-Entwicklungen, da anderenfalls die Abbruchfehler bei der natürlich erforderlichen Beschränkung auf eine endliche Anzahl von Gliedern der Reihe relativ groß werden oder der numerische Aufwand erheblich ansteigt. Die Taylor-Entwicklung erfolgt um den Punkt £4 = 0 (i — 1, ... , m + n + 2). Eine exakte Lösung erhält man, wenn eine endliche Potenzreihenentwicklung vorliegt, die Differentialgleichung also durch ein Polynom in il0°... beschrieben werden kann. An einem solchen Beispiel soll das Verfahren erläutert werden. Die im Satz genannten Nebenbedingungen schließen Lösungen der Differentialgleichung aus, die sie zwar erfüllen, die aber nicht zu einem analytischen System gehören können. Ihre explizite Formulierung muß, wenn überhaupt, für den konkreten Fall vorgenommen werden. Wenn man sich jedoch dessen bewußt ist, daß das Lösungsverfahren nur die Lösungen liefert, die das analytische System beschreiben, so
2.3.4. Analytische Systeme mit skalarer Ein- und Ausgangsfunktion
193
müssen diese Nebenbedingungen nicht formuliert werden. Man kann dann den Satz auch so interpretieren, daß das Verfahren für eine vorgelegte Differentialgleichung als Lösung ein analytisches System liefert, dessen Eingangs-, Ausgangspaare (x, y) die Differentialgleichung erfüllen. Beispiel 15
(PABENTE
[41]). Die Differentialgleichung eines Systems S x sei
f(x, x, y, y, y, y)
= x
1
d ]3 "diJ
d "12
da; [" V
~ dT [
+
"dt
y — 2a;3 =
0
(88)
für alle t. Zunächst kann man erkennen, daß für Eingangsfunktionen, die in einem Zeitintervall Null sind, die Ausgangsfunktionen beliebige W e r t e annehmen und dennoch (88) erfüllen können. Diese Paare gehören natürlich nicht zu einem analytischen System. Zur Konstruktion der Lösung im Sinne des Satzes geht man folgendermaßen vor. d y + 2y + 'y, Mit u 2a:3, y + 3y + Zy + y, w = 1 + y y di
[1+s
z = x ist /(...) = xu — zw — v. Das entspricht einer Summation von Ausgangsgrößen xu, zw, v dreier Systeme, von denen zwei offensichtlich Multiplikationsschaltungen sind, die x und u bzw. z und w multiplikativ verknüpfen. Dabei werden u, w von zwei Systemen mit der Eingangsgröße y erzeugt, y selbst aber durch das gesuchte System mit der Eingangsgröße x. B e i dieser Betrachtung gelangt man zu einer strukturellen Interpretation der Differentialgleichung (88), wie sie Abb. 2.70 zeigt und die aus Grundverknüpfungen der
Abb. 2.70 Dekomposition der Differentialgleichung (88) u = [1 + (d/di)] 3 y, v = 2a;3, w = [1 + (d/di)] 2 y, z = x
oben behandelten Art besteht. Die Grundsysteme sind: s
i = {(*> V) I lf(0 = ( ? 1 [ a ; ]} >
(89 h)
«a = { ( » , « ) I « ( 0 = 0\y-]\ ,
linear wegen
u = y + 3y + 3y + "y ,
(89b)
®3 =
linear wegen
x —x
(89c)
{(®> ) I x
=
03[x\)
,
(identische Abbildung) , S 4 = {(x, v) | v(t) = Gl\_x]} ,
statisch nichtlinear wegen v = 2x3 ,
(89 d)
Ss = {(x, z) | s(t) = G [x~\ ,
linear wegen z = x ,
(89 e)
5
s
e = i(y>
w
) I
= ö [j/]} , 6
linear wegen w .= y + 2y + y .
(89 f)
194
2.3. N i c h t l i n e a r e S y s t e m e
gln m ö g e die Ü b e r t r a g u n g s f u n k t i o n des F u n k t i o n a i s Gln der V o l t e r r a - E n t w i c k l u n g v o n O bezeichnen. Ö 2 - 3 ' 5 - 6 sind lineare F u n k t i o n a l e , d. h., es i s t : G 2 [i/] = G?[«/], Ö 3 [ x ] = i?f[ac], G\x] = G\[x], G 6 [«/] = G\[y~\. Die zugehörigen Ü b e r t r a g u n g s f u n k t i o n e n folgen a u s (77): 9i(Pi) = 1 + 3 P l + 3p? + p{ = (1 + p1)3 ,
(90a)
gl(Pl)
(90 b)
= 1,
(90c)
9l(Pi) = Pi . i i ( f t ) = 1 + 2 P l + p\ = (1 +
2
Pl)
.
(90 d)
F ü r d a s s t a t i s c h n i c h t l i n e a r e S y s t e m S 4 folgt a u s (75): di(Pi> Pi, Pa) = 2 ,
(91a)
g} = 0
(91b)
für
t # 3.
D a m i t k ö n n e n die Ü b e r t r a g u n g s f u n k t i o n e n f ü r die g e k o p p e l t e n S y s t e m e Sa, Sb, S S J J berechnet werden. sind R e i h e n s c h a l t u n g e n eines n i c h t l i n e a r e n u n d eines nachgeschalt e t e n linearen S y s t e m s . A u s (82) f o l g t : 9"o = 9o9i(0 = gl ,
(92a)
9n(Pl> — >Pn) = 9&P1, — , Pn) 9l(Pi + — + Pn) > = 9i(ft,
. Pn) (1 + Pt -
+ Pn)3 ,
(92b)
gl = 9od!(0) = hl,
(92c
9n(Pi> - , Pn) = 9n(Pi, - , Pn) 0l(Pi + = gl(Pl,
... , P n ) (1 +
Pl
2
+ Pn) .
+ -
+ Pn)2 •
(92d)
S j j j sind M u l t i p l i k a t i o n s s c h a l t u n g e n . W e g e n (81) f o l g t : U = 9o9S = 0>
(93 a)
9{(Pi) = 9l(Pi) ?0 = 9% = gl , 9n(Pl' " ' Pn) = Pn)
... , Pn) • (1 + ft + -
+ Pn)3 ,
(93c)
= 0 ,
(93 d)
giHPi) = 9i(Pi) 9o = Px9o .
(93 e)
9niPi> ... > Pn) = !7l(Pi) 9n-l(P2> - » Pn) » = PiU + A + -
+ Pn) 2 ? i - l ( f t . - . Pn) •
(93f)
D a s G e s a m t s y s t e m S ergibt sich n u n als P a r a l l e l s c h a l t u n g v o n S j , SJJ u n d St. W e g e n (80) ist m i t (91) u n d (93) , . _ fgJ>(Pi> ••• . Pn) -VnhPi ¡7«lPi,...,P*)-, -"'.),
Pn) -
9»(Pi' -.,Pn)
,
h = 3,
(94a) (94b)
9o = 0 , Pa> Pa) = ?2(P2> Pa) i 1 + P2 + Pa) 2 (1 - Pi + Pa + Pa) 9n(Pi, - , Pn) =
- , P») " (1 + Pa + • (1 -
Pi + P2 + -
+ Pfl) >
2
,
(94 c)
2
+ Pn) • n ^ 0, 3 ,
"
(94d)
2.3.4. Analytische Systeme mit skalarer Ein- und Ausgangsfunktion
195
Wegen j{x, x, y, y, y, y) = 0 sind alle Glieder der Volterra-Reihe Null, also auch gn{px, ... , pn) = 0 für n = 0, 1, 2, ... Demnach erhält man folgendes Gleichungssystem aus (94): n = 0:
0 =
n = 1:
0 = di(Pi) = (1 - Pi) 9o .
= 0 ,
(95a)
» = 2:
0 = g2(Pi, p2) = (1 + p2)* (1 -
n = 3:
0 = g3(pu p2, p3) = (1 + p2 + p3)* (1 - p1 + p2 + pa) •
(95 b) Pl
+
A)
g[(p2) ,
•yä(ft.ft)-2. n = 4:
(95 d)
0 = gt{px, ... , pt) = (1 + p2 + Pa +
Pi)2
• (1 - Pi + Pi + Pa + Pi) •
• g\(P2< Pa, Pi) . n = 5:
0 = gs(pv
(95c)
(95 e)
... , pb) = (1 + Pi + Pa + P, + p6
)2
•
• (1 - Pi + Pi + Pa + Pi + Pi) dliPv Pa, Pi, Pi) (95 f) usw. E s folgt unmittelbar: g\ = 0 für n # 2. g\ ist die einzige von Null verschiedene Übertragungsfunktion. Aus (95 d) erkennt man, daß g3(px, p2, p3) nicht symmetrisch ist. U m Eindeutigkeit zu erreichen, wird symmetrisiert: 9asym(Pi,
1 Pi, Pa) = —
E
Perm.
A !
9z(Pi, Pi, Pa) =
0
•
J,i>!,J>s) 0 = (1 + Pi + Pa)2 (1 - Pi + Pa + Pa) 92(Pi, Pa) + + (1 + Pi + Pa)2 (1 + Pi - Pi + Pa) 92(Pi' Pa) + + (1 + Pi + Pi)2 (1 + Pi + Pi - Pa) g\(Pi, Pi)-
6 •
(96b)
Hierbei ist g\ symmetrisch genommen worden, also g\(Pi, Pi) = g\(p2, Pi), gl(Pi, Pa) = hl(Pa, Pi) u n d dkpi, Pa) = dkpa, Pi)- Die Ermittlung von gl(px, p2) erfolgt in drei Schritten. a) (Pi, Pi, Pa) = (0, 0, 0 ) : g\(0, 0) = 2 .
(97a)
b) (Pi, P2, Pa) = (Pi, 0, 0 ) : Mit (97 a) erhält man aus (96 b) -1 9l(Pi, 0) = c) (Pi,Pi,Pa)
2
+ Pi
(1 +
= (Pi,Pi,0):
Pi?
Mit
•
(97b)
(97 b) und g\{p2, 0) =
durch Anwendung von Schritt b) für (plt einigen Zwischenrechnungen: -1/ v 9z(Pi, Pi) =
2 + p,
(folgt aus (97b) oder (1 + Pi)3 p2, p3) = (0, p2, 0)) erhält man aus (96 b) nach
2 + Pi+ Pi -77. ,,7^—; .-77—. t- • (! + Pi + Pi)2 (1 + Px) (1 + Pi)
la-
x
(97c)
Die Übertragungsfunktion g\(px, p2) wird in zwei Schritten gemäß Abb. 2.71 zurücktransformiert. Wir wählen, den rechten Weg. Zunächst wird also P l konstant gehalten und 9i(Pi, Pi) bez. p2 zurücktransformiert. Aus (97c) folgt (z. B . durch Anwendung der Residuenformel) : fcäVi.ft)
= ^ { d h P i , konst.)) (1 — e Vi^i
r
e -P*Tt \
196
2.3. Nichtlineare Systeme g¡
fctX2 J V
y p-l O
2
O P2
92 ( z) bezeichnen Einheitssprungfunktionen in den Variablen r 1 ; r 2 . 2) i der symmetrische Kern des Volterra-Funktionals zweiter Ordnung der gesuchten Lösung. Diese selbst ist gegeben durch oo oo y{t) = f / min (r1 , r 2 ) e" m a x ( r t' T >) ac(í - r x ) sc(i - r 2 ) drx dr2 . (99) oo Die Rücktransformation auf dem linken Wege führt zum gleichen Ergebnis (theoretische Begründung vgl. z. B. VOELKER/DOETSCH [63]). Das Verfahren, mit dem aus (96 b) schließlich (97 c) erhalten wurde, ist allgemeingültig. Das bedeutet, daß es immer angewendet werden kann, wenn eine Übertragungsfunktion n-ter Ordnung in einer Gleichung mit m Variablen p¡ (i = 1, ... , m > n) auftritt. PÁRENTE gibt zwei Nebenbedingungen im Sinne seines Satzes für dieses Beispiel an, die sicherstellen, daß eindeutige Lösungen der Differentialgleichung existieren und der Fall (a;, y) = (0, beliebig) in einem gewissen Zeitintervall ausgeschlossen ist. Mit diesen Nebenbedingungen (Einzelheiten vgl. PÁRENTE [41], S. 60 ff.) ist die Differentialgleichung die des analytischen Systems S x . Ohne sie beschreibt sie das dynamische Verhalten von S1 und darüber hinaus das eines allgemeineren Systems, das von der Lösung (99) nicht vollständig erfaßt wird.
s T
s r
t
T
st
Der Satz von P Á R E N T E gilt für Differentialgleichungen, die für alle t gegeben sind. Sind sie in der üblicheren Form für t > 0 mit Anfangsbedingungen y(0), y(0) usw. für t = 0 gegeben, so kann folgendermaßen vorgegangen werden. Die Differentialgleichung wird, wie beschrieben, für alle t gelöst. Dann wird eine fiktive Eingangsfunktion acj für negative t gesucht, die dafür sorgt, daß die Anfangsbedingungen für t = 0 eingestellt werden. Sei x2 die auftretende Eingangsfunktion für t > 0. Dann ist
x(t) = x^t) [1 - s(i)] + x2 (t) s(t)
(100a)
mit s ( + 0 ) = 1, 0 unter
2.3.4. Analytische Systeme mit skalarer Ein- und Ausgangsfunktion
197
Berücksichtigung dieser Anfangsbedingungen. Es gilt nämlich für alle n = 1,2, ... .mit (100a) 00
CO
f ••• f 1» - >'*») x{t - ri) - x(t dtj dz„ il 0 t t = /.../ gn{T„ ... , r«) x2(t - Tj)... x2{t - Tn) d r x . . . dr B + o o oo
oo
+ / ... / SfniTx, ... , T„) «i(< - *i) ... ¡^(i - T„) dt x ... dtn . t t
(100b)
Also ist für t > 0: y(t) = G[x] =
(] ]
+ öta^oj].
(100c)
Der zweite Term drückt einen flüchtigen Vorgang aus dem Anfangszustand (gegeben durch die Anfangsbedingungen) aus, der mit t gegen Null geht. Die vorgegebenen Anfangsbedingungen werden von (100 c) erfüllt, denn x\ ist entsprechend gewählt worden. Wegen sc(+0) = sc 2 (+0), x{— 0) = x^ — 0) tritt bei ^ ( — 0 ) a? 2 (+0) eine Unstetigkeit ac(+0) ^ x(—0) auf, die aber zulässig ist, weil die Differentialgleichung jetzt voraussetzungsgemäß für t > 0 gilt. Natürlich ist nicht sicher, daß eine fiktive Funktion x1 existiert oder gefunden werden kann, die das Verlangte leistet. Dann versagt dieser Weg. 2.3.4.3.
Klassen analytischer Systeme
Das analytische System ist durch eine i. allg. unendliche Summe von Volterra-Funktionalen definiert. I n der Klasse