196 41 70MB
German Pages 320 [323] Year 1975
L. PUN ABRISS DER
OPTIMIERUNGSPRAXIS
E L E K T R O N I S C H E S R E C H N E N UND Herausgegeben
REGELN
von
Prof. Dr. HANS F R Ü H A U F • Prof. Dr. W I L H E L M K Ä M M E R E R Prof. Dr. K U R T S C H R Ö D E R • Prof. Dr. H E L M U T T H I E L E Prof. Dr. H O R S T VÖLZ
Sonderband
ABRISS
19
DER
OPTIMIERUNGSPRAXIS von L. P U N
A K A D E M I E - V E R L A G 19 7 4
•
B E R L I N
L. P Ü N
ABRISS DER OPTIMIERUNGSPRAXIS I n deutscher Sprache herausgegeben von
Prof. D r . E . - H . Heinrich Kindler, Dresden Dipl.-Math. Hannelore Hinkel, Dresden
Mit 96 Abbildungen
und 20
A K A D E M I E - V E R L A G
19 7 4
Tabellen
•
B E R L I N
L . P U N , Introduction to Optimization Practice Authorized translation from English language edition published b y J o h n Wiley & Sons, Inc., New Y o r k Copyright © 1969 b y J o h n Wiley & Sons, Inc. All R i g h t s Reserved. D e u t s c h e Ü b e r s e t z u n g : Gisela Wiesenhütter, Dresden
Erschienen im Akademie-Verlag, 108 Berlin, Leipziger Str. 3 — 4 © Akademie-Verlag, Berlin, 1974 Lizenznummer: 202 • 100/406/74 Einband und Schutzumschlag: Karl Salzbrunn Gesamtherstellung: V E B Druckhaus „Maxim Gorki", 74 Altenburg Bestellnummer: 761 577 4 • LSV 1084 Printed in GDR EVP 5 4 , -
Vorwort Dieses Buch soll Studenten höherer Semester und in der Praxis stehende Ingenieure in die Optimierungsverfahren einführen und zwar unter besonderer Betonung industrieller Anwendungen. An mathematischen Vorkenntnissen werden einige Grundprinzipien der linearen Algebra u n d der Differentialrechnung vorausgesetzt. Das Buch erhebt keinen Anspruch auf eine Überbrückung der K l u f t zwischen Theorie und Praxis. E s soll lediglich Material f ü r einen ersten Schritt in dieser Richtung liefern. In erster Linie beschäftigt sich das Buch mit der Darstellung deterministischer Optimierungsverfahren unter Ausschluß der stochastischen u n d logischen Optimierung von Automaten. Der Grund hierfür ist sowohl in praktischen als auch in pädagogischen Überlegungen zu suchen. Das Studium der zur Zeit dringlichen deterministischen Probleme erlaubt uns, den Schwerpunkt in Richtung statischer Optimierung zu verschieben u n d die fundamentalen Konzeptionen, Theorien u n d Methoden in einfacher Weise zu erklären. Ist erst einmal das Gesamtziel definiert, so erhebt sich das Problem der optimalen Anpassung von Autor u n d Leser. Das k a n n im Grunde dadurch geschehen, daß m a n sich mit den drei folgenden Fragen auseinanderzusetzen versucht. 1. Wie umfangreich darf das Buch sein? 2. Wie schwierig darf die Lektüre des Buches sein? 3. I n welcher Weise k a n n das Buch dem Leser nützlich sein. Diese Fragen stehen nicht etwa in verkehrter Reihenfolge, sondern die erste ist von primärer Wichtigkeit. Wegen des ansteigenden Tempos des technischen Fortschritts sind alle, die sich mit der Technik befassen, in einer H a m m e r - u n d Amboß-Situation: Einerseits müssen sie lesen, um mit den neuen Entwicklungen Schritt zu halten, während sie andererseits k a u m Zeit dazu finden. Man k ö n n t e also vermuten, daß das Buch, wenn es nicht innerhalb einer Woche gelesen wird, niemals gelesen wird. Deshalb ist vielleicht ein Werk von ungefähr 250 Seiten, von Anhängen abgesehen, ausreichend u n d ein angemessener Schwierigkeitsgrad annehmbar, wenn das Buch in sich abgeschlossen ist. Das Buch soll sich in erster Linie an die in der Praxis tätigen Ingenieure wenden, die auswertbare Informationen f ü r die Be-
VI
Vorwort
schäftigung mit den vor ihnen stehenden Problemen benötigen. Sie brauchen auch Hinweise auf moderne Literatur. Mit diesen Gründen wurde von folgenden Richtlinien ausgegangen: 1. Die verschiedenen Themen (s. Inhaltsverzeichnis).
sind
in
fortschreitender
Weise
angeordnet
2. I m H a u p t t e x t werden die Verfahren durch anschauliche Beispiele erläutert. 3. I n den Anhängen (die man beim ersten Lesen übergehen kann) sind die Grundkonzeptionen, Bezeichnungen, Theorien und Argumente in knapper Form dargestellt. Gesichtspunkte wie die Beziehung zwischen der Konvexität und den Optimierungsverfahren und die schwachen und strengen Bedingungen bei der Extremsuche werden besonders betont. Nach entsprechender Ordnung des Stoffes wurde meine Aufgabe relativ einfach. Aber es dauerte sechs J a h r e , dieses Buch zu schreiben. Der unausweichliche Schluß ist: Optimales Lernen ist schwierig. Lucas P u n
Sehr zu D a n k verpflichtet bin ich Prof. S. S. L . C H A N G f ü r seine Hilfe bei der Vorbereitung dieses Buches. Während meines Besuches in der State University, New York, den mir Prof. Chang ermöglichte, nahmen wesentliche Teile dieses Buches ihre jetzige Form an. Den Professoren J . L A G A S S E , P . D O R A T O , A. S A G E , M. C U E N O D danke ich dafür, daß sie mit die Gelegenheit gaben, Seminare zu halten. Ich danke ferner den Professoren P A Q U E T und J . Ch. G I L L E , die mich als Gastprofessor f ü r automatische Steuerung eingeladen h a t t e n und die mir die Gelegenheit gaben, das Material dieses Buches f ü r eine einsemestrige Vorlesung vor Studenten höherer Semester zu verwenden. L. Pun
Vorwort der deutschen Redaktion Das Problem der Optimierung spielt heute auf vielen Gebieten von Technik, Ökonomie und Naturwissenschaften eine wesentliche Rolle und gewinnt noch an Bedeutung. Dementsprechend wächst auch das Interesse an zusammenfassenden Darstellungen zu diesem Gebiet. Offenbar fehlt aber in deutscher Sprache bisher eine Monographie, die die allgemeinen Gesichtspunkte und Methoden der Optimierung in einer vom speziellen Anwendungsgebiet losgelösten Form in lesbarer und anschaulicher Art und Weise darstellt. Dem Verfasser ist daher für seine sehr durchdachte Einführung in die Optimierungspraxis zu danken, und es ist zu hoffen, daß auch der deutsche Leser aus der Beschäftigung mit dem Buch seinen Nutzen zieht. Der deutschen Ausgabe liegt, ebenso wie der französischen, der lediglich an einer Stelle geänderte englische Text zugrunde.
Inhaltsverzeichnis 1.
Zum Problem der Optimierung
1
1.1. Der Optimierungsprozeß
1
1.2. Systeme
12
1.3. Gütekriterium
21
1.4. Methoden Anhang 1A Matrizen und Vektoren: Algebraische Darstellung. . . . Anhang 1B Matrizen und Vektoren: Geometrische Darstellung . . . Anhang IC Simultane Gleichungen, quadratische Formen und Ableitungen Anhang 1D Konvexe Mengen und Funktionen
23 25 29
2.
Statische Optimierungsverfahren
33 37 39
2.1. Gewöhnliche lokale Maxima und Minima
40
2.2. Methode der LAGRANGESchen Multiplikatoren
43
2.3. Die Methode der linearen Programmierung
51
2.4. Nichtlineare Programmierung Anhang 2A Definitionen bezüglich der Maxima und Minima Anhang 2B Die Theorie der allgemeinen Programmierung Anhang 2C Dualität
72 87 89 96
3.
. . . .
Extremwertsuchverfahren
99
3.1. Einführung 3.2. Die FiBONACd-Suche bei eindimensionalen statischen Problemen
99 . . 100
3.3. Das Verfahren des steilsten Anstieges bei mehrdimensionalen statischen Problemen 106 3.4. Methoden zur Aufrechterhaltung des Extremums bei quasi-statischen Problemen 123 3.5. Methoden zur Aufrechterhaltung des E x t r e m u m s bei dynamischen Problemen 4.
Dynamische Optimierungsverfahren
4.1. Einführung
127 137 137
4.2. Variationsmethoden
139
4.3. Methoden der dynamischen Programmierung
172
4.4. Gradientenmethode
193
Inhaltsverzeichnis
5.
Anhang 4A Die Theorie der klassischen Variationsmethoden . . . . Anhang 4 B Die Theorie des Maximum-Prinzips Anhang 4C Beziehungen zwischen den Variationsmethoden und der kontinuierlichen dynamischen Programmierung Anhang 4 D Die kontinuierliche dynamische Programmierung und die Regelungen
204 220
Dynamische Suboptimierungsverfahren
239
5.1. Einführung
231 234
239
5.2. Die Überwindung des Zweipunkt-Randwertproblems
249
5.3. Die Überwindung des Dimensionsproblems
265
5.4. Verbesserte Gradienten-Methode
282
5.5. Schlußbemerkungen
297
Literatur
298
Sa ch wort Verzeichnis
305
KAPITEL
ZUM P R O B L E M D E R O P T I M I E R U N G 1.1.
Der Optimierungsprozeß
Optimierung kann allgemein definiert werden als das Erreichen von etwas „Bestem" und zwar unter gegebenen Bedingungen. Es herrscht heute kein Zweifel mehr über die Wichtigkeit der Optimierungsprobleme in den verschiedenen Industriezweigen. Ihre praktische Lösung bleibt jedoch aus vielerlei Gründen noch recht schwierig. Solche Gründe sind z. B. 1. die Notwendigkeit einer genauen Definition der Elemente des Optimierungsproblems, 2. die Notwendigkeit einer solchen Organisation dieser Elemente, daß das Problem lösbar erscheint, 3. die Notwendigkeit der Wahl einer geeigneten Methode zur Lösung des Problems. Diese Schwierigkeiten werden noch durch die möglichen Wirkungen erhöht, die sie aufeinander ausüben können. In manchen Fällen schränkt die Kenntnis einer Methode die Freiheit der Definition und Organisation der Elemente des Optimierungsproblems ein und beschränkt damit den Umfang der optimalen Lösung. In anderen Fällen sind die Elemente so definiert und organisiert, daß keine geeignete Methode gefunden werden kann. Alle diese Punkte zeigen, daß man sich über den Optimierungsvorgang Klarheit verschaffen muß, bevor irgendein Optimierungsverfahren besprochen werden kann. Zuerst jedoch sollen solche Verfahren durch einige Beispiele erläutert werden.
1.1.1.
Ein anschauliches Beispiel
Wir wollen ein Beispiel betrachten, nämlich das Problem der größten Reichweite einer Langstreckenrakete. Das Beispiel wird in vier Versionen behandelt, die vom Einfachen zum Komplizierten fortschreiten. Dadurch soll nicht nur gezeigt werden, wie das gleiche Problem der angestrebten unterschiedlichen Genauigkeit entsprechend auf verschiedene Weise formuliert werden kann, sondern auch, wie die höheren Genauigkeitsforderungen zu größeren Schwierigkeiten bei der Lösung des Problems führen. Die Methode der Darstellung zielt darauf ab, den Leser mit verschiedenen Grundbegriffen und Elementen der Optimierungstechnik vertraut zu machen. Die Problemdarstellung, d. h. die Nomenklatur der Symbole, die Definitionen sowie die verschiedenen Voraussetzungen werden ziemlich ausführlich
2
1. Zum Problem der
Optimierung
behandelt. Das ist wichtig, weil es notwendig ist, bei Beginn eines Optimierungsproblems die Grundlagen so klar wie möglich zu verstehen. Die mathematische Behandlung wird jedoch auf die Angabe wesentlicher Punkte beschränkt bleiben. Bestimmte Ausdrücke, wie z. B. die Gütefunktion oder das Gütekriterium, Zustandsgleichungen usw. werden dabei zunächst ohne formale Definition verwendet. Nun soll der allgemeine Teil der vier Versionen erläutert werden. Die Flugbahn einer Langstreckenrakete wird gewöhnlich in zwei Abschnitte zerlegt. Die erste Stufe vom Abschußpunkt bis zum Brennschlußpunkt heißt Antriebsphase, weil der Raketenmotor in Tätigkeit ist. Der Brennschluß entspricht dem Augenblick, bei dem kein Treibstoff mehr vorhanden ist. Die zweite Stufe vom Brennschluß bis zum Bahnendpunkt wird Freiflugsstufe genannt. Während dieses Teilabschnittes wird die Bewegung der Rakete durch die Gesetze der äußeren Ballistik bestimmt.
Xy
Abb. 1-1 Raketenflugbahn (kugelförmige Erde)
Für alle diese Versionen soll die folgende allgemeine Nomenklatur angewendet werden G-43, Kap. 4 (Abb. l-l) 1 ) r = o = b = / = ipb = yij = x,y = vx,vy= x
Radialer Abstand vom Erdmittelpunkt zur Rakete Index, der den Abschußpunkt bezeichnet Index, der den Brennschluß bezeichnet Index, der den Bahnendpunkt bezeichnet Winkel zwischen rb und r0 Winkel zwischen rf und rb rechtwinklige Koordinaten der Raketenposition Geschwindigkeitskomponenten der Rakete
) Zahlen in Klammern weisen auf Literaturangaben hin, die am Ende jedes Kapitels (z. B . [1-1]), oder am Ende des Buches (z. B . [G-43]) zu finden sind.
1.1. Optimierungsprozeß
3
g(r) = Erdbeschleunigung bei der Entfernung r vb = Geschwindigkeit bei Brennschluß (auch Anfangsgeschwindigkeit des Freifluges) vs = Satellitengeschwindigkeit im Abstand rb; {vs = [vb • g(rb)]2} yb = Winkel zwischen der Richtung von vb und der Vertikalen & = Winkel zwischen der Richtung von vb und der Horizontalen p ~ GeschwindigkeitsVerhältnis zwischen vb und (p = vbjvs) a(t) = Beschleunigung der Rakete nur in Hinsicht auf den Schub tb = vorgeschriebene Brennzeit te = Zeit des Freifluges R = Gesamtflugweite
b = — sin yt^b
(1-3) (1-4)
Aus (1-2) folgt die bekannte Gleichung für die Erhaltung des Drehmoments = const = rb2yb
= rbvb sin yb
(1-5)
Wenn wir ( aus (1-1) und (1-2) eliminieren und u = ijr setzen, erhalten wir die Differentialgleichung in u für die Flugbahn d2w
GM
dyj2
rblvb£ sin1' yb
^
4
1. Zum Problem, der
Optimierung
Die Lösung dieser Gleichung hat die Gestalt 1
u — — = r
A
GM
sin w + B cos w
rb2vb2
sin2 yb
(1-7)
Die Integrationskonstanten werden von den Bedingungen (1-3) und (1-4) des Brennschlußpunktes bestimmt, die Flugbahn-Gleichung erhält dann die Form 1 — cos yj T sm yb
r
sin (yb — tp) sm yb
(1-8)
wobei der dimensionslose Parameter « = rbvb2/GM = jß das Zweifache des Verhältnisses von kinetischer zu potentieller Energie am Brennschlußpunkt ist. Am Endpunkt gilt nun r — rf, y> = rpj, und die Gleichung (1-8) wird zu r±
_ 1 — cos y>f p* sm yb
sin (yb — ipf) sm yb
(1-9)
In dieser Gleichung sind alle Parameter bekannt, außer yb, dessen Wert bestimmt, und xpf, dessen Wert maximiert werden soll. Aus (1-9) bilden wir V/ =
(1-10)
F(yb).
Setzen wir dann dF dys
= 0,
(1-11)
erhalten wir den Optimalwert von yb t a n yb
opt
=
2
und die Maximal-Flugweite
W}n
/I
— tan I—
= 2 sin- 1
(1-12)
yfmM
Mt±iH; V
(1-13)
In Abb. 1-2 sind für den Spezialfall rb = rs die Werte von V/max a ls Funktion von p aufgezeichnet. V/max = 2 sin _:
(1-14)
1.1. Optimierungsprozeß
5
Abb. 1-2 Verlauf von Wfm ax
Wir bemerken, daß in dieser ersten Version die Zustandsgieichung (1-9) bzw. die Gütefunktion ipf (1-10) statisch ist, d. h. unabhängig von der Variablen t. Die Methode der Maximierung ist verhältnismäßig einfach und enthält nur die gewöhnliche Theorie der Maxima und Minima. Wegen der zahlreichen vereinfachenden Voraussetzungen ist der Wert der gefundenen Lösung nur informativ. Zweite Version. Wir machen dieselben Voraussetzungen, außer daß wir während des Antriebs-Flugbahnteils von 0 bis B die bekannten und vorgeschriebenen Abhängigkeiten •Ob 7b =
=
(1-15)
%{h)
(1-16)
Ybifb)
in Betracht ziehen, wobei rb die Brennschlußdistanz ist. Die Ableitung der Zustandsgleichungen erfolgt ebenso wie im vorhergehenden Fall. vb(p2 = vb2/vs2) und yb sind aber hier keine konstanten Parameter, sondern müssen als Funktionen von rb angesehen werden. Unter dieser Annahme erhält die Gleichung (1-9) die Gestalt n
1 — COS tpf Vb(rb)
sin
2y
sin [yb(rb) b(rb)
sin
— y>f] yb(rb)
(1-17)
6
1. Zum Problem der
Optimierung
Wie vorher bilden wir Vf = Fh>b(rb),
«ftfo)].
(1-18)
Die Maximierungsmethode schließt noch die gewöhnliche Theorie der Maxima und Minima ein mit der Ausnahme, daß hier die Kettenregel z = j[y{x)], ds = [(df/dy) (dy/dx)dx] angewendet werden muß, um die Ableitungen zu berechnen. Wir lassen die Zwischenschritte weg und erwähnen nur, daß in dem Fall, in dein rb = r} ist, die Maximierungsbedingung die Form 0 = (1 - cotan 2 y„(rb) - p2) (1-19) hat. Da dyb/drb und dvbjdrb bekannt sind, können wir die Werte von ybovt und f/>/max aus (1-19) bestimmen. In dieser Version ist das Gütekriterium ein Funktional (Funktion einer Funktion), aber es ist noch statisch. Die Maximierungsarbeit ist mühsamer, aber noch einfach. Wegen der vereinfachenden Annahme ist die gefundene Lösung nur von qualitativem Wert. Dritte Version. Wir wählen als Steuervariable die Schubrichtung
0, x2 ^ 0 bestimmt wird. In allgemeinen w-dimensionalen Fall werden wir sagen, daß x beschränkt ist und im nicht-negativen Orthanten liegen muß. Die Beziehung Ax ^ B wird auch als Nebenbedingung bezeichnet. Die Hyperfläche Ax = B teilt den Raum En in zwei Halbräume. I n Abb. 1-9 wird ein Beispiel für n = 2 gegeben. In solch einem Fall stellt Ax — B ein System von zwei linearen Beziehungen b, dar. Die Grenze Ax = B wird somit durch eine „geknickte Gerade" dargestellt, die E 2 in zwei Halbräume teilt. Im negativen Halbraum (schraffierter Teil) gilt Ax < B. Die Motivierung für den Gebrauch des Ausdruckes „Nebenbedingung" besteht darin, daß der Zustandspunkt x entweder auf der Hyperfläche oder innerhalb des negativen Halbraumes liegen muß, wenn Ax B gefordert wird. Ähnliche Konzeptionen werden auch für nichtlineare Beziehungen, wie z. B. g(x) < B, definiert.
1.2. Systeme 19 Dynamische Prozesse. Wir wollen das Modell x = Ax betrachten, wobei x ein w-Vektor ist und A eine (in, ?i)-Matrix. Das Einbeziehen des r-Steuervektors u ändert die Konzeption nicht, wenn wir statt En einen (r + »J-Raum annehmen. Wegen des Vorhandenseins der Zeitvariablen t wird der Zustand des betrachteten Systems jetzt durch eine Trajektorie r in En (Abb. 1-10) dargestellt. Die Punkte auf T^sind die Werte von x in t, 0 t ^ T, xA = x (t = 0) bei A ist der Anfangszustand, wähend xB = x (t = T) bei B der Endzustand ist. Sowohl A als auehü heißen Terminal- oder Endpunkte. (Man beachte, daß Terminalpunkt oder Endpunkt nicht notwendig den Schlußpunkt der Bewegung bedeutet.)
Abb. 1-10 Darstellung einer Trajektorie in einem dreidimensionalen R a u m
1. Wenn T vorgeschrieben ist, handelt es sich um eine Trajektorie mit fester Endzeit, im anderen Fall mit freier Endzeit. 2. Wenn der Punkt B gegeben ist, heißt die Trajektorie Trajektorie mit festem Endzustand im anderen Fall mit freiem Endzustand (Abb. 1-11). Ähnliche Beziehungen gelten für den Anfangszustand.
Abb. 1-11 Trajektorien mit freiem Endzustand
20
1. Zum Problem der
Optimierung
3. Nebenbedingungen der Form x 0 schränken x ein, so daß es für alle t in dem nichtnegativen Orthanten liegt. 4. Nebenbedingungen der Form a;min sS x sS # max beschränken x auf einen abgeschlossenen Hyperquader. Die Konstanten x ^ ^ und a;max heißen Randwerte (dasselbe gilt für u; beschränkte Steuerungen sind bei dynamischen Optimierungsproblemen von besonderem Interesse. Ebenso wie im Fall der statischen Prozesse heißt die Gleichung x = Ax oder o[x(t)] = 0 bei t = 0; die Nebenbedingung wird durch eine Fläche oder eine Kurve dargestellt, auf der x zur Anfangszeit t = 0 liegen muß. 3. 0(x) sS 0 für alle t; die Nebenbedingungen werden durch ein Hypervolumen dargestellt, in dem (einschließlich des Randes) die gesamte Trajektorie bleiben muß. Man beachte, daß y>f = 0, y>a = 0 im allgemeinen algebraische Gleichungen sind; 0{x) = 0 ist ein algebraisches System, während ««]
(3)
nicht verwechselt werden darf. 1 A.2. Matrizen — Grundoperationen. Die Addition und Subtraktion zweier Matrizen A und B kann dann und nur dann durchgeführt werden, wenn sie die gleiche Zahl von Zeilen und Spalten besitzen. Dazu brauchen nur die korrespondierenden Elemente addiert oder subtrahiert zu werden A + B = [«,-,- + b^].
(4)
Die Addition oder Subtraktion von Matrizen gehorcht dem assoziativen und kommutativen Gesetz A +
B +
C = A +
A +
B = B + A.
(B +
C) =
(A +
B)
+
G
(5) (6)
Die Multiplikation einer Matrix A mit einem Skalar ). wird vorgenommen, indem jedes Element von A mit X multipliziert wird. IA = AI = [>;,].
(7)
Eine Matrix A kann mit einer anderen Matrix B dann und nur dann multipliziert werden, wenn die Zahl der Spalten von A gleich der Zahl der Zeilen von B ist. Ist A eine (m,r)-Matrix und B eine (r,w)-Matrix, so ist das Produkt C = AB eine
Anhang 1A Matrizen und Vektoren: Algebraische Darstellung
27
(«i.r)-Matrix. Das allgemeine Element von G lautet cij
Beispiel.
— £
(8)
ailfikj-
k=l
Mit
A
=
'3
1'
2
2
1
3
B
=
1 2 4
3
3
4
2
1
folgt ' 3 - 1 + 1- 4
3-2 + 1
2
3
4 + 1
1"
2-1+2-4
2-2 + 2
2
2
4 +2
1
1-1+3-4
1-2 + 3
2
1 4 + 3
1
0 =
'7
9
12
13"
9
10
10
10
14
11
9
7_
Die Matrizen-Multiplikation ist assoziativ ABC
=
(AB)
C =
A(BC)
(9)
aber im allgemeinen nicht kommutativ AB
(10)
=(=BA.
Die Division von Matrizen kann nur vorgenommen werden, indem der Divisor invertiert und dann multipliziert wird. Die Inversion von Matrizen kann nur bei quadratischen Matrizen vorgenommen werden. Wenn eine quadratische Matrix A gegeben ist und eine quadratische Matrix B existiert, die die Beziehung AB = BA = 1 erfüllt, so wird B die inverse Matrix (Kehrmatrix) von A genannt (1 ist die Einheitsmatrix, deren Definition im nächsten Abschnitt folgt). Das Symbol dafür ist der Exponent — 1 : B = A-1. Das allgemeine Element der inversen Matrix ist ( _ l ) ¿ + i (Kofaktor A^)
\Ä\
'
(U)
Man beachte, daß die Elemente von B nur existieren, wenn die Determinante |A \ ungleich Null ist. Die Transponierte einer (m,w)-Matrix A ist eine (w,m)-Matrix AT (manchmal mit A' bezeichnet), die aus A durch Vertauschung von Zeilen und Spalten hervorgeht. Wenn AT = [«?•], dann ist afj = «.,•;. An interessierenden Eigenschaften seien angeführt: (A + Bf = AT +BT; (AT)T = A ; (A Bf = BTAT. Die Transponierte einer Spaltenmatrix ist eine Zeilenmatrix und umgekehrt. 1 A.3 Spezielle Matrizen. Eine quadratische Matrix A heißt symmetrisch, wenn d. h. an = a«.
A = AT,
28 1. Zum Problem, der Optimierung Eine quadratische Matrix lieißt schief-symmetrisch, wenn A = ~AT,
d. h.
für
i =j= j;
üij = 0,
für
i = j.
Eine Untermatrix wird aus einer (?n,w)-Matrix erhalten, indem alle außer t Zeilen und u Spalten gestrichen werden, wobei sich eine (t,u)-Matrix ergibt. Bei Aufgaben der linearen Programmierung ist eine Teilung einer (m.w)-Matrix in eine Reihe von Spaltenvektoren erwünscht A
[A1, A2
A,-,
(12)
Ar (13) Da der Druck einer vertikalen Spalte von Zahlen zuviel Platz wegnimmt, wird folgendes vereinbart: Fall 1. Der Vektor mit m Komponenten == (a,y, « 2 , ... amj) wird zunächst als Zeilenmatrix Aj = [a1;-, a 2 ; , . . . a m j ] definiert. Unter Verwendung der Transponierten der Aj erhält man die Schreibweise für A A = [Af.Af,
...A?
...Anr\.
(14)
Fall 2. Die horizontal geschriebene Xotation Aj =
o.2j, ... ctmj)
ist als Spaltenmatrix-Darstellung des Vektors mit m Komponenten a = (alj. a2j, ... amj) zu verstehen, und es muß die Form (12) benutzt werden. Die Unterscheidung zwischen der Zeilenmatrix- und der Spaltenmatrixdarstellung eines Vektors mit vielen Komponenten muß genau beachtet werden, weil die Ergebnisse verschieden sind, wenn Multiplikation und Inversion vorgenommen werden. Eine quadratische Matrix heißt diagonal, wenn alle Elemente außerhalb der Hauptdiagonalen gleich Xull sind, also die oi;- = 0 für i =j= /sind. Einige der Diagonalelemente können gleich Xull sein. Eine Diagonalmatrix •wird skalare Matrix genannt, wenn alle nichtversehwindenden Elemente identisch und gleich dem Skalar ?. sind. Die Diagonalmatrix 1 = [ri das KRONECKER-Symbol ist, das definitionsgemäß gleich Xull ist bei i === j und Eins bei i = j.
Anhang
1B
Matrizen und
Vektoren: Geometrische Darstellung
29
ANHANG1B Matrizen und Vektoren: Geometrische Darstellung 1 B . l . Definition. Der w-dimensionale EuKLiDische Raum wird mit En bezeichnet. Der Raum En ist die Menge aller w-Tupel reeller Zahlen. Ein Element von E" kann als Punkt aufgefaßt werden, dessen Koordinaten die n reellen Zahlen sind und En als Punktmenge. E s kann aber auch als Vektor aufgefaßt werden, der vom Ursprung ausgeht, und dessen Komponenten auf den Koordinatenachsen die n reellen Zahlen sind, in diesem Falle wird En als Vektorraum betrachtet. Wenn die n Komponenten des Vektors den Zustand eines physikalischen Objekts charakterisieren, ist En ein Zustandsraum. Großbuchstaben, z. B . X, S usw. werden gewöhnlich benutzt, um Punktmengen zu bezeichnen. Wenn x ein Element der Menge X ist, schreiben wir x 6 X. Der Durchschnitt zweier Mengen X und Y, geschrieben X n Y, ist die Gesamtheit aller Punkte, die X und Y gemeinsam sind. Die Vereinigung von X und Y, geschrieben X u Y, ist die Menge aller Punkte, die entweder in X oder Y oder in beiden liegen. Eine Punktmenge X wird oft durch eine Eigenschaft oder durch Eigenschaften o(x) definiert, die durch ihre Elemente x befriedigt werden; dafür schreibt man X = {xlg(x)}. Ein Vektor y e En ist größer als ein Vektor x € E", und wir schreiben y > .e, wenn jede Komponente von y größer als die korrespondierenden Komponenten von x ist, (I. h. y > x schließt y^ > xi: i = 1,2, ..., n ein. EineGerade in En ist die Menge aller Punkte, die eine Beziehung der Form
bi
x2 — a2 xn — an =_ _ _ = . . . = _ b2 bn
(15)
befriedigen, wobei a und b Elemente von En sind. Die Gerade verläuft durch den Punkt a und ist der Richtung des Vektors b parallel. Ein Kegel ist eine solche Punktmenge in En, für die mit x in der Menge auch y — Xx für alle nichtnegativen Zahlen /. in der Menge liegt. Eine Hyperebene in En ist die Menge aller der Punkte x in En. die eine Beziehung aTx = ß
(16)
befriedigen, wobei a und x Spaltenmatrizen sind; a € En ist der Normalenvektor der Hyperebene, und ß ist ein Skalar. Ein Halbraum in En ist die Menge aller Punkte x, die die Beziehung aTx ^ ß
(17)
erfüllen, wobei a e En und ß ein Skalar ist. Die Hyperebene aTx = ß heißt begrenzende Hyperebene des Halbraumes. Für einen gegebenen Punkt a und ein beliebiges e > 0 wird die Menge X = {xj \x — a\ = s} als Hypersphäre (Hyperkugel) in En mit dem Mittelpunkt a und dem Radius s bezeichnet. Die Menge X = {xj \x — a\ < e} heißt dann das Innere einer Hyperkugel. Eine e-Umgcbung eines Punktes a ist das Innere einer Hyperkugel mit dem Mittelpunkt a und dem Radius e. Ein Punkt a heißt innerer Punkt einer Menge. wenn eine e-Umgobung von a existiert,
30
1- Zum Problem der
Optimierung
die nur Punkte der Menge enthält. Ein Punkt a heißt Randpunkt, wenn jede ¿-Umgebung von a Punkte der Menge undPunkte, die nicht zur Menge gehören, enthält. Eine Menge, die alle ihre Randpunkte enthält, heißt abgeschlossen. Eine Menge, die keinen ihrer Randpunkte enthält, heißt offen. Eine e-Umgebung eines Punktes a ist eine offene Menge. Der Abstand zwischen zwei Punkten (Vektoren) a und b, geschrieben | a —- b |, wird definiert als \a-b\ =
[(o -
b)T(a
-
b)V.
= [¿(a, i=i
-
b,)f>.
(18)
Diese Definition ist eine direkte Verallgemeinerung der Definition bei zwei und drei Dimensionen. Die Länge oder Größe eines Vektors a, geschrieben \a\, ist die Entfernung vom Ursprung bis zu a: |a| = |a — o\. 1 B.2. Eigenschaften. Gegeben seien zwei Spaltenvektoren mit n Komponenten
a2
b
=
_a„_
too-
ax
J n _
Das Skalarprodukt dieser beiden Vektoren a und b, das mit (a, b) bezeichnet wird, ist (a, b) = aTb = alb1
=
+ a2b2 +
...
+
anbn
n E
i=i
Schwarzsche Ungleichung. Für zwei beliebige Vektoren a und b mit n Komponenten gilt |aT6| \a\ |6|, wobei \aTb\ der Absolutwert des Skalarprodukts ist. Wenn a, b =)= 0, so ist der Winkel 0 zwischen a und b gegeben durch c o s 0
=
]
(
1
9
)
und Icos 01 < 1. Orthogonalität. Zwei Vektoren a und b sind orthogonal, wenn aTb = 0. Sind a,b=|=0, so sind sie orthogonal, sofern der Winkel zwischen ihnen — beträgt. Ài
In En sind die Einheitsvektoren ex = (1,0,0 ... 0) e2 = (0,1,0 ... 0) ... en = (0,0,0, ..., 1) orthogonal: Te?- = 0 bei i =f= j- Die Eigenschaft der Orthogonalität wird bei der Ableitung der Bedingungen für das Extremum sehr oft benutzt.
Anhang 1B
Matrizen und Vektoren: Geometrische Darstellung
31
Lineare Abhängigkeit und Unabhängigkeit. Eine Menge von Vektoren a.u ... % heißt linear abhängig, wenn Skalare existieren, die nicht alle gleich Null sind, so daß Z Xfl, = 0. ?=i
(20)
Die Einheitsvektoren sind linear unabhängig, da n
E
j=1
Vi
=
••
=
0
besagt, daß Aj = 0 ist für j = 1 , 2 , . . . , n. Ist eine Menge von Vektoren ax ... ak gegeben, so heißt ein Vektor a eine Linearkombination dieser Vektoren, wenn Skalare Xj existieren, daß n a = 2J ^ • a,j.
j=I gilt. Unter Berücksichtigung der Einheitsvektoren kann jeder Vektor mit n Komponenten in der Form geschrieben werden a = [aj, a2, ..., an] = a^
+ a2e2 +
••• + anen,
(21)
wobei die a 1 ; a2, ..., an Skalare und die e 1; e2, ..., e„ Vektoren sind. Eine linear unabhängige Teilmenge von Vektoren au a2, ...,ar aus En heißt Basis für En, wenn jeder Vektor in En als Linearkombination von al: a2, ...,aT dargestellt werden kann. Die Menge der Einheitsvektoren ist eine Basis des EM. Jede Menge von Basisvektoren läßt sich so auffassen, als ob sie ein (nicht notwendigerweise orthogonales) Koordinatensystem für En definiert. Es existiert eine unendliche Zahl von Basen für En. Rang einer Matrix. Der Kang einer Matrix vi, mit r(A) bezeichnet, ist als größte Zahl linear unabhängiger Spalten in A definiert, und diese Zahl ist gleich der der linear unabhängigen Zeilen von A. Der Rang von AB ist nicht allein durch r(A) und r(B) bestimmt; r(AB) ist kleiner oder gleich dem Minimum von r(A) und r(B) r(AB)
^
m i n [r(A),
r(B)].
(22)
Singularität. Eine Matrix A besitzt eine Inverse, wenn eine Matrix B existiert, so daß BA = AB = 1. Nur quadratische Matrizen besitzen Inverse. Eine Matrix A von w-ter Ordnung hat dann und nur dann eine Inverse, wenn r(A) = n. Wenn r(A) = n gilt, heißt A nichtsingulär. Eine quadratische Matrix ist dann und. nur dann nichtsingulär, wenn ihre Determinante \A\ von Null verschieden ist. Wenn A keine inverse Matrix besitzt, so heißt sie singulär.
32
1. Zum Problem der
Optimierung
ANHANG IC Simultane Gleichungen, quadratische Formen und Ableitungen 1 C. 2. Lineare algebraische Gleichungen. Ein System von m linearen Gleichungen mit n Unbekannten x;, j = 1.2, .... n, kann in Matrixform Ax = B
oder
£ a^Xj = b{ }'=i
(23)
geschrieben werden, wobei A eine rechteckige (m,w)-Matrix, x eine Spaltenmatrix w-ter Ordnung und b eine Spaltenmatrix m-ter Ordnung ist (man merke an, daß die Zahl der Gleichungen nicht notwendigerweise gleich der Zahl der Unbekannten ist). Solch ein Gleichungssystem kann a) keine Lösung, b) eine einzige Lösung oder c) eine unendliche Zahl von Lösungen besitzen. Betrachtet werde die Matrix Ab = [A b]. Wir haben entweder r(Ab) = r{A)
oder
r(Ab) > r(A).
1. Wenn r(Ab) = r(A) = k, dann kann jede Spalte von Ab und speziell b als Linearkombination von k linear unabhängigen Spalten von A geschrieben werden. Das System (23) hat in diesem Falle mindestens eine Lösung. 2. Wennr(J. 6 ) > r{A) und r(A) = k, muß jede Menge von k linear unabhängigen Spalten von Ab die Spaltenmatrix b enthalten und b kann daher nicht als Linearkombination der Spalten von A geschrieben werden. In diesem Falle besitzt das System (23) keine Lösung. 3. Wenn r{A) = r{Ab) = k < n, dann existiert eine unendliche Zahl von Lösungen derart, daß n — k der Variablen beliebige Werte gegeben werden können. 4. Wenn r(A) = r(Ab) = n, dann existiert eine einzige Lösung. 5. Wenn r(A) = r(Ab) = k < in, dann sind in — k Gleichungen redundant (überzählig). Homogene Gleichungen. Wenn in (23) 6 = 0 gilt, heißt das System Ax = 0 homogen. Die Lösung x = 0 wird als triviale Lösung bezeichnet. Nichttriviale Lösungen existieren dann und nur dann, wenn r(A) < n. Fundamentallösungen. Es sei n > m, es möge B eine Untermatrix m-ter Ordnung von A sein und II die Untermatrix von A, die die restlichen n — m Spalten enthält. Es seien xB und xR die Vektoren, die die Variablen enthalten, die mit Spalten von B und B verknüpft sind. Dann erhält man für jedes xR eine Lösung des Systems, wenn xB = B-Xb — B^RXH gilt. Eine Lösung xR = Ound xB = B^b wird Fundamentallösung genannt. Die maximale Zahl von Fundamentallösungen für Ax = b ist n\jm\ (n — m)\. Sie korrespondiert mit der Zahl von Kombinationen von m Spalten von A, die gewählt werden können, um B zu bilden. 1 C.l. Eigenwerte und quadratische Formen. Wenn man Lösungen für simultane lineare Differentialgleichungen sucht, begegnet mandemEigenwertproblem. Dieses Problem besteht darin, Vektoren x =(= 0 und Skalare 7. so zu finden, daß für eine
Anhang
IC
Simultane
Gleichungen,
quadratische
Formen
und Ableitungen
33
gegebene quadratische Matrix A (die Zahl der Gleichungen ist gleich der Zahl der Unbekannten) gilt (24)
Ax = Xx.
Wenn x =)= 0 die Gleichung (24) befriedigt, dann ist dies genau dann möglich, wenn /(/.) = \A — ).I\ = 0 gilt. /(/.) ist ein Polynom w-ten Grades in /.. 1. j(X) heißt charakteristisches Polynom von A. 2. f(X) = 0 ist die sogenannte charakteristische Gleichung der Matrix A. 3. Die Wurzeln von /(/.) = 0 heißen charakteristische Werte oder Eigenwerte von A. 4. Wenn X ein Eigenwert von A ist, existieren ein oder mehrere linear unabhängige Vektoren x t =j= 0, die (24) befriedigen. Solch ein X{ heißt charakteristischer Vektoroder Eigen vektor von A. DieZahlder Eigenvektoren beträgt n — r( 1 — ?.A). Ähnliche Matrix. Wenn S eine nichtsinguläre Matrix ist, dann besitzt Ä_1^4 0 für jedes x mit Ausnahme von x = 0. 2. xT Ax heißt positiv semidefinit, wenn xT Ax 0 für jedes x gilt und ein x =)= 0 existiert, für das xT Ax = 0. 3. xT Ax wird negativ définit (semidefinit) genannt, wenn —x T Ax positiv définit (semidefinit) ist. 4. xT Ax heißt indefinit, wenn der Ausdruck positiv für einige Punkte und negativ für andere ist. n
Es sei x = Qy, dann ist z = yTQT AQy = yT By oder 2 = £ ^ y f . Bezüglich y, j=1
enthält die quadratische Form nur die Quadrate der Variablen, und B ist eine Diagonalmatrix. Jede quadratische Form kann durch eine orthogonale Ähnlichkeitstransformation diagonalisiert werden, und zusätzlich sind die Koeffizienten der y f die Eigenwerte von A. 1 C.3. Ableitungen (siehe [G-18] S. 43—45). Funktion einer einzigen Variablen. Die Ableitungen einer Funktion f(x) im P u n k t x0 wird durch einen Grenzübergang definiert als = lim dx X = Xo
f{x) -
/(X0)
lim /(—>0
f(x0 + h) - f(xQ)
(27)
h
vorausgesetzt, daß der Grenzwert existiert. Geometrisch ist /'(a;0) der Anstieg der Kurve z = f(x) in x(l. Die Ableitung schafft folglich Information über die Änderungsgeschwindigkeit der Funktion in x0. Klassen stetiger Funktionen. Um anzuzeigen, daß eine Funktion / auf einer Untermenge von En stetig ist, schreiben wir / e C. W e n n / u n d ihre erste Ableitung stetig sind, schreiben wir / e Cl. Wir sagen, daß f(x) an der Stelle x0 differenzierbar ist, wenn in x0 gilt / e C 1 . Wenn / und ihre erste und zweite Ableitung stetig sind, schreiben wir / e C 2 . Wir sagen, daß f(x) an der Stelle zweimal differenzierbar ist, wenn in x0 gilt f e G2 usw. Diese Begriffe sind auf Funktionen mehrerer Veränderlicher und Funktionale ausdehnbar. Funktionen mehrer Veränderlicher. Für diese Funktionen lassen sich n partielle Ableitungen definieren. Die partielle Ableitung von / nach x im P u n k t x° = (Xt°, x2°, ..., xn°) lautet 'IL = lim ex» X = X0 Ä-i-0
= lim
'/(«!», • • •
*/> +
h, X°j+1 . . . Xn°) -
f(x°)
h f(x°
+
hßj) h
f(x°)
(28)
vorausgesetzt, daß der Limes existiert. Diese Ableitung liefert Information über die Änderungsgeschwindigkeit der Funktion im P u n k t x° in der Richtung der
Anhang IC
Simultane
Gleichungen, quadratische
Formen und Ableitungen
35
e,-Koordinatenachse. Um die partiellen Ableitungen dfjdxj zu erhalten, bestimmen wir einfach die gewöhnliche Ableitung von /, wobei alle Variablen außer Xj als Konstante behandelt werden. Gradient. Sei / e C 1 und / eine Funktion von n Variablen; wenn / in bezug auf alle Variablen xlt x2, ..., xn differenzierbarist, so können wir einen ra-dimensionalen Zeilenvektor V/ definieren durch
(JLJL...JL\
Vf =
\ dxl
Bx2
8xn /
(29)
Der Vektor V/ heißt der Gradient von /, und das Symbol V/ wird „nabla / " gelesen. Wenn wir anzeigen wollen, daß V/ im P u n k t x0 zu berechnen ist, schreiben wir V/(z 0 ). Hessesche Matrix für /. Wenn die n partiellen Ableitungen jeder der ersten Ableitungen existieren, haben wir n 2 zweite partielle Ableitungen von /. Die Matrix Hf
82f
=
(30)
8xi 8Xj
heißt HESSEsche Matrix für /. Wenn / e O2, dann gilt S2/
82f
8xi 8x¡
dxj dxt
(31)
E s folgt, daß Hf eine symmetrische Matrix ist. Tangierende Hyperfläche und Normale. Sei / € C'1 in x0. Wir schreiben z = f(x) und z0 — f (•!'(,)• Dann nennt man die Hyperfläche z — z0 =
Vf(x0)
(x — x0)
oder Vf{x0)
x — z =
Vf(xa)
XQ — z0
(32)
die tangierende Hyperfläche zur Fläche z = f(x) in x0. Der Vektor (V/(.r0), —1) steht senkrecht sowohl auf der tangierenden Hyperfläche als auch auf der Oberfläche 2 = f(x) und wird oft als Normalenvektor bezeichnet. Jacobische Matrix. Vorgegeben sei eine Menge von m linearen Gleichungen in n Variablen gi(x)
= 0;
i =
l,2,...,m.
(33)
Für jede Funktion können wir die n ersten partiellen Ableitungen Sgjjcxj, j = 1, 2, ..., n bestimmen. Für die m Funktionen ^ e r h a l t e n wir eine Gesamtzahl von mn partiellen Ableitungen erster Ordnung, die in einer rechteckigen [in, w)-Matrix G = («'!/;/8Xj], der Funktionalmatrix, angeordnet werden können.
36
1. Zum Problem der Optimierung
Von dieser Matrix können wir verschiedene quadratische Untermatrizen der Ordnung m bilden. Eine typische Untermatrix dieser Art kann so geschrieben werden: cgi OXj! dxn
(34)
Jxijl - • •! im) —
dxn
og«, 8xir
Eine solche Matrix heißt jACOBisdie Matrix der Funktionen b ,
(39)
wobei A eine (m, w)-Matrix und b eine Spaltenmatrix »i-ter Ordnung ist. Die Menge der Punkte x, die die Nebenbedingungen eines linearen Programms befriedigen, ist eine konvexe polyedrische Menge. Solch eine Menge braucht nicht beschränkt zu sein, und darum wird der Ausdruck Polyeder nicht benutzt. Konvexer polyedrischer Kegel. Das ist der Durchschnitt einer endlichen Zahl von Halbräumen, deren Begrenzungshyperebenen den Ursprung enthalten. Das ist die Menge von Punkten x, die AT x
^ 0
(40)
befriedigen. Ein konvexer polyedrischer Kegel ist eine konvexe Menge, ein Kegel, und ist die konvexe Hülle einer endlichen Zahl von Geradensegmenten, die vom Ursprung ausgehen. 1 D.2. Konvexe und konkave Funktionen. Konvexe Funktion. Die Funktion f(x) wird auf einer konvexen Menge X in En als konvex angesehen, wenn für zwei beliebige Punkte xx und x2 in X und für alle tx, mit 0 sc ^ 1, gilt f[xx2
+
(1 -
«)»,]
^ 0 ist. Wir fassen wie folgt zusammen: Notwendige Bedingungen für lokale Extrema fxSX 1. Xi) =
fx,iX 1' Xz)
(2-10)
0
(2-11)
=
Hinreichende Bedingungen: a) für ein lokales Minimum r u
(2-12)
> o
f" f" — (f" I > 0 / XiXii X2X2 \1 X1X2) ^ 2
(2-13)
2.2. Methode der Lagrangeschen
Multiplikatoren
43
b) für ein lokales Maximum r u
/xifjxixt 2.1.3.
(2-14)
< o
(2-13 wiederholt)
(fxi¡r2)2 ^ ö
Mehrdimensionales Problem
Vorgegeben sei das Problem Max J = f{xu
x2, ...,
xn),
wobei / € C2 für alle seine Argumente eine nichtlineare Funktion ist. Die Bedingungen für das Vorhandensein eines lokalen Extremwertes werden nachfolgend gegeben: Notwendige Bedingungen / « ( « « 2 , •••> *«) = 0,
i = 1, 2, ..., n
(2-15)
Hinreichende Bedingungen a) für ein lokales Minimum
D¿ > 0
¿=1.2,...,»
(2-16)
b) für ein lokales Maximum
D¿ > 0
i = 2, 4, 6, . . .
(2-17)
D¿ < 0
¿ = 1,3,5,...
(2-18)
Dabei sind die Z); Determinanten der Form
Di =
ÍxíXí
fxlx2 • • • ixiXi
fxtx 1
iX¡X2 • • • fxzXi
Íx 3 * 1
fxa
2.2.
fxa
Methode der Lagrangeschen Multiplikatoren
In diesem Abschnitt werden wir die Methode der LAGRANGEschen Multiplikatoren besprechen, die bei der Lösung von Problemen mit Nebenbedingüngen in Gleichungsform der Art Max J = j{x)
x
= (.x,, x 2 , . . . , xn)
(2-20)
m
(2-21)
x
gi(x)
= 0
¿ = 1,
2 ,
...,
angewandt wird, wobei gi e C 2 lineare oder nichtlineare Funktionen sind und = , n gilt.
44
2. Statische
Optimierungsverfahren
Die Existenz von Lösungen für die verschiedenen Fälle von = , 2:) n wird in Anhang 1 C diskutiert. Hier werden wir den Fall m < n betrachten. I n solch einem Fall können wir das Problem so ansehen, als gäbe es (n—m) Freiheitsgrade. Angenommen es sei n = 5, m = 3, dann können zwei der fünf «-Werte ausgewählt werden, um / zu maximieren. Die anderen drei werden automatisch durch die drei Gleichungen gi(x) = 0 bestimmt.
2.2.1.
Zweidimensionale Probleme £
Wir werden die Methode der LAGRANGEschen Multiplikatoren an einem einfacher^ zweidimensionalen Problem erläutern, und wir werden auch auf den wichtigen Begriff der Gleichheit der Anstiege hinweisen. Das Problem sei in folgender Weise formuliert: Max J = f(x, y) = 2x + 3y + 1
(2-22)
g{x,y)=x*+l,5y*-6
(2-23)
= 0.
Gewöhnlich kann dieses Problem durch die Substitutionsmethode gelöst werden. Aus (2-23) bestimmt man x = i (6 — 1,5t/2)1/* und setzt diese Werte von x in (2-22) ein. Anschließend bestimmt man das Maximum von / bezüglich y durch Anwendung des gewöhnlichen Verfahrens. Die Methode der LAGEANGEschen Multiplikatoren ist jedoch für höherdimensionale Probleme zu bevorzugen. Nehmen wir an, X sei ein skalarer Faktor (Multiplikator), dessen WTert im Augenblick noch unbestimmt ist. Wir bilden eine neue Funktion F = / + lg = (2x + 3y - 1) + /.(z2 + l,5y® - 6).
(2-24)
Die notwendigen Bedingungen für stationäre Punkte von F sind 8F Sx
dx
cx
8F
Sf 8y
c
8y
v
j- 2/.x = 0
(2-25)
b Uy = 0.
(2-26)
A n s t a t t zwei Gleichungen für zwei Variable zu lösen, wie im Fall ohne Nebenbedingungen, haben wir hier drei Variable x, y und ?. zu bestimmen. Die dritte notwendige Bedingung wird durch g, Gleichung (2-23), geliefert. Mit anderen Worten, wir haben genau drei Gleichungen (2-23), (2-25), (2-26) für drei Variable. Aus der Gleichung (2-25) und der Gleichung (2-26) ergibt sich x = y = - j .
(2-27)
Wir setzen diese Werte in die Gleichung (2-23) ein: 2,5 - 6A2 = 0
? . = ± 0,645
(2-28)
2.2. Methode der Langrangeschen
Multiplikatoren
45
Die partiellen Ableitungen, zweiter Ordnung sind F'xx = 2/,
F'xy — FyX = 0,
F'y'y = 3 / .
(2-29)
In Tabelle 2-1 stellen wir die Werte von x, y, f , F?x. F'y'y für die beiden Werte von ). zusammen. Tabelle 2-1 Stationärer Punkt /.
-0,645
+0,645
Lösung x Lösung y
1,55 1,55
-1,55 — 1,55
Gütekriterium
6,75
-8,75
1XX
hinreichende ) Bedingungen J
Folgerung
fxxfyy
(fxy)~
(-1,29) < 0
(1,29) > 0
(2,5) > 0
(2,5) > 0
Maximum
Minimum
Die notwendigen Bedingungen (2-25) und (2-26) können durch einfache geometrische Interpretationen abgeleitet werden. In Abb. 2-2 wird gezeigt, daß der Extremwert der Funktion J = f(x, y) unter der Nebenbedingung g(x, « / ) = ( ) im Punkt P liegt. In diesem Punkt muß der Anstieg dyjdx der beiden Kurven (siehe auch Anhang 2 B, Abschnitt 3) f(x, y) = konstant
(2-30)
g(x,y)=
(2-31)
0
Abb. 2-2 Geometrische Ableitung der Methode der LAORANGEschen Multiplikatoren
46
2. Statische
Optimierungsverjahren
gleich sein. Das f ü h r t zu dy
dfjdx —
dr
cf/dy
Sgjdx ~
(2-32)
cgjdy'
Die Gleichung (2-32) kann wie folgt umgeschrieben werden 8fJ8x_
=
dfjSy_
Sg/8x
=
(2-33)
dgjby
Daraus können sofort die beiden Bedingungen (2-25) und (2-26) abgeleitet werden. Diese Konzeption der Gleichheit der Anstiege kann leicht für mehrdimensionale Probleme verallgemeinert werden. 2.2.2.
Mehrdimensionale Probleme
Die allgemeine Formulierung des mehrdimensionalen Problems (bei Nebenbedingungen in Gleichungsform) lautet wie folgt: Max J = f(Xi)
i = 1, 2, . . n
(2-34)
j =
(2-35)
Xi
9}(xi) = 0
2,
m: m < n.
Wir bilden die neue Funktion m
F = / + E
i=i
•
(2-36)
Die notwendigen Bedingungen f ü r stationäre Punkte sind 8F(xh ¿,.) = 0 dxi
i = i,2,...,n.
(2-37)
Durch die Einführung der m Multiplikatoren h a t sich die Anzahl der Variablen von n Variablen x auf (n + m) Variable x und /. erhöht. Die simultane Lösung der m Gleichungen (2-35) und n Gleichungen (2-37) liefert die Werte dieser (n -f m) Variablen. Eine typische Anwendung der L A G R A N G E s c h e n Multiplikatorenmethode in d e r Industrie findet man beim ökonomischen Einsatz von Energieverbundsystemen, wobei man eine Reihe sogenannter „Koordinierungsgleichungen" erhält [G-46, G-47, 2-1]. Wie in Abb. 2-3 gezeigt wird, bestehen Energieverbundsysteme im wesentlichen aus drei Teilen: den Generatoren, die die Elektroenergie erzeugen, den Übertragungsleitungen, die sie übertragen und den Verbrauchern, die sie verwenden. Eine solche Aufgliederung läßt sich auf alle Verbundnetze (regionale, und internationale)anwenden, wobei die Zahl der Elemente varüert. Da die Energiequellen recht verschieden sind (Kohle oder Gas, Wasserströmung, Gezeiten, radioaktive Substanzen, Sonnenenergie), wird die Auswahl der einen oder der anderen nach ökonomischen, technischen oder geographischen Gesichtspunkten
2.2. Methode der Lagrangeschen
Multiplikatoren
47
getroffen. Der Einheitspreis der Energieproduktion hängt von der Art der Anlage ab und unterscheidet sieh sogar bei Anlagen der gleichen Art. Die Übertragung der Energie verursacht Verluste in den Leitungen. Bei einer gegebenen Last sind die Verluste davon abhängig, von welcher Anlage oder von welchen Kraftwerken die Energie herkommt. Mit anderen Worten, die Verluste hängen von der Komplexität des Verbundnetzes zwischen den Generatoren (Erzeugern) und den Verbrauchern ab. Das Problem des ökonomischen Einsatzes besteht nun darin, daß für einen vorgegebenen Bedarfsplan die Produktionshöhe jeder Anlage und die Übertragungswege zu den Verbrauchern so zu bestimmen sind, daß der Gesamtpreis für Erzeugung und Übertragung ein Minimum wird.
Übertragungsleitungen
Abb. 2-3 Eine vereinfachte Anordnung miteinander verknüpfter Energiesysteme
Es sei: Pi F{ PLI AFijdPi PL SPi/cPf PR LT
von der i-ten Anlage erzeugte Energie Produktionskosten für (bekannte Werte) Verluste bei der Übertragung von P ; zu den Verbrauchern Zuwachsrate der Kosten für die Erzeugung der Anlage i (bekannte Werte) Gesamtverluste in den Übertragungsleitungen Zuwachsrate der Verluste bei der Übertragung, für die i-te Quelle Gesamtlast (bekannt) Verlustfaktor der i-ten Anlage.
In der Sprache der Optimierung lautet die Formulierung des Problems: Gütekriterium F =
E i=1
i
F
(2-38)
48
2. Statische
Optimierungsverfahren
Nebenbedingung H = £ Pi~ l
Z Pu~ I
Pr = 0.
(2-39)
Benutzen wir die Methode der LAGRANGEschen Multiplikatoren, dann erhalten wir die folgenden notwendigen Bedingungen für stationäre Punkte. (F + XH) = 0.
(2-40)
Man hat also n Gleichungen (2-40) plus eine Gleichung (2-39) für n Variable P, plus eine Variable X. Gleichung (2-40) kann folgendermaßen geschrieben werden Z — Ii sp Ar
Ff + X Z Pi - X Z
pii
-
?-pA
=
(2-41)
Da PR unabhängig von P{ ist, gilt
Andererseits gilt für jede Anlage offensichtlich
d Fi
8F,
m
.
= i K
.
8
>=
F
i E -
. 0
.
^2-44)
Die Gleichung (2-41) erhält damit die Form ^ + d Pi '
- A^ = 0 8Pi
(2-45)
oder dF ' Li dPt
=
(2-46)
X,
wobei i ^ - l V 8Pi
)
Die Gleichungen (2-45) oder (2-46) heißen Koordinierungsgleichungen. Sie zeigen, daß die Produktionsniveaus Pt so gewählt werden müssen, daß alle gewichteten Anstiege (dPj/dPjL; der verschiedenen Betriebe derselben Größe X gleich sein müssen (Abb. 2-4). Für jeden Wert von X gibt es eine Kombination der Werte von Pj. Da die Pi die Nebenbedingungen (2-39) (Gesamtproduktion = Gesamtlast plus Gesamtverluste) erfüllen müssen, hängt der Wert von X vom Gesamtbedarf ab. Die Koordinierungsgleichungen erlauben die Verwirklichung einer ökonomi-
2.2. Methode der Lagrangeschen
Multiplikatoren
49
Abb. 2-4 Nichtlineare Funktionen ¿ F y d P ; = /(Pj)
sehen ,,on-line"-Verteilungsregelung, wie das in Abb. 2-5 für die Lösung der Gleichungen (2-45) und (2-39) gezeigt wird. Dazu bestimmt ein Computer den Wert von ?. gemäß dem geplanten Energiebedarf. Dieses Signal gelangt zu jedem Betrieb, in dem dann das Signal AIL{ erzeugt wird. Erfüllt werden die Gleichungen (2-45) durch die Anwendung von Funktionsgeneratoren FG{ für di^/dP,- = f(Pi), die zwei Signale liefern: den konstanten Teil Pi0 und den veränderlichen Anteil PiD. Übertragungsleitungen
Abb. 2-5 Ökonomische on-line Verteilungsregelung
50
2. Statische
Optimierungsverfahren
Der Vergleich von Pm und dem rückgeführten wirksamen Produktionsniveau PiE sichert das gewünschte Produktionsniveau. Praktische Schwierigkeiten entstehen bei der Bestimmung der Werte von dFJdPi und L{, die in dem vorhergehenden Verfahren als bekannte Größen angenommen werden. Die Kosten F { und die Kostenzuwachsraten d i y d P , sind im allgemeinen nichtlineare Funktionen von P¿ (Abb. 2-5) und können nur durch mühsame Experimente gewonnen werden. Die Werte von L¡ hängen von der Konfiguration des gesamten Netzes und von der Kenntnis der Momentan werte von P{ ab. Die allgemeine Methode dieser Berechnung besteht in der Annahme L=
P
I
£
m n
Pm-BmnPn,
(2-47)
wobei die Pm und Pn Produktionsniveaus sind und die Bmn Koeffizienten, die entsprechend der Konfiguration des Notzes bestimmt werden müssen. Die Berechnung von L¡ ist überdies sehr weitschweifig [G-46, Kap. 3]; in der Praxis kann man Netzmodelle zu Hilfe nehmen.
2.2.3.
Berechnungsschwieri^kciten bei mehrdimensionalen nichtlinearen Problemen
Die Anwendung der Methode der LAGRANGEschen Multiplikatoren, wird kompliziert, wenn das Gütekriterium / und die Nebenbedingungen 0t beide nichtlinear und mehrdimensional sind. Das Anwendungsbeispiel, das im Abschnitt 2.2.2. behandelt wurde, ist durch die Verwendung des experimentell bestimmten Kurvenfeldes di^/dPf = f(Pj) und die Benutzung von on-line Reglern vereinfacht worden. In nichtlinearen Fällen werden im allgemeinen analytische Schwierigkeiten entstehen. Wir wollen deshalb das folgende Problem betrachten, bei dem / und g{ Terme höheren Grades in den Variablen enthalten f(x, y, z)
=
xl -f 4xsz2
— y2z3
gx{x,
y, z) =
2x^y +
3z2y3
g2(x,
y, z) =
7x*y
2yh
+
—
— xy3 2
4y5 — 4z\x2 + 1 = 0
— 5y xz 2
3
— y
b
=
0.
(a) (b)
Nach der Einführung von zwei LAGRANGEschen Multiplikatoren Xx und ¿ 2 führt die Erfüllung der Bedingungen 8 — cx
(/ + ¿i0i + ¿202) = o (/ + ¿,0i + ¿202) = 0
ß
TT (f + ¿101 + ¿202) = 0
2.2. Methode der Lagrangeschen Multiplikatoren
42l2yxb + l?.2x6
(4 +
+
-
+ 9/ljzV = 0
8zx3 -
8 ; . ^ ) x3 +
I2x2z2
— ßA^x
y(2?.,y + 1 0 l 2 y z ) x -
— 5Ä2y2zs — lxy3
5(4 + ?.2) y4 + 8A2z2i/3
16Ä!Z3.t2 - 15X 2 yz 2 x + U2zy* + ö^z?/3 - 3z 2 y 2 = 0.
=
0
51
(c)
(d) (e)
Das sind fünf Gleichungen (a), (b), (c), (d) und (e) für fünf Unbekannte x, y, z, /.¡, A2. Wegen des hohen Grades dieser Gleichungen gibt es jedoch nicht nur eine, sondern 4 x 6 x 5 x 6 x 4 = 2880 Lösungen, ungeachtet der Schwierigkeiten bei der Bestimmung dieser Lösungen.
2.3.
Die Methode der linearen Programmierung
In diesem Abschnitt werden wir den folgenden Typ eines Optimierungsproblems betrachten n
Min 2 = 2 ; Cixi
>=i
ciijXj
Xi^O
bj
i = 1, 2, ..., m
»=1,2,...,m,
(2-48)
(2-49) (2-50)
wobei Xi
die Zustandsvariablen
c i; a { j, bj willkürlich vorgegebene Konstanten sind. Eine solche Formulierung wird Linearprogramm genannt, weil (2-48) und (2-49) lineare Beziehungen sind [G-14, G-15, G-17, G-20], Überdies sind die Ungleichungen (2-49) voneinander unabhängig. Im Gegensatz zur Methode der LAGRANGEschen Multiplikatoren wird dem relativen Wert von m und n keine Bedingung auferlegt. Der Fall m < n (mehr Variable als Nebenbedingungen) ist normal. Aber wenn m > n ist (mehr Nebenbedingungen als Variable), kann man Schlupfvariable benutzen, um n zu vergrößern (s. Abschnitt 2.3.2.). Dies ist wegen des Ungleichungscharakters der Nebenbedingungen möglich. Das wichtigste Verfahren zur Behandlung von Problemen der linearen Programmierung ist die von G. D A N T Z I G entwickelte Simplex-Methode. In der Sprache der linearen Programmierung wird das Gütekriterium auch Kostenfunktion, Zielfunktion und Ökonomiefunktion genannt, weil Linearprogramme gewöhnlich auf ökonomischem Gebiet anfallen. Ferner sind die Variablen produzierte oder gelagerte Materialien, immer in nicht-negativen Größen (0 oder positiven Mengen) gemessen. Damit werden die Nebenbedingungen (2-50) erklärt.
52
2. Statische
Optimierungsverfahren
B e i der Methode der linearen Programmierung gibt es eine Anzahl von Begriffen, wie z. B . Basislösung, Polyeder, konvexe Menge und Dualität, die für das Verständnis anderer Optimierungsverfahren von Interesse sind. Wir werden sie zuerst an H a n d eines einfachen Beispiels erklären und dann das Simplex-Verfahren einführen, so daß der Leser wenigstens dieses fundamentale Werkzeug kennenlernt. Zum Schluß werden wir die Verschiedenartigkeit praktischer Probleme besprechen, die als Linearprogramm formuliert werden können.
2.3.1.
Grundbegriffe
Zur Einführung der Grundbegriffe werden wir ein Mischungsproblem behandeln [G-15]. I n der Praxis gibt es eine Menge solcher Mischungsprobleme: F u t t e r , Legierungen, Zement usw. Hier werden wir ein Futtermittelmischproblem auswählen, das wie folgt dargestellt werden k a n n : F ü r bestimmte Tiere ist eine wirtschaftliche Futterzusammenstellung zu entwickeln. Das F u t t e r muß vier Arten von Bestandteilen enthalten; die mit A, B , C und D bezeichnet werden. Der Tagesverbrauch pro Tier beträgt mindestens 0,4 kg von A, 0,6 kg von B , 2 kg von C, 1,7 kg von D . Auf dem Markt werden zwei Produkte M und N angeboten, dio diese Bestandteile enthalten. E i n Kilogramm von M, das zehn Verrechnungseinheiten (VE) kostet, enthält 0,1 kg von A, 0,1 kg von C und 0,2 kg von D . E i n Kilogramm von N, das vier V E kostet, enthält 0,1 kg von B , 0,2 kg von C, 0,1 kg von D. Welche Tagesmengen von M und N pro Tier sind in der Beschaffung am wirtschaftlichsten? Die D a t e n sind in Tabelle 2-2 zusammengestellt.
Tabelle 2-2
Futterbestandteile
Markterzeugnis M N
Vorgeschriebene Tagesmenge pro Tier
A B C D Kosten
0,1 0 0,1 0,2 10
0,4 0,6 2 1,7 Min
0 0,1 0,2 0,1 4
Diese Tabelle wird Modell der linearen Programmierung genannt. Hier werden zwei neue Begriffe eingeführt: Der Ausdruck Aktivität, der solche Elemente wie z. B . M, N bezeichnet, und der Ausdruck Bestandteile, der Elemente, wie z. B . A, B , C, D bezeichnet. Der erste Schritt bei der Auf Stellung eines Modells der linearen Programmierung besteht darin, „ A k t i v i t ä t e n " , „ B e s t a n d t e i l e " , „Kostenf u n k t i o n e n " und „Nebenbedingungen" aus dem speziell vorgegebenen Problem herauszulösen. Nehmen wir an, x, und x2 seien die Mengen von M und N, die pro Tier und T a g beschafft werden sollen. Die Zielfunktion und die, Nebenbedin-
2.3. Methode der linearen Programmierung
53
gungen werden in der Form (2-51)
[Min] 2 = 10X! + 4X2 0,1»! ^ 0,4
'
0,1x2 ^ 0,6 0,1«! -f- 0,2x2 ^ 2
• oder
0,2x! - r 0>1«2 ^ 1 , 7 Xj ^ 0
CC i ^ 4
(2-52)
x2 ^ 6
(2-53)
Xi + 2x2 ^ 20
(2-54)
2xi -}- x2 ^ 17
(2-55)
x2 ^ 0
(2-56)
geschrieben. Die Beziehungen (2-51) bis (2-56) bilden ein lineares Programm, dessen Form der allgemeinen mathematischen Formulierung der Beziehungen (2-48) bis (2-50) entspricht. I m Falle des vorliegenden Beispiels sind die Ungleichungen (2-52) und (2-53) schärfer als die Ungleichungen (2-56). Dieses einfache Mischproblem kann graphisch gelöst werden. Die Nebenbedingungen (2—56) bedeuten, daß nur der erste Quadrant der (x,, x2)-Ebene betrachtet werden muß (Abb. 2-6). Die Nebenbedingungen (2-52) bis (2-56) werden, wenn das Gleichheitszeichen genommen wird, entsprechend durch die Geraden A1 Zl2 A3 /14 dargestellt. In diesen Nebenbedingungen bedeutet das „Größer-Zeichen", daß jede mögliche optimale Lösung (x*, y*) rechts von allen diesen Linien liegen muß, oder mit anderen Worten, in dem nicht schraffierten Teil der (xu x2)-Ebene. Es ist klar, daß es eine unendliche Zahl möglicher Lösungen gibt. Diese unendliche Zahl kann durch die folgende Betrachtung reduziert werden. Die Kostenfunktion z = Ute!
4x2 = constant
(2-57)
wird durch eine Schar von Geraden Z parallel zur Geraden 10x1
+ 4x2 = 0
(2-58)
dargestellt, die durch die Punkte (0,0) und (—4, 10) geht. Es ist bekannt, daß der Abstand d zwischen dem Koordinatenursprung und einer Geraden der Form ax +
by =
c
(2-59)
für gegebene Werte a und b proportional zu c ist
d
=
y « 2 + b2
(2-60)
Deshalb ist der Wert von z proportional dem Abstand des Koordinatenursprunges von den ¿/-Geraden. Die Begrenzung der zulässigen Zone, die aus Teilen von AGeraden besteht, bildet ein offenes Polygon. Die Punkt© (xlt x2), die den kleinsten möglichen Werten von z entsprechen, liegen notwendig auf dem Polygon. Die
54
2. Statische
Optimierungsverjahren
Endlösung ist daher der Schnittpunkt einer ¿/-Gerade und des Polygons. Da das Polygon konvex ist, liegt solch ein Schnittpunkt immer an einem der Eckpunkte Ax, A2 oder A3. In unserem Fall ist es der Punkt A,, dessen zwei Koordinaten x, = 4, x2 = 9 zu 2 = 1 0 - 4 + 4 - 9 = 76 Verrechnungseinheiten führen.
Abb. 2-6 Graphische Lösung des einfachen Mischungsproblems
Der dem Minimum nächste Eckpunkt ist A2 mit den Werten xl = 4,6;
x2 = 7,8;
z = 77,2 VE.
Aus diesem einfachen Beispiel können wir eine Anzahl wichtiger Schlüsse ziehen, die nicht nur für zweidimensionale, sondern auch für mehrdimensionale Probleme gelten. 1. Die Nebenbedingungen bilden ein Polygon (im zweidimensionalen Fall) oder ein Polyeder (im mehrdimensionalen Fall), das bezüglich des Ursprungs konvex oder konkav ist, je nachdem ob die „größer"- oder die ,,kleiner"-Bedingung gestellt wird. 2. Gleichungen z = constant bilden eine Schar von Geraden oder Hyperebenen. 3. Unter den unendlich vielen zulässigen Lösungen gibt es eine besondere Kategorie zulässiger Lösungen mit endlicher Anzahl. Diese Lösungen, Basislösungen genannt, liegen geometrisch gesehen an den Eckpunkten des Polygons
2.3. Methode der linearen Programmierung
55
oder des Polyeders. Die Anzahl der Basislösungen, wird automatisch durch die Anzahl der Koordinaten oder Variablen N und die Anzahl der Nebenbedingungen M gemäß der kombinatorischen Formel C§ = N\/M\(N
-
M)\
bestimmt. Die Tabelle 2-3 zeigt verschiedene Beispiele. Tabelle 2-3 Anzahl der Variablen
Anzahl der Anzahl der Nebenbedingungen Basislösungen
2 3 3 4 4 4 5 5 5 5 7 10
1 1 2 1 2 3 1 2 3 4 5 7
2 3 3 4 6 4 5 10 10 5 21 120
4. Das Extremum wird durch die entferntesten oder am nächsten liegenden Schnittpunkte zwischen der z-Hyperebene und dem Polyeder gegeben. Leider ist das graphische Verfahren nur für zwei- oder evtl. für dreidimensionale Probleme praktisch durchführbar. Für höherdimensionale Probleme müssen andere als graphische Methoden angewendet werden. Die grundlegende Methode ist die Simplexmethode. Aber bevor wir sie besprechen, werden wir den Begriff der Dualität einführen (s. Anhang 2 C). Anstelle der Problemstellung, die am Anfang dieses Abschnittes verwendet wurde, werden wir jetzt das Problem für den „Konkurrenten" des Herstellers der Produkte M und N aufstellen. Der „Konkurrent" stellt die Komponenten A, B, G, D her. Für ihn ist entscheidend, wie die Einzelpreise der Komponenten A, B, C, D festzusetzen sind, wenn dieselben Nebenbedingungen gelten, so daß sein Gewinn maximal ist. Tabelle 2-4
M N Vorgeschriebene Menge 5
Pun
A
B
C
D
Kosten
0,1 0
0 0,1
0,1 0,2
0,2 0,1
10 4
0,4
0,6
2
1,7
[Max] g
56
2. Statische
2/i, 2/2,
Optimierungsverfahren
Vi seien diese Einzelpreise. Das entsprechende Linearprogramm ist [Max] g = 0,4 V l + 0,6y, + 2yz - f l,7t/ 4
(2-61)
O.ly, + 0,li/ 3 + 0,2y 4 ^ 10
(2-62)
0 , 1 y2 + 0,2y3
(2-63)
+
0,lyt
^ 4
2/2,2/3,2/4 2g 0 .
(2-64)
Das Modell der linearen Programmierung wird in Tabelle 2-4 gezeigt. Durch die Simplex-Methode findet man folgende Lösung x1
= 20
x2
= 0
x3
= 0
xt
= 40
g
= 76.
Der Maximalgewinn des Konkurrenten ist gleich den Minimalkosten des Käufers. max g = min z = 76. Diese Eigenschaft der Dualität gilt nicht nur für das Ergebnis, sondern auch für die Formulierung (Tabelle 2-5). In der Praxis kann es vorkommen, daß die optimale Lösung des dualen Programmes leichter zu bestimmen ist. Tabelle 2-5
[Max] g = E cßj
ist
[Min] z = £
7=1
n
Z
ißj ^ h
a
j =l ¿ = 1,2,..., m
2.3.2.
b^
t=l
-> dual
zu
und max q = min z
m
y ajixi ;> cy
t=i 7 = 1,2..., n
Die Simplex-Methode — nützliche Definitionen
I m Abschnitt 2.1.1. erwähnten wir den Unterschied zwischen direkten und indirekten Methoden beiOptimierungsverfahren. Die direkte Methode besteht im Aufsuchen aller zulässigen Lösungen und im Auffinden des Extremums durch Vergleich ; bei den indirekten Methoden suchen wir zuerst eine Menge von Gleichungen, deren Lösung, wenn sie bestimmt werden kann, den Extrempunkt liefert. Die Methode derLAGRANGEschenMultiplikatoren ist so eine indirekte Methode. Sowohl die graphische Methode, die in Abschnitt 2.3.1 skizziert ist, als auch die SimplexMethode, die in diesem Abschnitt beschrieben werden soll, sind weder direkt noch indirekt. Tatsächlich sind die zulässigen Lösungen, wie man aus Abb. 2-6 ersehen kann, Punkte in dem ganzen nichtschraffierten Gebiet, einschließlich dem begrenzenden Polygon, während die eigentliche Untersuchung nur für drei Punkte erfolgt, die an den Eckpunkten des Polygons liegen. Eine solche Methode kann deshalb als semidirekte Methode bezeichnet werden.
2.3. Methode der linearen Programmierung
57
Aus dem vorhergehenden Abschnitt ist ersichtlich, daß zur Lösung linearer Programmierungsprobleme nur die Basislösungen zu betrachten sind, die aus den Eckpunkten des Polygons bestehen. Leider steigt die Anzahl dieser Eckpunkte mit der Dimension des Problems schnell an. Es läßt sich beweisen, daß diese Anzahl die Anzahl der Kombinationen von N Objekten zu je M als obere Grenze hat. Wenn N — 17. M — 8, dann liegt diese Grenze bei 24310; und sie liegt bei 1026, wenn N = 100 und M = 38. In der Praxis gibt es Probleme der linearen Programmierung mit 500 Variablen und mehr als 100 Nebenbedingungen. Eine vollständige Untersuchung auch nur der Basislösungen ist unmöglich. Die Simplex-Methode von DANTZIG liefert Wege für den optimalen Übergang von einem Eckpunkt zu einem anderen. Zum Beispiel: 1. Wege, um einen Eckpunkt des Polyeders zu finden. 2. Ein Kriterium zur schnellen Beurteilung, ob der entsprechende Wert der Kostenfunktion ein Minimum (oder Maximum) ist oder nicht. 3. Wenn er das nicht ist, Wege, um einen anderen Eckpunkt zu finden, für den die Kostenfunktion einen kleineren (oder größeren) Wert besitzt. Die Methode ist nicht schwierig, aber komplex. Eine Reihe von Definitionen und Schritten des Verfahrens muß geprüft und genau verstanden werden, bevor man weiß, wie es anzuwenden ist. In diesem Abschnitt werden wir die Definitionen darlegen und im nächsten Abschnitt das Verfahren an sich behandeln. Die Schlupfvariablen werden zur Transformation der allgemeinen Formulierung (2-48), (2-49), (2-50) in die Standardform benutzt, die nur Nebenbedingungen in Gleichungsform enthält. Die Standardform wird dann in die kanonische Form transformiert, aus der die Basisvariablen bestimmt werden. Die anderen Definitionen sind für das Verständnis der Simplex-Methode nützlich.
Definitionen I.
Beispiele
Schlwpfvariable
Zusatzvariable die zur Umformung von Ungleichungen in äquivalente Gleichungen benutzt werden a) Eine (^-Ungleichung der Form E i
a x
ni
+
=
wird in eine Gleichung a
i
ijxj
x
n+i
=
bi
umgewandelt, und zwar durch Verwendung einer Schlupfvariablen %n+i = 5*
a) Man benutzt x3, um 2X2
si 5
in -j- 2x2 "I- X3 ^^ O ^ 0 umzuformen.
58
2. Statische
Optimierungsverfahren
Definitionen
Beispiele
b) Eine (5:)-Ungleichung der Form £ j
ni
a x
^
b) Man benutzt xit um 2xl
h
+
^ 7
3x2
wird in eine Gleichung E i
n+i
x
=
~~I- 3^2
bi
umgewandelt, und zwar durch Verwendung einer Schlupfvariablen xn+i
iä
— X4 — 7
umzuformen
0.
Die Schlupfvariablen sind immer nichtnegativ. c) Bei manchen Problemen kann es vorkommen, daß einige Variable Xj ihrem Vorzeichen nach nicht festgelegt sind. Da die Methode der linearen Programmierung lediglich auf nichtnegativen Variablen beruht, kann die im Vorzeichen nicht festgelegte Variable Xj in eine Differenz zweier nichtnegativer Variabler umgeformt werden
c) Xj > 0 wenn Xj = 0 wenn Xj < 0 wenn in allen Fällen
\xj\ >
\xj'\
\xj\ =
\xj'\
\xj\
0
x3 = -
x4
umgewandelt.
(E s ) (E 4 )
2.3. Methode der linearen Programmierung
Beispiele
Definitionen I I I . Zulässige
59
Lösungen
Jedes System von Werten Xj, das (E x ) und (E 2 ) von I I erfüllt, wird als zulässige Lösung bezeichnet.
I I I . Im Beispiel I I würden die Werte Xj — — 1
%2 — 3
x3 =
xt =
0
0
eine zulässige Lösung bilden, wenn nicht negativ wäre I V . Kanonisches
IV.
System
Ein System von Gleichungen, das aus dem Standardsystem abgeleitet und in der folgenden Form geschrieben werden kann heißt kanonisch. "I - ®l,m+l x m+l "' X.
m+nxm+n
X\
—
—
x2 +
2xz +
2^4
#4 =
—•
— 1
(E s ) (E 6 )
3
=
^.m+l^m+l
%m ^m.n+l^m+l " " ^m.m+n^m+n — ^m a) Basisvariable: jedes der xl,x2,...xm wird Basisvariable genannt. b) Abhängige Variable: In dem kanonischen System werden die als abhängige Variable bezeichnet.
a) Xi, x2 b) Xj, x2
c) Unabhängige Variable: In dem kanonischen System werden die xm+l, xm+2,..., xm+n als unabhängige oder Nichtbasisvariable bezeichnet
c) x3, xt
d) Pivot-Variable : Jede der Variablen
d) Xi, x2
XL Y «2/2 ) • » • ist eine Pivot-Variable. Eine Pivot-Variable Xi hat einen Koeffizienten gleich 1 in der ¿-ten Gleichung und in den anderen Gleichungen einen Koeffizienten gleich Null. e) Das System in I V wird aus e) Pivotierung: dem System in I I durch PivoEine Pivot-Operation besteht aus m Eletierung von x2 gewonnen mentar-Operationen, die ein Standard-System 2(E 3 ) (E 7 ) in ein äquivalentes kanonisches System transformieren. Diese Elementaroperationen sind einfache Multiplikationen und Additionen wie sie bei der Lösung linearer, algebraischer Gleichungen angewendet werden.
2(Xl
+
2x2 +
x3) =
10
(E 7 )
(E 7 ) - (E 4 ) -> (E.) Aus (E 6 ) erhält man x2
= 3 -
2X3
+ xt.
(E 8 )
Setzt man (E 8 ) in (E 3 ) ein und löst nach x t auf, ergibt sich (E 5 ).
60
2. Statische
Optimierungsverfahren
Beispiele
Definitionen f) Anzahl kanonischer Systeme F ü r Standardsysteme von (m + n) Variablen und m Xebenbedingungen ist die Anzahl der kanonischen Systeme, die gebildet werden können, gleich der Anzahl der Kombinationen von (m + n) Objekten zu je rn. V . Zulässige
Xi =
• • •» %m + n
bi,
i =
=
0
1 , 2 , . . . , TO
Eine Basislösung heißt zulässige Basislösung, wenn sie zugelassen ist. V I . Relative
^
z)
Cm+lxm+l H"
+ Cm+nxm+n
=
¿0
Die Koeffizienten c m + 1 , . . . , cm+„ hei ßen relative Kostenfaktoren. Anmerkung: Der Wert der Variablen z in der Basislösung ist z =
z0
x3> xi
~
0
Xl == — 1
Da xl = —1, sind die Xebenbedingungen Xj 0 nicht erfüllt. Weder das kanonische System noch die daraus folgende Basislösung ist zulässig.
8a-! +
9ar2(ci =
8, c2 =
9).
Aus (E 5 ) und (E 6 ) folgt
CjXj
werden die Koeffizienten Cj Kostenfaktoren genannt. Wenn das kanonische System umgeformt wird, schreibt man die Kostenfunktion wie folgt (
TO = 2
z =
n j=1
4
V I . Nehmen wir z. B . an
Kostenfaktoren
In der Beziehung Z =
71 =
V. Aus (E 5 ) und (E 6 ):
Basislösung:
Die spezielle Lösung eines kanonischen Systems, die man durch Xullsetzen aller unabhängigen Variablen und durch Auflösen nach den abhängigen Variablen erhält, heißt Basislösung. Für das System in I V ist die Basislösung xm+1) xm+ii
f ) TO +
Xi = 8«,
— 1 + 3x3 +
=
- 8
—
3
9X2 =
27
+
2xt
24X3 +
lQXi
^
\Hx3 -
-
9xt.
Damit ergibt sich z =
19 +
ßx3 +
lXi
oder - z
(ix3 +
+
lxt
=
—19
Dann ist Cm+1
=
6
Cm+2 =
7
I n der Basislösung ist z =
19
z0 =
19.
2.3. Methode
der linearen
Programmierung
61
Im vorhergehenden Abschnitt haben wir die graphische Rolle besonders hervorgehoben, die die Eckpunkte oder die Basislösungen bei der Suche nach der Minimallösung spielen. Unter den hier angeführten Definitionen hat der Leser sicherlich schon jene bemerkt, die die mathematische Formulierung der gleichen Konzeption betreffen. Ein weiterer wichtiger P u n k t ist die Konvexität der Formen des kanonischen Systems. Die Nebenbedingungen des linearen Programmes bilden ein konvexes oder konkaves Polyeder bezüglich des Koordinatenursprungs, entsprechend dem Zeichen der Ungleichungen. Die verschiedenen linearon Transformationen verändern die Konvexität des Polyeders nicht. Die Eigenschaften bezüglich der Eckpunkte bleiben deshalb die gleichen. Sie garantieren die Notwendigkeit und die Hinlänglichkeit der endlichen Minimallösung, wenn sie gefunden wurde.
2.3.3.
Simplex-Methode und Simplex-Algorithmus
Mit dem Namen Simplex sind zwei Verfahren verbunden: Der Simplex-Algorithmus und die Simplex-Methode. Der Simplex-Algorithmus ist die Methode des optimalen Übergangs von einer Basislösung zu einer anderen und wird stets mit einem Programm von Gleichungen begonnen, die bereits in kanonischer Form vorliegen. Die Simplex-Methode umfaßt zwei Phasen. I n der Phase I wird eine Anfangsbasislösung gesucht; in der Phase I I wird die optimale Lösung bestimmt. I n beiden Abschnitten wird der Simplex-Algorithmus verwendet [G-14], und wir werden hier damit beginnen. Wir nehmen an, daß das lineare Programm bereits in kanonischer Form geschrieben sei:
(2-65) (
z
) +
x
Cm+\ m+\
'' '
(2-66)
Die Werte der Koeffizienten ä, b, c, z0 hängen von der Wahl der Basismenge der Variablen ab. Es kann festgestellt werden, daß eine zulässige Basislösung eine minimale zulässige Lösung mit den Gesamtkosten z 0 ist, wenn alle relativen Kostenfaktoren nicht negativ sind (2-67)
c,- ^ 0 . Man schreibt (2-66) in der Form m+n Z — Z0=U
CjXj .
m+1
(2-68)
62
2. Statische
Optimierungsverfahren
Wenn alle Cj positiv oder null sind, ist der kleinste W e r t von J J C j X j und folglich von z — 2 0 gleich null für irgendeine Wahl von nichtnegativen x;-, Deshalb gilt z - «
0
^ 0
z ^ 20.
(2-69)
I m Falle der zulässigen Basislösung gilt z = z0;
Minz = z0.
(2-70)
Zur Erläuterung nehmen wir das Problem der Minimierung von z, wobei [G-14, S. 9 5 — 9 7 ] vorgegeben ist] 5x1 — 4x 2 + 13x 3 — 2x 4 — x5 — 20 0C j —
H-
3—
— 8
z = xi + 6x 2 — 7X3 + x 4 + 5X5
XJ S; 0 .
(2-71)
Man wählt xt, x 5 und (—2) als Pivot-Variable. D a m i t ergibt sich folgende kanonische F o r m +x5 —
0,25x2 + 3z 3 — 0,75X 4 = 5 —
0,75x 2 + 2x 3 — 0,25x 4 = 3
( - 2 ) + 8x 2 -
24x 3 + 5x 4 = - 2 8
x} ^ 0 .
(2-72)
Die zulässige Basislösung für das System (2-72) ist x 2 = x 3 = x4 = 0,
xt = 3,
x 5 = 5,
2 = 28.
(2-73)
Diese Lösung ist nicht minimal, weil einer der Koeffizienten in der Beziehung für 2, nämlich der von x 3 , nicht positiv ist. J e t z t taucht das Problem auf, wie man den W e r t von z vermindert. D a die zwei Terme in der Beziehung für 2, nämlich 8x 2 und 5x4 positiv sind, besteht der einzige Weg darin, x3 zu vergrößern, da die entsprechende Grenze für 2 2 = 28 -
24X3
(2-74)
ist. J e größer der W e r t von x3 ist, desto kleiner wird der W e r t von z. D a jedoch wegen der Nebenbedingungen alle x,- > 0 sind, wird dieses Anwachsen von x3 begrenzt durch x5 = 5 -
3x 3 ^ 0
xt = 3 - 2 x
3
^ 0 .
(2-75) (2-76)
Der größte W e r t , den x 3 ohne Verletzung der Nebenbedingungen annehmen kann, ist durch die Gleichung (2-76) gegeben, wenn x, = 0 gesetzt wird. E s ergibt sich X3 = - | = 1,5.
(2-77)
2.3. Methode der linearen Programmierung
63
Das bedeutet, daß wir x3 und xs statt x1 und x5 als neue Pivot-Variable auswählen werden. Das neue kanonische System hat die Gestalt x5
— 1,5«! + 0,875^2 - 0,375a;4 = 0,5 a;3
+ 0,5a;, - 0,375« 2 - 0,125a;4 = 1,5
(—z) + i2x1 Xj >
— x2
+ 2x 4
= 8
(2-78)
0.
Seine zulässige Basislösung ist x1=x2
— xi = 0,
X3 = 1,5,
»5 = 0,5,
z = —8.
(2-79)
Diese Lösung ist noch nicht minimal, weil der Koeffizient von x 2 in z negativ ist. Verfahren wir wie vorher, sehen wir, daß der maximal zulässige Wert von x2 durch das Einsetzen von x5 = 0 in die Gleichung xs = 0,5 - 0,875x2 ^ 0
(2-80)
gegeben wird. Wenn wir x2 und xz als Pivot-Variable benutzen, erhalten wir das folgende kanonische System:
" (T)
- (T)
+
(T) Xi = T
-(tMTMI)*-" (-2) + Xj ^ 0
(T) + (t)
+ (l)
=T
(2-81)
und die folgende zulässige Basislösung: \
x
_
=
_ _ 4 _ 1 2 _ 6 0 i — xs — 0 x2 = — x3 = — z = — .
x
(2-82)
Da alle relativen Kostenfaktoren c,- nicht negativ sind, ist der Wert von Z
= ~ Y
(2-83)
minimal. Der Simplex-Algorithmus kann wie folgt kurz zusammengefaßt werden. Schritt 1. Man stelle ein kanonisches System wie (2-65) und (2-66) aus dem linearen Programm auf, um eine zulässige Basislösung zu erhalten Xj
= 0
Xi = bi
s = z„.
j = m+ i
1, ..., m -+- n
= 1,2, . . . , m
64
2. Statische
Optimierungsverfahren
Schritt 2. Man prüfe das Vorzeichen der Koeffizienten Cj. Die Lösung ist minimal, wenn alle c, 0 sind. Schritt 3. Falls der Optimalitätstest negativ ausfällt, wähle man eine neue PivotVariable xs aus. Wenn es nur ein c, < 0 gibt, nehme man xs entsprechend zu Cj = cs. Wenn es mehrere c-t < 0 gibt, wird der Index s so gewählt, daß c s = Min Cj < 0 (Mine,- = der kleinste der Koeffizienten c ; ).
(2-84)
Schritt 4. Man wähle die Pivot-Variable xr, die durch xs ersetzt werden soll, mit Hilfe der Bedingung x*
=
rs
a
= Min au>0
au
> 0
(2-85)
aus den alten Pivot-Variablen Xi aus, deren Koeffizienten ä i s positiv sind. Schritt 5. Man stelle das noue kanonische System und die neue zulässige Basislösung auf. Man prüfe das Vorzeichen des neuen Koeffizienten Cj. Man wiederhole die Schritte 3 und 4, bis der Optimaltest positiv ausfällt. Wir kommen jetzt zu dem Problem der Ermittlung einer zulässigen AnfangsBasislösung. Außer in den Fällen, in denen die linearen Nebenbedingungen in der Form n ZaijXi^bj j = 1,2, ..., m i= 1
vorliegen, ist es nicht immer möglich, eine zulässige Anfangsbasislösung leicht zu finden. Das resultiert daraus, daß das Originalsystem redundant sein kann oder unverträglich oder mit nichtnegativen Zahlen nicht lösbar. G. DANTZIG [G-14, S. 101 — 103] hat ein Verfahren entwickelt, das dem bereits beschriebenen SimplexAlgorithmus ähnelt. Schritt A. Man transformiere das vorgegebene System von Ungleichungen in die Standardform, die dann N = m + n nichtnegative Variable und M = m Nebenbedingungen in Gleichungsform enthält. Man ordne die M Nebenbedingungen in Gleichungsform so, daß alle konstanten Größen bi positiv oder null sind, indem man, wo es nötig ist, die Vorzeichen auf beiden Seiten jeder Gleichung verändert. Wenn wir z . B . haben 2x1
~3^2
x^ — — i,
erhalten wir nach Vorzeichen Wechsel: —2xl — 3x2 + xi = 7. Man beachte, daß die Variablen Xj (einschließlich der Schlupfvariablen) j = 1, 2, ..., N = m + n, nach diesem Vorgang nichtnegativ bleiben. Schritt B. Man erweitere das System, indem man eine Basismenge künstlicher Variabler einführt N+I
X
= 0,
XN+I
==ä 0, ..., ic.v+jf =2: 0,
2.3.
Methode
der linearen
65
Programmierung
so daß man erhält a
u
x
i
+
ai2x2
+
"r
••• T" alXxX
0^22*^2
+
^A'+l
=
• • • —r- $2 yXy
ȣav+2
bl —
(2-86)
aM\x\
+
aM2x2
C
+
C2X2
b ^ O
und
Xj Sä 0
~r
• • • +
+
• •• +
1,2,
i =
CMXXX
+
XX+M
bu
=
(—z) =
CKXS
0
. . . , M
(j = 1, 2, . . . N, N + 1,
N + M).
(2-87)
Schritt C. Man benutze den Simplex-Algorithmus (ohne Zeicheneinschränkung für z), um eine Lösung für (2-86) und (2-87) zu finden, die die Summe der künstlichen Variablen minimiert, die durch w =
xN+l
+
+ • • • + zy+j,/
xN+2
(2-88)
bezeichnet wird. Das kanonische zulässige Anfangssystem für diese Untersuchung erhält man durch Auswahl von XN+1>
xN+2>
XX+M>
( — z)t
(—
w
)
als Basisvariable und durch Elimination dieser Variablen (außer w) aus der Gleichung (2-88) durch Subtraktion der Summe der ersten M Gleichungen des Systems (2-86) von der Gleichung (2-88): zulässige Variable ~~t- ^2\x2
* ' * "l- ^lA'^.Y
0^21*^1 H— Cl22X2
aMVX\
C1Xl
+
künstliche Variable
aM2x2
~~i- XX+1
—!— . . . —j— (t2 yX\~
~~ —|— xX+2
~T ' * ' T~ aMXxX
+
—
XX+M
+
C2X2
+
••• +
CxXy
—Z
+
d2x2
+
••• +
dxxS
~
w
b2
— &A. = 0 =
~w0
wobei bt S: 0 ist und dj
= —(«!,• + «2/ -i
aMj)
- w 0 = - ( 6 , + 6 2 + ••• t W Schritt D. Wenn Min Verfahren ist beendet.
w
(?' =
1,2,...,
N)
(2-89)
> 0 ist, dann gibt es keine zulässige Lösung und das
66
2. Statische
Optimierungsverfahren
Wenn Min w = 0 ist, beginne man den Simplex-Algorithmus bei der Phase I I , indem man (1) alle die Nicht-Basis-Variablen Xj aus der weiteren Betrachtung abtrennt, deren zugehörige Koeffizienten dj in der endgültigen modifizierten Form von w positiv (nicht null) sind und (2) die lineare Form w (die durch verschiedene Eliminationen verändert ist) durch die lineare Form 2 ersetzt, nachdem man zuerst alle Basis-Variablen aus der z-Form eliminiert hat.
2.3.4.
Anwendungsbeispiel
Um die Anwendung der Simplex-Methode zu zeigen, geben wir ein Beispiel für die Wahl der Energiequelle bei der Erzeugung von Elektroenergie [G-15, S. 41 —46; 2-2, 2-3]. Das Problem besteht in der Minimierung einer Kostenfunktion, die die gesamten Investkosten und die gewichteten Betriebskosten umfaßt, und zwar mit den folgenden geforderten Nebenbedingungen 1. Garantierte Leistung in MW 2. Spitzenleistung in MW 3. Jährlicher Energieverbrauch in GWh. Die folgenden Arten von Anlagen können verwendet werden: 1. 2. 3. 4. 5. 6.
Wärmekraftwerke Wasserkraftwerke Pumpspeicherwerke Tal Sperrenkraftwerke Gezeitenkraftwerke Atomkraftwerke
Für jede Anlagenart i werden die folgenden Koeffizienten definiert: «i bi Cj di e,: Xi A B C D
Garantierte Leistung Spitzenleistung jährliche Energie Investitionskosten jährliche Betriebskosten Anzahl der Anlagen vom Typ i Garantierte Gesamtleistung Gesamte Spitzenleistung Gesamter Jahresbedarf Gegebene Investitionsgrenze
Jede Planung der Energieerzeugung muß die folgenden Nebenbedingungen erfüllen: (Xjti^j ~~0/2^2 Mi
+
c^xi
* ' ' ~~^nP^n +
c%X2 +
d2x2
+
~
••• +
bnxn
^
B
• •'
cnxn
^
C
••• +
dnxn
^
D.
2.3. Methode der linearen Programmierung 67 Nun werden die Schlupf variablen xa, xb, xc, »¿eingeführt: ^l-'l
! QxjXi
• •'
o^nxn — xa = A.
Ml + b2x2 + • • • + bnx„ — xb = B C|iUj
C2X2
d
_ 0 i = 1, 2, . . . , 5
3
E i=1
x
Zxi*
j=i
¿ x i=i S x #=i
7=
1,2,3.
Da die gesamte Verfügbarkeit gleich dem Gesamtbedarf ist, sind die 8 Nebenbedingungen nicht unabhängig. Deshalb hat das lineare Programm 15 Variable und 7 Nebenbedingungen. Als Übung kann der Leser versuchen, das entsprechende Modell der linearen Programmierung aufzustellen. E . Handelsvertreter-Probleme. In welcher Reihenfolge sollte ein Handelsvertreter n Städte besuchen, um die gesamte Strecke, die in einer geschlossenen K e t t e zurückgelegt wird, zu minimieren? Das ist ein wohlbekanntes und schwieriges Problem, das mindestens drei mathematische Formulierungen hat [G-14, S. 545—7; G-15, S. 7 3 - 5 ] , Erste Formulierung. E s sei a;i;( = 1 oder 0 in Abhängigkeit davon, ob der i-te Schritt des Weges von der Stadt i zur Stadt j geht oder nicht. Wenn wir xijn+1 = xi/n annehmen, dann drücken die Bedingungen 2 i
ijt = E
x
fr
i.k,t+1
x
2>y, = 1 i,t E
H XW =
d
(?, t =
(i = l,...,n) z
1, ...,
n)
(2-95)
[Min]
folgendes aus: (a) Wenn man beim Schritt t in der Stadt j ankommt, verläßt man die Stadt j beim Schritt i + 1. 6 Pun
72
2. Statische
Optimierungsverfahren
(b) Es gibt einen gerichteten Schritt, um die Stadt i zu verlassen. (c) Die Länge der Tour nimmt ein Minimum an. Zweite Formulierung. Im Falle eines symmetrischen Abstandes d^ = d^ sind nur zwei Indizes nötig. Es sei .Ty = x^ = 1 oder 0 je nachdem, ob die „Reise" von i nach j oder von j nach i zu irgendeiner Zeit von der Reiseroute gekreuzt wurde oder nicht. Die Bedingungen E
i
ij ~
x
Z d ^
^ = z (Min)
(2-96)
drücken aus, daß die Summe der Anzahl der Ankünfte und Abreisen für jede Stadt 2 ist. Dritte Formulierung. Angenommen .r;, == 1 oder 0, je nachdem ob der Handelsvertreter von Stadt i nach j reist oder nicht (i = 0 , 1, ..., n). Dann kann man zu einer optimalen Lösung gelangen, indem man ganze Zahlen x t j, willkürliche reellen Zahlen ut und Min 2 aufsucht, die die folgenden Gleichungen erfüllen: n E i=0
ü
x
¿Xii
i=o
=
1
= l
(?' =
(i = 1 , 2 , . . . , « )
Mj — Uj + E
E
i=0j=0
an
d x
!> 2> •••> n)
^ =
z
n — 1
(1 ^
(2-97) i ±
j ^
»)
[ M i n ]•
Die einfachste Methode ist die direkte Aufzählung aller Möglichkeiten. Als Übung kann der Leser versuchen, ein symmetrisches Problem von vier Städten zu lösen; er wird nur drei Routen untersuchen müssen. Wenn er Probleme mit einer größeren Anzahl von Städten untersuchen will, muß er wissen, daß es für 12 Städte im symmetrischen Fall 19958400 Reiserouten und 39916800 Reiserouten im unsymmetrischen Falle gibt.
2.4.
Nichtlineare Programmierung
In diesem Abschnitt werden wir Probleme der statischen Optimierung besprechen, in denen die Zielfunktion und/oder die Nebenbedingungen nichtlineare Beziehungen sind. Wie bei allen nichtlinearen Problemen gibt es keine allgemeinen Verfahren, sondern nur spezielle, von denen jedes eine besondere Klasse praktischer Probleme erfaßt. Wir werden einige wichtige Verfahren besprechen.
2.4. Nichtlineare Programmierung
2.4.1.
73
Verfahren der stückweisen Linearisierung
Es ist ganz natürlich, daß man bei einem nichtlinearen Problem zuerst auf die Idee kommt, es zu linearisieren. Dafür gibt es eine Anzahl von Wegen. Beim Verfahren der Beschreibungsfunktion benutzt man die Grundfrequenz, um Funktionen vom Relais-Typ zu linearisieren. In der Störungstheorie wird eine kleine Bewegung um einen Gleichgewichtspunkt betrachtet, so daß die Dynamik in linearer Form beschrieben werden kann. Sogar die Kurvenglättung, entweder durch die Methode der kleinsten Quadrate oder die TSCHEBYSCHEFF-Methode, ist eine Art Linearisierung. I n diesem Abschnitt werden wir das Verfahren der stückweisen Linearisierung besprechen [2-4, 2-5]. Die Gruppe der Probleme, die durch diese Verfahren erfaßt werden können, sind jene, bei denen die nichtlinearen Kurven experimentell gewonnen werden. Die analytische Darstellung der Kurven ist unbekannt, aber die Werte der Koordinaten sind für jeden Kurvenpunkt bekannt. Das Verfahren ist für mehrdimensionale Probleme anwendbar. Um die Erklärung zu erleichtern, werden wir ein zweidimensionales Problem betrachten. Das nichtlineare Programm sei: [Min] y =
f(x)
g{y, x) = 0 0,
(2-98)
wobei / und g nichtlineare Kurven in der x-y-Ebene sind. Dieses Programm kann nicht direkt mit Hilfe der Simplexmethode behandelt werden. Deshalb wird eine Reihe neuer Variabler nt benutzt, so daß die Kurven g und / durch die Darstellung von y und x als Linearkombinationen von »;, y{ und a^ vollständig ausgedrückt werden können. Die Werte von y{ und X; erhält man aus den experimentellen Kurven / und g. Das Endergebnis ist ein lineares Programm mit den Variablen Wir betrachten z. B . die nichtlineare Kurve y = f(x) in Abb. 2-7 und nehmen an, daß diese Kurve durch fünf Geradenstücke ersetzt werden kann, die sechs Eckpunkte haben. Wenn sechs neue Variable nlt n2, ..., n% benutzt werden, dann kann die stückweise lineare Kurve / vollständig durch die folgenden Gleichungen beschrieben werden: x =
6
y] ?i{Xi i 6
y = 2 i
l = i > i i
iVi
n
^ 0.
(2-99)
E s ist erforderlich, daß nicht mehr als zwei der wj von Null verschieden sind, und diese müssen aufeinander folgen. Wenn man die numerischen Werte von xi und 6*
74
2. Statische
Optimierungsverfahren
x Abb. 2-7 Eine experimentelle nichtlineare Kurve y =
f(x)
aus Abb. 2-7 benutzt, wird aus den Gleichungen (2-99) « =
+
2n2
+ 4n3 + 6m4 + 9 n5 + 10 n6
y = nx + 4w2 + 6 n3 + 7re4 + 6w5 + 5w6 1 =
m +
n2 +
n3 +
n4 +
nh +
«6;
(2-100) Zwei gelöste Beispiele werden zeigen, daß die Gleichungen (2-100) irgendeinen Eckpunkt oder irgendeinen Punkt auf einem Geradenstück darstellen können. 1. Wj = n2 = n5 — na = 0, n3 = 0,5, ni = ni= 1, n3, nt aufeinanderfolgend) dann gilt x = 4(0,5) + 6(0,5) = 5 y = 6(0,5) + 7(0,5) = 6,5. Dieser Punkt liegt auf dem Geradenstück v3vt. ni = 2. nx = « 2 = n4 = w5 = n6 = 0> ns = 1)0 dann gilt x = 4, y = 6; das ist der Scheitelpunkt vs. I m Falle dreidimensionaler Probleme werden die Beziehungen geometrisch durch Flächen ausgedrückt. Diese Flächen können durch eine Anzahl von ebenen Dreiecken approximiert werden. Zum Beispiel läßt sich die Fläche f(x, y, z) = 0 durch die folgende Menge von Gleichungen annähern X — £
n
1
i i
n X
y = Zniyi i
Z
=
2
n
1
l = j > ; i
i'
n Z
(2-101)
wobei Xi, yit die bekannten Koordinaten der Eckpunkte der ebenen Dreiecke darstellen und die n{ die neuen Variablen sind. Wie im zweidimensionalen Fall
2.4. Nichtlineare Programmierung
75
dürfen auch bei den Gleichungen (2-101) nicht mehr als drei der n t von Null verschieden sein, und sie müssen durch ein Dreieck verbunden sein. Der Leser kann leicht nachprüfen, daß bei ein, zwei oder drei von Null verschiedenen n-t die Gleichungen (2-101) einen Punkt an einer Ecke, auf einer Seite oder auf der Fläche eines Dreiecks darstellen. Das Parameterverfahren, das oben beschrieben wurde, kann für alle geeigneten Zwecke angewandt werden, nicht nur für Probleme der Programmierung. Die Übereinstimmung zwischen den ursprünglichen nichtlinearen Ausdrücken und den linearen Endformen hängt von der Anzahl der neuen Variablen n t (oder Eckpunkten, Geradenstücken oder ebenen Dreiecken) ab. J e größer diese Anzahl ist, desto besser ist die Übereinstimmung. In manchen Fällen hängt jedoch diese Übereinstimmung nicht nur von der Anzahl der % ab, sondern auch von der geeigneten Wahl der Lage der Eckpunkte. Sie können in flachen Abschnitten dernichtlinearen Kurven weit entfernt voneinander liegen, aber, wenn die Krümmung groß ist, müssen sie dicht beeinander gewählt werden. Wie ein lineares Programm in der Form von Gleichungen wie z. B. (2-99) oder (2-101) formuliert wird, sei jetzt an einem Beispiel gezeigt, das wieder aus dem Gebiet der Energieerzeugung gewählt wurde. I m Abschnitt 2.3.4. haben wir besprochen, wie die lineare Programmierung angewandt werden kann, um eine optimale Planung der Energiequellen zu erzielen. Im Abschnitt 2.2.2. haben wir gesehen, wie die Methode der LAGRANGEschen Multiplikatoren benutzt wird, um eine ökonomische Verteilung der Elektroenergie zu erreichen. Hier werden wir besprechen, wie man bei der Gewinnung von Elektroenergie in Wärmekraftwerken die Brennstoffkosten minimiert. Wir betrachten, wie in Abb. 2-8 gezeigt, ein Wärmekraftwerk, das drei KesselTurbinen-Generator-Kombinationen v, /. und u enthält. Die Kurven des Wirkungsgrades dieser Kombinationen sind experimentell gewonnen und in Abb. 2-9 dargestellt. Das Problem besteht darin, die gesamten Brennstoffkosten F,, + FÄ + zu minimieren und das Leistungsniveau Gv, G> und Gtl jedes Generators so zu bestimmen, so daß die gesamte abgegebene Leistung des Wärmekraftwerkes 54 MW (Megawatt) beträgt. Die Brennstoffkosten werden aus dem Brennstoffverbrauch berechnet, der aus den Wirkungsgradkurven durch Umrechnungen ermittelt wird. Man nimmt z. B. den Punkt v3 entsprechend einem Gv von 19,5 MW und einem Wirkungsgrad von 36,5 % an, wobei der entsprechende Brennstoff in MW beträgt: 19,5/0,365 = 53,5 MW. Die entsprechenden Btu sind (1 kW = 3412 Btu/h): (Btu: Britische Wärmeeinheit) (59,5 MW) (3412 B t u / M h - k W ) = 1,83 • 108 Btu/h. Jetzt sei: eine Brennstoffeinheit = 40 X 106 Btu ein Pfund Heizöl = 20000 Btu ein Pfund Kohle = 13000 Btu ein Kubik-Fuß Hochofengas (BFG) = 92 Btu ein Kubik-Fuß Koksofengas (COG) = 574 Btu.
2. Statische
Optimierungsverfahren
Sammel schiene
Kombination
p
Abb. 2-8 Eine thermische Anlage mit drei Kessel-Turbine-Generator-Aggregaten
39 % 38 37 36
1
35
31* 33
o
32 31 30 29
u
28
8
10
12
Ih 16 18 20 Generatorleistung
22
"24
26
28 MW
Abb. 2-9 Experimentelle Kurven f ü r den Wirkungsgrad. h}i ist Heizöl und v ist Kohle
2.4. Nichtlineare
Programmierung
77
Eine Brennstoffeinheit präsentiert dann 40 40 40 40
• 10 16 /20000 = 2000 P f u n d = 1 Tonne Heizöl • 10 16 /13000 = 3080 P f u n d = 1,52 Tonnen Kohle • 1016/92 = 4,35 • 105 f t 3 Hochofengas (BFG) • 1016/574 = 6,95 • 1 0 4 f t 3 Koksofengas (COG)
Wenn im v-ten Dampfkessel Kohle verwendet wird, erhalten wir für den P u n k t v3 (1,83 • 108/40 • 106) • 1,52 = 6,99 Tonnen Kohle/h. Nach der Entscheidung über die Lage der Eckpunkte (Anzahl der n¡) und nach der Berechnung ähnlicher Werte für alle vt können wir für Fv und Gv die Gleichungen 25% + 23% + 19,5% + 16,7% + 13,5% = Gr 8,40?»! + 7,86% + 6,99 % + 6,45% + 5,87% = F, + % + ns + % -f % = 1,0
nh F„, Gv ^ 0
(2-102)
schreiben. Ähnliche Berechnungen können für die anderen zwei Kombinationen A und u angestellt werden, nachdem man drei neue Variable und drei neue Variable »ij ausgewählt hat. Wir nehmen an, daß beide Heizöl als Brennstoff für den Kessel benutzen. Man beachte, daß die F und G auch Variable sind. Die Gesamtzahl der Variablen beträgt daher 3 {F) + 3 (G) + 5 (n) + 3 (l) + 3 (m) = 17. Im ursprünglichen Problem haben wir eine Nebenbedingung Gv +
Gx
+ G„ = 54,0 MW.
In der linearisierten Formulierung erfordert jede der Kombinationen drei Nebenbedingungen ; die Gesamtzahl der Nebenbedingungen ist daher 1(0) + 3(v) + 3(/) + 3(fi) = 10 Wenn die Kosten für Heizöl 12,6 VE pro Tonne und für Kohle 10 VE pro Tonne betragen, dann ist die Kostenfunktion 12,6 Ft + 12,6 F_u + 10 F, = z [Min] Dann haben wir ein lineares Programm mit 17 Variablen und 10 Nebenbedingungen. Das sich daraus ergebende Modell der linearen Programmierung wird, einschließlich der Lösung, die durch Anwendung der Simplex-Methode gefunden wird, in Abb. 2-10 gezeigt. 2.4.2.
Parametrische Linearprogrammierung
I n diesem Abschnitt werden wir eine andere Klasse von Verfahren der Linearisierung besprechen, die großen praktischen Nutzen hat. Diese Verfahren, die als parametrische lineare Programmierung (PLP) bezeichnet werden, bestehen in der
78
2. Statische
Optimierungsverfahren o o o o" -rt
o"
o o o" o"
M
oo
CD tO • 35 io œ OS «D '
O
OS 0
(2-137)
(2-138)
gilt. Der Leser versuche, die Überführung der mathematischen Formulierung 1 bis 4 in ein Berechnungsverfahren vorzunehmen, wie es im Anwendungsbeispiel der KuHN-TucKER-Methode gezeigt wurde. Ganzzahlige Programmierung. Die allgemeine Formulierung [G-14; Kap. 28; G-18, Kap. 8] mit denselben Symbolen wie im vorhergehenden Fall lautet Ax = b\ x [Max] 2 = cx.
0;
Xj ganzzahlig, j e (2-139)
Alle Variablen sind auf ganze Werte eingeschränkt, wobei das Programmierungsproblem eher nichtlinear als linear wird. Man könnte annehmen, dieses Problem sei mit Hilfe der Methode der linearen Programmierung einfach zu lösen, indem man die Forderung der Ganzzahligkeit ignoriert und dann die Werte der sich ergebenden Lösung rundet. Das ist jedoch in praktischen Situationen nicht anwendbar, weil die interessantesten Probleme der ganzzahligen Programmierung jene sind, bei denen die ganzzahligen Variablen nur die Werte 0 oder 1 annehmen dürfen. Diese Probleme sind z. B . sequentielle Probleme, Planungsprobleme, Probleme des Arbeitskräfteeinsatzes und andere, die zum ökonomischen Bereich gehören.
Anhang 2 A Definitionen bezüglich der Maxima und Minima
87
ANHANG 2 A Definitionen bezüglich der Maxima und Minima Wenn wir uns mit Optimierungsverfahren befassen, müssen wir den Unterschied zwischen den verschiedenen Arten von Maxima und Minima klar erkennen. Absolutes Maximum: Die Funktion f(x), die auf einer abgeschlossenen Menge X im En definiert ist, nimmt ihr absolutes Maximum auf X im Punkt x an, wenn f(x) ^ /(.r) für jeden Punkt x € X gilt. Starkes relatives Maximum: Angenommen f(x) sei in allen Punkten in einer ¿-Umgebung von x0 im E" definiert. Die Funktion f(x) hat ein starkes relatives Maximum in x0, falls ein s mit 0 < e < d existiert, so daß für alle x mit 0 < \ X — x0 | < £ gilt f{x) < f{x0). Schwaches relatives Maximum: Angenommen f(x) sei in allen Punkten in irgendeiner ¿-Umgebung von x0 im E" definiert. Die Funktion f(x) hat ein schwaches relatives Maximum in x0, wenn sie kein starkes relatives Maximum in x0 hat, aber ein e, 0 < e < 0 existiert, so daß für jedes x =\= x0 in einer e-Umgebung von x0 mit x e Y gilt f(x) < f(x0). Beschränktes schwaches relatives Maximum. Die Funktion f(x) hat für jene x, die Qi(x) = bl (i = 1 , 2 , . . . , in) befriedigen, ein schwaches relatives Maximum im Punkt ,i'0, falls sie nicht ein starkes relatives Maximum in xü hat, aber a:0 í } ' und ein s > 0 existiert, so daß für jeden Punkt x e Y in einer e-Umgebung von x0 gilt /(*) ^ f(x„). Die Methode der LAGEANGEschen Multiplikatoren liefert eine Menge notwendiger Bedingungen für die beschränkten relativen Maxima oder Minima unter Verwenm dung der partiellen Ableitungen der L AGE A XG E - Funktion f(x) — JT ?Li(g¡ — b¡). t=i Hinreichende Bedingungen kann man nur unter Verwendung der zweiten partiellen Ableitungen der L a g r a x g e s c h e n Funktionen erhalten. E s gibt keine allgemeine Methode, die einen direkten Weg zur Bestimmung des absoluten Maximums oder Minimums einer Funktion oder eines Funktionais liefert. Die Kenntnis der Konvexität oder Konkavität, d. h. ob die Funktionen /(;•,, x2) mit der
(xlt a?2)-Ebene. Die Gleichung der Tangente MN, die durch Linearisierung der Grundkontur ST entsteht, kann man finden, wenn y = 0 gesetzt wird: y = f(x, y) ^ mxxx + m2x2 = 0 .
(3-24)
Das führt zu ^ =
(3-25)
Wir wollen nun die Richtung des steilsten Anstiegs AF auf der Grundfläche betrachten. Diese Richtung wird durch die Gleichung (3-15) oder die Gleichung (3-17) bestimmt. Der Vergleich von Gleichung (3-25) und Gleichung (3-17) zeigt, daß die Anstiege der beiden Geraden MN und AF zueinander negativ reziprok sind. Sie stehen deshalb senkrecht aufeinander — eine bekannte Tatsache der analytischen Geometrie. Gleichung (3-19) gibt den Wert des Anstiegs AG an oder den Einheitszuwachs von y in Richtung des steilsten Anstiegs: ^
= (m1*+mi*)1l>.
(3-26)
Da 0 notwendigerweise auf der Ebene P liegt, mit //¡, = AD und m2 = AE, bedeutet die Gleichung (3-26), daß AD senkrecht zu AE ist. Man kann auch zeigen, daß AG in A auf der Grundebene senkrecht zu MN ist, da G die Projektion von F auf der Grundebene ist und AF in A senkrecht ist zu MN.
114
3.
Extremwertsuchverfahren
Die Tatsache, daß die Linearitätshypothese nur selten gilt, f ü h r t zu zwei Arten von Schlußfolgerungen: a) Die Suchrichtung nach dem Optimum, die beim ersten Schritt gefunden wurde, wird für die folgenden Schritte nicht beibehalten. b) Der Anstieg wird nicht durch die Gleichung (3-26) gegeben. Wir werden diese Punkte zuerst für den Fall besprechen, daß die Funktion f(x1, x2) durch einen Kegelschnitt dargestellt wird, und zweitens für den Fall, daß /(»!, x2) Glieder in xt und x2 mit Potenzen höher als 2 enthält. i«
a1 Kreise
c)
Parabeln
bl
dl
E'.Hpsen
Hyperbeln
Abb. 3-11 H a u p t t y p e n von Aqui-y-Konturen zweiten Grades
Wenn die Drehachse senkrecht zu der (,r,, a-2)-Ebene steht, dann weist die Projektion der Kurven gleichen y-Wertes vier Haupttypen auf: a) Kreise, b) Ellipsen, c) Parabeln und d) Hyperbeln (Abb. 3-11). Gemeinsam ist allen diesen Fällen die Abnahme des Anstiegs AG oder des Zuwachses beim Ansteigen auf dem steilsten Pfad. Das ist die Folge davon, daß bei jedem neuen Suchschritt die Tangentialebenen P j , P2 • • • zur Funktion f(xx, x2) in den Punkten Alt A2... einen immer kleineren Winkel mit der Horizontalebene bilden (Abb. 3-12a). Die Abnahme bedeutet, daß für gleiches zlr bei jedem Schritt das Zli/ kleiner wird (siehe Abb. 3-12 b), oder, was dasselbe ist, für gleiches Ay wird in Richtung auf das Maximum der Abstand zwischen den Konturen immer größer (s. Abb. 3.11).
3.3.
Verfahren
des steilsten
Anstieges
115
Hinsichtlich der besten Suchrichtung entstehen zwei Fragen: 1. Wird diese Richtung während des Anstiegs geändert? 2. Welchen Einfluß hat die Lage des Anfangspunktes? Der Fall von Kreisen ist für beide Fragestellungen der Idealfall. Wegen der Konzentrizität ist die Richtung, die beim ersten Schritt 0 gefunden wurde, bei allen folgenden Schritten 1,2, ... bis zum Gipfel gültig. Das gilt unabhängig von der Lage des Anfangspunktes A (Abb. 3-lla). Leider kommt dieser Fall in der Praxis selten vor. Dagegen begegnet man dem Fall der Ellipsen recht häufig. Die
a)
b)
A b b . 3-12 V e r m i n d e r u n g des i/-Zuwachses
Gültigkeit der anfangs gefundenen Richtung hängt von der Lage des Anfangspunktes ab. Falls zufälligerweise der Glücksumstand vorliegt, daß der Anfangspunkt auf der großen Halbachse MM oder auf der kleinen Halbachse NN gewählt wurde, dann führt dieselbe Richtung zum Gipfel. Anderenfalls wird die beste Richtung bei jedem Schritt geändert (siehe den Pfad A0A1A2 • •. von Abb. 3-1 lb). Was von den Ellipsen gesagt wird, gilt auch für die Parabeln, außer daß hier die Gefahr besteht, einen falschen Gipfel zu erreichen, wie z. B. S', wenn man dem Pfad A0A1A2A3Ai gefolgt ist. Die Schritte A2 und A3 bringen dasselbe Ergebnis, und der Schritt At liefert einen kleineren y-Wert als den, der bei A3 erzielt wurde, und bestätigt, daß zwischen Aund A3 ein Gipfel S' liegen muß. Der Fall von Hyperbeln ist noch beschwerlicher. Die Bewegung auf der Achse bringt keine Erleichterung, während die Gefahr der Erreichung des falschen Gipfels sehr groß ist. Darüber hinaus tritt in diesem Fall eine recht eigenartige Situation auf. Wenn die Suche vertikal verläuft, von oben oder von unten, erreicht man die Mitte als höchsten Punkt. Wenn die Suche horizontal von rechts oder links erfolgt, wird man auch einen Extrempunkt in der Mitte finden, aber diesmal ist es der tiefste Punkt. Dieser P u n k t wird als Sattelpunkt bezeichnet. Die vier Arten von Konturen, die in Abb. 3-11 dargestellt sind, sind in der Tat sehr einfach. I n Wirklichkeit werden sie wegen der Auswirkungen der Glieder höheren Grades in xr und x2 (Abb. 3-13) entweder verzerrt sein oder kombiniert auftreten und als Folge der Auswirkungen der Nichtlinearitäten (Abb. 3-14) eine multimodale Konfiguration bilden. Die Situation bei bimodalen oder multimodalen Konturen ist ähnlich der bei ein-dimensionalen Funktionen, die mehrere Extremwerte aufweisen, wo es keine schnelle Methode gibt. I n dem Fall, in dem die zweidimensionalen Funktionen f(xit x2) durch eine der drei Typen von unimodalen
116
3.
Extremwertsuchverfahren
Funktionen dargestellt werden (Abb. 3-15): a) streng unimodal, b) linear unimodal und c) konkav abfallend, wird die Methode des steilsten Anstiegs immer erfolgreich sein. Für die verzerrten Konturen ist der Giundtyp der Suche nach dem steilsten Anstieg nicht geeignet. Wir werden die Abhilfe zusammen mit einem Anwendungsbeispie] betrachten.
Abb. 3-14 Nichtlineare bimodale Konturen
3.3. Verjähren
des steilsten Anstieges
117
Abb. 3-15 Zweidimensionale unimodale Funktionen a) streng unimodal, b) linear unimodal, c) konkav abfallend
3.3.4.
Probesuche
Wir wollen die in Abb. 3-16 dargestellte Situation betrachten: Die Konturen gleichen i/-Wertes sind verzerrt und weisen ein bimodales Verhalten auf. Genauer gesagt, ist die Probesuche nicht die Suche nach dem steilsten Abfall, sondern eine Erweiterung davon. Die Methode benutzt die Suche nach dem steilsten Abstieg, um die Hauptrichtung zu finden, und experimentelle Proben zur Überwindung von Hindernissen, die sich aus den Verzerrungen ergeben. E s seien 1, 2, 3, . . . die aufeinanderfolgenden Suchschritte. Damit das ganze Suchverfahren effektiv wird, erwähnen wir besonders, daß nicht nur die Strategie des steilsten Abfalls (d. h. die, die der Richtung der Normalen zu den Kurven folgt) angewendet werden muß, sondern daß diese Grundstrategie in verschiedenen Punkten abgewandelt werden muß, um den Umständen besser zu entsprechen. Zum Beispiel: 1. Da die Schritte 1 und 2 dasselbe Resultat y — 10 ergeben, sind kleine Schritte nötig, um eine Kontur mit einem besseren Ergebnis festzulegen, 2. Nach Schritt 3 sind eine Veränderung in der Richtung (unter Berücksichtigung der Normalenrichtung) und die Verwendung einer größeren Schrittweite wirksamer. 3. Nach Schritt 5 ist eine kleinere Schrittweite bis zum Schritt 8 zwecks Anpassung an Formänderungen klüger. 4. Nach Schritt 8 zeigen die Schritte 9 und 10 die Notwendigkeit einer Änderung in der Suchrichtung um 90° an. 5. Versuchsschritt 13 zeigt, daß ein kleinerer Winkel für die Richtungsänderung besser ist. 6. Nachdem man nachgeprüft hat, daß das maximale Ergebnis 300 ist, wählt man die großen Suchschritte 16, 17, 18, um eine mögliche bimodale Situation festzusteilen. Der Unterschied zwischen einer solchen Strategie und der Strategie des steilsten Anstiegs liegt in der Anwendung einiger Typen von Proben an kritischen Punkten.
118
3.
Extremwertsuchverfahren
Hier kann eine Probe als Gestaltung der Suche mit unterschiedlichen Anzahlen von Suchschritten, Schrittweiten und -richtungen definiert werden. Da die Anzahl möglicher Gestaltungen der Proben unendlich ist, ist ihre Anwendung nur dann vernünftig, wenn a) die geeignete Gestaltung der Proben von einer ziemlich begrenzten Anzahl vorausgegangener Versuche abgeleitet werden kann und b) wenn große Aussicht besteht, daß dasselbe Schema in späteren Schritten benutzt werden kann. Diesen Bedingungen begegnet man wegen der Homogenität und Gleichförmigkeit, die Industrieprozessen eigen ist, in der Praxis oft. Überdies ist man niemals in vollständiger Unkenntnis über die Beziehung zwischen dem Gütekriterium y und d"n Variablen xlt x2, ...; theoretisches Wissen und die Werte nach
3.3. Verfahren des steilsten Anstiegs
119
der Operation können helfen, wenigstens eine Vorstellung von der Form der Konturen zu vermitteln. Folglich können kritische Punkte und Suchschemata vorausbestimmt und getestet werden. 1 ) 3.3.5.
Anwendungsbeispiel
Die Probesuche wurde in einigen industriellen Anlagen angewendet. Wir erwähnen hier eine Anwendung dieser Art von Anlagen, und zwar nicht nur, um das Prinzip zu zeigen, sondern auch, um verschiedene praktische Aspekte zu betonen. Die Anwendung betrifft die Optimierung des katalytischen Dehydrierungsprozesses von Äthylbenzol (Abb. 3-17). Die schematische Darstellung zeigt das Blockdiagramm Wassereinspritzung
Abb. 3-17 O p t i m i e r u n g der katalytischen Dehydrierung v o n Äthylbenzol m i t OPCONEinrichtung)
(Abb. 3-18), in dem die Rolle der Signale klarer hervortritt. Die Ströme, Wasser W und Äthylbenzol E, das hydriert werden soll, werden mit Pumpen variabler Geschwindigkeit zu einem elektrisch geheizten katalytischen Festbettreaktor geführt. Das Wasser wird in einem Schnellverdampfer verdampft, bevor es mit Eine andere Darstellung der Probesuche siehe im A n h a n g [3-21], 9
Pun
120
3.
Extremwertsttchverfahren
dem Kohlenwasserstoff gemischt wird; der Wasserdampf dient als Heiz- und Verdampfungsmittel für das zugeführte Äthylbenzol, als Verdünnungsmittel im Reaktor und verhindert die Kohlebildung im Katalysator. Die gasförmige Mischung, die aus dem Reaktor kommt, wird gekühlt und kondensiert. Die Flüssigkeit geht
Zwischen variable
Kr Vf \ VD VH Koeffizienten
Abb. 3-18 Äquivalentes Blockdiagramm zu Abb. 3-17
weiter zum Separator, wo das Styrol mit nicht umgesetztem Äthylbenzol und kleinen Mengen von Nebenprodukten vermischt und von der Wasserphase getrennt wird. Es folgt die Nomenklatur der verwendeten Symbole. 1. Geregelte Größen P Druck im Reaktor Tp Reaktionstemperatur (bestimmt durch die Heizwicklungen) WEF Durchflußmenge von Äthylbenzol (mol/h) WHF Dampfdurchflußmcnge zum Reaktor (mol/h) 2. Zwischen variable Wp Gesamtdurchflußmenge der vom Reaktor gelieferten Kohlenwasserstoffe (mol/h) xsp Molanteil des Styrols im Kohlenwasserstoffgemisch y Anteil des gesamten Äthylbenzols, der in Styrol umgesetzt wurde 3. Kostenkoeffizienten Vj, F s Preise des Äthylbenzols bzw. des gereinigten Styrols (VE/mol) VH Produktionskosten des Wasserdampfes für den Reaktor (VE/mol) VD Destillationskosten pro mol des Kohlenwasserstoffgemisches aus dem Reaktor bei der Herstellung gereinigten Styrols (VE/mol)
3.3.
Verjähren
des steilsten
Anstieges
121
Vc
Preis, der für Nebenprodukte erzielt wird, die im Destillationsprozeß zur Reinigung des Styrols zurückgewonnen werden (pro mol Äthylbenzol, das zur Erzeugung der Nebenprodukte verbraucht wurde) (FE/mol) 4. Ungesteuerte Variable Zt Katalysatoraktivität Z2 Stochastische Schwankungen in der Temperaturverteilung, der Reinheit der Reaktanten usw. Die Beziehungen zwischen den Ausgangsgrößen Wp, y und xsp des Prozesses und seinen Eingangsgrößen Tp, P, Wsf und WEf sind nicht bekannt. Aber es wird angenommen, daß das Gütekriterium oder der Operationsgewinn F in VE/h von den Variablen Wp, y, xsp und WnF und von den gegebenen Kostenkoeffizienten abhängig ist gemäß der folgenden Beziehung F = Vs • x3p • W^p
Wp V ä ' %sp ' y
W + Vc • (1 - y) • xsv • - 2 -
VH • Whf -
Vd • Wp.
(3-27)
Die OPCON-Anlage hat dem Entwurf gemäß zwei Teile: Den Rechner für das Gütekriterium, der die Werte von F errechnet, und den Optimisator, der die Veränderung der zwei unabhängigen Variablen Wef und Whf bestimmt. Die Werte der beiden anderen unabhängigen Variablen P und Tp werden durch lokale Regelkreise konstant gehalten. Ein typischer Suchpfad wird in Abb. 3-19 dargestellt, Grenze
Abb. 3-19 Anwendungsbeispiel der OPCON-Einrichtung: Suchweg 9*
122
3.
Extremwertsuchverfahren
während das entsprechende Ergebnis in Abb. 3-20 gezeigt wird. Das Ergebnis, oder besser gesagt, der Produktionsanteil von Styrol Wsp ist für den Operationsgewinn F bedeutsam. Das Gebiet des Extremums wird nach 10 Suchschritten erreicht. Nach 19 Suchschritten scheint der Gipfel ziemlich genau festgelegt zu sein. Andere wesentliche Punkte für dieses Anwendungsbeispiel folgen.
Schrittzahl
Abb. 3-20 Anwendungsbeispiel der OPCON-Einriclitung: Ergebnis
1. Das Gütekriterium, z. B. F, wird im allgemeinen aus den gegebenen Parametern wie z. B. den F-Größen, einigen abhängigen Variablen, wie Wp, xsp und y und einigen unabhängigen Variablen, wie Wjjp, indirekt errechnet. 2. Lokale Regelkreise (für P, Tp und implizit auch WEp) behalten ihre Rolle. In dem Anwendungsbeispiel sind andere Versuche gemacht worden, und zwar durch die Wahl von Tp und WEF als Regelgrößen. Die OPCON-Anlage stellt dann das Bezugssignal des Temperaturregelkreises ein. 3. Der optimale Arbeitspunkt driftet auf Grund der Fluktuationen der nichtgeregelten Variablen z1 und z2. Hier wiederum hängt die Verschlechterung von zu der Katalysatoraktivität, die bei weitem die einflußreichste aller Fluktuationen ist, von dem speziellen verwendeten Katalysator ab. Mancher Katalysator wird innerhalb eines Zeitraumes von 2 bis 3 Stunden unbrauchbar, während andere ohne Regeneration 4 bis 5 Wochen benutzt werden können. Deshalb ist in dieser Hinsicht Sorgfalt nötig, da annähernd 45 Minuten erforderlich sind, um nach einer Änderung der Operationsvariablen den Gleichgewichtszustand wieder zu erreichen.
3.4. Methoden zur Aufrechterhaltung
des Extremums
(quasi-statische
3.4.
Methoden zur Aufrechterhaltung des Extremums bei quasi-statischen Problemen
3.4.1.
Extremwertverfolgung
Probleme)
123
In den vorangegangenen Abschnitten haben wir Suchverfahren besprochen, die im allgemeinen darauf abzielen, den Extrempunkt zu erreichen, wobei von einem willkürlichen Anfangspunkt gestartet wird. Dabei ist gewöhnlich die Suchgeschwindigkeit das Kriterium. Wenn nach Erreichung des Extremwertes die Um gebungsbedingungen geändert werden, werden dieselben Verfahren für die neuen Suchprozesse benutzt. Es gibt noch eine andere Klasse von Such verfahren, die wir als „Suche zur Aufrechterhaltung des Extremums" bezeichnen werden und die, obwohl sie auch zu Problemen gehören, bei denen die analytische Form des Gütekriteriums nicht bekannt ist, anders als die vorhergehenden Verfahren wirken. Die Suchverfahren zur Aufrechterhaltung des Extremums bringen ebenfalls den Arbeitszustand eines Systems von irgendeinem willkürlichen Zustand zum Optimalzustand. Ihr charakteristisches Merkmal ist jedoch ihre Fähigkeit, diesen Optimalzustand aufrechtzuerhalten, wenn er einmal erreicht ist. Noch eine Möglichkeit besteht darin, diese Verfahren als „Extremwertverfolgung" zu bezeichnen. Das bedeutet: 1. daß das Objekt, das gesteuert werden soll, aus einem dynamischen Prozeß mit folgendem speziellem Merkmal besteht: die Lage des Extrempunktes verändert sich mit der Zeit, 2. den „Verfolgungscharakter" dieser Verfahren. I n diesem Abschnitt werden wir zuerst einige Suchverfahren zur Aufrechterhaltung des Extremums untersuchen, die auf ein-dimensionale Probleme anwendbar sind. I m nächstenAbschnitt werden wir denEinfluß von Rauschen undSystemträgheiten (Zeitkonstanten und Totzeiten) auf die Wirksamkeit der Extremwertverfolgung besprechen. Schließlich werden wir sehen, wie diese Verfahren auf mehr-dimensionale Probleme ausgedehnt werden können. Ein klares Merkmal der Verfahren der Extremwertverfolgung, so wie sie hier beschrieben werden, ist ihre heuristische Natur. Statt auf analytischen Beweisen zu fußen, entwickeln sie sich aus der Intuition, wobei verschiedene technische Einrichtungen [3-9 bis 3-15, 3-20] nutzbringend eingesetzt werden.
3.4.2.
Methode zum Halten des Gipfels
Das erste Verfahren der Extremwertverfolgung war die Methode zum Halten des Gipfels (Extremwertes). Diese Methode wurde z. B. angewandt, um die höchste Ausgangsleistung eines Verbrennungsmotors zu finden, nämlich durch die Einstellung einer der zwei unabhängigen Variablen: Zeitpunkt der Zündung und Treibstoff-Luft-Verhältnis. Das vereinfachte Blockdiagramm von Prozeß- und on-lineRegler wird in Abb. 3-21a gezeigt. Die nichtlineare Beziehung zwischen dem Ausgangssignal p und dem Eingangssignal m wird nun vermutlich einen Extremwert aufweisen. Das Signal m wird um einen konstanten Betrag verändert, bis das Güte-
124
3.
Extremwertsuchverfahren Prozess
a!
bj
dl
Abb. 3-21 Methode zum Halten des Extremwertes (a) Blockdiagramm, (b) Testsignal, (c) Leistungssignal, (d) Verlustsignal
signal p um einen voreingestellten Wert vom Scheitelwert abweicht, der während des laufenden Taktes gemessen wurde. Die Richtung der Änderung des Signals m wird dann umgekehrt und die Operation wiederholt (Abb. 3-21b). Bei der Anwendung dieser Methode arbeitet der Prozeß nicht bei seinem wahren Extremwert, sondern bei einem mittleren Gütezustand (Abb. 3-21c). Der Verlust dp (Abb. 3-21d) kann im Prinzip vermindert werden, indem man die Differenz zwischen dem gemessenen Spitzenwert und dem Umkehrwert einschränkt. Das stößt jedoch auf
3.4. Methoden
zur Aufrechterhaltung
des Extremums
(quasi-statische
Probleme)
125
zwei größere Hindernisse a) die verschiedenen Geräusche, die richtige Messungen von dp verhindern, u n d b) dynamische Trägheiten der Abhängigkeit von p von m, die die Kenntnis der benötigten Information verzögern. Verschiedene Verbssserungen können in dieser Methode zum Halten des E x t r e m wertes vorgenommen werden: a) Man verwendet andere Formen von m, b) m a n macht m zu einer F u n k t i o n des Anstiegs dp/dm u n d c) m a n m a c h t m zu einer Funktion der Phase von p u n d von dp/dt [3-16], Obgleich die Methode zum Halten des Extremwertes im Grunde einfach ist, k a n n sie nur mit Schwierigkeiten auf multidimensionale Probleme ausgedehnt werden. I m Prinzip können f ü r jedes der Eingangssignale m 1 ; m 2 , ••• , » , verschiedene Testfrequenzen benutzt werden. Es gibt jedoch keine heoretische Rechtfertigung dafür, wie m a n diese Frequenzen so miteinander korreliert, daß der sich ergebende Verlust dp ein Minimum ist. Ein weiterer Nachteil dieser Methode sind die unvermeidlichen Schwingungen des Eingangssignals, die nicht f ü r alle industriellen Prozesse tragbar sind.
3.4.3.
Verfahren mit Quotientenbildung
Ein anderes wichtiges Extremwertsuchverfahren ist das „Verfahren mit Quotientenbildung, das auch sehr einfach ist u n d den Vorteil hat, daß dabei die Eingangssignale nicht gestört werden. Diese Methode k a n n am besten a n H a n d des Blockschaltbildes in Abb. 3-22 erklärt werden. Die Einrichtung zur Quotientenbildung erzeugt in Wirklichkeit die
Abb. 3-22 Verfahren mit Quotientenbildung
Ableitung des Gütesignals p nach der Eingangsvariablen m. Diese Ableitung wird nach der Zeit integriert, u n d m a n erhält das Eingangssignal m. Die Beziehungen zwischen p, m, x u n d z können leicht aufgestellt werden. x z = — z x X
- T ~ l 1
z = T2
(3-28)
dt dm I T '
(3-29) (3-30)
126
3.
Extremwertsuchverfahren
wobeiT7! und T2 die Zeitkonstanten von Differentiator bzw. Integrator sind. Xach Division von (3-29) durch (3-30) und unter Verwendung der Gleichungen (3-28) und (3-30) erhalten wir
di
T22 dm
Somit ist die Änderungsgeschwindigkeit von m proportional zum Anstieg der Gütekurve und m wird in der Richtung so verändert, daß sich der Anstieg auf Null reduziert. Diese Methode wurde erfolgreich bei der Pilotanlage einer Destillationskolonne angewandt. Die Analyse der Dynamik zeigt, daß das System für eine Reihe praktischer Anwendungen stabil ist. Es kann festgestellt werden, daß in beiden Methoden, obgleich sie heuristisch sind, auf die eine oder andere Weise die Ableitung dp/dm benutzt wird, um die Suchsignale zu erzeugen. Das Grundkonzept ähnelt deshalb der Methode des steilsten Abstiegs. Jedoch ist die wichtige Zone, die betrachtet wird, die Gegend um den Extrempunkt, wo die Suche in kontinuierlicher Art und Weise vor sich geht. Das Interesse gilt dem Verhalten des Verfolgungsvorganges. Diese Frage werden wir im nächsten Abschnitt behandeln.
3.4.4.
Einflüsse der Systemdynamik
Der Vorgang, wie er in Abb. 3-21 oder Abb. 3-22 betrachtet wird, ist etwas idealisiert. In der Praxis gibt es mit dem Prozeß oder den Meßeinrichtungen verknüpfte Faktoren, welche die Lage des Extrempunktes und demzufolge auch das Verhalten beim Prozeß der Extremwertverfolgung beeinflussen können. Diese Faktoren sind: 1. Laständerungen beim Prozeß (Lastdrehmoment eines Motors, Dampfverbrauch eines Kessels). 2. Veränderungen nichtsteuerbarer Umgebungsbedingungen (im Falle eines Verbrennungsmotors: Temperaturen, Drücke, Feuchtigkeit in Luft und Brennstoff). 3. Trägheiten des Typs 1/(1 -j- Typ), die vom Prozeß selbst oder von den Meßgeräten herrühren. 4. Totzeiten des Typs die Totzonen entweder im Prozeß oder in der Instrumentenausrüstung repräsentieren. Die Veränderungen der Last sind ihrer Natur nach zufällig und normalerweise unbekannt. Sie bewirken eine Verschiebung des optimalen Punktes. Diese Verschiebung geht jedoch im allgemeinen langsam vor sich, so daß für den Verfolgungsvorgang genügend Zeit ist. Die nichtsteuerbaren Umgebungsbedingungen sind auch zufällig und normalerweise unbekannt. Ihre Wirkung zeigt sich in raschen, im allgemeinen kleinen Fluktuationen des optimalen Punktes. Wenn die angestrebte Genauigkeit des Problems die Notwendigkeit stochastischer Betrachtungen nicht mit einschließt, dann ist die Einführung einfacher Filter ein Mittel zur Abhilfe. Die Anwendung eines Filters ermöglicht die Messung geglätteter Mittelwerte der betreffenden Signale, es erhöht jedoch auch die Zahl der Zeit-
3.5. Methoden zur Aufrechterhaltung
des Extremums
(dynamische
Probleme)
127
konstanten der gesamten Schleife. Die Wirkungen der Zeitkonstanten und Totzeiten liegen hauptsächlich im Verlust der Zeitkoinzidenz des Gütezustandes und des Zustandes des folgenden Steuersignals. Das Verfahren der Extremwertverfolgung muß deshalb dementsprechend geändert werden.
3.5.
Methoden zur Aufrechterhaltung des Extremums bei dynamischen Problemen
3.5.1.
Dynamische Suche mit IJmschaltung
Wir wollen eine typische Optimierungsschleife betrachten, wie sie Abb. 3-23 [3-17, 3-18] zeigt. Der Block G repräsentiert die stationäre nichtlineare, unbekannte Beziehung zwischen der Gütefunktion y und der Eingangsgröße m des Prozesses. Das Verfahren zur Extremwertverfolgung, das in dem Optimisator durchgeführt
; dm dt
ek
p
l + zp
Optimisator
Abb. 3-23 Eine typische Optimierungsschleife
wird, ist ähnlich dem von Abb. 3-21, d. h., der Optimisator soll die Änderung von m in Übereinstimmung mit dem erzeugen, was über den Zustand von y bekannt ist, außer daß hier statt der ersten Ableitung dy/dm die zweite Ableitung d2?//dm2 benutzt wird. Der Block D repräsentiert die Zeitverzögerung r des Prozesses selbst oder einiger Meßeinrichtungen, so daß das, was vom Gütezustand bekannt ist, nicht y(t), sondern h(t) ist. Der Block A enthält die Totzeit rd, von der man annimmt, daß sie am Eingang des Prozesses konzentriert ist. Der Block B stellt die nur fiktive Integration dar, da der Optimisator die Veränderung von m erzeugt. Der Ausgang des Optimisators ist eK; K bestimmt den Betrag von dmjdt, während e = ± 1 seine Richtung angibt. Unter der Annahme eines im voraus festgesetzten konstanten Wertes von K besteht deshalb das Minimierungsproblem in der Bestimmung des Vorzeichens von dmjdt entsprechend der Kenntnis von h [m(t)], so daß der Arbeitspunkt Q in der (h, m)-Phasenebene von irgendeinem Anfangspunkt Q( (zur Anfangszeit zum Minimalpunkt Qm (zur Endzeit tf) gelangt. Wie wir jedoch in dem vorhergehenden Abschnitt gesehen haben, weist die tatsächliche Suchtrajektorie ein oszillatorisches Verhalten (mit Grenzzyklen) auf, so wie dies in Abb. 3-24b gezeigt wird. Die endgültige Form der Schwingungen wird natürlich von der gewählten Suchstrategie und von den Suchbedingungen abhängen. Die anschließende Darstellung ist nicht schwierig, aber enthält viele
128
3.
Extremwertsuchverjahren
Abb. 3-24 Erwünschte und tatsächliche Suchtrajektorien (a) erwünschte Such-Trajektorie, (b) tatsächliche Such-Trajektorie
Symbole, die diese Suchstrategie und die Bedingungen charakterisieren. Dem Leser wird empfohlen, ihre Definition sorgfältig zu lesen. m(t) y(t) ot
Steuervariable Gütefunktion (Gütekriterium) Charakteristischer Parameter der nichtlinearen stationären Beziehung y = /(m) ^
h(t) X
),
txm2
Gemessener Wert des Gütekriteriums y(t), h(p)jy(p) = 1/(1 + rp) Charakteristische Zeitkonstante des geregelten Prozesses (sec) Charakteristische Totzeit des Prozesses (s) Integrationskonstante, die die Anfangsbedingungen des P u n k t e s Qj charakterisiert.
[Die Größen von m(t) bis /. sind bekannte Parameter, die die Gütebedingungen charakterisieren. ] e K ö g ra
± 1 konstanter Betrag von dm/dt (s 1) Schaltschwelle (s -2 ) Schaltfunktion [g = (d 2 A/di2) - • • •>
xn>
F *
wl> w2>
• • •>
7 u \u (• $ sm ' w\ == A — AV \ TO /
UT1
+ K (v — Y — — cos w\ m
\ F a l l
a:
+
Beschränkungen weder f ü r x noch für u: in in
F*
: i =
ivk
:
F a l l
b:
k =
1, ...,
n
1, . . ( n
+
r)
+
U i l
+
M r
— 2
v) ~
I
u) +
(ß
l ~
m
( m +
ß)
ßmin)(ßmax
-
ß)]
(Es gibt 6 LAGRANGE-Multiplikatoren lx, ?.u, Xv, lm, Äy, die alle Funktionen von t sind) EuLERsche Gleichungen:
Es gibt n Beschränkungen f ü r xit r Beschränkungen f ü r iij, dann: in F*: n Gleichungen in Xj n Gleichungen in Z; r Gleichungen in y¡. Insgesamt: (2n + r) Gleichungen in w k : n Variable z r Variable y k =
Ax{&
1 , . . . , (n
= 0
(9)
?.v + A y = 0
(10)
K
¡•X
+
+
h
8X u
Die z und y ersetzen x und u.
(11)
(12)
8lJ
{Xu
TO2
cß
n
= 0
——
—
r)
oy
ex
¿u + cß
+
8Y
A —
ox
sin
cos
ip
+ /, sin
tp — Av
cos
+
sin
y>)
yj)
= 0
ip)
-
= 0
(13) (14)
m c m
(A„ cos — h7(ß
K
• r
=
y>
m e
0
l
m
- 2 ß ) = 0
(15) (16)
Bemerkung 1 : Die Beschränkungen f ü r ^führen auf eine neue Bewegungsgleichung (Gleichung 8). Leiten wir jedoch EuLERsche Gleichungen ab, so wird nur der Multiplikator ).y eingeführt (anstatt Iß), weil es nur eine ^-Gleichung mehr gibt (Gleichung 8 —> i{xht)i
=
0
yl{xi,t)f
=
0
(c2)
1 = 1 , 2 , ..., l =
(q +
s =
2n +
1), ...,
Bemerkung:
Die
tr =
= 0
m
y{ti) =
0
v(tf) = 0.
s
2.
Transversalität
,
(cl) Gegebene Daten sind z. B.
q
Die anderen (2n + 2 — s) Endwerte werden durch die Transversalitätsbedingung geliefert: ii gv* LF* dG 8F*
Beispiel
0
Transversalitäts-
bedingung bedeutet, daß die Extremale im Phasenraum denselben Anstieg haben muß wie die Trajektorien und y f zu den Zeiten t¡ und tf.
(c2) Transversalitätsbedingung d6? +
{Xudu
+
Xvdv +
+
Ämdm
-
Cdt^
C =
Xuü +
Xvv +
Xxdx =
/.Xx +
+
?.yd y
0 lyi) +
(17) ?.mih
(18)
Wenn X und Y keine expliziten Funktionen von t sind, ist C ein erstes Integral dC = 0 und C = konstant.
(19)
Gleichung (19) kann benutzt werden, um eine der Gleichungen (9) bis (16) zu ersetzen.
Vf
LT
149
4.2. Variationsmethoden,
(c) End- und Ecken-Bedingungen (c3)
Eckenbedingungen
(WEiEßSTBASS-ERDMANNsche Bedingungen) In Fällen, in denen die das Extremura liefernden Trajektorien [z. B. ß(t)] Unstetigkeiten aufweisen oder aufweisen können, bestehen sie aus Teil-Bögen, die in Knickpunkten (Ecken) aneinanderschließen. An diesen Ecken müssen die partiellen Ableitungen der 2 Bögen gleich sein. 'cF*\
Beispiel (c3) Im Falle von Raketen ist die das Extrenmm liefernde Trajektorie oft unstetig und besteht z. B. aus: 1 Bogen bei maximalen Schub, usw. 1 Bogen beim Schub Null. Dann wiederum maximaler Schub.
8F* 8X;
ßmax
i = 1,2,..., n
t
dF* Im Beispiel:
OX;
=
8F*
Ecken-Bedingungen
q = {xyuvm}
C*_ = C + . (d) Erster
Teil der
(20)
(21)
Lösung
Die Untersuchung der EuLERschen Gleichungen (9) bis (16) liefert einen Teil der Lösung. (dl) Gleichung (14) gibt Daher ist
tan ip = Au/A„.
(22)
sin y, =
(23)
+ V)v>
cos^ =
(24)
+
Diese Gleichungen zeigen, daß man sowohl ip = y>(t)
als auch v = W)
+ 71
wählen kann. Deshalb gibt es eine Doppeldeutigkeit. (d2) Bei der Lösung der Gleichungen (8), (15) und (16) gilt: wenn
y 4= 0
wenn
y = 0
).r = 0,
dann folgt
•L K~y+ | 0w 1•
,
[,
dann folgt
ßmin < ß < ßn I ü
jümax = ßn
150
4. Dynamische
Optimierungsverfahren
E s ist nicht klar, ob wir Extremwerte von ß nehmen müssen oder Zwischenwerte. Dies ist eine andere Doppeldeutigkeit. Diese beiden Doppeldeutigkeiten können durch die Einführung der Bedingungen geklärt werden, die sich auf die zweite Variation der erweiterten Funktion F* beziehen. Dieses Verfahren ähnelt dem, das bei der Extremwertsuche angewendet wird. Das Nullsetzen der ersten Ableitungen bestimmt die Bedingungen für das Extremum; das Vorzeichen der zweiten Ableitungen gibt an, ob es sich um ein Maximum oder ein Minimum handelt. (d3) Bedingungen bezüglich der zweiten Variation (d3-l) WEIERSTRASSSCAC E-Funktion Die notwendige Bedingung für ein Minimum von J ist, daß in allen Punkten der Extremale gilt: E =
AF*
-
£
*
8F*
1
cx
i
Ax¡
^ 0
für alle starken Variationen Ax¡, die mit den Nebenbedingungen verträglich sind. (d3-2) LBGBNDRE-CLEBSCH-£ech'«die sich auf alle schwachen Variationen öx{ bezieht: gung,
n
n
S E i i
i) F* 2
dxidx)
öxiöx, > o.
In beiden Ungleichungen muß das Vorzeichen gewechselt werden, wenn wir die notwendige Bedingung für ein Maximum von J erhalten wollen.
Beispiel Damit J = G(qji, qj}) ein Minimum annimmt, muß die notwendige Bedinging erfüllt sein, daß die entsprechende WEiERSTRASSsche -B-Funktion nichtnegativ ist. Rechnungen zeigen, daß dies in der Maximierung der Funktion L besteht: —
L = t
{Xu
m
cos tp
lv
sin
tp) -
ln
(26)
Die Funktion L hat ein Maximum bezüglich ip, wenn 8L dip
otp
= 0
=
82L dip2.
ß — m
(27)
< 0 sin V +
K
c o s
w)-
Diese Gleichung ist identisch mit Gleichung (14) oipi
=
ß — m
( 4 cos
ip -
/.v
sin
ip)
g 0.
Diese Ungleichung wird befriedigt, wenn in Gleichung (23) das Plus-Zeichen gewählt wird. Daher ist Xu cos y> + lv sin ip = (Att2 +
V)7'-
ip springt um n, wenn und ~/.u gleichzeitig das Vorzeichen wechseln. 1: Bei praktischen Anwendungen darf man keinesfalls die W E I E R STRASS-ERDMANNsche Bedingung für Unstetigkeiten mit der WEiERSTRASSschen ¿¡/-Funktion für die zweiten Variationen verwechseln.
Bemerkung
4.2. Variationsmethoden 151 Bemerkung 2: Die Suche des Maximums von L bezüglich y> ist ein Problem der Suche des Extremums einer Funktion. Man braucht nur Ableitungen zu berechnen, aber keine Variationen. Einer ähnlichen Lage begegnet man auch bei den Methoden des Maximumprinzips und der dynamischen Programmierung. (e) Zweiter Teil der Lösung Die Doppeldeutigkeit von ip wird durch die Bedingung (27) geklärt. Hinsichtlich der Doppeldeutigkeit von ß wollen wir die Gleichung (26) wie folgt schreiben: (29)
L = kß. Dies zeigt, daß L eine lineare Funktion von ß ist mit dem Anstieg
TO( V +
* = -
~ '•»•
(30)
Die Darstellung zeigt die Funktion L = kß für verschiedene Werte von K.
Um L zu einem Maximum zu machen, ist zu wählen ß = /'max,
wenn
K > 0
(Punkt A)
ß = jffmm,
wenn
K < 0
(Punkt 0).
Die Funktion K heißt Schaltfunktion. Das Vorzeichen von K bestimmt den Wert der Steuervariablen ß. Da ß(t) nur Extremwerte annehmen kann, Hegt eine ,,bang-bang"-Steuerung vor. 11
Pun
152
4. Dynamische
4.2.2.
Optimierungsverfahren
Methode von Pontryagin
Den Namen P O N T R Y A G I N trägt ein Prinzip und ein Optimierungsverfahren. Das Prinzip ist das sogenannte Maximum-Prinzip, dessen Theorie im Anhang 4 B diskutiert wird. Das Optimierungsverfahren löst gewisse Klassen dynamischer Optimierungsprobleme entsprechend einer Formulierung, die wir PoNTRYAGiNsche Formulierung nennen wollen. In diesem Abschnitt werden wir zuerst die PoNTRYAGiNsche Formulierung besprechen und sie mit der klassischen der Variationsrechnung vergleichen. Anschließend werden zur Erläuterung der Anwendung der PoNTRYAGiNschen Methode mehrere Beispiele angeführt. 4.2.2.1.
Optimierungsprozedur
Die Formulierung des Problems geht in zwei Schritten vor sich. Der erste Schritt ist die Formulierung eines MAYERschen Problems: min S = £
u(t)£U
i= 1
CiXi(tf),
(4-14)
wobei gilt =
9i{%i, Uj, t),
® x6 = t«
=
S = x6(tf)
1,
x6(0) =
0.
Die Schubgröße ß ist durch ßi^ß^-ßz
(b)
begrenzt. Die HAiriLTOX-Funktion lautet H
cß
(cß
\
m
\m
j
= pi — cos ip + p2
— sin ip — g) + p3u -f p^v — psß +
.
(c)
Die Differentialgleichungen, die die adjungierten Variablen bestimmen, sind Vi =
—Vi
cß Vs = Vi —;i
m
i>2 =
—Vi
Vi = 0
cß V + Vi —; s i n V w.
c o s
Vi =
0
V« = 0 •
(d)
Die Güte S sei eine lineare Funktion der Endwerte der Zustandsvariablen. Um S zu minimieren, ergibt die Anwendung des Maximumprinzips für ß ß = ß2,
wenn
K > 0
ß = ßu
wenn
K < 0,
(e)
wobei K
= — (Pi cos ip + p2 sin ip) - p5
(f)
und fr
tfln W =
pl
(g)
cos ip + Vi s i n y = ^
für ip gilt. DiessinddiegleichenBeziehungen,diesichindemUnterabschnitt4.2.1.3. ergaben, als die WEiERSTRASSschen und ÖLEBSCHschen Bedingungen angewendet wurden. Man kombiniert die Gleichungen (d) und (f), um die neue Form der Schaltfunktion zu erhalten K =
— — {p3
m
cos ip + pi sin ip),
(h)
die anzeigt, daß K höchstens zwei Nullstellen hat. Dies führt zu dem Schluß, daß es nicht mehr als drei Teilbögen für den optimalen Weg gibt. Wenn in einem ZeitintervaliisT = Oist, hängt während dieser Zeit die Güte 8 nicht von ß ab; man sagt, S sei unempfindlich bezüglich ß, und die Lösung ist nicht eindeutig.
1 5 8
4.
D y n a m i s c h eO p t i m i e r u n g s v e r f a h r e n
B e i s p i e l
3 .
Wir betrachten das Problem der Minimierung der Übergangszeit einer IonenRakete mit kleinem Schub zwischen den Umlaufbahnen der Erde und des Mars, und zwar in einer sehr vereinfachten Variante. Wir nehmen an, daß die Schubrichtung ip die einzige Steuervariable ist. Die Umlaufbahnen von Erde und Mars seien kreisförmig und liegen in einer Ebene, und die Massenanziehungskräfte können vernachlässigt werden. Die folgende Nomenklatur wird verwendet: Radialabstand Radial- und Umfangsgeschwindigkeit Masse der Rakete Schubrichtung Schubimpulsgröße
r u, v m yi T a ( t )
=
r / ( m
+
0
m t ) .
Die gegebenen Endbedingungen sind bei
t
=
t
0
m
0
bei
t
=
t
f
r
,
f
,
r
0
U f ,
,
u
v
0
f
,
v
0
.
Tabelle 4-2 zeigt auf klassischem Weg und auf dem Wege von Ponteyagin, wie dieses Problem formuliert wird und wie man die den Extremwert ergebenden Gleichungen erhält. 4 - 2
T a b e l l e
Klassische Formulierung
I
Z u s t a n d s g l e i c h u n q
f
u
=
=
x
x
i> —
=
r
=
u
K
2
+
a
sin
2
K
—
y> x
3
=
uv
=
v
r
2
+ a sin
y>
-f « cos y>
r
b a cos y>.
¿4=1 tf
Gütekriterium [ G ( x ,
S
=
den
E x t r e m w e r t l i e f e r n :
, /I •
Au
• - r
i Ä„
=
tf.
ji + i H
+
dt
}
HAMiLTONSche Gleichung
Erweiterte F u n k t i o n Z h f i
f x
« , « ) # = < >
G l e i c h u n g e n , d i e
=
u
=
2
r
r
F
=
r
2
uv
v =
=
x
v
u
r
J
PoNTRYAGlNsche Formulierung
=
u
l • Iv
U
-
r
=
E
=
p^i
P i d i
« )
~
Iv* —
K —
+
uv a
-
cos
a
y>
\
I.
. sin
y>
1\
+
p
f
2
I—
—
uv
K —
.
+
a
\
r
a
cos y>\.
sin
\ y>
I
Variationsmethoden
4.2.
Klassische Formulierung
PoNTBYAGiNsche Formulierung
Differentialgleichungen
FüLEK-LAGRANGEsche Gleichungen
'} — } (— — 9
—X—
Pi
=
8 H - 7 ö»!
Pa
=
-
— öx2
Pz
=
~
—
= P z
[v2 — \r-
„ 2
~
8 H
=
- 2 K
— r
+
K
- r
K \ — r1 /
- i ?
3
uv — n
v =
—
+
=
- 2 p
— r
8 H K
1 5 9
v 2
u h i>3
r
— r
d H
Pi= - — = 0
Vi(tf) - P M = 0,
da p^tf) = - c 4 = - 1 .-. Pi (t„) = - 1 . Bedingung der .B-Funktion
WEiERSTRASsschen
max
=
-> tan
L
y>
v
max H
—. K
Man schreibe die Zustandsgieichungen V
u
—
11 K
=
r
Xu -
f- a
r2
(X/
uv =
um
— X^fU
+
X„ 'r a
ttu2
tan y = pjpi-
Dann: i j — u -a
r
v
Maximumprinzip
v2
-ff
r
r2
an
x
3=
¿4
=
r 1 =>
r
^(iy)
a
+
a
i>2
'
(p22
+
p32)
,,
/•
p, TT
(Vi + i>32) —
X4((„)
=
tf.
+
In jeder Formulierung haben wir ein System von sechs Differentialgleichungen erster Ordnung in (ruv}. ). ). ) oder in (xlx2x^plp2V3) mit unbekannten Endbedingungen für l(t) bzw. p(t). — Zweipunktrandwertproblem. u
4.2.3.
v
r
Unstetigkeiten der Zustandsvariablen
Ein großer Teil der Arbeit basiert, wie in den vorhergehenden Abschnitten gezeigt wurde, auf gewissen Stetigkeitsvoraussetzungen für die Zustandsvariablen und in einigen Fällen sogar für die Ableitungen der Zustandsvariablen. Bei einer großen Anzahl praktischer Probleme der Systemoptimierung haben jedoch solche Stetigkeitsvoraussetzungen keine Gültigkeit. Ein sehr wichtiges Problem, bei dem diese Annahme nicht gilt, ist das der Optimierung der Trajektorie eines Mehrstufen-Raketenfahrzeuges. An den Stufenpunkten ist eine der Zustandsvariablen, die Masse, unstetig. Orbitale Transfer-Probleme, die Geschwindigkeitsimpulse einschließen, bereiten ähnliche Schwierigkeiten. Die Auswirkungen solcher Unstetigkeiten der Zustandsvariablen bei der Lösung von Variationsproblemen soll hier diskutiert werden [4-13],
160
4. Dynamische
OptimierungsverfcAren
Bei Zustandsvariablen gibt es zwei wichtige Typen von Unstetigkeiten. 1. Genau bestimmte Unstetigkeiten, die beim Auftreten gewisser gegebener Bedingungen vorkommen und wobei die Größen der Unstetigkeiten durch gegebene Beziehungen bestimmt werden. Es läßt sich eine direkte Steuerung weder über die zeitliche Lage noch über die Größe der Unstetigkeiten ausüben. 2. Unstetigkeiten, für die nur die Größe bestimmt ist und die dadurch charakterisiert werden, daß die zeitliche Lage direkt steuerbar ist und dazu benutzt werden kann, um die Systemleistung zu optimieren. Hier werden nur die Unstetigkeiten vom Typ 1 mit einer möglichen Formulierung des Problems betrachtet. System a) Systemdynamik ¿(o) =
M> f j
für
ta i < t
< t a
a
= 1, 2,
A,
(4-24)
x(tQ) wird als gegeben angenommen. b) Endbedingungen Ü[x(tA),tA] = 0.
(4-25)
c) Knickzeit-Bedingungen 0a(x,t)=
0
a = 1, 2, ..., A -
1,
(4-26)
wobei die 0a bekannte Punktionen von x und t sind. d) Unstetigkeitsdefinition für jede Knickzeit ta lim x (t a + e) = lim {x{ta — e) + f a [x(ta — e), ta — e]} E-^O £-»0 a = l,...,A - i.
(4-27)
Z i e l : Man bestimme u(t) so, daß die Gleichungen (4-24) bis (4-27) befriedigt werden, und somit ist lg («„_!, xn) + /*_!(«„-!)],
(4-65)
«»-i
fx
=
M i n fN(xn).
(4-66)
Man beachte bei diesen Ausdrücken, daß durch Variieren nur eines unbekannten Parameters, un_x, gesucht wird; die Werte von xn und fN_x sind bekannt. (2) Unterschiedliche Indizes werden einerseits für /, andererseits für x und u benutzt; n bezeichnet den Rang in der Stufendimension (oder i-Dimension bei dynamischen Problemen), während N die Länge der betrachteten Trasse bezeichnet (oder die Gesamtdauer bei dynamischen Problemen), obgleich sie bei einer gegebenen Stufe dieselben numerischen Werte haben. (1) fy(xn)
180
4. Dynamische
Optimierungsverjähren
(3) Das Gesamtminimum (min-min) / ist dem Begriff nach sowohl eine Funktion der Länge der Trasse N als auch des Anfangszustandes xn: / = f(N,xn). Mit anderen Worten, das Problem mit fixiertem Anfang u n d E n d e wird durch Betrachtung der gesamten Kategorie der Probleme mit variablem Anfang gelöst. Dieses Merkmal, „Einbettungsprozeß" genannt, ist eines der wesentlichen Kennzeichen der dynamischen Programmierung. Ferner wird dieser Einbettungsprozeß auf die Länge der Trasse N ausgedehnt: ein Problem kurzer Trasscn (Ar = k.k = 1, 2, ..., N — 1) löst m a n durch Betrachtung eines Problems mit längeren Trassen (Abb. 4-11). X I
X •
Ai
A?.
L A;,
gegeben
a)
Die ganze Klasse der Ai i = !, 2, p.
Nq
—H
N, •i Nj,gegeben
N2
Die ganze j=l,
Klasse
N, der
0
Nj
2,..-. q-
Abb. 4-11 Einbettungsprozeß: (a) Einbettung in bezug auf die Anfangsbedingung, (b) Einbettung in bezug auf die Länge der Route
(4) Da das Problem umkehrbar ist, (die Kosten sind in jeder Richtung gleich; man k a n n bei den Berechnungen entweder von der Stadt A oder von der Stadt Z ausgehen) k a n n der Anfangszustand als a-0 = c bezeichnet werden; / = f ( N . c); dies ist die allgemeine in der Literatur übliche Bezeichnung. Beispiel 2. Das zweite gewählte Beispiel gehört in das Gebiet der Steuerung [G-31]. U m den Vergleich zu erleichtern, werden wir parallel zu dem Beispiel das allgemeine Formulierungsverfahren darlegen. Einer der Unterschiede dieses Beispiels im Vergleich mit den vorhergehenden liegt im expliziten Vorhandensein der Systemgleichung t) =
0.
(4-G7)
F ü r die Behandlung mit der dynamischen Programmierung wird diese Gleichung durch die folgende diskrete Form (als mehrstufiger Prozeß betrachtet) ange-
4.3. Methode der dynamischen
Programmierung
181
nähert: x{ (t + At) =
Xi(t)
+ At • chlx^t),
iij{t), t ] .
(4-08)
Setzt m a n tf -
t0 = NAt
= Nr,
T
n = 1, 2, . . . , A ,
d a n n k a n n die Gleichung folgendermaßen geschrieben werden: x
7
i(n+1) ~
'
u
jn>
•
(4-G9)
Wir stellen fest, d a ß in den vorhergehenden rekurrenten Gleichungen [Gleichung (4-65)] das zweite Glied die Zustandsvariable an zwei verschiedenen Augenblicken enthält, d. h. xn_u xn, weil /_y~i(w„-i) in Wirklichkeit xnenthält. Mit Hilfe der Gleichung (4-08) k a n n ein Ausdruck in (x n _j) in einen Ausdruck in {xn) und (un_,) umgewandelt werden. W e n n xn definiert ist, wird die Minimierung einfach durch eine gewöhnliche Differentation bezüglich einer einzigen Variablen u n _i ausgeführt. Die Systemgleichung (4-67) ist nicht mehr eine Beschränkung wie in der Variationsrechnung, sondern eine Hilfe. Dieser P u n k t ist ein weiteres wesentliches Merkmal der dynamischen Programmierung. Verfahren
Beispiel
a) gegeben Zustandsgieichung:
a) gegeben
x
xn+1 = axn +
n+1
=
x
g( n>
u
n)
Gütekriterium:
a =
^n{xn> ^n)
tf — t0 = NAt
=
T =
*(
xn)
+ fí¡-l{xn-\>
der eine Funktion der Argumente « „ _ VS
«B-1), xn, xn_x ist, in einen Ausdruck
= *'y(un-1> xn)
umgewandelt wird. E r ist eine Funktion der Argumente un_,, xn, und zwar nur unter Verwendung der diskreten Zustandsgieichung (4-69). Man muß darauf achten, die Beschränkungen nicht zu verletzen. c) Nebenbedingungen in Ungleichungsform. Der T y p S(x, 1)^0 er durch die Wahl der Anfangsbedingungen nicht verletzt wird. 13*
verlangt, daß
186
4. Dynamische Optimierungsverfahren
Der T y p C(x, u, t) < 0 1. erleichtert die B e s t i m m u n g von u 0 wie in a), 2. verlangt NichtVerletzung durch Wahl der Anfangsbedingung, 3. h a t dieselben Auswirkungen wie in b). d) Nichtlinearitäten und Unstetigkeiten. Wir werden Xichtlinearitäten und Unstetigkeiten in der G ü t e f u n k t i o n J(x, n, t) und der S y s t e m f u n k t i o n g(x, u. t) besprechen. Sie sind genau genommen keine Beschränkungen. I n der Variationsrechnung bilden sie jedoch eine Quelle analytischer Schwierigkeiten bezüglich der Differentiationen. Solche Schwierigkeiten existieren in der dynamischen P r o g r a m mierung nicht. Anstelle der Differentiationen k a n n man eine direkte Berechnung von J oder g ausführen, und zwar durch systematisches Variieren von u u n d x in ihrem zulässigen Gebiet u n d ihrem nichtlinearen und nichtstetigen Verhalten entsprechend. Die J-Minimierung wird d a n n auf einen Vergleich der errechneten W e r t e reduziert. Aus den vorhergehenden Diskussionen können einige allgemeine Schlußfolgerungen hergeleitet werden. Die Variationsrechnung ist im wesentlichen ein analytisches Verfahren. Als Vorteil ergibt sich aus dem Optimierungsprozeß im Prinzip eine analytische Lösung. Dieselbe Lösung gilt f ü r alle Spezialfälle. Als Xachteil ist zu nennen, daß durch das Vorhandensein besonderer Nebenbedingungen, Xichtlinearitäten u n d Unstetigkeiten analytische Schwierigkeiten entstehen. Die dynamische P r o g r a m m i e r u n g ist praktisch ein direktes Rechenverfahren. Ein anderer Nachteil liegt darin, d a ß die erreichte Lösung numerisch ist u n d f ü r die Menge von speziell b e t r a c h t e t e n P a r a m e t e r n gilt. D a jedoch eine direkte Berechnung d u r c h g e f ü h r t wird, verursachen Nebenbedingungen, Nichtlinearitäten und Unstetigkeiten keine besonderen Schwierigkeiten.
4.3.4.
Hindernis bei der Anwendung — Dimensionsproblem
Die Methode der dynamischen P r o g r a m m i e r u n g wurde auf verschiedenen Gebieten zur Lösung von Problemen angewandt. [G-2(5; G-36; 4-19 bis 4-22], Die Anwendung ist jedoch durch die hohe Anforderung a n die Speicherkapazität des Computers, besonders bei mehrvariablen Problemen begrenzt. Dieses Problem, das nun schon klassisch ist und Dimensionsproblem heißt, ist spezifisch f ü r das Verf a h r e n der dynamischen Programmierung. Das Hauptanliegen ist die Notwendigkeit der Speicherung der Zwischenergebnisse {fa(c)}, (WJV(C)|, wobei N die Länge des Weges und c die Anfangs-Zustandsvariable ist. I m U n t e r a b s c h n i t t 4.3.2. wurde die Anfangs-Zustandsvariable zum besseren Verständnis des dazugehörigen Textes mit xn bezeichnet. Hier k o m m e n wir auf den B u c h s t a b e n c zurück, der in der L i t e r a t u r allgemein verwendet wird. Der Leser muß aber d a r a n denken, d a ß c indiziert ist u n d von Stufe zu Stufe seinen W e r t ä n d e r t . U m das Dimensionsproblem zu erklären, sind noch weitere Einzelheiten über den Prozeß der Berechn u n g nötig. Das Problem sei, /
J{u) = J v (x, u) d£ o
(4-70)
4.3. Methode der dynamischen
Programmierung
187
zu minimieren mit x = g(x,u),
x(0) = c.
(4-71)
Durch Anwendung der diskreten Formulierungen NR J{un)
=
=
JL'
n)
u
1
«« +
rg{xn,
un)
(4-72)
sahen wir, daß man die Minimumfunktion durch die rekurrente Beziehung der Form A(c) = Min [v(c, u) T] (4-73) U
fx(c) = Min [v{c, u) T + /.v-,(C +
((51c
0
Wir vergleichen (59) mit (57) und setzen x0 = t, z = f und x = {xu x2, ..., Dann gilt P o
b
W = 1, 2, . . . ,
TO.
xm). ((52)
n
Wir definieren m H
=
v ( x ,
u
,
t
)
+
£
m=i
g
n
{ x ,
u ,
t)
p
n
.
( 6 3 )
als HAMiLTON-Funktion.
Da Gleichung (59) gleich Gleichung (57) sein soll, gilt F
=
p
a
+
H ( x ,
ü ,
p ,
(64)
t ) .
Wegen (64) können wir die in (61) erforderlichen Ableitungen ermitteln c F
8 F =
d z
c x T
8 H n
8 F Spn
c x
n
i =
T
d H ?Pn
1
i =
1
d H
1 ,
CPo
8 F d x
c F
=
o ,
d H
CUf
d ü i
d x
0
~
T t
i
=
1
8 u
{
dt
(65) (66a)
n
d H
d ü i
d ü i
8 x
(66 b)
n
Ein wesentlicher Punkt ist die Einführung der Beschränkung in bezug auf u(t) in die mathematischen Ableitungen. E s seien die r Komponenten von u z. B . dahingehend beschränkt, daß sie innerhalb oder auf der Begrenzung von U liegen. Innerhalb der Begrenzung gilt wegen der Minimierung ß
d u i
16*
= 0,
(67)
234
4. Dynamische
Optimierungsverfahren
und auf der Begrenzung ist u konstant. Hieraus folgt CÜj
(¡Ü:
cxn
dp,,
-r- 5 = ^
= 0.
(68)
Daher bleibt für alle Komponenten wird zu cF —
c xn bF
—
CPn
(67) oder ((58) erfüllt und die Gleichung (66)
8H =
(69)
—
cxn &H
= —•
(70)
C'Pn
Einsetzen dieser Ableitungen in (61a, b) ergibt dx„ 8H ~ri = — di opn dH dpn — = . di 8xn
(71) (72)1
{
l)ie Gleichungen (67), (71) und (72) sind die PoNTRYAGiNschen Gleichungen.
ANHANG 4D Die kontinuierliche dynamische Programmierung und die Regelungen Im Kapitel 4 zeigten wir hauptsächlich Optimierungstechniken, wobei ein System von numerischen Werten des optimalen Steuervektors berechnet wurde. Die Werte des Zustandsvektors erscheinen als Ergebnis der Steuertätigkeit. Bei einer Anzahl von Steuerproblemen ist die Berechnung des optimalen Steuervektors dem Werte des Zustandsvektors entsprechend erwünscht. Die wechselseitige Abhängigkeit der beiden Vektoren erscheint dann in einer Regelungs- und in einer Steuerungs-Form. Mathematisch besteht das Problem darin, den optimalen Steuervektor als analytische Funktion des Zustandsvektors ü = u(x, t) zu erhalten. Obwohl in Fällen, bei denen die Systemdynamik nichtlinear ist, das Problem nicht immer lösbar ist, wurden in einer Anzahl von Fällen Ausdrücke in geschlossener Form erhalten. Das waren bemerkenswerterweise die Fälle, bei denen die Systemdynamik linear mit konstanten oder Zeitvarianten Parametern ist und das Gütekriterium eine lineare oder quadratische Form besitzt. Das Problem der optimalen Regelung wurde in der Literatur [G-28, G-34, G-35, G-49, G-54, G-58] umfassend behandelt. Hier werden wir nur einen kleinen Ausschnitt erörtern [G-58, Kap. 3]. Wir betrachten ein System, das durch m Differentialgleichungen erster Ordnung in den Zustandsvariablen xx, x2, ..., xm beschrieben wird x = Bx + Cu = g(x,
u),
(73)
Anhang 4D Kontimäerliche
dynamische Programmierung
und die Regelungen
235
wo B eine (m, m)- und C eine (m, w)-Matrix ist und der r-dimcnsionale Vektor u so zu wählen ist, daß J = f v(x, u, t)dt=
f (xTAx
+ uTHu)
o
dt,
(74)
Min J = f
«(>
a O >
O
S o
•SP
®
T3
o fe
= fi fi
c c8 ^
^® >o
fi ^ fi o s ® >-5 fi
tí S - -S -tí I 2 .S § S 1 1 ^ S s-g a S P •ti o ® ^ O ^ m :ci -tí S £ S •--" a o 5^ oj s es -o ÎJO^ co-° c S co -g cS
•Oj;
-G S CO
-, «
¡JC-- œ O __! « a ç
cS
S
S. S bD
s .S § tí
e •g •S 02
-tí
8 o e s s s e PC
S e £— C
^ g tí g M M) 8 3 OH ~ SI CD Ci K bo H SO"t o '-3 3 T- o « Ü M ,£}
1,2,...,?
X
2
Xr^
X
F =
/l
Problem
2 — 12 —
Je o2
.T,
x1 X2X3 Xl
a
,
X^ •> 2 ,
(,r5 +
?xw X62)"
1
+ ° (*5* + V ) 1 "
262
5. Dynamische Suboptimierungsverfahren Methode
Endbedingungen
Beispiel x
1. halb gegeben bei t = 0 2. halb gegeben bei t = tf
i — fi — xb [-^j —
. , •"s i — h — X»
x
fö ~
X
G
X,
,rn-
X
4
X1
=
—
2.T5
Xt
a(t) = T\{m o + Tilt) ^(0) = 1
xx(tf) =
x2(0) = 0
x S f ) = 0,0
x3(0) = 1
x3(tf) = 0,8098
x 4 (0) = ?
xSf)= ?
a-5(0) =
x S f ) =
?
x6(0) = ? Man minimiere t7
1,525
7
-
*,({,) = ?
Man minimiere tf T = 0,1405 to0 = 1 m =
-0,07487
k = 1 b)
Iterationsalgorithmus
xn+1 = J(xn. t) [.tb+1 — xn] + F(xn, t) J(x„,t): zient ;
jACOBischer
Iterationsalgorithmus
F(x„,t)
=
{P,...,/
Rechenschema
c l ) Man wähle eine Anfangsvermutung x0(t)
c l ) Anfangsvermutung x0(t) xc(1)(
r
P Abb. 5-6
5.3. Überwindung des Dimensionsproblems
275
herte Trajektorien werden in den Abb. 5-5 und 5-6 gezeigt und mit der theoretischen optimalen Trajektorie F 0 verglichen. E s k a n n daraus leicht gefolgert werden, daß die Genauigkeit der Näherungen in allen Fällen unzureichend ist. Diese Kategorie von Suboptimierungsverfahren kann nur sehr grobe Lösungen liefern.
5.3.4.
Dynamische Programmierung mit Zustandsinkrement. Methode von Larson
Bei der Behandlung von mehrdimensionalen Problemen mit der dynamischen Programmierung gibt es Speicherschwierigkeiten, weil Funktionen von Zustandspunkten zu speichern sind, die die gesamte durch den Zustandsvektor definierte Hyperebene überdecken. Wenn wir a n s t a t t der Hyperebene nur ein kleines Hyperrechteck um den wahrscheinlichen Optimalpunkt herum betrachten, wird die Reduktion des Speicherbedarfs proportional zur Reduktion der Flächen (Abb. 5-7). J e t z t betrachtet man bei jedem Iterationsschritt nicht das Hyperrechteck, sondern einen Block, der aus diesem Hyperrechteck und aus AT gebildet wird, einem Abschnitt mit der Dimension einer Zeit, der mehrere Elemente der Zeit At enthält. Der Speicherbedarf wird sich leicht erhöhen, aber das ist weniger einschneidend, als wenn man die Hyperebene betrachtet. Um eine konkrete Vorstellung zu erhalten, wollen wir annehmen, daß das Maximum von xl und x2 bei 100 Einheiten liegt, wobei jede Einheit gleich Ax ist; weiter,
276
5. Dynamische
Suboptimierungsverjahren
daß das Hyperrechteck von der Größe (12Ax) X (l2Ax) ist und daß AT = 51/ ist; der Speicherbedarf ist d a n n : Hyperfläche
100 X 100 = 10000
Hyperrechteck
12 x
ein Block
12 =
5 x 144 =
144 720.
Hyperebene /
Hyperrechteck
AT /
/ Blee
*2
Abb. 5-7 Reduktion des Speicherbedarfs durch Blockstrategie
Bei jedem Iterationsschritt erfolgt eine Reduktion von ungefähr 15 auf 1. Das ist offenbar ein Vorteil. Xun erhebt sich die Frage, wie dieser Vorteil während der Verfahren aufrecht erhalten werden kann. Das scheint schwierig zu sein, weil der nächste optimale P u n k t irgendwo auf der Hyperfläche liegen kann. Hier greift der Zeitzuwachs dt ein. I n Abb.5-8a wird gezeigt, daß bei gegebenem dt die Lage des
a) b) Abb. 5-8 Abhängigkeit zwischen 6t und der Lage des nächsten Blockes
5.3. Überwindung
des Dimensionsproblems
277
nächsten optimalen Punktes im Zustandsraum (nicht der Phasenraum) entfernt oder nahe (B^ oder Bx) ist, und zwar entsprechend dem W e r t der Anstiege (>' oder .-*). I m Zustandsraum können wir jedoch die L a g e des nächsten Blockes B y oder Bx' immer sehr nahe bei B0 festlegen und einen variablen Zeitzuwachs dt oder (dt)' entsprechend den Werten der Anstiege (