167 34 16MB
German Pages 191 [192] Year 1975
Beiträge zur Numerischen Mathematik 3
Beiträge zur Numerischen Mathematik 3
Herausgegeben von Frieder Kuhnert und Jochen W. Schmidt
R. Oldenbourg Verlag München Wien 1975
© 1975 V E B Deutscher Verlag der Wissenschaften, Berlin Lizenzausgabe für den R . Oldenbourg Verlag, München—Wien Printed in the German Democratic Republic Lizenz-Nr. 206 • 435/198/75 Gesamtherstellung: V E B Druckhaus „Maxim Gorki", 74 Altenburg ISBN: 3 - 4 8 6 - 3 4 5 2 1 - 4
Inhalt
K.
Karl-Marx-Stadt
FEIEDEICH,
Eine Regularisierung für eine singulare Gleichung mit selbstadjungiertem Operator . . . . V . FEIEDRICH,
Karl-Marx-Stadt
Zur iterativen Behandlung unterbestimmter und nichtkorrekter linearer Aufgaben . . . . V . F E I E D E I C H und D . M Ü L L E R , Karl-Marx-Stadt Untersuchungen zum asymptotischen Stabilitätsbegriff bei numerischen Verfahren für Anfangswertaufgaben zu gewöhnlichen Differentialgleichungen H . K L E I N M I C H E L und H . S A D O W S K I , Dresden Der verallgemeinerte RG-Algorithmus bei linearen Restriktionen, die Behandlung des Entartungsfalls und die Konvergenz des Verfahrens
R.
LEHMANN,
11
21 37
Karl-Marx-Stadt
Zur numerischen Behandlung nichtlinearer Eigenwertaufgaben abgeschlossener Operatoren R. M Ä R Z und P . D Ö R I N G , Berlin Über die Lösung gewisser nichtlinearer Randwertaufgaben in der Theorie der optimalen Steuerung H.-D. N I E P A G E , Berlin Über die Anwendung eines verallgemeinerten Monotoniebegriffs zur Lösungseinschließung bei iterativen Prozessen H.-D. N I E P A G E , Berlin Zur Fehlerabschätzung bei einem verallgemeinerten Iterationsverfahren H.-D.
7
NIEPAGE,
S7
81 95 101
Berlin
Zur Fehlerabschätzung beim Iterationsverfahren in Räumen mit verallgemeinerter Norm 107 G. P OErsatzoperatorenverfahren R A T H , Güstrow Das für lineare Volterrasche Integralgleichungen zweiter Art 115 H. S A D O W S K I , Dresden Der RG-CD-Algorithmus für quadratische Optimierungsaufgaben
131
H. S A N D M A N N , Berlin Berechnung von Lösungen algebraischer Gleichungssysteme
149
und J . G E Ü T Z M A N N , Jena Intervallarithmetische Fehleranalyse
163
W . WALLISCH
6
Inhalt
G. WENDISCH, Karl-Marx-Stadt Über Differenzenverfahren zur Lösung nichtlinearer Cauchy-Aufgaben gewöhnlicher Differentialgleichungen 173 K. WOHLBABE, Berlin Substituierbare Polynome
185
Beiträge zur Numerischen Mathematik
3 (1975), 7-9
Eine Regularisierung für eine singuläre Gleichung mit selbstadjungiertem O p e r a t o r KLAUS FBIEDRICH
In einem separablen Hilbertraum H mit dem inneren Produkt (x, y) für die Elemente x und y aus H sei ein selbstadjungierter (nicht notwendig beschränkter) Operator T gegeben. Der Definitionsbereich D(T) des Operators T sei dicht in H und
im Hilbertraum H sein) und annulliert das Element 7=1
,Vi,hi)
kn = hlf(xi, yt),
/ ktj == htf Irr, + MI +
(1 + h,0)
|y, -
|e(|
y i
\.
Aus einfacher Induktion folgt bei Beachtung der Voraussetzung an die Schrittweiten für alle l = 0, ...,N elßhG
Iy, -
2//I ^
(ßHO'G, — (B-A)G
e«
+ ^L
ÖG2) + yGz)
(b _ a) (0'G,
_ 1
ßhg
+
+ eW*> \y0 -
ÖG2) + yNOt
+
y0\
|y0 -
y0l) •
(14)
Untersuchungen zum asymptotischen Stabilitätsbegriff
27
Um den Einfluß der Rundungsfehler auf die Lösung [y^ kleiner als ein vorgegebenes e zu halten, braucht also bei wachsendem N nur die relative Genauigkeit der Addition (4) erhöht zu werden, während die Genauigkeit des Anfangswertes, der Funktionswertberechnung sowie der Operationen zur Bildung der 0(x, y, h) unverändert bleiben kann. Diese Tatsache können wir in dem folgenden Satz ausdrücken. S a t z 2. Die Lösungen eines Runge-Kutta-Prozesses bilden bei üblicher „akkumulierender Addition" bezüglich der Genauigkeit der Funktionswertberechnung, des Anfangswertes sowie der Operationen zur Bildung von (t>{xl, yt, ht) eine oc0-L-Folge, bezüglich der Addition (4) stellen diese Lösungen eine oc^-L-Folge dar. Die Möglichkeit, einzelne Operationen mit höherer Genauigkeit auszuführen, erlaubt aus (14) weitere Folgerungen. Eine ¿-fache Genauigkeit der Addition (4) gegenüber den anderen Operationen führt zu S a t z 3. Die Lösungen eines Runge-Kutta-Prozesses bilden bei üblicher „akkumulierender Addition" unter den Voraussetzungen (2) bzw. (2a),
s(i)| sS Dx&' (s = 1, 2q), wobei lediglich von q abhängt. Die Abschätzung der Rundungsfehler el nach (7) und e{ nach (2 a) führt zu |e,'| +
\et\£
&'( \P0\+ + ( ( i 2 KKl Ml) ®'(\yo\ l ++ M ))
+
hl
£ [&' + (1 + &) F{0' log2 (2N))} Z \ük\ + &\U .
(26)
k=1
q
q-1
Unter Verwendung der Bezeichnungen B — Z \ßs\, Bj = Z |y3[ D1 _
5= 0
= B{M + . l
8=1
+
+
W
+
0'DA
+hLZ
«=1
abschätzen, so daß wir aus (22) bei entsprechender Wahl einer Konstanten B3 i mmax a x Z I«* — M*l ^si G' -I IÜt — ut\ + [lSiSij-l k=q +
&BX z m k=l
+
(b — a)
+ hLB >2\Vk— Z \Vk k= t=o
BÖ
Uk\ \ Stell J
(30)
30
VOLKMAB F E I E D K I C H u n d D I E T E R M Ü L L E R
erhalten. Mit (26) und (30) kann der sich aus (24) und (25) ergebende Gesamtrundungsfehler i IVi — Vi\ ^ \yQ - Vo\ + 2 K - uk\ + |e,| + |e,'| k=1 rekursiv durch \y,
\&\u {
+ &Q'B, + [G'0'B, + & + (1 + 0') F[0' log2 (2N))} Z l«*l k=1
+ \Vo — Va\ + G'q max \üt — ut\ + (b — a) BO'dl lSiii-l J + G'hLBZ\yk-yk\
(31)
I
abgeschätzt werden; mittels der Bellman-Ungleichung erhält man zur Abschätzung der Differenzen yt — yl einen Ausdruck in der Größenordnung der geschweiften Klammer aus (31). Bei impliziten Mehrschrittformeln (ß0 =j= 0) ist zusätzlich der Abbruchfehler der Iteration zur Berechnung der uk und yk zu berücksichtigen und die Zugehörigkeit der im Iterationsprozeß entstehenden Näherungen + ü¡ — uk\ — ük\ + \ük — uk\ durch h\ßo\L
- yt-iI + B,0' + Bsy + \ük - uk\} + B6h\ßo\ d
abschätzen läßt. Wir erhalten somit anstelle von (30) f ü r G'h\ß0\ L < 1 eine äquivalente Abschätzung l Q' i E I«fc — %l ^ ; , r \ 1) ergeben die Formeln
ykp+r =
Vr
+ 1° ha(E)
flp+r
(r = 0,
- 1 ; i = 1,...)
I
f ü r alle rj > 0 «,-Z-Folgen von Lösungen. Offen bleibt jedoch die Frage, ob im allgemeinen Fall schwach stabiler Mehrschrittformeln eine Verringerung des Rundungsfehlereinflusses irgendwie erreicht werden kann. Sollte es eine Grenze f ü r die Schaffung asymptotisch stabilerer Variant e n von Mehrschrittformeln geben, so ist diese jedenfalls nicht mit der von H E N R I C I u n d D A H L Q T J I S T gezogenen Grenze zwischen stark und schwach stabilen Mehrschrittformeln identisch. Von B A B U Ü K A werden in [ 1 ] Algorithmen beschrieben, deren Lösungen ^„-¿-Folgen sind. Das Wesen dieser Algorithmen besteht ebenfalls darin, die wesentlich auf die Genauigkeit des Gesamtergebnisses einwirkenden Additionen mit höherer Genauigkeit zu realisieren (Simulation höherer Genauigkeit durch spezielle Algorithmen (2.1.11), Algorithmus I I aus § 3.3). Dabei k a n n aber die Forderung (2) nicht durch die schwächere (2 a) ersetzt werden, und es ergeben sich keine wesentlichen Verbesserungen bezüglich der Klassifikation der Lösungen durch «t.-Z/-Folgen i k .
5. F ü r Anfangswertaufgaben zu Differentialgleichungen r-ter Ordnung 2/ £ t + 1 für alle j e Zk: Setze 2k+1
4.3.2.
Falls x/:+1 sS s k + 1 für mindestens ein j £
: = Zk.
:=
Zk.
2k:
Soweit es möglich ist, werden alle x f + x sS e ,:+1 aus der Basis entfernt und gegen Nichtbasisvariable Xi k+1 > e k + 1 ausgetauscht. 4.3.2.1. Falls sich dabei alle Xjk+1 ek+1 aus der Basis entfernen lassen, entsteht k+1 eine neue Basisdarstellung x = Ck+1 ¿tk+1 + dk+1, wobei xk+1 nur Komponenten enthält, die größer als efc+1 sind. Zk+1 enthält dann die Indizes der neuen Basis variablen. 4.3.2.2. Falls sich bei dem Austausch nicht alle Xj t + 1 efc+1 aus der Basis entfernen lassen, liegt der Entartungsfall vor. Vergleiche hierzu Abschnitt 4. Es wird nun Z k + l nach dem Algorithmus E festgelegt. Bemerkungen zu den Abänderungen gegenüber dem RG-Algorithmus von P. Wolfe: 1. Die Bestimmung von s k wurde dahingehend abgeändert, daß bereits := 0 (i € Zk) gesetzt wird, wenn xk ek und vk 0 (i € ¿¡k) gilt. Dadurch versuchen wir, im Verfahren sehr kleine Schritte zu verhindern. Der Verfahrensschritt 2 entspricht der Antizickzack-Forderung AZ1 bei Z O T T T E N D I J K [11]. Diese Forderung wird benötigt, um die Konvergenz des verallgemeinerten RG-Algorithmus beweisen zu können. 2. Falls im Punkt xk fik = 0 gilt, d. h., die durch (3.2) und (3.4) bestimmte Abstiegsrichtung sk zeigt aus dem zulässigen Bereich heraus, dann wird nach dem Schritt 4.3.2. eine neue Basisdarstellung gefunden, für die dann fik > 0 gilt (vgl. Hilfssatz 2). Das dies prinzipiell möglich ist, wird durch den Algorithmus E garantiert. Der Algorithmus E sichert uns also die unbeschränkte Durchführbarkeit des Algorithmus. 3. Falls Xk = ¡ik ist, werden alle Komponenten Xj k + 1 s k + 1 aus der Basis entfernt, soweit dies möglich ist. Falls sich nicht alle xk+1 sS ek'rl aus der Basis entfernen lassen, wird die Indexmenge Z k + 1 über den Algorithmus E bestimmt. Diese Maßnahme sichert uns die Konvergenz gegen den Lösungspunkt, wenn dieser ein entarteter Punkt ist.
41
Verallgemeinerter RG-Algorithmus bei linearen Restriktionen
4.
D e r Entartungsfall
Im Algorithmus tritt der Entartungsfall 4.3.2.2. ein, wenn für xk durch 4.3.2. eine Basisdarstellung Cök
x" =
(4.1)
+ d
gefunden wird, in der xk Komponenten 0 sS xf sS e enthält, die sich nicht gegen Komponenten xk > e von ± k austauschen lassen (es gilt entweder e = ek oder e — 0). Der Darstellung (4.1) entspricht dann o. B . d. A. ein Tableau der Gestalt x
••
11
•• Clp
C
x
h
x
h,
hP
C
1
x
l*p+1
0
..
0
0
..
0
d,
q+1.1
d„ dq+1
ml
dm
x
•
l
(j = «
l,...,q),
( ? = ? +
1, ...,m),
= xlht >
e
{i = p
1 +
1,...,
n — m) j
gilt. Zunächst berechnen wir bezüglich der durch (4.2) gegebenen Basisdarstellung vk = (vkit ..., v\v, vkp+i, ..., vkhn_jJ nach (3.1). Im weiteren lassen wir den Iterationsindex k weg. Wir stellen nun das folgende Tableau auf: x
k„
•
x
h
C
11
Cq 1
C
1p
•
. •
z
•
c
gp
v
(4-4)
"p
Unser Ziel ist es, durch den Austausch von Basisvariablen xtj gegen Nichtbasisvariable xhi ein Tableau ctL
x
Xßl
C
r 11
• ••
0 gibt mit ||grad /(x*)| ^ L (k = 0 , 1 , 2, ...). Mit (3.1) und (5.2) folgt hieraus ^ (1 + LX)L (k = 0, 1, 2, ...). Wegen 11*1 ig \\vk\\ erhält man mit (5.3) hieraus I«*y ^ (1 + L,YL
= L2 (k = 0, 1, 2 , . . . ) . I
Im folgenden bedeutet 2 = Zk (k £ K), daß für die Teilfolge { z * } ^ die Indexmengen 2 k gleich sind, d. h., die Basisdarstellungen xk = Ck±k + dk (k € K) sind gleich. Wir setzen deshalb G : = Ck (k 6 K). H i l f s s a t z 8. Existiert für eine Teilfolge {a^J^gx ein x* € G mit lim xk = x* und kiK gilt weiterhin % = %k (k 6 K), dann existiert lim vk =: v*. kOi B e w e i s . Mit (3.1) gilt wegen (VI), C = Ck{ktK)
und lim z* = x* kzK
lim vk = lim (grad /(£*) + C T grad /(£*)) keK kac — grad f(x*) + CT grad f(x*) =: v*. I Nach
ZOUTENDIJK [11]
gilt:
H i l f s s a t z 9. Wenn es ein a > 0 gibt mit grad f(^)1 oo dann existiert £ Xk. k=0
sk < —a < 0 (k = 0_ 1, 2, ...),
B e w e i s . Es sei h Für jedes k
: = max
^ Xk | grad f(xk + fisk)T sk ^ — p ,
0, er2 > 0 mit — < o1 HJ, 2 < er2 < er und ein Index iu so daß für alle i ~2i i1 (i € J 2 ) grad f(x')J s* iS —cr2
und grad f{x' + Ä X ) T s* ^ —at gilt. Die Folge {s*};^ ist nach Hilfssatz 7 beschränkt. Folglich konvergiert irgendeine Teilfolge {6,i|i6ja (J3 cz J2) gegen ein s'. Es gibt dann Zahlen a3 > 0, 0 mit a l • 0, so daß
2
d
l
(
i
=
r
+
1,
(5.12)
. . . , » )
gilt. Wegen (5.10) existiert für 0 < d2 := min {e*, «5j} ein k2, so daß \x*
—
Xik\
k3 nur noch die Komponenten xk verschwinden, für die xk < d2 s* gilt. Für diese Komponenten gilt jedoch sk S; 0 für k > k3. [Das folgt für i 6 Zk aus (3.2) und wegen e* = ek für k > k3. Gilt jedoch i £ Zk und xk < e* = e* für k > k3, dann wird wegen (5.9) Zk mit Hilfe des Algorithmus E festgelegt. Da für k > k3 auch der Fall 2.1.3. nicht mehr eintreten kann, folgt dann analog wie im Beweis zu Hilfssatz lb), daß sk 0 gelten muß.] E s können also für k > k3 auch die Komponenten, für die 0 < xk < d2 £S e* gilt, nicht mehr verschwinden. Damit ergibt sich ein Widerspruch. Also war die Annahme falsch, und es gilt somit lim ek = e* = 0. • ¿—>•00
Verallgemeinerter RG-Algorithmus bei linearen Restriktionen
51
mit lim xk = x* C G, Z — Zk(k 6 K) und keK t* — 0 (t* wird bezüglich der durch Z erzeugten Basisdarstellung im, Punkt x* nach (3.3) berechnet), d. h., x* erfüllt die notwendige Optimalitätsbedingung. S a t z 5. Es existiert eine Teilfolge
B e w e i s . Da im Beweis zu Satz 4 die Annahme: „Es existiert ein k0 mit ||sA|| Si eh für k Sg ka" zum Widerspruch geführt wurde, existiert somit eine Teilfolge derart, daß < ek (k € Kü) gilt. Wegen lim ek = 0 folgt daher fc—KJO
lim||S*||=0.
(5.14)
Nach Hilfssatz 6 liegt die Folge { x * i n der kompakten Menge G0cz G. Es existiert daher ein K1 cz Ka und ein x* € Cr mit limxk = x*.
(5.15)
kiK1
Da es nur endlich viele verschiedene Basisdarstellungen gibt, existiert ein K cz K1 mit Z = Zk (k € K). Wir können nun Hilfssatz 8 anwenden und erhalten lim vk = v*.
(5.16)
keK
Wir zeigen nun, daß im Punkt x* bezüglich der durch Z erzeugten Basisdarstellung t* — 0 gilt. Dazu untersuchen wir die beiden folgenden Fälle: I. Wir nehmen an, daß xt* = 0 und v,* = : —2{* ^ ö keK), d. h„ es gilt ]|$*|| ^ b (k 5: ku k e K). Das ist aber ein Widerspruch zu (5.14). Also gilt: Aus x«* = 0 folgt v^ ^ 0
(i e ¿).
(5.17)
I I . Wir nehmen an, daß xf = : 201 > 0 und = : 2 0 für mindestens ein i e % gilt. Wegen (5.15) und (5.16) gibt es dann ein kt, so daß xk S: 0 folgt v^ = 0
(i €
.
(5.18)
Mit (5.17), (5.18) und (3.3) erhalten wir t* = 0. I S a t z 6. Wenn f 'pseudokonvex ist, dann ist jeder Häufungspunkt Lösungspunkt der Aufgabe (2.1).
der Folge [xk\ ein
B e w e i s . Wegen Hilfssatz 6 ist {/(#*)} eine streng monoton fallende Folge, die wegen (5.1) durch f* nach unten beschränkt ist. Es existiert also lim f(xk) =: f . Nach k
4*
52
H E L M U T KLEIKMICHEL, u n d HOEST SADOWSKI
Satz 5, Satz 3 und (5.1) existiert eine Teilfolge {xk}keK
mit lim xk = x* € G, wobei kOC
f(x*) = /* gilt. Es gilt dann wegen der Stetigkeit von / f
= k-*cx> lim f(xk) = lim keK f(x*) = f(x*) =
/*.
Es sei nun {xk}kiK
eine beliebige konvergente Teilfolge mit lim a^ = x**, wobei x** teXi wegen Folgerung 1 und der Abgeschlossenheit von G in G liegt. Es gilt dann wieder wegen der Stetigkeit von / f* =
l i m f{xk)
=
k—>00
lim f{xk)
=
k€K X
f(x**),
d. h., x** ist ein Optimalpunkt von Aufgabe (2.1). I
6.
Beispiel zum Entartungsfall
Im vorliegenden Beispiel tritt bei den gegebenen Startgrößen x°, e° und der Anfangsbasis Z 0 zunächst der Fall fia = 0 ein. Mit Hilfe des Algorithmus E (bezüglich e = 0) wird eine neue Basis Z 0 gefunden, so daß man dann /u0 > 0 erhält. Dazwischen wird noch eine Verkleinerung von e° erforderlich, da der Fall 2.1.3.2. eintritt. Der neue Punkt x1 ist (ebenso wie x°) ein entarteter Punkt. Bei der Bestimmung von wird daher ebenfalls der Algorithmus E (bezüglich e = e1) benötigt. Bezüglich der nun gefundenen Basisdarstellung gilt H^H = 0, d. h., x1 ist Lösungspunkt. A u f g a b e . f(x) = xf + bei —x^ +
4^2 +
-
% —
2x2 +
3CK3 +
3) 2 + x3z + a;42 + 2z 5 2 + 2xt = Min!
— 2xs — 18a; 4 —
X5 +
X6 =
—G,
ox6 =
—3.
Start: a;0 = (0; 1; 0; 0; 5; 0) T , £„ = { 3 , 5 , 6 } , 2 J 0 = {1, 2, 4}, C0 = |
1.
v°
2 1
0 2
-3\ -1 ,
-1
0
- 2 /
e
° = l.
= grad f(x°) + Cj grad f{x°) = (
= 1
-4
30 -24 J
2 l - l \ / 0 \ 0 2 0 20 3 - 1 - 2 / \ 2/
Verallgemeinerter RG-Algorithmus bei linearen Restriktionen
2.1.
1°
2.1.1.
e1
53
=(0;0;24)t. :=s°.
2.2.
= C0s° = ( - 7 2 ; - 2 4 ; -48) 1 ".
3.1.
//„
3.2.
x3° und xt° lassen sich nicht gegen positive Nichtbasisvariable austauschen, d. h., es tritt der Fall 4.3.2.2. ein. Z 0 wird nun mit dem Algorithmus E neu festgelegt.
El.
=0.
= (18; 3 6 ; - 2 4 ) T .
E 2.
x¡
x4
2 - 3 -1 - 2 18 - 2 4
x3 Xß z
u2
«1
-1 0 0 -1 0 0
x4 X( z
E 3.
Z0 C
= (4, 5, 6},
0
2 J
7
ux 1
1
3 2
3 2
7 2
u2
8
0
¥
-1
8
0
= (1, 2, 3}.
j / 2 0-1' = 16 l|, \-7 0 2)
2.1.
s°
— (0; 0; 0) T .
2.1.3.
t°
= (0; —36; 0) T .
2.1.3.2. 6°
: = — £ " = = 0,5.
2.1.
= (0; —36; 0) T .
Io
x¡
x\
t>° =
(2;36;8)t.
2
„o __ 0,5.
2.1.1. 2.2.
¡o
— c ^ 0 = (0; —72; 0) T .
3.1.
u0
. (1 51 1 = min i — ; — } = — . [36 72 j 36
3.3.
f{x° + ;.0.v°) = min f(x° + As0) = min ( ( - 2 - 36A)2 + 2(5 0 < a
A0 =
72A)2),
4
—. 36
4.1.
x1 : = a;0 + A0s° = (0; 0; 0; 0; 3; 0) T .
4.3.2.
«41 und xe} lassen sich nicht gegen Nichtbasisvariable x^ > g1 austauschen, d. h., es tritt der Fall 4.3.2.2. ein. Z l wird mit dem Algorithmus E festgelegt.
54
ei.
H E L M U T KLEINMICHEL u n d HOEST SADOWSKI
*
=
/ 2 (~7;1
X, x4 x6
z
8 ;
#2 xs
2 ~3 7 ~~3 2 3
0 0 18
E3.
Z x = (4, 5, 1},
2.1.
I 1 = (0; 0 ; 0 ) T .
2.1.3.
Î 1 = (0; 0; 0) T .
2.1.3.1.
x1 =
16 \ T T) " Ml
1 3 2 ¥ 16 3
x6
«2 0
x4
0 —1
xx
- 1
0
0
z
#2 2
_
7 3 2 7~
0 0 18
M2
«1
1 ~T 2 7 36 7
- 1 0 0
2 7* 3 7 2 7
= (6, 2, 3 ) ,
(0; 0 ; 0 ; 0 ; 3 ; 0) T i s t o p t i m a l .
Literatur [1] ABADIE, J . , and J . CARPENTIER, Generalization of the Wolfe Reduced Gradient Method to the Case of Nonlinear Constraints. Optimization (R. FLETCHER, ed.), Academic Press, London 1969, p. 37—47. [2] A B A D I E , J . , J . C A R P E N T I E R et C . H E N S G E N , La méthode du gradient réduit généralisé, Rapport CAE/RT/2047. Compagnie Européenne d'Automatisme Electronique, Paris 1967. [ 3 ] E L S T E R , K.-H., Nichtlineare Optimierung, Mitt. Math. Ges. D D R , H e f t 1 / 2 ( 1 9 6 9 ) , 5 4 - 1 3 5 . [ 4 ] FATJRE, P . , et P . HTTARD, Résolution de programmes mathématiques à fonction non linéaire par la méthode du gradient réduit, Rev. franc, rech, opérât. 9, Nr. 36 (1965), 167—205. [ 5 ] K Ü N Z I , H . P . , Z u m heutigen Stand der Nichtlinearen Optimierungstheorie, Unternehmensforschung 12 (1968), 1 - 2 2 . [6] KÜNZI, H . P., u n d W. KRELLE, Nichtlineare Programmierung, Springer-Verlag, Berlin—Göttingen—Heidelberg 1962. [7] KÜNZI, H . P., u n d W. OETTLI, Niohtlineare Optimierung: Neuere Verfahren, Bibliographie. Lecture Notes in Operations Research and Mathematical Systems, Springer-Verlag, Berlin— Heidelberg—New York 1969, S. 2 3 - 3 3 . [8] ROSEN, J . B., The gradient projection method for nonlinear programming, P a r t I . Linear constraints, J . Soc. Industr. Appl. Math. 8 (1960), 181—217.
Verallgemeinerter RG-Algorithmus bei linearen Restriktionen
55
[9]
V O G E L , W . , Lineares Optimieren, Akademische Verlagsgesellschaft Geest & Portig K.-G., Leipzig 1967, S. 1 6 4 - 1 7 5 . [10] ZANGWILL, W. I., Nonlinear Programming. A Unified Approach, Prentice-Hall, Inc., Englewood Cliffs (N.J.) 1969. [11] ZOUTENDIJK, G., Methods of feasible directions, Elsevier Pubi. Comp., Amsterdam—Lond o n - N e w Y o r k - P r i n c e t o n (N.J.) 1960.
Manuskripteingang: 11. 7. 1973 VERPASSER: Doz. Dr. H E L M U T K L E I N M I C H E L und Forschungsstudent m a t i k der Technischen Universität Dresden
H O E S T SADOWSKI,
Sektion Mathe-
Beiträge zur Numerischen Mathematik 3 (1975), 5 7 - 7 9
Zur numerischen Behandlung nichtlinearer Eigenwertaufgaben abgeschlossener Operatoren R E I N H A R D LEHMANN 1 )
0.
Einführung
In der vorliegenden Arbeit wird ein iteratives Verfahren zur näherungsweisen Bestimmung eines einfachen und isolierten Eigenwertes (EW) und der zugehörigen Eigenvektoren (EV) einer nichtlinearen Eigenwertaufgabe (EWA) bzw. der entsprechenden adjungierten Aufgabe beschrieben. Die Aufgabe ist nichtlinear im Eigenwertparameter, d. h., sie läßt sich in der Form Lß)
X =
( V -
m
+
-M™"1
+
••• +
+
Lm)
X
= 0
(1)
sehreiben, wobei Lk (0 sS k si m) abgeschlossene lineare Operatoren in einem Hilbertraum H sind, die komplexe Zahl X der Eigenwertparameter und x € H ist. Die Menge L der Operatoren L(X), A £ C (Menge der komplexen Zahlen), heißt (polynomiales) Operatorbüschel; eine komplexe Zahl A, f ü r die die Gleichung (1) nichttrivial lösbar ist, heißt EW des Büschels L, eine zugehörige nichttriviale Lösung qj EV zum EW A: L(A)
{Lm) C1 n 2(Li) gilt.) Die Operatoren L0 und Lm mögen Inverse besitzen, die «=i auf ganz H definiert sind; dann sind L 0 _ 1 und Lm~ x bekanntlich beschränkt, o. B. d. A. sei l|¿o_1ll = 1- Dann ist das Operatorbüschel L, m L(y.) = J A-'-X,, A € C, k=0 eine Schar linearer Operatoren mit dem Definitionsgebiet 3>{L). Da 2 { L ) dicht in H ist, existieren die adjungierten Operatoren Lk* (0 sS k 5g m); es werde vorausgesetzt, daß ¿2(Lk*) = £&(Lj*) = : (TA) = {x 6 H: Ax € ¿2>(T)} abgeschlossen. Für x„ € 3>(TA) gelte xn^x und (TA) xn->y. Wegen xn 6 &(TA) ist Ax„ Ax, also Axn6
3(T),
Ax„->Ax,
T(Ax„)-+y.
Wegen der Abgeschlossenheit von T ist dann Ax (L &(T), d.h. x € 2$(TA) und TAx == y. Zum Beweis der Behauptung b) genügt es zu zeigen, daß die Gleichung Af = g für jedes g 6 H eine eindeutig bestimmte Lösung / besitzt, die bezüglich g beschränkt ist. Durch komponentenweises Aufschreiben der Gleichung Af — g erhält man ein Gleichungssystem, aus dem sich die Komponenten des Vektors / eindeutig bestimmen lassen. Die Beschränktheit von / bezüglich g ergibt sich unter Benutzung der eben gezeigten Bemerkung. c) Hier ist zu zeigen, daß für /„ £ 3) gilt: /„-•/,
Bfn
f e @>, Bf =
g.
Das folgt aber leicht durch komponentenweises Aufschreiben dieser Implikation, q. e. d. B e m e r k u n g . E s läßt sich zeigen, daß A1 durch die zu A inverse Matrix gegeben ist. Der Operator L = BA1 hat die Form der Begleitmatrix des Polynoms L(X): -¿iAr1
/
o
0
. ...
0
0
—L L ~
0
I
0
... .
0
0
2 (i 1
L
= -Lm.xL^
0
0
0
.. .
0
I
~LmL^
0
0
0
.. .
0
0
mxm
er ist abgeschlossen und auf ganz II definiert, also beschränkt. Für / = {Xi\™=1 € II ist Lf = { -
kWl
L
+ *i,l}Z-l
1 = 0).
L e m m a 2. a) Die Gleichung (.L - ).I) f = d
(2)
(I identischer Operator in II) besitzt für ein festes X zu jeder rechten Seite d € H eine eindeutig bestimmte Lösung /, wenn die Gleichung L(l) x = y
(3)
für das gleiche X zu jeder rechten Seite y € H eine eindeutig bestimmte Lösung x £ @(L) besitzt.
Numerische Behandlung nichtlinearer Eigenwertaufgaben
61
b) Die Gleichung (L-U)f
= 0
(4)
besitzt genau dann für ein festes k eine nichttriviale Lösung / , wenn die homogene Gleichung L{X) x = 0
(5)
für das gleiche A eine nichttriviale Lösung x € ¿¿{L) besitzt. c) Analoge Aussagen gelten hinsichtlich der adjungierten Gleichungen. Beweis. Schreibt man sich die Gleichung (2) komponentenweise auf (mit/= {«{L) ist dann die Gleichung m—1 t=o über die Beziehung % =% S 2Vyk-r-i + kS 1^-'LrX r=0
r=0
(1 ^ k ^ m)
(8)
der Gleichung (2) zugeordnet. Für die adjungierten Gleichungen erhält man ähnliche Beziehungen. Der Operator L* ist durch L* = (BA- 1 )* 3 A*XB* = L mit SiA^B*) — 3* gegeben, wobei als Produkt von m Exemplaren der Menge Q{L*) genommen wird. Auf 3)* stimmen L* und L überein; dabei ist L die Matrix f-L^Lf I L= | 0 0
-A,*-1^* 0 I 0
••• ... ... ...
~L^L 0 0 0
n
62
REINHARD LEHMANN
Für g = (Zi}r=i e 2)* ist
Die Gleichung (L* - U ) g = d mit d
(2*)
- {»/¿IfLi liefert das System —£L0*~lLi*Zi ¡=i
1 | > (i = 1 , . . . , m — 1). j
— Az, = yx, — Azi+i =
(6*)
Aus den letzten m — 1 Gleichungen von (6*) lassen sich z „ , _ j , . . . , Zi sukzessive in Abhängigkeit von z m bestimmen: m—i z{ = A"-«z m + 2 "
(1 ^ » ^ m).
(8')
5 = 1
Auf zf läßt sich, wie man leicht nachprüft, der Operator ¿ 0 * _ 1 X f * anwenden, m— i 5= 1
Diese Ausdrücke werden über i summiert und in die erste Gleichung von (6*) eingesetzt, für zl wird der Ausdruck (8') eingesetzt und geeignet zusammengefaßt. Dann erhält man m m—i » = 0
5— 1
Auf diese Gleichung kann der OperatorL 0 * angewendet werden; dann ist der Gleichung (2*) über die Beziehung m—i Zi = Xm-h + £ l ' ^ y u ,
(1 ^ i ^ m )
(8*)
5 = 1
die Gleichung L*(X) z = - zm m—i j = 0
5=
H*)
1
zugeordnet. Umgekehrt läßt sich jeder Gleichung L{).) x = y
{xi
®(L))
(9)
eine in A lineare Gleichung (2) zuordnen, man braucht nur einen Vektor d = {0, 0 , . . . , 0, —y\ zu wählen, mit (8) wird der Vektor / aufgebaut. Analog wird der Gleichung L*(X) Z = IJ ( z £ 3{L*))
(9*)
Numerische Behandlung nichtlinearer Eigenwertaufgaben
63
eine in ?. lineare Gleichung (2*) zugeordnet, hier wählt man d = {—L0*-1y, 0 , . . . , 0), mit (8*) wird der Vektor g aufgebaut. Zum Beweis der Behauptung a) sei die Gleichung (9) bei einem festen A für jede rechte Seite y £ H eindeutig lösbar. Für beliebiges d — \yi)'"=i € H ist eine rechte Seite der Gleichung (7) bestimmt, für diese rechte Seite besitzt die Gleichung (9) die eindeutig bestimmte Lösung x € 2'{L), zu der mit Hilfe der Beziehung (8) ein Vektor / == {xk}™=l 6 S> konstruiert wird, der die eindeutig bestimmte Lösung der Gleichung (2) mit der gegebenen rechten Seite d ist. Daß die umgekehrte Behauptung nicht zu gelten braucht, d. h., daß (bei festem /) aus der eindeutigen Lösbarkeit der Gleichung (2) für jede rechte Seite d € H auch die eindeutige Lösbarkeit der Gleichung (9) für jede rechte Seite y € H folgt, ergibt sich daraus, daß für y 6 H die rechte Seite d der Gleichung (2) nicht eindeutig bestimmt ist. Alle Vektoren d = {j/ilTLi 6 H, für die ym + iym-1 H
b
= y
gilt, liefern eine eindeutig bestimmte Lösung fd = der Gleichung (2), für die das Element xd = Llf1x1(d> Lösung der Gleichung (9) ist. Damit besitzt die Gleichung (9) für y 6 H im allgemeinen eine Mannigfaltigkeit xd von Lösungen. Zu b). Es sei die homogene Gleichung (4) nichttrivial lösbar für ein festes /, die Lösung sei / = =}= 0. Die rechte Seite d — 0 erzeugt in (7) eine rechte Seite y = 0, und die Gleichung (5) besitzt nach Formel (8) die Lösung x = L^x^. Diese Lösung ist nichttrivial, da für x = 0 auch xk = 0 (1 k m) (entsprechend (8)) gelten würde. Es sei umgekehrt die Gleichung (5) für ein festes a nichttrivial lösbar; x sei diese Lösung. Die rechte Seite y = 0 von (5) wird auch vom Vektor d = 0 erzeugt, so daß die homogene Gleichung (4) mit dem Vektor (vgl. (8))
nichttrivial lösbar ist. Der Beweis für c) verläuft analog, q. e. d. Aus den Linearisierungsformeln (6) bis (8) und dem Lemma 2 folgt S a t z 1. Die Resolventenmenge des Büschels L ist in der Resolventenmenge des Operators L enthalten. Jeder isolierte und einfache EW des Büschels ist zugleich isolierter und einfacher EW des Operators L und umgekehrt. Zusammenfassend kann also gesagt werden, daß die Bestimmung des einfachen und isolierten EW A des Büschels L und des zugehörigen EV
)r=i
(10)
64
3.
REINHARD LEHMANN
Die PSI für den Operator L
Auf die Aufgabe (10) wird nun die PSI angewendet, wie sie bei F . K T J H N E B T [8, 9] beschrieben ist. Es wird zunächst das Verfahren PSI für L dargelegt, ohne auf die spezielle Struktur von L einzugehen. Die EV / und g von L bzw. L* zu A bzw. A werden als normiert vorausgesetzt. Für / und g seien bereits ausreichend gute (normierte) Näherungen / 0 € H und g0 € bekannt. Unter der Voraussetzung, daß / und g nicht orthogonal zueinander sind, kann man annehmen, daß auch y0= (g0! = l(/o> 0 ist. Dann ist ;.0 = — (L/0, g0) eine im allgemeinen ausreichend gute Näherung für A. Die Defekte Qo s 0 = L / 0 - ; 0 / 0 , t0 = L*g0-l0g0 (11) geben Aufschluß über die Güte der Näherungen / 0 und g0. Die neuen Näherungen j\ und gl für / bzw. g ergeben sich zu f1 ~ Ii
—
ll/o - Moll
~7,>
(12)
ll9o - »oll
wobei die Korrekturen u0 und v0 Lösungen der Systeme Lu — -i- (u, t0) /„ — ).0u = s 0 , («,/.) = o J
(13)
bzw. L*v - ^ {v, s0) g0 - J0v = t 0 , Qo {v,fifo)= 0
(13*)
sind, d. h., sie lassen sich in der Form u0 = P 0 s 0 ,
v0 = Q0*t0
(14)
mit linearen Operatoren P 0 und Q0* darstellen. Wegen (/, g) -1= 0 ist C — A Polstelle einfacher Ordnung der Resolvente R(£) des Operators L, d. h., It{£) gestattet in einer gewissen Umgebung des Punktes A der £-Ebene die Darstellung m) = r + G(f) t - A
(15)
mit einem linearen Operator F und einer in dieser Umgebung analytischen Operatorfunktion G(C). Die Näherungen / 0 , g0 seien so gewählt, daß die abgeschlossene Kreisscheibe um A mit dem Radius r = —- (l + Vi - y a ) max {||s0|[, ||t0||} y
Numerische Behandlung nichtlinearer Eigenwertaufgaben
65
(y = |(/, g)\) mit Ausnahme von A gänzlich in der Resolventenmenge des Operators L liegt. Es sei 7 1 = max ||G(£)||. Unter den Voraussetzungen |C-/l|=r
max \A -
s.oll, lliolll iS ^ min { Aol ^
-
-
2
^
i1
+
V l - y
2
V
l/l - y )
)
2
max
4V'2(l+yi -y»).
(16)
{||s0|| ,||t0|[
gelten die folgenden Abschätzungen: a) b)
II9 ~ »ollj yo
Y 14
= led = l(/o, 3o)l = ^ y > (17)
c)
\A-U
d)
ll-Poll
fo) -
(»?> ffo) Wßo-1
mit ß0'= ß ' • Mit w0 = ß02g0y)0 — ^-oßo'ao ist genau dann (v, g0) = 0 , wenn (rj, w0) = 0 ist. Damit besteht für die Verbesserung r\ das Gleichungssystem L*{h) v -
z~ (v>ff«) L*'M
eo
y>o =
o>
T
(22*)
(v> wo) = 0-
Hinsichtlich der Lösbarkeit dieses Systems gilt die gleiche Bemerkung wie beim System (22); die Lösung t]0 dieses Systems ist eine Verbesserung der Näherung y>0 für ip, d. h., = ipQ — r]g ist eine neue Näherung für den E V ip des adjungierten Büschels. Damit ist der erste Schritt eines iterativen Verfahrens definiert, das mit L P S I (linearisierter P S I ) bezeichnet werden soll: Ausgehend von der Situation {A0;9?0, y>0] wird eine einfache Nullstelle ?.0 des Polynoms b0(A) = [L(a) ffo)(m - ») I 0 r o _ i "Vo eo
(1 Sä ¿
(23*)
werden die verbesserten Näherungen j _
/o — Up ll/o — «oll'
^
= 1
™)>
9o — Vq llffo
®oll
LinH
konstruiert, mit denen die PSI für weitergeführt werden kann. Die Konvergenz dieses Verfahrens ist von der Ordnung 3 (vgl. [9]), es wird hier nicht weiter untersucht. Der Beweis der Konvergenz des in Abschnitt 4 beschriebenen Verfahrens wird in zWei Etappen geführt. Zunächst wird gezeigt, daß sich die Norm der Defekte verkleinert. D a n n wird bewiesen, daß {991,^1} eine neue Ausgangssituation f ü r das Verfahren darstellt. Die Konvergenzuntersuchungen unterstreichen den lokalen Charakter des Verfahrens LPSI, d. h., die Defektnormen verkleinern sich im allgemeinen nur bei genügend guten Ausgangsnäherungen. Die Güte der Ausgangsnäherungen wird z. B. durch die Bedingungen (19) bestimmt. Die darin enthaltene Konstante r, die zum Operator L gehört, soll nun mit Informationen vom Büschel L abgeschätzt werden. E s bezeichne ß(C) f ü r 'Q € o(L) die Resolvente des Operators L in II; dann ist (vgl. [10]) R(£) = PRIX) Q (C€e (L)) Resolvente des Büschels L, d . h . , es gelten die Gleichungen R(C) Hg) c L('Q) R{C) = / (; € q(L)). Aus (15) erhält man dann Rg) = g-A)-^F
+ G{0
mit F = PFQ, G(0 = PG(0Q-
Es sei G =
(*) max
|¡(?(C)||, dann ist G ^
f.
\C-A\=t
Hat man daher eine Zerlegung (c) der Resolvente R(C) für das Büschel L, so gilt r ^ G =
max ||(?(OI|. |{-/l|=r
Verkleinerung der Defekte Die Näherung ?.0 für A wurde als einfache Nullstelle des Polynoms &0 W = {LW 'Po> Wo) berechnet, ist einfache Nullstelle des Polynoms b^).) = (L{k) q>u ip^. Bei hinreichend guten Startnäherungen werden die Polynome b0 und b1 benachbart sein, so daß es sinnvoll erscheint, die Nullstelle von &i(/) mit Hilfe des Newtonschen Verfahrens beginnend mit X 0 zu bestimmen. Dann gilt (vgl. L . W . K A N T O R O W I T S C H und G. P. A K I L O W [6], Satz 6 (l.XVIII)): L e m m a 4. Voraussetzungen (S = {A € C : \A — X\ sS r) = $(/l, r)): (L'(Ä) ) 1. a) K1 sup max < + 00, M ® T ) HS b)
K.=
sup g),Y>=t=0
max
(L"(k) ) [L'ß,) cp, y>)