199 94 68MB
German Pages 302 [301] Year 1972
A. A. K O R B U T • J . J.
DISKRETE
FINKELSTEIN
OPTIMIERUNG
E L E K T R O N I S C H E S R E C H N E N UND R E G E L N Herausgegeben
von
Prof. Dr. H A N S F R Ü H A U F • Prof. Dr. W I L H E L M K Ä M M E R E R Prof. Dr. K U R T S C H R Ö D E R • Prof. Dr. H O R S T VÖLZ Prof. Dr. H E L M U T T H I E L E
Sonderband
14
DISKRETE OPTIMIERUNG von
A. A. K O R B U T • J . J. F I N K E L S T E I N
A K A D
E MIE-YE
R L A G
19 7 1
•
B E R L I N
A. A. K O R B U T • J. J . F I N K E L S T E I N
DISKRETE OPTIMIERUNG
In deutscher Sprache herausgegeben von
Dr. Horst Hollatz
Mit 27 Abbildungen
und 46
A K A D E M I E - V E R L A G 19 7 1
Tabellen
.
B E R L I N
A . A . K o p S y T h K ) . K ) . (DHHKeJiburreftH J^HCKpeTHoe nporpaMMnpoBaHHe
Erschienen bei Nauka, Moskau Deutsche Übersetzung: Dr. H o r s t
Weinert
E r s c h i e n e n i m A k a d e m i e - V e r l a g G m b H , 109 B e r l i n , L e i p z i g e r S t r . 3 — 4 C o p y r i g h t 1971 b y A k a d e m i e - V e r l a g G m b H L i z e n z n u m m e r 202 .
100/405/71
G e s a m t h e r s t e l l u n g : V E B D r u c k e r e i „ T h o m a s M ü n t z e r " , 582 B a d B e s t e l l n u m m e r : 5856 • E S 20 K 3/19 B 4 E D V - N r . : 7 6 1 4456
Langensalza
V O R W O R T
Eine neue Richtung der Wissenschaft kann nur dann Bedeutung gewinnen, wenn sie auf herangereifte Fragen eingeht und eine hinreichend allgemeine Theorie darstellt, die man ohne wesentliche Veränderungen auf Probleme verschiedenen Charakters anwenden kann. Von diesem Gesichtspunkt aus kann der Gegenstand der Monographie von A. A. K O B B T J T und J u . J u . F I N K E L ' S T E I N „Diskrete Optimierung" mit vollem Recht eine Richtung in der mathematischen Optimierung genannt werden. Man kann eine große Anzahl der verschiedensten Probleme aus der Wirtschaftsplanung, der Leitung von Unternehmen, der industriellen Organisation und technischen Projektierung aufzählen, die formal auf die Auswahl von „optimalen" Parameterwerten aus einer diskreten Gesamtheit gegebener Größen führen (die außerdem gewissen fixierten Bedingungen genügen müssen). Die Liste der Disziplinen, für die Extremalprobleme in diskreten Variablen mit Nebenbedingungen von Interesse sind, könnte bedeutend erweitert werden. Man muß ihnen kombinatorische Extremalprobleme hinzufügen, denen man in verschiedenen Disziplinen der diskreten Mathematik begegnet, ferner spieltheoretische Probleme, die mit dem Studium von Konfliktsituationen und der Organisation im Militärwesen zusammenhängen, Syntheseprobleme f ü r automatische Steuerungsverfahren und Probleme der Bionik, einer Grenzdisziplin von Biologie und Technik. Die formalen Modelle, die allen diesen im Inhalt verschiedenen Problemen entsprechen, unterscheiden sich wenig voneinander. Es ist natürlich, daß auch die Mehrzahl der mathematischen Methoden zur Analyse solcher Modelle nicht mit den diese erzeugenden konkreten Problemstellungen zusammenhängen. Die Probleme und Methoden der diskreten Optimierung haben zahlreiche Autoren. Die Theorie wird meist ganzzahlige Optimierung genannt. Offensichtlich ist das mit dem großen Eindruck verbunden, den eine fundamentale Arbeit von G O M O E Y gemacht hat. In der Literatur begegnen einem allerdings auch andere Termini: diskrete Optimierung und seltener kombinatorische oder diophantische Optimierung. Die Autoren bevorzugten eine weniger verbreitete, aber dem Wesen der Problematik offenbar entsprechendere Bezeichnung der Monographie: „Diskrete Optimierung". Es können nämlich nicht alle diskreten Probleme auf die endlichdimensionale ganzzahlige Optimierung zurückgeführt werden. Es gibt auch
VI
Vorwort
diskrete Probleme, für die der Übergang zur ganzzahligen linearen Optimierung nicht der kürzeste Lösungsweg ist (z.B. das wohlbekannte Rundreiseproblem). Ungeachtet der scheinbaren Einfachheit der Problemstellung bei der diskreten Optimierung können die mathematischen Schwierigkeiten bei ihrer Lösung ziemlich bedeutend werden. Um eine Vorstellung von der Kompliziertheit der theoretischen und numerischen Probleme bei der diskreten Optimierung zu geben, genügt es, darauf hinzuweisen, daß der sog. „Große FERMATsche Satz" als folgendes ganzzahliges Optimierungsproblem formuliert werden kann: (x*< + — x1 ¡> 1 , x2 1, X) ganzzahlig,
min , £3 S; 1 , x4 ^ 3 , j = 1, 2, 3, 4 .
Jede (diskrete) Optimierungsmethode, die dieses Problem in überschaubarer Zeit zu lösen gestattet, wird eine konstruktive Beweismethode für den FERMATschen Satz sein, falls der minimale Wert der Zielfunktion des Problems positiv wird, oder die F E R M A T s c h e Behauptung widerlegen, falls die Zielfunktion für die Lösungen des Problems Null wird. Die Methoden der diskreten Optimierung sind nicht so stark ausgearbeitet wie die der linearen und konvexen Optimierung. Jedoch vervollständigt sich die Theorie ständig, und ihre Methoden entwickeln sich intensiv. I n d e n verschiedenen Zeitschriften, Sammelbänden und Firmenberichten wächst die Zahl der Publikationen über diskrete Optimierung. Mathematiker und Spezialisten für die Grundlagen mathematischer Steuerungsmethoden zeigen ein beachtliches Interesse an diesen Publikationen. Inzwischen wird es immer schwerer, sich im anwachsenden Strom der Literatur zu orientieren. Das Bedürfnis nach einer einführenden Darlegung der Grundlagenfragen in der diskreten Optimierung wird durch die in den letzten Jahren publizierten Übersichten und die einzelnen Kapitel in Büchern, die sich mit einer weiteren Thematik befassen, völlig unzureichend befriedigt. Die dem Leser vorgelegte Monographie „Diskrete Optimierung" von A. A. KORBUT (Leningrad) und J U . JXJ. F I N K E L ' S T E I N (Moskau) ist im Bereich der Sowjetunion und offensichtlich auch in der internationalen mathematischen Literatur die erste einführende und hinreichend vollständige Darlegung des Gegenstandes. Die eigenen wissenschaftlichen Interessen der Autoren, die im Verlaufe einer Reihe von Jahren mit den Problemen und Methoden der diskreten Optimierung zusammenhingen (sie können auf zwei Übersichtsartikel und eine Menge Originalarbeiten auf diesem Gebiet hinweisen), hatten einen bemerkenswerten Einfluß auf Inhalt und Struktur der Monographie. Das in den Periodica oder den Übersichten publizierte Material wurde neu klassifiziert und in Übereinstimmung mit den allgemeinen Absichten der Autoren originell dargelegt. Die Autoren haben ausführliche Beweise derjenigen Behauptungen angeführt, die in den Originalpublikationen häufig ziemlich lakonisch und unvollständig dargelegt worden sind.
Vorwort
VII
Die Autoren haben persönlich an der Stellung und Lösung vieler praktischer Probleme in der diskreten Optimierung mitgewirkt. Die durch sie gewonnenen Erfahrungen bei der numerischen Lösung der Probleme zeigten sich in Form einer Darlegung und Akzentuierung der methodologischen und numerischen Schwierigkeiten, denen der Leser bei praktischer Anwendung der Verfahren aus der Monographie begegnen kann. Die Darlegung der Materialien wurde f ü r Leser mit verschiedenem Niveau und verschiedenartigen Anforderungen berechnet, begonnen mit Personen, die nur eine einführende Darstellung des Gegenstandes erhalten möchten, und endend mit Spezialisten in der diskreten Optimierung. Erfahrung und Wissen, von den Autoren in einer Reihe von Jahren der Arbeit an der diskreten Optimierung angehäuft, und die Ergebnisse, die von ihnen auf diesem Gebiet erhalten wurden, gestatteten ihnen, ein originelles und sicher nützliches Buch zu schreiben. Man kann erwarten, daß die Monographie von A. A. K O R B U T und J U . J U . F I N K E L ' S T E I N mit Genugtuung bei Mathematikern, Ökonomen, Ingenieuren, wissenschaftlichen Mitarbeitern, Aspiranten und Studenten vieler Spezialrichtungen aufgenommen werden wird, die sich mit numerischen Methoden, der Rechentechnik und verschiedenen Steuerungs- und Regelungsproblemen beschäftigen. Mai 1968
D. Jüdin
VORWORT DER
AUTOREN
Gegenstand des vorliegenden Buches ist die Darstellung mathematischer Modelle und numerischer Methoden der diskreten Optimierung sowie gewisser mit ihnen zusammenhängender theoretischer Fragen. Die diskrete Optimierung ist einer der jüngsten, perspektivenreichsten und sich stürmisch entwickelnden Zweige der mathematischen Optimierung. I n den letzten Jahren tauchten plötzlich zahlreiche und verschiedenartige Publikationen in dieser Richtung auf. Auch der Kreis der Spezialisten, die sich mit der praktischen Grundlegung diskreter Optimierungsmodelle beschäftigen, erweiterte sich wesentlich. Die Ansprüche dieses Auditoriums wurden durch die existierenden Übersichtsartikel und die einzelnen Kapitel in Monographien über mathematische Optimierung nur teilweise erfüllt. Noch schwieriger ist es, sich beim derzeitigen Zustand des Gegenstandes in den einzelnen (und oft noch schwer zugänglichen) Publikationsorganen zu orientieren. Daher unternahmen die Autoren den Versuch, eine einführende Darlegung der Grundlagen auf dem Gebiet der diskreten Optimierung zu geben. Über den Erfolg des Versuches wird der Leser zu entscheiden haben. Das Buch besteht aus fünf Teilen. Die Teile werden in Kapitel unterteilt, die Kapitel in Paragraphen, und die Paragraphen zerfallen gewöhnlich in Punkte. Teil I hat einführenden Charakter, darin werden die allgemeinen Kennzeichen des Gegenstandes der diskreten Optimierung (einschließlich der Rechenmethoden) angegeben und die typischen mathematischen Modelle formuliert. Die Teile II, I I I und IV befassen sich mit numerischen Methoden. Darin werden Schnittmethoden, kombinatorische Methoden und Näherungsmethoden betrachtet. Im Teil V sind Fragen dargelegt, die theoretisches Interesse beanspruchen, aber nicht unmittelbar auf numerische Methoden führen (die Charakterisierung ganzzahliger Polyeder, die Rolle dualer Abschätzungen in ganzzahligen linearen Problemen). Ein Teil des Materials (zum Beispiel 12.8.1., der Prüfalgorithmus von T-Matrizen auf Unimodularität in 17.) wird hier erstmals publiziert. Das dem Buch beigefügte Literaturverzeichnis beansprucht durchaus nicht, vollständig zu sein, und beschränkt sich im Prinzip auf Quellenzitate. Ein ausführlicheres Literaturverzeichnis (225 Titel) und auch einige ergänzende Bezugsquellen kann man im Übersichtsartikel der Autoren [93] finden.
X
Vorwort
Für den Leser ist es erforderlich, die Grundbegriffe der mathematischen Optimierung zu beherrschen. Die nötigen Grundlagen aus der linearen Optimierung (die systematisch im Teil I I , aber auch in 17. benutzt werden), sind in 4. zusammengestellt worden. Die Autoren danken herzlich Herrn Professor D. B. JTJDIN, der die nicht leichte Aufgabe der Redaktion dieses Buches übernommen hat. April 1968
Die
Autoren
INHALTSVERZEICHNIS
Teil I: G e g e n s t a n d u n d M o d e l l e d e r g a n z z a h l i g e n O p t i m i e r u n g 1.
Einführung
1.1. Gegenstand der diskreten Optimierung
1 1 1
1.2. Klassifizierung der mathematischen Modelle
4
1.3. Klassifizierung angewandter Probleme
7
1.4. Klassifizierung numerischer Methoden
8
2.
Mathematische Modelle f ü r die diskrete Optimierung
12
2.1. Das Transportproblem
12
2.2. Probleme mit Ganzzahligkeitsforderungen
15
2.3. Probleme vom kombinatorischen Typ
18
2.4. Probleme über nichtkonvexen und unzusammenhängenden Bereichen
24
2.5. Probleme m i t unstetiger Zielfunktion
31
2.6. Einige Multi-Extremalprobleme
33
3.
38
Angewandte diskrete Optimierungsprobleme
3.1. Transportplanungsprobleme
38
3.2. Planungs- u n d Spezialisierungsprobleme
44
3.3. Logische Projektierungsprobleme
52
3.4. Probleme der Ablaufplanung
59
3.5. Andere angewandte Probleme
62
Teil I I : S c h n i t t m e t h o d e n 4.
Einige vorbereitende Einführungen
67 68
4.1. Grundbegriff der linearen Optimierung
68
4.2. Konvexe Mengen
71
4.3. Konvexe polyedrische Mengen und lineare Optimierung
72
4.4. Lexikographie
75
4.5. Simplextableaus, Lösungen und Pseudolösungen
77
4.6. Die Methode zur sukzessiven Verbesserung der Lösung (priniale Simplexmethode)
79
XII
Inhaltsverzeichnis
4.7. Die duale Simplexmethode
80
4.8. Das ganzzahlige lineare Optimierungsproblem
82
5.
83
Die Idee der Schnittmethoden.
Der erste Algorithmus von GOMOBY
5.1. Die Idee der Schnittmethoden
83
5.2. Der erste Algorithmus von GOMORY
90
5.3. Endlichkeitsbeweis f ü r den ersten Algorithmus von GOMORY
98
6.
Der zweite Algorithmus von GOMORY und andere Verallgemeinerungen des ersten Algorithmus 100
6.1. Das logische Schema f ü r den ersten Algorithmus von GOMORY
. . . 101
6.2. Der zweite Algorithmus von GOMORY
103
6 . 3 . D e r A l g o r i t h m u s v o n DALTON u n d L L E W E L L Y K
109
6.4. Der B-Algorithmus zur Lösung ganzzahliger linearer Optimierungsprobleme mit BooLEschen Variablen 114 6.5. D e r A l g o r i t h m u s v o n DANTZIG
7.
117
Der dritte Algorithmus von GOMORY und seine Modifikation
. . . .
121
7.1. Über den Einfluß von Rundungsfehlern. Die Idee des dritten Algor i t h m u s v o n GOMORY
7.2. Konstruktion eines ganzzahligen Schnittes.
122
Der dritte Algorithmus
v o n GOMORY
124
7.3. Endlichkeitsbeweis f ü r den dritten Algorithmus von GOMORY . . . .
134
7.4. Eine Modifikation des dritten Algorithmus von GOMORY
135
8.
Zur Lösung ganzzahliger linearer Optimierungsprobleme mit beliebigen Zusatzbedingungen 137
8.1. Problemstellung und Idee der Lösungsmethode
137
8.2. Die Konstruktion von Schnitten f ü r konvexe u n d einige nichtkonvexe Probleme 139 8.3. Die Anwendung des dritten Algorithmus von GOMORY 9.
Die Effektivität der Algorithmen f ü r die Schnittmethoden
9.1. Das Effektivitätsproblem
142 147 147
9.2. Ergebnisse von Rechenexperimenten
148
9.3. Einige Ausblicke
155
Teil I I I : K o m b i n a t o r i s c h e M e t h o d e n 10.
Die Branch-and-Bound-Methode
159 160
10.1. Die Idee der Branch-and-Bound-Methode
160
1 0 . 2 . D i e M e t h o d e v o n L A N D u n d DOIG
164
10.3. D e r A l g o r i t h m u s v o n LITTLE, MURTY, SWEENEY u n d KABEL f ü r d a s
Rundreiseproblem
168
Inhaltsverzeichnis 11.
XIII
Der additive Algorithmus
173
11.1. Problemstellung u n d Idee der Methode 11.2. Das allgemeine Schema der Methode
173 • . . . . 176
11.3. Die Beschreibung des Algorithmus
177
11.4. Beispiel und abschließende Bemerkungen
183
12.
189
Die Anwendung der dynamischen Optimierung
12.1. Das verallgemeinerte Tornisterproblem
189
12.2. Das Rundreiseproblem
194
12.3. E i n Problem aus der Ablaufplanung f ü r zwei Maschinen (Algorithmus
13.
v o n JOHNSON)
199
Ein lokaler Zugang zu diskreten Optimierungsproblemen
206
13.1. Vorbereitende Betrachtungen
207
13.2. Der Algorithmus
210
14.
.
Einige andere Methoden
214
1 4 . 1 . D i e M e t h o d e v o n F A H R E u n d MALGRANGE
215
14.2. Die Methode der sukzessiven Berechnung
218
Teil IV: N ä h e r u n g s m e t h o d e n
221
15. Stoel,astische Suchverfahren 15.1. Das stochastische Suchen
221 221
15.2. Stochastisches Suchen mit lokaler Optimierung
223
16.
229
Deterministische Methoden
16.1. Näherungsmethoden f ü r das Transportproblem mit Fixkosten
. . . 229
16.2. Einige Verallgemeinerungen
239
Teil V: E i n i g e t h e o r e t i s c h e P r ä g e n
245
17.
245
Ganzzahlige polyedrische Mengen
17.1. Eine Bedingung f ü r die Ganzzahligkeit polyedrischer Mengen . . . . 245 17.2. Aufgaben vom Typus des Transportproblems
250
18.
261
Ganzzahlige lineare Optimierung und Schattenpreise
18.1. Problemstellung und einige vorbereitende Einführungen
261
1 8 . 2 . D e r S a t z v o n GOMORY u n d BAUMOL
264
Literaturverzeichnis
275
Namenverzeichnis
283
Sachverzeichnis
285
TEIL I
GEGENSTAND UND MODELLE DER DISKRETEN OPTIMIERUNG Dieser Teil spielt die Rolle einer ausführlichen Einleitung. In 1. werden allgemeine Kennzeichen für den Gegenstand der diskreten Optimierung gegeben und die Ideen erläutert, die den wichtigsten numerischen Methoden dieser Disziplin zugrunde liegen. Es ergibt sich eine Klassifikation der mathematischen Modelle und der angewandten Probleme aus der diskreten Optimierung. Auf Grund dieser Klassifikation werden in 2. und 3. mathematische Formulierungen der typischsten Probleme eingeführt. Derjenige Leser, dessen Ziel es nicht ist, die diskreten Optimierungsmethoden zu beherrschen, sondern der sich nur eine erste, einführende Übersicht über den Gegenstand verschaffen und sich die Technik aneignen möchte, kann sich auf das Studium nur dieses Teils beschränken.
1. Einführung 1.1. Gegenstand der diskreten Optimierung 1.1.1. Dieses Buch befaßt sich mit diskreten Problemen aus der mathematischen Optimierung. Die am meisten studierten Probleme dieser Klasse sind die ganzzahligen, linearen Optimierungsprobleme, d. h. Probleme aus der linearen Optimierung, in denen alle Variablen (oder einige) ganzzahlig sein müssen. Beim ersten der beiden Fälle spricht man gewöhnlich von rein ganzzahligen, im zweiten von gemischt oder teilweise ganzzahligen Problemen. Selbstverständlich k a n n m a n analog ganzzahlige (gemischt-ganzzahlige) Varianten auch f ü r allgemeinere Probleme aus der Optimierung definieren. Man k a n n zum Beispiel von konvexen ganzzahligen Optimierungsproblemen usw. sprechen. Es ist üblich, von den ganzzahligen Problemen die sogenannten diskreten mathematischen Optimierungsprobleme zu unterscheiden, bei denen als Bereich f ü r die zulässige Änderung der Variablen nicht die Menge der ganzen, nichtnegativen Zahlen, sondern irgendeine gegebene endliche Menge fungiert. Wie weiter unten gezeigt werden wird (s. 2.), können solche Probleme (auf endlichen Mengen) formal in ganzzahlige übergeführt werden. Die vor weniger als 15 J a h r e n begonnenen Untersuchungen in dieser Richtung sind gegenwärtig soweit vorangekommen, daß wir jetzt schon mit vollem Recht von einem selbständigen Teil in der mathematischen Optimierung, der diskreten Optimierung, sprechen können. I n der Literatur wird auch der Terminus „ganzzahlige Optimierung" und seltener „kombinatorische Optimierung" verwendet.
2
1. Einführung
Allerdings scheint es uns, daß der Terminus „diskrete Optimierung" am vollkommensten der Spezifik der Fragen entspricht, wenn auch bei seiner Verwendung eine gewisse Verwechslungsgefahr von diskreter Optimierung und etwa diskreter Analysis auftritt. Nichtsdestoweniger werden wir weiter sehen, daß der Zusammenhang dieser beiden Disziplinen nicht nur terminologischer Art ist. 1.1.2. Wir beschreiben nun den Gegenstand in möglichst formalen Termini. Unter einem allgemeinen mathematischen Optimierungsproblem werden wir wie gewöhnlich die Aufgabe verstehen, eine skalare Funktion f{xi>
• • • s ^n)
(1.1)
unter den Bedingungen fofo, x2,...,
i
•
9m{xi)
xn)
= 03
(1.2)
= ^
und X = (xlt x2, . . . , xn) 6 D .
(1.3)
zu maximieren. Hierbei ist D irgendein Gebiet des w-dimensionalen euklidischen Raumes En (in der überwältigenden Mehrzahl der Fälle wird als D der nichtnegative Orthant vom R a u m R n betrachtet, so daß sich (1.3) einfach als Nichtnegativitätsbedingung für alle Variablen darstellt). Das durch die Bedingungen (1.2) und (1.3) definierte Gebiet werden wir mit G bezeichnen. Um die Stellung der diskreten Probleme unter den mathematischen Optimierungsproblemen möglichst genau festzulegen, machen wir hier eine kleine Abweichung. Unter den Problemen (1.1)—(1.3) kann man eine Problemklasse aussondern, die wir regulär nennen wollen. Diese Probleme werden durch folgende Bedingungen charakterisiert. 1. F ü r jeden P u n k t l e G kann man in irgendeiner Weise den Begriff einer nichtleeren Umgebung Ox c G definieren. 2. Man k a n n effektive verifizierbare notwendige und hinreichende Bedingungen f ü r eine lokale Optimalität angeben. Auf Grund dieser Bedingungen k a n n ein lokales Optimum der Zielfunktion (1.1) über der Menge G mit einem endlichen (oder konvergierenden unendlichen) Verfahren gefunden werden. 3. Jedes lokale Optimum der Zielfunktion ist auch globales Optimum. Zu regulären Problemen gehören z. B. konvexe Optimierungsprobleme (die Funktion / ist konkav, die Funktionen gu i = 1, 2, . . . , m sind konvex) und deren Sonderfälle, die linearen Optimierungsprobleme (die Funktionen / und gh i = 1, 2, . . . , m sind linear, D ist der nichtnegative Orthant).
1.1. Gegenstand der diskreten Optimierung
3
Zu den nicht regulären Problemen zählen wir insbesondere die sogenannten Multi-Extremalprobleme, in denen das globale Maximum nicht mit dem lokalen zusammenzufallen braucht. Den Multi-Extremalproblemen wurde in der Übersicht von D. B . J U D I N [81], [82] bedeutender Raum gegeben. Die diskreten Optimierungsprobleme bilden eine andere, umfangreiche Klasse von nichtregulären Problemen. Man kann sie formal als Probleme vom Typ (1.1)—(1.3) charakterisieren, bei denen die Menge D unzusammenhängend ist. Zum Beispiel kann die Menge D endlich (abzählbar) oder kartesisches Produkt einer endlichen (abzählbaren) 1 ) Menge auf eine Menge von der Mächtigkeit des Kontinuums sein. In diesem Falle ist es natürlich, Bedingung (1.3) Diskretheits(gemischte Diskretheits-) Bedingung zu nennen. Daraus wird klar, daß bei diskreten Problemen das Gebiet G für die zulässigen Lösungen nichtkonvex und nicht zusammenhängend wird. Dieses Gebiet wird durch Bedingungen zweier Typen definiert: durch die „regulären" Bedingungen (1.2) und durch die Diskretheits- (gemischten Diskretheits-) Bedingungen (1.3). Bezeichnenderweise werden meistens die Diskretheits- (gemischten Diskretheits-) Bedingungen von den anderen Bedingungen abgesondert und außerdem nach den einzelnen Variablen „separiert", so daß man sie wie folgt aufschreiben kann: x^Dj, j = 1, 2, . . . , Wj . (1.4) Hier ist n^ sS n und jedes D^ entweder eine endliche Menge, die mindestens zwei Elemente enthält oder eine abzählbare 1 ) Menge. Dem Fall % = n entspricht das vollständig diskrete Problem, dem Fall n x < ^ n jedoch das gemischte diskrete Problem. Im einfachsten Fall, wenn % = n gilt und sämtliche lij endliche Mengen sind, stellt sich das diskrete Optimierungsproblem als eine Aufgabe dar, das relative Extremum über einer endlichen Menge zu finden. 1.1.3. Hat man bei der Lösung regulärer (vor allem linearer, aber auch konvexer) mathematischer Optimierungsprobleme bedeutende Erfolge erzielt, so hat die Lösung diskreter Probleme eine Reihe wesentlicher und spezifischer Erschwernisse mit sich gebracht. Diese Schwierigkeiten sind nicht nur von technischem, sondern auch von prinzipiellem Charakter. Es handelt sich darum, daß man wegen des oben bemerkten NichtZusammenhangs und der Nichtkonvexität des zulässigen Bereiches die Standard verfahren für die „reguläre" mathematische Optimierung (d. h. das Vordringen von einer Ecke des Polyeders in eine andere, indem man den Gradienten in der Umgebung des gegebenen Punktes verschiebt usw.) nicht anwenden kann. Die „naiven" Zugänge zu diskreten Problemen erweisen sich sogar als nicht stichhaltig. So kann die Idee der vollständigen Enumeration für Probleme mit ') Wenn wir von abzählbaren Mengen sprechen, werden wir stets abzählbare Mengen ohne Häufungspunkte (d. h. Mengen vom T y p der „natürlichen Zahlen") im Blick haben. 2
2
) Mit \ A\ bezeichnen wir die Anzahl der Elemente einer gegebenen (endlichen) Menge A.
Diskrete Optimierung
4
1. Einführung
einer endlichen Menge zulässiger Lösungen praktisch nicht realisiert werden, da im Falle der Endlichkeit aller Mengen die Gesamtheit der P u n k t e (a^, x2,...,xn) die Bedingung (1.4) erfüllen (für Wj = n) gleich 2 ) n IAI ^ 2" ; j=1 ist; m. a. W. mit wachsender Anzahl der Variablen nimmt der U m f a n g der Rechenarbeit ziemlich schnell zu. Daß wir bei dieser Berechnung die Restriktionen (1.2) nicht berücksichtigt haben, verändert die Sachlage praktisch nicht. Ein anderer, sich aufdrängender Zugang zu diskreten (genauer: ganzzahliger) Problemen besteht in ihrer „Regularisierung", d. h. im Weglassen der Diskretheitsbedingungen und in der Lösung des entsprechenden stetigen Problems mit nachfolgender R u n d u n g der nichtganzzahligen Lösungskomponenten zur nächstliegenden ganzen Zahl. Man k a n n einfache Beispiele f ü r ganzzahlige lineare Optimierungsprobleme konstruieren, die die Unannehmbarkeit dieses Zuganges beweisen. Wir betrachten zum Beispiel die Aufgabe, die Linearform Xj
3 #2 ~~I- ^ #3
unter den Bedingungen 4, 2 x1 + x2 — xa áx1 - 3 x2 ^ 2, - 3 x1 + 2 x2 + x3 ^ 3 ; 0; xj ganze Zahlen,
j = 1, 2, 3 zu maximieren. Wenn wir die Ganzzahligkeitsbedingung ignorieren, können wir leicht eine optimale Lösung des entsprechenden linearen Optimierungsproblems finden: _ 1 _ n _ . 1 X x X 1 2 > 2 —U > 3 — 2 ' Man überzeugt sich leicht davon, daß keine einzige Rundungsvariante f ü r die Komponenten dieser nicht ganzzahligen Lösung überhaupt eine zulässige Lösung ergibt! Die optimale und ganzzahlige Lösung dieses Problems h a t die Gestalt Xj 2, 2, iíg 5• Gleichzeitig damit bemerken wir, daß das angeführte Beispiel nicht die gesamte Idee der Regularisierung, sondern nur ihre zu weitgehende direkt-lineare Anwendung in Mißkredit bringt. Die Idee einer Regularisierung von Problemen liegt einer großen Klasse von numerischen Methoden in der diskreten Optimierung zugrunde, nämlich den sogenannten „Schnitt-Methoden" (s. 4.). All das Gezeigte ergibt, daß f ü r die Lösung diskreter Optimierungsprobleme ein Ausbau vollständig neuer Methoden nötig ist. Eine Klassifikation und ein kurzer Überblick über diese Methoden wird in 4. gegeben werden. 1.2. Klassifizierung der mathematischen Modelle 1.2.1. Diskrete (ganzzahlige) mathematische Optimierungsprobleme können auf verschiedenen Wegen entstehen. Zuerst bemerken wir, daß lineare Optimierungsprobleme existieren, die man formal nicht unter die ganzzahligen rechnet
1.2. Klassifizierung der mathematischen Modelle
5
(die Ganzzahligkeitsforderung erscheint d a r i n n i c h t in k l a r e r Gestalt), die a b e r bei ganzzahligen A u s g a n g s d a t e n s t e t s ganzzahlige L ö s u n g e n liefern. Diese E i g e n s c h a f t besitzt d a s T r a n s p o r t p r o b l e m u n d verschiedene V a r i a n t e n d a v o n (das Z u o r d n u n g s p r o b l e m , S t r ö m u n g s p r o b l e m in N e t z w e r k e n ) . Die a n g e g e b e n e n Verhältnisse sind leicht zu v e r s t e h e n , w e n n m a n weiß, d a ß die n u m e r i s c h e n Lös u n g s m e t h o d e n f ü r das T r a n s p o r t p r o b l e m n u r e r f o r d e r n , d a ß m a n A d d i t i o n s u n d S u b t r a k t i o n s o p e r a t i o n e n auf die A u s g a n g s d a t e n a n w e n d e t . Die i h n e n innew o h n e n d e n Prinzipien sind b e d e u t e n d t i e f e r ; sie sind in gewissen spezifischen E i g e n s c h a f t e n der R e s t r i k t i o n e n m a t r i x beim T r a n s p o r t p r o b l e m eingeschlossen. Hier w e r d e n wir n i c h t weiter bei dieser F r a g e s t e h e n b l e i b e n u n d d e r e n S t u d i u m bis zur e n t s p r e c h e n d e n P r o b l e m k l a s s e (den s o g e n a n n t e n „ u n i m o d u l a r e n P r o b l e m e n " ) in 17. beiseitelassen. 1.2.2. Die erste u n d n a t ü r l i c h s t e Anregung, ganzzahlige u n d d i s k r e t e P r o bleme im eigentlichen Sinne des W o r t e s zu s t u d i e r e n , bildete die B e t r a c h t u n g linearer O p t i m i e r u n g s p r o b l e m e , in d e n e n die V a r i a b l e n physikalische, nichtteilb a r e G r ö ß e n (etwa die Menge d e r E i n h e i t e n v o n P r o d u k t e n verschiedener Gestalt) darstellen. E s ist k l a r , d a ß diese F o r d e r u n g in v e r s c h i e d e n e n a n g e w a n d t e n Modellen a u f t r i t t ; das erste i n d e r L i t e r a t u r b e k a n n t e Modell solcher A r t wird in 2.2. beschrieben. Z u r C h a r a k t e r i s i e r u n g dieser Modellklasse w e r d e n wir d e n T e r m i n u s Probleme mit Ganzzahligkeitsforderungen einführen. 1.2.3. E i n e n a n d e r e n wichtigen A n s t o ß z u m A u f b a u einer Theorie d e r disk r e t e n O p t i m i e r u n g bildete ein neuer Zugang zu gewissen k o m b i n a t o r i s c h e n E x t r e m a l p r o b l e m e n , der in d e r M i t t e der 50er J a h r e a u s g e a r b e i t e t u n d der Ben u t z u n g der linearen O p t i m i e r u n g z u g r u n d e gelegt w u r d e . Bei diesen P r o b l e m e n sollte d a s E x t r e m u m einer ganzzahligen l i n e a r e n F u n k t i o n g e f u n d e n w e r d e n , die auf einer endlichen Menge v o n E l e m e n t e n gegeben ist oder die selbst Elem e n t e dieser endlichen Menge sind, die die g e f o r d e r t e E x t r e m a l e i g e n s c h a f t besitzen. U m solche P r o b l e m e bei den linearen O p t i m i e r u n g s p r o b l e m e n „ a n z u siedeln", i n t e r p r e t i e r t e m a n die E l e m e n t e d e r endlichen Menge als ganzzahlige P u n k t e eines euklidischen R a u m e s u n d s u c h t e d a n a c h d a s E x t r e m u m d e r linea r e n F u n k t i o n ü b e r der k o n v e x e n Hülle dieser P u n k t e (oder ü b e r einem größeren k o n v e x e n Polyeder). A u s der K o n s t r u k t i o n selbst wird klar, d a ß die L ö s u n g eines auf diese Weise e r h a l t e n e n linearen O p t i m i e r u n g s p r o b l e m s n u r d a n n e i n e n k o m b i n a t o r i s c h e n Sinn h a t , w e n n sie ganzzahlig ist. Allerdings h a t t e in d e n ersten auf diese Weise u n t e r s u c h t e n P r o b l e m e n d a s l e t z t e r e M o m e n t keine selbständige B e d e u t u n g : der Ganzzahligkeitsbeweis w a r hier e n t w e d e r ü b e r f l ü s s i g oder er ergab sich mühelos, weil diese P r o b l e m e l e t z t e n E n d e s auf T r a n s p o r t p r o bleme f ü h r t e n . Somit f o r d e r t e n diese U n t e r s u c h u n g e n n o c h n i c h t die N o t w e n d i g k e i t h e r a u s , eigene M e t h o d e n f ü r die d i s k r e t e O p t i m i e r u n g a u s z u a r b e i t e n ; allerdings fördert e n sie das I n t e r e s s e a n einer allgemeinen C h a r a k t e r i s i e r u n g d e r P r o b l e m k l a s s e n , die optimale ganzzahlige L ö s u n g e n liefern u n d , was n o c h wichtiger ist, eröffn e t e n d e n W e g zu einer B e a r b e i t u n g von k o m b i n a t o r i s c h e n P r o b l e m e n allgemei2*
6
1. Einführung
nercr Gestalt mit den Methoden der linearen Optimierung. Hier wird die ursprüngliche Natur der Diskretheit oft etwas anders. Man muß nämlich nicht selten BooLEsche Variable 1 ) einführen, die logischen Charakter haben („wir erhalten Xj = 1, falls die Bedingung 2T erfüllt ist und = 0 im entgegengesetzten Fall . . ."). 1.2.4. Zu den ganzzahligen (genauer gemischt ganzzahligen) linearen Optimierungsproblemen zieht man auch mit Erfolg eine Reihe von Problemen hinzu, bei denen die explizite Forderung nach Ganzzahligkeit fehlt, die aber gewisse Besonderheiten aufwiesen, die sie aus dem Rahmen der linearen Optimierung herausfallen lassen. Diese Besonderheiten können entweder a) zur Zielfunktion oder b) zur Menge der zulässigen Lösungen gehören. Zu den Problemen vom Typ a) gehören die Aufgaben, eine separable Funktion über einer konvexen Menge zu minimieren. Unter einer separablen, stückweise linearen Funktion verstehen wir eine Funktion
l
mit
2
j = 1
Cj(Zj)
c
jixj) >
0
Cj Xj 4- dj
für
x} =
0 ,
für
Xj > 0 .
Probleme vom Typ b) stellen sich als Aufgaben dar, das Extremum einer gewöhnlichen linearen Funktion über einem Gebiet zu finden, das außer durch lineare Ungleichungen auch noch durch logische Bedingungen der Form „entweder — oder" gegeben ist. Solche Gebiete erweisen sich entweder als nichtkonvex oder als nicht zusammenhängend (sie bilden wie gewöhnlich die mcngentheoretische Vereinigung gewisser konvexer Polyeder). Solche „nichtklassische" Probleme werden in 2.4. und 2.5. betrachtet. Vorerst bemerken wir nur, daß sie bei Einführung vollständig ganzzahliger Veränderlicher auf ganzzahlige lineare Optimierungsprobleme führen. 1.2.5. So können wir die folgenden grundlegenden Klassen bei diskreten Optimierungsproblemen einführen: 1. 2. 3. 4. 5. 6.
Probleme mit Unteilbarkeitsforderungen Kombinatorische Extremalprobleme Probleme mit separabler unstetiger Zielfunktion Probleme über nichtklassischen Bereichen Gewisse Multi-Extremalprobleme Diskrete Probleme im engeren Sinne des Wortes (Auffinden der Extrema auf endlichen Mengen).
') D. h. solche, die zwei Werte annehmen: 0 und 1. Wir bemerken, daß die Bedingung x =
auch in der Form 0
x
1, x ganzzahlig geschrieben werden kann. Das wird
im folgenden systematisch verwendet
1.3. Klassifizierung angewandter Probleme
7
1.3. Klassifizierung angewandter Probleme 1.3.1. Bezüglich der Klassifizierung angewandter diskreter Optimierungsprobleme k ö n n t e m a n im Prinzip das im vorigen Abschnitt bezüglich der Klassifizierung mathematischer Modelle Gesagte wiederholen. Zuerst die Probleme mit Unteilbarkeitsforderungen, das sind mathematische Modelle f ü r viele reale Probleme, die die Planung nicht zu unterteilender P r o d u k t i o n s f o r m e n oder die Verwendung nicht teilbarer W i r t s c h a f t s f a k t o r e n beschreiben. I n der Rolle solcher nicht teilbarer F a k t o r e n t r e t e n nicht selten zum Beispiel Transporteinheiten auf, so wie viele Überführungsprobleme, die vom klassischen T r a n s p o r t p r o b l e m verschieden sind, auf diskrete Modelle f ü h r e n . Das sind zum Beispiel Probleme, die die komplexen Mittel zur Zustellung von L a d e g u t optimieren, bei denen die minimale Anzahl von Entscheidungen g e f u n d e n werden soll, die zur Realisierung eines gegebenen Transportplanes nötig sind, bei denen der Leerlauf von K r a f t f a h r z e u g e n bei der E r f ü l l u n g eines gegebenen Transportplanes minimiert wird usw. 1.3.2. U n t e r den kombinatorischen Problemen, die auf diskrete Optimierungsmodelle f ü h r e n u n d große B e d e u t u n g f ü r die Anwendungen h a b e n , bemerken wir zuerst das Rundreiseproblem (travelling salesman) u n d Probleme aus der Theorie der Ablaufplanung. Diese beiden Probleme sind Gegenstand einer umfangreichen Literatur, allerdings fällt eine detaillierte B e t r a c h t u n g dieser Probleme aus dem R a h m e n des vorliegenden Buches. Wir beschränken u n s daher auf eine Beschreibung der entsprechenden diskreten Modelle. Das Rundreiseproblem beschreibt die Modellklasse, bei der eine Marschroute f ü r den W a r e n t r a n s p o r t g e f u n d e n werden soll, deren Gesamtumlauf minimal ist. Was die Probleme aus der Theorie der A b l a u f p l a n u n g b e t r i f f t , so stellen sie in der H a u p t s a c h e Probleme f ü r die Beschränkungen der P r o d u k t i o n d a r . 1.3.3. Zu den zahlreichen anderen kombinatorischen Problemen, die bezüglich der Anwendungen wichtig sind, werden a u c h Überdeckungsprobleme gerechnet, die in den letzten J a h r e n große Aufmerksamkeit auf sich gezogen h a b e n . Diese Probleme erfordern, eine minimale Teilmenge der K a n t e n m e n g e eines gegebenen Graphen zu finden, die sämtliche E c k e n des Graphen enthält. Sie finden bei der Synthese logischer Netze u n d ähnlichen Aufgaben Anwendung. An die angegebenen Probleme grenzen auch die vom T y p der Doppelbelegungsprobleme (die minimalen Verbindungen auf Radiochassis, kürzeste technologische Marschrouten). 1.3.4. Wir erinnern auch a n die äußerst wichtige u n d große Klasse der Probleme einer optimalen Standortverteilung, Spezialisierung, K o o p e r a t i o n u. a., bei denen auf verschiedenen Wegen die Diskretheit a u f t r i t t . 1.3.5. Somit k ö n n e n wir die folgenden G r u n d t y p e n f ü r angewandte diskrete Optimierungsprobleme aussondern: 1. Probleme mit Unteilbarkeitsbedingungen 2. Kombinatorische Probleme
8
1. Einführung
3. Überdeckungsprobleme u n d andere Probleme aus der diskreten Netzoptimierung 4. Verteilungsprobleme Wir bemerken, daß sich jede Klassifikation angewandter diskreter Optimierungsprobleme unvermeidbar als unvollständig erweist, d e n n u n t e r diesen Modellen f i n d e n wir auch landwirtschaftliche Produktionsprobleme u n d Probleme der optimalen Signalsynchronisation bei der Regulierung des Straßenverkehrs usw. 1.4. Klassifizierung numerischer Methoden Die Theorie der diskreten Optimierung besteht heute im Grunde aus der Theorie der numerischen Lösungsmethoden f ü r diskrete Probleme. Gibt m a n ihnen allgemeinen Charakter, k a n n m a n zunächst drei H a u p t g r u p p e n bei den Methoden aussondern, die prinzipiell durch den Zugang zum Problem unterschieden werden. 1.4.1. F ü r die Methoden der ersten Gruppe ist zunächst das „Regularisierungsproblem" charakteristisch, das ein Einbeziehen seines Ausgangsbereiches f ü r die zulässigen Lösungen (1.2), (1.4) in einen diesen volumenmäßig verbessernden konvexen Bereich gestattet (mit anderen Worten, ein zeitweiliges Fortlassen der Diskretheitsbedingung (1.4)). Nachdem m a n das reguläre Problem erhalten h a t , werden Standardoptimierungsmethoden angewandt. Genügt die als Result a t erhaltene Lösung bereits den Erfordernissen der Diskretheitsbedingung, ist das Problem gelöst. I s t das nicht der Fall, so wird ein weiterer Übergang zu einer ganzzahligen Lösung notwendig. Wir unterstreichen noch einmal, d a ß dieser Ü b e r g a n g allgemein gesprochen nicht unbedingt durch einfache R u n d u n g der K o m p o n e n t e n der erhaltenen nichtganzzahligen Lösung zu bekommen ist. Ein entsprechendes Beispiel wurde in 1. gebracht. Somit bildet der angegebene Übergang auch das eigentliche Wesen der Methoden dieser Gruppe. Zuerst wurde die Idee eines solchen Überganges in der Arbeit [ 3 0 ] von D A N T Z I G , F U L K E R S O N und J O H N S O N in Anwendung auf das travelling salesman Problem gegeben; eine sehr analoge Idee wurde f ü r ein anderes konkretes Problem von M A R K O V I T Z u n d M A N N E [ 1 0 5 ] verwendet. F ü r das allgemeine ganzzahlige lineare Optimierungsproblem wurde die entsprechende Idee von D A N T Z I G [26] ausgesprochen. Sie besteht in folgendem. E r h ä l t m a n als Ergebnis des ersten Schrittes (Lösung des Problems ohne Ganzzahligkeitsforderung) keine ganzzahlige Lösung, so wird den Restriktionen des Ausgangsproblems eine neue lineare Restriktion hinzugefügt, die zwei Eigenschaften erfüllt: 1. die gewonnene nicht ganzzahlige Lösung erfüllt sie n i c h t ; 2. jede ganzzahlige Lösung genügt ihr. D a n a c h wird das erhaltene erweiterte Problem gelöst, ist es nötig, wird eine weitere Restriktion hinzugefügt. Das Verfahren wird wiederholt, bis m a n eine
1.4. Klassifizierung numerischer Methoden
9
Lösung erhält, die die benötigten Ganzzahligkeitsforderungen erfüllt. Also führt die Lösung vollständig oder gemischt ganzzahliger linearer Optimierungsprobleme auf die Lösung einer gewissen Folge gewöhnlicher linearer Optimierungsprobleme . Geometrisch entspricht das Hinzufügen jeder solchen linearen Restriktion dem Schnitt mit einem Halbraum, der vom Lösungspolyeder des „regularisiert e n " Problems den alten optimalen Punkt mit genauen Koordinaten abschneidet, aber keinen ganzzahligen Punkt dieses Polyeders entfernt. Daher erhielten die auf dieser Idee beruhenden Methoden in der Literatur den Namen „Methoden der abtrennenden Ebenen" oder „Schnittmethoden". Die Idee der Schnitte führt auf natürliche Weise zu drei Problemen: 1. Das Auffinden einer universellen Regel zur Formulierung der zusätzlichen Restriktionen; 2. der Endlichkeitsbeweis für das entsprechende Schnittverfahren; 3. der Kampf gegen ein übermäßiges „Anwachsen" des Problems, wenn zusätzliche Restriktionen hinzugefügt werden. Nur die Lösung dieser Probleme kann zu einem universellen und in numerischer Hinsicht realisierbaren Algorithmus führen. Zuerst wurde das im Jahre .1958 von R. G O M O R Y geschafft (erste Veröffentlichung des Algorithmus in [ 5 8 ] ; s. auch [ 5 9 ] , [ 6 4 ] ) . Mit diesem Augenblick beginnt die Entwicklung allgemeiner Schnittmethoden; wie D A N T Z I G [ 2 6 ] bemerkt, waren die vorangehenden Schnittmethoden außergewöhnlich unformalisiert, sie stellten eher eine Kunst als Wissenschaft dar. Im folgenden verallgemeinerte G O M O R Y die Idee der Bildung zusätzlicher Re striktionen und erhielt eine andere Form des Algorithmus für rein ganzzahlige Probleme [60], [63]. Diese Methode ist besonders in rechentechnischer Hinsicht bequem, denn man braucht nur Additions- und Substraktionsoperationen auszuführen. In der Literatur [122] werden diese Methoden manchmal der „zyklische" bzw. „diskrete" Algorithmus von G O M O R Y genannt. Außerdem dehnte G O M O R Y den ersten seiner beiden Algorithmen auf gemischt ganzzahlige lineare Optimierungsprobleme aus (erste Veröffentlichung [62]). Es ist wichtig, zu bemerken, daß unter bestimmten Bedingungen auch die Endlichkeit dieser drei Algorithmen bewiesen wurde. Daß die Schnittprobleme nicht trivial sind, besteht insbesondere darin, daß bei weitem nicht eine beliebige Bildungsregel für zusätzliche Restriktionen, die die Forderungen 1. und 2. (s. Seite 8) erfüllt, auf einen endlichen Rechenalgorithmus führt. Diese Frage wird in 6.5. am Beispiel einer Bildungsregel für zusätzliche Restriktionen betrachtet, die von D A N T Z I G kurz nach der ersten Arbeit von G O M O R Y vorgelegt wurde. Die Entwicklung der Schnittmethoden ging in den letzten Jahren sowohl den Weg der Detaillierung, als auch den der Erweiterung von den linearen auf allgemeinere Probleme. So veröffentlichten K Ü N Z I und O E T T L I [ 9 7 ] , [ 9 8 ] eine Methode zur Minimierung positiv definiter quadratischer Formen unter linearen
1. Einführung Restriktionen und der Beschränkung auf Ganzzahligkeit bei ihren Variablen. I n den Arbeiten [41], [39] wurde ein Algorithmus vorgelegt, der ein Spezifikum für lineare Optimierungsprobleme mit Booleschen Variablen verwendete (s. 6.4.). W I T Z G A L L [ 1 3 0 ] übertrug die Idee des zweiten Algorithmus von G O M O R Y auf Probleme mit linearer Zielfunktion (mit Ganzzahligkeitsforderung an die Variablen) und „parabolischen" Restriktionen, d. h. Restriktionen der Gestalt a
oo - L0(X) - b^X))*
bk{Lk{X)Y
^ 0,
WO n
LS(X) = £ asj x, , ¿=i
s = 0, 1, . . . , k .
linear unabhängige Formen sind. 1 . 4 . 2 . Die zweite der oben erwähnten Gruppen von Methoden unterscheidet sich von der ersten darin, daß bei diesen Methoden maximal von der Endlichkeit des Problems Gebrauch gemacht wird, von seinem kombinatorischen Charakter. Es ist natürlich, daß die Methoden dieser Gruppe in ihrem Charakter ziemlich verschiedenartig sind; sie verwenden alle in irgendeinem Grade die Idee der vollständigen Enumeration. Die erste Methode dieser Art wurde in der Arbeit von L A N D und D O I G [ 9 9 ] im Jahre 1 9 6 0 vorgelegt. Unmittelbar danach verwendete L I T T L E und andere Autoren eine äußerst ähnliche Idee zur Lösung des Travelling-salesman-Problems; ihr Zugang erwies sich als äußerst erfolgversprechend. Von den Autoren „Branch-and-Bound-Methode" genannt, erzeugte dieser Algorithmus eine Reihe von Varianten („Die Methode der sukzessiven Trennung und Abschätzung" [13] u. a.), und verstärkte hauptsächlich die Aufmerksamkeit auf die Idee von „Branch and Bound" selbst, die nach der Arbeit von L A N D und D O I G nicht gewürdigt wurde. Somit regte man die weitere Arbeit in dieser Richtung an, die in der Gegenwart äußerst intensiviert wird (vgl. den Übersichtsartikel von L A W L E R und W O O D [ 1 0 1 ] ) . La der Nähe der Ideen der „Branch-and-Bound-Verfahren" liegt der „additive" Algorithmus von B A L A S [ 4 ] und seine Modifikationen; die Haupt Variante dieser Methode wird in 1 1 . behandelt. T H O M P S O N [ 1 2 7 ] legte einen Algorithmus zur Lösung linearer ganzzahliger Optimierungsprobleme vor („Simplex-Methode mit Unterbrechung" — „Stepping-stone-Methode"), der dem Algorithmus von L A N D und D O I G nahekommt, aber bezüglich der Speicheranforderungen wesentlich ökonomischer ist. Einfachere heuristische Überlegungen liegen der ,,Booleschen " Methode zugrunde, die von F A T J R E und M A L G R A N G E vorgelegt wurden [ 3 5 ] und zur Lösung ganzzahliger linearer Optimierungsprobleme dienen (s. 1 4 . 1 . ) . Hier verdient auch noch der Apparat der sogenannten „pseudo-BooLEschen" Optimierung Aufmerksamkeit, der von I V A N E S C U , R O S E N B E R G und R U D E A N U ausgearbeitet wurde. Der Gegenstand der pseudo-BooLEschen Optimierung besteht in der Lösung von Gleichungs- oder Ungleichungssystemen mit Variablen, die die Werte 0 oder 1 annehmen und auch in der Untersuchung der ent-
1.4. Klassifizierung numerischer M e t h o d e n
11
sprechenden Optimierungsprobleme, die sowohl linear, als auch nichtlinear sein können. Da der Umfang des Buches beschränkt ist, haben wir nicht die Möglichkeit, auf die pseudo-BooLEsche Optimierung einzugehen, umsomehr, als dieser Zugang in seinem Inhalt etwas abseits von der allgemeinen Richtung dieses Buches liegt. Den an diesen Fragen interessierten Leser weisen wir auf die Monographie [78] oder den Übersichtsartikel [79] hin. Ein lokaler Zugang, der aus der diskreten Analysis entsteht, wurde danach entsprechend den diskreten Optimierungsproblemen entwickelt [136], [42], [43] (s. 1 3 . ) . Ein wenig abgesondert steht die originelle Methode von Y. P. Cebenin zur Lösung einer Klasse von kombinatorischen Problemen; sie wird kurz in 14.2. beschrieben. 1.4.3. Die dritte Gruppe von Methoden besteht aus den stochastischen Suchverfahren und anderen Näherungsverfahren. Die Entstehung der Näherungsmethoden wurde durch verschiedene Ursachen angeregt. Darunter bemerken wir vor allem die Kompliziertheit der entsprechenden exakten Methoden und die Schwierigkeiten bei ihrer Realisierung für Probleme großer Dimensionen. Außerdem werden für viele angewandte Probleme exakte Lösungen in bedeutendem Maße wegen der ungenügenden Glaubwürdigkeit der Ausgangsdaten entwertet. Schließlich gestattet die spezifische Struktur vieler Probleme, hinreichend motivierte heuristische Zugänge auszuarbeiten, die in ihrer Einfachheit wertvoll sind und selbst zur Lösung operativer Probleme anwendbar. I n „sauberer" Gestalt sind die stochastischen Suchverfahren in Bezug auf ganzzahlige lineare Optimierungsprobleme mit BooLEschen Variablen in der A r b e i t v o n P j a t e c k i i - S a p i r o , V o l k o n s k i i , L e v i n a u n d P o m a n s k i T [115] e n t -
wickelt worden (s 15.1.). Nicht selten ist die stochastische Suche mit sogenannter lokaler Optimierung verbunden. I n großen Zügen kann man diese Methoden auf folgende Weise charakterisieren. Man stellt durch zufällige Wahl irgendeine zulässige Lösung her. Man bestimmt die „Umgebung" dieser zulässigen Lösung, die aus Punkten besteht, die im festgelegten Sinne in der Nähe des Ausgangspunktes liegen. Die vorhandene zulässige Lösung wird in den Punkten dieser Umgebung verbessert, bis man ein „lokales" Optimum erreicht hat. Die gesamte Prozedur wird oftmals wiederholt, und aus den erhaltenen „lokalen" Optima wird das bezüglich dem Zielfunktionswert beste ausgewählt. Es ist selbstverständlich, daß die Idee eines solchen Zugangs äußerst allgemein und im Prinzip auf ein beliebiges Optimierungsproblem anwendbar ist. Eine formalere Beschreibung werden wir in 15.2. geben. Wir bemerken endlich, daß für gewisse einzelne Probleme Näherungsmethoden konstruiert wurden, die keinerlei stochastisches Suchen verwenden, sondern nur die Spezifik des Modells studieren. Eine dieser Methoden, die zur Lösung des Transportproblems mit Fixkosten vorgesehen ist (s. 2.5.), wird in 16.1. beschrieb e n (s. [91], [94]).
12
2. Mathematische Modelle für die ganzzahlige Optimierung
2. Mathematische Modelle für die diskrete Optimierung 2.1. Das Transportproblem Bei der Klassifizierung der diskreten Optimierungsmodelle (1.2.) wurde bemerkt, daß einige Probleme, die formal nicht ganzzahlig sind, in Wirklichkeit stets ganzzahlige Lösungen besitzen, sofern beliebige ganzzahlige Ausgangsdaten vorliegen. Dieser Umstand wurde noch im Jahre 1951 von DANTZIG bei der Spezialisierung der Simplexmethode auf das Transportproblem bemerkt. Deshalb kann man das letztere in gewissem Sinne als Vorläufer aller diskreten Optimierungsprobleme ansehen. 2.1.1. Die Aufgabenstellung besteht beim Transportproblem im folgenden. Gegeben sind m Produktionszentren („Lieferanten") für ein gewisses homogenes Produkt und n Verbraucherzentren. Für jedes Produktionszentrum i = = 1,2, ... ,m und für jedes Verbraucherzentrum j = 1, 2, . . . , n sind folgende Größen gegeben: a; bj Cfj
Produktionsumfang im Produktionszentrum i, Nachfrage im Verbraucherzentrum j , Transportkosten für eine Produktionseinheit vom Produktionszentrum i zum Verbraucherzentrum j.
Dabei wird meistens vorausgesetzt, daß Gesamtproduktion und Gesamtbedarf ausgeglichen sind, d. h.
Es a) b) c)
m
n
¿=1
j=1
(1-1)
soll ein Transportplan aufgestellt werden, der die Produktiorisgrenzen des Lieferanten nicht überschreitet, sämtliche Verbraucher völlig zufriedenstellt und das Minimum der gesamten Transportkosten ergibt.
W i r führen Variable x^ ein, die die zu transportierenden Mengen von jedem Lieferanten i zu jedem Verbraucher j darstellen. Natürlich gilt 0,
» = 1,2, . . . , m ,
¿ = 1,2, . . . , » .
(1.2)
Offensichtlich wird Forderung a) durch die Bedingung n
2
xij
=
ai
>
i = l,2, . . . , m ,
(1.3)
3=1
und Forderung b) durch die Bedingung
S
Xij
=
b},
j
=
1, 2, . . . ,
n
(1.4)
2.1. Das Transportproblem
ausgedrückt. Schließlich sind dabei die Gesamtkosten gleich m n S 1=1)=1
13
(Ls)
Somit besteht das Transportproblem formal darin, daß (1.5) unter den Bedingungen (1.2)—(1.4) minimiert werden soll. 2.1.2. Explizit wurde die Forderung nach Ganzzahligkeit der Werte von x,j im Problem (1.2)—(1.5) nicht gestellt. Allerdings gilt der folgende wichtige Satz, der den Zusammenhang zwischen den Transportproblemen und den ganzzahligen linearen Optimierungsproblemen herstellt. S a t z 2.1.1.Bei beliebigen ganzzahligen Werten av a2, . . . , am und bv b2, . . . , bn besitzt das Transportproblem stets eine ganzzahlige optimale Lösung, unabhängig von den Koeffizienten ctj der Linearform. Diese wichtige Tatsache k a n n unmittelbar bestätigt werden, als Folgerung der bekannten Lösungsmethoden f ü r das Transportproblem. Hier wird die Beweisidee angegeben; f ü r ihre faktische Durchführung braucht m a n n u r noch einige Einzelheiten im Rechenprozeß zu durchdenken. Offensichtlich genügt es zum Beweis des Satzes, sich von der Richtigkeit folgender Behauptungen zu überzeugen: 1°. Es existiert eine ganzzahlige Ausgangsecklösung. 2°. Beim Übergang von einer Ecklösung zur anderen bleibt die Ganzzahligkeit erhalten. I n der T a t folgt aus 1° und 2° unmittelbar die Ganzzahligkeit aller Ecklösungen des Transportproblems, und das ist genau das, was wir benötigten. Die in der Aussage 1 ° behauptete Existenz einer ganzzahligen Ecklösung wird durch direkte Konstruktion nachgewiesen. Das Verfahren besteht in folgendem: 1 ) 1)
Man betrachte die Matrix llc^ll und finde min c i} . Angenommen, dieses
2)
Minimum werde im Kästchen (i0, j0) angenommen. Man erhält als erste Basisvariable =
mil1
{ aH' 6 i.) *
(Lß)
3')
Ist a{ das Minimum in (1.6), so Streichen der Zeile i0 und Abändern von b,J 0in 6,-J 0— »'O «,•. 3") Ist bjo das Minimum in (1.6) ,so Streichen der Spalte j0 und Abändern von a:l0 zu a,l0 — 6,-. J0 3"') Ist aia = bjo, so Streichen entweder der Zeile i0 oder der Spalte j 0 (aber nicht beide gleichzeitig). ') Es handelt sich hier u m eine Modifikation der Nord-West-Ecken-Regel. Red. d. dt. Ausg.)
(Anm. d.
14
2. Mathematische Modelle für die ganzzahlige Optimierung
4)
Wiederholen von Schritt 1)—3) für die verkleinerte Matrix (die entweder eine Zeile oder eine Spalte weniger als die Ausgangsmatrix besitzt). Wir bemerken, daß dann, wenn bei Anwendung der Regel 3"') die verkürzte Matrix eine Zeile und einige Spalten besitzt, man die Spalte j0 ausstreichen muß; wenn sie nur eine Spalte und einige Zeilen enthält, wird die Zeile i0 ausgestrichen. Insgesamt ist es nötig, m + n — 1 Schritte dieses Verfahrens auszuführen (da man im letzten Schritt eine 1 x 1-Matrix erhält, in der sowohl eine Zeile, als auch eine Spalte ausgestrichen wird). Also erhält man als Resultat eine gewisse Basislösung. Es ist leicht zu sehen, daß sie ganzzahlig ist, da die im beschriebenen Verfahren auszuführenden Operationen die Ganzzahligkeit der Ausgangsdaten a( und bj, aus denen die Lösung besteht, nicht verletzt. Daher ist Aussage 1° richtig. Faktisch wurde hier eine formale Beschreibung der Methode des minimalen Elementes zur Konstruktion einer ersten Näherung beim Transportproblem gegeben. Man sieht leicht, daß man zu derselben Ableitung gelangen würde, wenn man ein beliebiges anderes Verfahren zur Konstruktion einer Ausgangslösung verwenden würde (zum Beispiel die Nord-West-Ecken-Regel). Wir betrachten nun den Übergang von einer Basislösung zu einer anderen. Angenommen, man habe irgendeine ganzzahlige Basislösung gefunden, die nicht optimal ist. Es habe sich ergeben, daß man zu ihrer Verbesserung in die Basis die Variable x i j i einführen muß, und man habe den Zyklus gefunden, auf dem die Posten umzuverteilen sind. Wir beschränken uns auf die Betrachtung eines viergliedrigen Zyklus (in einem beliebigen, allgemeinen Fall ändert sich die Situation prinzipiell nicht). Wir haben folgendes Umverteilungsschema:
+e e
+
E
Wie wir sehen, ändern sich die Werte der Variablen dabei um die ganze Zahl 6 = min {%i j , x h u } . Wegen der Ganzzahligkeit der vorangegangenen Lösung wird die verbesserte Lösung ebenfalls ganzzahlig. Somit ist auch Aussage 2° bewiesen. Eine ausführlichere Darlegung dieser Fragen kann man zum Beispiel in der Monographie [29] von D A N T Z I G finden. 2.1.3. Die soeben für Lösungen des Transportproblems bewiesene Ganzzahligkeit gilt auch für jeden beliebigen Sonderfall davon. Der wichtigste darunter ist das Zuordnungsproblem (Auswahlproblem), das in 2.3. betrachtet wird und das Flußproblem in Netzwerken. Bei aller großen selbständigen Bedeutung der Theorie der Flüsse in Netzwerken liegen diese Fragen am Rande vom Inhalt der vorliegenden Arbeit. Der speziell an Flüssen in Netzwerken interessierte Leser
2.2. Probleme mit Ganzzahligkeitsforderungen
15
kann sich der Monographie [ 4 6 ] von FORD und FTJLKERSON bedienen. Wir bemerken nur, daß die Ganzzahligkeit der Lösungen für Zuordnungs- und Flußprobleme nicht nur aus der entsprechenden Eigenschaft des Transportproblems, sondern auch unmittelbar gezeigt werden kann. 2.1.4. Die Ganzzahligkeit der Lösungen des Transportproblems, von der wir uns bei der Analyse des Lösungsverlaufes überzeugt hatten, ist in Wirklichkeit nicht mit dem konkreten Rechenverfahren verbunden, sondern hat tiefere Gründe. Wenn man die Restriktionen (1.3), (1.4) des Transportproblems in Form von Restriktionen eines allgemeinen linearen Optimierungsproblems schreibt (d. h. wenn man sie auf die Gestalt bringt), so hat die dabei gewonnene Matrix A eine spezielle Struktur. Dieses Problem besitzt großes prinzipielles Interesse; seine vollständige Untersuchung wird bis Kap. 17 aufgeschoben. 2.2. Probleme mit Ganzzahligkeitsforderungen 2.2.1. Die Untersuchung diskreter Optimierungmodelle begann mit der Analyse ganzzahliger linearer Optimierungsprobleme, d. h. linearer Optimierungsprobleme, bei denen an sämtliche Variable oder einen Teil davon die Zusatzforderung gestellt wurde, ganzzahlig zu sein. Formal gesprochen besteht ein ganzzahliges lineares Optimierungsproblem in der Maximierung von Cj x1 + c2 x2 + • • • + cn xn
(2.1)
unter den Restriktionen ^21
~T~ ^22
zx ^ 0 ,
' ' '
a
2n
=
>
^ 0 , . . . , xn ^ 0 ,
Xj ganze Zahlen,
j €J ,
2)
(2.3) (2-4)
wo J eine gewisse Teilmenge der Indexmenge N = { 1 , 2 , . . . , « . } darstellt. Ist J = N (d. h. wird von allen Variablen Ganzzahligkeit gefordert), so heißt das Problem rein ganzzahlig; ist dagegen J ^ N, heißt es gemischt ganzzahlig. Das Modell (2.1)—(2.4) kann man zum Beispiel in folgenden Termini natürlich interpretieren. Es werden durch i = 1, 2, . . . , m Betriebsfaktoren (Einsatzgrößen) bezeichnet und durch j = 1, 2, . . . , m die Aktivitäten einer endlichen Produktion. Bezeichnen wir weiter ai} als die Gesamtheit der Faktoren», die zur Produktion einer Einheit vom Produkt j nötig sind, bi als vorhandene Ressourcen beim Faktor i und Cj als Gewinne, die man aus der Einheit des Produktes j erzielt.
16
2. Mathematische Modelle für die ganzzahlige Optimierung
Angenommen, die P r o d u k t e ¿ sind f ü r j g J unteilbar, d. h. der physikalische Sinn gestattet n u r ganze nichtnegative Gesamtheiten (Stücke) davon. Wir setzen voraus, d a ß das Ziel im Aufstellen eines Produktionsprogrammes besteht, das einen maximalen Gesamtgewinn garantiert u n d die Grenzen der gegebenen Resourcen nicht überschreitet. Bezeichnet m a n mit Xj die gesuchten P r o d u k tionsausstoßumfänge, k a n n m a n dieses Problem in das Modell (2.1) —(2.4) überführen. Wir geben j e t z t eine andere I n t e r p r e t a t i o n f ü r das rein ganzzahlige Modell (2.1)—(2.4). Mögen n u n durch i = 1, 2, . . . , m die zur A u s f ü h r u n g gehörenden Arbeitstypen u n d durch j = 1, 2, . . . , n die Einrichtungstypen bezeichnet. Seien atj die Selbstkosten f ü r die Benutzung einer Einheit vom Einrichtungst y p j zur Arbeit i, b( die Gesamtselbstkostenbeschränkungen f ü r die Arbeiten i, Cj sei der E f f e k t bei der Verwendung einer Einheit von der E i n r i c h t u n g j . Seien sämtliche Einrichtungstypen unteilbar, d. h. es mögen nur ganze nichtnegative Gesamtheiten benutzbar sein. Ziel ist es, ein P r o g r a m m f ü r die Einrichtungsausnutzung aufzustellen, das die Selbskostenbeschränkungen erfüllt u n d einen maximalen Gesamteffekt liefert. Wir bezeichnen durch x, die gesuchte Menge von Einrichtungseinheiten des T y p s j . D a n n f ü h r t das Problem auf Modell (2.1)—(2.4). W i r bemerken noch, d a ß m a n in der letzten I n t e r p r e t a t i o n sogar auch obere Schranken f ü r die Gesamtheit der Einrichtungseinheiten von jedem T y p einf ü h r e n k a n n . Mit anderen Worten k ö n n e n sogar ganze nichtnegative Zahlen k j , j = 1, 2, . . . , n gegeben sein; in diesem Falle m u ß m a n noch die Restriktionen Xj ^ kj ,
¿=1,2,...,».
(2.5)
hinzufügen. Die beiden angegebenen I n t e r p r e t a t i o n e n f ü r Probleme mit Unteilbarkeitsvoraussetzungen (die P l a n u n g des Ausstoßes nicht teilbarer Produktionsformell u n d die P l a n u n g der Ausnutzung nichtteilbarer Produktionsfaktoren) ist in bes t i m m t e m Sinne universell. 2.2.2. Wir beschreiben n u n das konkrete, ganzzahlige Modell, das das erste publizierte Modell f ü r ein ganzzahliges lineares Optimierungsproblem darstellt [25]. Gefragt ist nach der optimalen Auslastung von Bombenflugzeugen verschiedener T y p e n mit B o m b e n v o r r ä t e n u n d dem Ziel eines maximalen Gesamteffekts f ü r ein gegebenes System von Kriegsoperationen. Wir bezeichnen mit i = 1, 2, . . . , m die Bombentypen, mit ¿ = 1 , 2 , . . . , n die B o m b e r t y p e n u n d mit k = 1, 2, . . . , p die Kriegsoperationen. Zudem f ü h r e n wir noch die folgenden Größen ein: bt der vorhandene Vorrat vom B o m b e n t y p i, aik die E f f e k t i v i t ä t des Bombentypes i bei der Operation k,
2.2. Probleme mit Ganzzahligkeitsforderungen
tij die geplante Anzahl von Feindflügen des Bombers j, wk das der Operation h durch den K o m m a n d o s t a b „Gewicht".
17
beigemessene
U n b e k a n n t e Größen sind hier: xtjk,
die Gesamtheit der Bomben vom T y p i, die zur Auslastung der seitlichen Bombenschächte des Bombers j bei seiner Verwendung in der Operation k zugrundeliegen, y.jic, die analoge Größe f ü r den zentralen Bombenschacht.
Somit f ü h r t die Aufgabe auf die Maximierung des Gesamteffektes m n jt Z Z Z aikwkn1(2xijk + yiik) i=1j=1 unter den Restriktionen n p ZZn,j{2 xljk + yt}k)
0
> jo,
(4-3)
26
2. Mathematische Modelle für die ganzzahlige Optimierung
Wir bemerken, daß die Zusatzvariable yy in die Zielfunktion nicht aufgenommen wird. Man sieht leicht, daß das Ungleichungssystem (4.3) bezüglich x n und der ganzzahligen Zusatzvariablen y-h zu (4.1) und der Alternativbedingung (4.2) äquivalent ist. Nimmt nämlich yu in der Lösung den Wert 1 an, so f ü h r t (4.3) zu xiJo >—0, 'XiJo< a; 3f ü r "Ja= 0 werden wir x Jo > —b, x=Jo < h Jahaben. Im Falle mehrerer Beschränkungen vom Typ (4.2) werden die Ungleichungen (4.3) f ü r jede von ihnen ausgeschrieben. Wir betrachten jetzt einen allgemeineren Fall. Es werde in einem mathematischen Optimierungsproblem mit dem zulässigen Bereich G die zusätzliche Alternativbedingung entweder h(xv x2, . . . , xn) 0 oder k(x1, x2, . . . , xn) ^ 0 (4.4) hinzugefügt, wo h(xlt x2, . . . , xn) und k(xv x2, . . . , xn) gegebene Funktionen sind. Wir setzen voraus, daß uns Zahlen k% bekannt sind, die untere Schranken f ü r die Funktionen h(xlt x2, . . . , xn) und k(xv x2, . . . , xn) auf der Menge G darstellen. (Von Interesse ist der Fall, in dem h% und negativ sind.) Sind die Zahlen h u n d unbekannt, so k a n n m a n sie definieren, indem m a n Minimierungsproblcme f ü r h(xlt x2, . . . , xn) und k(xx, x2, . . . , xn) über dem Gebiet G löst. Wir f ü h r e n n u n eine ganzzahlige Hilfsvariable y ein, die die Werte 0 und 1 a n n i m m t und betrachten das Ungleichungssystem h(xv x2, . . . , xn) — h* y ^ 0, k(xv x2, . . . , xn) —
(1 — y) ^ 0-
(4.5)
Die Zusatzvariable y geht in die Zielfunktion nicht mit ein. Das Ungleichungssystem (4.5) ist der Alternativbedingung (4.4) äquivalent. N i m m t nämlich y den Wert 1 an, f ü h r t (4.5) auf die automatisch erfüllte Beziehung h(xlt x2,... , xn) Sg h^ und die gewünschte Ungleichung k(xlt x2, . . . , xn) ^ 0; f ü r y ----- 0 erhalten wir entsprechend h(xv x2, . . . , xn) 22 0 und k(xx, x2, . . . , xn) 2g k^. I m Folgenden werden wir noch der Anwendung des beschriebenen Verfahrens begegnen (s. 3.4.). 2.4.2. Wir betrachten ein mathematisches Optimierungsproblem mit dem Restriktionensystem g ^ , x2, . . . , xn) ^ 0, Qlfa 1> -^2» • • • > xn) =
9m(x 1,
(4.6)
X
n) ^ 0 ,
und bezeichnen den dadurch definierten Bereich mit G. Es soll eine Lösung gef u n d e n werden, in der mindestens k dieser Bedingungen 1 ) erfüllt werden. Seien Ein Problem mit mehrfachen Alternativen.
27
2.4. Probleme über nichtkonvexen Bereichen
wie oben Zahlen g^ i bekannt (oder berechenbar), die die unteren Schranken der Funktionen g ^ , ), i = 1, 2, . . . , m über der Menge Q darstellen. Wir führen ganzzahlige Zusatzvariable yv i = 1, 2, . . . , m ein, die die Werte 0 und 1 annehmen und betrachten das Restriktionensystem x2, . . . , x„) - g*ly1 fif2(x1; x2, . . . , xn) - gjf2y2 9m(xl> x2' • • • > xn)
^ 0, ^ 0,1
9*m 2/m = 0,
wo die Variablen yt der Bedingung
io,
2/« = j j
1
= x> 2> • • • ' m ' yi + Vi + • • • + y>»=
m
—k
(4-8)
unterworfen sind. Die Bedingungen (4.7), (4.8) sind sicher notwendig. Das wird durch eine Erörterung gesichert, die m a n schon als Standarduntersuchung ansehen kann. Wird bei der Lösung gefordert, daß genau k Bedingungen aus (4.6) erfüllt sind, m u ß sich die Ungleichung in (4.8) in eine Gleichung umwandeln. Eine Konkretisierung solch eines Modells, die ein selbständiges Interesse beansprucht, wurde von D I N K E L B A C H und S T E F F E N S [32] angegeben. Es werde einem gewöhnlichen linearen Optimierungsproblem eine Zusatzforderung vom folgenden Typ auferlegt: in einer Endlösung sollen nicht mehr als k Komponenten von Null verschieden sein (selbstverständlich sei k < m). Wir setzen voraus, daß f ü r die Werte aller Variablen obere Grenzen (4.1) bekannt sind (oder gefunden werden können). Wir f ü h r e n ganzzahlige Variable y^, j = 1, 2, . . . , n ein, die die Werte 0 und 1 annehmen. Dann wird die weiter oben formulierte Forderung durch folgendes System von Zusatzbedingungen realisiert: ^ hvi,
Vi = j
i°>
¿ = 1 , 2 , . . . , n,
1
2/i + 2/2 + • ' • + Vn ^ k .
(4.9) (4.10)
Eine andere Variante solcher Probleme mit beschränkter Zahl Nichtnullkomponenten in der Endlösung besteht im folgenden. Werde die Indexmenge N = = {1, 2 , . . . , « } f ü r die Variablen zerlegt in zwei disjunkte Teilmengen: N = = u N2, wobei die Endlösung entweder in den Variablen aus N1 oder in den Variablen aus N2 von Null verschieden ist. Von neuem wird das Vorhandensein oberer Grenzen (4.1) vorausgesetzt. Hier müssen zwei ganzzahlige Variable y1, y2 eingeführt werden. Die von uns benötigten Bedingungen nehmen die Gestalt r> 2/i. 2/2 = | an.
io, 1 ;
x
i = ^j2/2>
2/1 + 2/2 = 1
j e N2,
(4.11) (4-12)
28
2. Mathematische Modelle für die ganzzahlige Optimierung
2.4.3. Wir b e t r a c h t e n einige Probleme mit nichtkonvexen Bereichen. Die E i n f ü h r u n g ganzzahliger Zusatzvariabler g e s t a t t e t es, im R a h m e n der diskreten Optimierung Optimierungsprobleme auf nichtkonvexen Gebieten zu betrachten, die sich als Vereinigung konvexer Polyeder darstellen lassen. Diese Gebiete k a n n m a n auch durch gewisse Alternativbedingungen beschreiben. Wir b e t r a c h t e n als Beispiel ein lineares Optimierungsproblem m i t Zusatzbedingungen * < x.'•i. f ü r das Yariablenpaar x^, Xj2, wo a1 < ku a2 < k2. schreibt Bedingung (4.13) einen ¿ - f ö r m i g e n Bereich, gestellt ist. =
entweder
oder
h, Ì
(4.13) «2 J I n der Xj , a^-Ebene bewie er in Abb. 2.4.2. dar-
Abb. 2.4.2
F ü h r e n wir die ganzzahlige Zusatzvariable y ein, d a n n k ö n n e n wir diesen Bereich durch das Ungleichungssystem 0 ^ xh ^ at +
— aj) y ,
0 ^ xJt ^ k2 - (k2 - a2) y
(4.14)
charakterisieren, wo y = 0 oder 1 ist. F ü r y = 1 f ü h r t die Ungleichung (4.14) zu 0 5S Xjx k1, 0 iS xjt '5' fl2> u n d f ü r y = 0 haben wir 0 5S Xjt fgj av 0 ^
"ü K Die Beschränkungen (4.13) kann m a n auch auf etwas andere Weise interpretieren. Sie sind nämlich der Tatsache äquivalent, daß der gesuchte P u n k t einem der beiden Rechtecke angehören muß, entweder dem Rechteck 0 sä x^ sä klt 0 i:-' x a 2 oder dem Rechteck 0 sä xu sä alt 0 < sä k2. I m allgemeineren Fall k ö n n e n wir einem System (T 1; T[), (T2, T'2), . . . , (Tp, T'p) von Bereichsv p paaren begegnen, wobei die Lösung entweder zu H Tt oder Q T\ gehören m u ß . »=i ¿=i Es werde f ü r jedes P a a r (Tt, T\) der Bereich durch das Ungleichungssystem g{(Pi, »2, • • • , «») ^ o> gi(xv x2,..., xn) ^ 0, | ffUx 1' x2> • • • . xn) ^ 0
2.4. Probleme über nichtkonvexen Bereichen
29
und der Bereich T\ durch das System • , X„) ^ 0, . , xn) ^ 0, 1)
(4.16)
• •• , xn) ^ 0
beschrieben. Seien außerdem Zahlen g\ u die unteren Grenzen der Funktionen gr'fajj, x2, ... , xn), l — 1 , 2 , . . . ,k und die unteren Grenzen der Funktionen h*(xv x2, . . . , xn), s = 1, 2, . . . , r bekannt. Wir führen eine ganzzahlige Zusatzvariable y ein, die die Werte 0 und 1 annimmt. Dann führt unsere Forderung auf das System (¿ = 1 , 2 p) gi(xlt x2, ... , xn) -
x
y ^ 0,
glix^ x2, ... , xn) - g^2 y 9Ï(X 1. t*2, . • • %n) o, m&i, #2> . . . : xn) ~ K A l X #25 • • ;•n) ^ 2 (1 - y) ^ o, K(xi> y ==
. . .
> xn)
r
(1 - y) ^ o,
\0, u-
Ist nun y — 0, so verwandelt sich die erste Ungleichungsserie aus (4.17) in die Ungleichungen gj(xv x2, . . . , xn) ^ 0, l = 1, 2, . . . , k, i = 1,2, . . . ,p (d. h. p (xlt x2, ... , xn) e p| Tij, und die zweite Serie ist automatisch erfüllt. Für y = 1 ¿=i ist die Situation gerade umgekehrt. Wir überlassen dem Leser als Übung, den Bereich zu beschreiben, der durch Vereinigung zweier Dreiecke gebildet wird (Abb. 2.4.3.).
30
2. Mathematische Modelle für die ganzzahlige Optimierung
2.4.4. Die weiter oben beschriebene Behandlung von Alternativbedingungen k a n n zur B e t r a c h t u n g von bedingten oder logischen Restriktionen v e r w e n d e t werden. E s habe nämlich ein mathematisches Optimierungsproblem neben den allgemeinen Restriktionen noch Restriktionen der Gestalt falls
h(x1} x2
3
0
k(xlt
x2,
0 ,
. . . , xn)
(4.18)
wo h(xv x„, . . . , xn) u n d k(xv x2, . . . , xn) gegebene F u n k t i o n e n sind. Hier wird sogar vorausgesetzt, daß f ü r die F u n k t i o n h(xlt x2, . . . , xn) ihre obere Grenze h* b e k a n n t ist, u n d f ü r die F u n k t i o n e n h(xv x2, . . . , xn) u n d k(xlt x2, . . . , xn) die Zahlen u n d k^ die u n t e r e n Grenzen sind. Die bedingte Restriktion (4.18) k a n n offensichtlich in F o r m der Alternativbedingung entweder h(x1, x2, . . . , xn) > 0 , x oder M i > 2 > • • • > «) ^ 0 x
k(xx, x2, . . . , xn) 3: 0 (4.19)
x
umgeschrieben werden. N u n verwenden wir das uns schon b e k a n n t e Verfahren: Nach E i n f ü h r u n g der Zusatzvariablen y, die die W e r t e 0 und 1 a n n i m m t , werden sie in die Gestalt des Ungleichungssystems h(xlt
x2,
. . . , xn)
S:
y,
)
k(xx, x2, . . . , xn) Ji(x1,
x2,
. . . , xn)
(4.20) ^
h*
(1
—
y))
umgeschrieben. Wir bemerken nebenher, d a ß die erste Ungleichung aus (4.20) mit dem Vorzeichen ¡¡> anstelle des Vorzeichens > geschrieben werden k a n n , weil f ü r h{xv x2, . . . , xn) = 0 die Bedingung k(xlt x2, . . . , xn) ^ 0 a u t o m a t i s c h f ü r y = 1 erfüllt wird. Dieses Verfahren k a n n zum Beispiel leicht auf den Fall ü b e r t r a g e n werden, daß die logische Restriktion die kompliziertere Gestalt > 0,
falls
h(xlt
falls
h(xv x2, . . . , xn) < 0, so l(xj,
x2,
. . . , x„)
k(xlt
so
X2,
...
, xn)
x2,
. . . , xn)
^
0,
(4.21)
0
besitzt. F ü h r t m a n drei Zusatzvariable ylt y2, y3 ein, die die W e r t e 0 u n d 1 annehmen, so k a n n m a n (4.21) in Gestalt des Systems (die Bezeichnungen brauchen nicht erklärt zu werden) ( !
-
V i )
^
Ä* yx ^
M
x
i ,
h ( x X
x
2
h*
2 >
,
x
• . n)
^
A*
y2,
;
=
k *
V i ,
•
y
=
Ii
(1
•
)
x
n )
x
n )
2/i + Vi =
2/3)i (4.22)
2/2'
1
2/3
umschreiben. Den Nachweis der Äquivalenz von (4.21) u n d (4.22) überlassen wir dem Leser.
31
2.5. Probleme mit unstetiger Zielfunktion
2.5. Probleme mit unstetiger Zielfunktion 2.5.1. Das wichtigste u n d a m b e s t e n u n t e r s u c h t e P r o b l e m dieses T y p s ist d a s s o g e n a n n t e T r a n s p o r t p r o b l e m m i t f i x e n K o s t e n . W i r bezeichnen wie beim gewöhnlichen T r a n s p o r t p r o b l e m m i t i = 1, 2, . . . , m die P r o d u k t i o n s z e n t r e n f ü r eine b e s t i m m t e h o m o g e n e F r a c h t u n d m i t j = 1 , 2 , . . . , « die V e r b r a u c h e r z e n t r e n . Gegeben seien die G r ö ß e n au der P r o d u k t i o n s u m f a n g im P r o d u k t i o n s z e n t r u m i, b}, der U m f a n g des B e d a r f s im V e r b r a u c h e r z e n t r u m j. Gesucht sind Größen x^ (die zu t r a n s p o r t i e r e n d e n Mengen a u s i n a c h j), die die n a t ü r l i c h e n T r a n s p o r t r e s t r i k t i o n e n n m x = a =0> 2 xti ~ ai> ¿L bj, j=i i=i (5-1) i = 1 , 2, . . . ,m, j = 1, 2, . . . , n , erfüllen u n d die F u n k t i o n m n S Zcu(xu)(5-2) ¿=i i m i n i m i e r e n . J e d e s c{](Xij) in (5.2) h a t die G e s t a l t
{ 0,
xtj = 0,
Cij Xi j + d t 1 ,
Xtj > 0.
^
^
Die Zahlen c ?i k a n n m a n in n a t ü r l i c h e r Weise als K o s t e n f ü r d e n T r a n s p o r t einer F r a c h t e i n h e i t v o n i n a c h j i n t e r p r e t i e r e n . U n t e r k a n n m a n z u m Beispiel die P a c h t k o s t e n f ü r T r a n s p o r t m i t t e l v e r s t e h e n , die n i c h t v o n i h r e n F r a c h t e n a b h ä n g e n oder die K o s t e n f ü r den B a u v o n Magistralen v o n j e d e m Z e n t r u m i n a c h j e d e m Z e n t r u m j, die n i c h t v o n d e n z u k ü n f t i g e n F r a c h t e n a b h ä n g e n . N a t ü r l i c h n i m m t m a n alle ct} u n d di} n i c h t n e g a t i v a n . D a s P r o b l e m (5.1)—(5.3) h e i ß t Transportproblem mit fixen Kosten oder inhomogenes Transportproblem. Sind alle di} = 0, so ist klar, d a ß es i n d a s gewöhnliche T r a n s p o r t p r o b l e m ü b e r g e h t . I m e n t g e g e n g e s e t z t e n Falle f ä l l t dieses P r o b l e m wegen der U n s t e t i g k e i t jedes Gliedes in (5.3) i n der Null völlig aus d e m R a h m e n der linearen O p t i m i e r u n g . Allerdings gelingt es, dieses in ein g e m i s c h t ganzzahliges lineares O p t i m i e r u n g s p r o b l e m z u ü b e r f ü h r e n , w e n n m a n ganzzahlige Z u s a t z v a r i a b l e e i n f ü h r t . E i n e Methode f ü r eine solche E i n f ü h r u n g w u r d e v o n B A L I N S K I [5] angegeben. Sie b e s t e h t im folgenden. E s sei Mtj = m i n {au &,} ,
i = 1, 2, . . . , m, j = 1,2, . . . ,n.
Wir betrachten das Minimierungsproblem für m n 2 Z c i j X f j + dijtfij ¿=i j=I
(5.4)
(5.5)
32'
2. Mathematische Modelle für die ganzzahlige Optimierung
unter den Restriktionen (5.1) und der Zusatzbedingung i°> yij=\l
, //,,'•
(5-6)
Das gemischt ganzzahlige Problem (5.5), (5.1), (5.6) erweist sieh als äquivalent zum Ausgangsproblem (5.1)—(5.3). In der Tat wird bei i/ i? = 0 wegen (5.6) automatisch auch x t j = 0 und für y = 1 wird die Ungleichung (5.6) überflüssig, weil bei einer beliebigen zulässigen Lösung des Transportproblems die Bedingung x t j sS M,ij stets erfüllt ist. Ergibt sich umgekehrt bei irgendeiner optimalen Lösung von Problem (5.5), (5.1), (5.6) x^ = 0, so muß das entsprechende ytj zu Null werden (erwiese es sich als positiv, so würde die Lösung nicht optimal, denn wenn man dieses ytl verkleinert, verletzt man die Restriktionen nicht und gibt der Zielfunktion (5.5) einen kleineren Wert). Ist schließlich xi} > 0, so kann ytj wegen (5.6) nur gleich Eins sein. Somit bringen bei dieser Problemstellung die ganzzahligen Variablen yden Bau von Magistralen zwischen i und j (oder in Abhängigkeit von der Interpretation die Transportpacht für diese Magistrale) und die Realisierung der Transporte zwischen i und j in Einklang. Eine Näherungsmethode zur Lösung des Transportproblems mit Fixkosten, die sich auf diese Überführung gründet, wird in 16.1. beschrieben. 2.5.2. Wir betrachten nun ein allgemeineres Modell mit inhomogener, unstetiger Zielfunktion. Man formuliert es bequem in einer Terminologie, die der des Mischungsproblems ähnlich ist, obwohl so eine Interpretation nicht die einzig mögliche ist. Wir bezeichnen mit j = 1, 2, . . . , n die Komponenten des Gemisches und mit i = 1, 2, . . . , m die uns interessierenden Elemente in diesen Komponenten. Gegeben sind folgende Größen: ciij der Gehalt des Elements i in einer Einheit der Komponente j , bi die untere Schranke für den Gehalt jedes Elements im Gemisch, Cj die Einkaufskosten für eine Einheit der Komponente j, dj die festen Kosten für den Einkauf der Komponente j , die nicht von der gekauften Menge abhängen. Man soll das billigste Gemisch herstellen, das die gegebenen Restriktionen erfüllt. Wir bezeichnen die gesuchte Gesamtheit einer Komponente mit Xj. Dann führt das Problem auf die Minimierung von n I c , { x
t
)
unter den Restriktionen n x
i
0,
(5.7)
i=i
£
wo Cj (Xj)
i
a
=
n
i
bu
i I Cj
o,
x
0.
(5.8)
(5.9)
2.6. Einige Multi-Extremalprobleme
33
gilt. Wir unterstreichen, daß die Ganzzahligkeitsforderung an die Variablen x s nicht ausgedrückt wurde. Dieses Problem k a n n m a n mit dem in 2.5.1. beschriebenen Verfahren in ein allgemeines gemischt ganzzahliges lineares Optimierungsproblem überführen. Wir setzen voraus, daß zusätzlich zu den Bedingungen (5.8) noch obere Grenzen f ü r die Variablen gegeben sind: ^ k„ j = 1, 2, n (5.10) (oder daß diese Grenzen aus physikalischen Daten des Problems irgendwie roh bestimmt werden können). Wir betrachten das Minimumproblem f ü r n
Z c j X , + 0 ist. 2.6. Einige Multi-Extremalprobleme 2.6.1. I n 1. haben wir die Klasse der sogenannten regulären mathematischen Optimierungsprobleme ausgesondert. Grob gesprochen befinden sich in dieser Klasse Probleme, f ü r die ein beliebiges lokales Optimum der Zielfunktion über der Menge der zulässigen Lösungen gleichzeitig das globale Optimum darstellt. Das ist zum Beispiel bei linearen Optimierungsproblemen der Fall. I n der nichtlinearen Optimierung sind Probleme regulär, bei denen eine konvexe Funktion über der konvexen Menge der zulässigen Lösungen minimiert wird (oder eine konkave Funktion maximiert wird). Solche Probleme werden gewöhnlich unter der Bezeichnung konvexe Optimierungsprobleme vereinigt. Heutzutage weist die Lösung linearer und konvexer Optimierungsprobleme keine prinzipiellen Schwierigkeiten mehr auf.
34
2. Mathematische Modelle für die ganzzahlige Optimierung
Die Lage kompliziert sich beim Ubergang zu nichtregulären Problemen stark. U n t e r ihnen h a t t e n wir speziell die diskreten mathematischen Optimierungsprobleme herausgenommen, mit denen sich das vorliegende Buch ja auch befaßt. Andererseits ist die Nichtregularität f ü r mathematische Optimierungsprobleme charakteristisch (im weiteren Verlaufe von 2.6. werden wir wegen der Unzweideutigkeit n u r noch von M i n i m i e r u n g s p r o b l e m e n sprechen), bei denen die Konvexitätsbedingung entweder f ü r die Zielfunktion oder f ü r die Menge der zulässigen Lösungen verletzt wird. I n diesem Falle wird die Zielfunktion im allgemeinen viele lokale Optima besitzen, die nicht mit dem globalen Optimum zusammenfallen. Da viele lokale E x t r e m a f ü r derartige nichtreguläre Probleme vorhanden sind, h a t sich in der sowjetischen L i t e r a t u r die Bezeichnung multiextremal durchgesetzt. Eine einheitliche Theorie der Multi-Extremalprobleme existiert bisher noch nicht, desgleichen befinden sich auch die Rechenmethoden im Keimzustand. Allerdings können Multi-Extremalprobleme im allgemeinen auf gemischt ganzzahlige z u r ü c k g e f ü h r t werden. F ü r Extremalprobleme über nichtkonvexen Bereichen wurde dies faktisch schon in 2.4. demonstriert. I n h a l t von 2.6. wird das Studium des Zusammenhangs von Problemen mit nichtkonvexer Zielfunktion u n d ganzzahligen Problemen sein. Eine derartige Ü b e r f ü h r u n g h a t ein nicht geringes theoretisches Interesse, denn sie weist auf den Ursprung und den gegenseitigen Zusammenhang zweier auf den ersten Blick vollkommen verschiedener Aspekte der „ N i c h t r e g u l a r i t ä t " in der mathematischen Optimierung hin. Außerdem eröffnet sie, soweit numerische Methoden f ü r die ganzzahlige Optimierung schon hinreichend b e k a n n t sind, einen realen Weg zur faktischen Lösung von Multi-Extremalproblemen. Wir gehen sofort zum Studium des erwähnten gegenseitigen Zusammenhangs über u n d bemerken, d a ß die Möglichkeit einer Ü b e r f ü h r u n g nichtlinearer nichtkonvexer Probleme in gemischtganzzahlige zuerst im J a h r e 1957 (d. h. noch vor der Herausbildung allgemeiner Methoden zur ganzzahligen Optimierung) von M A R K O V I T Z u n d M A N N E bemerkt wurde [105]. 2.6.2. Wir b e t r a c h t e n die Aufgabe, die F u n k t i o n f ( x l t x2, . . . , xn) über einer gewissen konvexen Menge G zu minimieren (eine konkrete Methode zur Vorgabe von Cr ist f ü r uns einstweilen gleichgültig). Wir werden voraussetzen, d a ß / in Gestalt einer Summe von F u n k t i o n e n einer Variablen darstellbar ist 1 ), d. h. n f ( x
v
x2,
. . . , xn)
=
Z i A
x
i ) -
(6.1)
3=1
Um die d u r c h z u f ü h r e n d e K o n s t r u k t i o n besser erklären zu können, studieren wir zunächst den regulären Fall. Stelle nämlich jedes Glied / j ( ^ ) in (6.1) eine konvexe 2 ) F u n k t i o n von xj dar, d a n n ist auch f ( x l t x2, . . . , xn) als Summe konvexer F u n k t i o n e n selbst konvex. 1 2
) Solohe Zielfunktionen heißen manchmal separabel. ) Die F u n k t i o n / heißt konvex, wenn A/(z x ) + (1 - A)/(z2) ^ / (A z1 + (1 - A) z2) ,
OrgAsS 1.
2.6. Einige Multi-Extremalprobleme
35
Wir b e t r a c h t e n eine beliebige F u n k t i o n f](xj) aus (6.1). I m folgenden werden wir zur Abkürzung der Schreibarbeit den I n d e x j weglassen u n d einfach f(x) schreiben. Wir versuchen, die Angelegenheit auf die lineare Optimierung zurückzuführen, indem wir jede F u n k t i o n durch eine stückweise lineare F u n k t i o n approximieren. H a b e f(x) die in Abb. 2.6.1. dargestellte Figur. W i r zerlegen den Definitionsbereich von f(x) in einige Teile (die auch ungleich sein dürfen) durch die P u n k t e d0 ( = 0), dlt d2, . . . , dp, u n d auf jeder Strecke Ak = [dk_j, dk] ersetzen wir f(x) durch eine lineare F u n k t i o n : Analytisch ist es bequem, das auf folgende Weise auszudrücken. F ü r beliebiges x definieren wir die Variable Dk =
m e s
{[0, x] (~| Ak);
(6.2)
mit anderen Worten, yk stellt die Länge des Durchschnittes der Strecke [0, a;] mit der Strecke Ak dar. Wir bezeichnen die Länge des Abschnittes Ak m i t hk, d. h. hk = dk — 4 _ 1. D a n n erhalten wir wegen der Definition von yk 0
k = 1 , 2 , . . . ,p.
(6.3)
Weiterhin gilt offenbar X
=
VI
+
VI
+
• ' ' +
VP>
(6-4)
u n d die stückweise lineare Approximation (1.10) i=ij=i mit
0, l
j
xi} = 0 ,
~r "ij > ^¿j
"•
Die Beschränkungen f ü r den Zeitfonds jeder Transporteinheit n e h m e n n u n die Gestalt ZtufriJ^at, an mit
»=1,2,
m
(1.12)
3=1
I t/ j
~T~ j ,
U .
Die Restriktionen (1.9) pro Reise wie auch die offensichtlichen Restriktionen (1.7) bleiben dabei erhalten. Somit besteht das Problem in der Minimierung von (1.10) unter den Restriktionen (1.7), (1.9) u n d (1.12). Aus (1.10) u n d (1.11) ersieht m a n leicht, d a ß wir ein Problem mit F i x k o s t e n (s. 2.5.) vor uns haben. Der Unterschied zu den f r ü h e r b e t r a c h t e t e n Problemen dieser Art besteht darin, d a ß hier die Fixkosten nicht n u r in die Zielfunktion, sondern auch in die Restriktionen (1.12) eingehen. Allerdings k a n n m a n a u c h diese Variante des Problems in ein ganzzahliges lineares Optimierungsproblem überführen. Der in 2.5. beschriebenen analogen T r a n s f o r m a t i o n lag das Vorhandensein oberer Grenzen Mi} f ü r die Variablen x ^ zugrunde. Hier gelingt es sogar, diese Grenzen durch die natürliche Voraussetzung zu finden, d a ß alle t,-j 0 und r i j > 0 sind. I n der T a t h a b e n wir f ü r alle i, j xi} ^ bj . J ) Dieses Problem wurde in der Diplomarbeit v. G. I. der Leningrader Staatl. Univ. 1968) betrachtet.
OZORNYI
(Ökonomische Fakultät
3. Angewandte diskrete Optimierungsprobleme
42
Wegen (1.12) und (1.13) ist
x^ + r a
i t
wie auch
Somit gilt x(j < M{j = min
, 6,J .
(1.14)
Wir führen nun Hilfsvariable VU =
* = 1, 2, . . . , m;
j = 1, 2, . . . , n
ein und betrachten das Minimierungsproblem m n I 2 ca + dn Va i=1
}=1
mit den Restriktionen (1.7), (1.9), (1.15) und n 2 tijXij+rijyij i = 1, 2, . . . , m , j=l x^
< M^
y
f j
,
i = 1, 2, . . . , m ;
j = 1, 2, . . . , n .
(1.15)
(Llß)
(1.17) (1.18)
Seine Äquivalenz zum Ausgangsproblem (1.10), (1.7), (1.9), (1.12) wird mit genau demselben Verfahren nachgewiesen, wie dem in 2.5. auf das Transportproblem mit Fixkosten angewandte. Zum eben untersuchten Problem kann man sogar eine industrielle Interpretation geben, wie das beim Verteilungsproblem am Ende des vorigen Punktes getan wurde. Betrachtet man nämlich die Verteilung von Produktionsprogrammen, so kann man r ^ als Vorbereitungsabschlußzeit für die Bearbeitung des Teils j auf der Maschine i ansehen und dtj als damit verbundene zeitliche Selbstkosten. Derartige Probleme sind charakteristisch für den Maschinenbau. 3.1.4. Wir betrachten das Problem, die Frachtbeförderungsmittel auszuwählen. Die Frachtflotte besitze in ihrem Bestand n Schiffstypen. Die Gesamtheit der Schiffe vom Typ j sei qt, und die Benutzungskosten für ein Schiff vom Typ j in der Planungsperiode mögen c}, j = 1, 2, . . . , n betragen. Jedes Schiff habe Frachträume von m Typen (Kielräume, Tanks, Decks usw.). Die Frachtkapazität für den Frachtraum i auf dem Schiffstyp j sei gleich d^. Es sollen p Frachtarten befördert werden. Von der Frachtart k sei die Menge ak, k = = 1, 2, . . . ,p vorhanden. Es soll der ökonomischste Transportmittelkomplex für diese Frachten bestimmt werden, der mit den Frachtlademöglichkeiten der Schiffe vereinbar ist. Indem wir die Unteilbarkeit der Transporteinheiten beachten, führen wir ganzzahlige Variable x}, j = 1, 2, . . . , m ein, die die Gesamtheit der Schiffstypen bezeichnen, die zum Transport ausgewählt wurden. Außerdem führen
3.1. Transportplanungsprobleme
43
wir Variable y^ k ein, die die Mengen der F r a c h t a r t k bezeichnen, die zur Auslastung des R a u m e s i verwendet werden (i = 1, 2, . . . , m; k = 1, 2, . . . , p). D a n n gelangen wir zum Minimierungsproblem f ü r n S j=i
(1.19)
u n t e r den Bedingungen 0 ^ x} 0 ,
¿ = 1,2,...,»», 1,2, . . , , p .
(1.20) (1.21) (1.22)
Hierbei zeigen die Beschränkungen (1.21), d a ß die Gesamtfrachtmenge, die in den R ä u m e n jedes Types untergebracht wird, die G e s a m t f r a c h t k a p a z i t ä t dieser R ä u m e auf allen Schiffen nicht überschreiten darf. Dagegen entsprechen die Beschränkungen (1.22) der Forderung, d a ß der T r a n s p o r t aller F r a c h t e n vollständig d u r c h g e f ü h r t werden m u ß . Wir bemerken, daß gegenüber den yilc die Ganzzahligkeitsforderung im allgemeinen nicht ausgesprochen wird, so d a ß wir es hier m i t einem gemischt ganzzahligen Problem zu t u n haben. 3.1.5. Wir b e t r a c h t e n n u n ein einfaches Speditionsmodell [7], Eine gewisse zentrale Basis versorge w Lager mit seiner P r o d u k t i o n (die m a n als homogen ansehen kann). Der P r o d u k t i o n s t r a n s p o r t zu den Lagern wird m i t einem Lastwagen durchgeführt, wobei jedes Lager seinen Bedarf bei einer F a h r t erhält. Die F r a c h t k a p a z i t ä t des Lastwagens sei d a f ü r ausreichend. I m allgemeinen k a n n der Lastwagen gleichzeitig F r a c h t e n laden, die dem Bedarf von nicht mehr als k Lagern entsprechen. Der Lastwagen k a n n die Lager auf r bestimmten R o u t e n a n f a h r e n . Selbstverständlich k a n n einmal dasselbe Lager an verschiedenen R o u t e n liegen. F ü r jedes Lager sei die K o s t e n f u n k t i o n f ü r den T r a n s p o r t etwa in Abhängigkeit vom Bedarf b e k a n n t . E s soll ein T r a n s p o r t p l a n aufgestellt werden, der sämtliche Klienten zufriedenstellt u n d die Gesamtkosten minimiert. Wir unterstreichen, daß die Transportzeit hier ü b e r h a u p t nicht in B e t r a c h t gezogen wird. Wir setzen voraus, daß sämtliche Transportoperationen verabredungsgemäß innerhalb einer b e s t i m m t e n Zeitperiode a u s g e f ü h r t werden können, die allen Lagern angenehm ist. U n t e r einem Transport werden wir eine beliebige zulässige K o m b i n a t i o n zur Erfüllung von Nachfragen verstehen. Genauer gesagt stellt ein T r a n s p o r t einen m-dimensionalen Spaltenvektor dar, dessen i-te K o m p o n e n t e gleich E i n s ist, falls der i-te Bedarf bei diesem Transport befriedigt wird u n d gleich Null im entgegengesetzten Falle. F ü r ein beliebiges reales Problem k a n n m a n bei nicht zu großen W e r t e n von m, k u n d r faktisch alle solchen Transporte beschreiben. Die Anzahl n dieser Transporte wird nicht n u r von diesen P a r a m e t e r n abhängen,
44
3. Angewandte diskrete Optimierungsprobleme
sondern auch zum Beispiel von der Anzahl der Lager an jeder Route, dem Umfang der Nachfragen usw. Außerdem k a n n m a n jedem Transport j leicht die mit ihm zusammenhängenden Kosten c} zuordnen (es werden außer den oben angegebenen Transportkosten auch die Arbeitskosten beim Ausladen usw. in Betracht gezogen). So sei unter gegebenen konkreten Bedingungen f ü r ein Problem die Matrix A = H«^-[| aller möglichen Transporte gebildet, die aus Nullen und Einsen besteht. Die Spalten dieser Matrix stellen die oben beschriebenen Transporte dar, d. h. a-j = 1, wenn im Transport^' der Bedarf i erfüllt wird und a-tl = 0 im entgegengesetzten Falle. Man habe außerdem f ü r jeden Transport j die ihm entsprechenden Kosten c i ; j = 1, 2, . . . , n gefunden. N u n besteht die Aufgabe in der Auswahl der ökonomischsten Transportkombinationen. Wir f ü h r e n die Variablen
{
1, falls der j-te Transport realisiert wird
0 im entgegengesetzten Falle
ein. Auf natürliche Weise erhalten wir das Problem, die Gesamtkosten n y , Cj X j 3= 1
(1.23)
(1.24)
unter den Restriktionen (1.23) und f
=
» = 1, 2, . . . , m ,
(1.25)
3=1
zu minimieren. Bedingung (1.25) bedeutet, daß der gesamte Bedarf befriedigt werden soll. Wir wollen die Aufmerksamkeit des Lesers darauf lenken, daß das Modell (1.23)—(1.25) faktisch mit dem in 2.2. betrachteten gewichteten Überdeckungsproblem übereinstimmt. 3.2. Planungs- und Spezialisierungsprobleme Probleme der Planung neuer Betriebe und Spezialisierung der Produktion gewannen in den letzten J a h r e n große Bedeutung. Wegen des ungeheuren Umfangs an Kapiteleinlagen, die f ü r ein beliebiges reales Problem dieser Art benötigt werden, f ü h r t sogar eine kleine Verbesserung der ursprünglichen Planentwürfe zu einem großen volkswirtschaftlichen Gewinn. I n Anbetracht der wichtigen Rolle, die der R a u m f a k t o r bei Planungs- und Spezialisierungsproblemen spielt, stellt die Mehrheit der entsprechenden Modelle Varianten und Verallgemeinerungen des klassischen Transportproblems dar, obgleich sich das Problem selbstverständlich bei weitem nicht nur in einer Aufstellung rationeller Frachtwege erschöpft. Das f ü r diese Probleme typische Vorhandensein von Unteilbarkeitsforderungen f ü h r t in natürlicher Weise zur
3.2. Planungs- und Spezialisierungsprobleme
45
Diskretheit vieler Modelle. I n 3.2. werden wir einige der typischsten Modelle beschreiben, angefangen bei Modellen allgemeinen Charakters u n d bis zu Aufgaben vom T y p des Transportproblems. 3.2.1. Wir beschreiben zuerst eine hinreichend allgemeine Modellklasse, deren Modelle „Rekonstruktionsmodelle" genannt werden können, die aber keine unmittelbare Beziehung zu den in 3.2. b e t r a c h t e t e n F r a g e n h a b e n . Man h a b e n Rekonstruktionsverfahren f ü r schon vorhandene U n t e r n e h m e n u n d den A u f b a u von neuen (es handelt sich u m einen Industriezweig). Die U n t e r n e h m e n sollen m P r o d u k t e herstellen. Bei jedem Rekonstruktionsverfahren j ( j — 1 , 2 , . . . , « , ) m a c h t der Produktionsausstoß f ü r P r o d u k t i (i = 1, 2, . . . , m) pro Zeiteinheit (Planungszeitraum) a ^ aus, u n d die a u f t r e t e n d e n Realisierungskosten f ü r dieses Verfahren sind gleich Cj. Die Frage n a c h der R e k o n s t r u k t i o n u n d dem N e u a u f b a u wird f ü r p Unternehmen b e t r a c h t e t . Dabei wird die Indexmenge f ü r die Rekonstruktionsverf a h r e n N = {1, 2, . . . ,n} in paarweise d i s j u n k t e Teilmengen N = u N2 u u • • • u Np zerlegt, so daß j e Nk bedeutet, daß das Verfahren j zum U n t e r n e h men k (k = 1, 2, . . . , p) gehört. Alle diese Verfahren schließen sich in einem bestimmten Sinne gegenseitig aus: f ü r jedes U n t e r n e h m e n k a n n ein u n d n u r ein Rekonstruktionsverfahren (Neuaufbau) realisiert werden. Gefragt ist n a c h der Auswahl von Rekonstruktionsverfahren, so daß der Gesamtausstoß f ü r jedes P r o d u k t i von allen U n t e r n e h m e n nicht kleiner als eine gegebene Größe bt ist u n d die Gesamtkosten f ü r R e k o n s t r u k t i o n u n d A u f b a u minimal werden. Wir f ü h r e n die Variablen falls das j-te Verfahren realisiert wird -
| 0 im ii entgegengesetzten Falle
(2.1)
ein. D a n n f ü h r t unser Problem auf die Minimierung von 2
3= 1
c, xf
(2.2)
u n t e r den Bedingungen z a>ij Xj^bi, j=i
i = 1, 2, . . . , m
(2.3)
und Z x , = l,
k=l,2,...,p.
(2.4)
Hierbei drückt Bedingung (2.4) in offensichtlicher Weise die Eindeutigkeit f ü r die Realisierung des Rekonstruktions-(Aufbau-)Verfahrens f ü r jedes Unternehmen aus. Wirklich folgt aus (2.1) u n d (2.4) direkt, d a ß in den Grenzen jedes Nk alle x1 gleich Null sind, mit Ausnahme eines, das gleich Eins sein m u ß . Der Zusammenhang von Modell (2.1)—(2.4) mit den Planungsproblemen ist ziemlich durchsichtig. Man k a n n nämlich a n n e h m e n , d a ß einige (oder alle)
46
3. Angewandte diskrete Optimierungsprobleme
U n t e r n e h m e n k n i c h t real, sondern n u r p r o j e k t i e r t sind, wobei f ü r jedes die Verwirklichung h ö c h s t e n s eines R e k o n s t r u k t i o n s v e r f a h r e n s möglich ist (d. h. einige U n t e r n e h m e n k ö n n e n ü b e r h a u p t n i c h t g e b a u t werden). D a n n k a n n m a n f ü r alle Indices k, die p r o j e k t i e r t e n U n t e r n e h m e n entsprecheri, die B e d i n g u n g (2.4) d u r c h die U n g l e i c h u n g e n 2 X1 ^ Wh
1
(2-4')
ersetzen. N u n k ö n n e n sich f ü r gewisse N k in der o p t i m a l e n L ö s u n g alle x f zu Null ergeben, d . h. kein einziges R e k o n s t r u k t i o n s v e r f a h r e n wird f ü r die entsprec h e n d e n U n t e r n e h m e n realisiert. Somit e r h a l t e n wir einen P l a n zur E r r i c h t u n g neuer Unternehmen. D a s beschriebene Modell ist hinreichend allgemein. Allerdings berücksichtigt es n i c h t d e n V e r b r a u c h e r der P r o d u k t i o n u n d spiegelt n i c h t die K o s t e n f ü r d e n T r a n s p o r t der P r o d u k t i o n v o m P r o d u z e n t e n z u m V e r b r a u c h e r wider. A b e r bei vielen realen P l a n u n g s p r o b l e m e n erweist sich e b e n dieses P r o b l e m als sehr wesentlich. D a h e r g e h e n wir z u r B e s c h r e i b u n g v o n Modellen ü b e r , die d e n T r a n s p o r t f a k t o r im w e i t e s t e n Sinne berücksichtigen. 3.2.2. D a s e i n f a c h s t e P l a n u n g s m o d e l l ist das s o g e n a n n t e offene Transportproblem. E s b e s t e h t i m folgenden. M a n h a b e P u n k t e der p o t e n t i e l l e n P r o d u k t i o n i m i t möglichen P r o d u k t i o n s u m f ä n g e n at (i = 1, 2, . . . , m) u n d V e r b r a u c h e r z e n t r e n j m i t d e n B e d a r f s g r ö ß e n bj ( j = 1, 2, . . . , n). W i r b e m e r k e n , d a ß hier v o n P r o d u k t i o n u n d V e r b r a u c h eines b e s t i m m t e n h o m o g e n e n P r o d u k t e s die R e d e ist. D a h e r w e r d e n wir die P u n k t e der P r o d u k t i o n m i t U n t e r n e h m e n identifizieren, die dieses P r o d u k t herstellen u n d d o r t g e b a u t sein k ö n n e n . D a b e i überschreitet der potentielle G e s a m t p r o d u k t i o n s u m f a n g aller E r z e u g e r d e n U m f a n g des G e s a m t b e d a r f s , d. h . m n 2 at> 2 h(2-5) ¿=i j=i Wie a u c h beim gewöhnlichen T r a n s p o r t p r o b l e m ist die T r a n s p o r t k o s t e n m a t r i x IIcij\\ gegeben. E s soll ein T r a n s p o r t p l a n \\Xij\\ b e s t i m m t werden, der der Bedingung n m x ij ^ 0 , 2 ^ , 2 xij = bi (2-6) j=i ¿=i g e n ü g t u n d die G e s a m t k o s t e n m
n
2 2 cij xij i=1 j=1
(2.7)
m i n i m i e r t . Dieses P r o b l e m u n t e r s c h e i d e t sich v o m klassischen T r a n s p o r t p r o blem n u r d a r i n , d a ß anstelle der gewöhnlichen Ausgeglichenheit v o n P r o d u k t i o n u n d V e r b r a u c h die U n g l e i c h u n g (2.5) gilt. D e s h a l b erscheinen in B e d i n g u n g n
(2.6) anstelle der Gleichungen 2 xij = 3= 1
a
i Ungleichungen.
47
3.2. Planungs- und Spezialisierungsprobleme
Die Lösung von Problem (2.6)—(2.7) r u f t keine andere Schwierigkeit hervor, denn u n t e r B e n u t z u n g des allgemein b e k a n n t e n Verfahrens (Einführen eines fiktiven Bedarfs) wird es auf das Transportproblem zurückgeführt. Die optimale Lösung II«,* || dieses Problems ergibt folgende I n f o r m a t i o n : 1. Ein Verzeichnis der realen Produzenten (die Menge all derjenigen i, f ü r die die Größen n
=
af
v j=i
x
f .
(2
.8)
positiv sind). 2. Die geplanten K a p a z i t ä t e n dieser Produzenten (die positiven af in (2.8)). 3. Ein Schema f ü r die Verbindung vom P r o d u z e n t e n zum Verbraucher (die Zahlen x f j selbst). Von Fall zu Fall k a n n m a n zu den Bedingungen (2.6)—(2.7) Zusatzbeschränkungen hinzufügen, ohne den ,,Transport"-Charakter des Problems zu verändern. So k a n n m a n f ü r gewisse i noch das Erfülltsein der Ungleichung n
»ü = r «
S
j=1
fordern (der P r o d u k t i o n s u m f a n g im gegebenen Z e n t r u m darf nicht kleiner als eine gegebene Schranke sein) usw. Problem (2.6)—(2.7) ist in unserem Verzeichnis von diskreten Modellen aus rein formalen Gründen eingeschlossen, die genau in 2.1. erklärt wurden (Ganzzahligkeit der optimalen Lösungen beim Transportproblem). Allerdings f ü h r e n schon einige weitere Verallgemeinerungen dieses Verfahrens auf diskrete Probleme im eigentlichen Sinne des Wortes. Eine der u n m i t t e l b a r s t e n Verallgemeinerungen solcher A r t ist das früher beschriebene T r a n s p o r t p r o b l e m mit Fixkosten (s. 2.5.). Wir erinnern, daß es die Minimierung der F u n k t i o n m
Z
mit
¿= i
I
«> H -\
c
i j
n
2 Cijtoj)
(2.9)
j = i
Xfj = 0 , -i j x
+•
-d i j
*;;>o
(2
-io)
unter den Restriktionen (2.6) beinhaltete. Das ökonomische Modell (2.9), (2.10), (2.6) wird zum Beispiel natürlich als „ P l a n u n g bei Unzugänglichkeit" interpretiert. U n t e r c { j k a n n m a n in diesen Bedingungen die T r a n s p o r t k o s t e n verstehen und unter d,^ die Wegekosten zwischen dem P r o d u z e n t e n i u n d dem Verbraucher j. Die Ü b e r f ü h r u n g dieses Problems auf ein ganzzahliges wurde in 2.5. demonstriert. 3.2.3. I m vergangenen P u n k t e wurden Modelle b e t r a c h t e t , in denen der geplante P r o d u k t i o n s u m f a n g af (s. (2.8)) jedes Zulieferbetriebes beliebige W e r t e in vorgegebenen Grenzen a n n e h m e n konnte. Hingegen ist der Fall ziemlich
48
3. Angewandte diskrete Optimierungsprobleme
typisch, wo die in einem Produktionszentrum geplante P r o d u k t i o n eines Betriebs durch einige Varianten realisiert werden kann, wobei jeder Variante ein P r o d u k t i o n s u m f a n g entspricht. Wir zeigen, wie m a n bei der Projektierung eines Kohlentagebaues im Zweigwerk einen, zwei, drei usw. Bagger installieren k a n n , je nachdem wie m a n die Produktionsvarianten dieses Tagebaues bestimmt. I n diesem Fall können wir zum folgenden Modell [112] übergehen. Seien wie vorher mögliche Produktionszentren i = 1, 2, . . . , m u n d Verbraucherzentren j m i t festem Bedarfsumfang b} {j = 1 , 2 , . . . , n) gegeben. Gegeben sei auch die Selbskostenmatrix ||c, j|| f ü r den Transport (Franko-Verbraucher). F ü r jedes Produktionszentrum i sind p, projektierte Varianten möglich, denen die Produktionsumfänge a.f (k = 1, 2, . . . , p f ) entsprechen. Wir f ü h r e n zu den gewöhnlichen „Transport"-Variablen «¡j Zusatzvariable y t k (i = 1, 2, . . . , m; k = 1, 2, . . . , p j ein, die folgenden Sinnhaben: yik = •
1, falls im Z e n t r u m i der P r o d u k t i o n s u m f a n g a\ a n g e n o m m e n wird,
(2.11)
0 im entgegengesetzten Falle. D a n n wird unser Ziel in der Minimierung einer Zielfunktion der Gestalt (2.7) u n t e r den Restriktionen x
ij =
o ,
n
m
fO, 11
ttiH,
Z*U Z Xij
b
== 1>1> i.
(2-i2)
Vi
1
2 xi}
k =
l,2,...,pi
einführen und Zusatzbeschränkungen zugrunde legen: Vik^ 0; Vik^hk^ik, Vi,k +1 = hi,k + l zik ,
Vn^hi, ¿ = 1,2, . . . , m , k = \,2, . . . , Pi .
(2.26)
Schließlich wird das nichtlineare nichtkonvexe Planungsproblem angenähert durch die Minimierung von (2.25) unter den Restriktionen (2.24), (2.26) und ^ 0 , 5
Diskrete Optimierung
Z xi} = b, ,
i=1
¿ = 1,2,...,».
(2.27)
52
3. Angewandte diskrete Optimierungsprobleme
3.3. Logische Projektierungsprobleme I n neuester Zeit zeichnete sich für diskrete Optimierungsmodelle ein vollständig neues Anwendungsgebiet ab. Es geht um einen Kreis von Optimierungsproblemen, die einerseits mit Projektierungsfragen logischer und rechentechnischer Anlagen zusammenhängen und andererseits an einige moderne Probleme aus der theoretischen Kybernetik anschließen (vor allem die diskrete Analysis). I n 3.3. werden einige charakteristische Problemstellungen dieser Art beschrieben. 3.3.1. Wir betrachten das Zuordnungsproblem für Produktionseinheiten. Man habe m nicht teilbare Produktionseinheiten, die wir im weiteren kurz Zentren nennen werden. Jede solche Produktionseinheit soll an einem von n möglichen Orten installiert werden. Die unmittelbar mit der Unterbringung des Zentrums i am Ort j verbundenen Kosten (die „Installierungskosten") seien gleich ctj (i — 1, 2, . . . , m; j = 1, 2, . . . , n). Die „Entfernungen" dtj vom Ort i nach dem Ort j seien bekannt (die Zahlen dij brauchen überhaupt nichts mit den entsprechenden geometrischen Entfernungen zu tun zu haben; sie sind nur Kostenabschätzungen, die mit der Verlegung von i nach j verbunden sind). Gegeben sind außerdem die „Produktionsflüsse" vom Zentrum i zum Zentrum j. Wir bemerken, daß man o. B. d. A. m = n setzen kann. Im Fall m < n führen wir nämlich fiktive Zusatzzentren m + l , m + 2, . . . , n ein, indem wir für sie Cij = 0 für i m + 1 und + 0 für i ^ m + 1 oder.? ¡5; m + 1 setzen. Unser Ziel ist eine Zuordnung (Gründung) der Zentren zu den Orten, so daß die Gesamtkosten minimiert werden. Jede solche Zuordnung stellt eine Permutation (Pi> ]?2> • • • > Pn) der Zahlen (1,2, . . . , n) dar. Dabei wird eine beliebige durchgeführte Gründung eines Zentrums i am Ort pt durch die Beziehung i ph i — 1, 2, . . . , n beschrieben. Für eine beliebige Zuordnung haben wir zuerst „unmittelbare" Kosten für die Verbindung zwischen Paaren von Zentren. Wir werden voraussetzen, daß diese Kosten bei der Einrichtung eines Zentrums i am Ort pt und eines Zentrums j am Ort pt gleich dem Produkt der Flußgrößen zwischen i und j mit der Entfernung zwischen pt und p-j sind, durch die diese Ströme fließen, d. h ,f{j dPiP ausmachen. Somit soll eine Permutation ^j, p2,... ,pn der Zahlen 1,2, . . . ,n gefunden werden, die die Gesamtkosten n n n 2 cipi + 2 £ fijj Vektoren von der Dimension p, die aus Nullen und Einsen bestehen, Null oder Eins zugeordnet wird. Wir werden einen analytischen Ausdruck f ü r diese Funktion suchen. Ein bekanntes Konstruktionsverfahren dafür besteht im folgenden. Wir notieren in der Tabelle für die BooLEsche Funktion F alle Zeilen i, in denen F = 1 ist. Sei (Ii, ty) irgendein (der i-te) Satz, f ü r den f?, . . . , = 1 ist. Wir bilden für diesen Satz das Produkt Pi = Tl%k k=1
mit g
| h, l 1 - (t,
(3.13)
falls ( i = 1, falls ££ = 0 .
P r o d u k t e der Gestalt (3.13) werden Fundamentalprodukte genannt. Wir bilden nun das Fundamentalprodukt P 4 f ü r jede Zeile i, in der F = 1 ist (die Gesamtheit solcher Zeilen bezeichnen wir mit m) und bilden die BooLEsche Summe dieser Pf. m
F = E Pij=i
(3.14)
Formel (3.14) gibt uns auch den analytischen Ausdruck der geforderten Form. Nun kann man zum zweiten Syntheseproblem übergehen, zum Auffinden im definierten Sinne „einfachsten" oder „ökonomischsten" analytischen Ausdruck. Dieser Begriff selbst wird später präzisiert. *) So eine Tabelle wird oft „Wahrheitstafel" genannt.
3.3. Logische Projektierungsprobleme Wir führen noch einen wichtigen Begriff ein. Implikant der Gestalt I = n%k
57
der Funktion F wird ein P r o d u k t (3.15)
ktS
genannt, wo S irgend eine Teilmenge der Indexmenge {1, 2, . . . , p) ist, die die Eigenschaft besitzt, daß aus 7 = 1 folgt G = 1 und so, daß f ü r beliebiges
(d. h. ein beliebiges eigentliches Teilprodukt von (3.15)) diese Eigenschaft schon nicht mehr besitzt. M. a. W., der Implikant ist Produkt von Variablen und deren Komplemente, das aus einer minimalen Anzahl von Multiplikatoren gebildet wird und gleich 1 ist nur im Falle F = 1. Die ökonomischste Darstellung werden wir in Gestalt einer BooLEschen Implikantensumme suchen, die eine minimale Gliederzahl besitzt. Somit müssen wir ein Konstruktionsverfahren f ü r alle Implikanten der Funktion F kennen. Hierfür geht man von der Darstellung (3.14) aus und versucht es mit der Anwendung der folgenden beiden Regeln. Regel Enthält die Darstellung (3.14) einen Ausdruck der Oestalt P{1 + Pj a , wo das Glied P{1 als Faktor in Pu eingeht, so streicht man ihn aus der Summe Pi2. R e g e l II: Enthält die Darstellung einen Ausdruck der Gestalt f j + (1 — fj;) Pi,, so fügt man den Ausdruck Pj, 1 ) zur Summe hinzu unter der Bedingung, daß a) P ^ P; 2 keine Produkte der Gestalt (1 — enthält (denn in diesem Falle ist Pi1 P{t = 0) und b) Pii Pi2 keine Teilprodukte enthält, die in der Summe schon als einzelne Glieder auftreten. Die Bildung von Implikanten geschieht auf folgende Weise. Auf (3.14) wird sukzessive Regel I angewandt. Ist deren Anwendung unmöglich, nimmt man Regel II. K a n n man die Anwendung beider Regeln unmöglich einrichten, ist das Verfahren beendet, die im Ergebnis erhaltene Summe besteht aus allen Implikanten. Schließlich müssen wir nun noch die Formulierung des Problems der optimalen Synthese von Schemata in Gestalt eines Uberdeckungsproblems fertigstellen. Seien P \ , • • • , Pm die Fundamentalprodukte der Funktion F und Ilt I2, . . . , In deren Implikanten. Wir erhalten I, falls I j Teilprodukt von P ist, ^ ^
{
a
ii
4
0 im entgegengesetzten Falle. M. a. W. a ( j = 1 bedeutet, daß aus P 4 = 1 folgt J j = 1. Wir führen nun die Variablen falls der Implikant j in die Darstellung eingeht im entgegengesetzten Falle.
u.
Es soll eine Auswahl mit minimaler Implikantengesamtheit gefunden werden. Das bedeutet, daß man die Funktion (3.7) (wir gehen jetzt von der BooLEschen Addition zur allgemeinen über) unter der Bedingung minimiert, daß dabei alle Einswerte der Funktion F gesichert werden. Offenbar wird die letzte Forderung auch durch die in (3.8) auftretenden Ungleichungen ausgedrückt. Also sind wir wirklich zu einem Uberdeckungsproblem gelangt. Man kann sogar annehmen, daß jedem Implikanten I j ein „Gewicht" (das etwa die Kosten für die technische Realisierung des dem Implikanten entsprechenden Blocks ausdrücken kann) beigelegt wird. I n diesem Falle kann man davon sprechen, daß ein Schema mit minimalem G e s a m t g e w i c h t " gefunden werden soll. Es ist klar, daß diese Forderung durch das gewichtete Überdeckungsproblem (3.7'), (3.8) beschrieben wird. 1
) Dabei muß man sich erinnern, daß f £ = £ gilt.
3. Angewandte diskrete Optimierungsprobleme
58
Die Fülle und Neuheit der in diesem Punkte eingeführten Begriffe macht ein illustrierendes Beispiel wünschenswert. Die Funktion F von vier BooLESchen Variablen (p = 4) werde durch die folgend angegebene Tabelle beschrieben. £1
f.
0
0 0 0 0 *0 0 *0 1 1 1 1 *1 *1 1 1
0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
s,
f«-
F
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 0
Hier ist m = 4 (die entsprechenden Zeilen sind links vom Strich notiert), so daß die Darstellung (3.14) die Gestalt
F = (l ~{2)
^(1 -f3)|4
+
(l - f 1 ) f 1 i , f
4
+ i i f , ( l - f , ) ( l - f « ) + f i f , (1 - f , ) f « (3.14')
haben wird. Wir kommen zur Implikantensuche und betrachten die ersten beiden Glieder von (3.14') und wenden Regel I I auf diese an. Dann wird diesen Gliedern das Produkt (1 — £±) X x (1 — i 2 £2 £4 Si, d. h. (1 — |j) f 2 f 4 hinzugefügt.Danach streicht eine zweifache Anwendung der Regel I die ersten beiden Glieder, und wir erhalten
F = (1 -
( , s, +
s2 (1 - | 3 ) (1 -
f 4 ) + & i2 (1 -
f3) f4 .
(3.14")
Wir wenden nun Regel I I auf das erste und dritte Glied des erhaltenen Ausdruckes an und fügen ihm das Produkt £ 2 (1 — f 3 ) f 4 hinzu, streichen aber danach gemäß Regel I das letzte Glied von (3.14"). So erhalten wir F
= (1 -
S214 +
(1 -
{ , ) f 4 + ( x f 2 (1 -
f . ) (1 -
f4) .
(3 1 4 " ' )
Wir wenden noch einmal Regel I I auf das zweite und dritte Glied von ( 3 . 1 4 " ' ) an, benutzen danach Regel I und erhalten schließlich die Darstellung F
= (1 - f t ) |2|4
+
- |3) |4 + lx?2(l
- f3).
auf die Regel I und I I schon nicht anwendbar sind. Somit ist n = 3, und wir erhalten die Implikanten /, = (1 - ? ! ) £ , £ « , I2 = f 2 (1 -
73 =
£3) (4.
^^(1-13).
Nun können wir eine 4 x 3-Matrix nach der Regel (3.16) bilden Der erste Implikant geht ins erste und zweite Fundamentalprodukt, der zweite ins erste und vierte und der dritte ins
3.4. Probleme der Ablaufplanung
59
dritte und vierte ein. Damit ergibt sich
(3.16')
und unser Überdeckungsproblem erlangt die Gestalt: Man minimiere "3
unter den Restriktionen X
1 +^2=1' x, > 1
1, X2 ~~{"" it'j
{
19
0 , 1.
Aber die optimale Lösung dieses Problems wird direkt ausgeschrieben, da aus den Restriktionen x1 = 1 und xs = 1 folgt, wonach man notwendig x2 = 0 erhält. Somit geht in die minimale Darstellung der Funktion F der erste und dritte Implikant ein, d. h. f = (1 - f 1 ) i 2 f « + f 1 f 2 ( l - f „ ) . Aus dem angeführten Beispiel ist ersichtlich, daß sich die Lösung von Überdeckungsproblemen oft bei Berücksichtigung einer spezifischen Struktur der Restriktionsmatrix erleichtert. Wirklich gibt es eine Reihe einfacher Verfahren zur Vereinfachung der Matrix von Überdeckungsproblemen. Sie beruhen auf Ideen, die der Idee der dominierenden Strategie in Matrixspielen ähnlich sind. Dazu vgl. z. B . den Übersichtsartikel von B A L I N S K I [6]. Wir bemerken, daß dem beschriebenen Problem in der Logik und in der diskreten Analysis das Problem der Minimierung disjunktiver Normalformen entspricht. Zum Schluß widmen wir unsere Aufmerksamkeit noch der Möglichkeit einer rein kombinatorischen Interpretation des Überdeckungsproblems. Sei nämlich eine Matrix gegeben, die aus Nullen und Einsen besteht. Gefordert ist, daß man in ihr einen solchen minimalen Satz auswählt, daß die in diesen Spalten stehenden Binsen in jeder Matrixzeile mindestens einmal auftreten. In diesem Sinne kann man sagen, daß die ausgewählten Spalten eine „Überdeckung" der Matrixzeilen bilden. 3.4. P r o b l e m e der A b l a u f p l a n u n g
3.4.1. Relativ wichtig in Bezug auf die Anwendungen ist die sogenannte allgemeine Theorie der Ablaufplanung. In der entsprechenden Literatur wird dieses Problem gewöhnlich Reihenfolgeproblem genannt. Sein allgemeines Schema kann man wie folgt beschreiben. Man hat m Maschinen und n Einzelteile, wobei jedes auf allen Maschinen in einer bestimmten Reihenfolge bearbeitet werden muß. Diese Reihenfolge muß für alle Teile eindeutig sein oder höchstens für verschiedene Gruppen davon verschieden. Dabei werden die Produktionsgänge als unteilbar angesehen (beginnen wir die Bearbeitung von Teil j auf der Maschine i, so müssen wir diese Bearbeitung bis zum Ende durchführen, ohne das Recht zur "Unterbrechung zu haben usw.).
60
3. A n g e w a n d t e diskrete Optimierungsprobleme
Die gegebene Matrix A — ||ßü||, wo 2; 0 die Zeit bedeutet, die notwendig ist, um das T e i l j auf der ¿-ten Maschine zu bearbeiten (a 4i = 0 f ü r solche Teile j, die auf der Maschine i nicht bearbeitet zu werden brauchen). Gefordert ist eine Reihenfolge der Teile in der Bearbeitung, die die Gesamtzeit zur Ausführung aller Arbeiten (die Länge des Produktionszyklus) minimiert. Eine unmittelbare Lösung dieses Problems (auf dem Wege der Durchsicht aller Varianten) ist nicht durchführbar, weil dabei schon im einfachsten Falle einer linearen Ordnung eine Durchsicht der Einzelteile dazu führte, daß m a n die kleinste unter n\ Größen heraussuchen muß. Bei großen n ist das selbst bei Benutzung von schnellsten Elektronenrechnern undurchführbar. Ungeachtet der großen Bedeutung dieser Probleme f ü r die Praxis (das beschriebene Modell oder seine Varianten stellt das Schema f ü r die Hauptmasse der Produktionsbeschränkungsprobleme dar), gelang bisher seine Lösung nur f ü r den Fall 1 ) m = 2. Anstattdessen ergab der Fall in "_> 2 bisher ziemlich ernste theoretische und rechnerische Schwirigkeiten. Die Aufstellung der Probleme dieser Klasse in Gestalt ganzzahliger linearer Optimierungsprobleme stellt ein Verfahren mit der Perspektive dar, in dieser Richtung vorwärts zu kommen. 3.4.2. Einige Formulierungen f ü r Probleme aus der Theorie der Ablaufplanung in Gestalt ganzzahliger linearer Optimierungsprobleme sind bekannt. Wir beschreiben eine der wichtigsten Problemstellungen, die auf einer Idee von A . MANNE [ 1 0 4 ] b a s i e r t ; s. a u c h [77], K a p . 1 2 .
Ohne Einschränkung der Allgemeinheit k a n n m a n als ganze Zahlen annehmen. Die Aufstellung eines Arbeitsablaufplanes f ü r die Einzelteile werden wir mit einem „ K a l e n d e r " in Zusammenhang bringen, dessen „ T a g e " wir mit den ganzen Zahlen 0 , 1 , . . . ,T durchnumerieren, wo T hinreichend so groß ist daß die Möglichkeit, alle Teile zu verarbeiten, anerkanntermaßen garantiert ist. Wir führen nichtnegative ganzzahlige Variable xtj ein, die die Werte 0, 1 ,...,T annehmen. Hier bezeichnet xtl- das „ D a t u m " a n dem mit der Bearbeitung des j-tv.n Teils auf der i'-ten Maschine begonnen wird. Wir betrachten die Bedingungen, denen die xi} genügen müssen. 1. Zuerst m u ß m a n eine Beschränkung einführen, die die gleichzeitige Bearbeitung zweier Teile auf einer Maschine verbietet. D a f ü r dürfen die Zeitpunkte f ü r den Bearbeitungsbeginn zweier beliebiger Teile j, k auf dem „ K a l e n d e r " nicht weniger als nur die Bearbeitungsdauer desjenigen davon auseinanderliegen, das zuerst begonnen wird, d. h. xi} — xik^aik
oder
xik — xtj Ss at1 .
(4.1)
I n gewöhnlichen linearen Optimierungsproblemen k a n n m a n eine Alternativbedingung vom Typ (4.1) nicht einführen. Wir konkretisieren das in 2.4. beschriebene Verfahren zur Abarbeitung von Alternativbedingungen und definieren ganzzahlige Variable yi}k, die die Werte 0 oder 1 annehmen. D a n n k a n n m a n ') S. 1.2.3
3.4. Probleme der Ablaufplanung
61
(4.1) in die F o r m (T + aik) yijk
+ {xtj — xik) ^ aik ,
(T -f ati) (1 — yi}k)
+ (xik — xtj) ^ atj
(4.2) (4.3)
umschreiben. Wir machen auf die offensichtliche Ungleichung \xti — xik\ T aufmerksam, die sich aus der Definition von T ergibt. E s ist klar, d a ß der Fall Xtj — xik = 0 unmöglich ist (d. h. die Bearbeitung zweier verschiedener Teile k a n n nicht gleichzeitig auf einer Maschine beginnen), denn in diesem Falle wäre Ungleichung (4.2) n u r f ü r yijk = 1 erfüllt, hingegen die Ungleichung (4.3) n u r f ü r Viik ~ 0. I s t Xtj — xik > 0, so k a n n yi1k in (4.2) gleich Null oder Eins sein, u n d in (4.3) nur Null, der einzig mögliche Wert hier wird yi)k = 0. I s t dagegen x a — xjk < 0, so k a n n yi]k in (4.2) nur gleich Eins sein u n d in (4.3) sowohl Null, als auch Eins, so daß in diesem Falle nur yi1k = 1 möglich ist. Hieraus ist klar, daß yi1k = 0 ist, wenn auf der i-ten Maschine der Bearbeitung des i - t e n Teiles die Bearbeitung des j-ten Teiles vorangeht u n d = 1 im entgegengesetzten Falle. 2. N u n m u ß sich die gegebene technologische Reihenfolge bei der Durchsicht der zu bearbeitenden Teile auf den Maschinen widerspiegeln. Bei der gegebenen Formulierung ist es im Prinzip gleichgültig, ob diese Ordnung f ü r alle Teile identisch ist oder nicht. Muß nämlich das Teil j zunächst auf der Maschine i bearbeitet werden und d a n a c h auf der Maschine l, so benötigen wir Xu — xt1 ^ at1 .
(4.4)
Hieraus ist klar, d a ß der Fall xlf — xtj = 0 (d. h. der gleichzeitige Bearbeitungsbeginn eines Teiles auf zwei Maschinen) n u r bei ai} = 0 möglich ist, d. h. dann, wenn das gegebene Teil auf einer Maschine d a v o n ü b e r h a u p t nicht bearbeitet zu werden b r a u c h t . F ü r manche Teile k a n n die Anordnungsbedingung a u c h n u r in folgender abgeschwächter F o r m zugrunde gelegt werden: das Teil j m u ß bei Bearbeitungsbeginn zur Maschine ^ u n d i2 (in beliebiger Ordnung) gebracht werden u n d danach zur Macshine l. D a n n wird Bedingung (4.4) durch folgende zwei Bedingungen ersetzt: ~
> aij ,
~
x
i2j
aid .
(4.4a)
Man k a n n noch eine Variante f ü r Bedingungen dieses T y p s eingeben, wenn m a n a n n i m m t , d a ß das Teil j zwischen der Bearbeitung auf den Maschinen i u n d l eine Zeit r' u (ganze Zahl) liegen m u ß . I n diesem Falle ist xlf - xu = ai} +tiil
.
3. E s k ö n n e n zusätzliche ,,Abfertigungs"-Bedingungen auferlegt (d. h. f ü r die Fristen zur Beendigung einzelner Arbeiten). So h a t m a n xfi + atj ^ di} ,
i4.4b) werden (4.5)
wenn die Bearbeitung des Teiles j auf der Maschine i zur Zeit dis beendet sein muß.
62
3. Angewandte diskrete Optimierungsprobleme
4. Als Optimierungskriterien wird die Minimierung der Gesamtbearbeitungszeit einer Partie genommen. Sei i(5S T) der Zeitpunkt, an dem die Arbeit vollständig beendet ist. Man muß t unter den Restriktionen x(1 + at]
t,
i =
1,
2, . . . , w ;
j
=
1,
2, . . . , n
(4.6)
und den Bedingungen (4.2), (4.3), (4.4) (oder einer Variante davon) möglicherweise noch unter der Bedingung (4.5) minimieren. I n all diesen Modellen Variable einzuführen (abgesehen von t und den freien Variablen). Diese Variablen müssen außerdem noch ganzzahlig sein. Für reale Probleme f ü h r t das sogar bei bescheidensten Ausmaßen auf ziemlich umfangreiche Modelle (so erhält man bei m = 5 und n = = 275). Allein ist das beschriebene Modell offensichtlich eines der ökonomischsten im Sinne der Dimension des zu erhaltenden ganzzahligen Problems. Wir werden hier nicht länger bei den Problemen aus der Theorie der Ablaufplanung verweilen, weil unser unmittelbares Ziel nur die Beschreibung des entsprechenden diskreten Modells war. Selbstverständlich erschöpft eine derartige Einführung bei weitem nicht alle Aspekte des Problems, vor allem aus dem Grunde, weil sie auf ernste rechentechnische Schwierigkeiten f ü h r t . Daher spielen bei der Lösung dieser Probleme verschiedene Arten von approximativen und heuristischen Methoden eine große Rolle. Der an der Ablaufplanungstheorie interessierte Leser k a n n eine relativ vollständige Darstellung über den gegenwärtigen Zustand der Fragen erhalten, wenn er sich mit dem Sammelband „Industrial scheduling" [77] bekannt macht. Wir weisen auch auf das Buch [121] hin.
3.5. Andere angewandte Probleme Wir haben schon bemerkt, daß es zur Zeit kaum möglich ist, eine erschöpfende Klassifizierung der angewandten diskreten Optimierungsprobleme zu geben. Hier werden noch einige in ihrem Charakter unterschiedliche Modelle beschrieben, die jedoch im Grunde auf dem Leser schon bekannten Ideen basieren. 3.5.1. Wir betrachten das folgende vereinfachte Problem zur besten Speicherausnutzung einer Rechenanlage. Sei 77^ das j-te Standard-Programm zur Berechnung der F u n k t i o n i in der Programmbibliothek (i = 1, 2, . . . , m ; j = = 1 , 2 , . . . , n). Das Programm 77,;; besetzt ptl Zellen im Speicher und braucht tij Sekunden zur Berechnung. Es soll ein „ P r o g r a m m " 77 zusammengestellt werden, das durch Vorgabe eines gewissen Satzes I von Indices i bestimmt ist, d. h. einer Funktion, die berechnet werden soll (das Vorhandensein anderer Befehle wird unterdrückt). Dabei m u ß zur Aufstellung des Programms 77 so eine Auswahl von Unterprogrammen 774i getroffen werden, daß die Gesamtprogrammlänge M Zellen nicht überschreitet und die Rechenzeit dabei minimal wird.
3.5. Andere angewandte Probleme
63
Wie gewöhnlich bei d e r a r t i g e n Fällen f ü h r e n wir die V a r i a b l e n (5.1)
n iil
u n t e r den R e s t r i k t i o n e n n £
X(j
— 1,
(5.2)
j =l n
i t i ;
Z iel
H P n j =1
xti
^
M
.
(5.3)
3.5.2. Einige P r o b l e m e ü b e r rationellen M a t e r i a l z u s c h n i t t k ö n n e n in n a t ü r licher Weise d u r c h ganzzahlige Modelle beschrieben w e r d e n . Als Beispiel f ü h r e n wir die folgende V a r i a n t e eines linearen (homogenen) Z u s c h n i t t p r o b l e m s a n . M a n h a b e eine große (praktisch u n b e s c h r ä n k t e ) A n z a h l h o m o g e n e r H a l b f e r t i g p r o d u k t e m i t gleicher L ä n g e L. D a s k ö n n e n R ö h r e n , S t ä b e usw. sein. Die H a l b f e r t i g p r o d u k t e sollen in S t ü c k e (Einzelteile) v o n m T y p e n zerlegt w e r d e n . Die L ä n g e eines Stückes v o m T y p i sei gleich lu i = 2, . . . , m. Aus d e n g e g e b e n e n Zahlen L u n d l { k a n n m a n die M a t r i x aller möglichen Zuschnittverfahren A = = \\an\\ bilden, wo jedes a i ? die G e s a m t h e i t der S t ü c k e v o m T y p i bezeichnet, die m a n a u s einem H a l b f e r t i g p r o d u k t b e i m Z u s c h n i t t n a c h d e m V e r f a h r e n j = 1, 2, . . . , n e r h ä l t . Somit wird jedes Z u s c h n i t t v e r f a h r e n j d u r c h eine S p a l t e der M a t r i x A dargestellt. Sie ist d u r c h einen Satz ganzer Z a h l e n ai} c h a r a k t e r i siert, die n u r der B e d i n g u n g L
m
^ £
»=i
(5.4)
a t i l(
u n t e r w o r f e n sind (die G e s a m t l ä n g e der a u s d e m H a l b p r o d u k t h e r a u s g e s c h n i t t e n e n S t ü c k e darf die L ä n g e des H a l b p r o d u k t s n i c h t ü b e r s c h r e i t e n ) . E s ist w i c h t i g zu b e m e r k e n , d a ß die M a t r i x A dieses P r o b l e m s n i c h t v o n A n f a n g a n gegeben ist, s o n d e r n e t w a im Zuge der L ö s u n g des P r o b l e m s a u f g e b a u t w e r d e n k a n n . Die A n z a h l der S c h n i t t m e t h o d e n k a n n sogar bei P r o b l e m e n m i t kleiner Menge von V e r f a h r e n ziemlich i m p o s a n t sein. So e r h a l t e n wir z u m Beispiel f ü r L = 70, m = 2, = 20, l2 = 15 die folgende M a t r i x 0 1 2 3 2 2 1 1 1 0 0 0
0'
0 0 0 0 1 2 1 2 3 1 2 3 4 Hier b e d e u t e t z u m Beispiel die 5. Spalte, d a ß m a n a u s einem H a l b p r o d u k t 2 S t ü c k zu 20 u n d 1 S t ü c k zu 15 h e r a u s s c h n e i d e n k a n n . I n s g e s a m t h a b e n wir 13 Z u s c h n i t t v e r f a h r e n . Seien a u ß e r d e m B e d ü r f n i s s e b(, i = 1, 2, . . . , m v o m S t ü c k t y p i gegeben. M a n soll diese P l a n a u f l a g e erfüllen, i n d e m m a n eine m i n i m a l e A n z a h l v o n H a l b p r o d u k t e n zuschneidet.
64
3. Angewandte diskrete Optimierungsprobleme
Führt man Variable x t ein, die die Gesamtheit der Halbprodukte bezeichnet, die beim Verfahren j (j = 1, 2, . . . , n) zugeschnitten werden müssen, so führt dieses Problem auf die Minimierung von S }=•
i
(5.5)
x,
unter den Restriktionen Xj ¡2: 0 ,
Xj ganze Zahlen,
j — 1,2, . . . , n ,
(5-6)
n Za^Xi^ibi,
i =
1, 2 , . . . , m .
(5.7)
j=i Diese Problemstellung kann man ein wenig modifizieren, wenn man als Optimierungskriterium die Minimierung der Gesamtgröße des Ausschusses beim Zuschnitt annimmt. Bezeichnet man die Ausschüsse bei einem Stück mit dem Zuschnittverfahren j durch so wird die Zielfunktion (5.5) durch n
T Cj Xj
(5-5')
i=i
ersetzt. Wir bemerken, daß bei gegebener Matrix A die Ausschüsse leicht als Differenzen zwischen linkem und rechtem Teil von (5.4) berechnen kann. 3.5.3. Wir betrachten die Finanzierung von Forschungsprojekten. Sei im Zeitabschnitt T die Verwirklichung von n Forschungsprojekten möglich. Der in „gegenwartsnahen" Nutzenseinheiten ausgedrückte erwartete Effekt des Projekts j sei r,, j — 1 , 2 , . . . , n. Die Einrichtungskosten für das Projekt j machen im Jahre i atl aus, und das Gesamtlimit für die Kapitalinvestition in der Forschung im Jahre i ist gleich bit i = 1, 2, . . . , T. Man soll eine Auswahl von Projekten mit maximaler Effektivität angeben, die die Grenzen der zugewiesenen Investitionen nicht überschreitet. Formal ist dieses Problem offensichtlich: führt man in gewöhnlicher Weise die Variablen
C i =
das Projekt j ausgeführt wird i l , ffalls f | 0 i rim entgegengesetzten Falle
(5.8)
ein, so gelangt man zum Maximumproblem für Z c
)
x
j
(5.9)
3= 1
unter den Restriktionen ZotiXi^bt,
» = 1,2, . . . , T .
(5.10)
j= l
3.5.4. Viele Probleme aus dem Gebiet der Landwirtschaftsökonomie führen auf ganzzahlige Modelle. Wir betrachten zum Beispiel folgendes vereinfachte statistische Verteilungsmodell für den Traktoreneinsatz [90].
65
3.5. Andere angewandte Probleme
Man habe n Landwirtschaftsmaschinentypen und m Arbeiten, deren Erfüllung im Umfang bu i = 1, 2, . . . , m garantiert werden soll (wir werden annehmen, daß all diese Umfange in Hektar ausgedrückt sind). Gegeben sei die Produktivit ä t xxnn)) == ^( Z Cj Xj, xv .. .. .. ,,xXnn).I Cj X j , X^, M=1 /
(3-6)
.
(3.6')
Gilt xi0 ^ 0 ,
i = 1, . . . , « . ,
(3.7)
so heißt das Simplextableau 2' zulässig, und der Vektor X ist eine Ecklösung von Problem (2, C). Gilt x0j ^ 0 für alle j e N , (3.8) so heiße das Simplextableau T normal1), der Vektor X heißt Pseudolösung von Problem (Jf, C), und der Vektor X erweiterte Pseudolösung von Problem (./, C). 4.4. Lexikographie 4.4.1. Man sagt, daß der Vektor X = (xv . . . , xn) lexikographisch positiv ist X ^ 0,
(4.1)
X^(0,0,...,0)=0
(4.2)
falls und *t > 0 ,
(4.3)
mit k = min
0} .
(4.4)
Man sagt, daß der Vektor X lexikographisch nichtnegativ ist, wenn eine der beiden Möglichkeiten X H0 (4.5) oder X = 0 (4.6) gilt. x
) In der Literatur wird auch oft der Terminus dual-zulässiges Tableau verwendet. Der Ursprung dieser Bezeichnung hängt mit der Dualitätstheorie für lineare Optimierungsprobleme zusammen, mit der sich der Leser im schon angegebenen Buche [84] bekannt machen kann.
76
4. Einige vorbereitende Einführungen
Wir führen die l e x i k o g r a p h i s c h e O r d n u n g von Vektoren ein. Man sagt, daß der Vektor X lexikographisch größer als der Vektor Y ist, X ^
Y ,
falls (X -
Y) y 0
(4.7)
gilt. Man sagt, daß der Vektor X lexikographisch
nicht kleiner als der Vektor Y
X ^ Y , falls (X - Y) 0 gilt. Weiter sagt man, daß der Vektor X lexikographisch
negativ ist
X^O, wenn - X ^ 0 gilt. Analog werden auch andere Begriffe definiert — lexikographiseh nicht positiv heißt X ¿0, X -i Y; X ^ Y. 4.4.2. Eine Lösung X * (eine erweiterte Lösung X * ) des linearen Optimierungsproblems (1.9)—(1.11) heiße lexikographisch optimal (oder lexikographisches Optimum), falls f ü r alle erweiterten Lösungen X von Problem (1.9)—(1.11) die Beziehung (x* x f , . . . , x*)
X* j>- X
(a-Q, xx, . . . , xn)
(4.8)
gilt. Abgekürzte Bezeichnung: l-optimale Lösung. S a t z 4.4.1. Ist die Menge der optimalen Lösungen des linearen Optimierungsproblems (1.9)—(1.11) nicht leer und beschränkt, so existiert ein lexikographisches Optimum X* des Problems. S a t z 4.4.2. Ist X* eine lexikographisch optimale Lösung von Problem (1.9) bis (1.11), so ist X * eine Ecklösung. Das Simplextableau IIa;«!!,heiße lexikographisch
normal1), falls v
0j
V
U
Rj
=
0 f ü r alle j € N
gilt. Abgekürzte Bezeichnung: l-normales
Simplextableau.
1 ) In der Literatur begegnet man auch der Bezeichnung lexikographiseh Simplextableau (Vgl. die Fußnote auf p. 75).
dual-zulässiges
4.5. Simplextableaus, Lösungen und Pseudolösungen
77
S a t z 4.4.3. Eine Ecklösung X* von Problem (1.9)—(1.11) ist genau dann loptimal, wenn man eine Basis B (N = {1, ... ,n}\B) gefunden hat, so daß das Simplextableau WXi)\\i t Qn; jtX« l-normal ist. Eine Pseudolösung X (eine erweiterte Pseudolösung X) des linearen Optimierungsproblems (1.9)—(1.11) heiße lexikographisch positiv, wenn das entsprechende Simplextableau /-normal ist. Abgekürzte Bezeichnung: l-Pseudolösung (erweiterte l-Pseudolösung).
4.5. Simplextableaus, Lösungen und Pseudolösungen
4.5.1. Es sei Bedingung (1.10) im linearen Optimierungsproblem (Jf, C) (1.9)—(1.11) in Gestalt des Simplextableaus T
(51)
= Hxijlli(Qn;j(i\«
beschrieben und sei X = (z1, . . . , xn) = (x10 , . . . , xn0) .
(5-2)
Wir fassen gemäß Tabelle 5.1 den Zusammenhang zwischen den Eigenschaften des Tableaus T und denen des Vektors X zusammen. Jeder Spalte in Tabelle 5.1 entspricht eine Behauptung des Typs „ H a t das Tableau die Eigenschaft (man überträgt die den Zeilen entsprechenden Eigenschaften, in denen das Vorzeichen ,, + " ohne Klammern steht), so ist der Vektor X (Bezeichnung der Spalte)". T a b e l l e 5.1 Vektor X Tableau
zulässig normal Z-normal
Lösung
Pseudolösung
Z-Pseudolösung
optimale Lösung
Z-optimale Lösung
1
2
3
4
5
+
(+)
+
+ (++ )
+
Zum Beispiel entspricht der 5-ten Spalte folgende Behauptung: Ist das Tableau T zulässig und Z-normal, so ist der Vektor X eine Z-optimale Lösung. Das in der 3. und 5. Spalte stehende Zeichen ( + ) erinnert daran, daß ein Z-normales Tableau gewiß auch ein normales Tableau ist. 4.5.2. I m weiteren wird es mehrfach nötig sein, ein Simplextableau T # zu berechnen, das man aus dem Ausgangstableau nach einer elementaren Transformation erhält. Eine elementare Transformation ist das Austreten einer gewissen Variablen xk aus der Basis B und das Eintreten einer gewissen Variablen xt in die Basis. Das Element xkt des Simplextableaus T heiße Leitelement der elemen-
78
4. Einige vorbereitende Einführungen
taren Transformation (es sind auch die Bezeichnungen Zentralelement und Pivotelement üblich).
Sei ^ = IIx jil!i(Q n ;jey ein Simplextableau mit der Basis B (N = {1, . . . , n} / B), k e B ist. Wir nehmen xkl^0
(5-3) wobei 1 e N und
(5.4)
an. Dann kann man, wie aus der linearen Algebra bekannt ist, die Variablen x0, x1, . . . , xn (ausgedrückt durch die Variablen aus N im Tableau T) auch durch die Variablen aus N+ ausdrücken, wo N+
= (Nv{k})\{l}
(5.5)
(d. h. N erhält man durch Entfernen des Index l aus N und Zufügen des Index k) ist, so daß man ein neues Tableau T^ erhält: T* = I k i l i l c Q « ; , ' ^
(5-6)
und eine neue Basis B*: B* = ( ü u { l } ) \ { k } . (5.7) Bezeichnet man die Spalten des Tableaus T, entsprechend dem Index j, durch R j (und für das Tableau T^ durch Ii*), so gelten die folgenden Übertragungsformeln: R* = - — ,
(5-8)
*ki
Rf = R,
x
k]
y^füralleje^i^ufO},
x
(5.9)
kl
oder in Koordinatenschreibweise xr* x
* i c = - *x r >
jk
xf,j = xu - ^
» = 0,1, . . . , » ,
kl
(5.10)
xu für alle j e (N \ {£})u{0}; i = 0,1, . . . , n .
(5.11)
Bei der praktischen Berechnung hat man es oft mit verkürzten Simplextableaus Tc und T z u tun: Tt=\\xif\\,
Tf=
ll^-ll,
itB°-,
j z N \
(5.12)
izBl-,
jzN%.
(5.13)
Für verkürzte Tableaus haben die Übergangsformeln folgende Gestalt: Hk
x
kl
X*
= *H
»€(B\{4})
—
„ %kl
(5.14)
'
iz{B/{k}) U {0},je
u {0} , (N\{1})
(5.15) u{0} .
(5.16)
4.6. Primale Simplexmethode
79
4.6. Die Methode zur sukzessiven Verbesserung der Lösung (primale Simplexmethode) 4.6.1. Die primale Simplexmethode gestattet die Konstruktion einer endlichen Folge von Ecklösungen X°, X \ . . . , X k , deren letzte eine optimale Lösung von Problem (1.9)—(1.11) darstellt. Die Zielfunktion x0 = x0(Xr) wächst (genauer fällt nicht) mit wachsendem r. In der geometrischen Interpretation sind Xr und Xr+1 benachbarte Ecken des Lösungspolyeders 1 ). Jeder Ecklösung entspricht: das Simplextableau Tr und die Mengen Br und Nr (die die Indices, die die Basis- bzw. Nichtbasisvariablen durchnumerieren). Das Lösungsverfahren besteht aus einer Anfangsiteration (Konstruktion einer Ausgangsecklösung X°) und einer Folge allgemeiner Iterationen. 4.6.2. Die a l l g e m e i n e (r-te, r 0) I t e r a t i o n . Man hat eine Ecklösung Xr und dieser entsprechen Tr, Br, Nr. Wir prüfen, ob das Tableau Tr normal ist (d. h. ob die Bedingung xoj ig 0 für alle j e Nr erfüllt ist). Ist das der Fall, so ist die Lösung Xr optimal. Ist es nicht der Fall, suchen wir eine in die Basis einzuführende Variable xt nach der Regel xol = min x,jj ,2)
(6.1)
Danach suchen wir eine Variable x d i e nach der Regel k o •m ( x— io — = min 0 \ x
(6.2)
aus der Basis entfernt wird. Befindet sich unter den Zahlen xn, i = 1, 2, . . . , n keine positive, so ist das Problem unlösbar. Existieren solche Zahlen, so führen wir die Transformation nach den Formeln in 4.5. aus. Wir erhalten X r + 1 , Tr+1, Br+1, Nr+1. Hier ist Br+1 = (Bru {Z}) \ [Nr+1 = (Nru {k})\
{*}, , {l}.
(6 3)
4.6.3. Um eine Ausgangsbasislösung X° zu erhalten, transformieren wir das Ausgangsproblem (1.9)—(1.11) so, daß die rechten Seiten aller Gleichungen nichtnegativ sind (bt 0, i = 1, . . . , m). Dafür müssen wir diejenigen Gleichungen in (1.10), für die bt > 0 ist in die Gestalt n z a'ij Zj=b'i, 3=1
Diese Interpretation trifft bei Ausartung nicht zu. In diesem Falle sind X r und X r 1 1 die gleichen Ecken aber mit verschiedenen Basen. (Anm. d. Red. d. dt. Ausgabe) 2 ) Dies ist eine Regel, für die es keine mathematische Rechtfertigung gibt und die daher nicht zur Simplexmethode gehört. Prinzipiell kann eine beliebige Variable xt mit xol < 0 gewählt werden. (Anm. d. Red. d. dt. Ausgabe)
80
4. Einige vorbereitende Einführungen
mit a
— aH >
'ij=
b
i = — bi
umschreiben. Wir betrachten ein Hilfsproblem: Man maximiere f(xv unter den
. . . , Xn+m) = -
n-t-m Z j = n +1
(6-4)
Restriktionen £ «ij X} + xn+i = bi , i=l,...,m, j=i 0 , j = ...,n m .
(6.5) (6-6)
Eine Basislösung (xv . . . , xn+m)
= (0, 0, . . . , 0,
. . . , bm)
dieses Problems kann unmittelbar angegeben werden. Wir lösen das Hilfsproblem mit der Simplexmethode. Ist der optimale Wert der Zielfunktion f(x*, . . . , x*+m) = 0, so ist x*+i = 0, % = 1, . . . , m, und der Vektor (xf,..., x*) stellt die gesuchte Basislösung dar 1 ). Ist aber/(a-f, . . . , x*+m) < 0, so ist das Ausgangsproblem unlösbar. 4.7. Die duale Simplexmethode 4.7.1. Die duale Simplexmethode gestattet die Konstruktion einer endlichen Folge X x \ ..., xk, von Pseudolösungen, deren letzte eine Lösung (und folglich auch eine optimale Lösung) von Problem (1.9)—(1.11) ist. Die Zielfunktion xQ = xa(Xr) fällt (genauer wächst nicht) mit wachsendem r. Eine geometrische Interpretation der dualen Simplexmethode findet der Leser im Buch [84]. Jeder Pseudolösung Xr entspricht ein Simplextableau Tr und die Mengen Br und Nr. Das Lösungsverfahren besteht aus einer Anfangsiteration (der Konstruktion der Ausgangspseudolösung X°) und einer Folge von allgemeinen Iterationen. 4.7.2. Genau genommen bedienen wir uns der sogenannten lexikographischen dualen Simplexmethode (der lexikographischen Modifikation der dualen Simplexmethode), die anstelle des Ausgangsproblems (1.9)—(1.11) eine lexikographische Variante zu lösen gestattet. Man finde das lexikographische Maximum der er1 ) Damit ist aber im allgemeinen noch nicht entschieden, welche Variablen als Basisvariablen anzusehen sind, da im optimalen Simplextableau noch gewisse xn+i Basisvariable sein können. (Anm. d. Red. d. dt. Ausgabe)
4.7. Duale Simplexmethode
81
weiterten Lösung c x
i b xi> • • • » ^»j
X = (x0, xx, . . . , xn) unter den Restriktionen n £ atj Xj = bt,
(!-9')
i = 1, . . . , m ,
(1.10')
i = l, . . . , » .
(1.11')
3= 1
Das lexikographische Maximumproblem für die erweiterte Lösung (1.9') über der Menge Jf von (1.10')—(1.11') werden wir mit (2\ C) bezeichnen und der Kürze halber l-Problem nennen. Hier und im weiteren werden wir zur Abkürzung die lexikographische duale Simplexmethode l-Methode nennen. 4.7.3. Die a l l g e m e i n e (r-te, r S; 0) I t e r a t i o n . Man habe eine i-Pseudolösung Xr und die ihr entsprechenden Tr, Nr, Br. Die Spalten von Tr bezeichnen wir mit Rj ( j e N°). Wir prüfen, ob die Tabelle Tr zulässig ist (d. h. ob die Bedingung xl0 2; 0, i = 1, . . . , n erfüllt ist). Ist das der Fall, ist Xr eine optimale Lösung. Ist es nicht der Fall, suchen wir eine aus der Basis zu entfernende Variable xk nach der Regel k = min {i\i = 1, . . . , n; xi0 < 0} .
(7.1)
Danach suchen wir eine in die Basis einzuführende Variable Xi nach der Regel ^ = lex min J ^ j e N r ; \xkl\ ll^jl
®„ß.
(1.18)
I I . R e g u l a r i t ä t s b e d i n g u n g . Ist X eine Lösung von Problem (Jf so erfüllt X die Ungleichung (1.17), d. h. .? ganz c {X\aX
ganz
^ ß) .
, C),
(1.19)
5.1.8. Wir stellen nun die Idee der Schnittmethode in der Gestalt dar, in der sie zuerst vorgelegt wurde (s. D A N T Z I G , F U L K E R S O N , J O H N S O N [30] und D A N T Z I G [26]). I. Das Problem (_?ganz, C) soll nicht mit einem Zweietappen-, sondern allgemein gesprochen mit einem Mehretappenverfahren gelöst werden, wobei 1-1) I n der r-ten E t a p p e ein Hilfsproblem der linearen Optimierung: (Ir, C),
r = 0, 1, 2, . . .
gelöst wird. Hier ist jr 0 = i r . 1-2) Die Menge der ganzzahligen Punkte ist dieselbe für alle Polyeder: ^ganz _ j^ganz _ ^ganz _ . . . erfüllt also die optimale Lösung X(£r, C) von Problem (lr, C) die Ganzzahligkeitsbedingung, so erweist sie sich auch als optimale Lösung X(jfganz, C) f ü r das Ausgangsproblem (-ff1'17', G), und das Lösungsverfahren ist zum Abschluß gekommen. 1-3) Erfüllt X(Ir, G) die Ganzzahligkeitsbedingung nicht, so ist X{l£r, C) keine Lösung von (Jf r + 1 , 0): X(ir, c) s jfr+1.
5. Die Idee der Schnittmethoden
90
I I . Der Übergang von der r-ten zur (r + l)ten Etappe, d. h. der Übergang von Problem ( j f r , C) zu Problem {lfr+l, C) (unter Einhaltung der Bedingungen 1-2, 1-3) vollzieht sieh im Falle der Nichtganzzahligkeit von X{'fr, C) über einem S c h n i t t a
r
X ^ ßr,
deren Hinzufügen zu den linearen Restriktionen von Problem (Xr, C) das Polyeder 'fr in das Polyeder . J r + 1 verwandelt. 5.1.9.
Somit basiert die Schnittmethodc auf zwei grundlegenden Ideen:
I. Eine lineare Approximation von Problem (Ji 8ariz , C) in mehreren Etappen. I I . Der Übergang von E t a p p e zu E t a p p e über die Schnitte. Allein diese Ideen sind niemals zu realisieren, solange man kein Konstruktionsverfahren f ü r Schnitte angibt, das die Endlichkeit des Lösungsprozesses garantiert. Ein solches Verfahren wird in 5.2. dargestellt. Als weniger prinzipiell, aber praktisch wichtig stellt sich das Problem der übermäßigen Vergrößerung der Anzahl der Restriktionen dar, wenn der Lösungsprozeß lange genug fortgesetzt wird. Man muß in irgendeinem Maße für die Dimensionsverkleinerung des Problems (Jf r , C) sorgen. 5.2. Der erste Algorithmus von Gomory Hier wird derjenige Algorithmus von GOMORY [58] dargelegt, der die historisch erste Realisierung der Schnittmethode ergibt, f ü r die: 1. die Konstruktion der Schnitte algorithmisch durchgeführt wird (ohne Benutzung intuitiver Betrachtungen), 2. die Endlichkeit des Algorithmus bewiesen wird. 5.2.1. Wir bringen das von GOMORY aufgestellte Konstruktionsverfahren für Schnitte. Es wird ein rein ganzzahliges lineares Optimierungsproblem betrachtet. Man maximiere
x0=Sc1xj j=i
(2.1)
unter den Restriktionen n £ O'n j=l
=
^ 0, x} ganzzahlig,
i = l j = l,...,n, j — 1, . . . , n .
ffi,
(2.2) (2.3) (2.4)
Sei X(Jf, C) eine optimale Basislösung von Problem (1, C) ((2.1)—(2.3)). Wir
5.2.
Der erste Algorithmus von
91
GOMORY
drücken die Zielfunktion x0 u n d alle Variablen x,, . . . , xn durch Nichtbasisvariable Xj ( j € N) aus, die der optimalen Basislösung X(J£, C) entsprechen: x
i = xio + Z
x
n (— »i)>
i = 0,1, . . . ,n.
(2.5)
Sei x eine reelle Zahl. Ganzer Teil von x heiße die größte ganze Zahl, die x nicht überschreitet. Der ganze Teil von x wird m i t [x] bezeichnet. Gebrochener Teil der Zahl x (Bezeichnung {x}) heiße die Zahl {x} = x — [x] . S a t z 5.2.1. 1.
Sei + Z (— {xn})
zt = zt{X) = — {xi0}
(— xi) ,
i = 1, . . . , n\
(2.6)
jtN 2. X eine Lösung von Problem
C) ( ( 2 . 1 ) - ( 2 . 4 ) ) .
Dann gilt z( ganzzahlig
(2.7)
B e w e i s . Aus (2.5) erhalten wir z, ^ 0 . x
i = ixio\ + ixio)
+ Z([Xij] jtN
(2.8) + {»«}}) (— x}).
Hieraus u n d aus (2.6) erhalten wir «i = — xt + [«»öl + Z lxii1 (— xi)(2.9) jeN Aus der Definition des ganzen Teiles folgt, d a ß [x i 0 ] u n d fce,:i] ( j g N) ganzzahlig sind, u n d aus Bedingung 2. des Satzes e r h a l t e n wir, d a ß zt u n d x, ( j e N) ganze Zahlen sein müssen. Folglich müssen a u c h die Zahlen zt ganz sein, womit Formel (2.7) bewiesen ist. Wir n e h m e n n u n an, d a ß 3« < 0 gilt. D a n n erhalten wir, wenn wir (2.6) b e n u t z e n -
{^o}
+ Z {xa) jiN
x
i
{x,:}} S; 0 u n d aus Bedingung 2., daß a;} 0 ( j e N) ist. D a r a u s erhalten wir
oder, was dasselbe ist
— 1 < — { x i 0 } + Z ixn} jeN -
X
1 < °>
1 < z, < 0,
so d a ß die zt nicht ganzzahlig sind, was der bewiesenen Formel (2.7) widerspricht. Folglich gilt u n d Formel (2.8) ist bestätigt, womit Satz 5.2.1. bewiesen ist.
92
5. Die Idee der Schnittmethoden
B e m e r k u n g 5.2.1. Ist die Ganzzahligkeit der Zielfunktion xg garantiert (zum Beispiel im Falle, wenn sämtliche c} ganze Zahlen sind), so wird Satz 5.2.1. auch unmittelbar auf den Fall i = 0 übertragen. F o l g e r u n g 5.2.1. (aus Satz 5.2.1. und Bemerkung 5.2.1.) Erfülle X{I, C) die Ganzzahligkeitsbedingung (2.4) nicht, so daß für ein gewisses i (1 i 5S n) xi0 nicht ganzzahlig 1 )
(2.10)
gilt. Dann geben die Beziehungen (2.6), (2.8) die Schnittregel an. B e w e i s d e r F o l g e r u n g , a) Zunächst verifizieren wir die Regularitätsbedingung. Sämtliche Lösungen von Problem (Jf ganz , C) erfüllen die Bedingungen (2.6) und (2.8). Das ist unmittelbar aus Satz 5.2.1. ersichtlich. b) Nun beweisen wir die Schnittbedingung. Setzen wir in (2.6) eine nicht ganzzahlige optimale Lösung X{!f, C) ein und nehmen wir an, daß , C) = = 0 ( j 6 N) gilt, so erhalten wir (unter Verwendung von (2.10)) .
z{(X(I,
C)) = - {z i 0 } + 0 < 0 ,
(2.11)
was (2.8) widerspricht, womit Folgerung 5.2.1. begründet ist. 5.2.2. Bei der oben gegebenen schematischen Darstellung der Schnittmethode brauchen die optimalen Lösungen X(JfT, C) der linearen Hilfs-Optimierungsprobleme nicht eindeutig zu sein. GOMORY verlangt, daß anstelle des Problems (jfr, C) das ¿-Problem G) gelöst werden sollte. Eine Z-optimale Lösung X(Ir, C) ist Basislösung (s. Satz 4.4.2.) und ist eindeutig bestimmt. Sämtliche Berechnungen werden in Übereinstimmung mit der ¿-Methode durchgeführt (s. 4.7). 5.2.3. Weiter oben wurde bemerkt, daß das Anwachsen der Restriktionenzahl ein wichtiges Problem bei der Schnittmethode darstellt. GOMORY legt ein Verfahren vor, das die Dimension der betrachteten erweiterten Simplextableaus auf (n + 2) X(k + 1) beschränkt (wo n die Gesamtheit der Variablen von Problem (j?0, C) und k die Anzahl der Nichtbasisvariablen in Problem (Jf0, G) ist). Das Verfahren von GOMORY basiert darauf, daß Zusatzrestriktionen (Schnitte) ar X ßr nicht für sich selbst interessieren, sondern nur als Hilfsmittel, um ein nicht ganzzahliges Optimum X(Jfr, C) abzuschneiden und vom Problem (Jf r , C) zum Problem {£r+1, G) überzugehen. Wir bemerken nun, daß die Variable xn (r 2; 0) zugleich nach Einführung der Restriktionen x
n +r+l = 0 ,
x
n + r + l = ßr
aus der Basis entfernt a) Unmittelbar nach die entsprechende Zeile b) Tritt im Zuge der J
ar X
wird. Die Idee von GOMORY besteht im folgenden: dem Entfernen von x n + r + 1 (r 0) aus der Basis wird aus dem erweiterten Simplextableau ausgestrichen. weiteren Berechnungen xn+r+1 von neuem in die Basis
) Wird die Ganzzahligkeit der Zielfunktion x0 garantiert, so ist 0
i iS n.
5.2. Der erste Algorithmus von GOMORY
93
ein, so wird die entsprechende Zeile im Simplextableau nicht wieder hergestellt, und xn+r+1 nimmt an der weiteren Berechnung nicht teil 1 ). Somit beinhaltet das erweiterte Simplextableau bei jeder beliebigen Rechenetappe anerkanntermaßen: 1. Genauso viel Spalten (k + 1) wie das Ausgangstableau, 2. die Zeilenmenge überschreitet (n + 2) nicht. Hier entsprechen (n + 1) Zeilen den x0, xlt . . . , xn (im allgemeinen können sämtliche Variablen des Ausgangstableaus in die Basis eingehen), und eine Zeile entspricht xn+r+1 (im Moment ihrer Einführung). Daher überschreiten die Ausmaße des Simplextableaus (n + 2) x {h + 1) offenbar nicht. 5.2.4. Besitzt Problem {I, C) wegen der Unbeschränktheit der Zielfunktion x0 = C X nach oben auf der polyedrischen Lösungsmenge 'f keine Lösung, so kann der erste Algorithmus von G O M O B Y nicht angewendet werden. Der erste Algorithmus von G O M O B Y ist auch in dem Falle nicht anwendbar, wenn Problem {T, C) zwar eine Lösung besitzt, aber nicht das l-Problem {!£, G). Das bedeutet, daß die optimale Lösungsmenge von Problem { 'f, C) nicht leer ist, aber unbeschränkt. Wir werden im weiteren voraussetzen: 1. Die Zielfunktion x0 = G X auf Jf ist nach oben beschränkt. 2. Ist die optimale Lösungsmenge von Problem {1, C) nicht leer, so ist sie beschränkt, d. h. ist das Problem (Jf, C) lösbar, so ist auch das ^-Problem (T, C) lösbar. 5.2.5. Wir kommen zur formalen Darstellung des ersten Algorithmus von GOMOBY.
D i e g r o ß e A n f a n g s i t e r a t i o n 2 ) . Wir lösen das ^-Problem (Jf, G) = (•?„, C). Ist es unlösbar, so ist auch das Problem (.f |f n z , G) unlösbar. Ist Problem (Jf 0 , G) lösbar und erfüllt die ¿-optimale Lösung X ( j f 0 , C) die Ganzzahligkeitsbedingung (2.4), so stellt X(I0, C) gleichzeitig die optimale Lösung von Problem ( J f f n z , C) dar. Erfüllt aber X(1' 0 , C) die Ganzzahligkeitsbedingung nicht, so gehen wir zur 0-ten großen Iteration über. r - t e g r o ß e I t e r a t i o n (r 2g 0). Erfülle X(lr, C) die Ganzzahligkeitsbedingung nicht. Wir drücken die Zielfunktion x0 = C X und die Variablen xj, .. •, xn durch die Nichtbasisvariablen xt ( j e Nr). x
i = Xri0 + £ xlj (
Xj) ,
i = 0, 1, . . . , n
aus und erhalten das Simplextableau das zulässig und l-normal ist.
Tr = II^IjllieQ"; jiNr
1 ) Die durch den Schnitt hinzugefügte Restriktion wird also wieder fallengelassen, wenn sie für den Iterationspunkt nicht mehr als Gleichung erfüllt ist. (Anm. d. Red. d. dt. Ausg.) 2 ) Der Terminus „große Iteration" wurde zur Vermeidung von Verwechslungen mit den Iterationen der i-Methode eingeführt.
5. Die Idee der Schnittmethoden
94
Wir wählen die (nach dem Index) kleinste Zeile, der eine nichtganzzahlige Komponente entspricht: k — min {i\i € {1, . . . , n); xri0 nicht ganzzahlig} 1 ) und konstruieren den entsprechenden Schnitt * . + r+ l =
-
K o l
+
{*£,» ( -
«„+,+! xn+r+1
X,) ,
(2.12)
(2.13)
ganzzahlig .
(2.14)
Die Zeile xn+r+1 (2.12) schreiben wir unten an die Tabelle Tr. Wir erhalten ein (nur in der Zeile xn+r+1!) unzulässiges ¿-normales Tableau, auf das wir die lMethode anwenden, wobei nach dem Entfernen von xn+r+1 aus der Basis die entsprechende Zeile ausgestrichen wird und nach der Einführung von Xi (l 2: 22; n + 1) in die Basis die entsprechende Zeile nicht wiederhergestellt wird. Ergibt sich ein Simplextableau, das einem unlösbaren linearen Optimierungsproblem entspricht (s. 4.7.3.), so ist Problem (-?| anz , C) unlösbar. Erhalten wir dagegen ein zulässiges und Z-normales Tableau Tr+1, so prüfen wir die entsprechende Z-optimale Basislösung X(£r+l, C) auf ihre Ganzzahligkeit. Erfüllt X{Ir+l, C) die Ganzzahligkeitsbedingung (2.4), so stellt X(£r+1, C) gleichzeitig die optimale Lösung von Problem G) dar. Erfüllt dagegen X(Ir, ,, G) die Ganzzahligkeitsbedingung nicht, so gehen wir zur (r -)- l)-ten großen Iteration über. Ein Blockschema für den ersten Algorithmus von Gomory wird in Abb. 5.2.1. angegeben. 5.2.6. Wir lösen das oben betrachtete numerische Beispiel (s. 1.1.3.) mit dem ersten Algorithmus von Gomoby. Man maximiere Xq izh X-y -}- X% unter den Restriktionen 2 xi + 11 x2 ^ 38 , +
«2 ^
4 x1 — 5 x2
0,
x1 x
7
IG
>
5 ,
x2
0,
x
i> 2 ganzzahlig,
oder, was dasselbe ist: Man maximiere x
Xq
Xj -[- X2
) Ist die Ganzzahligkeit der Zielfunktion x0 garantiert, so gilt k = min{ i\i € { 0 , 1 , . . . , » } ; xri0 nicht ganzzahlig}.
5.2. Der erste Algorithmus von GOMORY Problem
Lösung des Z-Problems (Jf0, C)
unlösbar
Problem | lösbar
Ja
Ist die Z-optimale Lösung X(Jf 0 , C) ganzzahlig ?
95 Problem (Xf™, C) ist unlösbar X(XÜ, C) ist optimale Lösung von Problem (-fg anz , C)
Nein | Bs wird r = 0 gesetzt 4 Wahl der (im Index) kleinsten Zeile aus der Tabelle Tr, die einer nicht ganzzahligen Komponente entspricht: k = min {i\i 6 {0, 1, . . . , n}; Xj0 nicht ganzzahlig}
Konstruktion des Schnittes Xn+r +1= ~ {aifto} + Z UN.
{¿kj})
xj)
>
0
Hinzufügen der Zeile xn+r-n z u r Tabelle Tr und Gewinnen der Tabelle Tr
Anwenden der /-Methode auf das in Gestalt eines i-normalen Tableaus Tr gegebene lineare l-Optimierungsproblem, wobei nach Entfernen von Xn+r+i aus der Basis die entsprechende Zeile gestrichen wird. Nach Einführen einer Variablen xt (l n + 1) in die Basis wird für diese keine Zeile wiederhergestellt. Problem
Problem
JProblem (Jfganz, C) unlösbar [ist unlösbar
lösbar
Tableaus Tr+1.
Ist X(Xr+i,
X(Xr+1, C) ist optimale Lösung von Problem (Xf*\ C)
Ja
Gewinnen eines Z-normalen und zulässigen C) ganzzahlig?
Nein r ->• r + 1 Abb. 5.2.1. Blockschema für den ersten Algorithmus von GOMORY unter den Restriktionen xs = 38 — 2 x1 — 11 x2,
xt = 7 — xx — x2, ^
0 ,
Xj ganzzahlig,
x5 = 5 — 4 x1 + 5 x2,
j = 1, . . . , 5 , j =
1, . . . , 5 -1)
Man beachte, daß bei Einführung von Schlupfvariablen im allgemeinen ein gemischtganzzahliges Problem entsteht, was hier nicht der Fall ist, da alle Koeffizienten ganzzahlig sind. (Anm. d. Eed. d. dt. Ausgabe)
96
5. Die Idee der Schnittmethoden
Die Folge der Berechnungen wird abgekürzt durch die Tabellen 1 — 10 beschrieben. Die optimale erweiterte Lösung ist C) = X(Jfi, C) es = (xt, x{, . . . , x45) — (5, 3, 2, 10, 2, 3). Das Leitelement ist überall mit einem Sternchen gekennzeichnet. Die geometrische Illustration ist in Abb. 5.2.2. dargestellt.
1
0
2
J\
W
5
*1
Abb. 5.2.2 1
1
-xx
x„
0
-1
-1
xi
0
-1
0 38
XQ
5/4
1/4
- 9/4
0
«1
5/4
1/4
-5/4
0
-1
#2
0
0
-1
2
11
71/2
-1/2
27/2
23/4
-1/4
9/4*
-5
0
-1
1
x4
7
l*
x
5
4
a
—• a;2
1
«4
Tabelle 1
0
Tabelle 2
1
-«5
-x4
7
0
1
x0
7
0
1
1
0
X
1
40/9
1/9
5/9
xx
4
x2
23/9
-1/9
4/9
#2
3
x3
1
1
-6
-3
9
-11*
x4
0
0
-1
27/2
0
-1
X
0
-1
0
4
-9
5
Tabelle 3 (T0) Xß
-4/9
-1/9*
-1
Tabelle 4 -5/9
1
5
5.2. Der erste Algorithmus 1
1
-»6 9/11
l/ll
4
1
0
»2
30/11
-2/11
x3
0
0
x4
3/11
-9/11
-1/11
«5
29/11
-54/11
5/11
XQ
74/11
xt
von Gomory
«i £•3
-1
5
X
0
1
4
1
0
-11
1
0
-1
-1
-9*
6
Tabelle 6
-X,
1 XQ
6
0
1
X1,
3
1
0
3
-1
1
-1
9
-11*
1
0
-1
8
-9
35/9
1/9
5/9
X2
19/9
-1/9
4/9
7
1
-6
1
0
-1
-1
X3
0
Tabelle 7 (T ) -8/9
5
Tabelle 8
2
x8
~xi
1
l
0
9
x
0
x
xs
5
1/11*
-9/11
1 XQ
1
9
Tabelle 5 (T )
-8/11
-1
8
1
X7
-x7
6
2
1/11
XQ
-1/9*
-5/9
Wir bemerken, daß die optimale Lösung (3, 2, 10, 2, 3) des Problems (J g a n z , C) nicht durch Rundung aus der optimalen Lösung (40/9, 23/9, 1, 0, 0) des entsprechenden nichtganzzahligen Problems (.?, C) erhalten werden kann. 1
5
0
1
3
1
0
x1
3
l
0
32/11
-2/11
1/11
x2
2
- l
1
0
0
12/11
-9/11
83/11
-54/11
- l
XQ
-1/11 5/11
Tabelle 9 (T ) s
9
XQ
xa
I
X
XG
1/11
65/11
xt
1
Xß
9/11
XQ
x
XQ
-10/11
-9/11
-1/11*
10
9
-11
x4
2
0
-1
X
3
-9
5
Tabelle 10 (T 4)
5
5. Die Idee der Schnittmethoden
98
5.3. Endlichkeitsbeweis iür den ersten Algorithmus von Gomory Hier wird u n t e r b e s t i m m t e n Bedingungen die Endlichkeit des ersten Algor i t h m u s von GOMORY nachgewiesen. Wie in 5 . 2 . nehmen wir an, daß die Menge der optimalen Lösungen des Problems (Jf 0 , C) beschränkt ist. 5.3.1. S a t z 5.3.1. Folgende Bedingungen seien erfüllt: 1. Die Ganzzahligkeit der Zielfunktion xü = C X (zum Beispiel seien alle Cj, j = 1, . . . ,n ganzzahlig) sei garantiert,1) und x0 werde bei der Auswahl der Zeilen zur Konstruktion der Schnitte berücksichtigt. 2. Es trifft mindestens eine der folgenden beiden Behauptungen zu: 2'. Die Zielfunktion x0 ist auf .'£n nach unten beschränkt,2) 2 " . Problem (Jfg anz , C) hat mindestens eine Lösung X'. Dann liefert der erste Algorithmus von GOMORY nach endlich vielen Iterationen eine optimale Lösung des Problems (j?ganz, C). Der Beweis dieses Satzes erfolgt in einigen E t a p p e n . • 5.3.2. Sei X(Ir, C)=X'=(z'0, x[,...,x;). Wir bezeichnen m i t Xr diejenige Pseudolösung, die dem Tableau Tr entspricht, das m a n aus Tr erhält, nachdem xn+r+1 aus der Basis e n t f e r n t u n d die entsprechende Zeile gestrichen wurde. L e m m a 5.3.1. Es gilt X r ^ X r y xr+1. Der Beweis von L e m m a 5.3.1. folgt direkt aus den Regeln der Z-Methode 3 ). 5.3.3. L e m m a 5.3.2. Die Zahlen x! (i = 0, 1, . . . , ri) sind nach unten beschränkt. F ü r i = 1, . . . , n folgt dies aus der Nichtnegativitätsbedingung (2.3). F ü r % = 0 folgt es aus der Bedingung 2. von Satz 5.3.1. I s t nämlich 2'. erfüllt, so gilt das L e m m a 5.3.2. trivialerweise. Ist hingegen Bedingung 2". erfüllt, gilt offenbar X* ^ X' , so d a ß m a n
0, und da offenbar der Regeln der Z-Methode erhalten wir für
k gilt, hat man k = p. Wegen i 0 gilt xrkl {®J 0 } = Lemma 5.3.3. ist bewiesen. 5.3.5. Wir gehen unmittelbar zum Beweis von Satz 5.3.1. über. Angenommen, die Folge X°, X1, X\ . . . , X', . . .
[«¡0].
(3.1)
Wir erinnern, daß Rj die Spalte der Matrix Tr = \\x\jW ist, die dem Index j entspricht. 2)
Die Positivität vonxrrl
= xk[ folgt aus dieser Gleichung; wäre nämlich xrki < 0, müßte
•xr-
= xr{ (i • + l ) t e n großen I t e r a t i o n über. *) Wird die Diskretheitsbedinung auch der Zielfunktion x0 auferlegt, so 2
k = min {i\i € {0, 1, . . . , n ; ) Für jeden Algorithmus nach seiner Regel.
x'i0 S Dt},
6.2. D e r z w e i t e A l g o r i t h m u s v o n GOMORY
103
6.2. Der zweite Algorithmus von Gomory Beim e r s t e n A l g o r i t h m u s w u r d e die Ganzzahligkeit aller V a r i a b l e n wesentlich b e n u t z t . Beim zweiten A l g o r i t h m u s v o n G O M O R Y h a n d e l t es sich u m eine u m fangreichere P r o b l e m k l a s s e . 6.2.1. E s wird ein gemischt ganzzahliges lineares O p t i m i e r u n g s p r o b l e m u n t e r sucht. Man maximiere x
o=2CjXj
(2.1)
3= 1
unter den Restriktionen
i=i
Xj = b}, Xj
^
i j =1,
0 ,
Xj ganzzahlig, H i e r ist nx
=
m
1, . . . ,
,
(2.2)
. . . ,71,
(2.3)
j — 1, . . . , Wj .
(2.4)
n.
6.2.2. S a t z 6.2.1. Sei X(Ir, (jfV, C) und
C)= Tr—
das entsprechende die Ungleichung
Simplextableau,
Xr eine optimale
Basislösung
des
| l^ij"j ji€ Q"; JTr 1 sS i ig %*), x'i0 nicht ganzzahlig.
2 Yi ^ ^ y0 , j(Sr oder, was dasselbe
ist, (2.6)
z^O,
(2.7)
Hier gelten Yo = {a$o} , {x'ij} ,
T
{
1°J i ^
oder O g i g
(2-8) {x'ij}
j ^ n i , -
' 3 =
'
w
i '
W
—
nv
( x 'L iO/
,
j ^ % + 1 ,
= {^¿ol > >
+ j1
Dann -stellt
(2.5)
z = - Yo + Z Yj Xj,
einen Schnitt dar.
Problems
xlj^O, ^
< 0•
'
104
6. Der zweite Algorithmus von GOMORY
6.2.3. B e w e i s . Zunächst prüfen wir die Schnittbedingung. I n der Tat gilt 0 l Y j ^ j = Svr = 0
ganzzahlig .
NJ = {j\j t N r ; - x'i} > 0 } = { j | j e Nr; xi} < 0 } , -A7 = {j\j € Nr; -
xi} ^ 0 } =
{j\j e Nr; x^ ^ 0 } ,
+
S (X) = Z ( - x'ti) Xi , jlN+ s~(x)
= 2 (— x'i j) xi unr-
ein und bemerken, daß
sein muß. werden:
0 ,
^ 0 .
(2.13)
Weiter erhalten wir {x'i0} +
+ S-(X)
Es sind zwei Fälle möglich: 1. S+(X) + S-(X) +
2. S (X)
+ S-(X)
^ 0 ; < 0.
= Zi(X) ,
(2.12
zAX) ganzzahlig .
6.2. Der zweite Algorithmus von GOMORY
105
Zunächst wählen wir Fall 1.
S +(X)
+ S-(X)
^ 0 .
D a n n ist
zt(X) ^
{x;0}
und wegen der Nichtganzzahligkeit von x'i0 zt(X) > 0 , sowie wegen der Ganzzahligkeit von zt(X)
zt(X) ^ 1 , so daß
+ S-(X)
^ 1 -
{*;„}
oder (s. (2.13)) S+(X) ^ 1 -
{x;0}
gilt. Die letzte Ungleichung schreiben wir in der Gestalt 1 -
Ko)
S+(X)
^
{«?„} -
(2.14)
Wir gehen nun zum F a l l 2. über:
S +(X)
+ S-(X)
< 0 .
Wir haben
zt(X) < {x[0}
,
und wegen der Ganzzahligkeit von zt(X)
z,(X) ^ 0 , so daß
{*;«,}
+
+ s-(X)
^ o
gilt. Hieraus und a u s (2.10) erhalten wir
-
S-(X)
^ {x'i0}
.
(2.15)
Addieren wir im Falle 1. die Ungleichungen (2.14) und (2.13), und im F a l l e 2. die Ungleichungen (2.15) und (2.12), so erhalten wir
Wo }—S+(X) 1 - {*!„} oder nach Definition von S +(X)
- S-(X)
^ {®i0} ,
S~(X):
und
1 {Xi UN+ 1i — il \ xi01 \
x
1 x'ii X1 = l + jcN{«io> •
(2.16)
Wir bemerken, daß Ungleichung (2.16) die Gestalt
ZVi*}
^ {
{xio} {xri0}
•
6.2. Der zweite Algorithmus von GOMORY
107
Schließlich erhalten wir j
i>
j ^ nx'i ,>
j ^
ni
{x'ij}
^
{xri0}
,
{x'ij}
Vo +
r?) ( -
x
i) >
wo die Zahlen y0 und y} ( j e Nr) nach den Formeln (2.8) und (2.9) f ü r i = k ausgerechnet werden. 6.2.5. Die Endlichkeit des zweiten Algorithmus von GOMORY wird genau so bewiesen wie die Endlichkeit des ersten GOMORY-Algorithmus. Dabei ist es nötig, Forderungen zu stellen, die den Forderungen 1. und 2. aus 5.3. ähnlich sind. 1. Die Zielfunktion x0 erfüllt die Ganzzahligkeitsbedingung. Das wird bei der Auswahl der Zeile h zur Konstruktion des Schnittes berücksichtigt. 2. Es soll mindestens eine der beiden folgenden Bedingungen erfüllt sein: 2'. Die Zielfunktion x0 ist auf der polyedrischen Menge '£ ES Jfü nach unten beschränkt. 2". Das Problem C) h a t mindestens eine Lösung. 6.2.6. Mit Hilfe des zweiten Algorithmus von GOMOKY k a n n m a n (im Falle % = n) auch das rein ganzzahlige lineare Optimierungsproblem lösen. Allein besteht in diesem Falle keine Basis zu einem Effektivitätsvergleich vom zweiten mit dem ersten Algorithmus. I n den Tabellen 1—7 wird die Lösung des weiter oben mit dem ersten GOMORY-Algorithmus gelösten Zahlenbeispiels mit dem zweiten gebracht. I n beiden Fällen m u ß t e n vier Schnitte eingeführt werden. 1
) Erfüllt auch die Zielfunktion x0 die Ganzzahligkeitsbedingung, so gilt k = min {i\i € {0, 1, . . . , %};
xrl0 nicht ganzzahlig}
108
6. Der zweite Algorithmus von GOMORY 1 X Q
x1
£3 x4
5
X
~
1
i
x
1
0
49/9
5/9
1/9
23/9
4/9
-1/9
7
~
7
1
0
4
1/5
1
3
4/5
x0
X Q
1
-6
1
x3
»
-1
0
x4
0
5
4
0
-1
9
-3
X
Tableau 1 (T0) X Q
— 20/45
-16/45
1
-»3 45/46
X Q
X±
184/46
1/46
55/46
x
x2
63/23
2/23
-
-1
i
15/46
-5/46
»5
68/23
8/23
X
-31/46 1
-5/46* - x
-
11/5
4/5
0
X
3
31/5
-46/5
9
i
1
-1
0
B
4/5
45/46
-135/23
X
X
-45/46
B
X
3
0
l
x
s
3
1
- l
1
5
8
X
- 1
5
-9
16/5
-4/5
-1*
-1/5
1
1
i
-1
Tableau 4 ( ? y
X Q
x
1
%2
7
-11*
0
5/23
0
-1
1 1/5
1
x§
-X,
19/5
6
x
-9
I
X Q
X
0
16/5
6
Tableau 3 (Tx) x7
9
-1
1
5/46
0
-46/5*
-5/45*
307/46
3
-1
Tableau 2
X Q
X
s
x
I
2
X
9
X
0
X
-9
3
65/11 3 32/11 0
~
9/11
0
1
1/11
-
-1/11
5
83/11
5/11
2/11 0
- 1
12/11
Tableau 5
s
1/11
i
X
x
-
9/11
-54/11
Tableau 6 (T 3 ) 9
x
-10/11
-1/11*
-3/11
6.3.
Der Algorithmus von
1
und
LLEWELLYN
109
XJ
XQ
5
1
X
3
0
2
1
1
DALTON
1 -1
10
-11
9
2
-1
0
3
5
-3
Tableau 7 (Tt)
6.3. Der Algorithmus von Dalton und Llewellyn Der zweite Algorithmus von G O M O R Y betrifft gemischt ganzzahlige lineare Optimierungsprobleme. D A L T O N und L L E W E L L Y N betrachten die größere Klasse der gemischt diskreten linearen Optimierungsprobleme (deren Problemstellung weiter unten gegeben wird) und modifizieren den zweiten Algorithmus von G O M O R Y entsprechend. 6.3.1. Das gemischt diskrete lineare Optimierungsproblem wird wie folgt formuliert. Man maximiere n
x
o= 2
C x
1 ]
j=1
un ter den Restriktionen
(3.1)
n
2
a
i j
x
j
=
bt ,
i =
1, . . . , m ,
(3.2)
J=i
^
x,
e
A* =
{A
, Aj2,
n
0
,
j =
1, . . . ,
. . . , Ajq.}
,
n
j =
,
(3.3) 1, . . . ,
jJ = — 1, •*-' ' ' ' ' i > C)~
X'' ehie optimale Basislösung
des
Problems
Tr = \\xij\luQn-, jiNO das entsprechende
Simplextableau
l ^ t ^
•A-u
-^¿,» + 1 •
Ungleichung (3.6)
2 Vi X1 ^ ?o jlN, oder, was dasselbe ist z =
—y0
jiX r
(3.7)
?} X1
(3.8) einen Schnitt dar. Hierbei gelten 7o —
xi
(3.9)
o
"13 ' Vi
=
*50 ^iv AilV + i — £¡0( -
xij)
,
xij
^ 0
xii
< o
(3.10)
6.3.3. B e w e i s v o n S a t z 6.3.1. Zunächst prüfen wir die Schnittbedingung. Es gilt tatsächlich 2 7ixj = 2 Yr 0 = 0 < y 0 = xri0 - Aiv , }tNr jtNr so daß die Schnittbedingung erfüllt ist. Wir gehen zum Beweis der Regularitätsbedingung über. Wir schreiben die Auflösung von xt nach den Nichtbasisvariablen xi
— xi0 + 2 xij (— xi) — xi0 ~t" 2 ( jtN, jiNr
xij)
xt
•
(3.11)
Es sind zwei Fälle möglich: 1. X< ^ A; 1>+1 '
(3.12)
2. x< ^ A,-
(3.13)
J) 2)
Wird die Diskretheitsbedingung auch an die Zielfunktion x0 gestellt) so gilt x0 Wird die Diskretheitsbedingung auch an die Zielfunktion x t gestellt, so gilt
A 0} =
S~
+
^
X'u)
Xjj)
,
Xj ,
( -
2
0}
x,,
so daß xt =
+ S- +
(3.14)
gilt. Aus der Definition der Mengen Nr und N? und der Nichtnegativität der Variablen Xj folgt, daß (3.15) (3.16) gelten. Wir untersuchen den Fall 1. (3.12). Aus (3.12) und (3.14) folgt: xri0
+
+
^
A
(Av+1
-
•=1
1
>
Vi, ^ 0 , yJV ganzzahlig . Erfüllt auch die Zielfunktion x0 die Diskretheitsbedingung, so ist k = min {i\i e e { 0, 1, . . . , nj}, x'-f) erfüllt Bedingung (3.4) nicht}. 2 ) Wird die Diskretheitsforderung auch an die Zielfunktion gestellt, so istj = 0, 1, n,
6 . 3 . D e r A l g o r i t h m u s v o n DALTON u n d LLEWELLYN
113
Allerdings k a n n d a b e i die A n z a h l der V a r i a b l e n wesentlich a n w a c h s e n . 6.3.8. W i r k o m m e n zu einem Zahlenbeispiel. Man maximiere XQ
#2
X±
unter den Restriktionen — x1 + 4 x2 ^ 12 , 4 x1 — x2 sS 12 , 2-1 6 {0, 1 , 4 } , € {0, 1, 3, 5} oder, was dasselbe i s t : Man maximiere XQ
=
X 2
-F-
# 2
unter den Restriktionen ~~ iCj _ 4 Xg — 12 — 4 itj — ¡^2 — 12 — s, ^ 0 ,
j , j = 1, . . . , 4 ,
a;0 ganzzahlig, aj x e {0, 1 , 4 } , e {0, 1, 3, 5 } , x3, xi ganzzahlig. Die L ö s u n g des Beispiels wird in d e n T a b e l l e n 1—8 g e b r a c h t . Die o p t i m a l e e r w e i t e r t e L ö s u n g ist X(.tD,
C) ~ X = (x0, xlt . . . , xt) = (4, 1, 3, 1, 11) .
1
-x1
¿0
0
-1
-1
X
0
-1
0
0
0
-1
x3
12
-1
4
x4
12
4*
-1
1
Tableau 1
1
~xt
XQ
3
1/4
-5/4
xx
3
1/4
-1/4
X2
01
0
X
15
1/4
X2
Z
xt
0
1
~xi
8
1/3
1/3
xy
4
4/15
1/15
-1
X
2
1/15
4
4/15
15/4*
x3
0
0
-1
0
Xi
0
-1
0
-1 Tableau 2
x3
Tableau 3 (T„) x
5
| - 1
J —1/151 - 4 / 1 5 *
114
6. Der zweite Algorithmus von GOMORY
1
x
i
X
4
5/4
x0
15/4
1/4
1/4
x
0
1
X
x3
15/4
1/4
0
-1
i
1
S
1/4
3
x
X
27/4
2
x
-
-15/4 0
•
i
18/5
1/5
1/5
2
12/5
-1/5
4/5
x3
6
1
x
0
Tableau 4 (TJ
xi X
2
XQ Xi
-3/4
-1/4
1
~xi
-5/4*
x7
1 X
1
1
0
X1
1
1
x2
13/4
4*
x3
9
5
13
-5
1
-x7 5/4
1/4
1
0
1/4
1/4
-1
0 -15/4
1/4
-1/4
-1/4
— 1/4*
x
%
XQ
4
1
1
X
1
1
1
0
x2
3
0
1
x
1
1 "
-1/5
Tableau 7 ( T )
-x7
11
-1/5*
3
xs
1
17/4
45/4
Tableau 6
z
-13/5
l
-7
0
Tableau 5 (T2)
0
-1
-3
-1
6
5
4
0
l
6
Xq
X
4
-4
1
Tableau 8 (T4)
6.4. Der B-Algorithmus zur Lösung ganzzahliger linearer Optimierungsprobleme mit Booleschen Variablen Der B-Algorithmus von F I N K E L ' S T E I N ist für ganzzahlige lineare Optimierungsprobleme mit BooLEschen Variablen bestimmt. Das drückt sich auch in seinem Namen B-Algorithmus aus. Die Spezifik von Problemen mit BooLEschen Variablen wird wesentlich bei der Konstruktion der Schnitte benutzt.
6.4. Der B-Algorithmus
115
6.4.1. Betrachtet wird ein gemischt ganzzahliges lineares Optimierungsproblem, in dem alle ganzzahligen Variablen BooLEsch sind. Man finde das /-Maximum des Vektors (Zj, x.it ...
(4.1)
, xnJ
unter den Restriktionen n
i = 1, . . . ,TO,
(4.2)
Xj^O,
j=l,...,n,
(4.3)
X] ^ 1 ,
j = 1, • • • , nx ,
x1 ganzzahlig,
j = 1, . . . , nx .
a{j Xj = bt,
3=1
(4.4) (4.5)
Hier ist nx"^Ln. 6.4.2. S a t z 6.4.1. Sei X(lfr, C) = Xr eine l-optimale Basislösung von Problem (Jfr, C), x\ nichtganzzahlig und i = min {p\xrv nicht ganzzahlig; p e {1, . . . , %}}• Dann ergibt die Ungleichung z j
(1
(Xf
-
xj)
(1
+
-
x,)
»;)
+
(1
-
^ 1
Xt)
(4.6)
S t - 1
einen Schnitt. 6.4.3. B e w e i s . z
Zuerst prüfen wir die Schnittbedingung. Tatsächlich gilt (»; (i 1 =
2
jäi-1
*!)
0
+
+ ( i - 4 ) *;) + ( i (1
-
x\)
=
x
i)
=
(1 - x\) < 1,
so daß die Schnittbedingung erfüllt ist. Wir gehen zum Beweis der Regularitätsbedingung über. Da der Vektor (x[, ... , xrn) Z-maximal ist (unter den Restriktionen von Problem {Ir, 0)), ist (unter denselben Restriktionen) auch der Vektor (x[, . . . , x\) i-maximal. Folglich haben wir für eine beliebige Lösung X des Problems (x[,
(4.7)
(xv ...,xt)
(die Gleichheit ist unmöglich, weil x\ nicht ganzzahlig ist). Es sind zwei Fälle möglich: 1. xt = 0, 2.
Xl
=
1.
Im Falle 1. gilt (1 -
= 1 ^ 1,
Anstelle von (4.4) und (4.5) kann man auch Xj = sign dt. Ausg.) 9
Diskrete Optimierung
schreiben. (Anm. d. Red. d.
116
6. Der zweite Algorithmus von
GOMOKY
und die Ungleichung (4.6) ist erfüllt. Im Falle 2. gilt und aus (4.7) folgt, daß
(x[, . . . ,
(£), . . . , £;_i)
gilt, so daß für ein gewisses & (1 rg &
i — 1)
x'k xk
gilt. E s gibt zwei Möglichkeiten: a) x\ = 0, xk = 1, b) x Tk = 1, xk = 0, und da eine davon nicht realisiert ist, ist stets
xk(l-x rt) + (1 ~xk) xl ^ 1,
so daß Ungleichung (4.6) auch in diesem Falle gilt. 6.4.4. Wir schreiben nun die Ungleichung (4.6) in einer Form, die zur Berechnung nach der ¿-Met hode bequem ist, indem wir annehmen, daß der nichtganzzahligen optimalen Lösung X r das Tableau Tt =
j(x° entspricht:
2^0,
z = 2 l xi (1 — xj) + (1 — xj) xj1 — xi = jäi-1 x (1— a:J0) + = 2 ( 0 + 2 jk (— ^¡t) oj 1 — xj0 — 2 xjk (— xik) kiNr
vi0
— 2 x*ik (— xk) kiN r
=tSi-1 2 i xjo (1 - Xh) + (1 - ®Jo) XJ o] + + 2 (1 — % xjo) £ xjk (— xk) — xlo — 2 jäi-l keif,• keifr r x (~x ) + 2 (1 -2x )x; j0 k l. = - 'o +ktN, 2 k [ i s i—i J
x\k
{— xk) =
6.4.5. Zum Endlichkeitsbeweis für den B-Algorithmus wird die lexikographische Abnahme der Vektoren X{%r, C) (wie auch beim ersten Algorithmus von GOMOBY) und die Tatsache benutzt, daß nur eine endliche Anzahl von Restriktionen in der Gestalt (4.6) existiert. 6.4.6. Ein beliebiges gemischt ganzzahliges lineares Optimierungsproblem mit ganzzahliger Zielfunktion, ganzzahligen Variablen xv ... , xni und beschränkter Lösungsmenge J? kann auf ein Problem der Gestalt (4.1)—(4.5) zurückgeführt werden, wenn man neue BooLEsche Variable einführt. Für jede Variable xt (i =
117
6.5. Der Algorithmus von DANTZIG
= 0, 1, . . . , % ) werden Variationsgrenzen dt di und Dt kann man als ganzzahlig ansehen. Xi = ü ^
d, +
Vi ^
Ai
=
x%
Dt eingeführt. Die Zahlen
yu Di
-
du
[log2 At] = q,. Dann wird xt in der Gestalt xt
=
dt +
2"
• zi0
+ 2 ? i _ 1 • z n + • • • + 2 • z4j ( I . _ „ + 2,-
darsgestellt, wo ziv BooLEsche Variable sind. Anstelle des Maximums muß das lexikographische Maximum des Vektors (200> 201> • • • > z0go)
gesucht werden. Braucht jedoch die Zielfunktion nicht unbedingt ganzzahlig zu sein, kann man eine Näherungslösung mit beliebig vorgegebener Genauigkeit (bezüglich des Zielfunktionswertes) erhalten. Dafür wird die Maximumbedingung für die Zielfunktion x0 durch die Ü-Maximumbedingung für den Vektor (xlt . . . , xrii) ersetzt, und folglich werden Restriktionen der Form x0 t hinzugefügt (genauer s. Ju. Ju. FINKEL'STEIN [41]). 6.5. D e r A l g o r i t h m u s v o n D a n t z i g
Hier wird ein Konstruktionsverfahren für reguläre schneidende Hyperebenen dargelegt, wie es von DANTZIG angegeben wurde. Dieses Verfahren ist wesentlich einfacher, als alle oben dargestellten Verfahren. Aber, wie von GOMORY und HOEEMAN gezeigt wurde [68] (ihre Untersuchungen werden weiter unten wiedergegeben), ist die Endlichkeit des DANTZiGschen Algorithmus nur für eine enge Klasse von Problemen garantiert. Am Beispiel des Algorithmus von DANTZIG ist ersichtlich, wie diffizil die Frage der Konstruktion von Schnitten ist und wie skeptisch man an die verschiedenen vereinfachenden Algorithmen herangehen muß. 6.5.1. Es wird das rein ganzzahlige lineare Optimierungsproblem betrachtet: Man maximiere n x0~-
2
(5.1)
C1 X1
n
j=l
dijXf
=
bu
i =
1, . . . ,
Xj ^
0,
j
1, . . .
xj ganzzahlig, Der Rang der Matrix
||fflii||j=i,... im;J -=i,..., n
=
m,
,n,
j = 1, . . . . , n. sei gleich m.
(5.2) (5.3) (5.4)
118
6. Der zweite Algorithmus von
GOMORY
6.5.2. S a t z 6.5.1. Sei X(Jfr, C) = Xr eine optimale Basislösung des Problems ( J f r , G) und erfülle Xr die Ganzzahliglceitsbedingung nicht. Nr sei die Indexmenge der Xr entsprechenden Nichtbasisvariablen. Dann stellt die
Ungleichung I
JiiVr
einen Schritt
^ 1
(5-5)
dar.
B e w e i s . Zuerst p r ü f e n wir die Schnittbedingung. I n der T a t gilt 2 x) = 2 1 o = o < i , jtNr jtXr so d a ß die Schnittbedingung erfüllt ist. Wir gehen zum Beweis der Regularitätsbedingung über. Da die Lösung Xr durch ihre Nichtbasisvariablen eindeutig bestimmt ist, gilt f ü r jede m i t der Lösung Xr nicht zusammenfallende Lösung X von Problem C) je Nr wobei f ü r eine beliebige Lösung X von Problem ( der Variablen x; ( j e Nr) folgt, daß jeXr
C
)
aus der Ganzzahligkeit
^ 1
gilt. 6.5.3. Der Schnitt, der das nicht ganzzahlige Optimum X ( j f r , C) von Problem (jf r , C) abschneidet, k a n n wie folgt beschrieben werden: X-n + r-j-1
1 "1" S jtXr
x
n + r +1 = 0, ^n+r+i ganzzahlig. Wir bemerken, daß jede der von neuem eingeführten Variablen xn+p durch Vorgabe der Variablen xv . . . , xn definiert ist, so daß =
eindeutig
x
n+p(X)
gilt. 6.5.4. Wir bezeichnen mit y^X), y2(X), . . . , y„(X) die nach steigenden Komponenten %!,..., xn angeordneten Lösungen X des Problems (5.1)—(5.3), so daß Vl{X)
gilt.
Wir
6.5.5.
^ yt(X)
^ • • ^ yn(X)
(5.6)
setzen
Lemma
n—m — 1 y^.AX*)
> 1
(5.16)
p=l,...,a.
(5.17)
u n d nach L e m m a 6.5.1. ^ yn-m^(x*),
*n+P(X*)
Aus (5.14), (5.15) u n d (5.17) folgt, d a ß unter den Zahlen (5.13) mindestens [1 -j- (m + 1) + s] = [m + 2 +•«] positiv sind und folglich insgesamt höchstens [n + s — (m + 2 + s)] = (n — m — 2) Nullen. N u n wurde aber weiter oben bemerkt, d a ß u n t e r den Zahlen (5.13) (n — m) Nullen sein müssen. Wir erhalten einen Widerspruch. Satz 6.5.2. ist bewiesen. 6.5.7. F o l g e r u n g 6.5.1. (aus Satz 6.5.2.). Dafür, daß der Algorithmus von DANTZIG endlich ist, ist notwendig, daß die gesuchte optimale Lösung auf einer Kante der polyedrischen Menge (5.2)—(5.3) liegt (es wird vorausgesetzt, daß Problem (5.1)—(5.3) nicht ausgeartet ist). W e n n auch diese Bedingung ziemlich h a r t ist, so genügen ihr doch z u m Beispiel alle (nicht entarteten) Probleme folgender Gestalt: Man maximiere n x 0 = Z cixi (5.18) i unter den Restriktionen n
£ a>i)%i = bt, }=1 n
a^Xi lg bi,
i = 1, . . . , w 1 ;
i = m1 + 1, . . . , m1 + w 2 ,
(5.19) (5.20)
3=1
Xj ganzzahlig,
j=l,...,n,
(5.21)
j = 1, . . . , n .
(5.22)
Das ist aber eine wichtige Problemklasse (vgl. 2. u n d 3.). 6.5.8. Die in der Folgerung 6.5.1. angegebene notwendige Endlichkeitsbedingung f ü r den Algorithmus von DANTZIG ist allerdings nicht hinreichend. E s gilt nämlich:
7.1. Über den Einfluß von Rundungsfehlern
121
S a t z 6.5.3. Gelten für eine gewisse optimale Lösung X' von Problem (5.1)—(5.4) und eine geivisse Lösung X" von Problem (5.1)—(5.3) die Ungleichungen I CfXj 3 =1
und
>
2 C1X'j 3 =1
a(X") ^ 1,
(5-23) (5.24)
•so ivird der T)aktzigsclie Algorithmus nicht endlich. B e w e i s . Wir nehmen an, der Algorithmus von Dantzig wäre endlich. Dann folgt aus (5.23), daß der Punkt X" nach einer gewissen Iteration (etwa der r-ten) abgeschnitten wird, so daß *«+,(*") < 0
(5-25)
gilt. Aber aus (5.24) und Lemma 6.5.1. erhalten wir Xn+p{X")
^ Vn-n^iX")
^ 0.
(5.26)
Beim Vergleich von (5.25) und (5.26) erhalten wir einen Widerspruch. Satz 6.5.3. ist bewiesen. Also wird der vereinfachte ÜANTZiGsche Algorithmus in relativ wenig Fällen endlich. 6.5.9. Wir kommen zu einem einfachen Zahlenbeispiel, wo das gesuchte ganzzahlige Optimum einen inneren Punkt des Lösungspolyeders darstellt und der Algorithmus von Dantzig nicht endlich ist. Man maximiere XQ =
J" I -{-
'( '2
unter den Restriktionen ii/j 3 x
,
T
i
-
M
'
so daß
gilt. Aus (2.1) und (2.2) erhalten wir
was wegen der Nichtnegativität von Anteils
X , y j { j
€ {0} u
T)
und des gebrochenen
(j € T) unmöglich ist. Satz 7.2.1. ist bewiesen.
7.2.2. Wendet man Satz 7.2.1. an, kann man einen ganzzahligen Schnitt konstruieren (der die Bedingungen (1.5)—(1.10) erfüllt.) Gegeben sei ein ganzzahliges, unzulässiges und Z-normales Tableau
^ = IKjII UQn; jeX' und es gelte für irgend ein k (1
k ^ n) Xk0 < 0 .
Wir setzen T = N, d1 = xk1 (j e N°),
y0 = xk,
y =
x) (j e N) und
X > max \df\, so daß 0,
d, >
0,
dt
|
X
1 - 1 , d, < 0 ,
gilt und erhalten den ganzzahligen Schnitt z = z
k
( Ä ; X )
=
-
1 +
! ) ( - * ? ) , j € A" xkj< 0
2^0, 2 ganzzahlig.
126
7. D e r d r i t t e A l g o r i t h m u s v o n GOMORY
Weiter unten (im Zuge der Darlegung des Algorithmus) wird eine rationellere Auswahl von X vorgestellt. 7.2.3. Weiter oben wurde erwähnt, daß der dritte Algorithmus von GOMORY mit der Angabe eines ganzzahligen und ¿-normalen Ausgangstableaus T0 beginnt. Bevor wir zur unmittelbaren Darstellung des Algorithmus kommen, zeigen wir, wie man in einigen Fällen ein Ausgangstableau T0 mit den nötigen Eigenschaften erhalten kann. Wir betrachten das rein ganzzahlige lineare Optimierungsproblem: Man maximiere n
Xq =
(2.3)
T.Cj Xj j-1
unter den Restriktionen n 2J ai}Xj
i =
•
7.2. K o n s t r u k t i o n eines ganzzahligen S c h n i t t e s
Erweist sich Tableau T
129
als zulässig, so ist der Vektor
v
=
xf, . . . ,
=
( xvo> xio> • • • ' xno)
erweiterte optimale Lösung von (J ; S A N Z , C) ( 2 . 3 ) - ( 2 . 6 ) . Ist das Tableau T zulässig, so gehen wir zur (p + l)-ten Iteration über. Das Blockschema für den dritten Algorithmus von G O M O R Y wird in Abb. gebracht. j
v
un-
7.2.1.
Die i-Pseudolösung = K 0 , . . . , O ist o( jpf tgiamn za, l e ) L ö s u n g v o n C
1 Suchen der (im I n d e x ) ersten K o m p o n e n t e , die die Zulässigkeit v o n 2 p _ i v e r l e t z t : k = min {i\i e {1, . . . , n}; z f " 1 < 0} Bildung der Menge
Np-i
= {j\j € N
p
Ja
- i ; x%-}
P r o b l e m ( ¿ y n z , C) unlösbar
4- Nein W a h l der Leitspalte Rp,~
R»f
• lex m i n Rp-
j e N.p-1
I W a h l v o n X aus den Bedingungen (2.14) —(2.16)
|
E n t f e r n e n v o n xn+p aus der Basis u n d E i n f ü h ren v o n Xi in die Basis. Zeile xn+p streichen. I s t l S: n + 1, so Zeile xt n i c h t wieder einrichten. Gewinnen des ganzzahligen u n d /-normalen Tableaus T p . P r ü f e n , ob T p zulässig ist. I
Nein
p—p
+ 1
Ja
Die Z-Pseudolösung X' = (xP0, . . . , xl0) ist o p t i m a l e L ö s u n g von Problem ( ^ f a n z , G).
A b b . 7.2.1. Blockschema f ü r den d r i t t e n Algorithmus v o n GOMORY
7.2.5. Die ZahlX wird unter Einhaltung folgender Bedingungen gewählt: I. Das Leitelement ist gleich (—1): x%T l
=
-
1 .
(2.14)
130 -
7.
Der dritte Algorithmus v o n
GOMORY
I I . Tableau T„ m u ß Z-normal sein: ~ yV— 1"1 EP} = i?;-1 Er o
(2.15)
1
x
f ü r a l l e j e i \ r p \ { ( W + i > ) } = JV„_i\{Z}. I I I . Die Spalte Ep0 m u ß Z-minimal sein: ei = Er1 •¿t fl Äf
• lex min
(2.16)
B e m e r k u n g 7.2.1. Weil das Leitelement gleich ( — 1) ist u n d Ef^1 y 0 -1 (wegen der Z-Normalität von Tp_1) ist B*+p — Bf 0 , d. h. die Z-Positivität von B*+p ist garantiert. Die Positivität von X folgt aus (2.14) u n d der Negativit ä t von xlJ 1 (s. (2.10)). 7.2.6. Wir erklären, wie m a n X aus den Bedingungen (2.14)—(2.16) f i n d e n k a n n . Die Bedingung (2.14) k a n n m a n wie folgt umschreiben: -
1 q
0 ist, nicht XQ — x'0, woraus auch (3.3) folgt. 7.3.4. Wir nehmen an, die Gesamtheit der Iterationen wäre unendlich. Dann findet man solche 2; 1 und p1 1, daß \.xf~1=xf,
P^Pi,
i =
. . . ,d1-
\
(3.4)
1
gilt- ) 2. Man sucht ein hinreichend großes p, für das aC1 ^ < erfüllt ist. Aus (3.1), (3.4) und (3.5) erhalten wir ^ Folglich findet sich ein p2 l
xf~
P
0} ^ ^ -
= -1'
q
1
=
(3.11)
(3 12)
-
gilt. W e n n wir (3.7) u n d (3.12) vergleichen, e r h a l t e n wir e i n e n W i d e r s p r u c h . Die E n d l i c h k e i t des d r i t t e n A l g o r i t h m u s v o n G O M O R Y ist bewiesen. 7.4. Eine Modifikation des dritten Algorithmus von Gomory Soeben wurde die Endlichkeit des dritten Algorithmus von GOMORY bewiesen, aber nur unter der Bedingung, daß Problem (2.3) —(2.6) mindestens eine Lösung besitzt. Es ist zu bemerken, daß im allgemeinen die Verifizierung dieser Voraussetzung ebenso schwierig ist wie das Lösen des Problems (2.3)—(2.6) selbst. Es tritt die natürliche Frage auf, ob es eine Aussage über die Existenz von Lösungen des Problems (2.3) —(2.6) unter der notwendigen Bedingung gibt, daß der dritte Algorithmus von GOMORY endlich ist, oder ob die Technik des Beweises einfach unvollständig ist. Hier wird die Antwort auf diese Frage gegeben (s. F I N K E L ' S T E I N [44]). Es wird ein Beispiel für ein Problem in der Gestalt (2.3) —(2.6) konstruiert, das keine Lösungen besitzt, für das der dritte Algorithmus von GOMORY nicht endlich ist. Außerdem wird eine Modifikation des dritten Algorithmus von GOMORY angegeben, für die die Endlichkeit ohne die Voraussetzung der Existenz einer Lösung für Problem(2.3)—(2.6) garantiert wird. 7.4.1. Wir bringen ein Beispiel für ein Problem, für das der dritte Algorithmus von GOMORY nicht endlich ist. Die Restriktionen des Problems schreiben wir in Gestalt des Tableaus T„. 1
xi
x5
10
4
3
1
-1
3
2
2
X
2
-1
2
-3
2
2-3
-1
2
2
-3
x4
0
-1
0
0
x5
0
0
-1
0
xe
0
0
0
-1
XQ X
1
Tableau T0
a*6
7. Der d r i t t e Algorithmus v o n GOMORY
136
W i r bemerken, d a ß im gegebenen Falle nicht n u r Problem (2.3)—(2.6), sondern auch das nicht ganzzahlige Problem (2.3)—(2.5) keine Lösungen besitzt, weil 0 ^ xt + x 2 + x 3 = ( - 1 + 3 x4 - 2 x 5 - 2 x6) + (1 - 2 z 4 + 3 z 5 - 2 xt)
+
+ (1 - 2 i 4 - 2 i ä + 3 i 6 ) = - 3 - i 4 - % - i , < 0 , gilt, d. h. die Restriktionen von Problem (2.3)—(2.5) sind widerspruchlich. 7.4.2. Wir zeigen, d a ß die Anwendung des GOMORY-Algorithmus auf Tableau T0 zu einem unendlichen Prozeß f ü h r t . Wir bezeichnen mit x f j ( j 2: 1) dasjenige E l e m e n t von Tableau das in der der Variablen xi entsprechenden Zeile u n d der j-ten Spalte steht. E s sei d a r a n erinnert, d a ß xptj die Elemente von Tableau TP bezeichnen, die sich in der Zeile xi u n d der Spalte Xj befinden. S a t z 7.4.1. Für ein beliebiges p (p — 0, 1, . . .) gilt 3
¿•zfoCO, ¿= l x f j = x°f,
(4.1)
i = 0, 1, . . . , 6 ,
j ^ 1.
(4.2)
Den Beweis f ü h r e n wir durch I n d u k t i o n . F ü r p = 0 sind die Formeln (4.1) u n d (4.2) wahr. Wir n e h m e n an, d a ß sie f ü r p = q gelten u n d beweisen sie f ü r p = q + 1. Wegen 3 2 > ? O < 0 ,
(4.3)
¿= i ist
kq = min {i\i 6 {1, 2, . . . , 6 } ;
z? 0 < 0} € {1, 2, 3} .
Weil weiterhin =
'
3 =
1
( 4
'
"
4 )
gilt, erhalten wir Xq = 3, wenn wir mit Xq den W e r t von A bezeichnen, der zur K o n s t r u k t i o n des ganzzahligen Schnittes xn+q+\ Sg 0 ausgewählt wurde. Folglich e n t h ä l t die xn+q+\ entsprechende Zeile (— 1) als Leitspalte u n d Nullen in zwei restlichen Spalten, die Nq entsprechen (weil [2/3] = 0 ist). Hieraus folgt direkt = «fy = * h >
» = 0, 1, . . . , 6 ,
j ^ 1.
(4.5)
Weiter erhalten wir offenbar 3
3
3
L z f t 1 ^ E *1o ~ ( - 3 + 2 + 2) = E XU- 1 < o . (4.6) ¿=l ¿=i ¿=1 Der Satz ist bewiesen. Aus dem Satz ergibt sich sofort, d a ß die A n w e n d u n g des GOMORY-Algorithmus auf T0 zu einem unendlichen Prozeß f ü h r t . E i n analoges Beispiel k a n n m a n leicht auch f ü r eine beliebige Kollektion von Variablen konstruieren. 7 . 4 . 3 . Wir modifizieren n u n den d r i t t e n Algorithmus von GOMORY so, d a ß seine Endlichkeit u n t e r B e a c h t u n g folgender Bedingungen g a r a n t i e r t ist: 1. E s wird ein gazzahliges u n d ¿-normales Tableau T0 konstruiert, u n d 2. die Lösungsmenge 0 von (2.3) —(2.5) ist beschränkt 1 ). D e r Endlichkeitsbeweis f ü r den modifizierten Algorithmus ä n d e r t sich f a s t nicht u n d wird hier nicht gebracht. ') Beachtet m a n die Endlichkeitsbedingung f ü r den dritten GOMORY-Algorithmus, so wird die Endlichkeit der Modifikation auch g a r a n t i e r t .
8.1. Problemstellung und Idee der Lösungsmethode
137
Wegen der Beschränktheit der Menge O kann man (mit Methoden der linearen Optimierung) min
x0 =
(4.7)
M
XtG
finden. Ist das Problem, x0 über G zu minimieren, unlösbar, so ist auch Problem (2.3)—(2.6) unlösbar. Ist dieses Problem jedoch lösbar, so erhalten wir für eine beliebige Lösung von (2.3) —(2.6) x'0 =
x0
^ 0 ,
-
(4.8)
wo ]M[ die kleinste ganze Zahl ist, die nicht kleiner als M ist. Im Ausgangstableau T0 ersetzen wir x0 durch x'ri (offenbar werden die Komponenten xlt . . . , xn der optimalen Ausgangslösung davon nicht geändert) und werden bei der Prüfung der Zulässigkeit von Tp nunmehr mit der Prüfung auf Nichtnegativität nicht mit der Zahl x\0, sondern mit der Zahl xfi0 beginnen. Ergibt sich dabei, daß z%0 < 0 ist, so ist das Problem (2.3)—(2.6) unlösbar.
8. Zur Lösung ganzzahliger linearer Optimierungsprobleme mit beliebigen Zusatzbedingungen In den letzten Jahren erschien eine Reihe von Arbeiten, die sich mit der Ubertragung der Schnittmethoden auf konvexe ganzzahlige Optimierungsprobleme befaßten (s. C o u e t i l l o t [21], Künzi und O e t t l i [97], W i t z g a l l [130]). Die Effektivität dieser Algorithmen ist bislang unklar. Daher werden hier die angegebenen Arbeiten nicht dargestellt, sondern nur einige neue Verfahren beschrieben, die gestatten, die oben dargelegten Algorithmen für Schnittmethoden auf eine bedeutend weitere Problemklasse zu übertragen. Problemstellung und Idee der Methoden werden in 8.1. dargestellt. Dort werden auch im wesentlichen die einfachsten Algorithmen gegeben. In 8.2. befaßt man sich mit der Ausnutzung der Spezifik konvexer und gewisser nicht konvexer Probleme. In 8.3. wird eine eingehendere Darlegung der Anwendung des dritten GOMOEY-Algorithmus und ein Zahlenbeispiel gebracht. 8.1. Problemstellung und Idee der Lösungsmethode 8.11. Wir betrachten ein rein ganzzahliges lineares Optimierungsproblem mit Zusatzrestriktionen. Man maximiere n X
0 = £ c 3=1
unter den Restriktionen
j
X
(1.1)
1
n Z
d i j X j =
6, ,
i =
l , . . . , m ,
j
l , . . . , n ,
(1.2)
i=i ^
0 >
xj ganzzahlig, («i,
. . .
=
j = 1, . . . , n , , x
n
) = X
€ D
.
(1.3)
(1-4) (1.5)
138
8. Lösung ganzzahliger linearer Optimierungsprobleme
Bedingung (1.5) ist vollkommen beliebig. Die polyedrische Menge Jf ((1.2) bis (1.3)) sehen wir als beschränkt an, so d a ß die Menge jfs ariz (1.2)—(1.4) n u r eine endliehe Menge von P u n k t e n erhält. Die Zahlen Cj nehmen wir als ganze Zahlen, j = 1, . . . , n an. 8.1.2. Die Idee der Methode besteht in der sukzessiven Lösung (mit einer Schnittmethode) einer Reihe rein ganzzahliger Hilfsprobleme aus der linearen Optimierung : G) =
C),
(J?anz,
C),
( ^ f
n z
, C),
. . .
Der Übergang von ( l f U V L , C) zum Problem C) wird mit einer Schnittm e t h o d e bewerkstelligt. E r f ü l l t die Lösung X( Jfj?anz, C) eines gewissen Problems die Zusatzbedingung (1.5), so ist das Lösungsverfahren beendet, u n d X { l f l u V j , C) ist optimale Lösung von (1.1)—(1.5). 8.1.3. Wir beschreiben den Übergang von ( J f n z , C) zum Problem C). Erfülle die optimale Basislösung X ( I f & n z , C) von (Jf« anz , G) die Zusatzbedingung (1.5) nicht, wobei Nr die Indexmenge f ü r die Nichtbasisvariablen ist, die X ( J f n z , C) entsprechen. Die Lösung j«? anz , G) k a n n m a n „abschneiden", wenn m a n ein Verfahren benutzt, das dem oben angegebenen Verfahren von DANTZIG analog ist. S a t z 8.1.1. Sei z
r
(X)
= -
1 + 21
X,,
jeNr X
eine
Lösung
von
(1.1)—(1.5).
Dann
gilt
zT{X) ganzzahlig, z
r
(X) ^
0 .
Der Beweis ist vollkommen analog zur Begründung des Verfahrens von DANTZIG. Die Lösung X ist eindeutig durch die Werte der Variablen x.j ( j e Nr) definiert, wobei X ( I f & n z , C) ein Satz von W e r t e n (x} = 0, j € N r ) entspricht, der keine Lösung darstellt (weil er Bedingung (1.5) nicht erfüllt). Folglich m u ß f ü r die Lösung X mindestens eine der Variablen x}, j e Nr, sagen wir die Variable xk, positiv sein und wegen der Ganzzahligkeit
woraus zufolge der N i c h t n e g a t i v i t ä t der Variablen xf I }f.Nr
^ 1
erhalten wird. Der Satz 8.1.1. ist bewiesen. 8.1.4. Wir wählen einen Algorithmus f ü r eine Schnittmethode, mit dem wir das Hilfsproblem (Jf®anz, C) lösen werden. U n t e r (Jff l r i z , G) verstehen wir das Problem (^ g a n z , C) ((1.1)-(1.4)). r - t e r S c h r i t t (r ^ 0). Wir lösen das Problem ( . f f n z , C). I s t Problem ( J f a n z , C) unlösbar, so ist auch Problem (1.1)—(1.5) unlösbar. I s t Problem (,ff a n z , C)
8.2. Konstruktion von Schnitten f ü r konvexe u n d nichtkonvexe Probleme
139
lösbar, und erfüllt seine optimale Lösung ( j f f n z , C) die Zusatzbedingung (1.5), so ist X(Jf®anz, C) gleichzeitig optimale Lösung von (1.1)—(1.5). Erfüllt die optimale Lösung X(lfU]7\ C) jedoch Bedingung (1.5) nicht, so führen wir eine Zusatzrestriktion ein (s. Satz 8.1.1.), indem wir sie zu den Restriktionen von (i?f nz , C) hinzufügen und erhalten das Problem ( ^ f f , C) . Die Endlichkeit des Verfahrens folgt aus der Endlichkeit der Anzahl der Lösungen für ( J f f n z , C). 8.1.5. Die Methode kann man auch auf Probleme mit beliebiger zu maximierender Zielfunktion/(X) und den Restriktionen (1.2)—(1.5) erweitern, nur gelingt es in diesem Falle lediglich, eine Näherungslösung zu erhalten. Sei e > 0 die maximal zulässige Abweichung (im Wert der Zielfunktion) von n der exakten Lösung. Wir führen die Hilfszielfunktion x0 = c,- x.j ein, j=i lösen (mit der oben angegebenen Methode) das Problem (1.1)—(1.5), erhalten die optimale Lösung X°, speichern sie und gehen zur Lösung von Problem (1.1) bis (1.5) mit der Zusatzrestriktion f(X)^f(X°)+e
(1.6)
über. Besitzt das neue Problem (1.1)—(1.6) eine optimale Lösung, muß als Näherungslösung von (1.1)—(1.5) genommen werden. H a t jedoch Problem (1.1)—(1.6) die Lösung X1, streichen wir X° aus dem Speicher, speichern X 1 und gehen zur Lösung von (1.1)—(1-5) mit der Zusatzrestriktion f(X)^f(Xi)+e
(1.7)
über. Somit erhalten wir nach endlichen vielen Schritten die gesuchte optimale Näherungslösung. 8.1.6. Die oben dargelegten Methoden sind von universellem Charakter, was mit dem Fehlen irgendwelcher Beschränkungen zusammenhängt, die der Menge D (die in Bedingung (1.5) eingeht) und der Funktion f ( X ) auferlegt werden. Daher kann das zugehörige Rechenverfahren ziemlich langwierig sein. Zum Beispiel wird bei der Lösung von (1.1)—(1.5) die Gesamtheit der zu lösenden Probleme ( l ' f n z , C) gleich der Gesamtheit der Lösungen X von (-ff™, C) sein, die die Bedingung X ^ X erfüllen, wo X das lexikographische Optimum von (1.1)—(1.5) ist. I n 8.2. werden einige Verfahren zur Ausnutzung spezieller Eigenschaften von D ( u n d / ) angegeben. 8.2. Die Konstruktion von Schnitten für konvexe und einige nichtkonvexe Probleme 8.2.1. Sei D eine konvexe, abgeschlossene Menge. Dann ist es natürlich, als Ebene, die den Punkt X € D von D abschneidet, eine der Ebenen zu nehmen, die
140
8. Lösung ganzzahliger linearer Optimierungsprobleme
X und D trennt (s. 4.): Z vi xi — r'o
=
z
(x) ^
0
•
j Da X eine Basislösung ist (eine Ecke des Polyeders Jf'), der ein gewisser Satz Niehtbasisvariablen N = {)\x.j Nichtbasisvariable für die Lösung X } entspricht, kann die Ungleichung z(X) 0 selbstverständlich auch in Nichtbasisvariablen ausgedrückt werden: 2y,x,-y0=z(X)^0. (2.1) jiN 8.2.2. Sei D eine nichtkonvexe abgeschlossene Menge, wobei das Komplement von D im Raum En eine konvexe Menge D' sei. Man muß von D den Punkt X € D abschneiden, wobei X eine Basislösung des Polyeders i' (N = {j\xj Nichtbasisvariable für die Lösung .X}). Bezeichnen wir die abgeschlossene Hülle der Menge D' mit D, so ist das auch eine konvexe Menge. Wir betrachten die Auflösung der Variablen xlt . . . , xn nach den Nichtbasisvariablen Xj (j e N), = »¿o + Hier ist
(—
jtN
XjQ
Xj y
.
i = l,...,n.
(2.2)
% — lj . • . y ¥1/ •
Wir betrachten den Kegel K, der durch die Bedingung (2.2) und die Nichtnegativitätsbedingung (2.3) für die Niehtbasisvariablen gegeben ist: x1 ^ 0
für alle j e N .
(2.3)
Die Spitze des Kegels K (2.2)—(2.3) ist der Punkt I i i , (oder, was dasselbe ist, X e D). Die Kanten lr (r e N) von K werden durch die Bedingungen (2.2), (23.) und die Zusatzbedingung x, = 0
für alle j ^ r (j e N)
(2.4)
gegeben. Wir suchen den Schnittpunkt Xr der Kante lT mit der gemeinsamen Begrenzung G der Mengen D und D. Dann ist Xr e D. Durch den Punkt Xr (r € N) legen wir die Ebene nN Die Spitze des Kegels I e D erfüllt auch die Bedingung - xr. reN r
_ xr. rtN
8.2. Konstruktion von Schnitten für konvexe und nichtkonvexe Probleme
141
J e d e n P u n k t X des Kegels K, der der Bedingung Z $ ^ r
riK
1
(2-5)
genügt, k a n n m a n in Gestalt einer konvexen L i n e a r k o m b i n a t i o n der P u n k t e X {r e N) u n d des P u n k t e s X darstellen, und weil X' e D (r g N) u n d X e D gilt, ist auch I f D . Somit gehören die Spitze X des Kegels K u n d alle seine P u n k t e X, die die Bedingung (2.5) erfüllen, zur Menge D, wobei allePunkte X (einschließlich der Spitze X) des Kegles K, die (2.5) als strenge Ungleichung erfüllen, zu D gehören, aber nicht zur gemeinsamen Begrenzung von D u n d D, so d a ß f ü r sie X (J D gilt. Folglich wurde der folgende Satz bewiesen. S a t z 8.2.1. Sei 1. X eine Ecke des Polyeders Jf" und N = {j\xt Nichtbasisvariable, die X entsprechen). 2. D eine abgeschlossene Menge. 3. D' das Komplement von D in En. 4. D'eine konvexe Menge. 5. X $ D. 6. X' der Schnittpunkt der Kante lT des Polyeders mit der gemeinsamen Begrenzung der Mengen D und D' (s. oben). Dann kann der Schnitt (der X von D abschneidet) in der Gestalt z(X) =
£ % ri:V
i =
z j i % - r«,
>
(2-6)
jf.it
z{X) ^ 0
(2.7)
geschrieben werden. B e m e r k u n g 8.2.1. I s t die Menge D' u n b e s c h r ä n k t u n d schneidet sich eine K a n t e lj nicht mit der gemeinsamen Begrenzung von D u n d D', d a n n m u ß m a n (etwa) voraussetzen:
x =
l
0 0
'
"i
=
0
•
Eine geometrische Illustration des Schnites (unter den Bedingungen von Satz 8.2.1.) ist in Abb. 8.2.1. gegeben. 8.2.3. Die Schnitte (2.1) (für konvexes D) u n d (2.6)—(2.7) (für nichtkonvexes D) k a n n m a n u n m i t t e l b a r benutzen, u m z u m Beispiel den zweiten GOMOBYAlgorithmus anzuwenden. Bedient m a n sich jedoch bei der Lösung des Hilfsproblems ( ^ a n z , C) des ersten oder d r i t t e n Algorithmus von GOMOBY, so verschleiert die u n m i t t e l b a r e Anwendung dieser Schnitte den U m s t a n d , d a ß die Variable z(X) (aus 2.1) u n d ( 2 . 6 ) - ( 2 . 7 ) in den Lösungen von ( j ^ a n z , C) nicht unbedingt ganzzahlig sein müssen. Diese Schwierigkeit zu umgehen hilft Satz
142
8. Lösung ganzzahliger linearer Optimierungsprobleme
z(X)*0 o
o
%
o
o
o
o *1
Abb. 8.2.1
7.2.1., auf dem basierend m a n stets über den Schnitt z'(X) =
E y'j X j — y ' o ,
z'{X) ^ 0 den Schnitt Z ¡ y i x jtX
}
- y
0
=
E jiN
V)
( - *i) +
yo
z(X) ^ 0 , z ( X ) ganzzahlig
(2.8)
(2.9) (2.10)
konstruieren kann. Hier ist X > 0. F ü r den ersten GOMORY-Algorithmus reicht dies aus, d. h. zur Konstruktion k a n n m a n ein beliebiges z ( X ) wählen. Für den dritten Algorithmus von GOMOBY jedoch ist es schlecht, die Ganzzahligkeit aller Schnittkoeffizienten anzustreben denn es ist noch nötig, daß das Leitelement gleich (— 1) ist. Das wird so gemacht wie bei der gewöhnlichen Anwendung des dritten Algorithmus von GOMORY (eine genauere Darlegung wird in 8.3. gegeben).
8.3. Dio Anwendung des dritten Algorithmus von Gomory Ein universelles Anwendungsschema von Algorithmen der ganzzahligen linearen Optimierung zur Lösung ganzzahliger Probleme der Form (1.1)—(1.5) wurde in 8.1. gegeben. Hier wird dieses Schema genauer beschrieben hinsichtlich des dritten Algorithmus von GOMORY (weil nämlich f ü r diesen Algorithmus einige zusätzliche Erläuterungen notwendig sind). Der dritte Algorithmus von GOMORY m u ß in modifizierter Form verwendet werden (s. 7.4.).
8.3. Die Anwendung des dritten Algorithmus
143
8.3.1. Es wird ein lineares ganzzahliges Optimierungsproblem mit Zusatzbedingungen (1.1)—(1.5) betrachtet. (Problem (1.1)—(1.4) bezeichnen wir mit (Jfganz, 0)), das in Gestalt des ganzzahligen und ¿-normalen Tableaus T
o = ll^jlLe«;^«
geschrieben wird. Mit X° (x°0 , x°, ... , x"j bezeichnen wir die erweiterte Pseudolösung (a&, . . . , x°0 ). r-te I t e r a t i o n . Problem (Jff ani! , C) wird in Gestalt des ganzzahligen, ¿-normalen Tableaus T
r =
l\Xi}\li(Q>l;j 0 wird gemäß den Angaben in 8.2.2. und 8.2.3. konstruiert. Der Übergang von z3 ^ 0 zu x3 ^ 0 wird bei einem Parameterwert X gleich 2/3 durchgeführt. Eine geometrische Illustration des Lösungsweges wird in Abb. 8.3.2. gegeben. Die Gesamtzahl der Simplex-Iterationen ist gleich 1. Dieses einfache Beispiel zeigt anschaulich die Vorzüge, die sich bei Ausnutzung spezieller Eigenschaften der Menge D ergeben.
Abb. 8.3.2
146
8. Lösung ganzzahliger linearer Optimierungsprobleme
1
-»i
-x2
2-0
0
1
1
x1
0
-1
0
x2
0 -1
0
-1
-1*
-1
1 x0
-1
5
2/2
6
4
-1
1
#3
-«5
a
2
Vi
6
2/2
2
l
0
x0
-1
-3
1
X1
-2
-1
2
-1*
XQ -
#0
1
0 -1
-1
X2
-1*
l
0
0
-2
1
1
1
-1
-1
-1
-1*
Tableau 3 (T2)
-1
3
4
-1
-5
Vi
3
2/2
7
-4 9
3 -5
1
3-6
#2
-2
1
0
«0
0
1
l
2
-3
1
X
1
0
-1
0
0
-2
-1
0 -2
0
0
-1
-1*
-i
1
Tableau 4 (T2) VI
-l
1
-1
x2
0
Tableau 2 (2\)
2/i
x
l
0
Tableau 1 (T0) -1
-1 1
1
#2
Tableau 6 (T0)
Tableau 5 (T3)
0
-7
3
2/i
7
12
14
-5
2/2
-2
-7 4
3 i -5
2/1
5
2/2
6
Z
1 -2
l
0
2
-l
i
0
0
-i
Tableau 7 (Tj) Vi
2/2
7 -2
-1 4
3 -5
3
-1
-1 4
2 -1
-2/3 -2/5
9.1. Das Effektivitätsproblem
147
9. Die Effektivität der Algorithmen für die Schnittmethoden Dieses Kapitel trägt in starkem Maße den Charakter einer Übersicht. Über die Effektivität der Schnitt-Algorithmen wird hier bezüglich ganzzahliger linearer Optimierungsprobleme gesprochen. In 9.1. wird das Problem gestellt, die Effektivität zu untersuchen. I n 9.2. werden kurz einige Resultate von Reehenexperimenten dargestellt und in 9.3. einige Ausblicke gegeben. 9.1. Das Effektivitätsproblem 9.1.1. Wie äußert sich die Effektivität gewisser Algorithmen für Schnittmethoden ? Eine ideale Antwort auf diese Frage wäre eine Formel, die die Anzahl der arithmetischen Operationen (notwendig zur Lösung des Problems) als Funktion von den Parametern des Problems angibt und die gestattet, die Statistik des Rechenexperimentes vorauszusagen. Leider ist so eine Formel sogar für lineare Optimierungsprobleme (LO) (ohne Ganzzahligkeitsforderung) unbekannt, die im Vergleich mit ganzzahligen linearen Optimierungsproblemen (GLO) wesentlich unkomplizierter sind. Mehr noch, alle Effektivitätsschätzungen für LO gründen sich bisher auf der Statistik von Maschinenexperimenten. 9.1.2. Wir verweilen kurz bei der Effektivität von LO-Algorithmen. Das ist dienlich zum Vergleich mit GLO. G A S S (s. [50], p. 65 der russischen Übersetzung) führt die folgende experimentelle Schätzung der Anzahl S der Iterationen bei der primalen Simplexmethode an. Sei m die Anzahl der Gleichungen für ein LO-Problem in kanonischer Form (4., Problem (1.9)—(1.11)). Dann gilt für die überwältigende Mehrheit von LO-Problemen (1.1)
Die Schätzung (1.1) weist auf die große Effektivität der (primalen) Simplexmethode hin 1 ). Es muß bemerkt werden, daß Schätzung (1.1) keineswegs offensichtlich ist. Sie ist wesentlich besser als die strenge obere Schätzung für die Eckenzahl V der polyedrisehen Lösungsmenge (die Zahl V überschreitet bekanntlich S2)): s ^
y ^
c™.
Daß die Schätzung (1.1) nicht offenbar ist, unterstreicht die folgende interessante Episode aus der Geschichte der Begründung der primalen Simplexmethode. „Die einfache Idee eines Fortschreitens über die Kanten eines konvexen x
) Auch für die duale Simplexmethode sind Schätzungen diesen Typs bekannt. ) Diese Aussage trifft im allgemeinen nur zu, wenn bei Anwendung der primalen Simplexmethode keine ausgearteten Ecken auftreten. Man kann nämlich zu jeder natürlichen Zahl 8 ein lineares Optimierungsproblem angeben, dessen zulässiger Bereich genau einen Eckpunkt besitzt, bei dem jedoch nach der primalen Simplexmethode mindestens S Iterationen benötigt werden. (Anm. d. Red. d. dt. Ausg.) 2
11
Diskrete Optimierung
148
9. Die E f f e k t i v i t ä t der Algorithmen
Polyeders von einer Ecke zur anderen (womit auch die primale Simplexmethode zu charakterisieren ist) wurde früher intuitiv als uneffektiv verworfen. Allein in einer anderen Geometrie zeigte sie sich als dienlich und wurde so durch einen glücklichen Zufall eingeführt und angewandt" (s. DANTZIG [29], p. 31 der russischen Übersetzung) 1 ). 9.1.3. Die theoretische Begründung für die Effektivität der Simplexmethode (und anderer LO-Methoden) erwies sich als ein schwieriges Problem. Dieses Problem ist bisher noch ungelöst. Es gelang bisher auch noch nicht, einige in der Problematik naheliegende Aufgaben zu lösen, zum Beispiel das Problem v o n HIRSCH (s. DANTZIG [29], P r o b l e m 13, p . 168 der russischen Übersetzung) 2 ).
Die Arbeit von FILIPPOVIC und KOZLOV [38] befaßt sich mit der wahrscheinlichen Schätzung für die Iterationenzahl bei einigen LO-Methoden, die auf unbewiesenen Voraussetzungen beruhen. Einige Fortschritte auf dem Wege zu einer strengen Begründung für die Effektivität der primalen Simplexmethode wurden von KLEE [88], [89] realisiert. Somit steht eine theoretische Untersuchung über die Effektivität der primalen Simplexmethode (und anderer endlicher LO-Methoden) bisher noch aus. Allerdings geben Maschinenexperimente die Möglichkeit, die Anzahl der Iterationen abzuschätzen und zeugen von der großen Effektivität endlicher LO-Methoden. Darum werden theoretische Untersuchungen in dieser Richtung nicht übertrieben intensiv durchgeführt. 9.1.4. Die Lage gestaltete sich bei der ganzzahligen linearen Optimierung anders. Theoretische Effektivitätsuntersuchungen für die Algorithmen der Schnittmethoden fehlen sogar. Allerdings erlauben die angesammelten Rechenerfahrungen nicht, die Effektivität für die Schnittmethodenalgorithmen so optimistisch abzuschätzen, wie die Effektivität für LO-Methoden. Bei der Lösung von GLO-Problemen tritt eine Reihe von Schwierigkeiten auf. Weiter oben (1.1.3.) wurde bemerkt, daß diese Schwierigkeiten nicht nur technischen, sondern auch prinzipiellen Charakter tragen. Daher ist die theoretische Erforschung der Effektivität der Schnittmethoden ein aktuelleres (wenn auch offenbar noch schwieriges) Problem als die Effektivitätsuntersuchungen für endliche LO-Methoden. Bisher kann man jedoch über die Effektivität der Schnittmethoden nur nach den Ergebnissen von Rechenexperimenten urteilen. 9.2. Ergebnisse von Rechenexperimenten Hier werden kurz einige Ergebnisse von Rechenexperimenten dargelegt. Die Autoren sind nicht bemüht, eine erschöpfende, sondern nur eine hinreichend vollständige Übersicht zu geben, als Grundlage für den verallgemeinernden 9.3. Das Material wird im Grunde in chronologischer Ordnung vorgelegt. Die Übersicht von BALINSKI [6] muß besonders hervorgehoben werden, weil sie interessantes Material über die Effektivität von Schnitt-Algorithmen enthält. 2
p. 29 der deutschen Ausgabe. (Anm. d. R e d . d. dt. Ausg.) ) p. 193 der deutschen Ausgabe.
9.2. Ergebnisse von Rechenexperimenten
149
W i r bemerken eine allgemeine Gesetzmäßigkeit, die bei einer R e i h e von Untersuchungen b e o b a c h t e t wurde: Die Iterationenzahl bei einem beliebigen S c h n i t t Algorithmus h a t (im Mittel) die Tendenz, mit einer Vergrößerung der Anzahl der Variablen und R e s t r i k t i o n e n zu wachsen, genauso wie mit einem W a c h s t u m der Ordnung der Koeffizienten des Problems sowie mit einer Vergrößerung des Füllungsgrades seiner M a t r i x . W i r k o m m e n j e t z t zu einer Ü b e r s i c h t über die einzelnen A r b e i t e n . GOMORY [89], 1960. E i n Maschinenexperiment zum ersten Algorithmus von GOMORY führte zu einer erfolgreichen Lösung von Problemen mit höchstens 15 Variablen. MILLER, TUCKER, ZEMLIN [ 1 1 1 ] , 1 9 6 0 .
E s wird ein GLO-Modell für das R u n d -
reiseproblem (und einige Verallgemeinerungen davon, s. 2.3.) vorgelegt. Zu diesem Modell wurden f ü n f R e c h e n e x p e r i m e n t e (mit 4 und 10 S t ä d t e n ) durchgeführt. Der erste Algorithmus von GOMORY wurde verwendet. Als erfolgreich erwiesen sich nur zwei E x p e r i m e n t e . GASS [51], 1961 1 ). Die E r k e n n t n i s s e aus drei P r o g r a m m e n zur Lösung von rein ganzzahligen L O - P r o b l e m e n nach dem d r i t t e n Algorithmus von GOMORY werden mitgeteilt. KARP [86], 1961 2 ). Erfolge bei der praktischen Anwendung des G 0 M 0 R Y s c h e n Algorithmus zur Lösung eines optimalen Kodierungsproblems werden mitgeteilt. OYAHIA [113], 1962. Maschinenexperimente zum d r i t t e n Algorithmus von GOMORY werden durchgeführt. E s werden nicht nur die lexikographische Auswahlregel für die erzeugende Zeile 3 ) (s. 7.2.4.), sondern auch andere Regeln verwendet. F ü r ein und dasselbe Problem (20 Ungleichungen, 29 Variable) ergab eine V a r i a n t e des Algorithmus die optimale Lösung n a c h 7 0 I t e r a t i o n e n , die andere aber führte nach 3 0 0 0 0 I t e r a t i o n e n zu keiner optimalen Lösung. GENUYS [53], 1963. E s wird ein gewisses Zuschnittproblem b e t r a c h t e t , bei dessen Lösung ein G L O - P r o b l e m als Hilfsproblem a u f t r i t t . E s wird ein Maschinenexperiment zur Lösung des Hilfsproblems vergleichsweise geringen U m f a n g s mit dem Algorithmus von GOMORY durchgeführt. E i n bedeutender Teil der Probleme wurde n a c h einigen zehntausend I t e r a t i o n e n nicht gelöst. STORY, WAGNER [124], 1963. Man löste ein Problem aus der Theorie der Ablaufplanung m i t drei Maschinen und verschiedenen Gesamtheiten von W e r k stücken. E s wurde ein GLO-Modell verwendet, das früher von einem der Autoren (s. WAGNER [129]) vorgelegt wurde. Dieses Modell e n t h ä l t (n 2 + 4 n — 4) Variable und (4 n — 3) Gleichungen (hier ist n die Anzahl der W e r k s t ü c k e ) . Nach dem dritten Algorithmus von GOMORY wurden P r o b l e m e mit W e r k s t ü c k Anzahlen von 4 bis 9 S t ü c k gelöst. Insbesondere für Probleme mit 7 W e r k s t ü k x) 2)
S. a u c h den Übersichtsartikel [ 9 2 ] v o n KORBUT. S. a u c h BALINSKI [6].
3)
d. h. eine Zeile, nach der ein ganzzahliger Schnitt konstruiert wird.
11*
150
9. Die E f f e k t i v i t ä t der Algorithmen
ken (die Anzahl der Transporte ist gleich 5040) wurden drei Probleme gelöst (nach 85, 105 und 78 Simplex-Iterationen), und drei Probleme wurden nach mehr als 1000 Simplex-Iterationen nicht gelöst. Für Probleme mit 4 Werkstücken wurde eine Lösung nach verschiedenen Modifikationen des ersten und zweiten Algorithmus von G O M O R Y durchgeführt, die sich voneinander in den Auswahlregeln für die erzeugenden Zeilen unterschieden. Es zeigte sich, daß eine Änderung der Auswahlregel einen starken Einfluß auf die Dauer der Rechnung ausübt. G I G L I O , W A G N E R [55], 1964. Es wird ein ganzzahliges lineares Modell für Probleme aus der Theorie der Ablaufplanung mit drei Maschinen und sechs Werkstücken betrachtet (die Anzahl der Transporte ist gleich 720). Die Lösung wurde mit dem dritten Algorithmus von G O M O R Y durchgeführt. Einige der lösbaren Probleme wurden nach einer vergleichsweise geringen Anzahl von Iterationen, andere nach mehr als 720 Iterationen gelöst. Einzelne Probleme waren nach mehr als 10000 Iterationen nicht gelöst. M A R T I N [106], 1963. Es wird ein neuer Algorithmus vorgelegt, der eine Modifikation des ersten Algorithmus von G O M O R Y darstellt. Es wurden einige Probleme gelöst, die mit anderen Algorithmen für Schnittmethoden nicht lösbar waren, insbesondere ein Problem mit 54 Ungleichungen und 442 Variablen. Wie B A L I N S K I und Q U A N D T [ 7 ] ( 1 9 6 4 ) mitteilen, wurden mit dem Algorithmus von M A R T I N neun verallgemeinerte Überdeckungsprobleme gelöst (die bei praktischen Transportproblemen auftreten, s. 3.1.5.). In diesen Problemen ist die Anzahl der Ungleichungen m 15, die Variablenzahl n sS 305. Ein Problem konnte nach 200 Simplex-Iterationen nicht gelöst werden. Im Übersichtsartikel von B A L I N S K I [ 6 ] ( 1 9 6 5 ) wird über die Lösung einer Reihe von kombinatorischen Problemen (die bei Planungsproblemen auftreten) mit dem Algorithmus von M A R T I N berichtet 1 ), die folgende Ausmaße haben: (70, 160) ^ (m, n) ^ (160, 2200) . Diese Probleme verfügen über Restriktionsmatrizen, die zu 85% aus Nullen bestehen, wobei unter den von Null verschiedenen Elementen ungefähr 8 5 % Einsen sind. Es wurden sogar Probleme von der Dimension (m, n) = (80, 2400) und (215, 2600) gelöst. All diese Probleme wurden durch Einführen einer vergleichsweise geringen Anzahl von Schnitten gelöst. B A L I N S K I nimmt an, daß dieser Erfolg nicht nur wegen der vorhandenen Vorteile des MAJRTiNschen Algorithmus erreicht wurde, sondern auch, weil g e w i s s e a n g e n e h m e E i g e n s c h a f t e n der g e g e b e n e n P r o b l e m k l a s s e dahinter stehen. D ' E S O P O , L E F K O W I T Z [34], 1964. Es wird ein Verteilungsproblem für Frachten auf Transportschiffe zur Minimierung der Gesamtmenge der benötigten Transporte betrachtet. Man konstruiert ein GLO-Modell. Eine Reihe von Problemen wurde mit dem dritten Algorithmus von G O M O R Y gelöst (Anzahl der Schiffstypen s iS 5, Anzahl der Ungleichungen n 52 13). Die Iterationenzahl schwankte zwischen 94 und 447. M i t B e z u g n a h m e a u f e i n e n n i c h t g e n a n n t e n A r t i k e l v o n MARTIN.
9.2. Ergebnisse vov Bechenexperimenten
151
S B I N I V A S A N [ 1 2 3 ] , 1 9 6 5 . M a n u n t e r s u c h t e verschiedene M o d i f i k a t i o n e n des e r s t e n A l g o r i t h m u s v o n GOMOBY, bei d e n e n die Begriffe E c k e u n d A b s t a n d im m-dimensionalen euklidischen R a u m z u r A u s w a h l der e r z e u g e n d e n Zeile b e n u t z t w u r d e n . I n allen E x p e r i m e n t e n w a r die Y a r i a b l e n a n z a h l n 98, die R e s t r i k t i o n e n a n z a h l m 5S 48. Z u m Test w u r d e n einige GLO-Modelle g e w ä h l t , die F o r malisierungen bekannter angewandter Probleme darstellen. E i n Problem der D i m e n s i o n (m, n) = (11, 98) w u r d e n a c h 4 v o n 5 M o d i f i k a t i o n e n gelöst u n d w a r bei der f ü n f t e n M o d i f i k a t i o n n a c h 300 S i m p l e x - I t e r a t i o n e n n o c h n i c h t gelöst. E i n a n d e r e s P r o b l e m v o n der D i m e n s i o n (m, n) = (10, 7) w u r d e n a c h k e i n e r einzigen M o d i f i k a t i o n v o r 600 S i m p l e x - I t e r a t i o n e n gelöst. H A L D I , ISAACSON [ 7 1 ] , 1 9 6 5 . Die A u t o r e n stellten sich die A u f g a b e , zu beweisen, d a ß der erste A l g o r i t h m u s v o n GOMOBY n i c h t weniger e f f e k t i v ist als einige a n d e r e S c h n i t t a l g o r i t h m e n (um d a m i t auf d a s s k e p t i s c h e V e r h ä l t n i s einiger F o r s c h e r gegenüber der praktischen B e d e u t u n g des ersten GoMOBYschen A l g o r i t h m u s zu a n t w o r t e n ) . A n einer R e i h e v o n T e s t p r o b l e m e n geringerer Dimension w u r d e die E f f e k t i v i t ä t des e r s t e n A l g o r i t h m u s v o n G O M O B Y b e k r ä f t i g t . Bei d e n U n t e r s u c h u n g e n w u r d e d a s lexikographische K r i t e r i u m zur A u s w a h l der erzeugenden Zeile v e r w e n d e t (GOMOBY selbst b e d i e n t e sich dieses K r i t e r i u m s f ü r d e n E n d l i c h k e i t s b e w e i s des A l g o r i t h m u s , legte es a b e r f ü r p r a k t i s c h e F o r s c h u n gen nicht zugrunde). DAY [31], 1965. D a s P r o b l e m der o p t i m a l e n I n f o r m a t i o n s g e w i n n u n g a u s parallelen S p e i c h e r s y s t e m e n f ü h r t auf GLO-Modelle u n d w i r d n a c h d e m Algor i t h m u s v o n GOMOBY gelöst. D e r Versuch zeigte die Möglichkeit, p r a k t i s c h e P r o b l e m e erfolgreich zu lösen. B A L I N S K I [ 6 ] , 1 9 6 5 . I n dieser Ü b e r s i c h t wird der E f f e k t i v i t ä t v o n Algorithm e n f ü r S c h n i t t m e t h o d e n viel P l a t z g e w i d m e t . W i r k o n s t a t i e r e n n u r einige d e r i n t e r e s s a n t e s t e n T a t s a c h e n , die auf persönlichen V e r s u c h e n des A u t o r s u n d auf P u b l i k a t i o n e n basieren, die f ü r d e n sowjetischen Leser p r a k t i s c h u n z u g ä n g l i c h sind. A n der U n i v e r s i t ä t v o n S i d n e y w u r d e n (am p r a k t i s c h e n Material) sechs P r o b l e m e der D i m e n s i o n (M, n) = (32, 39) m i t d e m zweiten A l g o r i t h m u s v o n GOMOBY erfolgreich gelöst. E s sei auf d e n b e d e u t e n d e n E r f o l g hingewiesen, der bei d e r L ö s u n g v o n Ü b e r d e c k u n g s p r o b l e m e n m i t d e m GoMOBYschen A l g o r i t h m u s u n t e r A u s n u t z u n g des MARTiNschen A l g o r i t h m u s erzielt w u r d e . I m Z u s a m m e n h a n g d a m i t b e m e r k t BALINSKI, d a ß n a c h M e i n u n g einer R e i h e v o n A u t o r e n die S c h n i t t m e t h o d e erl a u b t , P r o b l e m e e f f e k t i v zu lösen, die m i t d e r M i n i m i e r u n g BooLEscher F u n k t i o n e n v e r b u n d e n sind. F e r n e r w u r d e n allerdings u n t e r d e n v e r a l l g e m e i n e r t e n Ü b e r d e c k u n g s p r o b l e m e n a u c h schwierigere e n t d e c k t (d. h . sich schwerer ergeb e n d e Lösungen 1 ).
Zu d e n s c h w i e r i g e n v e r a l l g e m e i n e r t e n Ü b e r d e c k u n g s p r o b l e m e n s. a. LAWLER u n d BELL
[100], (1966), wo die Aufmerksamkeit auf unveröffentlichtes Material gelenkt wird, das BALINSKI 1965 von den Autoren mitgeteilt wurde.
152
9. Die Effektivität der Algorithmen
Bei den Rechenexperimenten wurde festgestellt, daß die Anzahl der Iterationen stark abhängt von a) der Auswahl der erzeugenden Zeile, b) der Durchnumerierung der Variablen. SONDERMANN [122], 1967. Die vom Autor vorgelegte neue Variante für die Simplexmethode wurde an den zweiten Algorithmus von GOMORY „angelehnt". Einige Probleme wurden nach einer beachtlichen Anzahl von Iterationen nicht gelöst (zum Beispiel ein Problem nach 1500 Iterationen). Die Dimensionen der Probleme sind nicht bekannt. T E P L I C K I I , F I N K E L ' S T E I N [ 1 2 5 ] , 1 9 6 8 . Es wurde eine vergleichende Untersuchung des B-Algorithmus von F I N K E L ' S T E I N (S. 6 . 4 . ) mit zwei Algorithmen von GOMORY durchgeführt: dem ersten und dem zweiten. Es wurde ein sogenanntes „kanonisches" Problem (s. [39]) folgender Gestalt gelöst. Man maximiere x, unter den Restriktionen N 2 at1 x} bf , i = 1, . . . ,TO, 3= 1
N
C^ Xj
t ,
j=1
X, ^ 0 , j = l,...,N,
2NL)
.
E s m u ß b e m e r k t werden, d a ß im aufgestellten P r o g r a m m bei der Ü b e r p r ü f u n g der Ganzzahligkeit im S i m p l e x t a b l e a u die B e d i n g u n g 0 > ^ £
(2.1)
b e n u t z t wurde. Hier ist der A b s t a n d v o n a zur n ä c h s t e n g a n z e n Zahl. F ü r d e n Fall, d a ß die Ungleichung (2.1) e r f ü l l t ist,, wird a als ganze Zahl angesehen, allerdings wird a im S i m p l e x t a b l e a u n i c h t d u r c h die n ä c h s t e ganze Zahl ersetzt. Dieses V e r f a h r e n erlaubte, d e n E i n f l u ß v o n R u n d u n g s f e h l e r n erfolgreich zu b e k ä m p f e n . F ü r e w u r d e n die W e r t e 2~ 12 2~ 24 v e r w e n d e t . I m V o r t r a g v o n HOHLJUK [76] (1967) w u r d e die E f f e k t i v i t ä t des e r s t e n u n d d r i t t e n GOMOEY-Algorithmus, wie a u c h des A l g o r i t h m u s v o n MARTIN s t u d i e r t . M a n b e t r a c h t e t e P r o b l e m e dreier T y p e n : 1. D a s T o r n i s t e r p r o b l e m m i t vielen R e s t r i k t i o n e n . 2. D a s ganzzahlige Verteilungsproblem. 3. E i n Spezialproblem m i t K o e f f i z i e n t e n f ü r die Variablen gleich J- 1 u n d 2" 1 Ungleichungen. Hier ist n die Variablenanzahl. Alle Variablen sind BOOLESCII. W i r f ü h r e n einige experimentelle R e s u l t a t e a n . P r o b l e m 1. a) Der erste A l g o r i t h m u s v o n GOMOEY ergab schlechte R e s u l t a t e bei großen (zwei- u n d dreistelligen) K o e f f i z i e n t e n . D a s b e k a n n t e P r o b l e m v o n L A N D u n d DOIG [ 9 9 ] (M = 6 , N = 2 1 ) w u r d e n i c h t gelöst. b) Der A l g o r i t h m u s v o n M A R T I N ergab keine Lösungen f ü r d a s P r o b l e m v o n L A N D u n d D O I G , weil teilweise die beim L ö s u n g s v e r f a h r e n a u f t r e t e n d e n großen Zahlen U b e r l a u f bei d e n G l e i t k o m m a o p e r a t i o n e n v e r u r s a c h t e n . c) Der d r i t t e A l g o r i t h m u s v o n GOMOEY ergab g u t e R e s u l t a t e bei einer Var i a b l e n z a h l v o n n ^ 20. P r o b l e m 2 w u r d e n a c h dem ersten A l g o r i t h m u s v o n GOMOEY gelöst. M a n erhielt g u t e R e s u l t a t e (bei ganzzahligen K o e f f i z i e n t e n , die d e n Modul 10 nicht überschritten). P r o b l e m 3. Die R e s t r i k t i o n e n des P r o b l e m s w u r d e n so ausgesucht, d a ß 2N~1 E c k e n des w-dimensionalen Einheitswürfels (aus der G e s a m t z a h l 2") seine Lösungen darstellten. D a s P r o b l e m w u r d e m i t d e m d r i t t e n A l g o r i t h m u s v o n GOMOEY f ü r n = = 2, 3, . . . , 8 gelöst. I n allen Fällen w a r die I t e r a t i o n e n z a h l I 2N~1. R Sei X * eine o p t i m a l e Lösung v o n P r o b l e m 3 u n d X eine Pseudolösung, die m a n n a c h der r - t e n I t e r a t i o n im d r i t t e n Algorithmus v o n GOMOEY gewonnen h a t . E s zeigte sich, d a ß der A b s t a n d Q{X'', X*) u n t e r d e n R e s t r i k t i o n e n v o n Problem 3 m o n o t o n bis zur letzten I t e r a t i o n n i c h t a b n i m m t ; n u r die letzte I t e r a t i o n v e r w a n d e l t G(XR, X*) in Null. F ü r den B-Algorithmus ist das unmöglich (s. [9]).
9.3. Einige Ausblicke
155
9.3. Einige Ausblicke Hier wird der Versuch gemacht, das Verhalten der Schnitt-Algorithmen bei der Lösung ganzzahliger linearer Optimierungsprobleme auf Grund der Resultate aus den Rechenexperimenten zu charakterisieren. Als Maß für die Rechenzeit kann man die Anzahl I der Simplex-Iterationen und die Anzahl D der Schnitte (der linearen Zusatzbeschränkungen) ansehen. Für den dritten Algorithmus von GOMORY ist 1 = 1). Für den ersten Algorithmus von GOMORY und verschiedene Verallgemeinerungen davon sind I und D auch eng miteinander verbunden (wie das Experiment beweist, erfordert die Lösung eines einzelnen Problems (Jf r , C) in der Mehrzahl der Fälle eine vergleichsweise geringe Menge von Simplex-Operationen). Wir gehen zur Darlegung der einzelnen Eigenschaften über, die die SchnittAlgorithmen aufweisen. 9.3.1. Die Zahlen I und D haben (im Mittel) die Tendenz, mit der Vergrößerung von Variablen- und Restriktionenanzahl zu wachsen, und zwar mit einem Zuwachs von der Ordnung der Problemkoeffizienten 1 ) und mit einer Vergrößerung des Füllungsgrades der Matrix | |e»fj-||. Diese Tendenz scheint natürlich zu sein, aber der Versuch zeigt, daß sich in der diskreten Optimierung „natürlich" und „wahrscheinlich" nicht immer als richtig erweisen. Genauer gesagt, man kann den für LO-Probleme angestellten Versuch unmöglich mechanisch auf GLO-Probleme übertragen. 9.3.2. Zuerst lenken „Irregularität" und „NichtVorhersagbarkeit" des Verhaltens der Schnitt-Algorithmen die Aufmerksamkeit auf sich. Für eine Reihe von Problemen gelang es nicht, nach vielen Tausend Iterationen eine optimale Lösung zu erhalten, obwohl andere Probleme nach einigen Dekaden von Iterationen gelöst wurden. Es gelang nicht, einen unmittelbaren Zusammenhang zwischen der Dimension des Problems (d. h. der Restriktionenzahl w und der Variablenzahl n) und der Iterationenzahl herzuleiten: es war sogar erfolglos, dieses für kleine Probleme zu fixieren (m gS 10, n 5g 10), jedoch erfolgreich für Probleme mit hinreichend großen Dimensionen (Algorithmus von MARTIN: M = 2 1 5 , n = 2 6 0 0 ) . E s ist übrigens möglich, daß der Versuch, einen solchen Zusammenhang festzustellen, eine unrichtige Übertragung der Ergebnisse der LO auf den Bereich der GLO darstellt (worüber oben gesprochen wurde). E s kann sein, daß eine natürlichere Charakterisierung des Problems (j? 8ani \ C) nicht die Zahl m (die linearen Restriktionen, die die polyedrische Menge j? definieren), sondern die Zahl m g a n z der linearen Restriktionen ist, die die polyedrische Menge F(Jf g a n z ) 2 ) definieren. Indessen kann man leicht Beispiele anführen, wo bei kleinen m und n die Zahl m ganz hinreichend groß ist. ) Die Koeffizienten Cp Ojj, 6j sehen wir als ganze Zahlen an. ) Wir erinnern, daß F(jfganz) die konvexe lineare Hülle der Punkte der Menge jfganz ¡ s t . Wir bemerken, daß ms*nz n i c h t eindeutig definiert sein kann. 1
2
]56
9. Die E f f e k t i v i t ä t der A l g o r i t h m e n
Die „ I r r e g u l a r i t ä t " zeigt sich in der folgenden, bei einer Reihe von Untersuchungen beobachteten Tatsache: m a n c h m a l gelingt es, die I t e r a t i o n e n a n z a h l wesentlich zu verkleinern, wenn m a n die V a r i a b l e n u m n u m e r i e r t h a t . Schließlich ist eine N i c h t m o n o t o n i e bei der A n n ä h e r u n g der Pseudolösung Xr a n die optimale Lösung X* zu verzeichnen. Bei wachsendem r verringert sich die Distanz Q(Xr, X*) nicht sicher, u n d erst bei der letzten I t e r a t i o n wird sie g a r a n t i e r t gleich Null. 9.3.3. Die Auswahlregel f ü r die erzeugende Zeile ist von großem E i n f l u ß auf die Iterationenanzahl. Auch hier gibt es eine „ I r r e g u l a r i t ä t " . Gleichzeitig damit, d a ß eine Regel nach zehn I t e r a t i o n e n zum Erfolg f ü h r t , ergibt eine andere keine Lösung nach tausend I t e r a t i o n e n . SRINIVASAN ( [ 1 2 3 ] , s. oben 9 . 2 . ) versuchte, diese Erscheinung zu erforschen, indem er den Begriff Ecke u n d A b s t a n d im w-dimensionalen euklidischen R a u m a n w a n d t e . Aber offensichtlich eignen sich diese Begriffe ebenso schlecht zur Beschreibung von GLO-Problemen, wie die Restriktionenzahl m (s. oben). 9.3.4. Bei der Lösung von GLO-Problemen m i t S c h n i t t m e t h o d e n ergaben sich sowohl Erfolge als auch Mißerfolge. E i n e Reihe von Beispielen wurde in 9.2. angegeben. Zu den erfolgreichsten Arbeiten m u ß m a n rechnen: 1. Überdeckungsprobleme, d a r u n t e r Probleme, die mit der Minimierung BooLEscher F u n k t i o n e n zusammenhängen (s. BALINSKI [6]). 2. Die Anwendung auf optimale Koordinierungsprobleme (s. KARP [86]). 3. Die Anwendung auf Probleme der optimalen I n f o r m a t i o n s a u s w e r t u n g v o n parallelen Speichersystemen (DAY [31]). Die charakteristischsten Probleme, f ü r die sich Mißerfolge einstellen, sind: 1. Das Rundreiseproblem (MILLER, TUCKER, ZEMLIN [ 1 1 1 ] ) ; 2. P r o b l e m e a u s d e r T h e o r i e d e r A b l a u f p l a n u n g (GIGLIO, WAGNER [55]). 3 . Einige verallgemeinerte Überdeckungsprobleme (BALINSKI [6], LAWLER u n d BELL [ 1 0 0 ] ) .
9.3.5. Zur Zeit fehlt eine erschöpfende E r k l ä r u n g f ü r das Gelingen oder Mißlingen verschiedener Rechenexperimente. J e d o c h f ü r alle Rundreiseprobleme und f ü r alle Probleme aus der Theorie der A b l a u f p l a n u n g ist die folgende Erwägung wahrscheinlich. Die Formulierung dieser Probleme in der Sprache der GLO ist „ u n n a t ü r l i c h " . F ü r verhältnismäßig kleine Probleme in „ n a t ü r l i c h e r " Formulierung t r i t t in GLO-Modellen eine große Anzahl von Restriktionen u n d Variablen auf. E s ist möglich, d a ß kombinatorische Methoden f ü r diese Probleme eine bessere Perspektive bieten (zum Beispiel die Methode von B r a n c h - a n d - B o u n d f ü r das Rundreiseproblem — s. 10.3.). Übrigens ist letztere B e h a u p t u n g u m s t r i t t e n , weil kombinatorische Methoden gegenüber der Problemspezifik, der E i n f ü h r u n g von Zusatzrestriktionen usw. sehr anfällig sind. 9.3.6. Offensichtlich ist der Erfolg bei der Lösung von Überdeckungsproblemen nicht n u r mit den Vorzügen des MARTiNschen Algorithmus, sondern a u c h damit verbunden, daß es gelang, eine praktisch wichtige u n d gleichzeitig erfolg-
9.3. Einige Ausblicke
157
reich lösbare P r o b l e m k l a s s e anzugreifen. E s wäre interessant, die Klasse der mit der Schnittmethode gut lösbaren Überdeckungsprobleme genau zu charakterisieren. Dies ist u m so interessanter, als Beispiele f ü r verallgemeinerte Überdeckungsprobleme gelöst wurden, f ü r die bedeutende numerische Schwierigkeiten a u f t r e t e n . Ü b e r h a u p t ist die Aussonderung einzelner Klassen von effektiv lösbaren Problemen ein wichtiges u n d interessantes Problem. 9.3.7. Wir fassen zusammen. Die Schnittmethode b e f i n d e t sich im Stadium der Entwicklung u n d Vervollkommnung. Bei der Realisierung dieser Methode t r e t e n Schwierigkeiten auf, die offensichtlich nicht n u r technischen, sondern auch prinzipiellen Charakter haben. Bisher k a n n m a n von einer Lösung von Problemen m i t der Schnittmethode nur bei Problemen von mittleren Dimensionen sprechen (etwa 100 Variable u n d einige Dekaden Restriktionen). Als am meisten perspektiv f ü r die weitere Forschung über die S c h n i t t m e t h o d e stellen sich folgende R i c h t u n g e n d a r : 1. Untersuchungen ü b e r die K o n s t r u k t i o n der Mengen j?s anz u n d F(Jfs ani! ) (s. GOMORY [66]). 2. Untersuchungen über die Eigenschaften v o n Schnitten (s. GOMORY [64], [ 8 7 ] , B E N - I S R A E L u n d CHARNES [ 1 1 ] , GLOVER [56]). 3. Die Aufstellung neuer K o n s t r u k t i o n s v e r f a h r e n f ü r Schnitte. 4. Die Entwicklung neuer Algorithmen. Klassen f ü r S c h n i t t m e t h o d e n (zum Beispiel primale Algorithmen, s. YOUNG [ 1 3 1 ] ) . 5. Die Aussonderung einzelner Klassen von effektiv lösbaren Problemen.
TEIL
III
KOMBINATORISCHE
METHODEN
Dieser Teil befaßt sich mit der zweiten großen Gruppe von Methoden für die diskrete Optimierung. Wie schon weiter oben bei der Klassifikation der numerischen Methoden gezeigt wurde (1.4.), gehen die Methoden dieser Gruppe vor allem von den endlich vielen zulässigen Lösungen aus, indem sie ihren kombinatorischen Charakter ausnutzen. Die zentrale Idee der kombinatorischen Methoden besteht darin, daß die Gesamtheit aller Lösungen durch eine Teilmenge ersetzt wird. Grob gesprochen geschieht das auf dem Wege, daß einige Teilmengen von Lösungen, die bestimmt kein Optimum ergeben, verworfen werden. Das Optimum ist dann nur unter den restlichen Lösungen zu finden. Man kann allerdings einige Besonderheiten kombinatorischer Methoden angeben, die sie von den Schnittmethoden unterscheiden. Zunächst werden kombinatorische Methoden bedeutend weniger von Rundungsfehlern beeinflußt als gewisse Varianten von Schnittmethoden. Bei vielen kombinatorischen Methoden werden Lösungen des dem betrachteten diskreten (linearen) Problem entsprechenden linearen Optimierungsproblems überhaupt nicht betrachtet. Ein allgemeiner Vergleich der numerischen Schwierigkeiten bei kombinatorischen Methoden mit den Schnittmethoden ist relativ schwer. Man kann nur bemerken, daß für kombinatorische Methoden eine einfachere Arithmetik, aber manchmal eine kompliziertere Logik charakteristisch ist. Die numerischen Erfahrungen sagen aus, daß das Verhalten kombinatorischer Methoden im allgemeinen besser vorhersehbar ist. Schließlich muß man bei der theoretischen Lösung bemerken, daß die Mehrheit der kombinatorischen Methoden spezielle Endlichkeitsbeweise nicht nötig hat (mit Ausnahme etwa des additiven Algorithmus von Balas). In ihrem Charakter sind die kombinatorischen Methoden sehr verschiedenartig. Vielleicht nehmen heute unter ihnen jene einen zentralen Platz ein, die man unter dem Namen ,,Branch-and-Bound" vereinigen kann. Die allgemeine Idee der „Branch-and Bound"Methode wird zusammen mit zwei wichtigen Realisierungen in 10. dargelegt. Ideell benachbart zu diesem Zugang ist der in 11. beschriebene additive Algorithmus von Balas. Es ist natürlich, auch verschiedene Algorithmen in die Gruppe der kombinatorischen Methoden einzubeziehen, die sich als Konkretisierung allgemeiner Ideen der dynamischen Optimierung bezüglich einiger gemischt diskreter Probleme darstellen lassen. Einige solche Verfahren werden in 12. gegeben. 13. befaßt sich mit der Anwendung des in der diskreten Analysis ausgearbeiteten lokalen Zugangs auf einige diskrete Optimierungsprobleme. Schließlich wird in 14. die Methode von Faure und Malgbange sowie die Methode der sukzessiven Berechnung von V. P. Öerenin zur Lösung einer Klasse von kombinatorischen Problemen im Überblick gebracht.
160
10. Die Branch-and-Bound-Methode 10. Die Branch-and-Bound-Methode
Zuerst wurde die Branch-and-Bound-Methode im J a h r e 1960 in der Arbeit von L A N D und D O I G [99] in Bezug auf ein ganzzahliges lineares Optimierungsproblem vorgelegt. Allein diese Arbeit h a t t e keinen merklichen unmittelbaren Einfluß auf die Entwicklung der diskreten Optimierung. Die „zweite G e b u r t " der Branch-and-Bound-Methode ist faktisch mit der von L I T T L E , M U B T Y , SVVEENE Y und K A B E L [103] verbunden, die sich mit dem Rundreiseproblem befaßte. I n ebendieser Arbeit wurde auch die jetzt allgemein verwendete Bezeichnung „Branch-and-Bound"-Methode erstmals gebracht. Beginnend mit diesem Moment erschien eine große Zahl von Arbeiten, die sich mit der Branch-andBound-Methode und verschiedenen Modifikationen befaßten. Der so große Erfolg (auch gegenüber dem „klassisch schweren" Rundreiseproblem) erklärt sich damit, daß L I T T L E , M U R T Y , S W E E N E Y und K A R E L erstmals die Aufmerksamkeit auf die sehr großen Möglichkeiten der Branch-and-Bound-Methode lenkten, die Wichtigkeit bemerkten, die Spezifik des Problems auszunutzen und diese Spezifik auch ziemlich erfolgreich verwendeten. I n 10.1. wird die allgemeine Idee der Branch-and-Bound-Methode dargelegt, in 1 0 . 2 . der Algorithmus von L A N D und D O I G f ü r ganzzahlige lineare Optimierungsprobleme und in 1 0 . 3 . die Methode von L I T T L E U. a. Autoren f ü r Rundreiseprobleme. 10.1. Die Idee der Branch-and-Bound-Methode 10.1.1. Wir betrachten ein diskretes Optimierungsproblem in folgender allgemeiner Form. Man minimiere z=f(X)
(1.1)
X eG.
(1.2)
unter den Restriktionen Hier ist G irgendeine endliche Menge. 10.1.2. Der Branch-and-Bound-Methode liegt die folgende Konstruktion zugrunde, die gestattet, den Umfang der Lösungen in vielen Fällen wesentlich zu vermindern. I. D i e B e r e c h n u n g v o n u n t e r e n S c h r a n k e n ( B e s c h r ä n k u n g ) . Es gelingt oft, eine untere Schranke (Abschätzung) der Zielfunktion / auf der Lösungsmenge G (oder auf einer Teilmenge G') zu finden, d. h. eine Zahl £((?) (£((?')), so daß f ü r I f ö gilt:
nx) ^ m (entsprechend gilt f ü r I i ff f(X) ^ ?((?')).
161
10.1. Die Idee der Branch-and-Bound-Methode
I I . D i e Z e r l e g u n g i n T e i l m e n g e n ( V e r z w e i g u n g ) . Die Realisierung der Methode h ä n g t mit einer stufenweisen Zerlegung der Lösungsmenge G in einen B a u m von Teilmengen zusammen (Verzweigung). Die Verzweigung wird mit dem folgenden Mehrschrittverfahren d u r c h g e f ü h r t . 0 - t e r S c h r i t t . Man h a t eine Menge G° = G. D u r c h irgendein Verfahren wird sie in eine endliche Anzahl (sich gewöhnlich nicht überlappender) Teilmengen G\,G\, . . . zerlegt. ifc-ter S c h r i t t (k 1). Man h a t Mengen Gku Gl, . . . , G*, die der Verzweigung noch nicht unterworfen wurden. Nach irgendeiner Regel (die weiter u n t e n angegeben werden wird) wird eine Menge G^lc) ausgewählt u n d in eine endliche Anzahl von Teilmengen zerlegt: Ök
sili -
k G*v(k),s{k) *