Unternehmensforschung: Eine Einführung [Reprint 2018 ed.] 9783110861006, 9783110045109


169 54 8MB

German Pages 121 [124] Year 1973

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhaltsverzeichnis
1. Überblick (Problemstellungen)
2. Grundlagen
3. Optimierungsprobleme mit Nebenbedingungen in Gleichungsform (Lagrangesche Multiplikatoren)
4. Lineare Programmierung
5. Nichtlineare, insbesondere quadratische Programmierung
6. Ganzzahlige Variablen in linearen Programmen
7. Netzpläne
8. Warteschlangen
9. Das Grundmodell der Spieltheorie
10. Einige Worte zur Simulation
Literaturauswahl
Sachregister
Recommend Papers

Unternehmensforschung: Eine Einführung [Reprint 2018 ed.]
 9783110861006, 9783110045109

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

de Gruyter Lehrbuch Brockhoff - Unternehmensforschung

Unternehmensforschung Eine Einführung

von Klaus Brockhoff

mit 19 Abbildungen

w DE

G Walter de Gruyter • Berlin • New York • 1973

Dr. rer. pol. Klaus Brockhoff ist ordentlicher Professor und Direktor des Seminars für Betriebswirtschaftslehre an der Christian-Albrechts-Universität in Kiel

© Copyright 1973 by Walter de Gruyter & Co., vormals G.J. Göschen'sche Verlagshandlung - J. Guttentag, Verlagsbuchhandlung - Georg Reimer Karl J. Trübner - Veit & Comp., Berlin 30. Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Photokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. Satz: J. Prill, Berlin Printed in Germany ISBN 3 11 004510 9

Vorwort "If Economics is to be a science at all, it must be a mathematical one" (Jevons) „Ich glaube also, daß die Mathematik auf dem Gebiete der Praxis noch lange sehr entbehrlich sein wird" (Schumpeter)

Diese zwei Ansichten über die Anwendung der Mathematik in den Wirtschaftswissenschaften sind klassisch und doch zugleich überholt: Die Mathematik hat sich als ein Instrument erwiesen, das nicht nur in den klassischen wirtschaftstheoretischen Fragestellungen der Gleichgewichtsanalyse (und damit implizit auch der Analyse von Ungleichgewichten, was vielfach besonders von Anhängern der "radical economics" heute übersehen wird) zu präziseren Aussagen und neuen Erkenntnissen fuhrt. Es ist auch unbestritten, daß eine große Zahl von ökonomischen Fragestellungen der Praxis durch Anwendung der Mathematik nicht nur leichter gelöst werden kann, sondern zum Teil überhaupt erst dadurch eine Antwort möglich ist. Besonderes Interesse beanspruchen in beiden Fällen optimale Lösungen. Die Gewinnung optimaler Lösungen für wohlstrukturierte, aber komplexe Entscheidungssituationen mit quantifizierbaren Einflußgrößen ist der Kern des Operations research oder der Unternehmensforschung. Ihre Bedeutung hat ihr inzwischen einen Platz in vielen Lehrplänen für Volks- und Betriebswirte, Wirtschaftsingenieure, Ingenieure usw. geschaffen. Der vorliegende Text ist aus dem B^gleitmaterial zu einer zweistündigen Vorlesung mit Übungen für Volkswirte an der Universität Kiel entstanden. Es hat sich gezeigt, daß diese Veranstaltung auch von Hörern anderer Fakultäten, vor allem von Studenten der Mathematik, besucht wurde. Daraus ist die Anregung entstanden, diesen Text vorzulegen, der sich von anderen Lehrbüchern vor allem wohl durch seine Kürze abhebt, also für ähnlich kurze Kurse verwendet werden kann, ohne hoffentlich an Genauigkeit der Darstellung empfindlich einzubüßen. Allerdings wird hier auf Beweise verzichtet; sie können der Literatur leicht entnommen werden, wenn es aus didaktischen Gründen angebracht erscheint. Gerade die Beweistechnik fällt nämlich den Studenten der Wirtschaftswissenschaften ohne besondere Unterweisung schwer. Ziel der Kurse ist die Vermittlung von wenigstens soviel Wissen, wie für das Verständnis allgemeiner volks- und betriebswirtschaftlicher Texte und Vorträge heute nötig erscheint, ohne daß die Vermittlung des letzten Standes verfahrensmäßiger Technik angestrebt wird. Es wird aber eine Grundlage zum Verständnis solcher Verfahren gelegt, womit zugleich auch die Benutzung von Programmen der Standardsoftware elektronischer Rechenmaschinen erleichtert wird.

Vorwort

6

Gedankt sei den Kollegen, die den Text durchgesehen haben und Anregungen zu seiner Verbesserung gegeben haben. Lediglich Anregungen zur Erweiterung des Textes habe ich widerstanden. Bei der Durchfuhrung der Veranstaltungen haben mich Dipl.-Math. D. Kaerger und Dipl.-Math. H. Kunow unterstützt, denen auch für die daraus erwachsenden Anregungen zur Verbesserung der Textentwürfe Dank gesagt sei. Frau W. Linke hat mit Geduld und großem Einsatz das Manuskript in seinen immer wieder neuen Fassungen und Ergänzungen in Reinschrift gebracht. Auch ihr sei dafür herzlich gedankt. Kiel, im September 1973

Prof. Dr. Klaus Brockhoff

Inhaltsverzeichnis

Vorwort

5

1. Überblick (Problemstellungen) 2. Grundlagen 2.1 2.2 2.3

2.4

Funktion (Abbildung) Optimierung Optimierung einer Funktion mit einer unabhängigen Variablen 2.3.1 Problem 2.3.2 Lösungsbedingungen . . 2.3.2.1 Stetigkeit 2.3.2.2 Differenzierbarkeit 2.3.3 Optimum 2.3.4 Beispiel Optimierung einer Funktion mit mehreren unabhängigen Veränderlichen . . 2.4.1 Problem 2.4.2 Lösungsbedingungen 2.4.3 Optimierung 2.4.4 Beispiel

3. Optimierungsprobleme mit Nebenbedingungen in Gleichungsform (Lagrangesche Multiplikatoren) 3.1 3.2 3.3

Problem Interpretation der Lagrangeschen Multiplikatoren Beispiele 3.3.1 Werbeplanung 3.3.2 Lagerplanung

4. Lineare Programmierung 4.1 4.2 4.3 4.4 4.5

4.6

Problem Graphische Lösung des Zwei-Variablen-Falles Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode 4.3.1 Vorbemerkung 4.3.2 Durchfuhrung und Interpretation Duale Programme und Interpretation der Dualvariablen Spezialprobleme; Hinweis auf andere Lösungsverfahreti 4.5.1 Minimierungsproblem 4.5.2 Gleichungen als Nebenbedingungen 4.5.3 Ungleichungen in unterschiedlicher Richtung 4.5.4 b g < 0 4.5.5 Degeneration (Entartung) 4.5.6 Andere Lösungsverfahren; andere Aufgabenstellungen Sensitivitätsanalyse und parametrische LP (Postoptimale Rechnungen). . . . 4.6.1 Sensitivitätsanalyse 4.6.2 Parametrische Programmierung

9 14 14 14 15 15 16 16 16 17 18 19 19 19 19 21

22 22 23 23 23 24 28 28 29 33 33 33 46 51 51 51 51 52 54 54 55 56 59

8

Inhaltsverzeichnis

5. Nichtlineare, insbesondere quadratische Programmierung 5.1 5.2 5.3

5.4

61

Nichtlineare Programme Bedeutung der QP Gibt es eine Lösung des nichtlinearen Programmierungsproblems? 5.3.1 Darstellung (Kuhn-Tucker T h e o r e m ) 5.3.2 Beispiel Ein Lösungsverfahren für die QD

61 62 66 66 68 69

6 . G a n z z a h l i g e V a r i a b l e n in l i n e a r e n P r o g r a m m e n 6.1 6.2 6.3 6.4 6.5

6.6

Problemstellung ö k o n o m i s c h e Bedeutung Ganzzahlige Lösungen in LP Allgemeines zu den Lösungsverfahren Spezielle Lösungsverfahren 6.5.1 Schnittebenen-Verfahren . 6.5.2 Enumerative Verfahren, insbes. "Branch and B o u n d ' - V e r f a h r e n 6.5.3 Beispiel Zur Dynamischen Programmierung

7. Netzpläne 7.1 7.2 7.3

Grundlage: Graphen Untersuchung von Netzplänen PERT-Terminplanung

8. Warteschlangen 8.1 8.2

Überblick Ein elementarer Warteprozeß: M/M/1

9. Das Grundmodell der Spieltheorie 9.1 9.2 9.3

Überblick Die „ L ö s u n g " des G r u n d p r o b l e m s Hinweis auf Erweiterungen

74

...

74 74 75 76 78 78 79 80 83 88 88 91 91 99 99 101 106 106 108 113

10. E i n i g e W o r t e z u r S i m u l a t i o n

115

Literaturauswahl

119

Sachregister

120

1. Überblick (Problemstellungen)

Sie kennen die notwendigen Ernährungsstoffe, die Lebensmittelpreise, den Gehalt von Ernährungsstoffen in den Lebensmitteln und Sie haben einen festen Monatswechsel. Können Sie angeben, wie Sie sich ernähren, so daß ohne Beeinträchtigung Ihrer Gesundheit Ihre Nahrungsmittelausgaben möglichst gering werden? Sie haben einen Job als Fahrer für einen Getränkegroßhandel übernommen. Morgens übernehmen Sie einen Wagen, abends liefern Sie ihn wieder an derselben Stelle ab. Tagsüber beliefern Sie vorher bestimmte Kunden, können aber die Reihenfolge der Besuche selbst bestimmen. Was ist der günstigste Weg, wenn Sie Ihre Freizeit maximieren wollen, die Sie antreten können, sobald alle Ablieferungen des Tages erfolgt sind? Sie bereiten mit zwei Kommilitonen das Diplom-Examen langfristig vor, um es möglichst früh abzulegen. Verschiedene Dinge könnten dabei parallel zueinander erledigt werden, z.B. der Erwerb eines Buchhaltungs- und eines StatistikScheines, andere folgen aufeinander, z.B. Anfänger- und FortgeschrittenenÜbungen der Betriebswirtschaftslehre. Können Sie für das Studium einen Plan mit allen Stationen aufstellen und dann denjenigen Weg durch diese Stationen angeben, auf dem Verzögerungen notwendig zur Verschiebung des Examenstermins fuhren? Wenn Sie für diese Fragen einen befriedigenden Lösungsweg für beliebig umfangreiche Probleme angeben können, der nicht auf nahezu unbegrenztes Probieren hinausläuft, so kann der folgende Text Ihnen höchstens zur Wiederholung dienen. Gelingt das aber nicht, so können hier die zur Lösung notwendigen und hinreichenden Schritte erkannt werden. Das gilt für alle der Struktur nach ähnlichen Entscheidungsvorbereitungen, z.B. bei der Produktions-, Investitions-, Absatzplanung etc., wo die wirtschaftliche Verwendung knapper Mittel nötig ist. Alle oben genannten Fragen haben ein gemeinsames Merkmal: es werden „möglichst gute" Lösungen gesucht, wobei zu beachten ist, daß gewisse Beschränkungen (die Erhaltung der Gesundheit, die Rückkehr an den Ausgangsort, die Befolgung des Studienplans) nicht verletzt werden sollen. Solche Probleme nennt man Optimierungsprobleme. Die Unternehmensforschung i.e.S. (Operations Research, Optimalplanung) versucht mit Hilfe besonderer Verfahren Optimierungsprobleme zu lösen.

10

1. Überblick (Problemstellungen)

Unternehmensforschung ist also (vgl. [9, S. 1, 2, 6] ) • Entscheidungsvorbereitung durch Entwicklung und Anwendung von Verfahren, • die optimale (beste) Entscheidungen im Hinblick auf ein gegebenes Ziel ermöglichen sollen • und die sich dazu aus Zweckmäßigkeitsgründen der Sprache der Mathematik bedienen. Etwas leichtfertig wurde einmal gesagt: "O.R. is the art to give bad answers to problems, to which otherwise worse answers are given". Auch mit der optimalen Lösung eines Problems sind wegen der verschiedenen Rücksichten, die bei der Problemformulierung zum Teil aus mathematischen Gründen zu nehmen sind, kaum endgültig befriedigende Zustände zu erreichen. Sehen wir uns an, welche Schritte zur Vorbereitung optimaler Entscheidungen zu vollziehen sind. Dabei ist zunächst vorauszusetzen, daß eine Frage als Optimierungsproblem erkannt worden ist. Man folgt dann diesem Weg: 1. Formulierung des Problems: Übertragung des zu lösenden Problems (Realproblem) in das mathematische Problem (Formalproblem). „Im Gegensatz zur Schilderung der Lehrbücher werden Realprobleme den O.R. Teams anfangs in vager, ungenauer Sprache vorgetragen. Deshalb muß das relevante System untersucht und in wohldefinierte Statements überführt werden. Das heißt, daß • dem Problem angemessene Ziele bestimmt werden müssen, • Beschränkungen des Handlungsspielraums festgelegt werden müssen, • Beziehungen zwischen dem zu untersuchenden Problem und anderen Gebieten desselben Organisationsgefuges untersucht werden müssen, • Alternativen des Handelns und Zeitbeschränkungen für die Entscheidungsbildung festgelegt werden müssen. Diese Phase bedarf besonderer Aufmerksamkeit, denn: Nur schwer kann man die richtige Antwort aus dem falschen Problem ableiten!" [7, S. 12 f.]. Die Formulierungen sollten jeweils so erfolgen, daß dem Ziel eines möglichst umfassenden Teils einer Organisation entsprochen wird, weil optimale Lösungen für Teilbereiche nicht auch optimale Lösungen für den gesamten Entscheidungsbereich sein müssen, wenn zwischen diesen überhaupt Zusammenhänge bestehen. Über die Ausdehnung des Entscheidungsfeldes wird je nach der Stärke dieser Beziehungen zu anderen Teilbereichen einer Organisation eine pragmatische Entscheidung gefällt werden müssen. (Bestimmung des problembezogenen Realitätsausschnitts [9, S. 1 4 ] . )

1. Überblick (Problemstellungen)

11

2. Formulierung des mathematischen Modells: Hier erfolgt die Umformulierung des durch Ausschnittsbildung idealisierten Entscheidungsproblems in die Sprache der Mathematik. Auf diese Weise entsteht der mathematische Ausdruck für das angestrebte Entscheidungsziel, die Zielfunktion, und der Ausdruck für die verschiedenen Beschränkungen des Handlungsspielraums, die Nebenbedingungen. „Das Kriterium für die Beurteilung der Gültigkeit eines Modells ist, ob es die relativen Folgen alternativer Handlungsmöglichkeiten mit ausreichender Genauigkeit vorherzusagen gestattet" [7, S. 15]. Dieses Kriterium führt zu den folgenden Punkten: 3. Ableitung der Lösung oder der Lösungen: Hierzu wird bestimmten, problemgerechten Algorithmen gefolgt. 4. Test des Modells und der Lösung: In diese Phase gehören Reformulierungen zur besseren Anpassung an das Realproblem oder Vereinfachungen in der Formulierung des Modells, um die Kosten seiner Lösung im Rahmen tolerierter Abweichungen des Formalproblems vom Realproblem zu minimieren. Soll das Modell im Rahmen von Routineentscheidungen mehrfach benutzt werden, so ist durch entsprechende Kontrollvorschriften dafür zu sorgen, daß nicht zunächst unvorhergesehene Konstellationen von Parametern zu unerwünschten Lösungen führen. 5. Implementation: Einführung des Modells in einen Entscheidungsprozeß, z.B. eines Unternehmens, und Durchführung als optimal erkannter Handlungen werden in dieser Phase betrachtet. Es ist deshalb eine kritische Phase, weil ohne sie die Vorteile der optimalen Entscheidung nicht genutzt werden können. Andererseits sperren sich die verschiedenen Stellen der Organisationen häufig in dieser Phase, weil sie ihre bisherige Entscheidungsroutine verlassen müssen, was die unterschiedlichsten, als Kosten der Einführung der Verfahren aufzufassenden Konsequenzen hat. Literatur: [C.W. Churchman, A.H. Schainblatt: The Researcher and the Manager: A Dialectic of Implementation. In: Management Science, Vol. 11, 1965, S. B-69] und die Diskussion im folgenden Band ders. Zeitschrift. Empirische Untersuchungen: [2] und [L. Lömstedt: The Use of Operational Research by the Swedish Enterprises Quoted on the Stock Exchange Market. Deptm. of Bus .Ad., Stockholm University 1970], Im folgenden sollen einige wichtige Verfahren (Methoden, Algorithmen) dargestellt werden, die die Vorbereitung optimaler Entscheidungen ermöglichen. Auf die geschichtliche Entwicklung des O.R. wird nicht eingegangen. Wann man sie einsetzen läßt, hängt wesentlich davon ab, wie man O.R. auffaßt. Hinweise finden sich in der Literatur: [2], [3, Kap. 2], [7, S. 3 f. u. 7 f.], [9, S. 10-12].

1. Überblick (Problemstellungen)

12

x> o Ix eM C

3 w

2

o.

O a

M •C u

:0 60

C

3

M :0 -1

x>

S , k v 6 » SS ü t ^ i i p l i N

13

1. Überblick (Problemstellungen)

» E s s

S jsl •8 3 N sä ia rt

£

S i l I i i o - M

• S i l :0 o a -J gp u 3

es e s •8 M u .2 9 13 E 8 .5 § :0 •J — i< a.

•o B u

s u "9 o "e Ö c | = £ VI 3 S O > » 60 C

>

» -5 « ® .S » U S

^ T2 'S «4-1 o a 3 O

!* £ 1

3

S B o

3 Q"

0). 4. Strikt konkave (konvexe) Funktionen weisen nur ein Maximum (Minimum) auf. Eine Funktion f(x), x €E IR, ist konvex, wenn für alle { x t , x 2 } C IR und X, 0 < X < 1, gilt: f(Xxj + (1 - X)x 2 ) < Xf(x0 + (1 - X)f(x 2 ). Strikt konvex ist eine Funktion, falls in der letzten Ungleichung statt < nur < gilt. Ist f(x) konvex, so ist - f(x) konkav.

18

2. Grundlagen

Abb. 3

2.3.4 Beispiel: Es sei die Erlösfunktion U(x) mit dem Definitionsbereich [0,^] für x und dem b Wertebereich [0,°°) fürU(x) gegeben (i.f. sei immer angenommen, daß der Definitionsbereich abgeschlossen sei). 1. U(x) = ax - 2bx 2 , a,b > 0 notw. Maximumbedingung:

^

= a - 4bx = 0 => x* = ^

2. U(x) = 3ax - bx 2 , a,b > 0 notw. Maximumbedingung:

^ = 3a - 2bx = 0=>x* = ^ # > f dx 2 b b

2

2

Da U(0) = 0 und U(£) = wird ein Optimum auf dem Rand des b b b Definitionsbereichs liegen. Eine der möglichen Bestätigungen der Vermutung ist die Ermittlung von U(£) b

b

- s ) = +a 8 + b e 2 > 0 für e > 0.

a) Ermitteln Sie die hinreichende Bedingung im Falle 1. b) Bestätigen Sie die Vermutung in 2. über die Konkavität der Erlösfunktion. c) Geben Sie ökonomische Gründe für die Ausdehnung von Werte- und Definitionsbereich.

2.4 Optimierung einer Funktion mit mehreren unabhängigen Veränderlichen

19

2.4 Optimierung einer Funktion mit mehreren unabhängigen Veränderlichen 2.4.1 Problem Wir suchen das Optimum von Z = f(xi,x2

x„), { x i , x 2 , . . . , x i ; . . . ,x„} G D, D C IR n . (2)

2.4.2 Lösungsbedingungen Die für den zweidimensionalen Fall abgeleiteten Lösungsvoraussetzungen gelten weiter, sie sind lediglich zu verallgemeinern. Das wird hier nicht gezeigt. Hinweis: Man fasse x in 2.3 als Vektor x' = (xj, x 2 , . . . , x n ) auf und versuche die Verallgemeinerung.

2.4.3 Optimierung Die im Wertebereich liegenden Bildpunkte formen eine Hyperebene im mehrdimensionalen Raum. (Spezialfall: Die Bildpunkte bilden eine Ebene im dreidimensionalen Raum.) Ihre Steigung kann nur angegeben werden, wenn man die Richtung angibt, in der sie gemessen werden soll. Zunächst reicht es aus, diese Richtungen parallel zu den Achsen des Raumes festzulegen, wobei auf jeder Achse gerade eine der unabhängigen Variablen gemessen wird. Es kann nun parallel zu jeder Achse differenziert werden. Man spricht dabei von partieller Differenzierung (= Bildung der partiellen Ableitung) nach einer unabhängigen Variablen. Eine Funktion f heißt partiell differenzierbar nach Xj, wenn sie in allen Punkten des Definitionsbereichs nach Xj partiell differenzierbar ist. Sie ist nach Xi in einem Punkte x° partiell differenzierbar, wenn = f i / x ' 0 ) (endlich) äquivalente Schreibweisen

[Schreibweise: x' = (xj, x 2 , . . . , x i ( . . . , x n ) = (x i( xj), Xj

=

( X i , X 2 , . . . , Xj_i, X j + i , . . . ,

x„)].

20

2. Grundlagen

Die notwendige Bedingung für die Existenz eines lokalen Optimums von f(x) ist: ^ ^ = 0, Vi.

(V bedeutet: für alle)

(3)

Daraus folgt die notwendige Bedingung für die optimale Lösung x* . Zur Ableitung der hinreichenden Bedingung ist eine Definition zweckmäßig. Wir nennen

H=

9 2 f(x*)

d 2 f(x*) 3XXÖX2

a 2 f(x*) ÖXjdXn

d 2 f(x*) 9X2öxi

d 2 f(x*) 8x2 *

9 2 f(x*) 9x 2 9x n

a 2 f(x*) lÖXnÖXj

9 2 f(x*) 9x n 9x 2

9 2 f(x*) axi

eine Hessesche Matrix. Sie enthält die partiellen Ableitungen der ersten partiellen Ableitungen, also die zweiten partiellen Ableitungen. Sind die gemischten zweiten partiellen Ableitungen stetig, so ist das Resultat der Ableitung von der Reihenfolge der Ableitung unabhängig, also ist dann z.B. ^ ^ ) = \ ^ ) . 0X2OXi OXiox2 Es fällt auf, daß H für einen bestimmten Punkt x* gebildet wurde. Dieser Punkt muß einer derjenigen sein, die bei der Suche nach dem Optimum durch die notwendigen Bedingungen bestimmt wurden. Wir gehen weiter wie folgt vor: • Bestimmung der Koordinaten aller Lösungspunkte von (3) • Errechnung einer Hesseschen Matrix für jeden dieser Punkte • Untersuchung der Matrix zur Entscheidung über relative Maxima oder Minima (s.u.) • Vergleich der Funktionswerte bei lokalen Maxima (Minima) zur Ermittlung des globalen Maximums (Minimums). Dieser Punkt entfällt, wenn auf Grund der strikten Konkavität (Konvexität) von f(x) nur ein relatives Maximum (Minimum) vorliegt und dieses deshalb auch absolutes Maximum (Minimum) ist. Die Untersuchung des Randes des Definitionsbereichs ist notwendig. Die Untersuchung von H liefert folgendes Kriterium: Ist H an der Stelle x* positiv definit, so liegt ein relatives Minimum vor. Ist H an der Stelle x* negativ definit, so liegt ein relatives Maximum vor. Alle anderen Formen der Matrix interessieren hier nicht. Die Untersuchung beruht auf der Verfolgung der Vorzeichen der Hauptabschnittsdeterminanten.

2.4 Optimierung einer Funktion mit mehreren unabhängigen Veränderlichen

21

Literatur: [11, S. 96 f.]. Ein Spezialfall wird in [9, Abschnitt 3.4] dargestellt. Wegen der bei dieser Untersuchung gelegentlich auftretenden rechnerischen Schwierigkeiten hilft man sich zur Entscheidung über Maximum oder Minimum teilweise auch durch Untersuchung der Umgebung von f(x*) für alle aus (3) ermittelten Kandidaten für Optima. Warum werden durch (3) nicht notwendig nur Optima bestimmt?

2.4.4 Beispiel Ein Unternehmen verkaufe auf zwei Märkten sein Produkt nach den Preis-Absatzfunktionen Pi= a; - biXi, i = 1,2. Die Kostenfunktion sei k(xj + x 2 ) 3 . Alle Koeffizienten sind positiv und x, > 0. Stellen Sie die Schritte zur Bestimmung des Gewinnmaximums zusammen. 1. Schritt: Gewinnfunktion G aufstellen G = ajXi + a 2 x 2 - bixf - b 2 x 2 - k(xi + x 2 ) 3 2. Schritt: Notwendige Bedingungen für ein Gewinnmaximum ableiten p - = aj - 2bix x - k(3x? + 6 x j x 2 + 3 x 1 ) = 0 = a 2 - 2 b 2 x 2 - k(3x* + 6 x j x 2 + 3x*) = 0 Daraus sind x j und x 2 zu bestimmen. 3. Schritt: Hinreichende Bedingungen für ein Gewinnmaximum ableiten H= Hauptabschnittsdeterminanten: -2bi - 6k(xJ + x | ) < 0 4 b t b 2 + 6k(xJ + x 2 ) (2b i + 2 b 2 ) > 0 Die Vorzeichen der Hauptabschnittsdeterminanten wechseln (-, +). Das weist auf ein Maximum bei x f , x 2 hin, wenn diese Werte entsprechend den Voraussetzungen bestimmt wurden.

3. Optimierungsprobleme mit Nebenbedingungen in Gleichungsform (Lagrangesche Multiplikatoren) 3.1 Problem Es sei zu maximieren (entsprechende Überlegungen sind für Minimierungsproblem e möglich): z = f(x), x ' = (x l 5 x 2 l . . . , x i ; . . . , x n )

(4)

u n t e r gleichzeitiger Beachtung der voneinander unabhängigen Nebenbedingungen gg(x) = 0 , ß = l , 2 , . . . , m .

(5)

Alles seien stetige, differenzierbare F u n k t i o n e n . Man bildet dazu eine erweiterte Zielfunktion aus ( 4 ) u n d (5) u n t e r Benutzung der Lagrangeschen Multiplikatoren 7rg: m

Z = f(x)-ßS

*ggg(x).

(4.1)

Z u r Begründung dieser Vorgehensweise: Lassen die m Nebenbedingungen die Feststellung einer Menge M zulässiger Lösungspunkte zu, M = { x | g g ( x ) = 0,V £ } , so kann j e d e m Element dieser Menge über f ( x ) ein Zielfunktionswert zugeordnet w e r d e n . Aus diesen zulässigen Zielfunktionswerten soll das absolute Maxim u m b e s t i m m t w e r d e n . Sind die Nebenbedingungen tatsächlich erfüllt, so ist wegen ( 5 ) natürlich (4.1) mit ( 4 ) identisch: die optimale Lösung x * von (4.1) ist dann mit der optimalen Lösung für ( 4 ) identisch. Dann wird Z d u r c h die Nebenbedingungen wirksam beschränkt. Die Lagrangeschen Multiplikatoren k ö n n e n dann 7Tg> 0 sein. Bilden die Nebenbedingungen aber keine wirksame Beschränk u n g von Z, k ö n n t e also auch ohne ihre Beachtung der optimale Wert Z* ermittelt w e r d e n , so kann dieser mit d e m aus (4.1) ermittelten Wert auch übereinstimmen, w e n n 7Tg = 0. Ist (4.1) über M differenzierbar, so kann m a n durch partielle Differenzierung nach den Variablen x, u n d 7Tg zunächst relative Maxima feststellen u n d diese auf ein absolutes Maximum hin u n t e r s u c h e n . Die notwendigen Bedingungen ergeben sich aus ^ = 0 Vi dxj ' ' u n d den Nebenbedingungen (5), die natürlich 9Z/37Tg= 0 entsprechen. Das be-

3.3 Beispiele

23

deutet, daß das zu bestimmende relative Maximum der erweiterten Funktion (4.1) die Nebenbedingungen des ursprünglichen Problems (4), (5) erfüllt. Diesen n + m Gleichungen stehen nun genau n + m Unbekannte gegenüber: die möglichen Lösungswerte x* und n j . Aus dem skizzierten System können sie grundsätzlich bestimmt werden. Insbesondere nichtlineare Funktionen in (4) und (5) können dabei allerdings erhebliche Lösungsprobleme aufwerfen. Zur Entscheidung über die Frage, ob eine Lösung x* ein Maximum darstellt (hinreichende Bedingung) wird die Hessesche Matrix zu Z an der Stelle x* entwickelt und wie oben gezeigt untersucht. (Teilweise behilft man sich zur Entscheidung auch hier durch die Berechnung von Lösungen für Z in der Umgebung von x*, um so das Erreichen einer Extremstelle zu prüfen.)

3.2 Interpretation der Lagrangeschen Multiplikatoren Der Multiplikator der Lösung, TTJ, gibt ein Maß für die Wirkung der Veränderung des Absolutgliedes der £-ten Nebenbedingung auf die Zielfunktion. Ändert sich dieses Absolutglied infinitesimal um A, so ändert sich die Zielfunktion um »5-A.

3.3 Beispiele 3.3.1 Werbeplanung Ein Unternehmen des Schwermaschinenbaus hat für das kommende Jahr die Absatzmenge seines einzigen Produktes im Rahmen sukzessiver Planung mit Y = 10000 [Stück] festgelegt. Diese produzierbare Menge ist nur absetzbar, wenn für das Produkt Werbung getrieben wird. Dafür stehen zwei voneinander unabhängige Werbeverfahren mit den Werbekostenfunktionen W(yi) = 5 + 0,6 y i + 0,2 y], W(y 2 ) = 7 + 0 , 4 y 2 + 0 , l y * zur Verfügung, worin yi ( y 2 ) die durch das erste (zweite) Verfahren „geschaffenen" Absatzmengen darstellen, y 1 ; y 2 ^ 0. Gesucht ist die kostenminimale Kombination der Werbeverfahren.

24

3. Optimierungsprobleme mit Nebenbedingungen in Gleichungsform

Es handelt sich um ein Minimierungsproblem, das aber entsprechend dem bisher Gesagten behandelt werden kann. W = W(y 1 ) + W ( y 2 ) ^ m i n ! Y = yi+y2 Lagrange-Funktion: Z = W(yi) + W ( y 2 ) - 7 r ( y i + y 2 - Y ) Notwendige Bedingungen des Minimums: p - = 0,6 + 0,4yi - TT = 0 öy1

~ = 0,4 + 0,2y 2 - TT = 0 oy 2 P = y i +y2-Y

0 TT

=0.

Lösung: y* = 3333;y* = 6667; tt* = 1333,8; Z* =4.671.545,3. •

Weisen Sie durch Betrachtung von W nach, daß die notwendigen Bedingungen auch hinreichend sind.



Wie ändert sich der Zielfunktionswert Z*, wenn Y,um ein Stück verringert (vermehrt) wird? (Die Antwort soll nicht durch neuerliches Durchrechnen gefunden werden!) Formulieren Sie das Ergebnis allgemein.



Was wäre zu tun, wenn in der Lösung eines ähnlichen Problems yi < 0 ist?

3.3.2 Lagerplanung Ein Handelsvertreter möchte für ein von ihm vertretenes Unternehmen ein Verkaufslager einrichten, um seine Kunden möglichst schnell bedienen zu können. Er verkauft für das Unternehmen i = 1, 2 , . . . , n Warenarten, die r; ( m 3 ) Raum je Stück erfordern. Insgesamt stehen ihm R ( m 3 ) Lagerraum zur Verfügung. Die Gesamtkosten der Lagerung sollen während der Planungsperiode (z.B. ein Jahr) möglichst gering sein. Die Gesamtkosten bestehen aus den Bestellkosten einer Ware, bi, multipliziert mit der Zahl der Bestellungen während der Planperiode. Hinzu kommen die durch Kapitaldienst etc. bedingten Lagerkosten, die der durchschnittlich gelagerten Menge der verschiedenen Warenarten proportional sind. Je Einheit betragen sie 2j (DM/Einheit). Weiter sind Fehlmengenkosten kj (DM/Einheit) zu berücksichtigen, falls die i-te Ware im Zeitpunkt einer Bestellung nicht am Lager ist. (Interpretieren Sie „Fehlmengenkosten"!) Während der Planungsperiode erwartet der Handelsvertreter einen gleichmäßigen Absatz für jede Teilperiode. Die Gesamtnachfrage schätzt er auf Nj Einheiten.

3.3 Beispiele

25

Wie hoch soll die optimale (dJi. gesamtkostenminimale) Bestellmenge x*sein, wie häufig soll bestellt werden, wie hoch sind die optimalen Fehlmengen y*? (Interpretieren Sie „optimale Fehlmenge"!) [Vgl.: H. Albach, Unternehmensforschung im Betrieb. In: L. Pack (Hrsg.): Unternehmer-Seminar I, Wiesbaden 1969, S. 6 7 - 1 0 7 ] , Zum Ansatz muß gebildet werden: Gesamtkosten: = min! unter der Nebenbedingung Raumbedarf bei Einlagerung < verfügbarer Raum, wobei zumindest für die erste Teilperiode gleichzeitige Einlagerung der Artikel unterstellt ist. Die Bestellmengen seien Xj, die sich aus den ausgelieferten Mengen^; und den Fehlmengen y, je Teilperiode zusammensetzen: x; = a; + y\. Während der Planungsperiode sind Ni/xj Bestellungen nötig. Die durchschnittliche Lagermenge ist aj tj/2, wobei tj die Länge der Teilperiode angibt, während der keine Fehlmengen auftreten. Die durchschnittliche Fehlmenge ist y; • u,/2, wobei u; die Länge der Teilperiode angibt, während der Fehlmengen auftreten. Die Gesamtlänge einer Teilperiode zwischen zwei aufeinanderfolgenden Bestellungen ist t; + uj und (tj + uj). T ist die Länge der Planperiode. Die Zahl dieser Teilperioden sei mit T vorgegeben. Dann ist t j + Uj = T • Xj/N;. (Leiten Sie diese Aussage her!) a- TxBei gleichmäßiger Nachfrageentwicklung ist dann t j = — • — x

i

Nj'

Die Gesamtkosten werden ermittelt als: i=l

I - I^ - k i

+ b Xi O ^

f

Xxi-yO^gj-T

y?Tkj

Nj

(Leiten Sie den zweiten Summanden in der Klammer her!) Weiter umgeformt ergibt sich £

Xj

z

+

X|

2t

-.„«NDr-mln!

X|

für die Zielfunktion. Die Nebenbedingung ist 2 rjXi < R . i=l Selbstverständlich sollen nur Lösungen x ; > 0 betrachtet werden. Zur Lösung ist zu beachten, daß die Nebenbedingung nicht in Gleichungsform vorliegt. Man kann nun das Minimum der Zielfunktion ohne Beachtung der Nebenbedingung bilden. Wird die Nebenbedingung von dieser Lösung nicht ver-

26

3. Optimierungsprobleme mit Nebenbedingungen in Gleichungsform

letzt, so braucht man sie nicht zu beachten. Wird die Nebenbedingung verletzt, so können wir das Gleichheitszeichen an Stelle des Ungleichheitszeichens setzen und nach der oben entwickelten Methode unter Einführung eines Lagrangeschen Multiplikators tr vorgehen. Damit erhält man

als Lagrange Funktion. Nun bildet man az «iT(x?-y?) = ~ öXi 2Xj

yfkjT 5 2xj

Mi =-+ 7T Ti = ü, x?

jeweils für alle i. Weiter: 1 =

oder » Xifi; vy = 1 1 i fii + k i ' jeweils für alle i. Die Nebenbedingungen entsprechend (5) werden hier nicht wiederholt. Eine Prüfung der Hesseschen Matrix möge unterbleiben. Wir setzen nun y* in die Bestimmungsgleichung für x* ein. Damit erhalten wir: ßjT(xj1 - X ' g ' 2 ) . • k,T + 27rriX2 = 2bjNi V (£i + kj) / (ßi + ki) 2 oder g? X i [ßjT -

1

(ßi + ki) 2

(£;T + k i T ) + 2jit,] = 2 b i N j

oder x 2 [ßiT(ßi + ki) - £f T + 27rri(£i + kj)] = 2biNi(ßi + ki) oder '

2bjNj(£, + kj) ' » ßjkiT + 2OTÌ(£Ì + ki) m

,

Schließlich muß aus 2 ^ x ; = R noch n* bestimmt werden. Dafür kann man i=l Such- und Näherungsverfahren für die Lösung nichtlinearer Gleichungen anwenden. (Schlagen Sie dazu ggf. nach.) Ist auch n* bekannt, so wird für x* ein Ergebnis erreicht, das nur noch von bekannten Ausgangsgrößen abhängt. Die aus

3.3 Beispiele

den konkreten Gegebenheiten errechneten Werte xf können nun weiter in den Ausdruck für y; eingesetzt werden; anschließend kann t j + Uj aus Tx*/Nj bestimmt werden. Damit ist die Aufgabe gelöst. (Welche Konsequenzen würde -n = 0 haben? Wie ist diese Situation zu interpretieren? Wann erwarten Sie steigende x* mit steigenden Fehlmengenkosten? Analysieren Sie numerisch die Einflüsse einzelner Parameteränderungen für den Fall einer Warenart!)

27

4. Lineare Programmierung 4.1 Problem Gegenüber dem bisher Besprochenen fuhren wir zunächst eine Einschränkung ein: In diesem Kapitel wird nur von linearen Funktionen gesprochen. Zugleich erweitern wir die Betrachtung um einen wesentlichen Gesichtspunkt: Die die Beschränkungen bei der Zielerreichung zum Ausdruck bringenden Nebenbedingungen dürfen die Form von Ungleichungen haben. Eine weitere Einschränkung: während im vorausgehenden Abschnitt die Logik der Probleme negative Lösungen für die Unbekannten nicht als sinnvoll erscheinen ließ, muß im folgenden auch aus mathematischen Gründen auf Nichtnegativität der Variablen (auch Aktivitäten genannt) geachtet werden. Damit ergibt sich folgender Problemaufbau (L.P.): n

Z = £ CjXj sei maximal, kurz: max! 1=1 (oder „min!", doch wird dieser Fall zunächst nicht dargestellt) n

2 ai,£Xi 0, Bezeichnungen:

(6)

£ = 1 , 2 , . . . ,m i = 1, 2 , . . . , n

x;

Aktivitätsniveau, Werte der Variablen, teilweise, kurz: echte oder Strukturvariablen; die Werte sind unbekannt und sollen mit der optimalen Lösung x* bestimmt werden

i

Indizes der Aktivitäten; Variablen

£

Indizes der „Faktoren", „Ressourcenarten"

q

Zielbeitrag je Einheit der i-ten Variablen

a,g „Koeffizienten" (insbesondere: Faktorbeanspruchungen), technische Koeffizienten bg Beschränkungen, insbesondere Verfugungsmengen knapper Faktoren In der Literatur kommen auch andere Schreibweisen vor, z.B.: Mengenschreibweise: Z° = 1 2 c i x i = max! | S a i ß x j < l i=l i=l X i > 0 , i = 1, 2 , . . . , n I

bn, £ = 1, 2 , . . . , m;

(6.1)

29

4.2 Graphische Lösung des Zwei-Variablen-Falles

Vektor- bzw. Matrizenschreibweise: (6.2)

c'x = max! Ax0 mit c' = (cj, c 2 , . . . ,c„) x I/ x' 2\

a n a12

a

ln

a

a

2n

21

a

22

A=

X=

\ a m l am2 • • • amr

(Variablenvektor)

(Koeffizientenmatrix)

b2

b= b

J

(Rechte Seite, Rechte-Hand-Vektor, Beschränkungsvektor) / 0 n Elemente

0 =

0/ (Nullvektor) Wir betrachten für L.P. nun zunächst die Lösung eines Spezialfalles.

4.2 Graphische Lösung des Zwei-Variablen-Falles Wir demonstrieren den Ansatz und eine graphische Lösung durch folgendes Beispiel [9] 1 : * Durch das - mit freundlicher Genehmigung des Autors — übernommene Beispiel soll die Vergleichbarkeit mit dem Text, in dem unter Verwendung der „verkürzten Form" der Tableaus vorgegangen wird, ermöglicht werden.

30

4. Lineare Programmierung

Ein Unternehmen kann zwei Produkte herstellen. Es will seinen Bruttogewinn (= Summe der durch die Produktion zu erwirtschaftenden Deckungsbeiträge) maximieren, indem es sein Produktionsprogramm variiert. Zur Vorbereitung der Entscheidung wurden die folgenden Daten erhoben: Produktart

Deckungsbeitrag je Stück in [DM]1

i= 1

ci=3,-

i=2

C2=5,-

Maschine n und ihre Beans] »ruchung in [Std/StUckl fi= 1 £=3 £=2 a

Verfugbare Maschinenkapazität IStd/Monat)

ll = 1 a21 = 2

a

12 = 1

a

1

b ! = 170

b 2 = 150

22 =

a13 = 0 a

23 = 3

b 3 = 180

Es soll festgestellt werden, wieviel Stück x1 und x 2 produziert werden sollen. Das Problem hat nur zwei Variablen und kann deshalb leicht graphisch dargestellt werden. Vorgehensweise: 1. Formuliere unter Benutzung der Tabelle die den Definitionsbereich eingrenzenden Nebenbedingungen. ®

1 x ! + 2 X 2 < 170 ~ x 2


0

85-0,5x!

60

Zeichne die Grenzen des Definitionsbereichs in ein x l 5 x 2 -Koordinatensystem und stelle fest, in welcher Richtung die Grenzen nicht überschritten werden dürfen (vgl. im folgenden Abb. 4). 2. Formuliere die Zielfunktion (£)

max: Z = 3xi + 5x 2 •3

In der Isogewinngeraden: x 2 = - j X! + z, ist z eine Konstante, deren Wert möglichst groß werden soll. 3. Numeriere die einzelnen Ecken des zulässigen Lösungsbereichs: E t , E 2 , . . . , E s . Diese Eckpunkte werden durch ihre Koordinaten charakterisiert und später (zulässige) Basislösungen genannt.

1

Deckungsbeitrag je Stück = Erlös je Stück - variable Kosten je Stück

4.2 Graphische Lösung des Zwei-Variablen-Falles

31

4. Da der Ordinatenabschnitt zder Isogewinngeraden möglichst groß werden soll, verschiebe man die Funktion (?) von z = 0 ausgehend parallel, so daß sie jeweils durch eine der Ecken führt. Man stelle dann die Lage mit dem größtmöglichen Ordinatenabschnitt fest. 5. Diese Lage, hier @ ; bezeichnet die bruttogewinnmaximale Lösung. Es wird die E 5 kennzeichnende Menge der einzelnen Produkte erzeugt: x j = 130, x | = 20 Damit wird Z* = 130 • 3 + 20 • 5 = 490.

Abb. 4

Einige Beobachtungen sind nach dieser Problemlösung möglich: • Die durch xT ausgedrückte optimale Lösung verändert sich nicht durch die Berücksichtigung fixer Produktionskosten, da diese ja auf die Steigung der Gewinn-(Ziel-)funktion keinen Einfluß nehmen. Versuchen Sie dieses Ergebnis ökonomisch weiter zu erläutern, z.B. hinsichtlich Produktions- und Anlagenkapazität, Stillstandskosten usw. • Es gibt unendlich viele Lösungen des Problems. Diese sind wie folgt unterteilt: — unendlich viele zulässige Lösungen (feasible solutions), die die Beschränkungen nicht verletzen,

32

4. Lineare Programmierung

— in der Regel eine zulässige und optimale Lösung (optimal Solution) (Ausnahme: Die Steigung der Zielfunktion entspricht der Steigung einer Nebenbedingung. Dann ist jeder Punkt zwischen den Eckpunkten auf dieser Nebenbedingung, die Eckpunkte eingeschlossen, eine optimale Lösung. Man nennt dies eine Situation der Degeneration.) •

Für jeden Punkt innerhalb des Beschränkungsgebiets gibt es wenigstens eine Lage auf seinem Rand, die ihm — in Bezug auf das Ziel — vorgezogen wird. • Genügt deshalb die Betrachtung des Randes, so zeigt sich weiter, daß nur die Ecken (= Schnittpunkte von wenigstens zwei Nebenbedingungen) für die Erarbeitung einer Lösung interessant sind, wie sich aus den Überlegungen bei der Parallelverschiebung der Zielfunktion ergibt; die Zahl der Ecken ist endlich. Versuchen Sie alle genannten Aussagen über Lösungen an Hand der Abbildung 4 nachzuweisen. • Geht man vom Koordinatenursprung aus, so führt jede systematische Abarbeitung der Ecken schließlich zur optimalen Lösung. Diese Beobachtung ist für das folgende analytische Verfahren entscheidend. Es muß aber eine Strategie entwickelt werden, die zweierlei leistet: — sie soll ein Durchrechnen aller Ecken vermeiden, — sie muß das Optimum erkennen lassen, um die Rechnung abbrechen zu können,



— sie muß das mehrfache Durchrechnen derselben Ecke vermeiden. Leistet sie dies, so fuhrt sie wegen der Endlichkeit der Elemente der Menge der Ecken mit Sicherheit nach einer endlichen Anzahl von Schritten zur Lösung. Die Menge aller zulässigen Lösungen ist konvex (vgl. Abb. 5). (Definition: Eine Menge ist konvex, wenn alle Elemente auf einer Geraden zwischen zwei beliebigen Elementen aus der Menge (Linearkombinationen dieser beiden Elemente) ebenfalls der Menge angehören. Die Menge enthalte jeweils ihren Rand.) x

X

2+

2 +

x

i

Abb. 5

4.3 Lösung des 2 < n-Vaiiablen-Falles mit Hilfe der Simplex-Methode

33

4.3 Lösung des n-Variablen-Falles mit Hilfe der Simplex-Methode

4.3.1 Vorbemerkung Simplex ist ein geometrischer Begriff; er bezeichnet im IR n den einfachsten linear begrenzten Körper. Eine genaue Definition und den Zusammenhang mit dem L.P. zeigt [3, Kap. 7 - 3 ] . Die Simplex-Methode ist ein Algorithmus zur Lösung linearer Programme. Es gibt viele andere Ansätze, doch ist die Simplex-Methode — nicht zuletzt wegen ihrer Einfachheit — besonders gebräuchlich. Sie wurde entwickelt durch George Dantzig — unter Mitarbeit von Leonid Hurwicz und nach Vorschlägen von Tjalling C. Koopmans — im Jahre 1947. Ein Lösungshinweis war schon 1939 durch L.V. Kantorovich erarbeitet worden, blieb aber unbeachtet. Lösungsidee der Simplex-Methode ist es, eine zulässige ,,Basis(lösung)" zu suchen (d.h. einen Eckpunkt des Lösungsgebietes) und durch Austausch von Variablen von ihr aus zu einer anderen zulässigen Basislösung in der Richtung fortzuschreiten, wo beim bevorstehenden Schritt der Beitrag zum Ziel am größten ist.

4.3.2 Durchführung und Interpretation Das L.P. (6) muß zunächst zu einem Gleichungssystem erweitert werden, so daß die optimale Lösung des erweiterten Systems mit der optimalen Lösung des ursprünglichen Problems übereinstimmt. Ziel der Erweiterung ist also die Beseitigung der Ungleichungen in den Nebenbedingungen. Das geschieht durch die Einfuhrung von neuen Variablen: n

n+m

i=l

i=n+l

maximiere: + E ¿¡Xj + £

CiXi = Z;

(7)

5i = 0 für i > n S ajßxj + 1 x„ + ß = bß , J2= 1 , 2 , . . . ,m i=l Die sogenannten „Nichtnegativitätsbedingungen" werden auf alle Variablen ausgedehnt: Xi > 0, i = 1, 2 , . . . , n, n + 1,. . . , n + m

34

4. Lineare Programmierung

Man nennt die neuen Variablen x;, i = n + 1 , . . . , n + m, „Schlupfvariablen" (slacks). Es wird manchmal praktisch sein, im folgenden für i = n + 1, n + 2 , . . . , n + m einen neuen Index zu benutzen. Statt (7) werden häufig auch andere Schreibweisen benutzt: CjXi +

C2X2 + . . . +

C„xn + C n + 1 X n + i + Cn+2Xn + 2 + . . . + c n + m x

a n X ! + a12x2 + ... + alnxn + 321*1 +

a

a

l

n +m

= + Z

xn+1

x

22 2 + • • • + a2nXn

=b +

1 • X„ + 2

mixi + am2x2 + . .. + amnxn

= b2

+

Xl x2

t

1 ' Xn + m

^m >0 >0

>0

(7.1)

>0

x n +i Xn+2

>0

Xn+m— 0

Mit n Strukturvariablen (echten Variablen) und m Schlupfvariablen (eine je Nebenbedingung) haben wir nun ein lineares System von n + m Variablen. Sieht man von den Nichtnegativitätsbedingungen ab, so stehen die m Nebenbedingungen in der Form von Gleichungen zur Lösung zur Verfügung. Man findet eine Lösung, indem man n Variablen vorbestimmt. Ihr Wert soll Null sein. Sie heißen Nichtbasisvariablen. Die übrigen m Variablen heißen Basisvariablen. (Merke: Basisvariablen und Strukturvariablen bzw. Nichtbasisvariablen und Schlupfvariablen müssen nicht identisch sein. Die Bezeichnungen beziehen sich auf nicht notwendig identische Eigenschaften.) Die Basisvariablen bilden mit ihren zulässigen Lösungswerten eine zulässige Basis. Basislösung heißt die um die Werte der Nichtbasisvariablen ergänzte Basis. Die zulässigen Lösungswerte der Basisvariablen sind nicht-negativ. Zulässige Lösungswerte existieren nur, wenn die Zahl der lineai unabhängigen Zeilenvektoren gleich der Zahl der Basisvariablen, m, ist.

4.3 Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode



35

Schreiben Sie das Beispiel in der oben dargestellten Form (7,1): Maximiere: + Z

Zielfunktion

-

m = 3 Nebenbedingungen

V V

n + m Nichtnegativitätsbedingungen

VI VI VI

Rechte Seite



n = 2 Strukturvariablen oder echte Variablen

m = 3 Schlupfvariablen

Bestimmen Sie x 3 , x 4 , x s zu Basisvariablen. Welchem Eckpunkt entspricht dann diese zulässige Basis in Abb. 4?

Betrachtet man die Basis der optimalen Lösung durch einen Rückgriff auf die graphische Lösung, so können folgende Einsichten gewonnen werden: Die Ecke E 5 wird durch den Schnittpunkt der beiden ersten Nebenbedingungen des vorstehenden Gleichungssystems bestimmt. Auf den Geraden selbst gilt jeweils, daß die gesamte Maschinenkapazität der beiden ersten Anlagen voll genutzt wird durch die Produktion von X! und x 2 . Das bedeutet, daß in diesen Fällen x 3 = 0 bzw. x 4 = 0 ist. Natürlich gilt für die optimale Lösung x 3 = 0 und = 0. Wir lesen auch ab x i > 0 und x | > 0. Die Maschinenkapazität der dritten Anlage wird — wie ersichtlich — nicht voll ausgenutzt. Die zur Gleichung erweiterte Nebenbedingung kann daher nur erfüllt sein, wenn x | > 0. Insbesondere gilt für = 20 hier x j = 120. Das ist ein Maß der nicht genutzten Kapazität. (Kapazitätsreserve von 120 [Std./Monat]). Wir finden also, daß n = 2 Variablen gerade Null sein müssen, es auch tatsächlich sind, und m = 3 Variablen nicht-negative Werte annehmen können. Diese Beobachtung gilt allgemein und für jede Ecke oder Basis einer Lösung (ein einfacher Beweis wird im Anhang 4 in [4] gezeigt). Ausgangspunkt der Simplexmethode ist i.d.R. der Koordinatenursprung. Ist der Koordinatenursprung keine zulässige Lösung, so muß eine solche zum Start der Methode auf andere Weise gesucht werden (s. unten). Den Koordinatenursprung erhält man durch Nullsetzen der Strukturvariablen als Nichtbasisvariablen. Diese und die folgenden Operationen organisiert man in einem Tableau, das die Rechenarbeit erleichtert. Das Tableau ist nur eine andere Schreibweise für das zuletzt behandelte Gleichungssystem in etwas verkürzter Form. Das Aufsuchen von Ecken des Lösungsgebietes wird durch Umrechnen des Ausgangstableaus, das ja

4. Lineare Programmierung

36

einem Gleichungssystem entspricht, in ein neues Tableau erreicht. Das bedeutet also eine Umformung von Gleichungssystemen durch Neubestimmung der Basisvariablen bzw. Nichtbasisvariablen. Wir geben zunächst eine allgemeine Darstellung des Tableaus und stellen dann die Regeln für die Umformung zusammen.

Ausgangstableau

© +Z

Basis RH £ c

©

c

n+l = 0 n + l b i n+2 = 0 x n+2 b 2 x

n+m = 0 x n+m V ^neu SK

5n

cn+l

c

n+2

x2

xn

x

x

n+2 • •

all

a



a

ln

321

a

22



a

2n

a

a

m2

••

a

mn

¿2 X

1

ml

12



0

0

0

yi

Y2

yn

n+l

- •

Darstellung der Zielfunkx n+m ' tion c

n+m

1 1

Darstellung der Nebenbedingungen

1 0

0

yn+i

y n +2

°Ì ••

yn+m

/

rechnung oder den Abbruch

RH bedeutet: „Rechter-Hand Vektor"; Z n e u bedeutet: Neuer Zielfunktionswert; SK bedeutet: Simplex-Kriterium. Diese Bezeichnung bezieht sich nur auf die weiter rechts stehenden y i , y 2 , . . . , y n +m yi im Ausgangstableau: yj = - cj

• Schreiben Sie das angegebene Beispiel in Tableauform. Überprüfen Sie Ihr Ergebnis durch Vergleich mit dem Tableau (0) auf S. 44. Erste Umrechnungsvoraussetzung: Die Wahl der Pivotspalte Es muß eine Regel dafür aufgestellt werden, welche Variable als Kandidat für die Aufnahme in die Basis zunächst ausgewählt werden soll, um den Wert der Zielfunktion zu erhöhen. Wie bereits skizziert, sucht man diejenige Variable, die je Einheit ihrer möglichen Einsatzmenge einen möglichst großen Beitrag zur Zielerreichung erbringt.1 1

Es existieren auch andere Regeln für die Wahl der Pivot-Spalte.

4.3 Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode

37

In der ursprünglichen Zielfunktion des Beispiels kann dies durch Wahl von x 2 erreicht werden, da c 2 = max {5i} , i = 1, 2. Allgemein wurde hier die mit dem Index s bezeichnete Spalte der in die Basis eingehenden Variablen (Pivotspalte) ausgewählt nach der Regel c s = max

i=l ,2

cs

n

|cj|cj>0|, '

(8)

x s , s gehört zur Indexmenge der bisherigen Nichtbasisvariablen. (a ** b soll bedeuten: wähle das a zugeordnete b für die Entscheidung aus.)

Es erweist sich allerdings als zweckmäßig, diese Regel so zu formulieren, daß sie nicht nur auf die Zielfunktion beim Ausgang der Rechnungen anwendbar ist. Die Zielfunktion wird aber bei den einzelnen Rechenschritten jeweils als Funktion von den Nichtbasisvariablen zu formulieren sein. In unserem Beispiel könnte man also schreiben: + 3xi+ 5x 2 = Z. Auf diese Formulierung angewendet lautet das Kriterium für die Wahl der Pivotspalte aus der Zielfunktion n+m Z -

2

i=l

CjXj = 0

bzw. in der Schreibweise der letzten Zeile des Ausgangstableaus Z+

n+m

2 yjXj = 0: — i 1

ys = min^

{yi k lyik < o | ,

y s ** x s , s gehört"zur Indexmenge der Nichtbasisvariablen: sG { i k | i = l , 2 , . . . , n } . Es kommen im k-ten Tableau, k = 1, 2 , . . . , K < genau n Nichtbasisvariablen i = 1, 2 , . . . , n vor, die aber mit k teilweise wechseln. Aus der umgeformten Zielfunktion ist also diejenige Variable zur Übertragung in die Basis auszuwählen, die den größten Zielbeitrag liefert. Sind alle yj > 0, so kann das Ergebnis durch andere als die im letzten Tableau verwirklichte Variablenauswahl nicht verbessert werden. Die Rechnungen sind zu Ende, das Optimum ist erreicht. Man spricht hier vom Simplex-Kriterium. Ein Beweis fiir das Erreichen des Optimums wird unten nachgetragen. Zweite Umrechnungsvoraussetzung: Die Wahl der Pivotzeile Nach der Pivotspalte ist die Pivotzeile r zu wählen. Damit wird diejenige Zeile bezeichnet, die die Variable enthält, welche die Basis zu verlassen hat, um der bisherigen Nichtbasisvariablen x s einen Platz einzuräumen (das ist notwendig, da

38

4. Lineare Programmierung

die Zahl der Basisvariablen nach unseren früheren Überlegungen festgelegt ist). 1 Dafür wird diejenige „alte" Basisvariable ausgewählt, die bei kontinuierlicher Vergrößerung des Wertes der „neu" in die Basis aufzunehmenden früheren Nichtbasisvariablen am ehesten den Wert Null erreicht. Wird also x 2 in die Basis aufgenommen, so könnte man die erste Nebenbedingung schreiben: x 2 = (170 - Xj - x 3 )/2. X! ist nicht in der Basis, also Xj = 0. x 3 = 0 (und verschwindet damit), wenn x 2 = 170/2. So geht man grundsätzlich in allen Zeilen des Tableaus (Nebenbedingungen) vor und sucht dann die schärfste Schranke für die Variable der Pivotspalte. Die allgemeine Formulierung dieser Überlegungen ist:

ar>s

= min

ß=l,2,...,m

(aßk,s

br

a

Xr

a

ßk.

;>o} ,

(10)

'

r gehört zur Indexmenge der Basisvariablen r G {fi^| £ = 1, 2 , . . . , m j des k-ten Tableaus, k = 1, 2 , . . . , K < worin genau m Basisvariablen entsprechend den m Nebenbedingungen vorkommen. Im Beispiel folgt:

¿--{WS 9 }-«

Damit wird x 5 zur Nichtbasisvariablen bestimmt. Man interpretiert die Bedingung für diese Wahl wie folgt: Würde nur x 2 gefertigt, so könnten davon höchstens 60 Stück hergestellt werden. Die dritte Maschine wäre voll ausgelastet, es lägen aber Leerkapazitäten bei den beiden ersten Anlagen vor. Es seien gewählt nach (9) die n-te Spalte, nach (10) die m-te Zeile. a m n heißt das Pivotelement der Koeffizientenmatrix, s und r werden als Indices an die Stelle von n und m eingeführt, soweit die Koeffizientenmatrix und der „Rechte-Hand Vektor" betroffen sind.

Umrechnung des Gleichungssystems Da eine neue Aufteilung der Variablen in solche der Basis und der Nichtbasis bestimmt wurde, muß das Gleichungssystem umgerechnet werden. Die Umrechnung erfolgt nach den Regeln über die Lösung linearer Gleichungssysteme. Um die Lösung schnell ersichtlich zu machen, soll wieder die im Ausgangstableau vorgestellte „kanonische Form" des Gleichungssystems gewählt werden, da man dann aus dem „Rechte-Hand Vektor" b die Lösungen der Basisvariablen unmittelbar ablesen kann. 1

Das ist Grundlage der sog. „complementary slackness": eine Variable kann nicht gleichzeitig Basis- und Nichtbasisvariable sein.

4.3 Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode

39

Die allgemeine Form der Umrechnung entnehmen wir - nach Anpassung der Symbole - [8]. (Das Übergangstableau wird hier in ausführlicher Form dargestellt. In [9] wird die verkürzte Version benutzt, die eine Ersparnis an Schreibarbeit bedeutet.) Die Umrechnung soll an Hand des Beispiels verfolgt werden. Wir wissen bereits, daß x 2 nach (9) zur Basisvariablen wird, x 5 dagegen nach (10) zur Nichtbasisvariablen. Wir beginnen deshalb bei unseren Rechnungen mit der letzten Nebenbedingung (also derjenigen, in der x 5 als Basisvariable durch x 2 ausgetauscht werden soll). Es ergibt sich hier aus 3x 2 + x 5 = 180 der umgeformte Ausdruck x 2 + | - x 5 = 60

(vgl. Tableaus (0) und (I) des Beispiels).

Wir prüfen dies im allgemein geschriebenen Übergangstableau nach. Danach sind zu bilden: =

?™1i = ?U. = 0; a

m,n

a

m , 2 _ a r,2 _ a r,s _ j .

a

m,n

a

=

a

rs

a

rs

a

r,s

a

m,n

a

m , 5 _ a m,S __ 1

a

m,n

rs

a

rs

3

Wir finden durch diese beispielhafte Überprüfung den vorher abgeleiteten Wert der Beschränkung sowie den zugehörigen Koeffizientenvektor bestätigt. Nun können die übrigen Nebenbedingungen in beliebiger Reihenfolge so umgeformt werden, daß sie nicht von der neuen Basisvariablen x 2 abhängig sind, die im alten Tableau durchaus noch in den Nebenbedingungen vorkommen kann. (Begründung?) Es ergibt sich aus

x 3 + Xj + 2x 2 = 170 durch Einsetzen: x 3 + xj + 2(60 - j x s )

x

2 i ~jxs

3

+ x

=

=

170 oder

50. Ebenso erhält man aus x 4 + xi + x 2 = 150 durch Einsetzen

X4 + Xj — ^ x s = 90. Wir wollen die Koeffizienten der ersten Gleichung auch wieder aus dem Schema des Übergangstableaus bestimmen: bi-ais

170-2 a

a

rs

i f = 50; ->

d

rs i 2 — a r2 a rs —- = 2 - 3 -•>^^ = 0 (Zeilenelement in der Pivotspalte); der

Koeffizient von x 3 bleibt unverändert 1, da diese Variable weiter in der Basis steht;

Q.

a

5

rs

= - 4 (Koeffizient der neuen Nichtbasisvariablen). Auf dieselbe Wei-

se geht man bei jeder Nebenbedingung vor. [Prüfen Sie dies nach!]

40

4. Lineare Programmierung

Übergangstableau

Basis

Z

h

C2

RH

x

x

Cn+1 = 0

x

n+l

Ol - a j s • a — r,s

c n +2 = 0

x

n+2

°2 ~ a 2s " a

6

n+m-l = 0

x

n+m-l

. . br °m-l ~ a m-l,s ars

s

x

b

r

s

a

c

m - W m,n ars n+l(l>l-als- — ) ars

+ . . . +

cc s

a

o . 3lS l , l - a r,l a— rs

a

2,l " a r , l

a

m-l,l " a r,l

a

r,s

b 5

i

a

ml _

a

— ^neu

^neu ~ Z

a

rs

m,n

a

c

n+l(all ~arl

o . a ls 12 " a rs a— rs

a

a 2s 22 - a r2 ' a— rs

a

„ • "m-M m-l,2 ~ a r,2 a rs

a

r,s

+ . .. +

a

%i2 _ %2 a m,n rs

r, 1

a

arl

ars

2,s rs

a—

2

a

a

ls ) ars

c

n+l( a 12 " a r2

+ . . . +

o • - 7 c s — = Zi %s

cs"

Z i - 5 i = yi

Z2 - c2 = y2

a

rs

= Z2

ls ) ars

4.3 Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode

41

Cn-l

¿n

Cn+1

=n+2

^n+rn-1

c

x

x

x

n+l

*n+2

x

x

n-l

n

n+m-l

a

a ls l , n - l ~ a r,n-l " d— rs

0

1

0

0

_ ?!? a rs

a

a 2s 2 , n - l " a r,n-l a— rs

0

0

1

0

_

a

m-l,n-l ~ a r,n-l

a

äjn.n-l _ a

m,n

a

m-l,s a

rs

Cs •

ärs •

_ Zn_!

Z„.i - c n _i = y n - i

c

a2s

ars

0

0

1

am-ljS

1

0

0

0

1 _ %in ars

^s

a , ls, n + l ( a l , n - l - är.n-l " a ) rs +...+

n+m

0

r,n-l

c

n+m

s

c

n+l

c

n+2

c

n+m-l

c

n+l

(-ais) a

rs

+ . . . +

z„

Z n +1

z

n+2

Zn+m-1

c

s'

a

Z„-

z„+, -

Zn+m-l~ Zn+m

cn = yn

5

Cn+m-1

c

= yn+m-1

=

n+l

= y n +i

Zn+m

rs

_

n+m yn+m

42

4. Lineare Programmierung

Wir kommen nun zur Behandlung der Zielfunktion. Entsprechend dem Ausgangstableau wird sie als Z = 3xj + 5x 2 geschrieben. Ersetzen wir hier x 2 , so ergibt sjch Z = 3xi - 5/3 • x 5 + 300 oder - Z + 300 = -3x! + 5/3 • x s . Im einzelnen finden wir aus dem Ubergangstableau die entsprechenden Werte der Koeffizienten: Z R H = c , - ^ = 5 - l f = 300; ars und daraus

J

Zi = 0; Z 2 = 5; Z 3 = 0; Z 4 = 0; Z s = 5

^

Z R H - Z = 300 - 0 = 300; Z1 - Cj = - 3 ; Z 2 - c 2 = 0; Z 3 = Z 4 = 0; Z 5 - c 5 = + | .

Die Koeffizienten dieser Zeile werden im Ausgangstableau mit SK = SimplexKriterium bezeichnet. Auf das Simplexkriterium wird (9) zur Bestimmung der Basis für das nächste Tableau angewendet, wenn die Voraussetzung (Z; - Cj = Yi < 0) erfüllt ist, worin y; die Zielfunktionskoeffizienten der neuen Zielfunktion nach den Umrechnungen seien. Findet man ausschließlich y\ > 0, so ist das Optimum erreicht. Z n e u ist dann der Wert der Zielfunktion im Optimum, während aus den Spalten „Basis" und „Lösung" die Koordinaten der optimalen Lösung abzulesen sind. Erscheinen Schlupfvariablen y in der optimalen Lösung, so heißt das speziell, daß einzelne Einsatzgütermengen nicht in der zur Verfügung stehenden Menge gebraucht werden. Allgemein bedeutet dies, daß die Nebenbedingungen (ohne den Wert der Schlupfvariablen) als strenge Ungleichungen gelten. Gleichungssysteme siehe Seite 44/45.

Alle Koeffizienten des Simplex-Kriteriums SK sind nichtnegativ, die optimale Lösung ist damit erreicht. Sie lautet: Erreichter Deckungsbeitrag Z* = 490; xf = 130; x | = 20. Die Maschinen 1 = 1 und 1 = 2 sind voll ausgelastet (x 3 = x£ = 0), während bei der Maschine 1 = 3 noch freie Kapazität zur Verfügung steht: x | = 120. Dasselbe kann man aus dem Gleichungssystem ablesen: Die Lösung ist optimal, da alle Koeffizienten der Zielfunktion nichtnegativ sind. Es gilt Z* = 490 - 2x 3 - l x 4 .

43

4.3 Lösung des 2 < n-Variablen-Falles mit Hilfe der Simplex-Methode

Der Wert von Z kann sich also nur ändern, indem man die Werte von x 3 bzw. x 4 ändert. Aufgrund der Nichtnegativitäts-Bedingungen können diese Variablen nur positive Werte annehmen, was jedoch zu einem Z kleiner als Z* = 4 9 0 fuhren würde. Auch hier erhält man die optimale Lösung in den Basisvariablen, indem man die Nichtbasisvariablen gleich Null setzt = = 0) und dann die Werte der restlichen Variablen aus dem Gleichungssystem abliest. Es kann noch ein einfacher Beweis für das Simplex-Kriterium gegeben werden [Vgl. 5, S. 74 ff.]. Angenommen, wir haben eine zulässige Lösung x* eines LP errechnet, dessen Zielfunktion zu maximieren ist. Die Spalten des Lösungstableaus können nun so geordnet werden, daß die m Basisvariablen x£ und die n Nichtbasisvariablen x* jeweils blockweise nebeneinanderstehen. Für die Zielfunktion gilt dann m

n

Z * = 2 c p xS+ 2 q x f £=i i=i

(11)

wobei sich hier alle Indices auf die optimale Lösung beziehen mögen. Entsprechend seien die Nebenbedingungen geschrieben, wobei beachtet wird, daß der Koeffizient einer Basisvariablen in der entsprechenden Nebenbedingung gerade Eins ist: „ x$ = b $ - S a 5 , x i , S = l , 2 , . . . , m . (12) Drückt man nun die Zielfunktion nur in Abhängigkeit von den Nichtbasisvariablen aus, so erhält man: Z* = ß | oder

¿£(b£- .2

m Z

*

=

¡Xj) + |

n 6 b

i?1 i ß

+

i

S

¿¡xf

(13)

m (öi

-i?1£ia8Vxf-

( 14 >

Da Xj = 0 (Nichtbasisvariablen!) könnten nur Erhöhungen von x* zulässig sein. Diese führen nur dann nicht zu einer Vergrößerung von Z*, lassen also die bisherige Lösung als optimal erkennen, wenn m

oder

Cj - 2 c c a£ . < 0, alle i,

(15)

m 2 c g a£ . - ¿i > 0, alle i.

(16)

Betrachtet man das Übergangstableau (S. 44/45) als optimale Lösung und setzt für die umgerechneten Koeffizienten der A-Matrix jeweils a£ . ein, so läßt sich (16) in der Zeile des Simplex-Kriteriums unmittelbar ablesen. Tatsächlich fordern wir für jedes einer Nichtbasisvariablen zugeordnete Element dieser Zeile, daß es größer oder gleich Null sei.

44

4. Lineare Programmierung

rs|co

-Il CO r-H| CO Wim

o II

o

»

§ oj

I

il

0

Beziehung

Konstanten

2n

<
o

Beziehung Konstanten

>

>

Cl

c2

> cn

b

m

Min Zy Max Z x

^

4.4 Duale Programme und Interpretation der Dualvariablen

47

Für unser Beispiel gilt: Primales Problem:

Duales Problem:

Maximiere

Minimiere

3 x j + 5X 2 = Z x

Z y = 170yi + 150y 2 + 180y 3

+2X 2 < 170 xj+x2

3

2 y x + y 2 + 3y 3

>5

yx.y2.y3

>0

0

Beides sind LP mit Primales Problem

Duales Problem

n Strukturvariablen

m Strukturvariablen

m Nebenbedingungen oder Schlupfvariablen

n Nebenbedingungen oder Schlupfvariablen

Unterstellt man, daß beide LP gelöst werden können, so ist allein schon die Schreibweise des dualen Problems für die Zahl der bis zur optimalen Lösung nötigen Umformungen des Tableaus (Iterationen) interessant. Es gilt die Faustregel : Zahl der Iterationen oder Tableaus von der ersten Basislösung zur optimalen Basislösung 1,5 • m. Deshalb kann es zweckmäßig sein, das jeweils duale Programm zu formulieren und zu lösen, wenn m > n und falls tatsächlich aus beiden Programmen äquivalente Information abgeleitet werden kann. Die Art dieser Äquivalenz soll deshalb näher untersucht werden. c) Daß primales Problem und duales Problem „äquivalent" sind, hat verschiedene Bedeutungen. 1. Nehmen wir an, daß xj, i = 1, 2 , . . . , n, und y £ , £ = 1, 2 , . . . , m, eine zulässige Lösung seien. Aus dem T\icker-Diagramm kann man dann ablesen: n

n

m

m

n

m

Z x = 2 c i X i < 2 x, 2 a £ i y £ = 2 y £ 2 a £ i x. < 2 b £ y £ = Z y . 1=1 i=l *=x x=x 1=1 x=i 2. Darüber hinaus kann unter der Annahme Z x , Zy < n

00

bewiesen werden, daß

m

2 ¿jx* = z ; = z ; = 2 b £ y £ . i=I ß=I Im Optimum sind also die (endlichen) Lösungswerte beider Programme identisch. Beweis: [3, Kap. 6], [7, S. 479 ff.], [8, S. 40 ff.]. 3. Ist die Lösung eines LP unbegrenzt, so hat das dazu duale Programm keine zulässige Lösung.

48

4. Lineare Programmierung

4. Die Lösungswerte entsprechen den Koeffizienten in der Zeile SK des Tableaus der optimalen Lösung in den Spalten der Schlupfvariablen x n + g . Führt man in das duale Problem die Schlupfvariablen y m +i ein, so daß die Nebenbedingungen als m

2 ai£y£-ym+i = ci,i= 1 , 2 , . . . ,n,

geschrieben werden können, so liest man deren optimale Lösungswerte yji+i in der Zeile SK des Tableaus der optimalen Lösung in den Spalten der Variablen x; ab. (Beweis: vgl. die Hinweise unter 2.). 5. Soweit Xi, i = 1, 2 , . . . , n+m, Basisvariablen in der optimalen Lösung sind, ist der Koeffizient in der Zeile SK gleich Null. Nehmen wir an, daß die Basisvariablen x* > 0 sind. Dann folgt y£

= 0 falls x * + g > 0 , £ = 1, 2 , . . . , m

y ^ + i = 0 falls x-

> 0, i = 1, 2 , . . . , n.

Entsprechend kann die SK-Zeile des dualen Programms zur Ableitung des Ergebnisses xi

= 0 falls y*m+i>0,

x£+ß = 0 falls y£

i=l,2,...,n

> 0, £ = 1, 2 , . . . , m

benutzt werden. Stellen Sie entsprechende Überlegungen fiir die Nichtbasisvariablen an!

Diese Überlegungen können mit dem System der Nebenbedingungen verknüpft werden. Sei beispielsweise X? = 0 als Nichtbasisvariable, so ist y ^ + i > 0. Das bedeutet aber, daß m

s a i £ yxÄ > C i . £=i Verfolgt man diese Überlegung für die denkbaren Fälle, so leitet man daraus das Preistheorem von Koopmans her: Falls

^a^yg

{ " } öi, so folgt

x t { ^ ) o , i = 1 , 2 , . . . , n, falls

E ag.x* Yg

j bg, so folgt 0, £ = 1, 2 , . . . , m .

4.4 Duale Programme und Interpretation der Dualvariablen

49

Prüfen Sie diese Beziehungen nach! (Gehen Sie dabei davon aus, daß der Beweis für die Übereinstimmung der Koeffizienten in der Zeile SK und der entsprechenden erbracht werden kann.) Zeigen Sie, daß das Preistheorem von Koopmans identisch ist mit dem Theorem der „complementary slackness":

d) Die mathematischen Beziehungen sind von hervorragender Bedeutung für die ökonomische Interpretation von LP. [Vgl. 1 ]. Wir beziehen diese Interpretation hier auf unser Beispiel. Unser Beispiel hat ergeben, daß mit der Produktion x j = 130 und = 20 ein Gesamt-Deckungsbeitrag von DM 490,— erwirtschaftet werden kann. Dabei sind die Kapazitäten der ersten beiden Anlagen voll ausgenutzt, das heißt knapp. Die Kapazität der dritten Anlage ist im Überfluß vorhanden. Die Zielfunktion des dualen Problems lautet: 170yi + 150y 2 + 180y 3 = Z y , worin Z y die Dimension [DM] oder [Geldeinheiten] hat, während die Koeffizienten als [Kapazität, gemessen in Stunden] dimensioniert sind. Um Übereinstimmung in den Dimensionen zu erreichen, muß deshalb für die Variablen die Dimension [Geldeinheiten je Stunde] oder allgemeiner [Geldeinheiten je Einheit der benutzten Ressource] gelten. Diese Dimensionierung läßt sich auch aus den dualen Nebenbedingungen ablesen. (Woraus folgern Sie, daß Z y die Dimension [DM] hat? Bestimmen Sie Zy aus den bisher bekannten Tatsachen.) Die so dimensionierten Variablen bezeichnet man je nach der Art des Problems als Grenzproduktivitäten, Grenzdeckungsbeiträge, Renten, Schattenpreise 1 oder einfach als Werte bzw. implizierte Werte. (Versuchen Sie eine Erklärung dafür zu geben.)

1

Eine knappe Ressource wirft einen Schatten. Je knapper sie ist, desto länger ist der Schatten, desto höher ist der Schattenpreis, desto größer ist die potentielle Änderung der Zielfunktion.

50

4. Lineare Programmierung

Das Theorem der „complementary slackness" läßt in unserem Beispiel deutlich erkennen, daß der Wert der knappen Faktoren positiv, der des im Überfluß vorhandenen Faktors dagegen Null ist: y i (xi + 2 x | - 1 7 0 ) = 0 ; y i = 2 ; y S t o + xa - 1 5 0 ) = 0 ; y 5 = l ; y|(3x5

- 180) = 0 ; y | = 0;

Auf die Zielfunktion des primalen Problems bezogen: eine Erhöhung von bx oder b 2 um eine Einheit würde den Zielfunktionswert um y j bzw. y | erhöhen. Eine Vermehrung der ohnehin schon im Überfluß vorhandenen Maschinenstunden um eine Einheit führt nicht zur Erhöhung von Z£. Anders könnte man sagen: die Tatsache, daß eine knappe Ressource nicht um eine weitere Einheit erhöht werden kann, verursacht entgangene Deckungsbeiträge oder Kosten je Einheit der jeweiligen Ressource von y£. Diese Kosten sollen, wie die Zielfunktion des dualen Problems es zum Ausdruck bringt, als Folge der unternehmerischen Dispositionen möglichst klein werden. Betrachten wir nun die echten Nebenbedingungen des dualen Problems in Ungleichungsform: Yi + Y 2 > 3 2yi + y 2 + 3 y 3 > 5 Überprüfen Sie die Dimensionen der einzelnen Koeffizienten und Variablen! Jede dieser Nebenbedingungen besagt, daß die Kosten des Ressourceneinsatzes je Einheit des Endprodukts seinen Deckungsbeitrag nicht unterschreiten sollen. Wäre es anders, so würden die y^ die „wahren Werte" der Faktoren unterschätzen. Ein in Konkurrenz zu dem gegenwärtig betrachteten Entscheidenden stehendes Individuum würde nämlich so lange den Preis für die Nutzung der knappen Kapazitäten je Einheit zu erhöhen bereit sein, bis gerade ein Ausgleich bei m 2?

a

i£y£ = ¿i erfolgt. Jede nichtoptimale Faktorverwendung würde bei der Be-

wertung mit den implizierten Werten zu Verlusten fuhren. Interpretieren Sie die Bedeutung der Schlupfvariablen des dualen Problems! Versuchen Sie aus dem Preistheorem von Koopmans heraus folgende Lösungen zu interpretieren: y% = y | = 0; y5 = 0; y% > 0. Sehen Sie Zusammenhänge zwischen Lagrangeschen Multiplikatoren und Schattenpreisen?

4.5 Spezialprobleme; Hinweis auf andere Lösungsverfahren

51

4.5 Spezialprobleme; Hinweis auf andere Lösungsverfahren Wir betrachten im folgenden einige Probleme, die durch Abweichungen von dem bisher benutzten Ansatz aufgeworfen werden.

4.5.1 Minimierungsproblem Wir haben schon bei der Betrachtung des dualen LP zum primalen LP mit Maximierungsziel ein Minimierungsproblem formuliert. Es fragt sich nun, ob es auch gelöst werden kann. Dafür gibt es zwei Wege: Uminterpretation des SimplexAlgorithmus oder Umformung in ein Maximierungsproblem. Der zuletzt genannte Weg ist besonders leicht darzustellen: Es sei zu bilden:

Das ist identisch mit

4.5.2 Gleichungen als Nebenbedingungen Kommen außer Ungleichungen auch Gleichungen als Nebenbedingungen vor, so formt man a£x = b ß , a ' £ = ( a £ l , a ß 2 , . . . , a £ n ) , um in a £ x > b £ und a £ x < b £ .

4.5.3 Ungleichungszeichen in unterschiedlicher Richtung Aus dem in 4.5.2 diskutierten Anlaß oder aus anderen Gründen können bei Maximierungsaufgaben auch Ungleichungen auftreten, in denen bp als Untergrenzen aufgefaßt werden. Man korrigiert hier durch Multiplikation der betroffenen Ungleichung mit (-1). Wird dabei b £ < 0, so verfahre man wie in 4.5.4.

4. Lineare Programmierung

52

4.5.4

Bei dem in 4.5.3 diskutierten Anlaß oder aus anderen Gründen können Elemente des Rechte-Hand-Vektors auftreten, die die zur Anwendung des SimplexVerfahrens vorausgesetzte Vorzeichenrestriktion nicht erfüllen. Dann ist eine zulässige Basis nicht mehr ersichtlich. Die Bearbeitung kann also nicht ohne weiteres aufgenommen werden. Lösungen: (a)

Erweiterung des Problems (Groß-M-Methode)

Aus maximiere: c'x = Z A x < b (mit m-1 Zeilen) a m i x i + a m 2 x 2 + . . . + a m „x n < - b m x>0 wird durch Einfuhrung einer Scheinvariablen x m + n + i gebildet: c'x - M • x m + n + 1 = Z Ax

bo. ^ — , 2 k ,n + ß

a

für die ß-te Zeile des Ausgangs- und Übergangstableaus. Der Quotient ist für alle ß= 1, 2 , . . . , m Zeilen des Lösungstableaus zu errechnen. Dann werden die schärfsten Begrenzungen für Abg bestimmt: max( - J ^ M a « n + ß > ° ) ^ A b ß < ™ n 8k \ a ß k > n + ß K k , n K / ßk Falls entsprechende a g bzw. - oo aus.

n+g

( - a « V a£kn+ß

n + £ Kk,n+K

0 = Parameter der Preis-Absatz-Funktion; k = Stückkosten. Die Zielfunktion ist quadratisch. (Zeigen Sie, daß die Zielfunktion konkav ist.) b) Viele ökonomische Planungsprobleme müssen in Rechnung stellen, daß die Koeffizienten stochastisch sind. Dabei kann in der Regel davon ausgegangen werden, daß ihre Dichtefunktion durch die Angabe über Mittelwert und Streuung vollständig beschrieben wird, insbesondere Normalverteilungen als Dichtefunktion auftreten (vgl. Abb. 6). w(Cj)

q

-

2 O-

Erwartungswert E(cj)

= Streuung, Varianz V(£i)

w(cj) = Wahrscheinlichkeit für das Auftreten von c; Abb. 6

Die Formulierung solcher Planungsprobleme wird auf verschiedene, den betrachteten Situationen jeweils möglichst entsprechende Weise versucht. Grundlegend für die Ansätze ist das von Bernoulli ausgearbeitete Prinzip der Maximierung erwarteter Nutzen als vernünftige Handlungsmaxime. Die Modelle werden deshalb auch danach beurteilt, ob sie mit dieser Anweisung verträglich sind. [H. Schneeweiß: Entscheidungskriterien bei Risiko. Berlin, Heidelberg, New York 1967]. Wir zeigen einige dieser Modelle.

63

5.1 Nichtlineare Programme

(a) H. Markowitz hat das Problem der optimalen Auswahl von Wertpapieren wie folgt behandelt [H. Markowitz: Portfolio Selection. 3. A. New York 1967]: n

max Z = 2 E(6i)xi i=l

£

2

i=l j=l

CTijxixj 0 .

Darin ist Xj der Anteil eines zur Anlage in Wertpapieren bereitgestellten Betrages, der in die i-te Anlagemöglichkeit investiert wird. (Warum wird EiXj = 1 verlangt?) V + ist ein Wert der Varianz der Wertpapiererträge, der nicht überschritten werden darf, Oy sind für i = j (i j) die Varianzen (Kovarianzen) der (zwischen den) Erträge(n) der Einzelanlagen. E(cj) ist der Erwartungswert der Rendite der i-ten Anlagemöglichkeit. Die erste Nebenbedingung ist eine quadratische Funktion. Durch parametrische Variation von V + kann (vgl. Abb. 7) eine effiziente Linie der Wertpapieranlagen dargestellt werden. (Erklären Sie den Ausdruck „effiziente Linie" an Hand der Abb. 7.) zulässige Wertpapierzusammenstellungen

nicht vorkommende Wertpapierzusammenst.

Abb. 7

(ß) Da im vorigen Abschnitt V + nicht rational festgelegt werden kann (aber auch aus anderen Überlegungen heraus), wird eine ,,Präferenzfunktion" des Entscheidenden formuliert, in der zum Ausdruck kommt, ob er sich risikoscheu, risikofreudig oder risikoneutral verhält. Risikoscheu fuhrt zu einem mit dem Bernoulli-Prinzip verträglichen Ansatz mit quadratischer Zielfunktion, wenn eine quadratische Nutzenfunktion die Realität genügend genau darstellt. Sei die Nutzenfunktion U (c) = - ac 2 + bc, a, b > 0.

5. Nichtlineare, insbesondere quadratische Programmierung

64

Man definiert den Erwartungswert _

n

c = 2 w(cj) • cj i=l und die Streuung a 2 = 2 w ( c i ) ( c i - c ) 2 = 2 w(6i) c? - c 2 . i=l i=l n

(Leiten Sie die letzte Umformung her. Hinweis: 2 w(öj) = 1; warum?) i=l Zu maximieren sei die Zielfunktion Z = 2 w(cO • U(cO, i=l die durch Einsetzen umgeformt wird: Z = -a • 2 w(cj) • c? + b 2 i=l 1=1

w(Cj) • Cj =

-a(a 2 + c 2 ) + b • c .

(7) Für die Entwicklung der Programmierungstheorie und die praktische Problemlösung gleichermaßen interessant ist eine Entdeckung von Charnes und Cooper, die als Chance Constraint Programming bezeichnet wird. Literatur: [A. Charnes und W.W. Cooper: Chance-Constrained Programming. In: Management Science, Vol. 6, 1959, S. 73 ff.], [L. Haegert: Die Aussagefähigkeit der Dualvariablen und die wirtschaftliche Deutung der Optimalitätsbedingungen beim Chance-Constrained Programming. In: H. Hax (Hrsg.): Entscheidung bei unsicheren Erwartungen. Köln, Opladen 1970, S. 101 ff.] Bei Maximierung einer sinnvollen Präferenzfunktion wird die Ungewißheit der Koeffizienten in den Nebenbedingungen dadurch berücksichtigt, daß man ihre Einhaltung nicht mehr mit Sicherheit verlangt. Das führt zum Ansatz einzelner Nebenbedingungen der Form

mit P()

Wahrscheinlichkeit für den Eintritt des unsicheren Ereignisses in (•),

a > 0,5

geforderte Zutreffenswahrscheinlichkeit; die Schranke ist notwendig, um die Konvexität des Beschränkungsgebietes zu sichern.

agj, bg

seien Zufallszahlen, für die Erwartungswerte ä^, bg und Varianzen i, j = 1, 2 , . . . , n, a 2 ( ^ existieren mögen. ^ b

5.1 Nichtlineare Programme

65

Aus der Wahrscheinlichkeitstheorie weiß man, daß für die aus einer beliebig normalverteilten Zufallsvariablen y gewonnene (O-l)-normalverteilte Zufallsvariable (y-E(y))/Vvöö,güt: p (

yIE(y)
0 ^ > 0

(20.5)

(alle Indices laufen wie oben angegeben).

(20.6)

Es wird dann ersichtlich, daß (x*, tt*) einen Sattelpunkt darstellt, also (x*, TT) < Í>(X*, TT*) < $ ( X , TT*).

Es existieren verschiedene äquivalente Formulierungen dieser Bedingungen [6, S. 44 f.]

68

5. Nichtlineaxe, insbesondere quadratische Programmierung

5.3.2 Beispiel

Ein Unternehmen kann die Produkte x l t x 2 herstellen. Die Preis-Absatzfunktionen lauten: P! = 5 - xj u n d p 2 = 7 - 0 , 5 x 2

Die Kostenfunktionen seien gegeben mit Ki = 2 x j und K 2 = 3 x 2 . Bei der Produktion entsteht eine chemische Verbindung in der Menge 2 x | + 0 , 5 x i x 2 + x^ [Einheiten] von der aber nur 5 [Einheiten] je Produktionsperiode in den als Vorfluter benutzten Fluß geleitet werden dürfen. Können Xi und x 2 bei Gewinnmaximierung hergestellt werden? Formulierung. Die Zielfunktion lautet: maximiere Z = (5 - Xi ) x j + (7 - 0,5x 2 )x 2 - 2 x j - 3x 2 = 3x x - x* + 4 x 2 - 0,5x2 ' Die Nebenbedingungen sind: 2x^ + 0 , 5 x i x 2 + x j < 5 X! , x 2 > 0 . Die „Langrangefunktion" ist: (x1; x 2 , ir) = 3 x j -

+ 4 x 2 - 0,5x* - tt(2x* + 0 , 5 x i x 2 + x 2 - 5) .

Ihre ersten partiellen Ableitungen lauten in der hier relevanten Schreibweise: (a)

OXj

= 3 - 2 x i - tt*(0,5X 2 + 2 x j ) < 0

(ß)

^ = 4 - x 2 - 7 T * ( 6 x 2 + 0,5x1) 1,5 und x* > 4 aus a . bzw. ß. Damit aber wird y> verletzt. Deshalb ir* > 0. Annahme x* = 0. Die Bedingung y. ist wegen tt* > 0 als Gleichung erfüllt. Daraus folgt nun x* = \/2,5. Aus ß. erhält man rr* = 0,237. Damit kann aber a. nicht erfüllt werden.

5.4 Ein Lösungsverfahren für die QP

69

Annahme x* = 0. Dann ist x* = %/iT Aus a. erhält man ir* < 0. Das widerspricht der Nichtnegativitätsbedingung. Daraus folgt, daß nur x*, x*, ir* > 0 sein kann. Dann sind a.,ß., y. als Gleichungen gegeben, aus denen die Lösungswerte zu bestimmen wären. Das ist hier elementar nicht möglich. Da wir aber wissen, daß x j < 1,4 für x j = 0 und x j < f ü r x j = 0, kann man z.B. durch ein Suchverfahren auch die optimale Lösung selbst recht schnell aufsuchen.

5.4 Ein Lösungsverfahren für die QP Existiert eine optimale Lösung, so kann durch Anwendung besonderer Algorithmen nach ihr gesucht werden. In der Literatur finden sich verschiedene solcher Lösungsverfahren. [H.P. Künzi und W. Krelle: Nichtlineare Programmierung. Berlin, Göttingen, Heidelberg 1962], [H.P. Künzi: Zum heutigen Stand der nichtlinearen Optimierungstheorie. In: Unternehmensforschung, Bd. 12,1968, S. 1 ff.]. Grundidee der Algorithmen zur Lösung nichtlinearer Programme Wir betrachten ein konvexes Problem v o m j y p (19) und fragen, auf welche Weise nach Feststellung der Existenz einer optimalen Lösung diese aufgesucht werden kann. Im Grunde sind hierzu fünf Schritte nötig, die aber bei der praktischen Durchführung erhebliche Schwierigkeiten bereiten: Schritt 1:

Bestimmung einer zulässigen Lösung x+ und des zugehörigen Wertes Z(x + ).

Schritt 2:

Berechne dZ/8x¡, i = 1, 2 , . . . , n

Schritt 3:

Prüfe: az/dxj = 0

I

dZ/3x¡ * 0

Ende: x+ = x* Z(x + ) = Z* (Die Lösung liegt auf dem Rand des Beschränkungsgebiets) Schritt 4: •

^ Bestimme zulässige Werte Ax¡, V i. Ax¡

Schritt 5:

Berechne xt = :

* 0, für wenigstens ein i

I

+ Ax¡, V i.

5. Nichtlineare, insbesondere quadratische Programmierung

70

Man sieht sofort, daß Schritt 1, vielmehr aber noch Schritt 4, große Probleme aufwerfen, wenn man nicht unkontrolliert im Lösungsraum herumsuchen will. Die Mehrzahl der Techniken der nichtlinearen Programmierung kann durch die unterschiedlichen Regeln gekennzeichnet werden, die bei Schritt 4 angewandt werden. Hier wird z.B. vorgeschlagen: Wähle Ax; in der Richtung des partiell steilsten Anstiegs der Zielfunktion und so groß wie zulässig, aber ohne Überschreitung des größten Zielfunktionswerts auf dem Strahl der gewählten Richtung (diese „Methode des steilsten Anstiegs'' kommt in verschiedenen Varianten vor); zur Ausführung des Vorschlags kann man sich in vielen Fällen der LP bedienen. Daneben gibt es Ansätze, die nur eine annähernd optimale Lösung anstreben. Hierzu zählen die Modelle mit „Straffunktionen", wobei die linearen Nebenbedingungen in bestimmter Weise gewichtet in die Zielfunktion einbezogen werden und dann das Problem als unbeschränktes Optimierungsproblem mit iterativer Veränderung des Gewichtsfaktors behandelt wird. Vergleich von Lösungsverfahren Kriterium für die Wahl eines Verfahrens aus der Fülle der Möglichkeiten ist die Wirtschaftlichkeit der Verfahrensanwendung. Diese wird wesentlich bestimmt durch die Schnelligkeit, mit der durch ein Verfahren die optimale Lösung eines Problems gefunden werden kann. Die Eigenschaft eines Algorithmus, überhaupt zu einem Optimum- einer kontinuierlichen Funktion zu führen, nennt man Konvergenz. Für jeden Algorithmus muß zuerst Konvergenz bewiesen werden. Kann sie nicht bewiesen werden, so ist der „Algorithmus" unbrauchbar, da er i.d.R. unendlich lange nach dem Optimum sucht. Diese Frage konnte erst in jüngster Zeit einer Antwort zugeführt werden, indem die notwendigen und hinreichenden Bedingungen der Konvergenz durch W. Zangwill formuliert wurden. [W.I. Zangwill: Convergence Conditions for Nonlinear Programming Algorithms. In: Management Science, Vol. 16, 1969, S. 1 ff.] Die Schnelligkeit der Konvergenz wird in aller Regel durch Simulation untersucht. Dabei wendet man konkurrierende Algorithmen auf eine Reihe von Testbeispielen an und stellt fest, welcher diese Beispiele besonders schnell (effektiv) löst. Das Problem Maximiere die konkave Funktion Wir betrachten nun die Aufgabe: Z = c'x + x' C x Ax 0.

(21)

5.4 Ein Lösungsverfahren für die QP

71

Dabei sei wieder x ' = ( x i , x 2 , . . . , x n ) , womit C eine symmetrische (nxn)-Matrix ist. Soll Z konkav sein, so m u ß C negativ semidefinit sein.

Verfahren von Wolfe Eines der häufig gebrauchten Verfahren zur Lösung von (21) hat Wolfe erarbeitet. [P. Wolfe: The Simplex Method for Quadratic Programming. In: Econometrica, Vol. 27, 1959, S. 382 ff.]. Zunächst werden in (21) Schlupfvariablen x n + 1 , x n + 2 , . . . , x n + m so eingeführt, daß Zs = c'sxs s

+

x'sCsxs

(22)

s

A x =b xs > 0 wobei x ' s = ( x i , x 2 , . . . , x n + m ) , c ' s = (c', 0 , 0 , . . . , 0), C s = ) , A s = (A j E) mit dem ( m x m ) Einheitsvektor und b > 0. Im folgenden lassen wir den Index „s" wieder fort, behandeln aber dennoch nur das Problem (22) als Maximierungsproblem. Hierfür lautet die erweiterte Lagrange-Funktion 0 .

(25)

(Zeigen Sie, daß die (20.6) entsprechende Bedingung erfüllt ist.) Weiterhin entspricht (20.3), (20.4) hier Ax = b

(26)

u n d natürlich gilt x > 0

(27)

entsprechend (20.5). Nun können (23), (26), (25), (27) als Nebenbedingungen eines LP aufgefaßt werden; erfüllt eine Lösung dieses Systems auch noch (24), so hat m a n das Problem (22) gelöst. Die gesuchte Lösung wird nach Erweiterung von (23) bis (27) tatsächlich durch eine Abwandlung der Simplex-Methode erreicht.

72

5. Nichtlineare, insbesondere quadratische Programmierung

(Das Verfahren kann abgekürzt werden, wenn c = 0 oder C negativ définit ist. Zu dieser „kurzen Form" vgl. auch [H.P. Künzi, W. Krelle, mit W. Oettli: Nichtlineare Programmierung. Berlin, Göttingen, Heidelberg 1962, S. 115 ff.]. Sie besteht aus den ersten beiden folgenden „Phasen" mit ß = 1.) Phase 1.

Wir schreiben Ax

+w = b

2Cx + v + A'ït + ß - c + z 1 - z 2 = 0 x>0,Y — 2 ' î ' w>0,ß>0. 1

Dabei sind z , z 2 , w Vektoren neuer Schlupfvariabler, ß ist eine Hilfsvariable. Sei zJ., j = 1, 2, i = 1, 2 , . . . , n+m, ein Element aus dem Vektor z j , so gelte zj = -Cj 1 C j < 0, z{ =

Cj

I Cj > 0 .

Eine zulässige Basislösung ist also w = b und z j oder z 2 für jedes i. Um das erweiterte System auf das Ausgangsproblem zurückzubringen fordert man m

min.: 2

£=i

w0, *

wobei weder ß noch Elemente aus 7r oder v zu Basisvariablen werden dürfen, d.h. /i = 0, 7T=0, v = 0 . m

(Kann S w p > 0 eine zulässige Lösung sein?) Phase 2. Aus dem Lösungstableau der Phase 1 streicht man alle den Wg 1 und den nicht der Basis angehörenden zJ. zugeordneten Spalten. Für die verbleibenden zj reicht nun die Indizierung Z\ aus. (Können Sie das nachweisen?) Wir lösen nun min.: Ax

n+m

2 Z; i=l =b

2Cx + v + A'7t + ßc. + Dz = 0 x>0, v>0,ju>0,z>0 (worin D eine (n+m x n+m)-Matrix ist, auf deren Hauptdiagonalen Elemente +1 oder -1 stehen, je nachdem, ob ihnen ein z ; aus z? oder z 2 zugeordnet ist) wobei 2u beachten ist, daß ß nicht in die Basis aufgenommen werden darf und ebenso1

Bei Degeneration, wo sich noch einzelne der wn in der Basis des Lösungstableaus der Phase 1 befinden, sind diese erst daraus zu entfernen.

73

5.4 Ein Lösungsverfahren für die QP

wenig gleichzeitig Xj und V; in der Basis erscheinen dürfen, wodurch (24) garantiert wird. Das Ende dieser Phase ist erreicht, wenn der Zielfunktionswert Null erreicht. Phase 3. Wegen ju = 0 (Nichtbasisvariable!) ist (23) noch nicht erreicht. Um die Lösung zu erhalten, streichen wir zunächst im Lösungstableau der Phase 2 alle den z ; zugeordneten Spalten aus. Damit haben wir die Nebenbedingungen: Ax = b

(28)

2 Cx + v + AV + /ic = 0 x>0,v>0,/i>0 x'v = 0 als zusätzliche Rechenregel. Um (23) zu garantieren, müßte ß = 1 sein. Um dies zu erreichen fugen wir zum Problem (28) hinzu: M0,

i = 1, 2 , . . . , i + ,

Xj > 0, und ganzzahlig i = i + + 1, i + + 2 , . . . , n Wir betrachten also hier nur den sogen, „linearen Fall". (Die Lösung des nichtlinearen Falles stößt noch auf starke Probleme, ist aber grundsätzlich möglich: [B. Körte, W. Krelle, W. Oberhofer: Ein lexikographischer Suchalgorithmus zur Lösung allgemeiner ganzzahliger Programmierungsaufgaben. In: Unternehmensforschung, Bd. 13, 1969, S. 73 ff., 171 ff.]. Folgende spezielle Probleme können unterschieden werden: •

gemischt-ganzzahlige Programmierung:

0 0

Implikation

x existiert nicht, ohne daß auch y existiert

, x - y< 0

Äquivalenz

Beide oder keines existiert

x - y = 0

Vgl. [K.M. Brauer: Binäre Optimierung. Köln, Berlin, Bonn, München 1969, S. 17] Darüberhinaus hat die 0-1-ganzzahlige Programmierung eine Bedeutung für die ganzzahlige Programmierung dadurch, daß jedes ganzzahlige Problem durch binäre Substitution als ein 0-1-ganzzahliges Problem darstellbar ist.

6.3 Ganzzahlige Lösungen in LP

In manchen LP wird auch ohne explizite Beachtung der Ganzzahligkeit immer eine ganzzahlige Lösung erreicht. Das ist der Fall beim Zuordnungsproblem (Personalanweisungsproblem) und beim Transportproblem von HitchcockKoopmans: min. Z =

n

n

S £ cyXjj i=l j=l 2

i—1

X =b (1 . ) ,j = l , 2 , . . . , m 3

'

Z xii = b ( 2 i ) , i = l , 2 , . . . , n j=i ,J x„>0

6. Ganzzahlige Variablen in linearen Programmen

76

Dabei ist 2 b ^ = 2 die Bedingung für die Identität von Empfangs- und i—1 ' j=l 1 Versandmengen, xy gibt die von i nach j zu transportierende Menge an und cy die entsprechenden Transportkosten je Mengeneinheit. Eine der m+n Gleichungen der Nebenbedingungen ist redundant. Die übrigen Bedingungen sind triangulär. Sind deshalb die Koeffizienten des Systems ganzzahlig, so ist auch die optimale Basislösung ganzzahlig (vgl. hier den Satz von Birkhoff: [3, Kap. 15.1,14.2]).

6. 4 Allgemeines zu den Lösungsverfahren a) Das Transportproblem ist ein Spezialfall. Es muß deshalb danach gesucht werden, wie Lösungen in allgemeineren Fällen erarbeitet werden können. Zunächst muß man sich darüber klar sein, daß das Prinzip des Abrundens optimaler nichtganzzahliger Lösungen von LP i.d.R. nicht zur optimalen ganzzahligen Lö-

x* o x x 0

- optimale ganzzahlige Lösung — optimale nichtganzzahlige Lösung - Abrundung der nichtganzzahligen Lösung - zulässige ganzzahlige Lösungen

Abb 9

b) Von Geoffrion und Marsten ist aber dargestellt worden, daß drei andere Prinzipien — in unterschiedlicher Form kombiniert angewendet — zu optimalen ganzzahligen Lösungen fuhren [A.M. Geoffrion u. R.E. Marsten: Integer Programming Algorithms: A Framework and State-of-the-Art Survey. In: Management Science, Vol. 18,1972, S. 465 ff.]. Dieser Darstellung wird hier gefolgt.

6.4 Allgemeines zu den Lösungsverfahren

77

1. Prinzip: Relaxation: Es sei P ein ganzzahliges Optimierungsproblem und F (P) die Menge zulässiger Lösungen. Es soll nun auf eine oder mehrere Nebenbedingungen von P verzichtet werden, womit ein Problem Q entsteht. Nun gelte: F(P)CF(Q). Daraus folgt: a Falls F ( Q ) = 0, so ist F(P) = 0

ß

Sei Z*( ) der optimale Zielfunktionswert eines Maximierungsproblems. Es ist Z*(P) < Z*(Q)

7 Ist die optimale Lösung von Q ein Element aus F(P), so ist sie gleichzeitig eine optimale Lösung von P. Am häufigsten wird Relaxation durch Verzicht auf die Ganzzahligkeitsbedingung betrieben. Nur in Ausnahmefällen (z.B. dem Transportproblem) ist dabei y erfüllt und die Anwendung anderer Prinzipien unnötig. 2. Prinzip: Separation: Ein Problem P kann in Teilprobleme P x , P 2 , . . . , P q zerlegt werden, so daß ein Element aus F(P) einer und nur einer Teilmenge F(P k ), k = 1 , 2 , . . . , q, angehört (Partition der zulässigen Lösungen). Jedes Teilproblem kann entsprechend weiter zerlegt werden. Die Teilprobleme werden gebildet, um sie leichter als das Gesamtproblem lösen zu können. Aus der Menge der Teilprobleme wird jeweils eines entnommen, das Prüfproblem PP = P k , und gelöst. Damit wird Z(PP) bekannt. Max Z(P k ) = Z*(P) liegt nach den Voraussetzungen auf der Hand. In der Frage, wie eine Separation erfolgt, unterscheiden sich wiederum die verschiedenen Lösungsverfahren. 3. Prinzip: Auslotung (Fathoming): Seien h und k Elemente aus der die Teilprobleme kennzeichnenden Indexmenge. Falls man sichern kann, daß zu keinem Element F(P h ) ein Zielfunktionswert gehört, der über Z*(P k ) liegt, so kann P h aus der weiteren Betrachtung ausgeschlossen werden. Wir nennen Ph auch „ausgelotet". Eine Separation von P h ist nicht notwendig. Geoffrion und Marsten geben drei spezielle Auslotungskriterien an, die in Verbindung mit dem 1. Prinzip gewonnen werden. Zur Darstellung nennen wir Q k das durch Anwendung einer Relaxation aus P k entstandene Problem. Man macht sich nun leicht klar: a PK ist ausgelotet, falls F ( Q k ) = 0, weil dann natürlich F(P k ) = 0 auch keine optimale Lösung für P enthalten kann.

ß P k ist ausgelotet, falls Z*(Q k ) < max Z*(P h ), wobei h < k, d.h. alle P h vor P k geprüft worden seien. Das folgt unmittelbar aus der Überlegung, daß Z*(P k ) < Z*(Q k ) und den übrigen Voraussetzungen.

78

6. Ganzzahlige Variablen in linearen Programmen

7 Es sei die optimale Lösung von Q k gleichzeitig ein Element aus F(P k ). Dann ist dies die optimale Lösung von P k und eine zulässige Lösung von P. Falls Z*(Q k ) = Z*(P k ) > max Z*(P h ), wobei die Indices wie in ß interpretiert seien, h so wird Z*(P k ) an die Stelle von max Z*(P h ) gesetzt und P k ist ausgelotet. h Für den Start dieser Vorgehensweise setzt man einen Vergleichswert Z* = - °° fest. Kann durch eine bestimmte Relaxation keines der obigen Kriterien ot, ß, y erfüllt werden, so muß eine andere Relaxation oder eine weitere Separation vorgenommen werden. Durch unterschiedliche Ausgestaltung und Kombination dieser Prinzipien zeichnen sich die speziellen Lösungsverfahren aus. Wir skizzieren einige dieser Verfahren im folgenden.

6.5 Spezielle Lösungsverfahren [Vgl. K. Lüder: Zur Anwendung neuerer Algorithmen der ganzzahligen linearen Programmierung. In: Zeitschr. f. Betriebswirtschaft, 39. Jg., 1969, S. 405 ff.]. Im folgenden wird nur der rein ganzzahlige Fall (i + = 0) betrachtet.

6.5.1 Schnittebenen-Verfahren Diese „klassische" Lösungsidee wurde von R. Gomory entwickelt und mehrfach dargestellt. In ihr wird das Prinzip der Relaxation aller Ganzzahligkeitsbedingungen benutzt, das Problem dann durch ein Verfahren der LP gelöst und die Auslotung nach den Kriterien a und ß vorgenommen. Ist damit die optimale Lösung nicht erreicht, so werden sukzessiv Nebenbedingungen (Schnittebenen) dem Problem zugefugt, wodurch die ursprüngliche Relaxation eingeschränkt wird, bis das Optimum erreicht ist. Nachteil ist, daß eine Vorhersage der notwendigen Zahl zusätzlicher Schnittebenen nicht möglich ist, so daß die optimale Lösung des Problems teuer werden kann. Das Verfahren wird deshalb heute nur noch selten benutzt. Separation kommt nicht vor. Die Durchfuhrung sei skizziert. Zunächst erfolgt die Berechnung der optimalen Lösung des LP ohne Beachtung der Ganzzahligkeitsbedingung. Sind alle Variablen ganzzahlig, so ist das Problem gelöst. Trifft das nicht zu, so behandele man das Problem durch Berechnung der Schnittebenen weiter. Für die Bestimmung der ersten Schnittebene wählt man diejenige Nebenbedingung, die auf der rechten Seite die größte positive Abweichung von einer ganzen Zahl aufweist. Die

6.5 Spezielle Lösungsverfahren

79

Koeffizienten dieser Nebenbedingung werden in einen ganzzahligen und in einen nichtganzzahligen Teil zerlegt. Beispiel: Sei Xj eine Basisvariable und seien xj, Xj+i Nichtbasisvariablen. Außerdem bezeichne < a > die größte ganze Zahl < a und a = < a > + a. Aus der Nebenbedingung Xj + ajXj + aj +1 x J + 1 = b wird X i + « a j > + ä J )xj + « a j + 1 > + a j + 1 )x j + 1 = < b > + b . Durch den ganzzahligen Teil der Nebenbedingung wird eine neue Basisvariable y definiert, die — in die Nebenbedingung eingesetzt — als zusätzliche Nebenbedingung dem jeweiligen Problem zugefugt wird. Beispiel (Weiterfuhrung): äjXj + äj +1 Xj +1 =S + ( < b > - Xi - Xj - < a j + 1 > x j + 1 ) , — ' =y Daraus wird y - ä j x j - a j + i x j + 1 = -t) als zusätzliche Nebenbedingung mit der Basisvariablen y. Auf das so erweiterte LP wird ein Lösungsalgorithmus (z.B. das Simplex-Verfahren) angewendet. Dabei wird als erste Pivotzeile die neue Schnittebene gewählt. Pivotspalte wird diejenige mit einem negativen Koeffizienten in der Pivotzeile, bei mehreren negativen Koeffizienten diejenige mit dem absolut kleinsten Quotienten von Zielfunktionskoeffizient und Koeffizient der Pivotzeile. (Beachte die Ausführung über das Simplex-Verfahren bei b g < 0!) So wird y zur Nichtbasisvariablen. Nach u.U. mehrfacher Durchfuhrung dieser Regeln wird ein ganzzahliges Optimum erreicht, sofern keine Fehler durch Rundungen eintreten. Ein numerisches Beispiel wird — mit Verfahrenserläuterung — bei [9, S. 355 ff.] durchgerechnet.

6.5.2 Enumerative Verfahren, insb. „Branch and Bound"Verfahren Natürlich könnte man ganzzahlige Probleme dadurch lösen, daß man alle Lösungspunkte bestimmt und die mit ihnen assoziierten Werte der Zielfunktion vergleicht. Die Zahl der Lösungspunkte ist endlich. Leider aber ist sie in allen praktischen Fällen so groß, daß diese Methode kein sinnvoller Ausweg ist. Deshalb sind verschiedene Verfahren entwickelt worden, die mit einer teilweisen Aufzählung der möglichen Lösungspunkte auskommen [9, Kap. 10]. Von besonderer

80

6. Ganzzahlige Variablen in linearen Programmen

Bedeutung sind sogenannte „Branch and Bound"-Verfahren, von denen der Ansatz von Dakin skizziert wird [R.J. Dakin: A Tree Search Algorithm for Mixed Integer Programming Problems. In: The Computer Journal, Vol. 8, 1965, S. 250 ff.]; [10, Kap. 13.5, 13.6], Die allgemeinen Prinzipien kommen hierbei alle zum Zuge. Zunächst wird auf die Ganzzahligkeitsbedingungen verzichtet und der Lösungswert des verbleibenden LP als ein Grenzwert (bound) festgestellt. Grundsätzlich werden dann die Auslotungskriterien angewandt, wobei bei Gültigkeit der Nichtnegativitätsbedingungen für die Variablen auch eine Untergrenze für die möglichen Zielfunktionswerte von Null angesetzt werden kann. Es folgt dann bezüglich jeweils eines der nichtganzzahlig bestimmten Werte der Basisvariablen eine Aufspaltung (branching) des Problems. Sei die Basisvariable x* = b£ nichtganzzahlig, so werden nun zwei Programme bearbeitet, eines mit der zusätzlichen Nebenbedingung X; < < b g > , das andere mit der zusätzlichen Nebenbedingung Xj > < b g > + 1. Dabei können ggf. früher aufgestellte Grenzen für die Lösungswerte der Variablen sich als revisionsbedürftig erweisen. Mit den neuen Beschränkungen versucht man wieder ein LP zu lösen, usw., bis das Auslotungskriterium y eine optimale Lösung anzeigt.

6.5.3 Beispiel Ein Unternehmen kann zur Herstellung eines Produktes, dessen Absatz gesichert ist, zwei Typen von Maschinen (i = 1 , 2 ) kaufen. Die Kapitalwerte seien Cj = 1 und c 2 = 2. Die Maschinen verursachen Anschaffungsausgaben von a u = 0,3 TDM bzw. a 1 2 = 1 TDM je Stück, insgesamt darf ihre Anschaffung bi = 5,2 TDM nicht übersteigen. Zur Bedienung sind a 2 i = 0,7 bzw. a 2 2 = 1 Arbeitskraft während der Betriebszeit notwendig, doch sind nur 7 Arbeitskräfte zum Einsatz bereit. Die Installation hat in einer vorhandenen Halle von 8 Flächeneinheiten zu erfolgen; dabei beansprucht jede Anlage vom ersten Typ 1 Flächeneinheit, jede Anlage vom zweiten Typ erfordert 0,3 Flächeneinheiten, wobei ihre kompaktere Bauweise auch im Anschaffungspreis zum Ausdruck kommt. Wieviel Anlagen jeden Typs sollen angekauft werden, wenn der Kapitalwert des Kaufprogramms möglichst groß werden soll? Problemformulierung: max. Z =

X( +

2x 2

0,3xi +

x 2 < 5,2

0,7xj +

x2 < 7

X! + 0,3X2 < 8 x



x 2 > 0 und ganzzahlig

6.5 Spezielle Lösungsverfahren

81

Lösungsweg: a Relaxation durch Aufgabe der Ganzzahligkeitsbedingung. Lösung durch Anwendung des Simplex-Verfahrens, nach Einführung der Schlupfvariablen x 3 , x 4 , x 5 > 0.

B C3 = 0

=0 C5 = 0

¿4

¿2 = 2 C4 = 0 cS = 0

x4

x4 X5 SK

=2 Cl = 1 ¿5 = 0

x2

Zneu

SK

2

0

0

0

Xl

x2

x4

x5

5,2 7 8

0,3 0,7 1

©

X3 1

5,2 1,8 6,44

(0,4) 0,91

1 0 0

0,6 -0,4

2 0

RH

Zneu

C2

1

10,4 10,4

1 0,3

Ausgangstableau

1 1 1 -1 _ -0,3 2 2 1,75

0 1 0

0 0 1

0 0

0 0

3,85 0 4,5 1 2,345 0

1 0 0

_io/4

1,975 -2,275

0 0 1

0,8

1

2

1

1

0

12,2

0

0

1

1

0

-0,75 10/4

1. Umformung

"2. Umformung = Tableau der optim.Lösg. des ersten LP

ß Die Auslotungskriterien sind noch nicht relevant. 7 Die Lösung Xi = 4,5 legt folgende Dichotomisierung nahe: 0 0 neue Schlupfvariablen. S Wir fügen dem durch Relaxation gewonnenen Problem die neue Nebenbedingung (7) (1) zu und lösen wiederum durch die Simplex-Methode.

82

6. Ganzzahlige Variablen in linearen Programmen

B ¿3 = 0 C4 = 0 ¿5 = 0 ¿6 = 0

x3 x4

C2 = 2 C4 = 0 ¿5 = 0 ¿6 = 0

X2 X4

¿2 = 2 C4 = 0 ¿5 = 0 ¿1 = 1

RH 5,2 7 8 4

Cl

c2

C3

c4

es

C6

Xl

x2

X3

x4

x5

x6

(D

1

0,3 0,7 1 1

i 0,3

1

Ausgangstableau

1 1

5,2 0,3 0,4 1,8 6,44 0,91 4 4 ist nicht erforderlich. 0 Abschluß Da keine weiteren Teilprobleme zu prüfen sind, muß das oben in 5 festgestellte Ergebnis als endgültige optimale Lösung des ganzzahligen Programmierungsproblems festgestellt werden.

6.6 Zur Dynamischen Programmierung

Zur Lösung von bestimmten Problemen der nichtlinearen und der ganzzahligen Programmierung ist die sogen. „Dynamische Programmierung" geeignet. Die Bezeichnung sollte nicht zu dem Mißverständnis fuhren, daß sich die Anwendung auf zeitabhängige Entscheidungen beschränkt. Lit.: [G.L. Nemhauser: Einführung in die Praxis der dynamischen Programmierung. München-Wien 1969].

84

6. Ganzzahlige Variablen in linearen Programmen

Die Grundidee der dynamischen Programmierung besteht darin, daß ein komplexes Problem dadurch gelöst wird, daß man es in eine Folge von einfacher zu lösenden Teilproblemen zerlegt, die man im Laufe der Rechnung wieder sukzessive zusammenfaßt. Daraus kann allerdings ein großer Rechenaufwand resultieren. Allerdings gibt es keine Problemlösungstechnik für die dynamische Programmierung, die generell auf alle Probleme anwendbar wäre. Die einzelnen Problemlösungen sind aber einem generellen Prinzip unterworfen (Bellmannsches Optimalitätsprinzip): „Eine optimale Politik hat die Eigenschaft, daß — wie immer frühere Entscheidungen gelautet haben mögen und welche Zustände auch immer durchlaufen wurden — die bis zum Planhorizont verbleibenden Entscheidungen eine optimale Strategie bilden müssen, die nur von den Entscheidungsmöglichkeiten des gegebenen Ausgangspunktes abhängt." [Vgl. R. Bellmann: Dynamic Programming. Princeton/N.J. 1957, S. 83.] Aus diesem Prinzip können Voraussetzungen und allgemeine Prinzipien für die dynamische Programmierung entwickelt werden, die wir hier im Anschluß an [7, S. 243 ff.] darstellen. Voraussetzungen: a Das Problem kann in einzelne „Stufen" aufgeteilt werden.

ß Jeder Stufe ist eine Anzahl von Zuständen zugeordnet, die das Problem auf dieser Stufe einnehmen kann. (Wir haben es hier mit endlich vielen Zuständen zu tun. Diese Einschränkung ist aber nicht notwendig.) 7 Die auf jeder Stufe zu fällende Entscheidung bewirkt, daß das Problem in einen bestimmten Zustand der folgenden Stufe übergeht; (dieser Ubergang kann einer Wahrscheinlichkeitsverteilung unterliegen). Die Entscheidungen werden im Hinblick auf ein gegebenes Ziel getroffen. 6 Gegeben sei eine Verwirklichung des Problems in einem bestimmten Zustand einer bestimmten Stufe. Die optimale Politik für alle folgenden Stufen ist unabhängig von den auf die Vorstufen angewendeten Politiken (Bellmanns Optimalitätsprinzip). Verfahrensregeln: a Das Lösungsverfahren beginnt mit der Suche nach dem optimalen Zustand der letzten Stufe. (In einigen Fällen ist die „letzte" Stufe durch das Problem auf natürliche Weise bezeichnet, z.B. durch den Zeitablauf. In anderen Fällen wird die letzte Stufe willkürlich festgelegt.)

ß Es kann eine rekursive Beziehung definiert werden. Sie läßt die optimale Politik für jeden Zustand erkennen, wenn noch n > 1 Stufen zu durchlaufen sind und wenn die optimale Politik für (n - 1) nach der nächsten Stufe folgenden Stufen bereits bekannt ist.

85

6.6 Zur Dynamischen Programmierung

Die optimale Politik vom Übergang der (n - l)-ten zur n-ten Stufe wird als Spezialfall dieser Regel behandelt. In der Formulierung dieser Beziehung liegt die theoretische und anwendungstechnische Schwierigkeit der dynamischen Programmierung. Es seien s n x c

— gegenwärtiger Zustand des Problems (Entscheidungsgröße), — verbleibende Stufenzahl, — Wert der Entscheidungsvariablen, - Wert des Übergangs von s zu einem Zustand der folgenden Stufe.

Für Probleme, in denen die optimale Lösung additiv aus Teillösungen zusammengesetzt werden kann, sucht man die optimale Lösung W ^ K*n x n

+f;.^»)} •

Gegebenenfalls sind dabei auch Nebenbedingungen zu beachten, die die Variation von x n beschränken. 7 Der Lösungsweg schreitet „rückwärts" von Stufe zu Stufe, doch ist dies eine allein durch die Praktikabilität der Rechnung empfohlene Option. Zur Verdeutlichung schildern wir ein Beispiel, verweisen aber im übrigen auf die Literatur. Es werden drei verschiedene Systeme dreidimensionaler Filmwiedergabe auf holographischer Basis entwickelt. Den Eingeweihten sind sie unter den Codebuchstaben A, B, C bekannt. Das Referat „Neue Technologien" beim BMBW könnte die Systeme eventuell mit Beträgen von 1 Mio DM, 2 Mio DM oder 3 Mio DM fördern, da es den technologischen Vorsprung der deutschen Industrie zum Ziele hat. Die Gelder sollen aus verwaltungstechnischen Gründen — wenn sie vergeben werden — jeweils nur in auf volle Million lautenden Teilbeträgen vergeben werden. Im Rahmen einer Vorstudie möchte der Referent erfahren, wie sich die Wahrscheinlichkeit erfolgreicher Fertigstellung der Systeme in Abhängigkeit von der Förderung verändert. Dabei sind alle zugelassenen Aufteilungen der Beträge auf die drei Labors zu berücksichtigen. Der Sachbearbeiter dieser Studie auf der Planstelle eines Widerrufsbeamten hat die Aufgabe, die die höchste Fertigstellungswahrscheinlichkeit bewirkende Förderstrategie zu erarbeiten. Dazu wird ihm vom Referenten die folgende Tabelle übergeben, die durch ein Beratungsgremium des Ministeriums erarbeitet wurde:

6. Ganzzahlige Variablen in linearen Programmen

86

Wahrscheinlichkeiten der erfolgreichen Entwicklung (p(x n )): Förderung (Mio DM)

Labor

(Wiedergabetyp)

xn

A= 1

B= 2

C= 3

0 1 2 3

0,6 0,7 0,8 0,9

0,3 0,4 0,6 0,9

0,4 0,6 0,7 0,8

Lösungsvorschlag Das Problem kann schnell durch Dynamische Programmierung gelöst werden. Die „Stufen" entsprechen den Forschungsgruppen A, B, C (n = 1, 2, 3). Die Entscheidungsvariable ist der Forderungsbetrag. Diese Variable kann auf jeder Stufe vier Zustände annehmen, die den jeweils noch verfügbaren Beträgen entspricht. Die Erfolgswahrscheinlichkeit der Stufe n sei f n ( s , x n ) . Wir suchen f j ( s ) = max

xn=0,l

s

fn(s,xn)

Für die „letzte" Stufe ist zu suchen: fS = 1 (s) = max

xn=0,l

s

[pn(x n )]»

wobei die umständliche Schreibweise später gerechtfertigt erscheint. Für alle folgenden Stufen sucht man f£(s) = m a x xn=0,l

s

[ p n ( x „ ) + { l - P n ( x n ) } f £ - l ( s " X„)] .

Es könneri Tabellen erstellt werden, so daß ihnen bei Berechnung von f£(s) jeweils f j . i ( s ) , die optimale Vorstufenlösung, entnommen werden kann.

Lösungsweg Wir errechnen die Wahrscheinlichkeitstabellen für die einzelnen Zustände. Für f?(s): s

f!(»)

0 1 2 3

0,6 0,7 0,8 0,9

0 1 2 3

6.6 Zur Dynamischen Programmierung

87

Für f j ( s ) : 1*2 S

0 1 2 3

X„ )

0

1

2

0,72 0,79 0,86 0,93

0,76 0,82 0,88

0,84 0,88

0,96

0

1

2

3

0,832 0,874 0,916 0,976

0,888 0,916 0,944

f|(s)

x

0,72 0,79 0,86 0,96

0 0 0 3

faOO

V* x

0,832 0,888 0,916 0,976

0 1 ©

3

2

f3(s, x n )

0 1 2 3 Darin deutet 0

0,216 0,937

0,944

3

0

an, daß X3 = 0, X3 = 1, X3 = 2 möglich ist.

Lösung: Verfugungsbetrag 1 21 3

1

Empfanger bei optimaler Verwendung (Summe) A B C 1 1

1 3

Beachte, daß hier auch andere Aufteilungen zwischen A und C möglich sind. (Warum nicht auch auf B?) Die Entscheidung ist hier durch das Modell nicht voll determiniert.

7. Netzpläne 7.1 Grundlage: Graphen Grundlage für die Behandlung von Netzplänen, aber auch als eigenständiges Gebiet für die Behandlung ökonomischer Planungsaufgaben von Interesse, ist die Graphentheorie [C. Berge: The Theory of Graphs. London, New York 1966]. Wir definieren zunächst einen Graphen. Seien X eine endliche Menge und U eine Teilmenge des Cartesischen Produkts X(x)X (also eine Menge von geordneten Paaren (x, y), x, y e X). Dann heißt G(X, U) ein Graph. Zur Erinnerung:

B A ©

B (Cartesisches Produkt) Abb. 10

Dabei nennen wir •

x eX

die Knoten

(Punkte oder Ecken, die die Menge X ausmachen)

die Kanten

(Verbindungen zwischen einzelnen Punkten, die alle zusammen die Menge U ausmachen)

und •

(x, y) e U

eines Graphen. Die Kanten können als von x nach y gerichtet aufgefaßt werden. Dann spricht man von einem gerichteten Graphen.

89

7.1 Grundlage: Graphen

Beispiel:

X = { xt, x 2 , x3} U = {x! , X j ) , (X! , X 3 ) , (x 2 , X 3 ) , (x 2 , x 2 ), (x 3 , X 2 ) }

o

x

*1

3

GGraph G (X,U) Abb. 11

Im IR" wird ein Knoten Xj festgelegt durch den Vektor xj = (x^, X j 2 , . . . , Xin). Jedem Graphen kann eine sogen. Adjazenzmatrix zugeordnet werden, die als eine andere Schreibweise des Graphen interpretiert werden kann. Sei X = {xj, x 2 ,J . . . , x m } . Dann wird dem Graphen G(X, U) eine Matrix A = (ay), 1 < i, j < m zugeordnet, wobei: a

'J"{o,(xi,xJ)äU J

Beispiel: Zu dem eben abgebildeten Graphen gehört die Adjazenzmatrix (KnotenKnoten-Inzidenzmatrix) i x3 Xl x2 i i Ii 0 1 Xj i 0 1 1 1 1 \o 1 i x3 o) I Die Aufstellung dieser Matrix ermöglicht überschaubare analytische Operationen mit Graphen. Wir führen nun den Begriff des Weges im Graphen G(X, U) ein. Ein geordnetes m-I\ipel (xi, x 2 , . . . , x j , . . . , x m ) , Xj G X, m > 1, heißt Weg von Xj nach x m im G(X, U), wenn gilt: (xj.xj+oeu, l < i < m - l Die Zahl m - 1 heißt Ordnung des Weges.

7. Netzpläne

90

(Ist x; = Xi+i, so heißt der Weg (xj, Xj) eine Schleife. Wege zurück zu einem Ausgangspunkt über wenigstens einen vom Ausgangspunkt verschiedenen Punkt heißen Zyklen.) Die gebräuchlichste Anwendung der Graphentheorie in der betrieblichen Planung liegt bei der Stücklistenauflösung als Basis für eine Beschaffungs- und Lagerplanung. Durch die bisher geschilderten Eigenschaften könnte durch einen Graphen auch z.B. das Kommunikationssystem eines Unternehmens dargestellt werden. Durch entsprechende mathematische Techniken könnten dann Untersuchungen über notwendige Grundbedingungen des Systems (Zusammenhang, Ordnung der Wege etc.) angestellt werden. Diese Fragestellungen können aber erheblich erweitert werden, wenn man Eigenschaften der Wege, zum Beispiel ihre Länge und Kapazität, in die Untersuchungen aufnehmen kann. Wir führen diese Erweiterung an Hand des folgenden Beispiels ein. Ein Reisender möchte für seine regelmäßige Verkaufsreise von Xj nach x 5 den kürzesten Weg benutzen. Unsere bisherigen Überlegungen gestatten nur sein Wissen über die überhaupt verfügbaren Wege festzuhalten, zum Beispiel durch 1 0 0 0 \ ° 00 \l

f °0

0 0 0 1 0

1 0 0 0 0

1 1 1 0/

Das reicht für die Bestimmung der Entfernung nicht aus. Dazu sind die Kanten zu bewerten. Wir definieren: Bewerteter Graph, Kantenlänge: Seien G(X, U) und L eine Funktion von U in IR (L ordnet jeder Kante in U eine reelle Zahl zu). Dann heiße das Tripel G(X, U, L) ein bewerteter Graph. Die Zahl L(x, y) heißt Kantenlänge der Kante (x, y) E U. Ist ( x j , . . . , x m ) ein Weg in G(X, U, L), so heißt die Zahl L ( x j , . . . , x m ) = m -1

2 i=l

L(xi, Xj +1 ) die Länge des Weges (xj, . . . , x m ) .

Im eben genannten Beispiel wurde das Minimum bezüglich aller möglichen Wege von L(x 1 ; . . . , x 5 ) gesucht. Verschiedene Anwendungen zeigt [9, Kap. 7]. Wir wollen nun einen zyklenfreien, gerichteten und bewerteten Graphen einen Netzplan nennen. In ihnen interessieren besonders kürzeste oder längste Wege. (Flüsse in Graphen werden hier nicht behandelt.)

7.3 PERT-Terminplanung

91

7.2 Untersuchung von Netzplänen Literatur: [N. Thumb: Grandlagen und Praxis der Netzplantechnik. München 1968]. Insbesondere zur zeitlichen Planung komplexer Aufträge hat man zur Mitte der fünfziger Jahre mit der Untersuchung von Netzplänen (Netzwerken, networks) begonnen. Das führte zur Entwicklung einiger grundlegender Methoden: •

der Critical Path Method (CPM), durch M.R. Walker und J.E. Kelley, jr„ (vergleiche die Darstellung in [9, S. 241 ff.] )



der Program Evaluation and Review Technique (PERT), die durch das Special Projects Office der U.S. Navy entwickelt wurde [7, S. 225]



der etwas später entwickelten Metra-Potential-Methode (MPM), die durch die SEMA im Auftrage der Electricité de France für den Bau von Atomkraftwerken entwickelt wurde.

Daneben wurden viele Varianten dieser Methoden entwickelt. Die Ansätze unterscheiden sich in verschiedenen Punkten, zum Beispiel danach, ob Ereignisse Knoten bzw. Kanten sind und Aktivitäten, die von Ereignis zu Ereignis führen, entsprechend Kanten bzw. Knoten. Ein anderer Unterschied liegt in der Behandlung der Unsicherheit bezüglich L ( ) : wird nur mit Erwartungswerten gerechnet (CPM) oder werden auch Abweichungen von diesen berücksichtigt (PERT). Ursprünglich wurden die Untersuchungen auf Netzpläne im oben definierten Sinne beschränkt. Später wurden sie auf Situationen ausgedehnt, in denen L( ) mehrdimensional ist (Zeit, Kosten, Kapazität) und in denen das Auftreten einzelner Knoten oder die Existenz der zu ihnen führenden Kanten nur noch mit einer bestimmten Wahrscheinlichkeit angegeben werden kann (General Activity Networks und Graphical Evaluation and Review Technique). Letztere werden besonders in der industriellen Entwicklungsplanung eingesetzt. Wir stellen hier wieder nur einen verbreiteten Ansatz vor und behandeln die Terminplanung mit PERT.

7.3 PERT - Terminplanung Vgl. auch [6, S. 180 ff.]; [Special Projects Office, Department of the NAVY: PERT Summary Report, Phase 1. Washington/D.C. 1958]. Folgende Konventionen werden getroffen. Die Knoten eines Netzwerks entsprechen Ereignissen, die Kanten den Tätigkeiten. Jede Kante ist bewertet mit einer erwarteten Tätigkeitsdauer und ihrer Streuung. Die Tätigkeitsdauern sind

92

7. Netzpläne

Zufallsvariablen, deren Dichtefunktion die Beta-Verteilung sei. Diese Annahme wird rein intuitiv begründet. Die Bewertungen der einzelnen Kanten sind voneinander unabhängig. Folgendes Problem sei zu lösen: Ein (Fertigungs-)Auftrag besteht aus n Teilaktivitäten, die in einem zeitlichen Zusammenhang stehen. Einzelne dieser Teilaktivitäten können erst begonnen werden, wenn bestimmte andere (Vorgänger) völlig abgeschlossen sind. Andere Aktivitäten können parallel bearbeitet werden. Der Auftrag wird im Zeitpunkt Null begonnen. Gegeben sind: • die Liste der Ereignisse, • die Liste der Tätigkeiten i = 1, 2 , . . . , n, • die Folgeordnung der Tätigkeiten, • die Tätigkeitsdauern mit drei speziellen Angaben, — der wahrscheinlichsten Tätigkeitsdauer m; — der minimalen Tätigkeitsdauer ai — der maximalen Tätigkeitsdauer bi

der i-ten Tätigkeit

Zeit Abb. 12

Gesucht wird nach der Beendigung der Auftragsbearbeitung mit vorgegebener Wahrscheinlichkeit. Zur Lösung des Problems werden vier Schritte vorgesehen. Erster Schritt: Errechnung der charakteristischen Einzelheiten der i-ten Aktivität. Berechnet werden die erwartete Tätigkeitsdauer t ; der i-ten Aktivität und ihre StreuungCT;.Zur Erleichterung der Rechnungen werden beide Größen aus der

93

7.3 PERT-Terminplanung

Beta-Verteilung nicht exakt, sondern nur angenähert bestimmt. (Zu den dabei in Kauf genommenen Fehlern vergleiche man die Literatur.) Diese Annäherungen fuhren zu ti=i(ai + 4mi+bi)

(30)

^¿(bi-aO

(31)

und

Anmerkung: Für jedes Ereignis X; existiert ein Zeitpunkt frühest möglicher Fertigstellung t j F , wenn keine der Tätigkeitszeiten Zufallsschwankungen unterliegt. Ebenso gibt es einen Zeitpunkt tj S , tj F < tj S , der nicht überschritten werden darf, wenn der frühest mögliche Zeitpunkt der Projektfertigstellung eingehalten werden soll.

Abb. 13

Die Zahlen an den Kanten geben die Zeitdauer der Aktivität an. Die Null weist auf eine Scheinaktivität hin: die zu D oder E führenden Aktivitäten können erst begonnen werden, wenn B und C erreicht sind. Ereignis A

B

C

C'

D

E

F

t. F

0

3

2

3

4

7

9

t-s

0

3

3

3

7

7

9

t-s-t-p 0

0

1

0

3

0

0

t. s - t. F heißt Pufferzeit (Schlupf) t. p Definition: Der kritische Weg ist ein Weg vom Anfangs- zum Endknoten, auf dem alle Pufferzeiten Null sind. Kritischer Weg des Beispiels: A-B-C'-E-F. Dieses Konzept kann unter Benutzung von Erwartungswerten auch auf den Fall der mit Zufallseinflüssen behafteten Dauer der Aktivitäten übertragen werden.

94

7. Netzpläne

Zweiter Schritt: Berechnung der charakteristischen Gesamtzeiten des Netzwerks Es sei I ein Weg vom Anfangsknoten zum Endknoten des Netzwerks. Die Menge (Gesamtheit) der Wege sei f. I £ f . Es wird vorausgesetzt, daß die Zahl der Teilaktivitäten ausreichend groß sei (in fast allen Lehrbuchbeispielen ist diese Voraussetzung verletzt), damit man nach dem zentralen Grenzwertsatz davon ausgehen kann, daß die Gesamtzeit für die Fertigstellung eine normalverteilte Zufallsvariable ist. Wir suchen für einen beliebigen Weg I T(I) = |

tj

(32)

und a2(I)=|af fei

(33)

(Man beachte hier die Annahme der Unabhängigkeit!) Die erwartete Gesamtfertigstellungszeit liegt beim längsten erwarteten Weg durch das Netzwerk: T = max T(I) (34) Dieser Erwartungswert zeigt aber an, daß in 50% aller Fälle Fertigstellungen zu diesem Zeitpunkt und früher (bzw. später) vorkommen, wenn T wirklich normalverteilt ist. Unter Beachtung dieser Vereinfachung bestimmen wir im nächsten Schritt auch die Pufferzeit. Die Varianz der Fertigstellungszeit a 2 ermittelt man nach (33), indem für I der aus (34) bekannt gewordene längste oder kritische Weg durch das Netzwerk berücksichtigt wird. Dritter Schritt:

Analyse der Pufferzeiten

Die erwartete Fertigstellungszeit des gesamten Auftrages T bestimmt sich aus der Summe der erwarteten Fertigstellungszeiten der einzelnen Aktivitäten auf dem „kritischen Weg" des Netzwerks. Weichen die tatsächlichen Fertigstellungszeiten auf diesem Weg von den Erwartungswerten ab, so beeinflußt dies i.d.R. unmittelbar den erwarteten Fertigstellungszeitpunkt T. Verzögerungen bei Aktivitäten auf anderen Wegen können dagegen in bestimmtem Umfange durch Pufferzeit ohne Wirkung für den erwarteten Fertigstellungszeitpunkt abgedeckt werden. Deshalb ist eine Analyse der erwarteten Pufferzeit interessant. Wir definieren die erwartete Puffeizeit tjp als Differenz zwischen den Erwartungswerten spätester und frühester Verwirklichung eines Ereignisses Xj, j > 1, das dem Netzwerk angehört: tjp = t j s - t j F , j = 2, 3 , . . . , n. Die erwartete frühest mögliche Verwirklichung t j F wird analog T bestimmt.

(35)

7.3 PERT-Terminplanung

95

Also: tjF=

1

max 2 tj, i j e S i j 'Glij

(36)

worin die Menge aller Wege von Xj, dem Anfangsereignis, zu Xj, dem j-ten Ereignis, ist und ein Element aus dieser Menge, also einen möglichen Weg ( x i , . . . , Xj), darstellt. Die spätest zulässige Verwirklichung bestimmen wir als tjs=T-

max 2 t,, 'jn^Sjn '^Ijn

(37)

worin T aus (34) entnommen wird, f j n die Menge aller Wege von Xj zum Endereignis x n darstellt und Ij n ein Element aus dieser Menge, also einen möglichen Weg ( x j , . . . , x n ) darstellt. Insgesamt erhalten wir also für (35) durch Einsetzen von (36) und (37): tjp = T -

max £ t j - max £ t;. Ijn^fjn i e i j n ' l j ^ f l j iSl^

(38)

Natürlich kann auch die erwartete Varianz zu dieser Pufferzeit bestimmt werden, wobei wir diese als 0

iF=aiS

JP

+

JS

°iF

=

jF

2

e

+

°2i+

1

ö

e

+

i

I

(39)

lj jn definieren und die Wege bzw. hier wieder die in t p bekannt gewordenen ,.kritischen" Wege sind. Vierter Schritt: Wahrscheinliche Fertigstellungszeiten des Projekts Wir suchen den Fertigstellungszeitpunkt T, der mit der vorgegebenen Wahrscheinlichkeit a nicht überschritten wird, also a =P {ö 0: = X P n - i ( t ) - (X + M) Pn(t) + MPn + l(t)

^ Falls

lim Pn(t) = P„ so folgt lim ^ > t ^ . - dt

= 0.

Aus den obigen Differentialgleichungen erhält man durch Einsetzen und Umformen für den Fall 1 mit n = 0: Pi=jFo, für den Fall 2 mit n > 0: p

r

n+l

=

X p . MPn ~ XPn-i Mi T /X ¡1



104

8. Warteschlangen

Durch fortgesetztes Einsetzen kann man leicht /iP„ = XP n .,

(43)

nachweisen. DJi. der Fall n = 0 ist auf n > 0 in seiner Aussage zu übertragen. Dann kann man weiter einsetzen Pn = ^ P „ - l = ^ P n - 2 = . . . = ( £ ) n P 0 .

(44)

Der Ausdruck ^ heißt Verkehrsdichte oder Kapazitätsausnutzung des Systems oder auch mittlere Zahl der tätigen Abfertigungsstellen. Da nun 2

n=0

P„=l

und für alle sinnvollen Fälle

so daß n

£ (*)"_ 1 =ö ^ "i_A M

nach der Summenformel für unendliche geometrische Reihen, erhält man unter Anwendung dieser Beziehungen auf (44), d.h. durch Summation auf beiden Seiten: Po=l-£

(45)

und damit

Eingesetzt in die Gleichung (42) für L errechnet sich

Damit ist der Gleichgewichtszustand voll beschrieben. Durch einige numerische Angaben sollen die Ergebnisse verdeutlicht werden: Beispiel: An einem Auskunftschalter mögen Kunden mit der Ankunftrate X = 3 [Kunden/Minute] ankommen. Die Abfertigungsrate betrage ß = 5 [Kunden/ Minute], • Die Kapazitätsauslastung des Systems ist X//I = 0,6 •

Die Wahrscheinlichkeit für E„ ist im Gleichgewichtszustand:

8.2 Ein elementarer Warteprozeß: M/M/l



Die mittlere Schlangenlänge beträgt L=



105

= 1,5 [Personen]

Die mittlere Wartezeit beläuft sich auf W = | • 1,5 = 0,5 [Minuten],

Die grundlegenden Wartesysteme entsprechend der eingangs angeführten Systematik sind untersucht. Die gegenwärtigen Bemühungen zielen auf die Behandlung von Erscheinungen wie Betriebsstörungen in Wartesystemen, variable Bearbeitungszeiten in Wartesystemen etc. 1 . Praktische Anwendungen sind bei der Analyse von Patentanmeldungen, der Untersuchung von Verkehrsströmen 2 , der Produktionsplanung, dem Layout von Abfertigungsgebäuden usw. vorgekommen.

Vgl. hierzu die Arbeit: K.H.F. Meyer: Wartesysteme mit variabler Bearbeitungsrate. Berlin, Heidelberg, New York 1971. (Lecture Notes in Economics and Mathematical Systems No. 61). 2

Z.B.: F.H. Haight: Mathematical Theories of Traffic Flow. New York, London 1963; D.C. Gazis: Traffic Flow and Control. Theory and Applications. In: American Scientist, Vol. 60, 1972, S. 4 1 4 - 4 2 4 .

9. Das Grundmodell der Spieltheorie 9.1 Überblick Die Spieltheorie darf nicht verwechselt werden mit einer Wissenschaft des Spielens. Letztere könnte die Anlage, Durchführung und Analyse von Spielen zum Gegenstand haben, die zum Zwecke der Unterrichtung, Unterhaltung, Ausbildung, zur Diagnose und Therapie von Verhaltensweisen etc. durchgeführt werden (dazu vgl. man die Ausführungen von [M. Shubik. In: Game Theory and Gaming. Sonderheft zu Vol. 18/5. Management Science, herausgeg. v. M.F. Shakun: On the Scope of Gaming, S. P-20 ff.; On Gaming and Game Theory, S. P-37 ff.]). Spieltheorie ist die Bezeichnung für eine Menge mathematischer Modelle, durch die Entscheidungssituationen untersucht werden, in denen die einzelne Entscheidungseinheit (der „Spieler") • von anderen Entscheidungseinheiten verschiedene Ziele verfolgt, • keine vollkommene Kontrolle über die anderen Entscheidungseinheiten ausübt, • der Zielerreichungsgrad der betrachteten Entscheidungseinheit aber trotzdem nicht allein von der Wahl aus den eigenen Handlungsalternativen abhängt, sondern auch von der Wahl aus den den übrigen Entscheidungseinheiten zur Verfügung stehenden Handlungsalternativen. Die Spieltheorie hat ihre wesentliche theoretische Grundlage in dem Buch "Game Theory and Economic Behavior" (Princeton 1944) von J. v. Neumann und 0 . Morgenstern erhalten. Der Titel deutet schon an, daß ihre Entwicklung in klarem Bezug zu ökonomischen Problemen gesehen wurde. Zur spieltheoretischen Untersuchung bieten sich z.B. an: Preisbildungsprozesse in Oligopolen (wobei Spieler und Gegenspieler als rational handelnde Personen auftreten) oder die naturwissenschaftliche Forschung (wobei der Spieler gegen die „neutrale Natur" antritt, der „Gegenspieler" also nicht exakt entgegengesetzte Ziele durchzusetzen versucht). Bisher sind die praktischen Anwendungen der Spieltheorie noch sehr beschränkt. Lehrbuchliteratur: [6, S. 70 ff.], [7, S. 265 ff.], [9, S. 419 ff.], [3, Kap. 13], [R.D. Luce und H. Raiffa: Games and Decisions. 3. A. New York 1958]. Ziel der Spieltheorie ist es, eine im Sinne der entgegengesetzten Ziele der Spieler möglichst günstige Folge von Spielzügen für jeden der Spieler sichtbar zu machen, wobei ggf. eine Gleichgewichtssituation als „Lösung" angegeben werden kann. Beides kann nur gelingen, wenn man dem Spiel eine gewisse formale Struktur ver-

107

9.1 Überblick

leiht. Diese soll hier nur wieder für die Basis aller spieltheoretischen Überlegungen, das Zweipeisonen-Nullsummen-Spiel1, beschrieben werden. Es ist durch folgende Struktur gekennzeichnet: • Spieler sind zwei Personen oder eine Person und eine imaginäre Person, die „Natur". Beim Gegenübertreten von natürlichen Personen unterstellt man rational (bewußt) handelnde Gegner, von denen jeder seinen ,.Nutzen" (Spielgewinn) maximieren will. • Was die eine Seite gewinnt, verliert die andere Seite (Nullsummenspiel). • Jede Seite hat Handlungsalternativen i = 1, 2 , . . . , n bzw. j = 1, 2 , . . . , m und kann alle relevanten Handlungsalternativen bezeichnen. • Bei vollkommener Information kann jede Seite für das hypothetische Zusammentreffen der eigenen und der gegnerischen Handlungsalternative den erwarteten Nutzen angeben. Er wird in der Auszahlungsmatrix für das Spiel festgehalten: oi. = (ay), i = 1, 2 , . . . , n , j = 1, 2 , . . . , m. • Die Zahl der Spielzüge ist bekannt (aber nicht notwendig endlich). • Jeder Spieler bestimmt seine Strategie (Auswahl der Spielzüge) nach einer Regel, die wenigstens implizit auch sein Risikoverhalten (Risikoscheu, Risikofreudigkeit) enthält. Risikoscheues Verhalten, das wir im folgenden Abschnitt unterstellen, wird z.B. durch die sogenannte „Minimax-Regel" ausgedrückt. Andere Regeln seien nur beispielhaft aufgezählt: das Maximax-Kriterium risikofreudigen Verhaltens, das Laplace-Kriterium risikoneutralen Verhaltens; Zwischenformen und Abwandlungen des Risikoverhaltens fangen die Savage-, Hurwicz- oder Hodges-Lehmann-Kriterien ein. Der formale Aufbau eines Spiels, in dem ay die „Auszahlungen" an Spieler A bei Realisation der Handlungsalternativen i und j sind ( - ay wird an B „ausgezahlt"), wird im folgenden Schema gezeigt: Handlungs alternativen Spieler A Handlungsalternativen Spieler B

1 2

n 1

1

2

..

an 21

a12

-.

a

a

22

- •

a

a

an2

• •

a

a

nl

m

a

lm 2m

nicht Vorzeichenbeschränkt

ij

nm

Die Bezeichnung gibt einen Hinweis auf die vernachlässigten Typen von Spielen: Mehrpersonenspiele, Konstantsummenspiele, Nicht-Konstantsummenspiele (die Summe der Gewinne und Verluste der Spieler variiert mit den einzelnen Strategien).

108

9. Das Grundmodell der Spieltheorie

Bei der Betrachtung eines solchen Tableaus für den Spieler A kann man das Ziel so darstellen, daß er seinen Gewinn zu maximieren versucht, B seinen Verlust zu minimieren versucht. Gewinn oder Verlust sind dann spezielle Formen des Nutzens. Es gibt andere Darstellungsweisen von Spielen, die von der hier gezeigten „Normalform" abweichen. Für Spiele mit wenigen Spielzügen ist z.B. die Darstellung in der „extensiven Form" als Entscheidungs- und Spielbaum gebräuchlich. Diese Darstellungsweise zeigt jeweils deutlich, welcher Spieler „am Zuge" ist und was die Konsequenzen seines Handelns sind. (Können Sie sich vorstellen, wie sich Entscheidungsbäume und Spielbäume voneinander unterscheiden? Wie kennzeichnen Sie eine Strategie im Entscheidungsbaum?) Eine weitere Darstellungsart liegt in der Form der „charakteristischen Funktion". Diese Darstellungsart empfiehlt sich besonders für hier nicht betrachtete Mehrpersonenspiele, bei denen die Spieler unterschiedliche Koalitionen eingehen können. Für jede echte, nicht leere Teilmenge aus der Menge der Spieler gibt die charakteristische Funktion den Wert des Spiels an, den die jeweilige Teilmenge von Spielern (ggf. eben auch nur ein einzelner Spieler) für sich gegenüber den anderen Spielern unter Beachtung der Spielregeln realisieren kann. Neben die bisher skizzierten Spielregeln treten i.d.R. mindestens noch die Nebenbedingungen der sogen, individuellen Rationalität (kein Spieler erhält in einer beliebigen Koalition weniger, als er bei alleiniger Spielweise erhalten würde) und der sogen. Gruppen- oder Pareto-Rationalität (der größtmögliche Wert des Spiels wird auf alle Spieler aufgeteilt; ein Spieler kann seinen Anteil daran nur zu Lasten eines oder mehrerer anderer Spieler verändern). Im folgenden betrachten wir nur das Zweipersonen-Nullsummen-Spiel in Normalform.

9.2 Die „Lösung" des Grundproblems Für die Behandlung dieses Entscheidungsproblems können wir zunächst prüfen: Liegen dominante Strategien vor? Das ist dann der Fall, wenn unabhängig von der vom Gegner tatsächlich ausgewählten Handlungsmöglichkeit die Auswahl der eigenen Handlungsmöglichkeit erfolgt. Diese Situation ist spiel theoretisch und praktisch uninteressant. Sie wird nicht weiter verfolgt. Als zweites kann die Frage untersucht werden, ob auch bei mehrfacher Wiederholung desselben Spiels immer wieder dieselbe Handlungsmöglichkeit von jedem der Spieler gewählt wird. Wir stellen an Hand des folgenden Beispiels die Überlegung an: welche Handlungsmöglichkeit soll ein Spieler wählen?

9.2 Die „Lösung" des Grundproblems

109

A 1

2

3

H

@

-1

(0]

-2

3

-1

1

4

0

|T]

1 B

2

©

[Tj -1

Auszahlungsmatrix

Wir betrachten nun zunächst A. Wählt er eine Spalte j aus, so vermutet er, daß B eine Zeile i so wählen könnte, daß sein Gewinn möglichst klein würde. Das führt zu den umkreisten Lösungsmöglichkeiten. D.h.: A merkt sich die Spaltenminima. Von diesen sucht er das Maximum [maximales Nutzenminimum]; die diesem zugeordnete Strategie zu wählen, bringt ihn bei der vorausgesetzten Annahme über die Verhaltensweise von B in die vergleichsweise beste Situation hinsichtlich der Erfüllung seiner Ziele.

Umgekehrt ist es für B sinnvoll, die Zeilenmaxima zu bestimmen. Wählt er nämlich etwa die Handlungsmöglichkeit 1, so würde sein Ziel dann am wirkungsvollsten verfolgt, wenn A die Handlungsmöglichkeit 3 wählte. Als risikoscheue Person rechnet B aber damit, daß A dann die Handlungsmöglichkeit 2 tatsächlich wählt. So werden die erwarteten Lösungen umkästelt. Von diesen sucht er das Minimum [Minimales Nutzenmaximum], und die diesem zugeordnete Strategie ist für B bei den Voraussetzungen über das Verhalten von A eine vorgezogene Strategie. Treffen Zeilenmaxima und Spaltenminima bei einem Element ay zusammen, so hat das Spiel einen Sattelpunkt; man nennt es auch „strikt determiniert".

Strategien des A Abb. 17

Das Spiel unseres Beispiels ist „strikt determiniert". Es hat einen Sattelpunkt „in den reinen Strategien" (Strat. 2 für A und Strat. 2 für B).

9. Das Grundmodell der Spieltheorie

110

Die hier vorgetragene Lösung ist bestimmt durch das Maximin-Prinzip. Durch Umkehrung der Rollen der Spieler — B maximiert, A minimiert die in der Tabelle eingetragenen „Auszahlungen" — wird dieselbe Überlegung im MinimaxPrinzip verwirklicht. Es sagt aus: Min (Max ay) < a r s < Min (Max ay)

(48)

Darin seien r bzw. s Elemente aus der Menge der Strategien von B bzw. A. Für den Sattelpunkt gilt in (48) das Gleichheitszeichen. a r s heißt dann „Wert des Spiels". Zweipersonen-Nullsummen-Spiele müssen nicht strikt determiniert sein, d.h. einen Sattelpunkt aufweisen, der bei Verfolgung reiner Strategien erreicht wird. Auch fiir solche Spiele wird aber eine Lösung gesucht. Sie ist „unstabil", d.h. nicht mehr mit Sicherheit durch Verfolgung einer der Handlungsalternativen zu erreichen. Bei mehrfacher Wiederholung eines Spiels ohne Änderung der Auszahlungsmatrix uv können dem Minimax-Prinzip entsprechende Wahrscheinlichkeiten (relative Häufigkeiten) für die Wahl einzelner Handlungsmöglichkeiten während des gesamten Spielablaufs angegeben werden. Entsprechend diesen Wahrscheinlichkeiten werden die reinen Strategien nach einem Zufallsprinzip gewählt (und gewechselt). Man nennt dies die Verfolgung einer gemischten Strategie. Sei ut = (ay) eine Auszahlungsmatrix. Der Spieler A habe die Wahl der Handlungsmöglichkeiten in den Zeilen i = 1, 2 , . . . , n, B wähle in den Spalten j = 1 , 2 , . . . , m seine Handlungsmöglichkeiten. Es seien p; und qj Wahrscheinlichkeiten fiir die Wahl der i-ten Zeile und der j-ten Spalte. Also 0 < {pi.qA < l , S '

v

P i

i •

=l,

Zqj=l.

iJ

Es gilt nun folgender Satz (v. Neumann): Für A existiert eine optimale gemischte Strategie p j , p | , . . . , pS, bei der sein erwarteter Nutzen größer oder gleich dem Wert des Spiels v ist. Für B existiert eine optimale gemischte Strategie »12> - • •, qm, bei der der erwartete Nutzen kleiner oder gleich v ist. (Vgl. Abschnitt 17.6 bei [J. v. Neumann und 0 . Morgenstern]). Die optimale gemischte Strategie kann im Falle zweier Handlungsmöglichkeiten fiir einen der Spieler graphisch ermittelt werden. Wir zeigen dies in folgendem Beispiel. Gegeben sei ein durch folgende Auszahlungsmatrix gegebenes Spiel: B

A

2). Hier muß unterschieden werden zwischen Spielen, in denen Koalitionen zwischen einzelnen Spielern zugelassen sind oder nicht. Im ersten Falle erfolgt eine Aufteilung der Gewinne der Koalition auf ihre Teilnehmer. Damit eine Koalition zustande kommt, darf keine Teilmenge von Spielern aus der Koalition weniger an Auszahlungen erhalten, als sie sich ohne Teilnahme an der Koalition sichern könnte (individuelle Rationalität). Sind Koalitionen nicht zugelassen, so können die „nichtkooperativen N-Personen-Spiele" spielbedingte oder persönlichkeitsbedingte Lösungen (W. Krelle und D. Coenen, Das nicht kooperative Nichtnullsummen-Zwei-Personenspiel. In: Unternehmensforschung, Bd. 9, 1965, S. 57 ff., 137 ff.) haben.

114

9. Das Grundmodell der Spieltheorie

Weiter kommen Spiele vor, in denen mehrere (nicht notwendig endlich viele) Spielrunden aufeinander folgen, wobei ein besonderes Problem darin bestehen kann, daß der Ausgang jeder Runde die jeweils folgende Runde beeinflußt. Auf diese Weise können z.B. optimale Entscheidungsfolgen gegenüber einem rational handelnden Gegner dargestellt werden [W. Krelle in: Systems Management. Arbeitsgemeinschaft für Forschung des Landes Nordrhein-Westfalen, Heft 199. Köln, Opladen 1970]. Allgemeine Lösungen der hier dargebotenen Entscheidungssituation existieren noch nicht. Ökonomen werden schließlich ein besonderes Interesse an Lösungen zu Spielen haben, die zusätzliche Nebenbedingungen einzuhalten gestatten. Für einige dieser Fälle liegen Lösungen vor.

10. Einige Worte zur Simulation

Literatur: [7, Kap. 14]; [P. Mertens: Simulation. Stuttgart 1969]; [10, Kap. 21]. In Abb. 1 haben wir für Probleme, die aufgrund von Nichtlinearitäten durch analytische Techniken unlösbar werden, oder für ganzzahlige Probleme, bei denen der Problemumfang eine analytische Lösung unmöglich erscheinen läßt, einen Ausweg zur Lösung vorgeschlagen: die Simulation. Neben der in Abb. 1 angesprochenen Suche eines Optimums kann das Studium des Verhaltens eines Systems Aufgabe der Simulation sein, wie es z.B. für Warteschlangen untersucht werden soll. In beiden Fällen wird die Lösung aber nicht nach einem Lösungsverfahren voll analytisch bestimmt. Man unterscheidet deterministische Simulationsmodelle, bei denen alle Daten deterministisch sind, von stochastischen Simulationsmodellen, in denen die Zufallsschwankungen, denen die Daten unterliegen, das Ergebnis beeinflussen. Beispiel 1: Eine Fläche soll einheitlich mit Wohnungen bebaut werden, so daß die Durchschnittskosten je (künftigen) Einwohner minimal werden. Unter Beachtung aller Bauvorschriften (Aufzugzwang, Hausabstand, Schaffung von Einstellplätzen für PKW etc.) ist die dem Ziel entsprechende Bebauung (Architektur) für eine gegebene Zahl von Einwohnern zu suchen. — Es handelt sich hier um ein wegen seiner Größe praktisch unlösbares ganzzahliges Programmierungsproblem. Durch „Simulation" verschiedener Bebauungsarten werden bei bekannten und deterministischen Kostenfunktionen einzelne Punkte der Stückkostenfunktion dargestellt. Das geschieht so häufig, daß die Kurve durch die ermittelten Punkte die Feststellung einer zielentsprechenden Bebauung ermöglicht. [H. Albach und 0 . Ungers: Optimale Wohngebietsplanung. Wiesbaden 1969.] Beispiel 2: Die Entwicklung eines Unternehmens setze sich aus der Entwicklung einzelner Produkte zusammen. Ihr Absatz könne als ein „Lebenszyklus" dargestellt werden, einer Funktion, die konkave und konvexe Abschnitte umfaßt. Sie werde auch beeinflußt durch die der Produkteinführung vorausgehenden Forschungsanstrengungen, über deren Erfolg allerdings nur Wahrscheinlichkeitsaussagen möglich sind. Die Aufgabe, einen gewinnmaximalen Wachstumsprozeß des Unternehmens analytisch durch die Lösung beschränkter Differenzengleichungen abzuleiten, scheitert an der Vielfalt der nichtlinearen Zusammenhänge, die durch die stochastischen Elemente noch komplizierter werden. Es bietet sich an, mehrfach die Unternehmensentwicklung unter Einhaltung aller Nebenbedingungen durchzuspielen, bis Strategien optimalen Wachstums erkennbar werden [H. Albach: Simulation Models of Firm Growth. In: German Economic Review, Vol. 5, 1967, S. 1 ff.].

116

10. Einige Worte zur Simulation

Wie bei der Dynamischen Programmierung können zur Simulation nur sehr grobe Hinweise auf wesentliche Problemebenen gegeben werden, soweit diese — z.B. hinsichtlich der Modellformulierung — nicht schon bekannt sind. Die Mehrheit der Simulationen wird durch Rechenanlagen statt von Hand durchgeführt. Der Grund liegt wesentlich in der notwendigen Häufigkeit der Durchrechnung der Modelle. Zur Erleichterung der Programmerstellung sind spezielle Programmiersprachen (Dynamo; General Purpose Systems Simulator; Simscript) verfügbar. Für stochastische Simulationen ist die Ermittlung von Zufallszahlen aus der jeweils angenommenen Verteilung der stochastischen Systemelemente entscheidend. Hierfür stehen zwei Wege offen: Ablesen der Zufallszahlen aus Zufallszahlentabellen oder modellinterne Erstellung einer Zufallszahlentabelle, wofür in der Literatur verschiedene Verfahren angegeben werden. Diese Techniken sind teilweise als Standardprogramme für Rechenmaschinen verfugbar. Ihre Güte beurteilt man danach, nach wieviel Zufallszahlen sich ihre Erzeugung erstmals exakt wiederholt oder eine periodisch sich wiederholende Folge von Zahlen einstellt. Rechteckverteilte Zufallszahlen können in Zufallszahlen anderer Verteilungsform transformiert werden [R. Koxholt: Die Simulation — ein Hilfsmittel der Unternehmensforschung. Würzburg, Wien 1967, S. 50 f.]. Ein vereinfachtes Bild der Vorgehensweise gibt Abb. 19. Hier ist x eine rechteckverteilte Zufallszahl, die aus dem Intervall [0,x) genommen ist. Sie wird in die rechteckverteilte Zufallszahl y aus dem Intervall [0,1) durch y = | x transformiert. Diese wird über z = F(y) in x die Zufallszahl z transformiert, die der gewünschten Verteilung unterliegt.

Abb. 19 Beim Problemaufbau interessiert insbesondere, wie viele „exogene Größen" oder Faktoren mit jeweils wie vielen Einstellungen oder Werten vorkommen. Es muß dann ausgewählt werden, ob diese alle variiert und durchgeprüft werden sollen oder ob sich hier eine Beschränkung nach statistischen Gesichtspunkten erreichen

117

10. Einige Worte zur Simulation

läßt (Problem der Faktorauslegung). Daneben ist zu beachten, daß sich häufig die Ergebnisse in unmittelbarer Folge des Starts der Simulationen von denen nach Erreichen einer Art Gleichgewichtszustand des Modells wesentlich unterscheiden. Einen anderen Problemkreis bildet die Auswertung von Ergebnissen aus Simulationen. Hier werden die Methoden der mathematischen Statistik herangezogen, doch besteht die Tendenz, daß je mehr Gesichtspunkte für ein Simulationsmodell zusammenkommen, umso weniger Voraussetzungen für die Anwendung der Methoden der mathematischen Statistik erfüllt sind. Hier sind auch spezifische Überlegungen zur Simulation entwickelt worden. (Einen Einstieg in die Literatur vermittelt [R.L. van Horn: Validation of Computer Simulation Results. In: Management Science, Vol. 17, 1971, S. 247 ff.]). Besonders schwierige statistische Probleme stellen dabei diejenigen Simulationen dar, in denen die interessierende Variable x t , t = 1, 2 , . . . ,