Einführung in die Leistungsbewertung und Verkehrstheorie 9783486595031, 9783486578829

Dieses Lehrbuch vermittelt die gängigen Methoden der Modellbildung und Analyse technischer Systeme, die in der Leistungs

191 60 6MB

German Pages 294 [309] Year 2005

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Einführung in die Leistungsbewertung und Verkehrstheorie
 9783486595031, 9783486578829

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Einführung in die Leistungsbewertung und Vehrkehrstheorie Von Phuoc Tran-Gia 2. Auflage

Oldenbourg Verlag München Wien

Prof. Dr. Phuog Tran-Gia ist seit 1988 Professor für Informatik an der Universität Würzburg, Lehrstuhl für verteilte Systeme.

Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2005 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Margit Roth Herstellung: Anna Grosser Umschlagkonzeption: Kraxenberger Kommunikationshaus, München Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Grafik + Druck, München ISBN 3-486-57882-0

Für Wally, Johannes und Thomas

Vorwort zur zweiten Auflage Diese Fass ung ist die zweite Auflage des Lehrbuches “Analytische Leistungsbewertung verteilter Systeme“ (Springer-Verlag, 1996). Neben der notwendigen Präzisierung des Titels zu „ Einführung in die Leistungsb ewertung und Verkehrstheorie “ wurden Anregungen, die ich von m einen St udierenden und Mitarbeitern an der Uni versität Würzburg in den letzten neun Jahren erhalten habe, eingearbeitet. Einige Methoden, die i n Forschungskooperationen in der letzten Zeit häufig verwendet werden, wurden hinzugefügt (z.B. die Dimensionsreduktionsmethode nach Kaufman & Roberts). Für die Hörer der Vorlesung „Leistungsbewertung verteilter Syste me“ in Würzburg m öchte ich darauf hinweisen, dass Kapitel 1 bis eins chließlich Kapitel 5 in der Veranstaltung verwendet werden. Bei der Entstehung dieser Auflage ha ben viele Mitarbeiterinnen und Mitarbeiter meines Teams am Lehrst uhl für Informatik III, U niversität Würzburg, m itgeholfen. In e rster Linie möchte ich Dipl.-Inform. T. Hoßfeld, B. auf dem Graben, M. Brotzeller und V. Himmler für die engagierte und unerm üdliche Mitarbeit da nken. Dr. rer. nat. D. Staehle bin ich für den Beitrag zum Dimensionsreduktionsverfahren zu Dank verpflichtet. Im Einzelnen möchte ich Dipl.-Inform. A. Binze nhöfer und D r. rer. nat. M . M enth für die wertvollen Dis kussionen danken, die zur Verbesse rung dieser Auflage beigetragen habe n. Di pl.-Inform. R. Henjes, Dipl.-Inform. A. Mäde r, Di pl.-Inform. R. Marti n, Dipl. -Inform. J. Milbrandt, Di pl.-Inform. S. Oechsner und Dipl.-Inform. R. Pries danke ich für die wertvollen Hinweise und Verbesserungsvorschläge bei der Korrektur des Manuskripts. Würzburg, Juli 2005

Phuoc Tran-Gia

Vorwort zur ersten Auflage Das vorliegende Buch stam mt in wesen tlichen Teilen aus m einer Vorlesung „ Leistungsbewertung verteilter Systeme“, die ich an der Universität Würzburg halte. Zielsetzung der Vorlesung ist eine Einführung in die Modellierung technischer Systeme mit Methoden der Wahrscheinlichkeitstheorie un d der mathematischen Statistik. Die Sch werpunkte liegen in der angewandten Nachrichtenverkehrstheorie und der klassischen Warteschlangentheorie, wobei Anwendungen in der Fertigungstechnik ebenfalls erörtert werden. In der mit zwei Semesterwochenstunden und zu sätzlich zw ei Übungsstunden an gesetzten Leh rveranstaltung werden die Kapitel 1 bis 5 beha ndelt. Diese Lehrveranstaltung wird Informatik-Studenten im Hauptstudium – hauptsächlich 5. oder 6. Fachsemester – s owie Studenten mit Informatik als Nebenfach angeboten. Kapitel 6 dient der Vertiefung des Stoffes bei besonderem Interesse. Der einführende Charakter dieses Lehrbuchs spiegelt sich in der Stoffauswahl wider. Sie soll die erforderlichen Grundlagen der analytischen Leistungsbewertung und ihrer Anwendungen bereitstellen und die Einarbeitung für Studien- und Diplomarbeiten unterstützen. In Kapitel 1 werden w ichtige Begriffe zur Modellbildung un d Leis tungsbewertung im Zusammenhang mit analytischen Untersuchungsmethoden erörtert und B eispiele zur Modellbildung in Rechne rkommunikations- und F ertigungssystemen aufgefü hrt. Zur Auffrischung der beim Leser vorausgesetzten Grundkenntnisse werde n wichtige Grundlage n de r Wahrscheinlichkeitsrechnung und der hä ufig be nötigten Transformationsmethoden und Verteilungsfunktionen zusammengefasst. In Kapitel 2 werd en in der an alytischen Leistungsbewertung häufig benötigte elem entare stochastische Prozesse eingehend be handelt. Die Klasse von Erneuerungspr ozessen, die in der C harakterisierung von Ve rkehrsströmen in tec hnischen System en eine wic htige Rolle spielt, wird ei ngeführt. Wichtige Beziehunge n zur Anal yse Markovsc her Z ustandsprozesse werden hergeleitet. Kapitel 3 und 4 behandeln klassische Modelle der Verkehrstheorie, die zum Grundrepertoire der analytischen Beispiele ge hören und i n der Praxis der Leistungsbew ertung am häufigsten zum Einsatz kom men. In Ka pitel 5 werde n Analyseve rfahren für zeitdiskrete Ve rkehrsmodelle beha ndelt. Zeitdiskrete Systeme und deren Modelle gewinne n zunehm end an Be deutung i n m odernen K ommunikationssystemen und Rechne rnetzen, i n denen Date neinheiten konstanter Länge übermittelt werden. Zur V ervollständigung des Stoffgebietes wi rd in Kapitel 6 die Matrixanalytische Methode erörtert. Diese Klasse von Analysemethoden wird in de n letzten Jahren im mer häufiger in der Fachliteratur diskutiert und findet zunehmend Anwendung in Systemuntersuchungen. Sie

Vorwort zur ersten Auflage

IX

ist eine der wichtigsten methodischen Neuentwicklungen in der Modellanalyse. Kapitel 6 ist als Zusatzlektüre für den interessierten Leser gedacht und setzt vertiefte Kenntnisse der Matrizenrechnung voraus. Der Inhalt dieses Kapitels gehört nicht zum regulären Stoff der Vorlesung „Leistungsbewertung verteilter Systeme“. Die im Buch verwendeten Notationen und Form elzeichen si nd i n ei ner Übe rsicht i m Anschluss an den Index zusammengestellt. Dieses Lehrbuch hätte nicht ohne tatkräftige Hi lfe von St udierenden, Mitarbeitern und Kollegen entstehen können. Ihnen möchte ich meinen Dank aussprechen. Im Einzelnen möchte ich Dr. rer. nat. E. Ernst, Dr. rer. nat. H. Gold und Di pl.-Math. M. Mittler für die interessanten Diskussionen danken, die zur Verbesserung des Buches beigetragen haben. Dipl.-Inform. M. Ritter, Dipl.-Math. O. Rose, Dipl.-Inform. A. Schömig, Dipl.-Inform. K. Tutschku, Dipl.Ing. G. Willmann und Herrn U. Ehrenberger danke ich für die Mithilfe bei der Korrektur des Manuskripts. Dipl. -Inform. N. Ge rlich da nke ich für die fachkundige Hilfe bei der Gestaltung des Buc hes. Dipl.-Inform. P. Och ge bührt mein Dank ins besondere für die unermüdliche Mitarbeit und Mitgestaltung des Kapitels 6. Wertvolle Hinweise zu diesem Kapitel habe ich ebenfalls von P rof. G. Latouche erhalten. Zu Dank bin ich den Kollegen Prof. D. Baum und Prof. V. Schmidt für die wertvollen A nregungen zur fachlichen Gestaltung des Buches verpflichtet. Meiner Frau Walburga und meinen Kindern Johannes und Thomas danke ich für die Unterstützung in der entbehrungsvollen Zeit während der Erstellung des Buches. Schließlich möchte ich Dr. Hans Wössner vom Springer-Verlag für die konstru ktive Zusammenarbeit danken. Würzburg, Januar 1996

Phuoc Tran-Gia

Inhalt 1

Grundlagen 1

1.1 1.1.1 1.1.2 1.1.3 1.1.4

Verkehrstheoretische Modellbildung .........................................................................1 Modellbegriff und Abstraktionsebenen ......................................................................1 Modellbeispiele ..........................................................................................................4 Notation für einstufige Modelle .................................................................................9 Theorem von Little...................................................................................................10

1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.2.5

Grundbegriffe der Wahrscheinlichkeitstheorie.........................................................12 Ereignisse und Wahrscheinlichkeiten.......................................................................12 Wichtige Begriffe und Gesetze ................................................................................14 Zufallsvariable, Verteilung und Verteilungsfunktion...............................................16 Erwartungswert und Momente .................................................................................20 Funktionen zweier Zufallsvariablen .........................................................................21

1.3 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5

Transformationsmethoden und wichtige Verteilungen.............................................29 Die erzeugende Funktion..........................................................................................29 Laplace- und Laplace-Stieltjes-Transformation .......................................................31 Wichtige Verteilungen und ihre Transformierten.....................................................34 Wichtige Verteilungsfunktionen und ihre Transformierten......................................39 Wichtige Zusammenhänge .......................................................................................43

Literatur zu Kapitel 1 .............................................................................................................46 Übungsaufgaben zu Kapitel 1 ................................................................................................47 2

Elementare Zufallsprozesse

51

2.1 2.1.1 2.1.2 2.1.3

Stochastische Prozesse .............................................................................................51 Definition .................................................................................................................51 Markov-Prozesse......................................................................................................53 Elementare Prozesse in Verkehrsmodellen ..............................................................54

2.2 2.2.1 2.2.2

Erneuerungsprozesse ................................................................................................58 Definitionen..............................................................................................................58 Analyse der Rekurrenzzeit .......................................................................................59

2.3 2.3.1 2.3.2

Analyse Markovscher Zustandsprozesse..................................................................63 Übergangsverhalten von Markov-Zustandsprozessen ..............................................63 Zustandsgleichungen und –wahrscheinlichkeiten ....................................................64

XII 2.3.3 2.3.4

Inhalt Beispiele für Übergangswahrscheinlichkeitsdichten................................................ 73 Geburts- und Sterbeprozesse.................................................................................... 76

Literatur zu Kapitel 2 ............................................................................................................. 80 Übungsaufgaben zu Kapitel 2 ................................................................................................ 81 3

Analyse Markovscher Systeme

85

3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5 3.1.6

Das Verlustsystem M/M/n ....................................................................................... 85 Modellbeschreibung und Parameter......................................................................... 85 Zustandsraum und Zustandswahrscheinlichkeiten ................................................... 86 Systemcharakteristiken ............................................................................................ 89 Verallgemeinerung auf das Verlustsystem M/GI/n.................................................. 90 Modellierungsbeispiele und Anwendungen ............................................................. 91 Bündelungsgewinn................................................................................................... 93

3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5

Das Wartesystem M/M/n ......................................................................................... 96 Modellbeschreibung und Parameter......................................................................... 96 Zustandsraum und Zustandswahrscheinlichkeiten ................................................... 97 Systemcharakteristiken .......................................................................................... 101 Wartezeitverteilungsfunktion ................................................................................. 105 Bündelungsgewinn in Wartesystemen ................................................................... 107

3.3 3.3.1 3.3.2 3.3.3

Verlustsystem mit endlicher Quellenzahl............................................................... 110 Modellbeschreibung............................................................................................... 110 Zustandsraum und Zustandswahrscheinlichkeiten ................................................. 111 Modellierungsbeispiel: Mobilfunkzelle mit endlicher Quellenzahl ....................... 114

3.4 3.4.1 3.4.2 3.4.3 3.4.4

Rufwiederholungsmodell mit endlicher Quellenzahl............................................. 117 Modellbeschreibung............................................................................................... 117 Rekursiver Analysealgorithmus ............................................................................. 122 Berechnung der Verkehrsflüsse ............................................................................. 125 Modellierungsbeispiel: Mobilfunkzelle mit Rufwiederholung .............................. 127

3.5 3.5.1 3.5.2 3.5.3 3.5.4 3.5.5 3.5.6

Dimensionsreduktionsverfahren für Markov- Zustandsprozesse ........................... 130 Verlustsystem mit mehreren Anforderungsklassen................................................ 130 Mehrdimensionaler Zustandsraum und globale Gleichgewichtsgleichung ............ 131 Lokale Gleichgewichtsgleichung und Produktformlösung .................................... 134 Blockierungswahrscheinlichkeit ............................................................................ 136 Dimensionsreduktion und rekursive Zustandsanalyse ........................................... 138 Modellbeispiel: Code-Blockierungswahrscheinlichkeit in UMTS......................... 142

Literatur zu Kapitel 3 ........................................................................................................... 146 Übungsaufgaben zu Kapitel 3 .............................................................................................. 148 4

Analyse nicht-Markovscher Systeme

153

4.1

Methoden der eingebetteten Markov-Kette............................................................ 153

4.2

Das Wartesystem M/GI/1....................................................................................... 156

Inhalt

XIII

4.2.1 4.2.2 4.2.3 4.2.4 4.2.5 4.2.6 4.2.7

Modell und Zustandsprozess ..................................................................................156 Markov-Kette und Übergangsverhalten .................................................................157 Zustandsgleichungen ..............................................................................................159 Zustandswahrscheinlichkeiten................................................................................160 Wartezeitverteilungsfunktion .................................................................................163 Weitere Systemcharakteristiken .............................................................................164 Zustandswahrscheinlichkeiten zu zufälligen Zeitpunkten......................................167

4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5

Das Wartesystem GI/M/1.......................................................................................170 Modell und Zustandsprozess ..................................................................................170 Übergangsverhalten................................................................................................171 Zustandsgleichungen ..............................................................................................173 Zustandsanalyse mit geometrischem Ansatz ..........................................................174 Wartezeitverteilungsfunktion .................................................................................176

4.4 4.4.1 4.4.2 4.4.3

Ein Gruppenbediensystem mit Startschwelle .........................................................178 Modell und Zustandsprozess ..................................................................................178 Markov-Kette und Übergangsverhalten .................................................................180 Zustandswahrscheinlichkeiten und Systemcharakteristiken...................................182

Literatur zu Kapitel 4 ...........................................................................................................185 Übungsaufgaben zu Kapitel 4 ..............................................................................................186 5

Analyse zeitdiskreter Systeme

189

5.1 5.1.1 5.1.2

Zeitdiskrete Zufallsprozesse...................................................................................189 Voraussetzungen und Parameter ............................................................................189 Zeitdiskrete Erneuerungsprozesse ..........................................................................191

5.2 5.2.1 5.2.2

Transformationsmethoden für zeitdiskrete Analyse...............................................196 Diskrete Fourier-Transformation............................................................................196 Das Konzept des komplexen Cepstrums ................................................................198

5.3 5.3.1 5.3.2 5.3.3 5.3.4

Das zeitdiskrete Wartesystem GEOM(1)/GI/1.......................................................204 Modellbeschreibung ...............................................................................................204 Markov-Kette und Zustandsübergänge ..................................................................205 Zustandswahrscheinlichkeit ...................................................................................206 Wartezeitverteilung ................................................................................................208

5.4 5.4.1 5.4.2 5.4.3 5.4.4 5.4.5 5.4.6 5.4.7 5.4.8

Das zeitdiskrete Wartesystem GI/GI/1 ...................................................................209 Modellbeschreibung ...............................................................................................209 Die Lindley-Integralgleichung für zeitkontinuierliche GI/GI/1-Systeme...............210 Modifizierte Lindley-Integralgleichung für zeitdiskrete GI/GI/1-Systeme ............211 Charakteristische Gleichung im transfomierten Bereich ........................................214 Analysealgorithmus im Zeitbereich .......................................................................218 Analysealgorithmus im transformierten Bereich....................................................220 Numerische Beispiele.............................................................................................226 Weitere Systemcharakteristiken .............................................................................229

XIV

Inhalt

5.5 5.5.1 5.5.2

Zeitdiskretes GI/GI/1-System mit Wartezeitbegrenzung ....................................... 230 Das GI/GI/1-System mit Wartezeitbegrenzung ..................................................... 230 Modellierungsbeispiel: Analyse eines Spacers ...................................................... 233

Literatur zu Kapitel 5 ........................................................................................................... 238 Übungsaufgaben zu Kapitel 5 .............................................................................................. 239 6

Matrixanalytische Methode

243

6.1 6.1.1 6.1.2 6.1.3 6.1.4 6.1.5

Die Phasenverteilung (PH)..................................................................................... 243 Von der Erlang-k-Phasendarstellung zur Phasenverteilung ................................... 244 Definition der Phasenverteilung............................................................................. 245 Beispiele für Phasenverteilungen ........................................................................... 250 Funktionen von phasenverteilten Zufallsvariablen ................................................ 252 Die zeitdiskrete Phasenverteilung (D-PH) ............................................................. 253

6.2 6.2.1 6.2.2 6.2.3

Der Markovsche Ankunftsprozess (MAP) ............................................................. 255 Definition ............................................................................................................... 255 Wichtige Eigenschaften des Markov-Ankunftsprozesses ...................................... 257 Der zeitdiskrete Markov-Ankunftsprozess (D-MAP) ............................................ 260

6.3 6.3.1 6.3.2 6.3.3 6.3.4 6.3.5 6.3.6 6.3.7

Das Wartesystem MAP/GI/1.................................................................................. 261 Modellbeschreibung............................................................................................... 262 Zählprozess der Ankünfte ...................................................................................... 262 Eingebetteter Markov-Erneuerungsprozess ........................................................... 265 Stationäre Zustandswahrscheinlichkeiten .............................................................. 268 Zustandswahrscheinlichkeit zu beliebigen Zeitpunkten......................................... 275 Virtuelle Wartezeitverteilungsfunktion.................................................................. 276 Zusammenstellung der wichtigsten Algorithmenschritte ....................................... 277

Literatur zu Kapitel 6 ........................................................................................................... 278 Übungsaufgaben zu Kapitel 6 .............................................................................................. 279 Index

281

Notationskonventionen und Formelzeichen

285

Vorwort zur zweiten Auflage Diese Fass ung ist die zweite Auflage des Lehrbuches “Analytische Leistungsbewertung verteilter Systeme“ (Springer-Verlag, 1996). Neben der notwendigen Präzisierung des Titels zu „ Einführung in die Leistungsb ewertung und Verkehrstheorie “ wurden Anregungen, die ich von m einen St udierenden und Mitarbeitern an der Uni versität Würzburg in den letzten neun Jahren erhalten habe, eingearbeitet. Einige Methoden, die i n Forschungskooperationen in der letzten Zeit häufig verwendet werden, wurden hinzugefügt (z.B. die Dimensionsreduktionsmethode nach Kaufman & Roberts). Für die Hörer der Vorlesung „Leistungsbewertung verteilter Syste me“ in Würzburg m öchte ich darauf hinweisen, dass Kapitel 1 bis eins chließlich Kapitel 5 in der Veranstaltung verwendet werden. Bei der Entstehung dieser Auflage ha ben viele Mitarbeiterinnen und Mitarbeiter meines Teams am Lehrst uhl für Informatik III, U niversität Würzburg, m itgeholfen. In e rster Linie möchte ich Dipl.-Inform. T. Hoßfeld, B. auf dem Graben, M. Brotzeller und V. Himmler für die engagierte und unerm üdliche Mitarbeit da nken. Dr. rer. nat. D. Staehle bin ich für den Beitrag zum Dimensionsreduktionsverfahren zu Dank verpflichtet. Im Einzelnen möchte ich Dipl.-Inform. A. Binze nhöfer und D r. rer. nat. M . M enth für die wertvollen Dis kussionen danken, die zur Verbesse rung dieser Auflage beigetragen habe n. Di pl.-Inform. R. Henjes, Dipl.-Inform. A. Mäde r, Di pl.-Inform. R. Marti n, Dipl. -Inform. J. Milbrandt, Di pl.-Inform. S. Oechsner und Dipl.-Inform. R. Pries danke ich für die wertvollen Hinweise und Verbesserungsvorschläge bei der Korrektur des Manuskripts. Würzburg, Juli 2005

Phuoc Tran-Gia

Vorwort zur ersten Auflage Das vorliegende Buch stam mt in wesen tlichen Teilen aus m einer Vorlesung „ Leistungsbewertung verteilter Systeme“, die ich an der Universität Würzburg halte. Zielsetzung der Vorlesung ist eine Einführung in die Modellierung technischer Systeme mit Methoden der Wahrscheinlichkeitstheorie un d der mathematischen Statistik. Die Sch werpunkte liegen in der angewandten Nachrichtenverkehrstheorie und der klassischen Warteschlangentheorie, wobei Anwendungen in der Fertigungstechnik ebenfalls erörtert werden. In der mit zwei Semesterwochenstunden und zu sätzlich zw ei Übungsstunden an gesetzten Leh rveranstaltung werden die Kapitel 1 bis 5 beha ndelt. Diese Lehrveranstaltung wird Informatik-Studenten im Hauptstudium – hauptsächlich 5. oder 6. Fachsemester – s owie Studenten mit Informatik als Nebenfach angeboten. Kapitel 6 dient der Vertiefung des Stoffes bei besonderem Interesse. Der einführende Charakter dieses Lehrbuchs spiegelt sich in der Stoffauswahl wider. Sie soll die erforderlichen Grundlagen der analytischen Leistungsbewertung und ihrer Anwendungen bereitstellen und die Einarbeitung für Studien- und Diplomarbeiten unterstützen. In Kapitel 1 werden w ichtige Begriffe zur Modellbildung un d Leis tungsbewertung im Zusammenhang mit analytischen Untersuchungsmethoden erörtert und B eispiele zur Modellbildung in Rechne rkommunikations- und F ertigungssystemen aufgefü hrt. Zur Auffrischung der beim Leser vorausgesetzten Grundkenntnisse werde n wichtige Grundlage n de r Wahrscheinlichkeitsrechnung und der hä ufig be nötigten Transformationsmethoden und Verteilungsfunktionen zusammengefasst. In Kapitel 2 werd en in der an alytischen Leistungsbewertung häufig benötigte elem entare stochastische Prozesse eingehend be handelt. Die Klasse von Erneuerungspr ozessen, die in der C harakterisierung von Ve rkehrsströmen in tec hnischen System en eine wic htige Rolle spielt, wird ei ngeführt. Wichtige Beziehunge n zur Anal yse Markovsc her Z ustandsprozesse werden hergeleitet. Kapitel 3 und 4 behandeln klassische Modelle der Verkehrstheorie, die zum Grundrepertoire der analytischen Beispiele ge hören und i n der Praxis der Leistungsbew ertung am häufigsten zum Einsatz kom men. In Ka pitel 5 werde n Analyseve rfahren für zeitdiskrete Ve rkehrsmodelle beha ndelt. Zeitdiskrete Systeme und deren Modelle gewinne n zunehm end an Be deutung i n m odernen K ommunikationssystemen und Rechne rnetzen, i n denen Date neinheiten konstanter Länge übermittelt werden. Zur V ervollständigung des Stoffgebietes wi rd in Kapitel 6 die Matrixanalytische Methode erörtert. Diese Klasse von Analysemethoden wird in de n letzten Jahren im mer häufiger in der Fachliteratur diskutiert und findet zunehmend Anwendung in Systemuntersuchungen. Sie

Vorwort zur ersten Auflage

IX

ist eine der wichtigsten methodischen Neuentwicklungen in der Modellanalyse. Kapitel 6 ist als Zusatzlektüre für den interessierten Leser gedacht und setzt vertiefte Kenntnisse der Matrizenrechnung voraus. Der Inhalt dieses Kapitels gehört nicht zum regulären Stoff der Vorlesung „Leistungsbewertung verteilter Systeme“. Die im Buch verwendeten Notationen und Form elzeichen si nd i n ei ner Übe rsicht i m Anschluss an den Index zusammengestellt. Dieses Lehrbuch hätte nicht ohne tatkräftige Hi lfe von St udierenden, Mitarbeitern und Kollegen entstehen können. Ihnen möchte ich meinen Dank aussprechen. Im Einzelnen möchte ich Dr. rer. nat. E. Ernst, Dr. rer. nat. H. Gold und Di pl.-Math. M. Mittler für die interessanten Diskussionen danken, die zur Verbesserung des Buches beigetragen haben. Dipl.-Inform. M. Ritter, Dipl.-Math. O. Rose, Dipl.-Inform. A. Schömig, Dipl.-Inform. K. Tutschku, Dipl.Ing. G. Willmann und Herrn U. Ehrenberger danke ich für die Mithilfe bei der Korrektur des Manuskripts. Dipl. -Inform. N. Ge rlich da nke ich für die fachkundige Hilfe bei der Gestaltung des Buc hes. Dipl.-Inform. P. Och ge bührt mein Dank ins besondere für die unermüdliche Mitarbeit und Mitgestaltung des Kapitels 6. Wertvolle Hinweise zu diesem Kapitel habe ich ebenfalls von P rof. G. Latouche erhalten. Zu Dank bin ich den Kollegen Prof. D. Baum und Prof. V. Schmidt für die wertvollen A nregungen zur fachlichen Gestaltung des Buches verpflichtet. Meiner Frau Walburga und meinen Kindern Johannes und Thomas danke ich für die Unterstützung in der entbehrungsvollen Zeit während der Erstellung des Buches. Schließlich möchte ich Dr. Hans Wössner vom Springer-Verlag für die konstru ktive Zusammenarbeit danken. Würzburg, Januar 1996

Phuoc Tran-Gia

Inhalt 1

Grundlagen 1

1.1 1.1.1 1.1.2 1.1.3 1.1.4

Verkehrstheoretische Modellbildung .........................................................................1 Modellbegriff und Abstraktionsebenen ......................................................................1 Modellbeispiele ..........................................................................................................4 Notation für einstufige Modelle .................................................................................9 Theorem von Little...................................................................................................10

1.2 1.2.1 1.2.2 1.2.3 1.2.4 1.2.5

Grundbegriffe der Wahrscheinlichkeitstheorie.........................................................12 Ereignisse und Wahrscheinlichkeiten.......................................................................12 Wichtige Begriffe und Gesetze ................................................................................14 Zufallsvariable, Verteilung und Verteilungsfunktion...............................................16 Erwartungswert und Momente .................................................................................20 Funktionen zweier Zufallsvariablen .........................................................................21

1.3 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5

Transformationsmethoden und wichtige Verteilungen.............................................29 Die erzeugende Funktion..........................................................................................29 Laplace- und Laplace-Stieltjes-Transformation .......................................................31 Wichtige Verteilungen und ihre Transformierten.....................................................34 Wichtige Verteilungsfunktionen und ihre Transformierten......................................39 Wichtige Zusammenhänge .......................................................................................43

Literatur zu Kapitel 1 .............................................................................................................46 Übungsaufgaben zu Kapitel 1 ................................................................................................47 2

Elementare Zufallsprozesse

51

2.1 2.1.1 2.1.2 2.1.3

Stochastische Prozesse .............................................................................................51 Definition .................................................................................................................51 Markov-Prozesse......................................................................................................53 Elementare Prozesse in Verkehrsmodellen ..............................................................54

2.2 2.2.1 2.2.2

Erneuerungsprozesse ................................................................................................58 Definitionen..............................................................................................................58 Analyse der Rekurrenzzeit .......................................................................................59

2.3 2.3.1 2.3.2

Analyse Markovscher Zustandsprozesse..................................................................63 Übergangsverhalten von Markov-Zustandsprozessen ..............................................63 Zustandsgleichungen und –wahrscheinlichkeiten ....................................................64

XII 2.3.3 2.3.4

Inhalt Beispiele für Übergangswahrscheinlichkeitsdichten................................................ 73 Geburts- und Sterbeprozesse.................................................................................... 76

Literatur zu Kapitel 2 ............................................................................................................. 80 Übungsaufgaben zu Kapitel 2 ................................................................................................ 81 3

Analyse Markovscher Systeme

85

3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.1.5 3.1.6

Das Verlustsystem M/M/n ....................................................................................... 85 Modellbeschreibung und Parameter......................................................................... 85 Zustandsraum und Zustandswahrscheinlichkeiten ................................................... 86 Systemcharakteristiken ............................................................................................ 89 Verallgemeinerung auf das Verlustsystem M/GI/n.................................................. 90 Modellierungsbeispiele und Anwendungen ............................................................. 91 Bündelungsgewinn................................................................................................... 93

3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5

Das Wartesystem M/M/n ......................................................................................... 96 Modellbeschreibung und Parameter......................................................................... 96 Zustandsraum und Zustandswahrscheinlichkeiten ................................................... 97 Systemcharakteristiken .......................................................................................... 101 Wartezeitverteilungsfunktion ................................................................................. 105 Bündelungsgewinn in Wartesystemen ................................................................... 107

3.3 3.3.1 3.3.2 3.3.3

Verlustsystem mit endlicher Quellenzahl............................................................... 110 Modellbeschreibung............................................................................................... 110 Zustandsraum und Zustandswahrscheinlichkeiten ................................................. 111 Modellierungsbeispiel: Mobilfunkzelle mit endlicher Quellenzahl ....................... 114

3.4 3.4.1 3.4.2 3.4.3 3.4.4

Rufwiederholungsmodell mit endlicher Quellenzahl............................................. 117 Modellbeschreibung............................................................................................... 117 Rekursiver Analysealgorithmus ............................................................................. 122 Berechnung der Verkehrsflüsse ............................................................................. 125 Modellierungsbeispiel: Mobilfunkzelle mit Rufwiederholung .............................. 127

3.5 3.5.1 3.5.2 3.5.3 3.5.4 3.5.5 3.5.6

Dimensionsreduktionsverfahren für Markov- Zustandsprozesse ........................... 130 Verlustsystem mit mehreren Anforderungsklassen................................................ 130 Mehrdimensionaler Zustandsraum und globale Gleichgewichtsgleichung ............ 131 Lokale Gleichgewichtsgleichung und Produktformlösung .................................... 134 Blockierungswahrscheinlichkeit ............................................................................ 136 Dimensionsreduktion und rekursive Zustandsanalyse ........................................... 138 Modellbeispiel: Code-Blockierungswahrscheinlichkeit in UMTS......................... 142

Literatur zu Kapitel 3 ........................................................................................................... 146 Übungsaufgaben zu Kapitel 3 .............................................................................................. 148 4

Analyse nicht-Markovscher Systeme

153

4.1

Methoden der eingebetteten Markov-Kette............................................................ 153

4.2

Das Wartesystem M/GI/1....................................................................................... 156

Inhalt

XIII

4.2.1 4.2.2 4.2.3 4.2.4 4.2.5 4.2.6 4.2.7

Modell und Zustandsprozess ..................................................................................156 Markov-Kette und Übergangsverhalten .................................................................157 Zustandsgleichungen ..............................................................................................159 Zustandswahrscheinlichkeiten................................................................................160 Wartezeitverteilungsfunktion .................................................................................163 Weitere Systemcharakteristiken .............................................................................164 Zustandswahrscheinlichkeiten zu zufälligen Zeitpunkten......................................167

4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5

Das Wartesystem GI/M/1.......................................................................................170 Modell und Zustandsprozess ..................................................................................170 Übergangsverhalten................................................................................................171 Zustandsgleichungen ..............................................................................................173 Zustandsanalyse mit geometrischem Ansatz ..........................................................174 Wartezeitverteilungsfunktion .................................................................................176

4.4 4.4.1 4.4.2 4.4.3

Ein Gruppenbediensystem mit Startschwelle .........................................................178 Modell und Zustandsprozess ..................................................................................178 Markov-Kette und Übergangsverhalten .................................................................180 Zustandswahrscheinlichkeiten und Systemcharakteristiken...................................182

Literatur zu Kapitel 4 ...........................................................................................................185 Übungsaufgaben zu Kapitel 4 ..............................................................................................186 5

Analyse zeitdiskreter Systeme

189

5.1 5.1.1 5.1.2

Zeitdiskrete Zufallsprozesse...................................................................................189 Voraussetzungen und Parameter ............................................................................189 Zeitdiskrete Erneuerungsprozesse ..........................................................................191

5.2 5.2.1 5.2.2

Transformationsmethoden für zeitdiskrete Analyse...............................................196 Diskrete Fourier-Transformation............................................................................196 Das Konzept des komplexen Cepstrums ................................................................198

5.3 5.3.1 5.3.2 5.3.3 5.3.4

Das zeitdiskrete Wartesystem GEOM(1)/GI/1.......................................................204 Modellbeschreibung ...............................................................................................204 Markov-Kette und Zustandsübergänge ..................................................................205 Zustandswahrscheinlichkeit ...................................................................................206 Wartezeitverteilung ................................................................................................208

5.4 5.4.1 5.4.2 5.4.3 5.4.4 5.4.5 5.4.6 5.4.7 5.4.8

Das zeitdiskrete Wartesystem GI/GI/1 ...................................................................209 Modellbeschreibung ...............................................................................................209 Die Lindley-Integralgleichung für zeitkontinuierliche GI/GI/1-Systeme...............210 Modifizierte Lindley-Integralgleichung für zeitdiskrete GI/GI/1-Systeme ............211 Charakteristische Gleichung im transfomierten Bereich ........................................214 Analysealgorithmus im Zeitbereich .......................................................................218 Analysealgorithmus im transformierten Bereich....................................................220 Numerische Beispiele.............................................................................................226 Weitere Systemcharakteristiken .............................................................................229

XIV

Inhalt

5.5 5.5.1 5.5.2

Zeitdiskretes GI/GI/1-System mit Wartezeitbegrenzung ....................................... 230 Das GI/GI/1-System mit Wartezeitbegrenzung ..................................................... 230 Modellierungsbeispiel: Analyse eines Spacers ...................................................... 233

Literatur zu Kapitel 5 ........................................................................................................... 238 Übungsaufgaben zu Kapitel 5 .............................................................................................. 239 6

Matrixanalytische Methode

243

6.1 6.1.1 6.1.2 6.1.3 6.1.4 6.1.5

Die Phasenverteilung (PH)..................................................................................... 243 Von der Erlang-k-Phasendarstellung zur Phasenverteilung ................................... 244 Definition der Phasenverteilung............................................................................. 245 Beispiele für Phasenverteilungen ........................................................................... 250 Funktionen von phasenverteilten Zufallsvariablen ................................................ 252 Die zeitdiskrete Phasenverteilung (D-PH) ............................................................. 253

6.2 6.2.1 6.2.2 6.2.3

Der Markovsche Ankunftsprozess (MAP) ............................................................. 255 Definition ............................................................................................................... 255 Wichtige Eigenschaften des Markov-Ankunftsprozesses ...................................... 257 Der zeitdiskrete Markov-Ankunftsprozess (D-MAP) ............................................ 260

6.3 6.3.1 6.3.2 6.3.3 6.3.4 6.3.5 6.3.6 6.3.7

Das Wartesystem MAP/GI/1.................................................................................. 261 Modellbeschreibung............................................................................................... 262 Zählprozess der Ankünfte ...................................................................................... 262 Eingebetteter Markov-Erneuerungsprozess ........................................................... 265 Stationäre Zustandswahrscheinlichkeiten .............................................................. 268 Zustandswahrscheinlichkeit zu beliebigen Zeitpunkten......................................... 275 Virtuelle Wartezeitverteilungsfunktion.................................................................. 276 Zusammenstellung der wichtigsten Algorithmenschritte ....................................... 277

Literatur zu Kapitel 6 ........................................................................................................... 278 Übungsaufgaben zu Kapitel 6 .............................................................................................. 279 Index

281

Notationskonventionen und Formelzeichen

285

1

Grundlagen

In diesem einführenden Kapitel werden zunächst wic htige Begriffe z ur Modellbildung und Leistungsbewertung im Zusammenhang mit analytischen Untersuchungsmethoden diskutiert, dann Beispiel e zur M odellbildung in Re chnerkommunikations- un d Fertigungssyst emen erörtert. Anschließend werd en wichtige Grundlagen der Wahrscheinlichkeitsrechnung und der hä ufig be nötigten Transformationsmethoden und Ve rteilungsfunktionen zusammengefasst.

1.1

Verkehrstheoretische Modellbildung

1.1.1

Modellbegriff und Abstraktionsebenen

Zur Untersuchung komplexer Vorgänge in realen Systemen werden häufig Modelle benötigt. Bei den hier betrachteten S ystemen, z.B. Kommunikations- und Fertigu ngssystemen mit verteilten Steuerungsstrukturen, erlauben verkehrstheoretische Modelle eine quantitative und qualitative Beschreibung des Verkehrsgesche hens sowie ei ne Beurteilung der Systemreaktion (vgl. Ferrari [1.2], Lavenberg [1.5]). Ein verkehrstheoretische s M odell beschreibt das A blaufgeschehen i n einem System unter Einbeziehung der wichtigsten zei tlichen und logischen Zusammenhänge. Dies geschieht mit Hilfe we niger abstra kter M odellelemente, welche die rea len System komponenten und da s logische Zusammenspiel zwischen ihnen widerspiegeln. Die Modellbildung beinhaltet infolgedessen das Abbilden der Systemorganisation bzw. des dynamischen Systemgeschehens auf entsprechende Modellkomponenten und modellbezogene äquivalente Vorgänge. Moderne Systeme zeichnen sich durch i mmer u mfangreichere Funkt ionalität und zunehmende Komplexität aus. Durch den Einsatz von Mikrorechner-Komponenten, z.B. in Kommunikations- und Fertigungssystemen, entstehen aus strukt ureller und aus steuerungstechnischer Sicht i mmer leistungsfähi gere und komplexere S ysteme, so wohl in de r Hard- als auch in der Software. Im Gegensatz zu früheren Systemgenerationen, deren Leistung oft erst nach ihrer Inb etriebnahme ermittelt wurde, muss bei neueren System en wegen ihre r funktionellen Komplexität und ihrer immer vielfältigeren Leistungsmerkmale die Leistungsfähigkeit vor der Systemeinführung untersucht und nachgewiesen werden. Dies sind im Einzelnen:

21

Grundlagen

• Die funktionelle Leistungsfähigkeit: Dazu ge hören u.a. die Verklemmungs- bz w. Widerspruchsfreiheit der im plementierten Kommunikationsprotokolle im System, die einwandfreie Zusammenarbeit der aktivierten Prozesse sowi e die funktionelle Einhaltung de finierter, systemspezifischer Leistungsmerkmale. • Die Leistungsfähigkeit des Systems unter Lastbedingung: Hier sind zu e rwähnen: die Funktionsfähigkeit und die Einhaltung vorgegebener Grenzwerte f ür die Blockier ungswahrscheinlichkeit, Durc hlauf- un d Wartezeiten, Ve rarbeitungsgüte usw . unter Nennla st-Bedingungen, die Einhaltung festgelegter Verkehrsgüte unter Überlast, die Überlebensfähigkeit des Systems bei extremen Lastspitzen etc. Bedingt durch die große Anzahl von a ngeschlossenen Teilnehmern und in Echtzeit z usammenarbeitenden System komponenten s owie durc h parallel ablaufende Prozesse kann das Ablaufgeschehen in ei nem verteilten System, z.B. in ei nem Kommunikationssystem oder in einer Fertigungsumgebung, mit Hilfe von zufallsabhängigen Prozessen beschrieben werden. Für die Untersuchung derartiger Prozesse werden Methoden der Stochastik, insbesondere der Verkehrstheorie, angewendet.

abstrakte ModellSimulation detaillierte ModellSimulation HardwareSimulation

analytische Methoden

abstrahiertes Modell

System-Modell

Messung reales System

Abb. 1.1: Methoden zur Leistungsbewertung

1.1 Verkehrstheoretische Modellbildung Abbildung 1.1 gibt eine Übersicht Systemen:

3

der M ethoden zur Leistungsb ewertung von verteilten

• Leistungsmessung: Bei einem bereits in der Betriebsphase befindlichen System kann die Funktionsfähigkeit durch M essungen untersucht wer den, w obei r ealistische Belastungs profile von a ngeschlossenen Teilnehmern, peripheren Einrichtungen sowie anderen Systemen im Netz für Messzwecke benutzt werden können. • Hardware-Simulation: Wenn ei n P rototyp des z u untersuchenden Systems verf ügbar ist, die a nzuschließenden Benutzer bzw. peripheren Einrichtungen je doch noch nicht oder nur teilweise vorhanden sind, ka nn die Leistung des Systems unter realen Lastbe dingungen, z.B. mit Hilfe von Hardware-Simulationseinrichtungen, untersucht werden. Dabei werden Benutzer und periphere Prozesse durch Zustandsaut omaten zeittreu und unter Be rücksichtigung des realen Benutzerverhaltens nachgebildet, m it de nen die Teilnehm er-System-Interaktion realistisch simuliert und die Leistungsfähigkeit des Systems unter beliebig vorgebbaren Belastungen getestet werden kann. • Systemsimulation und Simulation von Verkehrsmodellen: In der Konzipierungs- und Entwicklungsphase eines System s werde n L eistungsuntersuchungen häufi g anhand von d etailtreuen Systemmodellen bzw. von abstrakteren V erkehrsmodellen durchgeführt. Wie in Abb. 1.1 dargestellt, kann M odellbildung auf unterschiedlichen Abstraktionseb enen bzw. Modellierungstiefen ge schehen. In einem detaillierten System modell sind M odellkomponenten noch sehr systemnah. Alle strukturellen Komponenten und Ablaufsteuerungen in realen Systemen werden hier noch detailgetreu modelliert. Dies führt zu Verkehrsmodellen höh erer Kom plexität, die in de r Regel nur mit Hilfe der Systemsimulation untersucht werden können. Da in der Entwicklungsphase häufig mehrere strukturelle Alternativen verglichen werden müssen, f ührt die M odellsimulation a uf dieser Detailebe ne zu großem Rechena ufwand. Die Leistung kann in diesem Fall mit eine m Syste mmodell hö herer Abstraktion un tersucht werden, wobei die wesentlichen, für die Untersuchung relevanten Systemmerkmale noch im Modell enthalten sein müssen. Modelle auf dieser Abstraktionsebene, im folgenden Verkehrsm odelle genannt, können durc h weni ger rechenzeitintensive Simulationen oder mit Hilfe analytischer Methoden untersucht werden. • Analytische Modelluntersuchung: Bei den Verkehrsmodellen auf höherer Abstraktionsebene existieren oft analytisch exakte bzw. approximative Method en, die Untersuchungen hinreichend großer Param eterbereiche mit erheblich günstigerem Rechenaufwand ermöglichen. Diese Verfahren werden im Folgenden eingehend beschrieben.

41

Grundlagen

1.1.2

Modellbeispiele

Zur Illu stration des Mode llbegriffes und de s Mode llbildungsvorganges we rden in die sem Abschnitt einige einfache Modellierungsbeispiele diskutiert. Handshaking-Protokoll nächstes Datenpaket

Datenpaket

K

ng NA

u ör St

AC

Sender

K

a)

Empfänger

TN

Zeit

τ Tv Virtuelle Übertragungszeit

Abb. 1.2: Arbeitsweise des Handshaking-Protokolls Ein Sender sendet Nachrichten in Form von Pa keten zu einem Empfänger (Abb. 1.2). Entsprechend ei nem Handsha king-Protokoll werd en fe hlerfrei em pfangene Pakete m it einem positiven Signal quittiert (ACK: positive acknowledgement). Ist die Übertragung fehlerbehaftet, sendet der Em pfänger eine negat ive Quittierung (NAK: negative acknowledgement), worauf der Sender die Übertragung des betreffenden Paketes wiederholt. Dieser Vorgang wird solange wiederholt, bis das Paket fehlerfrei beim Empfänger ankommt. Die Paketübertragung sdauer wird m it TN und die Signal- Ausbreitungsverzögerung vom Sender zum Empfänger und zurück (Umlaufzeit) mit τ bezeichnet. Für die Modellierung des Handshaking-Protokolls soll zunächst die virtuelle Übertragungszeit TV eines Paketes ermittelt werden. Diese wird als die tatsächlich benötigte Zeitspanne für die erfolgreiche Übertragung eines Paketes definiert. Unter der Annahme einer für alle Pakete gültigen Paketfehlerwahrscheinlichkeit pB , d h. we nn die Fehle rereignisse voneinander unabhä ngig sind, ka nn die vi rtuelle Übertragungszeit TV , wie in Abb. 1.3 dargestellt, modelliert werden: Nach einem Übertragungsvorgang ist mit Wahrscheinlichkeit 1 − pB die Zeitspanne TV zu Ende, mit pB erfolgt eine erneute Übertragung, und TV verlängert sich um TN + τ . Unter Einbeziehung eines Pa ket-Ankunftsprozesses und eines Warteraums erhalten wir das Verkehrsmodell für das Handshaking-Protokoll wie in Abb. 1.3 dargestellt, wobei die virtuelle Übert ragungszeit die Rolle der Bedien einheit übe rnimmt. W ie später noc h erörtert

1.1 Verkehrstheoretische Modellbildung

5

wird, handelt es sich hie r um ein einstufi ges Warteschlangensystem vom Typ GI/GI/1, falls ein Ank unftsprozess d er Pakete mit b eliebig verteilter Zwischenankunftszeit angenommen wird und die Übertragungsdauer TN von Paketen ebenfalls beliebig verteilt ist. Eine Analyse des Modells liefert System charakteristiken wie Wartezeit, Durchlaufzeit sowie Durchsatz in Abhängigkeit von der Paketfehlerwahrscheinlichkeit etc. Tv

PaketAnkunftsprozess

TN+τ lokaler Speicher

1-pB

Tv

pB

a)

Bedienprozess

Ankunftsprozess Warteraum

b)

Abb. 1.3: Verkehrsmodell des Handshaking-Protokolls

b)

Kanban-Steuerung in Fertigungssytemen

Die Kanban-Steuerungsmethode spielt im Z usammenhang m it der flexiblen Fertigung und dem Just-in-time-Prinzip in der modernen Fertigungstechnik eine zentrale Rolle. „Ka nban“ ist das japanische Wort für „Karte“, das hier im Sinne von „Erlaubnis“ oder „Berec htigung“ verstanden werden kann. In Abb. 1.4 wird eine Produktionsumgebung gezeigt, die a us einer Anzahl von S ektoren besteht. Die Materialflusskontrolle zw ischen de n Sektoren, die Verteilung von Arbeitsaufträgen und die Versorgung der Se ktoren m it Rohm aterial sind die vorrangigen Aufgaben der Produktionssteuerung, die im Falle der Kanban-Methode verteilt realisiert wird. Das Hauptprinzip der Kanban-Methode ist die strikte Begrenzung der Anzahl von Fertigungsaufträgen in den jeweiligen Sektoren einer Fertigungslinie. Im Folgenden wird die Modellierung eines Sektors erläutert. Wie Abb. 1.4 illustriert, besteht Segment i lediglich a us einer Fertigungsmaschine. Entsprechend der Kanban-Steuerung sei dem Seg ment i eine feste Anza hl k i von Karten zugeteilt, die zunächst in einem Bulletin Board aufbewahrt werde n. Aufträ ge, die auf Bearbeitung warten, werden im Input-Buffer zwischengespeichert. Ein A uftrag darf nur in Begleitung einer segmenteigenen Karte in de n Input-Buffer übernommen werden. Die Karte und der Auftrag bleiben fortan bis zum Verlassen des Se gments eine Einhe it. Dieser Mec hanismus wi rd im Modell mit dem Zusam menschalten von Anforderungen des Karten- und Auftragsflusses dargestellt. Fertigungsaufträge, die vom Segment i fertig bearbeitet worden sind, für den Zutritt in das nächste Segm ent i+1 jedoch noch a uf Ka rten dieses Se gments warte n m üssen, werden im Output-Buffer zwischengelagert. Bei der Übe rnahme eines Fer tigungsauftrages vom Seg ment i zu m Segment i+1 gibt der Auftrag eine Segment-i-Karte an das Bulletin-Board des Segments i zurück und erhält dafür eine Segment-(i+1)-Karte. Durch diesen Kanban-Mechanismus wird die Anzahl der Karten in jedem Segment konstant gehalten.

61

Grundlagen

#1

#2

#i

K

Input-Buffer

K

#N

Bulletin-Board

Maschine

Output-Buffer

Abb. 1.4: Kan ban-Fertigungsumgebung Im Verke hrsmodell (Abb. 1.5) unterscheidet man zwisc hen z wei Ve rkehrsströmen: einem Strom zur Beschreibung der Fertigungsaufträge und eine m Steuerstrom für die Karten. Um den Übernahmevorgang am Eingang eines Segm ents trigger n zu können, m uss von jedem Strom ein e An forderung vorhanden sein. Verlässt ein Fertigungsauf trag das System , entstehen zwei Anfo rderungen: eine Karte, die zum Bulletin-Board zurückgeht, und der F ertigungsauftrag selbst, der in das nächste Fertigungssegment übernommen wird. Bulletin-Board

Bulletin-Board

Maschinenzentrum i

Maschinenzentrum (i+1)

Input-Buffer

Maschine

Output-Buffer

Input-Buffer

Maschine

Output-Buffer

Fertigungsteile

Verbindung Kanban-Fertigungsteil

Kanbans

Lösen Kanban-Fertigungsteil

Abb. 1.5: Modell eines Kanban-Fertigungssystems Das Modell in Abb. 1.5 entspricht einer Kette von geschlossenen Warteschlangennetzen, die durch den Übernahmevorgang gekoppelt sind. Ei ne analytische Behandlung ist z.B. m it der in Mitra & Mitrani [1.11] vorgestellten Methode durchführbar.

1.1 Verkehrstheoretische Modellbildung c)

7

Verkehrsmodell einer Zelle eines mobilen Kommunikationssystems

Wir betrachten eine Zelle in einem Mobilf unksystem, das gem äß des M obilfunkstandards GSM ( Global System f or Mobile Communi cation) operiert. Das GSM-System ist der europäische Standard für zellulare Mobilfunknetze der 2. Generation. Das GSM benutzt das schon in a nalogen M obilfunknetzen e rfolgreich erpr obte Zellularkonz ept, in welc hem die geographische Fläche pla nerisch in F unkzellen unte rteilt wird m it ei ner Basisstation BTS (Base Transceiver Station) je Zelle, mit der die Mobilstationen in Verbindung treten können. In GSM wird eine Kombination von Frequenzmultiplex- un d Zeitmultiplexverfahren ver wendet: • Frequenzmultiplex: Jede GS M-Funkzelle erhält eine A nzahl f von F requenzen zugeteilt, die erst in genügend großen räumlichen Abständen wiederverwendet werden dür fen. In GSM900 z.B. enthält de r F requenzbereich zwische n 935 und 960 M Hz die Se ndefrequenzen, und die Frequenzen zwischen 890 und 915 MHz sind Empfangsfrequenzen. Die Trägerfrequenzen der FDM-Funkka näle (FDM: Frequency D ivision M ultiplex) ha ben Abstände von 200 kHz, d h. es existieren prinzipiell 124 Kanalpaare durch Frequenzmultiplex. • Zeitmultiplex: Ein F requenzmultiplexkanal w ird in der Zeitm ultiplextechnik w eiter in 8 Nutzkanäle unterteilt. Bei jedem zweiten Freque nzmultiplex-Kanal wi rd ei n Nutzkanal für Signalisierungszwecke benutzt. Bei f = 1, 2, 3, 4, … Frequenzen stehen also ins gesamt n = 7, 15, 22, 30,… Nutzkanalpaare zur Verfügung.

BTS (Base Transceiver Station) mit f zugeteilten Frequenzen, d.h. n Nutzkanälen

MS (Mobile Station) nutzt einen der n Nutzkanäle

Abb. 1.6:

GSM-Zelle

Die Blockierung von Gesprächswünschen bzw. von Anrufversuchen in einer GSM-Zelle darf eine vorgege bene Wahrscheinlichkeit nicht überschreiten, um den M obilfunkteilnehmern

81

Grundlagen

eine bestimmte Dienstgüte zu garantieren. Zur M odellierung eine r GSM-Zelle werden folgende Modellkomponenten extrahiert: • Bedienprozess Eine GSM-Zelle hat n N utzkanalpaare, d h. n Bedieneinheiten für die V erarbeitung von Sprachverkehr. Die Gesprächsd auer B ist im Allg. eine Zufallsvariable, die m esstechnisch erfasst werden kann. Ein akzeptierter Anrufversuch beansprucht ein Nutzkanalpaar für die Dauer der Sprachve rbindung. Steht zum Zeitpunkt des A nrufversuches kein Kanalpaar zur Verfügung, wird der Versuch abgewiesen. Wir werden diese Klasse von Modellen mit Abweisung von Anforderungen als Verlustsystem bezeichnen • Ankunftsprozess In einer Zelle befindet sich eine endliche Anzahl m von (Mobilfunk-)Teilnehmern, die sich in untersc hiedlichen Z uständen be finden könne n: „ruhend“, „a ktiv“ (telefoniere nd) oder „wartend auf Wiederholung“. In Abschnitt 3 werden drei Modelle unterschiedlicher Detailstufen analysiert: –

Ankunftsverkehr mit endlicher Quellenz ahl: die Anzahl m der Teilnehmer ist endlich, der aggregierte Verkehr ist die Zusamm enfassung der Verkehrsströme aller Teilnehmer im Zustand „ruhend“. Das entsprechende Verkehrsmodell wird in Abschnitt 3.3 (Verlustsystem mit endlicher Quellenzahl) behandelt.



Ankunftsverkehr mit unendlicher Quellenzahl : wenn die Anzahl m der Teilnehm er genügend groß ist, kann der resultierende Ankunftsverkehr durch einen Ankunftsprozess mit „unendlicher Quell enzahl“ approx imativ beschrieben werden. Dieser Modellansatz ist in de r Regel analytisch ei nfacher z u handhaben. Das e ntsprechende Verkehrsmodell wird im Zusammenhang mit der bekannten Erlang-Verlustformel, die in der P raxis häufig verwendet wird, be schrieben. Die Analyse fi ndet sich in A bschnitt 3.1 (Verlustsystem M/M/n).



Modell mit Rufwiederhol ung: In der Realität wird i n Üb erlastsituationen das Phänomen beobachtet, dass die Verkehrsintensität weiter ansteigt und sich die Systemleistung weiter ve rschlechtert. Ein Grund fü r diesen Schneeballeffekt ist die Rufwiede rholung: bei ansteigender Bl ockierungswahrscheinlichkeit werden abgewiesene Anrufer ungeduldiger u nd versuchen, de n nic ht erf olgreichen Anrufvers uch in kürzere n Zeitintervallen zu wiederholen und das Sy stem so stärke r unter Überlast zu setzen. Das entsprechende Verkehrsmodell wird in Abschnitt 3.4 (Rufwiederholungsm odell mit endlicher Quellenzahl) erörtert.

1.1 Verkehrstheoretische Modellbildung

1.1.3

9

Notation für einstufige Modelle

Im Allgemeinen werden zur Festlegung eines Mo dells u.a. folgende Strukturelemente benötigt: – – –

Verkehrsquellen und zugehörige zufallsabhängige Ankunftsprozesse, Bedieneinheiten und zugehörige zufallsabhängige Bedienprozesse, Warteschlangen und zugehörige Warteraumbegrenzungen und Bediendisziplinen.

Die einfa chste Form eines Modells ist ein ei nstufiges Wartesc hlangensystem. Eine häufig gebrauchte Notation für diese Klasse von M odellen wurde 1954 von Kendall eingeführt und im Laufe der Entwic klung der Verke hrstheorie des Öfteren erweitert. E ine oft ve rwendete Form der Kendallschen Notation zeigt Abb. 1.7.

GI[x]/ GI / n - S Anzahl der Warteplätze S = 0 : Verlustsystem S = ∞ : Wartesystem Anzahl von Bedieneinheiten Typ des Bedienprozesses Kennzeichnung des Gruppenankunftsprozesses Typ des Ankunftsprozesses

Abb. 1.7: Kendallsche Notation einstufiger Modelle Liegt ein Mo dell mit speziellen Ty pen von Ankunfts- und Bedienprozessen vor, werde n die Kurznotationen dieser Prozesse in die Ke ndallsche Notation direkt übernommen. Zur Kennzeichnung von Ankunfts- und Bedienprozessen we rden fol gende Kurznotationen häufig verwendet (genaue Definitionen der Typen von Verteilungen werden in Kap. 1.3.4 gegeben): General inde pendent, Ankunftsprozesse m it Erne uerungseigenschaft (E rneuerungsprozess, s. Kap. 2.2) oder Bedienprozesse, die j eweils mit Hilfe einer Zufallsvariablen besc hrieben w erden können. Die Realisierunge n diese r Zufallsvariablen sind statistisch unabhängig voneinander. D : Deterministisch. M : Markov, d.h. die zugehörige Zufallsvariabl e ist negativ-exponentiell verteilt. Ein M-Ankunftsprozess ist dementsprechend ein Possion-Prozess. Ek : Erlang-k-verteilt. Hk : Hyperexponentiell verteilt, k-ter Ordnung.

GI

:

Bei den Sonderfällen S = 0 (bei reinen Verlustsystemen) und S = ∞ (bei reinen Wartesystemen) wird der Parameter S häufig weggelassen.

10 1

Grundlagen

1.1.4

Theorem von Little beliebiges System

beliebiger Ankunftsprozess

E[X] E[T]

Rate λ

Abb. 1.8: Mittelwertbetracht ung nach Little Es we rde ein beliebiges Sys tem1 betrac htet. De r Be griff „ System“ ist hi er sehr allgemein aufzufassen. Es kann eine beliebig herausgegriffene Komponente eines realen Systems oder dessen Modells sein. Folgende Parameter werden berücksichtigt: : mit tlere Ankunftsrate des Eingangsprozesses, der ebenfalls allge mein sein kann, : mittlere Anzahl von Anforderungen im System : mittlere Aufenthaltszeit der Anforderungen im System

λ E [X] E [T]

Dann gilt: λ ⋅ E [ T ] = E [ X ] (Littlesche

Formel)

(1.1)

Die Beweisführung dieser allge meinen Gesetzmäßigkeit wird in Abb. 1.9 illustriert. Man betrachtet das System mit de m System zustand X ( t ) über einen la ngen Zeitraum t 0 . Der Systemzustand X ( t ) ist die Anzahl aller zu m Zeitpunkt t im System befindlichen Anforderungen. Während der Zeitspanne t 0 sind N Anforderungen eingetroffen, deren A ufenthaltszeiten Ti in Abb. 1.9 m arkiert werden. Die mittlere Aufenthaltszeit und die mittlere Anzahl von Anforderungen im System während der endlichen Zeitspanne sind: T = X =

1

1 N 1 t0

N



i =1 t0

Ti ≈

1 N

∫ X ( t ) ⋅ dt , 0

t0

∫ X ( t ) ⋅ dt , 0

d.h.

X ≈

N ⋅T . t0

Für das System wird nur vorausgesetzt, dass die im Folgenden betrachteten Grenzwerte wohldefinierte Konstanten - und keine Zufallsvariablen - sind.

1.1 Verkehrstheoretische Modellbildung

11

Beobachtungszeitraum Aufenthaltszeit im System

T 1

T 2

T N-1

T

N

T 3

X(t)

2 1 0

t0

t

Abb. 1.9: Zur Herleitung des Little-Theorems Mit λ =

N t0

erhält man die Gleichung λ⋅T ≈ X .

(1.2)

Da der Beobachtungszeitraum t 0 begrenzt ist, entsteht ein Fehler, indem eine A ufenthaltszeitspanne (z. B. von A nforderung N in Abb. 1. 9) am Ende des Be obachtungszeitraums abgeschnitten wird. Für den Grenzübergang t 0 → ∞ ist dieser Fehler verschwindend klein. Nach dem Grenzübergang t 0 → ∞ , mit λ = lim λ = lim t 0 →∞

N

t 0 →∞ t 0

,

E [ T ] = lim T = lim

1 N

E [ X ] = lim X = lim

1 t0

t 0 →∞

t 0 →∞

t 0 →∞

t 0 →∞

erhält man schließlich Gl. (1.1).

N

∑ Ti ,

i =1 t0

∫ X ( t ) dt , 0

(1.3)

12 1

Grundlagen

1.2

Grundbegriffe der Wahrscheinlichkeitstheorie

In diesem Kapitel werden einige Grundbegriffe der Wahrscheinlichkeitstheorie zusammengefasst. Diese Abha ndlung soll nur bereits vorhandene Kenntnisse a uffrischen und beschränkt sich auf Z usammenhänge und Sac hverhalte, die für die spät er behandelte Modellanalyse wichtig sind. Der interessierte Leser sei auf die a usführliche Behandlung der Wahrscheinlichkeitstheorie in Standardwerken verwiesen (siehe z.B. Feller [1.1], Fisz [1.3]).

1.2.1 a)

Ereignisse und Wahrscheinlichkeiten

Zufallsereignisse

Wir beobachten de n Wurf einer M ünze. Das Ex periment (Ve rsuch) liefert ein be stimmtes zufallsabhängiges Ergebnis (Kopf oder Zahl), dem irgendeine Zahl zugeordnet werden kann (z.B. Null {0} für Kopf und Eins {1} für Zahl). Diese Zahl ist Ergebnis einer Abbildung und steht stellvertretend für das Versuchsergebnis. Begriffe: ωi Elem Ω =

b)

entarereignis bzw. Versuchsergebnis,

{ω1 , ω2 ,…}

Ergebnisraum, Menge aller Versuchsergebnisse. Ω kann eine endliche oder eine unendliche Menge sein.

Definitionen und Axiome zum Wahrscheinlichkeitsbegriff

Wahrscheinlichkeit als Grenzwert der relativen Häufigkeit Betrachtet werden eine Reihe von Experimenten, wobei n : Anzahl der Experimente, A i : Merkmal bzw. Ereignis; dieses besteht aus einer Menge von Versuchsergebnissen, n i : Anzahl der Experimente, bei denen das Versuchsergebnis zum Merkmal A i gehört.

Die relative Häufigkeit für das Merkmal (bzw. das Ereignis) A i wird wie folgt definiert: h ( Ai ) =

ni . n

(1.4)

Der Gr enzwert v on h ( A i ) für eine une ndliche Anzahl von Experimenten wird als Wahrscheinlichkeit von A i bezeichnet:

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie P ( A i ) = lim

n →∞

13

ni . n

(1.5)

Eigenschaften: –

0 ≤ h (Ai ) ≤ 1



für disjunkte Merkmale A i , A j, A i ∩ A j = ∅ : h(A i ∪ A j ) = h(A i ) + h(A j ) ⇒ P(A i ∪ A j ) = P(A i ) + P(A j ) ,



für {A i } disjunkt mit

∑ h (Ai )



∪ Ai =

= 1

0 ≤ P (Ai ) ≤ 1 ,

Ω:

i

i



∑ P (Ai )

= 1

i

(Vollständigkeitsrelation) Laplace-Wahrscheinlichkeit Wenn a ufgrund einer symmetrischen Ei genschaft eine Anzahl gleichwertiger Alternativen von Versuchsergebnissen existiert, mit m i : Anzahl der günstigen Alternativen für das Merkmal A i , m :

Anzahl aller Alternativen,

so ist die so gena nnte „ a-priori“-Wahrscheinlichkeit (bzw. Wahrscheinlichkeit unter Laplace-Annahme) wie folgt definiert: P (Ai ) =

mi . m

(1.6)

Beispiel: Beim Würfeln m it einem Würfel sind die Elementarereignisse {1}, { 2}, {3}, {4}, {5}, {6}. Ist der Würfel vollsymmetrisch , sind die Ele mentarereignisse gleichwahrscheinlich. Wird das M erkmal { A 1 : Augenzahl ist ungerade} betrachtet, so ist m1 = 3⎫ 1 . ⎬ ⇒ P (A1 ) = m = 6⎭ 2

Axiomatische Definition Eine m athematisch exa kte B estimmung de s Be griffes „ Wahrscheinlichkeit“ liefe rt das f olgende axiomatische System. A und A i sind dabei Merkmale bzw. E reignisse im Ergebnisraum Ω . Axiom Ι

Jedem zufälligen Erei gnis A entspricht eine Zahl P ( A ) (seine Wahrscheinlichkeit), die sich wie folgt verhält:

14 1

Grundlagen 0 ≤ P (Ai ) ≤ 1 .

Axiom ΙΙ

(1.7)

Die Wahrscheinlichkeit des sicheren Ereignisses Ω ist Eins: P (Ω) = 1 .

(1.8)

Axiom ΙΙΙ ⎛∞ ⎞ P ⎜ ∪ Ai ⎟ = ⎝ i =1 ⎠



∑ P ( A i ),

i =1

Ai ∩ A j = ∅

für i ≠ j .

(1.9)

Alle Zusam menhänge der Wahrscheinlichkeitsrechung lassen sich a us diesem Axiom ensystem aufbauen.

1.2.2 a)

Wichtige Begriffe und Gesetze

Vollständiges Ereignissystem

Gegeben sei eine Menge von Ereignissen {A i , i = 1, 2,… , N} , die Teilmengen eines Ereignisraums Ω sind. Falls diese Ereignisse disjunkt sind, d.h. A i ∩ A j = ∅, ∀i ≠ j , ergibt sich für die Vereinigungsmenge B = A 1 ∪ A 2 … ∪ A N :

P (B) =

N

∑ P (Ai ) .

(1.10)

i =1

Falls B = Ω , d h. B vereinigt alle Ele mentarereignisse in Ω , da nn ist P ( B ) = 1 un d {A i , i = 1,… , N} bildet ein vollständiges Ereignissystem bzw. eine Partition. b)

Verbundereignis und Verbundwahrscheinlichkeit

Betrachtet werden zwei nicht notwendigerweise disjunkte Ereignisse A und B . Dann gilt: P ( A ∩ B ) = P ( A, B ) = P ( B, A ) ,

P (A ∪ B ) = P (A ) + P ( B ) − P (A ∩ B) .

(1.11)

Falls {A i , i = 1,… , N} ein voll ständiges Erei gnissystem ist, kann die Wahrscheinlichkeit eines beliebigen Ereignisses B aus den Verbundereignissen ( B, A i ) wie folgt ermittelt werden: P (B) =

N

∑ P (Ai , B ) .

i =1

(1.12)

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie c)

15

Bedingte Wahrscheinlichkeit

Ein bedi ngtes Ereignis ( A B ) wird defini ert als der Eint ritt des Ereigni sses A unte r der Bedingung, dass das Ereignis B eintritt ( P ( B ) > 0 ). Es gilt: P (A B) =

P (A , B ) P (B)

.

(1.13)

d h. P ( A B ) ≥ P ( A, B ) . d) Statistisc

he Unabhängigkeit

Zwei Ereignisse A und B sind voneinander unabhängig, wenn gilt: P (A B ) = P (A )

P ( A, B ) = P ( A ) ⋅ P ( B ) ,

oder

(1.14)

d h. E reignis A tritt mit der gleichen Wahrscheinlichkeit ein, una bhängig da von, ob B eintritt oder nicht. e)

Gesetz der totalen Wahrscheinlichkeit

Gegeben seien ein vollständi ges Ereignissystem {A i } und ein beliebiges Ereignis B . Sind die bedingten Wahrscheinlichkeiten P ( B A i ) und die Wahrscheinlichkeiten P ( A i ) für die jeweilige Bedingung A i bekannt, so lässt sich die Wahrscheinlichkeit für das Ereignis B wie folgt berechnen:

P (B) =

N

∑ P ( Ai , B )

=

i =1

N

∑ P ( B Ai ) ⋅ P (Ai ) .

(1.15)

i =1

Diese Beziehung wird das Gesetz der totalen Wahrscheinlichkeit genannt. Aus Gl. (1.13) und (1.15) lässt sich die Bayes'sche Formel gewinnen: P (Ai B ) =

P ( B Ai ) ⋅ P (Ai ) P (B)

=

P ( B Ai ) ⋅ P ( Ai )

N

∑ P ( B Ai ) ⋅ P ( Ai )

.

i =1

f) Anmerkung

In a), b) und e) kann die Summationsgrenze N auch N = ∞ sein.

(1.16)

16 1

Grundlagen

1.2.3 a) Z

Zufallsvariable, Verteilung und Verteilungsfunktion ufallsvariable

Eine Zufallsvariable (ZV) ist eine Funktion, die jedem Elementarereignis ωi eines Ereignisraumes eine re elle Zahl zuordnet. Je nach Wertebereich unterscheidet man zwischen diskreten und kontinuierlichen Zufallsvariablen. Dieser Sachverhalt wird m it Hilfe folgender Beispiele verdeutlicht: • Diskrete Zufallsvariable: Beim Zufallsexpe riment „Wü rfeln m it zwei Würfeln“ wir d die Zufalls variable [ X = Summe der Augenzahlen ] definiert. X ist eine diskrete ZV und kann nur ganzzahlige Werte annehmen. In diesem Beispiel hat X den Wertebereich {2, 3,… , 12} . • Kontinuierliche Zufallsvariable: Die Durchlaufzeit eines Date npaketes in eine m Rechnernetz wird m it der Z ufallsvariablen T beschrieben. T ist eine kontin uierliche ZV und kann z.B. beliebige Werte zwischen Tmin = 150 ms und Tmax = 500 ms annehmen. Im Allgem einen ka nn eine diskrete Zufallsvari able beliebige Wertebereiche besitzen. Hier betrachten wir je doch, wenn nicht ges ondert ve rmerkt, ni cht-negative ganzzahli ge Z ufallsvariablen, d h. der Wertebereich ist die Menge natürlicher Zahlen inklusive Null. b) Verteilung X sei eine diskrete Zufallsvariable. Die Realisierung i de r ZV X tritt mit der Wahrscheinlichkeit x (i ) = P (X = i ) ,

i = 0, 1,… , X max (Verteilung)

(1.17)

auf, wobei X max nicht endlich sei n m uss. Diese Wahrscheinlichkeiten f ormen den Wahrscheinlichkeitsvektor {x ( i ) , i = 0, 1,… , X max } , der die Verteilung der ZV X darstellt. Es gilt die Vollständigkeitsrelation X max

∑ x (i)

= 1 . (Vollständi

gkeitsrelation)

(1.18)

i =0

Die Verteilung {x ( i )} enthält eine vollständige Beschreibung der ZV X . c) Verteilungsfunktion A sei eine beliebige (diskrete oder kontinuierliche) Zufallsvariable. Die Verteilungsfunktion (VF) der ZV A wird definiert als

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie

17

A ( t ) = P ( A ≤ t ) , (Verteilungsfunktion)

(1.19)

d h. als die Wahrscheinlichkeit, dass die ZV A kleiner oder gleich einer Realisierung t ist. Die komplementäre Verteilungsfunktion lautet Ac ( t ) = 1 − A ( t ) = P (A > t ) .

(1.20)

Die VF A ( t ) einer ZV hat folgende Eigenschaften: t1 < t2

⇒ A ( t 1 ) ≤ A ( t 2 ) , (M

t1 < t 2

⇒ P ( t1 < A ≤ t 2 ) = A ( t 2 ) − A ( t1 ) ,

A ( −∞ ) = 0,

onotonieeigenschaft)

(1.21) (1.22)

A (∞) = 1 .

(1.23)

Die Verteilungsfunktion A ( t ) enthält eine vollständige Besc hreibung de r Z ufallsvariablen A . Wie in Abb. 1.10 illustriert, kann eine Verteilungsfunktion ste tig (Abb. 1.10a) oder stückweise stetig (Abb. 1.10b) sein. A(t)

A(t)

1

1

A0 0

t

a(t)

0

a(t)

t1

t2

t

t2

t

A0 δ(t-t0)

t0

t

a)

t0

t1

b) Abb. 1.10: Allgemeine Verteilungsfunktion und Verteilungsdichtefunktion

d) Verteilun

gsdichtefunktion

Die Verteilungsdichtefunktion (VDF) einer ZV A lässt sich als erste Ableitung der Verteilungsfunktion A ( t ) angeben:

18 1

Grundlagen

a (t) =

d A ( t ) , (Verteilungsdichtefunktion) dt

(1.24)

wobei die Vollständigkeitsrelation gilt: ∞

∫ a ( t ) dt

= 1.

(1.25)

−∞

Bei der Defi nition der VDF wird stillschweigend vorausgesetzt, dass die Ableitung der VF A ( t ) existiert (s. Beispiel in Abb. 1.11a). Falls A ( t ) an eine r Stell e t 0 unstetig ist und einen Sprung z.B. der Stärke A 0 aufweist (vgl. Abb. 1.11b), kann a ( t ) mit Hilfe von DiracImpulsen (s. Papoulis [1.7]) angegeben werden. Die VDF a ( t ) hat in diesem Beispiel an der Sprungstelle den „Funktionswert“ A 0 δ ( t − t 0 ) . e)

Zusammenhang zwischen Verteilung und Verteilungsfunktion

Gemäß den obigen De finitionen s ollen Ve rteilungen zur Beschrei bung einer dis kreten ZV, Verteilungsfunktionen und Verteilungsdichtefunktionen dagegen zur Charakterisierung einer kontinuierlichen ZV ve rwendet werde n. De r Zu sammenhang z wischen Verteilung, V F und VDF wird in Abb. 1.11 an einem Beispiel verdeutlicht. Die Verteilu ngsfunktion ein er d iskreten ZV X ka nn m it Hilfe de r zugehöri gen Verteilung dargestellt werden. Wir betrachten zusätzlich eine ZV A , di e nur diskrete Realisieru ngen t = i ⋅ Δt anne hmen darf. Dabei ist Δt die Diskretisieru ngskonstante. Der Zu sammenhang zwischen X und A kann wie folgt dargestellt werden:

• Verteilung: x ( i ) = P ( X = i ) = P ( A = i ⋅ Δt ) ,

i = 0, 1,…

• Verteilungsfunktion: A ( t ) = P (A ≤ t ) .

Die Verteilungsfunktion (s. Abb. 1.11b) ist treppenförmig, die Stufenhöhen entsprechen den Verteilungswerten.

• Verteilungsdichtefunktion: Gemäß der D efinition kann die zuge hörige Verteilungsdichtefunktion als Sum me g ewichteter Dirac-Impulse (s. Papoulis [1.7]) angegeben werden: a (t) =

d A (t) = dt

+∞

∑ P (A = ti ) ⋅ δ ( t − ti ) ,

i =−∞

(1.26)

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie

19

wobei δ ( t − t i ) den Dirac-Impuls an der Stelle t = t i bedeutet.

x(i) 0.3

a)

0.1 1

3

5

10

12

14

1

3

5

10

12

14

t/Δt

12

14

t/Δt

i

A(t) 1 0.5

b)

0.1

a(t)

P(T=t2) δ(t-t2)

c) t 0

3

t 1

5

t 2

10

t 3

t 4

Abb. 1.11: Beschreibungsformen diskreter Zufallsvariablen a) Verteilung b) Verteilungsfunktion c) Verteilungsdichtefunktion

20 1

Grundlagen

1.2.4

Erwartungswert und Momente

a) Erwartungsw

ert

Gegeben sei: A : Zufallsvariable mit Verteilungsdichtefunktion a ( t ) , g ( A ) : Funktion der ZV A ; sie stellt eine neue Zufallsvariable dar.

Der Erwartungswert von g ( A ) wird definiert als: E [g (A ) ] =

b) Mittelwert

+∞

∫ g ( t ) ⋅ a ( t ) dt . (Erwart

ungswert)

(1.27)

-∞

einer Zufallsvariablen

Für g ( A ) = A erhält man aus Gl. (1.27) den Mittelwert der ZV A : m 1 = E [A ] =

c)

+∞

∫ t ⋅ a ( t ) dt . (Mittelwert)

(1.28)

−∞

Gewöhnliche Momente einer Zufallsvariablen

Mit g ( A ) = A k erhält m an die Definition des k-ten gewöhnlichen Moments einer Zufallsvariablen A : m k = E[A k ] =

+∞



−∞

t k ⋅ a ( t ) dt ,

k = 0, 1,… .

(k-tes d)

gewöhnliches Moment)

(1.29)

Zentrale Momente einer Zufallsvariablen

Zentrale M omente be schreiben die Schwanku ng eine r Zufallsvariablen um den Mittelwert k m 1 . Diese lassen sich durch Einsetzen von g ( A ) = ( A − m 1 ) in Gl. (1.27) definieren: k

μk = E[ ( A − m 1 ) ] =

+∞

∫ ( t − m 1 ) ⋅ a ( t ) dt

k = 0, 1,… .

−∞

(k-tes zentrales Moment)

(1.30)

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie

21

Speziell für k = 2 erhält man die Varianz der Zufallsvariablen 2 μ 2 = E ⎡( A − m 1 ) ⎤ = VAR [A ] (Va ⎣ ⎦

rianz)

(1.31)

oder 2 VAR [A ] = E ⎡( A − m 1 ) ⎤ = E ⎡⎣A 2 − 2Am 1 + m 12 ⎤⎦ ⎣ ⎦ 2 = E ⎡⎣A ⎤⎦ − 2m 1 ⋅ E [A ] + m 12 = m 2 − m 12 .

(1.32)

Weitere häufig benutzte Größen sind: σA = cA =

1.2.5 a) Zw

VAR [A ] , (Standardabweichung) σA m1

( m 1 > 0 ) . (Va

(1.33) riationskoeffizient)

(1.34)

Funktionen zweier Zufallsvariablen eidimensionale Zufallsvariablen

Wir betrachten zunächst den allgemeinen Fall mehrdimensionaler Zufall svariablen und zugehöriger Verteilungsfunktionen. Sind A 1 , A 2 ,… , A i , beliebige, nicht-negative ZV, so kann mit Hilfe des Verbundereignisses

{A 1 ≤ t 1 , A 2 ≤ t 2 ,… , A i ≤ t i }

(1.35)

die Verbundverteilungsfunktion A ( t 1 , t 2 ,… , t i ) = P {A 1 ≤ t 1 , A 2 ≤ t 2 ,… , A i ≤ t i }

(1.36)

definiert werden. Für in der analytischen Leistungsbewertung häufig anzutreffende zweidimensionale Zufallsvariablen ( A 1 , A 2 ) lautet die Definition der Verbundverteilungsfunktion A ( t1 , t2 ) = P (A1 ≤ t1 , A2 ≤ t2 ) .

(1.37)

Für die Grenzübergänge t 1 → ∞ bzw. t 2 → ∞ erhält man die Rand -Verteilungsfunktionen und die zugehörigen Rand-Verteilungsdichtefunktionen:

22 1

Grundlagen A 1 ( t 1 ) = lim A ( t 1 , t 2 ) , a1 ( t 1 ) =

d A1 ( t1 ) , dt 1

(1.38)

A 2 ( t 2 ) = lim A ( t 1 , t 2 ) , a 2 ( t 2 ) =

d A2 ( t2 ) . dt 2

(1.39)

t 2 →∞

t 1 →∞

Die Wahrscheinlichkeit eines wie folgt definierten Ereignisses R : R = {t 11 < A 1 ≤ t 12 , t 21 < A 2 ≤ t 22 }

lässt sich mittels der Verbundverteilungsfunktion ausdrücken: P ( R ) = A ( t 12 , t 22 ) − A ( t 12 , t 21 ) − A ( t 11 , t 22 ) + A ( t 11 , t 21 ) .

(1.40)

Analog zu den eindimensionalen Zufallsvariablen kann die Verbunddichtefunktion für zweidimensionale Zufallsvariablen angegeben werden: a ( t 1 , t 2 ) = lim

P { t 1 < A 1 ≤ t 1 + Δt 1 , t 2 < A 2 ≤ t 2 + Δ t 2 }

lim

Δt 1 ⋅ Δt 2

Δt 1 → 0 Δt 2 →0

⎛ A ( t 1 + Δt 1 , t 2 + Δt 2 ) − A ( t 1 + Δt 1 , t 2 ) − lim ⎜ Δt 1 ⋅ Δt 2 ⎝ A ( t 1 , t 2 + Δt 2 ) − A ( t 1 , t 2 ) ⎞ ⎟ Δt 1 ⋅ Δt 2 ⎠

= lim

Δt 1 → 0 Δt 2 →0

=

∂ 2 A ( t1 , t2 ) ∂t 1 ∂t 2

,

(1.41)

wobei die folgenden Eigenschaften ersichtlich sind: ∞∞

∫ ∫ a ( ξ 1 , ξ 2 ) dξ 1 dξ 2

= 1,

(1.42)

0 0

t2 ⎛ t1



⎝0



∫ ⎜⎜ ∫ a ( ξ1 , ξ2 ) dξ1 ⎟⎟ dξ2 0

b 2 ⎛ b1

= A ( t1 , t2 ) ,

⎞ ⎜ ⎟ dξ2 = P ( a1 < A 1 ≤ b1 , a 2 < A 2 ≤ b2 ) . a , d ξ ξ ξ ( ) 1 2 1 ∫⎜∫ ⎟ a 2 ⎝ a1 ⎠

(1.43)

(1.44)

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie b)

23

Momente und Korrelationskoeffizient

Analog zur Definition des Erwartungswertes in Gl. (1.27) werden für eine zweidimensionale Zufallsvariable definiert: E ⎡A 1k 1 A k2 2 ⎤ = ⎣ ⎦

+∞ +∞

∫ ∫ 0 0

t 1k 1 t k2 2 ⋅ a ( t 1 , t 2 ) dt 1 dt 2 ,

wöhnliches Moment ( k 1 , k 2 ) -ter Ordnung)

(ge μ k 1 k 2 = E ⎡( A 1 − m 1 ) ⎣

k1

( A 2 − m 2 )k

2

(1.45)

⎤ ⎦

Moment ( k 1 , k 2 ) -ter Ordnung

(zentrales

(1.46)

und speziell für k 1 = k 2 = 1 : COV [A 1 , A 2 ] = μ11 = E ⎡⎣( A 1 − m 1 ) ⋅ ( A 2 − m 2 ) ⎤⎦ = E [A 1 ⋅ A 2 ] − E [A 1 ] ⋅ E [A 2 ] . (K

ovarianz)

(1.47)

Der Korrelationskoeffizient von A 1 und A 2 wird wie folgt angegeben: r = COR [A 1 , A 2 ] =

=

μ11 = σ A 1 σA 2

E ⎡⎣( A 1 − m 1 )( A 2 − m 2 ) ⎤⎦ 2 2 E ⎡( A 1 − m 1 ) ⎤ E ⎡( A 2 − m 2 ) ⎤ ⎣ ⎦ ⎣ ⎦

E [A 1 ⋅ A 2 ] − E [A 1 ] E [A 2 ] 2 E ⎡( A 1 − m 1 ) ⎤ ⎣ ⎦

2 E ⎡( A 2 − m 2 ) ⎤ ⎣ ⎦

(Korrelations

.

koeffizient)

(1.48)

Wie im nächsten Abschnitt (vgl. Gl. (1.58)) he rgeleitet wird, ergi bt sich für unabhängige Zufallsvariablen A 1 , A 2 : E [A 1 ⋅ A 2 ] = E [A 1 ] ⋅ E [A 2 ] .

(1.49)

Nach Gl. (1.47) und (1.48) verschwinden die K ovarianz un d der Ko rrelationskoeffizient zweier Z ufallsvariablen, falls diese ZV voneinander statistisch unabhä ngig sind. Dies bedeutet, dass die statistische Unabhängigkeit die Unkorreliertheit beinhaltet. Es sei bemerkt, dass umgekehrt die Unkorreliertheit zweier stochastischer Vorgänge nicht immer die statistische Unabhängigkeit zur Folge hat.

24 1 c)

Grundlagen Summe zweier kontinuierlicher Zufallsvariablen

A sei die Summe zweier nicht-negativer Zufallsvariablen A 1 und A 2 A = A1 + A 2 ,

A1 , A2 ≥ 0 ,

mit der Verbunddichtefunktion a ( t 1 , t 2 ) und den R and-Verteilungsdichtefunktionen a1 ( t ) und a 2 ( t ) . Die Summanden A 1 und A 2 können voneinander statistisch abhängig sein. Die Verteilungsfunktion A ( t ) = P ( A ≤ t ) = P (A1 + A2 ≤ t )

(1.50)

und deren Eigenschaften sollen untersucht werden. In der Realisierung ( ξ1 , ξ2 ) der T upel {A 1 , A 2 } liegen die Punkte für A = A 1 + A 2 auf einer Geraden (s. Abb. 1.12). Di e Verteilungsfunktion von A kann du rch Integralbildung innerhalb eines Dreiecks ermittelt werden: A (t) = =



ξ1 +ξ2 ≤ t t



a ( ξ1 , ξ2 ) dξ1 dξ2 =

t



ξ1 = 0

⎛ t −ξ1 ⎞ ⎜ ∫ a ( ξ1 , ξ2 ) dξ2 ⎟ dξ1 ⎜ ξ =0 ⎟ ⎝ 2 ⎠

t

∫ a ( u, v − u ) dv du .

(1.51)

u =0 v = u

A2

ξ2 t ξ 1 + ξ 2= t

t - ξ1

ξ1

ξ1

t A

1

Abb. 1.12: Zur Berechnung der Summe zweier Zufallsvariablen

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie

25

Die ersten zw ei gewöhnlichen M omente und die Varianz der Sum me A lassen sich wie folgt berechnen: E [A ] = E [ A 1 + A 2 ] =

∞ ∞

∫ ∫ ( t 1 + t 2 ) a ( t1 , t 2 ) dt1 dt 2 0 0

= =



⎡∞

0

⎣0





⎡∞





0

⎣0



∫ t1 ⎢⎢ ∫ a ( t 1 , t 2 ) dt 2 ⎥⎥ dt1 + ∫ t 2 ⎢⎢ ∫ a ( t1 , t 2 ) dt1 ⎥⎥ dt 2





0

0

∫ t1 a1 ( t 1 ) dt 1 + ∫ t 2 a2 ( t 2 ) dt 2 = E [A 1 ] + E [A 2 ] , E[A 1 ]

(1.52)

E[A 2 ]

2 E ⎡⎣A 2 ⎤⎦ = E ⎡( A 1 + A 2 ) ⎤ = E ⎡⎣A 12 + 2A 1A 2 + A 22 ⎤⎦ ⎣ ⎦ 2 = E ⎣⎡A 1 ⎦⎤ + 2E [A 1 ⋅ A 2 ] + E ⎣⎡A 22 ⎦⎤ ,

(1.53)

2

VAR [A ] = E[A 2 ] − E [A ]

= VAR [A 1 ] + VAR [A 2 ] + 2 ( E [A 1 ⋅ A 2 ] − E [A 1 ] ⋅ E [A 2 ]) COV[A 1 ,A 2 ]

= VAR [A 1 ] + VAR [A 2 ] + 2 COV [A 1 , A 2 ] .

(1.54)

Spezialfall: statistisch unabhängige A 1 und A 2

Falls die Zufal lsvariablen A 1 und A 2 voneinander statistisch un abhängig sind, besteht die Verbunddichtefunktion aus dem Produkt der Rand-Verteilungsdichtefunktionen: a ( t 1 , t 2 ) = a1 ( t 1 ) ⋅ a 2 ( t 2 ) .

(1.55)

Die Ve rteilungsdichtefunktion a ( t ) ist dann die Faltung der Ve rteilungsdichtefunktionen a1 ( t ) und a 2 ( t ) . Dieser Sachverhalt kann aus Gl. (1.51) hergeleitet werden. Mit A (t) = =

t

t

∫ ∫ a ( u, v − u ) dvdu

u =0 v = u t t

∫ ∫

u =0 v = u

a1 ( u ) ⋅ a 2 ( v − u ) dvdu =

t



u =0

a1 ( u ) ⋅ A 2 ( t − u ) du

(1.56)

26 1

Grundlagen

erhält man: a (t) =

dA ( t ) dt

=

t



u =0

a1 ( u ) ⋅ a 2 ( t − u ) du

= a1 ( t ) ∗ a 2 ( t ) ,

(Faltungs

operation)

(1.57)

wobei das Symbol „∗“ die Notation der Faltungsoperation darstellt. Da infolge der statistischen Unabhängigkeit von A 1 und A 2 gilt E [A 1 ⋅ A 2 ] = = =

∞ ∞

∫ ∫

0 0 ∞ ∞

t 1 t 2 a ( t 1 , t 2 ) dt 1dt 2

∫ ∫ t 1 t 2 a ( t1 ) a ( t 2 ) dt 1dt 2

0 0 ∞



0

0

∫ t1a1 ( t1 ) ∫ t 2 a2 ( t 2 ) dt 2 dt 1

= E [A 1 ] ⋅ E [ A 2 ] ,

(1.58)

ergibt sich für die Varianz der Summe aus Gl. (1.54) VAR [A ] = VAR [A 1 + A 2 ] = VAR [A 1 ] + VAR [A 2 ] .

(1.59)

Allgemein gelten für die Summe A mehrerer statistisch unabhängiger Zufallsvariablen A =

k

∑ Ai

i =1

die Beziehungen E [A ] =

k

∑ E [A i ] ,

(1.60)

i =1

VAR [A ] =

k

∑ VAR [Ai ] .

i =1

Gleichung (1.60) gilt auch für beliebige, nicht unabhängige Zufallsvariablen.

(1.61)

1.2 Grundbegriffe der Wahrscheinlichkeitstheorie d) Summe

27

diskreter Zufallsvariablen

Sei X die Summe zweier nicht-negativer di skreter Z ufallsvariablen X 1 un d X 2 mi t d en Verteilungen x1 ( i ) und x 2 ( i ) : X = X1 + X2 .

Die Sum manden X 1 un d X 2 seien ferner voneinander sta tistisch un abhängig. Die Verteilung von X kann unter Verwendung des Ges etzes der totalen Wahrscheinlichkeit wie folgt berechnet werden: x ( i ) = P ( X = i ) = P ( X1 + X2 = i ) =

i

∑ P ( X1 = i − j j =0

=

X2 = j) ⋅ P ( X2 = j)

i

∑ x1 ( i − j ) ⋅ x 2 ( j ) j =0

= x1 ( i ) ∗ x2 ( i ) .

(dis

krete Faltung)

(1.62)

Die Verteilung der Summe ist demgemäß die diskrete Faltung (mit Symbol „ ∗ “) der beiden Verteilungen. e) Differe

nzbildung diskreter Zufallsvariablen

Betrachtet wird die Differe nz X zweier nicht-negativer diskreter Zufallsvariablen X 1 und X 2 mit den Ve rteilungen x1 ( i ) und x 2 ( i ) ( x1 ( i ) = 0 und x 2 ( i ) = 0 für ne gative Werte von i): X = X1 − X2 .

Die ZV X 1 u nd X 2 seien ferner statistisch unabhäng ig. Die Verteilung de r Differenz X lässt sich wie folgt ermitteln: x ( i ) = P ( X = i ) = P ( X1 − X 2 = i ) =



∑ P ( X1 = i + j | X2 = j) ⋅ P ( X2 = j) j=0

=



∑ x1 ( i + j ) x 2 ( j ) j=0

= x 1 ( i ) ∗ x 2 ( −i ) ,

wobei x ( i ) für negative Werte von i existieren kann.

(1.63)

28 1 f)

Grundlagen Maximum von Zufallsvariablen

Sei A das Maximum zweier statistisch unabhängiger Zufallsvariablen A 1 , A 2 : A = max {A 1 , A 2 } ,

so gilt

{A ≤ t} falls {A 1 ≤ t und A 2 ≤ t} oder P (A ≤ t ) = P (A1 ≤ t ) ⋅ P (A2 ≤ t ) ,

d.h. A ( t ) = A1 ( t ) ⋅ A2 ( t )

a (t) =

dA ( t ) dt

(1.64)

= a1 ( t ) ⋅ A 2 ( t ) + a 2 ( t ) ⋅ A 1 ( t ) .

(1.65)

Allgemein kann f ür das M aximum mehrerer statistisch unabhängiger Zufallsvariablen {A i } mit den Verteilungsfunktionen {A i ( t )} folgende Beziehung angegeben werden: A = max {A 1 , A 2 , … , A k } ,

A (t) =

g) Minimum

(1.66)

k

∏ Ai ( t ) .

(1.67)

i =1

von Zufallsvariablen

Betrachtet werde nun das M inimum zweier s tatistisch unabhä ngiger Zufallsvariablen A 1 , A2 : A = min {A 1 , A 2 } .

Die Minimumbildung kann wie folgt formuliert werden:

{A > t} falls {A 1 > t und A 2

> t}

oder P (A > t ) = P (A1 > t ) ⋅ P (A2 > t ) ,

d.h.

1.3 Transformationsmethoden und wichtige Verteilungen

( 1 − A ( t ))

29

( 1 − A1 ( t )) ⋅ ( 1 − A 2 ( t ) )

=

oder A ( t ) = A1 ( t ) + A2 ( t ) − A1 ( t ) A2 ( t ) , dA ( t )

a (t) =

dt

= a1 ( t ) ⋅ ( 1 − A 2 ( t ) ) + a 2 ( t ) ⋅ ( 1 − A 1 ( t ) ) .

(1.68) (1.69)

Allgemein gilt entsprechend für das Minimum mehrerer statistisch unabhängiger Zufallsvariablen {A i } mit den Verteilungsfunktionen {A i ( t )} : A = min {A 1 , A 2 ,… , A k } ,

(1.70)

k

A ( t ) = 1 − ∏ ( 1 − Ai ( t )) .

(1.71)

i =1

1.3

Transformationsmethoden und wichtige Verteilungen

In de n späteren Kapiteln we rden in analytis chen Beha ndlungen verkehrstheoretischer Modelle Trans formationsmethoden verwendet. Di ese werde n im Folgende n zusam mengefasst. Die aufgeführten Definitionsgleichungen gelten für allgemeine Zufallsvariablen. Sie werden hier jedoch für den in der Praxis wichtigen Bereich nicht-negativer ZV angegeben. Wir verwenden folgende Notation: Zeitbereich Funktion

Bildbereich transformierte Funktion

1.3.1

Die erzeugende Funktion

a) Definiti

on

Gegeben sei eine diskrete Zufallsvariable X mit der Verteilung x (i ) = P (X = i )

i = 0, 1, … .

Als wahrschei nlichkeitserzeugende Fu nktion (o der abge kürzt, erz eugende Funktion, EF) bezeichnet man die Summe

30 1

Grundlagen ∞

X EF ( z ) = EF {x ( i )} =

∑ x ( i ) zi , (erze

ugende Funktion)

(1.72)

i =0



wobei z eine kom plexwertige Variable ist. Da die Summe ∑ i =0 x ( i ) = 1 beschränkt ist, konvergiert X EF ( z ) innerhalb und auf dem Einheitskreis ( z ≤ 1 ) . Die erzeuge nde Funktion enthält eine vollständige Beschreibung der Verteilung {x ( i )} . b) Eigensch

aften

Momente X EF ( 1 ) = X'EF ( 1 ) =

X"EF ( 1 ) =



∑ x (i)

= 1,

(1.73)

i =0

d = X EF ( z ) dz z =1

d2 dz

2



∑ x ( i ) ⋅ i ⋅ zi −1

i =0

z =1

= E [X] ,

= E[X 2 ] − E [ X ] ,

X EF ( z )

(1.74) (1.75)

z =1

2

VAR [ X ] = E[X 2 ] − E [ X ]

2

= X"EF ( 1 ) + X'EF ( 1 ) − X'EF ( 1 ) .

(1.76)

Rücktransformation

Die Verteilung x ( i ) kann aus der erzeugenden Funktion wie folgt zurückgewonnen werden: x ( i ) = EF −1 {X EF ( z )} =

1 di . X EF ( z ) i! dzi z =0

(1.77)

Gemäß Gl. (1.77) lässt sich die Ve rteilung {x ( i )} prinzi piell durc h A bleitungen a us der (wahrscheinlichkeits)erzeugenden F unktion zurüc kgewinnen. Die Rüc ktransformation kann numerisch jedoch effizienter m it der Dis kreten Fo urier-Transformation (DFT) bz w. der schnellen Fourier-Transformation (FFT: Fast Fourier Transform) durchgeführt werden (siehe z.B. Cavers [1.8], Cooley & Tukey [1.9], Henrici [1.10]). Faltungssatz für diskrete Zufallsvariablen X sei die Summe zweier statistisch unab hängiger diskreter Zufallsvariablen X 1 und X 2 mit den Verteilungen {x1 ( i )} und {x 2 ( i )} . Die Summe X = X1 + X2

1.3 Transformationsmethoden und wichtige Verteilungen

31

besitzt die Verteilung (vgl. Herleitung Kap. 1.2.5) x ( i ) = x1 ( i ) ∗ x 2 ( i ) =

+∞



j =−∞

x1 ( j ) ⋅ x 2 ( i − j ) =

+∞



j =−∞

x1 ( i − j ) ⋅ x 2 ( j ) , (Faltungs

satz)

(1.78)

wobei das Symbol „ ∗ “ die diskrete Faltungsoperation repräsentiert. Durch die Transformation wird aus der Faltung der Verteilungen eine M ultiplikation der Transform ierten (EF: erzeugende Funktion) : x (= i)

x1 ( i )

EF

EF

X EF ( z ) =

c) Die

X 1,EF ( z )

x2 ( i )



EF X 2 ,EF ( z )



(1.79)

Z-Transformation

Eine verwandte Form der erzeugenden Funktion ist die Z-Transformation, die in der Signalverarbeitung häufi g ver wendet wird. Die Z-Tra nsformation der Verteilung {x ( i )} einer nicht-negativen diskreten Zufallsvariablen X wird definiert als X ZT ( z ) = ZT {x ( i )} =



∑ x ( i ) z−i . (Z-T

ransformation)

(1.80)

i =0

Dabei wird im Unterschied zur Definition der erzeugenden Funktion in Gl. (1.72) z −1 anstatt z als F unktionsparameter verwendet. Die zugehörigen Eigenschaften lassen sich analog zu denen der erzeugenden Funktion herleiten (vgl. Oppenheim & Schafer [1.6]).

1.3.2

Laplace- und Laplace-Stieltjes-Transformation

a) Definiti

on

Bei den Analysem ethoden im kontinuierlichen Ze itbereich spielt die Laplace- (LT) bzw. Laplace-Stieltjes-Transformation (LST) eine zentrale R olle. A ( t ) und a ( t ) seien die Verteilungsfunktion und die Verteilungsdichtefunktion einer nicht-negativen ZV A . Die Laplace-Stieltjes-Transformierte von A ( t ) bzw. die Laplace-Transformierte von a ( t ) wird definiert als Φ A ( s ) = LST {A ( t )} =



∫e 0

-st

dA ( t ) ,

(1.81)

32 1

Grundlagen ∞

= LT {a ( t )} =

∫e

− st

0

a ( t ) dt,

Re s ≥ 0 .

(1.82)

Das Integral in Gl. (1.81) ist ein Lebesgue-Stieltjes-Integral. Der Zusammenhang zwischen LT und LST lässt sich wie in Abb. 1.13 darstellen. Eine ausführliche Beha ndlung der Laplace-Transformation kann z.B. i n Föllinger [1.4] gefunden werden. LT

ΦA(s)

T

a(t)

LS

Integral

ΦA(s)

LT

A(t)

s

Abb. 1.13: Laplace- und Laplace-Stieltjes-Transformation

b) Eigensch

aften

Im Folgenden werde n wic htige Eige nschaften der La place-Transformation a ufgelistet, die zum Verständnis der späteren Kapitel beitragen: Momente E[A k ] =



∫ 0

t k a ( t ) dt =

( −1)k ⋅

dk dsk

ΦA ( s )

.

(1.83)

s =0

Integralbildung und Differentiation

Mit Φ A ( s ) = LT {a ( t )} gilt: A (t)

LT

1 ΦA ( s ) , s

(1.84)

1.3 Transformationsmethoden und wichtige Verteilungen d a (t) dt

LT

s ⋅ ΦA ( s ) − a ( 0 ) .

33 (1.85)

Grenzwerte

Mit Φ A ( s ) = LT {a ( t )} gilt: lim a ( t ) = lim s ⋅ Φ A ( s ) ,

(1.86)

lim a(t) = lim s ⋅ Φ A (s) .

(1.87)

t →0

t →∞

s →∞

s →0

Faltungsoperation

Gegeben seien zwei nicht-negative, statistisch unabhä ngige Zufallsva riablen A 1 und A 2 mit den Ve rteilungsdichtefunktionen a 1 ( t ) und a 2 ( t ) sowie den Laplace-Transformierten Φ A1 ( s ) und Φ A 2 ( s ) . Die Summe A = A1 + A2

besitzt die Verteilungsdichtefunktion a ( t ) = a1 ( t ) ∗ a2 ( t ) =

t



τ= 0

a1 ( τ ) ⋅ a 2 ( t − τ ) dτ ,

(1.88)

wobei da s Sy mbol „ ∗ “ hier die kontinuierliche Falt ungsoperation darstellt. Die LaplaceTransformation bildet die Faltungsoperation in eine Multiplikation ab: a (= t)

a1 ( t )

LT

LT

ΦA ( s ) =

Φ A1 ( s )



a2 ( t )

LT ⋅

ΦA2 ( s )

(1.89)

34 1

Grundlagen

1.3.3

Wichtige Verteilungen und ihre Transformierten

In diesem Abschnitt werden häufig verwendete Verteilungen und ihre Transform ierten vorgestellt. a)

Bernoulli-Versuch und -Verteilung (BER)

Unter einem Bernoulli-Versuch ve rsteht man ein Experiment, bei dem der Ausgang Y mit zwei Ereignissen beschrieben werden kann: „Misserfolg“ mit der Wahrscheinlichkeit q und „Erfolg“ mit der komplementären Wahrscheinlichkeit ( 1 − q ) . Die entsprechende BernoulliVerteilung lautet: ⎧q y (i ) = P (Y = i ) = ⎨ ⎩ 1−q

E [ Y ] = 1 − q,

cY =

i = 0 Mißerfolg i = 1 Erfolg

,

(1.90)

q , (Bernoulli-Verteilung) 1−q

(1.91)

und die erzeugende Funktion ist YEF ( z ) = q + ( 1 − q ) z .

b) Binomial-Ver

(1.92)

teilung (BIN)

Betrachtet werde eine Anza hl N von Bernoul li-Versuchen, die statistisch una bhängig voneinander dur chgeführt werden. X sei die Zufallsvariable für die Anzahl von Erfolgen in dieser Serie von Ve rsuchen. Für eine Realisierung X = i existiert eine Anzahl Ni von Anordnungen oder Mustern dieser i Erfolgsereignisse. Jede Anordnung tritt mit der Wahri scheinlichkeit ( 1 − q ) q N −i ein. Die ZV X folgt einer binomialen Verteilung:

( )

⎛N⎞ i x ( i ) = P ( X = i ) = ⎜ ⎟ ( 1 − q ) q N −i , i ⎝ ⎠

E [X] = N ( 1 − q ) ,

cX =

i = 0, 1,… , N ,

q , (Binom N (1 − q )

(1.93) ial-Verteilung)

(1.94)

1.3 Transformationsmethoden und wichtige Verteilungen

x(i)

35

0.5

1

0.4

0.3

18

E[X] 5

15

10

0.2

0.1

0 0

5

10

15

i

20

Abb. 1.14: Binomialverteilunge n (N= 20)

und die zugehörige erzeugende Funktion lautet: X EF =

(q + (1 − q ) z)

N

.

(1.95)

()

Der Term ka kennzeichnet dabei einen Binomialkoeffizienten. Aus Gl. (1.95) ist ersichtlich, dass die Binomial-Verteilung die N-fache Faltung der Bernoulli-Vertei lung m it sich selbst darstellt. Abbildung 1.14 zeigt den typisc hen Verlauf der Binomialverteilung für verschiedene Mittelwerte E [ X ] ( N = 20 ) . Um den Ve rlauf der Verteilungen ke nntlich zu machen, sind jeweils die diskreten Werte einer Verteilung mit einer Linie verbunden. c)

Geometrische Verteilung (GEOM)

Es werden nun in einem Experiment solange unabhängige Bernoulli-Versuche durchgeführt, bis ein „Erfolgs“-Ereignis festgestellt wird. Die Anzahl der Versuche bis zum ersten „Erfolg“ wird mit der Zufalls variablen X beschriebe n. Für eine Realisierung X = i ist die Wahrscheinlichkeit für die i Fehlversuche q i und für den erfolgreichen Versuch ( 1 − q ) , der die Versuchsserie beendet. X folgt einer geometrischen Verteilung: x ( i ) = P ( X = i ) = qi ( 1 − q ) , E [X] =

q , 1−q

cX =

1 q

(1.96)

i = 0, 1,…

, (geom

etrische Verteilung)

(1.97)

36 1

Grundlagen

mit der erzeugenden Funktion X EF ( z ) =

x(i)

1−q . 1 − qz

0.5

E[X]

0.4 1

0.3

3

0.2

8

0.1

a) x(i)

(1.98)

0

18

0

0.5

2

4

6

2

4

6

8

i

10

1

3 8 0.1

18

E[X] 0.01

b)

0.001 0

8

i

10

Abb. 1.15: G eometrische Verteilung: a) lineare Darstellung b) logarithmische Darstellung

In Abb. 1.15 ist der charakteri stische Verlauf der geometrischen Verteilung für verschiedene Mittelwerte E [ X ] gezeigt, wobei die zu dersel ben Ve rteilung gehöre nden dis kreten Werte verbunden we rden. Der f ür ge ometrische Ve rteilungen typische lineare Abfall wird i n

1.3 Transformationsmethoden und wichtige Verteilungen

37

Abb. 1.15b sichtba r, w obei d ie y -Achse logari thmisch skaliert wird. Die ser Verla uf kennzeichnet auch in anderen Verteilungen die sog. geometrische Restverteilung (engl. geometric tail), falls in halbloga rithmischem Maßsta b eine ge rade Charakte ristik der Restverte ilung feststellbar ist. Verschobene geometrische Verteilung (GEOM(m))

Eine häufig anzutreffende Verallgemeinerung der geometrischen Verteilung ist die ve rschobene geometrische Verteilung. Bei einer Verschiebung der geometrischen Verteilung um m Stellen entsteht die Verteilung x ( i ) = P ( X = i ) = q i −m ( 1 − q ) , E [X] =

q +m , 1−q

cx =

m = 0, 1,… , q

q + m (1 − q )

(1.99)

i = m, m + 1, … ,

(1.100)

,

mit der erzeugenden Funktion X EF ( z ) =

( 1 − q ) zm 1 − qz

d) Negativ-binomiale

.

(1.101)

Verteilung (NEGBIN)

Eine diskrete Zufallsvariable X ist negativ-binomial verteilt, wenn ⎛ y + i − 1⎞ ⎛ −y ⎞ y i y i x (i ) = P (X = i ) = ⎜ ⎟ ( 1 − q ) q = ⎜ ⎟ ( 1 − q ) ( −q ) , i i ⎝ ⎠ ⎝ ⎠

i = 0, 1,… , E [X] =

yq , 1−q

cx =

1 yq

0 ≤ q ≤ 1,

. (negativ-binomiale

y reell, (1.102)

Verteilung)

(1.103)

Die erzeugende Funktion lautet: y

⎛ 1−q ⎞ X EF ( z ) = ⎜ ⎟ . ⎝ 1 − qz ⎠

(1.104)

Gleichung (1.104) im pliziert, dass sich die nega tiv-binomiale Verteil ung aus einer (nicht notwendigerweise ganzzahligen) y-fachen Faltu ng de r geometrischen Verteilung mit sich selbst ergi bt. Die Param eter y und q der ne gativ-binomialen V erteilung las sen s ich aus dem vorgegebenen Mittelwert E [ X ] und dem Variationskoeffizienten cX wie folgt bestimmen:

38 1

Grundlagen q = 1−

1 E [X]

⋅ c 2x

y =

,

E [X]

(1.105)

,

E [ X ] ⋅ cx2 − 1

wobei E [ X ] ⋅ c 2x > 1 gelten muss. Dies bedeutet, dass sich mittels negativ-binomialer Verteilungen zweiparam etrische Verteilungen mit beliebig vorgeg ebenem Mi ttelwert E [ X ] und Variationskoeffizienten c x nach Gl. (1.105) erzeugen lassen. Diese Ei genschaft ist sehr vorteilhaft in Untersuchungen, in denen eine systematische, parametrische Analyse durchzuführen ist. e)

Possion Verteilung (POIS)

Die Poisson-Verteilung wird wie folgt definiert: x (i ) =

y i -y e , i!

E [X] = y ,

(1.106)

i = 0, 1,…

cX =

1

, (Poiss

y

on-Verteilung)

(1.107)

und die entsprechende erzeugende Funktion lautet: − y 1− z X EF ( z ) = e ( ) .

x(i)

(1.108)

0.5

1

0.4

0.3 3 0.2

E[X] 10

15

20

0.1

0 0

5

10

Abb. 1.16: P oisson-Verteilung

15

i

20

1.3 Transformationsmethoden und wichtige Verteilungen

39

Abbildung 1.16 illustriert den Verlauf der Poisso n-Verteilung für ve rschiedene Mittelwerte E [ X ] . Die dis kreten Ve rteilungswerte derselben Verteilung s ind jeweils durch ei ne Linie verbunden.

1.3.4

Wichtige Verteilungsfunktionen und ihre Transformierten

In diesem Abschnitt werden häufig verwendete Verteilungsfunktionen vorgestellt. Die zugehörigen Zufallsvariablen werden mit symbolischen Phasendarstellungen repräsentiert. a) Determinis

tische Verteilungsfunktion (D)

Diese Verteilungsfunktion charakterisiert eine Zufallsvariable A , die einen konstanten Wert t 0 annimmt, womit die Zufallsabhä ngigkeit entfällt. Die Verteilungsfunktion ist treppenförmig und entspricht einer verschobenen Sprungfunktion. ⎧0 A (t) = ⎨ ⎩1

t < t0 t ≥ t0

,

(1.109)

a ( t ) = δ ( t − t0 ) ,

(1.110)

E [A ] = t 0 ,

(1.111)

cA = 0 ,

Φ A ( s ) = LT {a ( t )} = e −st0 .

(1.112)

Die Phasendarstellung wird in Abb 1.17a gezeigt. b)

Negativ-exponentielle Verteilungsfunktion (M)

Die negativ-exponentielle Verteilungsfunkti on spielt wege n ihrer Eige nschaft der Gedächtnislosigkeit bz w. M arkov-Eigenschaft (M ) (vg l. Ka p. 2. 1.2) in der Le istungsanalyse eine bedeutende Rolle: A ( t ) = 1 − e - λt ,

t ≥ 0,

a ( t ) = λ e −λt ,

E [A ] = ΦA ( s ) =

1 , λ

(1.113) (1.114)

cA = 1 ,

λ . λ+s

(1.115) (1.116)

Die Abkürzung „M“ (Markov) wird für die negativ-exponentielle Verteilungsfunktion verwendet, wie in der Phasendarstellung in Abb. 1.17b gezeigt wird.

40 1

Grundlagen -Verteilungsfunktion ( E k )

c) Erlang-k

Sei A die Summe von k negativ-exponentiell verteilten Phasen mit Parameter λ : A = A1 + A 2 + … + Ak , A i ( t ) = 1 − e −λt ,

i = 1, 2,… , k ,

so folgt für A der Erlang-k-Verteilungsfunktion k −1

A (t) = 1 − ∑

( λt )i i!

i =0

a (t) =

λ ( λt )

k −1

(1.117)

t ≥ 0,

e - λt ,

( k − 1) !

E [A ] = k ⋅

e -λt ,

1 , λ

(1.118)

cA =

1 k

(1.119)

,

k

⎛ λ ⎞ ΦA ( s ) = ⎜ ⎟ . ⎝λ+s⎠

(1.120)

Aufgrund der Summation, und wie aus Gl. (1.1 20) ersichtlich, ist die Erlang-k-Verteilungsdichtefunktion die k-fache Faltung der negativ-exponentiellen Verteilungsdichtefunktion mit sich selbst. F ür den Grenzübergang k → ∞, λ → ∞ ( k bleibt consta nt) geht die Erlang- kλ Verteilungsfunktion in die deterministische VF über. Die Phasendarstellung wird in Abb 1.17c gezeigt. d) Hypere

xponentielle Verteilungsfunktion

Eine hyperexponentiell verteilte Zufallsvariable A ergibt sic h aus einer Auswahl zwischen k unterschiedl ichen negativ-exponentiell verteilten Phasen A i mi t P arameter λ i , i = 1, 2,… , k , wobei die Phase A i m it der Wahrscheinlichkeit pi gewä hlt wird (s. Abb. 1.17d): mit Wahrscheinlichkeit pi ,

A = Ai

i = 1, 2,… , k ,

A i ( t ) = 1 − e −λi t .

Man erhält A (t) =

k



i =1

(

pi 1 − e -λi t

)

k

= 1 − ∑ pi e - λi t , i =1

t ≥ 0,

(1.121)

1.3 Transformationsmethoden und wichtige Verteilungen a (t) =

k

∑ pi λi e -λ t , i

i =1

k

∑ pi

= 1,

E [A ] =

1

i =1

i

∑ pi ⋅ λ k



i =1

pi

pi

2 i =1 λ i

cA =

⎛ k pi ⎞ ⎜∑ ⎟ ⎝ i =1 λ i ⎠

2

−1 ,

(1.123)

λi . λi + s

(1.124)

Ph a

Ph a

se na nfa

se ne nd e

ng

ΦA ( s ) =

2∑ ,

(1.122)

i =1

k

k

41

G Phasendarstellung

t

0

λ

λ

λ

D

M

M

M

1

2

k

a) deterministische VF

c) Erlang-k -VF

λ1 M

λ

p 1 p 2

M b) negativ-exponentielle VF

λ2

p k

M

λk M

d) hyperexponentielle VF

Abb. 1.17: P hasendarstellung wichtiger Verteilungsfunktionen

42 1

Grundlagen

Spezialfall: Hyperexponentielle Verteilung 2-ter Ordnung ( H 2 )

Diese Verteilungs funktion wird recht hä ufig zur Da rstellung zweipa rametrischer Ve rteilungsfunktionen ve rwendet. Da die H 2 -Verteilungsfunktion pr inzipiell drei Pa rameter ( p1 , λ 1 , λ 2 ) besitzt, wird ein Param eter durch eine wil lkürlich ge wählte Sym metriebedingung eliminiert. Man erhält die H 2 -Verteilungsfunktion mit zwei Parametern: A ( t ) = 1 − p1 e −λ1 t − p2 e −λ 2 t ,

(1.125)

p1 + p 2 = 1 ,

(1.126)

p1 ⋅

e)

1 1 . (Symmetriebedingung) = p2 ⋅ λ1 λ2

(1.127)

Darstellung von Verteilungsfunktionen

Phasendarstellung von Zufallsvariablen und Verteilungsfunktionen

Zufallsvariablen, deren Verteilungsfunktionen sich a us anderen bekannten Verteilungsfunktionen zusammensetzen, werden häufig in der Form von Phasendarstellungen beschrieben. Wie in Abb. 1.17 gezeigt, kann eine Erlang-k-verteilte Zufallsvariable ( Ek ) als eine Serienschaltung von negativ-exponentiell verteilten Phasen ( M bzw. Markov-Phasen) dargestellt werden. Die Phasenda rstellung einer hyperexponentiell verteilten Zufallsvariablen ( Hk ) ist eine Parallelschaltung von negativ-exponentiell verteilten Phasen.

A(t)

1

0.8

H2

=2 ( cA

)

0.6

M 0.4

E4 E50

D

0.2

0

1

Abb. 1.18: Verläufe wichtiger Verteilungsfunktionen

t/E[A]

1.3 Transformationsmethoden und wichtige Verteilungen

43

Verlauf wichtiger Verteilungsfunktionen

Abbildung 1.18 zeigt zusammenfassend die oben angegebenen Verteilungsfunktionen D, M, Ek und Hk . Dabei ist erkennbar, dass D als Grenzübergang lim Ek aufgefasst werden kann. k →∞ Ferner kann beobachtet we rden, dass für VF m it höhe ren Va riationskoeffizienten de r Kurvenverlauf flacher ist und der Grenzwert lim A ( t ) = 1 langsamer erreicht wird. t →∞

1.3.5 a) Z

Wichtige Zusammenhänge usammenhang zwischen Transformationsmethoden

Wir betrachten eine zeitkontinuierliche ZV A , deren Realisierungen nur Werte an den Stellen t i = i Δt, i = 0, 1,… besitzen. Diese ZV A kann durc h eine nicht-ne gative diskrete ZV X repräsentiert werden. Die e ntsprechenden Fu nktionen und deren T ransformierte hängen wie folgt zusammen: diskrete ZV

X

Verteilung

x ( i= )

äquivalente kontinuierliche ZV

P ( X = i ) , i = 0, 1,…

= A

X ⋅ Δt t ⎞ ⎛ P (A ≤ t ) = P ⎜ X ≤ ⎟ Δ t⎠ ⎝

A (t= )

Verteilungsfunktion

=

i

∑ x (k ) ,

k =0 ∞

∑ x ( i ) δ ( t − iΔt )

a ( t= )

Verteilungsdichtefunktion erzeugende Funktion

⎢ t ⎥ i=⎢ ⎥ ⎣ Δt ⎦

t =0 ∞

∑ x ( i ) zi

X= EF

i =0

Laplace-Transformation ΦA ( s ) = =



− st ∫ e a ( t ) dt = 0





i =0

0





0

i =0

− st ∫ e ∑ x ( i ) δ ( t − iΔt ) dt

∑ x ( i ) ⋅ ∫ e −st δ ( t − iΔt ) dt e− siΔt (Ausblendeigenschaft der Dirac-Funktion)

=



∑ x ( i ) ⋅ ( e −sΔt )

i =0

i

(

)

= X EF e −sΔt .

(1.128)

44 1 b)

Grundlagen Poisson-Ankünfte während eines beliebig verteilten Intervalls

Ein Ankunfts prozess wird al s Poiss on-Prozess bezeichnet , we nn seine Zwische nankunftszeiten unabhängig sind und eine negativ-exponentielle Verteilung (vgl. Gl. (1.113)) besitzen. Betrachtet man den P rozess während einer konstanten Zeitspanne t , so folgt di e Anzahl X der beobachteten Ankunftsereignisse einer Poisson-Verteilung (vgl. Gl. (1.106)). Im Folgenden soll die Verteilung der Anzahl der Ereignisse eines Poisson-Proz esses während eines beliebig verteilten Intervalls der Dauer Γ ermittelt werden.

Beobachtungsfenster G

A ( t ) = 1 − e - λt

t X Abb. 1.19: Poisson-Ankünfte während eines beliebig verteilten Intervalls Γ

Ein Po isson-Prozess m it Ra te λ wird während eines zufälligen Zeitfensters der Länge Γ beobachtet (s. Abb. 1.19). Das Fenster Γ ist allgemein verteilt mit der Dichtefunktion γ ( t ) und unabhängig vom Poisson-Prozess. Die Ve rteilung der Anzahl X beobachteter Ereignisse währ end des Beobachtungsfensters soll nun bestimmt werden: x (i) = P (X = i)

EF

X EF ( z ) =



∑ x ( i ) zi .

i =0

Unter der Bedingung, dass das Fenster Γ = τ lang ist, ist X Poisson-verteilt gemäß: P ( X = i Γ = τ) =

( λτ ) i i!

e −λt .

Bei Anwendung des Gesetzes der totalen Wahrscheinlichkeit erhält man:

1.3 Transformationsmethoden und wichtige Verteilungen x (i ) =

=



∫ P ( X = i Γ = τ)

γ ( τ ) dτ

τ= 0 ∞



( λτ ) i!

τ= 0

i

45

P ( Γ = τ)

e −λτ γ ( τ ) dτ

(1.129)

bzw. die erzeugende Funktion X EF ( z ) = =



∑ x ( i ) zi =

i =0 ∞

∫ 0

e −λτ γ ( τ )





∑∫

( λτ )i

i =0 0 ∞

( λτz )i

i =0

i!



i!

e −λτ γ ( τ ) dτ zi

dτ =



−λ ( 1 − z ) τ dτ ∫ γ ( τ) e 0

eλτz

oder X EF ( z ) = Φ Γ ( λ ( 1 − z ) ) .

(1.130)

Diese Beziehung wird häufig in späteren Kapiteln, z.B. bei der Analyse des M/GI/1-Systems, verwendet.

46 1

Grundlagen

Literatur zu Kapitel 1 Bücher: [1.1] Feller, W., An Introducti on to Probabilit y Theory and its Applications , 2. Aufl. Wiley, New York

[1.2] Ferra ri, D., Computer Systems Performance Evaluation, Prentice-Hall, Englewood Cliffs, NJ 1978 [1.3] Fisz, M., Wahrscheinlichkeitsrechnung und mathematische Statistik , 10. A ufl. VEB Deutscher Verlag der Wissenschaften, Berlin 1980 [1.4]

Föllinger, O ., Kluwe, M., Laplace-, Fouri er- u nd Z -Transformation, 8. Auflage, Hüthig 2003

[1.5]

Lavenberg, S. S. (e d.), Computer Perf ormance Modeling Handbook, Academ ic Press, New York 1983

[1.6]

Oppenheim, A., Schafer, R., Buck, J. R., Zeitdiskrete Signalverarbeitung, Pearson Studium 2004

[1.7]

Papoulis, A., Pillai, S. U., Probability, Random Variables and Stochastic Proc esses, 4. Auflage, McGraw-Hill, New York 2002

Aufsätze: [1.8] Cavers , J. K., On the Fast Fourier Transform inversion of probability generating functions, J. Inst. Maths. Appl. 22:275-282 (1978)

[1.9]

Cooley, J., Tukey, J., An algorithm for the machine calculation of complex Fourier series, Math. Computation 19:297-301 (1965)

[1.10] Henrici, P., Fast Fo urier methods in co mputational complex analysis , Siam Rev. 21:481-527 (1979) [1.11]

Mitra, D., Mitrani, I., Analysis of a K anban disci pline f or cell c oordination in production, Managem. Sci. 36(12):1548-1566 (1990)

Übungsaufgaben zu Kapitel 1

47

Übungsaufgaben zu Kapitel 1 Aufgabe 1.1: Es wi rd m it ei nem symmetrischen Würfel gewürfelt. Die Zufallsvariabl e X hat de n Wert „0“ für eine ungerade und den Wert „1“ für eine gerade Augenzahl. Die Zufallsvariable Y ist „0“ für eine niedrige (1,2 oder 3) und „1“ für eine hohe (4,5 oder 6) Augenzahl.

Wie lauten die Verteilungen von X und Y sowie die Ve rbund-Verteilung für ( X, Y ) ? Sind X und Y positiv oder negativ korreliert? Aufgabe 1.2: Bei einem Spiel wird mit einem vollsymmetrischen Würfel solange gewürfelt, bis keine Eins mehr erscheint . Die Zufallsvariable X habe als W ert die Auge nzahl de s Wur fes ungleich Eins, die Zufallsvariable Y gibt die Anzahl der Würfe einschließlich dem ungleich Eins an.

Wie lautet die Verteilung, die Verteilungsfunktion sowie der Mittelwert von X und Y ? Wie nennt man die Verteilung von Y ? Hinweis: X kann als normaler Wurf mit einem vollsymmetrischen Würfel interpretiert werden, unter der Bedingung, dass die Au genzahl verschieden von Eins ist. Die Verteilung von X kann mit Hilfe der bedingten Wahrscheinlichkeiten hergeleitet werden. Aufgabe 1.3: Ein deze ntral gesteue rtes Massens peichersubsystem enthält eine Festplatte Parametern: – – – –

mit folge nden

2 Platten, d.h. 4 Oberflächen und 615 Spuren, 3 msec Positionierungszeit von Spur zu Spur, 34 Sektoren pro Spur, 3600 Umdrehungen pro Minute.

Die Umschaltzeit zwischen den vier Schreib-Leseköpfen ist vernachlässigbar. 1. Unter der Annahme, dass die Spur bereits korrekt eingestellt ist, soll die Zugriffszeit Z , d h. die Zeitspanne vom Eintritt des Zugriff swunsches bis zum Erreichen des Sektoranfangs, untersucht werden. Gesucht sind die Wahrscheinlichkeitsdichtefunktion z ( t ) und die Ve rteilungsfunktion Z ( t ) der Zufallsvariablen Z . Wie la uten de r E rwartungswert, die Varianz, die Standardabweichung und der Variationskoeffizient von Z ? 2. Zu bestimmen sind ferner der Erwartungswert und die Varianz der Zeitspanne A , die für das Anfahren der korrekten Spur be nötigt werden. Zwei Fälle sollen betrachtet werden: der Schreib-Lesekopf ist über Spur 0 und über Spur 307 positioniert. Wie groß ist der Er-

48 1

Grundlagen

wartungswert von A für den allgemeinen Fall, wobei angenommen wird, dass alle Spuren als Start- und Zielspur gleichwahrscheinlich sind? Hinweis:

n

∑ i2

=

n ( n + 1 )( 2n + 1 )

i =0

6

Aufgabe 1.4: 1. Es soll gezei gt werden, da ss für große N (d.h. für kleine Werte von q = μ/N ) die Binomialverteilung BIN ( N, q ) durch die Poisson-Verteilung POIS ( μ ) approximiert werden kann. 2. Gegeben sei ein geta ktetes Kommunikationssystem, bei dem die Zeitachse in Intervalle gleicher Länge, auch Slots genannt, aufgeteilt ist. Die im System ankommenden Dateneinheiten folgen einem Bernou lli-Prozess, d h. innerhalb eines Slots kommt eine Zell e mit der Wahrscheinlichkeit q an. Welche Verteilung a ( i ) besitzt die Zwischenankunftszeit A ? Aufgabe 1.5: Gegeben seien zwei nicht- negative, una bhängige Zufallsvariablen A un d B , die mit der Rate λ bzw. μ negativ-exponentiell verteilt sind. Folgende Beziehung soll hergeleitet werden: P (A < B ) =

λ λ+μ

Hinweise: Für den Bereich A < B soll das Integral de r zweidimensionalen Ve rbundverteilungsdichtefunktion gebildet werden Aufgabe 1.6: Eine Maschine bearbeitet einzelne Werkstücke in negativ-expone ntiell verteilter Zeit. Die mittlere Bedienzeit beträgt μ −1 . Die Bedienzeiten seien jeweils unabhängig voneinander und identisch verteilt. Nach jedem Bedien-Ende wird eine Qualitätskontrolle durchgeführt. Mit der Wahrscheinlichkeit q ist ein Werkstück fehlerhaft und muss nochmals bearbeitet w erden. Dem entsprechend passie rt ein We rkstück mit Wahrscheinlichkeit 1 − q die Qualitätskontrolle erfolgreich und gelangt zur nächsten Maschine.

1. Wie lautet die Verteilung der Anzahl X von Bearbeitungen eines einzelnen Werkstücks? 2. Welcher Verteilung folgt die Zufallsvariable der gesamten Bedienzeit Y ? 3. Wie lautet der Mitte lwert de r gesamten Be dienzeit Y , die ein einzelnes Werkstück er fährt? Aufgabe 1.7: Betrachtet werde die S ummation zweie r voneina nder unabhängiger P hasen A = A 1 + A 2 wobei A 1 deterministisch (D) mit Para meter t 1 ist und A 2 negativ-exponentiell (M ) m it

Übungsaufgaben zu Kapitel 1

49

Parameter λ 2 verteilt ist. Die so konstruierte ZV A wird häufig als Ersatzverteilung für eine zwei parametrische Vert eilungsfunktion (s o genannte (D +M)-Verteilungsfunktion) m it dem Wertebereich des Variationskoeffizienten 0 ≤ cA ≤ 1 verwendet. Wie lauten die Verteilungsdichtefunktionen ai ( t ) , die Verteilungs funktion A ( t ) und die Laplace -StieltjesTransformierte Φ A ( s ) von A ( t ) ? Aus Φ A ( s ) sollen der Mittelwert E [A ] und der Variationskoeffizient cA abgeleitet werden. Aufgabe 1.8: Nach einem Quiz hat ein Kandidat die Wahl zwischen drei Türen, hinter denen sich ein Gewinn un d zwe i Nieten ve rbergen. Nachdem er sich f ür eine Tür entsc hieden hat, wird die bzw. eine der beiden anderen Türen, hinter der sich noch eine Niete verbirgt, geöffnet. Der Kandidat kann jetzt die Türe wechseln, oder bei der ersten Wahl bleiben.

Wie groß ist die Gewinnwa hrscheinlichkeit, wenn mit der W ahrscheinlichkeit p die Tür gewechselt wird? Welche Strategie ist em pfehlenswert, um die Gewi nnchance zu m aximieren? Aufgabe 1.9: Gegeben sei eine diskret e Zufalls variable X mit der Verteilung ∞ x = 0, 1, 2,… bzw. der erzeugenden Funktion F ( z ) = ∑ x =0 px z x .

px = P ( X = x ) ,

Es werde nun eine neue Zufallsvariable Y entsprechend Y = X 1 + X 2 + … + X N als Summe von N au feinander folgenden Zufallsvaria blen X 1 , X 2 ,… , X N gebildet, welche je weils derselben Verteilung px bzw. der erze ugenden Funktion F ( z ) gehorchen. Die Anzahl N von S ummanden ist da bei selbst eine disk rete Zufal lsvariable m it einer Vertei lung ∞ p n = P ( N = n ) , n = 0, 1, 2, … bzw. der erzeugenden Funktion G ( z ) = ∑ n =0 pn z n . Man bezeichne die Verteilung px auch als „innere“, die Verteilung pn als „äußere“ Verteilung; die Verteilung p y = P ( Y = y ) heißt „zusammengesetzte Verteilung“ ∞

1. Man zeige , da ss für die e rzeugende F unktion H ( z ) = ∑ y =0 p y z y der Zufallsvariablen Y gilt: H ( z ) = G ( F ( z )) Hinweis: Man betrachte zunächst die bedingte Verteilung P ( Y = y N = n ) bei konstant gehaltenem n und wende dann das Gesetz der totalen Wahrscheinlichkeit an. 2. Man zeige, dass sich für Mittelwert und Varianz mit Hilfe von H ( z ) folgende Ergebnisse einstellen: E [ Y] = E [N ] ⋅ E [ X ] , 2

VAR [ Y ] = E [ N ] ⋅ VAR [ X ] + VAR [ N ] ⋅ E [ X ] .

50 1

Grundlagen

3. Es werde nun anstelle der diskreten Zufallsvariable X eine kontinuierliche Zufallsvariable T mit der La place-Stieltjes-Transformation (L ST) Φ ( x ) betrachtet. Die ne ue Zufallsvariable Y wird ents prechend Y = T1 + T2 + … + TN gebildet, wobei alle Ti , i = 1, 2,… , N wiederum dieselbe Verteilungsfunktion bzw. L ST Φ ( x ) besitzen. Man zeige, dass für die LST Ψ ( s ) , den Mittelwert E [ Y ] und die Varianz VAR [ Y ] der Zufallsvariablen Y folgende Gleichung gelten: Ψ ( s ) = G ( Φ ( s )) ,

E [ Y] = E [N ] ⋅ E [ T ] , 2

VAR [ Y ] = E [ N ] ⋅ VAR [ T ] + VAR [ N ] ⋅ E [ T ] .

2

Elementare Zufallsprozesse

In diesem zweiten Grundlagenkapitel werden zunächst einführende Definitionen elementarer stochastischer Prozesse erört ert. Grundbezi ehungen der Klasse von Erneuerungsprozessen werden im zw eiten Abschnit t dieses Kapitels hergeleitet. Abschließe nd werden wichtige Methoden zur Analyse Markovscher Zustandsprozesse behandelt.

2.1

Stochastische Prozesse

2.1.1

Definition

Für die Leistungsbewert ung technischer Sy steme m üssen häufig zufallsabhängige Zeitabläufe berücksichtigt werden. Diese könne n mit H ilfe stochastischer Prozesse m athematisch beschrieben und analysiert w erden. Im Folgenden werden stochastische Prozesse, ins besondere stoc hastische Zustandsprozesse, definiert und klassifiziert (vgl. Akimaru & Kawashima [2.1], S. 206).

X

X(t)

X1

Xi X2

t1

t2

ti

t

Abb. 2.1:

t

Stochastischer Prozess

Wir beobachten zunächst zu unte rschiedlichen Zeitpunkten t i , i = 1, 2,… das zufallsabhängige Geschehen in einem System, wobei eine chara kteristische Größe X verfolgt wird. Die zufallsabhängige E ntwicklung de r Größe X ka nn prinzipiell m it den Tu peln

52 2

Elementare Zufallsprozesse

{X ( t i ) , t i } , i = 1, 2,…, beschrieben werde n, wo bei X ( t i ) jeweils ei ne Zufallsvariable darstellt (vgl. Abb. 2.1). Eine a ndere Möglichkeit z ur Beschreib ung der System entwicklung besteht in der Aus dehnung der T upel {X ( t i ) , t i } , i = 1, 2,…, auf eine Fam ilie von Zufallsvariablen X t , t , X t ∈ Ξ , t ∈ Γ, wie i n Abb. 2.1 illustriert. Die Menge Ξ kennzeichnet den Zu{ () } () standsraum de r Größe X , wä hrend Γ als Indexmenge oder Parametermenge bezeichnet wird. Eine solche Familie von Zufallsvariablen wird stochastischer Prozess genannt. In den hier behandelten Modellanalysen charakterisiert die Größe X häufig den Zustand des zu u ntersuchenden System s bzw. de s Untersuchungsobjekts. Beispiele für X sind: A nzahl von wartenden Nachrichtenpaketen in einem Vermittlungssystem, Anzahl von umlaufenden Rohteilen bzw. von Werkstücken in einem Fertigungssystem etc. In den meisten Prozessbetrachtungen stellt in der Regel die (reelle oder diskretisierte) Zeitachse die Indexmenge dar. Statt von der „Indexmenge“ sprechen wir deshalb vereinfachend von der „Zeit“.

zeitkontinuierlich

zustandskontinuierlich

zustandsdiskret

X(t)

X(t)

a)

t

b)

2 1

t

X(i)

zeitdiskret

X(i)

c)

1 2

i

t/Δt

d)

2 1 1 2

i

t/Δt

Abb. 2.2: Zur Klassifikation von Zustandsprozessen

Die Größe X ( t ) ke nnzeichnet nun de n Z ustand eines stoc hastischen Prozesses zum Zeitpunkt t . Dementsprechend wird die „Zeit“ bz w. der „Zustand“ nachfolgend für die Klassifizierung von stochastischen Prozessen verwendet.

2.1 Stochastische Prozesse

53

Bezogen auf den Zustan dsraum (vgl. Abb . 2.2) unterscheidet m an zwei Klassen von stochastischen Prozessen: • Zustandskontinuierliche stochastische Prozesse: Der Zustandsraum Ξ setzt sich aus Intervallen der reellen Zahlenachse zusammen. Beispiele sind Prozesse zur Beschreibung der Restarbeit im System, der verbliebenen Wartezeit von Anforderungen etc. • Zustandsdiskrete stochastische Prozesse: Der Z ustandsraum Ξ ist endli ch oder abzählbar unendlich; X ( t ) kann z.B . hier nur ganzzahlige Werte annehmen, wobei der Wertebereich begrenzt sein ka nn. Zustandsdiskrete Prozesse werden z.B. zur Beschreib ung der Anzahl von Datenpaketen in ei nem Sender od er der Anzahl von in der Bearbeit ungsphase befindlichen Werkstücken i n ei nem Fertigungssystem verwendet. Man spricht bei zustandsdiskreten Prozessen auch von Ketten (s. Abb. 2.2). Stochastische Prozesse können auch bzgl. der Indexmenge „Zeit“ klassifiziert werden: • Zeitkontinuierliche stochastische Prozesse: Die Indexm enge Γ besteht aus Intervallen der re ellen Zeitachse. Ist de r Prozess zustandsdiskret, so verläuft X ( t ) treppenförmig (s. Abb. 2.2b). • Zeitdiskrete stochastische Prozesse: Die Indexmenge Γ ist endlich oder abzählbar unendlich. Die Zeit kann hier als diskretisiert betrachtet werden. Der Pr ozesszustand X ( t ) wird nur zu de n Ze itpunkten t i = i Δt, i = 0, 1,… , be obachtet. Wie in Abb. 2.2 dargestellt, besteht der Zustandsprozess lediglich aus eine r F olge von diskreten Realisierungen des Prozes ses. Die Klasse zeitdiskreter Zustandsprozesse spielt in der Leistungsbewertung moderner Rechnernetze und Kommunikationssysteme eine wichtige Rolle. Analyseverfahren für zeitdiskrete Prozesse werden in Kap. 5 erörtert.

2.1.2

Markov-Prozesse

Eine besondere Klasse stochastischer Proze sse bilden die Markovschen Prozesse. Da Analysemethoden für Markov-Prozesse weit entwickelt sind, spielen sie auch in der Verkehrstheorie eine wesentliche Rolle. Ein stochastischer Prozess {X ( t ) , t} heißt Markovscher Prozess, wenn seine zukünftige Entwicklung nur vom gegenwärtigen Prozesszustand abhängt. Ist x n der Zustand des Prozesses z u einem Beobachtungszeitpunkt t n , so kann die Markovsche Eigenschaft wie folgt formuliert werden:

(

P X ( t n + 1 ) = x n + 1 X ( t n ) = x n ,… , X ( t 0 ) = x 0

(

)

= P X ( t n +1 ) = xn +1 X ( t n ) = xn ,

) t0 < t1 < … < t n < t n +1 .

(2.1)

Von ei nem Prozesszeitpunkt t n aus gese hen ist die E ntwicklung de s P rozesses nur noch vom Zustand ⎡⎣ X ( t n ) = x n ⎤⎦ abhä ngig. Der Ent wicklungspfad des P rozesses in der Ver-

54 2

Elementare Zufallsprozesse

gangenheit ( t < t n ) , um den Zusta nd ⎡⎣ X ( t n ) = x n ⎤⎦ zu erreichen, ist dabei für die Weiterentwicklung des Prozesses nicht ausschlaggebend, sondern lediglich der Zustand zum Beobachtungszeitpunkt t n (s. A bb. 2.3). Dieser Sachverhalt wird auch die Eigenschaft der Gedächtnislosigkeit der Markov-Prozesse genannt.

X(t)

Beobachtungszeitpunkt X(tn) = x n

t0

t1

.

t

tn

Prozessentwicklung in der Vergangenheit

zukünftige Prozessentwicklung

Abb. 2.3: M arkovscher Prozess

Wie im nächsten Unterabschnitt erörtert wird , kann die Markov-Eigenschaft auf einen Ankunfts-, einen Bedien- oder einen Zustandsprozess bezogen werden.

2.1.3 a)

Elementare Prozesse in Verkehrsmodellen

Ankunftsprozesse

In einem Verkehrsmodell sind Ankunftsprozesse im Allg. stochastische Prozesse, m it denen die zeitliche Abfolge von Ankunftsereignissen beschrieben wird. Wie i n Abb. 2.4 gezei gt, setzt sich ein Ank unftsprozess aus eine r Fol ge von Erei gniszeitpunkten, zu d enen A nforderungen (z .B. Anrufversuche, Nachrichtenpakete, Werkstücke, etc.) eintreffe n, zusamm en. Kommt zu einem Ereigniszeitpunkt nur eine Anforderung an, handelt es sic h um einen Einzelankunftsprozess. Können mehrere Anforderunge n gleichzeitig zu einem Ereigniszeitpunkt ei ntreffen, spricht man von einem Gruppenankunftsprozess. Dabei kann die Gruppengröße statistisch, z.B. mit einer Verteilung, beschrieben werden.

2.1 Stochastische Prozesse

55

Eine häufig anzutreffende Beschreibungsmethode für einen zufallsabhängigen Ankunftsprozess ist die Anwendung eines Erneuerungsprozesses (s. Abschnitt 2.2). In Abb. 2.4a wird ein Einzelankunftsprozess illustriert, dessen Zwischenankunftsabstand mit Hilfe der Zufallsvariablen A chara kterisiert wird. Unter de r A nnahme, dass ein Er neuerungsprozess vorliegt, sind die Zwischenankunftsabstände unabhängig und ident isch verteilt und m it einer Verteilungsfunktion A ( t ) beschreibbar. Ankunftsereignisse

A

t

a) Ankunftsprozess

Z(t)

A

t b) Ankunftsprozess als Zustandsprozess Abb. 2.4: Darstellungsformen von Ankunftsprozessen

Ein Ankunftsprozess kann auch als Zustandsprozess aufgefasst werden (s. Abb. 2.4b), indem die Restzeit Z ( t ) bis zum nächsten Ankunftszeitpunkt als Z ustand a ufgetragen wird. De r entstehende stochastische Prozess {Z ( t ) , t} ist hier zeit- und zuta ndskontinuierlich. Unmittelbar nac h ei nem Ankunfts zeitpunkt erhöht sich die Restzeit Z ( t ) um eine Zwische nankunftszeit A . Ankunftsprozess mit Markov-Eigenschaft

Gemäß der De finition der Markov-Eigenschaft ist ein A nkunftsprozess zu je dem Zeitpunkt gedächtnislos, wenn die Verteilungsfunktion der Restzeit Z ( t ) (Abb. 2.4b) unabhängig von der Vergangenheit des Prozesses bis zum Beobachtungszeitpunkt ist. Dies bedeutet, dass die Verteilungsfunktion der Restzeit auch nicht davon abhängt, wie lange das letzte Ankunftsereignis bereits zurückliegt. Im Abschnitt 2.2 wird dieser Sachverhalt so formuliert: „Die Vorwärts-Rekurrenzzeit des A nkunftsabstandes besi tzt dieselbe Verteilu ngsfunktion wie der Zwischenankunftsabstand selbst“.

56 2

Elementare Zufallsprozesse

Es kann gezei gt werde n, das s bei den zeitkontinuierliche n Ankunfts prozessen de r Pois sonProzess der einzige Einzelankunftsprozess mit Markov-Eigenschaft ist. b)

Bedienprozesse

In einem Verkehrsmodell beschreibt der Bedienprozess die Arbeitsweise einer Bedieneinheit oder einer Gruppe von Bedieneinheiten. Dabei wird z.B. die zeitliche Abfolge von Bedienphasen festgelegt. Abbildung 2.5 zeigt den Bedienprozess einer Bedieneinheit, die sich e ntweder im Frei- oder im Belegt-Zus tand befindet. Die Bedienda uer (z.B . die Übertragungsdauer ei nes Nac hrichtenpaketes, die Bearbeitungsdauer eines Werkstückes in einer Fertigungsmaschine, etc.) wird mit Hilfe der Zufallsvariablen B charakte risiert, die sich ty pischerweise mit einer Ve rteilungsfunktion B ( t ) beschreiben lässt. Mehrere aufei nander f olgende Bedie ndauern bilden eine Betriebspe riode ( vgl. A bb. 2. 5). Zwischen den Betriebsperioden liegen Freiperioden. Während der Freiperioden stehen keine Anforderungen im System zur Bearbeitung an. Bedienzeit belegt frei

BB Betriebsperiode

B

B Freiperiode

t

Abb. 2.5: Bedienprozess einer Bedieneinheit

Bedienprozess mit Markov-Eigenschaft

Betrachtet wird ein Bedienvorg ang, bei de m eine Bedien einheit a ktiv i st. De r z ugehörige Bedienprozess ist gedächtnisl os bzw. besitzt die Markov-Eigenschaft, wenn die Restzeit bis zum Bedien-Ende 1 zu je dem Beobachtungszeitpunkt dieselbe Verteilungsfunktion aufweist. Die Verteilung der Restzeit ist also nicht davon abhä ngig, wie lange der Bedien vorgang schon andauert. Bei der Behandl ung von Erneuerungsprozessen im nächsten Abschnitt wird dieser Sachverhalt so form uliert: „Die Vorwär ts-Rekurrenzzeit der Bedienda uer besitzt dieselbe Verteilungsfunktion wie die Bedienzeit selbst“. Bei den zeitkontinuierlichen Bedienzeitverteilungen weist die negativ-exponentielle Verteilungsfunktion als einzige die Eigenschaft der Gedächtnislosigkeit auf. 1

Die Schreibweise „Bedien-Ende“ wird mit Absicht gewählt, um Verwechslungen zu vermeiden.

2.1 Stochastische Prozesse c)

57

Zustandsprozesse

Zur Analys e von Verkehrsmodellen werden hä ufig Zust andsprozesse unte rsucht. Je nach Verkehrsmodell und dazu geeigneten Analyseverfahren werden unterschiedliche Formen des Prozesszustandes betrachtet, wie in Abb. 2.6 gezeigt.

A

X(t) Anzahl von Anforderungen im System

Ankunftsereignisse

2 1

t

U(t) unerledigte Arbeit im System

B

Abgangsereignisse

t

Abb. 2.6: Darstellungsformen von Zustandsprozessen



X ( t ) : Anzahl von Anforderungen im System Jede eintreffende und angenommene Anfor derung erhöht X ( t ) um Eins, jedes BedienEnde dekrementiert X ( t ) (s. Abb. 2.6). Da der Zustandsraum wertdiskret ist, handelt es sich hierbei um einen zustands diskreten stocha stischen P rozess {X ( t ) , t} , der tr eppenförmig verläuft. Diese F orm der Zustandsprozessbesc hreibung wird bei der späte r be handelten Analyse elementarer Markovscher Modelle sowie de r Modelle vom Typ GI/M/1 und M/GI/1 benutzt.



U ( t ) : Restarbeit im System (unerledigte Arbeit) In diesem Fall erhöht eine eintreffende und angenommene Anford erung d en Pro zesszustand U ( t ) um ein Qua ntum B von Restarbeit. B ist hierbei i dentisch mit der Bediendauer der Anforderung. Da die Restarbeit U ( t ) im Laufe der Zeit t kontinuierlich abge-

58 2

Elementare Zufallsprozesse

baut wird, erhält man den in Abb. 2.6 gezeigten Verlauf eines zustandskontinuierlichen stochastischen Prozesses. Diese Form des Zustands prozesses wird z .B. bei de r A nalyse des GI/ GI/1-Modells benutzt.

2.2

Erneuerungsprozesse

Das Ablaufgeschehen in verteilten Systemen, z.B. Fertigungs-, Rechner- und Kommunikationssystemen, wir d in Ve rkehrsmodellen durch Ankunftsprozesse charakterisiert, die die zufallsabhängigen Ei n- bz w. Aus gangsverkehrsströme in diesen Sy stemen statistisch beschreiben. Bei der Cha rakterisierung von Ankunftsprozessen s pielt die Klasse de r Erneue rungsprozesse eine bedeutende Rolle. Im Folgenden werden Erneuerungsprozesse un d ihre Eigenschaften vorgestellt. W eiterführende Literatur findet sich z.B. in Cox [2.4] bzw. Cox & Miller [2.5].

2.2.1

Definitionen

Punktprozess

Ein Punktprozess ist eine endliche oder abzählbar unendliche Folge von zufälligen Zeitpunkten bzw . Ereignissen auf der reellen Zeitachse (s. A bb. 2. 7). Im allgem einen Fall eines Punktprozesses können die Abstände A i zwischen Ereigniszeitpunkten t i − 1 un d t i unterschiedliche Verteilungsfunktionen A i ( t ) besitzen. zufälliger Beobachtungszeitpunkt

Ankunftsereignisse

A 1

t0

A

t1

2

t2

A

3

t* t3

ti

t i+1 Rr

Abb. 2.7: Definition der Rekurrenzzeit

Rv

t

2.2 Erneuerungsprozesse

59

Erneuerungsprozess

Ein Punktprozess, bei dem die Abstände A i aufeinander folgender Zeitpunkte u nabhängig und identisch verteilt (engl. iid: independent and ide ntically distributed) sind, heißt Erneuerungsprozess: Ai ( t ) = A ( t )

für i = 1, 2,… .

(2.2)

In der Kendallschen N otation wir d ein s olcher P rozess mit GI geke nnzeichnet. Weicht die Verteilungsfunktion A 1 ( t ) des ersten Intervalls A 1 von den anderen Verteilungsfunktionen A i ( t ) , i ≠ 1, ab, wird der Prozess als modifizierter Erneuerungsprozess bezeichnet. Rekurrenzzeiten

Abbildung 2.7 zeigt einen Erneue rungsprozess (d h. alle A i sind identisch verteilt) mit de n Ereigniszeitpunkten t i , wobei : Zufallsvariable der Zwischenankunftszeit, A ( t ) : Verteilungsfunktion der ZV A , a ( t ) : Verteilungsdichtefunktion der ZV A . A

Der Prozess w ird von einem unabhängigen außenstehenden Beobac hter zum Zeitpunkt t * observiert. In Abb. 2.7 sind folgende Zeitintervalle markiert: Rv Rr

: ZV der Vorwärts-Rekurrenzzeit, die das Intervall vom zufälligen Beobachtungszeitpunkt bis zum nächsten Ereignis beschreibt, : ZV der Rückwärts-Rekurrenzzeit, die das Intervall vom letzten Ereignis bis zum zufälligen Beobachtungszeitpunkt darstellt.

Der zufällige Beobachtungszeitpunkt t * kann „gleichwahrscheinlich“ auf jede Position auf der Zeitachse fallen. Dann ist die Zeit hinsicht lich der Beobachtung eines Erne uerungsprozesses re versibel, d. h. die Vor- und R ückwärtsrekurrenzzeiten ha ben die gleichen sta tistischen Eigenschaften. Aus diesem Grunde wird nachfolgend nur die Re kurrenzzeit R stellvertretend für R v und R r untersucht.

2.2.2

Analyse der Rekurrenzzeit

Verteilungsfunktion der Rekurrenzzeit

Die Verteilungsdichtefunktion r ( t ) der Rekurre nzzeit R eines Erne uerungsprozesses kann aus der Verteilungsfunktion A ( t ) der Zwischenankunftszeit A gemäß r (t) =

∞ 1 ⋅ ( 1 − A ( t ) ) = λ A c ( t ) = λ ∫ a ( τ ) dτ E[A ] τ= t

(2.3)

60 2

Elementare Zufallsprozesse

berechnet werden, w obei λ = 1 / E[A ] die Ankunfts rate ist. Der Beweis dieser B eziehung wird nachfolgend erläutert: • Wir betrachten den Fall, dass t * in ein Intervall der Länge A = τ fällt. Es gilt: a ( τ ) Wahrscheinlichkeitsdichte für das Auftreten eines Intervalls der Länge τ ,

q τ = a ( τ ) ⋅ τ ⋅ c0 : Wahrscheinlichkeitsdichte für das Antreffen eines Intervalls der Lä nge τ . Diese Wahrscheinlichkeitsdichte ist proportional der Länge τ , da ein längeres Intervall von einem zufälligen Beobachter wahrscheinlicher angetroffen wird. c0 ist zunächst eine Normierungskonstante, wobei ∞



τ= 0

q τ dτ =



∫ a ( τ ) τ c 0 dτ

τ= 0

= c0 E [A ] = 1 .

Daraus folgt, dass c0 =

1 = λ E [A ]

und q τ = λ τ a ( τ ) .

• Der Beobachtungszeitpunkt liegt ferner gleichwahrscheinlich im angetroffenen Intervall der Länge A = τ . Die bedingte Verteilungsdichtefunktion der Rekurrenzzeit lautet infolgedessen (unter der Bedingung, dass t * in ein Intervall der Länge τ fällt) r ( t A = τ)

⎧ 1 ⎪ = ⎨ τ ⎪⎩ 0

t ∈ ( 0, τ ) , sonst .

Die Verteilungsdic htefunktion er hält man nach A nwendung des Ges etzes der totalen Wahrscheinlichkeit: r (t) =





τ= 0

r ( t A = τ ) ⋅ q τ dτ = ∞

= λ A ( τ) t



1 λ τ ⋅ a ( τ ) dτ τ τ= t



= λ Ac ( t ) ,

q.e.d.

Im transformierten Bereich gilt für die Rekurrenzzeit ΦR ( s ) =

λ ⋅ ( 1 − ΦA ( s ) ) s

mit Φ R ( s ) = LT {r ( t )} und Φ A ( s ) = LT {a ( t )} .

(2.4)

2.2 Erneuerungsprozesse

61

Gemäß Gl. (2.3) ist offensichtlich, dass • r ( t ) aus a ( t ) eindeutig bestimmt werden kann; • die V DF a ( t ) der Zwischenankunftszeit nicht eindeutig aus der VDF r ( t ) be rechnet werden kann. Für ei ne eindeutige Bestimmung von a ( t ) aus r ( t ) benötigt m an zusätzlich den Mittelwert E [A ] der Zwischenankunftszeit. Momente der Rekurrenzzeit

Der Z usammenhang zwisc hen de n gewöhnlichen Momenten de r Z wischenankunftszeit und der Rekurrenzzeit lässt sich wie folgt ermitteln: E ⎣⎡R k ⎦⎤ =





u =0− ∞

= λ

u k r ( u ) du = t

∫ a(t) ∫

t =0−





u =0−

u k λ ( 1 − A ( u ) ) du = λ

uk du dt =

u =0 tk + 1 k +1





u =0−

uk



∫ a ( t ) dt du

t=u

∞ 1 ⋅ ∫ t k + 1 a ( t ) dt ( k + 1 ) ⋅ E [A ] t =0− E[Ak + 1 ]

oder E ⎡⎣R k ⎤⎦ =

E ⎡⎣A k + 1 ⎤⎦

( k + 1 ) ⋅ E [A ]

.

(2.5)

Speziell für den Mittelwert gilt E [R ] =

E ⎡⎣A 2 ⎤⎦

2 E [A ]

=

2 cA +1 ⋅ E [A ] , 2

(2.6)

d h. für cA < 1 :

E [ R ] < E [A ] ,

(2.7)

cA > 1 :

E [ R ] > E [A ] .

(2.8)

Bei Pr ozessen mit g rößeren Schwankungen ( cA > 1 ) ist der Mittelwert der Re kurrenzzeit größer als der Mittelwert der Zwischenankunftszeit . Dies ist zunächst i ntuitiv schwer nachvollziehbar, liegt R doch innerhalb von A (s. Abb. 2.7). Betrachtet man jedoch alle Realisierungen von A , wobei läng ere Intervalle vom außenstehenden Beobachter häufiger angetroffen werden und größere Anteile zur Re kurrenzzeit beitragen, so kann der Sachverhalt in Gl. (2.8) erklärt werden.

62 2

Elementare Zufallsprozesse

Poisson-Prozess als Erneuerungsprozess

Bei einem Poisson-Prozess ist die Zwischenankunftszeit A negativ-exponentiell verteilt: A ( t ) = 1 − e -λt ,

a ( t ) = λ e - λt .

Nach Gl. (2.3) erhält man r ( t ) = λ ( 1 − A ( t ) ) = λ e - λt = a ( t )

oder für die Verteilungsfunktionen R (t) = A (t) ,

(2.9)

d.h. die Zwischenankunftszeit und die Rekurre nzzeit eines negativ-exponentiell verteilten Intervalls ha ben dieselbe Verteilungsfunktion. Dies be deutet, dass die verbliebe ne Zeitspanne R bis zum nächsten Ereignis, gesehen von einem unabhängigen Beobac hter, dieselbe Ve rteilungsfunktion aufweist, als würde der Beobac htungszeitpunkt exakt am let zten Ereigniszeitpunkt liegen. Vom Beobachtungszeitpunkt t * an en twickelt sich der Prozess völlig unabhä ngig von sei ner Vergange nheit. Der Poisson-Prozess besitzt de mgemäß die Eigenschaft der Gedächtnislosigkeit bzw. die Markov-Eigenschaft.

2.3 Analyse Markovscher Zustandsprozesse

2.3

63

Analyse Markovscher Zustandsprozesse

In diesem Abschnitt wird die Analyse der Klasse z ustandsdiskreter, z eitkontinuierlicher Zustandsprozesse erörtert, di e die in Gl. (2. 1) angegebene Markov-Eigenschaft bzw. Eigenschaft der Gedächtnislosigkeit haben. Die Indexmenge dieser Klasse stochastischer Prozesse ist die reellwertige Zeitachse, und der Zustandsraum umfasst die Menge {0, 1, 2, …} .

2.3.1

Übergangsverhalten von Markov-Zustandsprozessen

Ist der Zustand des Prozesses zu einem beliebigen Zeitpunkt t n bekannt, so ist gem äß der Markov-Eigenschaft die zukünftige Entwicklung des Prozesses nur vom Zustand ⎡⎣ X ( t n ) = x n ⎤⎦ abhängig. Der Zustand ⎡⎣ X ( t n ) = x n ⎤⎦ enthält so mit alle f ür die Analyse des Prozesses relevanten Informationen. Übergangswahrscheinlichkeit

Wir betrachten die Entwicklung des Pr ozesses während der Zeitspanne zwischen zwei aufeinander f olgenden Prozes szeitpunkten t n un d t n + 1 m it den jeweiligen Zuständen ⎡⎣ X ( t n ) = i ⎤⎦ und ⎡⎣ X ( t n + 1 ) = j ⎤⎦ (vgl. Abb. 2.8). Zeitpunkt

tn

Zustand

i

Zustandsübergang

t n+1 = t n+Δt

Übergang

Δt

X(t n ) = i

j

X(t n+1) = j

Abb. 2.8: Z ustandsübergang

Der Z ustandsübergang i → j während dieser Zei tspanne ereignet sich mit der Überga ngswahrscheinlichkeit

(

)

pi j ( t n , t n + 1 ) = P X ( t n + 1 ) = j X ( t n ) = i .

(2.10)

64 2

Elementare Zufallsprozesse

Wenn der Zus tandsprozess homogen, d.h. das Ü bergangsverhalten ide ntisch für je den Prozesszeitpunkt ist, erhält man eine vom Beobachtungszeitpunkt unabhängige Übergangswahrscheinlichkeit: pi j ( t n , t n + 1 ) = pi j ( t n + 1 − t n ) = pi j ( Δt ) ,

(2.11)

wobei die Vollständigkeitsbedingung

∑ pi j ( Δt )

= 1,

(2.12)

Δt ≥ 0 ,

j

für alle Zustände i erfüllt sein muss. Die Übergangswahrscheinlichkeit pi j ( Δt ) in dieser Gleichung be schreibt das Übergangsverhalten des Zustandsprozesses während eines Zeitintervalls de r Länge Δt . Die Übergangswahrscheinlichkeiten können auc h z u einer Ü bergangsmatrix zusam mengefasst werden: ⎛ p00 (Δt) p01 (Δt) … p0 j (Δt) ⎜ p1 j (Δt) ⎜ p10 (Δt) p11 (Δt) ⎜ P (Δt) = ⎜ ⎜ pi 0 (Δt) pi 1 (Δt) pi j (Δt) ⎜ ⎜ ⎝

2.3.2

⎞ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎟ ⎠

(2.13)

Zustandsgleichungen und –wahrscheinlichkeiten

Die Kolmogorov-Vorwärtsgleichung

Der Prozess befindet sich zum Anfa ngszeitpunkt t 0 = 0 in eine m Startzustand [X ( 0 ) = i ] (vgl. A bb. 2.9). Die E ntwicklung verläuft übe r ve rschiedene Z wischenzustände k zu m Zielzustand [X ( t + Δt ) = j] . Die Matrizen der Übergangswahrscheinlichkeiten für die Intervalle t un d Δt sind P ( t ) und P ( Δt ) . Die gesamte Überga ngsmatrix lässt sich als Produkt dieser Teil matrizen darstellen: P ( t + Δt ) = P ( t ) ⋅ P ( Δt ) (C

hapman-Kolmogorov-Gleichung)

(2.14)

oder pi j ( t + Δt ) =

∑ pi k ( t ) pk j ( Δt ) . k

(2.15)

2.3 Analyse Markovscher Zustandsprozesse

65

Zeitpunkt

0

t

t +Δ t

Zustand

i

k

j

Zeitintervall

t

Δt

Abb. 2.9: Zur Herleitung der Kolmogorov-Vorwärtsgleichung

Zustandsgleichungen

Gleichung (2.15) kann in die Form pi j ( t + Δt ) − pi j ( t ) Δt

=

∑ pi k ( t ) ⋅

k≠ j

pkj ( Δt ) Δt

− pi j ( t ) ⋅

1 − p j j ( Δt ) Δt

(2.16)

gebracht werden, de ren Te rme nach dem Grenz übergang Δt → 0 wie folgt interpretiert werden können: lim

pi j ( t + Δt ) − pi j ( t )

=

Δt

Δt →0

d pi j ( t ) dt

(erste Ableitung der Übergangswahrscheinlichkeiten pi j ( t ) zum Zeitpunkt t ) ( 2.17) lim

Δt →0

p k j ( Δt ) Δt

= qk j ,

k≠j

(Übergangswahrscheinlichkeitsdichte für den Übergang k → j ) lim

Δt →0

1 − p j j ( Δt ) Δt

= qj =

(2.18)

∑ q jk

k≠j

(Übergangswahrscheinlichkeitsdichte für das Verlassen des Zustands j )

(2.19)

66 2

Elementare Zufallsprozesse

Beim obigen Grenzübergang Δt → 0 entsteht eine neue Art der Beschreibung eines wahrscheinlichkeitstheoretischen Sachverhalts: die Übergangswahrscheinlichkeitsdichte, d ie häufig auch als Rate bezeichnet wird. Dies e hat hier die Dim ension [ 1 / sec] und besc hreibt die „Änderungstend enz“ eine r Wahrscheinlichkeit in einem infinitesi mal kleinen Intervall. Aus Gl. (2.16) und den Grenzübergängen in Gl. (2.17), (2.18), (2.19) erhält man die Kolmogorov-Vorwärtsgleichung für Übergangswahrscheinlichkeiten: d pi j ( t ) = dt



k≠ j

q k j pi k ( t ) − q j pi j ( t ) .

(Kolmogorov-Vorwärtsgleichung für Übergangswahrscheinlichkeiten)

(2.20)

Kolmogorov-Vorwärtsgleichung in Matrixschreibweise

Ähnlich wie bei der M atrixschreibweise der Übergangswahrscheinlichkeiten P ( t ) in Gleichung (2.13) definieren wir die Matrix für Übergangswahrscheinlichkeitsdichten ⎛ q 00 ⎜ ⎜ q 10 Q =⎜ ⎜ ⎜ qj 0 ⎜ ⎜ ⎝

q 01 … q 0 j q 11 q j1

q1 j qjj

⎞ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎟ ⎠

(2.21)

Diese Matrix Q , auch als Ratenmatrix bezeichnet, ist die Infi nitesimal-Generatormatrix des zeitkontinuierlichen Markov-Prozesses. Dabei ergibt sich aus

∑ q jk

(2.22)

= 0

k

die Wahrscheinlichkeitsdichte für das Verbleiben im Zustand j : q j j = − ∑ q jk = − q j .

(2.23)

k≠ j

Schließlich erhält man aus Gl. (2.20) die Matrixschreibweise für die Kolmogorov-Vorwärtsgleichung: dP ( t ) dt

= P ( t ) ⋅ Q . (K

olmogorov-Vorwärtsgleichung)

(2.24)

2.3 Analyse Markovscher Zustandsprozesse

67

Kolmogorov-Rückwärtsgleichung

Bei der Herleitung der Kolmogorov-Vorwärtsgleichung wird die zukünftige Entwicklung des Zustandsprozesses aus dem gegenwärtigen Prozesszustand betrachtet. Mit dieser Gle ichung kann die Weiterentwicklung des Prozesses untersucht werden. Ist das Ziel dagegen die Untersuchung des Entwicklungspfades des Prozesses bis zum Erreichen des Zust andes zum Be obachtungszeitpunkt, so kann m it ähnliche n Schritten die sog. Kolmogorov-Rückwärtsgleichung hergeleitet werden. Wie Abb. 2.10 zeigt, befindet sich der Prozess zum Beobachtungszeitpunkt t = 0 im Zustand ⎡⎣ X ( 0 ) = j ⎤⎦ . Der Anfangszustand zum Zeitpunkt −t − Δt ist ⎡⎣ X ( − t − Δt ) = i ⎤⎦ . De r Ent wicklungspfad ve rläuft über verschiedene Zwischenzustände k zum Zielzustand.

Zeitpunkt

-t

-t-Δt

i

Zustand

Zeitintervall

0

k

Δt

j

t

Abb. 2.10: Zur Herleitung der Kolmogorov-Rückwärtsgleichung

Die Übe rgangsmatrizen für die Intervalle Δt un d t sind P ( Δt ) und P ( t ) . A nalog de r Chapman-Kolmogorov-Gleichung lässt sich die gesamte Übergangsmatrix als Produkt dieser Übergangsmatrizen darstellen: P ( t + Δt ) = P ( Δt ) ⋅ P ( t )

oder p i j ( t + Δt ) =

bzw.

∑ pi k ( Δt ) ⋅ pk j ( t ) k

(2.25)

68 2

Elementare Zufallsprozesse p i j ( t + Δt ) − p i j ( t ) Δt

=



p i k ( Δt ) Δt

k ≠i

⋅ pk j ( t ) − pi j ( t ) ⋅

1 − p i i ( Δt ) Δt

.

Nach dem Grenzübergang Δt → 0 erhält man d pi j ( t ) = dt

∑ q i k pk j ( t )

k ≠i

− pi j ( t ) q i −qi i

oder d pi j ( t ) = dt

∑ q i k pk j ( t ) k

und in Matrixschreibweise die Kolmogorov-Rückwärtsgleichung dP ( t ) dt

= Q ⋅ P ( t ) . (K

olmogorov-Rückwärtsgleichung)

(2.26)

Während die Kolmogorov-Vorwärtsgleichung z ur A nalyse de r Z ustandswahrscheinlichkeit geeignet ist, wird die Kolmogorov-Rückwärtsgleichung häufig zur Untersuchung von Durchlaufzeiten in Verkehrsmodellen verwendet. Zustandswahrscheinlichkeiten

Mit x(j, t) = P(X(t) = j) ,

j = 0, 1,…

wird die Zust andswahrscheinlichkeit für Zustand j zum Zeitpunkt t definiert. Aus dem Anfangszustand x ( i, 0 ) lässt sich x ( j, t ) nach A nwendung des Gesetzes der to talen Wahrscheinlichkeit angeben: x(j, t) =

∑ P(X(t) = j X(0) = i) ⋅ P(X(0) = i)

=

i

∑ x(i, 0) ⋅ pi j (t) .

(2.27)

i

Multipliziert man die Kolmogorov -Vorwärtsgleichung (2.20) m it x ( i, 0 ) und summiert über alle i , so erhält man die Gleichung d

∑ dt pi j (t) x(i, 0) i

=

∑ q kj ∑ ( pik (t) x(i, 0))

k≠j

i



∑ ( q j pi j (t) x(i, 0)) . i

Daraus folgt mit Gl. (2.27) das Differentialgleichungssystem

(2.28)

2.3 Analyse Markovscher Zustandsprozesse ∂ x(j, t) = ∂t

∑ qkj x(k, t) − q j x(j, t) ,

69 für alle j = 0, 1, …,

k≠ j

(K

olmogorov-Vorwärtsgleichung für Zustandswahrscheinlichkeiten)

(2.29)

∑ x(j, t)

= 1 . (Vollständi

(2.30)

gkeitsrelation)

j

Die K olmogorov-Vorwärtsgleichung für Z ustandswahrscheinlichkeiten beschreibt die Entwicklung de s Zustandsprozesses X ( t ) , de r sich zum Zeitpunkt t im Zustand j befi ndet. Dabei wird ein infinitesimal kleines Zeitfenster dt unmittelbar nach dem Beobachtungszeitpunkt t betrachtet. Mit Hilfe des Differentialgleichungssystem s (2.29) können zeitabhäng ige Zustandswahrscheinlichkeiten für den allgemeinen Fall inst ationärer Markov-Zustandsprozesse berechnet werden. Als Ergebnis erhält m an die in stationären Zus tandswahrscheinlichkeiten {x ( j, t ) , j = 0, 1,…} . Eine i nstationäre Zustandsbetrachtung is t z.B. in der Leistungsbewertung des Überlastverhaltens in Rechner- und Kommunikationssystemen notwendig. Eine ausführli che Herleitung de r hier vorgestellten st ationären und inst ationären Zustandsgleichungen findet sich z.B. in Cooper [2.3] und Syski [2.6]. Das stationäre Zustandsgleichungssystem

Ändert sich die Zustandswahrscheinlichkeit im Laufe der Zeit nicht mehr, d.h. d ∂ P(X(t) = j) = x(j, t) = 0 , dt ∂t

(2.31)

so befindet sich der Zustandsprozess im statistischen Gleichgewicht bzw. im eingeschwungenen Zustand. Die stationären Zustandswahrscheinlichkeiten sind demgemäß: x(j) = lim P(X(t) = j) , für alle j = 0, 1, … . t →∞

(2.32)

Gleichungen (2.29) und (2.31) führen zum Gleichungssystem für die Berechnung der stationären Zustandswahrscheinlichkeiten des Markov-Zustandsprozesses: q j x(j) =

∑ x(j)

∑ q kj x(k) ,

für alle j = 0, 1…, (stationäre Zustandsgleichung)

(2.33)

k≠j

= 1.

(2.34)

j

Die Terme der stationären Zustandsgleichung (2.33) und (2.34) können wie folgt interpretiert werden, wobei der Zustand [ X = j] mit den zugehörigen Übergängen bzgl. der Wahrscheinlichkeitsdichten bilanziert wird (vgl. Abb. 2.11):

70 2 •

Elementare Zufallsprozesse

q jx ( j) (

)

Wahrscheinlichkeitsdichten f ür das Verlassen des beste henden Zustande s j , ge wichtet mit der Zustandswahrscheinlichkeit x ( j ) . •

∑ qkj x ( k ) (

)

k≠ j

Wahrscheinlichkeitsdichten f ür das Erreichen des Z ustandes j aus an deren Z uständen k ≠ j , gewichtet mit der jeweiligen Zustandswahrscheinlichkeit x ( k ) . • Ist das System im eingeschwungenen Zustand, so müssen die ge wichteten Wahrscheinlichkeitsdichten für das Erre ichen und für das Ve rlassen eines Zusta ndes im Gleichgewicht sein, d h. gleich sein, damit sich die Zustandswahrscheinlichkeit nicht mehr ändert. Dieser Sachverhalt wird auch das „ Prinzip von der Erhaltung des statistischen Gleichgewichtes“ genannt (vgl. Bolch [2.2]) und führt zu den Gl. (2.33) und (2.34).

j Zustand j

Abb. 2.11: Zustand [X=j] im statistischen Gleichgewicht

Das Zustandsgleichungssystem in (2.33) und (2.34) ist eine wich tige und häufig verwendete Beziehung zur Berechnung der Zustandswahrscheinlichkeiten der Markov-Zustandsprozesse. Matrixschreibweise für Zustandsgleichungen

Werden die Z ustandswahrscheinlichkeiten zu ei nem stationäre n Zustandswahrscheinlichkeitsvektor zusammengefasst X = {x(0), x(1),… , x(j),… } ,

(2.35)

2.3 Analyse Markovscher Zustandsprozesse

71

so kann da s Z ustandsgleichungssystem in Gl. (2.33) und (2. 34) i n Matrixsc hreibweise wie folgt dargestellt werden: X ⋅Q = 0 ,

(2.36)

wobei die Vollständigkeitsrelation

∑ x ( j)

= 1

oder

Xe = 1

(2.37)

j

gilt1. Bei der L ösung m uss auch eine lineare Abhängigkeit zwischen den Zustandsgleichungen berücksichtigt werden. Dieser Sachverhalt wird im nächsten Abschnitt behandelt. Lineare Abhängigkeit der Zustandsgleichungen

Das Gleichungssystem (2.33) und (2.34) z ur Erm ittlung der Z ustandswahrscheinlichkeiten soll nun nä her unte rsucht wer den. Daz u betrachten w ir einen be grenzten Zustandsraum {0, 1,… , N} mit dem Zustandsvektor

X =

{x ( 0 ) , x ( 1) ,…, x ( j ) ,…, x ( N )} .

(2.38)

Das stationäre Gleichungssystem gemäß (2.33) und (2.34) lautet dann: q j x(j) =

∑ x(j)

∑ qkj x(k) ,

j = 0, 1,… , N,

(2.39)

k≠ j

= 1

(2.40)

j

und beste ht aus ( N + 2 ) Gleichunge n für ( N + 1 ) U nbekannte bzw. Zus tandswahrscheinlichkeiten {x ( 0 ) , x ( 1 ) ,… , x ( N )} . Das zunächst überbestimmte Gleichungssystem (2.39) und (2. 40) ka nn leicht zu einem nicht-ü berbestimmten System modifiziert wer den, da eine beliebige Glei chung a us (2.39) a ufgrund l inearer A bhängigkeit we ggelassen werden kann. Der Grund besteht darin, das s sich jede Gleichung in ( 2.39) aus der S ummation der übrigen Gleichungen ergibt. Makrozustände und globale Gleichgewichtsgleichung

Das Aufstellen jeder Gleichung des Typs (2.33) bzw. (2.39) basiert auf der Bilanz der Wahrscheinlichkeitsdichten bzgl. eines Zustandes [ X = j] . Ein einzelner Zustand, der nicht weiter 1

e ist der Spaltenvektor en tsprechender Dimension, der nur Einsen enthält. 0 ist der Zeilenvekt or entsprechender Dimension, der nur Nullen enthält.

72 2

Elementare Zufallsprozesse

dekomponiert werden kann, wird auc h als Mikroz ustand bezeichnet. Das Gleichungssystem (2.33) und (2. 34) bzw. (2. 39) und (2.40) wir d deshalb stat ionäres Gl eichungssystem der Mikrozustände genannt.

1

Makrozustand S

q i1

q1i

i q ik

q ji q ij q q jk ki

2

q j2

j

q 2j

q kj

k q

q 3k

k3

3 Abb. 2.12: Ma krozustand und Übergänge

Fasst m an eine beliebi ge Anzahl von Mikr ozuständen zusammen, entsteht ein M akrozustand. Abbildung 2.12 zeigt als Beispiel einen M akrozustand S , der sich aus den Zuständen i, j und k zusammensetzt. Addiert man alle Zu standsgleichungen der im Makrozustand S enthaltenen Mikrozustände

( ( (

) ) )

⎧ q i1 + q i j + q ik x ( i ) = ⎪ ⎪ + ⎨ q j2 + q jk + q ji x ( j ) = ⎪ ⎪ qk 3 + qk i + qk j x ( k ) = ⎩

q 1i x ( 1 ) + q ji x ( j ) + q k i x ( k )

q i1 x ( i ) + q j2 x ( j ) + q k 3 x ( k ) =

q 1i x ( 1 ) + q 2 j x ( 2 ) + q 3k x ( 3 ) ,

q 2 j x ( 2 ) + qk j x ( k ) + qi jx ( i ) q 3k x ( 3 ) + q i k x ( i ) + q jk x ( j )

(2.41)

so erhält man die stationäre Zustandsgleichung für den Makrozustand S . Die linke Seite der Gl. (2.41) enthält die gewichteten Wahrscheinlichkeitsdichten für da s Verlassen des Makrozustands, während die rechte Seite das Erreichen des Makrozustands beschreibt.

2.3 Analyse Markovscher Zustandsprozesse

73

Allgemein kann die Zustandsgleichung eines beliebigen Makrozustands wie folgt angegeben werden:

∑ q ju x ( j )

j∈S u∉S

∑ qu j x ( j)

=

gewichtete Übergangswahrscheinlichkeitsdichten für das Verlassen des Makrozustands S

(2.42)

.

u∉S j∈S

gewichtete Übergangswahrscheinlichkeitsdichten für das Erreichen des Makrozustands S

Diese Gleichung bilanziert die Übergangswahrscheinlichkeitsdichten zwischen einem Makrozustand und der Menge aller Zustände außerhalb des Makrozustandes. Sie ist eine verallgemeinerte Form der Gleichgewichtsgleichung. Es sei hier a ngemerkt, dass die Zustandswahrscheinlichkeit des gesamten Makrozustands S in Gl. (2.42) nicht vorkommt und auch nicht das Ziel der B erechnung ist. Die Terme für das Erreichen bzw. das Verlass en des Makroz ustands ent halten Zustands wahrscheinlichkeiten der Mikrozustände innerhalb und außerhalb des Makrozustands. Wie in späteren Analysebeispielen gezeigt wird, ka nn eine geschickte Wahl des Makrozustands häufig ein einfacheres Gleichungssystem zur Berechnung der Mikrozustandswahrscheinlichkeiten liefern.

2.3.3

Beispiele für Übergangswahrscheinlichkeitsdichten

Verkehrsmodelle mit Markov-Ei genschaft, wie sie im n ächsten Kapitel erörte rt we rden, enthalten stets Kom ponenten wie Poiss on-Ankunftsprozesse und Bedieneinheiten mit negativ-exponentiell verteilter Be dienzeit. Die en tsprechenden Übergangswahrscheinlichkeitsdichten bzw. Raten werden im Folgenden hergeleitet. Beobachtungszeitpunkt

t A R Zeit

PoissonAnkunftsprozess

Zustandsprozess X(t)

dt

Abb. 2.13: Übergangswahrscheinlichkeitsdichte beim Poisson-Ankunftsprozess

74 2

Elementare Zufallsprozesse

Übergangswahrscheinlichkeitsdichte beim Poisson-Ankunftsprozess

Ein Zustandsprozess mit Poisson-Eingangsverkehr wird in Abb. 2.13 gezeigt. Der Zwischenankunftsabstand A und seine Rekurrenzzeit haben dieselbe Verteilungsfunktion A ( t ) = R ( t ) = 1 − e −λt .

Betrachtet we rde der Z ustandsprozess X ( t ) zum Zeitpunkt ⎡⎣ X ( t ) = i ⎤⎦ angenommen wird.

t , wo bei der Zusta nd

Man untersucht die Pr ozessentwicklung während der darauf folgenden, infinitesimal kurzen Zeitspanne dt (s. markierter Bereich in Abb. 2.13). Die Wahrscheinlichkeitsdichte für einen Zustandsübergang i → i + 1 , d.h. für ein Ankunftsereignis während der Zeitspanne dt , ist q i ,i + 1 = lim

dt →0

= lim

pi ,i+1 (dt) dt P ( R ≤ dt ) dt

dt →0

= lim

1 − (1 −

dt →0

= lim

dt →0

1 − e - λdt dt

(2.43)

λdt (λdt)2 + − +… ) 1! 2! = λ. dt

Übergangswahrscheinlichkeitsdichte bei negativ-exponentieller Bediendauer

Wir betrachten nun einen Zustandsprozess X ( t ) . Zum Zeitpunkt t sind k laufende Bedienvorgänge im System, d.h. k Bedienein heiten sin d aktiv . Die Bedienda uern de r Bedi eneinheiten sind voneinander unabhängig und negativ-exponentiell verteilt. Da de r Bedie nprozess gedächtnislos ist, hat die Reku rrenzzeit R der Be diendauer B di eselbe Verteilungsfunktion wie die Bedienzeit: R(t) = B(t) = 1 − e -μt .

Wie in Abb. 2.14 verdeutlicht, ist die Zeitspanne R * bis zum nächsten Be dien-Ende-Zeitpunkt das Minimum von k unabhängigen Rekurrenzzeiten: R * = min{ R ,… , R } , k-mal

d.h. gemäß Gl. (1.71) k

R * (t) = 1 − ∏ (1 − R(t)) = 1 − e -kμt . i=1

2.3 Analyse Markovscher Zustandsprozesse

75

B 1. Bedieneinheit

R R

2. Bedieneinheit

k. Bedieneinheit

R

R*

Zeit

dt t

Abb. 2.14: Enderate bei mehreren negativ-exponentiell verteilten Bediendauern

Wir betrachten ein infi nitesimal kleines Intervall dt . W ährend dieses Intervalls sei die Wahrscheinlichkeit, das s m ehrere Bedien- Ende-Ereignisse auftreten, ve rschwindend klein. Die Wahrscheinlichkeitsdichte für ein Bedien-E nde, d h. fü r ei nen Ü bergang k → k − 1 , während dieser infinitesimal kurzen Zeitspanne ( t, t + dt ) ist analog Gl. (2.43) q k ,k −1 = lim

pk,k-1 (dt)

dt P(R * ≤ dt) 1 − e − kμdt = lim = lim dt →0 dt →0 dt dt 2 kμdt (kμdt) + − +… ) 1 − (1 − 1! 2! = lim = kμ . dt →0 dt dt →0

(2.44)

76 2

Elementare Zufallsprozesse

2.3.4 a)

Geburts- und Sterbeprozesse

Definition und Zustandsraum

Geburts- und Sterbeprozesse (GS P) si nd Markov-Prozesse, bei denen nur Ü bergänge zwischen benachbarten Z uständen a uftreten. H äufig handelt es sich bei GSP um Zustand sprozesse m it eindim ensionalen Zustandsräumen, bei denen die Nachbarsc haft eines Zust ands (vgl. Abb. 2.15) eindeutig festgelegt ist. In einigen Markov-Modellen mit mehrdimensionalen Zusta ndsräumen spricht man jed och a uch von GSP, wenn in jeder Richtung des Zustandsraumes nur Übergänge zwischen Nachbarzuständen vorhanden sind. Wir betrachten in Abb. 2.15 einen Geburts- und Sterbeprozess mit endlichem Zustandsraum.

λ

0

λ

0 μ

1 1

λ i-2

1 μ

2

μ

λ i-1

i-1 i-1

λ

i μ

i

λ

i μ

n-1

n i+1

μ

n

Abb. 2.15: Geburts- und Sterbeprozess mit endlichem Zustandsraum

Die Übergangswahrscheinlichkeitsdichten (Raten) sind:

qi j

⎧ λi ⎪ = ⎨ μi ⎪0 ⎩

i = 0, 1,… , n-1 , j = i + 1 i = 1,2,… , n

, j = i−1

(2.45)

sonst .

Dabei sind folgende Sonderfälle von Interesse: •

alle μi = 0 : reiner Geburtsprozess; im statistischen Gleichgewicht ist x ( n ) = P ( X = n ) = 1, x ( i ) = 0 sonst;



alle λ i = 0 : reiner Sterbeprozess; im statistischen Gleichgewicht ist x ( 0 ) = P ( X = 0 ) = 1, x ( i ) = 0 sonst.

b)

Instationäre Geburts- und Sterbeprozesse

Im allgemeinen instationären Fall lauten di e Zustandsgleichungen zur B estimmung der zeitabhängigen Z ustandswahrscheinlichkeiten des Geburts- und Sterbepr ozesses, desse n Zustandsraum in Abb. 2.15 dargestellt wird, gemäß Gl. (2.29) wie folgt:

2.3 Analyse Markovscher Zustandsprozesse

77

∂ x(0, t) = − λ 0 x(0, t) + μ 1 x(1, t) , ∂t

(2.46)

∂ x(i, t) = − (λ i + μi ) x(i, t) + λ i −1 x(i − 1, t) + μi+1 x(i + 1, t), i = 1,… , n − 1 , (2.47) ∂t ∂ x(n , t) = − μ n x(n, t) + λ n −1 x(n − 1, t) . ∂t

(2.48)

Die Lösung dieses Differentialgleichu ngssystems mit den Anfangsbedingungen {x ( i, 0 ) , i = 0,… , n} liefert den Zustandswahrscheinlichkeitsvektor {x ( i, t ) , i = 0,… , n} zum Beobachtungszeitpunkt t . Beispiel: Poisson-Prozess als reiner Geburtsprozess

Betrachtet wird die Anza hl X ( t ) der von einem Poiss on-Prozess wä hrend ei nes Intervalls der Länge t generierten Ereignisse. Die entsprechende Verteilung lautet: P ( X ( t ) = i ) = x ( i, t ) . Am Anfang des Intervalls bzw. x ( 0, 0 ) = 1;

(2.49)

(t = 0)

x ( i , 0 ) = 0,

befindet sich kein E reignis im System , d h. X ( 0 ) = 0 i = 1, 2,… .

Der resultierende Zustandsproze ss m it unendlichem Zustandsraum Geburtsprozess mit der Geburtsrate λ :

⎧λ qi j = ⎨ ⎩0

(2.50)

(n → ∞)

für j = i + 1, i = 0, 1,…

ist ein reiner

(2.51)

sonst .

Das Zustandsgleichungssystem gemäß Gl. (2.46), (2.47) und (2.48) lautet nun ∂ x(0, t) = − λ x(0, t) , ∂t ∂ x(i, t) = − λ x(i, t) + λ x(i − 1, t), ∂t

(2.52) i = 1, 2,… .

Bei Anwendung der Laplace-Transformation x ( i, t )

LT

Φ X ( i, s )

∂ x ( i, t ) ∂t

LT

sΦ X ( i, s ) − x ( i, 0 )

(2.53)

78 2

Elementare Zufallsprozesse

erhält man aus dem Differentialgleichungssystem (2.52) und (2.53) ein lineares Gleichungssystem: s Φ X ( 0, s ) − 1 = − λ Φ X ( 0, s ) ,

(2.54)

s Φ X ( i, s ) − 0 = − λ Φ X ( i, s ) + λ Φ X ( i − 1, s ) ,

i = 1, 2,… .

(2.55)

Durch sukzessives Einsetzen ergibt sich: λi

Φ X ( i, s ) =

( s + λ )i + 1

, i = 0, 1,… ,

(2.56)

LT x ( i, t ) = P ( X ( t ) = i ) =

( λt )i i!

e −λt ,

i = 0, 1,… , t ≥ 0 .

(2.57)

X ( t ) folgt als o der Poiss on-Verteilung, die hier m it Hilfe eines rei nen Ge burtsprozesses hergeleitet wurde.

c)

Stationäre Geburts- und Sterbeprozesse

λ

λ

0

0

μ

λ i-2

1

1 1

μ

2

μ

λ i-1

λ

i

i-1 i-1

μ

i

λ

i μ

n-1

n i+1

μ

n

Makrozustand S

Abb. 2.16: M akrozustandsbetrachtung zur Zustandsanalyse

Im statistischen Gleichgewic ht ergibt sich au s Gl. (2.33) und (2. 34) das Gleichungssystem für die Mikrozustände des Zustandsraums in Abb. 2.15: λ 0 x(0) = μ1 x(1) , (λ i + μ i ) x(i) = λ i −1 x(i − 1) + μi+1 x(i + 1), λ n −1 x(n − 1) = μ n x(n) , n

∑ x(i) i=0

= 1,

(2.58) i = 1, 2,… , n − 1 ,

(2.59) (2.60) (2.61)

2.3 Analyse Markovscher Zustandsprozesse

79

wobei wiede rum eine beliebige Gleichung aus (2.58), ( 2.59) u nd (2.60) durch Sum mation der übrigen Gleichungen gewonnen werden kann. Durch Eliminierung einer Gleichung aus (2.58), (2.59) und (2.60) erhält man zusammen m it Gl. (2. 61) ein System aus n + 1 Gleichungen zur Bestimmung der n + 1 Zustandswahrscheinlichkeiten. Mit der Wahl des Makrozustands S , der aus den Mikrozuständen {X = 0, 1,… , i − 1} besteht (vgl. A bb. 2.16), ergibt sich ein einfac heres Gleichungs system aus der Makroz ustandsbetrachtung: λ i −1 x(i − 1) = μi x(i) , n

∑ x(i)

i = 1, 2,… , n ,

= 1.

(2.62) (2.63)

i=0

Die Lösung dieses Gleichungssystems lässt si ch durch sukzessives Einsetzen von Gl. (2.62) gewinnen: i-1

x(i) =



λk



μk

x(0) ⋅ k=0 i k=1

,

i = 1, 2,… , n .

(2.64)

Die noc h unbe kannte Zusta ndswahrscheinlichkeit x ( 0 ) berec hnet man mit Hilfe der N ormierungsbedingung aus Gl. (2.63): i-1

1 =

n

∑ x(i)

= x(0) + x(0)

i=0

n

∑ i=1



k=0 i

λk

∏ μk k=1

zu ⎛ ⎜ x(0) = ⎜ 1 + ⎜ ⎜ ⎝

i-1

n

∑ i=1



k=0 i



k=1

-1

⎞ λk ⎟ ⎟ . ⎟ μk ⎟ ⎠

(2.65)

80 2

Elementare Zufallsprozesse

Literatur zu Kapitel 2 Bücher: [2.1] Akimaru, H ., Kawashima, K., Teletraffic – Theory and Applications , 1. Auflage, Springer, New York 1993

[2.2] Bolch, G., Leistungsbewertung von Rechensyste men mittels analytischer Warteschlangenmodelle, Teubner, Stuttgart 1989 [2.3]

Cooper, R. B., Introduction to Queueing Theory , 2. Auflage, North-Holland, New York 1981

[2.4]

Cox, D. R., Erneuerungstheorie, Oldenbourg, München 1966

[2.5]

Cox, D. R., M iller, H. D., The Theory of Stochastic Processes, Chapman & Hall, London 1965

[2.6] Syski, R., Introduction to C ongestion T heory in Tele phone Systems, North Hol land, Amsterdam 1986

Übungsaufgaben zu Kapitel 2

81

Übungsaufgaben zu Kapitel 2 Aufgabe 2.1: Um die Spitzigkeit (engl. Burstiness) von An kunftsprozessen, d.h. die seg mentweise Häu fung von Ereignissen, z u beschreiben, wi rd u.A . de r s o gena nnte Dispersionsindex ( engl. index of dispersion) verwendet. Der Dispersionsindex für die Zufallsvariablen X 1 ,… , X n ist wie folgt de finiert, wobei die Zufallsva riablen X 1 ,… , X n der gleichen Verteilung folge n, d h. E ⎡⎣ X i k ⎤⎦ = E ⎡⎣ X k ⎤⎦ für alle i, k: Jn =

VAR [ X 1 + … + X n ] n ( E [ X ])

2

,

wobei X n die n-te Zwischenankunftszeit bezeichnet. Die Kovarianz zweier Zufallszahlen X und Y wir d als Maß f ür die Abhängigkeit zwische n X un d Y betrachtet. Mit Hilfe der Kovarianz kann die Varianz einer Summe von Zu fallsvariablen wie fo lgt au sgedrückt werden: n −1 j

VAR [ X 1 + … + X n ] = n ⋅ VAR [ X ] + 2 ∑

∑ COV ⎡⎣ X j , X j+k ⎤⎦ .

j =1 k =1

1. Wie lauten die Dispersionsindizes J 1 und J n eines Poisson- Prozesses? 2. Ein Ausdruck für J n in Abhängigkeit des Autokorrelat ionskoeffizienten soll hergeleitet werden. Der Autokorrelationskoeffizient ζ n ist wie folgt definiert: ζn =

COV [ X 1 , X n ] VAR [ X 1 ] ⋅ VAR [ X n ]

.

3. Betrachtet werde nun ein Ankunftsprozess, dessen Zwischenankunftszeit A einer hyperexponentiellen Verteilungsfunktion m it zw ei Phasen ( H 2 -Verteilungsfunktion) ge nügt. Mit Wahrscheinlichkeit p1 werde in Phase 1 mit Ankunftsrate λ 1 verzweigt, mit Wahrscheinlichkeit p2 = 1 − p1 in Phase 2 m it Ankunftsrate λ 2 . Es soll nun bei konstantem Mittelwert E [A ] der Dispe rsionsindex J 1 in Abhä ngigkeit v on p1 un d λ 1 berechne t p werden, wobei λ 1 > 1 ist. Welche Grenzwerte nimmt J 1 an E [A ]

– – –

für p1 → 1 mit λ 1 = α , für λ 1 → ∞ mit p1 = α , p für p1 → 0 und λ 1 → 1 ? E [A ]

82 2

Elementare Zufallsprozesse

Aufgabe 2.2: Die Anzahl von Erei gnissen eines Punktprozesses in ei nem Beobachtungsi ntervall ( 0, t ) wird mit X ( t ) bezeichnet. Die Zufallsvariable für di e Zeit bis zum Eintreten des k-te n Erk k eignisses ist A ( ) mit der zugehörigen Verteilungsfunktion A ( ) ( t ) .

1. Es soll gezeigt werden, dass die Wahrscheinlichkeit P ( X ( t ) = k ) für genau k Ereignisse k k +1 im Beobachtungsintervall durch A ( ) ( t ) − A ( ) ( t ) gegeben ist. 2. Wie lautet die so ge nannte Erne uerungsfunktion H ( t ) = E ⎡⎣ X ( t ) ⎤⎦ in Abhängigkeit von k A( ) ( t ) ? 3. Herzuleiten ist ein einfacher Ausdruck für die Laplace-Transformierte von H ( t ) . Aufgabe 2.3: Betrachtet werde ei n Ankunftsprozess, dessen Zwischenankunftsabstände einer hyperexponentiellen Verteilung 2. O rdnung ( H 2 -VF ) genügen. Mit der Wahrscheinlichkeit α1 bzw. α 2 ist der Zwischenankunftsabstand A 1 bz w. A 2 . Die ZV A 1 und A 2 sind negativexponentiell verteilt mit den Param etern λ 1 bzw. λ 2 . Auße rdem gilt die sog. Symm etrieAnnahme α 1 E [A 1 ] = α 2 E [A 2 ] .

1. Wie lautet die Rekurrenzzeit-Verteilungsfunktion des Ankunftsprozesses R ( t ) ? 2. Mit welcher Wahrscheinlichkeit ist E [ R ] ≤ 0, 1sec für E [A 1 ] = 1sec un d E [A 2 ] = 0, 01sec ? 3. Wie muss man das Ve rhältnis α = E[A 2 ]/E[A 1 ] wähle n, damit der Erwart ungswert der Rekurrenzzeit E [ R ] größer ist als der Mittelwert des Zwischenankunftsabstandes E [A ] ? Aufgabe 2.4: Die Expone ntialverteilungsfunktion A ( t ) = 1 − e −λt ist die einzige kontinuierliche Verteilungsfunktion, die die Eige nschaft der Gedächtnislosigkeit (Markov-Eigenschaft) hat. Diese Eigenschaft be sagt, dass im Falle einer negativ exponent iell verte ilten Zufallsvariablen A die so genannte Restzufallsgröße A x = A − x, x > 0 , unter der Bedingung A > x die gleiche Exponentialverteilungsfunktion besitzt wie A . Zu zeigen ist, dass folgende Gleichung gilt: P ( A x ≤ t |A x > 0 ) = P ( A ≤ t ) .

Aufgabe 2.5: Betrachtet werde ein reines Verl ustsystem mit n identischen Prozessoren, die jeweils eine negativ-exponentiell verteilte Bedienzeit μ benötigen, um eine n Auftrag zu be dienen. Die eintreffenden Aufträ ge ge hören z u zwei vone inander u nabhängigen Kl assen. Aufträge der ersten Klasse benötigen eine Bedieneinheit, die der zweiten Klasse zwei Bedieneinheiten z u ihrer Verarbeitung, wobei die Bearbeitung auf den zwei Prozessoren als unabhängig voneinander a ngenommen werde n soll. Die Ankunftsabstände der A ufträge beider Klassen seien negativ-exponentiell mit d en Anku nftsraten λ 1 bzw . λ 2 verteilt. Falls nur noch eine Bedieneinheit frei ist und ein A uftrag der zweiten Klasse eintrifft, bele gt dieser diese Bed ieneinheit nicht und wird abgewiesen.

Übungsaufgaben zu Kapitel 2

83

1. Man definiere eine geeignete Zustands beschreibung und gebe das Zustandübergangsdiagramm und die Übergangswahrscheinlichkeiten an. 2. Handelt es sich hierbei um einen Geburts- und Sterbeprozess? 3. Man definiere geeignete Makrozustände und gebe die Zustandsgleichungen für de n stationären Fall an. Aufgabe 2.6: Die stationä ren Z ustandswahrscheinlichkeiten x ( i ) eines Ge burts- und St erbeprozesses X ( t ) können mit Hilfe des folgenden Gleichungssystems bestimmt werden: x ( 0 ) ⋅ λ = x ( 1) ⋅ μ x ( 1) ⋅ ( λ + μ ) = x ( 0 ) ⋅ λ + x ( 2 ) ⋅ μ x ( i ) ⋅ ( λ + μ ) = x ( i − 1) ⋅ λ + x ( i + 1) ⋅ μ λ bzw. μ sind hierbei Konstanten, die der Bedingung λ < μ genügen. Mit Hilfe der erzeugenden Funk tion X EF ( z ) = ∑ i∞= 0 x ( i ) ⋅ zi können aus den o ben angegeben Zusammenhängen die einzelnen Zustandswahrscheinlichkeiten bestimmt werden.

1. Zu zeigen ist, dass X EF * ( z ) =

x ( 0 ) ⋅μ μ − λz

die erzeuge nde Funktion für die obe n ange gebene W ahrscheinlichkeitsverteilung ist, wenn diese noch von x ( 0 ) abhängt. 2. Die Wahrscheinlichkeit x ( 0 ) soll aus X * EF ( z ) berechnet und die erze ugende Funktion X EF ( z ) unabhängig von x ( 0 ) angegeben werden. Aufgabe 2.7: Gegeben sei ein Geburts - un d Sterbe prozess mit n Z uständen und fo lgenden Übergangswahrscheinlichkeitsdichten:

qi j

⎧ λ i i = 0, 1,… , n − 1, ⎪ = ⎨ μ i i = 1, 2,… , n, ⎪ 0 sonst . ⎩

j = i + 1, Geburtsrate, j = i − 1, Sterberate,

Die Aufe nthaltszeit eines Geburts- und Ste rbeprozesses sei definiert als die Zeitspanne, in der der Zustand des Prozesse s unverändert bleibt. Dies entspricht genau dem Intervall zwischen zwei unm ittelbar aufei nander folge nden Z ustandsübergängen. Wie lautet die V ertei-

84 2

Elementare Zufallsprozesse

lung der Aufenthaltszeit der Zustände i = 1,… , n ? Wie groß ist der Mittelwert dieser Zeitspanne? Aufgabe 2.8: Betrachtet werde ein Ankunftsprozess, bei dem die letzte Ankunft vor t 0 Zeiteinheiten eintrat. Man berechne die Verteilungsfunktion der Wartezeit

P ( W ≤ t ) = P (A ≤ t0 + t A > t0 ) , t0 > 0 ,

bis zum nächsten Ereignis für den Fall, dass die Zwischenankunftszeit A einer 1. determ inistischen Verteilungsfunktion mit E [A ] > t 0 , 2. negativ-exponentiellen Verteilungsfunktion, 3. um m verschobenen geometrischen Verteilung mit ( m < t 0 ) genügt. Wie sind diese Ergebnisse zu interpretieren? Aufgabe 2.9: Im Folgenden soll die Anzahl von Ankunftsereignissen eines Poisson-Prozesses in ein em Beobachtungsintervall ( t ; t + τ] der Länge τ berechnet werden.

1. Die Zufallsvariable A k beschreibt die Zeit bis k Ankünfte eintreffe n. Wie lautet die Verteilung? Man leite die Verteilungsfunktion A k ( t ) = P A k ≤ t explizit durch Induktion her und berechne die dazugehörige Dichtefunktion ak ( t ) . τ 2. Man berechne die Wahrscheinlichkeit A min ( k ) , dass mindestens k Ankünfte innerhalb des Beobachtungsintervalls τ eintreten. 3. Wie groß ist d ie W ahrscheinlichkeit für ge nau k Ankünfte im Beobachtungsintervall? Um welche Verteilung handelt es sich?

(

)

Aufgabe 2.10: Welche Ve rteilung erhält man f ür die Z wischenankunftszeiten, we nn bei einem PoissonProzess mit Rate

1. nur jede k-te Ankunft gezählt wird? 1 2. jede Ankunft nur mit Wahrscheinlichkeit gezählt wird? k

3

Analyse Markovscher Systeme

Warteschlangenmodelle m it der Eigenschaft der Gedächtnislosigkeit bzw. Mark ov-Eigenschaft bilden die Majorität der Modelle, die in der Praxis der Leistungsbewertung zum Einsatz kom men. Sie ge hören zum Gru ndrepertoire klassischer Verkehrsmodelle, die in den meisten Lehrbüche rn a usführlich behandelt werden (Coope r [3.2], Gross & Harris [3.3] , Kleinrock [3.6, 3.7], Tijms [3.12]). In diesem Kapitel werden ei nige wichtige Verkehrsmodelle mit Markov-Eigenschaft behandelt. Wie der Titel des Kapi tels schon andeut et, handelt es sich aussc hließlich um Modelle mit Poisson-Ankunftsprozessen und negativ-exponentiell verteilten Bedienzeiten.

3.1

Das Verlustsystem M/M/n

3.1.1

Modellbeschreibung und Parameter

M, λ

1

2

n

M

M

M

μ

Poisson Ankunftsprozess Blockierung

μ

μ

negativ-exponentiell verteilte Bedienzeit

Abb. 3.1: Das Verlustsystem M/M/n

Die Struktur des M/M/n-Verlustsystems (bzw. M/M/n – 0-Systems) wird in Abb. 3.1 gezeigt. Nach der Kendall-Notation ist der Ankunftsprozess ein Poisson-Prozess, d.h. die Zwischenankunftszeit A ist negativ-expone ntiell verteilt. Die Bedienzeit B wird ebenfalls mit e iner negativ-exponentiellen Verteilungsfunktion beschrieben:

86 3

Analyse Markovscher Systeme A ( t ) = P ( A ≤ t ) = 1 − e −λt , B ( t ) = P ( B ≤ t ) = 1 − e −μt ,

1 , λ 1 E [B] = . μ

E [A ] =

Der Parameter λ wird Ankunftsrate genannt. Mit λ wird die mittlere Anzahl ankommender Anforderungen pr o Zeiteinhe it ange geben. Anal og wird der Param eter μ als Bedienra te bezeichnet. Es wird der reine Verlustbetrieb betrachtet, d h. Anforderungen, die zum Ankunftszeitpunkt alle Bedieneinheiten belegt vorfinden, we rden a bgewiesen. Abgewiesene bz w. bl ockierte Anforderungen verlasse n das System und beeinflussen die we itere Entwicklung des Zustandsprozesses nicht.

3.1.2

Zustandsraum und Zustandswahrscheinlichkeiten

Zur Beschreibung des Systemzustands dient die Anzahl X ( t ) der zum Prozesszeitpunkt t belegten Be dieneinheiten. Der Zusta ndsprozess ist dem entsprechend ei n zustandsdiskreter, zeitkontinuierlicher stochastischer Prozess. Eine Realisierung des Zustandsprozesses wird in Abb. 3.2 illustriert, wobei die Entwicklung des Systemzustands X ( t ) gezeigt wird.

Blockierung Ankünfte

X(t) n

2 1

t Abgänge

Abb. 3.2: Zustandsprozess eines M/M/n-Verlustsystems

3.1 Das Verlustsystem M/M/n

87

Der Zustand X ( t ) wird inkrem entiert, wenn eine ankommende Anforderung angenommen wird, un d de krementiert, falls ein Bedien-Ende stattf indet. Aufgrund de r M arkovEigenschaft de s Ankunfts- und Be dienprozesses hat auc h der Z ustandsprozess X ( t ) di e Eigenschaft de r Ged ächtnislosigkeit, un d zwar z u je dem beliebigen Zeitpunkt de r Prozessentwicklung. Ausgehend von einem Startzustand X ( 0 ) durchläuft der Zustandsprozess im Allg. zunächst eine instationäre Phase, bevor die Zustandsentwicklung im statistischen Sinne stationär wird. Im stationären Zustand bzw. im stat istischen Gleichgewicht ändern sich die Zustandswahrscheinlichkeiten nicht mehr in de r zeitlichen Entwicklung. Der Zustand des Systems im statistischen Gleichgewicht wird m it der Zufallsvariablen X beschrie ben. Di e Zustands wahrscheinlichkeiten x ( i ) = P ( X ( t ) = i ) = P ( X = i ) , i = 0, 1,… , n

(3.1)

formen einen Zustands wahrscheinlichkeitsvektor X = {x ( 0 ) , x ( 1 ) ,… , x ( n )} , der die statistische Ei genschaft de s stationäre n Z ustandsprozesses zu einem b eliebigen Beobachtungszeitpunkt beschreibt. Nach der Herleitung der Ankunfts- und Bedienraten in Kap. 2.3.3 erhält man folgende Übergangswahrscheinlichkeitsdichten (bzw. Raten) q i j (s. Abb. 3.3): • Ankunftsereignis: Entsprec hend dem Poisson-A nkunftsprozess erfolgt der Übergang [ X = i ] → [ X = i + 1] mit der R ate λ (vgl. Gl. (2.43)), falls eine ankom mende Anforderung an genommen wir d ( i = 0,… , n − 1 ) . Trifft die A nforderung a uf den Zustand X = n , wird sie abgewiesen, und das System bleibt in diesem Zustand. • Bedien-Ende: Im Zustand X = i befinden sic h i Anfor derungen in der Bedi enphase. Nach Gl. (2.44) erfol gt der Übe rgang [ X = i ] → [ X = i − 1] mi t d er Rate i ⋅ μ ( i = 1,… , n ) ; dieser Zusta ndsübergang findet statt, falls einer der i laufenden Bedienvorgänge endigt.

λ 0

μ

1

λ

λ 2μ

(i -1) μ

i -1

λ

i iμ

λ

i+1

λ

(i+1) μ

λ

n nμ

Makrozustand S

Abb. 3.3: Zustandsübergangsdiagramm des M/M/n-Verlustsystems

Das Zusta ndsübergangsdiagramm des M /M/n-Verlustsystems hat dieselbe Form wie bei einem eindim ensionalen, endlichen Ge burts- und Sterbe prozess. Abbildung 3.3 zeigt den Zustandsraum mit der entsprechenden Rate q i j für den Zustandsübergang i → j .

88

3 Analyse Markovscher Systeme

Mit der Wahl des Makrozustands S , de r sich aus den M ikrozuständen {X = 0, 1,… , i − 1} zusammensetzt, ergibt sich das Gleichungssystem (3.2)

λ ⋅ x(i − 1) = i μ ⋅ x(i ), i = 1, 2,… , n n

∑ x (i )

= 1.

(3.3)

i=0

Durch sukzessives Einsetzen von Gl. (3.2) erhält man die Zustandswahrscheinlichkeiten des M/M/n-Verlustsystems:

x (i ) =

n

ai i!



k =0

mit

ak k!

(Erla

ng-Formel für Verlustsysteme)

(3.4)

ngebot)

(3.5)

λ . (A μ

a =

Blockierungswahrscheinlichkeit 0.2

x(i)

0.3

ρ=

1.1

a n 0.5

0.1

0

0

0.7

10

20

0.9

i

Abb. 3.4: Zustandsverteilungen des Verlustsystems M/M/n (n=30)

30

3.1 Das Verlustsystem M/M/n

89

Diese Erlang-Formel für Verlustsystem e wird in der englischsprachigen Fachliteratur als Erlang-B-Formula bezeic hnet. Das Angebot a wird in der Pse udoeinheit „Erlang“ [Erl] angegeben. Wie oben bereits diskutiert, gelten die Zustandswahrscheinlichkeiten {x ( i ) , i = 0, 1,… , n} zu beliebigen Zeitpunkten des im stationären Zustand befindlichen Zustandsprozesses. In Abb. 3.4 is t die Zustands verteilung des Verl ustsystems M/M/n ( n = 30 ) aufgetra gen. Dabei wird das normierte Angebot ρ = a / n als Pa rameter benutzt. Aus diesem Diagramm ist ersichtlich, dass bei steigenden Werten von ρ das System stärker a usgelastet wird, mehr Bedieneinheiten belegt sind und sich die Masse der Zustandswahrscheinlichkeiten nach rechts, d.h. nach größeren Werten für i , verlagert. Am speziellen Wert i = n = 30 kann die Blockierungswahrscheinlichkeit des Systems abgelesen werden. Aufgrund der M arkov-Eigenschaft des Poi sson-Ankunftsprozesses gelten die in Gl. (3.4) angegebenen Zustandswahrscheinlichkeiten auch zu den Ankunftszeitpunkten der eintreffenden Anforderungen. Dies be deutet, dass di e Zustands wahrscheinlichkeiten zum Ankunfts zeitpunkt {xA ( i ) , i = 0, 1,… , n} mit den Z ustandswahrscheinlichkeiten in Gl. (3.4) identisch sind: xA ( i ) = x ( i ) ,

i = 0, 1,… , n .

(3.6)

Dieser Sachverhalt wird PA STA-Eigenschaft genannt (PASTA: Poisson Arrivals See Time Averages, vgl. Wolff [3.16]) und stellt eine wichtige Eigenschaft von Systemen mit PoissonAnkunftsprozessen dar.

3.1.3

Systemcharakteristiken

a) Blockierungs

wahrscheinlichkeit

Ein Blockierungsfall bzw. Verlustfall findet statt, wenn eine eintreffende Anforderung (Testanforderung) abgewiesen wird. Die Blockierungswahrscheinlichkeit pB ist identisch mit der Wahrscheinlichkeit, dass zum Ankunftszeitpunkt der Testanforderung alle n Bedieneinheiten belegt sind:

pB = xA ( n ) = x ( n ) =

an n! n



k =0

b) Verkehr

ak k!

. (Erla

ng-Verlustformel)

(3.7)

swert

Die mittlere Anzahl bele gter Bedieneinheiten im System wird als Verke hrswert Y bezeichnet:

90

3 Analyse Markovscher Systeme Y =

n

∑ i ⋅ x(i) .

(3.8)

i=0

Der Verke hrswert Y wird auc h in der Pse udoeinheit „Erla ng“ [Erl] ange geben. Mit Hilfe des Little-Theorems kann Y hergeleitet werden. Dabei betrachtet man folgendes System: • System: die Gesamtheit der Bedieneinheiten (s. Abb. 1.8) mit – mittlere Ankunftsrate: Rate der akzeptierten Anforderungen λ ( 1 − pB ) , – mittlere Aufenthaltszeit im System: mittlere Bedienzeit E[B] = 1/μ , – mittlere Anzahl von Anforderungen im System: Verkehrswert Y .

Wird das Little-Theorem ge mäß Gl. (1.1) auf dieses System angewe ndet, erhält man de n Verkehrswert in Abhängigkeit von Angebot und Blockierungswahrscheinlichkeit: Y = λ (1 − pB )

1 = a (1 − pB ) . (Ve μ

rkehrswert)

(3.9)

Die Bilanz der Verkehrsströme in eine m M/M/n-Verlustsystem wird in Abb. 3.5 illustriert. Der Ankunftsstrom teilt sich in zwei Teilström e auf: ange nommener Verkehr und abgewiesener Verkehr. Nur de r Strom akzeptierter Anforderungen trägt z um Verkehrswert des Systems bei.

angebotener Verkehr

angenommener Verkehr

a

Y

a⋅p

B

1

2

n

M

M

M

μ

μ

Y = a (1- pB)

μ

Bedieneinheiten

abgewiesener Verkehr

Abb. 3.5: Verkehrsbilanz im Verlustsystem M/M/n

3.1.4

Verallgemeinerung auf das Verlustsystem M/GI/n

Die in Gl. (3.4) angegebenen Zustandswahrscheinlichkeiten wurden zu nächst nur unter der Voraussetzung hergeleitet, dass die Bediendauer B negativ-exponentiell verteilt ist, d.h. nur für Verlustsysteme vom Typ M/M/n. Es kann jedoch gezeigt werden, dass diese Zust andswahrscheinlichkeiten ebenfall s für allgem eine Bedienzeit verteilungen gültig sind. Die Ergebnisse in Gl. (3.4) und insbesondere die Blockierungswahrscheinlichkeit pB in Gl. (3.7) gelten auch für Verlustsysteme vom Typ M/GI/n (bz w. M /GI/n – 0). Ein Beweis di eses

3.1 Das Verlustsystem M/M/n

91

Sachverhalts findet sich u.a . in Syski [3.10]. Diese Robustheitseige nschaft erweitert den Anwendungsbereich der Erlang-Verlustformel erheblich.

3.1.5

Modellierungsbeispiele und Anwendungen

Leitungsbündel in Fernsprechnetzen

Die bekannteste Anwendung des Verlustsystems vom Typ M /M/n bzw. M/GI/n im Zusammenhang m it der Erlang-Verlustformel ist di e Dim ensionierung eines Leitungsbündels in Fernsprechnetzen. Die Modellierungsschritte und Modellkomponenten sind: • Ankunftsprozess: Prozess der Anrufversuche zur Belegung des Leitungsbündels. Betrachtet man eine hinreiche nd große Gruppe von Fe rnsprechteilnehmern, s o kann a ngenommen werden, dass d er Ankunftsprozess ein Poisson-Prozess ist. Diese zunächst vereinfachende Annahme, die aufgrund der Markov-Eigenschaft des Poisson-Prozesses eine einfachere Analyse im pliziert, wurde m it M essungen i n herkömmlichen Fernsprechnetzen mehrfach bestätigt. • Bedienprozess: Ein akze ptierter A nrufversuch bele gt eine Leitung des Leitungsbündels für die Dauer der Verbindung. Eine Leitung entspr icht einer Bedieneinheit; die Belegungsdauer entspricht der Bedienzeit. Beim reinen Verlustbetrieb wird ein ankommender Anrufversuch abge wiesen, w enn alle n Leitunge n z um Ankunftszeitpunkt belegt sind. Da die Erlang-Verl ustformel für allgemeine Verlustsysteme M/GI/n gilt, kann die Belegungsdauer beliebig verteilt sein.

Ziel der Dimensionierung ist z.B., die Anz ahl de r Leitungen so festzulegen, dass eine bestimmte Dienstgüte in Form einer vorgegebenen maximalen Blockierungswahrscheinlichkeit pB eingehalten werden soll. Dabei ist das Angebot a bekannt. Da die Erlang-Verlustformel nicht nach der Anzahl n explizit aufgel öst werden kann, wird n für die Bündel dimensionierung f ür untersc hiedliche Werte von a un d pB norm alerweise a us Tabellen (vgl. Kühn [3.8], Seelen et al. [3.9]) bestimmt. In Abb. 3.6 wird die Anzahl der Bedieneinheiten als Funktio n des Angebots dargestellt, wobei Kurven für konstante Blockierungswahrscheinlichkeiten a ufgetragen we rden. Bei vorgegebenen Werten für das Angebot a und die Blockierungs wahrscheinlichkeit pB kann anhand dieses Diagramms die Anzahl n von benötigten Bedieneinheiten abgelesen werden. Als Beispiel betrac hten wir ein Leitungsbündel, das bei garantierter Blockierungswahrscheinlichkeit von pB = 10 −2 einen Verkehr m it λ = 30 [Anrufe pro M inute] u nd E [ B ] = 90 [Sekunden] mittlerer Belegungsdauer bewältigen soll. Das Angebot ergibt sich zu a = λ ⋅ E [ B ] = 45 [Erl]. Nach Abb. 3.6 we rden mindestens n = 58 Leitungen benötigt. Wird jedoch für den gleichen Verkehr eine bessere Die nstgüte von pB = 10 −3 verlangt , erhöht sich die Anzahl der benötigten Leitungen auf n = 65 .

92

3 Analyse Markovscher Systeme pB 10-9

140

10-6

10-3

10-2

n 130

120

110

100

90

80

70

60

50

40

30

20

10

0

0

10

20

30

40

50

60

70

80

90

100

110

120

a

Abb. 3.6: Bündeldimensionierung

3.1 Das Verlustsystem M/M/n

3.1.6

93

Bündelungsgewinn

In Weitverkehrsnetzen we rden Leitungs bündel nach dem Prinzip z usammengeführt, dass größere Bündel wirtschaftlicher als kleinere sind. Der dam it verbundene Bündelungsgewinn kann mit der Erlang-Form el für Verlustsyste me qualitativ erklärt und quantitativ berechnet werden. Y n

0.90

10 -2

0.85 0.80

10 -3

0.75

p

0.70

B

10 -6

0.65 0.60

10 -9

0.55 0.50 0.45 0.40 0.35 0.30 0.25

10

20

30

40

50

60

70

80

90

100

110

120

130

140

n

Abb. 3.7:

Effekt des Bündelungsgewinns

In Abb. 3. 7 w ird der norm ierte Verkehrswert Y / n , d h. die mittlere proze ntuale Nutzung einer Leitung, als Funktion der Leitungsanzahl n dargestellt, wobei Kurven für konstante Blockierungswahrscheinlichkeiten pB aufgetragen werden. Folge nde Effekte sind a us Abb. 3.7 ersichtlich: –



Bei gleich bleibende r Blocki erungswahrscheinlichkeit pB steigt die Auslast ung de r Leitungen (bzw. Bedieneinheiten) Y / n mit der Bündelgröße n, d. h. größere Bündel sind wirtschaftlicher. Die Steigung des Faktors Y / n entspricht dem Bündelungsgewinn (engl. economy of scale). Diese r Gewinn lässt s ich je doch nic ht m it im mer größere n B ündeln belie big

94

3 Analyse Markovscher Systeme



optimieren. Dies spiegelt sic h in dem flacheren Verlauf der K urven in Abb. 3.7 bei größeren Werten von n wider. Bündelt m an die Bedie neinheiten von Verl ustsystemen, so ist die Bloc kierungswahrscheinlichkeit des zusammengefassten Systems im Vergleich zu den Teilsystemen kleiner. Durch die Bündelung ar beitet das Gesamtsyste m wirtschaftlicher, es besitzt eine bessere Dienstgüte (engl. QoS: Quality of Service).

Der Bündelungsgewinn soll nachfolgend anhand eines Beispiels verdeutlicht werden. Abbildung 3.8 zeigt zwei Systeme: • System 1 – besteht aus zwei Teilsystemen (1a und 1b) vom Typ M/M/n-Verlustsystem – Teilsysteme 1a und 1b haben jeweils n Bedieneinheiten und einen Ankunft sprozess mit der Rate λ 1 = λ – die Blockierungswahrscheinlichkeit im System 1 ist p B 1 • System 2 – alle Bedieneinheiten werden zusam mengefasst zu eine r Bedienstufe m it 2n Bedie neinheiten (Bündelung der Bedieneinheiten) – das entstandene Verlustsystem hat 2n Bedieneinheiten und einen Ankunftsprozess mit der Rate λ 2 = 2λ – die Blockierungswahrscheinlichkeit ist p B 2 Teilsystem 1a

M 1 . . .

λ1 = λ pB

M n 1

λ2 = 2 λ

μ

Teilsystem 1b

λ1 = λ pB

1

M . . .

1

M

n

Bündelung

pB

M 2n 2

μ

System 2

μ

System 1

Abb. 3.8:

M 1 . . .

Bündelung von Verlustsystemen

3.1 Das Verlustsystem M/M/n

95

Mit der Erlang-Verlustformel kann gezeigt werden, dass pB 2 < pB1 ,

d h. durch die Bündelung der Bedieneinheiten weist das System 2 unter gleicher Belastung (gleiches Gesamtverkehrsangebot) eine bessere Dienstgüte auf. Der Effekt lässt sich wie folgt erklären. Wenn eine Anforderung in das Teilsystem 1a eintrifft und alle Bedieneinheiten in diesem T eilsystem bele gt vorfindet, muss sie abgewiesen werden, auc h wenn eine Be dieneinheit im Te ilsystem 1b gera de frei ist. Ein ge genseitiges Aushelfen de r Bediengruppe n im Hochlastfall ist also wegen der strikt en Tre nnung nicht möglich. Im Falle des System s 2, d.h. we nn die Bedienei nheiten zusammen gebündelt sind, könnte diese Anforderung no ch angenom men werden. Dies führt z u einer Re duktion der Verlustwahrscheinlichkeit. Beispiel

Wir betrachte n die Dim ensionierung von L eitungsbündeln für Ferns prechverkehr zwis chen zwei Standorten A und B . Der gesam te Fernsprechverkehr zwischen A und B wird mit einem Poisson-Strom mit der Rate von 2λ = 0, 56 [Verbindungswünsche pro Sekunde] beschrieben. Die Verbindungsdauer B sei negativ-exponentiell verteilt (mittlere Bedi enzeit E [ B ] = 100sec , d h. Be dienrate μ = 1 / E [ B ] = 0, 01 Verbindungen/sec). Die entstehe nden Modelle seien vom Typ M/M/n-Verlustsystem. Mithilfe der Robustheitseigenschaft gilt diese Betrachtung auch für M/GI/n-Verlustsysteme. Wir betrachten zwei Alternativen: • System 1: – Aus Organisationsgründen w erden z wei Te ilbündel m it je n = 40 Leitungen instalλ = 0, 28 [Verb indungswünliert. Der aufgeteilte Verkehr pro Bündel hat die Rate sche pro Sekunde], das Angebot eines Teilbündels a = λE [ B ] = 28 [Erl]. – Die Blockierungswahrscheinlichkeit berechnet sich nach Gl. (3.7) zu pB = 0, 66% . 1 – Der Verkehrswert pro Bündel ist Y1 = 27 , 815 [Erl], der Gesamtverkehrswert beider Teilsysteme ist 2 ⋅ 27, 815 = 55, 630 [Erl]. • System 2: – Die zwei Leit ungsbündel werde n nun operativ zusam mengefasst, das System 2 hat insgesamt 80 Leitunge n ( 2n ) . Der Gesam tverkehr für das Bündel hat die Rate 2λ = 0, 56 [Verbindungsw ünsche pro Se kunde], das Gesa mtangebot ist a = 2 ⋅ λ ⋅ E [ B ] = 56 [Erl]. – Die Blockierungs wahrscheinlichkeit des Gesamtbündels reduzie rt sich auf pB2 = 0, 048% . – Der Verkehrswert des Gesamtbündels ist nun Y2 = 55, 97 [Erl]. • Ergebnis – Man erreicht durch die Bündelung, d h. durch ei n operatives Z usammenfassen de r Bündel eine Reduktion der Blockierungswahrscheinlichkeit von 0, 66% auf 0, 048% und eine Erhöhung des Verkehrswertes von 55, 63 [Erl] auf 55, 97 [Erl].

96

3 Analyse Markovscher Systeme

3.2

Das Wartesystem M/M/n

3.2.1

Modellbeschreibung und Parameter

Abbildung 3.9 zeigt die Struktur des M /M/n-Wartesystems (bzw . M /M/n–∞). Gem äß der Kendall-Notation ist der Ankunftsprozess ein Poisson-Prozess, d h. die Zwischenankunftszeit A ist negativ-exponentiell verteilt. Die Bedienzeit B jeder der n Bedieneinheiten hat ebenfalls eine negativ-exponentielle Verteilungsfunktion: 1 , λ 1 = . μ

A ( t ) = P ( A ≤ t ) = 1 − e −λt ,

E [A ] =

B ( t ) = P ( B ≤ t ) = 1 − e −μt ,

E [B]

Die Ankunftsrate λ gibt die mittlere Anza hl ankom mender A nforderungen pro Zeiteinheit an. Analog wird μ als Bedienrate bezeichnet.

M,

λ

PoissonAnkunftsprozess

∞ unbegrenzter Warteraum

1

2

n

M

M

M

μ

μ

μ

negativ-exponentiell verteilte Bedienzeit

Abb. 3.9: Das Wartesystem M/M/n

Der Wa rteraum wird als unendlich groß angenommen, d h. es ha ndelt sich um den reinen Wartebetrieb. Eine Anforde rung, die z um Ankunftszeitpunkt alle Bedieneinheiten belegt vorfindet, m uss im Wartera um auf das F reiwerden eine r Bedieneinheit warte n. Die Übernahme einer A nforderung vom Warteraum in di e Bedieneinheit erfolgt nach einer festzulegenden Warteschlangendisziplin. Beispiele für Warteschlangendisziplinen sind: FIFO (firstin, first-out) bzw. FCFS (first-come, first-served), LIFO (last-in, first-out), RANDOM (vgl. Kleinrock [3.6], Takagi [3.11]). Für den reinen Wartebetrieb ist die Auslastung aller Bedieneinheiten i dentisch mit dem Angebot:

3.2 Das Wartesystem M/M/n a =

97

λ = λ ⋅ E [ B ] , (A μ

ngebot)

(3.10)

das in der Pseudoeinheit Erlang [Erl] angegeben wird. Das Angebot a steht für die m ittlere Anzahl belegter Bedieneinheiten. Entsprechend ist die Auslastung einer Bedieneinheit ρ =

a . (A n

uslastung)

(3.11)

Da λ ⋅ E [ B ] (Gl. (3.10)) die mittlere Anzahl der Ankünfte während einer Bediendauer angibt, wird das System instabil, d h. die Warteschlange langfristig unendlich lang werden, wenn im Durchschnitt m ehr Anforderungen ankom men, als bedient werden können. Entsprechend lautet die Stabilitätsbedingung a < n

oder

ρ < 1 . (Stabilitätsbedi

ngung)

(3.12)

Bei der nachfolgenden Berechnung stationärer Zustandswahrscheinlichkeiten wird die Stabilitätsbedingung vorausgesetzt.

3.2.2

Zustandsraum und Zustandswahrscheinlichkeiten

Zu ei nem Beobacht ungszeitpunkt t seien X B ( t ) Anforderu ngen in der Bedienphase und X W ( t ) Anforderungen im Warteraum. Mit den Zufallsvariablen X B ( t ) und X W ( t ) kann der Zustandsprozess zum Zeitpunkt t vollständig beschrieben werden.

Ankünfte

X(t)

XW n 2

XB

1

t Abgänge

Abb. 3.10:

Zustandsprozess eines M/M/n-Wartesystems

98

3 Analyse Markovscher Systeme

Zur Besc hreibung des Syste mzustands z um Zeitpunkt t benötigt m an jedoc h nicht beide Zufallsvariablen, da für den Fall X B ( t ) < n , d.h. we nn nic ht alle Bedieneinheiten belegt sind, der Warteraum leer sein m uss ( X W ( t ) = 0 ). Zur Beschreibung des Zustandsprozesses zum Zeitpunkt t wird deshalb anstelle von {X B ( t ) , X W ( t )} die Anzahl X ( t ) aller im System befindlichen Anforderungen betrachtet. Der Z ustandsprozess ist ein zustandsdiskreter, zeitkontinuierlicher stoc hastischer Prozess. Eine exem plarische Ent wicklung de s Zusta ndsprozesses z eigt Abb. 3.10. Kom mt eine Anforderung an, erhöht sich der Zustand X ( t ) um Eins. Der Zustand wird dekrementiert, falls ein Bedien-Ende stattfindet. Da Ankunfts- und Bedie nprozesse die Markov-Eigenschaft haben, ist der Zustandsprozess ebenfalls gedächt nislos. Dies gilt zu jedem beliebigen Zeitpunkt der Prozessentwicklung. Der Prozess erreicht den stationä ren Z ustand bzw. befindet sich im statistischen Gleichgewicht, wenn die statistischen Eigenschaften des Prozesses nicht mehr von der Zeit abhängen. Im stationäre n Fall ka nn die Zeitabhä ngigkeit we ggelassen und m it den Z ufallsvariablen {X B , X W } bzw. X der Systemzustand beschrieben werden. Die Zustandswahrscheinlichkeiten x (i ) = P (X (t) = i ) = P (X = i) ,

i = 0, 1,…

gelten dann zu beliebigen Beobachtungszeitpunkten. Entsprechend der Herleitung der Ankunfts- und Bedienra ten in Ka p. 2.3.3 erhält man folgende Übergangswahrscheinlichkeitsdichten (bzw. Raten) q i j (s. Abb. 3.11): • Ankunftsereignis: Entsprec hend dem Poisson-A nkunftsprozess erfolgt der [ X = i ] → [ X = i + 1] mit der Rate λ ( i = 0, 1,…) (vgl. Gl. (2.43)).

Übergang

• Bedien-Ende: – X ≤ n: Es laufen X = i Bedienvorgänge. Wie in Abschnitt 2.3.3 erörtert, ist das Intervall bi s zum nächsten Bedien-Ende das Minimum von i negativ-exponentiell verteilten Intervallen. Der Übergang [ X = i ] → [ X = i − 1] ( i = 1,… , n ) erfolgt daher mit der Rate i ⋅μ (vgl. Gl . (2. 44)); dieser Zustandsübergang ents pricht der Endigung e ines Bedienvorganges. –

X > n: In diesem Fall sind alle n Bedieneinheiten belegt und entsprechend ( X − n ) Anforderungen im Warteraum. Analog erfol gt der Ü bergang [ X = i ] → [ X = i − 1] mit der Rate n μ ( i = n + 1,…) .

Der Zustandsraum des M/M/n-Wartesystems hat dieselbe Form wie bei einem eindimensionalen Geburts- und Sterbe prozess mit unendlichem Zustandsraum. In Abb. 3.11 ist das Zustandsübergangsdiagramm mit den Raten q i j für den Zustandsübergang i → j dargestellt.

3.2 Das Wartesystem M/M/n λ

0

μ

1

99 λ

λ 2μ

λ

n-1

n



(n-1) μ

λ

λ nμ

i -1



λ

i



λ nμ

Makrozustand S

Abb. 3.11:

Zustandsübergangsdiagramm des M/M/n-Wartesystems

Mit dem in Abb. 3.11 gezeigten Ma krozustand S der {X = 0, 1,… , i − 1} besteht, ergibt sich das Gleichungssystem λ x(i − 1) = i μ x(i ) ,



∑ x(i)

Mikrozuständen (3.13)

i = 1,… , n ,

λ x ( i − 1) = n μ x ( i ) ,

aus den

i = n + 1,… ,

= 1.

(3.14) (3.15)

i=0

Durch sukzessives Einsetzen von Gl. (3.13), (3.14 ) erhält man die Zustandswa hrscheinlichkeiten des M/M/n-Wartesystems: ⎧ ai ⎪ x(0) i! ⎪ x(i) = ⎨ i −n n ⎪ x(0) a ⎛ a ⎞ = x(n) ρi − n ⎜ ⎟ ⎪ n! ⎝ n ⎠ ⎩

i = 0, 1,… , n

(3.16) i>n

und ⎛ n-1 ak an x(0) = ⎜⎜ ∑ + n! ⎝ k=0 k!

⎞ ∑ ρk ⎟⎟ k=0 ⎠ ∞

−1

oder ( a < n ) ⎛ n-1 ak an 1 ⎞ x(0) = ⎜⎜ ∑ + ⋅ ⎟ n! 1 − ρ ⎟⎠ ⎝ k=0 k!

−1

.

(3.17)

Aus Gl. (3.16) ist erkennbar, dass sich die Zustandswahrscheinlichkeiten für i > n entsprechend einer geometrischen Verteilung weiterentwickeln. In Abb. 3.12 ist die Zustandsverteilung des M/M/n-Wartesystems ( n = 10 ) aufgetragen. Die Auf teilung der W ahrscheinlichkeiten wird in diesem Diagramm sichtbar, insbesondere in Abhängigkeit von der Systemauslastung ρ . Aus der halblogarithmischen Darstellung in Abb. 3.12b wi rd ersichtlich, dass die

100

3 Analyse Markovscher Systeme

Verteilungen für Werte von i > n geradlinig verlaufen. Vergleicht man diese Verläufe mit denen de r geom etrischen Ve rteilung in Abb. 1.15, wird klar, dass der Verteilungsrest de r Zustandsverteilung des Wartesystems M/M/n geometrisch verläuft. Der Systemzustand weist somit eine geometrische Restverteilung (engl. geometric tail) auf.

x(i) ρ=

a n

i

x(i)

ρ=

a n

i Abb. 3.12:

Zustandsverteilungen im Wartesystem M/M/n (n=10)

3.2 Das Wartesystem M/M/n

3.2.3

101

Systemcharakteristiken

Aus den hergeleiteten Zustands wahrscheinlichkeiten, die zu beliebigen Pr ozesszeitpunkten gelten, lassen sich einige charakteristische Größen des M/M/n-Wartesystems gewinnen. Wartewahrscheinlichkeit

Eine eintreffende Anforderung muss warten, falls sie zum Ankunftszeitpunkt alle Bedieneinheiten belegt vorfindet. Die Wartewahrscheinlichkeit pW errechnet sich zu ∞

∑ x (i )

pW =

i =n



= x ( n ) ∑ ρi = x ( n ) i =0

1 1−ρ

(3.18)

oder nach Einsetzen von x ( n ) zu

pW =

n −1

∑ i=0

p W

an 1 ⋅ n! 1 − ρ . (Erla ai an 1 + ⋅ i! n! 1 − ρ

ng-Warteformel)

1 1 2 0.1 n

5 10

0.01

20

100 0.001

0.0001 0

0.5

1

r=a/n

Abb. 3.13:

Wartewahrscheinlichkeit im M/M/n-Wartesystem

(3.19)

102

3 Analyse Markovscher Systeme

In der englischsprachigen Literatur wird diese Beziehung als Erlang-C-Formula bezeichnet. Abbildung 3.13 illustriert di e W artewahrscheinlichkeit für unterschiedliche Werte von n . Bei konstante r A uslastung ρ pro Be dieneinheit nim mt die Wartewahrscheinlichkeit m it wachsender Anzahl der Bedieneinheiten ab. Verkehrswert

Als Verkehrswert wird die mittlere Anzahl belegter Bedieneinheiten bezeichnet: Y = E[X B ] =

n −1



i=0

i=n

∑ i ⋅ x(i) + n ∑ x(i)

= a . (Ve

rkehrswert)

(3.20)

Der Verkehrswert Y wird in der Pseudoeinheit „Erlang“ [Erl] angegeben. Diese Beziehung kann am einfachsten mit Hilfe des Little-Theorems hergeleitet werden. Dabei betrachtet man folgendes System: • System: die Gesamtheit der Bedieneinheiten (s. Abb. 1.10) mit – mittlere Ankunftsrate: identisch mit der Ankunftsrate λ , – mittlere Aufenthaltszeit im System: mittlere Bedienzeit E[B] = 1/μ , – mittlere Anzahl von Anforderungen im System: Verkehrswert Y .

Mit dem Little-Theorem gemäß Gl. (1.1) kann der Verkehrswert direkt angegeben werden: Y =

λ = a. μ

Mittlere Warteschlangenlänge

Die mittlere Warteschlangenlänge bzw. die Wartebelastung lautet Ω = E[X W ] =



∑ (i − n) ⋅ x(i)

i=n

= x(n)



∑ i ρi i=0

=



∑ (i − n) x(n) ρi −n

(3.21)

i=n

= x(n) ⋅

ρ (1 − ρ)2

= x(0)

an ρ ⋅ n! (1 − ρ)2

oder mit Gl. (3.18) Ω = pW ⋅

ρ . 1−ρ

(3.22)

3.2 Das Wartesystem M/M/n

103

Mittlere Wartezeiten

Es wird unterschieden z wischen de r m ittleren Wartezeit E [ W ] bz gl. aller Anforderungen und der mittleren Wartezeit E [ W1 ] von wartenden Anforderungen, d.h. von Anforderungen mit positiver Wartezeit. Die Herleitung erfolgt im Folgenden mit Hilfe des Little-Theorems. Wie in Abb. 3.14 skizziert, teilt sich der gesam te Stro m aller Anforderungen in zwei Verkehrsströme: Anforderunge n, die direkt bedient werden, und Anford erungen, die zuerst in der Warteschlange warten müssen. Zwei Systeme werden im Folgenden betrachtet.

System I E[X I], E[T I ]

System II

λI

λ II

E[X II], E[T II]

M

M

...

M

Abb. 3.14: Zur Berechnung der mittleren Wartezeiten

Mittlere Wartezeit bzgl. aller Anforderungen (System I)

• System I: das gesamte Wartesystem M/M/n: – mittlere Ankunftsrate λ I : gesamte Ankunftsrate λ I = λ , – mittlere Anzahl von Anforderungen im System E [ X I ] : Summe aller Anforderungen in der Warteschlange und in den Bedieneinheiten: E[X I ] = E[X W ] + E[X B ] = Ω + Y , –

mittlere Aufenthaltszeit im Sy stem E [ TI ] : Summe aus der Wartezeit bzgl. aller Anforderungen und der Bedienzeit: E[TI ] = E[W] + E[B] .

Mit der Little-Formel λ I ⋅ E[TI ] = E[X I ] erhält man E[W] =

Ω . λ

(3.23)

104

3 Analyse Markovscher Systeme

Mittlere Wartezeit bzgl. wartender Anforderungen (System II)

• System II: die isoliert betrachtete Warteschlange: – mittlere Ankunftsrate λ II : Ankunftsrate wartender Anforderungen λ II = λ ⋅ pW , – –

mittlere Anzahl von Anforderungen im System E [ X II ] : mittlere Warteschlangenlänge, d h. E [ X II ] = Ω , mittlere Aufenthaltszeit im Sy stem E [ TII ] : mittlere Wartezeit bz gl. warte nder A nforderungen E [ W1 ] .

Mit der Little-Formel λ II ⋅ E [ TII ] = E [ X II ] ergibt sich die mittlere Wartezeit bzgl. wartender Anforderungen: E[W1 ] =

E[W1] E[B]

Ω 1 ρ = ⋅ . λ ⋅ pW λ 1-ρ

(3.24)

8 7 6 5 4

n= 1

3

2

2

5

1 0

10 0

0.2

0.4

0.6

0.8

Abb. 3.15: Mittlere Wartezeit im Wartesystem M/M/n

ρ

1

3.2 Das Wartesystem M/M/n

105

In Abb. 3.15 ist die mittlere Wartezeit bzgl. wartender Anforderungen als Funktion der Auslastung ρ aufgetragen. In der Nähe der Stabilitätsgrenze ρ → 1 steigt die Wartezeit steil an. Dies zeigt, dass ein Wartesystem nicht in diesem Bereich dim ensioniert werden sollte, da durch eine kurze Lastschwa nkung das System instabil wi rd und die Wartezeit sich vervielfacht. Diese r Effe kt ka nn e in System er nsthaft gefä hrden, de nkt m an z.B. an Ü berlastphänomene in Rechne rsystemen ode r e inen Wartepufferüberlauf in den T ransitknoten eines Datennetzes. Dagegen führt eine Dim ensionierung des Arbeitspunktes im Bereich von ρ = 0, 5 zu einem wesentlich insensitiveren System.

3.2.4

Wartezeitverteilungsfunktion

Zur Herleitung der Wartezeitverteilungsfunktion bet rachten wir zunäc hst die Wahrscheinlichkeit, dass eine eintreffende Anforderung eine positive Wartezeit erfährt: P (W > t | W > 0) =

P (W > t , W > 0) P (W > 0)

=

P (W > t)

P (W > 0)

,

(3.25)

wobei P ( W > 0 ) = p W = x(n)

1 . 1−ρ

(3.26)

Wir betrachten ferner den Warteprozess einer beliebig herausgewählten Testanforderung, die zum Ankunfts zeitpunkt Θ Anforderungen i m Syste m vorfi ndet. Ei ne positive Wartezeit existiert nur für Θ ≥ n , d.h. P (W > t) =



∑ P (W > t i=0

Θ = i + n ) ⋅ P (Θ = i + n ) ,

(3.27)

wobei P ( Θ = i + n ) = x ( i + n ) = x ( n ) ρi .

(3.28)

Aus den Gleichungen (3.26), (3.27) und (3.28) erhält man P (W > t W > 0 ) =



∑ P ( W > t | Θ = i + n ) ⋅ ( 1 − ρ ) ρi .

(3.29)

i =0

Für die Warteschlangendisziplin FIFO (first-in, first-out) lässt sich die Wahrscheinlichkeit P ( W > t Θ = i + n ) durch folgende Überlegung bestimmen (vgl. Akim aru [3.1]). Die Testanforderung trifft zum Ankunftszeitpunkt Θ = i + n Anforderungen im System an, d.h. alle Bedieneinheiten sind belegt, und i wartende Anforderungen sind in de r Warteschlange. Diese sind noch vor der Testanforderung zu bearbeiten. Da alle n Bedieneinheiten belegt sind, ist die Zeitspanne Bˆ zwischen zwei Endigungen wie folgt negativ-exponentiell verteilt (vgl. Kap. 2.3.3):

106

3 Analyse Markovscher Systeme

(

Bˆ ( t ) = P Bˆ ≤ t

)

= 1 − e − nμt .

Die Wartezeit der Testanforderung besteht aus zwei Anteilen: • der Zeitspanne vom Ankunftszeitpunkt der Testanforderung bis zur ersten Endigung einer Bedienung. Diese Zeitspanne entspricht der Vorwärts-Rekurrenzzeit von Bˆ , die aufgrund der Markov-Eigenschaft dieselbe Verteilungsfunktion wie Bˆ besitzt, und • der Zeitspanne von der ersten Endigung bis alle i = Θ − n Anforderungen in den Bedienprozess übernommen worden sind. Diese Zeitspanne enthält i Intervalle vom Typ Bˆ .

Infolgedessen setzt sich die Wartezeit der Testanforderung aus i + 1 Intervallen vom Typ Bˆ zusammen. Die Wartezeit entspricht ei ner Erlang-Verteilungsfunktion der Ordnung ( i + 1 ) , d.h. P ( W > t Θ = i + n ) = e − nμt

(nμt)k k! k=0 i



oder aus Gl. (3.29) P ( W > t W > 0 ) = e − nμt (1 − ρ) = e

d.h. P (W > t) = P (W > t

− nμt



i

∑ ∑ ρi

i=0 k=0

(nμt)k (1 − ρ) ∑ k! k=0 ∞

(nμt)k k! ∞



(3.30) i

ρ = e

−(1 −ρ ) nμt

,

i=k

W > 0) ⋅ P (W > 0)

= e −( 1−ρ) nμ t ⋅ p W = 1 − W ( t ) .

Schließlich lautet die Wartezeitverteilungsfunktion W ( t ) von Anforderungen i m M/M/n Wartesystem

W(t) = 1 − pW ⋅ e

−(1 −ρ )n μ t

⎧ 0 ⎪ = ⎨ 1 − pW ⎪ −(1 −ρ )n μ t ⎩ 1 − pW ⋅ e

t < 0, t = 0,

(3.31)

t > 0.

Da wir die Wartezeitverteilungsfunktion aller Anforderungen betrachten, d h. Anforderungen ohne Wa rtevorgang werde n mitberücksichtigt, besitzt W ( t ) an de r Stelle t = 0 ein e Sprungstelle mit der Höhe 1 − p W . In Abb. 3.16 ist die komplementäre Verteilungsfunktion der Wartezeit im M/M /n-Wartesystem für unte rschiedliche We rte de r S ystemauslastung ρ und der A nzahl n der Bedie neinheiten aufgetragen. Durch die exponentielle Chara kteristik der Wartezeitverteilungsfunktion nimmt die komplementäre Verteilungsfunktion im halblo-

3.2 Das Wartesystem M/M/n

107

garithmischen Maßstab einen geradlinigen Verlauf an. Di e Wahrscheinlichkeit, länger warten zu müssen, nimmt mit höherer Auslastung ρ zu und mit wachsendem n ab.

1-W(t)

1

10

-1

0.7 n=2

10

-2

10

-3

10

-4

10

-5

ρ

0.5

0.3

n=10

0.7 ρ 0.5 0.3

10

-6

0

1

2

3

4

t / E[B]

Abb. 3.16: Komplementäre Wartezeitverteilungsfunktion im M/M/n-Wartesystem

3.2.5

Bündelungsgewinn in Wartesystemen

In Abschnitt 3.1.6 wurde der B ündelungsgewinn am Beispiel des Verlustsystem s M/M/n (bzw. M/GI/n) anhand der Erlang-Verlustformel diskutiert. Bündelt man die Bedieneinheiten von Verlustsystemen, so reduziert sich die Bloc kierungswahrscheinlichkeit de s zusammengefassten Systems im Vergleich z u den Teilsystemen. Das zusam mengesetzte System arbeitet wirtschaftlicher und besitzt eine bessere Dienstgüte (QoS: Quality of Service). Der Effekt des Bündel ungsgewinns e xistiert auch für Wartesystem e. Abbildung 3.17 zeigt zwei Systeme: • System 1 – besteht aus zwei Teilsystemen (1a und 1b) vom Typ M/M/n-Wartesystem

108 – – –

3 Analyse Markovscher Systeme Teilsysteme 1a und 1b haben jeweils n Be dieneinheiten und einen Ankunftsprozess mit der Rate λ 1 = λ die Wartewahrscheinlichkeit im System 1 ist pW1 die mittlere Wartezeit (aller Anforderungen) ist W1

• System 2 – alle Bedieneinheiten werden zusammengefasst zu einer Bedienstufe mit 2 ⋅ n Bedieneinheiten (Bündelung der Bedienung) – die Warteschlange ist zentral (shared memory) – das entstandene Wartesystem hat 2n Bedieneinheiten und einen Ankunft sprozess mit der Rate λ 2 = 2 ⋅ λ – die Wartewahrscheinlichkeit des Systems 2 ist pW 2 – die mittlere Wartezeit (aller Anforderungen) ist W2

Teilsystem 1a

λ1 = λ pW1 W1

M . . .

1

M

n

μ Teilsyste 1b Teilsystem

λ1 = λ pW

1

W1

M . . .

1

M

n

μ

M 1

λ2 = 2λ Bündelung

M 2

pW2

W2

. . .

M 2n

μ System 2

System 1

Abb. 3.17: Bündelung von Wartesystemen

Mit den Ergebnissen für M/M/n-Wartesysteme kann gezeigt werden, dass pW2 < pW1

und W2 < W1 ,

d.h. durch die Bündelung der Bedieneinheiten weist das System 2 unter gleicher Belastung eine bessere Dienstgüte auf.

3.2 Das Wartesystem M/M/n

109

Die Verbesserung durch Bündelung lässt sich wie folgt erklären. Wenn eine Anforderung in das Teilsyste m 1a eintrifft und alle Bedieneinheiten in diesem Teilsystem belegt vorfi ndet, muss sie warten, auch wenn eine Bedieneinheit im Teilsystem 1b gerade frei ist. Die Bediengruppen können sich gegenseitig wegen der strikten operativen Trennung nicht aushelfen. Im Falle des Systems 2, d.h. wenn die Bedieneinheiten zusammen gebündelt sind, w ürde diese Anforderung sofort bearbeitet werden können; dies führt zu einer Reduktion der Wartewahrscheinlichkeit und a uch ei ner Ve rbesserung de r m ittleren Wartezeit. D as System mit R essourcenbündelung arbeitet wirtschaftlicher. Beispiel:

Wir bet rachten eine Se rver-Farm, in der Transaktionen bearbeitet werde n. Der gesamte Transaktionsverkehr sei ein Poisson-Strom mit der Rate 1000 [Tra nsaktion pro Se kunde]. Die Transaktionsbearbeitungszeit B sei negativ-exponentiell verteilt ( mittlere Bedienzeit E [ B ] = 15ms , d h. B edienrate μ = 1 / E [ B ] = 66, 66 [Tra nsaktionen pro Se kunde]). Die entstehenden Modelle seien vom Typ M/M/n-Wartesystem. • System 1: – Wir ha ben aus Organisations gründen zwei Teilsysteme mit je n = 10 Serve r, jedes Teilsystem ist für einen Transaktionsverkehr mit der Rate λ 1 = 500 [Transaktion pro Sekunde] zust ändig. Das Angebot eines Teilsyste ms ist a1 = λ 1 ⋅ E [ B ] = 7, 5 [Erl]. Die Auslastung eines Se rvers ist a S = λ 1 ⋅ E [ B ] / n = 0, 75 [Erl], d.h. jeder Server ist im Mittel zu 75% ausgelastet. – Die Wartewahrscheinlichkeit (nach Gl. (3.19)) ergibt sich zu p W = 30, 66% . 1 – Die mittlere Wartezeit aller Transaktionen ist E [ W1 ] = 1, 84ms . • System 2: – Wir können nun operativ alle verfügbaren Server zusammenbündeln, das System 2 hat insgesamt 20 Server ( 2n ) und erfährt den gesamten Transaktionsverkehr mit der Rate λ 2 = 2 λ = 1000 [Tra nsaktion pro Sekunde]. Das Angebot des Ge samtsystems ist a 2 = λ 2 ⋅ E [ B ] = 2λ ⋅ E [ B ] = 15 [Erl]. Die A uslastung eines S ervers bleibt a S = 2 λ E [ B ] / 20 = 0, 75 [Erl]. – Die Wartewahrscheinlichkeit reduziert sich zu p W = 16, 04% . 2 – Die mittlere Wartezeit aller Transaktionen ist nun E [ W2 ] = 0, 48ms . • Ergebnis – Man erreicht durch die Bündelung der Teilsysteme, d.h. durch ein operatives Zusammenfassen de r Bediengruppen, eine Re duktion der W artewahrscheinlichkeit von 30, 66% auf 16, 04% und eine Verringerung de r mittleren Wartezeit von 1,84 m s auf 0, 48ms .

110

3 Analyse Markovscher Systeme

3.3

Verlustsystem mit endlicher Quellenzahl

3.3.1

Modellbeschreibung

Die Struktur des Modells zeigt Abb. 3.18. Die Bedienstufe besteht aus n Bedieneinheiten mit einer negativ-exponentiell verteilten Bedienzeit B , B ( t ) = P ( B ≤ t ) = 1 − e −μt ,

E [B] =

1 . μ

Anders als in den M odellen mit Poisson-Anku nftsprozessen, in denen Ankunftsve rkehrsströme von ei ner als une ndlich ange nommenen A nzahl von Teilne hmern erzeugt werden, betrachten wir hier eine e ndliche Anza hl m von Teilne hmern, die den Ankunftsve rkehr generieren ( m > n ) . (m-X) frei

α 2 M

X belegt (m-X) α

α

m M α

Blockierung

Verkehrsquellen

1 M 1

2

n

M

M

M

μ

μ

μ

negativ-exponentiell verteilte Bedienzeit

Abb. 3.18: Verlustsystem mit endlicher Quellenzahl

Das Verhalten eines Teilnehmers wird wie folgt modelliert, wobei zwei Zustände betrachtet werden: • aktiv: der Teilnehm er wi rd gerade von ei ner Bedie neinheit bea rbeitet. Die Da uer der Aktivzeit ist identisch mit der Bedienzeit B .

3.3 Verlustsystem mit endlicher Quellenzahl

111

• ruhend: in diesem Zustand bleibt der Teilnehm er bis zum nächsten Belegungsve rsuch. Nach einer Bedienphase ode r nac h einem nicht-erfolgreichen Belegungsve rsuch (Blockierungsfall) kehrt der Teilnehmer zum Zustand ruhend zurück (s. Abb. 3.18). Die Dauer I (engl. idle) dieser ruhenden Phase sei negativ-exponentiell verteilt: 1 I(t) = P ( I ≤ t ) = 1 − e −αt , E [ I ] = . (3.32) α

nicht-erfolgreicher Belegungsversuch erfolgreicher Belegungsversuch

aktiv

ruhend Bedien-Ende

Abb. 3.19: Te ilnehmerverhaltensmodell

Aus der Sicht eines Teilnehmers kann das modellrelevante Verhalten als Zusta ndsdiagramm wie in Abb. 3.19 dargestellt werden. Nach einer Bedienphase durchläuft der Teilnehmer eine ruhende Phase. Nac h E nde dieser P hase m it der Dauer I fo lgt ein Belegu ngsversuch. Ist noch m indestens ei ne Bedie neinheit verfügbar, s o wird der Teilne hmer bedie nt, d h. aktiv. Ansonsten gilt der Belegungsversuch als blockiert. Der Teilnehmer bleibt im Zustand ruhend und beginnt erneut eine Phase der Länge I .

3.3.2

Zustandsraum und Zustandswahrscheinlichkeiten

Da die Population m aller Teilnehm er im System konstant bleibt, kann der Systemzustand mit der Zufallsvaria blen X der Anzahl belegter Bedieneinheiten bzw. der aktiven Teilnehmer beschrieben werden. Die Anzahl der ruhenden Teilnehmer ist ( m − X ) .



0

μ

(m-1)α

1



(m- i +2)α (i-1) μ

(m- +1)α

i-1



(m - i)α

i

(m-n+1)α

n (i +1)μ



Makrozustand S

Abb. 3.20: Zustandsdiagramm eines Verlustsystems mit endlicher Quellenzahl

(m-n)α

112

3 Analyse Markovscher Systeme

Der Z ustandsprozess ist dem entsprechend ein zustandsdiskreter, zeitkontinuierliche r stochastischer Prozess. De r Z ustand X ( t ) wird inkrem entiert, wenn ei n Bel egungsversuch angenommen wird, und dekrementiert, falls ein Bedien-Ende stattfindet. Wegen der MarkovEigenschaft der Bedien- und Ruhephasen besitzt auch der Zustandsprozess X ( t ) die Eigenschaft der Gedächtnislosigkeit. Dies gilt zu jedem beliebigen Zeitpunkt des Prozesses. Das Zusta ndsübergangsdiagramm des Verlustsystem s mit endlicher Quellenzahl, wie in Abb. 3.20 dargestellt, entspricht dem Zustandsraum e ines eindimensionalen, endlichen Geburts- und Sterbeprozesses. Die Übergangswahrscheinlichkeitsdichten (bzw. Raten) sind: • Erfolgreicher Belegungsversuch: Im Zustand [ X = i ] sind ( m − X ) Teilnehmer im Zustand ruhend, und jeder von ihnen kann je weils mit der Rate α einen Belegungsvers uch start en. Nac h der Herleitung de r Übergangswahrscheinlichkeitsdichten in Ka pitel 2.3.3 (Gl. (2.44)) erfolgt der Ü bergang [ X = i ] → [ X = i + 1] ( i = 0, 1,… , n − 1 ) mit der R ate ( m − i ) α , falls ein Belegungsversuch angenommen wird. T rifft der Ve rsuch auf de n Zustand [ X = n ] , bleibt das System in diesem Zustand, und der Versuch wird blockiert. • Bedien-Ende: Im Zustand [ X = i ] befinden sich i Teilnehmer in der Bedienphase. Nach Gl. (2.44) erfolgt der Übergang [ X = i ] → [ X = i − 1] ( i = 1,… , n ) mit der Rate i μ . Dieser Zustandsübergang findet statt, falls einer der i laufenden Bedienvorgänge endigt.

Mit der Wahl des Makrozustands S , de r sich aus den M ikrozuständen {X = 0, 1,… , i − 1} zusammensetzt (s. Abb. 3.20), ergibt sich das Gleichungssystem

( m − i + 1) α ⋅ x ( i − 1) n

∑ x(i)

= i μ ⋅ x (i) ,

i = 1, 2,… , n ,

= 1.

(3.33) (3.34)

i=0

Durch s ukzessives Eins etzen von Gl. (3.33) erhält m an die Zustandswa hrscheinlichkeiten x ( i ) = P ( X = i ) , ( i = 0, 1,… , n ) , des Systems im statistischen Gleichgewicht: ⎛m⎞ i ⎜ ⎟ a* i , x(i) = n ⎝ ⎠ ⎛m⎞ k ∑ ⎜ ⎟ a* k=0 ⎝ k ⎠

(3.35)

wobei a* =

α μ

das Angebot eines Teilnehmers im ruhenden Zustand ist.

(3.36)

3.3 Verlustsystem mit endlicher Quellenzahl

113

Blockierungswahrscheinlichkeit

Die Zustandswahrscheinlichkeiten i n Gl. (3.35) geben lediglich die a nteilmäßigen Aufenthaltszeiten des Prozesses im Zusta nd [ X = i ] an. Zur Herleitung de r B lockierungswahrscheinlichkeit betrac hten wi r die Abfol ge der Z ustände, die von einem Teilnehm er S zu m Zeitpunkt eines Belegungsversuchs subjektiv registriert wird, als eine n neuen Zustandsprozess {X A } . Bei dieser Betrachtung befindet sich der Teilnehmer S außerhalb des Prozessgeschehens von {X A } . Der Teilnehmer S beobachtet genau den Zustandsprozess eines Verlustsystems, das aus eine r reduzierten Population von ( m − 1 ) Teilnehmern besteht. Man erhält aus Gl. (3.35) für den Prozess {XA } : ⎛ m − 1⎞ i ⎜ ⎟ a* i ⎠ ⎝ . xA (i) = n ⎛ m − 1⎞ k a* ∑⎜ ⎟ k=0 ⎝ k ⎠

(3.37)

Die Blockierungswahrscheinlichkeit ergibt sich für de n Fall, dass ein Belegungs versuch den Systemzustand [ X A = n ] vorfindet. Man erhält schließlich folge nde als Engset-F ormel bezeichnete Beziehung:

pB

⎛ m − 1⎞ n ⎜ ⎟ a* n ⎠ ⎝ . = xA (n) = n ⎛ m − 1⎞ k ∑⎜ ⎟ a* k=0 ⎝ k ⎠

(Engset-Formel)

(3.38)

In A bb. 3.21 i st die Bloc kierungswahrscheinlichkeit nach de r E ngset-Formel für ve rschiedene Werte von m aufgetragen. Für m → ∞ geht das Verlustsystem mit endlicher Quellenzahl in da s M /M/n-Verlustsystem über. Dies be deutet, dass die Erla ng-Verlustformel den Grenzfall der Engset-F ormel für m → ∞ darstellt. In Abb. 3.21 nähern sich mit wachsendem m die Kurven nac h der Engset-Formel der Kurve nach der Erlang-Formel für M/M/nVerlustsysteme an. Verallgemeinerung auf allgemeine Bedienzeitverteilungsfunktionen

Die in Gl. (3.35) und (3.38) angegebenen Zustandswahrscheinlichkeiten gelten gemäß obiger B . Es ka nn Herleitung zunächst nur für eine negativ-exponentiell verteilte Bediendauer jedoch gezei gt werden, dass diese Zustandswa hrscheinlichkeiten a uch für allgem eine Bedienzeitverteilungsfunktionen gelten (vgl. Syski [3.10]).

114

3 Analyse Markovscher Systeme

p

1

B unendliche Quellenzahl r =a/n

10-1



50 30

10-2

m

20 15

10

10

10

-3

-4

-5

0

0.3

0.6

0.9

r = m ·a* / n Abb. 3.21: Blockierungswahrscheinlichkeit nach der Engset-Formel

3.3.3

Modellierungsbeispiel: Mobilfunkzelle mit endlicher Quellenzahl

In Abschnitt 1.1.2c wurde das Modell einer Zelle in einem Mobilfunksystem, das gemäß des Mobilfunkstandards GSM ( Global System for Mobile Communication ) operiert, vorgestellt. Das Modell ist ein Verlustsy stem mit endlicher Quellenzahl, das m ithilfe der Analyse i m vorherigen Unterabschnitt untersucht wird. Diese Analyse, zusam men mit der hergeleiteten Engset-Formel, wird nun zur Dimensionierung einer GSM-Zelle angewendet. Die Parameter des Modells im nachfolgenden numerischen Beispiel sind wie folgt: • Bedienprozess Die M obilfunkzelle hat n Nutz kanalpaare, d.h. n Bedi eneinheiten für das S prachverkehrsaufkommen. D a aufgrund der R obustheitseigenschaft die Ergebni sse des M /M/nVerlustsystems mit endlicher Quellenzahl auch für M /GI/n-Verlustsysteme mit endlicher Quellenzahl gültig sind, kann die Gesprächsdauer B beliebig verteilt sein. Die m ittlere Gesprächsdauer ist E [ B ] = 1 / μ . Ein a kzeptierter Anrufversuch beansprucht ein Nutzkanalpaar für die Dauer B der Sprachverbindung. Steht zum Ze itpunkt des Anrufversuchs kein Kanalpaar zur Verfügung, wird der Versuch abgewiesen.

3.3 Verlustsystem mit endlicher Quellenzahl

115

Blockierungswahrscheinlichkeit

• Ankunftsprozess In der Mobilfunkzelle befinden sich m Teilnehmer, die sich in zwei Zuständen befinden können: „ ruhend“ oder „a ktiv“ (telefoniere nd). Die Da uer I des Zusta nds „ruhe nd“ sei negativ-exponentiell verteilt mit der Rate α (vgl. Gl. (3.32)), welche die Anrufrate eines Teilnehmers im Zustand „ruhend“ charakterisiert. Das Angebot eines Teilnehmers im ruhenden Zustand ist a* = α ⋅ E [ B ] = α / μ [Erl]. Da s gesamte Angebot aller Teilnehm er in a = m ⋅ a* = m ⋅ α ⋅ E [ B ] [Erl]. Für m → ∞ geht der A nder Mobilfunkzelle ist kunftsprozess in einen Poisson-Prozess über mit λ = α ⋅ m .

10

0

10

-1

10

-2

10

-3

10

-4

10

-5

10

-6



m

10

-7

10

-8

500

50

100

40

10

15

20

25

30

verfügbare Kanalpaare n

Abb. 3.22: Blockierwahrscheinlichkeit in Abhängigkeit der Anzahl der Nutzkanäle

Die Anzahl n der Nutzkanäle (und damit die der e rforderlichen Frequenzen) soll so dimensioniert werden, dass bei einem gegebenen Gesamtangebot a die Blockier ungswahrscheinlichkeit einen bestimmten Wert nicht übersteigt. Abbildung 3.22 zeigt die Blockierungswahrscheinlichkeit in Abhängigkeit der zur Verfügung stehenden Nutzkanäle. Dabei wird vorausgesetzt, dass das gesam te Ange bot aller Teiln ehmer in der M obilfunkzelle a = m ⋅ a* = 8 [Erl] ist. Die Blockierungswahrscheinlichkeit nimmt sehr rasch mit zunehmender Anzahl der verfügbaren Kanalpaare ab. Man erkennt ebenfalls, dass bzgl. des Blockierungsverhaltens die vereinfac hende Annahme von einer unendlichen Quellenzahl die obe re Schranke darstellt. Dies bede utet, dass für Dimensionierungszwecke die Modellierung m it

116

3 Analyse Markovscher Systeme

unendlicher Quellenzahl, d.h. m it dem Verlustsystem M/GI/n und der Erlang-Verlustformel einer pessimistischen Dimensionierung entspricht.

Blockierungswahrscheinlichkeit

Die Abhä ngigkeit der Blockierungs wahrscheinlichkeit von der Verkehrsintensität der Teilnehmer in der Mobilfunkzelle zeigt Abb. 3. 23. In dieser Analyse wird auf der x-Ac hse mit der Annahme der mittleren Verbindungsdauer E[B] = 2 [Minuten] die gesam te Verkehrsintensität in [Ve rbindungswünsche pro M inute] angege ben. Die Anza hl de r verfügbare n Kanalpaare ist n = 30 , d h. die Zelle erhält f = 4 Frequenzen zugeteilt. Wächst die Anzahl m der Teilnehmer bei bleibender Gesamtverkehrsintensität, steigt die Blockierungswahrscheinlichkeit. Dieser Effekt ka nn auch so formuliert werden, dass die Blockierungswahrscheinlichkeit mit der Granularität des Ve rkehrs st eigt. Wird de r Verkehr von einer großen Anzahl von Teilne hmern erzeugt, w ird die Bloc kierungswahrscheinlichkeit größer. Sie wird am größten mit der Annahme der unendlichen Quellenzahl ( m → ∞ ). 1

10

-1

10

-2

∞ 500

10

100

-3

m

10 -4

10

-5

10

-6

4

50 40

6

8

10

12

14

16

Verbindungswünsche pro Minute

Abb. 3.23: Blockierwahrscheinlichkeit für ansteigende Last

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

3.4

117

Rufwiederholungsmodell mit endlicher Quellenzahl

Abgewiesene Anforderungen in einem Kommunikationsnetz führen meist zu neuen Wiederholungsversuchen. Vor allem bei Betrachtung von Systemen mit endlicher Quellenzahl wirkt sich dieser Effekt wesentlich auf das Gesamtverkehrsangebot und auf die Leistung des Systems aus. In diesem Absc hnitt beschä ftigen wir uns m it einer E rweiterung des Verlustsystems mit endlicher Quellenzahl. Das Teilnehm ermodell wird da hingehend modifiziert, dass im Falle einer Blockierung der Teilnehmer – nach einer Wartezeit – einen erneuten Versuch startet. Zunächst wird eine Analyse vorgestellt, in der ein zweidimensionaler Markov-Zustandsprozess mit einem rekursiven Algorithmus berechnet wird. Ansc hließend wird das Modell zur Untersuchung einer Mobilfunkzelle mit endlicher A nzahl von Teilne hmern und R ufwiederholungseffekt (vgl. Tran-Gia & Mandjes [3.15]) angewendet.

3.4.1

Modellbeschreibung

Teilnehmermodell

In diesem Abschnitt verwenden wi r in Anlehnung an Anwendungen in der Telefonie die Begriffe „Verbind ungswunsch“, „A nrufversuch“ und „Ruf“ äquivale nt, um den Versuc h, eine Bedieneinheit zu belegen, zu beschreiben. Versucht der Teilnehmer nach einer längeren Pause einen Ruf zu aktivieren, bezeichnen wir diesen als „Erstruf“. Handelt es sich um einen noc hmaligen Versuc h na ch einer Blockierung, bezeichnen wir diesen als „Folgeruf“ oder „Rufwiederholung“.

α I

ruhend

μ αΘ α (1 −Θ) 0

aktiv

B

α0 wartend auf Wiederholung

R

Abb. 3.24: Modell des Rufwiederholungsverhaltens eines Teilnehmers

118

3 Analyse Markovscher Systeme

Das in diesem Ansatz be nutzte M odell eines Teilnehm ers geht aus A bb. 3.24 he rvor. Alle Modellkomponenten sollen hier die Markov-Eig enschaft besitzen. Ein Teilnehm er bzw. eine Quelle wird durch folgende Zufallsvariablen charakterisiert: I Ru hezeitdauer (idle time); Zeitspanne, in welcher sich die Quelle im Ruhezustand befindet, also gerade nicht telefoniert. Di e Ruhezeitdauer wird hier m it einer negativ-exponentiell verteilten ZV mit der Rate α betrachtet, d.h. I ( t ) = P ( I ≤ t ) = 1 − e −αt , E [I] =

1 . α

Befindet sich ein Teilnehmer im Zustand „ruhend“, so wird ein Ruf mit der Rate α erzeugt. B

Verbindungsdauer bzw. Rufdauer ( Bedienzeit). Die Rufdauer wi rd ebenfalls mit einer negativ-exponentiellen Verteilung beschrieben B ( t ) = P ( B ≤ t ) = 1 − e −μt , E [B] =

1 . μ

R Rufwiede rholungsabstand (inter-reattempt tim e); Zeitspanne zwischen Erstruf und erstem Folgeruf bz w. zwisc hen aufein ander folgende n Folgerufen. Die Da uer R wird hier als unabhängige Zufallsvariable und mit einer negativ-exponentiellen Verteilung modelliert: R ( t ) = P ( R ≤ t ) = 1 − e −α0 t , E [R ] =

1 . α0

In der Realität ist der m ittlere Rufwiederholun gsabstand erheblich kleiner als die m ittlere Ruhezeitdauer, d. h. E [ R ] < E [ I ] . Die Übergä nge zwischen de n drei Grundz uständen einer Quelle sind in Abb. 3.24 dargestellt. Sie sind davon abhängi g, ob der Rufversuch (Erstruf oder Rufwiederholung) angenommen wird oder nicht. Der in den Übergangswahrscheinlichkeitsdichten enthaltene Faktor θ ist die Rufwiederholwahrscheinlichkeit. Diese Wahrscheinlichkeit charakterisiert die Geduld der Teilnehmer und ist im Allg. abne hmend mit der Anzahl der Wiederholungen. Für den hier behandelten Modellansatz wird θ als konstant angenommen. Gesamtmodell

Das Gesamtmodell ist in A bb. 3.25 dargestellt, dessen Komponenten im Folgenden erläutert werden:

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

119

• Die endliche Anzahl m von Verke hrsquellen, m it denen Teilne hmer mit dem in Abb. 3.24 beschriebenen Ve rhalten m odelliert werden, erzeugen den Anku nftsverkehr. Die Verke hrsintensität ist von der Anzahl der Teilne hmer im Zustand „ruhe nd“ (freie Teilnehmer bzw. Quellen) abhängig. freie Verkehrsquellen

M

2

M

α m

Erstruf

Blockierung

α

Bedieneinheiten

M

α

1

2

n

M

M

M

μ

μ

μ

Wiederholungsversuch

Θ aufgegebener Ruf

1

1−Θ

1

2

m-n

M

M

M

α0 α0

α0

Wiederholungsraum

Abb. 3.25: Verkehrsmodell für Rufwiederholung mit endlicher Quellenzahl

• Die Anzahl n von Bedie neinheiten, welche die Verbindungsprozesse re präsentieren. Damit werden z.B. Verbindungsleitungen oder verfügbare Kanäle m odelliert. Die Bediendauer wird hier als negativ-exponentiell verteilte Zufa llsvariable angenom men. Die dazugehörige Bedienrate einer Belegung is t μ . Das System wird als Ve rlustsystem betrieben, d.h. falls alle Bedieneinheiten belegt sind, werden ankommende Anforderungen bzw. Rufe abgewiesen. Ein abgewiesener Ruf – Erstruf oder Rufwiederholung – wird mit der Wahrscheinlichkeit θ wiederholt ode r m it der kom plementären Wahrscheinlichkeit ( 1 − θ ) aufgegeben. • Der Wiederholungsraum, in dem sich die a uf eine Wiederholung wartenden Rufe aufhalten. Da die Anzahl der Quellen endlich ist, können maximal ( m − n ) Rufe gleichzeitig auf eine Wiederholung wart en. Gem äß de r obige n De finition des R ufwiederholungsabstands R besitzen die Warteplätze des Wiederholungsraumes die Enderate α 0 .

120

3 Analyse Markovscher Systeme

Folgende Sym bole und F ormelzeichen we rden i n der nachfolgenden Modellanalyse angewendet: α Anrufrate einer Verkehrsquelle im Zustand „ruhend“ bzw. Freizustand m Anza hl der Verkehrsquellen μ Bedienrate einer Bedieneinheit n Anza hl der Bedieneinheiten α0 Enderate eines Rufes im Wiederholungsraum θ Rufwiederhol wahrscheinlichkeit X Zufallsvariable für die aktuelle Anzahl belegter Bedieneinheiten Z Zufallsvariable für die aktuelle Anzahl der Rufe (Teilnehmer), die auf eine Wiederholung warten x ( i, j ) = P ( X = i, Z = j ) , i = 0, 1,… , n, j = 0, 1,… , m − n Zustandswahrscheinlichkeit dafür, dass i Rufe im Zustand „aktiv“ (in Bedienung) sind und j Rufe auf eine Wiederholung warten. Zustandsübergang

Mit den Zufallsvaria blen X und Z lässt sich der Zusta ndsprozess des Syste ms vollständig beschreiben. Da alle Modellkomponenten die Markov-Eigenschaft aufweisen, kann im stationären Fall der Zusta ndsprozess m it ein em zweidim ensionalen M arkov-Prozess, desse n Zustandsübergangsdiagramm in Abb. 3.26 dargestellt wird, beschrieben werden. Betrachtet wird nun ei n Zustand, z .B. [ X = i, Z = j] ( für i < n und j=0,1,… ,m-n ) , bei dem folgende Ereignisse zu einer Zustandsänderung führen können: –

Ankunft eines Erstrufs: da sich in dem betrachteten Z ustand ( m − i − j ) Quellen im Zustand „ruhend“ befinden, geht das System mit der Ü bergangswahrscheinlichkeitsdichte ( m − i − j ) ⋅ α in den Zielzustand ( i + 1, j ) über.



Rufwiederholung: da sich in dem betrachteten Zustand j Teilnehmer im Wiederholungsraum befinden, wird mit der Übergangswahrscheinlichkeitsdichte j ⋅α 0 der Zielzustand ( i + 1, j − 1 ) erreicht.



Bedien-Ende: da i Teilnehmer hier im Zustand „aktiv“ sind, wird mit der Übergangswahrscheinlichkeitsdichte i ⋅μ der Zielzustand ( i − 1, j ) erreicht.

Eine Ausna hme bilden die Zustände ( n , j ) , j = 0, 1,… , m − n (Blockieru ngszustände), bei denen das Eint reffen eines Erstrufs bzw . eines Folgerufs zu folgenden Zustandsänderungen führt: –

Erstruf: m it der Wiederholungswahrscheinlichkeit θ wird der abge wiesene R uf in den Wiederholungsraum transferiert; die Ü bergangswahrscheinlichkeitsdichte dafür ist ( m − n − j ) ⋅ θ ⋅ α .



Folgeruf: m it der Wahrscheinlichkeit ( 1 − θ ) wird eine a bgewiesene Wiederholung aufgegeben; die Übergangswahrscheinlichkeitsdichte dafür ist j ⋅ ( 1 − θ ) ⋅ α 0 .

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

S2

n, 1

2α (1−Θ) 0 (m-n-1) Θ α

μ 2μ

(n-1)α

)α 0 (m -n



(j+ 2) α 0



(m -n )α 0

n,j+1

(i+1)μ

(m -n )α 0 α (n-i) α



iμ (j+ 2) α 0 (i+1)μ nμ (j+ 2) α 0

(j+1)α (1−Θ)0

(m-n-j) Θ α



)α 0 μ (j+ 2) α 0

(m -n

0

(j+ 1) α

1)α 0 (j+ 1)α 0 (i+1)μ (j+ 1)α 0

n, j

i,m-n

i,j+1

nμ (j+ 1)α 0

(m-i-j)α

(i+1) μ nμ 2α 0

(m-n) Θ α



(m-i-j+1 )α

jα 0 jα 0 α 0

(i+1)μ nμ

α 0

(m-i)α (m-n+1) α

n, 0

α0(1−Θ)

i-1,m-n

i-1,j+1

i, j

i, 1

1,m-n

(j+ 1)α 0 (j+

2α 0

i-1, j

iμ 2α 0

(m-i)α



(m-i+1) α

i, 0

0,m-n

1,j+1



jα 0 (m-j-1) α



α 0 2μ (i-1)μ

μ

jα 0 (m-j) α

μ 2α 0

(m-1) α

α 0

μ

mα (m-1) α

α 0 (m-i+1)α

i-1, 1

i-1, 0

0,j+1

1, j

1, 1

(m-i+2) α

1, 0

S1 0, j

0, 1

0, 0

121

n,m-n Θα

Abb. 3.26: Zustandsübergangsdiagramm des Rufwiederholungmodells mit endlicher Quellenzahl

122

3 Analyse Markovscher Systeme

3.4.2

Rekursiver Analysealgorithmus

Prinzipiell hat man mit dem Zustandsübergangsdiagramm in Abb. 3.26 einen zweidimensionalen Markov-Prozess mit einer e ndlichen Anzahl von ( n + 1 ) ⋅ ( m − n + 1 ) Zuständen. Man kann ein Gleichungssystem von M ikrozuständen (s. Ka p. 2.3.2) a ufstellen und num erisch lösen. In diesem Abschnitt wird anhand dieses Modells die Anwendung des Makrozustandkonzepts zur Verei nfachung des Gleichungssystem s veranschaulicht, wobei die Auflösung de s Gleichungssystems rekursiv erfolgen kann. Der re kursive Algorithm us benötigt zwei Grundbeziehungen, die aus dem Zustandsübergangsdiagramm gewonnen werden. Betrachtet werden zwei Makrozustände S 1 und S 2 , die in Abb. 3.26 gekennzeichnet sind. Zustandsübergangsgleichung für den Makrozustand S1

Der M akrozustand S 1 um fasst die Zustände mit 0,… , i − 1 belegten Bedieneinheiten und genau j Rufen im Wiederholungsraum. Der Makrozustand S 1 kann von benachbarten Zuständen erreicht werden, z. B. von denjenigen Zuständen der rechts be nachbarten Spalte, die mit j + 1 Rufe n im Wiede rholungsraum und weni ger als i − 1 belegten Bedie neinheiten korrespondieren. Diese Zustandsübergänge (schräg von rechts oben nach links unten) finden bei einem Folgeruf ei nes de r j + 1 Teilnehm er im W iederholungsraum statt. Die Sum me aller Übergangswahrscheinlichkeitsdichten für diese Zustandsübergänge sind i −2

∑ ( j + 1) ⋅ α0 ⋅ x ( k, j + 1) .

k =0

Insgesamt ergeben sic h für die Übe rgangswahrscheinlichkeitsdichten zum Erreichen des Makrozustands S 1 i−2

( j + 1) ⋅ α0 ∑ x ( k, j + 1) + i ⋅μ ⋅ x ( i, j ) .

(3.39)

k =0

Die Übergangswahrscheinlichkeit zum Verlassen von S 1 errechnet sich entsprechend zu i −1

j ⋅ α 0 ∑ x ( k , j ) + ( m − (i − 1) − j ) ⋅ α ⋅ x ( i − 1, j ) .

(3.40)

k =0

Befindet sich der M arkozustand S 1 im statis tischen Gleichgewicht, d h. die S umme der gewichteten Wahrscheinlichkeitsdichten zum Erreichen des Zustands ist gleich denen für das Verlassen, so erhält man aus Gl. (3 .39) und (3.40) die Zustandsübergangsgleichung für de n Makrozustand S1

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

123

i −1

i−2

k =0

k =0

i μ ⋅ x ( i, j ) = jα 0 ∑ x ( k , j ) + ( m − i − j + 1 ) α ⋅ x ( i − 1, j ) − ( j + 1 ) α 0 ⋅ ∑ x ( k , j + 1 ) , j = 0, 1,… , m − n, i = 0, 1,… , n ,

(3.41)

wobei x ( i, j ) = 0 für j > m − n. Es soll hie r festgehalten werden, dass mit Gl. (3.41) die Z ustandswahrscheinlichkeit x ( i, j ) berechnet we rden ka nn, wenn alle Z ustände de r oberen Teilspalte ( x ( k , j ) , k = 0,… , i − 1 ) und der rechts stehenden Teilspalte ( x ( k , j + 1 ) , k = 0,… , i − 2 ) bekannt sind. Anhand dieser Eigenschaft werden im späteren Algorithmus die Zustandswahrscheinlichkeiten spaltenweise von rechts nach links und innerhalb einer Spalte von oben nach unten berechnet. Zustandsübergangsgleichung für den Makrozustand S2

Der Makrozustand S 2 , wie in Abb. 3.26 ge kennzeichnet, umfasst alle Zustände mit beliebiger Anzahl an belegten Bedieneinheiten und 0,… , j Rufen im Wiederholungsraum. Bezüglich der Ü bergänge kann der Zustand nur dann verlassen werden, wenn bei n belegten B edieneinheiten ein Erstruf in den Wiederholungsraum wechselt. Analog zu S 1 erhält man für den Makrozustand S 2

( m − n − j ) ⋅ θ ⋅ α ⋅ x ( n, j )

=

n −1

( j + 1 ) ⋅ α 0 ∑ x ( k , j + 1 ) + ( j + 1 ) ⋅ ( 1 − θ ) ⋅ α 0 ⋅ x ( n, j + 1 ) , k =0

j = 0, 1,… , m − n − 1 .

(3.42)

Analysealgorithmus

Die Gleichungen (3.41) und (3.42) bilden zusammen mit der Normierungsgleichung n

m −n

i =0

j=0

∑ ∑ x ( i , j)

= 1

(3.43)

ein lineares Gleichungssystem zur Bestimmung der Zustandswahrscheinlichkeiten. Zur effizienten numerischen Berechnung auch für größere Syste me wurde ein Al gorithmus entwickelt, dessen Anzahl an durchgeführten Operationen im Wesentlichen proportional zur Anzahl der Zustände des zugrunde liegenden Markov-Zutandsprozesses ist. Die Idee hi erbei ist, die Zustandswahrscheinlichkeit x(0, m − n ) zunächst mit einer Konstanten K 0 zu initialisieren und dann mit Hilfe des M akrozustands S 1 die Wa hrscheinlichkeiten für die rec hte Spalte in A bb. 3.26 in Abhängigkeit von K 0 zu be rechnen. Dies funktioniert insbesondere deswegen, weil diese Spalte nicht von anderen Spalten erreicht werden kann. Sukzessive auf die anderen Spalten von rechts nach links in Abb. 3.26 angewendet, lassen sich deren Wahrscheinlichkeiten zunäc hst in Abhä ngigkeit von K 0 und einer weiteren K onstante K 1 ausdrücken, inde m man z.B. für die zweite Spalte von rec hts x(0, m − n − 1) = K 1 setzt. Mit Hilfe des Markozustandes S 2 kann dann die zweite Konstante K 1 wieder eliminiert werden.

124

3 Analyse Markovscher Systeme

Dies funktioniert insbesondere deswegen, weil S 2 nur von Zuständen erreicht werden kann, deren Wahrscheinlichkeiten bereits in Abhängigkeit von K 0 berechnet wurden und nur über einen einzigen Pfeil verlasse n werde n ka nn. Diese Vorgehensweise ve ranschaulicht noc h einmal die Mächtigkeit der Bildung von M akrozuständen beim Lösen des linearen Gleichungssystems für die Zusta ndswahrscheinlichkeiten. Der Algorithm us besteht a us fol genden Schritten: 1. x ( 0, m − n ) = K 0 setzen 2. Für x ( i, m − n ) = ci ,m − n ⋅ K 0 die K oeffizienten ci ,m − n , i = 1, 2,… , n, mi t Gl. ( 3.41) rekursiv berechnen. Die Wahrscheinlichkeiten x ( i, m − n ) , i = 0, 1,… , n, sind jetzt nur von x ( 0, m − n ) = K 0 abhängig. 3. Spalteninde x j = m − n − 1 x ( 0, j ) = K 1 setzen. 4. F ür x ( i, j ) = u i , j ⋅ K 0 + vi , j ⋅ K 1 die Koeffiziente n ui , j un d vi , j fü r i = 1, 2,… , n m it Gl. (3.41) rekursiv berechnen. Man erhält schließlich die Zustandswahrscheinlichkeit x ( n, j ) = u n , j ⋅ K 0 + v n , j ⋅ K 1 .

(3.44)

Andererseits lässt sich x ( n, j ) mit Gl. (3.42) bestimmen zu x ( n, j ) = w j ⋅ K 0 .

(3.45)

Aus Gl. (3.44) und (3.45) kann eine Beziehung zwischen K 1 und K 0 hergestellt werden K1 =

w j − un, j vn, j

⋅ K0 = β j ⋅ K0 .

(3.46)

5. Gemäß Gl. (3 .46) au s den vo n K 0 un d K 1 abhä ngigen Wahrscheinlichkeiten x ( i, j ) (zunächst j = m − n − 1 ) K 1 eliminieren, d.h. sie werden in K 0 wie folgt ausgedrückt: x ( i, j ) =

( u i , j + β j ⋅ vi , j ) ⋅ K 0

= ci , j ⋅ K 0 , i = 0, 1,… , n .

(3.47)

Nach diesem Schritt sind alle Wahrscheinlichkeiten x ( i, k ) , i = 0, 1,… , n, k = j, j + 1,… , m − n, d.h. zunächst die letzten beiden Spalten j ∈ {m − n, m − n − 1} , nur noch von K 0 abhängig. 6. Die Schritte 3., 4. und 5. für j = m − n − 2, … , 1, 0 wie derholen. Alle Z ustandswahrscheinlichkeiten sind nun in K 0 ausgedrückt. 7. Zustandswahrscheinlichkeiten normieren. Dafür wird K 0 wie folgt berechnet:

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl n

m −n

i =0

j=0

∑ ∑ x ( i, j )

oder K 0

3.4.3

=

⎡n = ⎢∑ ⎣⎢ i = 0

n

m −n

i =0

j=0

m −n

⎤ ci , j ⎥ . ⎦⎥

∑ ∑ ∑

j=0

125

ci , j ⋅ K 0 = 1

(3.48)

−1

Berechnung der Verkehrsflüsse

Aus den Zust andswahrscheinlichkeiten, di e mit Hilfe des beschriebe nen Algorithm us gewonnen we rden, lasse n sich charakteristische Größen he rleiten, mit denen der Einflus s des Rufwiederholungseffektes auf das Systemverhalten untersucht wird.

λ FS

λF

λ FU λ FB

Wiederholungsraum

λR

λ RS

Bedieneinheiten

λS

λ RB λ RU

λB

Abb. 3.27: Verkehrsflüsse im Rufwiederholungsmodell

Das Verkehrsgeschehen im Modell wird in Abb. 3.27, in dem die Verkehrsströme im Modell illustriert werden, schematisch dargestellt. Folgende Indizierung wird für die Darstellung der mittleren Raten der Rufströme vorgenommen: F R S U B

Erstruf bzw. Erstversuch (fresh call) Folgeruf oder Wiederholung (reattempt) erfolgreicher Ruf (successful call) abgewiesener Ruf, der wiederholt wird (unsuccessful call) abgewiesener Ruf, der aufgegeben wird (blocked call).

Nach dieser Indizierung ist λ FS z.B. die m ittlere Rate (in [A nforderungen pro Zeiteinheit]) der Erstrufe, die sofort angenommen und bedient werden.

126

3 Analyse Markovscher Systeme

Die in Abb. 3.27 dargestellten mittleren Verkehrsraten der Erstversuche l assen sich aus den Zustandswahrscheinlichkeiten folgendermaßen bestimmen: n −1 m −n

λ FS = α ∑

∑ ( m − i − j ) ⋅ x ( i, j ) ,

i =0 j=0

λ FU = θ ⋅ α λ FB =

(m − n ) − 1

∑ ( m − n − j ) ⋅ x ( n, j ) ,

(3.49)

j =0

(m − n ) − 1

( 1 − θ ) ⋅ α ∑ ( m − n − j ) ⋅ x ( n, j ) . j =0

Die Rate der erfolgreichen Erstversuche λ FS ist z.B. die Anrufrate einer Quelle α gewichtet mit den Wahrscheinlichkeiten de r Z ustände, di e noch m indestens ei ne freie Bedie neinheit aufweisen, also ein Wechsel von i nach i + 1 (i ≤ n ) beleg ten Bed ieneinheiten erfo lgen kann, und der Anzahl der ruhenden Quellen in di esem Zustand. In ähnlicher Weise sind die Raten für abge wiesene, aber wiederholte und abgewiesene, aber a ufgegebene Erstrufe λ FU und λ FB die A nrufrate α ge wichtet mit der Rufwiede rholungswahrscheinlichkeit θ bzw . der Aufga bewahrscheinlichkeit (1 − θ) , den Wahrscheinlichkeiten de r Zustä nde, die durc h n belegte Bedieneinheiten und mindestens einen Teilnehm er, der sich weder in Bedienu ng noch im Wiederholungsra um be findet, gekennzeichnet si nd, und de r Anzahl de r ruhenden Quellen in diesem Zustand. Analog erhält man für die Wiederholungsverkehrsströme n −1 m − n

λ RS = α 0 ⋅ ∑



i =0 j =0

λ RU = θ ⋅ α 0 λ RB =

m −n



j=0

j ⋅ x ( i, j ) ,

j ⋅ x ( n, j ) , m −n

( 1 − θ ) ⋅ α0 ∑

j=0

(3.50)

j ⋅ x ( n, j ) .

Die gesam te Belastung des System s setzt sich aus zwei Verkehrsström en zusam men: die Erstversuche mit der m ittleren Rate λ F und die Rufwiederholungen m it der m ittleren Rate λR : λ F = λ FS + λ FU + λ FB , λ R = λ RS + λ RU + λ RB .

(3.51)

Die Wahrscheinlichkeit dafür, dass ein Erstversuch abgewiesen wird, errechnet sich zu pBF =

λ FU + λ FB . λF

(3.52)

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

127

Charakteristisch für den Rufwiederholungseffekt ist die mittlere Anzahl der Versuche – einschließlich des Erstrufs –, die ein Ruf machen muss η =

λR + λF λ = 1+ R . λF λF

(3.53)

Betrachtet man nur die erfolgreichen Rufe, so muss ein erfolgreicher Ruf im Mittel ηF Versuche unternehmen: ηF =

λ FU + λ FS + λ RU + λ RS λ + λR − λB λR = F = 1+ . λ FS + λ RS λF − λB λF − λB

(3.54)

Zu beachten ist hierbei, dass der Nenner von Gl. (3.54) im Gegensatz zu Gl. (3.53) nur die Raten berücksichtigt, die von Anrufen herrühren, die entweder beim Erstversuch oder einem der Folgeversuche, angenommen werden.

3.4.4

Modellierungsbeispiel: Mobilfunkzelle mit Rufwiederholung

Nun wird das Anwendungsbeispiel GSM aus Abschnitt 1.1.2 und Abschnitt 3.3.3 durch die Berücksichtigung der Rufwiederholung modifiziert. In de n Zellen und vor allem in Mikrozellen moderner Mobilfunknetze ist die Zahl der Teilnehm er stark be grenzt und bedingt somit die Notwendigkeit der Modellierung mit einem endlichen Nutzermodell und der dann nicht zu vernachlässigenden Rufwiederholung. Wir betrachten eine M obilfunkzelle m it m Teilnehm ern (engl. MS: mobile station) u nd einer Anzahl n verfügbarer K analpaare (Be dieneinheiten). Im ruhende n Zustand generiert ein Mobilfunkteilnehm er Rufe m it der Rate α . Die Ve rbindungsdauer s ei eine negativexponentiell verteilte ZV mit der Enderate μ . Die Zeitspanne R zwischen dem Erstruf und dem Folgeruf bzw. zwischen zwei Folgerufen se i ebenfalls negativ-exponentiell verteilt mit der Rate α0 . Die Rufwiederholwahrscheinlichkeit ist θ . Die Systembelastung wird mit der normierten Verkehrsintensität (Angebot pro Bedieneinheit) angegeben: ρ0 =

α⋅m . μ⋅n

Abbildung 3.28 zeigt die mittlere Anzahl der Rufversuche, die ein Teilnehmer pro Ruf unternehmen muss, bei verschiedenen Systembelastungen ρ0 für verschiedene Werte der Rufwiederholwahrscheinlichkeit θ . D ie M obilfunkzelle verfügt über n = 15 Kanäle, m = 100 Teilnehmer befinden sich in der Zelle. Die Parameter sind da bei: mittlere Bedienda uer E [ B ] = 1 / μ = 120 sec und m ittlerer Rufwiederhol ungsabstand E [ R ] = 1 / α 0 = 6 sec . Auf diese Weise lässt sich die gewährleistete Dienstgüte (QoS: Quality of Service) bezüglich der Anzahl der Rufversuche überprüfen und die Dimensionierung der Zelle entsprechend anpassen.

128

3 Analyse Markovscher Systeme

Anzahl der Wiederholungen pro Ruf

Es ist ersichtlich, dass bei steigender Belastung ein Teil nehmer sehr oft Belegungsversuche unternehmen m uss. Dieser Sachverh alt ka nn durch de n „Schneeballeffekt“ im Überl astfall begründet werden: steige nde Belastung führt zu erhöhte r Blockierungs wahrscheinlichkeit; dies verursacht Rufwiederholungen, d h. wiederum eine stärkere Systembelastung. 10

m = 100, n = 15 α 0/ μ =

20

5 θ = 1.0 0.9 2

0.8 0.6

1 0.5

0.7

1.0

2.0

Angebot ρ 0 Abb. 3.28: Erhöhung der Anzahl der Wiederholungen in einer Mobilfunkzelle

Die Abhängigkeit der Blockierungswahrscheinlichkeit für Erstrufe pBF von der Anzahl der Teilnehmer im System infolge des Rufwiederholungseffektes zeigt A bb. 3.29. Hier soll die Granularität der Quellenzahl, d h. die Notwendigkeit, Modelle mit endlicher Quellenzahl zur Leistungsuntersuchung nehmen zu m üssen oder nicht, erörtert werde n. Für unterschiedliche Werte der Quellenzahl wird in Abb. 3.29 die Blockierungswahrscheinlichkeit für Erstrufe als Funktion des normierten Angebots aufgetra gen. In dieser Abbildung ist erke nnbar, dass der Fall mit unendlicher Quellenzahl ( m → ∞ ) dem „Worst-case“ bzgl. de r Bloc kierung e ntspricht. Diese Feststellung rechtfertigt die Modellierungsannahme mit unendlicher Quellenzahl zur Untersuchung von Mobilkommunikationsnetzen in der Literatur.

Blockierungswahrscheinlichkeit für Erstrufe

3.4 Rufwiederholungsmodell mit endlicher Quellenzahl

129

1.0 m=

∞ 200 100 70

0.1

50

Θ = 0.8 , n = 15 α 0/μ = 20

0.01

0.4

0.5

0.7

1.0

2.0

Angebot Abb. 3.29: Einfluss der Granularität der Quellenzahl

ρ0

130

3.5

3 Analyse Markovscher Systeme

Dimensionsreduktionsverfahren für MarkovZustandsprozesse

In der Behandlung Markovscher Zustandsprozesse haben wir bis jetzt vorwiegend eindimensionale Zustandsprozesse besprochen. In Modellen von Kommunikationssystemen, bei denen mehrere Teilnehm erklassen unterschiedliche Ressource nanteile belege n, hat m an häufig Zustandsprozesse m it mehrdimensionalem Zustands raum. De ren A nalyse führt nicht s elten zu numerischen Schwierigkeiten hinsichtlich der Laufzeit, da die Anzahl der Zustände exponentiell zur Anzahl der a uftretenden Teilnehm erklassen wächst und eine große Za hl verschiedener Dienste somit zu einer Zustandsraumexplosion führt. Diese Klasse von Modellen mit mehrdimensionalen Zustandsprozessen findet man in Telekommunikationssystemen mit mehreren Diensten, die in der A usführung der A nwendungen unterschiedliche Ressourcenanforderungen habe n. Zur L eistungsbewertung dieser M ehrdienstenetze müssen mithilfe eines mehrdimensionalen Markov-Zustandsprozesses die Blockierungswahrscheinlichkeiten fü r Anforderung en unters chiedlicher Di enstklassen ge mäß eines M/M/n-Verlustsystems mit mehreren Anforderungsklassen berechnet werden. In diesem Abschnitt wird eine Analysem ethode für m ehrdimensionale Markov-Prozesse vorgestellt, die auf einer Dimensionsreduktion basiert. Die Methode führt auf Arbeiten von J. Kaufman und J. Roberts zurück und wird in der Literatur als „Kaufman und Roberts Re kursionsmethode“ bezeichnet. Mithilfe des Verfahrens werden nachfolgend Verlustsysteme mit heterogenen Ressourcenanforderungen analysiert, wobei ein Modellierungsbeispiel aus der UMTS-Syste mdimensionierung erörtert wird.

3.5.1

Verlustsystem mit mehreren Anforderungsklassen

Zunächst wird das allgem eine Modell beschrieben. Wir betrachten ein S ystem mit C Ressourcen. Ress ourcen könne n beispiels weise di e Kapazitä t einer Verbindung, die Leistung einer CPU oder auch die bei UMTS verfügbaren orthogonalen Codes sein, die in einem Beispiel a m Ende dieses Kapitels betrachtet werde n. Es existieren S unterschiedliche Klassen von Teilnehmern, die unterschiedliche Anwendungen bzw. Dienste nutzen. Teilne hmer der Klasse s bilde n einen P oisson-Ankunftsprozess mit der Ankunftsrate λ s . Ferne r ist die Bedienzeit Bs negativ-exponentiell verteilt mit der Bedienrate μs . Die Ressourcenanforderung eines Teilnehmers der Klasse s ist cs . Sind zum Ankunftszeitpunkt noch mindestens cs Ressourcen frei, so belegt der neue Teilnehmer diese Ressourcen. Andernfalls wird der Teilnehmer blockiert und verlässt das System. Nach der Bedienzeit Bs gibt ein Teilnehmer alle von ihm belegten Ressourcen auf einmal wieder frei und verlässt das System.

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse S unabhängige PoissonAnkunftsprozesse

1

M, λ 1

Blockierung

1

S

131

2

C

C Ressourcen

M, λ S Blockierung

Abb. 3.30: Verlustsystem mit mehreren Anforderungsklassen

3.5.2

Mehrdimensionaler Zustandsraum und globale Gleichgewichtsgleichung

In Systemen mit einer Dienstklasse wird der Systemzustand über die Anzahl der Teilnehmer im System beschrie ben. Dementsprechend ist de r Z ustand in einem System mit mehreren Dienstklassen durch die Anz ahl der Teilne hmer pro Die nst definiert. Z ur Beschreibung der Anzahl Teilnehmer im System und de r Anzahl der Ressourcen werden folgende Zufallsvariablen definiert: Ns : X :

ZV für die Anzahl der Teilnehmer der Klasse s im System ZV für die Anzahl der belegten Ressourcen

Damit ist die Zustandsbeschreibung durch zwei Parameter bestimmt: 1.

Zustand: n = ( n 1 , n 2 ,… , n S ) mit der Anzahl n s von Teilnehm ern der Klasse s im System 2. Belegte Ressourcen im Zustand n :

C (n) =

S

∑ n s ⋅ cs

s =1

Der Zusta ndsraum ist mehrdimensional, wobei die Anzahl der Dim ensionen der A nzahl unterschiedlicher Dienste entspricht. Der Zustandsraum Ω umfasst alle Zustände , in denen die belegten Ressourcen die Systemkapazität nicht übersteigen.

{

}

Ω = n n s ≥ 0 für alle s und C ( n ) ≤ C .

132

3 Analyse Markovscher Systeme

Die Ü bergangswahrscheinlichkeitsdichten (Übe rgangsraten) e ntsprechen de n Ankunftsraten und A bgangsraten im eindim ensionalen F all. Für zwei Zustände n 1 , n 2 ∈ Ω ist die Über gangsrate q n 1 , n 2 von Zustand n 1 in den Zustand n 2 gegeben als

q n1 ,n 2

⎧λ s ⎪⎪ = ⎨n s μs ⎪0 ⎪⎩

, falls

n 2 = n 1+ s

, falls

n 2 = n 1− s

,

(3.55)

, sonst

wobei: n +s =

( n 1 ,… , n s −1 , n s + 1, n s + 1 ,… , n S ) ,

n −s =

( n 1 ,… , n s−1 , n s − 1, n s+ 1 ,… , n S ) .

Die Zustandswahrscheinlichkeit ist x ( N 1 = n 1 , N 2 = n 2 ,… , N s = n S ) = x ( n 1 , n 2 ,… , n S ) = x ( n ) .

Mit der Zustandsbeschreibung und den Zustandswahrscheinlichkeiten kann die so genannte „globale Gleichgewichtsgleichung“ angegeben werden: S ⎡S ⎤ +s −s ⎢ ∑ λ s δ ( n ) + ∑ n s μs δ ( n ) ⎥ x ( n ) = s =1 ⎣ s =1 ⎦ S

∑ λs δ ( n ) x ( n −s

s =1

−s

S

) + ∑ (n s =1

s

+ 1 ) μs δ

+s

(n) x(n

+s

)

(3.56)

für alle Zustände n ∈ Ω , wobei ⎧⎪1 , falls n + s ∈ Ω , δ+ s ( n ) = ⎨ ⎪⎩0 , sonst ⎧⎪1 , falls n −s ∈ Ω . δ−s ( n ) = ⎨ ⎪⎩0 , sonst

Die globale Gleichge wichtsgleichung entspricht der stationären Z ustandsgleichung (2.33) in Kap. 2.3.2. Die globale Gleichgewichtsgleichung unterscheidet sich von der lokalen Gleichgewichtsgleichung, in de r nur die Ü bergänge z wischen z wei be nachbarten Z uständen be trachtet werden. Abbildung 3.31 illustriert di e Übergänge in und aus einem zwei-dimensionalen Zusta nd ( n 1 , n 2 ) , die die globale Gleichgewichts gleichung bilde n. We iterhin ist festzustellen, dass die Zustandsübergangsraten in einer Zeile und ebenso in einer Spalte identisch sind. Diese Eigenschaft ermöglicht die Berechnung der Zustandswahrscheinlichkeiten mit der später in diesem Abschnitt eingeführten Produktformlösung.

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse

n 1 + 1, n 2 − 1

(n 1 + 1) ⋅ μ 1

n2 ⋅ μ2

λ2 n2 ⋅ μ2

λ1

n 1 − 1, n 2 − 1

Abb. 3.31:

n 1 + 1, n 2

(n 1 + 1) ⋅ μ 1

λ1

n1 , n2 − 1

n 1 ⋅ μ1

λ2

λ2 n2 ⋅ μ2

(n 2 + 1) ⋅ μ 2

λ2

(n 2 + 1) ⋅ μ 2

λ1

n 1 − 1, n 2

n 1 + 1, n 2 + 1

(n 1 + 1) ⋅ μ 1

λ1

n1 , n2

n 1 ⋅ μ1

λ2

133

n1 , n2 + 1

n 1 ⋅ μ1 λ2

(n 2 + 1) ⋅ μ 2

λ1

λ1

n 1 − 1, n 2 + 1

Ausschnitt eines zwei-dimensionalen Zustandsraums

Beispiel eines zweidimensionalen Zustandsraums

Abbildung 3.32 zeigt das Be ispiel eines Z ustandsübergangsdiagramms für ei n System mit einer Kapazität von C = 4 Ressourcen und zwei Teilnehmerklassen ( S = 2 ). Teilnehmer der Klasse 1 kom men mit Rate λ 1 an, besitzen eine Abgangsrate μ1 und belegen c1 = 1 Ressource. Analog kommen Teilnehmer der Klasse 2 mit Rate λ 2 an, besitzen eine Abgangsrate μ 2 und belegen c2 = 2 Ressourcen. Die diagonalen Linien in Abb. 3.32 verdeutlichen alle Zustände, in denen die gleiche Anzahl von Ressourcen belegt ist. D ementsprechend wird ein Teilnehmer der Klasse 1 a bgewiesen, falls 4 Ress ourcen belegt si nd und ein Teil nehmer der Klasse 2 wird abgewiese n, wenn 3 oder 4 Ressourcen belegt sind.

134

3 Analyse Markovscher Systeme Klasse 1 blockiert

Klasse 2 blockiert

4,0 λ

4μ 1

1

3,0 λ

3μ 1

1

2,0 λ

2μ 1

1

1,0 λ

μ 1

1

0,0 0

μ 2 λ

2

μ 2 λ

2

μ 2 λ

2,1 λ

1

2μ 1

1,1 λ

1

μ 1

0,1

0,2

λ 2

2

1

2μ 2

2

3

4

Anzahl belegter Ressourcen

Abb. 3.32: Beispiel eines zweidimensionalen Zustandsraums

3.5.3

Lokale Gleichgewichtsgleichung und Produktformlösung

Die so genannte „lokale Gleichgewichtsgleichung“ stände i und j im Gleichgewicht befinden: q i j ⋅ x ( i ) = q ji ⋅ x ( j ) .

gilt, wenn sich zwei benachbarte Zu(3.57)

Jede L ösung der lokalen Gle ichgewichtsgleichungen ist a uch L ösung der gl obalen Gleichgewichtsgleichung. Dies ergibt sich offensichtlich durch Einsetzen obiger Gleichung in die stationäre Zustandsgleichung (2.33)

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse q j ⋅ x ( j) =

∑ q kj ⋅ x ( k )

=

k≠ j

⎡ q jk

∑ q kj ⋅ ⎢ q

k≠ j

⎢⎣

kj

⎤ ⋅ x ( j )⎥ = ⎥⎦

∑ q jk ⋅ x ( j )

k≠ j

135 = q j ⋅ x ( j) .

Gl ( 3 57 )

Umgekehrt gilt dies jedoch nicht, d h. nicht jede Lösung einer globalen Gleichge wichtsgleichung ist auch Lösung der l okalen Gleichgewi chtsgleichung. Die lokalen Gleichge wichtsgleichungen haben nur dann eine Lösung, falls für jede Sequenz von benachbarten Zuständen i 1 , i 2 ,… , i N ∈ Ω gilt (vgl. Kelly [3.5]): q i 1 , i 2 ⋅ … ⋅ q i N −1 , i N ⋅ q i N , i 1 = q i 1 , i N ⋅ q i N , i N − 1 ⋅ … ⋅ q i 2 , i 1 .

(3.58)

Prozesse, bei denen die lokale Gleichgewichtsgleichung gilt, sind so genannte reversible oder umkehrbare Prozesse. Grundlagen zu reversiblen Prozessen finden sich bei Kelly [3.5]. Im konkreten Fall des S-dim ensionalen Zustandsraums lauten die lokalen Gleichge wichtsgleichungen:

( )

λ s ⋅ δ−s ( n ) ⋅ x n −s

= n s ⋅μ s ⋅ δ− s ( n ) ⋅ x ( n )

(3.59)

für alle n ∈ Ω und s = 1,… , S . Es kann gezeigt werde n, da ss folge nde Lösu ng für die Zustandswa hrscheinlichkeiten e xistiert, die zunä chst noc h in Abhängigkeit von der Wahrscheinlichkeit für ei n leeres System gegeben sind: x(n) =

S

a

∏ ns s =1

ns s!

⋅ x ( 0, 0,… , 0 ) .

(3.60)

Aus der V ollständigkeitsbedingung ka nn die Wahrscheinlichkeit für ein leeres System be stimmt werden x ( 0,… , 0 )

⎛ = ⎜∑ ⎜ n∈Ω ⎝

a ns ⎞ ∏ ns ! ⎟⎟ s =1 s ⎠ S

−1

(3.61)

und s chließlich die Z ustandswahrscheinlichkeiten na ch der Produktform lösung berechnet werden as n s ∏n! s =1 s S

x (n) =

a ns ∑ ∏ ns ! n∈Ω s = 1 s S

. (Pr

oduktformlösung)

(3.62)

136

3 Analyse Markovscher Systeme

Unnormierte Zustandswahrscheinlichkeit und Normierungskonstante

Wird die Wahrscheinlichkeit für ein leeres System auf x ( 0,… , 0 ) = 1 gesetzt, so spricht man von „unnormierten“ Zustandswahrscheinlichkeiten x (n) =

as n s ∏n!. s =1 s S

Das Inve rse der Wahrscheinlichkeit für ei n leeres System wird in diese m Fall als Norm ierungskonstante des Zustandsraums bezeichnet: S a ns ⎞ ⎛ ⎛ ⎞ G (Ω) = ⎜ ∑ ∏ s ⎟ = ⎜ ∑ x ( n ) ⎟ . ⎜ n∈Ω ⎟ ⎝ n∈Ω ⎠ s=1 n s ! ⎠ ⎝

(3.63)

Gleichung (3.62) wird auch als Produktformlösung bezeichnet, da sich die unnormierten Zustandswahrscheinlichkeiten a us dem Produkt de r unnormierten Randwa hrscheinlichkeiten1 ergeben: x ( n ) = x ( n 1 , 0, 0 , … , 0 ) ⋅ x ( 0 , n 2 , 0 , … , 0 ) ⋅ … ⋅ x ( 0 , 0 , … , 0 , n S ) .

3.5.4

(3.64)

Blockierungswahrscheinlichkeit

Blockierung findet statt, we nn eine a nkommende Anforderung nich t angenomm en werden kann, da nicht ausreichend viele Ressource n frei sind. Im System mit mehreren A nforderungsklassen ist die Blockierungswahrscheinlichkeit abhängig von der Teilnehmerklasse: S

pB , s =



n∈B + s

x(n) =

ans

∑ ∏ ns !

n∈B + s s = 1 s S asn s

∑∏n!

n∈Ω s = 1

(m

=

( )

G B+s

G (Ω)

s

ehrdimensionale Erlang-Verlustformel)

(3.65)

mit Β+ s =

{ n∈Ω n

+s

}

∉Ω .

Die Menge Β + s umfasst dem gemäß alle Zustä nde, in denen ein Teilne hmer der Klasse s blockiert wird und G Β+ s ist die Summe der unnormierten Zustandswahrscheinlichkeiten.

( )

1

Als Randwahrscheinlichkeiten werden Wahrscheinlichkeiten für alle Zustände bezeichnet, i n denen nur Anfor derungen einer einzigen Anforderungsklasse vorhanden sind.

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse

137

Diese Form el wird auc h als mehrdimensionale Erla ng-Verlustformel (Erlang-B-Formula) bezeichnet, da sie die Erweiterung der einfa chen Erlang-Verlustformel in Gl. (3.7) auf mehrere Dienste darstellt. Berechnung der Blockierungswahrscheinlichkeit durch Falten der Randverteilungen

Generell ist die Anzahl der insgesamt belegten Ressourcen die Summe der durch die einzelnen Teilnehmerklassen belegten Ressourcen X = X1 + … + XS ,

(3.66)

wobei X s die ZV für die Anzahl der von Teilnehmern der Klasse s belegten Ress ourcen darstellt. In einem System mit nur ei ner A nforderungsklasse ist die Verteilung der A nzahl de r Teilnehmer jedes Dienstes durch die Randverteilung in Gl. (3.64) gegeben. Dementsprechend ist auch die Verteilung der Res sourcen X RS , die von den Teilnehmern mit Dienst s belegt werden, durch die Randverteilung bestimmt. Die unnormierte Verteilung der von Dienst s belegten Ressourcen X RS ist: xRs ( c )

⎧ as n s , falls c = n s ⋅ cs ⎪ = ⎨ ns ! für 0 ≤ c ≤ C, n s ∈ ⎪ , sonst ⎩0

0

.

(3.67)

Da die pro Dienst belegten Ressourcen X Rs unabhängig sind (vgl. Gl. (3.64)), ergibt sich die Verteilung der insgesamt belegten Ressourcen X R aus der Faltung der Ressourcenverteilungen xRs ( c ) der einzelnen Dienste: xR ( c ) = xR1 ( c ) ∗ xR2 ( c ) ∗… ∗ xRS ( c ) . (Faltung der Ressourcenverteilungen)

(3.68)

Durch die erste Faltung xR1 ( c ) ∗ xR2 ( c ) wird die unnormierte Verteilung der durch Dienst 1 und Dienst 2 belegten Ressourcen bestimmt. Der Wertbereich der Verteilung enthält Werte zwischen 0 und 2C . Da die Systemkapazität aber nur C ist, werden die folgenden Faltungsschritte lediglich m it den unnorm ierten Wahrscheinlichkeiten für 0 ≤ c ≤ C Ressourcen durchgeführt. Um nun die Verteilung der insgesamt belegten Ressourcen zu gewinnen, wird die Verteilung der belegten Ressourcen an der Kapazitätsgrenze C abgeschnitten und normiert: x (c) =

xR ( c ) G (Ω)

mit G ( Ω ) =

C

∑ xR ( c ) .

(3.69)

c =0

Zur Be rechnung der Bloc kierungswahrscheinlichkeiten i st es nicht notwendig, die Zustandswahrscheinlichkeiten e xplizit zu be stimmen, da das Verhältnis der Z ustandswahr-

138

3 Analyse Markovscher Systeme

scheinlichkeiten untereinander durch das Abschneiden und Norm ieren nicht verändert wird. Dadurch können die Blockierungswahrscheinlichkeiten direkt aus der Ressourcenverteilung X R gewonnen werden: C



pB , s =

c = C − cs + 1 C

C



x ( c)

∑ x ( c)

c =0

=

c = C − cs + 1 C R

xR ( c )

∑ x ( c)

.

(3.70)

c=0

Komplexitätsabschätzung

Die direkte Berechnung der Blockierungswahrscheinlichkeiten erfordert die Berechnung der Zustandswahrscheinlichkeiten aller Syste mzustände. Die Dimensionen des Zusta ndsraums entsprechen der A nzahl von Anforderungsklassen, s o da ss die A nzahl der Zustände e xponentiell mit der Anzahl der Anforderungsklassen wächst. Der Falt ungsalgorithmus verringe rt die Berechnungskom plexität, da nic ht m ehr die Wahrscheinlichkeit jedes einzelnen Zustands berechnet wird. Die Komplexität der Faltungsoperation liegt bei O ( n ⋅ log n ) , wob ei n die A nzahl de r z u fa ltenden Werte ist. In Gl. (3.68) werden S − 1 Faltunge n m it jeweils C + 1 Werten durchge führt. Die Norm ierung der Z ustandswahrscheinlichkeiten und ebens o die Be rechnung der B lockierungswahrscheinlichkeiten be nötigen C + 1 Rechenschritte. Insgesa mt wird die Berechnungskomplexität von ( S − 1 ) ⋅ C ⋅ log C durch die Fal tungsoperationen bestim mt und wächst nur noc h linear z ur Anzahl der Di enste, dafür a ber m it Faktor C ⋅ log C zur Ka pazität. Im Folge nden wird ein rekursiver Al gorithmus besc hrieben, de ssen Reche nzeit linear m it der Anza hl der Dienste und linear zur Kapazität ist. Es sei noch darauf hingewiesen, da ss die Berec hnung der Z ustandswahrscheinlichkeiten durch Faltung der R andverteilungen vora ussetzt, dass die Ressource nanforderungen der einzelnen Die nste ga nzzahlige Werte anne hmen. Dies ka nn e rreicht we rden, indem eine kleinste Ressourceneinheit cmin definiert wird, zu der alle Ressource nanforderungen ganzzahlige Vielfa che si nd. Im Algorithm us we rden dann die Werte c′s = cs / cmin un d C′ = C / c min eingesetzt.

3.5.5

Dimensionsreduktion und rekursive Zustandsanalyse

Das Ve rfahren zur Berec hnung der Zustandswahrscheinlichkeit m ithilfe einer Rekursion wurde 1981 unabhängi g von J. S. Kaufman [3.13] und J . W. Roberts [3.14] entwickelt und veröffentlicht. Die M ethode basiert auf einer Reduktion des m ehrdimensionalen Z ustandsraumes in einen eindim ensionalen Zustandsraum, dessen Zustände der Verteilung der belegten Ressource n ents prechen. Demgemäß w erden in ei nem Zustand alle mehrdimensionalen Zustände z usammengefasst, in denen gleich viele Ressourcen belegt sind. Anstatt die Zustandsverteilung für alle A nforderungsklassen z u ber echnen, g enügt z ur Best immung de r Blockierungswahrscheinlichkeiten die Berechnung der Verteilung der belegten Ressourcen.

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse

139

Reduktion des Zustandsraumes auf eine eindimensionale Zustandsbeschreibung

Wir betrachten nun den Zustand c, der alle S-dimensionalen Zustände n umfasst, in denen c Ressourcen belegt sind und definieren n∈c



c =

S

∑ n s ⋅ cs .

(3.71)

s=1

Bei dieser Zustands betrachtung sind die Übergangsraten für die Zus tandsänderung von c1 nach c2 , c1 , c 2 ∈ {0,… , C} wie folgt definiert: q c1 , c 2

⎧λ s , falls c 2 = c1 + cs ⎪ = ⎨μs E ⎡⎣ n s c1 ⎤⎦ , falls c 2 = c1 − cs , ⎪ , sonst ⎩0

(3.72)

wobei E ⎡⎣ n s c1 ⎤⎦ =

∑ n s ⋅ x ( n c1 )

n∈c

der Erwartungswert der A nzahl de r Anforderungen de r Klasse s ist, un ter der Bed ingung, dass ge nau c1 Ressource n bele gt sind. Da bei ist x n c1 die Wahrscheinlichkeit für n , unter der Bedingung, dass c1 Ressourcen belegt sind.

(

)

Die mittlere Anzahl von Teilnehmern der Klasse s wird nicht direkt gegeben und auch nicht zur Berec hnung de r Zustandswahrsc heinlichkeiten benötigt. Sie die nt lediglich z ur Veranschaulichung des eindim ensionalen Zustan dsraums. Für die Zusta ndswahrscheinlichkeiten ergibt sich: x (c) =

∑ x (n) .

(3.73)

n∈c

Dies entspricht der Summation entlang der Diagonalen im Beispiel in Abb. 3.32. Die Dimensionsreduktion wird anhand des Beispiels in Abb. 3.33 veranschaulicht. Auf der linken Seite ist der be reits aus dem vorigen Beispiel be kannte m ehrdimensionale Z ustandsraum mit Übergangsrate dargestellt. Zustände, i n denen glei ch viele Ressourcen belegt sind, werden durch untersc hiedliche Füllm uster gekennzeichnet. Auf der rec hten Sei te ist der entspre chende eindimensionale Z ustandsraum zu fi nden, der die mehrdimensionalen Z ustände mit gleicher Ress ourcenbelegung zusam menfasst (für zwei T eilnehmerklassen i = n 1 , j = n 2 ). Demgemäß sind auch die Zustände mit den entsprechenden Füllmustern gekennzeichnet. Die Ankunftsraten im eindimensionalen Zustandsraum entsprechen direkt den A nkunftsraten im mehrdimensionalen Zustandsraum . Die Abgangsraten werden z usammengefasst und als bedingte Erwartungswerte beschrieben.

140

3 Analyse Markovscher Systeme

4,0 λ1

4 1

λ2

3,0 λ1



1

2,0 λ1

2μ1

1,0 λ1

λ1 E[i |4]μ 1



μ1

0,0

λ2 μ2 λ2 μ2 λ2 μ2

3

E[j |4]μ2

λ1 E[i |3]μ1 λ2

2,1 λ1

2 λ1 E[i |2]μ1

2μ1

λ2

1,1 λ1 μ1

1

E[j |2]μ2

λ1 E[i |1]μ1

λ2

0,1

E[j |3]μ2

0,2



0

2

Abb. 3.33:

Beispiel einer Zustandsraumreduktion

Rekursive Berechnung der Zustandswahrscheinlichkeiten

Nach der l okalen Gleichgewichtsgleichung gilt, dass sich zwei benachbarte Zustände im Gleichgewicht befinde n. Die lokale Gleich gewichtsgleichung zwisc hen einem mehrdimensionalen Zustand n und den Zuständen mit jeweils einem Teilnehmer weniger lautet

( )

as ⋅ δ−s ( n ) ⋅ x n −s

= ns ⋅ x ( n )

und ist der Ausgangspunkt für die Herleitung einer rekursiven Berechnungsvorschrift für die Zustandswahrscheinlichkeiten des eindim ensionalen Zusta ndsraums. Die Sum mation über alle Zustände n ∈ c , in denen die gleiche Ressourcenzahl belegt ist, ergibt

( )

as ∑ δ−s ( n ) ⋅ x n −s n∈c

=

∑ ns ⋅ x ( n ) .

n∈c

Im Folgenden werden die linke und die rechte Seite der Gleichung unabhängig umgeformt. Für die linke Seite der Gleichung gilt

( )

as ∑ δ−s ( n ) ⋅ x n − s n∈c

= as



n∈c n s ≥ 1

( )

x n −s

= as

∑ x(n)

n∈c − cs

= as ⋅ x ( c − cs )

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse

141

für c ≥ cs und für die rechte Seite der Gleichung gilt

∑ ns ⋅ x ( n )

n∈c

=

x(n)

∑ ns ⋅ x ( c ) ⋅ x ( c )

n∈c

⎛ ⎞ = ⎜ ∑ n s ⋅ x ( n c ) ⎟ ⋅ x ( c ) = E ⎣⎡ n s c ⎦⎤ ⋅ x ( c ) . ⎝ n∈c ⎠

Werden nun die rechte und die linke Seite wieder gleichgesetzt, so ergibt sich folgende Gleichung, a us de r sich eine re kursive Berec hnungsvorschrift für die Zusta ndswahrscheinlichkeiten herleiten lässt: as ⋅ x ( c − cs ) = E ⎡⎣ n s c ⎤⎦ ⋅ x ( c ) .

Zusätzlich wi rd de finiert, dass die Wahrscheinlichkeit für ne gative Res sourcen gleich null ist, d.h. x ( c ) = 0 für c < 0 . Die Gleichungen für die einzelnen Teilnehmerklassen werden zur späteren Um formung mit den jeweiligen Ressourcenanforderungen cs multipliziert und über alle Teilnehmerklassen summiert: S

∑ cs ⋅ a s ⋅ x ( c − cs )

s =1

=

S

∑ E ⎡⎣n s

s=1

c ⎤⎦ ⋅ cs ⋅ x ( c ) .

Die rechte Seite der Gleichung lässt sich zu S

∑ E ⎡⎣ n s

s =1

⎛ S ⎞ ⎡S c ⎤⎦ ⋅ cs ⋅ x ( c ) = ⎜ ∑ E ⎣⎡ n s c ⎦⎤ ⋅ cs ⎟ ⋅ x ( c ) = E ⎢ ∑ n s ⋅ cs ⎝ s =1 ⎠ ⎣ s =1

⎤ c⎥ ⋅ x ( c ) = c ⋅ x ( c) ⎦

vereinfachen. Dara us folgt die rekursive B erechnungsvorschrift für die unnorm ierten Zustandswahrscheinlichkeiten:

x ( c)

(rek

⎧ , für c < 0 ⎪0 ⎪ ⎪⎪ = ⎨1 , für c = 0 ⎪ ⎪ S c ⎪ ∑ as s x ( c − cs ) , für 0 < c ≤ C ⎪⎩ s =1 c

ursive Berechnungsvorschrift)

(3.74)

Diese unnormierten Zustandswahrscheinlichkeiten entsprechen den Zustandswahrscheinlichkeiten, die mit dem Faltungsalgorithmus in Gl. (3.68) berechnet werden. Allerdings liegt die Rechenzeit jetzt in O ( S ⋅ C ) , da in jedem der C Rekursionsschritte die Anzahl der Berechnungen proportional zur A nzahl der Die nste ist. Wie beim Faltungsalgorithmus werden die Zustandswahrscheinlichkeiten durch Normierung

142

3 Analyse Markovscher Systeme x ( c) =

x (c)

(3.75)

G (Ω)

mit der Normierungskonstanten G (Ω) =

C

∑ x ( c)

(3.76)

c=0

gewonnen. Die Normierungskonstanten, die entweder direkt nach Gl. (3.63), übe r den Faltungsalgorithmus übe r Gl. (3.69) oder rekursiv nach Gl. (3.76) berechnet werden können, sind identisch. Die Blockierungswahrscheinlichkeiten ergeben sich aus der Summation der Wahrscheinlichkeiten der Zustände, in denen ein ankommender Teilnehmer abgewiesen wird pB ,s =

3.5.6

C



c = C − cs + 1

x ( c) .

(3.77)

Modellbeispiel: Code-Blockierungswahrscheinlichkeit in UMTS

Das M obilfunksystem UM TS (Uni versal Mobile Telecom munication System) verw endet WCDMA (Wideband Code Division Multiple Access) zum Zugriff auf die Luftschnittstelle. Zur Kommunikation von der Basisstation (dem so genannten N odeB) zu einem Teilnehmer werden Spreizcodes unterschiedlicher Länge verwendet, die zueinander orthogonal sind. Für Literatur zu U MTS siehe beispielsweise H olma und Tos kala [3.4]. Z ur Erzeugung und Verwaltung dieser ort hogonalen Spreizcodes wird ein OVSF-Codebaum (OV SF: orthogonal variable spreading factor) verwendet, wie er in Abb. 3.34 dargestellt ist. Die A nzahl der orthogonalen Codes m it bestim mter Länge bz w. m it Spreizfakt or (SF) ist genauso groß wie der Spreizfaktor selbst. Es gi bt also beispielsweise 4 Codes mit Spreizfaktor 4. Wird einem Teilnehm er ein bestim mter Code z ugewiesen, im Beispiel schwarz markiert, so sind alle Codes, die Vorgänger oder Nachfolger dieses Codes sind, nicht orthogonal zu diesem Code und können daher nicht mehr vergeben werden. Im Beispiel sind diese Codes m it ein em Kreuz m arkiert. Alle anderen C odes sind orthogonal zu de n vergebenen Codes und können von anderen Nutzern verwendet werden.

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse +1,+1,+1,+1

143

+1,+1,+1,+1,+1,+1,+1,+1

+1,+1,+1,+1, -1,-1,-1,-1

+1,+1,+1,+1,-1,-1,+1,+1,-1,-1 +1,+1

+1

+1,+1, +1,+1,-1,-1

+1,+1,-1,-1,-1,-1,+1,+1

+1,-1,+1,-1 +1

+1,-1,+1,-1,+1,-1,+1,-1 +1,-1,+1,-1,+1,-1

+1,-1

+1,-1,+1,-1,-1,+1,-1,+1

+1,-1,-1,+1,+1,-1,-1,+1

1, +1,-1,-1,+1

SF=1

SF=2

SF=4

+1,-1,-1,+1,-1,+1,+1,-1

SF=8

Abb. 3.34: Beispiel eines OVSF-Codebaums

In UMTS we rden S preizcodes m it Spreizfakto ren zwisc hen SF= 4 und SF= 512 verw endet. Unterschiedliche Spreizfaktoren entsprechen unterschiedlichen Datenraten, so dass die verschiedenen in UMTS angebotenen Dienste wie Sprachtelefonie, Internetzugang oder Videotelefonie auch Spreizcodes unterschiedlicher Länge benötigen. Betrachten wir im Folgenden drei Dienste: – – –

Sprachtelefonie mit 12.2kbps, benötigt einen Code mit Spreizfaktor 128 Internetzugang mit 144kbps, benötigt einen Code mit Spreizfaktor 16 Videotelefonie mit 384kbps, benötigt einen Code mit Spreizfaktor 8

Ein Teilnehmer mit Spreizfaktor 8 bloc kiert seine sämtlichen Nachfolger im Codebaum, er belegt also 128/8=16 Codes mit Spreizfaktor 128 und 16/8=2 Codes mit Spreizfaktor 16. Wir können eine n OVSF-Codebaum und dam it die Code-Kapazität einer U MTS-Zelle also als ein System mit Kapazität C=128 be schreiben und die einzelnen Dienste haben Ressourcenanforderungen von cS=1, cI=8 und cV=16. Um allerdings die gesamte Kapazität ausnutzen zu können, muss die Codebelegung optimiert werden, wovon in de r folgenden Analyse ausgegangen wird.

144

3 Analyse Markovscher Systeme

Das Verhältnis der Angebote der einzelnen Dienste wird so gewählt, dass das mittlere Angebot in Ressourcen für jeden Dienst gleich ist, d h. c1 ⋅ a1 = c 2 ⋅ a 2 = c 3 ⋅ a 3 .

Das Gesamtangebot aller Dienste in Ressourcen ergibt sich zu a [Re ssourcen ] =

S

∑ cs ⋅ a s ,

(Angebot in Ressourcen)

(3.78)

(normiertes Angebot in Ressourcen)

(3.79)

s =1

und das normierte Angebot in Ressourcen ist folglich ρ =

a [ Re ssourcen ] . C

In der folgenden Tabelle werden die drei Dienste noch einmal zusammengefasst: Spreizfaktor Ressourcenanforder ung Verhältnis

der Angebote

Sprachtelefonie 128

1

16

Internetzugang 16

8

2

Videotelefonie 8

16

1

In A bb. 3.35 sind die Bl ockierungswahrscheinlichkeiten für die unterschiedlichen Die nste gegen das normierte Angebot aufgetragen. Die Blockierungswahrscheinlichkeiten für Dienste mit größeren Ressourcenanforderungen übertreffen die Blockierungswahrscheinlichkeiten mit kleineren Ressourcen. Abbildung 3.36 zeigt die V erteilung der belegten Ress ourcen für ve rschiedene norm ierte Angebote zwischen 0, 2 und 0, 8. Auf der x-Ac hse sind die Anzahl der belegten Codes mit Spreizfaktor 128 a ufgetragen. Die Kurve n repräsentieren die entspreche nden Zustandswahrscheinlichkeiten des re duzierten, eindimensionalen Zustandsraums. Da auf der x-Achse diskrete Werte aufgetragen sind, handelt es sich bei den Kurven eigentlich um einzelne Punkte, die nur zur Verdeutlichung der Zusam mengehörigkeit verbunde n sind. Die Zustandswahrscheinlichkeiten für 128 belegte Code s ents prechen de n Blockierungs wahrscheinlichkeiten für den Sprachdienst. Die Blockierungswahrscheinlichkeit steigt von 4, 7 ⋅ 10 −7 für ein normiertes Angebot von 0,2 auf fast ein Prozent für ein normiertes Angebot von 0,8.

Blockierungswahrscheinlichkeit

3.5 Dimensionsreduktionsverfahren für Markov- Zustandsprozesse 10

0

10

-2

10

-4

10

-6

10

-8

10

-10

145

Videotelefonie

Internetzugang

Sprachtelefonie

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

Normiertes Angebot [Ressourcen]

Zustandswahrscheinlichkeit

Abb. 3.35: Code -Blockierungswahrscheinlichkeiten in UMTS

0.04 0.035

ρ=0.2

0.03 0.025

ρ=0.4

0.02

ρ=0.6

ρ=0.8

0.015 0.01 0.005 0 0

20

40

60

80

100

120

Anzahl belegter SF128 Codes

Abb. 3.36:

Zustandswahrscheinlichkeiten im eindimensionalen Zustandsraum

146

3 Analyse Markovscher Systeme

Literatur zu Kapitel 3 Bücher: [3.1] Akimaru, H ., Kawashima, K., Teletraffic – Theory and Applications , 1. Auflage, Springer, New York 1993

[3.2]

Cooper, R. B ., Introduction to Queueing Theory, 2. A uflage, N orth – Hollan d, New York 1981

[3.3]

Gross, D., Harris, C. M., Fundamentals of Que ueing Theory , 2. Auflage, Wiley, New York 1985

[3.4]

Holma H., Toskala, A., WCDMA for UMTS, John Wiley & Sons, 2004

[3.5] Kelly, [3.6] Kleinroc

F. P., Reversibility and Stochastic Networks, John Wiley & Sons, 1979 k, L., Queueing Systems, Band 1: Theory, Wiley, New York 1975

[3.7] Kleinr ock, L., Queueing Sy stems, Band 2: Co mputer Applica tions, Wiley, New York 1976 [3.8] Kühn, P., Tables on Delay Systems , Institut für Nachrichtenvermittlung und Da tenverarbeitung der Universität, Stuttgart 1976 [3.9]

Seelen, L. P., Tijms, H. C. , Van Hoorn, M. H., Tables for Multi-Server Queues , North-Holland, Amsterdam 1985

[3.10] Syski, R., Introduction to Congestion Holland, Amsterdam 1986

Theory in Telephone Systems

, North-

[3.11] Taka gi, H., Queueing Analysis: A Foundation of Performance Evaluation, Band 1, North-Holland, Amsterdam 1991 [3.12]

Tijms, H. C., Stochastic Models - A n Al gorithmic Appr oach, Wiley, Chichester 1994

Aufsätze: [3.13] Kaufman, J. S. , Blocking in a shared re source environment , IEEE T ransaction on Communications, Vol. 29, No. 10, 1474-1481 (1981)

[3.14] Robe rts, J. W., A Service system with heterogeneous user requirements - application to multi-service telecommunications systems , International Conference on Performance Data Co mmunication System s and T heir A pplications, Amsterdam, Niederlande, 423-431 (1981)

Literatur zu Kapitel 3 [3.15]

147

Tran-Gia, P., Mandjes, M., Modeling of customer retr ial phenomeno n in cellular mobile networks, IEEE JSAC special issue on Personal Communication - Services, architecture and performance issues, 1406-1414 (1997)

[3.16] Wol

ff, R., Poisson arrivals see time averages, Operat. Res. 30:223-231 (1982)

148

3 Analyse Markovscher Systeme

Übungsaufgaben zu Kapitel 3 Aufgabe 3.1: Gegeben sei eine Werkstatt, in der N ausfallanfällige Maschine n von einem Mechaniker betreut werden. Aufgabe des Mechanikers ist es, ausgefallene Maschinen in der Reihenfolge ihres Ausfalls instandzusetzen. Fällt eine Maschine aus und ist der M echaniker gerade beschäftigt, m uss diese M aschine wa rten, bevor sie wieder in Betrie b genommen wird. Als Ausfallzeit A einer Maschine bezeichnet man gewöhnlich die Zeit zwischen dem Zeitpunkt der In standsetzung und dem darauffolgenden Ausfall. Die Zeit zum Instandsetze n B entspricht de r Be dienzeit de s Mechanikers und wird als R eparaturzeit be zeichnet. Die vom Mechaniker benötigte Re paraturzeit ist für a lle M aschinen gleich und folgt eine r ne gativexponentiellen Verteilungsfunktion m it Mit telwert E [ B] = μ −1 . Die Ausfallzeiten all er Maschinen sind ebenfalls identisch und negativ-exponentiell verteilt, der Mittelwert der Ausfallzeit ist E [A ] = λ −1 .

1. Zwei alternative eindimensionale Zustandsbeschreibungen des Systems sollen angegeben werden. 2. Man entwerfe den Zustandsraum inklusive aller Übergangswahrscheinlichkeitsdichten. 3. Wie laute n die Gleichungssystem e der Zustandswahrscheinlichkeiten im statis tischen Gleichgewicht für bei de Z ustandsbeschreibungen? Die Zustandswahrscheinlichkeiten sind jeweils in Abhängigkeit von λ, μ und N anzugeben. 4. Eine de r beiden in Aufgabenteil 3 erha ltenen Gleic hungen s oll so umgeformt werden, dass die Erlang-Formel für Verlustsysteme entsteht. 5. Wie groß ist die Auslastung des Mechanikers? Aufgabe 3.2: Bisher konnte in einer Ortschaft das von de n Telefonkunden erze ugte Verkehrsangebot mit einem Bündel aus 90 Leitunge n bei einer Blockierungs wahrscheinlichkeit von pB = 10 −3 genau befriedigt werden. Aus technische n Gründen muss das B ündel durch zwei voneinander getrennte Trassen mit 30er-Bündeln (PCM-Multiplexleitung) ersetzt werden. Dabei werden die Anrufversuche so auf die Trassen verteilt, dass das gesam te Verkehrsangebot zu gleichen Teilen auf die Leitungsbündel aufgete ilt wird. Die Dienst güte, in diesem F all die Blockierungswahrscheinlichkeit, soll nach de r Bündeltrennung gleich bleiben. Fol gende Aufgaben sollen mit den Diagrammen in diesem Kapitel gelöst werden.

1. Wieviele 30er-Bündel werden pro Trasse benötigt? 2. Wie hoch ist die Auslastung pro Leitung vor und nach der Bündeltrennung? Aufgabe 3.3: Betrachtet werde das Warteverlustsystem M/M/n – S mit n Bedieneinhe iten und S Speicherplätzen.

Übungsaufgaben zu Kapitel 3

149

1. Der Zustandsraum einschließlich aller Übergänge und Übergangswahrscheinlichkeitsdichten soll entwickelt werden. 2. Wie lauten di e Zustandsgleichungen f ür die Mikrozustände und die zugehörigen Zustandswahrscheinlichkeiten im stationären Fall, wenn die Auslastung ρ < 1 ist? 3. Man definiere die für die Analyse geeigneten Makrozustände. Wie lauten die Z ustandsgleichungen für diese Makrozustände und die zugehörigen Zustandswahrscheinlichkeiten im stationären Fall? 4. Man be rechne folge nde Ve rkehrsgrößen: die Blockierungs wahrscheinlichkeit pB , die Wartewahrscheinlichkeit pW , den Ve rkehrswert Y und die mittlere Wa rteschlangenlänge Ω . 5. Herzuleiten ist die Verteilungsfunktion von W1 , d h. die Wartezeit bzgl. de r wartenden Anforderungen, bei FIFO-Abfertigung. Aufgabe 3.4: Gegeben seien n = 5 identische Prozessoren, die eine Folge von Anforderungen abarbeiten sollen. Die Zeit A zwischen den Ankünften zweier Anforderungen sowie die Bedienzeit B einer Anforderung durch einen Prozessor sind negativ-exponentiell verteilt mit den Mittelwerten E [A ] = 0, 25 sec bzw. E [ B ] = 1 sec. Der Speicherbedarf einer Anforderung sei konstant ein Speicherplatz. Unter der A nnahme, dass insgesam t S = 10 Speicherplätze zur Verfügung stehen, vergleiche man die beiden folgenden Alternativen:

1. Zentraler Speicher, d.h eine Warteschlange mit S Warteplätzen. 2. Lokaler S peicher, d h. n Warteschlangen m it je S = S / n Warteplätzen (hierbei wird jede Warteschlange mit der gleichen Wahrscheinlichkeit p = 1 / n aufgesucht). Für beide Fäll e soll die Blockierungs wahrscheinlichkeit pB berec hnet we rden. Wie groß müsste S gewählt werden, um für den Fall 2 etwa die gleiche Blockierungswahrscheinlichkeit zu erhalten wie für den Fall 1? Aufgabe 3.5: 2,2 Betrachtet werde da s Warteschlangensystem M / M[ ] / 2 − 3 , das sich z.B. zur M odellierung ein es Pro duktionssystems e ignet. Der Po isson-Ankunftsstrom vo n Aufträgen (Ankunftsrate λ ) wird von zwei Bedieneinheiten, die je weils eine negativ-exponentiell verteilte Bediendauer (Bedienrate μ ) zur Bearbeitung von zwei Aufträge n benötigen, verarbeitet. Es werden immer zwei Aufträge zusammen bearbeitet. Ist nur ein Auftrag in der Warteschlange, die 3 Warteplätze enthält, so wird auf das Eintreffen eines weiteren Auftrags gewartet.

1. Man gebe eine geeignete Zustandsbeschreibung dieses Warteschlangensystems an. 2. Zu entwickeln ist der Z ustandsraum mit seinen Ü bergängen und seine n Übergangswahrscheinlichkeitsdichten. 3. Mit einer geei gneten Wahl der M akrozustände soll die Verlustwahrscheinlichkeit eine s Auftrags für den Parametersatz λ = μ = 1 sec −1 bestimmt werden.

150

3 Analyse Markovscher Systeme

Aufgabe 3.6: Betrachtet werde ein M /M/n-Verlustsystem mit einer endlichen Anzahl von q ≥ n Quellen. Die Quellen seien identisch verteilt mit einer Anrufrate α pro Q uelle. Die Bedienrate jeder der n identischen Bedieneinheiten sei μ .

1. Man de finiere geeignete Zus tände und gebe den Z ustandsraum mit seinen Übergängen sowie die Übergangswahrscheinlichkeiten an. 2. Man definiere geeignete M akrozustände und be stimme die stationä ren Zusta ndswahrscheinlichkeiten. 3. Man zeige, dass aus der Lösung nach 2. durch den Grenzübergang lim ( qα ) = λ q →∞ α→0

die Erlangsche Formel für Verlustsysteme entsteht. Aufgabe 3.7: Betrachtet we rde folgendes M/M/1-1 Warteverlustsystem m it Prioritäte n: Die A nforderungen hoher Priorität kommen mit der Rate λ H an, diejenigen niedriger Priorität mit der Rate λ N . Die Bedieneinheit arbeitet mit einer Rate μ = 1sec−1 unabhängig von der Priorität einer Anforderung.

Wenn bei der Ankunft einer An forderung hoher Priorität der Warteplatz noch frei ist und eine Anforderung niedriger Priorität gerade bedient wird, so wird letztere aus der Bedieneinheit verdrängt. D h. die Anforderung hoher Priorität belegt die Be dieneinheit, und diejenige mit niedriger P riorität muss zurück auf de n Warteplatz. Nachdem die Bedienung der Anforderung hoher Priorität vollendet ist, wird die Bedienung der verdrängten Anforderung erneut begonnen, wofür wieder eine volle Bedienphase mit μ = 1sec −1 benötigt wird („PreemptiveRepeat“ Strategie). Befinden sich bei der Ankunft einer Anforderung hoher Priorität zwei Anforderungen niedriger Priorität im System, so verdrängt erstere wie oben beschrieben die Anforderung, die sich in der Be dieneinheit befindet. Diese verdrä ngt ihrerseits die wartende A nforderung, die dadurch völlig aus dem System verdrängt wird. In allen a nderen Fällen findet keine Verdrängung statt. Anforderunge n, bei deren A nkunft der Warteplatz bereits besetzt ist, werde n mit Ausnahme des obe n beschriebenen Falles abgewiesen. 1. Man definiere eine geeignete Zustandsbeschreibung und gebe das Zustangsübergangsdiagramm mit den Übergangsraten an. Man gebe die Zustandsgleichungen für den stationären Fall in Abhängigkeit von λ H und λ N an. 2. Für die folgenden Berechnungen sei λ H = 0, 5sec −1 und λ N = 0, 5sec −1 . Man berechne die Zustandswahrscheinlichkeiten. 3. Man gebe die Abweisewahrscheinlichkeit für A nforderungen m it hohe r bz w. nie driger Priorität, BH bzw. BN , bei deren Ankunft an. Wie groß ist die Wahrscheinlichkeit B Sys ,

Übungsaufgaben zu Kapitel 3

151

dass eine A nforderung niedriger Priorität aus dem System verdä ngt wird? Wie groß ist die Wahrscheinlichkeit B , dass eine beliebige Anforderung bei ihrer Ankunft abgewiesen oder später aus dem System verdrängt wird? Man bestimme die Wa hrscheinlichkeit, dass Anforderungen mit hoher bz w. niedriger Priorität unm ittelbar nach ihrer Ankunft warten müssen, WH bzw. WN . 4. Die Zufallsvariable K gebe die Anzahl der Verdrängungen einer A nforderung niedriger Priorität, bevor diese erfolgreich vollständig bedient werden kann, an. Man be stimme die Wahrscheinlichkeit VBed , das s eine Anforderung nie driger Priorität aus der Bedieneinheit verdrängt wird, d h. dass während ihrer Bedienung mindestens eine Anforderung mit hoher Priorität ankommt. Man gebe die Verteilung, die erzeugende Funktion Gk ( z ) und den Erwartungswert von K an. 5. Die Zufallsvariable TV sei die virtuelle Bedienzeit für eine Anforderung niedriger Priorität, d h. die Ze it vom Beginn des erste n Bedienversuchs bis zum Ende der erfolgreiche n vollständigen Bedienung. M an gebe TV in A bhängigkeit von de r Bedienzeit TH (neg. exp. mit μ = 1 ) und K an. Man berec hne die Laplace-Transformation Φ V ( z ) und den Mittelwert von TV . Aufgabe 3.8: Im Folgenden sei ein s o ge nanntes zelluläres Mobilfunknetzwerk bet rachtet. Ein solches Netzwerk besteht aus a neinandergrenzenden Fläche n, die idealisiert als hexa gonale Z ellen angesehen werden. An die sich im Netzwerk befindlichen mobilen Telefonteilne hmer werden Anrufe gerichtet bzw. gehen von ihnen aus. Hierbei ist zwischen Anrufen aus derselben Zelle i und solchen aus benachbarten Zellen zu unterscheiden, die über ein Übergabeverfahren (Handover) an Zielteilnehm er in Zelle i gerichtet sind. Die Kapazität C einer Zelle ist die Anzahl der insgesamt verfügbaren Frequenzkanäle und wi rd hier mit C = 90 angenommen.

Der Ankunftsverkehrsstrom pro Zelle genüge einer Poisson-Verteilung mit λ als Ankunftsrate für neue Anrufe (zelleigener Verkehr) und γ als Ankunftsrate für Handover-vermittelte Anrufe aus Na chbarzellen. H ierbei gelte γ = γ in = γ out für a nkommende bz w. a usgehende Handovers von Zelle i . Es sei weiterhi n unrealistischerweise Stationari tät der Verkehrsströme unterstellt. Die Bedienzeit für Handove r-vermittelte Anrufe sei negativ-exponentiell verteilt mit Rate ξ . Die Bedienzeit der neuen Anrufe aus Zelle i genüge der Verteilung der Verweilzeiten, d h. der Zeit, die eine m obile Einheit in ei ner Zelle verbringt und da bei bedient wird. Diese sei ebenfal ls negativ-exponentiell verteilt mit Rate μ . Das Verkehrsangebot A ist gegeben durch A =

λ+γ . μ+ξ

1. Man betrac hte nun eine Zelle mit ihren Na chbarn und definiere die Zelle als blockiert, wenn bei Ankunft ne uer Anrufe alle Kanä le belegt sind und de r A nruf dann ve rloren geht. M an ge be B n und B h , die Blockierwahrs cheinlichkeiten für ne ue A nrufe bzw. während eines einzigen Handover, an.

152

3 Analyse Markovscher Systeme

2. Es seien folge nde Wahrscheinlichkeiten ge geben: M it Wahrscheinlichkeit 1 − B n wird ein ne uer Ruf be gonnen. Dann wird m it Wahrscheinlichkeit Pc = ξ/ ( μ + ξ ) ein Anruf beendet, bevor die Zelle verlassen wird. Mit Wahrscheinlichkeit Pc = μ/ ( μ + ξ ) wird ein Anruf während seines e rsten Ha ndoverversuchs abge wiesen. M it welc her Wahrscheinlichkeit wird der erste Handover erfolgreich durchgeführt und die Zelle verlassen? k 3. Man gebe die Wahrsc heinlichkeit Ph( , c) für k-fa chen Handover und B eendigung des An(k ) rufs sowie Ph die Wa hrscheinlichkeit für k-fachen Handover und Bloc kierung beim nächsten Handover-Versuch an. ( k = 0, 1, 2, 3,…) ≥ k + 1) , das s für eine n A nruf we nigstens k + 1 , 4. Wie la uten die Wahrscheinlichkeiten Ph( (k ) sowie Ph , dass exakt k Handovers durchgeführt werden? Welcher Verteilung genügen dann die Anrufbedienzeiten mit k erfolgreichen Handovers? 5. Wie la utet die Wahrscheinlichkeit Bp , da ss ein A nruf bei irgendeine m HandoverVersuch blockiert wird? 6. Wie lautet die totale Blockierwahrscheinlichkeit B t für einen beliebigen Anruf? Aufgabe 3.9: Betrachtet werde ein m odifiziertes M/M/1-Wartesystems. Im Gegensatz zu herköm mlichen Systemen gibt es S bevorz ugte Warteplätze ( S ≥ 0 ) . (Beispiel: Bratwurststand im Hochsommer mit einige n Warteplätzen im Schatten. Die Lust auf Bratwurst schwindet schnell, wenn man in der pralle n Sonne anste hen muss.) Die Bedi enrate sei μ , die Ankunftsrate sei abhängig vom Systemzustand: solange keiner wartet oder bevorzugte Warteplätze vorhanden sind, sei die Ankunftsrate λ ; sobal d andere Warteplätze einge nommen we rden m üssen, halbiere sich die Ankunftsrate.

1. Man gebe den Zustandsraum einschließlich aller Übe rgänge und Ü bergangswahrscheinlichkeitsdichten an. 2. Man defi niere geeignete M akrozustände. Wie lauten die Zustands gleichungen für diese Makrozustände und die zugehörigen Zustandswahrscheinlichkeiten im stationären Fall? 3. Wie hoch ist die Auslastung de r Bedieneinheit in Abhängigkeit von S ? M an gebe die mittlere Warteschlangenlänge an. 4. Wie hoch ist die Wahrscheinlichkeit, dass ein ankommender Kunde a) sofort bedient wird ( psorfort ) b) einen bevorzugten Warteplatz im Schatten vorfindet ( pSchatten ) c) oder einen Platz an der Sonne bekommt ( pSonne ) ?

4

Analyse nicht-Markovscher Systeme

Im vorherigen Ka pitel wurden Verkehrsmodelle m it M arkov-Eigenschaft be handelt. Bei diesen Modellen besitzen sämtliche Modellkomponenten die Eigenschaft der Ge dächtnislosigkeit. Ist eine Kom ponente dagegen gedächtnisbehaftet, z.B. we nn der Ankunfts- oder der Bedienprozess allgemein verteilt ist, können die vorgestellten Analysemethoden für MarkovSysteme nicht angewandt werden. In diesem Kapitel werden einige wichtige nicht-Markovsche Verkehrsmodelle behandelt. Es handelt sich hi er um Modelle, die jeweils eine gedächtnisbehaftete Modellkomponente enthalten. Zunächst wird die M ethode der einge betteten Markov-Kette erörtert. Anschließend werden Modelle vom Typ M/GI/1 und GI/M/1 sowie ein komplexeres Modell aus der Fertigungssteuerung mit Gruppenbedienung exemplarisch vorgestellt.

4.1

Methoden der eingebetteten Markov-Kette

Wir betrachten einen z ustandsdiskreten stoc hastischen P rozess {X ( t ) , t > 0} , de r den Zustandsprozess eines verkehrstheoretischen M odells darstellt. Zu den Zeitpunkten {t n , n = 0, 1, 2,…} soll der Prozess die Markov-Eigenschaft haben, d h.

(

P X ( t n + 1 ) = x n + 1 X ( t n ) = x n ,… , X ( t 0 ) = x0

(

)

= P X ( t n +1 ) = xn +1 X ( t n ) = xn ,

)

t0 < t1 < … < t n < t n +1 .

(4.1)

Die zukünftige Entwicklung des einge betteten Prozesses hängt also nur vom gegenwärtigen Prozesszustand ab. Die kom plette Vergange nheit des eingebetteten Prozesses X ( t 0 ) , X ( t 1 ) ,… , X ( t n ) bis zum Zeitpunkt t n ist in der Zustandsinformation ⎣⎡ X ( t n ) = x n ⎦⎤ enthalten. Ist der Zustand zum Zeitpunkt t n bekannt, so kann die zukünftige Entwicklung des eingebetteten Prozesses X ( t n + 1 ) , X ( t n + 2 ) ,… aus X ( t n ) be rechnet werden. Da der Prozes s zustandsdiskret ist, bildet {X ( t n )} eine Kette. Aufgrund der Markov-Eigenschaft zu den Zeitpunkten t n , n = 0, 1,… , ist {X ( t n ) = x n } ferner eine Markov-Kette, die zu den Zeitpunkte n t n einge bettet wird. Die hier besc hriebene Analysemethode wird deshalb

154

4 Analyse nicht-Markovscher Systeme

Methode der e ingebetteten M arkov-Kette ge nannt. Als Regenerationszeitpunkte bezeichnet man die Einbettungszeitpunkte t n , zu denen die Markov-Eigenschaft gegeben ist.

X(t)

Prozesszeitpunkte mit Markov-Eigenschaft

t2

t1

t0

P

tn

P

P

P

t n+1

P

t

P

Abb. 4.1: Einbettungszeitpunkte und Markov-Kette

Zu je dem Ein bettungszeitpunkt t n bilden di e Zustandsw ahrscheinlichkeiten einen Wahrscheinlichkeitsvektor:

{x ( i, n ) , i = 0, 1,…} , x ( i, n ) = P ( X ( t n ) = i ) .

(4.2)

Xn =

Lässt sich eine Überga ngswahrscheinlichkeitsmatrix P finden, die die Beziehung z wischen den Z ustandswahrscheinlichkeitsvektoren zweier beliebi ger a ufeinanderfolgender Ei nbettungszeitpunkte t n und t n + 1 herstellt, d h. P =

{pi j }

(4.3)

mit

(

)

pi j = P X ( t n + 1 ) = j X ( t n ) = i ,

i, j = 0, 1,… ,

(4.4)

so erhält man eine rekursive Berechnungsvorschrift X n +1 = X n ⋅ P .

(4.5)

4.1 Methoden der eingebetteten Markov-Kette

155

Bei den Elementen der Matrix P handelt es si ch um Übergangswahrscheinlichkeiten. Diese Übergangswahrscheinlichkeitsmatrix ist eine stochastische Matrix 1. Die Matrix P unte rscheidet sich in dieser Eigensc haft von der M atrix Q der Übergangswahrscheinlichkeitsdichten bzw. der Ratenm atrix im vorheri gen Kapitel, die zur A nalyse von zeitkontinuierlichen Markovschen Zustandsprozessen herangezogen wurde. Anhand Gl. (4.5) könne n M arkov-Ketten-Wahrscheinlichkeitsvektoren s ukzessiv berechnet werden, falls ein Anfangsvektor, z.B. X 0 bekannt ist. Im stationären Zustand des Prozesses, d h. wenn der Wahrscheinlichkeitsvektor nicht mehr vom Zeitindex abhängt, X n +1 = X n = X ,

lässt sich die Systemanalyse auf ein Eigenwertproblem zurückführen: X = X ⋅P .

(4.6)

Der gesuchte Wahrscheinlichkeitsvektor der ei ngebetteten Markov-Kette im statio nären Zustand ist gemäß Gl. (4.6) der Links-Ei genvektor der Übergangswahrscheinlichkeitsmatrix P zum Eigenwert 1. Die Methode der eingebetteten Markov-Kette eignet sic h insbesondere zur Analyse von Verkehrsmodellen, bei de nen nur ei ne Modellkomponente gedächtnisbehaftet ist (vgl. Bolch [4.1], Cooper [4.2]). Die Einbettung szeitpunkte werden do rt festgelegt, wo genau diese Modellkomponente gedächtnislos wird. In ei nem M /GI/1-System ist die Bedie nzeit die einzige nicht-Markovsche M odellkomponente. Der Zustandsprozess hat jeweils am Ende einer Bedienphase die Markov-Eigenschaft. Die entsprechende Markov-Kette kann an den Bedien-Ende-Zeitpunkten eingebettet werden. In einem GI/ M/1-System ist der A nkunftsprozess gedächtnisbehaftet. Zwec kmäßigerweise sind die Ankunftszeitpunkte als Einbettungszeitpunkte einer einge betteten Markov-Kette zu wählen.

1

Eine Matrix P mit nicht-negativen Elementen heißt stochastisch, wenn P ⋅ e = e gilt. Wenn bei einem komponentenweisen Vergleich P ⋅ e ≤ e zutrifft, dann wird P substochastisch genannt. Dabei ist e der Spaltenvektor entsprechender Dimension, der nur Einsen enthält.

156

4 Analyse nicht-Markovscher Systeme

4.2

Das Wartesystem M/GI/1

4.2.1

Modell und Zustandsprozess

Abbildung 4.2 zeigt die Struktur des M/GI/1-Wartesystems (M/GI/1- ∞ ). Nach der KendallNotation ist de r Ankunftsprozess ein P oisson-Prozess, d h. die Zwischenankunftszeit A ist negativ-exponentiell verteilt: A ( t ) = P ( A ≤ t ) = 1 − e −λt ,

E [A ] =

1 . λ

Die Ankunftsrate λ gibt die mittlere Anzahl eintreffender Anforderungen pro Zeiteinheit an. Die Bedienzeit B kann beliebig verteilt sein. Das Verke hrsangebot bzw. die Auslastung der Bedieneinheit ergibt sich zu ρ =

E [ B]

E [A ]

M

= λ ⋅ E [ B ] . (A

uslastung)



A, λ

Poisson Ankunftsprozess

unbegrenzter Warteraum

(4.7)

B GI allgemein verteilte Bedienzeit

Abb. 4.2: M/ GI/1-Warteystem

Der Wa rteraum wird als unendlich groß angenommen, d h. es ha ndelt sich um den reinen Wartebetrieb. Eine Anforderung, die zum Ankunftszeitpunkt die Be dieneinheit bele gt vorfindet, muss warte n, bis di ese frei wird. Die Bedieneinheit bearbeitet wartende Anforderungen aus der Warteschlange nach einer Warteschlangendisziplin, z.B. FIFO (first-in, firstout) bzw. FCFS (first-come, first-served), LIFO (last-in, first-out), RANDOM etc. Abbildung 4.3 zeigt einen V erlauf des Z ustandsprozesses. Die n-te A nforderung tri fft auf eine belegte Bedieneinheit und wartet in der erste n Position der Warteschlange, bis sie zum Zeitpunkt t n −1 bedient wird. Die Wartezeit und die Bedienzeit dieser Anforderung sind in Abb. 4.3 markiert.

4.2 Das Wartesystem M/GI/1

157 Ankünfte

X(t)

W

n

2 1

B

t n

t n-1

t n t n+1

P Einbettungszeitpunkte

Abgänge

P

Übergangsmatrix

Abb. 4.3: Zustandsprozess des M/GI/1-Wartesystems (Abfertigungsdisziplin FIFO)

4.2.2

Markov-Kette und Übergangsverhalten

Einbettungszeitpunkte

Im M/GI/1-System ist der Bedienprozess die einzige M odellkomponente, die die M arkovEigenschaft nicht besitzt. Dies bedeutet, dass der Zustandsprozess am Ende eines Bedienvorganges gedächtnislos wird. Daher kann an den Bedien-Ende-Zeitpunkten eine Markov-Kette eingebettet werden, wie in Abb. 4.3 illustriert wird. Die gewählten Einbettungszeitpunkte liegen jeweils unmittelbar nach den Abgängen. Der Zeitpunkt der n-ten Einbettung korrespondiert also mit dem n-ten Abgang und wird mit t n bezeichnet. Die Folge {X ( t 0 ) , X ( t 1 ) , …, X ( t n ) , X ( t n + 1 ) , …} der System zustände z u diesen Zeitpunkten bildet damit eine eingebettete Markov-Kette, deren Zustandswahrscheinlichkeiten im Folgenden analysiert werden sollen. Für die nac hfolgende Analyse ist es z weckmäßig, die Z V Γ für die An zahl der Ankunftsereignisse während einer Bediendauer B und deren Verteilung zu betrachten: γ (i) = P (Γ = i )

(4.8)

158

4 Analyse nicht-Markovscher Systeme

mit der erzeugenden Funktion Γ EF ( z ) =

wobei



∑ γ ( i ) ⋅ zi ,

dΓEF ( z )

E [Γ] =

(4.9)

i =0

dz

= λ ⋅ E [B] = ρ .

(4.10)

z=1

(j – i + 1) Ankünfte während der Bediendauer

a) Übergang i j (i ≠ 0)

X(t) X(t n+1)=j 3 2 1

X(t n)=i≠0 Bediendauer

tn

t

t n+1 erste Ankunft initiiert die Bediendauer

j Ankünfte während der Bediendauer

X(t)

b) Übergang i=0 j

X(t n)=0

3 2 1

X(t n+1)=j Bediendauer

tn

t n+1

t

Abb. 4.4: Übergangsver halten des M/GI/1-Wartesystems Zustandsübergänge

Wir betrachten den Übergang zwischen zwei aufeinander folgenden Einbettungszeitpunkten und die zugehörige Übergangswahrscheinlichkeit

(

)

pi j = P X ( t n + 1 ) = j X ( t n ) = i . (Ü

bergangswahrscheinlichkeit)

(4.11)

4.2 Das Wartesystem M/GI/1 Während de r Zeitspanne Abb. 4.4): •

( t n , tn +1 )

können folgende Zustandsübergänge stattfinden (vgl.

i≠0 Das System ist nicht leer zum Zeitpunkt t n (Abb. 4.4a). Die Zustandsentwicklung ist wie folgt: Zum Einbettungszeitpunkt t n sind i Anforderungen i m System . Unm ittelbar da nach fä ngt ein Bedienvorga ng a n. Dam it unm ittelbar nac h Verstreichen diese r Bedie ndauer noch j Anforderungen im System verbleiben, müssen während dieser Z eit ( j − i + 1) Anforderungen angekommen sein, d.h.

pi j = γ ( j − i + 1 ) ,



159

j = i − 1, i,… .

i = 1,… ,

(4.12)

i=0 Das System is t leer zum Zeitpunkt t n . Mit de m Eintreffen der er sten An forderung beginnt, wie in Abb. 4.4b verdeutlicht, ein neuer Bedienvorgang. Dam it unmittelbar nach dem Verstreichen der Bediendauer noch j Anforderungen im System sind, müssen diese j Anforderungen während der betrachteten Bediendauer angekommen sein, d h. p0 j = γ ( j ) ,

j = 0,… .

(4.13)

Die Zustandsübergangsmatrix lautet schließlich: ⎛ γ(0) γ(1) γ(2) ⎜ ⎜ γ(0) γ(1) γ(2) P = {pi j } = ⎜ 0 γ(0) γ(1) ⎜ γ(0) 0 ⎜ 0 ⎜ ⎝

4.2.3

γ(3) γ(3) γ(2) γ(1)

⎞ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎠

(4.14)

Zustandsgleichungen

Allgemeine Zustandsübergangsgleichung

Die Zustandswahrscheinlichkeiten des Systems zu den Einbettungszeitpunkten t n x ( j, n ) = P ( X ( t n ) = j ) ,

j = 0, 1,… ,

(4.15)

bilden die Komponenten des Vektors X n Xn =

{x ( 0, n ) , x ( 1, n ) ,…, x ( j, n ) ,…} .

(4.16)

160

4 Analyse nicht-Markovscher Systeme

Der Zustandswahrscheinlichkeitsvektor zum Einbettungszeitpunkt t n + 1 kann aus dem Vektor z um vora usgegangenen Zeitpu nkt t n mi t d er folgenden Zu standsübergangsgleichung bestimmt werden: X n ⋅ P = X n + 1 . (allgem

eine Zustandsübergangsgleichung)

(4.17)

Gleichung (4.17) gilt allgem ein sowohl für stationäre als auch für i nstationäre Systemzustände. Aus einem Startvektor X 0 können sukzessiv alle zukünf tigen anforderungsabhängigen Z ustandswahrscheinlichkeitsvektoren X n , n = 1, 2,… , er mittelt werden. Som it s ind Verläufe instationärer Zustandsprozesse analysierbar, die z .B. in Untersuchungen von Überlastverhalten und von Ei n- und A usschwingvorgängen in K ommunikationsnetzen von Bedeutung sind. Stationäre Zustandsübergangsgleichung

Aus Gl. (4. 17) erhält man für de n stationäre n System zustand m it dem Zustands wahrscheinlichkeitsvektor X n = X n +1 = … = X ,

X =

(4.18)

{x ( 0 ) , x ( 1) ,… , x ( j ) ,…}

(4.19)

die stationäre Zustandsübergangsgleichung X ⋅ P = X . (stationä

4.2.4

re Zustandsübergangsgleichung)

(4.20)

Zustandswahrscheinlichkeiten

Nach Gl. (4.20) ist der ges uchte stationäre Zustandswahrscheinlichkeitsvektor der LinksEigenvektor der Übergangsmatrix P zum Eigenwert 1. Diese Feststellung wurde bereits bei der Behandlung der Methode der einge betteten Markov-Kette erörte rt. Die Berechnung der Zustandswahrscheinlichkeiten re duziert sich auf ein Ei genwertproblem einer une ndlichen Matrix. Für den allge meinen Fall instationä rer Prozesse können, ausgehe nd von ei nem Anfangsvektor für Zustandswahrscheinlichkeiten X 0 , mit Hilfe der allgemeinen Zustandsübergangsgleichung (4. 17) die Z ustandsvektoren X 1 ,… , X n , X n + 1 an den Einbettungszeitpunkte n t 1 ,… , t n , t n + 1 n umerisch bes timmt w erden, un d zw ar s olange, b is der stationäre Zu stand erreicht ist. Praktisch kann das Erreichen des statistischen Gleichgewic hts durch eine Abbruchbedingung (z.B . we nn E ⎡⎣ X ( t n +1 ) ⎤⎦ − E ⎡⎣ X ( t n )⎤⎦ < ε = 10 −6 ) nac h je dem Iterationsschritt überprüft werden. Diese multiplikative Methode (engl. power method ) ist ein numerisch robustes Verfahren zur Analyse von Zustandswahrscheinlichkeiten.

4.2 Das Wartesystem M/GI/1

161

Analyse mittels erzeugender Funktion

Die Zustandsübergangsgleichung (4.20) kann wie folgt ausgeschrieben werden: j+1

x(j) = x(0) γ(j) + ∑ x ( i ) ⋅ γ(j − i + 1) ,

j = 0, 1,… .

(4.21)

i =1

Wir betrachten nun die Summation ∞

∑ x ( j) z j j=0

j+1





j=0

j=0 i=1

= x(0) ∑ γ ( j ) z j + ∑

∑ x(i) ⋅ γ(j − i + 1) z j

(4.22)

Γ EF (z)

X EF (z)

mit den erzeugenden Funktionen ∞

Γ EF ( z ) =

∑ γ ( j) z j ,

X EF ( z ) =

∑ x ( j) z j .

j=0



(4.23)

j=0

Die Doppelsumme aus Gl. (4.22) kann weiter umgeformt werden in ∞

j+1

∑ ∑ x ( i ) γ ( j − i + 1) z j





i =1

j =i −1





i =1

j*= 0

∑ x ( i ) ∑ γ ( j − i + 1) z j

=

j=0 i =1

j*=j-i+1

=

∑ x ( i ) ∑ γ ( j *) z j* zi −1 ΓEF ( z ) ∞

ΓEF ( z ) ∑ x ( i ) zi −1

=

i =1

1 ΓEF ( z ) ⋅ ⋅ ( X EF ( z ) − x ( 0 ) ) . z

=

(4.24)

Schließlich erhalten wir aus Gl. (4.22)

oder

1 X EF (z) = x(0) ⋅ Γ EF (z) + Γ EF (z) ⋅ ⋅ (X EF (z) − x(0)) z

X EF ( z ) = x ( 0 )

ΓEF (z) ( 1 − z ) Γ EF ( z ) − z

.

(4.25)

162

4 Analyse nicht-Markovscher Systeme

Zur Bestimmung von x(0) betrachtet man den Grenzübergang z → 1 dieser Gleichung X EF ( z )

=

z →1

0 , 0

der sich mit der de l’Hospitalschen Regel wie folgt ermitteln lässt:

1 =



∑ x ( j) j=0

= X EF ( z )

d Γ EF ( z ) ⋅ ( 1 − z ) − Γ EF ( z ) dz = x (0) ⋅ d Γ EF ( z ) − 1 dz z →1 −1 = x (0) ⋅ , d Γ EF ( z ) − 1 dz z →1

z →1

wobei d ΓEF ( z ) = dz z →1



∑ γ ( j)

= E [Γ] = λ E [B] = ρ ,

j z j −1

j=1

z→1

d.h. x (0) = 1 − ρ

(4.26)

und somit X EF ( z ) =

( 1 − ρ )( 1 − z ) ΓEF ( z ) . Γ EF ( z ) − z

(4.27)

Die Funktion Γ EF ( z ) ist die erze ugende F unktion de r P oisson-Ankünfte während eine r Bediendauer, d.h. eines Intervalls mit der Verteilungsfunktion B ( t ) und LST Φ B ( s ) . Nach Gl. (1.130) kann Γ EF ( z ) angegeben werden: Γ EF ( z ) =



∑ γ ( j) z

j

=

j =0

= Φ B ( s ) s =λ





∑∫ j=0 0

( 1− z )

( λt ) j!

j

e −λt b ( t ) dt z j

= ΦB ( λ ( 1 − z )) .

(4.28)

Aus Gl. (4.27) und (4.28) erhält man die erzeuge nde F unktion der Z ustandsverteilung der eingebetteten Markov-Kette X EF ( z ) =

( 1 − ρ) ⋅ ( 1 − z ) ⋅ ΦB ( λ ( 1 − z ) ) . ΦB ( λ ( 1 − z )) − z

(Pollaczek-Khintchine-Formel für Zustandswahrscheinlichkeiten)

(4.29)

4.2 Das Wartesystem M/GI/1

4.2.5

163

Wartezeitverteilungsfunktion

Aus der Pollaczek-Khintchine-Formel für Zustandswahrscheinlichkeiten kann die Wartezeitverteilungsfunktion von Anforderungen in ei nem M/GI/1-M odell hergeleitet werde n. Die nachfolgende Herleitung setzt voraus, dass die Abfertigungsdisziplin für die Warteschlange vom Typ FIFO (first-in, first-out) bzw. FCFS (first-come, first-served) ist. Wir betrachten die D urchlaufzeit D einer Tes tanforderung mit der Verteilungs dichtefunktion d ( t ) , der Verteilungsfunktion D ( t ) und de r Laplace-Stieltjes-Transformierten ΦD ( s ) . Die Durchlaufzeit D setzt sich aus der Wartezeit W und de r Bedienzeit B der Testanforderung zusammen: D

= W + B,

d(t)

= w (t) ∗ b(t) ,

ΦD ( s )

= ΦW (s) ⋅ ΦB (s) .

(4.30)

Ankunft der Testanforderung Wartezeit W Bedienzeit B Bedienende: Einbettungszeitpunkt der Markov-Kette Durchlaufzeit D

Abb. 4.5: Durchlaufzeit einer Anforderung

Zum Abga ngszeitpunkt de r Testanf orderung seien n och X = k Anforderungen i m Syste m. Nach der Festlegung der Einbettungszeitpunkte ist X = k auch der Systemzustand zu einem Einbettungszeitpunkt de r M arkov-Kette. Gemäß der Abfertigungsdisziplin F IFO si nd diese k von der Testanforderung zurückgelassenen Anforderungen während der Durchlaufzeit D eingetroffen, d h. x ( k ) = P ( Testanforderung läßt X = k Anforderungen im System zurück ) = P ( k Ankünfte während der Durchlaufzeit der Testanforderung ) .

164

4 Analyse nicht-Markovscher Systeme

Dieser Beziehung zufolge ist X = k die Anzahl der Poisson-Ankünfte während einer Durchlaufzeit D , d.h. eines Intervalls mit der Verteilungsfunktion D ( t ) und L ST Φ D ( s ) . Nach Gl. (1.130) kann die entsprechende erzeugende Funktion X EF ( z ) angegeben werden: X EF ( z ) =





∑ x ( k ) zk =

∑ ∫

k =0

= Φ D ( s ) s =λ



k =0 0

( λt ) k!

k

e −λt d ( t ) dt z k

= ΦD ( λ ( 1 − z )) .

( 1− z )

(4.31)

Nach Einsetzen der Gl. (4.31) in Gl. (4.29) erhält man ΦD ( λ ( 1 − z )) =

( 1 − ρ) ⋅ ( 1 − z ) ⋅ ΦB ( λ ( 1 − z ) ) ΦB ( λ ( 1 − z )) − z

oder mit s = λ ( 1 − z ) ΦD ( s ) =

s ( 1 − ρ)

s − λ + λ ΦB ( s )

Aus Gl. (4.30) und (4.32) erhält Wartezeit im M/GI/1-System: ΦW (s) =

s (1 − ρ)

⋅ ΦB ( s ) .

(4.32)

man schlie ßlich die Laplace-Stieltjes-Transform ierte der

s − λ + λ ΦB ( s )

.

(Pollaczek-Khintchine-Formel für Wartezeitverteilungsfunktion)

(4.33)

In Abb. 4.6 wird die komplementäre Wartezeitverteilungsfunktion in einem M/GI/1-System gezeigt, wobei verschiedene Werte für die Systemauslastung ρ sowie unterschiedliche Typen von Be dienzeit-Verteilungsfunktionen betrachtet we rden. Für Be dienzeiten m it höheren Variationskoeffizienten cB hat die Wartezeit auch ei ne größere Varianz, die durc h flac h verlaufende Verteilungsfunktionen zu erkennen ist.

4.2.6

Weitere Systemcharakteristiken

Wartewahrscheinlichkeit

Mit der Laplace-Transformierten der Wartezeitverteilungsfunktion W (t)

ΦW (s) s

4.2 Das Wartesystem M/GI/1

165

und dem Grenzwertsatz der Laplace-Transformation (vgl. Gl. (1.86)) e rhält m an aus der Pollaczek-Khintchine-Formel (4.33) die Wahrsc heinlichkeit, dass ei ne Anforde rung nic ht warten muss: P ( W = 0 ) = lim W(t) = lim s ⋅

Komplementäre Wartezeit-VF

t →0

s →∞

Φ W (s) = 1−ρ . s

(4.34)

1 ρ = 0.7

2 1

cB

ρ = 0.2 2

0.1

0.5

0

1 0.5

cB

0

0.01

0.001 1

3

2

4

5

t/E[B]

Abb. 4.6: Komplementäre Wartezeitverteilungsfunktion im M/GI/1-Wartesystem

Für die Wartewahrscheinlichkeit ergibt sich pW = P ( W > 0 ) = 1 − P ( W = 0 ) = 1 − W (t)

t →0

= ρ.

(Wa

rtewahrscheinlichkeit)

(4.35)

Mittlere Wartezeiten

Es wird unterschieden zwischen –

der mittleren Wartezeit E [ W ] bzgl. aller Anforderungen und



der mittleren Wartezeit E [ W1 ] von wartenden Anforderungen, d h. von Anforderungen mit nicht-verschwindender Wartezeit.

166

4 Analyse nicht-Markovscher Systeme

Die mittlere Wartezeit bzgl. aller Anforderungen kann aus Gl. (4.33) ermittelt werden: E [ W ] = E [B] ⋅

(

ρ 1 + cB2 2 ( 1 − ρ)

)

λ E ⎡⎣ B 2 ⎤⎦ , = 2 ( 1 − ρ)

(4.36)

während die mittlere Wartezeit bzgl. wartender Anforderungen wie folgt lautet: E[W1 ] =

1 + cB2 E[W] . = E[B] ⋅ pW 2(1 − ρ)

(4.37)

Nach obiger F ormel hängt die mittlere W artezeit eines M /GI/1-Systems nur von der A nkunftsrate λ und von den ersten zwei Momenten der Bediendauer B ab.

E[W1] 14 E[B] 12 10 8

2 1.5

6

cB 1

4

0

2 0

0

0.2

0.4

0.6

0.8

1

Auslastung ρ Abb. 4.7: Mittlere Wartezeit wartender Anforderungen des M/GI/1-Systems

In Abb. 4.7 ist die mittlere Wartezeit als Fu nktion der Systemauslastung dargestellt. Der Kurvenscharparameter ist der Variations koeffizient cB der Bedienzeit. Mit steigenden Werten v on cB ist in diesem Diagram m ersichtlich, dass de r Mittelwert der Wartezeit größe r wird. Bei größeren Werten der Systemauslastung ρ kann ei ne relativ kleine Erhöhung von cB zu ei ner Vervielfachung der Wartezeit führen. Das M/GI/1-Wartesystem ist bei höherer Systemauslastung sehr sensitiv gegenüber Belastungsschwankungen. Dieser Sachverhalt erklärt die Dimensionierung von Wartesystemen in niedrigeren Lastbereichen (z.B. ρ < 0.7).

4.2 Das Wartesystem M/GI/1

167

Höhere Momente der Wartezeit

Höhere ge wöhnliche M omente der Wartezeit bz gl. aller Anforderunge n lassen sich prinzipiell aus der Pollaczek-Khintchine-Formel (4.33 ) (vgl. Takagi [4.6]) herleiten. Diese Mo mente könne n jedoc h einfac her m it Hilfe der Ta kács-Rekursionsformel erm ittelt werden (vgl. Kleinrock [4.5] bzw. Takács [4.8]): E[W k ] =

λ 1−ρ

⎛ k ⎞ E[Bi + 1 ] ∑ ⎜ i ⎟ i + 1 E[Wk −i ] , (Takác i =1 ⎝ ⎠ k

s-Rekursionsformel)

(4.38)

E[W 0 ] = 1 .

Speziell für die ersten beiden Momente erhält man E[W] =

λ E[B 2 ] , 2 ( 1 − ρ)

E[W 2 ] = 2 E[W]2 +

4.2.7

(4.39) λ E[B 3 ] . 3 (1 − ρ)

(4.40)

Zustandswahrscheinlichkeiten zu zufälligen Zeitpunkten

Die in de r Pollaczek-Khintchi ne-Formel angege benen Zustandswahrscheinlichkeiten {x ( i ) , i = 0, 1,…} (Gl. (4.29)) gelten zunäc hst nur an den Einbettungszeitpunkten des Z ustandsprozesses. Für das M/ GI/1-Wartesystem kann jedoch gezeigt we rden, dass diese Zustandswahrscheinlichkeiten auch zu jedem von einem unabhängi gen Beobachter zufällig ausgewählten Zeitpunkt t* gültig sind. Sind {x * ( i ) , i = 0, 1,…} die Zustandswahrschei nlichkeiten zum zufälligen B eobachtungszeitpunkt und {xA ( i ) , i = 0, 1,…} die Zustandswahrsc heinlichkeiten zu den Ankunftszeitpunkten, so gilt für das M/GI/1-Wartesystem x ( i ) = x * ( i ) = xA ( i ) ,

i = 0, 1,… .

(4.41)

Diese Eigenschaft soll im Folgenden nachgewiesen werden. Der Z ustandsprozess wird w ährend eines Intervalls der L änge T be obachtet. In A bb. 4.8 wird der Zustand [ X = i ] gesondert beobachtet, wobei folgende Übergänge markiert sind: – –

Übergang von i nach i + 1 (Ankunftsereignis). Die Anzahl der Ereignisse während T ist n A ( i, T ) . Übergang von i + 1 nach i (Abgangsereignis). Die Anzahl der Ereignisse während T ist n D ( i, T ) .

168

4 Analyse nicht-Markovscher Systeme X(t) i+1 i i-1 1

//

0

T

t

0

T

n (i, T) A

0

T

n (i, T) D

Abb. 4.8: Zustandswahrscheinlichkeit zum zufälligen Beobachtungszeitpunkt

Da diese zwei Arten von Ereignissen abwechselnd während der Zustandsprozessentwicklung auftreten, gilt für ein beliebig gewähltes Beobachtungsintervall T folgende Ungleichung n A ( i, T ) − n D ( i, T ) ≤ 1 .

(4.42)

Die Anzahl sämtlicher Ankunfts- bzw. Abgangsereignisse während T ergeben sich zu: ∞

n A (T) =

∑ n A (i, T) ,

n D (T) =

∑ n D (i, T) .

(4.43)

i=0



(4.44)

i=0

Sind X ( 0 ) und X ( T ) jeweils der Anfangs- und der Endzustand des Beobachtungsintervalls T , so liefert eine Bilanzierung von Ankunfts- und Abgangsereignissen nD ( T ) = X ( 0 ) + nA ( T ) − X ( T ) .

(4.45)

4.2 Das Wartesystem M/GI/1

169

Für die stationä ren Z ustandswahrscheinlichkeiten z u de n Ei nbettungszeitpunkten des M/GI/1-Systems gilt1: n D ( i, T )

x(i) = lim

n D (T)

T →∞

= lim

T →∞

n A ( i, T ) + n D (i, T) − n A (i, T) n A (T) + X(0) − X(T)

n A (i, T) n D (i, T) − n A (i, T) + n A (T) n A (T) = lim X(0) − X(T) T →∞ 1 + n A (T)

i = 0, 1,… .

(4.46)

Da lim

T →∞

n A ( i, T ) nA ( T )

= xA ( i ) ,

i = 0, 1,… ,

(4.47)

sowie aus Gl. (4.42) lim

T →∞

n D ( i, T ) − n A ( i, T ) nA ( T )

= 0

(4.48)

und wegen der Stationarität des Systems lim

T →∞

X (0) − X (T ) nA ( T )

= 0,

(4.49)

ergibt sich schließlich x ( i ) = xA ( i ) ,

i = 0, 1,… .

(4.50)

Da der Ankunftsprozess ein Poisson-Prozess is t, sind aufgrund der Gedächtnislosigkeit die Positionen der Ankunftszeitpunkte auf der Zeitachse rei n zufällig. Dies bedeutet, dass eine ankommende Anforderung zum Ankunftszeitpunkt den Zustandsprozess aus derselben Sicht wie von einem unabhängigen Beobachter observiert, d h. x * ( i ) = xA ( i ) ,

i = 0, 1,… .

(4.51)

Diese Feststellung beruht auf de r im vorherige n Ka pitel erläuterte n P ASTA-Eigenschaft (PASTA: Poisson Arrivals See Time Averages, vgl. Wolff [4.9]). M it Gl. (4.50) und (4.51) ist die Gültigkeit von Gl. (4.41) bewiesen.

1

Die Herleitung dieses Sachverhaltes beruht auf (s. Fisz [4.3]).

dem starken Gesetz der großen Zahl en für M arkov-Ketten

170

4 Analyse nicht-Markovscher Systeme

4.3

Das Wartesystem GI/M/1

4.3.1

Modell und Zustandsprozess

In Abb. 4.9 wird die St ruktur des GI/M/1-Wartesystems gezeigt. De r Ankunftsprozess ist ein Erneuerungsprozess. Die Zufallsvariable A für die Zwischenankunftszeit kann beliebig verteilt sein. Die Bedienzeit ist negativ-exponentiell vertei lt, d h. sie hat die Markov-Eigenschaft: B ( t ) = P ( B ≤ t ) = 1 − e −μt ,

GI

E [B] =



A

unbegrenzter allgemein Warteraum verteilte Zwischenankunftszeit

1 . μ

(4.52)

B M μ negativ-exponentiell verteilte Bedienzeit

Abb. 4.9: GI/ M/1-Wartesystem

Die Auslastung des Systems bzw. das Angebot wird definiert durch: ρ =

E [B]

E [A ]

=

1 . μ E [A ]

(Auslastung)

(4.53)

Wir bezeichnen den Systemzustand, d h. die Anzahl von Anforderungen im System, mit der Zufallsvariablen X . Abbildung 4.10 zeigt einen Verl auf des GI/M/1-Zustandsprozesses, wobei der zeitabhängige Systemzustand X ( t ) illustriert wird.

4.3 Das Wartesystem GI/M/1

4.3.2

171

Übergangsverhalten n

n+1

X(t)

Ankünfte

2 1

P

P t n-1 tn

P

Übergangsmatrix

t

t n+1

Einbettungszeitpunkte

Abb. 4.10: Zustandsprozess des GI/M/1-Wartesystems

Die einzige M odellkomponente im GI/M /1-System, die die M arkov-Eigenschaft nicht besitzt, ist die Zwische nankunftszeit. Dies be deutet, dass genau z u den Ankunftszeitpunkten der Z ustandsprozess gedä chtnislos wird. Diese bilden infol gedessen di e Einbettungs zeitpunkte des Zustandsprozesses. Die zukünftige Prozessentwicklung hängt lediglich vom Systemzustand zu den Einbettungszeitpunkten ab (s. Abb. 4.10). Definiert man mit X ( t n ) den Zustand unm ittelbar vor de m Ankunftszeitpunkt t n der n-te n An forderung, so bild et {X ( t 0 ) , X ( t1 ) ,… , X ( t n ) , X ( t n +1 ) ,…} eine eingebett ete Markov-Kette. Der Begri ff Kette bezieht sich auf die zustandsdiskrete Eigenschaft des Zustandsprozesses. Für die nachfolgende Analyse ist es zweckm äßig, die Z V Γ für die Anzahl de r A nforderungen einzuführen, die während eines Zwischenankunftsintervalls A bedient werden können. Dabei wird von de r Vorstellung ausgegangen, dass sich die Bedieneinheit in einer Betriebsperiode befindet, d.h. sie hat stets Anforderungen zu bearbeiten. Es gilt entsprechend

172

4 Analyse nicht-Markovscher Systeme γ (i) = P (Γ = i )

(4.54)

mit der erzeugenden Funktion Γ EF ( z ) =

wobei



∑ γ ( i ) zi ,

dΓEF ( z )

E [Γ] =

(4.55)

i =0

dz

= μ ⋅ E [A ] = z =1

1 . ρ

(4.56)

Die Zustands wahrscheinlichkeiten zu de n Einbe ttungszeitpunkten solle n im Folgende n bestimmt werden. Daz u bet rachtet man die Überga ngswahrscheinlichkeit zwische n z wei aufeinander folgenden Einbettungszeitpunkten:

(

)

pi j = P X ( t n + 1 ) = j X ( t n ) = i .

(4.57)

Da während der Zeitspanne ( t n , t n + 1 ) keine A nkunftsereignisse, sondern nur Bedienereignisse stattfinden können, ist der P rozess während dieser Zeitspanne ein reiner Sterbeprozess. Folgende Übergänge werden unterschieden: •

j≠0 Das System ist nicht leer zum Zei tpunkt t n + 1 . Unmittelbar vor dem Ankunftszeitpunkt der n-ten Anforderung sind i Anforderungen im System; unmittelbar nach diesem Zeitpunkt sind i + 1 Anforderungen im Syste m. Da mit unm ittelbar vor der Ankunft der ( n + 1 ) -ten A nforderung noc h j Anforderungen i m Sys tem verbleiben, müssen ( i + 1 − j ) Anforderunge n wä hrend de r betrachtet en Zwische nankunftszeit be dient werden, d.h. pi j = γ ( i + 1 − j ) , i = 0, 1,… , j = 1,… , i + 1 .



(4.58)

j=0 Das System ist leer zum Zeitpunkt t n + 1 . Da unmittelbar nach der Ankunft der n-ten Anforderung i + 1 An forderungen im Sy stem sind, ist pi0 die Wahrscheinlichkeit dafür, dass während ( t n , t n + 1 ) mindestens ( i + 1 ) Anforderungen während eines Zwischenankunftsintervalls bedient werden können, d h.

pi0 =



∑ γ (k )

k =i + 1

i

= 1 − ∑ γ ( k ), i = 0, 1,… . k =0

(4.59)

4.3 Das Wartesystem GI/M/1

173

Die Zustandsübergangsmatrix lautet schließlich

P =

4.3.3

{pi j }

γ(0) 0 0 ⎛ 1 − γ(0) ⎜ 1 ⎜1− γ(k) γ(1) γ(0) 0 ⎜ k∑ =0 ⎜ 2 = ⎜ ⎜ 1 − ∑ γ(k) γ(2) γ(1) γ(0) k =0 ⎜ ⎜ ⎜ ⎝

⎞ ⎟ ⎟ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎟ ⎠

(4.60)

Zustandsgleichungen

Mit der Defi nition der Zustandswahrscheinlichkeit x ( j, n ) de s S ystems zu m Einbettungszeitpunkt t n x ( j, n ) = P ( X ( t n ) = j )

(4.61)

und des Zustandswahrscheinlichkeitsvektors X n , Xn =

{x ( 0, n ) , x ( 1, n ) ,… , x ( j, n ) ,…} ,

(4.62)

erhält man die allgemeine Zustandsübergangsgleichung X n ⋅ P = X n + 1 . (instationä

re Zustandsgleichung)

(4.63)

Gleichung (4.63) gilt sow ohl für den stationäre n als auc h für den inst ationären Syste mzustand. Ist ein Startve ktor X 0 bekannt, s o ka nn de r anforde rungsabhängige Zustands wahrscheinlichkeitsvektor X n su kzessiv er mittelt werd en. Somit sind Ein - und Ausschwingvorgänge analysierbar. Befindet sich das System im stationären Zustand ( ρ < 1 ) , d.h. X n = X n +1 = … = X =

{x ( 0 ) , x ( 1) ,…, x ( j ) ,…} ,

liefert Gl. (4.63) die Beziehung X ⋅ P = X . (stationä

re Zustandsgleichung) (4.64)

Der Zustands wahrscheinlichkeitsvektor ist dem gemäß der Li nks-Eigenvektor der Übergangsmatrix P zum Eigenwert 1, wie wir bei der Behandlung der Methode der eingebetteten Markov-Kette erörtert haben.

174

4.3.4

4 Analyse nicht-Markovscher Systeme

Zustandsanalyse mit geometrischem Ansatz

Gleichung (4.64) lautet in Komponentenschreibweise: x (0) = x ( j) =



∑ x (i )

i =0

i ⎛ ⎞ ⎜ 1 − ∑ γ (k ) ⎟ = ⎝ k =0 ⎠



∑ x (i ) γ ( i + 1 − j)

=

i = j−1





i =0

k=i+1

∑ x (i ) ∑ γ (k ) ,



∑ x ( i + j − 1) γ ( i ),

(4.65)

j = 1, 2,… .

(4.66)

i =0

Für die Bestim mung de r Z ustandswahrscheinlichkeiten der einge betteten M arkov-Kette benutzen wir den sog. geometrischen Ansatz (s. G ross & Harris [4.4], Seite 306, und Kleinrock [4.5], Seite 246ff.). Mit der geometrischen Annahme x ( j + 1) = σ ⋅ x ( j ) ,

j = 0, 1,…

oder x ( j + 1 ) = σ j+ 1 ⋅ x ( 0 ) (ge

ometrischer Ansatz)

(4.67)

erhalten wir aus Gl. (4.66) für j ≥ 1 x ( j ) − ⎡⎣ x ( j − 1 ) γ ( 0 ) + x ( j ) γ ( 1 ) + x ( j + 1 ) γ ( 2 ) + …⎤⎦ = 0 σx ( j − 1 ) − x ( j − 1 ) γ ( 0 ) − σx ( j − 1 ) γ ( 1 ) − σ2 x ( j + 1 ) γ ( 2 ) − … = 0

(

)

x ( j − 1 ) ⎡σ − γ ( 0 ) + σγ ( 1 ) + σ2 γ ( 2 ) + … ⎤ = 0 ⎣ ⎦ ∞ ⎡ ⎤ x ( j − 1 ) ⎢ σ − ∑ γ ( i ) σi ⎥ = 0 . i =0 ⎣ ⎦

(4.68)

Eine nicht-triviale Lösung der Gl. (4.68) ist identisch mit einer nicht-trivialen Lösung z = σ der Gleichung z = Γ EF ( z ) .

(4.69)

Da die triviale Lösung 1 = Γ EF ( 1 ) ausgeschlossen wird und Γ EF ( z ) den Konvergenzbereich z ≤ 1 besitzt, suchen wir die Lösung σ für Gl. (4.69) im Intervall ]0, 1[ . Zunächst gilt für reellwertige z ( z ≥ 0 ) d Γ EF ( z ) = dz



∑ i γ ( i ) zi −1

i =1

≥ 0,

(4.70)

4.3 Das Wartesystem GI/M/1 d2 dz

2

ΓEF ( z ) =

175



∑ i ( i − 1 ) γ ( i ) zi − 2

≥ 0,

(4.71)

i =2

1

σ

a)

1

z

y

y

y=

y= Γ EF (z ) y= z

d h. die F unktion Γ EF ( z ) ist im reellwertigen Intervall ]0, 1[ konkav und m onoton ansteigend.

1

y=

z

d ΓEF (z) >1 dz z =1

1

b)

) (z F ΓE

z

d ≤1 ΓEF (z) dz z =1

Abb. 4.11: Analyse mit dem geometrischen Ansatz

Wie in Abb. 4.11 illustriert , kann σ anhand des Schnittpunktes der beiden Funktionen y = z und Γ EF ( z ) ermittelt werden. Während es für den Fall b) keine nichttriviale Lösung gibt, existiert genau eine Lösung σ für den Fall a) (s. Abb. 4.11), wenn d 1 Γ EF ( z ) = E [Γ] = > 1 ρ dz z →1

oder

ρ < 1.

(4.72)

Die Bedingung in Gl. (4.72) zeigt an, dass eine Lösung existiert, wenn das System stabil und infolgedessen ein statistisches Gleichgewicht des Zustandsprozesses erreichbar ist. Die Zustandswahrscheinlichkeiten lassen sich schließlich aus Gl. (4 .67) und de r Normierungsbedingung berechnen: x ( j) = σ j x (0 ) . ∞

∑ x ( j) j=0

= 1,

176

4 Analyse nicht-Markovscher Systeme

d.h. x ( j) =

( 1 − σ ) σ j,

j ≥ 0, ρ < 1 . (Zustandswahrscheinlichkeit)

(4.73)

Dabei wird σ in der Regel gemäß Gl. (4.69) numerisch ermittelt.

4.3.5

Wartezeitverteilungsfunktion

Die W artezeitverteilungsfunktion des GI/M/1-Wa rtesystems wird analog zur Wa rtezeitanalyse des M /M/n-Wartesystems hergeleitet (vgl . Kap. 3.2.4). Wir betrachten zunächst die bedingte Wahrscheinlichkeit, dass eine eintreffe nde Anforderung ei ne positive Wartezeit erfährt: P ( W > t, W > 0 )

P (W > t W > 0) =

P (W > 0)

=

P (W > t)

P (W > 0)

,

(4.74)

wobei P (W > 0) =



∑ x (i)

i =1

= 1 − x (0) = σ .

(4.75)

Der Warteprozess einer belie big ausge wählten Testanforderung wird analysiert. Die Testanforderung findet zu m Ankunftszeitpunkt X Anforderungen im System vor. Eine positive Wartezeit existiert nur für X > 0 , d.h. P (W > t) = =



∑ P (W > t X = i) ⋅P (X = i)

i =1 ∞

∑ P ( W > t X = i ) ⋅ ( 1 − σ ) σi .

(4.76)

i =1

Aus den Gl. (4.75) und (4.76) erhält man P (W > t W > 0) =



∑ P ( W > t X = i ) ⋅ (1 − σ) σi −1 .

(4.77)

i =1

Setzt man die Warteschlangendiszi plin FIFO (first -in, first-out) voraus, lässt sich die bedingte W ahrscheinlichkeit P ( W > t X = i ) erm itteln. Die Testanforderung trifft zum Ankunftszeitpunkt X = i Anforderungen im Syste m an. Es sind i − 1 A nforderungen in de r Warteschlange, die noch vor der Testanforderung zu bearbeiten sind. Die Wartezeit der Testanforderung besteht aus zwei Anteilen:

4.3 Das Wartesystem GI/M/1

177

• der Zeitspanne vom Ankunftszeitpunkt der Testanforderung bis zur ersten Endigung einer Bedienung. Di ese Zeitspanne entspricht der Vorwärts-Rekurrenzzeit der Bedienzeit B , die aufgrund der Markov-Eigenschaft dieselbe Verteilungsfunktion wie B hat, und • der Zeitspanne von der ersten Endigung bi s alle i − 1 Anforderungen in den Bedienprozess übernommen worden sind. Diese Zeitspanne enthält i − 1 Bediendauern B .

Insgesamt setzt sich infolgedessen die Wartezeit der Testanforderung aus i Bediendauern B zusammen. Die be dingte Wartezeitverteilungsfunktion ist deshalb ei ne Erlang-Verteilungsfunktion der Ordnung i : P ( W > t X = i ) = e −μt

i −1



( μt )k

k =0

k!

oder aus Gl. (4.77) P ( W > t W > 0 ) = e −μt = e

−μt



∑ ∑

( μt ) k k!

i =1 k =0 ∞



k =0

= e −μt

i −1





k =0

( μt )k



∑ ( 1 − σ ) σi − 1

k!

( σμt )

( 1 − σ ) σi − 1

i =k + 1 k

k!

− 1 −σ μt = e ( ) ,

(4.78)

d h. P (W > t) = P (W > t W > 0) ⋅ P (W > 0) = σ ⋅ e −( 1−σ)μt = 1 − W ( t ) .

Schließlich erhält man die Wartezeitvert eilungsfunktion W ( t ) von Anforderungen im GI/M/1-Wartesystem: − 1−σ μt W (t) = 1 − σ ⋅ e ( ) .

(4.79)

178

4 Analyse nicht-Markovscher Systeme

4.4

Ein Gruppenbediensystem mit Startschwelle

In diesem Abschnitt wird ein Verkehrsmodell zur Leistungsbewertung eines Fertigungssystems vorgestellt. Es handelt sich hierbei um die Untersuchung einer Produkti onsmaschine, die m ehrere Aufträge bzw. R ohteile gleichzeitig bearbeiten kann. Die M odellierung erfolgt m it Hilfe einer Gruppenbedieneinheit. Die D urchlaufzeit und die A uslastung de r Maschine sollen durch die Dimensionierung einer Startschwelle optimiert werden (vgl. Gold & Tran-Gia [4.7]). Die Analyse basiert auf der Methode der eingebetteten Markov-Kette.

4.4.1

Modell und Zustandsprozess

In Abb. 4.12 wird die M odellstruktur gezeigt. Die P roduktionsmaschine, die durch eine Gruppenbedieneinheit m odelliert wird, hat K Bedienplätze, die in einem Bedienvorga ng nicht alle belegt sein m üssen. Die Bedienzeit B ist allgem ein verteilt mit der Verteilungsfunktion B ( t ) und unabhängig von der G röße der Gruppe, die wä hrend ei nes Bedie nvorgangs bedient wird. Sämtliche Anforderungen in einer Gruppe , die gleichzeitig in die Bedieneinheit übernommen werde n, erfahre n exakt dieselbe Bedienda uer. Während eine r Bediendauer ist kein Nachladen möglich. Die hier beschriebenen Bedieneinheiten kommen z.B. in der Halbleiterfertigung häufig vor. Aktivierung

M

A, λ

Poisson Ankunftsprozess

S

Θ

1

2

K

B

Blockierung

Gruppenbedienprozess allgemein verteilte Bedienzeit

Abb. 4.12: Gruppenbedieneinheit mit Startschwelle (M/GI [ Θ, K ] /1-S)

Rohteile bzw. Anforderungen, die von der Maschine bearbeitet werden, treffen gemäß eines Poisson-Prozesses ein, d.h. für die Zwischenankunftszeit gilt A ( t ) = P ( A ≤ t ) = 1 − e −λt ,

E [A ] =

1 . λ

4.4 Ein Gruppenbediensystem mit Startschwelle

179

Der Warteraum für Rohteile hat eine Kapazität von S Warteplätzen. Anforderungen, die den Warteraum voll belegt vorfinden, werden abgewiesen. Die Masc hine wird m it Hilfe eines Tri ggerungsmechanismus durch eine Startsc hwelle Θ wie folgt ge steuert: Am Ende eines Bedienvorga ngs wird die Maschine sofort beladen und gestartet, wenn mindestens Θ Anforderungen auf Bearbeitung warten. Sind weniger als Θ Anforderungen in der Warteschlange, wartet die Maschine, bis die Startschwelle Θ erreicht wird, bevor der nächste Bedienvorgang gestartet wird. Ankünfte

Bedienprozess

t Zustandsprozess X(t)

K K

Θ Θ

2 1

t1

t2

t3

t4

t Einbettungszeitpunkte

U (Fall 1)

U (Fall 3)

U (Fall 2)

Abb. 4.13: Zustandsprozess des M/GI [ Θ, K ] /1-S-Systems

Für das System wird die Kurznotation M/ GI [ Θ, K ] /1-S verwendet. Wir bezeichnen mit der Zufallsvariablen X ( t ) die Anza hl von Anforderungen in der Warteschlange zum Zeitpunkt t . Die ZV X ( t ) wird auch Systemzustand genannt. Abbildung 4.13 zeigt einen Verlauf des Zustandsprozesses, wobei der zeitabhängige Systemzustand X ( t ) illustriert wird.

180

4 Analyse nicht-Markovscher Systeme

4.4.2

Markov-Kette und Übergangsverhalten

Die einzige Modellkomponente, die die Markov-Eigenschaft nicht besitzt, ist die Bedienzeit. Dies bedeutet, dass zu den Enden der Bedienzeiten der Zustandsprozess gedächtnislos wird. Diese bilden infolgedessen die Einbettungszeitpunkte des Zustandsprozesses. Die zukünftige Prozessentwicklung hä ngt le diglich vom System zustand zu den Einbett ungszeitpunkten ab (s. Abb. 4.13). Für die nachfolgende Anal yse wird die Verteilung γ ( k ) , k = 0, 1,… , der Anzahl Γ vo n Anforderungen, die während einer Bediendauer B eintreffen, benötigt. Bezeichnet m an m it X ( t n ) den Sy stemzustand unmittelbar vor dem n-ten B edien-EndeZeitpunkt t n , so bildet {X ( t 0 ) , X ( t 1 ) ,… , X ( t n ) , X ( t n + 1 ) ,…} eine einge bettete M arkovKette. Die Z ustandswahrscheinlichkeiten a n den Einbettungszeitpunkten sollen im Folgenden bestimmt werden. Daz u betrachtet m an die Ü bergangswahrscheinlichkeiten z wischen zwei aufeinanderfolgenden Einbettungszeitpunkten:

(

)

pi j = P X ( t n + 1 ) = j X ( t n ) = i .

(4.80)

Die Dauer des Intervalls U zwischen den sukzessiven Einbettungszeitpunkten t n und t n + 1 und die Übergangswahrscheinlichkeit pi j könne n vom Zustand ⎣⎡ X ( t n ) = i ⎦⎤ abgelei tet werden: •

i < Θ (Fall 1, Zeitpunkt t 1 in Abb. 4.13) Da die Minde stanzahl Θ der Anforderungen für eine n Bedienvorgang noch ni cht vo rhanden ist, m uss auf weitere Θ − i Anforderungen gewartet werden, bis ein B edienvorgang gestartet werden kann. Diese Zeitspanne wird mit EΘ−i bezeichnet und ist durch eine E rlang-Verteilung der ( Θ − i ) -ten Ordnung gegebe n. Sind insgesam t Θ An forderungen in der Warteschlange, wird di e Bedieneinhe it aktiviert (Zeitpunkt t 2 in Abb. 4.13). Während dieser Bediendauer (Zeitspanne von t 2 bis t 3 ) treffen j Anforderungen ei n. Die Tra nsitionszeit U setzt sich aus U = EΘ−i + B zusammen, und die Übergangswahrscheinlichkeit lautet: pi j = γ ( j ) , pi S =



j = 0,… , S − 1 ,

∑ γ (k ) ,

k =S

j=S.

(4.81) (4.82)

4.4 Ein Gruppenbediensystem mit Startschwelle

181



Θ ≤ i ≤ K (Fall 2, Zeitpunkt t 4 in Abb. 4.13) Die Mindestanzahl Θ ist vorhanden. Unmittelbar nach dem Bedien-Ende wird die Warteschlange entleert. Eine neue Bedienda uer beginnt, während der j Anforderungen eintreffen. Die Transitionszeit U ist identisch m it der Bediendauer, d h. U = B , und die Übergangswahrscheinlichkeit ist identisch mit der im Fall 1.



K < i ≤ S (Fall 3, Zeitpunkt t 3 in Abb. 4.13) Unmittelbar nach dem Bedien-Ende werden K Anforderungen aus der Warteschlange in die Bedienei nheit übe rnommen. Die Bedieneinheit wi rd ansc hließend erneut gestartet. Die Transitionszeit U ist identisch m it der Bediendaue r, d.h. U = B . Nach dem Beginn der Bedienzeit sind noc h i − K Anforderungen in der Warteschlange. Damit zum nächsten Einbettungszeitpunkt j Anforderungen in der Warteschlange vorhanden sind, müssen während der Bediendauer j − i + K Anforderungen eintreffen. Die Übergangswahrscheinlichkeit lautet:

pi j = γ ( j − i + K ) ,

pi S =





k = S −i + K

γ ( k ),

j = 0, … , S − 1 ,

(4.83)

j=S.

(4.84)

Die Zustandsübergangsmatrix lautet schließlich 0

⎛ γ (0) ⎜ ⎜ γ (0) ⎜ ⎜ ⎜ ⎜ ⎜ γ (0) P = ⎜ ⎜ 0 ⎜ ⎜ 0 ⎜ ⎜ ⎜ ⎜ 0 ⎝

1

2

S−1

γ ( 1) γ ( 2 )

γ ( S − 1)

γ ( 1) γ ( 2 )

γ ( S − 1)

γ ( 1) γ ( 2 ) … γ ( S − 1) γ ( 0 ) γ ( 1) … γ ( S − 2 ) 0

0

γ ( 0) … γ ( S − 3)

0

… γ ( K − 1)

S

⎞ 0 ⎟ ( k ) ⎟⎟ 1 ⎟ ⎟ ⎟ ∞ ∑ k =S γ ( k ) ⎟ K ⎟ ∞ ∑ k =S −1 γ ( k ) ⎟ K+1 ⎟ ∞ ∑ k =S −2 γ ( k ) ⎟ K+2 ⎟ ⎟ ⎟ ∞ ∑ k =K γ ( k ) ⎟⎠ S

∑ ∑

∞ γ k =S ∞ γ k =S

(k )

(4.85)

182

4 Analyse nicht-Markovscher Systeme

4.4.3

Zustandswahrscheinlichkeiten und Systemcharakteristiken

Mit der De finition der Z ustandswahrscheinlichkeit des S ystems zu m Einbettungszeitpunkt tn x ( j, n ) = P ( X ( t n ) = j )

(4.86)

und des Zustandswahrscheinlichkeitsvektors X n Xn =

{x ( 0, n ) , x ( 1, n ) ,… .x ( S, n )} ,

(4.87)

erhält man die allgemeine Zustandsgleichung X n ⋅ P = X n + 1 . (allgem

eine Zustandsgleichung)

(4.88)

Die allgemeine Zustandsübergangsgleichung (4.88) gilt sowohl für den stationä ren als auch für den instationären Systemzustand. Ist ein Startve ktor X 0 bekannt, so kann der Zustandswahrscheinlichkeitsvektor X n sukzessiv ermittelt werden. Befindet sich das System im stationären Zustand, d.h. X n = X n +1 = … = X =

{x ( 0 ) , x ( 1) ,…, x ( S )} ,

so liefert Gl. (4.88): X ⋅ P = X . (stationäre

Zustandsgleichung) (4.89)

Der Z ustandswahrscheinlichkeitsvektor ist damit der Links -Eigenvektor der Übergangsmatrix P zum Eigenwert 1. Leistungsgrößen

Aus dem Wahrscheinlichkeitsvektor der eingebetteten Markov-Kette kann der Vektor X* =

{x

*

( 0 ) , x* ( 1) ,… , x* ( S )}

der Zustandswahrscheinlichkeiten zu beliebigen Beobachtungszeitpunkten berechnet werden. Die Herleitung findet sich in Gold & Tran-Gia [4.7]. Aus dem Vektor X * können System charakteristiken gewonnen werden. Die Blockierungswahrscheinlichkeit erhält man als pB = x * ( S ) .

Die mittlere Wartezeit einer Anforderung lautet

(4.90)

4.4 Ein Gruppenbediensystem mit Startschwelle E[X * ] λ ( 1 − pB )

Mittlere Wartezeit E[W]

E [W] =

4

mit E[X* ] =

183

S

∑ k ⋅ x* ( k ) .

(4.91)

k =0

Θ = 16

3

Θ=4

2

cB = 1

1

0

cB = 0

0

0.4

0.8

1.2

Verkehrsintensität ρ Abb. 4.14: Einfluss der Startschwelle auf die mittlere Wartezeit Numerische Ergebnisse

Für die im Folgenden präsentierten numerischen Ergebnisse betrachten wir ein System vom Typ M/GI [ Θ, K ] /1-S mit K = 32 Bedienplätzen und S = 64 Warteplätzen. In Abb. 4.14 ist die mittlere Wartezeit als Funktion des Angebots ρ = λE [ B ] / K aufgetragen. Die K urvenscharparameter sind die Startschwelle Θ und der Variationskoeffizient cB der Bedienzeit, wobei deterministische ( cB = 0 ) und negativ-exponentiell verteilte Bediendauern ( cB = 1 ) gewählt werden. Bei niedriger Verkehrsintensität ρ ist die Wartezeit lang, da das System auf Θ Anforderungen warten m uss, bevor ei ne Be dienung gestartet werde n ka nn. Die Ausprägung dieses Effekts hängt allerdings von de r Wahl der Startschwelle Θ ab. Bei höherem Verkehrsangebot hängt die mittlere Wartezeit mehr vom Typ der Be diendauer ab. Bedienzeiten mit größerem Variationskoeffizienten cB korrespondieren mit längerer Wartezeit.

184

4 Analyse nicht-Markovscher Systeme

Mittlere Wartezeit E[W]

Die Wahl der Startschwelle Θ wird m it dem numerischen Beispiel in Abb. 4.15 illustriert , wobei die m ittlere Wartezeit als Funktion von Θ aufgetragen wird. Obwohl eine optim ale Wahl der Start schwelle hinsichtlich der m ittleren Wartezeit existiert, ist das jeweilige Minimum sehr parametersensitiv. Eine genaue Berechnung der optimalen Startschwelle muss für jedes System individuell durchgeführt werden.

2.5 ρ = 0.4 2.0 ρ = 0.8 1.5

1.0

0.5

cB = 2

ρ = 0.8

ρ = 0.4

5

cB = 1

10

20

30

Schwellenwert Θ Abb. 4.15: Dimensionierung der Startschwelle Θ

Literatur zu Kapitel 4

185

Literatur zu Kapitel 4 Bücher: [4.1] Bolch, G., Leistungsbewertung von Rechensystem en mittels analytischer Warteschlangenmodelle, Teubner, Stuttgart 1989

[4.2]

Cooper, R. B., Introduction to Queueing Theory , 2. A uflage, North-Holland, New York 1981

[4.3] Fisz, M., Wahrscheinlichkeitsrechnung un d mathematische Statistik , 10. Aufla ge, VEB Deutscher Verlag der Wissenschaften, Berlin 1980 [4.4]

Gross, D., Harris, C. M., Fundamentals of Que ueing Theory , 2. Auflage, Wiley, New York 1985

[4.5] Kleinroc

k, L., Queueing Systems, Band 1: Theory, Wiley, New York 1975

[4.6] Taka gi, H., Queueing Analysis: A Foundation of Performance Evaluation, Band 1, North-Holland, Amsterdam 1991 Aufsätze: [4.7] Gold, H., Tran-Gia, P., Performance analysis of a batch service queue arising out of manufacturing system modelling, Queueing Systems 14:413-426 (1993)

[4.8] Takács, L., A single server queue with P oisson i nput, Operat. Res . 10:388-397 (1962) [4.8] Wol

ff, R., Poisson arrivals see time averages, Operat. Res. 30:223-231 (1982)

186

4 Analyse nicht-Markovscher Systeme

Übungsaufgaben zu Kapitel 4 Aufgabe 4.1: Betrachtet werde eine Fertigungszelle m it unendlichem Warteraum. Die Ankunftsabstände der zu bearbeitenden Rohteile seien negativ-exponentiell mit Parameter λ verteilt. Die Ma schine kann jeweils nur ein Teil bearbeiten und benötigt dazu eine negativ-exponentiell verteilte Zeit B mi t P arameter μ . Mit der Wahrscheinlichkeit p ist das Teil nicht ordnungsgemäß bearbeitet und m uss sofort nochmals die gleiche Bearbeitung durchlaufen. Nach dieser zweiten Bearbeitung verlässt das Teil auf jeden Fall die Fertigungszelle.

1. Um welches Modell handelt es sich? 2. Wie lautet die Laplace-T ransformierte Φ H ( s ) der Gesamtbearbeitungszeit H ? Daraus sollen die mittlere Gesamtbearbeitungszeit E [ H ] und der Varia tionskoeffizient der Gesamtbearbeitungszeit cH ermittelt werden. 3. Gegeben sei nun λ = 1/3 sec −1 un d μ = 1 sec−1 . Berechnet werden sollen die mittlere Wartezeit E [ W1 ] und die m ittlere Durchlaufzeit E [ D ] eines Rohteils durc h die Fertigungszelle in Abhängigkeit von p . 4. Wie lauten die zwei Verkehrsmodelle für die beiden Grenzfälle p = 0 und p = 1 ? Aufgabe 4.2: Betrachtet werde eine Datenübertragungsstrecke, bei der die Fehlerbehandlung mit dem „goback-n“-Prinzip arbeitet. Der Sender startet nach dem Absenden eine s jeden Datenpaketes eine Zeitübe rwachung i n F orm eines Tim ers. Der Em pfänger beantwortet korre kt übertragene Datenpakete mit einer positiven Quittung (ACK). Falls der Tim er für Pa ket i die Zeit Tout für de n Erhalt der e ntsprechenden Quittung überschreitet, werden alle Datenpakete a b Paket i erne ut übertragen. Die Paketfehlerwahrscheinlichkeit pP werde als konsta nt angenommen. Mit TV wird die Zufallsvariable für die virtuelle Übertragungszeit bezeichnet TV = TN + X ( TN + Tout ) ,

wobei TN die Zufallsvariable für die Übertr agungsdauer eines Pakets ist und X die ZV der Anzahl erneuter Übertragungen bezeichnet. 1. Man berechne die erzeugende Funktion X EF ( z ) der ZV X . 2. Wie lauten die Laplace-Transformierten Φ Tout ( s ) und Φ TV ( s ) sowie der Mittelwert und die Varianz der virtuellen Übertragungszeit TV ? Das Gesamtsystem wird nun als M/GI/1-Wartesystem mit ρ = λ ⋅ E [ TV ] betrachtet. 3. Die mittlere Wartezeit E [ W1 ] wartender Anforderungen und die mittlere Durchlaufzeit E [ D ] sollen in Abhängigkeit von pP angegeben werden.

Übungsaufgaben zu Kapitel 4

187

Aufgabe 4.3: An einem Pufferspeicher mit der endliche n Kapazität von S Warteplätzen treffen Anforderungen gemäß einem Poisson-Prozess mit der Ankunftsrate λ ein. Anforderungen, die den Pufferspeicher bei A nkunft vollbelegt antreffen, werden abgewiesen und v erlassen das System.

Die zwischengespeicherten Anforderungen werden in konstanten Zeitabständen τ zu einer weiterführenden Verarbeitungseinheit transportiert. Die Transferzeit soll vernachlässigt werden. 1. Wie lautet die Verteilung x ( k ) = P ( X = k ) , k = 0, 1,… , für die Anzahl X von ei ntreffenden A nforderungen während eine r Z wischentransferzeit τ ? Um welc he Vertei lung handelt es sich? 2. Mit welcher Wahrscheinlichkeit P0 we rden keine Anforderungen zum Taktzeitpunkt PS werde n ge nau S Anforderungen transferiert? Mit welcher Wahrscheinlichkeit zum Taktzeitpunkt tra nsferiert? Mit welcher Wahrscheinlichkeit Q 0 wird keine Anforderung wä hrend eine r Ta ktperiode ab gewiesen? Wie groß ist die Wahrscheinlichkeit Q ≥1 , dass m indestens eine Anforderung während einer Ta ktperiode abgewiesen we rden muss? 3. Wie lautet die Verteilung der Anzahl Y von Anforderungen, die zu einem Taktzeitpunkt transferiert werden? 4. Zu berechnen ist die Wahrscheinlichkeit pB des Abweisens einer bestimmten Anforderung. 5. Der bisher betrachtete Anforderungsstrom am Pufferspeicher (mit der Rate λ ) werde nun von einem zweiten Ankunftsstrom mit paketierten Sprachproben überlagert. Dieser zweite Strom liefert periodisch 2 Anforderungen pro Transferperiode. Wie lautet nun die Verteilung de r Ge samtanzahl X ges von eintreffe nden Anforderungen wä hrend ei ner Tra nsferperiode τ ? Wie verändert sich die Verteilung von Y ? Aufgabe 4.4: An einer Bedienstation mit unendlichem Warteraum treffen Anforderungen in exponentiell verteilten Abst änden A ein. D er m ittlere Zw ischenankunftsabstand ist λ −1 . Die Übe rtragungszeit B folgt einer verallgemeinerten exponentiellen Verteilungsfunktion, die wie folgt definiert ist: ⎛ 1 − e −μt B (t) = ⎜ ⎜0 ⎝

mit Wahrscheinlichkeit p, mit Wahrscheinlichkeit 1 − p

(4.92)

wobei 0 < p < 1 ist. 1. Wie lautet die Verteilungsfunktion B ( t ) ohne Fallunterscheidung? 2. Die Phase ndarstellung der verallgem einerten expone ntiellen Verteilungsfunktion sol l skizziert werden. Welche kontinuierliche Verteilungsfunktion hat eine ähnliche Phasendarstellung?

188

4 Analyse nicht-Markovscher Systeme

3. Mit welchem bekannten ele mentaren Warteschlangensystem lässt sich dieses Bediensystem modellieren? 4. Man berechne den Mittelwert E [ W ] und die Varianz VAR [ W ] der Wartezeit mit dem in der vorhergehenden Teilaufgabe ausgewählten elementaren Warteschlangensystem. 5. Wie lautet der Mittelwert E [ X ] der Anzahl von Anforderungen im System? Aufgabe 4.5: Man be rechne die Form el für die m ittlere Wartezeit w 1 bez üglich aller Anforderungen i n einem M/GI/1-System direkt mit Hilfe der aus der Polla czek-Khintchine-Formel für die Zustandswahrscheinlichkeiten abgeleiteten mittleren Warteschlangenlänge E[N q ] .

Hinweis: Ein neuer Kunde muss für jeden Kunden, der vor ihm in der Warteschlange steht, eine Bedienzeit warten. Zudem muss er noc h die Restbe dienzeit des K unden abwarten, der sich bei seiner Ankunft gerade in der Bedieneinheit befindet. Es ist zu beachten, dass die Restbedienzeit eine Rekurrenzzeit darstellt.

5

Analyse zeitdiskreter Systeme

In diesem Kapitel werde n Analyseverfahren für zeitdiskrete Verkehrsmodelle behandelt. Es handelt sich um Modelle, bei denen die Zeitkomponente in äquidistanten Abständen diskretisiert wird. Die Betrachtung zeitdiskreter Systeme und deren Modellbildung gewinnen zunehmend an Be deutung in Hochgeschwindigkeitskommunikationssystemen, in de nen Dateneinheiten konstanter Länge übermittelt werden. Zunächst werden wichtige Voraussetzungen zeitdiskreter Modelle erörtert. Anschließend werden benötigte Transformationsmethoden behandelt, die in de r zeitdiskreten Analyse angewendet werden. Als Anal ysebeispiele werde n zeitdiskrete Ve rkehrsmodelle vom Typ GEOM(1)/GI/1 und GI/GI/1 vorgestellt.

5.1

Zeitdiskrete Zufallsprozesse

Bei den Verkehrsmodellen in diesem Kapitel nehmen wir an, dass die Zeitachse in Intervalle der konsta nten Länge Δt diskre tisiert wird. Die so e ntstehenden äquidistanten Zeitpunkte bilden die Indexm enge der zu unters uchenden stoc hastischen Prozesse. Die Zustandsprozesse in dieser Modellumgebung sind daher zeit- und zustandsdiskret.

5.1.1

Voraussetzungen und Parameter

In den zeitdiskreten M odelluntersuchungen werden zur Beschreibung von zufallsabhängigen Modellkomponenten Zufallsvaria blen (z.B . Zwische nankunfts- ode r Bedienzeiten) bet rachtet, deren Rea lisierungen ganzzahlige Viel fache eine r m odelleinheitlichen Zeiteinheit Δt betragen. D urch diese A nnahme könne n E reignisse im Modell (z.B. Ankunftsereignis, Bedien-Ende etc.) nur zu den diskreten Zeitpunkten auf der diskretisierten Zeitachse auftreten. Wenn zu ei nem Zei tpunkt Ankunfts- und Bedi en-Ende-Ereignisse gleichzeitig eintreffen, wird vorausgesetzt, dass die Bedien-Ende-Erei gnisse zuerst behandelt werden. Die Reihenfolge der Abarbeitung innerhalb eines Ereignistyps ist abhängig vom jeweiligen Modell festzulegen. Bei der Modellbildung realer Systeme wird die Wahl der Zeitdiskretisierungskonstanten Δt häufig durch s ystemeigene Parameter motiviert bzw. vorbestimmt. In Modellen von m odernen Kommunikationsnetzen, die mit Paketen konstanter Länge (Zellen bzw. Slots) operieren,

190

5 Analyse zeitdiskreter Systeme

ist es zwec kmäßig, die Übertragungsdauer eines Slots bzw. ei ner Zelle als Dis kretisierungskonstante Δt zu wählen.

A(t) 1 0.5

a)

0

2Δt

5Δt

2

5

10Δt

t

10

i

a(i) 0.3

b)

0.1

Abb. 5.1: Besch reibungsformen diskreter Zufallsvariablen a) Verteilungsfunktion b) Verteilung

Einige in den vorherigen Kapiteln bereits diskutierte Erläuterungen zu diskreten Zufallsvariablen sollen hier wiederholt werden. Wie in Abb. 5.1 an einem Beispiel illustriert wird, kann eine dera rtige zeitdiskrete Zufallsvaria ble (ZV) A in unterschiedlichen Formen beschrieben werden: • Verteilungsfunktion: Die Funktion (Abb. 5.1a) A ( t ) = P (A ≤ t )

(5.1)

verläuft treppenförmig. Die Stufenhöhen entsprechen den Verteilungswerten. • Verteilung: Da die Realisierunge n von A ganzzahlige Vielfache von Δt sind, kann die ZV A mit der Verteilung a ( k ) = P ( A = k ⋅ Δt ) , k = −∞,… , +∞

(5.2)

5.1 Zeitdiskrete Zufallsprozesse

191

charakterisiert werden. Zur Vereinfachung der Notation werden im Folgenden alle zeitbezogenen G rößen a uf Δt norm iert ange geben. E s wi rd beispielsweise die norm ierte Form A = k an Stelle von A = k ⋅ Δt geschrieben.

5.1.2

Zeitdiskrete Erneuerungsprozesse

a) Definiti

on und Beispiel

Ein zeitdiskret er Punktprozes s ist eine F olge von Ereigniszeitpunkten, die auf de r diskretisierten Zeitachse liegen. Die Zwisc henankunftsabstände A i (Zeitintervall zwischen den Ereigniszeitpunkten t i −1 un d t i ) sind dem entsprechend zeitdis kreter Natur m it den zuge hörigen Verteilungen ai ( k ) , k = 0, 1,… . Ein zeitdiskreter Punktprozess wird als ge wöhnlicher, zeitdiskreter Erne uerungsprozess bezeichnet, falls die Intervalle A i unabhängig voneinander und identisch verteilt sind, d h. a i ( k ) = a ( k ) , i = 1, 2, … , k = 0, 1,… .

(5.3)

Da a ( 0 ) nicht-verschwindende Werte annehmen kann, sind in der hier diskutierten Betrachtungsweise Fälle enthalten, i n dene n mehrere Ereignisse z u einem diskre ten Zeitpunkt eintreffen. Die Klasse der hier betrachteten Pro zesse umfasst daher auch Gruppenankunftsprozesse m it geom etrisch ve rteilter Gruppengröße . Es kann z.B. gezeigt werden, da ss die folgenden zeitdiskreten Erneuerungsprozesse P1 und P2 identisch sind: • Prozess P1 : Erneuerungsprozess m it Ein zelankünften und folgender Verteilung des Zwischenankunftsabstands A 1 : a1 ( k ) = P ( A 1 = k ) , k = 0, 1,… .

(5.4)

• Prozess P2 : Gruppenankunftsprozess m it der folgenden, m odifizierten Verteilung des Zwischenankunftsabstands A 2 : a2 ( k ) = P (A 2 = k ) =

a1 ( k )

1 − a1 ( 0 )

, k = 1, 2,…

(5.5)

und der geometrisch verteilten Gruppengröße G : g (i) = P (G = i) =

( 1 − a1 ( 0 ) ) ⋅ ( a1 ( 0 ) )

i −1

, i = 1, 2,… .

(5.6)

192

5 Analyse zeitdiskreter Systeme

b) Rekurre

nzzeit zeitdiskreter Erneuerungsprozesse

Analog der Definition im kontinuierlichen Zeitbereich wird die Vorwärtsrekurrenzzeit R im diskreten Zeitbereich als die Zeitspanne von einem zufälligen Beobachtungszeitpunkt t * bis zum nächsten Ereigniszeitpunkt definiert. Konform zur Betrachtung im zeitdiskreten Bereich darf der Prozess auch nur zu den diskreten Zeitpunkten observiert werden. Prinzipiell sind für die Konstruktion der Vorwärts- und der Rüc kwärtsrekurrenzzeit im diskreten Zeitbe reich bei de Fe stlegungen z ulässig: De r Be obachtungszeitpunkt ka nn unmittelbar vor od er nach ei nem diskreten Zeit punkt liegen. Diese bei den alternativen B etrachtungsweisen führen zu unterschiedlichen Rekurrenzzeitverteilungen, die je nach Anwendung zutreffen und eingesetzt werden.

Ankunftsereignisse

A R

t0

t1

ti-1

(Mi-1)

ti

t

t*: zufälliger Beobachtungszeitpunkt

(Mi)

Abb. 5.2: Zei tdiskrete Erneuerungsprozesse t∗ zufälliger Beobachtungszeitpunkt M i : Menge möglicher Beobachtungszeitpunkte, für die das nächste Ereignis zum Zeitpunkt t i eintrifft

Beobachtung vor den diskreten Zeitpunkten

Abbildung 5.2 zeigt einen zeitdiskreten Erneue rungsprozess, der zu ei nem zufälligen Zeitpunkt t * von ei nem außenste henden, unabhängigen Be obachter betrachtet wird. Es wi rd vorausgesetzt, dass der Beobachtungszeitpunkt t * unmittelbar vor einem diskreten Zeitpunkt liegt. Trifft zum gleichen Ze itpunkt ein E reignis des zu beobachtenden Prozesses ein, s o ist die Vorwärtsrekurrenzzeit Null. Die Verteilung r ( k ) der Vorwärtsrekurrenzzeit wird nachfolgend hergeleitet. Zunächst wird r ( k ) mit Hilfe des Gesetzes der totalen Wahrscheinlichkeit dargestellt:

5.1 Zeitdiskrete Zufallsprozesse r (k ) =

mit p(n)

193



∑ r (k n ) p (n ) ,

(5.7)

n =k + 1

Wahrscheinlichkeit, dass ein Zwischenankunftsintervall der Länge n beobachtet wird,

(

)

r ( k n ) = P R = k t * liegt in einem Zwischenankunftsintervall der Länge n .

Die Wahrscheinlichkeit p ( n ) lässt sich aus folgenden Überlegungen ermitteln: p ( n ) ist proportional zur Auft rittswahrscheinlichkeit a ( n ) des Zwischenankunftsintervalls der Länge n • p ( n ) ist proportional zur Länge n , da aus de r Sicht eines auße nstehenden, unabhängigen Beobachters ein langes Intervall wahrscheinlicher angetroffen wird als ein kurzes.



Dies führt zu p(n) = K ⋅ n ⋅ a(n) ,

(5.8)

wobei K eine anhand der Normierungsbedingung zu ermittelnde Konstante ist: 1 =



∑ p(n)

n =0



= K ∑ n ⋅ a ( n ) = K ⋅ E [A ] , d.h. K = n =0

1 E [A ]

oder p(n) =

n ⋅ a(n) E [A ]

.

(5.9)

Unter der Bedingung, dass das Zwischenankunftsintervall n Zeiteinheiten lang ist, existieren genau n Beobachtungszeitpunkte (vgl. Menge M i in A bb. 5.2), die gleichwahrscheinlich angetroffen werden, d.h. r (k n )

⎧1 ⎪ = ⎨n ⎪⎩0

k = 0, 1,… , n − 1

(5.10)

sonst .

Schließlich erhält man aus den Gl. (5.7), (5.9) und (5.10) für die Verteilung der Vorwärtsrekurrenzzeit r (k ) =

1 E [A ]

k ⎛ ⎞ ⎜ 1 − ∑ a (i ) ⎟ , ⎝ i =0 ⎠

k = 0, 1,… ,

(5.11)

194

5 Analyse zeitdiskreter Systeme

oder nach der Z-Transformation 1 − A ZT ( z )

R ZT ( z ) =

(

E [A ] ⋅ 1 − z −1

.

(5.12)

1 . 2

(5.13)

)

Der Mittelwert ergibt sich zu E [R ] =

E [A ] 2

(

)

2 ⋅ cA +1 −

Ein Vergleich mit der Beziehun g für den Mittelwert der Vorwärtsrekurre nzzeit kontinuierlicher Erneuerungsprozesse (Gl. (2.6)) zeigt eine normierte Differenz von 1 2 . Dieser Unterschied kommt dadurch zustande, dass die D auer der Vorwärtsrekurrenzzeit bei einem angetroffenen Z wischenankunftsintervall der Länge n zwische n 0 ⋅ Δt un d ( n − 1 ) ⋅ Δt gleichverteilt mit dem Mittelwert ( n − 1 ) ⋅ Δt 2 variiert (s. Abb. 5.2). Die Verteilung r ( k ) zeitdiskreter Erneuerungsprozesse kann folgendermaßen rekursiv berechnet werden: r (0) = r (k )

1 ⋅ ( 1 − a ( 0 )) , E [A ]

1 = r ( k − 1) − a (k ) , E [A ]

(5.14) k = 1, 2,… .

Beobachtung nach den diskreten Zeitpunkten

Für die Konstruktion der Vorwärtsrekurrenzzeit wird nun festgelegt, dass der Beobachtungszeitpunkt t * unmittelbar nach einem diskreten Zeitpunkt liegt . Die Herleitung der Verteilung der Vorwärtsrekurrenzzeit erfolgt analog dem vorausgegangenen Abschnitt. Die bedingte Verteilung aus Gl. (5.10) lautet ⎧ 1 ⎪ r (k | n ) = ⎨ n ⎪⎩ 0

k = 1,… , n

(5.15)

sonst .

Man erhält für die Vorwärtsrekurrenzzeit r (k ) =



∑ r (k | n ) ⋅ p (n )

n =k

oder nach der Z-Transformation

=

⎞ 1 ⎛ k −1 ⋅ ⎜ 1 − ∑ a ( i ) ⎟ , k = 1, 2,… E [A ] ⎝ i =0 ⎠

(5.16)

5.1 Zeitdiskrete Zufallsprozesse R ZT ( z ) =

195

z −1 ( 1 − A ZT ( z ) )

(

.

)

E [ A ] ⋅ 1 − z −1

(5.17)

Der Mittelwert errechnet sich zu E [R ] =

E [A ] 2

(

1 . 2

)

2 ⋅ cA +1 +

(5.18)

Ein Vergleich von Gl. (5.16) mit (5.11) zeigt, dass die Vorwärtsrekurrenzzeit nach Gl. (5.16) die um Δt verschobene Verteilung nach Gl. (5.11) ist. c) Z

eitdiskrete Erneuerungsprozesse mit Gedächnislosigkeit

Ein Erneuerungsprozess ist gedächtnis los, wenn die Zwischenankunftszeit A dieselbe Verteilung wie die Vorwärtsre kurrenzzeit R hat . Dies gilt auch für zeitdiskrete Erneuerungsprozesse. Abhängig davon, ob der Beobachtungszeitpunkt unmittelbar vor oder nach einem diskreten Zeitpunkt liegt, können zwei Proze sstypen mit der Eigensc haft der Gedächtnislosigkeit (Markov-Eigenschaft) angegeben werden. • Beobachtung vor den diskreten Zeitpunkten: Aus Gl. (5.12) ka nn gezeigt werde n, dass Erne uerungsprozesse m it GEOM(0)-Zwischenankunftsverteilung die Eigenschaft der Gedächtnislosigkeit aufweisen:

R ZT ( z ) =

1 − A ZT ( z )

(

E [A ] ⋅ 1 − z −1

1−

)

=

1−q 1 − qz −1

q 1 − z −1 1−q

(

)

= A ZT ( z ) .

(5.19)

• Beobachtung nach den diskreten Zeitpunkten: In diesem Fall erhält man aus Gl. (5.17) als gedächtnislosen Erneuerungsprozess den Bernoulli-Ankunftsprozess (vgl. Ka p. 1.3.3), dessen Zwischenankunftsabstände GEOM(1)verteilt sind:

R ZT ( z ) =

z

−1

( 1 − A ZT ( z ) )

(

E [A ] 1 − z −1

)

⎛ 1−q ⎞ z −1 ⎜ 1 − ⎟ ⎜ 1 − qz −1 ⎟⎠ ⎝ = = A ZT ( z ) . q 1 − z −1 1−q

(

)

(5.20)

Der Bernoulli-Ankunftsprozess wir häufi g zur Charakteri sierung gedächtnisloser Verkehrsströme angewendet.

196

5 Analyse zeitdiskreter Systeme

5.2

Transformationsmethoden für zeitdiskrete Analyse

Bei der numerischen Auswertung von analytisch en Ergebnissen für ze itdiskrete Verkehrsmodelle spielen Transformationsmethoden fü r di skrete Zeitfunktionen, z.B. die Dis krete Fourier-Transformation (DF T) und die z ugehörige schnelle Fourier-Transform ation (FFT: Fast Fourie r Transform) sowi e das Ce pstrum-Konzept, eine ausgezeic hnete R olle. Diese Methoden werden nachfolgend zusammenfassend dargestellt.

5.2.1

Diskrete Fourier-Transformation

a) Definiti

on der diskreten Fourier-Transformation

Die diskrete Fourier-Transformation (DFT) einer endlichen Folge x ( k ) , k = 0, 1,… , N − 1, wird definiert durch X DFT ( n ) = DFT {x ( k )} =

N −1

∑ x (k )

⎛ 2π ⎞ −⎜ i n ⎟ k e ⎝ N ⎠ ,

(5.21)

k =0

n = 0,… , N − 1, i 2 = −1 .

Obwohl die Folge x ( k ) im Zeitbereich und die transformierte Folge X DFT ( n ) prinzipiell komplexwertig sein könne n, sind die hier betrachteten Zei tfolgen oft Wahrscheinlichkeitsverteilungen und dementsprechend reellwertig. Die Rücktransformation lautet x ( k ) = DFT −1 {X DFT ( n )} =

1 N

N −1



n =0

X DFT ( n ) e

⎛ 2π ⎞ +⎜ i k ⎟n ⎝ N ⎠ ,

(5.22)

2

k = 0,… , N − 1, i = −1 .

Analog zu Gl. (1.79) gilt für eine Summe X von zwei voneinander unabhängigen, diskreten Zufallsvariablen X 1 und X 2 : X DFT ( n ) = DFT {x ( k )} = DFT {x 1 ( k ) ∗ x 2 ( k )} = X 1, DFT ( n ) ⋅ X 2 , DFT ( n ) .

(5.23)

5.2 Transformationsmethoden für zeitdiskrete Analyse b)

197

Zusammenhang zwischen DFT und Z-Transformation

Betrachtet werde eine endliche Verteilung x ( k ) , k = 0,… , N − 1 . Es kann gezei gt werden (s. Oppenheim & Schafer [5.3]), dass sich die Z-Transformation X ZT ( z ) =

N −1

∑ x ( k ) z−k

k =0

mittels der fol genden, auf dem Einheitskreis liegenden Abtastwerte vollständig beschreiben lässt: ⎛ n 2 πi X ZT ( z n ) = X ZT ⎜ e N ⎜ ⎝

⎞ ⎟, ⎟ ⎠

n = 0, 1,… , N − 1,

i 2 = −1 .

(5.24)

Ein Vergleich mit der Defi nition der diskreten Fourier-Transform ation zeigt, dass für die Klasse endlicher Ve rteilungen die diskrete Fourier-Transformation anste lle der Z-Tra nsformation eingesetzt werden kann. Entsprechend kann die inve rse Z-T ransformation durch die diskrete Fourier-Rücktransformation ( DFT −1 ) erset zt werden. Die s erlaubt de n Einsatz effizienter Verfahren und Algorithmen zur Auswertung der diskreten Fourier-Transformation, die in der Signalverarbeitung entwickelt wurden. c) Schnelle

Fourier-Transformation und Algorithmen

Aus den Definitionen der disk reten Fourier-Transformation DFT bzw. DFT −1 geht hervor, dass der numerische Aufwand zur Auswertung einer DFT der Größenordnung O N 2 entspricht, wobei N 2 auf die Anzahl der kom plexwertigen Multiplikationen hinweist. Zur Reduzierung dieses Aufwands wurden durch g eeignete Z usammenfassung von m ehrfach ve rwendeten Teil summen effektive Algorithm en zur Auswe rtung de r DFT und der inver sen DFT entwickelt . Diese Klasse von Alg orithmen, die ihre n Anfang in de r bahnbrechenden Arbeit vo n J. W. Co oley un d J. W. T ukey [5.6] fin den u nd den numerischen A ufwand v on O N 2 auf O ( N ⋅ log N ) reduzi eren, wird unter dem Be griff „schnelle FourierTransformation“ ( FFT : Fast Fourier Tra nsform) zusammengefasst (s . Oppenheim & Scha fer [5.3]). Ei ne Übersi cht über Anwendungen von FFT -Algorithmen findet man z.B. in Henrici [5.7].

( )

( )

198

5 Analyse zeitdiskreter Systeme

5.2.2

Das Konzept des komplexen Cepstrums

In der Analyse zeitdiskreter Systeme im transformierten Bereich, z.B. bei Systemen vom Typ GI/GI/1, wird u.a. das aus der Theorie der Signalverarbeitung stammende Konzept des komplexen Cepstrum s angewe ndet (vgl. Ackroyd [5 .5], Tra n-Gia [5.10]). Dieses Konzept lässt sich m it Elementen der homomorphen Sys temtheorie (s. Oppenheim & Schafe r [5. 3]) systematisch be schreiben. Vo r der E inführung und Er läuterung des Cepstrum -Konzeptes we rden deshalb einige Eigenschaften homomorpher Transformationen und Systeme diskutiert. a)

Homomorphe Systeme und Transformation

Definition

Betrachtet we rde ei n System, da s eine T ransformation T ausführt (s. Abb. 5.3a). Die Ve rknüpfungen [I] und [O] werden j eweils für die Menge der Eingangssignale {xi } bzw. der Ausgangssignale {yi } definiert. Ferner wird eine skalare Größe c mit den Eingangssignalen durch den Operator [i] und mit den Ausgangssignalen durch den Operator [o] verknüpft. Das System bzw. die Transformation wird als homomorph bezeichnet, falls gilt T {x 1 [ I ] x 2 } = T { x 1 } [ O ] T { x 2 } = y 1 [ O ] y 2 ,

(5.25)

T {c [ i ] x 1 } = c [ o ] T { x 1 } = c [ o ] y 1 .

(5.26)

Wie aus den Gleichungen (5.25) und (5.26) zu ersehen, ist die homomorphe Eigenschaft eine Verallgemeinerung des Linearitätsbegriffes in der Systemtheorie. Werden homomorphe Systeme in Serie geschalt et, so ist das gesam te System ebenfalls homomorph. Diese Eigenschaft s pielt eine b edeutende R olle in der S ignalverarbeitung un d führt zu kanonischen Strukturen homomorpher Systeme. Homomorphe Systeme und Faltungsoperation

Ein s pezielles hom omorphes System für die Faltung soperation wird in A bb. 5.3b ge zeigt, wobei gilt:

• Eingangs- und Ausgangssignale: {xi } bzw. {yi } sind Vektoren von komplexen Zahlen. • Transformation T : Diskrete Fourier-Transformation ( DFT , vgl. Gl. (5.21)). • Eingangsverknüpfung: [I ] ist die diskrete Faltung mit dem Operator ∗ .

5.2 Transformationsmethoden für zeitdiskrete Analyse

199

• Ausgangsverknüpfung: [O ] ist die elementweise Multiplikation von Vektoren. • Eingangs- und Ausgangsverknüpfung mit skalaren Größen: [i ] und [o ] sind die Multiplikation.

[I]

xi



[O] T

yi

a) Definition

x(k)

DFT

xDFT(k)

b) DFT als homomorphes System

Abb. 5.3: Homomo rphe Systeme

Dieses homomorphe System hat die Aufgabe, eine Faltung im Eingangssignalbereich in eine einfache Multiplikation im Ausgangssignalbereich umzuwandeln. b)

Das komplexe Cepstrum

Homomorphe Systeme und Cepstrum

Mit den T ransformationsmethoden LT (Laplace-Transformation), EF (Erzeugende Funktion), ZT (Z-Tran sformation) und DFT (Diskrete Fourier-T ransformation) lässt sich die aufwendige Faltungsoperation am Eingang eines homomorphen Systems in eine simple Multiplikation am Ausgang transformieren. Mit dem Konzept des komplexen Cepstrums geht man einen Schritt weiter: Die Faltungsoperation am Eingang eines homomorphen Syste ms soll in eine Addition vereinfacht werden. Betrachtet wird dazu die in Abb. 5.4 dargestellte kanonische Struktur homomorpher Systeme mit den folgenden Merkmalen:

• Die Klasse {x ( k )} zeitdiskreter Eingangssignale sowie die Klasse {y ( k )} zeitdiskreter Ausgangssignale (z.B. Abtast werte in Übertragungssy stemen, Wahrscheinlichkeitsverteilungen etc. ) werden mit der diskreten Faltungsoperation verknüpft. • Durch die homomorphe Tra nsformation T werden Faltungsopera tionen in Additionen umgewandelt. Dabei wird a us einem Einga ngssignal x ( k ) das zugehörige s o ge nannte komplexe Cepstrum X CEP ( k ) gebildet.

200

5 Analyse zeitdiskreter Systeme

• Das innere Sy stem führt im Cepstrum-Bereich Tra nsformationen durch, bei dene n die Addition als Verknüpfungsvorschrift erhalten bleibt. • Die Rücktransform ation T −1 f ührt die i nverse Abbildung vom Cepstrum -Bereich z um Zeitbereich durch.



a)

x(k)

b)





x(k)

c)

+

YCEP (k)

T

+

+

XCEP (k)

S

+

+ YCEP (k)

T -1

y(k)

T Z

ln(.)

XZT (z)

+ XLN(z)

+

Z -1

T -1

+



Z

+ YZT (z)

+

exp(.)

YEXP (z)

Z -1

+

+ XCEP (k)



∗ y(k)

Abb. 5.4: Kanonische Form eines homomorphen Systems für gefaltete Signale a) Das gesamte System b) Teilsystem zur Transformation c) Teilsystem zur Rücktransformation

Wie zu erkennen ist, besteht das Ziel der vorgestellten Struktur da rin, mittels homomorpher Transformationen faltungsbehaftete Operationen im Ursprungsbereich (diskreter Zeitbereich) durch Additionen im transformierten Bereich (Cepstrum-Bereich) zu ersetzen. Bildung des komplexen Cepstrums

Die Bildun g des kom plexen Cepstrum s (Transform ation T ) und die zuge hörige inverse Transformation T −1 sind in Abb. 5.4b und Abb. 5.4c schematisch dargestellt. Dabei setze n sich die Transformation T und die Rücktransformation T −1 aus jeweils drei Teiltransformationen zusammen.

5.2 Transformationsmethoden für zeitdiskrete Analyse

201

Die Cepstrum-Bildung T erfolgt in drei Schritten: –

Z-Transformation (Umwandlung der Faltungsoperation in Multiplikation)

X ZT ( z ) = ZT {x ( k )} . –

(5.27)

Bildung des komplexen Logarithmus (Umwandlung der Multiplikation in Addition)

X LN ( z ) = ln ( X ZT ( z ) ) .

(5.28)

Das Attribut „komplex“ des Cepstrums bezieht sich auf die Anwendung des komplexen Logarithmus und besagt nicht, dass das komplexe Cepstrum prinzipiell komplexwertig sein muss. –

inverse Z-Transformation

X CEP ( k ) = ZT −1 {X LN ( z )} .

(5.29)

Gleichung (5.29) setzt voraus, dass X LN ( z ) eine gültige Z-Transformierte ist. Die inverse Cepstrum-Bildung T −1 besteht ebenfalls aus drei Schritten: –

Z-Transformation YZT ( z ) = ZT {YCEP ( k )} ,



komplexe Exponentialfunktion YEXP ( z ) = e



(5.30)

YZT ( z )

,

(5.31)

inverse Z-Transformation y ( k ) = ZT −1 {YEXP ( z )} .

(5.32)

Komplexes Cepstrum von Minimal- und Maximalphasen

Im Folgenden werden einige Eigensc haften des komplexen Cepstrums erläutert, die für die spätere Analyse wichtig sind. Da bei wird s peziell die häufi g anzutreffende Klasse von Signalen bz w. Zeitfolgen betrac htet, die rationa le Funktione n als Z-Tra nsformierte haben. Für diese Klasse lautet die Transformierte im Z-Bereich (vgl. Oppenheim & Schafer [5.3]):

202

5 Analyse zeitdiskreter Systeme n0 ⎛ z q in ⋅ ∏ ⎜ 1 − q 0n n =1 n =1 ⎝ m0 mi ⎛ z ⎞ ∏ 1 − z−1pin ⋅ ∏ ⎜ 1 − p ⎟ 0n ⎠ n =1 n =1 ⎝

A zr X ZT ( z ) =

ni

∏ (1 − z

(

)

−1

)

⎞ ⎟ ⎠,

(5.33)

wobei

• •

q in und q 0n Nullstellen innerhalb bzw. außerhalb des Einheitskreises und pin und p0n Pole innerhalb bzw. außerhalb des Einheitskreises

sind. Die Berechnung gemäß Gl. (5.27), (5.28) und (5.29) ergibt für das komplexe Cepstrum

X CEP ( k )

⎧ n 0 q k0n m 0 pk0n −∑ ⎪ ∑ n =1 k ⎪ n =1 k ⎪ = ⎨ ln A ⎪ mi k pin n i q kin ⎪ −∑ ⎪⎩ n∑ n =1 k =1 k

k0

Aus Gl. (5.34) lassen sich folgende Eigenschaften des komplexen Cepstrums ableiten:

• Ist x ( k ) eine so genannte Minimalphasen-Folge, d h. liegen alle Pole und Nullstellen von X ZT ( z ) innerhalb des Einheitskreises, dann existiert X CEP ( k ) nur für k ≥ 0 . • Ist x ( k ) eine s o ge nannte Maximalphasen-Folge, d h. liege n alle Pole und Nullstellen von X ZT ( z ) außerhalb des Einheitskreises, dann existiert X CEP ( k ) nur für k ≤ 0 . • Das komplexe Cepstrum nimmt mit steigendem k mindestens so schnell wie die Funktion 1 k ab. • Das kom plexe Cep strum endlicher Folgen im Zeitber eich ist nicht notwendige rweise endlich. Die oben aufgezeigten Eigenschaften erlauben eine räumliche Separation von Minim al- und Maximalphasenanteilen im Cepstrum-Bereich und spielen eine wichtige Rolle in der zeitdiskreten Analyse des GI/GI/1-Systems. Sie werden daher näher erörtert. Separation von Maximal- und Minimalphasenfolgen

Betrachtet man das Faltungs produkt einer Maximalphasenfolge xMAX ( k ) und einer M inimalphase xMIN ( k ) x ( k ) = xMAX ( k ) ∗ xMIN ( k ) ,

(5.35)

X ZT ( z ) = X MAX , ZT ( z ) ⋅ X MIN , ZT ( z ) ,

(5.36)

d.h.

5.2 Transformationsmethoden für zeitdiskrete Analyse

203

so kann im Cepstrum-Bereich die entsprechende Transformierte separiert werden: X CEP ( k )

⎧ X MAX ,CEP ( k ) k0. ⎩ MIN ,CEP ( k )

(5.37)

Aus Gl. (5.37) ist ersichtlich, dass die Cepstren der Maxim al- und M inimalphasenfolgen getrennt liege n. Eine Ü berlappung e xistiert nur am Nullpunkt, wobei die überla ppenden Anteile lediglich Multiplikationsfaktoren sind. Diese Eigenschaft kann daher zur Separation von Maximal- und Minimalphasenfolgen benutzt werden. Der Algorithmus wird in Abb. 5.5 schematisch dargestellt, wobei die Trennu ng eine r Mini malphasenfolge aus einer Faltung von Maximal- und Minimalphasenfolgen illustriert wird. Wie in Abb. 5.5 gezeigt wird, bleibt nac h der Separation im Cepstrum -Bereich und der anschließenden Rücktransformation in den Z eitbereich der Faktor K übrig, der durc h die Überlappung der Cepstre n am Nullpunkt ent steht. Falls xMIN ( k ) beispielsweise di e Verteilung einer zeit diskreten Zufallsva riablen da rstellt, kann de r Fakt or K m it der Vollständigkeitsrelation ermittelt werden.

diskreter Zeitbereich

x ( k ) = xMAX ( k ) ∗ xMIN ( k )

Cepstrum-Bereich Cepstrum

X CEP ( k )

Separation

K ⋅ x MIN ( k )

⎧X (k ) + X CEP ( k ) = ⎨ CEP 0 ⎩

k≥0 k 0, j ≥ i − 1 ⎪ 0 sonst ⎩

(5.46)

5.3 Das zeitdiskrete Wartesystem GEOM(1)/GI/1

207

Die Zustands wahrscheinlichkeiten {x ( j, n + 1 ) , j = 0, 1,…} kö nnen dem gemäß aus den Z ustandswahrscheinlichkeiten a m voraus gegangenen Ei nbettungszeitpunkt an hand folgender Zustandsgleichungen berechnet werden: j+1

x ( j, n + 1 ) = x ( 0, n ) ⋅ γ ( j ) + ∑ x ( i, n ) ⋅ γ ( j − i + 1 ) , j = 0, 1,…

(5.47)

i =1

Für ein im eingeschwungenen Zustand befindliches System ( ρ < 1 ) mit den stationären Zustandswahrscheinlichkeiten x ( j ) = lim x ( j, n ) , n →∞

(5.48)

j = 0, 1,…

erhält man aus Gl. (5. 47) das Gleichungssystem zur Bestim mung der Z ustandswahrscheinlichkeiten des GEOM(1)/GI/1-Systems an den Einbettungszeitpunkten der Markov-Kette: x ( j) = x (0) ⋅ γ ( j) +

j+1

∑ x ( i ) ⋅ γ ( j − i + 1) ,

j = 0, 1,…

(5.49)

i =1

Lösung im Z-Bereich

Die Z-Transformation der Gl. (5.49) lautet X ZT ( z ) = x ( 0 )

Γ ZT ( z )( 1 − z ) 1 − z ⋅ Γ ZT ( z )

.

(5.50)

Der verbleibende unbeka nnte Term x ( 0 ) errechnet sic h durch Einsetzen von z = 1 in Gl. (5.50) und unter Berücksichtigung des Mittelwerts E [ Γ ] = ρ in Gl. (5.43): x (0) = 1 − ρ .

(5.51)

Aus den Gleichungen (5.42), (5.50) und (5.51) ergeben sich die Zustandswahrscheinlichkeiten der eingebetteten Markov-Kette im Z-Bereich:

X ZT ( z ) =

( 1 − ρ)

z ⎞ ⎟ ⎝ 1 − α + αz ⎠ . z ⎛ ⎞ 1 − z ⋅ B ZT ⎜ ⎟ ⎝ 1 − α + αz ⎠

( 1 − z ) ⋅ BZT ⎛⎜

(5.52)

Gleichung (5.52) e ntspricht einer zeitdis kreten Form der Pollacze k-Khintchine-Formel für Zustandswahrscheinlichkeiten des zeitkontinuierlichen M/GI/1-Systems. Zunächst gilt diese Beziehung nur an den Einbettungszeitpunkten der Markov-Kette (s. Abb. 5. 7). Es kann jedoch speziell für das GEOM(1)/GI/1-System nachgewiesen werden (vgl. Kobayashi [5.2]), dass die in Gl. (5.52) angegebenen stationären Zustandswahrschein-

208

5 Analyse zeitdiskreter Systeme

lichkeiten für beliebige Be obachtungszeitpunkte gelte n, die unmittelbar nach den dis kreten Zeitpunkten liegen.

5.3.4

Wartezeitverteilung

Die Wartezeitverteilung wird aus den Zustandswahrscheinlichkeiten hergeleitet. Bezeichnet man W und D als Zufallsvariablen für die Wartezeit bzw. Durchlaufzeit von Anforderungen im System, so gilt: D = W + B,

(5.53)

d (k ) = w (k ) ∗ b (k ) ,

(5.54)

D ZT ( z ) = WZT ( z ) ⋅ B ZT ( z ) .

(5.55)

Setzt man die Abfertigungsdisziplin FIFO (first-in, first-out) voraus, so entspricht die Anzahl der eintreffenden Anforderunge n während de r Durchlaufzeit einer zufällig be obachteten Testanforderung exakt der Systempopulation unmittelbar nach dem Bedien-Ende dieser Testanforderung, d.h. diese Anza hl entspricht dem Systemzustand a n den Ei nbettungszeitpunkten. Dies bede utet, dass die Verteilung der Anzahl der während einer Durchlaufzeit eintreffenden A nforderungen den M arkov-Ketten-Zustandswahrscheinlichkeiten ents pricht ode r analog zu Gl. (5.41) x (k ) =



⎛m⎞

∑ d (m) ⎜ k ⎟ (1 − α) ⎝

m =k



k

αm −k ,

k = 0, 1,… ,

(5.56)

oder nach der Z-Transformation z ⎛ ⎞ X ZT ( z ) = D ZT ⎜ ⎟. ⎝ 1 − α + αz ⎠

(5.57)

Vergleicht man Gl. (5.57) mit Gl. (5.52), so ergibt sich D ZT ( z ) =

(1 − ρ)

( 1 − z ) BZT ( z ) . 1 − αz − ( 1 − α ) ⋅ z ⋅ B ZT ( z )

(5.58)

Aus Gl. (5.55) und (5.5 8) erhält man die Z -Transformierte der Wartezeitverteilung von Anforderungen in einem GEOM(1)/GI/1-System: WZT ( z ) =

( 1 − ρ) ⋅ ( 1 − z ) . 1 − α z − ( 1 − α ) ⋅ z ⋅ B ZT ( z )

(5.59)

Gleichung (5.59) kann als eine zeitdiskrete Form der Pol laczek-Khintchine-Formel für die Wartezeitverteilungsfunktion des zeitkontinuierlichen M/GI/1-Systems interpretiert werden.

5.4 Das zeitdiskrete Wartesystem GI/GI/1

209

5.4

Das zeitdiskrete Wartesystem GI/GI/1

5.4.1

Modellbeschreibung

Abbildung 5.8 zeigt die Struktur des Wartesystems GI/GI/1 (bzw. GI / GI / 1 − ∞ ). Die Zwischenankunftszeit A und die Bedienzeit B können beliebig verteilt sein: a ( k ) = P ( A = k ⋅ Δt ) k = 0, 1,… , b ( k ) = P ( B = k ⋅ Δt ) k = 0, 1,… ,

wobei zeitdiskrete, nicht -negative Zwischena nkunfts- und Bedienzeiten voraus gesetzt werden. Das Verkehrsangebot bzw. die Auslastung der Bedieneinheit lautet ρ =

E [B]

E [A ]

GI

. (A

A

uslastung)



allgemein unbegrenzter verteilte Warteraum Zwischenankunftszeit

(5.60)

B GI allgemein verteilte Bedienzeit

Abb. 5.8: Das zeitdiskrete Wartesystem GI/GI/1

Der Warteraum wird als unendlich groß angenommen, d.h. der reine Wartebetrieb wird vorausgesetzt. Eine Anforderung, die zum Ankunftszeitpunkt die Bedieneinheit belegt vorfindet, muss warten, bis die Bedieneinh eit frei wird. Die Bedie neinheit bearbeitet wartende A nforderungen aus der W arteschlange nach einer Wartesc hlangendisziplin, z.B. FIFO (first-in first-out) bzw. FCFS (first-come first-served), LIFO (last-in first-out), RANDOM etc.

210

5 Analyse zeitdiskreter Systeme

5.4.2

Die Lindley-Integralgleichung für zeitkontinuierliche GI/GI/1-Systeme

Für diese Klasse von GI/GI/1-Modellen existiert keine geschlossene analytische Lösung. In der Analyse dieses Systemtyps wird häufig zur Charakterisierung des Zustandsprozesses die Restarbeit im System benutzt. Dies führt im Allgemeinen zu einer von Lindley [5. 9] eingeführten Integralgleichung, die in der Analyse des GI/GI/1-Wartesystems im kontinuierlichen Zeitbereich eine zentrale Rolle spielt. Wir betrac hten im Folgen den die kontinui erlichen, nic ht-negativen Zufallsvariablen A für die Zwischenankunftszeit und B für die Bedienzeit. Die zugehörigen Verteilungsfunktionen sind A ( t ) bzw. B ( t ) , die Verteilungsdichtefunktionen a ( t ) bzw. b ( t ) . Setzt man ein stationäres GI/GI/1-System voraus, so gilt für die stationäre Wartezeitverteilungsfunktion W ( t ) die funktionale Beziehung 0 t 0

z →∞

ergibt sich K1 = 1 .

(5.91)

Aus Gl. (5 .89), (5.90) u nd (5 .91) erhält man die W artezeitverteilung für das System GEOM(m)/ GEOM(m)/1 im Z-Bereich: WZT ( z ) =

5.4.5

α −β z −β . ⋅ 1−β z α −β

(5.92)

Analysealgorithmus im Zeitbereich

Aus der allge meinen Form der Li ndleyschen Integralgleichung im diskrete n Zeitbe reich gemäß Gl. (5.74) und (5.75) w n + 1 ( k ) = π 0 ( w n ( k ) ∗ a n ( − k ) ∗ b n ( k ) ) = π0 ( w n ( k ) ∗ c n ( k ) )

(5.93)

kann die Wart ezeitverteilung der ( n + 1 ) -ten Anforderung aus de r W artezeitverteilung de r n -ten A nforderung sukzessiv berec hnet werden. Dabei können die Zwischenankunftsverteilung und die Bedienzeitverteilung anforderungsindividuell gewählt werden. Dies führt zu einem iterativen Algorithmus zur Berechnung der Wartezeitverteilung des GI/GI/1-Syste ms im Zeitbereich (s. Ackroyd [5.5]).

5.4 Das zeitdiskrete Wartesystem GI/GI/1

a n (k)

219

b n (k)

a n (-k)

∗ c n(k) w n(k)



π0

wn+1 k)

(

Abb. 5.11: Analysealgorithmus eines zeitdiskreten GI/GI/1-Systems im Zeitbereich

Der Algorithmus wird Abb. 5.11 schematisch dargestellt: (i) Initialisierung der Wartezeitverteilung w 0 ( k ) . Dies kann im Prinzip mit einer be liebigen Verteilung gesc hehen. Zwec kmäßigerweise wir d di e Iteration m it einem leeren System beim Eintreffen der 0-ten Anforderung initiiert: ⎧1 k = 0 w0 ( k ) = δ ( k ) = ⎨ ⎩0 sonst

(ii) Berechnung

der Systemfunktion c n ( k )

(iii) Durchführung der Falt ungsoperation zur Berechnung der Wartezeitverteilung der ( n + 1 ) -ten Anforderung aus der n -ten Anforderung gemäß Gl. (5.93) (iv) Du rchführung der π0 -Operation (Gl. (5.72)). (v)

Wiederholung der Schritte ii), iii) und iv) bis zur Konvergenz der Wartezeitverteilung. Als Konvergenzkriterium ka nn z.B. die Di fferenz zwischen den Mittelwerten zweier sukzessiv ermittelter Wartezeitverteilungen genommen werden.

Die i m Algori thmus enthalten en Faltungsoperationen können z.B. m it Hilfe der diskreten Fourier-Transformation (DFT) bzw. der entsprechenden Algorithmen der schnellen FourierTransformation (FFT) effizient durchgeführt werden. Sind die Zwis chenankunftsabstände und Bedi enzeiten anforde rungsabhängig, werden pro Iterationszyklus zwei Faltungsope rationen benötigt. Dagegen m uss bei GI/GI/1-Systemen mit anforderungsunabhängigen Z wischenankunfts- und Bedienzeiten die Systemfunktion

220

5 Analyse zeitdiskreter Systeme

c ( k ) nur einm al berechnet werden. In diesem F all wird pro It erationsschritt nur eine Faltungsoperation benötigt.

Im Vergleich zu de n Algorithmen im transformierten Bereich ist der hier vorgestellte Algorithmus im diskreten Zeitberei ch relativ rechenzeitintensiv, falls die Syste mfunktion eine große A nzahl von Verteilungswerten umfasst. Ein V orteil dieses Algori thmus liegt jedoc h darin, dass das Konvergenzverhalten hinsichtlich der ve rschiedenen Typen von Verteilungsfunktionen sehr robust ist. Wie erwähnt, kann der Algorithmus im Zeitbereich, im Gegensatz zu den Methoden im transformierten Bereich, für Systeme mit anforderungsabhängigen Zwischenankunfts- und Bedienzeiten angewendet werden.

5.4.6 a)

Analysealgorithmus im transformierten Bereich

Grundprinzip

Algorithmen für die Berechnung de r Wartezeitverteilung vo n zeitdiskr eten GI/GI/ 1-Systemen im transformierten Bereich basieren fast ausschließlich auf de r charakteristischen Gleichung gemäß Gl. (5.83) für Z-Transformierte − WZT (z) ⋅

1

WZT ( z )

=

C ZT ( z ) − 1

(5.94)

1 − z −1

bzw. für erzeugende Funktionen − WEF (z) ⋅

1

WEF ( z )

=

C EF ( z ) − 1 1−z

.

(5.95)

Unter Berücksichtigung der Lage von Polen un d Nullstellen der Terme auf der rechten Seite der c harakteristischen Gleic hung ka nn die W artezeitverteilung WZT ( z ) vom Störter m − − WZT ( z ) (bzw. WEF ( z ) von WEF ( z ) ) extrahiert werden. Zwei pri nzipielle Möglichkeiten zur Separation im transformierten Bereich sind

• Polynom-Faktorisierung: Separationsmethode durch explizite Berechnung von Nullstellen bzw. Polen mit Hilfe der Polynom-Faktorisierung (vgl. Konheim [5.8], Tijms [5.4]); • Cepstrum-Separation: unter Berücksichtigung der Phaseneigenschaften werden die Terme der charakteristischen Funktion m it Hilfe des Cepstrum-Konzepts getr ennt ( vgl. Ackr oyd [5. 5], Tran-Gia [5.10]). Bei den nac hfolgenden Al gorithmen wird vorausgesetzt, dass die Z wischenankunfts- und Bedienzeitverteilungen eine endliche Länge haben, d h.

5.4 Das zeitdiskrete Wartesystem GI/GI/1

b)

221

a ( k ) = P ( A = k ) , k = 0, 1,… , n A − 1, n A < ∞ ,

(5.96)

b ( k ) = P ( B = k ) , k = 0, 1, … , n B − 1, n B < ∞ ,

(5.97)

Algorithmus mit Polynom-Faktorisierung

Die erzeugende Funktion der charakteristischen Gleichung wird betrachtet. Der Algorithmus nach Konheim [5.8] setzt ferner voraus, dass der Ankunftsprozess ein Einzelankunftsprozess ist, d.h. a ( 0 ) = 0 . Mit C EF ( z ) − 1 z =1 = 0, d ( CEF ( z ) − 1) z =1 = E [B] − E [A ] < 0 dz

ist die Nullstelle z = 1 des Zählerpolynoms der charakteristischen Funktion − S EF ( z ) = WEF (z) ⋅

1

WEF ( z )

=

C EF ( z ) − 1 1−z

(5.98)

eine einfache Nullstelle. Da die Verteilungen {a ( k )} un d {b ( k )} endlich sind , ka nn di e charakteristische Funktion als Polynom geschrieben werden. Dies führt zum Faktorisierungsansatz + − S EF ( z ) = S EF ( z ) ⋅ S EF (z)

(5.99)

mit + S EF ( z ) = K1

und

n0

∏ ( z − q0n ),

n =1

− S EF ( z ) = K 2 z−K3

ni

∏ ( z − q in ),

n =1

q 0n > 1

(5.100)

q in < 1 ,

(5.101)

wobei q in , n = 1,… , n i , und q 0n , n = 1,… , n 0 , die Nullstellen des Polynom s S EF ( z ) innerhalb bzw. außerhalb des Einheitskreises sind. Die Konstanten K 1 und K 2 müssen der Normierungsbedingung genügen: + S EF ( 1) = 1

In Konheim [5.8] wird gezei gt, dass sic h die erzeuge nde Funktion de r Wartezeitverteilung angeben lässt:

222

5 Analyse zeitdiskreter Systeme

WEF ( z ) =

1 + S EF (z)

.

(5.102)

Die Anwendung dieser Methode setzt eine explizite Berechnung von Nullstellen der charakteristischen Funktion voraus, z.B. mit Hilfe von Algorithme n zur Polynom -Faktorisierung. Für GI/GI/1-Syste me mit rel ativ langen Zwischen ankunfts- und Bed ienzeitverteilungen ist der damit verbundene num erische Aufwand hoc h. Ein weiterer Nachteil des Verfa hrens besteht da rin, dass die L ösung gemäß Gl. (5. 102) im tr ansformierten Bereich an gegeben wird. Benötigt m an die Wartezeitverteilung im Zeitbereich oder den Mittelwert bz w. den Variationskoeffizienten der Verteilung, müssen weitere Algorithmen zur Rücktransformation bzw. Differentiation (vgl. Henrici [5.7]) herangezogen werden. Für Systeme mit geringerer Anzahl von V erteilungswerten bietet de r Algorithmus mit Polynom-Faktorisierung jedoch eine effiziente Möglichkeit zur Analyse des GI/GI/1-Systems. c)

Algorithmus mit Cepstrum-Bildung

Die Separationsmethode im Cepstrum-Bereich geht von der charakteristischen Gleichung im Z-Bereich aus: − S ZT ( z ) = WZT (z) ⋅

1

WZT ( z )

=

C ZT ( z ) − 1 1 − z −1

.

(5.103)

Die W artezeitverteilung WZT ( z ) soll nun aus der chara kteristischen Funkti on S ZT ( z ) extrahiert werden. F ür den Separationsansatz im Cepstrum -Bereich wird z unächst gezeigt, − dass die bei den in der c harakteristischen Funktion enthaltenen Term e WZT ( z ) un d 1 / WZT ( z ) jeweils die Z -Transformierte einer M aximalphasen- bzw. einer Minimalphasenfolge sind.



C ZT ( z ) ist ein Polynom in z −1 :

Wenn die Verteilungen der Zwischenankunfts- und der Bedienzeit endlicher Länge sind, können diese Verteilu ngen s owie die Sy stemfunktion im Z-Bereich als Polynom e geschrieben werden: A ZT ( z ) =

nA −1

∑ a ( k ) z −k ,

k =0

( )

B ZT ( z ) =

C ZT ( z ) = A ZT z −1 ⋅ B ZT ( z ) =



S ZT ( z ) ist ein Polynom in z −1 :

nB −1

∑ b ( k ) z −k

(5.104)

c ( k ) z−k .

(5.105)

k =0

nB −1



k =−( n A − 1 )

Ähnlich wie bei der Polynom -Faktorisierung im vorausgegange nen Abschnitt kann gezeigt werden, dass die Funktion C ZT ( z ) − 1 eine einfache Nullstelle an der Stelle z = 1

5.4 Das zeitdiskrete Wartesystem GI/GI/1

223

besitzt. Die charakteristische Funktion S ZT ( z ) hat keine Pole und kann deshalb als Polynom in z −1 formuliert werden.



− WZT ( z ) ist die Z-Transformierte einer Maximalphasenfolge: Mit Gl. (5.81) (vgl. Abb. 5.10)

W− ( k ) + W ( k ) = c ( k ) ∗ W ( k )

und unter Be rücksichtigung der e ndlichen Lä nge de r System funktion c ( k ) nach − Gl. (5.105) lässt sich die Z-Transformierte WZT ( z ) ebenfalls als Polynom der Form − WZT (z) =

−1



k =−( n A − 1 )

W − ( k ) z −k =

nA −1



k =1

W − ( −k ) z k

(5.106)

− angeben. Dies bedeutet, dass WZT ( z ) keine Pole hat. − Da W ( −k ) in Gl. (5.81) ei ne Folge mit nicht-ab nehmenden Koeffizienten ist (vgl. Abb. 5.10), kann ferner nachgewiesen werden (vgl. Ackroyd [5.5]), dass alle Nullstelle n − − von WZT ( z ) außerhalb des Einheits kreises liegen. D ies bedeutet, dass WZT ( z ) die ZTransformierte einer Maximalphasenfolge ist.



1 WZT ( z )

ist die Z-Transformierte einer Minimalphasenfolge:

Da WZT ( z ) die Z-Transformierte einer Verteilung ist und für z > 1 konvergiert, liegen alle Pole von WZT ( z ) innerhalb des Einheitskre ises. Dies be deutet, dass der Ter m 1 / WZT ( z ) nur Nullstellen innerhalb des Einheitskreises hat. − Wie oben geze igt, haben S ZT ( z ) und WZT ( z ) keine Pole. Nach Gl. (5.103) ist da her ersichtlich, dass 1 / WZT ( z ) ebenfalls keine Pole besitzt. Der Term 1 / WZT ( z ) ist deshalb die Z-Transformierte einer Minimalphasenfolge. Zur Berechnung der Wartezeitverteilung w ( k ) kann nun die Separationsmethode von Maximal- und M inimalphasenfolgen durch die Ceps trum-Bildung ( vgl. Gl. (5.35) , ( 5.36) und (5.37)) a uf die chara kteristische F unktion i n Gl. (5. 103) angewendet werden. Die für die Cepstrum-Berechnung be nötigte Z-Tra nsformation und -Rücktra nsformation kann m it der Diskreten F ourier-Transformation (D FT) bzw. der sch nellen Fourier-Transform ation (FFT) bewerkstelligt werden.

224

5 Analyse zeitdiskreter Systeme Z-Bereich (approximiert durch DFT)

diskreter Zeitbereich

CepstrumBereich

b(k)

a(-k)

∗ DFT

c(k)

CDFT(n) S DFT(n) komplexer Logarithmus

S LN (n)

DFT

-1

S CEP k) (

Separation

+ S DFT n) (

w1 (k)

DFT -1

DFT

+ S CEP (k)

exp(.)

W1, EXP (n)

Normierung

w(k)

Abb. 5.12: Schematische Darstellung des Analysealgorithmus für das zeitdiskrete GI/GI/1System mittels Cepstrum-Bildung

Wie in Abb. 5.12 schematisch dargestellt, können die einzelnen Schritte des Algorithmus mit Cepstrum-Bildung (vgl. Ackroyd [5.5]) wie folgt zusammengefasst werden: (i) Berechnung der diskreten Fourier -Transformation ( DFT) der c harakteristischen S DFT ( n ) . Funktion (ii)

Berechnung des komplexen Logarithmus S LN ( n ) = ln S DFT ( n )

5.4 Das zeitdiskrete Wartesystem GI/GI/1

225

und des komplexen Cepstrums der charakteristischen Funktion S CEP ( k ) = DFT −1 {S LN ( n )} .

(iii) Separation de r Maxim al- und Mi nimalphasenanteile von Cepstrum

S CEP ( k ) . Das Teil-

⎧S (k ) k ≥ 0 + S CEP ( k ) = ⎨ CEP 0 k0

.

(5.108)

Systembelegung und mittlere Warteschlangenlänge

Aus den m ittleren Wartezeiten können d urch Anwendung des Littleschen Theorem s die Mittelwerte der Warteschlangenlänge Ω und der Systembelegung E [ X ] berechnet werden. Für das gesamte GI/GI/1-System mit der m ittleren Aufenthaltsdauer E [ W ] + E [ B ] und der mittleren Zwischenankunftszeit E [A ] ergibt sic h für die mittlere System belegung E [ X ] gemäß der Little-Formel: E [X] =

E [ W ] + E [B] E [A ]

=

E [W] E [A ]

+ρ.

(5.109)

Nun wird bei der Anwendung der Little-Formel nur die Warteschlange als System betrachtet. Dieses System hat die m ittlere A ufenthaltsdauer E [ W 1 ] und die mittlere Zwischenankunftszeit E [A ] / p W . Die mittlere Warteschlangenlänge errechnet sich zu Ω =

E [ W1 ] ⋅ pW E [A ]

=

E [W] E [A ]

.

(5.110)

230

5 Analyse zeitdiskreter Systeme

5.5

Zeitdiskretes GI/GI/1-System mit Wartezeitbegrenzung

In diesem Abschnitt wird die Analyse des GI/GI/1-Systems mit begrenzter Wartezeit behandelt. Das hier vorgestellte zeitdiskrete W arteverlustsystem unterschei det sich vom ze itdiskreten Wartesystem GI/GI/1 in Kapitel 5. 4 dadurch, das s ne ue A nforderungen de n Warteraum nicht betreten bzw. a bgewiesen we rden, wenn zum Ankunftszeitpunkt die z u erwartende Wartezeit eine maximal zulässige Wartezeit überschreitet. Wir werden zunächst die allgemeine Analyse des GI/GI/1-Systems mit Wartezeitbegrenzung erörtern, gefolgt von eine r Anwendung dieses Systems bei der Modellierung eines Spacers, der zur Überlastabwehr in Kommunikationsnetzen wie IP- oder A TM-Netzen häufig ei ngesetzt wird.

5.5.1

Das GI/GI/1-System mit Wartezeitbegrenzung

Das M odell i st ein GI/GI/1-Wartesystem mit FIFO-Abfertigungsdiszi plin und folgende r Modifikation. Anforderungen werden angenommen – o der dürfen in den Warteraum eintreten –, wenn zum Ankunftszeitpunkt die zu erwartende Wartezeit kleiner als ein Schwellwert WMAX = L ⋅ Δt

ist, d h. wenn die Restarbeit im System zu m Ankunftszei tpunkt den Sc hwellwert WMAX nicht überschreitet. Das GI/ GI/1-System mit Wartezeitbegrenzung wird a uch gem äß de r K endall-Notation al s GI/GI/1-L-Warteverlustsystem bezeichnet. Es handelt sich hierbei nicht um ein System mit begrenztem Speicher. Das Kriterium für eine Blockierung ist hier die Überschreitung ei ner maximal zulässigen Wartezeit, nicht einer maximalen Anzahl von Anforderungen im System zum Ankunftszeitpunkt. Die Analyse erfolgt anal og zum vorherigen Kapitel. Die Zeitachse ist diskretisiert in Intervalle der Länge Δt . Ähnlich wie bei der Analyse des GI/GI/1-Systems im vorherigen Abschnitt betrachten wir folgende Zufallsvariablen: An Bn Un

ZV für die Z wischenankunftszeit, d h. die Zeitdauer z wischen de r n-te n und de r (n+1)-ten Anforderung, ZV für die Bedienzeit der n-ten Anforderung, ZV für die Restarbeit im System unmittelbar vor dem Ankunftszeitpunkt der n-ten Anforderung.

Blockierung tritt auf, falls die Restarbeit den Schwellwert übersteigt ( U n ≥ L ).

5.5 Zeitdiskretes GI/GI/1-System mit Wartezeitbegrenzung n-1

n

An

231

n+1 Blockierung

U(t)

Ankünfte

L B n

t U n+1

Un

Abb. 5.15: Prozessverlauf der Restarbeit im GI/GI/1-System mit Wartezeitbegrenzung

Einen typischen Prozessverlauf der Restarbeit im GI/GI/1-System mit begrenzter Wartezeit zeigt Abb. 5. 15. Betrachtet m an eine anko mmende Anforderung, welche die Restarbeit U n im System antrifft, so können zwei Fälle unterschieden werden: Fall 1: Akzeptanz der Anforderung ( U n < L )

Die Restarbeit in diesem Fall wird mit der bedingten ZV U n ,0 = U n U n < L definiert u n ,0 ( k ) =

σL −1 [u n ( k )] σL −1 [u n ( k )] = , L −1 P( U n < L) ∑ u n (i )

(5.111)

i =0

wobei σm ⎡⎣ x ( k ) ⎤⎦ ein Operator ist, der den unteren Teil ( k ≤ m ) einer Verteilung x ( k ) übernimmt und den Rest ausblendet : ⎧x ( k ) σm ⎣⎡ x ( k ) ⎦⎤ = ⎨ ⎩ 0

k≤m . k>m

(5.112)

Die Divisi on durch P(U n < L) in Gl. (5. 111) e ntspricht einer Normierung der entstandenen Verteilung der bedingten ZV U n ,0 = U n U n < L . Man erhält folge nde Bezie hungen für die Zu standsentwicklung im Akze ptanzfall (Un < L ) :

232

5 Analyse zeitdiskreter Systeme U n + 1, 0 = U n , 0 + B n − A n ,

(5.113)

u n + 1,0 ( k ) = π0 ⎡⎣ u n ,0 ( k ) ∗ bn ( k ) ∗ a n ( −k ) ⎤⎦ .

Fall 2: Blockierung der Anforderung ( U n ≥ L )

Ähnlich wi rd die Restarbeit in diesem Fall mit der be dingten Z V U n ,1 = U n U n ≥ L definiert. Die Verteilung dieser ZV lautet u n ,1 ( k ) =

σ L ⎡⎣ u n ( k ) ⎤⎦ P (Un ≥ L )

=

σ L ⎡⎣ u n ( k ) ⎤⎦ ∞

∑ un ( i )

,

(5.114)

i =L

wobei σ m ⎡⎣ x ( k ) ⎤⎦ ein Operator ist, der den oberen Teil ( k ≥ m ) einer Verteilung x ( k ) durchlässt und den Rest ausblendet: ⎧ 0 σm ⎣⎡ x ( k ) ⎦⎤ = ⎨ ⎩x ( k )

k 0 ,

(6.31)

x ( 0 ) = pk + 1 .

(6.32)

Der Markovsche Ankunftsprozess (MAP)

Der Markovsche Ankunftsprozess (MAP, engl. Markovian Arrival Pr ocess) ist eine Verallgemeinerung des Konzeptes de r P hasenverteilung. Dieses K onzept ist auf Arbeiten v on Neuts [6.9, 6.10] und Lucantoni [6.6, 6.7] zurückzuführen und umfasst nicht nur die vo rgestellte Phasenverteilung, sondern auch allgemeine korrelierte Ankunftsprozesse ohne Erneuerungseigenschaft. Die Beschreibung von Punktprozessen mit MAP führt zu einer Vereinheitlichung der Repräsentationen verschiedener Prozesstypen. So wurden für MAP m athematische Analysemethoden entwickelt, die für ei n breites Spektrum von Warteschlangenmodellen mit unterschiedlichen Zufallsprozessen verwendet werden können.

6.2.1

Definition

Ähnlich wie bei der Phasenverteilung ist bei m Markov-Ankunftsprozess der steuernde Prozess eine endl iche, irreduzible Markov-Kette. Es wird ne ben der steuernden Markov-Kette in stetiger Zeit noch eine eingebettete Markov-Kette in diskreter Zeit betrachtet, die die Phase jeweils zu Sprungzeitpunkten beschreibt. In A bb. 6.6 w ird die einge bettete steuernd e Markov-Kette mit den Übergangswahrscheinlichkeiten ve ranschaulicht. Anders als be i der P hasenverteilung i st die Neust artWahrscheinlichkeit bei MAP abhä ngig von der Phase unmittelbar vor der A bsorption. Dadurch können MAP zur Modellierung von segm entweise abhängigen od er korrelierten Prozessen verwendet werden. Die Erneuerungseigenschaft ist dann nicht mehr gegeben. Übergangsverhalten

Der Z ustandsraum der einge betteten steue rnden M arkov-Kette besteht aus k transiente n Phasen und ei nem Abs orptionszustand. Die Da uer der tra nsienten P hase i, i = 1,… , k , ist negativ-exponentiell verteilt mit Parameter λ i . Es wird z wischen zwei Arten von Zustandsübergängen mit folgenden Übergangswahrscheinlichkeiten unterschieden:

• transienter Übergang: Mit der Übergangswahrscheinlichkeit pi j ( 0 ) , i ≠ j , erfolgt ein Übergang zwischen zwei transienten Phasen i und j ( i, j ∈ {1,… , k} ) , ohne ein Ankunftsereignis zu generieren. • Übergang mit Absorption und Neustart: Mit der Übergangswahrscheinlichkeit pi j ( 1 ) findet ein Ü bergang von einer transienten Phase i über eine Absorption zu einem Neustart in de r Phase j statt ( i, j ∈ {1,… , k} ) , wobei ein Ankunftsereignis erzeugt wird.

256 6

Matrixanalytische Methode

1 p12 ( 0 )

p21 ( 0 )

2 transiente Zustände

p2k ( 0 ) • pk 2 ( 0 ) p1k ( 0 )

pk1 ( 0 )

k

Ankunftsereignis

PoissonAnkunftsprozess

Absorption und Neustart

pi j ( 1 )

Abb. 6.6: Zustandsübergänge des Markov-Ankunftsprozesses (MAP)

Diese Übergangswahrscheinlichkeiten erfüllen die Vollständigkeitsrelation k

k

j =1 j≠

j=1

∑ pi j ( 0 ) + ∑ pi j ( 1 )

= 1, für 1 ≤ i ≤ k ,

und bilden die Elemente der Ankunftsmatrizen D0 und D1 des Markov-Ankunftsprozesses:

D0

λ 1 p12 ( 0 ) … λ 1 p1k ( 0 ) ⎞ ⎛ −λ 1 ⎜ ⎟ … λ 2 p2k ( 0 ) ⎟ p 0 λ −λ 2 ( ) = ⎜ 2 21 ∈k×k , ⎜ ⎟ … … … ⎜⎜ ⎟ −λ k ⎟⎠ ⎝ λ k pk1 ( 0 ) λ k pk 2 ( 0 ) …

(6.33)

D1

⎛ λ 1 p11 ( 1 ) λ 1 p12 ( 1 ) … λ 1 p1k ( 1 ) ⎞ ⎜ ⎟ λ p ( 1 ) λ 2 p22 ( 1 ) … λ 2 p 2k ( 1 ) ⎟ = ⎜ 2 21 ∈k×k . ⎜ ⎟ … … … ⎜⎜ ⎟⎟ ⎝ λ k pk1 ( 1 ) λ k pk 2 ( 1 ) … λ k pkk ( 1 ) ⎠

(6.34)

6.2 Der Markovsche Ankunftsprozess (MAP)

257

Die Ankunftsmatrix D0 ist dem Fall zugeordnet, dass ein Phasenübergang ohne gleichzeitige Ankunft eines Ereignisses erfo lgt, und D1 dem Fall, dass sich zum Zeitpunkt des P hasenübergangs eine Ankunft ereignet. Es wird vorausgesetzt, dass die Inve rse D 0−1 existiert. Die Summenmatrix (6.35)

D = D0 + D1

ist die Infinitesim al-Generatormatrix de r s teuernden Markov-Kette m it stetiger Zeit. Die Kurznotation ( D0 , D 1 ) wird Repräsentation des Markov-Ankunftsprozesses genannt. Ähnlich wie bei W ahrscheinlichkeitsverteilungen ka nn ei ne erze ugende Fu nktion für die Ankunftsmatrizen des Ankunftsprozesses definiert werden: DEF ( z ) =

6.2.2



∑ D k zk

k =0

= D 0 + zD 1 .

(erzeugende Funktion des MAP)

(6.36)

Wichtige Eigenschaften des Markov-Ankunftsprozesses

Semi-Markov-Prozess und Markov-Erneuerungsprozess

Die Zeitintervalle zwischen aufeinande r fol genden Absorptionen in einem Markov-Ankunftsprozess sind nicht not wendigerweise identisch verteilt, denn die Wahrscheinlichkeitsverteilung für die Phase beim Neustart hä ngt von der letzten Phas e vor der Absorption ab. Der Mark ov-Ankunftsprozess MAP k ann daher als Semi-Markov-Prozess aufgefasst werden. Betrachtet man die Folge {( A n , J n ) , n ≥ 0} von Tupeln, die aus dem Zeitintervall A n zwischen der (n – 1)-ten und der n-ten Absorption und der Phase J n unmittelbar nach der n-ten Absorption bestehen, so erhält man einen Markov-Erneuerungsprozess. Ähnlich wie bei der eingebetteten Markov-Kette sind die Zeitpunkte unm ittelbar nach de r n-ten Absorption die Einbettungszeitpunkte des Markov-Erneuerungsprozesses. Die Vergangenheit des gesamten Prozesses ist zu den Einbettungszeitpunkten in der Zustandsbeschreibung [A n , J n ] vollständig enthalten. {[A n , J n ] , n ≥ 0} bildet eine Markov-Kette. Beispiel 1: Phasenverteilung als Sonderfall des MAP

Eine Phasenve rteilung m it de r Repräsentation PH ( Π, Q 0 ) lässt sich durc h eine n M arkovAnkunftsprozess darstellen, indem die Ankunftsmatrizen wie folgt gewählt werden: D0 : = Q 0 , D1 : = − Q 0 ⋅ e ⋅ Π = Ω ⋅ Π . (Rep

(6.37) räsentation von PH durch MAP)

(6.38)

258 6

Matrixanalytische Methode

Die Klasse von Phasenvertei lungen bzw. Erne uerungsprozessen m it phasenverteilten Zwischenankunftszeiten im vorherigen Abschnitt bildet som it eine Teilmenge der Markovschen Ankunftsprozesse. Beispiel 2: Der Markov-Modulierte Poisson-Prozess (MMPP)

Die Klasse de r M arkov-Modulierten P oisson-Prozesse (engl. MMPP: Markov-Modulated Poisson Pr ocesses) wird häufig zur M odellierung von korrelierten Verkehrsströmen in Kommunikationsnetzen verwendet. Der MMPP ist ein doppelt-stochastischer Prozess, bei de m die momentane Ankunftsrate durch eine Ma rkov-Kette gesteuert wird. Der modulierende Prozess des MMPP besteht aus k transienten Phasen. Die Dauer einer tra nsienten Phase i ist negativ-exponentiell verteilt mit der Rate γ i . Befindet sich der modulierende Prozess in de r Phase i, i = 1,… , k , werden Ankunftsereignisse mit Hilfe eines Poisson-Prozesses mit der Rate λ i erzeugt. Der steuernde, modulierende Prozess liegt somit einer zeitkontinuierlichen Markov-Kette mit der Infinitesimal-Generatormatrix Γ zugrunde. Der MMPP kann infolgedessen mit der Matrix Γ und der Ratenmatrix Λ charakterisiert werden: Λ = diag ( λ 1 , λ 2 ,… , λ k ) .

(6.39)

Der MMPP is t, ande rs als im Sonde rfall de s unterbroc henen P oisson-Prozesses (IPP ) i m vorherigen Abschnitt, kein Erneuerungsprozess. Betrachtet man die oben erwähnten Phasen als transiente Phasen eines Markov-Zustands prozesses, s o ka nn ein M arkov-Modulierter Poisson-Prozess als MAP mit folgender Reprä sentation dargestellt werden (vgl. Fischer & Meier-Hellstern [6.5], Lucantoni [6.6]): D0 = Γ − Λ ,

(6.40)

D1 = Λ .

(6.41)

Für den Spezialfall des unterbrochenen Poisson-Prozesses (IPP) mit ⎛ −γ 1 Γ = ⎜ ⎝ γ2

γ1 ⎞ ⎟ −γ 2 ⎠

und

⎛0 0 ⎞ Λ = ⎜ ⎟ ⎝ 0 λ2 ⎠

(6.42)

erhält man mit Gl. (6.40) die MAP-Repräsentation ⎛ −γ 1 D0 = Γ − Λ = ⎜ ⎝ γ2

γ1

⎞ ⎛0 0 ⎞ ⎟ , D1 = Λ = ⎜ ⎟. −γ 2 − λ 2 ⎠ ⎝ 0 λ2 ⎠

Diese Repräsentation lässt sich ebenfalls mittels der Phasenverteilung des IPP

(6.43)

6.2 Der Markovsche Ankunftsprozess (MAP)

Π =

{0, 1}

⎛ −γ 1 , Q0 = ⎜ ⎝ γ2

259

γ1

⎞ ⎟, −γ 2 − λ 2 ⎠

(6.44)

und der Phasenverteilungsäquivalenz des MAP aus Gl. (6.37) herleiten: ⎛ −γ 1 D0 = Q 0 = ⎜ ⎝ γ2

γ1 ⎞ ⎟, −γ 2 − λ 2 ⎠

⎛0 0 ⎞ D1 = − Q 0 e Π = ⎜ ⎟. ⎝ 0 λ2 ⎠

(6.45)

Markov-Ankunftsprozess mit Gruppenankünften (BMAP)

Mit den Ankunftsmatrizen D0 und D1 werden Übergänge ohne bzw. mit einem Ankunftsereignis beschrieben. Anal og können weitere Ankunftsm atrizen D n definiert werden, um den allgemeinen Fall einer Ankunft mit n Ereignissen zu beschreiben. Wir de finieren mit pi j ( n ) , i ≠ j , die Übe rgangswahrscheinlichkeit für den Übergang vo n einer transienten Phase i über eine Absorpti on zu einem Neustart in der Phase j , wobei n Anforderungen gleichzeitig eintreffen ( n = 0, 1,… ). Diese Wahrscheinlichkeiten erfüllen die Vollständigkeitsrelation k



k

∑ pi j ( 0 ) + ∑ ∑ p i j ( n ) j =1 j≠ i

= 1 , für

1≤i≤k.

n =1 j =1

Die entsprechenden Ankunftsmatrizen D0 und D n ( n > 0 ) sind wie folgt strukturiert:

D0

λ 1 p12 ( 0 ) … λ 1 p1k ( 0 ) ⎞ ⎛ −λ 1 ⎜ ⎟ … λ 2 p2k ( 0 ) ⎟ p 0 λ −λ 2 ( ) = ⎜ 2 21 ∈k×k , ⎜ ⎟ ⎜⎜ ⎟ −λ k ⎟⎠ ⎝ λ k pk1 ( 0 ) λ k pk 2 ( 0 ) …

Dn

⎛ λ 1 p11 ( n ) λ 1 p12 ( n ) … λ 1 p1k ( n ) ⎞ ⎜ ⎟ λ p ( n ) λ 2 p22 ( n ) … λ 2 p2k ( n ) ⎟ = ⎜ 2 21 ∈k×k , ⎜ ⎟ ⎜⎜ ⎟⎟ ⎝ λ k pk1 ( n ) λ k pk 2 ( n ) … λ k pkk ( n ) ⎠

(6.46)

n>0.

(6.47)

Der so definierte Prozess heißt Markovscher Gruppenankunftsprozess (BMAP: Batch Markovian Arrival Process). Durch die Möglichkeit von Gruppenankünften ist die Klasse BMAP abgeschlossen bez üglich der Ü berlagerung m ehrerer Ankunftsströme, wie sie etwa in der Modellierung von Ei ngangspuffern von Multiplexern i n Kommunikationssystemen vorkommt.

260 6

Matrixanalytische Methode

Die mathematische Behandlung von MAP und BMAP beruht auf denselben Argumenten und Beziehungen. Eine detaillierte Erörterung des BMAP findet sich z.B. in Lucantoni [6.6, 6.7].

6.2.3

Der zeitdiskrete Markov-Ankunftsprozess (D-MAP)

Bei der zeitdiskreten Version des MAP, D-MAP genannt (engl. Discrete-Time Markov Arrival Process), wird eine mit Δt diskretisierte Zeitachse bet rachtet. Die Dauer einer transienten Phase ist i dentisch m it Δt , da eine Tra nsition inne rhalb eines dis kretisierten Intervalls Δt abgeschlossen sein m uss. A nkunftsereignisse könne n da her bei eine r Abs orption am Ende einer transienten Phase nur zu den diskretisierten Zeitpunkten auftreten. Ebenso wie bei D-PH trete n bei D-MAP Überga ngswahrscheinlichkeiten an die Stelle der Überga ngsraten. Die Ankunfts matrizen D0 un d D1 sind folglich substochastisc he Matrizen, die die Wahrscheinlichkeiten der ve rschiedenen Phasenüber gänge ohne bz w. m it gleichzeitiger Ankunft angeben. Aufgrund der Vollständigkeitsrelation ist die Summenmatrix D = D0 + D1 stochastisch, und ihr Element D [ ij] gibt, unabhä ngig von eine r eventuellen Ankunft, die W ahrscheinlichkeit an, dass j im nächsten diskretisierten Zeitabschnitt die Folgephase von i ist. Es wird fe rner vorausgesetzt, dass die Matrix D irreduzibel und aperiodisch ist. Aufgrund dieser irreduziblen Eigenschaft der steuernden Markov-Kette kann a uch stets vorausgesetzt werden, dass die Matrix

(I − D0 )−1

=



∑ ( D0 )

k

k =0

−1

existiert. Speziell gibt der Term ( I − D0 ) D 1 die Wahrscheinlichkeit an, das s eine Periode ohne Ankunft irgendwann mit dem Eintreffen einer Anforderung endet. Mit den oben erwähnten Eigenschaften hat die Matrix D den Eigenwert Eins und daher auch einen invarianten Linkseigenvektor π , der als Lösung des folgenden linearen Gleichungssystems gilt π = π D , mit π ⋅ e = 1 . (stationä

re Zustandswahrscheinlichkeit)

(6.48)

Der Vektor π ist ein stochastischer Zeilenvektor, der die stationäre Wahrscheinlichkeit für den Aufenthalt des Prozesses in den transienten Phasen angibt. Er ist durc h die Vollständigkeitsrelation π ⋅ e = 1 eindeutig gegeben. Weiterhin er gibt sich de r S paltenvektor λ der phas enabhängigen A nkunftsraten aus der Gleichung λ = D1 ⋅ e . (p

hasenabhängige Ankunftsraten)

(6.49)

6.3 Das Wartesystem MAP/GI/1

261

Die mittlere stationäre Gesamt-Ankunftsrate erhält man durch Gewichtung der Komponenten von λ m it den stationären Wahrscheinlichkeiten für den Aufenthalt des Prozesses i n den einzelnen Phasen: λ = π ⋅ λ = π ⋅ D1 ⋅ e . (m

ittlere Gesamt-Ankunftsrate)

(6.50)

Beispiel für D-MAP: der zyklische On-Off-Prozess

Ankunftsereignisse ON

t Δt

OFF Phase

1

2

3

4

5

1

2

3

4

5

1

2

3

4

5

Abb. 6.7: Zyklischer On-Off-Prozess

Der Markov-Ankunftsprozess ist be sonders gut zur Charakterisierung von allgemeinen Prozessen mit beliebigen Korrelationseigenschaften geeignet. Ein Beispiel zeigt Abb. 6.7, in der ein zyklischer D-MAP dargestellt ist. Die ser zeitdiskrete Prozess hat einen Zykl us von 5 Zeiteinheiten bzw. Slots. Der Zyklus besteht aus einer Folge von 3 Slots mit Daten und zwei leeren Slots. Diese 5 Slots des Zyklus e ntsprechen 5 transienten Phase n eines zeitdiskreten Markov-Ankunftsprozesses mit der Repräsentation

D0

6.3

⎛0 ⎜ ⎜0 = ⎜0 ⎜ ⎜0 ⎜1 ⎝

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

0⎞ ⎟ 0⎟ 0⎟ , ⎟ 1⎟ 0 ⎟⎠

D1

⎛0 ⎜ ⎜0 = ⎜0 ⎜ ⎜0 ⎜0 ⎝

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0⎞ ⎟ 0⎟ 0⎟ . ⎟ 0⎟ 0 ⎟⎠

Das Wartesystem MAP/GI/1

In d iesem Absch nitt so ll d ie Anwendung der Matrix analytischen Met hode am Beisp iel d es MAP/GI/1-Wartesystems gezeigt werden. Ähnlich wie beim M/GI/1- System basiert die Analyse auf der Ei nbettung eines Markov-Erne uerungsprozesses unm ittelbar nach den Bedien-Ende-Zeitpunkten. Verti efende Literatur zu d ieser A nalyse un d deren Ve rallgemeinerung findet sich z.B. in Lucantoni et al. [6.6, 6.7, 6.8].

262 6

6.3.1

Matrixanalytische Methode

Modellbeschreibung

Abbildung 6.8 zeigt die Struk tur d es MAP/GI/1-W artesystems (b zw. MAP/GI/1- ∞ ). Der Ankunftsprozess ist ein Markov scher Ankunftsprozess MAP m it der Rep räsentation (D0 , D1 ) , die z ugehörige mittlere gesamte Ankunftsrate ist λ . Die Anza hl der transienten Phasen ist k , d h. D0 und D1 sind qua dratische M atrizen der Dimension k × k . Die Bediendauer B ist allgemein verteilt.

MAP

{D0 , D1 }

zeitkontinuierlicher MarkovAnkunftsprozess



B GI

unbegrenzter Warteraum

allgemein verteilte Bedienzeit

Abb. 6.8: MA P/GI/1-System

Die Analyse dieses Syste ms vollzieht sic h analog der Analyse des M/GI/1-Wa rtesystems. Durch den MAP-An kunftsprozess genügt es h ier jedo ch n icht m ehr, zu r Beschreibun g d es Systemzustands an den Ei nbettungszeitpunkten lediglich die Anza hl der Anforderungen im System zu kennen. Z usätzlich wi rd die Ke nntnis de r P hase des Ankunftsprozesses z u den Einbettungszeitpunkten benötigt.

6.3.2

Zählprozess der Ankünfte

Die Entwicklung des MAP-Ankunftsprozesses wird während der Zeitspanne ( 0, t ] beobachtet. Die Anza hl der Ankunfts ereignisse während dieser Zeitspanne wird mit N ( t ) bezeichnet, die Phase zum Zeitpunkt t mit J ( t ) . Somit ist ( N ( t ) , J ( t ) ) , t die Beschreibung eines zeitkontinuierlichen und zustandsdiskreten stochastisc hen Prozesses. D ieser so defi nierte zweidimensionale Prozess besitzt die Markov-Eigenschaft, da die Übergangswahrscheinlichkeiten nur vom gegenwärtigen Zustand ⎡⎣N ( t ) , J ( t ) ⎤⎦ abhängen. Die zugehörige Generatormatrix des zweidimensionalen Markov-Prozesses ( N ( t ) , J ( t ) ) , t ist

{

{

}

}

6.3 Das Wartesystem MAP/GI/1

QA

⎛ D0 ⎜ ⎜ 0 = ⎜ 0 ⎜ ⎜ 0 ⎜ ⎝

D1 D0 0 0

0 D1 D0 0

263

0 0 D1 D0

…⎞ ⎟ …⎟ …⎟ . ⎟ …⎟ ⎟ ⎠

(6.51)

Bei der Festlegung dieser M atrix wird bereits zwischen zwei Ebe nen der Prozessbeschreibung unterschieden: der Ebene der Ereignisse bzw. Anforderungen und der E bene der Phasenbeschreibung des MAP-Ankunf tsprozesses. Zunächst wird eine Besonderheit dieser Matrixdarstellung, die Blockstruktur, vorgestellt. Blockstruktur der Matrizen

Die in Gl. (6.51) angegebe ne Matrix weist eine für die matrixanalytische Methode typische Blockstruktur auf. Die blockweise Aufteilung der Matrix entspricht dabei der Form des steuernden Prozesses ( N ( t ) , J ( t ) ) , t .

{

}

Auf der Ebene der Anforderungen erkennt man die Ankunftsmatrizen des MAP. Die Indizes der Blockspalten und -zeilen korrespondieren mit den sog. Niveaus des Prozesses. Unter dem Begriff Niveau versteht m an die Menge aller Zustände, bei denen die A nzahl der Anforderungen unverändert bleibt. Da der MAP-Ankunftsprozess k transiente Phasen hat, existieren auf jedem Niveau k elem entare Zustä nde. So e ntspricht eine Zusta ndsänderung auf der Ebene der Anforderungen (z.B. Ankunftsereignis oder Be dien-Ende) einem Übergang zwischen den Niveaus, während eine Phasenänderung mit einem Übergang zwischen zwei transienten Zuständen korrespondiert. Die Blockstruktur liegt somit einer Linearisierung bzw. einer eindimensionalen Schreibweise der zweidimensionalen Zustandsbeschreibung ⎡⎣N ( t ) , J ( t ) ⎤⎦ zugrunde. Dies ermöglicht eine einfache Beschreibung der Z ustandsübergänge, wie sie in der obige n Generatormatrix bzw. in der nachfolgenden Übergangswahrscheinlichkeitsmatrix zu finden ist. Im Zusammenhang mit Blockmatrizen wird durch die Betrachtung der Niveaus der darunter liegende Phasenprozess verborgen und die Analogie zum klassischen eindimensionalen Fall sichtbar. Die Verwandtschaft der beiden Fälle wird z.B. in Lucant oni [6.7] durch eine Ge genüberstellung der Formeln verdeutlicht. Übergangsgleichung

Mit R ( t ) bezeichnen wir die Über gangswahrscheinlichkeitsmatrix für den Prozess ( N ( t ) , J ( t ) ) , t während des Intervalls ( 0, t ] . Die Matrix R ( t ) ist stochastisch und hat ebenfalls die oben beschriebene Blockstruktur, die der von der Matrix Q A entspricht:

{

}

264 6

Matrixanalytische Methode

R (t)

⎛R 0 ( t ) R 1 ( t ) R 2 ( t ) ⎜ R 0 (t) R 1 (t) ⎜ 0 ⎜ = 0 0 R 0 (t) ⎜ 0 0 0 ⎜ ⎜ ⎝

R 3 (t) R 2 (t) R 1 (t) R 0 (t)

…⎞ ⎟ …⎟ …⎟ . ⎟ …⎟ ⎟ ⎠

(6.52)

Die Blöcke R n ( t ) sind Matrizen, deren Elemente folgende Übergangswahrscheinlichkeiten angeben:

(

)

R n ( t ) [ i j] = P N ( t ) = n , J ( t ) = j N ( 0 ) = 0 , J ( 0 ) = i .

Die Matrix R n ( t ) wird a uch die Zählfunktion des Ankunftsprozesses genannt. Da die Matrix R ( t ) und die zugehörige Infinitesim al-Generatormatrix Q A der K olmogorov-Vorwärtsgleichung genügen, ist R n ( t ) die Lösung des Differentialgleichungssystems d R ( t ) = R ( t ) ⋅Q A , dt

für t ≥ 0

und R ( 0 ) = I .

Durch Einsetzen der Matrizen R ( t ) und Q A erhält man, unter Berücksichtigung der Blockstruktur, die Beziehung d R n ( t ) = R n ( t ) ⋅ D0 + R n −1 ( t ) ⋅ D1 , dt R 0 (0) = I .

n ≥ 1, t ≥ 0 ,

(6.53) (6.54)

Eine formelle Transformation der Zählfunktion R n ( t ) bezüglich der Ankünfte mit Hilfe der erzeugenden Funktion liefert R EF ( z, t ) =



∑ R n ( t ) zn .

(6.55)

n =0

Damit erhält man aus Gl. (6.53) ∂ R EF ( z, t ) = R EF ( z, t ) ⋅ DEF ( z ) , ∂t

R EF ( z, 0 ) = I ,

(6.57)

wobei

DEF ( z ) =



∑ D k zk

k =0

(6.56)

= D0 + zD1 .

6.3 Das Wartesystem MAP/GI/1

265

Daraus folgt R EF ( z, t ) = exp ( DEF ( z ) t ) , für z ≤ 1, t ≥ 0 .

(6.58)

Mit dieser Gleichung wird die Übergangswahrscheinlichkeitsmatrix in Abhängigkeit von der Repräsentation ( D 0 , D 1 ) des MAP-Ankunftsprozesses bestimmt. Spezialfall: Poisson-Prozess

Die Beziehung in Gl . (6.58) kann am Poisso n-Ankunftsprozess verdeutlicht werden. Für diesen einfachen Fall reduzieren sich die Ankunftsmatrizen z u D0 = ( −λ ) und D1 = ( λ ) , und die Übergangsmatrix R n ( t ) ist die Zählfunktion der Poisson-Verteilung, d.h. R n (t) =

1 ( λt )n e −λt . n!

Eingesetzt in Gl. (6.58) ergibt sich die erzeugende Funktion der Poisson-Verteilung:

R EF ( z, t ) = exp ( ( −λ + zλ ) t ) . An diesem Be ispiel wird ersichtlich, dass der MAP die matrix-analytische Verallgemeinerung des Poisson-Prozesses ist. Im nächsten Abschnitt wird das Übergangsverhalten des MAP/GI/1-Systems untersucht, wobei die oben gezeigte Blockstruktur berücksichtigt wird.

6.3.3

Eingebetteter Markov-Erneuerungsprozess

Die Verteilungsfunktion der Bedienzeit sei B ( t ) und ihre La place-Stieltjes-Transformierte Φ B ( s ) . Wir betrachten die Folge t 0 , t 1 , … , t ν von Zeitpunkten, die unm ittelbar nach den Bedien-Ende-Zeitpunkten liegen. Da de r Prozess ⎡⎣N ( t ) , J ( t ) ⎤⎦ , t zu diesen Zeitpunkt en die Markov-Eigenschaft besitzt, kann ein Markov-Erneuerungsprozess zu diesen Zeitpunkten eingebettet werden.

{

}

Der Zustand des eingebetteten Markov -Erneuerungsprozesses ist durch ⎣⎡N ( t ν ) , J ( t ν ) ⎦⎤ definiert und nimmt W erte a us dem Zustandsra um {[ n, j] , n ≥ 0, 1 ≤ j ≤ k} an. Der Term N ( t v ) bezeichnet di e Anzahl der Anforderungen im System und J ( t ν ) die Phase des Ankunftsprozesses zum Einbettungszeitpunkt t ν . Zur Analyse des eingebettet en Erneuerungsprozesses wir d ein Inter vall zwische n zwei aufeinander folge nden Ei nbettungszeitpunkten untersucht. Zur Vereinfachung setzen wir den Startzeitpunkt dieses Intervalls auf 0 und den Endzeitpunkt auf t . Betrachtet we rden zwei s ukzessive Einbet tungszeitpunkte t ν un d t ν+ 1 . Die Zeitspanne zwischen diesen Einbettungszeitpunkten sei t . Die Wahrscheinlichkeiten für die Zustandsübergänge von ⎡⎣N ( t ν ) = n ν , J ( t ν ) = jν ⎤⎦ auf ⎡⎣N ( t ν+ 1 ) = n ν+ 1 , J ( t ν+ 1 ) = jν+ 1 ⎤⎦ während des Zeitintervalls t = t ν+ 1 − t ν bilden die Übergangsw ahrscheinlichkeitsmatrix P ( t ) , di e ebenfalls Blockstruktur hat:

266 6

Matrixanalytische Methode

P (t)

⎛ B0 ( t ) B1 ( t ) B2 ( t ) B3 ( t ) ⎜ ⎜ A0 ( t ) A1 ( t ) A2 ( t ) A3 ( t ) = ⎜ 0 A0 ( t ) A1 ( t ) A2 ( t ) ⎜ 0 0 A0 ( t ) A1 ( t ) ⎜ ⎜ ⎝

…⎞ ⎟ …⎟ …⎟ . ⎟ …⎟ ⎟ ⎠

(6.59)

Die Blöcke An ( t ) und Bn ( t ) sind ebe nfalls k × k -Matrizen, die die Übergänge z wischen den Niveaus repräsentieren und deren Elemente wie folgt interpretiert werden können: An ( t ) [ i j ]

Wahrscheinlichkeit für folgenden Übergang: Zum Zeitpunkt 0 findet ein Bedien-Ende statt. Das System ist nicht leer, und unmittelbar danach fängt ein Bedienvorgang an. Dieser Bedienvorgang endet späteste ns z um Zeitpunkt t . Zum Zeitpunkt 0 ist de r MAPAnkunftsprozess in der Phase i , zum Zeitpunkt t in der Phase j . Während dieser Zeit treffen n neue Anforderungen ein.

Bn ( t ) [ i j]

Wahrscheinlichkeit für folgenden Übergang: Nach dem Bedien-Ende zum Zeitpunkt 0 ist das System leer und durchläuft eine Freiperiode bis zum nächsten Ankunftse reignis. Die Bedienzeit dieser Anforderung fängt anschließend an und endet spätestens zum Zeitpunkt t . Zum Zeitpunkt 0 ist der M AP-Ankunftsprozess in der Phase i , zum Zeitpunkt t in der Phase j . Während dieser Zeit treffen insgesamt n + 1 Anforderungen ein, so dass sich nach dem Bedien-Ende n Anforderungen im System befinden.

Beide Matrixtypen geben also die Wahrscheinlichkeiten für verschiedene Möglichkeiten an, wie ein Übe rgang von einem Einbettungszeitpunkt zum nächsten m it der m aximalen Dauer t ablaufen ka nn. Die Matrix An ( t ) erhält m an aus der Zä hlfunktion (6.53) des Ankunftsprozesses und der Verteilungsfunktion der Bedienzeit: An ( t ) : =

t



τ= 0

R n ( τ ) dB ( τ ) .

(6.60)

Die Matrix Bn ( t ) ergibt sich a us der Matrix An ( t ) , wobei eine vorgeschaltete Freiperiode der Bedienei nheit berücksichtig t wird. Der Zusammenhang zw ischen diesen Matrizen läss t sich im Folge nden m it Hilfe von Tra nsformationen der M atrixgleichungen ansc haulich darstellen. Zunächst wenden wir die Laplace-Stieltjes-Transformation bezüglich der Zeit an: Φ An ( s ) =



∫e 0

− st

d An ( t ) ,

Φ Bn ( s ) =



∫e 0

− st

dBn ( t ) .

(6.61)

6.3 Das Wartesystem MAP/GI/1

267

Die Ausdrücke (6.61) werden mittels der matrizenerzeugenden Funktion bezüglich der Ankünfte zu Doppeltransformationen (DT) weiter umgeformt: ADT ( z, s ) =



∑ Φ A ( s ) zn ,

n =0



∑ ΦB ( s ) z n .

BDT ( z, s ) =

n

(6.62)

n

n =0

Für die Transformationsvariablen gilt wie gewohnt z ≤ 1 und Re ( s ) ≥ 0 . Wir interes sieren uns z unächst für die stationä ren Ve rteilungen, d h. für das Ve rhalten des Prozesses, das sich einstellt, wenn die Beobach tungsdauer gegen unendlich strebt. Die Übergangsmatrix für den stationären Fall lautet ⎛ B0 ⎜ ⎜ A0 = ⎜ 0 ⎜ ⎜ 0 ⎜ ⎝

P = P ( ∞ ) = lim P ( t ) t →∞

B1 A1 Α0 0

B2 A2 A1 A0

B3 A3 A2 A1

…⎞ ⎟ …⎟ …⎟ , ⎟ …⎟ ⎟ ⎠

wobei An = Φ An ( 0 ) = An ( ∞ ) = lim An ( t ) , t →∞

Bn = ΦBn ( 0 ) = Bn ( ∞ ) = lim Bn ( t ) . t →∞

Man beachte, dass P eine stochastische Matrix von Übergangswahrscheinlichkeiten ist. Die Summ en der Matrizen { An } un d {Bn } habe n z unächst n ur formalen Charakter und werden für spätere Analyseschritte benötigt: A =



∑ An

n =0

= ADT ( z, s )

s →0 z →1

,

B =



∑ Bn

= BDT ( z, s )

n =0

s →0 z →1

.

Diese Matrizen sind stochastisch, d.h. e = Ae und e = Be . Aus den Definitionen von An ( t ) und den Eigenschaften der Grenzübergänge der Tra nsformationen lässt sich die M atrix A bestimmen: A = ADT ( z, s )

s →0 z→1

=



− st ∫e e 0

DEF ( z ) t

dB ( t )

s →0 z →1

=



∫e 0

Dt

dB ( t ) .

(6.63)

Aus der Doppeltransformation BDT ( z, s ) =

1 ( sI − D0 )−1 (DEF ( z ) − D0 ) ADT ( z, s ) z

(6.64)

268 6

Matrixanalytische Methode

erhält man nach den Grenzübergängen s → 0 und z → 1 : Bn = − D0−1D1 An

(6.65)

und

(I − D D ) A . −1 0

Β =

(6.66)

Es kann gez eigt werden, dass für die in Gl . (6.48) definierten stationären Aufenthaltswahrscheinlichkeiten in den verschiedenen Phasen des Ankunftsprozesses auch die Beziehung gilt: π = πA .

Formal kann aus der D oppeltransformation ADT ( z, s ) die Mittel wertbildung von bzgl. n durchgeführt werden: EA =



∑ nAne

n =0

{ An }

⎡∂ ⎤ = ⎢ ADT ( z, 0 ) ⎥ ⋅e ∂ z ⎣ ⎦ z →1

(

= ρe + ( I − A ) e π − D

)

−1

λ.

(6.67)

Der Spaltenvektor λ = D 1 ⋅ e stellt die phasenabhängigen Ankunftsraten des MAP-Ankunftsprozesses dar und wurde in Gl. (6.49) definiert. Da die m ittlere Anzahl der Ankünfte während einer Bediendauer mit der mittleren Systemauslastung ρ identisch ist, gilt: π EA = ρ .

6.3.4 a)

Stationäre Zustandswahrscheinlichkeiten

Zustandsübergangsgleichungen in Matrixschreibweise

Zur Berec hnung des stationären Z ustandsvektors X zu den Einbettu ngszeitpunkten des eingebetteten Markov-Erneuerungsprozesses, d h. zu den Bedien-Ende-Zeitpunkten, betrachten wir zunächst das Eigenvektorproblem X = X ⋅P

mit

X ⋅e = 1 ,

(6.68)

wobei die Stabilitätsbedingung ρ < 1 berücksichtigt wi rd. Der Zeilenvektor X sei dabei entsprechend der Blockstruktur von P in die 1 × k -Vektoren partitioniert:

6.3 Das Wartesystem MAP/GI/1 X =

269

{X 0 , X 1 ,…} .

(6.69)

Der Teilvektor X ν korrespondiert mit dem Niveau ν und gibt die phasenabhängigen Wahrscheinlichkeiten an, mit denen sich das Syst em nach einem Bedien-Ende auf dem Niveau ν befindet. Aus der Blockstruktur von P (vgl. Gl. (6.59)) folgt für die Teilvektoren X ν = X 0 Bν +

ν+ 1

∑ X n Aν+1−n ,

für ν ≥ 0 .

(6.70)

n =1

Die Komponente X ν [ j] des Vekt ors X ν gibt die Zustands wahrscheinlichkeit an, dass unmittelbar nac h einem Bedien-Ende ν Anford erungen im System sind und sich der M APAnkunftsprozess in der Phase j befindet. In diese r Zust andsübergangsgleichung wird die Äh nlichkeit mit der Zust andsgleichung des klassischen M/GI/1-Wartesystems (vgl. Gl. 4.21) deutlich: ν+ 1

x ( ν ) = x ( 0 ) γ ( ν ) + ∑ x ( i ) γ ( ν − i + 1) ,

ν = 0, 1,… .

i =1

Dabei korrespondieren der Teilvektor X ν de s MAP/ GI/1-Systems mit der Z ustandswahrscheinlichkeit x ( ν ) des M/GI/1-Systems und die Matrizen Bν , Aν mit der Wahrscheinlichkeit γ ( ν ) für die Anzahl von Poisson-Ankünften während einer Bediendauer. Zur Lösung dieses Gleichungssystems bestimmen wir z unächst den Teilvektor X 0 , der sic h über den sog. Grundzyklus herleiten lässt. Aus dem Teilvektor X 0 können dann die weiteren Teilvektoren X 1 , X 2 ,… sukzessiv berechnet werden. Der stationär e Vekt or X * für die Zustandswahrscheinlichkeiten zu beliebigen Zeitpunkten ergibt sich dann aus X (s. Abschnitt 6.3.5). b) Fundamental

e Periode

Transitionszeiten und Rückschrittdauer

Zunächst werden weitere Begriffe definiert. Unter der Transitionsdauer eines Übergangs von Niveau ν zu Niveau ν' (engl. first passage time) verstehen wir die Zeitspanne, die zwischen dem Eintritt in das Ni veau ν und dem unm ittelbar darauf folgenden ersten Ei ntritt in das Niveau ν' liegt. Zur Abkürzung wird die Notation Transitionsdauer [ ν, ν'] benutzt. Ein Rückschritt ist ein Übergang, der mit dem Eintritt in ein Niveau ν > 0 beginnt und mit dem unmittelbar darauf folgenden Eintritt in da s Niveau ν − 1 endet. Die Transitionsdauer [ν, ν − 1] eines Rückschritts wird auch fundamentale Periode (engl. fundamental period ) genannt.

270 6

Matrixanalytische Methode

Besondere Bedeutung kommt auch der T ransitionsdauer [ 0, 0 ] zu. Sie wird im Folgende n Grundzyklus genannt. Der Grundzyklus setzt sich aus einer Freiperiode und einer Betriebsperiode des Bedienprozesses zusammen (vgl. Abb. 6.9). N (t ) 5 4 3 2 1

B

2

G (6 )

G (2 )

fundamentale Periode

t

Betriebsperiode Grundzyklus

K (9 )

Abb. 6.9: Grundzyklus und fundamentale Periode

Verteilung der fundamentalen Periode

Wir bezeic hnen mittels der k × k -Matrix G ( r ) die Wahrsc heinlichkeiten, dass die fundamentale Periode r Bedien dauern umfasst. Dies be deutet, dass genau r Bedienvorgänge während einer Tra nsitionsdauer [ ν, ν − 1] mit ν > 0 durchgeführt wer den. W ir haben hier nicht lediglich eine Wahrscheinlichkeit, sondern eine Matrix von Wahrscheinlichkeiten zur Beschreibung dieses Sachve rhalts, da die invo lvierten Phasen des Ankunftsprozesses a m Anfang und am Ende der betrachteten fundamentalen Periode berücksichtigt werden müssen. Das Element G ( r ) [ i j] der Matrix G ( r ) gibt die Wahrscheinlichkeit an, dass eine fundamentale Periode r Bediendauern umfasst und a m Anfang bzw. am Ende dies er fundamentalen Periode der MAP-Ankunftsprozess in der Phase i bzw. j ist. In Abb. 6.9 werden Beispiele von fundamentalen Perioden gezeigt. Der erste Rückschritt mit der fundamentalen Periode umfasst 6 Bediendauern ( G ( 6 ) ), der zweite (m it G ( 2 ) ) hingegen nur 2. Daran wird deutlich, dass ein Rückschritt auf unterschiedlichen W egen erfolgen kann und dass für die fundamentale Periode somit jede positive Anzahl von darin enthaltenen Bediendauern möglich ist. Insbesonde re könne n in einem lange n Rückschritt viele weitere Rückschritte eingebettet sein, die kürzer sind und sich auf höheren Niveaus abspielen.

6.3 Das Wartesystem MAP/GI/1

271 Ankünfte

N (t) 6 5 4 3

A 3 G ( 1)

2 1

G ( 4)

G (2)

G (8)

t

Abb. 6.10: Struktur der fundamentalen Periode

Die in Abb. 6.10 exem plarisch dargestellte Realisierung einer fundam entalen Periode bei einem Rückschritt von Niveau 4 nach Niveau 3 umfasst r = 8 Bediendauern. Während der ersten Bediendauer treffen 3 Anforde rungen ein. Dies wird mit der M atrix A3 beschrieben. Der Prozess erreicht nach di esem Schritt das Niveau 6. Vom Niveau 6 zum Zielniveau 3 werden 3 funda mentale Perioden benötig t, die zusammen die restlichen ( r − 1 = 8 − 1 = 7 ) Bediendauern umfassen. Am Beispiel von A bb. 6.10 setzt sich dieser Pfad aus G ( 1 ) , G ( 4 ) und G ( 2 ) zusammen. Die betrachtete fundamentale Periode kann zusammengefasst mit der Matrizenmultiplikation A3 ⋅G ( 1 ) ⋅G ( 4 ) ⋅G ( 2 ) beschrieben werden. Im allgem einen Fall besteht eine fundam entale Periode G ( r ) , d.h. ein Rückschritt mit r Bediendauern, aus

• einer Bediendauer während der n Anforderungen eintreffen ( n = 0, 1,…) . Dies wird mit der Matrix An charakterisiert. • n fundamentalen Perioden, die zusammen r − 1 Bedien dauern umfassen. Dies wir d mit n der Faltung G ( ) ( r − 1 ) beschrieben. In der Matrixschreibweise erhält man: G ( 1 ) = A0 ,

G (r) =

(6.71)



n ∑ An ⋅ G ( ) ( r − 1 ) ,

r > 1.

(6.72)

n =1

Dabei ist G ( ) ( 0 ) = I un d G ( ) ( r ) = 0 fü r r > 0 . Nach einer Transform ation mitte ls der erzeugenden Funktion und einigen Umformungen erhält man die Beziehung (zur Herleitung s. Neuts [6.3]): 0

0

272 6

Matrixanalytische Methode

GEF ( z ) =



∑ G ( r ) zr

r =0



n

= z ∑ An (GEF ( z ) ) .

(6.73)

n =0

Durch die Betrachtung des Grenzübergangs z → 1 mit G = G EF ( 1 ) =



∑G (r)

(6.74)

r =0

erhält man aus Gl. (6.73) die funktionale Beziehung ∞

∑ AnG n .

G =

(6.75)

n =0

Aus diese r Be stimmungsgleichung kann die Matrix G m it Hilfe von Iterationsalgorithmen berechnet werden. Das Element G [ i j] der Matrix G gibt die Wahrscheinlichkeit an, dass am Anfang bzw. am Ende einer fundamentalen Periode der MAP-Ankunftsprozess in der Phase i bzw. j ist. Die Matrix G ist stochasti sch, irreduzibel und hat einen eindeutig bestimmten invarianten Vektor, der mit γ bezeichnet wird, d. h. die Kom ponenten des Vekt ors γ sind Lö sungen des Gleichungssystems γ = γG

mit γ ⋅ e = 1 .

Die Matrix G spielt bei der m atrixanalytischen Methode eine zentrale R olle. Da eine detaillierte Betrach tung ihrer Eig enschaften und d er daraus hervo rgehenden Im plikationen d en Rahmen dieser Einführung überschreiten würde, sei hier insbesondere auf die Abschnitte 2.2 und 2.3 in Neuts [6.3] verwiesen. Der Vektor EG der Mittelwerte der fundam entalen Periode wird hier ohne Herleitung ange geben. Man erhält ihn durch Differentiation von Gl. (6.73) und einige Umformungsschritte: ⎡d ⎤ EG = ⎢ G EF ( z ) ⎥ ⋅ e dz ⎣ ⎦ z =1 =

(I − G + e ⋅ γ ) ⎡⎣I − A + (e − E A ) γ ⎤⎦

(Mittelwertvektor der fundamentalen Periode) −1

e.

(6.76)

Die Komponente EG [ i ] des Vektors EG gibt die mittlere Anzahl von Bediendauern in einer fundamentalen Periode an, die mit der Phase i anfängt.

6.3 Das Wartesystem MAP/GI/1 c) Der

273

Grundzyklus

Der Grundzyklus K 0 , der auch als die Rekurrenzzeit des Niveaus 0 bezeic hnet wird, wurde als Transitionsdauer [ 0, 0 ] definiert. Diese Zeitspanne setzt sich aus eine r Freiperiode und einer Betriebsperiode des Bedienprozesses zusammen (vgl. Abb. 6.9). Mit der k × k -Matrix K ( r ) werden di e W ahrscheinlichkeiten angegeben, dass K 0 eine Anzahl r von Bedien dauern um fasst. Das Elem ent K ( r ) [ i j] der Matrix K ( r ) gi bt die Wahrscheinlichkeit an, dass ein Intervall K 0 eine Anzahl r von Bediendauern umfasst und am Anfang bzw. am Ende des Grun dzyklus sich der M AP-Ankunftsprozess in der P hase i bzw. j befindet. In Abb. 6.9 wird ein Grundz yklus illustriert, der aus eine r Frei periode und eine r Betriebsperiode m it 9 Bediendauern besteht. Nach der Freiperiode fän gt die ers te Bedienda uer an, während der 2 Anforderungen eintre ffen. Dies wir d m it der Matrix B2 besc hrieben. Der Prozess erreicht nach diesem Schritt das Niveau 2. Vom Niveau 2 zum Zielniveau 0 benötigt der Prozess 2 fundamentale Perioden, die zusammen die restlichen 8 Bediendauern umfassen. In Abb. 6.9 setzt sich dieser Pfad aus G ( 6 ) und G ( 2 ) zusammen. Das betrachtete Intervall K 0 kann zusammengefasst mit der Matrizenmultiplikation B2 ⋅G ( 6 ) ⋅G ( 2 ) beschrieben werden. Im allgemeinen Fall besteht ein Grundzyklus, der eine Anzahl r von Bediendauern umfasst und durch die Wahrscheinlichkeitsmatrix K ( r ) dargestellt wird, aus

• einer Freiperiode und anschließend der ersten Bediendauer, während der n Anforderungen eintreffen. Dies wird mit der Matrix Bn charkterisiert. •

n fundamentalen Perioden, die zusammen r − 1 Bediendauern umfassen. Dies wird mit n der Faltung G ( ) ( r − 1 ) beschrieben.

Unter Berücksichtigung aller m öglichen Pfade zur Realisierung ei nes Grundzyklus erhält man

K (r) =



n ∑ BnG ( ) ( r − 1) ,

r≥1.

(Matrixverteilung des Grundzyklus)

(6.77)

n =0

Nach eine r T ransformation mit Hilfe der erzeugenden Funktion e rgibt sich nach ei nigen Umformungsschritten

K EF ( z ) =



∑ G ( r ) zr

r =0



n = z ∑ BnGEF (z) .

(6.78)

n =0

Ähnlich wie bei der fundamentalen Periode erhält man nach dem Grenzübergang z → 1 : K = K EF ( 1 ) =



∑ K (r) .

r =0

(6.79)

274 6

Matrixanalytische Methode

Aus Gl. (6.78) lässt sich die funktionale Beziehung herleiten: K =



∑ BnG n .

(6.80)

n =0

Das Element K [ i j] der Matrix K gibt die Wahrscheinlichkeit an, dass am Anfang bzw. a m Ende eines Grundzyklus K 0 der MAP-Ankunftsprozess in der Phase i bzw. j ist. Mit de n Be ziehungen (6 .65) un d (6 .75) lässt sich die S ummation um gehen. Die Be stimmungsgleichung für die Matrix K lautet

K = − D0−1 ⎡⎣DEF (G ) − D0 ⎤⎦ = I − D0−1D EF (G ) .

(6.81)

Dabei ist DEF (G ) = D0 + D 1G die erzeugende Funktion des Ankunftsprozesses an der Stelle G . Besonde re B eachtung ve rdient hierbei der Um stand, dass de r invaria nte Ve ktor von DEF (G ) identisch mit dem von G ist, d h. γ = γ ⋅ D EF (G ) .

(6.82)

Die Matrix K is t stochastisch, irreduzibel und hat den ei ndeutig be stimmten invariant en Vektor κ = κ ⋅Κ

mit κ ⋅ e = 1 .

Die Kom ponente κ [ j] des Vekt ors κ gibt die stationäre Wahrscheinlichkeit an, dass z u Beginn eines Grundzyklus K 0 der MAP-Ankunftsprozess sich in der Phase j befindet. d) Z

ustandswahrscheinlichkeiten

Zur Berechnung des Vektors X 0 wird der Mittelwertvektor EK benötigt: ⎡d ⎤ EK = ⎢ K EF ( z ) ⎥ ⋅e ⎣ dz ⎦ z →1

(

)

−1

= − D0−1 ⎡⎣D − D EF (G ) + λγ ⎤⎦ ⎡I − A + e − E A γ ⎤ e . ⎣ ⎦

(6.83)

Die K omponente EK [ i ] des Vektors EK gibt die mittlere Anza hl v on Be diendauern in einem Grundzyklus an, der mit der Phase i anfängt. Man erhält damit die mittlere Anzahl η von Bediendauern in einem Grundzyklus: η = κ ⋅ EK .

(6.84)

6.3 Das Wartesystem MAP/GI/1

275

Der Vektor X 0 kann aus dem Mittelwertvektor EK berechnet werden. Man betrachtet dabei einen Grundzyklus K 0 , der m it der Phase i anfängt. Die stationäre Wahrscheinlichkeit für dieses Intervall ist die Komponente κ [ i ] des Vektors κ . Da während eines Intervalls K 0 im Mittel η Einbettungszeitpunkte liegen, erhält man schließlich X0 =

κ κ . = η κ EK

(6.85)

Nach komplexen Umformungen kann diese Beziehung wie folgt vereinfacht werden: X0 =

1−ρ γ ( −D0 ) . λ

(6.86)

Die Vektoren X ν , ν > 0 , können mit folgender Rekursionsformel bestimmt werden: ν− 1 ⎛ ⎞ X ν = ⎜ X 0 B ν + ∑ X n A ν+ 1− n ⎟ I − A 1 n =1 ⎝ ⎠

(

)

−1

, ν >0.

(6.87)

Dabei ist im Fall eines reinen MAP/GI/1-Wartesystems

An =



∑ AνG ν−n

Bn =

und

ν= n



∑ BνG ν−n .

ν= n ∞

Für die erzeugende Funktion X EF ( z ) = ∑ ν=0 X ν zν gilt X EF ( z ) ( zI − AEF ( z ) ) = X 0 ⎡⎣zBEF ( z ) − AEF ( z ) ⎤⎦

(6.88)

= − X 0D 0−1DEF ( z ) AEF ( z ) .

Dabei ist gemäß Gl. (6.61) AEF ( z ) =



∑ An z n

n =0

und

BEF ( z ) =



∑ Bn z n .

n =0

Mit Gl. (6.87) kann der vollständige Vektor der stationären Zustandswahrscheinlichkeiten an den Einbettungszeitpunkten explizit berechnet werden.

6.3.5

Zustandswahrscheinlichkeit zu beliebigen Zeitpunkten

Mit dem Vektor X * wird die stationäre Verteilung des Systemzustands zu beliebige n Beobachtungszeitpunkten bezeichnet. Dieser Vektor ist ebenfalls in Teilvektore n X 0* , X 1* ,… der Dimension 1 × k partitioniert. Für die Analyse von X * muss das Geschehen im System zwischen den Einbettungszeitpunkten mit in Betracht gezogen werden.

(

)

276 6

Matrixanalytische Methode

Der Zusammenhang zwischen X * und X wird ohne Herleitung angegeben: X 0* = − λX 0D 0−1 =

( 1 − ρ) γ ,

(6.89)

⎛ ν * ⎞ −1 * X ν+ , 1 = ⎜ ∑ X n D ν+ 1 − n − λ ( X ν − X ν+ 1 ) ⎟ −D 0 ⎝ n =0 ⎠

(

)

für

ν≥0.

(6.90)

Die entsprechende erzeugende Funktion erfüllt * X EF ( z ) DEF ( z ) = − λ ( 1 − z ) X EF ( z ) .

6.3.6

(6.91)

Virtuelle Wartezeitverteilungsfunktion

Mit de m Begriff „ virtuelle Wartezeit “ wird die Wartezeit bezeichnet, die eine Testanforde rung erfahren würde, wenn sie zu einem beliebig ausgewählten Beobachtungszeitpunkt eintreffen würde. Da bei MAP nicht zu jedem Zeitpunkt ein Ankunftserei gnis möglich ist, d h. die PASTA-Eigenschaft nicht gilt, erhält man unterschiedliche Verteilungsfunktionen für die virtuelle Wartezeit und für di e an den A nkunftszeitpunkten beobachtete tatsächliche Wartezeit. Wir notieren mit Wj ( t ) die Ve rteilungsfunktion der virtuellen Wartezeit für den Fall, dass zum Beobachtungszeitpunkt der MAP-Ankunftsprozess in der Phase j ist. Zusammengefasst erhält man den Vektor W ( t ) der virtuellen Wartezeitverteilungsfunktionen W (t) =

{W1 ( t ) ,… , Wk ( t )} .

(6.92)

Die phasenunabhängige Verteilungsfunktion der virtuellen Wartezeit ist gegeben durch W (t) = W (t) ⋅e .

Die Laplace-Stieltjes-Transformation lautet in Vektorschreibweise ΦW (s) =



∫e 0

− st

dW ( t ) , d.h.

ΦW ( s) = ΦW ( s) ⋅e .

Als Verallgemeinerung der klassischen Poll aczek-Khintchine-Formel für die W artezeit im M/GI/1-System kann gezeigt werden, dass für das MAP/GI/1-Wartesystem gilt:

φW ( s ) = sX 0* ⎡⎣sI + DEF ( Φ B ( s ) ) ⎤⎦

−1

,

ΦW (0) = π .

Hieraus folgt die Verteilungsfunktion der virtuellen Wartezeit des Systems MAP/GI/1:

(6.93) (6.94)

6.3 Das Wartesystem MAP/GI/1

277

ΦW (s) = ΦW (s) ⋅e −1

= sX 0* ⎡⎣ sI + D EF Φ B ( s ) ⎤⎦ e . (W

6.3.7

artezeitverteilungsfunktion)

(6.95)

Zusammenstellung der wichtigsten Algorithmenschritte

Gegeben sei ein M AP/GI/1-Wartesystem. Die Ankunftsmatrizen des MAP-Ankunftsprozesses sind D0 und D1 , die Verteilungsfunktion der Bedienzeit ist B ( t ) . Die Schritte zur Analyse des Zustandsprozesses und der virtuellen Wartezeit sind: Schritt 1: Berechnung

der Matrizen { An } gemäß Gl. (6.60)

Schritt 2: Berechnung der Matrix G . Dazu wird in Neuts [6.3] die Verwendung des folgenden, mit Gl. (6.75) gleichwertigen Ausdrucks vorgeschlagen: Gν+ 1 =



(I − A1 )−1 ∑ AnGνn n =0 n ≠1

(Iteration zur Berechnung von G ), (6

.96)

wobei ν der Iterationsinde x ist. Als Startmatrix G0 verwendet man die M atrix Α , so dass die entstehende Iterationsfolge G0 ,G 1 ,G 2 ,… im Rahmen der Rechnergenauigkeit aus lauter stochastischen Matrizen besteht. Die Iteration kann z. B. abgebrochen werden, sobald die Bedingung ⎛ ∞ ⎞ max G ν [ i j] − ⎜ ∑ AnG νn ⎟ [ i j] < ε i, j ⎝ n =0 ⎠

erfüllt ist. Der invariante Vektor γ von G kann mit Standardmethoden berechnet werden. Schritt 3:

Die Berechnung des Vektors X 0 erfolgt gemäß Gl. (6.86) und die der restlichen Teilvektoren X ν , ν > 0 mittels Gl. (6.87).

Schritt 4:

Berechnung der Vektoren X ν* , ν ≥ 0 , gemäß Gl. (6.90).

Schritt 5:

Mit der Kennt nis von X 0* lässt sich die virt uelle W artezeitverteilung gemäß Gl. (6.95) berechnen.

278 6

Matrixanalytische Methode

Literatur zu Kapitel 6 Bücher: [6.1] Kleinr

ock, L., Queueing Systems, Band 1: Theory, Wiley, New York 1975

[6.2]

Neuts, M. F., Matrix-Geometric Solution s in St ochastic Models , John Hopk ins Univ. Press, Baltimore 1981

[6.3]

Neuts, M. F., Structured Stochastic Matrices of M/G/1 T ype and T heir Applications, Dekker, New York 1989

[6.4] Syski, R., Introduction to Congestion Holland, Amsterdam 1986

Theory in Telephone Systems

, North-

Aufsätze: [6.5] Fischer, W. , Meier-Hellstern, K. S., The Mark ov-modulated P oisson process (MMPP) cookbook, Perf. Eval. 18:149-171 (1992)

[6.6] Luca ntoni, D. M., New results on t he single server queue with a batch Markovian arrival process, Stochast. Models 7(1):1-46 (1991) [6.7] Luca ntoni, D. M., The BMAP/G/1 queue: A tutorial, L. Donatiello, R. Nelson (ed.), Models and Techniques for Performance Evaluation of Computer and Communication Systems, Springer, Berlin 1993 [6.8]

Lucantoni, D. M., Meier-Hellstern, K. S., Neuts, M. F., A single server queue with server vac ations and a class of non-re newal arrival processes, A nn. A ppl. P rob. (September 1990)

[6.9]

Neuts, M . F ., A versatile Markovian point process , J. Appl. Prob. 16:764-779 (1979)

[6.10]

Neuts, M. F., Models based on the Markovian arrival process, IEICE Trans. Commun. E75-B(12) (1992)

Übungsaufgaben zu Kapitel 6

279

Übungsaufgaben zu Kapitel 6 Aufgabe 6.1: Betrachtet werde eine Z ufallsvariable A, die mit Hilfe der Phasendarstellung im folg enden Diagramm dargestellt ist.

p1

M

μ1

M

M

μ2

p2

μ3 M

μ4 Wie lautet die Repräsentation der Phasenverteilung der Zufallsvariablen A? Aufgabe 6.2: Ähnlich wie die Erlang-k-Verteilung ba siert die Cox-Verteilung C k im W esentlichen auf einer Se rienschaltung von k negativ-e xponentiell verteilten Phas en, die unterschiedlich parametrisiert sein können. Der Phasenprozess wird wie bei Ek stets in Phase 1 gestartet, die Absorption erfolgt je doch na ch Ende der Verweilda uer in Phase j m it einer ge gebenen Wahrscheinlichkeit p j , 1 ≤ j < k , pk = 1 .

1. Man skizziere das Phasenmodell der Cox-k-Verteilung mit den Parametern λ j und p j . 2. Wie lautet die Repräsentation von C k durch die Phasenverteilung? Aufgabe 6.3: Betrachtet werde das System M/M/1-S. Der Ankunftsprozess ist ein Poisson-Proze ss (mit Parameter λ ), die Bediendauer ist negativ-exponentiell verteilt (mit Parameter μ ). Der Ausgangsprozess des System s wird m it P1 und der P rozess der abge wiesenen Anforde rungen mit P2 bezeichnet.

M

λ

S M begrenzter Warteraum

μ

P1

P2 Man zeige, dass die P rozesse P1 und P2 Markov-Ankunftsprozesse sind und g ebe die entsprechenden Repräsentationen an.

Index absorbierender Zustand ..............................245 Ankunftsmatrix ..........................................257 Ankunftsprozess ~ als Zustandsprozess ...............................55 ~ mit endlicher Quellenzahl ...................110 ~ mit Markov-Eigenschaft........................55 Zählfunktion...........................................264 Bedienprozess ..............................................56 ~ mit Markov-Eigenschaft........................56 Bernoulli ~-Ankunftsprozess..................................196 ~-Versuch.................................................34 ~-Verteilung .............................................34

Erlang-Formel ~ als Grenzfall der Engset-Formel..........113 ~ für Verlustsysteme.................................88 ~ für Wartesysteme.................................101 Erlang-k-Verteilungsfunktion ......................40 Erneuerungsprozess......................................58 Rekurrenzzeit ...........................................59 zeitdiskreter ~.........................................191 zeitdiskreter ~ mit gedächtnisloser Eigenschaft .........................................195 erzeugende Funktion ....................................29 Fertigungssystem Modellbeispiel........................................178

Betriebsperiode ............................................56

Freiperiode ...................................................56

Binomial-Verteilung ....................................34

fundamentale Periode.................................269 Mittelwert...............................................272 Verteilung...............................................270

BMAP ........................................................259 Bündeldimensionierung ...............................91 Bündelungsgewinn.......................................93 ~ in Verlustsystemen ................................93 ~ in Wartesystemen ................................107 Beispiel für ~............................................94 Cepstrum....................................................198 komplexes ~ ...........................................199 Separation im ~-Bereich.........................203 Chapman-Kolmogorov-Gleichung...............64 DFT............................................................196 Dimensionsreduktionsverfahren.................130 Modellbeispiel: OVSF-Codebaum in UMTS ............................................................142 rekursive Zustandsanalyse......................138 Diskrete Fourier-Transformation ...............196 eingebettete Markov-Kette.........................153 Engset-Formel............................................113 Ereignis Verbund-~ ................................................14 vollständiges ~system...............................14 Erlang Pseudoeinheit .....................................89, 97

Geburts- und Sterbeprozess..........................76 instationärer ~...........................................76 stationärer ~..............................................78 GEOM(1)/GI/1-Wartesystem.....................204 Wartezeitverteilung ................................208 Zustandswahrscheinlichkeit....................206 GEOM/GEOM/1-Wartesystem ..................216 Wartezeitverteilung ................................218 geometrische Restverteilung ......................100 geometrische Verteilung ......................35, 195 geometrischer Analyseansatz .....................174 GI/GI/1-Wartesystem, zeitdiskretes ...........209 ~ mit Wartezeitbegrenzung ....................230 Algorithmus im Zeitbereich ...................218 Algorithmus mit Polynom-Faktorisierung ............................................................221 Cepstrum-Algorithmus ...........................222 charakteristische Gleichung....................216 mittlere Warteschlangenlänge ................229 Wartewahrscheinlichkeit ................214, 229 Wartezeitverteilung ........................219, 225 GI/M/1-Wartesystem..................................170 Wartezeitverteilungsfunktion .................176

282 Gleichgewichtsgleichung globale ~ ................................................ 131 lokale ~ .................................................. 134 Grundzyklus ...................................... 270, 273 Gruppenbediensystem ............................... 178 GSM Modell mit endlicher Quellenzahl.......... 114 hyperexponentielle Verteilungsfunktion...... 40 Kendallsche Notation .................................... 9 Kolmogorov-Rückwärtsgleichung....... 68, 249 Kolmogorov-Vorwärtsgleichung ................. 64 ~ für Übergangswahrscheinlichkeiten...... 66 ~ für Zustandswahrscheinlichkeiten......... 68 Korrelationskoeffizient ................................ 23 Kovarianz .................................................... 23 Laplace-Stieltjes-Transformation ................ 31 Laplace-Transformation .............................. 31 Lindley-Integralgleichung ......................... 210 ~ für zeitdiskrete GI/GI/1-Systeme 211, 213 Little-Theorem............................................. 10 M/GI/1-Wartesystem ................................. 156 Einbettungszeitpunkte............................ 157 höhere Wartezeit-Momente.................... 167 mittlere Wartezeiten............................... 165 Pollaczek-Khintchine-Formel ........ 162, 164 Wartewahrscheinlichkeit........................ 164 Zustandsübergangsmatrix ...................... 159 Zustandswahrscheinlichkeit ................... 160 M/GI/n-Verlustsystem ................................. 91 M/M/n-Verlustsystem.................................. 85 Blockierungswahrscheinlichkeit .............. 89 Verkehrswert............................................ 90 M/M/n-Wartesystem.................................... 96 mittlere Wartezeit .................................. 103 Verkehrswert.......................................... 102 Warteschlangenlänge ............................. 102 Wartewahrscheinlichkeit........................ 101 Wartezeitverteilungsfunktion................. 105 Zustandswahrscheinlichkeit ..................... 97 Makrozustand .............................................. 72 MAP/GI/1-Wartesystem ............................ 261 Analysealgorithmus ............................... 277 eingebetteter Markov-Erneuerungsprozess ........................................................... 265 fundamentale Periode............................. 269

Index virtuelle Wartezeitverteilungsfunktion... 276 Zählprozess der Ankünfte ...................... 262 Zustandswahrscheinlichkeit ................... 274 Zustandswahrscheinlichkeit zu beliebigen Zeitpunkten ........................................ 275 Markov-Ankunftsprozess (MAP) .............. 255 ~ mit Gruppenankünften (BMAP) ......... 259 Ankunftsmatrix ...................................... 257 Repräsentation des ~es........................... 257 zeitdiskreter ~ (D-MAP) ........................ 260 Markov-Eigenschaft .................................... 53 Verkehrsmodell mit ~ .............................. 85 Markov-Erneuerungsprozess ..................... 257 Markov-Kette Analyse als Eigenwertproblem .............. 155 Einbettungszeitpunkt.............................. 154 eingebettete ~......................................... 153 Übergangswahrscheinlichkeitsmatrix .... 154 Markov-Modulierter Poisson-Prozess (MMPP) ................................................. 258 Markov-Prozess ........................................... 53 Markov-Zustandsprozess Analyse .................................................... 63 Übergangsverhalten ................................. 63 Matrixanalyse ............................................ 243 Maximalphasenfolge.................................. 201 Mikrozustand............................................... 72 Minimalphasenfolge .................................. 201 Mobilfunkzelle Modell einer ~ mit endlicher Quellenzahl ........................................................... 114 Modell einer ~ mit Rufwiederholung..... 127 Moment gewöhnliche ~e ........................................ 20 zentrale ~e................................................ 20 negativ-binomiale Verteilung ...................... 37 negativ-exponentielle Verteilungsfunktion.. 39 NEGBIN/D/1-Wartesystem ....................... 226 Niveau in Zustandsprozessen ............................. 263 Normierungskonstante............................... 136 On-Off-Prozess zyklischer ~............................................ 261 PASTA ................................................ 89, 169

Index Phasenverteilung (PH) ...............................243 ~ als Sonderfall des MarkovAnkunftsprozesses ..............................257 absorbierender Zustand ..........................245 Absorptionsvektor ..................................245 Laplace-Transformierte ..........................249 Neustartwahrscheinlichkeit ....................245 Repräsentation der ~...............................247 Summe von ~en......................................253 transiente Phasen ....................................245 Überlagerung von ~en ............................253 Verteilungsdichtefunktion ......................249 Verteilungsfunktion................................247 zeitdiskrete ~ ..........................................253 Poisson-Prozess............................................44 ~ als Erneuerungsprozess .........................62 ~ als reiner Geburtsprozess ......................77 ~ als Sonderfall des MAP.......................265 Markov-Modulierter Poisson-Prozess (MMPP)..............................................258 Übergangswahrscheinlichkeitsdichte beim ~ ..............................................................74 unterbrochener ~.....................................251

283 stationäres Gleichungssystem ~ für Makrozustände.................................73 ~ für Mikrozustände .................................72 stochastische Matrix...................................254 stochastischer Prozess ..................................52 Indexmenge ..............................................52 substochastische Matrix .............................254 Teilnehmermodell ......................................117 Transitionszeit............................................269 Übergangsmatrix..........................................64 Übergangsrate ..............................................66 Übergangswahrscheinlichkeitsdichte ...........66 Beispiele...................................................73 UMTS Modellbeispiel........................................142 Universal Mobile Telecommunication System ................................................142 unterbrochener Poisson-Prozess.................251 ~ als Sonderfall des MMPPs ..................258 Varianz.........................................................20

Poisson-Verteilung.......................................38

Variationskoeffizient....................................21

Pollaczek-Khintchine-Formel ~ für Wartezeitverteilungsfunktion.........164 ~ für Zustandswahrscheinlichkeit...........162

Verbundwahrscheinlichkeit..........................14

Produktformlösung.....................................134 Punktprozess ................................................58

Verbundereignis ...........................................14 Verlustsystem ~ mit mehreren Anforderungsklassen.....130

Rückschrittdauer ........................................269

Verteilung ....................................................16 Bernoulli-~ ...............................................34 Binomial-~ ...............................................34 geometrische ~ .................................35, 195 negativ-binomiale ~..................................37 Poisson-~..................................................38

Rückwärts-Rekurrenzzeit.............................59

Verteilungsdichtefunktion............................17

Rufwiederholungsmodell ...........................117 ~ mit endlicher Quellenzahl ...................117 Rekursiver Algorithmus für ~.................122 Rufwiederholwahrscheinlichkeit ............118 Verkehrsflüsse in ~.................................125

Verteilungsfunktion......................................16 deterministische ~.....................................39 Erlang-k-~ ................................................40 hyperexponentielle ~ ................................40 negativ-exponentielle ~ ............................39

schnelle Fourier-Transformation................197

Vorwärts-Rekurrenzzeit ...............................59

Semi-Markov-Prozess ................................257

Wahrscheinlichkeit Axiome.....................................................13 bedingte ~.................................................15 Laplace-~..................................................13 totale ~......................................................15 Verbund-~ ................................................14

Randverteilungsfunktion ..............................21 Ratenmatrix..................................................66 Rekurrenzzeit des Niveaus 0 ......................273

Spacer Dimensionierungsbeispiel ......................236 Modellierungsbeispiel eines ~s ..............233 Standardabweichung ....................................21

284 Z-Transformation ........................................ 31 Zufallsvariable............................................. 16 Differenz diskreter ~n .............................. 27 Diskretisierung......................................... 43 Erwartungswert einer ~n.......................... 20 gewöhnliche Momente einer ~n............... 20 Maximum von ~n..................................... 28 mehrdimensionale ~................................. 21 Minimum von ~n ..................................... 28 Mittelwert einer ~n .................................. 20

Index Standardabweichung einer ~n .................. 21 Summe diskreter ~n ................................. 27 Summe zweier ~n .................................... 24 Summe zweier unabhängiger ~n .............. 25 Varianz einer ~n....................................... 20 Variationskoeffizient einer ~n.................. 21 zeitdiskrete ~.......................................... 189 zentrale Momente einer ~n....................... 20 zweidimensionale ~ ................................. 21 Zustandsprozess........................................... 57

Index absorbierender Zustand ..............................245 Ankunftsmatrix ..........................................257 Ankunftsprozess ~ als Zustandsprozess ...............................55 ~ mit endlicher Quellenzahl ...................110 ~ mit Markov-Eigenschaft........................55 Zählfunktion...........................................264 Bedienprozess ..............................................56 ~ mit Markov-Eigenschaft........................56 Bernoulli ~-Ankunftsprozess..................................196 ~-Versuch.................................................34 ~-Verteilung .............................................34

Erlang-Formel ~ als Grenzfall der Engset-Formel..........113 ~ für Verlustsysteme.................................88 ~ für Wartesysteme.................................101 Erlang-k-Verteilungsfunktion ......................40 Erneuerungsprozess......................................58 Rekurrenzzeit ...........................................59 zeitdiskreter ~.........................................191 zeitdiskreter ~ mit gedächtnisloser Eigenschaft .........................................195 erzeugende Funktion ....................................29 Fertigungssystem Modellbeispiel........................................178

Betriebsperiode ............................................56

Freiperiode ...................................................56

Binomial-Verteilung ....................................34

fundamentale Periode.................................269 Mittelwert...............................................272 Verteilung...............................................270

BMAP ........................................................259 Bündeldimensionierung ...............................91 Bündelungsgewinn.......................................93 ~ in Verlustsystemen ................................93 ~ in Wartesystemen ................................107 Beispiel für ~............................................94 Cepstrum....................................................198 komplexes ~ ...........................................199 Separation im ~-Bereich.........................203 Chapman-Kolmogorov-Gleichung...............64 DFT............................................................196 Dimensionsreduktionsverfahren.................130 Modellbeispiel: OVSF-Codebaum in UMTS ............................................................142 rekursive Zustandsanalyse......................138 Diskrete Fourier-Transformation ...............196 eingebettete Markov-Kette.........................153 Engset-Formel............................................113 Ereignis Verbund-~ ................................................14 vollständiges ~system...............................14 Erlang Pseudoeinheit .....................................89, 97

Geburts- und Sterbeprozess..........................76 instationärer ~...........................................76 stationärer ~..............................................78 GEOM(1)/GI/1-Wartesystem.....................204 Wartezeitverteilung ................................208 Zustandswahrscheinlichkeit....................206 GEOM/GEOM/1-Wartesystem ..................216 Wartezeitverteilung ................................218 geometrische Restverteilung ......................100 geometrische Verteilung ......................35, 195 geometrischer Analyseansatz .....................174 GI/GI/1-Wartesystem, zeitdiskretes ...........209 ~ mit Wartezeitbegrenzung ....................230 Algorithmus im Zeitbereich ...................218 Algorithmus mit Polynom-Faktorisierung ............................................................221 Cepstrum-Algorithmus ...........................222 charakteristische Gleichung....................216 mittlere Warteschlangenlänge ................229 Wartewahrscheinlichkeit ................214, 229 Wartezeitverteilung ........................219, 225 GI/M/1-Wartesystem..................................170 Wartezeitverteilungsfunktion .................176

282 Gleichgewichtsgleichung globale ~ ................................................ 131 lokale ~ .................................................. 134 Grundzyklus ...................................... 270, 273 Gruppenbediensystem ............................... 178 GSM Modell mit endlicher Quellenzahl.......... 114 hyperexponentielle Verteilungsfunktion...... 40 Kendallsche Notation .................................... 9 Kolmogorov-Rückwärtsgleichung....... 68, 249 Kolmogorov-Vorwärtsgleichung ................. 64 ~ für Übergangswahrscheinlichkeiten...... 66 ~ für Zustandswahrscheinlichkeiten......... 68 Korrelationskoeffizient ................................ 23 Kovarianz .................................................... 23 Laplace-Stieltjes-Transformation ................ 31 Laplace-Transformation .............................. 31 Lindley-Integralgleichung ......................... 210 ~ für zeitdiskrete GI/GI/1-Systeme 211, 213 Little-Theorem............................................. 10 M/GI/1-Wartesystem ................................. 156 Einbettungszeitpunkte............................ 157 höhere Wartezeit-Momente.................... 167 mittlere Wartezeiten............................... 165 Pollaczek-Khintchine-Formel ........ 162, 164 Wartewahrscheinlichkeit........................ 164 Zustandsübergangsmatrix ...................... 159 Zustandswahrscheinlichkeit ................... 160 M/GI/n-Verlustsystem ................................. 91 M/M/n-Verlustsystem.................................. 85 Blockierungswahrscheinlichkeit .............. 89 Verkehrswert............................................ 90 M/M/n-Wartesystem.................................... 96 mittlere Wartezeit .................................. 103 Verkehrswert.......................................... 102 Warteschlangenlänge ............................. 102 Wartewahrscheinlichkeit........................ 101 Wartezeitverteilungsfunktion................. 105 Zustandswahrscheinlichkeit ..................... 97 Makrozustand .............................................. 72 MAP/GI/1-Wartesystem ............................ 261 Analysealgorithmus ............................... 277 eingebetteter Markov-Erneuerungsprozess ........................................................... 265 fundamentale Periode............................. 269

Index virtuelle Wartezeitverteilungsfunktion... 276 Zählprozess der Ankünfte ...................... 262 Zustandswahrscheinlichkeit ................... 274 Zustandswahrscheinlichkeit zu beliebigen Zeitpunkten ........................................ 275 Markov-Ankunftsprozess (MAP) .............. 255 ~ mit Gruppenankünften (BMAP) ......... 259 Ankunftsmatrix ...................................... 257 Repräsentation des ~es........................... 257 zeitdiskreter ~ (D-MAP) ........................ 260 Markov-Eigenschaft .................................... 53 Verkehrsmodell mit ~ .............................. 85 Markov-Erneuerungsprozess ..................... 257 Markov-Kette Analyse als Eigenwertproblem .............. 155 Einbettungszeitpunkt.............................. 154 eingebettete ~......................................... 153 Übergangswahrscheinlichkeitsmatrix .... 154 Markov-Modulierter Poisson-Prozess (MMPP) ................................................. 258 Markov-Prozess ........................................... 53 Markov-Zustandsprozess Analyse .................................................... 63 Übergangsverhalten ................................. 63 Matrixanalyse ............................................ 243 Maximalphasenfolge.................................. 201 Mikrozustand............................................... 72 Minimalphasenfolge .................................. 201 Mobilfunkzelle Modell einer ~ mit endlicher Quellenzahl ........................................................... 114 Modell einer ~ mit Rufwiederholung..... 127 Moment gewöhnliche ~e ........................................ 20 zentrale ~e................................................ 20 negativ-binomiale Verteilung ...................... 37 negativ-exponentielle Verteilungsfunktion.. 39 NEGBIN/D/1-Wartesystem ....................... 226 Niveau in Zustandsprozessen ............................. 263 Normierungskonstante............................... 136 On-Off-Prozess zyklischer ~............................................ 261 PASTA ................................................ 89, 169

Index Phasenverteilung (PH) ...............................243 ~ als Sonderfall des MarkovAnkunftsprozesses ..............................257 absorbierender Zustand ..........................245 Absorptionsvektor ..................................245 Laplace-Transformierte ..........................249 Neustartwahrscheinlichkeit ....................245 Repräsentation der ~...............................247 Summe von ~en......................................253 transiente Phasen ....................................245 Überlagerung von ~en ............................253 Verteilungsdichtefunktion ......................249 Verteilungsfunktion................................247 zeitdiskrete ~ ..........................................253 Poisson-Prozess............................................44 ~ als Erneuerungsprozess .........................62 ~ als reiner Geburtsprozess ......................77 ~ als Sonderfall des MAP.......................265 Markov-Modulierter Poisson-Prozess (MMPP)..............................................258 Übergangswahrscheinlichkeitsdichte beim ~ ..............................................................74 unterbrochener ~.....................................251

283 stationäres Gleichungssystem ~ für Makrozustände.................................73 ~ für Mikrozustände .................................72 stochastische Matrix...................................254 stochastischer Prozess ..................................52 Indexmenge ..............................................52 substochastische Matrix .............................254 Teilnehmermodell ......................................117 Transitionszeit............................................269 Übergangsmatrix..........................................64 Übergangsrate ..............................................66 Übergangswahrscheinlichkeitsdichte ...........66 Beispiele...................................................73 UMTS Modellbeispiel........................................142 Universal Mobile Telecommunication System ................................................142 unterbrochener Poisson-Prozess.................251 ~ als Sonderfall des MMPPs ..................258 Varianz.........................................................20

Poisson-Verteilung.......................................38

Variationskoeffizient....................................21

Pollaczek-Khintchine-Formel ~ für Wartezeitverteilungsfunktion.........164 ~ für Zustandswahrscheinlichkeit...........162

Verbundwahrscheinlichkeit..........................14

Produktformlösung.....................................134 Punktprozess ................................................58

Verbundereignis ...........................................14 Verlustsystem ~ mit mehreren Anforderungsklassen.....130

Rückschrittdauer ........................................269

Verteilung ....................................................16 Bernoulli-~ ...............................................34 Binomial-~ ...............................................34 geometrische ~ .................................35, 195 negativ-binomiale ~..................................37 Poisson-~..................................................38

Rückwärts-Rekurrenzzeit.............................59

Verteilungsdichtefunktion............................17

Rufwiederholungsmodell ...........................117 ~ mit endlicher Quellenzahl ...................117 Rekursiver Algorithmus für ~.................122 Rufwiederholwahrscheinlichkeit ............118 Verkehrsflüsse in ~.................................125

Verteilungsfunktion......................................16 deterministische ~.....................................39 Erlang-k-~ ................................................40 hyperexponentielle ~ ................................40 negativ-exponentielle ~ ............................39

schnelle Fourier-Transformation................197

Vorwärts-Rekurrenzzeit ...............................59

Semi-Markov-Prozess ................................257

Wahrscheinlichkeit Axiome.....................................................13 bedingte ~.................................................15 Laplace-~..................................................13 totale ~......................................................15 Verbund-~ ................................................14

Randverteilungsfunktion ..............................21 Ratenmatrix..................................................66 Rekurrenzzeit des Niveaus 0 ......................273

Spacer Dimensionierungsbeispiel ......................236 Modellierungsbeispiel eines ~s ..............233 Standardabweichung ....................................21

284 Z-Transformation ........................................ 31 Zufallsvariable............................................. 16 Differenz diskreter ~n .............................. 27 Diskretisierung......................................... 43 Erwartungswert einer ~n.......................... 20 gewöhnliche Momente einer ~n............... 20 Maximum von ~n..................................... 28 mehrdimensionale ~................................. 21 Minimum von ~n ..................................... 28 Mittelwert einer ~n .................................. 20

Index Standardabweichung einer ~n .................. 21 Summe diskreter ~n ................................. 27 Summe zweier ~n .................................... 24 Summe zweier unabhängiger ~n .............. 25 Varianz einer ~n....................................... 20 Variationskoeffizient einer ~n.................. 21 zeitdiskrete ~.......................................... 189 zentrale Momente einer ~n....................... 20 zweidimensionale ~ ................................. 21 Zustandsprozess........................................... 57

Notationskonventionen und Formelzeichen Zeitkontinuierliche Zufallsvariablen und zugehörige Funktionen: A zeitkonti

nuierliche Zufallsvariable ( ZV A )

a ( t ) Verteilungsdic A (t)

htefunktion der ZV A

Verteilungsfunktion der ZV A

Φ A ( s ) Laplace-T ransformierte von a ( t ) bzw.

nsformierte von A ( t )

Laplace-Stieltjes-Tra

Zeitdiskrete Zufallsvariablen und zugehörige Funktionen: Zufallsvariable ( ZV X )

X zeitdiskrete x ( k ) Verteilung X (k ) = X EF ( z )

k

∑ x (i)

i =−∞

der ZV X Verteilungsfunktion der ZV X (wahrscheinlichkeits-)erzeugende Funktion der ZV X

X ZT ( z ) Z-Tra

nsformierte der Verteilung x ( k ) ierte der Verteilungsfunktion X ( k )

X ZT ( z ) Z-Transform

X DFT ( k ) X CEP ( k ) Cepstr

Diskrete Fourier-Transformierte (DFT) der Verteilung x ( k ) um der Verteilung x ( k )

Verteilung, Wahrscheinlichkeitsvektor und -matrix: X

nichtnegative zeitdiskrete Zufallsvariable ( ZV X )

X = {x ( 0 ) , x ( 1 ) ,…} Wahrsc

heinlichkeitsvektor der ZV X

Q = q i j Matrix

der Übergangswahrscheinlichkeitsdichten

{ } P = {pi j } Matrix

der Übergangswahrscheinlichkeiten

D∈k× j

Matrix mit k Zeilen und j Spalten

D [ i j]

Matrixelement aus der i-ten Zeile und j-ten Spalte von D

Notationskonventionen und Formelzeichen Zeitkontinuierliche Zufallsvariablen und zugehörige Funktionen: A zeitkonti

nuierliche Zufallsvariable ( ZV A )

a ( t ) Verteilungsdic A (t)

htefunktion der ZV A

Verteilungsfunktion der ZV A

Φ A ( s ) Laplace-T ransformierte von a ( t ) bzw.

nsformierte von A ( t )

Laplace-Stieltjes-Tra

Zeitdiskrete Zufallsvariablen und zugehörige Funktionen: Zufallsvariable ( ZV X )

X zeitdiskrete x ( k ) Verteilung X (k ) = X EF ( z )

k

∑ x (i)

i =−∞

der ZV X Verteilungsfunktion der ZV X (wahrscheinlichkeits-)erzeugende Funktion der ZV X

X ZT ( z ) Z-Tra

nsformierte der Verteilung x ( k ) ierte der Verteilungsfunktion X ( k )

X ZT ( z ) Z-Transform

X DFT ( k ) X CEP ( k ) Cepstr

Diskrete Fourier-Transformierte (DFT) der Verteilung x ( k ) um der Verteilung x ( k )

Verteilung, Wahrscheinlichkeitsvektor und -matrix: X

nichtnegative zeitdiskrete Zufallsvariable ( ZV X )

X = {x ( 0 ) , x ( 1 ) ,…} Wahrsc

heinlichkeitsvektor der ZV X

Q = q i j Matrix

der Übergangswahrscheinlichkeitsdichten

{ } P = {pi j } Matrix

der Übergangswahrscheinlichkeiten

D∈k× j

Matrix mit k Zeilen und j Spalten

D [ i j]

Matrixelement aus der i-ten Zeile und j-ten Spalte von D