216 39 23MB
German Pages 508 [512] Year 2008
de Gruyter Lehrbuch Niemeier · Ausgleichungsrechnung
Wolfgang Niemeier
Ausgleichungsrechnung Statistische Auswertemethoden 2., überarbeitete und erweiterte Auflage
w
Walter de Gruyter G Berlin · New York DE
Prof. Dr. Wolfgang Niemeier Institut für Geodäsie und Photogrammetrie Gaußstr. 22 38106 Braunschweig E-Mail: [email protected]
© Gedruckt auf säurefreiem Papier, das die U S - A N S I - N o r m über Haltbarkeit erfüllt.
ISBN 978-3-11-019055-7 Bibliografische
Information
der Deutschen
Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© Copyright 2008 by Walter de Gruyter G m b H & Co. K G , 10785 Berlin. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany. Konvertierung von LaTeX-Dateien des Autors: Teresa Krause, Braunschweig. Einbandgestaltung: Martin Zech, Bremen. Druck und Bindung: AZ Druck und Datentechnik G m b H , Kempten.
Vorwort
Nach sechs Jahren erscheint die zweite, bearbeitete und erweiterte Auflage dieses einführenden Lehrbuches zur Ausgleichungsrechnung und zu statistischen Auswertemethoden. Dieses Themengebiet ist eine der Kernkompetenzen im Bereich der Geodäsie und Geoinformati on, die im Vergleich zu benachbarten Disziplinen durchaus als Alleinstellungsmerkmal verstanden werden darf. Auch für die 2. Auflage wird der Anspruch aufrechterhalten, eine methodisch einfache, leicht verständliche Einführung in die Denk- und Arbeitsweise der Statistik und Ausgleichungsrechnung zu geben, ausgelegt auf typische Fragestellungen der Geodäsie und Geoinformation. Aus den vielen Kommentaren habe ich die Eindruck gewonnen, dass für die Stufen der Annäherung an dieses Wissensgebiet, an die „spröde Schöne" - wie die Ausgleichungsrechnung im Vorwort der 1. Auflage genannt wurde - die hier gewählte Darstel lungs weise brauchbar erscheint. Gerade von studentischer Seite wird dieses Buch nicht nur ein Lehr- sondern ebenso als Lernbuch verstanden und genutzt. Inhaltlich sind neue Abschnitte besonders im weiterführenden Bereich hinzugekommen: • Bei der Beurteilung der Genauigkeit von Messgrößen sind im Kapitel 2 die Ansätze des GUM (Guideline to the Expression of Uncertainty in Measurements) als neue internationale Richtlinie vorgestellt und diskutiert worden, die stärkeren Eingang auch in die Geodäsie und Geoinformation finden werden. • Bei den „Werkzeugen" im Kapitel 9 sind die Ansätze zur sequentiellen Ausgleichung und zur Optimierung von Netzen mit aufgenommen worden, da sie auch oder gerade heute ihre methodische und praktische Bedeutung haben. • Ergänzende Abschnitte im Kapitel 10 behandeln die Bestimmung von Näherungswerten für die 3D-Transformati on nach Helmert, um z. B. für die Transformation von GPS-Koordinatensätzen oder für Anwendungen in der Photogrammetrie und Ingenieurgeodäsie mit den Formeln dieses Buches direkt programmtechnische Umsetzungen vornehmen zu können. • Die Approximation von Funktionen (Kapitel 11) spielt bei heutigen Anwendungen, z. B. bei der flächen haften Erfassung von Oberflächen durch Laserscanning, eine zunehmend wichtige Rolle. Hier sind Ansätze der orthogonalen Regression in verschiedenen Varianten neu behandelt worden. • Das Kapitel 12 über Interpolationsverfahren ist neu aufgenommen worden, da es für den Bereich der Geoinformation fundamental und auch für wichtige Aufgaben der Geodäsie erforderlich ist.
vi
Vorwort • Das jetzige Kapitel 14 zur Kaiman Filterung ist völlig neu gestaltet worden. Hier sind die heute wichtigen Bezüge zur Modellierung des Bewegungsverhalten von Objekten stärker berücksichtigt worden.
Zu vielen der neu hinzugekommenen Ansätze sind wieder einfach nachvollziehbare numerische Beispiele beigefügt worden. Sorgfältig überprüft und ggf. korrigiert wurden auch die bisher vorhandenen Beispiele, bei denen in der 1. Auflage leider doch etliche Fehler im Datenmaterial bzw. in den Berechnungen vorgekommen waren. Bei den vielen Lesern, die sich die Mühe gemacht haben, mich auf derartige Fehler aufmerksam zu machen, möchte ich mich herzlich bedanken und mich für die Unstimmigkeiten in der 1. Auflage entschuldigen. Für die Übernahme der gesamten redaktionellen Arbeit für diese 2. Auflage geht ein ganz besonderes Dankeschön an Teresa Krause, die unermüdlich und mit hoher Effizienz die Fertigstellung erst ermöglicht hat. Besonderer Dank gebührt auch Dirk Vogel und Andreas Iddink für die Überarbeitung bzw. Erstellung all der Abbildungen, die für die verständliche Darlegung viele Konzepte und Methoden wesentlich sind. Maßgebliche Unterstützung habe ich auch von Dieter Tengen erhalten, der viele neue Beispiele konzipiert und durchgerechnet hat. Für die Übernahme weiterer Aufgaben etwa zur Kontrolle von bestehenden Beispielen, zur Korrektur der Manuskripte sowie für intensive Diskussionen möchte ich mich bei Björn Riedel, Lars Johannes, Arne Mittelstaedt und Michael Heinert von meinem Institut herzlich bedanken. Dank gebührt aber auch dem Verlag de Gruyter, insbesondere meinem Lektor Dr. R. Plato, der mich in der Vorbereitungsphase der 2. Auflage fortlaufend ermuntert und die Drucklegung beim Verlag durchgesetzt hat. Last but not least, möchte ich mich bei meiner Ehefrau Gudrun bedanken für ihr Verständnis und ihre Ermutigungen zur Fertigstellung dieses Manuskriptes. Braunschweig, am 8. Februar 2008
Wolfgang
Niemeier
Inhaltsverzeichnis
Vorwort
ν
1
1
Beurteilung von Messungsgrößen 1.1
1.2
1.3
1.4
1.5
1.6
1.7
Zufallsvariable 1.1.1 Messgrößen - Mittelwerte - Genauigkeiten 1.1.2 Mittelwert-Parameter 1.1.3 Genauigkeits-Maße Einführung zu Messunsicherheiten 1.2.1 Als „Fehler" zu bezeichnende Messabweichungen 1.2.2 Klassische Bewertung von Messunsicherheiten Beschreibende Statistik 1.3.1 Häufigkeitsverteilung 1.3.2 Definition von Wahrscheinlichkeiten 1.3.3 Wahrscheinlichkeitsfunktionen 1.3.4 Gleichverteilung 1.3.5 Ervvartungswerte 1.3.6 Rechnen mit Erwartungswerten Der zweidimensionale Zufallsvektor 1.4.1 Definitionen
1 2 3 5 7 8 10 13 13 16 17 19 21 22 23 24
1.4.2 Kovarianz und Korrelation 1.4.3 Berechnung von Kovarianzen und Korrelation Der m-dimensionale Zufallsvektor 1.5.1 Definitionen 1.5.2 Berechnung von Kovarianzen und Korrelationen 1.5.3 Erwartungswerte für Funktionen der Zufallsvariablen Normal verteil un g 1.6.1 Definition und Eigenschaften 1.6.2 Begründungen für die Normalverteilung 1.6.3 Standard-Normalverteilung 1.6.4 Dichtefunktion der zwei- und mehrdimensionalen Normalverteilung Zeitabhängige Größen 1.7.1 Einführung zu Zeitreihen 1.7.2 Darstellung und Momente einer Zeitreihe
24 27 31 31 33 34 36 36 38 39
1.7.3
45
Autokovarianzfunktion
42 43 43 44
vili
Inhaltsverzeichnis 1.7.4 1.7.5
Einführung zu Stochastischen Prozessen Stationäre Prozesse
2
Genauigkeitsmaße für abgeleitete und zusammengesetzte Größen 2.1 Einführung Varianz-Fortpflanzung 2.2 Varianz-Fortpflanzung für lineare Funktionen 2.2.1 Herleitung über wahre Residuen 2.2.2 Anwendungen: „Summe und Differenz" 2.2.3 Allgemeine Form des Varianz-Fortpflanzungs-Gesetzes . . . . 2.2.4 Anwendungen: Lineare Funktionen mit Korrelation 2.2.5 Arithmetisches Mittel bei Autokorrelation 2.3 Varianz-Fortpflanzung bei nichtlinearen Funktionen 2.3.1 Linearisierung 2.3.2 Varianz-Fortpflanzung nach Linearisierung 2.3.3 Alternative Formulierung 2.3.4 Hilfsmittel: Differenzen-Quotienten 2.3.5 Anwendungen: Nichtlineare Funktionen 2.4 Messunsicherheit nach GUM 2.4.1 Ausgangsüberlegungen 2.4.2 Methodischer Ansatz des GUM 2.4.3 Komponenten A und Β 2.4.4 Abschätzung der Einzelunsicherheiten 2.4.5 Beispiel: Messunsicherheit nach GUM 2.4.6 Einschätzung des GUM
3
Konfidenzbereiche und statistische Tests 3.1 Vorbemerkung 3.2 Testverteilung 3.2.1 Die Chi-Quadrat-Verteilung (χ2-Verteilung) 3.2.2 Die Student-Verteilung (f-Verteilung) 3.2.3 Die Fisher-Verteilung (F-Verteilung) 3.2.4 Beziehungen zwischen F-, χ2- und ?-Verteilung 3.2.5 Nichtzentralität einer Verteilung 3.3 Berechnung von Konfidenzbereichen 3.3.1 Konfidenzbereich für μ mit bekanntem σ2 3.3.2 Konfidenzbereich für μ mit nicht bekanntem σ2 3.3.3 Konfidenzbereich für die Varianz σ 2 3.4 Grundzüge der statistischen Testtheorie 3.4.1 Ausgangsüberlegung 3.4.2 Aufbau eines statistischen Tests 3.4.3 Fehlschluss 1. und 2. Art 3.4.4 Ein-und zweiseitige Fragestellung
46 48 50 50 51 51 53 56 56 60 62 62 63 64 65 66 72 72 73 74 76 78 79 82 82 83 84 86 88 89 90 92 92 95 96 98 98 98 99 100
Inhaltsverzeichnis
3.5
3.6 4
5
Differenztest für zwei Mittelwerte 3.5.1 Testablauf bei bekannter Varianz σ2 3.5.2 Testgüte 3.5.3 Testablauf bei geschätzter Varianz Signifikanztest für zwei empirische Varianzen
ix
101 101 104 105 110
Grundlagen der Ausgleichungsrechnung 4.1 Ausgangsüberlegungen 4.1.1 Punktbestimmung in der Ebene 4.1.2 Funktionale Zusammenhänge - Regression 4.1.3 Transformation von Koordinaten 4.2 Konzepte zur Modellbildung 4.2.1 Messungsgrößen - Koordinaten/Parameter 4.2.2 Funktionales Modell 4.2.3 Linearisierung der Beobachtungsgleichungen 4.2.4 Stochastisches Modell 4.2.5 Koordinaten als Parameter in geodätischen Netzen 4.3 Die Methode der kleinsten Quadrate 4.3.1 Ausgleichungsansatz für ein Nivellementsnetz 4.3.2 Schätzprinzipien 4.3.3 Parameterschätzung für gleichgenaue Beobachtungen 4.3.4 Optimaleigenschaften des Ausgleichungsprinzips 4.3.5 Parameterschätzungen für Beobachtungen mit Kovarianzinformationen 4.3.6 Kovarianzmatrix für den Parametervektor χ 4.3.7 Kovarianzmatrix für Funktionen der Parameter 4.3.8 Ablauf der Berechnung und Proben 4.4 Beispiele für Ausgleichungsaufgaben 4.4.1 Bestimmung eines Neupunktes 4.4.2 Beispiel Nivellementsnetz 4.4.3 Vermittelnde Ausgleichung eines Netzes 4.5 Beurteilung der Ausgleichungsansätze 4.5.1 Genauigkeitsniveau der Messungen 4.5.2 Zum Modellcharakter der Ausgleichungsansätze 4.5.3 Global test des Ausgleichungsmodells 4.5.4 Iterative Ausgleichung
112 112 112 114 116 118 118 120 122 124 126 129 129 132 132 134 137 140 141 142 147 147 153 156 162 162 165 167 170
Bedingungen und Restriktionen im Ausgleichungsmodell 5.1 Einführung und Begründung 5.2 Der Allgemeinfall der Ausgleichungsrechnung 5.2.1 Aufstellen des funktionalen Modells
172 172 173 173
χ
Inhaltsverzeichnis
5.3
5.4
5.5
5.6
5.2.2 Lösung der Ausgleichungsaufgabe nach Lagrange 5.2.3 Genauigkeitsmaße und Kofaktormatrizen Bedingte Ausgleichung 5.3.1 Aufstellen des funktionalen Modells 5.3.2 Lösungsalgorithmus 5.3.3 Funktionen der ausgeglichenen Beobachtungen 5.3.4 Beispiel: Ausgleichung eines Nivellementsnetzes Restriktionen und Hypothesentests 5.4.1 Einführung 5.4.2 Allgemeine Form einer linearen Hypothese 5.4.3 Herleitung der Teststatistik 5.4.4 Implizite Hypothesenformulierung Bedingungen als „fiktive Beobachtungen" 5.5.1 Allgemeiner Modellansatz 5.5.2 Rechtwinkelbedingungen als fiktive Beobachtungen 5.5.3 Geradheitsbedingungen als fiktive Beobachtungen Koordinaten als fiktive Beobachtungen
176 178 181 181 184 185 185 188 188 188 192 195 197 197 198 199 200
6
Robuste Parameterschätzung 6.1 Einführung 6.2 Ausgangsbetrachtungen 6.2.1 Schätzfunktionen 6.2.2 Einflussfunktionen 6.2.3 Verlustfunktionen 6.3 Modell an sätze der robusten Parameterschätzung 6.3.1 Das stochastische Modell 6.3.2 Herleitung der Schätzfunktion 6.3.3 M-Schätzer 6.3.4 L-Schätzer 6.3.5 LS-Norm-Schätzer 6.4 Eigenschaften robuster Schätzverfahren 6.4.1 Hebelpunkte/Hebelbeobachtungen 6.4.2 Bruchpunkte 6.4.3 Modifizierte M-Schätzer 6.5 Praktische Handhabung der modifizierten M-Schätzer
202 202 203 203 204 206 207 207 208 210 212 213 214 215 218 218 222
7
Datumsproblematik 7.1 Singuläre Ausgleichungsmodelle 7.1.1 Einführung 7.1.2 Pragmatische Lösung für ein Höhennetz 7.1.3 Datumsdefekte und freie Datumsparameter 7.1.4 Konfigurationsdefekte
224 224 224 227 231 232
Inhaltsverzeichnis
7.2
7.3
7.4
7.1.5
Pragmatische Lösung für ein Lagenetz
234
7.1.6
Lösung durch Spektralzerlegung
236
7.1.7
Beziehungen zwischen den Bedingungsgleichungen G und Β . 237
Datumsfreies Konzept
8
239
7.2.1
Ausgangsüberlegung
239
7.2.2
Einführung von Zusatzparametern
240
7.2.3 7.2.4
Datumsparameter aus Messgrößen in praktischen Netzen . . . 245 Kombinierte Ausgleichung von terrestrischen und GPSMessungen 247
Konzepte für Datumsfestlegungen in geodätischen Netzen
249
7.3.1
Zwangsfreie Lagerung
250
7.3.2
Gesamtspurminimierung
252
7.3.3
Teilspurminimierung
255
7.3.4
Hierarchische Ausgleichung
258
7.3.5 Weiche Lagerung 259 Lösung eines singulären Ausgleichungsproblems mit Bedingungen . . 260 7.4.1
7.5
xi
7.4.2 7.4.3
Zusatzbedingungen im Modell der parametrischen Ausgleichung Herleitung der Submatrizen Optimaleigenschaften von Q u
260 262 264
7.4.4
Hauptlösung χ
265
S-Transformation
266
7.5.1 7.5.2
266 268
Herleitung der S-Transformationen Anwendung der S-Transformation für ein Höhennetz
Qualitätsbeurteilung
270
8.1
Der Begriff „Qualität"
270
8.2
Beurteilung der Genauigkeit 8.2.1 Ausgleichungsmodell und Kovarianzmatrix Σ χ χ
271 271
8.3
. .
8.2.2
Lokale Genauigkeitskriterien
274
8.2.3 8.2.4
Globale Genauigkeitskriterien Kriteriumsmatrizen
282 286
Beurteilung der Zuverlässigkeit
290
8.3.1
Einführung in das Konzept der Zuverlässigkeit
290
8.3.2
Redundanzanteile und Ausreißertests
291
8.3.3
Minimal aufdeckbare Ausreißer
294
8.3.4
Teststatistik für zusätzliche Parameter
296
8.3.5
Eindimensionale Alternativhypothesen
300
8.3.6 8.3.7
Abstimmung des Testniveaus Maße für die äußere Zuverlässigkeit
302 304
Inhaltsverzeichnis 9
Spezielle Aspekte 9.1 Eliminieren von Parametern 9.1.1 Aufgabenstellung 9.1.2 Eliminierung durch Blockzerlegung 9.1.3 Mittlere Verbesserungsgleichung 9.1.4 Fingierte Verbesserungsgleichungen nach Schreiber 9.2 Einfügen weiterer Beobachtungen - Sequentielle Ausgleichung . . . . 9.2.1 Typische Aufgabenstellungen 9.2.2 Auswirkung auf das Ausgleichungsergebnis 9.3 Varianzkomponentenschätzung 9.3.1 Schätzung eines Varianzfaktors 9.3.2 Schätzung der einzelnen Varianzkomponenten 9.3.3 Praktischer Berechnungsablauf 9.4 Bestimmung von Näherungskoordinaten 9.4.1 Problemstellung 9.4.2 Herkömmliche Ansätze für die Bestimmung von Näherungskoordinaten 9.4.3 Spezielle Modelle: Direkter Ansatz 9.4.4 Strategie für 3D-Netze 9.5 Optimierung geodätischer Netze 9.5.1 Einführung in die Aufgabenstellung 9.5.2 Zielfunktionen und Restriktionen 9.5.3 Sequentielle Optimierungsstrategie 9.5.4 Optimierung der Zuverlässigkeit 9.5.5 Netzsimulation und Optimierung
10 Transformationen 10.1 Einleitung 10.2 Modelle für Koordinatentransformationen 10.2.1 Helmert-Transformation 10.2.2 Affin-Transformation 10.2.3 Polynomiale Transformation 10.2.4 Dreidimensionale Helmert-Transformation 10.3 Schätzung der Transformationsparameter 10.3.1 Schätzung der Parameter der Helmert-Transformation 10.3.2 Näherungswerte für die Parameterschätzung bei der 3D-Helmert-Transformation 10.3.3 Ausreißertests bei der Helmert-Transformation 10.3.4 Direkte Transformation von GPS-Datensätzen 10.3.5 Zweistufige Integration von GPS-Datensätzen 10.4 Robuste Transformationen 10.4.1 Allgemeines
. . . .
307 307 307 307 310 312 314 314 315 318 321 322 323 325 325 326 328 330 331 331 334 336 339 340 342 342 343 343 345 346 346 351 351 355 360 361 363 365 365
Inhaltsverzeichnis 10.4.2 LI-Schätzung 10.4.3 LMS-Schätzung 10.4.4 Modifizierter M-Schätzer (BIBER) 10.5 Nachbarschaftstreue Anpassung 10.5.1 Problemstellung 10.5.2 Maschenweise Affin-Transformation 10.5.3 Abstandsgewichte 10.5.4 Multiquadratische Interpolation 10.6 Numerisches Beispiel 10.6.1 Ausgangsdaten 10.6.2 Helmert-Transformation 10.6.3 Affin-Transformation 10.6.4 Maschenweise Affin-Transformation 10.6.5 LI-Helmert-Transformation 10.6.6 LMS-Schätzung
xiii 366 368 369 369 369 370 372 372 373 373 374 375 376 377 378
11 Aproximation von Funktionen - Regression 379 11.1 Einführung 379 11.2 Lineare Regression bei zwei Variablen 381 11.2.1 Ausgangsmodell 381 11.2.2 Parameterschätzung 382 11.2.3 Genauigkeitsabschätzung der linearen Regression 383 11.2.4 Numerische Lösung mit schwerpunktbezogenen Größen . . . 384 11.2.5 Regression von χ auf y 385 11.2.6 Beispiel: Regressionsgerade 386 11.3 Multiple lineare Regression 389 11.3.1 Ausgangsmodell und Skalen 389 11.3.2 Qualitative Merkmale 391 11.3.3 Nichtlinearitäten 391 11.3.4 Beispiel: Regressionsebene 393 11.4 Qualitätsbeurteilung der Regression 395 11.4.1 Bestimmtheitsmaß 395 11.4.2 Globaltest der Regressionsparameter 396 11.4.3 Signifikanztests für einzelne Parameter 398 11.4.4 Merkmalsabstand - Versuchsplanung 398 11.5 Orthogonale Regression 399 11.5.1 Modellansatz 399 11.5.2 Parameterschätzung 401 11.5.3 Beispiel Geradenapproximation mittels orthogonaler Approximation 403 11.5.4 Orthogonale Kreisapproximation 404 11.5.5 Beispiel Orthogonale Kreisapproximation 407
xiv
Inhaltsverzeichnis
12 Interpolationsverfahren 12.1 Einführung 12.2 Deterministische Interpolationsmethoden 12.2.1 Gleitende Mittelbildung 12.2.2 Polynominterpolation 12.2.3 Spline-Interpolation 12.3 Dreiecksvermaschung 12.3.1 Delaunay-Triangulation 12.3.2 Oberflächenmodell 12.3.3 Thiessen-Polygone 12.4 Prädiktion nach kleinsten Quadraten 12.4.1 Einführung 12.4.2 Kovarianzfunktion 12.4.3 Modell und Parameterschätzung der Prädiktion 12.5 Kriging 12.5.1 Das Variogramm 12.5.2 Kriging-Interpolation 12.5.3 Numerisches Beispiel zum Kriging 13 Kongruenzuntersuchungen 13.1 Geometrische Veränderungen 13.2 Deformationsmodelle 13.3 Kongruenztest bei 2 Epochen 13.3.1 Ausgangssituation 13.3.2 Globaler Kongruenztest für zwei Epochen 13.3.3 Implizite Hypothesenformulierung 13.3.4 Berücksichtigung einer unterschiedlichen Konfiguration 13.4 Bestimmung der Verschiebungen 13.4.1 Referenzpunkte 13.4.2 Lokalisierung von Einzelpunktverschiebungen 13.5 Beispiel für eine Kongruenzanalyse 13.6 Weitergehende Betrachtungen 14 Kaiman-Filterung 14.1 Zeitlich ablaufende Prozesse 14.2 Bewegungen von Körpern im Raum 14.3 Berechnungsablauf der diskreten Kaiman-Filterung 14.3.1 Ausgangsbeziehungen 14.3.2 Bestimmung des Schätzwertes zum Zeitpunkt k 14.3.3 Praktischer Ablauf 14.4 Verträglichkeit der Innovation mit der Systemgleichung
409 409 410 411 412 414 416 416 417 419 420 420 421 423 426 426 428 430 433 433 434 436 436 438 441 . . . 441 444 444 446 450 457 458 458 459 462 462 463 465 466
Inhaltsverzeichnis
XV
14.5 Beispiel: Bewegungsmodell eines Fahrzeugs
467
14.6 Weitergehende Betrachtungen
469
A Tafeln der Verteilungen
471
Literatur
477
Index
489
Kapitel 1
Beurteilung von Messungsgrößen
Eine grundlegende Methode in natur- und ingenieurwissenschaftlichen Disziplinen besteht darin, aus empirisch gewonnenen Messungsgrößen spezifische Aussagen über die jeweiligen Untersuchungsobjekte zu gewinnen. In dem Wissensgebiet „Geodäsie und Geoinformation" 1 ist eine der grundlegenden Aufgaben die Gewinnung von Informationen über die Geometrie von Teilen der Erdoberfläche, von Grundstücken oder von Bauwerken unter Nutzung fach spezifischer Messinstrumente und Messmethoden (Kähmen, 2006; Seeber, 2003; Torge, 2003). Aus den empirisch gewonnenen Messungsgrößen sollen fachspezifische, meist raumbezogene Informationen abgeleitet werden, wobei an diese Aufgaben i. d. R. strenge Qualitätsanforderungen gestellt werden. Zu den wesentlichen Problemen im Bereich der Geodäsie und Geoinformation gehört daher die Beurteilung eigener und fremder Messungsgrößen sowie die Angabe von verständlichen, auch interdisziplinär akzeptierten Qualitätsmerkmalen. Zur Lösung dieses Problems sind mathematisch-statistische Konzepte auf die fachspezifischen Fragestellungen zu übertragen. In diesem Kapitel wird daher eine Einführung in einige grundlegende Denk- und Arbeitsweisen der Statistik gegeben.
1.1
Zufalls variable
Zur Beschreibung und Beurteilung von Messungsgrößen eignet sich besonders das Konzept der Zufallsvariablen. Definition. Eine Zufallsvariable ist eine physikalisch oder logisch definierte Größe X, der durch Ausführung eines Experimentes bestimmte Beobachtungsergebnisse oder Messwerte x¡ zugeordnet werden können. Für die Messwerte x¡ sind die jeweiligen Wahrscheinlichkeiten P{xi) angebbar. Aus dieser Definition ist ablesbar, dass die Messwerte zwar variieren, aber nur in einem bestimmten Bereich, der durch eine statistisch definierte Wahrscheinlichkeitsverteilung begrenzt wird. Physikalisch definierte Zufallsgrößen, wie z. B. Strecken, 1 „Geodäsie" und „Geoinformation" werden hier als Sammelbegriffe verstanden und stehen für die vielfältigen und weitgestreuten Arbeitsfelder im Bereich der Erdmessung und Geodynamik, der Landesvermessung, des Katasters bzw. Liegenschaftswesens, der Bodenordnung, der Fernerkundung und Photogrammetrie, der Kartographie, der Verwaltung und Analyse raumbezogener Daten sowie der Ingenieur- und Industrievermessung.
2
Kapitel 1 Beurteilung von Messungsgrößen
Winkel oder Flächen, sind im Bereich der Geodäsie und Geoinformation die Regel, während logisch definierte Zufallsgrößen, wie ζ. B. die möglichen Ergebnisse eines Münz- oder Würfel-Wurfes, kaum eine Rolle spielen. Die Messwerte, für die beide Bezeichnungen x,· und U gebräuchlich sind, können grundsätzlich diskret oder stetig sein. Sie sind diskret, wenn abzählbar viele Resultate möglich sind, und stetig, wenn im Prinzip unendlich viele Ergebnisse erzielt werden können. Wegen der Begrenzung der Auflösung, ζ. B. der Anzeige in einem digitalen Messgerät auf drei Nachkommastellen, sind die hier zu diskutierenden Ergebnisse streng genommen immer diskret, dem Charakter nach aber meist stetig.
1.1.1
Messgrößen - Mittelwerte - Genauigkeiten
Zur Einführung in das Denken und Arbeiten im Bereich der Geodäsie und Geoinformation sollen grundlegende Begriffe wie Messgröße und Messgenauigkeit eingeführt und erläutert werden, sowie eine erste Diskussion möglicher Ursachen für Messunsicherheiten erfolgen. Am Beispiel der Streckenmessung können diese Betrachtungen sehr anschaulich vorgenommen werden: Zur Bestimmung des Abstandes L zwischen den Punkten A und Β seien η = 7 Streckenmessungen l¡ durchgeführt worden.
Zufallsgröße :
Messergebnisse :
A O -
L =AB
B
O
I4 ló h -H HH—I— h h h
h
A b b i l d u n g 1.1-1. P h y s i k a l i s c h definierte S t r e c k e Α Β u n d M e s s w e r t e / , .
Die η Messwerte, oft auch Beobachtungen l¿ genannt, werden zum vektor2 156,851 156,854 (20 — 50)σ. In Extremsituationen können völlig falsche Beobachtungswerte protokolliert oder registriert werden. Ursache können Ablese- und Aufschreibfehler bei Verwendung herkömmlicher Instrumente sein. Bei der manuellen Eingabe von Messwerten können derartige Fehler ebenso vorkommen, bei der automatischen Registrierung sind sie seltener. Auch Fehler in der Funktion eines Instrumentes erreichen teilweise diese Größenordnung, d. h. liegen im Bereich des 20- bis 50-fachen der theoretischen Standardabweichung. Gibt ein Hersteller die Messgenauigkeit eines Entfernungsmessgerätes mit σ = 5 mm an, so kann bei einer Abweichung von mehr als 10 cm (=20 σ) von offensichtlich falschen Werten gesprochen werden.
Abschnitt 1.2 Einführung zu Messunsicherheiten
9
Das Vorhandensein derartiger Fehler sollte wieder durch Plausibilitätskontrollen bzw. mit unabhängigen Messwerten frühzeitig im Auswerteprozess überprüft werden. Statistische Testverfahren, wie ζ. B. die Ausreißertests in Abschnitt 8.3, werden durch völlig falsche Messwerte ζ. T. derart stark gestört (statistisch ausgehebelt), dass ein Erkennen von Ausreißern nicht mehr zweifelsfrei möglich ist. Durch die Anwendung robuster Verfahren, siehe Kapitel 6, kann hier teilweise Abhilfe geschaffen werden.
(iii) Grobe Fehler - Ausreißer > (3 - 5)σ bis (20 - 50)σ. Definition. Eine Beobachtung wird als grob falsch angesehen, wenn die Wahrscheinlichkeit für das Auftreten einer derart stark vom Mittelwert abweichenden Messung sehr gering ist. Zur Abgrenzung zu den zuvor behandelten völlig falschen Messwerten liegt ein Ausreißer oder eine ausschlagende Beobachtung nicht vollkommen außerhalb des Wahrscheinlichen. Es handelt sich um stärker vom Mittelwert abweichende Ergebnisse, für die durch statistische Tests geprüft werden muss und kann, ob sie zu der statistischen Verteilung der übrigen Messwerte gehören. Die Ursachen für Ausreißer können sehr unterschiedlich sein. Von einer Vertauschung der Ziffernfolge beim Protokollieren von Messwerten: ζ. B. 42 statt 24, über Anziel- und Ablesefehler bis hin zu äußeren Einflüssen, wie starke Turbulenzen oder extreme Lichtverhältnisse, ist ein weites Spektrum von Einflussfaktoren möglich. Bei GPS-Anwendungen seien zusätzlich cycle slips, Mehrwege-Effekte oder falsch gelöste Mehrdeutigkeiten genannt. Für das Beispiel der Streckenmessung im Abschnitt 1.1.1 bzw. Abb. 1.1-2 stellt sich die Frage, ob das Messergebnis I5 = 156,873 m zu den übrigen Beobachtungen gehört oder als Ausreißer einzustufen ist. Zum Aufdecken von groben Fehlern in Messreihen, aber auch in Ausgleichungsmodellen, sind vielfältige statistische Methoden entwickelt worden. So geht es im Konzept der Zuverlässigkeit, siehe Abschnitt 8.3, primär um die Frage, ab welcher Größenordnung grobe Fehler oder Modellfehler in überbestimmten Systemen aufdeckbar sind. (iiv) Fehler durch Rundungen oder begrenzte Stellenzahl. Streng genommen setzen die stetigen Wahrscheinlichverteilungen und die Schätzfunktionen in den folgenden Abschnitten auch stetige Messwerte für die Zufallsvariablen voraus. In der Praxis wird jedoch immer mit einer endlichen Anzahl von Stellen gearbeitet. Dieser Effekt der Rechenschärfe oder numerischen Approximation ist in den letzten Jahren durch die endliche Anzahl von Stellen in der Anzeige digitaler Messgeräte intensiver diskutiert worden, tritt aber natürlich auch bei der optischen Ablesung der analogen Skala als Rundungsfehler auf. Diese Stellenbegrenzung wirkt sich auf die Mittelwerte, stärker aber noch auf die Genauigkeitsmaße aus, und zwar insbesondere bei geringer Anzahl von Messwerten.
10
Kapitel 1 Beurteilung von Messungsgrößen
Werden im Beispiel „Streckenmessung" nach Abschnitt 1.1.1 die Messwerte unter Beachtung der üblichen Rundungsregeln nur auf Zentimeter angegeben, so ergeben sich für das arithmetische Mittel und die empirische Standardabweichung: "156,85" 156,85 156,84 h = 156,85 156,87 156,85 156,86
Xt = 156,853 m sq t = 9,5 mm,
wobei xt und auch die Verbesserungen mit mm-Genauigkeit gerechnet worden sind.
1.2.2
Klassische Bewertung von Messunsicherheiten
Grundlage für eine statistische Bewertung von Messergebnissen ist das klassische Konzept der Einteilung von Messunsicherheiten in zufällige und systematische Anteile. Zufällige Messunsicherheiten sind unvermeidliche, durch das Zusammenwirken vieler Einzelanteile bedingte Unsicherheiten, die in jeder Beobachtung, jedem Messwert enthalten sind. Sie bilden die Grundlage für die statistische Behandlung von Messgrößen als Zufallsvariablen. Wie im Abschnitt 1.6.2 gezeigt wird, geht der sogenannte Zentrale Grenzwertsatz davon aus, dass eine zufällige Messunsicherheit sich aus einer Vielzahl von „Elementarfehlern" zusammensetzt, z.B. bei der Aufstellung eines Instruments, Einstellung eines Zieles, Ablesung einer Skala, Einfluss von Luftflimmern u. a. Dieses Konzept ist die Grundlage für die Ableitung einer statistischen Verteilungsfunktion und für die Anwendung weitergehender statistischer Methoden für Messwerte. Das immer noch weitestgehend akzeptierte Modell für die statistische Verteilung der zufälligen Messabweichungen ist die von C. F. Gauß im Jahre 1797 entwickelte Normalverteilung, siehe Abschnitt 1.6. Kenngröße für die zufällige Messunsicherheit ist die bereits in Abschnitt 1.1.3 eingeführte Varianz einer Verteilung. Heute wird dieser Anteil der Messunsicherheit als Präzision bezeichnet, gebräuchlich und eher zugänglich sind aber auch Begriffe wie Maß für die Reproduzierbarkeit, Genauigkeit unter Wiederholbedingungen oder der in der Geodäsie schon früh gebräuchliche Begriff „innere Genauigkeit". Systematische Messabweichungen entstehen durch nicht beherrschte und nicht bekannte Einflüsse auf die Messergebnisse. Sie führen dazu, dass auch bei sehr häufiger Durchführung der Messungen der empirische Mittelwert ζ. Β. χ bzw. E(x) sich immer vom wahren Wert X unterscheidet. Ein Beherrschen und wenigstens teilweise Eliminieren von systematischen Effekten setzt eine sorgfältige Analyse des Messprozesses und aller ihn beeinflussenden Faktoren voraus. Typische Beispiele aus der Geo-
Abschnitt 1.2 Einführung zu Messunsicherheiten
11
y
X Abbildung 1.2-2. Zufällige und systematische Messunsicherheiten, nach Schmidt (2003).
Xi einzelne Messergebnisse χ
wahrer i. d. R. unbekannter Wert
χ
geschätzter Mittelwert allein aus Messgrößen, meist arithm. Mittel
a w Standardabweichung allein aus Messwerten Δ systematische Abweichung Δ =
E(x)-x
däsie für solche Systematiken, die Messergebnisse i. d. R. einseitig verfälschen, sind fehlende oder unzureichende Kalibrierungen von Entfernungsmessgeräten, der nicht beherrschte Einfluss der Refraktion bei Nivellements oder Multipath-Effekte bei GPSMessungen. In Abbildung 1.2-2 ist diese Situation exemplarisch am Beispiel der Lage (Lagekoordinaten) eines Punktes skizziert. Die wahre Position des Punktes ist X . Aus einer bestimmten Messkonfiguration ergeben sich bei η Wiederholungen die Einzelergebnisse Xj, deren arithmetisches Mittel χ sei. Sind die η Messungen bei gleichen äußeren Bedingungen durchgeführt worden, so kann aus der Streuung der Einzelergebnisse die Varianz n f als Maß für die Präzision bzw. innere Genauigkeit abgeleitet werden. Zwischen χ oder bei η oc dem Erwartungswert E(x) und der wahren Position kann sich eine systematische Messabweichung Δ ergeben: Δ =
E(x)-X.
(1.2.1)
12
Kapitel 1 Beurteilung von Messungsgrößen
Für Ingenieure und Naturwissenschaftler ist es selbstverständlich, zunächst alle möglichen instrumenteilen Effekte zu untersuchen. Die Durchführung von Kalibrierungen und die Nutzung der Kalibrierungsparameter zur Korrektion der Messwerte ist heute Standard und führt in j e d e m Fall zur Verringerung der systematischen A b weichung Δ . Ein zusätzlicher, auch in der Geodäsie häufig propagierter Ansatz zum Erkennen bzw. zur Reduktion von Δ besteht aus der Wiederholung der Messung bei Vergleichsbedingungen. Für die E D M , beim Nivellement und auch f ü r GPS-Messungen werden aus diesem Grunde häufig eine oder mehrere Wiederholungen bei andersartigen meteorologischen Bedingungen bzw. bei GPS auch bei anderen Satellitenkonstellation angestrebt bzw. gefordert.
y
X Abbildung 1.2-3. Zufällige und systematische Messunsicherheiten bei Vergleichsbedingungen.
Die Streuung der Messergebnisse bei Vergleichsbedingungen - ausgedrückt durch O y - ist oft schon deutlich größer als bei Wiederholbedingungen, der Mittelwert x v wird i. d. R. aber näher an X liegen, d. h. die systematische Abweichung kann so verkleinert werden. Eine besondere Art von Vergleichsbedingungen ist gegeben, wenn eine Messgröße unabhängig mit physikalisch andersartigen Messinstrumenten bestimmt werden kann. Wird ζ. B. die Lage eines Punktes mittels optischem Vorwärtseinschneiden, der elektroopti sehen Distanzmessung und différentiel lem GPS bestimmt, so wirken systematische äußere Einflüsse jeweils anders und das Mittel sollte weitgehend frei von diesen Effekten sein. Eine weitergehende Betrachtung zur Bewertung von Messunsicherheiten setzt einige statistische Grundkenntnisse voraus und wird daher erst im Abschnitt 2.4 behandelt.
Abschnitt 1.3 Beschreibende Statistik
1.3
13
Beschreibende Statistik
Zur übersichtlichen Darstellung der oft umfangreichen Messwerte x¡ sind eine Reihe von Funktionen entwickelt worden, wie die Häufigkeits-, Dichte- und Verteilungsfunktion. Aus diesen Darstellungen können Kenngrößen abgeleitet werden, die möglichst viel über die Messgrößen aussagen. Schließlich wird über diese Funktionen im Abschnitt 1.6 die Normal Verteilung eingeführt.
1.3.1
Häufigkeitsverteilung
Bei umfangreichen Stichproben ist es angebracht, den Informationsgehalt der Messwerte interpretierbar zu machen, indem man den Wertebereich der Zufallsvariablen in Abschnitte oder Klassen einteilt und die tatsächlichen Messwerte diesen Klassen zuordnet. Eine eindimensionale Zufallsvariable X sei «-mal gemessen. Die Messwerte x¡, = 1 , 2 , . . . , « liegen sämtlich im Intervall a < x¡ < b, wobei a = xmm und b = .v max der minimale bzw. maximale Wert der Stichprobe ist. Die Spannweite der Stichprobe S = b — a wird nun genutzt, um das Intervall in m Klassen einzuteilen. i
Anmerkung. Die Anzahl der Klassen m ist prinzipiell beliebig, doch sollte die Verteilung der Messwerte klar erkennbar sein. Bei η = 20 Messwerten sind 10 Klassen sinnlos, ebenso wie bei 200 Messwerten die Wahl von nur 5 Klassen die Darstellung wenig anschaulich macht. Mit der durch die Spannweite und die Anzahl m festgelegten Klassenbreite Δχ
=
b — a
(1.3.1)
m
ist eine Einteilung des Wertebereiches in äquidistante Klassen möglich, wobei in der Praxis hier oft mit abgerundeten Werten gearbeitet wird, siehe das Beispiel „Winkelmessung" in Abb. 1.3-2. In j e d e Klasse j fällt eine bestimmte Anzahl von Messwerten Häufigkeiten bezeichnet werden. Es gilt: 0 b = x m a x , so erhält man die (empirische) Verteilungsfunktion der Messwerte χι, X2,..., xn, die in Abb. 1.3-3 dargestellt ist. Wegen der Größe einer Landesvermessung musste real mit den Formeln der sphärischen Trigonometrie gearbeitet werden. Der „sphärische Exzess" ist in den o.g. Ergebnissen vorab berücksichtigt worden.
16
Kapitel 1 Beurteilung von Messungsgrößen
1 -•
0 2
3
4
5
6
Abbildung 1.3-3. Empirische Verteilungsfunktion.
Hier wird deutlich, dass außerhalb des Wertebereichs der x¡ gilt: Rk = 0 für Xg < a Rh = 1 für Xg > b. Die Verteilungsfunktion ist somit eine monoton steigende Funktion in den Grenzen Obis 1. 1.3.2
Definition von Wahrscheinlichkeiten
Ausgehend von diesen empirischen Ergebnissen und deren Darstellungsmöglichkeiten sollen nun die Gesetzmäßigkeiten betrachtet und untersucht werden, die zufälligen Ereignissen zugeordnet werden können. Die Beschreibung dieser Gesetzmäßigkeiten ist Aufgabe der Wahrscheinlichkeitsrechnung, die in allgemeiner Form nicht Gegenstand dieses Buches ist. Hier soll nur eine heuristische Einführung und erste Definitionen gegeben werden. Klassische Definitionen nach P. S. Laplace (1812). „Die Wahrscheinlichkeit für das Eintreten eines Ereignisses A ist gleich dem Verhältnis aus der Zahl m der für das Eintreten von A günstigen zur Zahl η aller möglichen Fälle" P(A)
m
Zahl der günstigen Ereignisse
η
Zahl der möglichen Ereignisse
(1.3.6)
Beispiel. In einer Urne befinden sich drei Lose mit den Nummern 1, 2 und 3. Es wird jeweils ein Los gezogen und wieder zurückgelegt. Als günstiges Ereignis kann definiert werden: Α χ : Ziehen einer speziellen Losnummer, ζ. B. der „ 1 " A2'· Ziehen einer ungeraden Losnummer: {1,3} A3: Ziehen einer Losnummer kleiner als 3: {1,2}
Abschnitt 1.3 Beschreibende Statistik
17
Die theoretischen Wahrscheinlichkeiten lassen sich sofort angeben: P(Ai) = ± P(A2) = § P(A3) = § Bei einer hinreichend großen Anzahl von Versuchen η werden sich näherungsweise die Verhältniszahlen einstellen. Diese Definition von Laplace ist zwar sehr anschaulich, setzt aber voraus, dass Elementarereignisse gleichvvahrscheinlich sind. Im obigen Beispiel kann das Ziehen eines Loses mit der Losnummer 1, 2 oder 3 als gleichvvahrscheinlich angesehen werden. Bei vielen Problemen der Praxis ist diese Voraussetzung allerdings nicht gegeben. „Statistische" Definitionen nach R. v. Mises (1919). „Bei einem Zufallsexperiment ist die Wahrscheinlichkeit Ρ ( A) eines Ereignisses gleich dem Grenzwert der relativen Häufigkeiten rn(A) des Auftretens des Ereignisses ,4. wenn die Zahl der Versuche η gegen unendlich geht." Ρ (A) =
m lim rn(Ä) = lim —. «—>0o n—>-oo η
(1.3.7)
Diese Definition hat in der Praxis große Bedeutung und wird im folgendem Abschnitt für die Einführung einer Wahrscheinlichkeitsdichtefunktion verwendet. Die Definition von v. Mises ist jedoch formal nicht exakt, da die Existenz des Grenzwertes in (1.3.7) nicht immer bewiesen werden kann. Auf die mathematisch strenge, axiomatische Definition nach Α. N. Kolmogoroff (1933) auf der Basis einer σ-Algebra soll hier nicht eingegangen werden.
1.3.3
Wahrscheinlichkeitsfunktionen
Bei den bisherigen Betrachtungen wurde eine endliche Anzahl von Messwerten x¡ betrachtet: eine Stichprobe vom Umfang n. Geht man nun zu einer Messreihe vom Umfang η σο über, auch Grundgesamtheit genannt, so erhält man gemäß der Definition nach v. Mises statt der Häufigkeitsfunktion die Wahrscheinlichkeitsfunktion p(xi,Ax)=
hi lim —. n—>oo η
lim h(xi,Ax)= n—>-oo
(1.3.8)
Jede Klasse (χ,, Ax) entspricht damit einem Ereignis A nach ( 1.3.7). Der Grenzübergang η oo gilt dabei für alle Klassen gleichzeitig. Nach Division durch die Klassenbreite Ax und Grenzübergang von der endlichen Klassenbreite Ax zur differentiellen Klassenbreite dx: Ax dx ergibt sich die Wahrscheinlichkeitsdichtefunktion oder einfacher Dichtefunktion
f{x)
=
lim Ax^dx
ρ
(Xj,
Ax
Ax)
(1.3.9)
18
Kapitel 1 Beurteilung von Messungsgrößen
Die Dichtefunktion / ( x ) ist eine stetige Funktion des Parameters χ ; sie gibt A u s k u n f t über die Wahrscheinlichkeit P(x), mit der Messwerte /, einer Zufallsvariablen L in den Grenzen χ und χ + dx liegt:
Ρ {x < h < χ + dx} = f (x) dx
(1.3.10)
Abbildung 1.3-4. Wahrscheinlichkeitsdichtefunktion einer Zufallsvariablen.
Liegen der Funktionstyp und die Parameter der Dichtefunktion fest, so ist damit die gesamte Verteilung der Zufallsvariablen beschrieben. Aus den relativen Summenhäufigkeiten R¡( nach (1.3.5) erhält man bei Vorliegen der Dichtefunktion / ( x ) und Übergang zur Integration die
Vertei 1 un g sfun kti on
(1.3.11)
Die Verteilungsfunktion F{xg) gibt die Wahrscheinlichkeit an, mit der ein Messwert Ii einer Zufallsvariablen L kleiner ist als ein Grenzwert xg. Da xg jeden Wert annehmen kann, wird der Index g meist weggelassen. Die Verteilungsfunktion F(x) ist wieder definiert im Bereich 0 < F(x) < 1.
(1.3.12)
Aus diesen Betrachtungen und Abbildungen lassen sich allgemeingültige Aussagen über Wahrscheinlichkeit im Z u s a m m e n h a n g mit Zufallsvariablen herleiten: (a) Wahrscheinlichkeiten sind definiert f ü r die Grundgesamtheit aller möglichen Messwerte, sprich f ü r die Zufallsvariable selbst. (b) Die Wahrscheinlichkeit f ü r ein Ereignis liegt stets zwischen 0 (= unmögliches Ereignis) und 1 (= sicheres Ereignis).
Abschnitt 1.3 Beschreibende Statistik
19
(c) Da die Wahrscheinlichkeit nie größer als 1 sein kann, folgt aus (1.3.11) für die Dichtefunktion eine Normierung, die bei der expliziten Formulierung einer Dichtefunktion / ( x ) zu beachten ist. + 00
J
f (x) dx = 1.
(1.3.13)
—oo
Abbildung 1.3-5. Zusammenhang zwischen Dichte- und Verteilungsfunktion einer Zufallsvariablen.
1.3.4
Gleichverteilung
Die einfachste Verteilung für stetige Zufallsgrößen ist die Gleichverteilung, siehe Abbildung 1.3-6. Bei der Gleich Verteilung ist die Wahrscheinlichkeit für jeden Wert im Intervall (a,b) gleich. Man schreibt X ~
U(a,b),
(1.3.14)
20
Kapitel 1 Beurteilung von Messungsgrößen
a
b
χ
was bedeutet: D i e Zufallsvariable X f o l g t ( ~ ) einer Gleichverteilung ( U n i f o r m distribution: U)
und ist nur zwischen a und b definiert. D i e Wahrscheinlichkeitsdichte-
funktion kann sofort angegeben werden:
i
-rr—
α < χ < b
. (1.3.15) 0 sonst D i e Verteilungsfunktion ist als Integral von (1.3.15) ebenfalls direkt berechenbar: =
Für χ = b erreicht F(x)
b —a
α < χ < b .
(1.3.16)
den maximal möglichen Wert von 1. Für χ < a und χ > b
ist F ( x ) nicht definiert. Der Erwartungswert von X kann - ohne Vorgriff auf den nächsten Abschnitt - hier rein empirisch bestimmt werden:
a + b μ = Ε{Χ)
= - ^ -
(1.3.17)
Für die Varianz gilt, ohne auf die Herleitung einzugehen: σ 2 = Var(X)
= -^{b
- af
(1.3.18)
Abschnitt 1.3 Beschreibende Statistik
21
Anmerkung. Die Gleichverteilung spielt z.B. bei der Erzeugung von Zufallszahlen eine große Rolle. Zufallszahlen werden nach einem bestimmten mathematischen Bildungsgesetz generiert, wobei i. d. R. eben eine Folge von gleichverteilten Zahlen bestimmt wird. Durch Transformation kann daraus ζ. B. eine Folge von streng normalverteilten Zufallszahlen, siehe Abschnitt 1.6, erzeugt werden. Für numerische Simulationen, bei denen wohldefinierte reale Situationen nachgebildet bzw. Modellfehler untersucht werden sollen oder für die Charakterisierung ausgewählter Signale, wie den Codes für GPS, werden derartige Pseudo-Zufallszahlen eingesetzt.
1.3.5
Erwartungswerte
Eine wichtige Kenngröße statistisch verteilter Größen ist der Erwartungswert. gangspunkt sei (1.1.2) für das arithmetische Mittel χ einer Stichprobe:
=
1 "X Σ— ' r¡ η i=1
-
i
•
Für η oo konvergiert das arithmetische Mittel χ zum Erwartungswert μχ Zufall svariablen X : μχ = lim - > χι η—ϊοο ~ '
Aus-
= E(x).
der
(1.3.19)
Diese vereinfachte Schreibweise setzt voraus, dass die Messwerte einer wohldefinierten symmetrischen Dichtefunktion entsprechen. Streng genommen ist die Dichtefunktion in die Berechnung des Erwartungswertes einzubeziehen. Ausgangspunkt für diese Herleitung sei die Wahrscheinlichkeit p(x), mit der die Zufallsgröße L in ein différentielles Intervall [χ, χ + dx] fällt: Ρ {χ < L < χ + dx} = f ( x ) dx =
px.
Ist die Anzahl der Beobachtungen η sehr groß (n oo), so fallen nx Werte in dieses Intervall. nx = η ρχ = η f ( x ) dx. (1.3.20) In Analogie zu (1.3.4) kann nun der Erwartungswert aus der Summe der Klassen oder Intervalle χ gebildet werden, deren Häufigkeitswerte nx sind:
E(x)
l = μχ = η
+ CO ,γ y χ rix = ' η
+00 T^ j, / χ η f ( x ) dx = χ f ( x ) d x . (1.3.21) ^ J
Damit liegt die fundamentale Beziehung zwischen Dichtefunktion und Erwartungswert vor, die im Folgenden intensiv genutzt wird.
22
Kapitel 1 Beurteilung von Messungsgrößen
Anmerkungen. (a) Der Erwartungswert μχ entspricht dem wahren Wert X der Zufallsvariablen X, wenn keine systematischen Abweichungen vorliegen, d. h. ein „bias" ausgeschlossen werden kann bzw. die Dichtefunktion / ( x ) gilt. (b) Wie im Abschnitt 4.5 gezeigt werden wird, ist das arithmetische Mittel χ eine erwartungstreue (unverzerrte, bias-freie) Schätzung für μχ.
1.3.6
Rechnen mit Erwartungswerten
(i) Wichtig ist auch das Rechnen mit Erwartungswerten, z . B . bei linearen Funktionen von X. Allgemein gilt (siehe Abschnitt 2.2) für eine lineare Funktion Y Y = a + b Χ,
(1.3.22)
wobei a und b beliebige „feste", d. h. nicht-stochastische Konstanten sind: E(Y)=a μγ
+ bE(X)
(1.3.23)
= a + b μχ.
Zum Nachweis von (1.3.23) geht man von dem Bildungsgesetz für den arithmetischen Mittelwert y aus: ι
"
Σ
(a + bxi)
χ η
=
i= 1
ηa +
bJ2xi
(1.3.24)
i= 1
1 " = a + b - 7 Xi == a + b χ . rt i=1 (ii) Für beliebige Funktionen, d.h. Zufall svari able Y, die sich als Funktion von X darstellen, also 7 = g(X),
(1.3.25)
sind ebenfalls häufig Erwartungswerte zu bestimmen. Setzt man (1.3.21) für Y nach (1.3.24) an, so ergibt sich + 00 E{Y)
= E{g{X))=
j
g(X) f ( X ) dx.
(1.3.26)
—oo Die Varianz einer Messung σ^ oder Dispersion der zugehörigen Zufallsvariablen Var(X) kann ebenso über Erwartungswerte eingeführt werden. Nach ( 1.1.7) gilt On=Var(X)=
lim ( - e T e ) , n^oo \ n J
(1.1.7)
Abschnitt 1.4 Der zweidimensionale Zufallsvektor
wobei die wahren Residuen nach ε,
=
/,·
23
.Χ —
fJj berechnet wurden. A l s
A n a l o g o n zu (1.3.19) ist damit auch (1.1.7) als Erwartungswert definiert
Oq
=
Var(X)
=
e(\X
-
μ]
2
)
=
E ( X
2
) -
μ2
=
E ( e
T
e ) .
(1.3.27)
Diese Form wird im Kapitel 2 bei der Herleitung der Formeln für die Genauigkeit von Funktionen einzelner oder mehrerer Zufallsvariablen benutzt.
(iii)
Im Konzept der Ervvartungswerte gilt für die wahren Abweichungen: Bi = U - E { x ) = h - μ
χ
(1.3.28)
.
Der Erwartungswert von ε selbst ist entsprechend 1.3.6: Ε (ε)
=
E (li - μχ)
=
μχ
oder: Ε ( ε ) =
-
lim
η—>οο
μχ
ι -
η
= E(h) =
ο
" V g
;
-
(1.3.29)
Ε(μχ)
= 0 .
(1.3.30)
i= l
Diese Gleichungen zeigen, dass Ε (ε) unabhängig ist von der Größe der einzelnen s¡ und somit unabhängig von der Messgenauigkeit. Ε (ε) kann damit kein Genauigkeitsmaß sein. A l s grundlegendes Genauigkeitsmaß ist in (1.1.7) daher die empirische Varianz Sq einer Messung eingeführt worden. Es gilt 1 s2 = -eTe η
Für η
oo geht s^
1 " = - Y z ì η
^ i= 1
(1-1-7)
•
Oq über, siehe (1.1.8). Im Konzept der Erwartungswerte
bedeutet das:
ση
1.4
=
lim
n-yoο
-
η
Y V i =\
'
=
=
E
(Vi -
·
(1.3.31)
Der zweidimensionale Zufallsvektor
In diesem Abschnitt erfolgt die Übertragung der bisher behandelten Themen auf z w e i dimensionale Zufallsvariable.
24
1.4.1
Kapitel 1 Beurteilung von Messungsgrößen
Definitionen
Ausgehend von der Definition einer Zufallsvariablen in Abschnitt 1.1.1 ist ein zweidimensionaler Zufallsvektor Li L = (1.4.1) L2 (2,1) zunächst nichts weiter als die Kombination von zwei beliebigen Zufallsvariablen Lχ und ¿ 2 - Statt der zwei (gleichartigen) Streckenmessungen in Abb. 1.4-1 können dies auch völlig verschiedenartige Zufallsvariable sein, wie ζ. B. Höhe eines Punktes im „Tidegebiet" und der jeweilige „Wasserstand" oder die Variablen „Kaufpreis eines Grundstücks" und „Zentrumsentfernung".
Abbildung 1.4-1. Beispiel für einen zweidimensionalen Zufallsvektor: Zwei Streckenmessungen vom Punkt A aus. Für die numerischen Betrachtungen soll vorausgesetzt werden, dass f ü r L\ und L 2 jeweils η Beobachtungen vorliegen. Der («, 2)-Beobachtungsvektor 1 ist damit gegeben durch:
1T = [ ! ϊ 1 = [ ί 1 1 ί 1 2 " " " Μ · (2,h)
L 1
2
J
L
l2l
α· 4 · 2 )
122 • • • l2n _
Der Vektor der Erwartungswerte folgt aus der sinngemäßen Übertragung von (1.3.19): lim hj «—>•00 J¡ £(L0 μι = μ. 7=1 E( L) = (1.4.3)
Σ
ß2
E(L2)
i™ ϊ" ytTj Σ η-ϊοο
hj
Liegt der Erwartungswert vor, der bei Ausschluss von Modellfehlern dem wahren Wert gleichgesetzt werden kann, so können auch die wahren Abweichungen oder wahren Residuen gemäß (1.1.6) berechnet werden: Γ pH sT
(2 ,H)
=
τ
'hl
hl
- μι ¡12-μι
•
• hn
- μ2 l22 - μ2 • •
hn
—
μι
—
μ2 _
(1.4.4)
= 1T - μ e T .
1.4.2
Kovarianz und Korrelation
Erweitert man die Definition (1.3.31) rein formal auf zweidimensionale Zufallsvariable, so erhält man eine (2,2)-Matrix, in der alle Angaben zu Genauigkeiten des
Abschnitt 1.4 Der zweidimensionale Zufallsvektor
25
Zufallsvektors enthalten sind, die Kovarianzmatrix Έιι
[x-/Ax]T)
= Ε([χ-μχ] =
Σ//:
Ε(χ)]τ}
Ε {[χ - E(x)][x-
(1.4.5)
J
=
E(e e).
Hierbei ist ε als ( n , 2 ) - M a t r i x der wahren Residuen nach (1.4.4) definiert. Aus der letzten Form folgt durch Ausmultiplizieren:
Σ/Ζ
τ _τ
=E
[ « i e2]\
=
τ τ
ε[ε\
E
τ e[e2 τ
(1.4.6)
Dabei gilt 8 : Ε (eje
0
Ε(εΊ2ε2)
(1.4.7)
= E t f ) = = E (4)
=
d . h . die Elemente auf der Hauptdiagonalen von (1.4.6) entsprechen den Varianzen der jeweiligen Zufallsvariablen. Für das Nebendiagonal-Element wird hier der Begriff Kovarianz o\2 neu eingeführt, der stets zwischen zwei Zufallsvariablen definiert ist. Es gilt: σ12
= Ε(ε\ε2)
= E (eje ι ) .
(1.4.8)
Die Bedeutung der Kovarianz wird verdeutlicht, wenn - zunächst rein formal - der Korrelationskoeffizient
ΟΊ 2 Pi2 —
(1.4.9) σι · σ2
gebildet wird, d. h. der sich aus (1.4.8) ergebende Wert σ \ 2 in Relation zum Produkt der Standardabweichungen σ\ · σ2 der einzelnen Zufallsvariablen gesetzt wird. Nach der Cauchy-Schwarzschen Ungleichung 9 {Ε{ε\ε2)}2
= {Ε(ελε2)γ
< E (sj) •E
(ε*)
(1.4.10)
folgt f ü r die Kovarianz: (σ\2)2 (1.4.11) ist nur erfüllt, wenn p\2
= (Pi2 · σι · σ 2 ) 2 < a f · σ | .
(1.4.11)
< 1, woraus f ü r den Wertebereich von p\2 folgt: -1
5 Pl2
0. 1.5.2
Berechnung von Kovarianzen und Korrelationen
Auch die Berechnung von empirischen Kovarianzmatrizen Σ // und empirischen Korrelationskoeffizienten r¡¡ folgt dem schon bei zweidimensionalen Betrachtungen eingeführten Schema. Wieder sind alle Beobachtungen in ihrer Reihenfolge beizubehalten und jeweils für zwei Zufallsvariable paarweise zu betrachten. Die empirische Kovarianzmatrix Σ / / ist allgemein gegeben durch Sa ru S2 Si
r\2 Si S2 s,2
?*1 m ΛΊ Sm m S 2 Sm
Σ// = im ,m)
(1.5.6)
r
ml Sm «1 rm2 Sm $2
a) Aus wahren Abweichungen ε. Liegen wahre Werte L bzw. Erwartungswerte μ.¿ vor, so gilt als Berechnungsformel für die empirische Kovarianzmatrix τ τ Τ ε[ει ε[ε 2 ® 1G m ιτ ι τ Τ ε 2ει ε 2ε2 Έιι = - ετε = (1.5.7) (m,m) η η τ τ £ m^m m& J ®m® 1 ®m®2 Auf der Hauptdiagonalen stehen die Varianzen der jeweiligen Zufallsvariablen: Sj2f
=
1* Τ η J
(1.5.8)
Die Nebendiagonalen beinhalten entsprechend die - paarweisen - Kovarianzen s¡j, aus denen die empirischen Korrelationskoeffizienten r¡j zu berechnen sind: sij = - e J
e j
Sir Η ¿j
für i φ j
(1.5.9) (1.5.10)
b) Aus Verbesserungen υ. Liegen die arithmetischen Mittelwerte χ und damit die («, m)-Verbesserungsmatrix vor, so gilt in Verallgemeinerung der Ausführungen des Abschnittes 1.4.3 τ V\ V, vjvi vτj v 2 *m τ τ VAV, 2 »m VΤV = (1.5.11) Σ// = (m,m) Π — 1 η - 1 τ τ . 1 2
34
Kapitel 1 Beurteilung von Messungsgrößen
Entsprechend ergeben sich die empirischen Varianzen sj der einzelnen Zufallsvariablen und die empirischen Korrelationskoeffizienten r¡j aus 1 sì = Sii = ra =
1.5.3
τ V: ' J t V; 'J i
-1
v[vy
η - 1
(1.5.12) (1.5.13)
für i φ j
(1.5.14)
Si • Sj
Erwartungswerte für Funktionen der Zufallsvariablen
In Abschnitt 1.3.5 wurde als wichtige statistische Kenngröße der Erwartungswert geführt, der sich im eindimensionalen Fall ergibt zu
ein-
+ 00 E(x) = μχ
=
f ( x ) dx.
(1.3.19)
l··
Von besonderem Interesse hier ist die Bestimmung von Erwartungswerten für Funktionen mehrerer Zufallsvariabler. a) Summe von Zufallsgrößen.
Für die Summe Y der η Zufallsvariablen X¡ gilt:
Y = X l + X2 + ... + x„. Für die Messwerte x¡j ergibt sich entsprechend: Y
i = χυ
+ χ2j + •••+ Xnj •
Bei Bosch (2006) ist bewiesen, dass der Additionssatz für Erwartungswerte
gilt:
(1.5.15)
Dieser Additionssatz gilt auch für korrelierte Zufallsvariablen X¡ und kann auch auf lineare Funktionen der X¡ erweitert werden. Für eine Funktion Y mit nichtstochastischen (konstanten) ai und b gilt Y = α\Χι E(Y)
Ε
= i=ι
+ a2X2 + • • • + anXn
+ b
( α ί χ ί ) + b = αιμχ + α2μ2 + • • • + αημη
(1.5.16) + b.
(1.5.17)
Abschnitt 1.5 Der m-dimensionale Zufallsvektor
35
Beispiel. Nivellementslinie. Im Vermessungswesen liegt oft für jedes X¡ nur eine oder wenige Realisierungen bzw. Messwerte X, vor. So gilt für die Bestimmung des Höhenunterschiedes AH zwischen den Punkten A und Β gemäß Abb. 1.5-1 AH
= Ahi
+ ΔΑ2
+ ··· +
Ahn. Β
ΔΑ 2 Abbildung 1.5-1. Gesamthöhenunterschied zwischen A und Β als Summe von Einzelhöhenunterschieden. Je nach Anforderungen sind die Höhenunterschiede Ahi nur einfach oder im Hin- und Rückweg gemessen worden, wobei dann die Mittelwerte einzuführen sind. Statistisch gesehen ist jeder Höhenunterschied Ah¡ eine eigenständige Zufallsvariable, so dass hier der Additionssatz gilt: E(AH)
=
E (Ahi)
+ E(Ah2)
+ ... +
E(Ahn)
η μΑΗ
=
μ ι + ¡12 + ••• + μη
=
μ
Σ
ί ·
y=i b) Produkt von Zufallsvariablen. variablen gesucht, also Y
=
Ist das Produkt von zwei oder mehreren ZufallsX\
· X2·
...·
Xn,
E(X
Mi- = μ ι · μ 2
2
)
·
• · · · • μ-η
...·
E ( x η
n
)
II
E(Y)
ll tq
so ist ebenso bei Bosch (2006) bewiesen, dass hier unter der Voraussetzung der stochas ti sehen Unabhängigkeit der Multiplikationssatz der Erwartungswerte gilt:
i=1
Beispiel. Flächenberechnung. Das einfachste Beispiel ist die Bestimmung der Fläche A eines Rechteckes aus den Seiten a = Χ ι und b = X2 A = E(Ä)
=
a-b E(a)
• E(b)
=
μα
•
ßh.
Vorausgesetzt wird hier die stochastische Unabhängigkeit von Χι und λ' 2 . die häufig nicht gegeben ist, so dass dann diese Rechenregel nur näherungsweise gilt.
36
Kapitel 1 Beurteilung von Messungsgrößen
1.6
Normalverteilung
1.6.1
Definition und Eigenschaften
C.F. Gauß 10 hat bei der Analyse astronomischer Messungen zur Bestimmung der Bahn des Asteroiden Ceres festgestellt, dass die zufälligen Abweichungen bei einer genügend großen Anzahl von Beobachtungen stets einer bestimmten statistischen Verteilung folgen, die er mit Normalverteilung bezeichnete, die heute auch als GaußVerteilung oder Gaußsche Normalverteilung bekannt ist. Die Normal verteil un g ist eine symmetrische Verteilung, die durch zwei Parameter vollständig festgelegt ist, nämlich durch den Erwartungswert μ und die Varianz σ 2 (Abbildung 1.6-1).
Im Sinne einer Kurvendiskussion ist in Abb. 1.6-1 ausgeführt, dass das Maximum von f ( x ) beim Erwartungswert liegt und der zweite Parameter, die Standardabweichung σ den Abstand zwischen μ und den Wendepunkten der Kurve / ( λ ) kennzeichnet. Für eine normalverteilte Zufallsvariable X ist die folgende Schreibweise gebräuchlich: (1.6.1)
Χ ~ Ν (μ,σ2).
Die Dichtefunktion / (x) der Normal Verteilung hat bereits Gauß eingeführt als fix) =
• exp
ύ - μ)2 2σ2
- σο < λ < + 0 0 .
(1.6.2)
In Abb. 1.6-2 ist diese Dichtefunktion für einen festen Wert μ und verschiedene Standardabweichungen σ = + ν/σ 2 grafisch dargestellt. Aus dieser Abbildung sind eine Reihe von wesentlichen Erkenntnissen ablesbar, die natürlich auch streng aus (1.6.2) ableitbar sind: l0 Carl Friedrich Gauß, geb. 30.04.1777 in Braunschweig, gest. 23.02.1855 in Göttingen, gilt als einer der größten Gelehrten seiner Zeit und hat schwerpunktmäßig in der Mathematik. Astronomie und Geodäsie gearbeitet.
Abschnitt 1.6 Normal Verteilung
37
I
fix)
Abbildung 1.6-2. Dichtefunktion /(Λ ) der Normalverteilung bei verschiedenen Werten des Parameters σ.
• Die Verteilung ist symmetrisch. Nach (1.3.21) ist der Erwartungswert E(x) beliebigen Verteilung gegeben durch
χ f(x)
E(x)
einer
dx.
—oo Der Erwartungswert der Normalverteilung ist μ. • Die Dichtefunktion ist theoretisch von —oo bis + o o definiert; im gesamten Definitionsbereich ist / ( Λ ) > 0; bei großem Abstand von Μ ist jedoch / ( Λ ) nahe null. • Der entscheidende Formparameter ist die Standardabweichung σ ; die Verteilung kann steil oder flach sein. • Die Fläche zwischen x - A c h s e und f ( x ) ist f ü r alle σ-Werte gleich, nämlich genau 1. Die Aussage folgt direkt aus der Definition einer Verteilungsfunktion nach Abschnitt 1.3.3. Die Verteilungsfunktion F(x) gibt die Wahrscheinlichkeit an, mit der ein Messwert kleiner als χ auftritt:
X (1.3.11) —oo Da die maximale Wahrscheinlichkeit 1 ist, gilt + 00 j —oo
f(x)dx
=
1.
(1.3.13)
38
Kapitel 1 Beurteilung von Messungsgrößen
In j e d e m Lehrbuch der Statistik ist nachgewiesen, dass / ( x ) nach (1.6.2) dieser Gleichung genügt. Zusammenfassend sind folgende Resultate festzuhalten, die z.T. bereits in der Definition gegeben sind: -
1.6.2
E(x)
= μ
2
Erwartungswert 2
Ε (ε ) = σ
Varianz.
Begründungen für die Normalverteilung
Die geniale Definition der Normalverteilung hat die Statistiker jahrhundertelang nicht ruhen lassen bei der Frage, warum diese Verteilung gilt. Im Konzept von Hagen (1837) setzt sich eine zufällige Abweichung s¡, damals Beobachtungsfehler genannt, aus sehr vielen kleinen, voneinander unabhängigen, gleichgroßen Elementarfehlern zusammen, die darüber hinaus gleich häufig positiv wie negativ sein können. Bei η Elementarfehlern ergeben sich Beobachtungsfehler, die näherungsweise normal verteilt sind. Zu ähnlichen Ergebnissen kommt man bei der Nutzung eines Wahrscheinlichkeitsbretts, d. h. eines senkrecht aufgestellten mechanischen Apparates (siehe Abb. 1.6-3), des sogenannten Galton-Brettes, in den man immer an der derselben zentralen Stelle Kugeln einfüllt. Bei ausreichender Regelmäßigkeit der Konstruktion und genügendem Stichprobenumfang ergibt sich eine Kurve, die der Normalverteilung stark ähnelt.
Τ
•
ι
ί 0
•
·1 · · · r · · ·
τ · τ 1
2
Τ Τ Τ I 3
4
5
6
Abbildung 1.6-3. Galtonsches Brett zum Nachweis der Normalverteilung.
Abschnitt 1.6 Normal Verteilung
39
Auch im geodätischen Bereich sind umfangreiche Versuche durchgeführt worden, um die Verteilung der zufälligen Abweichung experimentell zu belegen, siehe z.B. Winter (1978). Stets erwies sich die Normalverteilung als optimales Modell. Statistisch streng hat Cramér (1946) mit dem zentralen Grenzwertsatz nachgewiesen, dass für η voneinander unabhängige Zufall svari able mit beliebigen (!) Verteilungen unter recht allgemeinen Bedingungen die Verteilung der Summe dieser Zufallszahlen asymptotisch gegen die Normal verteil un g strebt, wenn η ausreichend groß ist. Dieser zentrale Grenzwertsatz geht über die Ansätze von Hagen noch hinaus, da er beliebige Verteilungen zulässt. Geodätische Beobachtungen setzen sich stets aus einer Vielzahl von unabhängigen Zufallsvariablen zusammen, so z.B. bei der EDM aus den Zentrierungen, der Erfassung von Stand- und Zielpunkthöhe, der Modellierung der Atmosphäre und vielen Geräteeinflüssen. Nach dem zentralen Grenzvvertsatz darf i.d. R. von normal verteil ten Messwerten ausgegangen werden!
1.6.3
Standard-Normalverteilung
Eine herausragende Bedeutung besitzt die sogenannte für die als Verteilungsaussage gilt: 11
Standard-Normalverteilung,
Υ ~ Ν (0,1).
(1.6.3)
Mit dem Erwartungswert E(y) = ¡iy = 0 und der Varianz Oy = \ ist damit eine standardisierte Form gegeben, die für statistische Tests, siehe Abschnitt 3.2, eine besondere Bedeutung hat. Von jeder beliebigen Normalverteilung kann auf die Standard-Normal Verteilung durch eine einfache Transformation übergegangen werden: Zufallsvariable: X Y χ - μ , λ Messwerte: y = = g (χ). σ
(1.6.4)
Die Zufallsvariable Υ = Χ/σ — μ/σ ist eine lineare Funktion der Zufallsvariablen X. Ist F(x) die Verteilungsfunktion von X , so folgt formal aus Y = -X σ
- - < y ) = ( — X