1. Die Bedeutung von Wahrscheinlichkeit in der Ökonomie.- 1.1 Ansatzpunkte für Wahrscheinlichkeitsbetrachtungen.- 1.1.1. Das Moment der Unsicherheit.- 1.1.2. Mikroökonomische Instabilität versus makroökonomische Stabilität: das Versicherungsproblem.- 1.1.3. Das Problem der Erhebung wirtschaftlicher Daten.- 1.2. Das Erhebungsproblem.- 1.2.1. Das Meßproblem.- 1.2.1.1. Das Beschreibungsproblem.- 1.2.1.2. Das Klassifizierungsproblem.- 1.3. Alternativenbeschreibung und die Definition der Wahrscheinlichkeit.- 1.3.1. Erste Ansätze für Wahrscheinlichkeitsinterpretationen.- 1.3.2. Zur Beschreibung von Alternativen.- 1.3.2.1. Sprachliche Grundlagen der Beschreibung: Objekte, Attribute, Erfüllungsgrade von Attributen.- 1.3.2.2. Zur Leistungsfähigkeit von Attributen: Attribute und Operatoren.- 1.3.2.3. Attribute unterschiedlicher Stufen.- 1.3.2.4. Beispiele.- 1.4. Das Problem unterschiedlicher Skalen: Kardinalskala, Ordinalskala, Nominalskala.- 1.5. Zusammenfassung.- 2. Definition von Ereignissen.- 2.1. Unterscheidung von Alternativen durch Zahlentupel.- 2.1.1. Der Begriff der Zufallsvariablen.- 2.1.2. Einfache Beispiele.- 2.1.3. Das Problem der Gleichheit von Ereignissen.- 2.1.3.1. Gleichheit von Ereignissen heißt Gleichheit ihrer Beschreibung.- 2.1.4. Das Problem der Wiederholung.- 2.1.4.1. Wiederholung als Übereinstimmung von Beschreibungen.- 2.1.4.2. Beispiel für Gleichheit, relativiert auf Beschreibungen.- 2.1.5. Wiederholung bei Zufallsexperimenten.- 2.1.5.1. Die Konzepte der stochastischen Unabhängigkeit und der Gleichverteilung.- 2.2. Ereignisse als Zahlentupel (Vektoren).- 2.2.1. Zur Arbeitsteilung zwischen Realdisziplinen und statistischer Methodenlehre.- 2.2.2. Elementarereignisse und zusammengesetzte Ereignisse.- 2.2.2.1. Oft reicht beschränkte Genauigkeit der Ergebnisbeschreibung aus.- 2.2.2.2. Zur Ungenauigkeit der Messung.- 2.2.2.3. Die logischen Operationen.- 2.2.2.3.1. Verneinung und Komplementbildung.- 2.2.2.3.2. “Und” und “oder” bzw. “Durchschnitt” und “Vereinigung”.- 2.2.2.3.3. Zur Abhängigkeit von Verneinung, Vereinigung, Durchschnitt.- 2.3. Die Ereignisalgebra als Mengensystem des ?n.- 2.3.1. n — dimensionale Intervalle als Basisereignisse.- 2.3.2. Ereignisalgebra und Basisereignisse: die Form der Mengen, die in der Ereignisalgebra liegen.- 2.3.3. Elementarereignisse als Zahlentupel.- 2.3.3.1. Elementarereignisse als Schärfstmögliche Beschreibung von Alternativen.- 2.3.3.2. Zur Bedeutung von “ein Ereignis tritt ein”.- 2.3.4. Zwei Alternativen zur Durchführung einer Erweiterung der Ereignisalgebra.- 2.3.4.1. Die Vorgehensweise der schrittweisen Adjunktion von Ereignissen.- 2.3.4.2. Der Übergang zu abzählbar unendlicher Vereinigung und Durchschnitt.- 2.3.4.3. ? — Algebren.- 2.3.4.3.1. Die Ereignis — ? — Algebra.- 2.3.4.3.2. Der Preis für den Übergang zur Ereignis — ? — Algebra: Preisgabe der Entscheidbarkeit von Ereignissen.- 2.3.4.3.3. Gründe für die Wahl der Ereignis — ? — Algebra.- 2.3.4.3.4. Die Borel’sche — Algebra im Falle, daß die Menge der Elementarereignisse echte Teilmenge des ?n ist.- 2.4. Zusammenfassung.- 3. Wahrscheinlichkeitsverteilungen.- 3.1. Was Wahrscheinlichkeitsverteilungen nicht leisten.- 3.2. Minimalanforderungen, denen Wahrscheinlichkeits-Verteilungen zu genügen haben.- 3.2.1. Das unmögliche und das sichere Ereignis, fast -unmögliche und fast — sichere Ereignisse.- 3.2.2. Wahrscheinlichkeiten sind nicht — negativ.- 3.2.3. Zur Additivität von Wahrscheinlichkeitsverteilungen.- 3.2.4. Die ? — Additivität von Wahrscheinlichkeitsverteilungen.- 3.2.5 Definition von Wahrscheinlichkeitsverteilungen über einer Mengenalgebra.- 3.2.6. Wahrscheinlichkeitsverteilungen auf An.- 3.2.7. Ein Konstruktionsverfahren zur Übertragung von Wahrscheinlichkeitsverteilungen über An auf Wahrscheinlichkeitsverteilungen über Bn.- 3.2.8. Ein Beispiel dafür, daß Sn (p) nicht mit der Potenzmenge von ?n übereinstimmen muß.- 3.3. Zusammenfassung.- 4. Beispiele.- 4.1. Einleitung.- 4.2. Mathematische Einführung einiger wichtiger diskreter Verteilungen.- 4.2.1. Die Multinomialverteilung.- 4.2.2. Die Binomialverteilung.- 4.2.2.1. Die B(1, ?) — Verteilung.- 4.2.2.2. Die B(n, ?) — Verteilung.- 4.2.3. Die hypergeometrische Verteilung.- 4.2.4. Die Poisson — Verteilung P(?).- 4.2.5. Die negative Binomialverteilung NB (r, ?).- 4.3. Zur Interpretation einzelner Verteilungen.- 4.3.1. Interpretation der Multinomialverteilung.- 4.3.2. Interpretation der Binomial — Verteilung.- 4.3.3. Interpretation der hypergeometrischen Verteilung.- 4.3.4. Interpretation der Poisson — Verteilung.- 4.3.5. Interpretation der negativen Binomial — Verteilung.- 4.4. Zusammenfassung.- 5. Empirische Verteilungsfunktion, Verteilungs-funktion, Dichtefunktion.- 5.1. Einleitung.- 5.2. Empirische und theoretische Verteilungsfunktion.- 5.2.1. Die empirische — Verteilungsfunktion.- 5.2.2. Die Verteilungsfunktion.- 5.2.3. Klassifikation von Verteilungsfunktionen.- 5.2.4. Der Zusammenhang zwischen Verteilungsfunktion und Wahrscheinlichkeitsverteilung.- 5.3. Der Begriff der Trägermenge.- 5.4. Beispiele.- 5.4.1. Die Binomial — Verteilung B (1, ?).- 5.4.2. Die Binomial — Verteilung B (n, ?).- 5.5. Einige stetige Verteilungen.- 5.5.1. Die Rechteckverteilung R (a,b).- 5.5.2. Die eindimensionale Normalverteilung N (?, ?2).- 5.5.3. Die Standard — Normalverteilung N (O, 1).- 5.5.4. Die Exponentialverteilung Exp (?, ?).- 5.5.5. Die n — dimensionale Normalverteilung N(?, ?).- 5.5.5.1. Sonderfall ? = I (Einheitsmatrix).- 5.5.5.2 Sonderfall n = 2.- 5.5.6. Der Begriff der parametrischen Klasse von Verteilungen.- 5.6. Zur Interpretation einzelner Verteilungen.- 5.6.1. Zur Interpretation der Rechteckverteilung.- 5.6.2. Zur Bedeutung der Normalverteilung.- 5.6.3. Interpretation der Exponentialverteilung.- 5.7. Zusammenfassung.- 6. Charakterisierung eindimensionaler Wahrscheinlichkeitsverteilungen und eindimensionaler Stichproben durch Kennzahlen.- 6.1. Einleitung.- 6.2. Charakterisierung von Stichproben durch Kennzahlen.- 6.2.1. Mittelwerte.- 6.2.2. Streuungsmaße.- 6.2.2.1. Stichprobenstreuung und Stichprobenvarianz.- 6.2.3. Stichprobenmomente und zentrale Stichprobenmomente höherer Ordnung.- 6.2.4. Die eindeutige Beziehung zwischen Stichproben-momenten und Stichproben.- 6.3. Momente und das Problem der Skalenniveaus.- 6.4. Kennzahlen für Stichproben von Zufallsvariablen mit zugrundeliegenden Ordinalskalen.- 6.4.1. Stichprobenmediane bzw. Stichprobenzentralwerte.- 6.4.2. Stichprobenlageparameter.- 6.4.3. Der Modalwert oder häufigster Wert.- 6.5. Momente von eindimensionalen Wahrscheinlichkeitsverteilungen.- 6.5.1. Der Erwartungswert.- 6.5.2. Varianz und Streuung.- 6.5.3. k-te Momente und zentrale k-te Momente.- 6.5.4. Lageparameter einer Zufallsvariablen.- 6.5.5. Interpretation ausgewählter Kennzahlen.- 6.5.5.1. Der Quotient aus Mittelwert und Stichprobenstreuung.- 6.5.5.2. Der Quotient aus drittem zentralen Stichproben-moment und dritter Potenz der Streuung.- 6.5.5.3. Der Quotient aus viertem zentralem Moment und der vierten Potenz der Streuung.- 6.6. Beispiele zur Bestimmung von Momenten.- 6.7. Der Vergleich von Momenten und Stichprobenmomenten.- 6.7.1. Stichprobenmomente existieren immer, Momente hingegen nicht.- 6.7.2. Beispiele für die Festlegung von Verteilungen durch ihre Momente, wenn der Verteilungstyp bekannt ist.- 6.7.2.1. Die Normalverteilung.- 6.7.2.2. Die Rechteckverteilung.- 6.7.2.3. Die Binomialverteilung.- 6.7.2.4. Die Poisson — Verteilung.- 6.7.3. Standardisierung von eindimensionalen Zufallsvariablen.- 6.8. Cauchy — Verteilung als Beispiel für die Nichtexistenz vom Erwartungswert.- 6.9. Der Erwartungswert von Funktionen.- 6.10. Zusammenfassung.- 7. Kennzahlen für mehrdimensionale Stichproben und Zufallsvariable.- 7.1. Einleitung.- 7.2. Kennzahlen für mehrdimensionale Stichproben.- 7.2.1. Stichprobenmomente für Stichproben kardinal skalierter Zufallsvariabler.- 7.2.1.1. Der Mittelwertvektor.- 7.2.1.2. Stichprobenmomente zweiter Ordnung.- 7.2.1.3. Zentrale Stichprobenmomente zweiter Ordnung: die Stichproben — Varianz — Kovarianz — Matrix.- 7.2.1.4. Allgemeine Stichprobenmomente und zentrale Stichprobenmomente.- 7.2.1.5. Die empirische Korrelation zwischen zwei Komponenten einer Stichprobe einer n-dimensionalen Zufallsvariablen.- 7.2.2. Korrelationsmaße für Serien von Realisationen n-dimensionaler Zufallsvariabler mit ordinalem Skalenniveau.- 7.2.2.1. Spearman’s Rangkorrelationskoeffizient.- 7.2.2.2. Kendall’s Rangkorrelationskoeffizient.- 7.2.3. Korrelationsmaße für Stichproben nominal skalierter Zufallsvariabler.- 7.3. Kennzahlen für mehrdimensionale Zufallsvariable.- 7.3.1. Momente.- 7.3.1.1. Erwartungsvektor.- 7.3.1.2. Momente zweiter Ordnung.- 7.3.1.3. Zentrale Momente zweiter Ordnung: die Varianz -Kovarianz — Matrix.- 7.3.1.3.1. Beispiele.- 7.3.1.3.2. Die Varianz — Kovarianz — Matrix und die stochastische Unabhängigkeit der Komponenten von X.- 7.3.1.4. Allgemeine Momente.- 7.4. Die Korrelationskoeffizienten.- 7.4.1. Die Pearson — Bravais schen Korrelationskoeffizienten für kardinal skalierte Zufallsvariable.- 7.4.2. Zu theoretischen Analogien der empirischen Korrelationsmaße niederer Skalenniveaus.- 7.4.3. Standardisierung mehrdimensionaler Zufallsvariabler.- 7.5. Zusammenfassung.- 8. Randverteilungen und bedingte Verteilungen im Falle n-dimensionaler Verteilungsfunktionen.- 8.1. Einleitung.- 8.2. Die Stichprobenrandverteilungen einer Serie der Länge T von n-dimensionalen Zufallsvariablen.- 8.2.1. Ein Sonderfall: die empirische Verteilungsfunktion der Serie als Produkt ihrer Stichprobenrandverteilungen.- 8.2.2. Repräsentativität von Teilgesamtheiten von Gesamtheiten und die Stichprobenrandverteilungen.- 8.3. Bedingte empirische Verteilungsfunktionen.- 8.3.1. Die zugrundeliegende Fragestellung: ein Beispiel.- 8.4. Bedingte Verteilungen und bedingte Wahrschein-lichkeiten von Ereignissen.- 8.4.1. Ein Problem, das für empirische Verteilungen keines ist, aber für Wahrscheinlichkeitsverteilungen Schwierigkeiten bereitet.- 8.4.2. B-bedingte Verteilungsfunktionen im Falle diskret verteilter Zufallsvariabler.- 8.4.3. B-bedingte Verteilungsfunktionen und B-bedingte Ereigniswahrscheinlichkeiten für den Fall einer Verteilung mit Dichtefunktion.- 8.4.4. Bedingte Verteilungen im Fall stochastischer Unabhängigkeit.- 8.5. Zusammenfassung.- 9. Gesetze der großen Zahlen und zentrale Grenzwertsätze.- 9.1. Einleitung.- 9.2. Problemstellung für die Gesetze der großen Zahlen.- 9.2.1. Worüber sollen große Stichproben genauere Auskunft geben?.- 9.2.2. über den Charakter der Informationen, die man aus großen Stichproben beziehen kann.- 9.2.3. Die Tschebyscheff’sche Ungleichung.- 9.2.4. Das Konzept der Konvergenz nach Wahrscheinlichkeit.- 9.2.5. Erwartungswert und Varianz von Summen von Zufallsvariablen.- 9.2.6 Schwache Gesetze der großen Zahlen.- 9.2.7. Die Markov — Ungleichung.- 9.2.8. Der den starken Gesetzen der großen Zahlen zugrundeliegende Konvergenzbegriff, starke Gesetze der großen Zahlen und der Satz von Glivenko — Cantelli.- 9.2.9. Die Tschebyscheff — Ungleichung für mehr-dimensionale Zufallsvariable.- 9.3. Problemstellung der zentralen Grenzwertsätze.- 9.3.1. Das Faltungsintegral.- 9.3.2. Momenterzeugende Funktionen als Alternative zum Faltungsintegral.- 9.3.3. Charakteristische Funktionen als Alternative zum Faltungsintegral.- 9.3.4. Der Satz von Levi — Cramer.- 9.3.5. Einige charakteristische Funktionen.- 9.3.5.1. Poisson — verteilte Zufallsvariable.- 9.3.5.2. N(O,1) — verteilte Zufallsvariable.- 9.3.5.3. Normalverteilte Zufallsvariable.- 9.3.6. Einige zentrale Grenzwertsätze.- 9.4. Zusammenfassung.- A1. Multiple — Choice — Aufgaben.- A2. Anhang — Rechnen mit komplexen Zahlen.- A3. Abbildungen.- A4. Literaturverzeichnis.- A5. Stichwortverzeichnis.