Z.B. ist P(X = 0 ∧ Y = 0) = 0, aber P(X = 0) · P(Y = 0) = 0,4 · 0,2 ≠ 0.
Also sind X und Y stochastisch abhängig. Es genügt schon, wenn die Unabhängigkeitsvoraussetzung für ein Paar nicht erfüllt ist.
Kovarianz
Man interessiert sich bei gemeinsam verteilten Variablen im allgemeinen auch dafür, inwieweit zwischen diesen Variablen ein Zusammenhang besteht. In unserer Wahrscheinlichkeitstabelle des Beispiels „Qualitätskontrolle“ stehen beispielsweise links unten und rechts oben die größeren Wahrscheinlichkeiten, also scheinen niedrige Ausprägungen von X eher mit hohen Ausprägungen von Y und hohe Ausprägungen von X eher mit niedrigen Ausprägungen von Y einherzugehen.
Wahrscheinlichkeitstabelle des Beispiels von oben Gemeinsame Wahrscheinlichkeit von Qualitätskontrolle X und Reklamationskosten Y
x \ y
0
5
10
15
0
0,00
0,00
0,10
0,30
0,4
5
0,00
0,05
0,05
0,10
0,2
10
0,20
0,15
0,05
0,00
0,4
0,2
0,2
0,2
0,4
1,0
Ein Maß für einen linearen Zusammenhang zweier Zufallsvariablen X und Y ist beispielsweise die Kovarianz covXY. Sie ist für diskrete Zufallsvariablen definiert als
bzw. wegen des Verschiebungssatzes
Es ergibt für unser Beispiel
und
und damit die Kovarianz
Eine positive Kovarianz deutet daraufhin, dass eher ein proportionaler Zusammenhang zwischen X und Y besteht, eine negative Kovarianz dagegen, dass eher ein umgekehrt proportionaler Zusammenhang zwischen X und Y besteht.
Korrelationskoeffizient
Ist die Kovarianz null, sind die Zufallsvariablen unkorreliert, sonst korreliert.
Die Kovarianz ist nicht normiert. Ein normiertes Maß für den linearen Zusammenhang stellt der Korrelationkoeffizient nach BRAVAIS-PEARSON ρX,Y dar, der definiert ist als
.
Es gilt für den Korrelationskoeffizienten ρXY :
.
Ist ρXY 1 oder -1, besteht ein exakter linearer Zusammenhang zwischen X und Y.
Sind X und Y stochastisch unabhängig, ist covXY und damit ρXY gleich null. Der Umkehrschluss ist nicht zulässig, da eine nichtlineare Abhängigkeitsstruktur zwischen X und Y bestehen kann, die vom Korrelationskoeffizienten nicht erfasst werden kann.
Beispiel:
Wir berechnen zunächst die Varianz von X als
und entsprechend die Varianz von Y als
.
Damit erhalten wir
.
Bedingte Wahrscheinlichkeiten von Zufallsvariablen
Auch für Zufallsvariablen sind bedingte Wahrscheinlichkeiten angebbar, nämlich
die bedingte Wahrscheinlichkeit einer Zufallsvariablen als
und die bedingte Wahrscheinlichkeit zweier Zufallsvariablen
.
Entsprechendes gilt für ≥ und =.
Ebenso gilt:
Wenn X und Y stochastisch unabhängig sind, ist
für alle i,j.
Beispiele:
.
„Die Hälfte aller Unternehmen mit Reklamationskosten hatte mindestens 15% Aufwand.“
.
„Die Hälfte aller Unternehmen mit sehr viel Qualitätskontrolle hatte Reklamationskosten.“