Statistik: Abhängigkeit von Zufallsvariablen

Stochastische Unabhängigkeit

Falls X und Y stochastisch unabhängig sind, ist

 .

Beispiel:

Z.B. ist P(X = 0 ∧ Y = 0) = 0, aber P(X = 0) · P(Y = 0) = 0,4 · 0,2 ≠ 0.

Also sind X und Y stochastisch abhängig. Es genügt schon, wenn die Unabhängigkeitsvoraussetzung für ein Paar nicht erfüllt ist.


Kovarianz

Man interessiert sich bei gemeinsam verteilten Variablen im allgemeinen auch dafür, inwieweit zwischen diesen Variablen ein Zusammenhang besteht. In unserer Wahrscheinlichkeitstabelle des Beispiels „Qualitätskontrolle“ stehen beispielsweise links unten und rechts oben die größeren Wahrscheinlichkeiten, also scheinen niedrige Ausprägungen von X eher mit hohen Ausprägungen von Y und hohe Ausprägungen von X eher mit niedrigen Ausprägungen von Y einherzugehen.

Wahrscheinlichkeitstabelle des Beispiels von oben
Gemeinsame Wahrscheinlichkeit von Qualitätskontrolle X und Reklamationskosten Y
x \ y 0 5 10 15  
0 0,00 0,00 0,10 0,30 0,4
5 0,00 0,05 0,05 0,10 0,2
10 0,20 0,15 0,05 0,00 0,4
  0,2 0,2 0,2 0,4 1,0

Ein Maß für einen linearen Zusammenhang zweier Zufallsvariablen X und Y ist beispielsweise die Kovarianz covXY. Sie ist für diskrete Zufallsvariablen definiert als

 

bzw. wegen des Verschiebungssatzes

 

Es ergibt für unser Beispiel

 

und

 

und damit die Kovarianz

   
   
   
   
   
   

Eine positive Kovarianz deutet daraufhin, dass eher ein proportionaler Zusammenhang zwischen X und Y besteht, eine negative Kovarianz dagegen, dass eher ein umgekehrt proportionaler Zusammenhang zwischen X und Y besteht.

Korrelationskoeffizient

Ist die Kovarianz null, sind die Zufallsvariablen unkorreliert, sonst korreliert.

Die Kovarianz ist nicht normiert. Ein normiertes Maß für den linearen Zusammenhang stellt der Korrelationkoeffizient nach BRAVAIS-PEARSON ρX,Y dar, der definiert ist als

  .


Es gilt für den Korrelationskoeffizienten ρXY :

  .

Ist ρXY 1 oder -1, besteht ein exakter linearer Zusammenhang zwischen X und Y.

Sind X und Y stochastisch unabhängig, ist covXY und damit ρXY gleich null. Der Umkehrschluss ist nicht zulässig, da eine nichtlineare Abhängigkeitsstruktur zwischen X und Y bestehen kann, die vom Korrelationskoeffizienten nicht erfasst werden kann.

Beispiel:

Wir berechnen zunächst die Varianz von X als

 

und entsprechend die Varianz von Y als

 .

Damit erhalten wir

 .

Bedingte Wahrscheinlichkeiten von Zufallsvariablen

Auch für Zufallsvariablen sind bedingte Wahrscheinlichkeiten angebbar, nämlich

die bedingte Wahrscheinlichkeit einer Zufallsvariablen als

 

und die bedingte Wahrscheinlichkeit zweier Zufallsvariablen

  .

Entsprechendes gilt für ≥ und =.


Ebenso gilt:

Wenn X und Y stochastisch unabhängig sind, ist

 

für alle i,j.

Beispiele:

 .

„Die Hälfte aller Unternehmen mit Reklamationskosten hatte mindestens 15% Aufwand.“


 .

„Die Hälfte aller Unternehmen mit sehr viel Qualitätskontrolle hatte Reklamationskosten.“