Verschil partiële en semi-partiële correlatie
In de statistiek wordt vaak gesproken over partiële en semi-partiële correlatie. Beide soorten correlaties zijn makkelijk te verkijgen door middel van het statistiek programma SPSS. Het is belangrijk om de overeenkomsten en de verschillen tussen beide soorten correlatie te begrijpen en te herkennen. Zowel semi-partiële als partiële correlatie is een maat van samenhang tussen onafhankelijke variabelen en de afhankelijke variabele.
De semi-partiële correlatie
Als men het heeft over de semi-partiële correlatie (sri) dan wordt daar de de correlatie tussen het unieke deel van een onafhankelijke variabele (Xi) en de afhankelijke variabele (Y) mee bedoeld. Het is belangrijk om te beseffen dat het om het unieke deel van X gaat. Dit betekent dat alle overlappende correlatie met de overige onafhankelijke variabelen is verwijderd. Als er dus meer dan één onafhankelijke variabelen in het model is opgenomen is er grote kans dat deze onafhankelijke variabelen ook overlap vertonen (met elkaar correleren). Bij de semi-partiële correlatie wordt die overlap niet meegenomen en kijk je alleen naar het gedeelte (overlap) tussen de onafhankleijke variabele X1 en Y als geheel.
De notatie van de semi-partiële correlatie is bij bijvoorbeeld twee onafhankelijke variabelen als volgt: ry(1.2). In de notatie is te lezen dat het om de correlatie gaat tussen de afhankelijke variabele Y en de onafhankelijke variabele (X1) waar het effect van de tweede onafhankelijke variabele (X2) is verwijderd. Wanneer de semi-partiële correlatie wordt gekwadrateerd is de unieke verklaarde variantie van een onafhankelijke variabele in Y verkregen.
De partiële correlatie
Als tweede is er de partiële correlatie. Dit is de correlatie tussen het unieke deel van de onafhankelijke variabele (X) en het unieke deel van de afhankelijke variabele (Y). De notatie van de partiële correlatie is bij twee onafhankelijke variabelen als volgt: r(y.2)(1.2). Hier staat beschreven dat het gaat om de correlatie tussen de afhankelijke variabele (Y) waar het effect van de onafhankelijke variabele X2 is verwijderd en dat het gaat om de correlatie van de onafhankelijke variabele X1, waar het effect van de onafhankelijeke variabele X2 is verwijderd.
Wanneer de partiële correlatie wordt gekwadrateerd heb je de unieke verklaarde variantie van een onafhankelijke variabele van het residu Y berekend. In dit geval heb je dus de effecten uit de afhankelijke en onafhankelijke variabelen verwijderd. Je hebt dus het unieke deel van zowel X als Y verkregen.
Verklaarde variantie
Wanneer er onafhankelijke variabelen worden gebruikt probeer je met die variabelen zoveel mogelijk variantie te verklaren. Men spreekt over de verklaarde variantie (R2) als men het heeft over de verklaarde variantie van het gehele model. De verklaarde variantie van het gehele model heeft dus betrekking op alle onafhankelijke variabelen in het model. De notatie van bijvoorbeeld één onafhanklijke variabele is als volgt: r2y1. Hier staat vermeld dat de verklaarde variantie betrekking heeft op één onafhankelijke variabele (X1).
Meerdere onafhankelijke variabelen
Wat als er meerdere onafhankelijke variabelen in het model zijn opgenomen? In dat geval spreek je van een model met k variabelen. De notatie van de totale verklaarde variantie bij 4 onafhankelijke variabelen is als volgt: R2 = r2y1 + r2y2.1 + r2y3.12 + r2y4.123. Er staat in de formule dat alleen de verklaarde variantie van elke onafhankelijke variabele wordt opgeteld. De verklaarde variantie van bijvoorbeeld de tweede onafhankelijke variabele (X2) wordt meegerekend zonder de eerste onafhankelijke variabele (X1).
Een aantal weetjes over correlaties en variantie
In de statistiek is het belangrijk om te weten hoe correlaties en varianties werken. Je moet weten wat het precies is om een model te kunnen begrijpen en te kunnen interpreteren. Het is met name belangrijk om de verklaarde varianties te kunnen interpreteren. Dit is nodig om de resultaten die SPSS geeft in woorden te kunnen omschrijven.
- De totale R van een model kan nooit kleiner zijn dat de grootste correlatie tussen een onafhankelijke variabele en afhankelijke variabele.
- Als er een onafhankelijke variabele wordt toegevoegd aan het model kan de R2 nooit kleiner worden.
- Als er maar één onafhankelijke variabele in het model zit, is die variabele gelijk aan de R2.
- De R2 geeft informatie over hoeveel variantie een model binnen een steekproef werkt (dus NIET in de populatie).
- Als je de R2 (verklaarde variantie) wilt weten in de populatie gebruikt je Wherry's R2.
- Wherry's R2 wordt ook wel Adjusted R2 genoemd. De Wherry's R2 is altijd kleiner dan de R2 uit de steekproef.