Contactmoment 4: Respons computer lab

Important

Vooraleer je de oefeningen kan oplossen is het belangrijk om zowel de dataset te laden, het pakket car te activeren en ook de OLP2 Functies te activeren.

Voorbereiding

Voorbereiding

Deze hele opdracht bevat drie oefeningen die op elkaar doorbouwen. Vooraleer we starten met de 3 oefeningen in R op te lossen, vragen we je enkele acties te ondernemen ter voorbereiding:

  • Teken de modellen uit de 3 oefeningen

  • Maak van alle variabelen die worden gebruikt in de oefeningen een z-score variant: Interest.na, Interest.voor, Projectinteressant, Projectleuk, Projectbijgeleerd en Projectmoeilijk

  • Om de verschillende modellen te kunnen vergelijken, maken we meteen gebruik van een databestand zonder ontbrekende observaties (zonder NA’s) voor alle variabelen die je nodig hebt. (functie: na.omit())

We starten met het uittekenen van de 3 modellen uit de onderzoeksvragen in de opdracht.

Een tweede voorbereidende stap is het herschalen van alle betrokken variabelen naar z-scores. Merk op dat we de herschaalde variabelen wegschrijven in telkens een nieuwe variabele eerder dan de originele variabele te overschrijven. In de verdere oefeningen maken we gebruik van deze nieuwe variabelen. Hieronder maken we gebruik van de functie scale(), maar je kan net zo goed de functie z-score() gebruiken.

Techniek$Interest.voorZ <- scale(Techniek$Interest.voor)
Techniek$Interest.naZ <- scale(Techniek$Interest.na)
Techniek$ProjectinteressantZ <- scale(Techniek$Projectinteressant)
Techniek$ProjectmoeilijkZ <- scale(Techniek$Projectmoeilijk)
Techniek$ProjectleukZ <- scale(Techniek$Projectleuk)
Techniek$ProjectbijgeleerdZ <- scale(Techniek$Projectbijgeleerd)

De laatste stap is het aanmaken van een dataframe waarin enkel de data bewaard zijn van respondenten die voor geen van deze betrokken variabelen een ontbrekende waarde hebben. Dit doen we aan de hand van de na.omit() functie.

DataC4 <- na.omit(
  Techniek[ ,
            c("Interest.voorZ", 
              "Interest.naZ",
              "ProjectinteressantZ", 
              "ProjectmoeilijkZ",
              "ProjectleukZ", 
              "ProjectbijgeleerdZ"
              )
            ]
  )
Note

In het bovenstaande code-blok heb ik bewust een code-stijl gebruikt die veel overzichtelijker is. Door de code overheen verschillende lijnen te spreiden kan je makkelijker de haakjes van elkaar onderscheiden en zie je welke argumenten in welk onderdeel behoren.

Oefening 1

Oefening 1

In een eerste model (Model1) onderzoeken we in welke mate het interessant vinden van het project (Projectinteressant) een invloed heeft op de interesse in techniek na het project (Interest.na).

  1. Schat het model en bespreek de relevante parameters

  2. Ga de assumpties m.b.t. dit model na

We starten met het schatten van het model. Daarbij maak ik uiteraard gebruik van de nieuw aangemaakte dataframe hierboven: DataC4.

Model1 <- lm(Interest.naZ~ProjectinteressantZ, data = DataC4)
summary(Model1)

Call:
lm(formula = Interest.naZ ~ ProjectinteressantZ, data = DataC4)

Residuals:
    Min      1Q  Median      3Q     Max 
-3.4811 -0.6902 -0.0363  0.6031  2.6525 

Coefficients:
                     Estimate Std. Error t value Pr(>|t|)    
(Intercept)         -0.004071   0.019856  -0.205    0.838    
ProjectinteressantZ  0.324501   0.019861  16.339   <2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.9502 on 2288 degrees of freedom
Multiple R-squared:  0.1045,    Adjusted R-squared:  0.1041 
F-statistic:   267 on 1 and 2288 DF,  p-value: < 2.2e-16
  • R-kwadraat = 0.10: het gaat om een medium effect (10% verklaarde variantie in Interest.naZ);

  • met p < 0.05 voorhet gehele model: kans dat we deze verklaarde variantie zouden vaststellen in onze steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat dit model in de populatie WEL variantie verklaart in Interest.naZ.

  • parameterschatting van het intercept = -0.004: voor een leerling die 0 scoort op ProjectinteressantZ verwachten we een score van -0.004 op Interest.naZ

  • met p > 0.05 voor de parameterschatting van het intercept: kans dat we deze interceptwaarde vaststellen in onze steekproef indien H0 opgaat in de populatie is groter dan 5%. Dus we verwachten dit NIET in de populatie terug te vinden. Het verwachte intercept in de populatie is dus 0. Dit is niet verwonderlijk aangezien zowel de onafhankelijke (ProjectinteressantZ) als de afhankelijke variabele (Interest.naZ) gestandaardiseerd zijn. Het intercept geeft hier dus de score weer op Interest.naZ voor een leerling die gemiddeld scoort op ProjectinteressantZ. M.a.w., in de populatie scoren leerlingen die gemiddeld scoren op ProjectinteressantZ ook gemiddeld op Interest.naZ.

  • \(\beta_{ProjectinteressantZ}\) = 0.32, dus 1 SD (in standaarddeviaties uitgedrukt want z-score) hoger scoren op ProjectinteressantZ leidt tot 0.32 SD (in standaarddeviaties uitgedrukt want z-score) hoger scoren op Interest.naZ

  • met p < 0.05: kans dat we deze slope in onze steekproef vaststellen indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat ProjectinteressantZ in de populatie WEL invloed heeft op Interest.naZ.

Conclusie

De mate waarin leerlingen het project interessant vinden (ProjectinteressantZ), heeft een medium significant effect op hun interesse in techniek na het project (Interest.naZ; R² = 0.10; p < 0.05). Het effect is hier statistisch significant en positief (ß = 0.32, p < 0.05). Voor elke SD dat een leerling meer scoort op ProjectinteressantZ zal de interesse in techniek na het project (Interest.naZ) met 0.32 SD toenemen. Een leerling die gemiddle scoort op ProjectinteressantZ scoort -0.004 op Interest.naZ. Dit kunnen we echter niet doortrekken naar de populatie (p > 0.05). In de populatie verwachten we dat een leerling die het project gemiddeld interessant vindt, ook een gemiddelde interesse in techniek na het project zal hebben.

Vervolgens gaan we de assumpties na voor dit model door verschillende visualisaties aan te maken.

Note

De twee laatste plots zijn interactieve plots. Dat wil zeggen dat je op je pc ook punten kan aanklikken en je krijgt vervolgens een nummer te zien. Dit is de case-nummer (rij-nummer) voor dat datapunt. In de output hier hebben we dat (omwille van technische redenen) niet kunnen doen.

# Plotvenster in 4 delen (2 rijen en 2 kolommen)
par(mfrow = c(2, 2))
plot(Model1)

par(mfrow = c(1, 1)) #zo zet je het plotvenster terug op standaardweergave
residuals_plot(Model1)

integer(0)
cooks_plot(Model1)

integer(0)

Homoscedasticiteit:

Grafiek ‘Residuals versus Fitted’: spreiding blijft quasi gelijk naarmate de fitted value toeneemt. Dit duidt op homoscedasticiteit.

Grafiek ‘Scale-location plot’: de rode lijn in de plot loopt min of meer recht. Dit duidt op homoscedasticiteit.

Errortermen normaal verdeeld:

Grafiek ‘Q-Q plot’: alle punten vallen min of meer op de rechte lijn. Dit geeft aan dat de errortermen normaal verdeeld zijn.

geen clustering en een lineair verband:

Grafiek ‘Residuals versus Fitted’: op deze grafiek is geen clustering van waarnemingen terug te vinden. Noch kan je op basis van deze grafiek een niet-lineair verband vermoeden.

wel outliers:

Grafieken ‘Residuals plot’ & ‘Cooks plot’: duidelijk aantal outliers zichtbaar. Deze zouden idealiter verwijderd moeten worden en dan zou je het model opnieuw kunnen schatten. Dat is hier niet de opdracht, dus doen we dat niet.

Oefening 2

Oefening 2

Wanneer blijkt dat de mate waarin de leerling het project als interessant ervaart er toe doet, kun je je natuurlijk afvragen hoe dat komt. Misschien is het zo dat leerlingen die techniek sowieso al interessant vonden voor het project (Interest.voor) nadien ook een hogere interesse behouden (die hadden ze tenslotte al voor het project). Om dit na te gaan, test je een tweede model (Model2) waarin je Interest.voor als controlevariabele aan het vorige model (Model1) toevoegt.

  1. Is dit model (Model2) een beter model dan Model1?

  2. Bespreek de relevante parameters van het beste model.

We schatten dit tweede model en vergelijken dit model met het eerste model.

Model2 <- lm(Interest.naZ ~ ProjectinteressantZ + Interest.voorZ, data =
DataC4)
anova(Model1, Model2)
Analysis of Variance Table

Model 1: Interest.naZ ~ ProjectinteressantZ
Model 2: Interest.naZ ~ ProjectinteressantZ + Interest.voorZ
  Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1   2288 2065.7                                  
2   2287 1310.5  1    755.26 1318.1 < 2.2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

De Residuals Sum of Squares (RSS) van Model1 = 2065.7, RSS van Model2 = 1310.5. Gebaseerd op de F-test voor het vergelijken van beide modellen leren we dat Model 2 statistisch significant beter bij de data past dan model 1 (p < 0.05). We weerhouden dus best Model 2.

Nu we beslissen om Model2 te weerhouden, kunnen we de informatie over de parameterschattingen uit dat model opvragen in R via het summary( ) commando.

summary(Model2)

Call:
lm(formula = Interest.naZ ~ ProjectinteressantZ + Interest.voorZ, 
    data = DataC4)

Residuals:
    Min      1Q  Median      3Q     Max 
-4.0384 -0.4520  0.0093  0.4924  2.7215 

Coefficients:
                     Estimate Std. Error t value Pr(>|t|)    
(Intercept)         -0.003766   0.015818  -0.238    0.812    
ProjectinteressantZ  0.180850   0.016310  11.089   <2e-16 ***
Interest.voorZ       0.592104   0.016309  36.305   <2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.757 on 2287 degrees of freedom
Multiple R-squared:  0.4319,    Adjusted R-squared:  0.4314 
F-statistic: 869.3 on 2 and 2287 DF,  p-value: < 2.2e-16
  • R-kwadraat = 0.43: het gaat om een groot effect (43% verklaarde variantie in Interest.naZ);

  • Met p < 0.05: kans dat we deze verklaarde variantie in onze steekproef zouden vaststellen indien H0 opgaat in de populatie is kleiner dan 5%, dus we verwachten dat dit model in de populatie WEL variantie verklaart in Interest.naZ

  • intercept = -0.004: een leerling die 0 scoort op ProjectinteressantZ en Interest.voor scoort -0.004 op Interest.naZ;

  • Met p > 0.05: kans dat we deze interceptwaarde in onze steekproef vaststellen indien H0 opgaat in de populatie is groter dan 5%. Dus we verwachten dit NIET in de populatie terug te vinden. Het verwachtte intercept in de populatie is dus 0. Dit is niet verwonderlijke aangezien zowel de onafhankelijke variabelen (Interest.voorZ en ProjectinteressantZ) als de afhankelijke variabele (Interest.naZ) zijn gestandaardiseerd. Het intercept geeft hier dus de score weer op Interest.naZ voor leerlingen die gemiddeld scoren op Interest.voorZ en ProjectinteressantZ. M.a.w., in de populatie scoren leerlingen die gemiddeld scoren op Interest.voorZ en ProjectinteressantZ ook gemiddeld op Interessant.na.

  • \(\beta_{ProjectinteressantZ}\) = 0.18, dus 1 SD (want z-score!) hoger scoren op Projectinteressant leidt tot 0.18 SD (want z-score!) hoger scoren op Interest.na

  • Met p < 0.05: kans dat we deze slope vaststellen in onze steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat Projectinteressant in de populatie WEL invloed heeft op Interest.na.

  • \(\beta_{Interest.voorZ} = 0.59\), dus 1 SD (want z-score!) hoger scoren op Interest.voorZ leidt tot 0.59 SD (want z-score!) hoger scoren op Interest.na

  • Met p < 0.05: kans dat we deze slope vaststellen in de steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat Interest.voorZ in de populatie WEL invloed heeft op Interest.naZ.

  • Bovendien is dit effect sterker dan dat van ProjectinteressantZ. (Je mag de sterkte van beide effecten met elkaar vergelijken, omdat beide variabelen gestandaardiseerd zijn en dus op dezelfde schaal staan.)

Conclusie

Interesse in techniek voor het project (Interest.voorZ) en de mate waarin leerlingen het project interessant (ProjectinteressantZ) vinden verklaren de interesse in techniek van leerlingen na het project (Interest.naZ) beter als het model waarin enkel ProjectinteressantZ als onafhankelijke variabele is opgenomen (∆RSS = 755.26, p < 0.05). Het gaat bovendien om een sterk, significant effect (R-kwadraat = 0.43, p < 0.05). Het intercept is niet statistisch significant (p > 0.05). Een leerling die gemiddeld scoort op ProjectinteressantZ en Interest.voorZ scoort dus ook gemiddeld op Interest.naZ in de populatie. Zowel ProjectinteressantZ als Interest.voorZ hebben een positief en statistisch significant (p < 0.05) effect op Interest.naZ. Een toename van 1 SD in ProjectinteressantZ leidt tot een toename van 0.18 SD in Interest.naZ. Het effect van Interest.voorZ is sterker (ß = 0.59). 1 SD hoger scoren op interesse in techniek voor het project leidt tot een toename van 0.59 SD in interesse in techniek na het project.

Oefening 3

Oefening 3

Mogelijk zorgt het opnemen van de overige variabelen die de houdingen van de leerlingen m.b.t. het techniekproject meten (‘Projectleuk’, ‘Projectbijgeleerd’, ‘Projectmoeilijk’) voor een verbetering van het model. Om dit na te gaan, test je een derde model (Model3) waarin je deze drie variabelen als controlevariabelen aan het vorige model (Model2) toevoegt.

  1. Ga na of er geen probleem is van multicollineariteit. Pas het model indien nodig aan.

  2. Is (een eventueel aangepaste versie van) Model3 een beter model dan Model2?

  3. Bespreek de relevante parameters van het beste model.

  4. Welke score op ‘Interest.naZ’ behaalt iemand die:

  • gemiddeld scoort op alle onafhankelijke variabelen in de steekproef
  • gemiddeld scoort op alle onafhankelijke variabelen in de populatie
  • 1 SD hoger scoort voor ‘Interest.voorZ’ en 1 SD lager scoort voor ‘ProjectbijgeleerdZ’ (en op alle andere onafhankelijke variabelen 0) in de steekproef
  • 1 SD hoger scoort voor ‘Interest.voorZ’ en en 1 SD lager scoort voor ‘ProjectbijgeleerdZ’ (en op alle andere onafhankelijke variabelen 0) in de populatie

Rond bij het berekenen van de voorspelde scores altijd af tot op 3 cijfers na de komma!

Hieronder schatten we dit model in z’n geheel en gaan meteen de multicollineariteit na aan de hand van de functie vif().

Model3 <- lm(Interest.naZ ~ 
               ProjectinteressantZ + 
               Interest.voorZ + 
               ProjectleukZ + 
               ProjectbijgeleerdZ +
               ProjectmoeilijkZ, 
             data = DataC4)
vif(Model3)
ProjectinteressantZ      Interest.voorZ        ProjectleukZ  ProjectbijgeleerdZ 
           7.041215            1.117586            5.554361            3.859391 
   ProjectmoeilijkZ 
           1.278241 

Uit de bovenstaande output leren we dat de VIF voor ProjectinteressantZ 7.04 bedraagt en voor ProjectleukZ 5.55. Deze twee waarden duiden op een mogelijk probleem van multicollinearitet. We kunnen eveneens de correlatie berekenen tussen deze twee variabelen om meer zicht te krijgen op hun onderlinge samenhang al verklaring voor het mogelijk multicollineariteitsprobleem.

cor.test(DataC4$ProjectinteressantZ, DataC4$ProjectleukZ)

    Pearson's product-moment correlation

data:  DataC4$ProjectinteressantZ and DataC4$ProjectleukZ
t = 99.142, df = 2288, p-value < 2.2e-16
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 0.8926227 0.9081126
sample estimates:
      cor 
0.9006534 

Deze variabelen blijken zeer sterk te correleren (r = 0.90). Daarom is het aangewezen om het model de herdraaien zonder één van beide variabelen. Anders levert dit vertekende significantietoetsen voor de betrokken variabelen op. Daarom herschatten we het model zonder de controlevariabele ProjectleukZ (zie Model4).

Model4 <- lm(Interest.naZ ~ 
               ProjectinteressantZ + 
               Interest.voorZ + 
               ProjectbijgeleerdZ +
               ProjectmoeilijkZ, 
             data = DataC4)
vif(Model4)
ProjectinteressantZ      Interest.voorZ  ProjectbijgeleerdZ    ProjectmoeilijkZ 
           3.671585            1.107204            3.725005            1.278237 

Uit de output blijkt dat het multicollineariteitsprobleem in Model4 is opgelost. We werken dus verder met Model4.

Vervolgens gaan we dit Model4 vergelijken met Model2 om te weten of dit model beter de data vooropelt.

anova(Model2, Model4)
Analysis of Variance Table

Model 1: Interest.naZ ~ ProjectinteressantZ + Interest.voorZ
Model 2: Interest.naZ ~ ProjectinteressantZ + Interest.voorZ + ProjectbijgeleerdZ + 
    ProjectmoeilijkZ
  Res.Df    RSS Df Sum of Sq      F    Pr(>F)    
1   2287 1310.5                                  
2   2285 1297.3  2    13.166 11.595 9.765e-06 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

RSS voor Model2 = 1310.5; RSS voor Model4 = 1297.3, p < 0.05 Model4 is statistisch significant beter dan Model2. Model4 heeft een lagere RSS. Het verschil in RSS (∆RSS = 13.17) is statistisch significant (p < 0.05). Dus we kunnen concluderen dat Model4 de verschillen in interesse in techniek na het project (Interest.naZ) beter voorspelt dan Model2 (∆RSS = 13.17, p < 0.05).

We vragen de parameterschattingen van Model4 op.

summary(Model4)

Call:
lm(formula = Interest.naZ ~ ProjectinteressantZ + Interest.voorZ + 
    ProjectbijgeleerdZ + ProjectmoeilijkZ, data = DataC4)

Residuals:
    Min      1Q  Median      3Q     Max 
-4.0431 -0.4473  0.0046  0.4895  2.7835 

Coefficients:
                     Estimate Std. Error t value Pr(>|t|)    
(Intercept)         -0.003901   0.015746  -0.248    0.804    
ProjectinteressantZ  0.188626   0.030178   6.250 4.87e-10 ***
Interest.voorZ       0.576293   0.016572  34.776  < 2e-16 ***
ProjectbijgeleerdZ   0.034290   0.030389   1.128    0.259    
ProjectmoeilijkZ    -0.085936   0.017852  -4.814 1.58e-06 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.7535 on 2285 degrees of freedom
Multiple R-squared:  0.4376,    Adjusted R-squared:  0.4366 
F-statistic: 444.5 on 4 and 2285 DF,  p-value: < 2.2e-16
  • R-kwadraat = 0.44: het gaat om een groot effect (44% verklaarde variantie in Interest.naZ)

  • Met p < 0.05: kans dat we dit vaststellen in onze steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat dit model in de populatie WEL variantie verklaart in Interest.naZ.

  • intercept = -0.004: een leerling die 0 scoort op ProjectinteressantZ, Interest.voor, ProjectbijgeleerdZ en ProjectmoeilijkZ behaalt -0.004 op Interest.naZ

  • Met p > 0.05: kans dat we deze waarde voor het intercept in onze steekproef vaststellen indien H0 opgaat in de populatie is groter dan 5%. Dus we verwachten dit NIET in de populatie terug te vinden. Het verwachtte intercept in de populatie is dus 0. Dit is niet verwonderlijke aangezien zowel de onafhankelijke variabelen als de afhankelijke variabele gestandaardiseerd zijn. Het intercept geeft hier dus de score weer op Interest.naZvoor leerlingen die gemiddeld scoren op alle onafhankelijke variabelen. M.a.w., in de populatie scoren leerlingen die gemiddeld scoren op Interest.voorZ, ProjectinteressantZ, ProjectmoeilijkZ en ProjectbijgeleerdZ ook gemiddeld op Interest.naZ.

  • \(\beta_{ProjectinteressantZ}\) = 0.19, dus 1 SD (want z-score!) hoger scoren op ProjectinteressantZ leidt tot 0.19 SD (want z-score!) hoger scoren op Interest.naZ

  • Met p < 0.05: kans dat we deze slope vaststellen in onze steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat ProjectinteressantZ in de populatie WEL invloed heeft op Interest.naZ.

  • \(\beta_{Interest.voorZ}\) = 0.58, dus 1 SD (want z-score!) hoger scoren op Interest.voorZleidt tot 0.58 SD (want z-score!) hoger scoren op Interest.naZ

  • Met p < 0.05: kans dat we deze slope vaststellen in de steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat Interest.voorZ in de populatie WEL invloed heeft op Interest.naZ. Bovendien is dit effect sterker dan dat van ProjectinteressantZ en dat van ProjectmoeilijkZ. (Je mag de sterkte van deze effecten met elkaar vergelijken, omdat beide variabelen gestandaardiseerd zijn en dus op dezelfde schaal staan.)

  • \(\beta_{ProjectibijgeleerdZ}\) = 0.03, dus 1 SD (want z-score!) hoger scoren op ProjectbijgeleerdZ leidt tot 0.03 SD (want z-score!) hoger scoren op Interest.naZ

  • Met p > 0.05: kans dat H0 opgaat in de populatie is groter dan 5%. Dus we verwachten dat ProjectinteressantZ in de populatie GEEN invloed heeft op Interest.naZ.

  • \(\beta_{ProjectmoeilijkZ}\) = -0.09, dus 1 SD (want z-score!) hoger scoren op ProjectmoeilijkZ leidt tot 0.09 SD (want z-score!) lager scoren op Interest.naZ

  • Met p < 0.05: kans dat we deze hellingsgraad vastellen in onze steekproef indien H0 opgaat in de populatie is kleiner dan 5%. Dus we verwachten dat ProjectmoeilijkZ in de populatie WEL invloed heeft op Interest.naZ.

Conclusie:

ProjectinteressantZ, Interest.voorZ, ProjectbijgeleerdZ en ProjectmoeilijkZ verklaren 43% van de variantie in ‘Interest.naZ’. Het gaat dus om een sterk effect dat bovendien mag worden doorgetrokken naar de populatie (R2 = 0.44, p < 0.05). Het intercept is niet statistisch significant (p > 0.05). Een leerling die gemiddeld scoort op ProjectinteressantZ, Interest.voorZ, ProjectbijgeleerdZ en ProjectmoeilijkZ scoort dus ook gemiddeld op Interest.naZ in de populatie. Zowel ProjectinteressantZ als Interest.voorZ hebben een positief en statistisch significant (p < 0.05) effect op Interest.naZ. Een toename van 1 SD in ProjectinteressantZ leidt tot een toename van 0.19 SD in Interest.naZ. Het effect van Interest.voorZ is sterker (ß = 0.58). 1 SD hoger scoren op interesse in techniek voor het project (Interest.voorZ) leidt tot een toename van 0.58 SD in interesse in techniek na het project (Interest.naZ). De invloed van ProjectmoeilijkZ op Interest.naZ is negatief en statistisch significant (p < 0.05). Leerlingen die het project als 1 SD moeilijker ervaren, scoren 0.09 SD lager op Interest.naZ. De percepties van leerlingen m.b.t. bijleren tijdens het project (ProjectbijgeleerdZ) hebben geen significante invloed op hun interesse in techniek na het project (p > 0.05).

Om de gevraagde voorspelde scores te berekenen schrijven we eerst de gehele regressievergelijking uit.

\(\text{Interest.naZ} = \beta_{0} + \beta_{1} \cdot \text{Projectinteressant2} + \beta_{2} \cdot \text{Interest.voorZ} + \beta_{3} \cdot \text{ProjectbijgeleerdZ} + \beta_{4} \cdot \text{ProjectmoeilijkZ}\)

Vervolgens maken we een versie van deze regressievergelijking met daarin alle parameterschattingen uit de output. Deze versie gebruiken we om de voorspelde scores voor iemand uit de steekproef te berekenen.

\(\text{Interest.naZ} = -0.00 + 0.19 \cdot \text{Projectinteressant2} + 0.58 \cdot \text{Interest.voorZ} + 0.03 \cdot \text{ProjectbijgeleerdZ} + -0.09 \cdot \text{ProjectmoeilijkZ}\)

Tot slot kunnen we een versie van de regressievergelijking maken waarin enkel de statistisch significante parameters worden ingevuld. De andere parameters zetten we gelijk aan nul. Deze versie zullen we gebruiken om voorspelde scores te berekenen voor iemand uit de populatie.

\(\text{Interest.naZ} = 0 + 0.19 \cdot \text{Projectinteressant2} + 0.58 \cdot \text{Interest.voorZ} + 0 \cdot \text{ProjectbijgeleerdZ} + -0.09 \cdot \text{ProjectmoeilijkZ}\)

Welke score op ‘Interest.naZ’ behaalt iemand die:

  • gemiddeld scoort op alle onafhankelijke variabelen in de steekproef (dus, voor alle variabelen een waarde 0)

\(\text{Interest.naZ} = -0.00 + 0.19 \cdot 0 + 0.58 \cdot 0 + 0.03 \cdot 0 + -0.09 \cdot 0\)

Dit resulteert in een voorspelde score van -0.00 (eigenlijk -0.004).

  • gemiddeld scoort op alle onafhankelijke variabelen in de populatie

\(\text{Interest.naZ} = 0 + 0.19 \cdot 0 + 0.58 \cdot 0 + 0 \cdot 0 + -0.09 \cdot 0\)

Dit resulteert in een voorspelde score 0.

  • 1 SD hoger scoort voor ‘Interest.voorZ’ en 1 SD lager scoort voor ‘ProjectbijgeleerdZ’ (en op alle andere onafhankelijke variabelen 0) in de steekproef

\(\text{Interest.naZ} = -0.00 + 0.19 \cdot 0 + 0.58 \cdot 1 + 0.03 \cdot -1 + -0.09 \cdot 0\)

Dit resulteert in volgende voorspelde score: 0.55.

  • 1 SD hoger scoort voor ‘Interest.voorZ’ en en 1 SD lager scoort voor‘ProjectbijgeleerdZ’ (en op alle andere onafhankelijke variabelen 0) in de populatie

\(\text{Interest.naZ} = 0 + 0.19 \cdot 0 + 0.58 \cdot 1 + 0 \cdot -1 + -0.09 \cdot 0\)

Dit resulteert in volgende voorspelde score: 0.58.