Bijzondere toetsen
Antwoorden bij de opgaven
-
- Je geeft met een teken (+ of –) aan of bij een bepaalde leerling het SE-cijfer hoger of lager dan het CE-cijfer is.
- Als er gemiddeld geen verschil tussen CE en SE is, zal de kans dat een bepaalde leerling een hoger SE heeft dan zijn CE even groot zijn dan andersom.
- `X` is het aantal plussen. `text(P)(X <= g | n = 18 text( en ) p = 0,5) < 0,05` geeft `g = 5`. Er zijn 6 plussen, dus de inspectie mag niet concluderen dat het CE slechter is gemaakt dan het SE.
Bekijk ook in voorbeeld 1 een andere manier om deze toets te doen.
-
-
`X` is het aantal maanden dat het ziekteverzuim op afdeling A hoger is dan op afdeling B.
Je toetst `text(H)_0: p = 0,5` tegen `text(H)_1: p > 0,5` met `n = 12` en `alpha = 0,05`.
-
In de steekproef van 12 maanden geldt `X = 9`.
`text(P)(X >= 9 | n = 12 text( en ) p = 0,5) ~~ 0,0730 > 0,05` dus de nulhypothese mag niet worden verworpen en de afwijking is niet significant.
-
-
Doen.
-
In situaties waarin je wilt nagaan of gemeten waarden significant afwijken van theoretische waarden.
-
De gevonden waarden zijn `x_1 = 47` en `x_2 = 53`. De theoretische waarden zijn `t_1 = 50` en `t_2 = 50`.
`chi^2 = ((47 - 50)^2)/50 + ((53 - 50)^2)/50 = 0,36`.
`text(P)(chi^2 > 0,36) = 1 - text(P)(chi^2 <= 0,36) ~~ 0,5485 > 0,01`. GR: `1 - chi^2(0,0.36,1)`.
Dus ligt 0,36 niet in het kritieke gebied en is de afwijking niet significant.
-
-
Het verschil van twee normaal verdeelde variabelen `A` en `B` is ook normaal verdeeld met `mu_V = mu_A - mu_B` en `sigma_V = sqrt(mu_A^2 + mu_B^2)`.
Is er geen verschil tussen de scores `A` en `B`, dan zal `A - B` een gemiddelde van 0 hebben.
-
Omdat je verwacht dat groep A beter scoort zal `A - B` een gemiddelde hebben boven de 0.
Wanneer je niet weet of de invloed van koffie positief of negatief is, dan voer je een tweezijdige toets uit.
-
`text(P)(V > g | mu_V = 0 text( en ) sigma_V = 15,6) < 0,05` geeft `g ~~ 25,7`.
Omdat `mu_V = 75 - 65 = 10` is de afwijking onvoldoende. Je mag niet concluderen dat koffie de prestaties positief beïnvloedt.
-
Als je één persoon beide tests laat doen en die tests zijn ook echt gelijkwaardig dan is dat niet alleen eerlijker, maar dan heeft `V` ook echt betekenis.
Het is dan de verschilscore van één persoon. Het is wel verstandig om dan een controlegroep te hebben die beide tests zonder tussentijds koffie te krijgen uitvoert om na te gaan of ze echt gelijkwaardig zijn.
-
-
Een bout en moer past niet als de bout te dun is en ook niet als de bout te dik is.
-
`text(H)_0: mu_V = mu_M - mu_B = 0,02` en `text(H)_1: mu_V > 0,02 text( of ) mu_V < 0,02`.
-
`sigma = (sqrt(0,05^2 + 0,03^2))/(sqrt(100)) ~~ 0,006`.
De `sqrt(n)`-wet is nodig omdat er 100 keer een bout en een moer worden gepast en de gegeven standaardafwijkingen die van de populatie zijn en niet van de steekproef van 100.
-
`text(P)(V < g_1 | mu_V = 0,02 text( en ) sigma_V = 0,006) < 0,025` geeft `g_1 ~~ 0,008` en `text(P)(mu_V > g_2 | mu_V = 0,02 text( en ) sigma_V = 0,006) < 0,025` geeft `g_2 ~~ 0,032`.
De machines worden bijgesteld als in de steekproef het gemiddelde verschil kleiner is dan 0,008 of groter is dan 0,032.
-
-
`X` is het aantal dagen dat middel A beter is dan middel B.
In de steekproef van 20 dagen komt dit 3 keer voor.
Je toetst `text(H)_0: p = 0,5` tegen `text(H)_1: p != 0,5` met `alpha = 0,05`.
-
`text(P)(X <= 3 | n = 20 text( en ) p = 0,5) ~~ 0,0012 < 0,025` dus de nulhypothese mag worden verworpen en middel B is significant beter dan middel A.
-
-
De gevonden waarden zijn `x_1 = 315`, `x_2 = 108`, `x_3 = 101` en `x_4 = 32`. De theoretische waarden zijn `t_1 = 312,75`, `t_2 = 104,25`, `t_3 = 104,25` en `t_4 = 34,75`.
`chi^2 = ((315 - 312,75)^2)/(312,75) + ((108 - 104,25)^2)/(104,25) + ((101 - 104,25)^2)/(104,25) + ((32 - 34,75)^2)/(34,75) = 0,47`.
`text(P)(chi^2 > 0,47) = 1 - text(P)(chi^2 <= 0,47) ~~ 0,0746 < 0,01`. GR: `1 - chi^2(0,0.47,3)`.
Dus ligt 0,47 in het kritieke gebied en is de afwijking significant.
-
De theoretische waarden zijn 10, 50, 100, 100, 50 en 10. Dit geeft `chi^2 ~~ 11,96`
`text(P)(chi^2 > 11,96) = 1 - text(P)(chi^2 <= 11,96) ~~ 0,0353 < 0,05`. GR: `1 - chi^2(0,11.96,5)`.
Dus ligt 11,96 in het kritieke gebied en is de afwijking significant.
-
-
Omdat beide groepen even groot zijn zou dit op zich kunnen (elke man koppel je dan aan één vrouw en je trekt hun voetlengtes van elkaar af).
Toch lijkt het een rare methode omdat de gegevens eigenlijk niet gekoppeld zijn (het is niet de voetlengte van één persoon, eerst in vrouwelijke en dan in mannelijke gedaante, of zoiets (:-))).
-
Nu vergelijk je twee normale verdelingen met elkaar en kijk je naar het verschil van hun gemiddelden.
Of de gegevens zijn gekoppeld of niet is daarbij niet echt belangrijk (de beide groepen hoeven eigenlijk niet eens even groot te zijn).
-
Je toetst `text(H)_0: mu_M - mu_V = 0` tegen `text(H)_1: mu_M - mu_V > 0` met `sigma = sqrt(2,39^2 + 2,13^2) ~~ 3,20` en `alpha = 0,05`.
Uit de steekproef blijkt: `mu_M - mu_V = 2,4`.
`text(P)(M - V > 2,4 | mu_M - mu_V = 0 text( en ) sigma = 3,20) ~~ 0,2266 > 0,05` en dus wijkt het gevonden resultaat niet genog af om te kunnen concluderen dat mannen grotere voeten hebben dan vrouwen.
-
`X =` hoeveelheid karnemelk en `Y =` inhoud pak. Neem `Z = Y – X`, dan is `mu_Z = 2` mL en `sigma_Z = 1` mL.
`text(P)(Z < 0) ~~ 0,023`, dus de kans dat de karnemelk niet in de verpakking past is dus 2,3%. Dat is behoorlijk veel, dus hij kan beter wat grotere pakken aanschaffen.
-
-
Tekentoets: twee sets meetgegevens vergelijken waarbij elk paar bij een bepaalde persoon of situatie past. De sets meetgegevens zijn daarom even groot.
Je geeft elk paar meetgegevens een + of een – of je streept ze weg (als ze gelijk zijn). Het aantal plussen (of het aantal minnen) is een binomiale stochast.
De nulhypothese is altijd `p = 0,5`, de alternatieve hypothese is `p > 0,5` of `p < 0,5` of beide.
-
`Chi^2`-toets: een set meetgegevens `x_1` vergelijken met de theoretische waarden `t_i`.
Je toetsgrootheid is `Chi^2 = ((x_i - t_i)^2)/(t_i^2)`. Verder gebruik je de `Chi^2`-tabel van je grafische rekenmachine.
-
Verschiltoets: je toetst het verschil van de gemiddelden van twee normaal verdeelde variabelen `X` en `Y`, `V = X - Y`.