Hypotesprövning
Wikipedia
Hypotesprövning är ett begrepp inom statistik som är nära knutet till begreppen signifikans och signifikanstest, och ur de flesta synvinklar kan de två bergreppen ses som synonymer, även om det också är möjligt att informellt pröva en hypotes mot empirisk data utan att utföra ett formellt statistiskt test. Vanligen utgörs dataunderlaget för en hypotesprövning av ett slumpmässigt stickprov som dragits med en öppet redovisad urvalsmetod från en konkret eller teoretisk(simulerad) verklighet.
En formell hypotesprövning utförs för att få fram ett kvantitativt mått på hur väl ett antagande, en hypotes, överenstämmer med observerad data. Hypotesens roll är då att så exakt förutsäga värdet på en lämplig testvariabel - en funktion av de enskilda mätenheterna i stickprovet - att det blir möjligt att beräkna hur troligt det observerade värdet på testvariabeln är om hypotesen är sann. Om värdet på testvariabeln är så extremt att det är osannolikt att stickprovet har dragits från en population där hypotesen stämmer, förkastar man hypotesen.
Denna hypotes kallas nollhypotes, och explicit eller implicit finns också en alternativ hypotes som kallas mothypotes. Om resultatet av hypotesprövning blir att man förkastar nollhypotesen, har man dragit slutsatsen att mothypotesen är en troligare beskrivning av verkligheten än nollhypotesen. Men nollhypotes och mothypotes har inte ett symmetriskt förhållande inom statistisk hypotesprövning. Med ett signifikanstest kan man få ett konkret resultat som t.ex. kan säga att om nollhypotesen är sann finns bara en chans på tusen att observera det värde på testvariabeln som vi har observerat. Däremot kan vi inte på motsvarande sätt kvantifiera hur troligt det är att vårt observerade värde kommer från en population där mothypotesen är sann. Därför har resultatet av en statistisk hypotesprövning enbart två möjliga utfall:
Vi accepterar nollhypotesen (det är inte helt osannolikt att nollhypotesen är sann),
eller vi förkastar nollhypotesen (det är osannolikt att nollhypotesen är sann), och även om mothypotesen då är sannolikare än nollhypotesen har vi inget absolut värde på hur starkt stickprovet stöder mothypotesen.
Ett viktigt begrepp inom hypotesprövning är ett tests kritiska område, vilket består av de värden på testvariabeln som leder till att nollhypotesen förkastas. Den i förväg bestämda storleken på de kritiska området är testets signifikansnivå, och vanligen används storlekarna 1% och 5%. Om det kritiska området har storleken 5% innebär det att de möjliga utfall av testet som tillhör de 5% mest osannolika utfallen (när nollhypotesen är sann) kommer att tillhöra det kritiska området.
Hypoteser kan vara enkla eller sammansatta. En enkel hypotes beskriver en enkel relation, t.ex. m1 = m2, där m1 och m2 är medelvärden för två grupper, hypotesen är alltså då att båda grupperna har samma medelvärde. En annan vanlig enkel hypotes är att korrelationen mellan två faktorer är noll. En sammansatt hypotes skulle kunna vara att m1 > m2 eller att korrelationen > 0. I de flesta hypotesprövningssammanhang strävar man efter att formulera en enkel nollhypotes, medan man oftast låter mothypotesen vara sammansatt, vilket är en naturlig följd av det osymmetriska förhållandet mellan nollhypotes och mothypotes.
En hypotesprövning går normalt till på detta vis:
- man utgår från en konkret frågeställning, oftast i ett vetenskapligt sammanhang
- man definierar målpopulationen, d.v.s. vilken grupp av individer man vill dra en slutsats om.
- man definierar nollhypotesen genom att kvantifierar den ursprungliga frågeställningen så att den på ett förnuftigt sätt blir relaterade till en kvantitativ testvariabel.
- man bestämmer testvariabelns sannolikhetsfördelning under antagandet att nollhypotesen är sann
- man bestämmer testets signifikansnivå (oftast 5%), och definierar därmed testets kritiska område
- eventuellt formulerar man explicit en kvantitativ mothypotes
- värdet på denna mothypotes kan användas för att bestämma lämplig stickprovsstorlek med hjälp av styrkeanalys
- man drar ett slumpmässigt stickprov ur målpopulationen och beräknar testvariabeln
- man beräknar hur väl det observerade och förväntade värdet på testvariabeln överensstämmer, och kvantifierar skillnaden i form av ett sannolikhetsvärde, p-värdet.
- om p-värdet ligger under den valda signifikansnivån, d.v.s. värdet på testvariabeln har hamnat inom det kritiska området, förkastar man nollhypotesen, annars drar man slutsatsen att stickprovet inte på något avgörande sätt motsäger nollhypotesens utsaga.
Ett icke-vetenskapligt exempel:
Du ser ett fordon. Du antar som nollhypotes (H0) att det är en bil. Som teststorhet tar du antalet hjul. Du förkastar nollhypotesen om antalet hjul är i det kritiska området [0, 1, 2, 3, 5, 6, 7, 8 ...]. Du gör ett stickprov genom att räkna antalet hjul på fordonet.
Felrisken är lite svår att bedöma: finns det bilar med 6 eller 3 hjul till exempel? Finns det risk för att det rör sig om en lastbil? Dessa faktorer bedömda utifrån populationen av fordon ger din signifikansnivå.
Om antalet hjul föll i det kritiska området, dvs färre eller fler än fyra, förkasta nollhypotesen, det var ingen bil. Testes sägs då ha utfallit signifikant.
Du kan eventuellt formulera en mothypotes, tex: "Det är en cykel", om det är meningsfullt. I så fall ger P(nollhypotesen förkastas) din styrkefunktion, d.v.s. sannolikheten att ett fordon inte är en bil om det har 0, 1, 2, 3, 5, 6, 7, 8... hjul.
Skillnaden mellan vetenskaplig och icke vetenskaplig hypotesprövning ligger i första hand i hur stickprovet dras. För att ett statistiskt test skall vara vetenskapligt korrekt måste den sannolikhet med vilken en enskild individ (eller urvalsenhet) i målpopulationen kommer att ingå i stickprovet vara känd, och om urvalsenheterna inte dras oberoende av varandra måste beroendestrukturen vara känd, och denna kunskap måste användas i testet. För att göra hela proceduren så okomplicerad som möjligt strävar man i största möjliga utsträckning efter att dra stickprov med lika urvalssannolikhet och oberoende dragning för varje enskild urvalsenehet.