Hoppa till innehållet

Hypotesprövning

Från Wikipedia
(Omdirigerad från Hypotestestning)

Hypotesprövning är inom matematisk statistik en vetenskaplig metod, som används då man vill göra uttalanden om en viss parameter, fysikalisk storhet eller en stor mängd individer, baserat på experiment eller en liten delmängd av dessa individer. Den stora mängden, som man är intresserad av att uttala sig om kallas population, och den lilla delmängden som man undersöker, kallas för ett stickprov av populationen. Vid sådana tester är det ofrånkomligt att vissa gånger göra fel, hypotesprövning görs därför för att systematisera dessa fel.

Vanligen är distributionen av populationen känd (eller antagen) och man är intresserad av en parameter hos distributionen (parametern kan vara exempelvis eller i en normalfördelning). Hypoteserna är uttalande om . Hypotesprövningen består av en nollhypotes och alternativhypotes. Målet med prövningen är att uttala sig om det riktiga värdet på finns i delmängden av parameterrummet .

Processen inleds med att uttrycka sin hypotes vilket kan ha olika former beroende på typen av test, men kan generellt beskrivas så här: . Därefter handlar det om att bestämma sig för vilken typ av hypotesprövning man vill göra. Det finns fyra typer av utfall man kan göra hypotesprövning med, dessa kan ses i tabellen.

sann är inte sann
Förkasta inte Rätt slutsats Typ II-fel
Förkasta Typ I-fel Rätt slutsats

Det vanligaste utfallet man vill beräkna är sannolikheten för ett typ I-fel. Sannolikheten beskrivs så här: , där är signifikansnivån och är oftast bestämd innan hypotesprövningen görs. Signifikansnivån är den osäkerhet som finns för att man ska göra ett typ I-fel. Den andra sannolikheten man vanligen beräknar är typ II-fel: . Komplementet till kallas ofta för styrka på testet och noteras ofta som en funktion .

Vid hypotesprövning med typ I-fel bestämmer man sig för en signifikansnivå för att sedan hitta det kritiska värdet . Det kritiska värdet delar upp parameterrummet till två mängder. Den ena mängden är förkastelseområdet . Om utfallet från testet hamnar i förkastelseområdet betyder det att man förkastar och därmed godtar den alternativa hypotesen, eftersom sannolikheten för att göra ett typ I-fel är lägre än signifikansnivån.

Ett alternativ sätt att utföra hypotesprövning är genom att använda p-värdet. Syftet med p-värdet är att bestämma det minsta värdet på för vilken man kan förkasta baserat på det observerade värdet på testvariabeln.

Testprocessen

[redigera | redigera wikitext]

Den vanligaste processen för att göra en hypotesprövning med typ I-fel ser vanligen ut såhär:

  1. Definiera en nollhypotes och alternativhypotes.
  2. Bestäm de statistiska antagande som behövs göras. Dessa kan till exempel vara att stickprovet är slumpmässigt, och urvalet är oberoende och likafördelade.
  3. Definiera testvariabeln .
  4. Härled en fördelning för testvariabeln. Vanligtvis är fördelningen betingad på nollhypotesen. Till exempel , då och är bestämda
  5. Bestäm en signifikansnivå . Vanliga signifikansnivåer är 0.05 och 0.01
  6. Derivera förkastelseområdet med hjälp av det kritiska värdet .
  7. Beräkna det observerade värdet på testvariabeln utifrån det stickprov som gjorts.
  8. Uttryck ifall ska förkastas eller inte; ifall så förkastas nollhypotesen.

Exempel: Förorening i Sjö

[redigera | redigera wikitext]

Anta att det finns en sjö som tidigare har varit förorenad, och som man aktivt har jobbat med för att minska mängden förorening i sjön. Man är nu intresserad av att bestämma ifall arbetet har gett resultat, så att mängden förorening har minskat i sjön. Då arbetet började var medelvärdet av föroreningar i sjön 30 mg/liter. Hypotesen som då är intressant att testa är således: . Emellertid kan hypotesen formuleras på ett ekvivalent sätt: eftersom det värsta fallet i nollhypotesen är just 30.

Under denna hypotesprövning görs följande antagande: stickprovet är slumpmässigt, urvalet är oberoende och likafördelade, populationen är normalfördelad med en okänd varians.

Testvariabeln T definieras som där är medelvärdet på stickprovet, är standardavvikelsen på stickprovet, är storleken på stickprovet, och är students t-fördelning med frihetsgrader.

Det bestäms att signifikansnivån är 5%, så . Således kan det kritiska värdet bestämmas eftersom . Med hjälp av det kritiska värdet kan också förkastelseområdet definieras. I och med att denna hypotesprövning är ett asymmetriskt test så blir förkastelseområdet: .

Ett slumpmässigt stickprov av storlek 6 görs och följande värden observeras: 18, 24, 26, 25, 32, och 19. Med dessa värden kan man beräkna medelvärdet och standardavvikelsen: . Det kritiska värdet kan också bestämmas: , vilket get förkastelseområdet .

Nu kan det observerade värdet på testvariabeln fastställas: , och det kan konstateras att , vilket leder till slutsatsen att förkastas. Denna slutsats gör att man kan förvissa sig om att mängden förorening minskat, med en signifikans nivå på 0.05.

Exempel: Opinionsundersökning

[redigera | redigera wikitext]

Man är intresserad av att studera andelen röstberättigade svenska medborgare som sympatiserar med partiet P. Låt symbolen p beteckna denna andel. För att helt säkert veta värdet på p måste vi veta vad varje röstberättigad svensk medborgare har för partisympati; att ta reda på detta är i praktiken omöjligt. Istället för att fråga alla, frågar man ett litet antal utvalda människor (som ska spegla populationens sammansättning) och försöker använda deras svar för att besvara den ursprungliga frågan om andelen p.

Man har en förutfattad mening att hälften av den röstberättigade svenska befolkningen sympatiserar med partiet P. Denna förutfattade mening kallar man för en nollhypotes, och betecknar på följande sätt:

Efter att ha uttalat denna förutfattade mening intervjuar man 90 människor om deras partisympatier. När intervjuerna var avklarade sammanställde man intervjusvaren och noterade att 30 personer sympatiserade med P. Hur väl stämmer detta överens med den förutfattade meningen så som den är uttryckt i nollhypotesen? Enligt denna förväntar vi oss att hälften av de intervjuade personerna skall sympatisera med P, vilket i det aktuella fallet motsvaras av 45 P-sympatisörer bland de 90 intervjuade.

Den fråga som vi nu ställer oss är: Avviker talet 30 tillräckligt mycket från talet 45 för att vi skall betvivla att är sann?

För att besvara denna fråga skall vi använda oss av tekniken för hypotesprövning. Kortfattat talar den om för oss hur stor avvikelsen mellan det vi observerar och det vi förväntar oss att få skall vara, för att vi skall betvivla att nollhypotesen är sann; Detta uttrycks med ett så kallat kritiskt värde, .

Säg att det kritiska värdet är talet sju. Detta innebär att om avvikelsen mellan det observerade antalet P-sympatisörer avviker med mer än sju personer från det förväntade värdet (45), så kan vi förkasta den förutfattade meningen att hälften av befolkningen är P-sympatisörer. Man har observerat 30 P-sympatisörer och avvikelsen mellan talen 30 och 45 är större än det kritiska värdet . Våra data stödjer därför inte den förutfattade meningen att .

Notera att vår slutsats är helt och hållet baserad på intervjuerna med de utvalda 90 personerna. Kom ihåg att vi var intresserade av att undersöka en egenskap hos hela den svenska befolkningen; Det kan hända att de personerna som blev intervjuade inte var representativa. Det finns därför en viss osäkerhet i vårt beslut att förkasta den förutfattade meningen att . Osäkerheten ligger i det att vårt stickprov kan få oss att förkasta den förutfattade meningen, fastän den i själva verket är sann. Denna osäkerhet kallar man för signifikansnivå och betecknar med symbolen (alfa).

Signifikansnivån är sannolikheten att få ett stickprov som föranleder oss att förkasta nollhypotesen, då i själva verket är sann:

Man väljer en (låg) signifikansnivå, vanligtvis , och beräknar därefter ett motsvarande kritiskt värde , som får avgöra om mätdata stödjer den förutfattade meningen. Om man använder sig av detta kritiska värde kommer man att i genomsnitt dra felaktiga slutsatser om populationen i 5 av 100 tagna stickprov (om man har valt ).

  • J.S. Milton och J.C. Arnold, Introduction to Probability and Statistics, fourth edition, (2003), McGraw-Hill
  • G. Blom, et al., Sannolikhetsteori och Statistikteori med tillämpningar, (2005), Studentlitteratur
  • L. Råde och M. Rudemo, Sannolikhetslära och Statistik för teknisk högskola, andra upplagan, (1994), Studentlitteratur