Maximum likelihood-metoden

Från Wikipedia
Hoppa till navigering Hoppa till sök
Ej att förväxla med ML-uppskattning.
Maximum likelihood-anpassning av data i form antalet upptäckta fel i programvara till Goel-Okumoto-modellen.

Maximum likelihood-metoden, ofta förkortat ML-metoden även kallad maximimetoden, är en objektiv metod inom statistiken för att hitta skattningar för parametrar i en sannolikhetsfördelning som beskriver en samling data. Metoden skattar parametern genom att välja det värde på parametern som maximerar sannolikheten av de observerade värdena.[1]

Bakgrund[redigera | redigera wikitext]

Ibland kan det vara vanskligt att hitta parametrarna för en sannolikhetsfördelning genom att granska en serie utfall. Ett exempel kan vara om man experimentellt ska uppskatta turtätheten för en (helt punktlig) busslinje genom att göra en serie mätningar för hur länge man får vänta på bussen (en stokastisk variabel med rektangulärfördelning). Om de uppmätta väntetiderna är 2, 3, 5 och 14 minuter så blir medelvärdet 6 minuter. Den skattade turtätheten blir i så fall 12 minuter, vilket är orimligt. Den slutsatsen indikerar att man behöver granska sitt val av statistisk modell.

Likelihood-funktionen[redigera | redigera wikitext]

Kurva över hur likelihooden varierar med intensiteten för Poissonfördelningen. Den största fås vid 4.

Vid användning av ML-metoden använder man den så kallade likelihood-funktionen för ett slumpmässigt stickprov x1, x2, ..., xn från en fördelning beroende av en okänd parameter :

eller, om data () är utfall av oberoende variabler:[2]

där f är fördelningens täthetsfunktion om fördelning är kontinuerlig och fördelningens sannolikhetsfunktion om fördelningen är diskret.

Det värde där antar sitt största värde kallas för ML-skattningen av .

Egenskaper[redigera | redigera wikitext]

Maximum likelihood-metoden har följande egenskaper:

  • Skattningen behöver inte vara väntevärdesriktig.[3][4]
  • Metoden är invariant för monotona funktioner.[5][6] Man maximerar ofta logaritmen av likelihoodfunktionen.
  • Skattningen behöver inte vara konsistent.[7] En konsistent skattnings fel och varians går mot noll om sampelstorleken går mot oändligheten.[8]
  • Om det finns en tillräcklig estimator T, kommer maximum likelihood-metoden att finna en lösning beroende på T.[9]
  • Om det finns en väntevärdesriktig effektiv estimator, kommer maximum likelihood-metoden att hitta den.[10][11]
  • Skattningen behöver inte vara unik.[12]
  • Skattningen behöver inte ens finnas. Det förekommer ofta när parametern är definierad på ett öppet eller halvöppet intervall.[13]
  • När sampelstorleken ökar, går skattningen mot att bli normalfördelad.[14] Den uppnår asymptotiskt Cramér-Rao-gränsen(en). Det betyder att dess varians är inversen av Fisherinformationen(en).[15]

Referenser[redigera | redigera wikitext]

Noter[redigera | redigera wikitext]

  1. ^ Blom, Gunnar; Björn Holmquist (1998). Statistikteori med tillämpningar. Studentlitteratur. sid. 62-64. ISBN 91-44-00323-4 
  2. ^ Blom, Gunnar; Jan Enger, Gunnar Englund, Jan Grandell, Lars Holst (2005). Sannolikhetsteori och statistikteori med tillämpningar. Studentlitteratur. sid. 254. ISBN 978-91-44-02442-4 
  3. ^ Råde 1963, s. 185.
  4. ^ Kiefer 1987, s. 202.
  5. ^ Råde 1963, s. 184.
  6. ^ Kiefer 1987, s. 202.
  7. ^ Råde 1963, s. 185.
  8. ^ Lindgren 1968, s. 270.
  9. ^ Lindgren 1968, s. 284.
  10. ^ Råde 1963, s. 185.
  11. ^ Lindgren 1968, s. 284.
  12. ^ Kiefer 1987, s. 200.
  13. ^ Kiefer 1987, s. 204.
  14. ^ Råde 1963, s. 185.
  15. ^ Lindgren 1968, s. 284.

Källor[redigera | redigera wikitext]

  • Kiefer, Jack; Gary Lorden (1987). Introduction to Statistical Inference. New York: Springer. ISBN 0-387-96420-7 
  • Lindgren, Bernard W. (1968). Statistical theory. New York: Macmillan 
  • Råde, Lennart (1963). Sannolikhetslära och statistik. Stockholm: Biblioteksförlaget 

Externa länkar[redigera | redigera wikitext]