De stora talens lag

Från Wikipedia
Hoppa till: navigering, sök

De stora talens lag är en sats inom sannolikhetsteorin, som innebär att det aritmetiska medelvärdet av ett stort antal oberoende observationer av en slumpvariabel med stor sannolikhet ligger nära variabelns väntevärde. De stora talens lag kan sägas motsvara uttrycket "Det jämnar ut sig i det långa loppet", under vissa omständigheter.

Datorsimulering av 500 slantsinglingar. Det är här tydligt att medelvärdet av andelen krona närmar sig väntevärdet 1/2 när antalet singlingar ökar.

Historia[redigera | redigera wikitext]

Bernoullis sats[redigera | redigera wikitext]

Den första versionen av stora talens lag formulerades och bevisades av Jacob Bernoulli i början på 1700-talet av, Bernoullis sats[1], men publicerades inte förrän åtta år efter hans död. Det Bernoulli visade motsvarar svaga stora talens lag, med fallet då de ingående stokastiska variablerna endast antar två värden. Egentligen behandlade han det omvända jämfört med hur stora talens lag idag brukar formuleras; givet ett utfall från N antal försök, hur kan vi då bestämma väntevärdet (Om vi tar upp N kulor ur en påse med enbart blåa och gula kulor, vad kan vi då säga om den totala fördelningen?)?

I sitt arbete beräknade Bernoulli även att det, exempelvis, krävs 25 500 observationer för att med säkerheten 1000/1001 landa på rätt svar +/- 1/50, om väntevärdet är 30/50.[2]

Generalisering[redigera | redigera wikitext]

Siméon Denis Poisson försökte på 1830-talet att generalisera Bernoullis sats, vilken dock blev omdiskuterad[2]. Sin nuvarande formulering fick de stora talens lag 1933 av Andrej Kolmogorov, även om det än idag presenteras nya varianter för olika specialfall.

Användning i praktiken[redigera | redigera wikitext]

Några användningsområden[redigera | redigera wikitext]

  • Försäkringar: De stora talens lag är mycket användbar när det gäller försäkringar, då den kan ge en ungefärlig förutsägelse över framtida händelser utifrån tidigare år. Ju fler kunder ett försäkringsbolag har, desto mindre påverkar slumpen. Vid större förändringar och trender, till exempel klimatförändringar, är den dock åtminstone delvis oanvändbar.
  • Spelbolag: Om ett spel i genomsnitt kommer att ge vinst åt arrangören, kommer även arrangören, efter tillräckligt många spelomgångar, att gå med vinst.
  • Medicin: De stora talens lag minimerar ett slumpmässigt beteende av medicinska åtgärder.
  • Naturvetenskap: Påverkan från icke regelmässiga mätfel kan minimeras genom att göra många mätningar.

En felaktig tolkning[redigera | redigera wikitext]

En vanlig misstolkning av de stora talens lag är följande:

Missförstånd: "Om man kastar tärning ett antal gånger, och får fler, säg, femmor än förväntat (dvs  > 1/6), kommer tärningen framöver att tendera att visa färre femmor än förväntat (dvs  < 1/6 ), för att den totala andelen ska kunna närma sig 1/6, i enlighet med De stora talens lag."

Detta är en helt felaktig tolkning. Detta strider mot förutsättningen att observationerna ska vara oberoende, det vill säga att de inte ska påverkas av tidigare utfall, vilket de ju gör i detta missförstånd.

Matematik[redigera | redigera wikitext]

De stora talens lag i svag form[redigera | redigera wikitext]

Låt M_n vara medelvärdet av n inbördes oberoende stokastiska variabler med gemensam sannolikhetsfördelning, och S_n vara summan av de n första X_i-variablerna:

S_n = X_1 + \cdots + X_n och M_n = \frac{S_n}{n}.

Om väntevärdet \mu = E(X_i) är ändligt gäller för alla \epsilon>0 att

\lim_{n \rightarrow \infty}P\left(\left|M_n-\mu\right|<\epsilon\right) = 1.

De stora talens lag i stark form[redigera | redigera wikitext]

Låt M_n vara samma stokastiska variabel som ovan och antag återigen att väntevärdet \mu är ändligt. Då gäller att

P\left(\lim_{n \rightarrow \infty}M_n=\mu\right) = 1

Skillnaden mellan starka och svaga formen[redigera | redigera wikitext]

Den svaga formen säger att sannolikheten för att M_n ska konvergera mot \mu går mot 1, då n går mot oändligheten. Den starka formen säger å sin sida att sannolikheten att M_n ska konvergera mot \mu är 1.

Värt att notera är även att den starkare formen implicerar den svaga, medan den svaga inte implicerar den starka.

Bevis för ett specialfall[redigera | redigera wikitext]

Det här är ett bevis för svaga stora talens lag med specialfallet stokastiska variabler som enbart antar värdena 0 och 1 med sannolikheten 1/2 vardera, exempelvis en slantsingling. Då gäller alltså att väntevärdet E(X_i) = 1/2. Notationen med S_n och M_n används som ovan. Då väntevärdesoperatorn är linjär, gäller att
E(S_n) = E(X_1) + E(X_2) + ... + E(X_n) = \frac{n}{2} samt E(M_n) = \frac{E(S_n)}{n} = \frac{1}{2}.
Låt Z_n = (M_n - 1/2)^2, så att variansen hos M_n är Var(M_n) = E(Z_n). Definiera sedan funktionen
Z^{*}_n = \begin{cases} \epsilon^2, Z_n \ge \epsilon^2\\ 0, Z_n < \epsilon^2\\ \end{cases}.
Här gäller Z_n^{*} \le Z_n och därmed E(Z_n^{*}) \le E(Z_n).
Väntevärdet för denna funktion kan då skrivas E(Z_n^{*}) = \epsilon^2 \cdot P(Z_n^{*} = \epsilon^2) + 0 \cdot P(Z_n^{*} = 0) = \epsilon^2 \cdot P(Z_n^{*} = \epsilon^2) = \epsilon^2 \cdot P(Z_n \ge \epsilon^2).
Vi kan lösa ut att P(Z_n \ge \epsilon^2) = \frac{E(Z_n^{*})}{\epsilon^2} \le \frac{E(Z_n)}{\epsilon^2}.
Om vi sedan konstaterar att |M_n - 1/2| \ge \epsilon om och endast om Z_n \ge \epsilon^2 får vi P(|M_n - \frac{1}{2}| \ge \epsilon) = P(Z_n \ge \epsilon^2) \le \frac{E(Z_n)}{\epsilon^2} = \frac{Var(M_n)}{\epsilon^2}
Kan vi nu visa att högerledet i ovanstående olikhet går mot noll då n går mot oändligheten (alltså ett gränsvärde), har vi bevisat specialfallet. Definitionen av varians respektive M_n ger Var(M_n) = E((M_n - \frac{1}{2})^2 = E((\frac{X_1 + X_2 + ... + X_n}{n} - \frac{1}{2})^2) = E((\frac{X_1 + X_2 + ... + X_n - \frac{n}{2}}{n} )^2) =
E((\frac{((X_1 - \frac{1}{2}) + (X_2 - \frac{1}{2}) + ... + (X_n - \frac{1}{2}))^2}{n}) = \frac{1}{n^2}E(((X_1 - \frac{1}{2}) + (X_2 - \frac{1}{2}) + ... + (X_n - \frac{1}{2}))^2) = \frac{1}{n^2}E((\sum_{i=1}^n (X_i - \frac{1}{2}))^2) =  \frac{1}{n^2}E((\sum_{i=1}^n (X_i - \frac{1}{2}))(\sum_{j=1}^n (X_j - \frac{1}{2})) = \frac{1}{n^2}\sum_{i=1}^n \sum_{j=1}^n E((X_i - \frac{1}{2})(X_j - \frac{1}{2}))
X_i och X_j kan enbart anta värdena 0 resp 1. Då i = j (n olika fall) gäller alltså att \sum_{i=1}^n \sum_{j=1}^n E((X_i - \frac{1}{2})(X_j - \frac{1}{2})) = \frac{1}{2}. Då i \ne j gäller X_i = X_j X_i \ne X_j med sannolikheten 1/2 vardera, dvs produkten blir 1/4 resp -1/4 med sannolikhet 1/2 vardera. För väntevärdet gäller då \sum_{i=1}^n \sum_{j=1}^n E((X_i - \frac{1}{2})(X_j - \frac{1}{2})) = \frac{1}{2}\cdot\frac{1}{4} + \frac{1}{2}\cdot(-\frac{1}{2}) = 0 Sammanfattningsvis ser vi alltså att Var(M_n) = \frac{1}{n^2}\sum_{i=1}^n \sum_{j=1}^n E((X_i - \frac{1}{2})(X_j - \frac{1}{2})) = \frac{1}{n^2}\cdot n \cdot\frac{1}{4} = \frac{1}{4n}
och därmed att P(|M_n - \frac{1}{2}| \ge \epsilon) = P(Z_n \ge \epsilon^2) \le \frac{E(Z_n}{\epsilon^2} = \frac{Var(M_n)}{\epsilon^2} = \frac{1}{4n\epsilon^2} vilket går mot 0 då n \rightarrow \infty. Därmed får vi, för alla \epsilon > 0, att

\lim_{n \rightarrow \infty}P\left(\left|M_n-\mu\right|<\epsilon\right) = 1.

Därmed är specialfallet av svaga stora talens lag bevisad. Det är fullt möjligt att gå vidare och även bevisa starka stora talens lag för detta fall, och även för mer generella fall.

Se även[redigera | redigera wikitext]

Litteratur[redigera | redigera wikitext]

  • Olle Häggström Slumpens skördar - Strövtåg i sannolikhetsteorin Lund: Studentlitteratur, 2004, ISBN 91-44-03017-7
  • Andreas Svensson Är tärningen kastad? - Sannolikhetslära för vem som helst Trollhättan: Bombadil Publishing, 2008, ISBN 91-85765-02-3

Källor[redigera | redigera wikitext]

  1. ^ ”stora talens lag”. Nationalencyklopedin. http://ne.se/l%C3%A5ng/storatalenslag. Läst 27/3 2009. 
  2. ^ [a b] Stephen M. Stigler The history of statistics: the measurement of uncertainty before 1900 Cambridge, Mass.: Harvard Univ. Press 1986, ISBN 0-674-40340-1

Externa länkar[redigera | redigera wikitext]

Venn A intersect B.svg Matematikportalen – portalen för matematik på svenskspråkiga Wikipedia.