Bayes sats

Från Wikipedia
Hoppa till: navigering, sök

Bayes sats eller Bayes teorem är en sats inom sannolikhetsteorin, som används för att bestämma betingade sannolikheter; sannolikheten för ett utfall givet ett annat utfall. Satsen har fått sitt namn av matematikern Thomas Bayes (1702-1761). Dess betydande roll inom statistiken grundar sig sedan länge på att satsen förenklar beräkningar av betingade sannolikheter.[1]

Bayes sats[redigera | redigera wikitext]

Låt A_1, ..., A_n vara n disjunkta händelser med positiv sannolikhet. Anta att händelserna utgör hela utfallsrummet: \bigcup^{n}_{i=1} A_i = \Omega . Bayes sats säger då att

P(A_i|B) = \frac{P(A_i)P(B|A_i)}{\sum^{n}_{j=1}P(A_j)P(B|A_j)}

där nämnaren är lika med P(B) enligt lagen om total sannolikhet.

För specialfallet n=1 ger Bayes sats

P(A|B) = \frac{P(A)P(B|A)}{P(B)}

Där P(A|B) är sannolikheten för A, givet B.

Tillämpningar[redigera | redigera wikitext]

Bayes sats används flitigt inom statistiken, bland annat för dolda Markovmodeller. Satsen och Bayes namn har blivit kända under interneteran, genom att satsen har implementerats i Bayesiska skräppostfilter för att på ett statistiskt sätt kunna separera skräp-e-post från önskad e-post.

Bayes sats används till att kombinera insamlade, statistiska data med andra informationskällor såsom experutlåtande samt allmänt kända fakta. Användandet kan uppnå en objektiv slutsats, som väger in såväl traditionell statistisk data som mer okonventionell information. Detta gör den populär, då det ofta är svårt att inkludera mer generell information i en objektiv beslutsanalys.[1]

Härledning[redigera | redigera wikitext]

Bayes sats.

Definitionen av betingad sannolikhet är

P(A|B) = {P(A \cap B) \over P(B)} \quad (1)

på samma sätt har vi

P(B|A) = \frac{P(A \cap B)}{P(A)} \Rightarrow P(A)P(B|A)=P(A \cap B) \quad (2)

Ersätts uttrycket för P(A \cap B) från (2) i (1) erhålls

P(A|B) = \frac{P(A)P(B|A)}{P(B)}

vilket är Bayes sats för specialfallet n=1 ovan.

För det generella fallet sätter vi

P(B)=\sum^{n}_{i=1}P(A_i)P(B|A_i)

så att

P(A_i|B) = \frac{P(A_i)P(B|A_i)}{P(B)}=\frac{P(A_i)P(B|A_i)}{\sum^{n}_{i=1}P(A_i)P(B|A_i)}

Se även[redigera | redigera wikitext]

Noter och referenser[redigera | redigera wikitext]

  1. ^ [a b] Stefan Arnborg; Bayes metod att hantera osäkerhet, Nada, KTH.
  • Stokastik av Sven Erick Alm, Tom Britton, 20011, sida 31.

Externa länkar[redigera | redigera wikitext]

Venn A intersect B.svg Matematikportalen – portalen för matematik på svenskspråkiga Wikipedia.