Bayesovo pravidlo

Když je libovolně mnoho událostí zajímavých, ne jen dvě, pravidlo může být přeformulováno jako posteriorní je úměrné předchozím časům pravděpodobnosti, kde symbol úměrnosti znamená, že levá strana je úměrná (tj. rovná se konstantní časy) pravé straně, jak se liší, pro pevné nebo dané (Lee, 2012; Bertsch McGrayne, 2012). V této podobě se vrací k Laplaceovi (1774) a ke Cournotovi (1843); viz Fienberg (2005).

Bayes‘ pravidlo je rovnocenný způsob, jak formulovat Bayes‘ věta. Pokud víme, že šance pro a proti jsme také vědět pravděpodobnosti . To může být přednostní Bayes‘ věta v praxi z řady důvodů.

Bayesovo pravidlo je široce používáno ve statistice, vědě a inženýrství, například při výběru modelů, pravděpodobnostních expertních systémech založených na Bayesových sítích, statistických důkazech v soudních řízeních, filtrech emailového spamu a tak dále (Rosenthal, 2005; Bertsch McGrayne, 2012). Jako elementární fakt z kalkulu pravděpodobnosti nám Bayesovo pravidlo říká, jak bezpodmínečné a podmíněné pravděpodobnosti souvisí, zda pracujeme s frekventovanou interpretací pravděpodobnosti nebo bayesovskou interpretací pravděpodobnosti. Podle bayesovské interpretace je často používáno v situaci, kdy a jsou konkurenční hypotézy, a je nějakým pozorovaným důkazem. Pravidlo ukazuje, jak by měl být aktualizován něčí úsudek o tom, zda je nebo je pravdivý, při pozorování důkazu (Gelman et al, 2003).

Vzhledem k tomu, události , a , Bayes‘ pravidlo uvádí, že podmíněné šance na dané se rovnají mezní šance na vynásobené Bayes faktor nebo poměr pravděpodobnosti:

Zde se kurzy a podmíněné kurzy, také známý jako předchozí kurzy a zadní kurzy, jsou definovány

Ve zvláštním případě, že a , Jeden píše , A používá podobnou zkratku pro Bayes faktor a pro podmíněné šance. Šance na je podle definice šance pro a proti . Bayes‘ pravidlo pak může být napsáno ve zkrácené formě

Doporučujeme:  Kenneth Heilman

nebo slovy: posterior odds on rovná se předchozí odds on krát poměr pravděpodobnosti pro danou informaci . Stručně řečeno, posterior odds on rovná se předchozí odds krát poměr pravděpodobnosti.

Pravidlo se často používá, když a jsou dvě konkurenční hypotézy týkající se příčiny nějaké události . Předchozí kurzy na , Jinými slovy, šance mezi a , Vyjadřuje naše počáteční přesvědčení o tom, zda je či není ture. Událost představuje některé důkazy, informace, data, nebo pozorování. Poměr pravděpodobnosti je poměr šancí na pozorování podle obou hypotéz a . Pravidlo nám říká, jak naše předchozí přesvědčení o tom, zda je či není pravda je třeba aktualizovat při obdržení informace .

Pokud uvažujeme o jako svévolné a jako pevné pak můžeme přepsat Bayes‘ věta ve formě, kde je symbol proporcionality znamená, že, jak se liší, ale vedení pevné, levé straně se rovná konstantní krát pravé straně.

Ve slovech posterior je úměrná předchozí časy pravděpodobnost. Tato verze Bayes‘ věta byla poprvé nazývána „Bayes‘ pravidlo“ Cournot (1843). Cournot popularizoval starší práci Laplaceova (1774), kteří měli nezávisle objevil Bayes‘ pravidlo. Práce Bayes byl zveřejněn posmrtně (1763), ale zůstal více či méně neznámé, dokud Cournot upozornila na to, viz Fienberg (2006).

Bayes‘ pravidlo může být upřednostněna před obvyklým výrokem Bayes‘ věta z mnoha důvodů. Jedním z nich je, že je intuitivně jednodušší pochopit. Dalším důvodem je, že normalizace pravděpodobnosti je někdy zbytečné: jeden někdy stačí znát poměry pravděpodobnosti. Konečně, dělá normalizace je často jednodušší udělat po zjednodušení produkt předchozí a pravděpodobnost tím, že odstraní všechny faktory, které nezávisí na , Takže nemusíme skutečně počítat jmenovatel v obvyklé prohlášení Bayes‘ věta.

V Bayesově statistice je Bayesovo pravidlo často aplikováno s tzv. nesprávným předchozím, například s jednotným rozdělením pravděpodobnosti nad všemi reálnými čísly. V takovém případě neexistuje předchozí rozdělení jako míra pravděpodobnosti v rámci konvenční teorie pravděpodobnosti a Bayesova věta sama o sobě není dostupná.

Doporučujeme:  Plánování propuštění

Bayesovo pravidlo může být použito vícekrát. Pokaždé, když pozorujeme novou událost, aktualizujeme kurzy mezi zajímavými událostmi, řekněme a tím, že zohledníme nové informace. Pro dvě události (informace, důkazy) a ,

Ve zvláštním případě dvou doplňkových událostí a , Ekvivalentní notace je

Vezměme si dva případy Bayes‘ věta:

Podobná derivace platí pro podmínění na více událostí, pomocí příslušné rozšíření Bayes‘ věta

Vezměme si příklad testování léků v článku o Bayesově větě.

Stejné výsledky lze získat pomocí Bayesova pravidla. Předchozí šance na to, že jednotlivec je uživatelem drog, jsou 199 ku 1 proti, jako a . Bayesův faktor, když je jednotlivec pozitivně testován, je ve prospěch toho, že je uživatelem drog: to je poměr pravděpodobnosti pozitivního testu na uživatele drog k pravděpodobnosti pozitivního testu na uživatele drog, který drogu neužívá. Pozdní šance na to, že je uživatelem drog, jsou tedy , což je velmi blízko . V kulatých číslech je pouze jeden ze tří těch, kteří jsou pozitivně testováni, ve skutečnosti uživateli drog.