Ve statistice je použití Bayesových faktorů bayesovskou alternativou ke klasickému testování hypotéz.
Vzhledem k problému s výběrem modelu, ve kterém musíme volit mezi dvěma modely M1 a M2, na základě datového vektoru x. Bayesův faktor K je dán
kde se nazývá mezní pravděpodobnost pro model i. To je podobné testu poměru pravděpodobnosti, ale místo maximalizace pravděpodobnosti, Bayesové ji zprůměrují přes parametry. Obecně, modely M1 a M2 budou parametrizovány vektory parametrů θ1 a θ2; tedy K je dáno
Logaritmus K se někdy nazývá váha důkazu daná x pro M1 nad M2, měřená v bitech, nats nebo zákazech, podle toho, zda je logaritmus vzat do základu 2, základu e nebo základu 10.
Interpretace Bayesových faktorů
Hodnota K > 1 znamená, že údaje naznačují, že M1 je posuzovanými údaji podpořen více než M2. Všimněte si, že klasické testování hypotéz dává jedné hypotéze (nebo modelu) přednostní status (dále jen „nulová hypotéza“), a bere v úvahu pouze důkazy proti ní. Harold Jeffreys uvedl měřítko pro interpretaci K:
Druhý sloupec uvádí odpovídající důkazní váhy v decibanech (desetiny mocniny 10), ve třetím sloupci se pro přehlednost přidávají bity. Podle I. J. Dobrého je změna důkazní váhy 1 decibanu nebo 1/3 bitu (tj. změna poměru šancí ze sudých na přibližně 5:4) asi tak jemná, jak může člověk rozumně vnímat míru své víry v hypotézu v každodenním používání.
Použití Bayesových faktorů nebo klasického testování hypotéz se odehrává spíše v kontextu inference než rozhodování v nejistotě. To znamená, že si pouze přejeme zjistit, která hypotéza je pravdivá, než abychom na základě těchto informací skutečně činili rozhodnutí. Časopisné statistiky mezi těmito dvěma faktory silně rozlišují, protože klasické testy hypotéz nejsou koherentní v bayesovském smyslu. Bayesovské postupy, včetně Bayesových faktorů, jsou koherentní, takže není nutné takové rozlišování dělat. Inference je pak jednoduše považována za zvláštní případ rozhodování v nejistotě, ve kterém je výslednou akcí vykázání hodnoty. V kontextu rozhodování mohou bayesovští statistici použít Bayesův faktor jako součást volby, ale také by ho kombinovali s předchozí distribucí a ztrátovou funkcí spojenou s nesprávnou volbou. V kontextu inference by ztrátová funkce měla podobu bodovacího pravidla. Například použití logaritmické skórovací funkce vede k očekávanému užitku v podobě Kullback-Leiblerovy divergence. Pokud jsou logaritmy na bázi 2, je to ekvivalentní Shannonově informaci.
Předpokládejme, že máme náhodnou proměnnou, která vytváří buď úspěch, nebo neúspěch. Chceme porovnat model M1, kde je pravděpodobnost úspěchu q = ½, a jiný model M2, kde q je zcela neznámý a vezmeme předchozí rozdělení pro q, které je jednotné na [0,1]. Vezmeme vzorek 200 a najdeme 115 úspěchů a 85 neúspěchů. Pravděpodobnost lze vypočítat podle binomického rozdělení:
Poměr je pak 1,197…, což „sotva stojí za zmínku“, i když to ukazuje velmi mírně směrem k M1.
Frekvenční test hypotézy (zde považovaný za nulovou hypotézu) by přinesl dramatičtější výsledek, když by řekl, že M1 by mohl být odmítnut na 5% hladině významnosti, protože pravděpodobnost získání 115 nebo více úspěchů ze vzorku 200, pokud q = ½ je 0,0200…, a jako dvousečná zkouška získání hodnoty tak extrémní jako nebo více extrémní než 115 je 0,0400… Všimněte si, že 115 je více než dvě směrodatné odchylky od 100.
M2 je složitější model než M1, protože má volný parametr, který mu umožňuje modelovat data blíže. Schopnost Bayesových faktorů vzít toto v úvahu je důvodem, proč Bayesovská inference byla předložena jako teoretické zdůvodnění a zobecnění Occamovy břitvy, redukující chyby typu I.