Vlastní informace

V kontextu teorie informace je vlastní informace definována jako množství informací, které znalost (výsledek) určité události, přidá k něčím celkovým znalostem. Množství vlastní informace je vyjádřeno v jednotce informace: trochu.

Množství vlastní informace obsažené v pravděpodobnostní události závisí podle definice pouze na pravděpodobnosti této události. Konkrétněji: čím menší je tato pravděpodobnost, tím větší je vlastní informace spojená se získáním informace o tom, že k události skutečně došlo.

Dále má míra sebeinformace podle definice následující vlastnost. Skládá-li se událost C ze dvou vzájemně nezávislých událostí A a B, pak se množství informací při vyhlášení, že se C stalo, rovná součtu množství informací při vyhlášení události A, respektive události B.

S přihlédnutím k těmto vlastnostem je vlastní informace (měřená v bitech) spojená s výsledkem, jehož výsledek má pravděpodobnost, definována jako:

Tato definice pomocí binárního logaritmu splňuje výše uvedené podmínky.

Toto opatření bylo také nazýváno překvapivým, protože představuje „překvapení“ z vidění výsledku (určitý výsledek není překvapivý). Tento termín zavedl Myron Tribus ve své knize Thermostatics and Thermodynamics (Termostatika a termodynamika) z roku 1961. Někteří tvrdí, že je přesnější než „informace o sobě“, ale nebyl široce používán.

Pojem souvisí s pojmem informační entropie; informační entropie náhodné události je očekávaná hodnota její vlastní informace:

Doporučujeme:  Orthorexie nervosa