V teorii pravděpodobnosti a statistice je kovariance mezi dvěma náhodnými veličinami X a Y s očekávanými hodnotami a je definována jako:
kde E je očekávaná hodnota.
Intuitivně je kovariance měřítkem toho, jak moc se dvě proměnné navzájem liší. To znamená, že kovariance se stává více kladnou pro každou dvojici hodnot, které se liší od svého průměru ve stejném směru, a stává se více zápornou s každou dvojicí hodnot, které se liší od svého průměru v opačných směrech. Tímto způsobem, čím častěji se liší ve stejném směru, tím více kladná kovariance, a čím častěji se liší v opačných směrech, tím více záporná kovariance.
Měrné jednotky kovariance cov(X, Y) jsou jednotky X krát jednotky Y. Naproti tomu korelace, která závisí na kovarianci, je bezrozměrným měřítkem lineární závislosti.
Výše uvedená definice odpovídá následujícímu vzorci, který se běžně používá ve výpočtech:
Pokud jsou X a Y nezávislé, pak je jejich kovariance nulová. To vyplývá, protože podle nezávislosti,
Konverzace však není pravdivá: je možné, že X a Y nejsou nezávislé, přesto je jejich kovariance nulová. Náhodné proměnné, jejichž kovariance je nulová, se nazývají nekorelované.
Pokud X a Y jsou náhodné proměnné s reálnou hodnotou a c je konstanta („konstanta“ v tomto kontextu znamená ne-náhodná), pak následující fakta jsou důsledkem definice kovariance:
Pro sloupcově-vektorové náhodné proměnné X a Y s příslušnými očekávanými hodnotami μ a ν a skalární složky n a m je kovariance definována jako matice n×m
Pro vektorem oceněné náhodné proměnné, cov(X, Y) a cov(Y, X) jsou navzájem transpozice.
Kovariance se někdy nazývá míra „lineární závislosti“ mezi dvěma náhodnými proměnnými. Tato fráze neznamená totéž, co znamená ve formálnějším lineárním algebraickém nastavení (viz lineární závislost), i když tento význam není nesouvisející. Korelace je úzce související pojem používaný k měření míry lineární závislosti mezi dvěma proměnnými.