Generalizovaný Hebbiánský algoritmus (GHA), v literatuře známý také jako Sangerovo pravidlo, je lineární model neuronové sítě pro nekontrolované učení s aplikacemi především v analýze hlavních komponent. Poprvé byl definován v roce 1989, podobá se Ojovu pravidlu svou formulací a stabilitou, s tím rozdílem, že může být aplikován na sítě s více výstupy.
GHA kombinuje Ojovo pravidlo s Gram-Schmidtovým procesem a vytváří učící se pravidlo formy
kde wij definuje synaptickou hmotnost nebo sílu spojení mezi ith vstupními a jth výstupními neurony, x a y jsou vstupní a výstupní vektory, respektive, a η je parametr rychlosti učení.
V maticové formě lze napsat Ojovo pravidlo
a Gram-Schmidtův algoritmus je
kde w(t) je libovolná matice, v tomto případě představující synaptické váhy, Q = η x xT je autokorelační matice, jednoduše vnější součin vstupů, diag je funkce, která diagonalizuje matici, a nižší je funkce, která nastavuje všechny maticové prvky na nebo nad diagonálou rovnou 0. Můžeme kombinovat tyto rovnice, abychom získali naše původní pravidlo v maticové formě,
kde funkce LT nastavuje všechny maticové prvky nad úhlopříčkou rovnou 0, a všimněte si, že náš výstup y(t) = w(t) x(t) je lineární neuron.
GHA se používá v aplikacích, kde je nutná samoorganizující se mapa nebo kde lze použít analýzu rysů nebo základních komponent. Příkladem takových případů je umělá inteligence a zpracování řeči a obrazu.
Jeho význam vychází ze skutečnosti, že učení je jednovrstvý proces – to znamená, že synaptická váha se mění pouze v závislosti na odezvě vstupů a výstupů této vrstvy, čímž se předchází vícevrstvé závislosti spojené s algoritmem zpětného šíření. Má také jednoduchý a předvídatelný kompromis mezi rychlostí učení a přesností konvergence, jak je stanovena parametrem rychlosti učení η.