SLMS se od LMS liší použitím funkce
v součinu
(v gradientu) v rovnici pro úpravu vah.
Účelem je z toho plynoucí zjednodušení (vyhneme se násobení).
Má to ale bohužel většinou negativní dopad na konvergenční chování.
Podle toho na jaký člen v součinu se funkce
aplikuje
se jednotlivé typy SLMS nazývají sign-data (
),
sign-error (
) a sign-sign
(
).
Cvičení 7.4: Napište skript v Matlabu implementující sign-error SLMS.
Konvergenční konstantu volte mu = 0.09/((M+1)*rxx0).
Porovnejte uvedený sign-error SLMS
s LMS (
).
Buzení volte v obou případech shodně jako barevné viz. cvičení 7.1
Rovněž rozptyl aditivního rušení
volte shodně
.
Vyneste si průběh MSE na čase. Sledujte rozdíly v přechodové fázi a ustálení.
![]() |
Všiměte si, že křivky MSE se dotýkají v okolí , kde zhruba
.
Z hlediska tohoto bodu jsou tedy oba algoritmy rovnocené
(oba dosáhnou
za 150 iterací).
Jinak je ale křivka pro SLMS nad křivkou pro LMS. SLMS je tedy
horší jak v přechodové fázi, tak v ustálení.