SLMS se od LMS liší použitím funkce v součinu (v gradientu) v rovnici pro úpravu vah. Účelem je z toho plynoucí zjednodušení (vyhneme se násobení). Má to ale bohužel většinou negativní dopad na konvergenční chování. Podle toho na jaký člen v součinu se funkce aplikuje se jednotlivé typy SLMS nazývají sign-data ( ), sign-error ( ) a sign-sign ( ).
Cvičení 7.4: Napište skript v Matlabu implementující sign-error SLMS. Konvergenční konstantu volte mu = 0.09/((M+1)*rxx0).
Porovnejte uvedený sign-error SLMS s LMS ( ). Buzení volte v obou případech shodně jako barevné viz. cvičení 7.1 Rovněž rozptyl aditivního rušení volte shodně .
Vyneste si průběh MSE na čase. Sledujte rozdíly v přechodové fázi a ustálení.
|
Všiměte si, že křivky MSE se dotýkají v okolí , kde zhruba . Z hlediska tohoto bodu jsou tedy oba algoritmy rovnocené (oba dosáhnou za 150 iterací). Jinak je ale křivka pro SLMS nad křivkou pro LMS. SLMS je tedy horší jak v přechodové fázi, tak v ustálení.