next up previous
Next: 7.4 NLMS Up: 7. Cvičení 7: Konvergenční Previous: 7.2 RLS

7.3 SLMS

SLMS se od LMS liší použitím funkce $ \mathrm{sign}$ v součinu $ e[n] \mathbf{x}[n]$ (v gradientu) v rovnici pro úpravu vah. Účelem je z toho plynoucí zjednodušení (vyhneme se násobení). Má to ale bohužel většinou negativní dopad na konvergenční chování. Podle toho na jaký člen v součinu se funkce $ \mathrm{sign}$ aplikuje se jednotlivé typy SLMS nazývají sign-data ( $ e[n]\mathrm{sign}(\mathbf{x}[n])$), sign-error ( $ \mathrm{sign}(e[n])\mathbf{x}[n]$) a sign-sign ( $ \mathrm{sign}(e[n])\mathrm{sign}(\mathbf{x}[n])$).


Cvičení 7.4: Napište skript v Matlabu implementující sign-error SLMS. Konvergenční konstantu $ \mu$ volte mu = 0.09/((M+1)*rxx0).

Porovnejte uvedený sign-error SLMS s LMS ( $ \mathcal{M}=0.1$). Buzení volte v obou případech shodně jako barevné viz. cvičení 7.1 Rovněž rozptyl aditivního rušení $ u[n]$ volte shodně $ \sigma _u^2 = 0.3^2$.

Vyneste si průběh MSE na čase. Sledujte rozdíly v přechodové fázi a ustálení.


Figure 7.6: Porovnání průběhů MSE (všiměte si přechodové fáze) a trajektorí váhového vektoru ve váhovém prostoru pro SLMS a LMS ($ R = 5000$)
\includegraphics[width=10cm]{ada7/obrmat/fig6.ps}
Figure 7.7: Porovnání průběhů MSE pro SLMS a LMS v ustálené fázi ($ R = 5000$)
\includegraphics[width=10cm]{ada7/obrmat/fig7.ps}

Všiměte si, že křivky MSE se dotýkají v okolí $ n=150$, kde zhruba $ \mathrm{MSE}/\sigma_u^2 = 1.4$. Z hlediska tohoto bodu jsou tedy oba algoritmy rovnocené (oba dosáhnou $ \mathrm{MSE} = 1.4\sigma_u^2$ za 150 iterací). Jinak je ale křivka pro SLMS nad křivkou pro LMS. SLMS je tedy horší jak v přechodové fázi, tak v ustálení.


next up previous
Next: 7.4 NLMS Up: 7. Cvičení 7: Konvergenční Previous: 7.2 RLS
Mirek 2006-12-12