Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Книга по ЦОС в формате pdf

.pdf
Скачиваний:
220
Добавлен:
01.05.2014
Размер:
598.54 Кб
Скачать

Замечание 24.1. Автором алгоритма были предложены следу• ющие значения:

α = 0.97, γ = 0.08, µmin = 0.001, µmax = 0.01.

Существует еще один вариант этого алгоритма (c одним парамет• ром), отличающийся пересчетом µm+1 в (24.3)

µm+1 = µm + αǫmǫm+1hYm, Ym+1i

MVS LMS модифицированный LMS алгоритм с перемен• ным шагом. Для вычисления величины очередного шага использу•

ются два последних значения сигнала ошибки ǫm и ǫm−1. Пересчет вектора коэффициентов адаптивного фильтра ведется по следующей схеме

Wm+1

µm+1

pm

= Wm + µm ǫmYm,

= α µm + γ p2m, (24.4)

= β pm−1 + (1 − β) ǫmǫm−1,

где 0 < β < 1, а условия на α и γ такие же, как в (24.3).

Для этого алгоритма существует еще одна модификация для пере• счета pm в (24.4):

pm = β pm−1 + (1 − β)(ǫmǫm−1 + ǫ2m),

при этом µ0 = p0 = µmax.

25.Начальная инициализация коэффи• циентов адаптивного фильтра

Данный подход впервые опубликован в [4]. Алгоритм следующий

1. Вычисляем мгновенный спектр

 

 

 

bm = FN (

m)

 

+ 1

 

= 2

Z

Y

 

, где L

 

6 N

s

b2

и затем мгновенный спектр мощности Zm. Способами, предложенными для вычисления оценки корреляционной матрицы, получаем оценку спектра мощности Z. Заметим, что компоненты вектора Z представ• ляют собой оценки для собственных чисел корреляционной матрицы

Ryy .

71

2.Пусть σ2 – оценка дисперсии шума в канале. Образуем N – мерный вектор Υ, где

1

Υi = Zi + N σ2, i = 0, 1, . . . , N − 1.

3.Вычисляем начальные значения коэффициентов адаптивного фильтра

W0 = (w00, w10, . . . , wL0)

wk0 = FN−1(Υ)k, k = 0, 1, . . . , L.

26.Алгоритм последовательной регре• сии

Процесс адаптации здесь основан на минимизации среднего квадрата ошибки, т. е. целевой функции ζ = ζ(W ), определенной (21.2). Как было по• казано в разделе Рекурсивный метод наименьших квадратов“, для оцен• ки корреляционной матрицы Ryy используются наилучшая несмещенная оценка (21.4) или оценка с экспоненциальным окном забывания“(21.5). Те же методы (21.7) и (21.8) используются для оценки кросс-корреляционыого вектора входного и опорного сигналов.

Рассмотрим модификацию экспоненциального подхода. Положим

k

 

 

 

 

 

Xl

 

 

 

 

 

Θk = αk−lYlYlT ,

0 < α < 1.

(26.1)

=0

 

 

 

 

 

Так как

 

 

 

 

 

k

 

 

 

 

Xl

 

 

 

 

αk−l =

1 − αk+1

,

 

=0

1

 

α

 

 

 

 

 

 

то взвешенная оценка корреляционной матрицы Ryy на k-ой итерации име• ет вид

e

k

 

Xl

 

Rk =

1 − αk+1

Θk =

1 − αk+1

αk−lYlYlT .

(26.2)

 

1 α

1 α

=0

 

 

 

 

 

 

Замечание 26.1. Очевидно, что оценка (26.2) является точной, на• пример, когда наблюдаемый сигнал Yk постоянен для k > 0.

Впредельном случае, когда α стремится к 1 оценка (26.2) совпадает

снаилучшей несмещенной оценка (21.4).

72

Аналогично оценке корреляционной матрицы Ryy (26.2) можно постро• ить оценку для кросс-корреляционого вектора входного и опорного сигна• лов ryx

 

k

 

 

Xl

(26.3)

rk = 1 − αk+1

αk−lxlYl.

e

 

 

 

1 α

=0

 

 

 

 

e

Имея оценки Rk и rek перейдем к выдоду алгоритма последовательной регресси.

Заменим в уравнении (21.10) для стационарной точки функции ζ(W ) значения корреляционной матрицы Ryy и кросс-корреляционого вектора входного и опорного сигналов ryx их оценками (26.2) и (26.3). Будем счи•

e

тать, что по оценкам Rk и rek вычисляется вектор Wk+1

R W

 

 

r .

 

(26.4)

ek k+1 =

e

 

 

k

 

 

Подставляя (26.2) и (26.3) в (26.4) имеем

 

 

 

 

k

 

 

 

 

 

Xl

 

 

 

ΘkWk+1 =

 

αk−lxlYl.

(26.5)

 

=0

 

 

 

 

Заметим, что из (26.1) следует, что

 

 

 

 

 

Θ = α Θ

k−1

+ Y

Y T .

(26.6)

k

 

k

k

 

Используя (26.6) и (26.5) преобразуем (26.5)

Xk−1

ΘkWk+1 = α α(k−1)−lxlYl + xkYk = α Θk−1Wk + xkYk =

l=0

(26.7)

= (Θk − YkYkT )Wk + xkYk.

Подставляя в (26.7) выражение (20.1) для опорного сигнала xk имеем

ΘkWk+1 = (Θk − YkYkT )Wk + (ǫk + YkT Wk)Yk = ΘkWk + ǫkYk.

(26.8)

Умножим обе части последнего равенства9 на Θk−1. Тогда

 

Wk+1 = Wk + ǫk Θk−1Yk.

(26.9)

Последнее равенство и представляет собой алгоритм последовательной ре• гресии.

9считаем, что Θk невырожденная матрица. Для того, чтобы Θk стала вырожденной необходимо существование вектора X ортогонального всей последовательности векто• ров Yl , l = 0, 1, . . . , k

73

Для работы алгоритма необходимо иметь возможность эффективно на каждой итерации вычислять Θk 1. Получим рекуррентное выражение для Θk 1. Умножим обе части (26.6) слева на Θk 1, а справа на Θk−11. Имеем

 

 

Θ−1

 

= α Θ−1 + Θ−1YkYkT

Θ−1

.

 

 

 

 

k−1

 

 

k

k

 

k−1

 

 

 

Умножая последнее равенство на на Yk получаем

 

 

 

Θ−1

Yk = α Θ−1Yk + Θ−1YkYkT

Θ−1

Yk = Θ−1Yk(α + YkT Θ−1

Yk).

k−1

k

k

 

 

 

 

k−1

k

 

 

 

k−1

 

Тогда умножая последнее равенство на YkT Θ−1

 

имеем

 

 

 

Θ−1

YkYkT Θ−1

k−1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k−1

 

 

 

k−1

= Θ−1YkYkT Θ−1

 

.

 

 

 

α + Y T Θ−1

 

Yk

k

 

k−1

 

 

 

 

 

 

k

k−1

 

 

 

 

 

 

 

 

(26.10)

(26.11)

(26.12)

Выражая из (26.10) правую часть (26.12) получаем

Θk−1YkYkT Θk11 = Θk11 − α Θk−1.

 

Тогда (26.12) преобразуется к виду

 

 

α + YkT k−11Yk)

#

 

 

α

"

 

 

 

 

1

 

 

 

 

 

−1

Yk)(Θ−1

Yk)T

Θ−1

=

 

Θ−1

 

 

 

 

k−1

k−1

 

 

k

 

 

 

k

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вводя обозначение

 

 

 

 

Sk = Θk11Yk

 

 

 

 

 

 

 

 

 

последнее выражение преобразуем к виду

 

 

 

 

 

α

 

 

 

 

α + YkT Sk

 

 

Θ−1

=

1

 

Θ−1

 

 

 

SkSkT

.

 

 

k

 

 

 

 

k

 

1

 

 

 

 

 

 

(26.13)

(26.14)

Таким образом, получены окончательные формулы для алгоритма по• следовательной регрессии

S = Θk11Yk,

 

 

 

γ = α + hYk, Si,

γSST

,

Θk−1 = α Θk11

1

 

1

 

(26.15)

Wk+1 = Wk + ǫk Θk 1Yk.

Замечание 26.2. Заметим, что в формулах (26.15) при переходе от одной итерации к другой нет необходимости запоминать вектор S и величину γ, поэтому индекс итерации k у них опущен.

27.Фильтр Калмана

74

Список литературы

[1]Goertzel G. An algorithm for the evaluationof finite trigonometric series

//Amer. Math Monthly. 1958. Vol.65.P.34-35

[2]Cooly J. W. Tukey J. W. An algorithm for the machine calculation of complex Fourier series // Math. Comput. 1965. Vol.19 No.90. P.297-301

[3]Залманзон Л. А. Преобразования Фурье, Уолша, Хаара и их примене• ние в управлении, связи и других областях. М.:Наука, 1989.

[4]Qureshi S. U. H. Fast start-up equalization with periodic training sequences

//IEEE Trans. Inform. Theory, vol.IT-23, pp. 553-556, September

[5]Dudlye H. Remaking Speech // J.Acoust. Soc. Am. Vol.11, 167-169.

[6]Л. Рабинер, Б. Гоулд. Теория и практика цифровой обработки сигна• лов. // М.,Мир, 1978.

[7]Б. Уидроу, С. Стирнз. Адаптивная обработка сигналов. // М.,Радио и связь, 1989.

Оглавление

1. Пространство сигналов . . . . . . . . . . . . . . . . . . . . . . 1

2.Дискретное преобразование Фурье . . . . . . . . . . . . . . . . 2

3.Теорема об отсчетах . . . . . . . . . . . . . . . . . . . . . . . . 6

4.Простейшие свойства ДПФ . . . . . . . . . . . . . . . . . . . . 7

5.Циклическая свертка . . . . . . . . . . . . . . . . . . . . . . . . 9

6.

Линейная свертка . . .

. . . . . . . . . . . . . . . . . . . . . .

12

7.

Циклическая корреляция

. . . . . . . . . . . . . . . . . . . . .

13

8.Оптимальные пары сигнал-фильтр . . . . . . . . . . . . . . . . 17

9.Алгоритм Витерби . . . . . . . . . . . . . . . . . . . . . . . . . 21

10.

Алгоритм Герцеля . . . . . . . . . . . . . . . . . . . . . .

. . .

26

11.

Рекуррентная последовательность ортогональных базисов

. .

28

12.Быстрое преобразование Фурье . . . . . . . . . . . . . . . . . . 31

13.Вейвлетные базисы . . . . . . . . . . . . . . . . . . . . . . . . . 35

14.Вейвлетный базис Хаара. Быстрое преобразование Хаара . . . 38

15.Прореживание по частоте . . . . . . . . . . . . . . . . . . . . . 41

16.Базисы Уолша. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

75

17.

Быстрое преобразование Уолша . .

. . . . . . . . . . . . . . .

47

18.

Элементарная теория вероятностей

. . . . . . . . . . . . . . .

48

18.1.Основные определения . . . . . . . . . . . . . . . . . . . 48

18.2.Условные вероятности и формула Байеса . . . . . . . . 50

18.3.Случайные величины. Математическое ожидание и дис• персия . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

18.4. Схема Бернулли

. . . . . . . . . . . . . . . . . . . . . .

54

19. Вокодеры . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

54

20.Адаптивный линейный сумматор . . . . . . . . . . . . . . . . . 57

21.Рекурсивный метод наименьших

квадратов (RLS) . . . . . . . . . . . . . . . . . . . . . . . . . . 59

22.Метод наискорейшего спуска . . . . . . . . . . . . . . . . . . . 65

23.Метод минимальной среднеквадратичной ошибки (LMS) . . . 68

24.Модификации классического LMS алгоритма . . . . . . . . . . 70

25.Начальная инициализация коэффициентов адаптивного филь• тра . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

26.Алгоритм последовательной регресии . . . . . . . . . . . . . . 72

27.Фильтр Калмана . . . . . . . . . . . . . . . . . . . . . . . . . . 74

76