Рекуррентное оценивание и адаптивная фильтрация

Автор(ы):Фомин В. Н.
17.06.2010
Год изд.:1984
Описание: Книга посвящена последовательному изложению ряда разделов адаптивной фильтрации в условиях параметрической неопределенности о помехо-сигнальной обстановке. Материал книги группируется вокруг вопросов рекуррентного оценивания, при этом обсуждаются как хорошо известные схемы оценивания [метод стохастической аппроксимации, метод наименьших квадратов, метод максимума правдоподобия], так и относительно новые схемы [минимаксное оценивание, метод рекуррентных целевых неравенств, робастное оценивание]. Значительное внимание уделено методам синтеза оптимальных фильтров [фильтр Винера-Колмогорова, фильтр Калмана-Бьюси]. Принятый в книге подход применим к многочисленным задачам оптимального обнаружения, обучения распознаванию образов, идентификации динамических объектов. Книга предназначена для инженеров и научных работников в области теоретической и прикладной кибернетики. Она может быть полезна студентам старших курсов и аспирантам, специализирующимся по математической и технической кибернетике.
Оглавление:
Рекуррентное оценивание и адаптивная фильтрация — обложка книги.
Предисловие [7]
Введение [9]
ГЛАВА 1. ЗАДАЧИ И МЕТОДЫ ТЕОРИИ ОЦЕНИВАНИЯ
  § 1.1. Примеры задач оценивания [14]
    1.1.1. Оценивание величины постоянного сигнала, наблюдаемого на фоне помехи [14]
    1.1.2. Задача оптимального оценивания параметров сигнала [15]
    1.1.3. Задача обнаружения сигнала [15]
    1.1.4. Задача о разладке [16]
    1.1.5. Аппроксимация функции с помощью линейных комбинаций известных функций [16]
    1.1.6. Модель обучаемой системы [17]
    1.1.7. Задача самообучения [21]
    1.1.8. Идентификация динамического объекта [24]
    1.1.9. Синтез адаптивного управления динамическим объектом [25]
    1.1.10. Отслеживание дрейфа экстремума нестационарного функционала [25]
  § 1.2. Байесовские критерии [26]
    1.2.1. Функционал среднего риска [26]
    1.2.2. Автоматическая классификация изображений [27]
    1.2.3. Автоматическая классификация при неизвестных апостериорных вероятностях [29]
    1.2.4. Оптимальное обнаружение сигнала [31]
  § 1.3. Элементы регрессионного анализа [36]
    1.3.1. Наилучшая аппроксимация одной случайной величины с помощью другой [36]
    1.3.2. Линейная регрессионная модель [38]
    1.3.3. Регрессия в случае гауссовских случайных величин [41]
    1.3.4. Оценивание по конечному числу наблюдений [42]
  § 1.4. Элементы теории оценивания [45]
    1.4.1. Байесовские оценки [45]
    1.4.2. Оптимальные оценки в симметричном случае [48]
    1.4.3. Метод максимума правдоподобия [48]
    1.4.4. Достижимая точность оценивания [50]
    1.4.5. Метод эмпирического функционала [53]
    1.4.6. Метод стохастической аппроксимации [55]
  § 1.П. Приложение: некоторые сведения о сходимости случайных величин [55]
    1.П.1. Последовательности случайных величин, близкие к супермартингалам [66]
    1.П.2. Закон больших чисел для независимых случайных величин [66]
  § 1.Д. Доказательства лемм и теорем [57]
    1.Д.1. Доказательство леммы 1.2.1 [67]
    1.Д.2. Доказательство леммы 1.3.1 [68]
    1.Д.З. Доказательство леммы 1.3.2 [68]
    1.Д.4. Доказательство леммы 1.3.3 [69]
    1.Д.5. Доказательство леммы 1.4.1 [69]
    1.Д.6. Доказательство леммы 1.4.2 [70]
    1.Д.7. Доказательство леммы 1.4.3 [70]
    1.Д.8. Доказательство теоремы 1.4.1 [71]
    1.Д.9. Доказательство теоремы 1.4.2 [72]
    1.Д.10. Доказательство леммы 1.4.4 [72]
    1.Д.11. Доказательство теоремы 1.4.3 [73]
    1.Д.12. Доказательство теоремы 1.4.4 [73]
    1.Д.13. Доказательство теоремы 1.4.5 [74]
ГЛАВА 2. РЕКУРРЕНТНОЕ ОЦЕНИВАНИЕ В НЕКОТОРЫХ ЗАДАЧАХ ОБУЧЕНИЯ, ОБНАРУЖЕНИЯ И ИДЕНТИФИКАЦИИ
  § 2.1. Стохастические аналоги конечно-сходящихся алгоритмов в задаче обучения [77]
    2.1.1. Постановка задачи обучения распознаванию образов [77]
    2.1.2. Задача обучения в детерминистской постановке [78]
    2.1.3. Метод рекуррентных целевых неравенств [79]
    2.1.4. Среднее время сходимости конечно сходящихся алгоритмов [81]
    2.1.5. Алгоритм случайного поиска с линейной тактикой. Гомеостат Эшби [83]
    2.1.6. Марковские цепи, связанные с конечно-сходящимися процедурами [84]
    2.1.7. Алгоритм вычисления среднего времени сходимости и среднего числа коррекций [87]
    2.1.8. Примеры конечно-сходящихся алгоритмов [89]
  § 2.2. Процедура стохастической аппроксимации в задаче самообучения [94]
    2.2.1. Общие условия сходимости процедуры самообучения [95]
    2.2.2. Поглощающие множества [96]
    2.2.3. Содержательные свойства поглощающих множеств [97]
    2.2.4. Свойства процедуры самообучения при наличии поглощающих множеств [99]
  § 2.3. Рекуррентное байесовское оценивание в задаче обнаружения марковских сигналов [100]
    2.3.1. Синтез оптимальных систем обнаружения марковских сигналов на фоне помехи с независимыми значениями [100]
    2.3.2. Рекуррентный алгоритм вычисления отношения правдоподобия [102]
    2.3.3. Предельное свойство байесовского обнаружителя [104]
    2.3.4. Оптимальное обнаружение при постоянных параметрах сигнала [107]
    2.3.5. Марковский гауссовский сигнал [111]
  § 2.4. Метод эмпирического функционала в задаче идентификации динамического объекта, подверженного действию коррелированных возмущений [113]
    2.4.1. Постановка задачи идентификации [113]
    2.4.2. Эмпирический функционал и формирование оценок [114]
    2.4.3. Идентифицируемость объекта и предельная невырожденность входных воздействий [116]
    2.4.4. Состоятельность оценок, получаемых методом эмпирического функционала [118]
    2.4.5. Обсуждение решения задачи идентификации методом эмпирического функционала [118]
  § 2.5. Робастное оценивание параметров полезного сигнала [123]
    2.5.1. Общее понятие о робастном оценивании [123]
    2.5.2. Уточнение схемы робастного оценивания параметра полезного сигнала [126]
    2.5.3. Критерий выбора наименее благоприятного распределения [128]
    2.5.4. Класс симметричных распределений с ограниченной дисперсией [129]
    2.5.5. Линейная зависимость полезного сигнала от параметра [130]
    2.5.6. Учет априорной информации о распределении параметра полезного сигнала [132]
    2.5.7. Описание некоторых классов робастности [134]
    2.5.8. Рекуррентные процедуры построения робастных оценок [137]
  § 2.П. Приложение: некоторые сведения о марковских процессах [147]
  § 2.Д. Доказательства лемм и теорем [148]
    2.Д.1. Доказательство леммы 2.1.1 [148]
    2.Д.2. Доказательство теоремы 2.1.1 [148]
    2.Д.3. Доказательство теоремы 2.1.2 [148]
    2.Д.4. Доказательство теоремы 2.1.3 [149]
    2.Д.5. Доказательство теоремы 2.2.1 [150]
    2.Д.6. Доказательство леммы 2.2.1 [152]
    2.Д.7. Доказательство теоремы 2.2.2 [152]
    2.Д.8. Доказательство леммы 2.2.2 [153]
    2.Д.9. Доказательство леммы 2.3.1 [153]
    2.Д.10. Доказательство теоремы 2.3.1 [154]
    2.Д.11. Доказательство леммы 2.3.2 [154]
    2.Д.12. Доказательство теоремы 2.3.2 [155]
    2.Д.13. Доказательство теоремы 2.3.3 [156]
    2.Д.14. Доказательство теоремы 2.4.1 [158]
    2.Д.15. Доказательство леммы 2.4.1 [161]
    2.Д.16. Доказательство теоремы 2.5.1 [161]
    2.Д.17. Доказательство теоремы 2.5.2 [162]
    2.Д.18. Доказательство леммы 2.5.1 [163]
ГЛАВА 3. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ
  § 3.1. Фильтр Винера-Колмогорова [164]
    3.1.1. Постановка задачи [164]
    3.1.2. Уравнение Винера-Хопфа [165]
    3.1.3. Синтез оптимального фильтра [166]
    3.1.4. Интерпретация действия оптимального устойчивого фильтра [168]
    3.1.5. Сводка формул [169]
    3.1.6. Пример: оценивание состояния устойчивого скалярного объекта [169]
    3.1.7. Пример: оптимальный прогноз значения авторегрессионного процесса [173]
    3.1.8. Синтез оптимальных следящих систем [175]
    3.1.9. Устойчивый линейный фильтр, максимизирующий отношение сигнал/шум [177]
  § 3.2. Фильтр Калмана-Бьюси [179]
    3.2.1. Постановка задачи [179]
    3.2.2. Нестационарное уравнение Винера-Хопфа [180]
    3.2.3. Каноническая форма оптимального фильтра [180]
    3.2.4. Пример: оценивание состояния скалярного объекта [182]
    3.2.5. Устойчивость фильтра Калмана-Бьюси [183]
    3.2.6. Фильтр Калмана-Бьюси в стационарном случае [185]
    3.2.7. Фильтр Калмана-Бьюси в задаче отслеживания дрейфа параметров динамического объекта [186]
  § 3.3. Минимаксная фильтрация [190]
    3.3.1. Постановка задачи [190]
    3.3.2. Двойственность задачи оценивания и оптимального управления [191]
    3.3.3. Линейность оптимальной стратегии управления [192]
    3.3.4. Рекуррентное соотношение для оптимальной оценки [192]
    3.3.5. Оценивание параметров полезного сигнала на фоне нецентрированной помехи [194]
  § 3.П. Приложение: некоторые сведения о стационарных процессах [196]
    3.П.1. Пример: процесс с кусочно-постоянной структурной функцией [197]
    3.П.2. Пример: белошумный процесс [198]
    3.П.3. Пример: процесс с дробно-рациональной спектральной плотностью [198]
    3.П.4. Дискретное преобразование Фурье [199]
  § 3.Д. Доказательства лемм и теорем [200]
    3.Д.1. Доказательство теоремы 3.1.1 [200]
    3.Д.2. Доказательство леммы 3.1.1 [201]
    3.Д.3. Доказательство теоремы 3.2.1 [201]
    3.Д.4. Доказательство теоремы 3.2.2 [202]
    3.Д.5. Доказательство теоремы 3.2.3 [204]
    3.Д.6. Доказательство теоремы 3.2.4 [204]
    3.Д.7. Доказательство теоремы 3.3.1 [206]
    3.Д.8. Доказательство леммы 3.3.1 [207]
    3.Д.9. Доказательство теоремы 3.3.2 [208]
    3.Д.10. Доказательство леммы 3.3.2 [209]
ГЛABA 4. НЕКОТОРЫЕ ЗАДАЧИ АДАПТАЦИИ
  § 4.1. Адаптивные системы [210]
    4.1.1. Модели взаимодействующих объекта и среды [210]
    4.1.2. Стратегии настройки параметров и цель функционирования объекта [211]
    4.1.3. Определение понятий адаптивной стратегии и адаптивной системы [213]
    4.1.4. Классификация целей функционирования объекта [213]
    4.1.5. Замечания [214]
  § 4.2. Примеры адаптивных систем [215]
    4.2.1. Адаптивный классификатор [215]
    4.2.2. Адаптивные алгоритмы оценивания [218]
    4.2.3. Адаптивное прогнозирование [219]
    4.2.4. Адаптивные системы управления [221]
  § 4.3. Синтез адаптивных фильтров [225]
    4.3.1. Уточнение постановки задачи об адаптивной фильтрации [225]
    4.3.2. Схемы оценивания неизвестных параметров [227]
    4.3.3. Идентификация авторегрессионного процесса при белошумной помехе [236]
    4.3.4. Расширенный МНК в задаче идентификации [232]
    4.3.5. Упрощенная процедура расширенного МНК в задаче идентификации [233]
    4.3.6. Процедура стохастической аппроксимации в задаче идентификации [234]
    4.3.7. Адаптивная фильтрация [241]
  § 4.Д. Доказательства лемм и теорем [244]
    4.Д.1. Доказательство леммы 4.3.1 [244]
    4.Д.2. Доказательство леммы 4.3.2 [245]
    4.Д.3. Доказательство теоремы 4.3.1 [247]
    4.Д.4. Доказательство теоремы 4.3.2 [257]
    4.Д.5. Доказательство леммы 4.3.3 [261]
    4.Д.6. Доказательство теоремы 4.3.3 [262]
Примечания и литературные указания [267]
Литература [277]
Список основных сокращений и обозначений [286]
Формат: djvu
Размер:6053697 байт
Язык:РУС
Рейтинг: 306 Рейтинг
Открыть: