Рекуррентное оценивание и адаптивная фильтрация
Автор(ы): | Фомин В. Н.
17.06.2010
|
Год изд.: | 1984 |
Описание: | Книга посвящена последовательному изложению ряда разделов адаптивной фильтрации в условиях параметрической неопределенности о помехо-сигнальной обстановке. Материал книги группируется вокруг вопросов рекуррентного оценивания, при этом обсуждаются как хорошо известные схемы оценивания [метод стохастической аппроксимации, метод наименьших квадратов, метод максимума правдоподобия], так и относительно новые схемы [минимаксное оценивание, метод рекуррентных целевых неравенств, робастное оценивание]. Значительное внимание уделено методам синтеза оптимальных фильтров [фильтр Винера-Колмогорова, фильтр Калмана-Бьюси]. Принятый в книге подход применим к многочисленным задачам оптимального обнаружения, обучения распознаванию образов, идентификации динамических объектов. Книга предназначена для инженеров и научных работников в области теоретической и прикладной кибернетики. Она может быть полезна студентам старших курсов и аспирантам, специализирующимся по математической и технической кибернетике. |
Оглавление: |
Обложка книги.
Предисловие [7]Введение [9] ГЛАВА 1. ЗАДАЧИ И МЕТОДЫ ТЕОРИИ ОЦЕНИВАНИЯ § 1.1. Примеры задач оценивания [14] 1.1.1. Оценивание величины постоянного сигнала, наблюдаемого на фоне помехи [14] 1.1.2. Задача оптимального оценивания параметров сигнала [15] 1.1.3. Задача обнаружения сигнала [15] 1.1.4. Задача о разладке [16] 1.1.5. Аппроксимация функции с помощью линейных комбинаций известных функций [16] 1.1.6. Модель обучаемой системы [17] 1.1.7. Задача самообучения [21] 1.1.8. Идентификация динамического объекта [24] 1.1.9. Синтез адаптивного управления динамическим объектом [25] 1.1.10. Отслеживание дрейфа экстремума нестационарного функционала [25] § 1.2. Байесовские критерии [26] 1.2.1. Функционал среднего риска [26] 1.2.2. Автоматическая классификация изображений [27] 1.2.3. Автоматическая классификация при неизвестных апостериорных вероятностях [29] 1.2.4. Оптимальное обнаружение сигнала [31] § 1.3. Элементы регрессионного анализа [36] 1.3.1. Наилучшая аппроксимация одной случайной величины с помощью другой [36] 1.3.2. Линейная регрессионная модель [38] 1.3.3. Регрессия в случае гауссовских случайных величин [41] 1.3.4. Оценивание по конечному числу наблюдений [42] § 1.4. Элементы теории оценивания [45] 1.4.1. Байесовские оценки [45] 1.4.2. Оптимальные оценки в симметричном случае [48] 1.4.3. Метод максимума правдоподобия [48] 1.4.4. Достижимая точность оценивания [50] 1.4.5. Метод эмпирического функционала [53] 1.4.6. Метод стохастической аппроксимации [55] § 1.П. Приложение: некоторые сведения о сходимости случайных величин [55] 1.П.1. Последовательности случайных величин, близкие к супермартингалам [66] 1.П.2. Закон больших чисел для независимых случайных величин [66] § 1.Д. Доказательства лемм и теорем [57] 1.Д.1. Доказательство леммы 1.2.1 [67] 1.Д.2. Доказательство леммы 1.3.1 [68] 1.Д.З. Доказательство леммы 1.3.2 [68] 1.Д.4. Доказательство леммы 1.3.3 [69] 1.Д.5. Доказательство леммы 1.4.1 [69] 1.Д.6. Доказательство леммы 1.4.2 [70] 1.Д.7. Доказательство леммы 1.4.3 [70] 1.Д.8. Доказательство теоремы 1.4.1 [71] 1.Д.9. Доказательство теоремы 1.4.2 [72] 1.Д.10. Доказательство леммы 1.4.4 [72] 1.Д.11. Доказательство теоремы 1.4.3 [73] 1.Д.12. Доказательство теоремы 1.4.4 [73] 1.Д.13. Доказательство теоремы 1.4.5 [74] ГЛАВА 2. РЕКУРРЕНТНОЕ ОЦЕНИВАНИЕ В НЕКОТОРЫХ ЗАДАЧАХ ОБУЧЕНИЯ, ОБНАРУЖЕНИЯ И ИДЕНТИФИКАЦИИ § 2.1. Стохастические аналоги конечно-сходящихся алгоритмов в задаче обучения [77] 2.1.1. Постановка задачи обучения распознаванию образов [77] 2.1.2. Задача обучения в детерминистской постановке [78] 2.1.3. Метод рекуррентных целевых неравенств [79] 2.1.4. Среднее время сходимости конечно сходящихся алгоритмов [81] 2.1.5. Алгоритм случайного поиска с линейной тактикой. Гомеостат Эшби [83] 2.1.6. Марковские цепи, связанные с конечно-сходящимися процедурами [84] 2.1.7. Алгоритм вычисления среднего времени сходимости и среднего числа коррекций [87] 2.1.8. Примеры конечно-сходящихся алгоритмов [89] § 2.2. Процедура стохастической аппроксимации в задаче самообучения [94] 2.2.1. Общие условия сходимости процедуры самообучения [95] 2.2.2. Поглощающие множества [96] 2.2.3. Содержательные свойства поглощающих множеств [97] 2.2.4. Свойства процедуры самообучения при наличии поглощающих множеств [99] § 2.3. Рекуррентное байесовское оценивание в задаче обнаружения марковских сигналов [100] 2.3.1. Синтез оптимальных систем обнаружения марковских сигналов на фоне помехи с независимыми значениями [100] 2.3.2. Рекуррентный алгоритм вычисления отношения правдоподобия [102] 2.3.3. Предельное свойство байесовского обнаружителя [104] 2.3.4. Оптимальное обнаружение при постоянных параметрах сигнала [107] 2.3.5. Марковский гауссовский сигнал [111] § 2.4. Метод эмпирического функционала в задаче идентификации динамического объекта, подверженного действию коррелированных возмущений [113] 2.4.1. Постановка задачи идентификации [113] 2.4.2. Эмпирический функционал и формирование оценок [114] 2.4.3. Идентифицируемость объекта и предельная невырожденность входных воздействий [116] 2.4.4. Состоятельность оценок, получаемых методом эмпирического функционала [118] 2.4.5. Обсуждение решения задачи идентификации методом эмпирического функционала [118] § 2.5. Робастное оценивание параметров полезного сигнала [123] 2.5.1. Общее понятие о робастном оценивании [123] 2.5.2. Уточнение схемы робастного оценивания параметра полезного сигнала [126] 2.5.3. Критерий выбора наименее благоприятного распределения [128] 2.5.4. Класс симметричных распределений с ограниченной дисперсией [129] 2.5.5. Линейная зависимость полезного сигнала от параметра [130] 2.5.6. Учет априорной информации о распределении параметра полезного сигнала [132] 2.5.7. Описание некоторых классов робастности [134] 2.5.8. Рекуррентные процедуры построения робастных оценок [137] § 2.П. Приложение: некоторые сведения о марковских процессах [147] § 2.Д. Доказательства лемм и теорем [148] 2.Д.1. Доказательство леммы 2.1.1 [148] 2.Д.2. Доказательство теоремы 2.1.1 [148] 2.Д.3. Доказательство теоремы 2.1.2 [148] 2.Д.4. Доказательство теоремы 2.1.3 [149] 2.Д.5. Доказательство теоремы 2.2.1 [150] 2.Д.6. Доказательство леммы 2.2.1 [152] 2.Д.7. Доказательство теоремы 2.2.2 [152] 2.Д.8. Доказательство леммы 2.2.2 [153] 2.Д.9. Доказательство леммы 2.3.1 [153] 2.Д.10. Доказательство теоремы 2.3.1 [154] 2.Д.11. Доказательство леммы 2.3.2 [154] 2.Д.12. Доказательство теоремы 2.3.2 [155] 2.Д.13. Доказательство теоремы 2.3.3 [156] 2.Д.14. Доказательство теоремы 2.4.1 [158] 2.Д.15. Доказательство леммы 2.4.1 [161] 2.Д.16. Доказательство теоремы 2.5.1 [161] 2.Д.17. Доказательство теоремы 2.5.2 [162] 2.Д.18. Доказательство леммы 2.5.1 [163] ГЛАВА 3. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ § 3.1. Фильтр Винера-Колмогорова [164] 3.1.1. Постановка задачи [164] 3.1.2. Уравнение Винера-Хопфа [165] 3.1.3. Синтез оптимального фильтра [166] 3.1.4. Интерпретация действия оптимального устойчивого фильтра [168] 3.1.5. Сводка формул [169] 3.1.6. Пример: оценивание состояния устойчивого скалярного объекта [169] 3.1.7. Пример: оптимальный прогноз значения авторегрессионного процесса [173] 3.1.8. Синтез оптимальных следящих систем [175] 3.1.9. Устойчивый линейный фильтр, максимизирующий отношение сигнал/шум [177] § 3.2. Фильтр Калмана-Бьюси [179] 3.2.1. Постановка задачи [179] 3.2.2. Нестационарное уравнение Винера-Хопфа [180] 3.2.3. Каноническая форма оптимального фильтра [180] 3.2.4. Пример: оценивание состояния скалярного объекта [182] 3.2.5. Устойчивость фильтра Калмана-Бьюси [183] 3.2.6. Фильтр Калмана-Бьюси в стационарном случае [185] 3.2.7. Фильтр Калмана-Бьюси в задаче отслеживания дрейфа параметров динамического объекта [186] § 3.3. Минимаксная фильтрация [190] 3.3.1. Постановка задачи [190] 3.3.2. Двойственность задачи оценивания и оптимального управления [191] 3.3.3. Линейность оптимальной стратегии управления [192] 3.3.4. Рекуррентное соотношение для оптимальной оценки [192] 3.3.5. Оценивание параметров полезного сигнала на фоне нецентрированной помехи [194] § 3.П. Приложение: некоторые сведения о стационарных процессах [196] 3.П.1. Пример: процесс с кусочно-постоянной структурной функцией [197] 3.П.2. Пример: белошумный процесс [198] 3.П.3. Пример: процесс с дробно-рациональной спектральной плотностью [198] 3.П.4. Дискретное преобразование Фурье [199] § 3.Д. Доказательства лемм и теорем [200] 3.Д.1. Доказательство теоремы 3.1.1 [200] 3.Д.2. Доказательство леммы 3.1.1 [201] 3.Д.3. Доказательство теоремы 3.2.1 [201] 3.Д.4. Доказательство теоремы 3.2.2 [202] 3.Д.5. Доказательство теоремы 3.2.3 [204] 3.Д.6. Доказательство теоремы 3.2.4 [204] 3.Д.7. Доказательство теоремы 3.3.1 [206] 3.Д.8. Доказательство леммы 3.3.1 [207] 3.Д.9. Доказательство теоремы 3.3.2 [208] 3.Д.10. Доказательство леммы 3.3.2 [209] ГЛABA 4. НЕКОТОРЫЕ ЗАДАЧИ АДАПТАЦИИ § 4.1. Адаптивные системы [210] 4.1.1. Модели взаимодействующих объекта и среды [210] 4.1.2. Стратегии настройки параметров и цель функционирования объекта [211] 4.1.3. Определение понятий адаптивной стратегии и адаптивной системы [213] 4.1.4. Классификация целей функционирования объекта [213] 4.1.5. Замечания [214] § 4.2. Примеры адаптивных систем [215] 4.2.1. Адаптивный классификатор [215] 4.2.2. Адаптивные алгоритмы оценивания [218] 4.2.3. Адаптивное прогнозирование [219] 4.2.4. Адаптивные системы управления [221] § 4.3. Синтез адаптивных фильтров [225] 4.3.1. Уточнение постановки задачи об адаптивной фильтрации [225] 4.3.2. Схемы оценивания неизвестных параметров [227] 4.3.3. Идентификация авторегрессионного процесса при белошумной помехе [236] 4.3.4. Расширенный МНК в задаче идентификации [232] 4.3.5. Упрощенная процедура расширенного МНК в задаче идентификации [233] 4.3.6. Процедура стохастической аппроксимации в задаче идентификации [234] 4.3.7. Адаптивная фильтрация [241] § 4.Д. Доказательства лемм и теорем [244] 4.Д.1. Доказательство леммы 4.3.1 [244] 4.Д.2. Доказательство леммы 4.3.2 [245] 4.Д.3. Доказательство теоремы 4.3.1 [247] 4.Д.4. Доказательство теоремы 4.3.2 [257] 4.Д.5. Доказательство леммы 4.3.3 [261] 4.Д.6. Доказательство теоремы 4.3.3 [262] Примечания и литературные указания [267] Литература [277] Список основных сокращений и обозначений [286] |
Формат: | djvu |
Размер: | 6053697 байт |
Язык: | РУС |
Рейтинг: | 236 |
Открыть: | Ссылка (RU) |