Теория распознавания образов. Статистические проблемы обучения
Автор(ы): | Вапник В. Н., Червоненкис А. Я.
04.12.2024
|
Год изд.: | 1974 |
Описание: | Книга посвящена изложению статистической теории распознавания образов. В первой части книги задача распознавания образов рассматривается с точки зрения проблемы минимизации среднего риска. Показано, как далеко можно продвинуться в решении задачи обучения распознаванию образов, следуя по каждому из существующих в статистике путей минимизации риска, и к каким алгоритмам они приводят. Вторая часть посвящена исследованию математических проблем обучения. Изложена теория равномерной сходимости частот появлений событий к их вероятностям, которая является предельным обобщением теоремы Гливенко. Третья часть посвящена алгоритмам построения линейных и кусочно-линейных решающих правил. Книга рассчитана на студентов старших курсов, аспирантов, инженеров и научных сотрудников, занятых в области теоретической и технической кибернетики. Она будет также интересна специалистам по теории вероятностей и математической статистике. |
Оглавление: |
Обложка книги.
Предисловие [9]ЧАСТЬ ПЕРВАЯ. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ. Глава I. Персептрон Розенблатта [16] §1. Феномен восприятия [16] §2. Физиологическая модель восприятия [17] §3. Техническая модель. Персептрон [19] §4. Математическая модель [20] §5. Обобщенная математическая модель [23] §6. Теорема Новикова [25] §7. Доказательство теоремы Новикова [28] §8. Двухуровневая схема распознавания [30] Глава II. Задача обучения машин распознаванию образов [34] §1. Задача имитации [34] §2 Качество обучения [35] §3. Надежность обучения [37] §4. Обучение - задача выбора [38] §5. Две задачи конструирования обучающихся устройств [39] §6. Математическая постановка задачи обучения [41] §7. Три пути решения задачи о минимизации среднего риска [43] §8. Задача обучения распознаванию образов и методы минимизации среднего риска [47] Глава III. Методы обучения, основанные на восстановлении распределения вероятностей [49] §1. О восстановлении распределения вероятностей [49] §2. Классификация оценок [52] §3. Метод максимума правдоподобия [54] §4. Байесов принцип восстановления [55] §5. Сравнение байесова метода оценивания и оценивания методом максимума правдоподобия [59] §6. Оценка параметров распределения дискретных независимых признаков [60] §7. Байесовы оценки параметров распределения дискретных независимых признаков [63] §8. Восстановление параметров нормального распределения методом максимума правдоподобия [65] §9. Байесов метод восстановления нормального распределения [67] Глава IV. Рекуррентные алгоритмы обучения распознаванию образов [72] §1. Метод стохастической аппроксимации [72] §2. Детерминистская и стохастическая постановки задачи обучения распознаванию образов [73] §3. Конечно-сходящиеся рекуррентные процедуры [78] §4. Теоремы об останове [80] §5. Метод циклического повторения обучающей последовательности [84] §6. Метод потенциальных функций [86] Глава V. Алгоритмы, минимизирующие эмпирический риск [89] §1. Метод минимизации эмпирического риска [89] §2. Равномерная сходимость частот появления событий к их вероятностям [90] §3. Теорема Гливенко [92] §4. Частный случай [93] §5. Оценка числа различных линейных разделений векторов [96] §6. Условия равномерной сходимости частот появления событий к их вероятностям [99] §7. Свойства функции роста [101] §8. Оценка уклонения эмпирически оптимального решающего правила [102] §9. Метод минимизации эмпирического риска в детерминистской постановке задачи обучения распознаванию образов [104] §10. Замечание об оценке скорости равномерной сходимости частот появления событий к их вероятностям [107] §11. Замечания об особенностях метода минимизации эмпирического риска [111] §12. Алгоритмы метода обобщенного портрета [113] §13. Алгоритм Кора [115] Глава VI. Метод упорядоченной минимизации риска [118] §1. О критериях оценки качества алгоритмов [118] §2. Минимаксный критерий [121] §3. Критерий минимакса потерь [123] §4. Критерий Байеса [126] §5. Упорядочение классов решающих правил [127] §6. О критериях выбора [129] §7. Несмещенность оценки скользящего контроля [130] §8. Упорядочение по размерностям [132] §9. Упорядочение по относительным расстояниям [134] §10. Упорядочение по эмпирическим оценкам относительного расстояния и задача минимизации суммарного риска [139] §11. О выборе оптимальной совокупности признаков [147] §12. Алгоритмы упорядоченной минимизации суммарного риска [151] §13. Алгоритмы построения экстремальных кусочнолинейных решающих правил [155] §14. Приложение к главе VI [156] Глава VII. Примеры применения методов обучения распознаванию образов [161] §1. Задача о различении нефтеносных и водоносных пластов в скважине [161] §2. Задача о различении сходных почерков [164] §3. Задача о контроле качества продукции [166] §4. Задача о прогнозе погоды [169] §5. Применение методов обучения распознаванию образов в медицине [171] §6. Замечания о применениях методов обучения распознаванию образов [176] Глава VIII. Несколько общих замечаний [178] §1. Еще раз о постановке задачи [178] §2. Физики об интуиции [180] §3. Машинная интуиция [181] §4. О мире, в котором возможна интуиция [181] ЧАСТЬ ВТОРАЯ. СТАТИСТИЧЕСКИЕ ОСНОВЫ ТЕОРИИ. Глава IX. О сходимости рекуррентных алгоритмов обучения распознаванию образов [184] §1. Определение понятия сходимости [184] §2. Выпуклые функции [187] §3. Обобщенный градиент [188] §4. Условия сходимости рекуррентных алгоритмов [190] §5. Еще одно условие сходимости рекуррентных алгоритмов [200] Глава X. Достаточные условия равномерной сходимости частот к вероятностям по классу событий [203] §1. О близости минимума эмпирического риска к минимуму среднего риска [203] §2. Определение равномерной сходимости частот к вероятностям [206] §3. Определение функции роста [211] §4. Свойство функции роста [213] §5. Основная лемма [219] §6. Вывод достаточных условий равномерной сходимости частот к вероятностям по классу событий [223] §7. О равномерной сходимости с вероятностью единица [229] §8. Примеры и дополнительные замечания.231 §9. Приложение к главе X [236] Глава XI. Необходимые и достаточные условия равномерной сходимости частот к вероятностям по классу событий [240] §1. Энтропия системы событий [240] §2. Асимптотические свойства энтропии [242] §3. Необходимые и достаточные условия равномерной сходимости [доказательство достаточности) [248] §4. Доказательство необходимости условий равномерной сходимости [251] §5. Примеры и дополнительные критерии [261] Глава XII. Оценки равномерного относительного уклонения частот от вероятностей в классе событий [267] §1. О равномерном относительном уклонении [267] §2. Оценка равномерного относительного уклонения частот в двух полувыборках [269] §3. Оценка равномерного относительного уклонения частот от вероятностей [272] Глава XIII. Применение теории равномерной сходимости к методам минимизации эмпирического риска [276] §1. Оценка достаточной длины обучающей последовательности в задачах обучения распознаванию [276] §2. Равномерная сходимость средних к математическим ожиданиям [285] ЧАСТЬ ТРЕТЬЯ. МЕТОДЫ ПОСТРОЕНИЯ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ. Глава XIV. Построение разделяющей гиперплоскости (метод обобщенного портрета) [292] §1. Оптимальная разделяющая гиперплоскость [292] §2. Однопараметрическое семейство разделяющих гиперплоскостей [295] §3. Некоторые свойства обобщенного портрета [299] §4. Двойственная задача [302] §5. Алгоритмы персептронного типа [306] §6. Градиентные методы построения разделяющей гиперплоскости (вычисление обобщенного портрета) [310] §7. Теория оптимальной разделяющей гиперплоскости [316] §8. Двойственная задача [318] §9. Методы вычисления оптимальной разделяющей гиперплоскости [322] §10. Построение оптимальной разделяющей гиперплоскости модифицированным методом Гаусса - Зайделя [324] §11. Применение метода обобщенного портрета для нахождения оптимальной разделяющей гиперплоскости [326] §12. Некоторые статистические особенности метода обобщенного портрета [328] §13. Приложение к главе XIV [335] Глава XV. Алгоритмы обучения распознаванию образов, реализующие метод обобщенного портрета [344] §1. Способы представления информации [344] §2. Алгоритм построения разделяющей гиперплоскости [349] §3. Алгоритм построения разделяющей гиперплоскости, минимизирующей число ошибочно классифицируемых векторов [359] §4. Алгоритм построения кусочно-линейной разделяющей поверхности [360] §5. Алгоритмы построения разделяющей гиперплоскости в пространстве минимального числа признаков [362] §6. Алгоритм построения экстремальной линейной разделяющей поверхности [365] §7. Алгоритм построения экстремальной кусочнолинейной разделяющей поверхности [367] §8. Алгоритм построения разделяющей гиперплоскости с оценкой ее качества методом скользящего контроля [368] §9. Алгоритмы построения экстремальных разделяющих гиперповерхностей с помощью процедуры скользящий контроль [370] §10. О работе с алгоритмами [371] Глава XVI. Метод сопряженных направлений [373] §1. Идея метода [373] §2. Метод сопряженных градиентов [380] §3. Метод параллельных касательных [партан) [387] §4. Анализ погрешностей метода [391] Комментарии [397] Литература [410] |
Формат: | djvu + ocr |
Размер: | 5209621 байт |
Язык: | РУС |
Рейтинг: | 129 |
Открыть: | Ссылка (RU) |