Теория распознавания образов. Статистические проблемы обучения

Автор(ы):Вапник В. Н., Червоненкис А. Я.
04.12.2024
Год изд.:1974
Описание: Книга посвящена изложению статистической теории распознавания образов. В первой части книги задача распознавания образов рассматривается с точки зрения проблемы минимизации среднего риска. Показано, как далеко можно продвинуться в решении задачи обучения распознаванию образов, следуя по каждому из существующих в статистике путей минимизации риска, и к каким алгоритмам они приводят. Вторая часть посвящена исследованию математических проблем обучения. Изложена теория равномерной сходимости частот появлений событий к их вероятностям, которая является предельным обобщением теоремы Гливенко. Третья часть посвящена алгоритмам построения линейных и кусочно-линейных решающих правил. Книга рассчитана на студентов старших курсов, аспирантов, инженеров и научных сотрудников, занятых в области теоретической и технической кибернетики. Она будет также интересна специалистам по теории вероятностей и математической статистике.
Оглавление:
Теория распознавания образов. Статистические проблемы обучения — обложка книги. Обложка книги.
Предисловие [9]
ЧАСТЬ ПЕРВАЯ. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ.
  Глава I. Персептрон Розенблатта [16]
    §1. Феномен восприятия [16]
    §2. Физиологическая модель восприятия [17]
    §3. Техническая модель. Персептрон [19]
    §4. Математическая модель [20]
    §5. Обобщенная математическая модель [23]
    §6. Теорема Новикова [25]
    §7. Доказательство теоремы Новикова [28]
    §8. Двухуровневая схема распознавания [30]
  Глава II. Задача обучения машин распознаванию образов [34]
    §1. Задача имитации [34]
    §2 Качество обучения [35]
    §3. Надежность обучения [37]
    §4. Обучение - задача выбора [38]
    §5. Две задачи конструирования обучающихся устройств [39]
    §6. Математическая постановка задачи обучения [41]
    §7. Три пути решения задачи о минимизации среднего риска [43]
    §8. Задача обучения распознаванию образов и методы минимизации среднего риска [47]
  Глава III. Методы обучения, основанные на восстановлении распределения вероятностей [49]
    §1. О восстановлении распределения вероятностей [49]
    §2. Классификация оценок [52]
    §3. Метод максимума правдоподобия [54]
    §4. Байесов принцип восстановления [55]
    §5. Сравнение байесова метода оценивания и оценивания методом максимума правдоподобия [59]
    §6. Оценка параметров распределения дискретных независимых признаков [60]
    §7. Байесовы оценки параметров распределения дискретных независимых признаков [63]
    §8. Восстановление параметров нормального распределения методом максимума правдоподобия [65]
    §9. Байесов метод восстановления нормального распределения [67]
  Глава IV. Рекуррентные алгоритмы обучения распознаванию образов [72]
    §1. Метод стохастической аппроксимации [72]
    §2. Детерминистская и стохастическая постановки задачи обучения распознаванию образов [73]
    §3. Конечно-сходящиеся рекуррентные процедуры [78]
    §4. Теоремы об останове [80]
    §5. Метод циклического повторения обучающей последовательности [84]
    §6. Метод потенциальных функций [86]
  Глава V. Алгоритмы, минимизирующие эмпирический риск [89]
    §1. Метод минимизации эмпирического риска [89]
    §2. Равномерная сходимость частот появления событий к их вероятностям [90]
    §3. Теорема Гливенко [92]
    §4. Частный случай [93]
    §5. Оценка числа различных линейных разделений векторов [96]
    §6. Условия равномерной сходимости частот появления событий к их вероятностям [99]
    §7. Свойства функции роста [101]
    §8. Оценка уклонения эмпирически оптимального решающего правила [102]
    §9. Метод минимизации эмпирического риска в детерминистской постановке задачи обучения распознаванию образов [104]
    §10. Замечание об оценке скорости равномерной сходимости частот появления событий к их вероятностям [107]
    §11. Замечания об особенностях метода минимизации эмпирического риска [111]
    §12. Алгоритмы метода обобщенного портрета [113]
    §13. Алгоритм Кора [115]
  Глава VI. Метод упорядоченной минимизации риска [118]
    §1. О критериях оценки качества алгоритмов [118]
    §2. Минимаксный критерий [121]
    §3. Критерий минимакса потерь [123]
    §4. Критерий Байеса [126]
    §5. Упорядочение классов решающих правил [127]
    §6. О критериях выбора [129]
    §7. Несмещенность оценки скользящего контроля [130]
    §8. Упорядочение по размерностям [132]
    §9. Упорядочение по относительным расстояниям [134]
    §10. Упорядочение по эмпирическим оценкам относительного расстояния и задача минимизации суммарного риска [139]
    §11. О выборе оптимальной совокупности признаков [147]
    §12. Алгоритмы упорядоченной минимизации суммарного риска [151]
    §13. Алгоритмы построения экстремальных кусочнолинейных решающих правил [155]
    §14. Приложение к главе VI [156]
  Глава VII. Примеры применения методов обучения распознаванию образов [161]
    §1. Задача о различении нефтеносных и водоносных пластов в скважине [161]
    §2. Задача о различении сходных почерков [164]
    §3. Задача о контроле качества продукции [166]
    §4. Задача о прогнозе погоды [169]
    §5. Применение методов обучения распознаванию образов в медицине [171]
    §6. Замечания о применениях методов обучения распознаванию образов [176]
  Глава VIII. Несколько общих замечаний [178]
    §1. Еще раз о постановке задачи [178]
    §2. Физики об интуиции [180]
    §3. Машинная интуиция [181]
    §4. О мире, в котором возможна интуиция [181]
ЧАСТЬ ВТОРАЯ. СТАТИСТИЧЕСКИЕ ОСНОВЫ ТЕОРИИ.
  Глава IX. О сходимости рекуррентных алгоритмов обучения распознаванию образов [184]
    §1. Определение понятия сходимости [184]
    §2. Выпуклые функции [187]
    §3. Обобщенный градиент [188]
    §4. Условия сходимости рекуррентных алгоритмов [190]
    §5. Еще одно условие сходимости рекуррентных алгоритмов [200]
  Глава X. Достаточные условия равномерной сходимости частот к вероятностям по классу событий [203]
    §1. О близости минимума эмпирического риска к минимуму среднего риска [203]
    §2. Определение равномерной сходимости частот к вероятностям [206]
    §3. Определение функции роста [211]
    §4. Свойство функции роста [213]
    §5. Основная лемма [219]
    §6. Вывод достаточных условий равномерной сходимости частот к вероятностям по классу событий [223]
    §7. О равномерной сходимости с вероятностью единица [229]
    §8. Примеры и дополнительные замечания.231
    §9. Приложение к главе X [236]
  Глава XI. Необходимые и достаточные условия равномерной сходимости частот к вероятностям по классу событий [240]
    §1. Энтропия системы событий [240]
    §2. Асимптотические свойства энтропии [242]
    §3. Необходимые и достаточные условия равномерной сходимости [доказательство достаточности) [248]
    §4. Доказательство необходимости условий равномерной сходимости [251]
    §5. Примеры и дополнительные критерии [261]
  Глава XII. Оценки равномерного относительного уклонения частот от вероятностей в классе событий [267]
    §1. О равномерном относительном уклонении [267]
    §2. Оценка равномерного относительного уклонения частот в двух полувыборках [269]
    §3. Оценка равномерного относительного уклонения частот от вероятностей [272]
  Глава XIII. Применение теории равномерной сходимости к методам минимизации эмпирического риска [276]
    §1. Оценка достаточной длины обучающей последовательности в задачах обучения распознаванию [276]
    §2. Равномерная сходимость средних к математическим ожиданиям [285]
ЧАСТЬ ТРЕТЬЯ. МЕТОДЫ ПОСТРОЕНИЯ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ.
  Глава XIV. Построение разделяющей гиперплоскости (метод обобщенного портрета) [292]
    §1. Оптимальная разделяющая гиперплоскость [292]
    §2. Однопараметрическое семейство разделяющих гиперплоскостей [295]
    §3. Некоторые свойства обобщенного портрета [299]
    §4. Двойственная задача [302]
    §5. Алгоритмы персептронного типа [306]
    §6. Градиентные методы построения разделяющей гиперплоскости (вычисление обобщенного портрета) [310]
    §7. Теория оптимальной разделяющей гиперплоскости [316]
    §8. Двойственная задача [318]
    §9. Методы вычисления оптимальной разделяющей гиперплоскости [322]
    §10. Построение оптимальной разделяющей гиперплоскости модифицированным методом Гаусса - Зайделя [324]
    §11. Применение метода обобщенного портрета для нахождения оптимальной разделяющей гиперплоскости [326]
    §12. Некоторые статистические особенности метода обобщенного портрета [328]
    §13. Приложение к главе XIV [335]
  Глава XV. Алгоритмы обучения распознаванию образов, реализующие метод обобщенного портрета [344]
    §1. Способы представления информации [344]
    §2. Алгоритм построения разделяющей гиперплоскости [349]
    §3. Алгоритм построения разделяющей гиперплоскости, минимизирующей число ошибочно классифицируемых векторов [359]
    §4. Алгоритм построения кусочно-линейной разделяющей поверхности [360]
    §5. Алгоритмы построения разделяющей гиперплоскости в пространстве минимального числа признаков [362]
    §6. Алгоритм построения экстремальной линейной разделяющей поверхности [365]
    §7. Алгоритм построения экстремальной кусочнолинейной разделяющей поверхности [367]
    §8. Алгоритм построения разделяющей гиперплоскости с оценкой ее качества методом скользящего контроля [368]
    §9. Алгоритмы построения экстремальных разделяющих гиперповерхностей с помощью процедуры скользящий контроль [370]
    §10. О работе с алгоритмами [371]
  Глава XVI. Метод сопряженных направлений [373]
    §1. Идея метода [373]
    §2. Метод сопряженных градиентов [380]
    §3. Метод параллельных касательных [партан) [387]
    §4. Анализ погрешностей метода [391]
Комментарии [397]
Литература [410]
Формат: djvu + ocr
Размер:5209621 байт
Язык:РУС
Рейтинг: 129 Рейтинг
Открыть: Ссылка (RU)