Дипломы, курсовые, рефераты, контрольные...
Срочная помощь в учёбе

Минимаксный подход к построению оптимального классификатора методом SVM с одновременным выбором оптимального подпространства признаков

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

В диссертационной работе рассматривается проблема выбора признаков в задаче обучения классификации. Предлагается минимаксный подход к одновременному построению оптимального решающего правила и оптимального подпространства признаков для классификации. Подход применяется к стандартной задаче метода опорных векторов (support vector machine, SYM) и приводит к минимаксной задаче оптимизации… Читать ещё >

Содержание

  • ГЛАВА 1. Проблема сокращения размерности в задаче обучения классификации
    • 1. 1. Постановка задачи обучения классификации
    • 1. 2. Задача сокращения размерности
    • 1. 3. Методы извлечения признаков
      • 1. 3. 1. Метод главных компонент
      • 1. 3. 2. Метод центроидных компонент
      • 1. 3. 3. Методы экстремальной группировки параметров
  • ГЛАВА 2. Современное состояние проблемы выбора признаков в задачах классификации
    • 2. 1. Основные постановки задачи выбора признаков
      • 2. 1. 1. Виды оценок качества подмножества признаков
    • 2. 2. Методы оценки вероятности ошибки распознавания
      • 2. 2. 1. Resubstitution метод
      • 2. 2. 2. Holdout метод
      • 2. 2. 3. Cross-validation метод
      • 2. 2. 4. Jackknife метод
      • 2. 2. 5. Bootstrap метод
    • 2. 3. Вычислительная сложность задачи выбора признаков
    • 2. 4. Обзор алгоритмов выбора признаков
      • 2. 4. 1. Организация пространства поиска
      • 2. 4. 2. Способ движения в пространстве поиска
      • 2. 4. 3. Описание основных алгоритмов выбора признаков
  • ГЛАВА 3. Алгоритмы выбора признаков на основе метода опорных векторов
    • 3. 1. Метод опорных векторов
    • 3. 2. Алгоритмы выбора признаков на основе 8УМ
      • 3. 2. 1. Градиентный алгоритм Вапника и др
      • 3. 2. 2. Алгоритм выбора признаков для задачи БУМ в многокритериальной постановке
  • ГЛАВА 4. Минимаксный подход к построению оп тимального классификатора методом БУМ с одновременным выбором оптимального подпространства признаков
    • 4. 1. Дискретная постановка задачи выбора признаков
    • 4. 2. Непрерывная постановка задачи выбора признаков
    • 4. 3. Выпуклая минимаксная постановка задачи выбора признаков
    • 4. 4. Седловая постановка задачи выбора признаков
    • 4. 5. Алгоритм поиска седловой точки
      • 4. 5. 1. Вычисление параметра шага алгоритма а
      • 4. 5. 2. Быстрое вычисление проекций
    • 4. 6. Псевдокод седлового алгоритма выбора признаков
  • ГЛАВА 5. Экспериментальные результаты
    • 5. 1. Схема тестирования алгоритма выбора признаков
    • 5. 2. Распознавание искусственных данных
    • 5. 3. Распознавание звуков английского языка
    • 5. 4. Диагностика заболевания раком женской груди
    • 5. 5. Эффективность вычисления проекций методом Дейкстры
    • 5. 6. Анализ результатов и направление дальнейшей работы

Минимаксный подход к построению оптимального классификатора методом SVM с одновременным выбором оптимального подпространства признаков (реферат, курсовая, диплом, контрольная)

В диссертационной работе рассматривается проблема выбора признаков в задаче обучения классификации. Предлагается минимаксный подход к одновременному построению оптимального решающего правила и оптимального подпространства признаков для классификации. Подход применяется к стандартной задаче метода опорных векторов (support vector machine, SYM) и приводит к минимаксной задаче оптимизации модифицированного критерия задачи SVM. Устанавливаются математические свойства решений минимаксной задачи. Предлагаются алгоритмы решения минимаксной задачи. Описываются численные эксперименты, но тестированию предложенного подхода в задачах классификации. Демонстрируется применение предложенного минимаксного подхода к задаче одновременного построения SVM регрессии и оптимального подпространства признаков.

Актуальность исследования.

Проблема обучения классификации является одной из основных задач прикладной математики. В рамках этой проблемы существует задача выбора из исходного множества признаков подмножества «полезных» для обучения признаков. Определение множества информативных признаков рассматривалось в качестве одной из главных задач с самого начала изучения проблемы обучения классификации. Так, в одной из самых первых работ по распознаванию образов [9] М. М. Бонгард рассматривал построение множества «полезных» признаков в качестве необходимой компоненты в алгоритмах обучения классификации.

С прикладной точки зрения необходимость выбора признаков диктуется тем. что обрабатываемые алгоритмом обучения данные часто содержат избыточные или не имеющие отношения к изучаемым явлениям признаки, которые могут значительно снижать качество решающего правила распознавания. Например, вероятность ошибки распознавания решающего правила, построенного методом ЯУМ по данным с множеством информативных признаков может сильно возрасти при добавлении значений не информативных признаков в обучающие данные. Так, в работе [87] приводится пример, когда добавление к исходным данных нормально распределенных шумовых признаков увеличивает долю ошибочных классификаций с 3% до 50%.

Наряду с задачей выбора признаков также выделяют задачу извлечения признаков. В задаче извлечения признаков из существующих признаков могут конструироваться новые признаки. При этом обычно предполагается, что количество новых признаков не должно превышать количества исходных. При постановке задачи обучения объекты распознавания представляются векторами пространства К'1, где п — количество признаков, характеризующих объект. Таким образом, при решении задачи выбора или извлечения признаков стремятся сократить размерность исходного пространства. Задачей сокращения размерности будем называть как задачу выбора, так и задачу извлечения признаков. В диссертации содержится обзор классических методов извлечения признаков. Одним из представителей этих методов является метод главных компонент. Данный метод хорошо изучен и ему посвящена обширная литература. Основные усилия современных научных исследований задачи сокращения размерности сосредоточены на разработке новых методов решения задач выбора признаков.

Современные методы решения задач выбора признаков можно разделить на три группы: «фильтр», «интерфейсные» и «встроенные» методы, см. с. 44. Эти три группы характеризуются разной степенью связи между собственно процессом выбора признаков и алгоритмом обучения классификации. Методы двух первых групп не учитывают специфики конкретного алгоритма обучения. Третья группа состоит из «встроенных» методов, в которых алгоритм распознавания устроен таким образом, что он одновременно осуществляет выбор признаков и решает задачу обучения в пространстве этих признаков.

Группа «встроенных» методов представляет наибольший интерес в виду того, что эти методы позволяют учитывать особенности алгоритма обучения в процессе поиска подмножества информативных признаков.

При решении задач выбора признаков используют два основных подхода к организации поиска: перебор всех возможных подмножеств признаков и последовательный перебор упорядоченных по вложению подмножеств признаков.

Недостатком первого подхода является экспоненциальная сложность полного перебора. Недостаток второго — эвристический характер упорядочения оцениваемых подмножеств, который не гарантирует нахождения оптимального подмножества.

Анализ достоинств и недостатков указанных двух подходов приводит к необходимости разработки других методов, решающих задачу выборов признаков. Поэтому попытки разработать новые постановки задач и одновременно эффективные методы их решения составляют большую часть усилий современных подходов в совершенствовании методов обучения распознавания образов.

Предлагаемые в диссертации методы относятся именно к этой новой группе методов отбора полезных признаков в задаче обучения классификации. Автор ограничил рассмотрение проблемы рамками метода опорных векторов (БУМ) при построении линейных оптимальных решающих правил классификации на два класса.

Выбор метода опорных векторов диктовался следующими соображениями:

1) Среди огромного разнообразия современных подходов к распознаванию метод опорных векторов на протяжении последних 15 лет общепризнан как один из самых совершенных.

2) Он имеет простую математическую постановку задачи и наиболее глубокое теоретическое обоснование, позволяющее легко сформулировать, что значит оценка информативности подмножества признаков.

3) Уже имеющиеся попытки построения эффективных алгоритмов на основе БУМ. гарантирующих одновременное нахождение оптимальных подмножеств признаков могут служить отправной точкой для их развития.

Метод опорных векторов сводится к решению специальных задач квадратичного программирования. Для решения этих задач разработаны специальные алгоритмы, позволяющие быстро обрабатывать огромные массивы данных.

Стандартная процедура оценки качества решающего правила классификации, основанная на вычислении ошибок классификации на специальном тестовом множестве, позволяет строго статистически оценивать правила, построенные на разных подмножествах признаков. Поэтому быстрые методы, основанные на построении опорных векторов, позволяют прямым перебором решать задачу выбора признаков при малой (порядка 5−10) размерности пространства классификации. Для случая большой размерности предложены эвристические процедуры существенно использующие специфику классификаторов, конструируемых на базе вычисления опорных векторов [60]. И вместе с тем, поскольку в методе опорных векторов формулируется и точно решается оптимизационная задача в пространстве исходных признаков, то естественно попытаться найти обобщение имеющейся формулировки, которая бы обеспечивала поиск оптимального правила классификации при рассмотрении всех возможных подмножеств признаков. Примеры таких обобщений задачи БУМ можно найти в работах [37, 87]. Изучение этих работ привело нас к повой формулировке, которая является не только более эффективной с вычислительной точки зрения, но и дает более глубокое теоретическое понимание проблемы и, как следствие, новые возможности интерпретации результатов на практике.

Цели и задачи исследования.

Целью исследования является разработка и экспериментальная проверка нового подхода к задаче выбора признаков на основе метода опорных векторов. Для достижения цели исследования поставлены следующие задачи:

1. Анализ современного состояния проблемы выбора признаков.

2. Разработка новой формулировки задачи выбора признаков в рамках метода опорных векторов.

3. Анализ свойств решений поставленной задачи выбора признаков.

4. Разработка алгоритма решения возникающих задач оптимизации и анализ сходимости алгоритма.

5. Разработка схемы для экспериментального тестирования разработанного алгоритма.

6. Реализация алгоритма решения задачи выбора признаков па ЭВМ, проведение и анализ результатов экспериментов.

Объект и предмет исследования.

Объектом исследования является задача выбора признаков в задачах обзг-чения классификации и математические алгоритмы ее решения. Предметом исследования является задача выбора признаков при обучении классификации методом опорных векторов. Метод опорных векторов рассматривается в исходном пространстве с линейной разделяющей функцией.

Методологическая и теоретическая основа исследования.

Теоретическую основу диссертации составили работы отечественных и зарубежных авторов в теории выпуклого анализа, оптимизации, прикладной статистики и распознавания образов. В диссертации использовались методы квадратичной оптимизации, недифференцируемой оптимизации. Необходимо привести имена советских и российских ученых, которые внесли значительный вклад в развитие методологической и теоретической базы исследования, выполненного в диссертации. В области прикладной статистики и теории распознавания образов — Айвазян С. А., Айзерман М. А., Браверман Э. М., Вапник В. Н., Журавлев Ю. И. Моттль В. В, Мучник И. Б. Розоноэр Л.И. Червоненкис А. Я. В области теории выпуклого анализа и методов оптимизации — Антипин А. С, Васильев JI. B, Гольштейн Е. Г., Демьянов В. Ф., Евтушенко Ю. Г., Еремин И. И., Корпелевич Г. М., Малозсмов В. Н., Поляк Б. Т., Шор Н.З.

Информационная база исследования.

В работе над диссертацией использовались следующие информационные источники:

1. Научные источники в виде книг, статей из журналов, научных отчетов, материалов конференций и семинаров.

2. Научные материалы расположенные в сети Интернет.

3. Результаты собственных расчетов при проведении численных экспериментов.

Научная новизна исследования.

В диссертации предложена оригинальная формулировка задачи выбора признаков, которая построена на модификации стандартного критерия метода опорных векторов. Математически задача выбора признаков поставлена в виде дискретной оптимизационной задачи, в которой булевой переменной zi соответствует наличие или отсутствие в подмножестве информативных признаков ¿—того признака. Задача дискретной оптимизации погружается в непрерывную невыпуклую задачу оптимизации, в которой переменная Zi принимает значения из интервала [0- 1]. Показано, что невыпуклая задача может быть заменена на эквивалентную задачу на поиск минимакса выпукло-вогнутой функции.

Главный научный результат диссертации, состои т в том, что доказана теорема о свойстве «целочисленности» оптимальных значений переменных в минимаксной задаче. Также, доказано существование подмножества седло-вых решений среди множества решений минимаксной задачи.

Для решения задачи на минимакс предложено использовать алгоритм поиска седловой точки выпукло-вогнутой функции.

Для поиска седловой точки применен вариант экстраградиентного метода [32], для которого доказана сходимость и проведена оценка параметра, задающего величину шага в алгоритме.

В экстраградиентном методе для вычисления проекций вместо решения задачи квадратичного программирования предложено использова гь алгоритм чередующихся проекций Дейкстры, что значительно ускоряет работу метода.

Практическая значимость работы.

Разработано математическое обеспечение, позволяющее решать задачи выбора признаков при обучении классификации и построении регрессии методом опорных векторов. Математическое обеспечения решения задач выбора признаков реализовано в виде независимых модулей (БЬЬ) и может быть использовано независимыми разработчиками. Создана программная среда для проведения вычислительных экспериментов с разработанными алгоритмами.

Аппробация результатов работы.

Основные результаты работы докладывались на 13-й Всероссийской конференции «Математические методы распознавания образов» в 2007 г. и содержатся в публикациях [17, 18, 19, 53, 54, 55].

Структура диссертации.

Текст диссертации состоит из введения, пяти основных глав, заключения, списка литературы и трех приложений. Оригинальные результаты исследований содержатся в главах 4,5 и приложениях.

ЗАКЛЮЧЕНИЕ

.

В диссертации рассмотрена актуальная в настоящее время проблема выбора признаков в задачах обучения классификации.

Разработана оригинальная формулировка задачи выбора признаков в рамках метода опорных векторов. Сформулированы дискретная и непрерывная минимаксная задачи оптимизации целевой функции, к которым сводится задача выбора признаков, доказана выпуклость целевой функции задачи.

Исследованы свойства решений непрерывной минимаксной задачи оптимизации и доказано свойство «целочисленности» решений.

Предложено два различных подхода к оптимизации целевой функции: алгоритм недифференцируемой выпуклой оптимизации и метод поиска седло-вой точки выпукло-вогнутой функции.

Описан алгоритм поиска седловой точки выпукло-вогнутой функции, доказана его сходимость при выполнении некоторых условий на гладкость. Проведена оценка параметра шага седлового алгоритма при оптимизации целевой функции задачи выбора признаков. Описан алгоритм недифференцируемой выпуклой оптимизации для решения минимаксной задачи.

Предложена быстрая процедура вычисления проекции на множество ограничений задачи оптимизации.

Разработано программное обеспечение для проведения вычислительных экспериментов по тестированию работы алгоритма выбора признаков.

Проведен анализ результатов вычислительных экспериментов и намечены направления дальнейших исследований. Результаты численных экспериментов показывают эффективность предложенной постановки задачи выбора признаков. Предложенный автором алгоритм выбора признаков способен одновременно удалять признаки и улучшать качество распознавания по сравнению с качеством распознавания стандартного метода опорных векторов.

Показать весь текст

Список литературы

  1. С.А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: Исследование зависимостей: Справ.изд. — М.: Финансы и статистика, 1985. — 488 с.
  2. С.А., Бухштабер В. М., Енюков И. С. Метналкин Л.Д. Прикладная статистика: Классификация и снижение размерности: Справ.изд. -М.: Финансы и статистика, 1989. 608 с.
  3. С.А., Мхитарян B.C. Прикладная статистика и основы эконометрики. М.: ЮНИТИ, 1998. — 1022 с.
  4. М.А., Браверман Э. М., Розоноэр Л. И. Метод потенциальных функций в теории обучения машин. М.: Наука, 1970. — 384 с.
  5. A.C. Управляемые проксимальные дифференциальные системы для решения седловьтх задач // Дифференциальные уравнения. -1992. Т.28. № 11. — С.1846−1861.
  6. A.C. Метод градиентного типа для отыскания седловой точки модифицированной функции Лаграижа // Экономика и матем. методы. 1977. -Т.13. — С.560−565.
  7. А.Г., Браверман Э. М. Обучение машины классификации объектов. М.: Наука, 1971. — 192 с.
  8. А., Эйзен С. Статистический анализ. Подход с использованием ЭВМ. М.: Мир, 1982. — 488 с.
  9. М.М. Проблема узнавания. М.: Наука, 1967. — 320 с.
  10. Э.М. Методы экстремальной группировки параметров и задача выделения существенных факторов // АиТ. 1970. — № 1. — С.123−132.
  11. Э.М., Мучник И. Б. Структурные методы обработки эмпирических данных. М.: Наука, 1983. — 464 с.
  12. В.Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. — 416 с.
  13. В.Н. Восстановление зависимостей по эмпирическим данным. -М.: Наука, 1979. 448 с.
  14. К.В. Комбинаторный подход к оценке качества обучаемых алгоритмов // Математические вопросы кибернетики / Под ред. О. Б. Лу-панова. М.: Физматлит, 2004. — Т. 13. — С. 5−36.
  15. И.М. Лекции по линейной алгебре. М.: МЦНМО, 1998. -320 с.
  16. Е.Г., Третьяков Н. В. Модифицированные функции Лагран-жа. М.: Наука, 1989. — 400 с.
  17. Ю.В., Мучник И. Б., Шварцер Л. В. Алгоритм выбора признаков в задаче обучения классификации методом опорных векторов Докл. 13-й всероссийской конф. Математические методы распознавания образов (ММРО-13). -М: ООО «МАКС Пресс». — 2007. — 700 с.
  18. Ю.В., Мучник И. Б., Шварцер Л. В. Алгоритм выбора признаков в задаче обучения классификации методом опорных векторов / / Ж. вычисл. матем. и матем. физ. -2008. Т.48. №.7. — С.1318−1336.
  19. Ю.В. Минимаксная задача выбора признаков для построения классификатора методом опорных векторов // Ж. вычисл. матем. и матем. физ. -2010. Т.50. №.5. — С.967−976.
  20. Дж., Ван Лоун Ч. Матричные вычисления. М.: Мир, 1999. -548 с.
  21. O.A., Кутпенко И. А., Борисова Н. Г. Выбор информативного подпространства признаков (Алгоритм GRAD). Докл. 12-й всероссийской конф. Математические методы распознавания образов (ММРО-12). -М: ООО «МАКС Пресс». — 2005. — 499 с.
  22. А.Ф., Солодов М. Ф. Численные методы оптимизации. М.: Физматлит, 2005.
  23. Г. М. Экстраградиентный метод для отыскания седловых точек и других задач // Экономика и матем. методы. 1976. — Т.12. -С.747−756.
  24. .Т. Введение в оптимизацию. М.: Наука, 1983. — 384 с.
  25. Ш. Ограниченность выборки в задачах классификации // Статистические проблемы управления. Вильнюс. — 1976. — № 8. — С.6−185.
  26. Р. Выпуклый анализ. М.: Мир, 1973. — 471 с.
  27. Ту Дж., Гонсалсс Р. Принципы распознавания образов. М.: Мир, 1978.- 416 с.
  28. Г. Современный факторный анализ. М.: Статистика, 1972. -486 с.
  29. К.Дж., Гурвиц JL, Удзава X. Исследование по линейному и нелинейному программированию. М.: ИЛ, 1962. — 334 с.
  30. Abe N., Kudo М., Toyama J., Shimbo M. Classifier-independent feature selection on the basis of divergence criterion // Pattern Anal. Applic., -2006. Ж9. — P. 127−137.
  31. Anghelescu A.V., Muchnik I.B. Optimization of SVM in a Space of Two Parameters: Weak Margin and Intercept. // DIMACS Working Group on Monitoring Message Streams. May 2003.
  32. Antipin A.S. From optima to equilibria // Proceedings of Institute for Systems Analysis. «Dynamics of non-homogeneous systems». V.3. Moscow.- 2000. P.35−64.
  33. Bauschke H.H., Borwein J.M. Dykstra’s Alternating Projection Algorithm for Two Sets // J. Approx. Theory. 1994. — V.79. № 3. — P.418−443.
  34. Bennett K.P., Campbell C. Support Vector Machines: Hype or Hallelujah? // SIGKDD Explorations 2000. V.2. № 2. P. l-13.
  35. Bennett K. P., Mangasarian O. L. Robust linear programming discrimination of two linearly inseparable sets // Optimization Methods and Software 1, -1992. P.23−34.
  36. Bi J., Vapnik V. Learning with Rigorous Support Vector Machines // Proceedings of COLT. 2003. — P.243−257.
  37. Bi J. Multi-objective programming in SVMs // Proc. of 20th Intern.Conf. on Machine Learning (ICML-2003). 2003.
  38. Burges C. J.C. A tutorial on Support Vector Machines for pattern Recognition // Knowledge Discovery and Data Mining. 1998. -V.2. № 4. — P. 121−167.
  39. Burges C.J.C., Crisp D.J. Uniqueness of the SVM Solution // NIPS 12. -2000. P.223−229.
  40. Censor Y. Computational Acceleration of Projection Algorithms for the Linear Best Approximation Problem. // Technical report. Department of Mathematics, University of Haifa. Israel. — May, 2005.
  41. Chapelle O., Vapnik V., Bousquet O., Mukherjee S. Choosing Multiple Parameters for Support Vector Machines // Machine Learning. 2002. -V.46. № 1. — P.131−159.
  42. Chernick M. Bootstrap Methods: A Practitioner’s Guide (Wiley Series in Probability and Statistics). Wiley-Interscience, 1999. — 369 P.
  43. Cortes C., Vapnik V. Support Vector Networks // Machine Learning. 1995. — V.20. № 3. — P.273−297.
  44. Combettes P., Luo J. An Adaptive Level Set Method for Nondifferentiable Constrained Image Recovery // IEEE Trans. Image Processing. 2002. -V.ll. — P. 1295−1304.
  45. Cover T. M., Van Campenhout J. M. On the possible orderings in the measurement selection problem // IEEE Transactions on Systems, Man, and Cybernetics. 1977. — V. SMC-7. №.9. — P.657−661.
  46. Devroye L., Gyorfi L., Lugosi G. A Probabilistic Theory of Pattern Recognition. Springer, 1996. — 636 P.
  47. Duda R., Hart P., Stork D. Pattern Classification (Second Edition). Wiley-Interscience Publication, 2000. — 654 P.
  48. Dreo J., Petrowski A., Siarry P., Taillard E. Metaheuristics for Hard Optimization. Springer: — 2006. — 369 P.
  49. Efron B. Estimating the error rate of a prediction rule: improvement on cross-validation // J. of the American Statistical Association. 1983. — V.78. P.316−330.
  50. Efron B., Gong G. A Leisurely Look at the Bootstrap, the Jackknife, and Cross-Validation // The American Statistician. 1983. — V.37. №.1. — P.3648.
  51. Efron B., Tibshirani R. An Introduction to the Bootstrap. Chapman & Hall/CRC, 1994. — 436 P.
  52. Gaffke N., Mathar R. A cyclic projection algorithm via duality // Metrika.- 1989. V.36. №. P.29−54.
  53. Goncharov Y., Muchnik I., Shvartser L. Simultaneous Feature Selection and Margin Maximization Using Saddle Point Approach // DIMACS Technical 'Report 2004. № 2004−08. — P.54.
  54. Goncharov Y., Muchnik I., Shvartser L. Saddle Point Feature Selection In SVM Regression // DIMACS Technical Report 2007. № 2007−08. — P.15.
  55. Goncharov Y., Muchnik I., Shvartser L. Saddle Point Feature Selection In SVM Classification // DIMACS Technical Report 2004. № 2007−16. — P.23.
  56. Foley D. Considerations of sample and feature size // IEEE Transactions on Information Theory. 1972. — V.18. .№.5. — P.618−626.
  57. Foroutan I., J. Sklansky J. Feature selection for automatic classification of non-Gaussian data // IEEE Transactions on Systems, Man and Cybernetics.- 1987. -V.17. №.2. P. 187- 198.
  58. Guyon I., Elisseeff A. An Introduction to Variable and Feature Selection // Journal of Machine Learning Research. 2003. — V. 3. №.3. — P.1157−1182.
  59. Guyon I., Makhoul J., Schwartz R., Vapnik V. What Size Test Set Gives Good Error Rate Estimates? // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1998. -V.20. №.1. — P.52−64.
  60. Guyori I., Weston I., Barnhill S., Vapnik V. Gene selection for cancer classification using support vector machines // Machine Learning. 2002. -V.46. №.1−3. — P.389−422.
  61. Hall M.A. Correlation-based feature selection for machine learning // Ph.D. thesis. Department of Computer Science, University of Waikato, Hamilton, New Zealand. — 1999.
  62. Joachims T. Optimizing Search Engines using Clickthrough Data // ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD). -2002. P.133−142.
  63. Joachims T. Estimating the Generalization Performance of an SVM Efficiently // Proceedings of ICML-00, 17th International Conference on Machine Learning. 2000. — P.431−438.
  64. King R., Hirst J., Sternberg M. Comparison of artificial intelligence methods for modeling pharmaceutical QSARS // Applied Artificial Intelligence: An International Journal. 1995. -V.9. Issue 2. — P.213−233.
  65. Kearns M., Ron D. Algorithmic Stability and Sanity-Check Bounds for Leave-One-Out Cross-Validation // Neural Comp. 1999. — V.ll. .№.6. — P.1427−1453.
  66. Kohavi R., John G. Wrappers for Feature Subset Selection // Artificial Intelligence. 1997. -V. 97. №.1−2. — P.273−324.
  67. Kohavi R. A Study of Cross-Validation and Bootstrap for Accuracy Estimation and Model Selection // International Joint Conference on Artificial Intelligence (IJCAI). 1995. — P. 1137−1145.
  68. Kudo M., Sklansky J. Comparison of algorithms that select features for pattern classifiers // Pattern Recognition. 2000. — V.33. №.1. — P.25−41.
  69. Liu H, Motoda H. Computational Methods of Feature Selection // Data Mining and Knowledge Discovery Series. Chapman & Hall/CRC, 2007. -419 P.
  70. Liu H., Setiono R" A probabilistic approach to feature selection A filter solution // 13th International Conference on Machine Learning. — 1996. -P.319−327.
  71. Mangasarian O. L., Wolberg W. H. Cancer diagnosis via linear programming // SIAM News. V. 23. №. 5. — 1990. — P. l-18.
  72. McLachlan G. Discriminant Analysis and Statistical Pattern Recognition. -Wiley, 1992. 732 P.
  73. Meiri R., Zahavi J. Using simulated annealing to optimize the feature selection problem in marketing applications // Europ. J. of Oper. Res. -2006. V.1−71. №.3. — P.842−858.
  74. Molina L., Belanche L., Nebot A. Feature Selection Algorithms: A Survey and Experimental Evaluation // Proc. IEEE Int. Conf. Data Mining. 2002. — P.306−313.
  75. Narendra P., Fukunaga K. A branch and bound algorithm for feature subset selection // IEEE Trans, on Computers. 1977. — V. 26. №.9. — P.917−922.
  76. Pudil P., Novovicova J., Somol P. Feature selection toolbox software package // Pattern Recognition Letters. 2002. — V.23. № 4. — P.487−492.
  77. Raudys S., Jain A. Small sample size effects in statistical pattern recognition: recommendations for practitioners // IEEE Transactions on Pattern Analysis and Machine Intelligence. 1991. -V.13. №.3. -P.252−264.
  78. Sebban M., Nock R. A hybrid filter/wrapper approach of feature selection using information theory // Pattern Recognition. 2002. — V.35. №.4. -P.835−846.
  79. Skalak D. Prototype and feature selection by sampling and random mutation hill climbing //In Machine Learning, Proc. of the Eleventh Intern. Conf. -1994. P.293−301.
  80. Somol P., Novovicova J., Pudil P. Notes on the evolution of feature selection methodology // Kybernetika. 2007. — V. 43. № 5. — P.713−730.
  81. Somol P., Pudil P., Kittler J. Fast branch k bound algorithms for optimal feature selection // IEEE Trans. Pattern Anal. Macli. Intell. 2004. -V.26. №. — P.900−912.
  82. Theodoridis S., Koutroumbas K. Pattern Recognition, Second Edition. -Elsevier Academic Press, 2003. 689 P.
  83. Vapnik V.N. Statistical Learning Theory. New York: Wiley, 1998. — 732 P.
  84. Vapnik V.N. The Nature of Statistical Learning Theory. Second Edition. -New York: Springer, 2000. 314 P.
  85. Webb A. Statistical Pattern Recognition, Second Edition. John Wiley & Sons, 2002. — 496 P.
  86. Weston, J., Mukherjee S., Chapelle O., Pontil M., Poggio T. and Vapnik V., Feature Selection for SVMs // Advances in Neural Information Processing Systems. 2000. — 13.
  87. Wolberg W. H., Mangasarian O.L. Multisurface method of pattern separation for medical diagnosis applied to breast cytology / Proc. of the National Academy of Sciences, U.S.A. V. 87. — December 1990. — P.9193−9196.
  88. Yu B., Yuan, B.1993. A more efficient branch and bound algorithm for feature selection // Pattern Recognition. 1993. — V.26. — P.883−889.
Заполнить форму текущей работой