Дипломы, курсовые, рефераты, контрольные...
Срочная помощь в учёбе

Численные методы безусловной оптимизации с итеративным обучением и их применение

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

Итерация иекоюрого РМО включает расчет направления спуска, спуск и пересчет параметров метода на основе поступающей информации о характеристиках функции. Эффективные РМО основываются на некоторой конечной многошаговой стратегии {глобальной стратегии) минимизации определенного класса функций (например, квадратичных) и содержат параметры аппроксимативной модели функции и средства ее обучения. Схемы… Читать ещё >

Содержание

  • ГЛАВА 1. УСЛОВИЯ ОБУЧЕНИЯ В РЕЛАКСАЦИОННЫХ МЕТОДАХ БЕЗУСЛОВНОЙ ОПТИМИЗАЦИИ II ИТЕРАТИВНЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ
    • 1. 1. Типы сложности задач безусловной оптимизации
    • 1. 2. Базовь 1С схемы релаксационных методой безусловной оптимизации с обучением. Условия обучения
    • 1. 3. Показатели качества и итеративные алгоритмы обучения
  • ГЛАВА 2. РАЗРАБОТКА И ОБОСНОВАНИЕ РЕЛАКСАЦИОННЫХ МЕТОДОВ ПРЯМОГО ПОИСКА С ИЗМЕНЕНИЕМ МЕТРИКИ, ОСНОВАННЫХ НА ИТЕРАТИВНЫХ АЛГОРИТМАХ ОБУЧЕНИЯ
    • 2. 1. Схемы алгоритмов изменения метрики в методах случайного поиска и покоординатной релаксации, основанные на квадратичной модели функции
    • 2. 2. Обоснование скорости сходимости класса методов минимизации вдоль векторов линейно-независимой системы
    • 2. 3. Обоснование скорости сходимости шаговых методов случайного поиска
    • 2. 4. Алгоритмы адаптации шага в методах случайного поиска и оптимизация их параметров.<
    • 2. 5. Метод случайного поиска с варьированием метрики
    • 2. 6. Метод минимизации без вычисления производных на основе рассредоточенной схемы А-ортогопалнзации
    • 2. 7. Выводы
  • ГЛАВА 3. РАЗРАБОТКА И ОБОСНОВАНИЕ КВАЗИИБЮТОПОВСКИХ МЕТОДОВ, ОСНОВАННЫХ ПА ИТЕРАТИВНЫХ АЛГОРИТМАХ ОБУЧЕНИЯ
    • 3. 1. Квазииыотоновские методы
    • 3. 2. Вывод и анализ на основе формализма теории обучения известных формул пересчета матриц квазииыотоповскнх методов
    • 3. 3. Глобальная скорость сходимости и ускоряющие свойства квазипыотоповских методов
    • 3. 4. Квазиныотоновский метод минимизации на основе двухшагово1 о алгоритма обучения
    • 3. 5. Способы наращивания размерности подпространства квазииыотоповского соотношения
    • 3. 6. Обоснование сходимости квазипыотоновского метода минимизации па основе двухшагового алгоритма обучения
    • 3. 7. Результаты вычислительного эксперимента
    • 3. 8. Выводы
  • ГЛАВА 4. РАЗРАБОТКА И ОБОСНОВАНИЕ РЕЛАКСАЦИОННЫХ СУБГРАДИЕНТНЫХ МЕТОДОВ, ОСНОВАННЫХ НА ИТЕРАТИВНЫХ АЛГОРИТМАХ ОБУЧЕНИЯ
    • 4. 1. Подход построения эффективных алгоритмов обучения в методах соиряжсппых субградиентов
    • 4. 2. Алгоритм обучения с растяжением пространства для решения множества равенств
    • 4. 3. Алгоритм обучения с растяжением пространства для решения множества неравенств
    • 4. 4. Релаксационный субградисптпый метод с растяжением пространства в направлении субграднепта
    • 4. 5. Связь релаксациопио1 о субградпептпого метода с растяжением пространства с методом сопряженных градиентов
    • 4. 6. Реализация релаксационного субградисптпого метода с растяжением пространства в направлении субграднепта
    • 4. 7. Итерационный метод решения множества неравенств на основе одношагового алгоритма обучения
    • 4. 8. Алгоритм минимизации на основе одпошагового алгоритма обучения для решения мпожеста неравенств
    • 4. 9. Связь с методом сопряженных градиентов
    • 4. 10. Реализация алгоритма мшшмизации на основе одпошагового алгоритма обучения для решения множества неравенств
    • 4. 11. Результаты численного исследования реализации релаксационных субграднентиых методов
    • 4. 12. Выводы
  • ГЛАВА 5. РАЗРАБОТКА И ОБОСНОВАНИЕ ОДНОРАНГОВОГО СЕМЕЙСТВА СУБГРАДИЕНТНЫХ МЕТОДОВ С РАСТЯЖЕНИЕМ ПРОСТРАНСТВА, ОСНОВАННЫХ IIA ИТЕРАТИВНЫХ АЛГОРИТМАХ ОБУЧЕНИЯ
    • 5. 1. Метод сопряженных субфаднентов с растяжением пространства
    • 5. 2. Одноранговое семейство релаксационных субградиептных методов с растяжением пространства
    • 5. 3. Реализация алгоритмов однорангового семейства субградиептных методов
    • 5. 4. Анализ глобальной скорости сходимости алгоритма с растяжением пространства в направлении разности последовательных субградиептов
    • 5. 5. Выводы
  • ГЛАВА 6. ПРОГРАММНЫЙ КОМПЛЕКС РЕЛАКСАЦИОННЫХ МЕТОДОВ БЕЗУСЛОВНОЙ ОПТИМИЗАЦИИИ (ПКРМО)

Численные методы безусловной оптимизации с итеративным обучением и их применение (реферат, курсовая, диплом, контрольная)

Актуальность работы. Релаксационные методы безусловной оптимизации (РМО) относятся к средствам численного моделирования (моделирования с применением ЭВМ) и используются при изучении явлении действительности. Па их основе конструируются более общие численные методы нелинейного программирования (НЛП). Распространенным приложением РМО являются оптимизационные задачи оценивания параметров математических моделей в схемах структурно-параметрического моделирования, т. е. при конструировании модели, когда требуется определип, такие ее структуру и параметры, которые обеспечивали бы наилучшее согласование с реальностью (см., например, [154]), к числу которых относятся рассматриваемые в работе актуальные задачи: прогнозирования свойств терморегулнрующих покрытии на основе результатов ускоренных испытанийопределения нестационарных законов горения пороха на основе манометрических испытаниипостроения исй-росе1евых приближений и выбора модели минимальной сложности при аппроксимации иейросетямиэкономико-математического анализа деятельности предприятииоценивания параметров и структуры поверхности при аппроксимации горногеологических объектов. Задачи структурно-параметрического моделирования сопряжены с многократным решением задач оптимизации с различными степенями и типами сложности (высокая степень вырожденностиотсутствие гладкости, выпуклостиалгоритмическое заданиевысокая размерность), что предполагает наличие спектра надежных, быстросходящихся, е высокой степенью универсальности РМО.

Итерация иекоюрого РМО включает расчет направления спуска, спуск и пересчет параметров метода на основе поступающей информации о характеристиках функции. Эффективные РМО основываются на некоторой конечной многошаговой стратегии {глобальной стратегии) минимизации определенного класса функций (например, квадратичных) и содержат параметры аппроксимативной модели функции и средства ее обучения. Схемы обучения в методах оптимизации различаются формой обучающей информации, на основе которой производится итерация алгоритма обучения, функционалом качества обучения, на основе которого строится алгоритм обучения, свойствами сходимости и свойствами устойчивости алгоритма обучения, т. е. его способностью сохранять сходимость в сложных, изменяющихся условиях. Например, обучение в методе сопряженных градиентов направлено па получение сопряженных векторов спуска. Схема обучения существенно опирается на сопряженность построенных прежде векторов спуска, что свидетельствует о неустойчивости алгоритма построения сопряженных векторов. Значительные отклонения от сопряженности ранее построенных векторов разрушают сходимосиь процесса обучения. С другой стороны, релаксационные субграднептшле методы [40, 82] также реализуют многошаговую стратегию обучения метода сопряженных градиентов, по в них дополнительно определена локальная цель обучения и алгоритм обучения, который обладает сходимостью независимо от сопряженности построенных ранее векторов [40, 82]. В алгоритмах этого тина большие возмущения не разрушают локальных свойств сходимости алгоритмов обучения.

Несоответствие классов моделей метода и функции, невозможность выполнения точно операции алгоритма (например, одномерного спуска), разнесённость в пространстве обучающей информации и изменчивость оцениваемых характеристик функции приводят к разрушению глобальных свойств сходимости конечных многошаговых CTpaieniii обучения, что определяет актуальность целенаправленного создания устойчивых алгоритмов обучения, отдельные шаги которых одновременно реализуют н некоторую итеративную стратегию (локальную) улучшения качества ан-нроксимативнон модели метода, т. е. обладают локальными свойствами сходимости.

В работах Я. З. Цынкипа [191, 192] применительно к различным областям знания развиты концепция и единообразный подход к решению проблем построения обучающихся систем и принципы построения алгоритмов обучения, как алгоритмов оптимизации заданного показателя качества. Как выясняется, этот подход эффективен и при создании алгоритмов обучения в РМО, что определяет актуальность его использования при конструировании обучающихся методов оптимизации. В диссертации отмеченный подход используется как унифицированное средство построения и анализа устойчивых алгоритмов обучения — итеративных алгоритмов изменения метрики пространства в схемах РМО, обладающих локальными и глобальными свойствами сходимости. Термин «изменение метрики пространства» используется для обозначения линейною преобразования пространства переменных задачи минимизации, предназначенного для уменьшения вытяпутости поверхностей равного уровня минимизируемой функции.

Развитие области численных методов безусловной оптимизации связано с именами отечественных ученых JI.B. Канторовича, H.H. Моисеева, В. Ф. Демьянова, Ю. Г. Евтушенко, Ю. М. Ермольева, B.C. Михалевича, В. Г. Кармапова, Б. Т. Поляка, Б. П. Пшеничного, Ю. М. Данилина, Е. Г. Голыптейпа, A.C. Пемпровского, Д. Б. Юдина, Ф. Г1. Васильева, П. З. Шора, 10.Е. Нестерова и многих других авторов. Релаксационные методы безусловной оптимизации, в зависимости от используемой информации о функции, можно подразделить па градиентные, субградиешные и прямого поиска.

Во многих задачах минимизации функция задается алгоритмически, а доступпои информацией о функции являются только значения функции. Методы, использующие только эту информацию, называют прямыми методами, методами поиска пли методами без вычисления производных. Прямые методы развивались в работах Ф. Л. Черноусько, В. Г. Карманова, Б.II. Пшеничного, О. П. Бурда кома, М. М. Потапома, Л. А. Растригнпа, Пауэлла, Брента, Бродлн и др. Им поснящена обширная литература (см., например [13, 16, 28, 60, 150, 154, 160−164, 168, 200]). Прямые методы можно подраздели п> на методы минимизации гладких и негладких функций.

Одно из слабых месг релаксационных методов прямого поиска — это отсутстние эффективных методов минимизации сложных негладких функций. К релаксационным методам минимизации негладких функций относят метод деформируемого многогранника (МД) (см., например, [28, 37, 154]) и методы случайного поиска (СП) [165, 166, 168], различные модификации которых исследовались в работах [3, 18, 50, 51, 54, 55, 60, 62, 85, 110, 169, 172]. Исследования С. И. Нестеровой и В. Л. Скокова [149] показали, что МД в состоянии решить лишь часть задач размерности 2 из предложенного множества многомерных негладких задач. Более предпочтительным для этих целей является метод случайного поиска (СГ1), поскольку он сходится линейно [60, 61] (В.Г. Карманов), а адаптация шага Л. А. Расстригина, Г. С. Тарасспко [169, 179] обеспечивает его сходимость па негладких функциях, по оп имеет медленную скорость сходимости па овражных функциях. Отмеченные обстоятельства определяют актуальность исследований диссертации по созданию алгоритмом обучения метрики в методах СП для ускорения их сходимости и расширения области решаемых ими гладких и негладких задач оптимизации.

В этой связи м качесте задач работы являются: разработка и исследование механизмов обучения в процедурах адаптации шага методов СП (т.е. формулировка функционала обучения и построение градиентного алгоритма обучения) и создание на этой основе алгоритмом пространственной адаптации шагаразработка и исследование устойчивых схем обучения метрики пространства в методах СП па оспоме квадратичной модели функции. В рамках этих задач в диссертации исследуется скорость сходимости методов СП без одномерного спуска, изучаются алгоритмы обучения процедур адаптации шага и способы опшмизации их параметров [52], обобщение которых приводит к алгоршму с пространственной адаптация шага, реализуемого с номощыо операторов растяжения пространства [195] в виде мафицы метрики [50]. В работе теоретически и численно исследуется подход изменения плотности испытаний в методах СП, который состоит в итерационном отыскании повой метрики пространства в предположении квадратичной модели функции [18, 51, 54, 66, 69, 86, 102]. В алгоритмах подобного рода вычисления функции используются в процессе оптимизации и в процессе построения сопряжённых векторов алгоритмами обучения, а процеес обучения обладает локальными свойствами сходимости. Отмеченные алгоритмы организованы таким образом, что они работоспособны и эффективны при минимизации сложных негладких функции, в том числе и кусочпо-липейпых [18]. Разработанные методы случайного поиска с изменением метрики охватывают спектр задач применимости алгоритмов Розепброка, деформируемого многогранника и его модификаций и превосходят их, но скорости сходимости при минимизации сложных гладких и негладких функции [18, 54, 55, 86, 102]. В заключение следует отметить, что алгоритмы СГ1 с изменением метрики пространства получены в результате использования формализма теории обучения па стадии их создания.

Известные эффективные методы минимизации гладких функций прямого поиска осиовывакнся либо па конечиоразпостпой аппроксимации метода Ныотоиа [28, 154] или квазиныотоновских методов (КИМ) [28, 154], либо используют схему минимизации вдоль лнпеипо-независимон системы векторов, с одновременным их преобразованием в сонряжеипые векторы относительно матрицы Гсссс [28, 154, 200, 201, 225]. Последнюю группу методов будем называть методами сопряженных направлений (МСП). Методы типа MCII основаны па использовании метода покоординатного спуска в меняющейся метрике (см., например, [12, 13, 60, 150, 154, 160−164, 201, 225]). По результатам вычислительного эксперимента можно выделить несколько наиболее эффективных алгоршмов: Пауэлла [225], Брента [200], Бродлн [201], Пшеничного [160] п Пшеничпою-Редковского [162−164]. Мы попытаемся оцепить локальные свойства сходимости схем построения сопряженных векторов в отмеченных алгоритмах, поскольку они обеспечивают эффективность обучения в условиях больших возмущений.

В методах Пшеничного и Пшеничного — Редковского схема минимизации и схема построения сопряженных векторов реализованы раздельно, т. е. не используется совмещение затрат вычислений функции па обучение и поиск минимума. Для проведения итерации требуется п2 вычислений функции. Для некоторых задач эта величина может оказаться излишне большой. В методе [164] вычисляется конечно разностная аппроксимация матрицы вторых производных в точке. Схемы преобразования векторов в методах [160, 162, 163] основаны па использовании порций информации о матрице вторых производных. Они существенно опираются на сопряженность уже построенных векторов, т. е. не являются устойчивыми к большим ошибкам па стадиях алгоритма, которые возникают вследствие разнесённости обучающей информации в пространстве минимизации и изменчивости свойств характеристик функции.

На одной итерации меюдов Пауэлла, Брента, Бродли затрачивается 3п вычислений функции. В алгоритмах Пауэлла и Брепта требуется точный одномерный спуск и приходится затрачивать значительные вычислительные усилия для борьбы с линейной зависимостью векторов [200], а их схемы обучения чрезмерно зависимы от степени сопряженности уже построенных векторов, т. е. их алгоритмы 'обучения неустойчивы к большим возмущениям па ранних итерациях. По эти причине эффективность эiих методов падает с ростом размерности. Метод Бродлп [201] - один из первых методов типа MCII, в котором используется устойчивая схема обучения и не требуется точный одномерный спуск. В этом методе используются онера юры вращений для преобразования пары смежных векторов спуска, на основе характеристик вторых производных в плоскости двух векторов. По его схема обучения пе позволяет построить за конечное число шагов систему сопряженных векторов, что существенно ограничивает возможности метода при росте размерности.

Отмеченные обстоятельства определяют актуальность создания алгоритмов обучения метрики, обладающих локальными и глобальными свойствами сходимости. В диссертации исследуется скорость сходимости класса методов минимизации вдоль векторов линейно-независпмоп системы, оценки которой в случае минимизации силыювыпуклых функций впервые получены в работе [77], разработано семейство алгоритмов построения сопряженных векторов, сочетающих локальные и глобальные свойства сходимости процесса обучения, и, на этой основе построен метод минимизации тина MCII [68, 78]. Свойства схемы обучения метода минимизации определяют его высокую эффективность и устойчивость к повышению размерности [68].

Методы сопряженных градиентов (МСГ) и квазипыотоноьекпе методы (КИМ) изучались в работах 10. Г. Евтушенко, В. Г. Кармапова, Б. Т. Поляка, Б. П. Пшеничного, Ю. М. Данилина, О. П. Бурдакова, Хестенса, Штифеля, Девидона, Флетчера, Рив-за, Пауэлла, Бройдена, Денниса, Шиабеля, Морэ и многих других авторов. Квазпныо-тоновекпе методы (КИМ) (ем., например, [28, 42, 43, 153, 154, 161, 203, 205, 209, 210, 212]) используют итерационную схему метода Пыотона, а необходимую для реализации матрицу Гессе (либо обратную к ней матрицу) восстанавливают на основе градиентов, получаемых в процессе работы алгоритма. При точном одномерном спуске задача минимизации квадратичной функции решается КИМ не более чем за п итераций, а векторы спуска являются сопряженными. Па первом этапе развития КИМ были разработаны формулы восстановления Гессиана или обрашой к нему матрицы [203, 205, 209, 210, 212]. В результате исследований выявлено значительное множество формул пересчета матриц в квазипыотоповскнх методах, проведен экспериментальный и теоретический анализ существующих методов (см., например, [28, 42] и подробный обзор [148]).

Экспериментально установлено, по не объяснено, что и КИМ наилучшие результаты имеет формула пересчета ВРСБ [42]. Оказывается, что. КИМ без точного одномерного спуска более эффективны, нежели с одномерным спуском (см., например [28, 42]). Предпринятые попытки повысить эффективность КИМ при неточном одномерном спуске, за счет явных или неявных схем последовательного построения сопряженных векторов (см., например, [42, 206]), не увенчались успехом [28, 42]. Такие методы оказались менее эффективными, нежели обычные КИМ с неточным одномерным спуском [42]. Одной из причин подобных неудач является изменчивость матрицы вторых производных в пространстве минимизации, т. е. несоответствие получаемой информации о матрице вторых производных некоторой фиксированной матрице, усиливаемое эффектом практически линейной зависимости векторов спуска, возникающей в силу протекания процесса минимизации на определенном отрезке итераций в некотором подпространстве малой размерности. По этим причинам процесс построения последовательности сопряженных векторов неустойчив, и, как следствие, процедуры восстановления матриц, построенные на этой основе не работоспособны.

Отметим некоторые из актуальных проблем КИМ методов, которые требуют своего разрешения. Сегодня отсутствую!: единообразные, обозримые и легко анализируемые способы вывода формул пересчета матриц п формализация алгоритмов обучения, которая устанавливает обозримую взаимосвязь сходимости алюрнгма обучения и алгоритма минимизации в КИМобъяснение преимуществ формулы пересчета ВРвБобъяснение причин высокой скорости сходимости КИМ при неточном одномерном спускеметоды КИМ с неточным одномерным спуском, конечные па квадратичных функциях, которые позволяют избежать неустойчивой процедуры построения полной системы сопряженных векторовоценки скорости сходимости и анализа ускоряющих свойств методов КИМ в области оптимизации в условиях отсутствия вторых производных. В этой связи является актуальным объяснение установленных экспериментально фактов и создание устойчивых к линейной зависимости векторов спуска алгоритмов обучения метрики, обладающих локальными и глобальными свойствами сходимости при неточном одномерном спуске.

Исследования диссертации направлены па изучение и разрешение этих проблем с привлечением формализма теории обучения. Алгоритмы теории обученияодношаговый (алгоритм Качмажа) и двухшаговын алгоритмы минимизации показателя качества обучения используются для построения одпошагового и двухшагового алгоритмов обучения в квазипыотоповскнх методах. В работе выявлена взаимосвязь одношагового алгоритма обучения, устанавливающего выполнимость одного обучающего соотношения, с формулами пересчета матриц ЭРР и ВРСБ (одношаговыми алгоритмами обучения матриц) [82, 87]. Полученная формализация алгоритмов обучения в случае квадратичных функций устанавливает единство направлении спуска алгоритма обучения п алгоритма минимизации [70, 71, 82, 87] и позволяет дать качественное обоснование преимуществ формулы ВРСБ. Применение на произвольных итерациях включений двухшаговых алгоритмом обучения матриц, т. е. алгоритмом устанавливающих выполнимость двух смежных квазиныотоновских обучающих соотношений, позволяет получить конечный па квадратичных функциях квазипыотопов-екпй метод при неточном одномерном спуске, устойчивый к линейной зависимости векторов спуска [70, 71, 82]. Эю означает возможность, но кусочкам сложить конечный алгоритм обучения матриц, причем, за счет выбора в процессе минимизации нар вектором существенно лнпснпо-пезависимых, процесс обучения становиться устойчивым. Оказывается, включения точного одномерного спуска на произвольных итерациях эквивалентны включению двух’шагового алгоритма обучения матриц, и приводят к конечному окончанию процесса минимизации па квадрашчпых функциях [70, 71, 82]. Поэтому, если в алгоритме одномерного спуска квазииыотоповского метода изредка находится почти точный минимум (например, вследствие использования кубической интерполяции), то такой метод будет иметь высокую скорость сходимости, что обьяспяет эффективность квазиныотоновских методов при неточном одномерном спуске. Кроме отмеченных задач в диссершции изучается глобальная (во всей области минимизации) скорость сходимости КИМ методов в случае. минимизации сильновыпуклых функций, градиент коюрых удовлетворяет условию Липшица, при условии отсутствия вторых производных. Полученные оценки свидетельствуют о наличии ускоряющих свойств у КИМ методов, подобных ускоряющим свойствам па всей области минимизации метода Пыоюна, где необходимо наличие вторых производных [67, 76, 82, 84].

Развитие численных меюдов негладкой оптимизации связано с именами ученых И. И. Астафьева, В. Г1. Булаюва, Ф. П. Васильева, Е. Г. Голыптепна, А. М. Гупала, В. Ф. Демьянова, 10. М. Ермольева, И. II. Еремина, Ю. А. Левина, В.II. Малоземова, А. С. Пемировского, Е. А. Пурмпиского, Ю. Е. Нестерова, Б. Т. Поляка, II. 3, Шора, Д. Б. Юдина, Лемарешаля, Вульфа, Келлн и многих других. Субграднептиые методы предназначены для минимизации недифферепцируемых функций (см., например, [29, 40,41,44, 58, 82, 130, 142, 154, 159, 195, 197, 198, 214, 216, 217]). В области негладкой оптимизации можно наблюдать большое разнообразие подходов построения методов минимизации (см., например, [29, 40, 58, 82, 130, 154, 195, 197]), об эффективности которых можно судить, опираясь па результаты численных исследований (см., например, [29, 147, 149, 175, 195, 218]). В [147, 149] сформирована методика многокритериального численного анализа методов негладкой оптимизации. Результаты числепного исследования С. И. Нестеровой и В. Л. Скокова [149] известных методов негладкой оптимизации: метода эллипсоидов (МЭ — A.C. Пемпровский, Д. Б. Юдин.) [146], r-алгоритма (MUI — II.3. Шор) [195, 196], метода ортогонального спуска (МОСВ.А. Скоков, М.Б. Щепакип) [177, 197], и разработанного в последние юды, метода уровней (МУ — Е. Г. Голынтейн, A.C. Пемпровский, 10.В. Нестеров) [29, 217], с одной стороны — демонстрируют высокую эффективное п. метода МУ относительно других методов по критерию числа вычислений функции и субградиента, а с другой — выявляют необходимость создания эффективных, но критерию времени счета, надежных методов негладкой оптимизации. Среди исследуемых методов реализации методов МЭ, MUI и МУ не используют каких либо дополнительных свойств функции, кроме выпуклости, т. е. являются методами общего назначения. Алгоритмы Mill и МУ справляются с задачами высокой размерности, хотя и не со всеми, а их совершенствование может привести к возможности решения задач порядка 1000 переменных, поскольку современные ЭВМ обладают значительным быстродействием и оперативном памятью. При прочих достоинствах, МШ среди исследуемых методов, единственным пригодный для решения иевыпуклых задач оптимизации. Сегодня существует проблема создания универсальных, падежных методов негладкой оптимизации, эффективных при решении гладких и негладких, в том числе и иевыпуклых, задач, конкурирующих, но свойствам скорости сходимости с методами, основанными на квадратичной, либо кусочно-линейной моделях функции, па классах функций, промежуточных отмеченным базовым классам.

Одна нз возможностей создания подобных методов заключается в совершенствовании класса релаксационных методов ссубфадиентиого типа (РСМ), к числу которых относятся методы Лемарешаля и Вульфа [216, 219, 231]. Методы этого класса, как и r-алюритм, пригодны для решения иевыпуклых гладких и негладких задач оптимизации, генерируют, как и предельный вариант r-алтрнтма, па квадратичных функциях сопряженные направления и находят минимум за конечное число итераций [15, 40, 195, 216, 219, 231], по существенно уступают в скорости сходимости г-алюрнтму. В методах Лемарешаля и Вульфа искомое направление спуска — кратчайший вектор множества, который вычисляется алгоритмами обучения. Недостатком методов Лемарешаля и Вульфа является низкая адаптивность содержащихся в них алгоритмов обучения, и необходимость частых обновлений с потерей накопленной информации. Происхождение r-алгорптма и его определяющие соотношения обучения не определены, а его существующие реализации на сложных задачах имеют либо низкую скорое ib сходимости, либо не позволяют их решить. В этой связи, для создания надежных и эффективных РСМ необходимо создание теории, назначение которой определить удобные определяющие соотношения обучения, разработать эффектнопые алгоритмы обучения и методы оптимизации на их основе, объяснить происхождение r-алгоритма, выявить его обучающие соотношения, ускоряющие свойства при конечных параметрах растяжения пространства и создать эффективные способы реализации РСМ.

Исследования диссертации направлены па решение поставленных актуальных задач с привлечением формализма теории обучения. В [72, 118] определяющее соотношение нахождения вектора спуска, как решения задачи нахождения ближайшего к пачалу координат вектора отделимого множества, заменено на решение задачи множества неравенств, которая, в свою очередь, представлена в виде задачи решения множества равенств с ошибками. Это дало возможность получить несколько алгоритмов обучения для решения неравенств и создать на нх основе эффективные релаксационные субграднеигпые методы [75, 80, 82, 83, 92−94, 109, 114−120, ]: метод сопряженных субградпептов [72, 82, 116, 117, 120], в основу которого положен одпоша-гошлм алгоритм обучения, и субградпепшые методы с растяжением пространства [80, 82, 118, 119], алгоритмы обучения которых созданы па основе алгоритма обучения с растяжением пространства. В частности, па основе алгоритма обучения с растяжением пространства разработано семейство матричных методов обучения [80, 82, 118], отдельным случаем которого япляс1ся алгоритм обучения, вычлененный из г-алгоритма. На этой основе разработано одноранговое семейство релаксационных суб-граднептных методов [80, 82], частым случаем которого является r-алгоритм. Обоснованы ускоряющие свойства r-алгоритма па сплыювыиуклых функциях при конечных значениях параметра растяжения пространства [65, 82], эквивалентные ускоряющим свойствам метода Пыотона в условиях отсутствия стабильности матрицы вторых нронзводпых.

Методы сопряженных градиентов [154] основаны па квадратичной модели минимизируемой функции. Вследствие малых затрат памяти они применимы для решения задач большой размерности, например, при решении задач аинрокснмацнн горпо-гсологических объектов (см., например, [11, 19−22, 97, 99−101, 103−106, 111−113, 121, 136, 155−157, 170, 182]) и нейросетевых приближений [27, 32, 34], где возникают задачи минимизации высокой размерности, связанные с оценкой неизвестных параметров моделей [19−21, 88, 90, 91, 97, 101, 103−106, 111−113, 121, 157, ]. В начале раздела отмечался неустойчивый характер алгоритмов обучеиня в методах сопряженных градиентов. В этой связи одна из целей работы — теоретическое и экспериментальное исследование методов типа сопряженных субградпептов, основанных па принципах обучения. Все отмеченные шлше методы сопряженных субградпептов, в том числе и проективный вариант r-алгоритма при предельных значениях параметра растяжения пространства, эквивалентны метод)' сопряженных градиентов на квадратичных функциях. В работах [72, 82, 116, 117, 120] изложен новый метод сопряженных субградн-ентов, который по затратам памяти эквивалентны методу сопряженных градиентов, а его алгоритм обучения сохраняет работоспособность п условиях потерн сопряженности пеночки построенных векторов спуска. Такие методы эффективны в условиях неточного одномерного спуска при минимизации гладких и негладких функции [82, 116].

Эффективность алгоритма и его полезность подтверждается многими компонентами численного исследования и приложениями. Одним из назначений создаваемых алгоритмов является их применение для реализации схем структурно-параметрического моделирования при решении отмеченных выше актуальных прикладных задач. Созданию конкретной системы построения модели предшествуют предварительные этапы формирования множества моделей, оценки качества моделей, подбора алгоритмов оценивания их параметров и т. д. Для их выполнения необходим комплекс падежных и проверенных алгоритмов оптимизации. Отсутствие падежного и эффективного алгоритма для идентификации модели может привести к неправильным выводам о ее свойствах н отбраковке, как не перспективной. Эти обстоятельства определяют акту альность создания программного комплекса РМО, численного исследования и сравнения с известными методами его алюрнтмов и определения областей их приложений. В рамках поставленной задачи создана модульная система программ, в которой реализованы разработанные алгоритмы. Алгоритмы системы исследованы численно, а на базе ее алгоритмов решен ряд прикладных задач построения и анализа математических моделей: прогнозирования свойств терморегулирующих покрытий па основе результатов ускоренных испытаний [137−141, 220, 221]- определения нестационарных законов горения пороха на основе манометрических испытаний [190]- оценивания неизвестных параметров моделей при аппроксимации горногеологических объектов [19−21, 97−101, 103−106, 111−113, 121, 157]- построения моделей по экспериментальной информации [4, 17, 24, 25, 96, 123, 125]- экономико-математического анализа данных [23, 79, 81]- построения иейросетевых приближений и выбора модели минимальной сложности при аппроксимации пейросетями [88−91, 95, 124].

Таким образом, разработка эффективных релаксационных методов безусловной оптимизации, основанных па итеративных алгоритмах обучения, создание комплекса их программ, определение областей их приложений и применение в вычислительных схемах структурно-параметрического моделирования является актуальной научной проблемой.

Диссертационная работа выполнена в соответствии: с планами ПНР КемГУ по кафедре математической кибернетики 1991;2004 гг.- с грантом Российского фонда фундаментальных исследований (код проекта 04−03−33 121) — с программой «Университеты России» (код проекта УР.04.01.044) — договорной тематикой с угольными компаниями Кузбасса, ПТЦ «Кузбассуглстехнология» и с корпорацией «Кузбассинвест-уголь" — с Комплексной региональной программой научных исследовании и внедрения совместных работ СО АН СССР и Министерства угольной промышленности СССР, «Программа «Сибирь» «, раздел «Уголь Кузбасса», и приказами Министерства угольной промышленности СССР от 16.11.79, п № 315 от 24.06.80.

Цель работы состоит в разработке и исследовании эффективных релаксационных методов безусловной оптимизации, основанных па итеративных алгоритмах обучения, создании комплекса их программ и применении его алгоритмов в вычислительных схемах структурно-параметрического моделирования.

Идея работы заключается в использовании теории адаптации и обучения для создания устойчивых к возмущениям и смене ситуаций итеративных алгоритмов обучения в релаксаниопных методах безусловной оптимизации.

Зад, а ч 11 п ссл сд о ва 1111 п:

1. Дать анализ условий функционирования алгоритмов обучения в методах безусловной оптимизации и определить для подобных условии алгоритмы обучения.

2. Разработать алгоритмы обучения метрики в методах прямого поиска и эффективные методы прямого поиска с изменением метрики пространства на их основе.

3. Разработать устойчивые к линейной зависимости векторов спуска алгоритмы обучения метрики в квазппыотоповских методах.

4. Разработать эффективные релаксационные методы сопряженных субградиентов ссубградиентного типа с растяжением пространства.

5. Разработать программный комплекс релаксационных методов безусловной оптимизации, основанных на итеративных алгоритмах обучения, для решения прикладных задач структурно-параметрического моделирования.

М етод I"! иссл сд о в, а 1111 й:

• методы теории адаптации и обучения для создания алгоритмов обучения;

• методы линейной алгебры, статистики, нелинейного программирования, функционального анализа для разработки и теоретического анализа алгоритмов оптимизации;

• тестирование и сравнение алгоритмов для численного анализа эффективности новых методов минимизации;

• методы анализа данных и закономерности изучаемых явлений для оценивания параметров н структуры математических моделей в разрабатываемых системах математического м одел нр о ва 11 ия.

Научная н практическая новизна работы заключается в том, что в пей:

1. Впервые в методах случайного поиска (СП) использовано обучение метрики и созданы эффективные методы СП с варьированием метрики для решения сложных гладких и негладких задач безусловной ошимизацнп.

2. Впервые для класса методов минимизации вдоль векторов линейно независимой системы получены оценки скорости сходимости па сильновыпуклых функциях и разработано семейство конечно-сходящихся итеративных алгоритмов обучения с ограниченной релаксацией для построения сопряженных направлений, сочетающих локальные и глобальные свойства сходимости процесса обучения. Па этой основе создан эффективный меюд минимизации без вычисления производных (МСП).

3. Впервые формализм теории адаптации п её алгоритмы минимизации показателя качества обучения (одпошаговый и двухшаговый) применены в субгради-ситпых и квазипыотоповских методах для разработки новых алгоритмов обучения, обладающих локальными и глобальными свойствами сходимости. Одпошаговый алгоритм обучения в квазипыотоповских методах приводит к известным формулам преобразования матриц, а двухшаговыйобеспечивают конечную сходимость меюда при неточном одномерном спуске. Одпошаговый алгоритм обучения позволяет разработать новый метод решения неравенств н новый субградиептпый метод (РСМК) на его основе.

4. Разработаны новые алгоритмы обучения с растяжением пространства: алю-ритм для решения множества равенствалгоритм для решения неравенств на отделимых множествах. Па основе алгоритма решения неравенств разработан новый релаксационный субградиентный метод с растяжением пространства в направлении субградиепта (МРГ1) для решения сложных задач оптимизации.

5. Разрабокш новый матричный алгоритм обучения для решения неравенств и посгроеио одноранговое семейство релаксационных субграднептпых методов па его основе, в коюрое, как частный случай, входит г-хлгоритм н обобщение метода Вульфа.

6. Впервые для долгосрочною прогнозирования изменений коэффициента поглощения солнечной радиации терморегулирующих покрытий космических летательных аппаратов по данным лабораторных испытаний разработаны: комплекс математических моделей оптической деградации терморегулирующих покрытий и схемы их построениясхема анализа построенного множества моделей н выбора модели для прогноза.

7. Впервые разработан комплекс программ релаксационных методов (ПКРМО), значительная часть алгоритмов которою предназначена для решения сложных негладких задач оптимизации, в том числе п певыпуклых, что существенно расширяет возможности решения задач структурно-параметрического моделирования.

Основные положении, выносимые па защиту.

1. Итеративные алгоритмы обучения метрики и численные методы случайного поиска с изменением метрики на их основе для решеппя сложных гладких п негладких задач безусловной оптимизации.

2. Скорость сходимости класса методов минимизации вдоль векторов линейно независимой системы, конечно-сходящиеся итеративные алгоритмы обучения с ограниченной релаксацией для построения сопряженных направлений и численный метод прямою поиска с изменением метрики на этой основе.

3. Формализм и алгоритмы минимизации показателя качества теории обучения позволяют разработать эффективные алгоритмы обучения в методах сопряженных с^бградиеитов и квазиныотоповских методах: одношаговый алгоритм обучения, в квазипыотоновских методах, приводящий к известным способам преобразования матриц, двухшаювый алгоритм обучения матриц, обеспечивающий конечную сходимость методаодношаговый алгоритм обучения для решения неравенств и еубграднеитпый метод РСМК на его основе для решения негладких задач оптимизации высокой размерности.

4. Алгоритм обучения с растяжением пространства для решеппя равенств и неравенств, релаксационный субградиентный метод с растяжением пространства в направлении субградиента МРП на ею основе для решения сложных гладких и негладких задач оптимизации, ею свойства и реализация.

5. Матричный алгоритм обучения для решения неравенств и одноранговое семейство релаксационных субградпентных методов на его основе, в которое, как частный случай, входит г-алгоритм и обобщение меюда Вульфа.

6. Комплекс математических моделей ошической деградации терморегулнрую-щнх покрытий, схемы их построения, анализа и выбора модели по данным лабораторных испытаний для долгосрочного прогнозирования изменении коэффициента поглощения солнечной радиации терморегулпрующнх покрытий космических летательных аппаратов в заданных условиях эксплуатации.

7. Комплекс программ разработанных методов прямого поиска, квазиныотоповских и субградиентиых методов ПКРМО является надежным и эффективным средством решения сложных задач безусловной оптимизации и реализации оптимизационного инструментария в задачах структурно-параметрического моделирования.

Достоверность научных положений и выводов подтверждается:

• строгими теоретическими оценками скорости сходимости созданных алгоритмов обучения;

• корректным теоретическим анализом сходимости, скорости сходимости и ускоряющих свойств, созданных чпслеииых методов оптимизации;

• результатами тестирования па общепринятых тестах с известными решениямисравнением результатов тестирования новых алгоритмов с результатами для известных методов, полученных другими авюрами;

• корректным использованием статистических методов оценивания качества получаемых прикладных моделей в задачах оценивания параметров и структуры математических моделей сложных явлении.

Личный вклад автора coci опт:

• в разработке и обосновании методов СП с изменением метрики, метода минимизации без вычисления производных, единообразного подхода создания, обоснования и реализации новых релаксационных методов минимизации негладких функций и квазипыотоновских методов, алгоритмов решения множества неравенств и субградиентных методов минимизации;

• в разработке программного комплекса методов оптимизации с обучением и про-1раммпых средств определения параметров и структуры математических моделей в задачах математического моделирования;

• в создании системы математического моделирования и долгосрочного прогнозирования изменений коэффициента поглощения солнечной радиации терморегулп-рующих покрытий космических летательных ашшраюв.

Практическая значимость результатов работы.

Разработанные релаксационные методы безусловной оптимизации можно использовать при решении сложных задач оптимизации и для реализации программных средства оптимизации в прикладных задачах математического моделирования, и, в частности: при долгосрочном прогнозирования изменений коэффициента поглощения солнечной радиации терморегулирующпх покрытий, при определении нестационарных законов горения пороха на основе манометрических испытаний, при обучении нейронных сетей, при построении нейронной сети минимальной сложности методом негладкой регуляризации, при выявлении структуры поверхности по данным наблюдения.

Апробация работы. Основные положения диссертационной работы докладывались и были одобрены па:

• VIII н XII Всероссийских семинарах «Пейронпформатика и ее приложения» (Красноярск, 2000, 2004 гг.);

• Четверюй Международной школе-семинаре «Внутрпкамериые процессы, горение и газовая динамика дисперсных систем» (Санкт-Петербург, Россия, 2004г);

• Всероссийской конференции «Паука и практика: Диалоги нового века» (Апжеро-Суджепск, 2003, 2002 гг.) — Всероссийской научно-практической конференции «Паука и образование» (Белово, 2001, 2002 гг.);

• Международной школе-семипаре по методам оптимизации и их приложениям (Иркутск: СЭИ, 1989, 1995, 1998 гг.);

• Международной конференции по математическому моделированию (Якутск, 1994 г.) — десятом Всесоюзном симпозиуме «Системы программного обеспечения решения задач оптимального планирования» (Москва: АН СССР, ЦЭМИ, 1988 г.);

• I и II Всесоюзных семинарах «Информатика недр» (г. Кемерово, 1987 г., 1989 г.);

• VII Международном конгрессе, но маркшейдерскому делу (г. Ленинград, 1988 г.);

• VII региональной конференции по математике и механике (Томск, 1981 г.);

• Всесоюзном научно-техническом семинаре «Численные методы нелинейного программирования» (Харьков, 1979 г.);

• Всесоюзном совещании «Применение случайного поиска при решении прикладных задач» (Кемерово, 1979 г.);

• симпозиуме «Вероятиост шле вычислительные методы и средства» (Москва, 1978 г.) — Всесоюзном семинаре «Случайный поиск и системы автоматизированного проектирования в электронике» (Цахкадзор, 1978 г.);

• IV Всесоюзном совещании по статистическим методам в теории управления (Фрунзе, 1978 г.);

• Всесоюзной школе-семипаре по оптимизации динамических систем (Минск, 1977 г.).

Публикации. По теме диссертации опубликовано 72 научных работы, список которых приведен в конце авюреферата. По результатам исследований опубликованы работы [4, 17−21, 23−25, 49−55, 65−125, 137−141, 157, 190]. Основные результаты представлены в работах [54, 66, 77, 83, 82, 118, 137, 138, 139, 140, 141].

Структура работы. Диссертация состоит из введения, шести глав, заключения и приложения. Объем диссертации составляет 290 страниц машинописного текста, в том числе содержит 31 таблицу и 6 рисунков.

Список литературы

включает 231 наименование, приложения изложены на 8 страницах.

Основные результаты диссертации заключаются в следующем:

Для класса методов случайного поиска разработаны итеративные алгоритмы обучения метрики и построены эффективные численные методы случайного поиска с изменением метрики на их основе для решения сложных гладких и негладких задач безусловной оптимизации.

Для класса методов минимизации вдоль векторов линейно независимой системы получены оценки скорости сходимости па спльповыпуклых функциях и разработано семейство конечно-сходящихся итеративных алгоритмов обучения с ограниченной релаксацией для построения сопряженных направлений, сочетающих локальные и глобальные свойства сходимости процесса обучения. На этой основе создан эффективный метод минимизации без вычисления производных (МСН).

Формализм теории адаптации и одпошаговый и двухшаговый алгоритмы минимизации показателя качества обучения позволяют разработать эффективные алгоритмы обучения в субградиентных и квазипыотоновскнх методах, обладающие локальными и глобальными свойствами сходимости. Одпошаговый атгорнтм обучения в квазиныотоновеких методах приводит к известным способам преобразования матриц, а двухшаговый — обеспечивают конечную сходимость метода при неточном одномерном спуске. Одпошаговый алгоритм обучения позволяет построить метод решения неравенств па отделимых множествах н субградиептпый метод (РСМК) па его основе.

Разработаны новые алгоритмы обучения с растяжением пространства: атгорнтм для решения множества равенствалгоритм для решения неравенств на отделимых множествах. На основе алгоритма решения неравенств разработан новый релаксационный субградиептпый метод с растяжением пространства в направлении субградиспта (МРП) для решения сложных задач оптимизации.

Разработай новый матричный алгоритм обучения для решения неравенств и построено одноранговое семейство релаксационных субградиентных методов па его основе, в которое, как частный случай, входит г-алгоритм и разработанное обобщение метода Вульфа.

Для долгосрочного прогнозирования изменений коэффициента поглощения солнечной радиации тсрморсчулпрующих покрытий космических летательных аппаратов по данным лабораторных испытаний разработаны: комплекс математических моделей оптической деградации терморегулирующих покрытий и схемы их построениясхема анализа множества моделей и выбора из него модели, на основе которой осуществляется прогноз при заданных условиях эксплуатации.

7. Разработан комплекс программ ГЖРМО созданных методов: прямого поиска, квазиньютоновскиих и субградиентных. Алгоритмы комплекса ПКРМО являются надежным и эффективным средством решения сложных задач безусловной оптимизации и реализации оптимизационного инструментария в задачах струкгурно-параметрического моделирования.

ЗАКЛЮЧЕНИЕ

.

Показать весь текст

Список литературы

  1. С.А. и др- Прикладная статистика: основы моделирования и первичная обработка данных. — М.: Финансы и статистика. — 1983.
  2. А.П. Оптимизация процессов автоматизированного синтеза управления космическими аппаратами: Дпсс. па сиск. уч. степени доктора техн. наук. -Красноярск: ССА, 1996.-265с.
  3. А.П. Оптимизация функционалов с булевыми переменными. -Томск: ТГУ.- 1986.-129с.
  4. В.Е., Крутиков В. П., Тризпо С. К. Математическое моделирование грузоподъёмности мягких оболочек прямоугольного типа // Горное давление в очистных и подготовительных выработках. -Новосибирск: ИГД. -1988. -С.75−79.
  5. М. Введение в методы оптимизации. М.: Наука. — 1977. — 343с.
  6. A.B., Труппшеов В.II. Методы численного анализа линейных и нелинейных операторных методов с необратимыми операторами: Учеб. пособие. -Кемеровский гос. уп-тю. 2000. — 56с.
  7. . Методы оптимизации. Вводный курс/ Пер. с англ. М.: Радио и связь. -1968.-128с.
  8. II.В., Петров В. М., Чериоусько Ф. Л. Чпслепиое решение вариационных и краевых задач методом локальных вариаций// Жури, вычпел. матем. и матсм. фпз. -1966. -Т.6. -С. 947−961.
  9. Бахвалов II. C Численные методы. Т. 1. -М: Паука, 1973 г. 631с.
  10. Ю.Беперджи П., Ваттерфнлд Р. Методы граничных элементов в прикладных науках. -М.: Мир, 1984.
  11. В.А. Геометрия недр. -М: Недра, 1985. -526с.
  12. О.П. Методы типа сопряженных направлений для решения систем уравнений н поиска седловых точек. 1.//Изв. АН СССР. Техн. киберпет. -1982. -№ 3. -С 17−24.
  13. О.П. Методы типа сопряженных направлений для решения систем уравнений н поиска седловых точек. П.//Изв. АН СССР. Техн. киберпет. -1982. № 4. -С 26−33.
  14. М. Стохастическая аппроксимация. -М: Мир. 1971. -295с.
  15. JI. В. О связи релаксационного метода обобщенного градиента с методом сопряженных? радистов// Тез. докл. 3-го Всесоюзного семинара (Харьков): Численные методы нелинейного программирования. 4.1. -Москва. -1979. -С.45−49.
  16. Ф.П. Численные методы решения экстремальных задач. М.: Наука. -1980.-518с.
  17. Я.С., Крутиков В.Н.Минимизация негладких функций методом случайного поиска // Тез. докл. Второй научно-практической конференции «Паука и образование». -Бедово, БФ КемГУ. -2001. -С 290−292.
  18. В.II., Витковский ЭЛ., Крутиков В. П., Потапов В. П. Прогноз тектонической нарушеппостн угольных месторождений // Горное давление в очистных и подготовительных выработках. -Новосибирск: ИГД. -1990. -С.42−45.
  19. В.Н., Витковский ЭЛ., Покшов В. П. Адаптивное управление подземной технологией добычи угля Новосибирск: Паука. -1987. -232с.
  20. В.П., Крутиков В. П. Использование математического моделирования в задачах оптимизации межотраслевых связей в структуре регионального ТЭК // ТЭК и ресурсы Кузбасса. -2001. -№ 4. -С.62−64.
  21. , В.И., Крутиков В. П., Тризно С. К. Моделирование технологических процессов в очистном забое // -Кемерово: ЦПТИ. -1990.
  22. Вылегжаннн, В Л., Крутиков В. П., Тризно С. К. Оценка эффективности параметров многомашинных очистных забоев // Горное давление в очистных и подготовительных выработках. -Новосибирск: ИГД. -1989. -С.9−16.
  23. А.И. Синтез многослойных схем распознавания образов. -Москва: Энергия. 1974.
  24. А.И. Теория нейронных сетей. -М: ИПРЖР. 2000.
  25. Ф., Мюррей У., Райт М. Практическая ошимизацня. М.: Мир. — 1985. -509с.
  26. Е.Г., Пемировский A.C., Нестеров Ю. Е. Метод уровней, его обобщения и приложения// Экономика и мат. методы. -1995. -Т.31. № 3.
  27. Е.Г., Юдин Д. Б. Новые направления в линейном программировании. -Сов. радио. 1966. -524с.
  28. A.B. Принципы распознавания образов/ А. В. Гоисалес, X. Ту. -М.: Мир. 1977.
  29. А.Н. Обучение нейронных сетей. М.: Параграф, 1990. — 159с.
  30. А.И., Мнркес Е. М. Логически прозрачные нейронные сети // Изв. ВУЗов. Приборостроение. -1996. -Т. 39, № 1. -С.64−67.
  31. А.Н., Россиев Д. А. Нейронные сети па персональном компьютере — Новосибирск: Наука. 1996.
  32. А.Г. Математические модели социалистической экономики. — М.:Экономнка, 1978.-487с.
  33. A.M. Стохастические методы решения негладких экстремальных задач. -Киев: I layкова думка, 1979. 148с.
  34. Дамбраускас А. Г1. Симплекс поиск. -М.: Энергия. 1979.
  35. Ю.М. Об одном классе алгоритмов минимизации со сверхлипейной сходимостью//Жури. вычисл. матем. и матем. физ. -1974. -Т.14, № 3. -С.598−609 .
  36. II.II. Курс магматической экономики. Части I -III / Учебное пособие. -Кемерово: Юпити. 2000.
  37. В.Ф., Васильев JI.B. Недифферепцнруемая оптимизация. М.: Наука, 1981.-384с.
  38. В.Ф., Малоземов В. Н. Введение в мпппмакс. М.: Паука.- 1972. — 368с.
  39. Дж. Шнабель Р. Численные методы безусловной ошнмнзации и решения нелинейных уравнений. М.: Мир — 1988. — 440с.
  40. Ю.Г. Методы решения экстремальных задач и их применение в системах оптимизации. М.: Паука, 1982. -432 с.
  41. Ii.П. О методе штрафов в выпуклом программировании// Кибернетика. -1967.-№ 4.-С. 63−67.
  42. Ю.М. Методы сюхастического программирования. М.: Паука, 1976. -240с.
  43. Ю.С., Квасов Б. П., Мирошниченко B.JI. Методы сплайн-функций. -М.: Наука, — 1980.47.3апгвилл У. И. Нелинейное программирование. Единый подход. М.: Сов. радио, 1973. — 31 1с.
  44. Захаров В. В Стандартные условия тестирования и исследования методов поиска минимума фуикциий многих переменных// Автоматика и вычисл. техника. -1980. -№ 5. Деп. 11.02.80, № 493−80. -31с.
  45. В.В., Крутиков В. Н. Алгоритм случайного поиска с адаптацией весов при векторах памяти //Тезисы докладов совещания: Применение случайного поиска при решении прикладных задач. Кемерово: КемГУ. -1979. -С.20−21.
  46. В.В., Крутиков B.II. Алгоритмы случайного поиска с изменением метрики пространства испытаний //Системы управления. -Томск: изд. ТГУ- 1978. -С.131
  47. В.В., Крутиков В. Н. Алгоритмы случайного поиска с переменной метрикой //Тезисы докладов Всесоюзного семинара: Случайный поиск и системы автоматизированного проектирования в электротехнике. -Ереван. -1979. -С.7−8 .
  48. В.В., Крутиков В. Н. Новые адаптивные алгоритмы случайного поиска и численные эксперименты с ними// Оптимизация динамических систем. -Минск: пзд. БГУ.-1978.-е. 51−55 .
  49. В.В., Крутиков В. Н. Повышение эффективности алгоритмов случайного поиска посредством включения в схему экстраполяции //Проблемы случайного поиска. -Рига: Зипатне. -1978. -Вып.7. -С. 207−213.
  50. В.В., Крутиков В.II. Статистический метод вычисления сопряженных направлений // Кибернетика (Кев). -1984. -№ 6. -С.95−100.
  51. В.В., Крутиков В. Н. Теоретическое н экспериментальное исследование скорости сходимости двух алгоритмов случайного поиска //Вопросы разработки территориальных автоматизированных систем управления. Кемерово: КемГУ. — 1984. -С.65−70.
  52. Я.Б. Горение пороха при переменном давлении// Теория горения поро-хов и взрывчатых веществ. -М.: Паука. -1982. -С. 278 300.57.3оитепдейк Г. Методы возможных направлений. М.: ПЛ.- 1963. — 176с.
  53. С.П., Примак М.Е.О сходимости метода чебышевекпх центров и метода центрированных сечений для решения задачи выпуклого ирофаммироваппя //Докл. АН СССР. -1975. -Т. 222. № 2. -С. 273−276.
  54. А.Г. Индуктивный метод самоорганизации моделей сложных систем. -Киев: 11аукова думка. -1981.
  55. В.Г. Математическое программирование. -М.: Наука.- 1980. -256с.
  56. В.Г. О сходимости метода случайного поиска в выпуклых задачах минимизации//Теория вероятностей и ее применения. -1974. -Т. 19, № 3. -С.817−824.
  57. В.Г. Оценки сходимости итерационных методов минимизации// Жур. вычпел. матем. и матем. фнз. -1974. -Т.14, № 1. -С.3−14.
  58. Компьютеры и системы управления в горном деле за рубежом/ Ю. П. Астафьев, А. С. Зеленский, Н. И. Горлов и др. М.:11едра. -1989. -264с.
  59. В.Н. Абсолютные оценки скорости сходимости г-алгоритма и метода Ныотона// Якутск: Матем. заметки ЯГУ. -1997. -Т.4. № 1. -С. 38−50.
  60. В.Н. Алгоритм случайного поиска с адаптивной метрикой («БРМ») // Свидетельство об официальной регистрации программ № 2 003 612 566. -М: РОС
  61. ПАТЕНТ. Зарегистрировано в реестре программ для ЭВМ, г. Москва, 25 ноября 2003 г. -2003.
  62. В.П. Анализ динамики сходимости квазииыотоновских методов// Ма-тем. заметки ЯГУ. -Якутск. -1994. -Т.1. Выи. 2. -С. 40 48.
  63. В.Н. Быстросходящнйся метод решения задач безусловной минимизации, не требующий вычисления производиых//Газовая динамика. -Томск: ТГУ. -1987. -С.85−99.
  64. В.П. Идентификация квадратичного объекта, но данным текущих изме-репий//Тсзисы докладов совещания: Применение случайного поиска при решении прикладных задач. -Кемерово. -1979. -С. 14−16.
  65. В.Н. Квазипыотоноискпс методы па основе рассредоточенных способов восстановления Гессиана // Матем. заметки ЯГУ. -2000. -Т.7. Вып. 2. -С. 62−81.
  66. В.Н. Квазиныотоповские методы с попарной А-ортоганализацией// Тез. докл. 10-й Байкальской школы-семинара: Методы оптимизации и их приложения. Иркутск: СЭИ. -1995. -С.88−89.
  67. В.Н. Методы минимизации на основе частной модели субградиентных множеств// Методы оптимизации и их приложения/Труды 11-й Международной Байкальской школы-семинара. Иркутск.-1998. -Том 1. -С. 101−104.
  68. В.Н. Методы оптимизации. Часть I: Учебп.-метод. пособие. -Кемерово: КемГУ. -1999. -50с.
  69. В.Н. Методы оптимизации. Часть II: Учебп.-метод. пособие. -Кемерово: КемГУ. -2002. -56с.
  70. В.Н. Новый релаксационный субградпентпый метод с изменением метрики // Всстник КемГУ. Кемерово. -2001. -Вып. 4. -С. 16−22.
  71. В.Н. О скорости сходимости метода BFS и его модификаций// Тез. докл. Международной школы-семинара, но методам оптимизации и их приложениям. -Иркутск: СЭИ.-1989.-С. II4−115.
  72. В.П. О скорости сходимости методов минимизации вдоль векторов линейно-независимой системы//Жур. вычпел. матем. и метем, физ. -1983. -Т.23, № 1. -С.218−220.
  73. В.II. Об одной методике построения методов сопряженных нанравле-пий/АГезисы докладов Всесоюзного научно-технического семинара (г. Харьков): Численные методы нелинейного программирования. Москва. -1979. -С.43−45 .
  74. В.Н. Об одной схеме анализа системы угольных предприятий// Паука и образование: Материалы Всероссийской научной конференции (12−13 апреля 2002 г.): ч2. Белово: БП (Ф) КемГУ. -2002. -С 332−336.
  75. В.II. Одноранговое семейство релаксационных субградиептпых методов с растяжением пространства // Электронный журнал «Исследовано в России».209. -2003. -С 2450—2459. Imp: //zliurnal.ape.rclarn.ru/articlcs/2003/ 209. pdf.
  76. В.II. Оптимизационные задачи моделирования межотраслевого комплекса и методы их решения // Вестник КемГУ. -Кемерово. -2001. -№ 3(7). -С. 2025.
  77. В.П. Релаксационные методы безусловной оптимизации, основанные па принципах обучения: Учебное пособие/ ГОУ ВПО «Кемеровский государственный университет». Кемерово: «Кузбассвузиздат». -2004. -171с.
  78. В.II. Сравнение оценок скорости сходимости г-алгоритма, метода Ньютона и DFP// Te3. докл. десятого всесоюзного симпозиума: Системы программного обеспечения решения задач оптимального планирования. -М: АН СССР, ЦЭМИ. -1988. -С.45−46.
  79. B.II. Сравнение оценок скорости сходимости случайного покоординатного н циклического покоординатною спусков//Примепеиия случайного поиска при решении прикладных задач. Кемерово: КемГУ. -1981. -С.71−75.
  80. В.II. Управление распределением испытаний в алгоритмах случайного поиска// Тезисы докладов 4 Всесоюзного совещания: Статистические методы теории управления. -М.: Наука. -1978. -С.27−28.
  81. В.II. Численные методы нелинейного программирования: Учебп.-метод. пособие. -Кемерово: КемГУ, 1994. -32с.
  82. В.II., Арышев Д. В. Алгоритм последовательного отсева пеипформатив- . пых неременных линейной модели // Вестник КемГУ. -Кемерово. -2004. -№ 1 (17). -С. 124−129.
  83. В.П., Арышев Д. В. Алгоритм построения нейронной сети с минимальным числом нейронов // Наука и образование: Материалы Всероссийской научной конференции (20−21 февраля 2003 г.): Бслово: БИ (Ф) КемГУ, 2003. С 440−445.
  84. В.Н., Арышев Д. В. Исследование субграднеитных мелодов обучения нейронных сетей // Вестник КемГУ. -Кемерово. -2004. -№ 1 (17). -С. 119−124 .
  85. В.П., Арышев Д. В. Метод негладкой регуляризации в задачах контрастирования//Пейроинформатика п ее приложения: Материалы XII Всероссийского семинара 1−3 оклября 2004г/ Красноярск: ИВМ СО РАН, 2004. С.80−81.
  86. В.Н., Арышев Д. В. Метод сопряженных субградиептов с растяжением пространства // Электронный журнал «Исследовано в России» 208. -2003. -С 2439—2449. -http:/zhurnal.ape.relani.m/ articles/2003/208.pdf.
  87. В.II., Арышев Д. В. Реализация алгоритмов однорангового семействасубградиентных методой //Электронный журнал «Исследовано в России» 43. -2004. -С. 464−473. http: //zhumal.ape.relam.ru/ articles/2004/ 043.pdf.
  88. В.П., Арышев Д.В.Об одном методе выделения информативной системы признаков // Материалы Всероссийской научно-практической конференции «Информационные технологии и математическое моделирование» Томск: «Твердыня». -2002.-С 194−196.
  89. В.И., Ворошилов Я. С. Методы построения линейной функции полезности сложных объектов // Вестник КемГУ. -Кемерово. —2001. Выи. 4. -С. 71−76.
  90. В.П., Глушко E.II. Алгоритмы распознавания складок поверхности // Вестник КемГУ. -Кемерово. -2001. -Вып. 4. -С. 60−65.
  91. В.П., Глушко E.H. Методы обнаружения тектонических нарушений // ТЭК н ресурсы Кузбасса: Вестник ТЭК Кузбасса. -2001. -№ 3. -С. 22−23.
  92. В.II., Глушко E.H. Методы распознавания разрывных форм пластовых месторождений //Деп. в ВИНИТИ. -2000. -191-В00. -31с.
  93. В.Н., Глушко E.H. Методы распознавания складчатых форм пластовых месторождений //Деи. в ВИНИТИ. -2000. -190-В00. -38с.
  94. В.П., Глушко E.II. Новый метод аппроксимации поверхности // Деп. в ВИНИТИ. 1999. -1400-В99. -11с.
  95. В.И., Захаров В. В. Модифицированный алгоритм случайного поиска с изменением метрики пространства /Лез. докл.: Статистические методы в горнорудной промышленности. Кемерово: НТО. -1985. —С. 101−102.
  96. В.П., Злобнна СЛ. Методы математического моделирования пластовых месторождений // Тез. докл. Международной конференции, но математическому моделированию. -Якутск. -1994. -С. 144.
  97. В.П., Злобнна СЛ. Методы приближения поверхности, но данным на хаотической сетке па основе алгоритма сдвига штрафов/ // Тез. докл. 10-й Байкальской школы-семипара: Методы оптимизации и их приложения. -Иркутск. -1995. -С.196−197.
  98. В.П., Злобнна C.JI. Прогноз особенностей пластовых месторождений // Тез. докл. Международной конференции, но математическому моделированию. -Якутск.-1994.-С. 143.
  99. В.П., Злобнна СЛ., Бувальцев Н. Ф. Алгоритмы аппроксимации поверхности, заданной значениями в узлах нерегулярной сетки // Матем. заметки.
  100. ЯГУ. -1995. -Т.2, № 2. -С. 110−120.
  101. Крутиков В. IL, Кацэба Г. Б. Методы локальной оптимизации сетевых моделей при ограничениях па ресурсы // Тез. докл. II Всесоюзного семинара: Информатика недр. -Кемерово: ИУ. 1989. -С.39.
  102. В.Н., Кацэба Г. Б. О свойствах модификаций алгоритма с растяжением пространства вдоль разности градиентов// Тез. докл. Международной школы-семинара по методам оптимизации и их приложениям. -Иркутск: СЭИ. -1989. -С. 116−117.
  103. В.Н., Комаров II.Ю. Новый метод решения неравенств с растяжением пространства и субградиентные методы на его основе // Вестник КемГУ. — Кемерово. -2001. -№ 3(7). -С. 73−78.
  104. В.П., Корсакова O.II. Управление метрикой окрестностей в алгоритмах дискретной оптимизации //Тез. докл.: Дискретная оптимизация и компьютеры. -М: ЦЭМИ-КемГУ. -1987. -С.127−128.
  105. В.Н., Папачев A.B. Алгоритмы прогноза парушенпости пластовых месторождений // Тез. докл. II Всесоюзного семинара: Информатика недр. -Кемерово: ИУ. -1989. -С.83.
  106. В.П., Папачев A.B. Новые идеи и методы моделирования поверхностей пластов угля // Тез. докл. II Всесоюзного семинара: Информатика недр. — Кемерово: ИУ.-1989.-С.41.
  107. В.П., Папачев A.B., Потапов В.II. Оценка и сравнение двух методов аппроксимации поверхностей пластовых месторождений // Тез. докл. II Всесоюзного семинара: Информатика недр. Кемерово: ИУ. 1989. -С.47.
  108. Крутиков B. I I., Петрова Т. В. Алгоритм Качмажа с изменением метрики / Деп. в ВИНИТИ. -М. -1999. -394I-B99. -9с.
  109. H.H., Петрова Т. В. Модифицированный алгоритм Качмажа для решения задачи построения разделяющей поверхности //Деп. в ВИНИТИ. -М. -1999. -3940-В99. -1 le.
  110. В.Н., Петрова Т. В. Новый метод решения задач минимизации большой размерности // Вестник КемГУ. Кемерово. -2001. -Вып. 4. -С.65−71.
  111. В.Н., Петрова Т. В. Новый релаксационный метод недифферепцнруе-мой минимизации // Мат. заметки ЯГУ. -2001. -Т.8. Выи. 1. -С. 50−60.
  112. В.П., Петрова Т. В. Релаксационный метод минимизации с растяжением пространства в направлении субградиента // Экономика и мат. методы. -2003. -Т. 39. Вын. 1.-С 106−119.
  113. В.П., Петрова Т. В. Релаксационный субградиентнын метод педиффе-ренцируемой минимизации с растяжением пространства // Деп. в ВИНИТИ. -М. — 2000. -№ 3222-В00. -28с.
  114. B.II., Петрова T.B. Субградиепшый метод с неточным одномерным спуском // Весгпик КемГУ. Кемерово. -2001. -№ 3(7). -С. 85−91.
  115. В.П., Потапов В. П., Глушко E.II. Экспериментальная оценка множества методов аппроксимации поверхности // Ден. в ВИНИТИ. -М. -1999. -1401 В99.-13с.
  116. В.П., Пушкина II.Б. Метод восстановления метрики по упорядоченным расстояниям // Вестник КемГУ. -Кемерово. -2001. -Вып. 4. -С. 35−39.
  117. В.П., Филинов Д. И. Методы регуляризации решения задачи обучения нейронной сетп//Пейроннформатнка и ее приложения: Материалы VIII Всероссийского семинара 6−8 октября 2000г/ Красноярск: ИПЦ КГТУ, 2000. С. 91.
  118. , В. П., Кацэба Г. Б. Система оценки параметров и структуры математических моделей // Тез. докл. II Всесоюзного семинара: Информатика недр. -Кемерово: ИУ. -1989. -С.40.
  119. С.С. Применение барицентрических координат для решения некоторых вычислительных задач//Журн. вычнел. мат ем. и матем. физ. -1964. -Т.4, № 5. -С.905−911.
  120. ЭЛ., Вылсгжанипа И. И., Мазнкип В.Г1. Проблемы эффективности реструктуризации угольной промышленности Кузбасса. -Кемерово: Кузбассвуз-издат 1997. -248с.
  121. Г. С. Выбор эффективной системы зависимых признаков// Вычислительные системы. -1965. -Выи 15. -С. 21−34.
  122. Г. С. Методы обработки разнотипных экспериментальных данных. -Новосибирск: Паука 1981. -160с.
  123. Ю.А. Об одном алгоритме минимизаций выпуклых функций// Докл. АН СССР. -1965. -Т. 160. № 6. -С. 1244−1247.
  124. Е.С., Поляк Б. Т. Методы минимизации при наличии ограничений// Жури, вычисл. матем. и матем. физ. -1966. -т. 6, № 5. С 787−823.
  125. U.M., Виноградская Т. М., Рубчнискпй A.A. Теория выбора и принятия решений: Учебное пособие. -М.: Паука, — 1982. -328е.
  126. Э. Лекции по микроэкономическому анализу. -М.: Наука.- 1985. -390с.
  127. Г. И. Методы вычислительной математики. -М: Паука. -1980. 534с.
  128. Г. И., Кузнецов Ю. А. Итерационные методы и квадратичные функционалы.-Новосибирск: Паука 1972.
  129. Математические методы и модели планирования и управления горным производством: Учеб. пособие для вузов/ А. Г. Протосепя, С. А. Кулиш, Е. И. Азбель и др. -М.:Наука. 1985. -288с.
  130. М.М., Дворецкий М. И., Коспцпн Л. Г., Крутиков В.Н, и др.// Вопросы оборонной техники. Серия 10, выпуск 151. — Ленинград: ГОИ им. Вавилова. -1980.
  131. М.М., Дворецкий М. И., Коеицип Л. Г., Крутиков В.Н.// Вопросы оборонной техники. Серия 10, выпуск 151.- Ленинград: ГОИ им. Вавилова. -1980.
  132. М.М., Крутиков В. Н. Прогнозирование ошпческой деградации терморегулнрующих покрытий космических летательных аппаратов по результатам наземных испытаний // Перспективные материалы. -1997. -№ 2. -С. 18−25.
  133. М.М., Крутиков B.II.Разработка комплекса математических моделей оптической деградации терморегулнрующих покрытий космических летательных аппаратов // Перспективные материалы. -1997. -№ 1. -С.21−27.
  134. B.C., Трубип В. А., Шор И. 3. Оптимизационные задачи производственно-транспортного планирования. М.: Паука.- 1986. — 260с.
  135. H.H. Численные методы в теории оптимальных систем. — М.: Паука, 1971.-424с.
  136. H.H., Ивапилов Ю. П., Столярова Е. М. Методы оптимизации. М.: Наука.-1975.-351с.
  137. Мудро в В.И., Кушко B.JI. Методы обработки измерений. М.: Сов. радио. -1976.
  138. A.C., Юдин. Д. Б. Сложность задач н эффективность методов оптимизации. М.: Паука, — 1980.-384е.
  139. Ю.Е., Пурмать Е. И. Анатиз эффективности методов негладкой оптимизации. -М.: IЭМ11 AI 1 СССР. -1984. -31 с.
  140. Нестеров 10.Е., Скоков В. А. Методы первого порядка нелинейной безусловной минимизации// Численные методы математического программирования. М.: ЦЭМИ.- 1980. С.6−60.
  141. С.И., Скоков В. А. Численный анализ программ негладкой безусловной оптимизации // Экономика и математические методы. -1994. -Т.30. -№ 2.
  142. Д., Рейиболдт В. Итерационные методы решения нелинейных системуравнений со многими неизвестными. М.: Мир.- 1975. — 553с.
  143. X., Стаиглии К. Комбинаторная оптимизация. Алгоритмы и сложность. -М.: Мир. 1985. — 512с.
  144. И.И. Текущий регрессионный анализ и его применение в некоторых задачах автоматического управления// Изв. АН СССР, Энергетика и автоматика. -I960.-T. XXIII, № 2.-С. 122−131.
  145. Э. Численные методы оптимизации. М: Мир. — 1974. — 376 с.
  146. .Т. Введение в оптимизацию. М.: Наука. — 1983. -384с.
  147. В.П. Математическое и информационное моделирование геосистем угольных предприятий. Новосибирск: Изд. СО РАН. — 1999. -180с.
  148. В.Т. Ипформаииоппо-математпческая среда прогноза газопроявлений в угольных шахтах. Кемерово: Кузбассвузпздат. — 2000. -228с.
  149. Прикладная статистика. Классификация и снижение размерности / С. А. Айвазян, В. М. Бухппабер, И. С. Еиюков, JI. Д Мешалкнп. -М.: Финансы и статистика. 1989.-607с.
  150. М.Е. О сходимости модифицированного метода чебышевских центров решения задач выпуклого программирования// Кибернетика. -1977. -№ 5. -С 100 102.
  151. .II. Метод минимизации функций без вычисления производных// Докл. АН СССР. -1977. -Т. 235, № 5. -С. 1026−1029.
  152. .Н., Данилин Ю. М. Численные методы в экстремальных задачах. -М.: Наука, 1975.-319с.
  153. .П., Редковскпй H.H. Некоторые методы безусловной минимизации //Жури, вычисл. матсм. и матем. физ. -1979. -Т. 19, № 5. -С. 1127−1133.
  154. .П., Редковскпй H.H. О методе минимизации вдоль собственных векторов матрицы, близкой к матрице Гессе //Кибернетика. -1977. -№ 5. -С.68−74.
  155. .Н., Редковскпй H.H. Об одном численном методе минимизации без вычисления производных // Жури, вычисл. матем. н матсм. физ. -1976. -Т. 16, N6. -С.1388−1396.
  156. JI.A. Системы экстремального управления. -М.:11аука. 1974.-632с.
  157. JI.A. Случайный поиск в задачах оптимизации мпогоиараметриче-ских систем. -Рига: Зинатпе. 1965. -211с.
  158. Jl.А. Современные принципы управления сложными системами. — Сов. радио. 1980.-232с.
  159. JI.A. Статистические методы поиска. -М: Наука. 1968. -376с.
  160. , JI. А., Тарасепко Г. С. Об одном адаптивном алгоритме случайного поиска / JI. А. Растригин//Проблсмы случайного поиска. Рига: Зииатие. -1974. — Вып.З. -С. 108−112.
  161. С.С. Математическое моделирование в горной промышленности. Учеб. пособие для вузов. М.:Недра. — 1981. -216с.
  162. Руководство по проектированию вентиляции угольных шахт. -М.: Недра. — 1975.-237с.
  163. П.С., Семенкипа O.E., Терсков В. А. Методы оптимизации в управлении сложными системами: Учебное пособие. — Красноярск: Сибирский юридический институт МВД России. 2000. -254 с.
  164. Е.С., Семенкипа О. Э., Коробейников. Адантпвпые поисковые методы оптимизации сложных систем / Под общ. ред. Семенкипа Е. С. Красноярск: СИБУГ1. — 1996.-358с.
  165. М.Е. Внутренняя баллистика ствольных систем и пороховых ракет. -М.: Оборопгиз. 1962. -703 с.
  166. В.А. Варианты метода уровней для минимизации негладких выпуклых функций и их численное исследование // Экономика и математические методы. -1997. -Т.ЗЗ. № 1.
  167. В.А. Замечание к методам минимизации, использующим операцию растяжения пространства// Кибернетика. -1974. -№ 4. -С. 115−117.
  168. В.А., Щенакин М. Б. Численный анализ одного варианта метода ортогонального спуска // Кибернетика и системный анализ. -1994. —№ 2.
  169. Справочник по рудничной вентиляции / Под ред. К. З. Ушакова. -М.: Недра. — 1977.-328с.
  170. Тарасепко Г. С Сходимость адаптивного алгоритма случайного поис-ка//Кнберпетика. -1977. -№ 5. -С.88−90.
  171. Г. С. Исследование адаптивного алгоритма случайного поиска// Проблемы случайного поиска. -Рига: Зинатне. -1976. -вып.5. -С.119−124
  172. А.Н., Арсении В. Я. Методы решения некорректных задач. М.: Наука. — 1979.
  173. A.A. Основы маркшейдерского дела н геометризации недр. -М.:Недра. 1985.-336с.
  174. Д.К., Фадеева B.II. Вычислительные методы линейной алгебры. -М: Фнзматгиз. -1960 т. 656с.
  175. В. В. Теория оптимального эксперимента. М: Паука. — 1981.
  176. К. Введение в теорию распознавания образов. -М.: Наука. 1979.
  177. Д. Прикладное нелинейное программирование. М.: Мир. -1975.-596с.
  178. Ю.П., Пщепко А. П., Касимов В. З. Математическое моделирование внутрибаллистнческнх процессов в ствольных системах. Новосибирск: Изд-во СО РАН, — 1999. -256с.
  179. Ю.П., Пщепко А.II., Саморокова U.M. Иптегродиффереппиальиый метод определения законов горения конденсированных систем в условиях постоянного обьема // Физика горения и взрыва. -1999. -Т.35, № 1. -С.67−71.
  180. IO.II., Широков В. М. Об учете тепловых потерь при обработке результатов манометрических испытаний // Фундаментальные н прикладные проблемы современной мехаппки: Докл. II Всерос. науч. конф. -Томск: Изд-во Том. ун-та.-2000. -С. 171−172.
  181. Я. 3. Основы теории обучающихся систем. -М.: Паука. 1981. -251с.
  182. Я.З. Адаптация и обучение в автоматических системах. М.: Паука. — 1968.-400с.
  183. Я.З. Информационная теория идентификации. -М.: Паука: Физматлит. 1995.-336с.
  184. A.A. Агрегированное описание группы офаслей при помощи функции приведения разных конечных продуктов к однородному продукту// Математическое моделирование: Процессы в сложных экономических и экологических системах. -М.: Наука. 1986. -C.106-I47.
  185. Шор П. З. Методы минимизации педнфферепцнруемых функций и их приложения. Киев: Паукова думка. — 1979. — 199с.
  186. Шор П.З., Журбепко Н. Г. Метод оптимизации, использующий операцию растяжения пространства в направлении разности двух последовательных градиентов// Кибернетика. -1971. -№ 3. -С.51 59.
  187. М.Б. О методе ортогонального спуска//Кибернетпка. -1987. -№ 1.
  188. Д.Б. Вычислительные методы теории принятия решений. -М.: Наука. -1989.-320с.
  189. Biggs М.С. Minimization algorithms making use of non-quadratic properties of the objective function// J. Inst. Math, and Applic. -1971. -V.8. -Pp.315−327 .
  190. Brent R.P. Algorithms for minimization without derivatives. New Jersey. -Prentice -Hall Inc., Englewood Cliffs. 1973. -195 p.
  191. Brodlie K.W. A new direction set method for minimization without evaluating derivatives// J.Inst. Math, and Applic. -1975. -v. 15. -Pp.385−396 .
  192. Brodlie K.W. An assement of two approaches to variable metric methods// Math. Programming. -1972. -V. 7. № 12.
  193. Broydcn C.G. The convergence of a class of double-rank minimization algorithms// J.Inst.Maths.Applies. -1970. -№ 6. -Pp. 76−79.
  194. Damon A. Dynamical System Perspective of Structural Learning with Forgetting/ A. Damon, Miller, M. Jacek Zurada. // IEEE Transactions on Neural Networks, -may 1998-voI. 9. -pp. 505−551.
  195. Davidon W.C. Variable metric methods for minimization//A.E.C. Res. and Develop. Report ANL-5990. Argonne National Laboratory. -Argonne- Illinois. -1959. -P.21.
  196. Davidon, W. C. Optimally conditioned optimization algorithms without line searches// Math. Prog. -1975. -№ 9. -Pp. 1−30.
  197. Dixon L.C. Quasi-Newton algorithms generate identical points // Math. Programming. -1972. -V.2. -Pp. 383−387.
  198. Elkin R. Convergence theorems for Gauss-Seidcl and other minimization algorithms: Ph.D. Diss.// Univ. Of Maryland. College Park.Maryland. 1968.
  199. Fletcher R. A new approach to variable metric algorithms// Computer Journal. -1970.-№ 13. -Pp. 317−322.
  200. Fletcher R., Powell M.J.D. A rapidly convergent descent method for minimization // Comput.J. -1963. -V.6. № 2. -Pp. 163−168.
  201. Fletcher R., Reeves C.M. Function minimization by conjugate gradients // Comput. J. -1964. -V.7. N2. -Pp. 149−154.
  202. Goldfarb D. A family of variable metric methods derived by variational means// Mathematics of Computation. -1970. -№ 24. -Pp. 23−26.
  203. Hooke R., Jeeves I. Direkt search solution of numerical and statically problems // J.A.C.M. -1961. -Pp. 212−229 .
  204. Kelley J. E. The cutting plane method for solving convex programs// J. SIAM. -1960. -V. 8. № 4. -Pp. 703−712.
  205. Koza J. R. Genetic Programming: On the Programming of Computers by means of Natural Selections. Mit Pres. — 1992.
  206. Lemarechal C. An algorithm for minimizing convex functions// Proc. IFIP Congress-74. Amsterdam, North-Holland. -1974. -Pp.552−556.
  207. Lemarechal C. New Variants of Bundle Methods / C. Lemarechal, A. C. Nemirovski, Yu. E. Nesterov// Match. Program. Scr. B. -1995. -V.69.№ 1.
  208. Lemarechal C. Numerical experiments in nonsmoth optimization//Progress in nondif-ferentiable optimization. -1982. -Pp 61−84.
  209. Lemarechal C. On extension of Davidon methods to nondifferentiable problems// Math. Programming. Amsterdam: North-Hol-land. -1975. -№ 3. -Pp. 95−109.
  210. Mikhailov M.M. and Krutikov V.N. Method of examining the thermal adjusting coatings of space apparatus // Journal of Advanced Materials (Cambridge interscience publishing). -1996. -v.3, № 1.- pp. 21−28.
  211. Oren S.S. Self-scaling variable metric (SSVM) algorithms I: Criteria and sufficient conditions for scaling a class of algorithms / S. S. Oren, D. G. Luenberger // Management Science. -1974. -№ 20. -Pp. 845−862.
  212. Oren S.S. Self-scaling variable metric (SSVM) algorithms II: Implementation and experiments//Management Science. -1974. -№ 20. -Pp. 863−874.
  213. Ortega J., Rockoff M. Non linear difference equations and Gauss-Seidel type iterative methods// SIAM J. Numer, Analys. -1966. -v.3. -Pp. 497−513.
  214. Powell M.J.D. An efficient method of finding the minimum of function of several variables without calculating derivatives// Comput. J. -1964. -v.7, N2. -Pp. 155−162.
  215. Powell M.J.D. Convergence properties of a class of minimization algorithms // Nonlinear Programming. -1975. -V.2. -Pp. 1−27.
  216. Rosenbrock H.M. An automatic Method for finding the greatest or least value of a function// Comput. J. -1960. v.3, N2. -Pp. 175−184 .
  217. Saito K.R. and Nakano R. Second-order learning algorithm with squared penalty term. // In Advances in Neural Information Processing Systems 9. -Denver, CO. -1997, -pp.627−633.
  218. Schechter S. Iteration methods for nonlinear problems// Trans. Amer. Math. Soc. -1962. v.104. Pp. 179−189.
  219. Schumer M.A. Steiglitz K. Adaptive step size random search // IEEE Trans. Automat. Control. -1968. -v. 13, N3. -Pp. 270−276.
  220. Wolfe P. Note on a method of conjugate subgradients for minimizing nondifferentiable functions// Math. Programming. -1974. -V.7. № 3. -Pp. 380−383.
Заполнить форму текущей работой