Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Выбор независимых переменных 2 страница




- приращение функции качества на (i+1)-ом шаге поиска;

a - величина шага поиска;

- постоянные коэффициенты.

Начальные значение вектора направления

Авторами предлагается набор значений параметров, входящих в алгоритм, которые (по утверждению авторов) считаются оптимальными: .

 

Случайный поиск с самообучением (Даниленко – Каган)

 

Авторами [33] был предложен эффективный алгоритм с самообучением. Предлагаемый алгоритм реализует пробные перемещения из точки в точку по формуле

(2.9)

где a- шаг поиска;

- n -мерный вектор, составляющими которого являются случайные величины, равномерно распределённые на интервале (-0.5, 0.5);

- коэффициент случайности;

- n -мерный вектор предпочтительного направления .

Вектор , (2.10)

где - некоторый коэффициент ( <1);

r - число запоминаемых предыдущих направлений;

- номер запоминаемого предыдущего направления (отсчёт ведётся от последнего направления к предыдущему).

В результате исследований, проведённых авторами [33] были получены численные значения параметров алгоритма .

 

Случайный поиск с самообучением (Трахтенберг)

 

В статье [35], а также в книге [36] приводится эффективный алгоритм случайного поиска с самообучением. Рекуррентная формула для перемещения в пространстве оптимизируемых параметров имеет вид

(2.11)

где a – шаг поиска;

- масштабные коэффициенты;

- приращение вектора, которое привело к последнему удачному шагу;

- число следующих подряд неудачных шагов поиска;

- константы: .

В книге [36] приведена программа, реализующая вышеизложенный алгоритм на языке ФОРТРАН-IV, а также рациональные параметры алгоритма

 

 

Случайный поиск со смешанной тактикой

 

В работе [37] предлагается для повышения эффективности поиска алгоритм со сменой тактики поиска.

Априорно определяется некоторое значение до достижения, которого ведётся поиск (стадия I)

(2.12)

Как только алгоритм нашел значения меньшие границы , считаем, что находимся в зоне притяжения экстремума и соответственно переходим к стадии II:

1) резко уменьшаем шаг поиска a (в 10раз);

2) переходим к алгоритму с линейной тактикой (удачный шаг повторяется)

(2.13)

В случае если определённое число шагов не привело к выполнению условия окончания поиска, делается большой случайный шаг и осуществляется переход к стадии I. При достижении границы смены тактики - переход к стадии II и т.д.

 

Экстраполяционный случайный поиск с адаптирующимся шагом

 

Эффективным средством повышения быстродействия поиска оказывается линейная экстраполяция. В работе [38] подобная экстраполяция распространяется на случайную последовательность продвижений в пространстве независимых переменных.

На i-ом этапе предлагаемого метода вводят итерацию, состоящую в экстраполяции по формуле

(2.14)

где - коэффициент;

W – некоторый метод поиска минимума без правила останова, состоящий из m идентичных независимых итераций ω, первая из которых действует на точку

На начальном этапе (i =0) точка задается произвольно,

Если точка удовлетворяет заданному критерию К, то она рассматривается в качестве исходной для итераций ω

 

(2.15)

В противном случае экстраполяция считается неудачной и метод переводится в состояние .

В работе [38] в качестве критерия допустимости экстраполяции К задается неравенство

(2.16)

В качестве итераций ω в предлагаемом методе использован алгоритм случайного поиска с адаптирующимся шагом, состоящий в следующем. Из каждой точки осуществляют два движения и , где вектор равномерно распределён на единичной сфере. Если на протяжении S попыток не было ни одного удачного движения, то величина шага уменьшается a=a×q, q<1. Итерация ω считается оконченной в случае хотя бы одного удачного движения. Конкретные значения параметров алгоритма: .

Эмпирические рекомендации относительно конкретного выбора параметров алгоритма таковы. Алгоритм мало чувствителен к выбору вдали от экстремума: . Вблизи экстремума следует уменьшать . Эксперименты показывают, что величина , а по отношению к m >1 алгоритм в достаточной степени устойчив.

 

Алгоритм с перестройкой вероятностных характеристик поиска

 

В соответствии с алгоритмом [39] перемещение в пространстве независимых переменных можно записать в следующем виде

(2.17)

 

где a – длина рабочего шага;

- вектор оптимальных значений переменных за j предыдущих шагов;

- минимальное значение функции качества за j предыдущих шагов;

Самообучение проявляется в перестройке вероятностных характеристик поиска, т.е. в целенаправленном воздействии на случайный выбор направления рабочего шага – вектор . Составляющую вектора можно определить по следующей зависимости

(2.18)

где - случайное число, равномерно распределённое на интервале ;

- псевдослучайное число, равномерно распределённое на отрезке

Вероятность воздействия на случайный вектор осуществляется следующим образом:

(2.19)

(2.20)

где - вероятность выбора случайного шага

Алгоритм обучения реализуется путём соответствующего изменения параметра памяти ω при помощи следующей рекуррентной формулы

(2.21)

где - величина, определяющая скорость обучения;

- приращение k -го аргумента на i -ом шаге.

В программе предусмотрено изменение величины шага в пространстве независимых переменных в зависимости от числа удачных и неудачных шагов поиска. Рациональные значения параметров .

 

2.3 Градиентные методы поиска

 

В градиентных методах направление движения от итерации к определяется градиентом (антиградиентом). Частные производные критерия оптимальности, представляющие собой координаты вектора градиента, рассчитываются с помощью отношений разности значений Q в пробных точках к разности значений аргумента в этих точках.

В общем случае, когда критерий оптимальности есть функция зависящая от n переменных, для оценки частных производных служат следующие формулы:

1) (2.22)

2) (2.23)

 

Причём, точность аппроксимации частных производных по формуле (2.23) выше чем по формуле (2.22). Однако, при достаточно сложной связи критерия оптимальности с параметрами системы, необходимо учитывать количество вычислений градиента. При вычислении градиента по формуле (2.22), требуется (n +1) вычислений критерия оптимальности, в то время как оценка градиента по формуле (2.23) требуется 2 n вычислений критерия оптимальности. Такое большое число вычислений критерия оптимальности оправдано лишь в тех случаях, когда точность вычислений градиента имеет решающее значение для поиска экстремума функции. В данной работе градиент определяется с помощью формулы (2.22).

Подробное обсуждение градиентных методов приведено в работах [3-5, 7, 40, 41].

Прежде чем переходить к описанию методов, нельзя не отметить одного обстоятельства, которое необходимо учитывать при решении задач условной оптимизации. При учёте ограничений (1.1) и (1.2) на область поиска метод градиента и наискорейший спуск не гарантируют нахождение оптимального решения . В случае нарушения ограничений требуется либо модернизация градиентных методов и поиск вдоль границы области допустимых значений независимых переменных [41], либо преобразование задачи с ограничениями при помощи метода штрафных функций и осуществление поиска решения задачи безусловной оптимизации. Вышеуказанное обстоятельство следует отнести и к рассматриваемым далее другим детерминированным методам (квазиньютоновским и др.)

 

Градиентный метод оптимизации

 

Метод градиента [3-5, 7, 40, 41] является одним из самых распространенных детерминированных методов оптимизации. Смысл его сводится к организации движения в антиградиентном (при минимизации) направлении.

Переход из состояния в состояние осуществляется в соответствии с выражением

(2.24)

где - рабочий шаг, выражение для которого по методу градиента в случае минимизации имеет вид

(2.25)

где - длина рабочего шага.

Остановимся подробнее на вопросе выбора величины шага . Быстрота сходимости процесса поиска минимума функции и его точность существенно зависят от выбора величины .

Наиболее просто реализуется метод счёта с постоянным шагом . При этом на каждом шаге проверяют условие убывания функции

(2.26)

и, если оно нарушается, уменьшают вплоть до восстановления этого условия. Величина a выбирается заранее исходя из некоторых априорных данных о задаче.

Для увеличения быстроты перемещения вдали от экстремума величину a целесообразно выбирать достаточно большой. Однако при этом в каждой новой точке поиска следует проверять условие убывания функции с тем, чтобы не перескочить за счёт большого шага точку min Q.

В данной работе длина рабочего шага поиска изменяется в соответствии с эвристическим алгоритмом [34]:

(2.27)

.

В результате вычислительных экспериментов по минимизации функции при и были получены значения коэффициентов изменения шага поиска .

Для разумного сочетания быстроты и точности предлагается чередовать грубый и точный поиск в зависимости от того, как далеко находится от минимума . За меру близости к минимуму δ удобно принять сумму абсолютных значений производных

 

(2.28)

Введены некоторые положительные константы и () и следующие условия:

4) если , то необходим грубый поиск, т.е. поиск с большим значением коэффициентом ;

5) если , то необходим точный поиск;

6) если , то поиск окончен.

Для построения алгоритма поиска важно определить условие окончания процесса поиска. В качестве таких условий могут быть приняты следующие:

4) пробные приращения переменных обоих знаков приводят к положительному приращению функции

(2.29)

 

5) приближённое значение градиента по модулю не превышает некоторой положительной величины ε, т.е.

(2.30)

При минимизации значения констант и были равны , .

 

 

Метод наискорейшего спуска

 

Алгоритм, реализующий метод наискорейшего спуска, состоит в следующем [41]:

1. Обращение к процедуре вычисления функции Q при заданных исходных значениях ;

2. Определение градиента

;

3. Оценка условия окончания поиска

- точность поиска. Если условие выполняется, то осуществляется переход к п. 6;

4. Перемещение по лучу антиградиента

При выполнении условия перемещение по лучу антиградиента прекращается;

5. Переход к пункту 2;

6. Печать результатов.

Трудоемкость (скорость сходимости к оптимальному решению) алгоритма поиска характеризуют следующие данные:

1) количество вычислений градиента ;

2) количество малых шагов перемещений по лучу градиента.

Трудоемкость алгоритма существенным образом зависит от требуемой точности решения и величины шага . Длина рабочего шага поиска изменяется в соответствии с эвристическим алгоритмом, аналогично тому, как это сделано в градиентном методе. Коэффициенты изменения шага, полученные в результате , имеют значения .

 

2.4. Квазиньютоновские методы

 

В методе Ньютона [4] процесс поиска определяется как

(2.31)

где - гессиан, представляющий собой квадратичную матрицу вторых частных производных , взятых в точке ;

- градиент в точке .

Метод Ньютона обладает значительно более высокой скоростью сходимости по сравнению с градиентными методами, но в силу двух существенных недостатков находит ограниченное практическое применение в расчётах. Первый – необходимость вычисления гессиана в каждой точке, который вычисляется с помощью конечных разностей второго порядка, требующих n(n+1)/2 вычислений, где n – размерность задачи. Второй недостаток – применение метода Ньютона в небольшой области вблизи экстремума .

В квадратичных методах первого порядка (квазиньютоновских) используется некоторая симметричная матрица , являющаяся некоторым приближением . После каждой итерации матрица вычисляется как исправление с учётом информации о первых производных, полученных в течение итерации. Тогда очередное направление поиска определяется как

(2.32)

Причём использование матрицы H практически не связано с дополнительными затратами на анализ математической модели.

Характеристика квазиньютоновских методов:

6.1. минимум квадратичной функции с помощью этих методов достигается за n – шагов, где n – размерность задачи.

6.2. в случае произвольного вида, методы позволяют для заданной погрешности получить приближенное решение быстрее в ряде случаев, чем это позволяют сделать методы наискорейшего спуска и параллельных касательных;

6.3. недостатком методов является необходимость точного определения минимума на каждой итерации. Указанный недостаток ограничивает возможности методов, особенно в «овражных» ситуациях.

 

Метод Давидона – Флетчера – Пауэлла

 

Реализацией квадратичного метода первого порядка является хорошо зарекомендовавший себя метод Дэвидона – Флетчера – Пауэлла [4, 42]. Алгоритм работает следующим образом. Сначала в пространстве независимых переменных выбирают подходящую начальную точку. Затем, вычисляя составляющие градиента, определяют направление поиска

 

(2.33)

где - элементы симметричной положительно определённой матрицы размерности n×n.

Поскольку обычно матрица заранее неизвестна, то в качестве выбирается произвольная положительно определённая (например, единичная) матрица. В этом случае поиск начинается вдоль линии наискорейшего спуска. Одномерный поиск ведётся вдоль исходного направления в соответствии с соотношением

(2.34)

где a – величина шага в направлении поиска.

Найдя одномерный оптимум, проверяют результат на сходимость и, если она достигнута, поиск прекращают. В противном случае, для дальнейшего поиска выбирают новое направление, в котором поправочная матрица определяется по следующей формуле:

(2.35)

Элементы матриц и , имеющих размерность n×n вычисляются по формулам

(2.36)

 

(2.37)

где верхним индексом T обозначены транспонированные матрицы, а и - соответственно вектор – столбцы разностей независимых переменных и градиентов в двух точках, определяемых соотношениями

 

(2.38)

(2.39)

Определив новое направление поиска, проводят одномерный поиск и продолжают итерационный процесс.

 

 

Метод сопряжённых направлений

 

Направления называются сопряжёнными [4,7] относительно симметричной и положительно определённой матрицы G, если

 

(2.40)

Движение к экстремуму по сопряженным направлениям позволяет существенно ускорить поиск, поэтому в работах, направленных на развитие методов оптимизации, значительное внимание уделяется улучшению выбора сопряженных направлений.

Пусть и - два последовательных приближения к экстремуму критерия оптимальности . Тогда с точностью до слагаемых второго порядка справедливо равенство

(2.41)

Если направление является сопряжённым направлению






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных