![]() ТОР 5 статей: Методические подходы к анализу финансового состояния предприятия Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века Характеристика шлифовальных кругов и ее маркировка Служебные части речи. Предлог. Союз. Частицы КАТЕГОРИИ:
|
Выбор независимых переменных 2 страница. Авторами предлагается набор значений параметров, входящих в алгоритм, которые (по утверждению авторов) считаются оптимальными: .Авторами предлагается набор значений параметров, входящих в алгоритм, которые (по утверждению авторов) считаются оптимальными:
Случайный поиск с самообучением (Даниленко – Каган)
Авторами [33] был предложен эффективный алгоритм с самообучением. Предлагаемый алгоритм реализует пробные перемещения из точки
где a- шаг поиска;
Вектор где r - число запоминаемых предыдущих направлений;
В результате исследований, проведённых авторами [33] были получены численные значения параметров алгоритма
Случайный поиск с самообучением (Трахтенберг)
В статье [35], а также в книге [36] приводится эффективный алгоритм случайного поиска с самообучением. Рекуррентная формула для перемещения в пространстве оптимизируемых параметров имеет вид
где a – шаг поиска;
В книге [36] приведена программа, реализующая вышеизложенный алгоритм на языке ФОРТРАН-IV, а также рациональные параметры алгоритма
Случайный поиск со смешанной тактикой
В работе [37] предлагается для повышения эффективности поиска алгоритм со сменой тактики поиска. Априорно определяется некоторое значение
Как только алгоритм нашел значения 1) резко уменьшаем шаг поиска a (в 10раз); 2) переходим к алгоритму с линейной тактикой (удачный шаг повторяется)
В случае если определённое число шагов не привело к выполнению условия окончания поиска, делается большой случайный шаг и осуществляется переход к стадии I. При достижении границы смены тактики - переход к стадии II и т.д.
Экстраполяционный случайный поиск с адаптирующимся шагом
Эффективным средством повышения быстродействия поиска оказывается линейная экстраполяция. В работе [38] подобная экстраполяция распространяется на случайную последовательность продвижений в пространстве независимых переменных. На i-ом этапе предлагаемого метода вводят итерацию, состоящую в экстраполяции по формуле
где W – некоторый метод поиска минимума На начальном этапе (i =0) точка Если точка
В противном случае экстраполяция считается неудачной и метод переводится в состояние В работе [38] в качестве критерия допустимости экстраполяции К задается неравенство
В качестве итераций ω в предлагаемом методе использован алгоритм случайного поиска с адаптирующимся шагом, состоящий в следующем. Из каждой точки Эмпирические рекомендации относительно конкретного выбора параметров алгоритма
Алгоритм с перестройкой вероятностных характеристик поиска
В соответствии с алгоритмом [39] перемещение в пространстве независимых переменных можно записать в следующем виде
где a – длина рабочего шага;
Самообучение проявляется в перестройке вероятностных характеристик поиска, т.е. в целенаправленном воздействии на случайный выбор направления рабочего шага – вектор
где
Вероятность воздействия на случайный вектор осуществляется следующим образом:
где Алгоритм обучения реализуется путём соответствующего изменения параметра памяти ω при помощи следующей рекуррентной формулы
где
В программе предусмотрено изменение величины шага в пространстве независимых переменных в зависимости от числа удачных и неудачных шагов поиска. Рациональные значения параметров
2.3 Градиентные методы поиска
В градиентных методах направление движения от итерации В общем случае, когда критерий оптимальности есть функция зависящая от n переменных, для оценки частных производных служат следующие формулы: 1) 2)
Причём, точность аппроксимации частных производных по формуле (2.23) выше чем по формуле (2.22). Однако, при достаточно сложной связи критерия оптимальности с параметрами системы, необходимо учитывать количество вычислений градиента. При вычислении градиента по формуле (2.22), требуется (n +1) вычислений критерия оптимальности, в то время как оценка градиента по формуле (2.23) требуется 2 n вычислений критерия оптимальности. Такое большое число вычислений критерия оптимальности оправдано лишь в тех случаях, когда точность вычислений градиента имеет решающее значение для поиска экстремума функции. В данной работе градиент определяется с помощью формулы (2.22). Подробное обсуждение градиентных методов приведено в работах [3-5, 7, 40, 41]. Прежде чем переходить к описанию методов, нельзя не отметить одного обстоятельства, которое необходимо учитывать при решении задач условной оптимизации. При учёте ограничений (1.1) и (1.2) на область поиска метод градиента и наискорейший спуск не гарантируют нахождение оптимального решения
Градиентный метод оптимизации
Метод градиента [3-5, 7, 40, 41] является одним из самых распространенных детерминированных методов оптимизации. Смысл его сводится к организации движения в антиградиентном (при минимизации) направлении. Переход из состояния
где
где Остановимся подробнее на вопросе выбора величины шага Наиболее просто реализуется метод счёта с постоянным шагом
и, если оно нарушается, Для увеличения быстроты перемещения вдали от экстремума В данной работе длина рабочего шага поиска изменяется в соответствии с эвристическим алгоритмом [34]:
В результате вычислительных экспериментов по минимизации функции Для разумного сочетания быстроты и точности предлагается чередовать грубый и точный поиск в зависимости от того, как далеко находится
Введены некоторые положительные константы 4) если 5) если 6) если Для построения алгоритма поиска важно определить условие окончания процесса поиска. В качестве таких условий могут быть приняты следующие: 4) пробные приращения переменных
5) приближённое значение градиента по модулю не превышает некоторой положительной величины ε, т.е.
При минимизации
Метод наискорейшего спуска
Алгоритм, реализующий метод наискорейшего спуска, состоит в следующем [41]: 1. Обращение к процедуре вычисления функции Q при заданных исходных значениях 2. Определение градиента
3. Оценка условия окончания поиска
4. Перемещение по лучу антиградиента При выполнении условия 5. Переход к пункту 2; 6. Печать результатов Трудоемкость (скорость сходимости к оптимальному решению) алгоритма поиска характеризуют следующие данные: 1) количество вычислений градиента 2) количество малых шагов перемещений по лучу градиента. Трудоемкость алгоритма существенным образом зависит от требуемой точности решения
2.4. Квазиньютоновские методы
В методе Ньютона [4] процесс поиска определяется как
где
Метод Ньютона обладает значительно более высокой скоростью сходимости по сравнению с градиентными методами, но в силу двух существенных недостатков находит ограниченное практическое применение в расчётах. Первый – необходимость вычисления гессиана В квадратичных методах первого порядка (квазиньютоновских) используется некоторая симметричная матрица
Причём использование матрицы H практически не связано с дополнительными затратами на анализ математической модели. Характеристика квазиньютоновских методов: 6.1. минимум квадратичной функции 6.2. в случае 6.3. недостатком методов является необходимость точного определения минимума на каждой итерации. Указанный недостаток ограничивает возможности методов, особенно в «овражных» ситуациях.
Метод Давидона – Флетчера – Пауэлла
Реализацией квадратичного метода первого порядка является хорошо зарекомендовавший себя метод Дэвидона – Флетчера – Пауэлла [4, 42]. Алгоритм работает следующим образом. Сначала в пространстве независимых переменных выбирают подходящую начальную точку. Затем, вычисляя составляющие градиента, определяют направление поиска
где Поскольку обычно матрица заранее неизвестна, то в качестве
где a – величина шага в направлении поиска. Найдя одномерный оптимум, проверяют результат на сходимость и, если она достигнута, поиск прекращают. В противном случае, для дальнейшего поиска выбирают новое направление, в котором поправочная матрица определяется по следующей формуле:
Элементы матриц
где верхним индексом T обозначены транспонированные матрицы, а
Определив новое направление поиска, проводят одномерный поиск и продолжают итерационный процесс.
Метод сопряжённых направлений
Направления
Движение к экстремуму по сопряженным направлениям позволяет существенно ускорить поиск, поэтому в работах, направленных на развитие методов оптимизации, значительное внимание уделяется улучшению выбора сопряженных направлений. Пусть
Если направление т.е.
Это и означает, что вектор
Начальная итерация при заданном Не нашли, что искали? Воспользуйтесь поиском:
|