Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Метод случайного поиска. Алгоритм покоординатного обучения.




Особенность метода в том, что в процессе вычисления приближений xk используются случайные вектора в качестве направления движения. Например,

xk + 1 = xk + αkξ, k=0,1,..., (1)

где αk > 0 – длина шага, ξ = (ξ1,..., ξn) – реализация n-мерной случайной величины ξ с заданным распределением. Например, ξi – независимые случайные величины, равномерно распределенные на отрезке [-1, 1]. Т.о, любая реализация метода случайного поиска использует генератор случайных чисел, который по любому запросу выдает реализацию случайного вектора ξ с заданной функцией распределения.

Рассмотрим задачу f(x) → minxQ, где Q⊆Rn. Пусть известно k-ое приближение xk∈Q, k=0,1,….

Пусть ξ(w) = (ξ1(w),..., ξn(w)) – семейство случайных векторов, зависящих от параметров w = (w1,..., wn). Для каждого случайная величина ξi=1 с вероятностью pi и ξi= –1 с вероятностью (1-pi), где

Пусть x0 задано, x1 вычисляется по формуле

xk + 1 = xk + αkξ k, k=0 (1)

где берется какая-либо реализация случайного вектора ξ0=ξ(0) для значений параметров w0=(0,…,0). Приближение x2 также вычисляется по этой формуле при k=1 с помощью вектора ξ1=ξ(0)

Пусть известны приближения x0, x1,…,xk и значения параметров

wk-1 = (w1 k-1,..., wn k-1), где k >= 1. Положим

(2)

где i=1,…,n, k=2,3,…

С помощью параметра управляют памятью алгоритма. Параметр управляет скоростью обучения, при этом предполагается, что величины и не могут быть равными нулю одновременно. Приближение xk+1 определяется по формуле (1) для реализации случайного вектора ξk=ξ(wk) для набора значений параметров wk = (w1 k,..., wn k).

Из формул для вычисления вероятностей pi и параметров следует что, если , то вероятность выбора направления на следующем шаге увеличивается. В противном случае эта вероятность падает. Итак, с помощью формул (2) происходит обучение алгоритма.

Величина в (2) регулирует влияние предыдущих значений параметров на обучение; при влияние предыдущих состояний не учитывается. Величина в (2) регулирует скорость обучения; при бучения не происходит.


 






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных