ТОР 5 статей: Методические подходы к анализу финансового состояния предприятия Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века Характеристика шлифовальных кругов и ее маркировка Служебные части речи. Предлог. Союз. Частицы КАТЕГОРИИ:
|
Метод случайного поиска. Алгоритм покоординатного обучения.Особенность метода в том, что в процессе вычисления приближений xk используются случайные вектора в качестве направления движения. Например, xk + 1 = xk + αkξ, k=0,1,..., (1) где αk > 0 – длина шага, ξ = (ξ1,..., ξn) – реализация n-мерной случайной величины ξ с заданным распределением. Например, ξi – независимые случайные величины, равномерно распределенные на отрезке [-1, 1]. Т.о, любая реализация метода случайного поиска использует генератор случайных чисел, который по любому запросу выдает реализацию случайного вектора ξ с заданной функцией распределения. Рассмотрим задачу f(x) → minx∈Q, где Q⊆Rn. Пусть известно k-ое приближение xk∈Q, k=0,1,…. Пусть ξ(w) = (ξ1(w),..., ξn(w)) – семейство случайных векторов, зависящих от параметров w = (w1,..., wn). Для каждого случайная величина ξi=1 с вероятностью pi и ξi= –1 с вероятностью (1-pi), где Пусть x0 задано, x1 вычисляется по формуле xk + 1 = xk + αkξ k, k=0 (1) где берется какая-либо реализация случайного вектора ξ0=ξ(0) для значений параметров w0=(0,…,0). Приближение x2 также вычисляется по этой формуле при k=1 с помощью вектора ξ1=ξ(0) Пусть известны приближения x0, x1,…,xk и значения параметров wk-1 = (w1 k-1,..., wn k-1), где k >= 1. Положим (2) где i=1,…,n, k=2,3,… С помощью параметра управляют памятью алгоритма. Параметр управляет скоростью обучения, при этом предполагается, что величины и не могут быть равными нулю одновременно. Приближение xk+1 определяется по формуле (1) для реализации случайного вектора ξk=ξ(wk) для набора значений параметров wk = (w1 k,..., wn k). Из формул для вычисления вероятностей pi и параметров следует что, если , то вероятность выбора направления на следующем шаге увеличивается. В противном случае эта вероятность падает. Итак, с помощью формул (2) происходит обучение алгоритма. Величина в (2) регулирует влияние предыдущих значений параметров на обучение; при влияние предыдущих состояний не учитывается. Величина в (2) регулирует скорость обучения; при бучения не происходит.
Не нашли, что искали? Воспользуйтесь поиском:
|