Математические модели и методы, используемые в задачах управления тэс
Download 0,56 Mb.
|
Пл95 Глава 3
Градиентный метод. Процесс оптимизации методом градиента состоит в определении направления (роста или уменьшения) изменяемых параметров, которое ведет к скорейшему изменению функции цели. Поскольку градиент — вектор, который всегда направлен в сторону роста vi поиск минимума осуществляют в направлении антиградиента vi. На рис. 3.10 показана графическая интерпретация процесса градиентного поиска для случаев двух переменных y1, y2.
В трехмерном пространстве функция цели v(y1, y2), vi — поверхность. Сечения этой поверхности vi = const проектируют на плоскость y1, y2 в виде замкнутых концентрических кривых, в центре которых расположен абсолютный минимум v. Рис. 3.10. Статическая оптимизация а — градиентный метод ; б — метод наискорейшего спуска . Оптимизацию проводят следующим образом: в исходной точке v0 определяют вектор, перпендикулярный касательной в этой точке к кривой vi = const; движение в направлении минимума v проводят по антиградиенту; значение первого шага определяют по формуле находят градиент в точке v1, вновь принимаемой за исходную, и вновь совершают шаг вдоль антиградиента движение продолжают в направлении от v1 к v2, от v2 к v3 и т.д. до тех пор, пока модуль градиента не станет меньше наперед заданного малого числа δ: Функция цели v достигнет своего минимума при δ → 0. Для решения задачи оптимизации системы с многими переменными, когда исходные данные определены уравнениями (3.33), (3.34), реализацию градиентного метода поиска проводят в следующем порядке. 1. При заданных произвольных значениях n—m независимых переменных с помощью системы уравнений (3.34) находят значения остальных зависимых переменных. 2. Определяют частные производные ∂v/∂yi в соответствии с (3.36), где i ={i |m+1, m+2, ..., n|}. 3. Дают приращения независимым переменным уi в направлении уменьшения v, т.е. антиградиента. 4. Устанавливают некоторое исходное значение шага для поисковой системы (3.65) (3.66) 5. На основе (3.65) составляют дополнительное уравнение ограничения 6. Составляют функцию Лагранжа (3.67) где ∆v соответствует изменению v от h; при достаточно малых ∆уi: (3.68) 7. Составляют условия минимума для функции Лагранжа: (3.69) . . . . . . . . откуда (3.70) Из совместного решения (3.66) и (3.70) находим (3.71) 8. Из выражения (3.71) определяем (3.72) Преобразуем (3.70) с учетом (3.72): (3.73) 9. Определяем из (3.73) выражения для шагов: . . . . . . . . . 10. По заданным h и вычисленным из (3.36) значениям частных производных от v no yi определяем из (3.74) численные изменения (шаги) всех независимых переменных: 11. При новых значениях независимых переменных определяем из (3.34) значения зависимых переменных: Затем цикл изменения переменных в процессе минимизации v повторяют до тех пор, пока эти изменения не станут меньше заданного малого числа. Для нахождения оптимального распределения активных нагрузок между параллельно работающими энергоблоками решим совместно (3.43), (3.45), (3.74): (3.75) где — относительные приросты i-гo блока и блока, работающего в базовом режиме. При ∆у → 0 условие экстремума ВТ∑ также сведется к равенству и, следовательно, к равенствам (3.45) и (3.55), т.е. ε1 = ε2 = … = εn. Метод наискорейшего спуска. Этот метод есть разновидность градиентного метода. Его отличие состоит в том, что после определения градиента функции цели v0=g(yi) движение в направлении антиградиента проводят до первой точки нового спуска vc1, в которой достигается частный минимум на данном направлении. В этой точке вновь определяют градиент и движение идет в направлении нового антиградиента до следующего частного минимума vc2 и т.д. В приведенном примере главный минимум достигают за три перемены направления спуска. При каждой перемене находят две величины: частную производную функции цели и численное значение очередного шага. Частные производные вычисляют аналитически или геометрическим дифференцированием g(yi). Значение шага определяют с помощью интерполяционного полинома по выражению где v0, vr, v2r — значения оптимизирующей функции, соответствующие исходной точке v0 и точкам, отстоящим от нее на расстояние г и 2r в направлении антиградиента. Преимущество рассмотренного метода состоит в "ускоренном" спуске вдоль антиградиента, а недостаток — в зависимости сходимости вычислительного процесса от выбранного направления шагов и сложности определения численных значений самих шагов. Метод покоординатного спуска (Гаусса-Зейделя). Этот метод предусматривает минимизацию многопараметрической функции: где — — переменные параметры функции цели в исходной точке спуска v0. Геометрическое представление процедуры спуска для двух переменных приведено на рис. 3.11. Поиск осуществляют поочередным изменением переменных y1, y2, yЗ, …, yn. На первом этапе оптимизации фиксируют все п араметры, кроме одного — первого и определяют оптимальное значение этого параметра y1. Следовательно, отыскивают минимум функции по y1. Далее изменяют только второй параметр у2 до его значения . При этом первый параметр у1 фиксируется при найденном ранее значении . Таким образом, определяют минимум функции , после нахождения которого цикл оптимизации заканчивается. Однако одного цикла поиска оптимума, как правило, не хватает. Поэтому необходимо повторение указанного цикла из другой исходной точки или по другому направлению спуска. Например, если вместо у1 изменять параметр у2 (см. рис. 3.11), то поиск закончится за один неполный цикл v0 → v4. Если же вначале изменять параметр y1, то для достижения минимума потребуется два цикла (см. линии и на рис. 3.11). С Рис. 3.11. Метод покоординатного спуска пособы определения значения шага при координатном спуске те же, что при градиентном. Последовательность спуска по отдельным координатам может быть произвольной, но удобнее всего начинать поиск минимума v с изменения параметра, к которому система оказывается наиболее чувствительной. Но для этого следует определить изменчивость функции цели под влиянием различных параметров, что усложняет процесс поиска в целом [20]. Модифицированный метод покоординатного спуска применяют при большом числе переменных. Он состоит в том, что все переменные разбивают на группы. Вначале поиск осуществляют только в пределах одной группы параметров при фиксированных значениях переменных всех остальных групп. Грубый поиск минимума функции цели служит следующей модификацией метода покоординатного спуска. Он состоит в том, что вначале производят изменение всех параметров поочередно, соответствующих только этим координатам, в то время как остальные не изменяются. Это позволяет уменьшить объем поисковых вычислений vi =gi(yi) и сократить время счета на ЭВМ. Download 0,56 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2025
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling