Математические модели и методы, используемые в задачах управления тэс


Download 0,56 Mb.
bet7/9
Sana30.04.2023
Hajmi0,56 Mb.
#1415007
TuriГлава
1   2   3   4   5   6   7   8   9
Bog'liq
Пл95 Глава 3

Градиентный метод. Процесс оптимизации методом градиента состоит в определении направления (роста или уменьшения) из­меняемых параметров, которое ведет к скорейшему изменению функции цели. Поскольку градиент — вектор, который всегда на­правлен в сторону роста vi поиск минимума осуществляют в на­правлении антиградиента vi. На рис. 3.10 показана графическая интерпретация процесса градиентного поиска для случаев двух пе­ременных y1, y2.
В трехмерном пространстве функция цели v(y1, y2), vi — по­верхность. Сечения этой поверхности vi = const проектируют на плоскость y1, y2 в виде замкнутых концентрических кривых, в центре которых расположен абсолютный минимум v.

Рис. 3.10. Статическая оптимизация
а — градиентный метод ; б — метод наискорейшего
спуска .
Оптимизацию проводят следующим образом:
в исходной точке v0 определяют вектор, перпендикулярный касательной в этой точке к кривой vi = const;
движение в направлении минимума v проводят по антиградиенту;
значение первого шага определяют по формуле

находят градиент в точке v1, вновь принимаемой за исходную, и вновь совер­шают шаг вдоль антиградиента

движение продолжают в направлении от v1 к v2, от v2 к v3 и т.д. до тех пор, пока модуль градиента не станет меньше наперед заданного малого числа δ:

Функция цели v достигнет своего минимума при δ → 0.
Для решения задачи оптимизации системы с многими перемен­ными, когда исходные данные определены уравнениями (3.33), (3.34), реализацию градиентного метода поиска проводят в следу­ющем порядке.
1. При заданных произвольных значениях n—m независимых переменных с по­мощью системы уравнений (3.34) находят значения остальных зависимых пере­менных.
2. Определяют частные производные ∂v/∂yi в соответствии с (3.36), где i ={i |m+1, m+2, ..., n|}.
3. Дают приращения независимым переменным уi в направлении уменьшения
v, т.е. антиградиента.
4. Устанавливают некоторое исходное значение шага для поисковой системы

(3.65)


(3.66)
5. На основе (3.65) составляют дополнительное уравнение ограничения

6. Составляют функцию Лагранжа

(3.67)

где ∆v соответствует изменению v от h; при достаточно малых ∆уi:

(3.68)

7. Составляют условия минимума для функции Лагранжа:

(3.69)

. . . . . . . .
откуда

(3.70)

Из совместного решения (3.66) и (3.70) находим

(3.71)

8. Из выражения (3.71) определяем

(3.72)

Преобразуем (3.70) с учетом (3.72):

(3.73)

9. Определяем из (3.73) выражения для шагов:

. . . . . . . . .
10. По заданным h и вычисленным из (3.36) значениям частных производных
от v no yi определяем из (3.74) численные изменения (шаги) всех независимых
переменных:

11. При новых значениях независимых переменных определяем из (3.34) зна­чения зависимых переменных:

Затем цикл изменения переменных в процессе минимизации v повторяют до тех пор, пока эти изменения не станут меньше заданного малого числа.
Для нахождения оптимального распределения активных нагру­зок между параллельно работающими энергоблоками решим со­вместно (3.43), (3.45), (3.74):

(3.75)

где — относительные приросты i-гo блока и блока, работающего в базовом режиме.
При ∆у → 0 условие экстремума ВТ∑ также сведется к равенству и, следовательно, к равенствам (3.45) и (3.55), т.е.
ε1 = ε2 = … = εn.
Метод наискорейшего спуска. Этот метод есть разновидность градиентного метода. Его отличие состоит в том, что после опре­деления градиента функции цели v0=g(yi) движение в направлении антиградиента проводят до первой точки нового спуска vc1, в кото­рой достигается частный минимум на данном направлении. В этой точке вновь определяют градиент и движение идет в направлении нового антиградиента до следующего частного минимума vc2 и т.д. В приведенном примере главный минимум достигают за три перемены направления спуска. При каждой перемене находят две ве­личины: частную производную функции цели и численное значе­ние очередного шага. Частные производные вычисляют аналити­чески или геометрическим дифференцированием g(yi).
Значение шага определяют с помощью интерполяционного поли­нома по выражению

где v0, vr, v2r — значения оптимизирующей функции, соответст­вующие исходной точке v0 и точкам, отстоящим от нее на рассто­яние г и 2r в направлении антиградиента.
Преимущество рассмотренного метода состоит в "ускоренном" спуске вдоль антиградиента, а недостаток — в зависимости сходи­мости вычислительного процесса от выбранного направления ша­гов и сложности определения численных значений самих шагов.
Метод покоординатного спуска (Гаусса-Зейделя). Этот метод предусматривает минимизацию многопараметрической функции:

где — — переменные параметры функции цели в ис­ходной точке спуска v0.
Геометрическое представление процедуры спуска для двух пе­ременных приведено на рис. 3.11. Поиск осуществляют поочеред­ным изменением переменных y1, y2, yЗ, …, yn. На первом эта­пе оптимизации фиксируют все п араметры, кроме одного — первого и определяют опти­мальное значение этого параметра y1. Следовательно, отыскивают минимум функции по y1. Далее изменяют только вто­рой параметр у2 до его значе­ния . При этом первый пара­метр у1 фиксируется при найденном ранее значении . Таким образом, определяют минимум функции , после нахождения которого цикл опти­мизации заканчивается. Однако одного цикла поиска оптимума, как правило, не хватает. Поэтому необходимо повторение указан­ного цикла из другой исходной точки или по другому направле­нию спуска. Например, если вместо у1 изменять параметр у2 (см. рис. 3.11), то поиск закончится за один неполный цикл v0 → v4. Ес­ли же вначале изменять параметр y1, то для достижения миниму­ма потребуется два цикла (см. линии и на рис. 3.11).
С
Рис. 3.11. Метод покоординатного спуска
пособы определения значения шага при координатном спуске те же, что при градиентном. Последовательность спуска по отдель­ным координатам может быть произвольной, но удобнее всего на­чинать поиск минимума v с изменения параметра, к которому сис­тема оказывается наиболее чувствительной. Но для этого следует определить изменчивость функции цели под влиянием различных параметров, что усложняет процесс поиска в целом [20].
Модифицированный метод покоординатного спуска применяют при большом числе переменных. Он состоит в том, что все пере­менные разбивают на группы. Вначале поиск осуществляют только в пределах одной группы параметров при фиксированных значениях переменных всех остальных групп.
Грубый поиск минимума функции цели служит следующей мо­дификацией метода покоординатного спуска. Он состоит в том, что вначале производят изменение всех параметров поочередно, соот­ветствующих только этим координатам, в то время как остальные не изменяются. Это позволяет уменьшить объем поисковых вы­числений vi =gi(yi) и сократить время счета на ЭВМ.

Download 0,56 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2025
ma'muriyatiga murojaat qiling