Учебно-методическое пособие для студентов специальности 1-36 20 02 «Упаковочное производство»
Download 4.96 Mb. Pdf ko'rish
|
26. МЕТОД НАИСКОРЕЙШЕГО СПУСКА
При использовании метода наискорейшего спуска на каждой итерации величина шага а k выбирается из условия минимума функ- ции f(x) в направлении спуска, т. е. f(x[k] – a k f (x[k])) = 0 min a f(x[k] – af (x[k])). Это условие означает, что движение вдоль антиградиента проис- ходит до тех пор, пока значение функции f(x) убывает. С математи- ческой точки зрения на каждой итерации необходимо решать задачу одномерной минимизации по а функции: j(a) = f(x[k] – af (x[k])). Алгоритм метода наискорейшего спуска состоит в следующем. 1. Задаются координаты начальной точки х[0]. 2. В точке х[k], k = 0, 1, 2, ..., вычисляется значение градиента f (x[k]). 3. Определяется величина шага a k , путем одномерной минимиза- ции по а функции j(a) = f(x[k] – af (x[k])). 4. Определяются координаты точки х[k+1]: х i [k + 1] = x i [k] – а k f i (х[k]), i = 1, ..., п. 5. Проверяются условия останова итерационного процесса. Если они выполняются, то вычисления прекращаются. В противном слу- чае осуществляется переход к п. 1. В рассматриваемом методе направление движения из точки х[k] касается линии уровня в точке x[k + 1] (рис. 26.1). Траектория спус- ка зигзагообразная, причем соседние звенья зигзага ортогональны 110 друг другу. Действительно, шаг a k выбирается путем минимизации по а функции (a) = f(x[k] – af (x[k])). Необходимое условие миниму- ма функции dj(a)/da = 0. Вычислив производную сложной функции, получим условие ортогональности векторов направлений спуска в соседних точках: dj(a)/da = –f’(x[k + 1] f (x[k]) = 0. Рис. 26.1. Геометрическая интерпретация метода наискорейшего спуска Градиентные методы сходятся к минимуму с высокой скоростью (со скоростью геометрической прогрессии) для гладких выпуклых функций. У таких функций наибольшее М и наименьшее m – соб- ственные значения матрицы вторых производных (матрицы Гессе) 2 2 2 1 1 1 2 1 2 2 2 2 1 2 2 2 2 2 2 1 2 ( ) ( ) ( ) ... ( ) ( ) ( ) ... ( ) ... ... ... ( ) ( ) ( ) ... n n n n n n f x f x f x x x x x x x f x f x f x H x x x x x x x f x f x f x x x x x x x мало отличаются друг от друга, т. е. матрица Н(х) хорошо обуслов- лена. Напомним, что собственными значениями l i , i = 1, …, n, мат- рицы являются корни характеристического уравнения 111 2 2 2 1 1 1 2 1 2 2 2 2 1 2 2 2 2 2 2 1 2 ( ) ( ) ( ) ... ( ) ( ) ( ) ... ( ) 0. ... ... ... ( ) ( ) ( ) ... n n n n n n f x f x f x x x x x x x f x f x f x H x x x x x x x f x f x f x x x x x x x Однако на практике, как правило, минимизируемые функции име- ют плохо обусловленные матрицы вторых производных (т/М << 1). Значения таких функций вдоль некоторых направлений изменяются гораздо быстрее (иногда на несколько порядков), чем в других направлениях. Их поверхности уровня в простейшем случае сильно вытягиваются (рис. 26.2), а в более сложных случаях изгибаются и представляют собой овраги. Рис. 26.2. Овражная функция Функции, обладающие такими свойствами, называют овражны- ми. Направление антиградиента этих функций (см. рис. 27.2) суще- ственно отклоняется от направления в точку минимума, что приво- дит к замедлению скорости сходимости. Скорость сходимости градиентных методов также существенно за- висит от точности вычислений градиента. Потеря точности, а это обычно происходит в окрестности точек минимума или в овражной ситуации, может вообще нарушить сходимость процесса градиентного 112 спуска. Вследствие перечисленных причин градиентные методы зача- стую используются в комбинации с другими, более эффективными методами на начальной стадии решения задачи. В этом случае точка х[0] находится далеко от точки минимума и шаги в направлении анти- градиента позволяют достичь существенного убывания функции. Download 4.96 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling