Учебно-методическое пособие для студентов специальности 1-36 20 02 «Упаковочное производство»
Download 4.96 Mb. Pdf ko'rish
|
28. ЧИСЛЕННЫЕ МЕТОДЫ БЕЗУСЛОВНОЙ
ОПТИМИЗАЦИИ ВТОРОГО ПОРЯДКА Особенности методов второго порядка Методы безусловной оптимизации второго порядка используют вторые частные производные минимизируемой функции f(х). Суть этих методов состоит в следующем. Необходимым условием экстремума функции многих переменных f(x) в точке х * является равенство нулю ее градиента в этой точке: ( ) f x = 0. Разложение ( ) f x в окрестности точки х[k] в ряд Тейлора с точ- ностью до членов первого порядка позволяет переписать предыду- щее уравнение в виде f (x) = f (x[k]) + f >> (x[k]) (х – х[k]) = 0. Здесь f >> (x[k]) = Н(х[k]) – матрица вторых производных (мат- рица Гессе) минимизируемой функции. Следовательно, итерацион- ный процесс для построения последовательных приближений к ре- шению задачи минимизации функции f(x) описывается выражением 116 x[k + l] = x[k] – H –1 (x[k]) f (x[k]), где H –1 (x[k]) – обратная матрица для матрицы Гессе; H –1 (x[k])f (x[k]) = р[k] – направление спуска. Полученный метод минимизации называют методом Ньютона. Очевидно, что в данном методе величина шага вдоль направления р[k] полагается равной единице. Последовательность точек {х[k]}, получаемая в результате применения итерационного процесса, при определенных предположениях сходится к некоторой стационарной точке х * функции f(x). Если матрица Гессе Н(х * ) положительно определена, точка х * будет точкой строгого локального минимума функции f(x). Последовательность x[k] сходится к точке х * только в том случае, когда матрица Гессе целевой функции положительно определена на каждой итерации. Если функция f(x) является квадратичной, то, независимо от начального приближения х[0] и степени овражности, с помощью метода Ньютона ее минимум находится за один шаг. Это объясня- ется тем, что направление спуска р[k] = H –1 (x[k])f’(x[k]) в любых точках х[0] всегда совпадает с направлением в точку ми- нимума х * . Если же функция f(x) не квадратичная, но выпуклая, ме- тод Ньютона гарантирует ее монотонное убывание от итерации к итерации. При минимизации овражных функций скорость сходи- мости метода Ньютона более высока по сравнению с градиентными методами. В таком случае вектор р[k] не указывает направление в точку минимума функции f(x), однако имеет большую составля- ющую вдоль оси оврага и значительно ближе к направлению на ми- нимум, чем антиградиент. Существенным недостатком метода Ньютона является зависимость сходимости для невыпуклых функций от начального приближения х[0]. Если х[0] находится достаточно далеко от точки минимума, то метод может расходиться, т. е. при проведении итерации каждая сле- дующая точка будет более удаленной от точки минимума, чем преды- дущая. Сходимость метода, независимо от начального приближения, обеспечивается выбором не только направления спуска р[k] = H –1 (x[k])f (x[k]), 117 но и величины шага а вдоль этого направления. Соответствующий алгоритм называют методом Ньютона с регулировкой шага. Ите- рационный процесс в таком случае определяется выражением x[k + l] = x[k] – a k H –1 (x[k])f (x[k]). Величина шага а k выбирается из условия минимума функции f(х) по а в направлении движения, т. е. в результате решения задачи од- номерной минимизации f(x[k] – a k H –1 (x[k])f (x[k]) = 0 min a (f(x[k] – aH –1 (x[k])f (x[k])). Вследствие накопления ошибок в процессе счета матрица Гессе на некоторой итерации может оказаться отрицательно определен- ной или ее нельзя будет обратить. В таких случаях в подпрограммах оптимизации полагается H –1 (x[k]) = Е, где Е – единичная матрица. Очевидно, что итерация при этом осуществляется по методу наискорейшего спуска. Download 4.96 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling