Объект и предмет исследования


Метод наименьших квадратов


Download 1.41 Mb.
bet10/25
Sana16.06.2023
Hajmi1.41 Mb.
#1518011
1   ...   6   7   8   9   10   11   12   13   ...   25
Bog'liq
Разработка программного средства прогноза частоты пост 02

2. Метод наименьших квадратов
Ввиду того, что исходный материал, описывающий параметры ВС имеет статистический характер, при исследовании их влияния на ПО были использовали методы математической статистики. В частности, были использованы методы вариационной статистики, дисперсионный, корреляционный и регрессионный анализы []. Очень часто при исследовании биологических объектов используется математический аппарат регрессионного анализа. Задача оценивания параметров линейного уравнения регрессии по имеющимся данным представляет собой одну из основных прикладных статистических процедур.
Для этой цели широко применяется метод наименьших квадратов, всесторонне изученный и имеющий несколько теоретических обоснований. Он достаточно просто реализуется в виде программ расчетов оценок параметров и других характеристик линейной регрессионной связи между объясняемой и объясняющими переменными.
В настоящее время предложены много постановок задач оценивания, обобщающие схему метода наименьших квадратов как для одного уравнения, так и для систем таких уравнений.
Критерий минимума среднеквадратической ошибки на всех точках, используемый в методе наименьших квадратов не позволяет построить единственную модель. Для получения единственной модели при регрессионном анализе указывается степень уравнения, при прогнозе - вид прогнозирующей функции, при идентификации - структура объекта.
Построение математической модели производилось по методу наименьших квадратов в виде:

где степень связи;
весовые коэффициенты признаков;
признаки, выраженные в баллах;
свободный член.
Построение математической модели производиться с учетом критерия минимизации вида:

где - оператор математического ожидания;
форма течения патологического процесса по экспериментальным данным.
Отметим, что оценки, получаемые при помощи метода наименьших квадратов, являются наилучшими в классе линейных функций. Но следует иметь в виду, что подобный результат достигается при выполнении требований, которые предъявляются к исходному статистическому материалу. В этой связи рассмотрим эти базовые предположения метода наименьших квадратов.

  1. Предположение о нулевом среднем значении



  1. Предположение о постоянстве условной дисперсии (гомоскедастичности) и об отсутствии автокорреляции



  1. Предположение об отсутствии одновременности

фиксировано в повторяющихся выборках,
либо распределено независимо от

  1. Предположение о ранге


Первая гипотеза означает, что для всех , то есть переменные имеют нулевую среднюю.
Предположение (7) - очень важная гипотеза. Она означает, что все имеют постоянную дисперсию - свойство, в связи с которым говорят о гомоскедастичности. Элементы, не стоящие на главной диагонали, дают для , так что значения попарно некоррелированы.
Гипотеза (8) означает, что в повторяющихся выборочных наблюдениях единственным источником случайных возмущений вектора являются случайные возмущения вектора и поэтому свойства наших оценок и критериев обусловлены матрицей наблюдений .
Последнее предположение относительно матрицы , ранг которой принимается равным , означает, что число наблюдений превышает число параметров (иначе невозможна оценка этих параметров), а также, что не существует строгой линейной зависимости между объясняющими переменными.
Невыпонение этих положений часто приводит к неустойчивым, неэффективным оценкам параметров модели, что обусловлено проблемами мультиколлинеарности и автокорреляции.
Это обстоятельство объясняется тем, что при исследовании живых систем: во-первых элементы вектора состояния не являются линейно независимыми; во-вторых , они имеют различный масштаб измерения; в третьих, являются функциями времени и в четвертых - порой проявляют нелинейность в динамике.
Основные последствия мультиколлинеарности приводят к тому, что:
1. падает точность оценивания, которое становиться очень трудным, так как невозможно распутать клубок взаимных влияний изменений различных переменных . Это является причиной того, что ошибки некоторых конкретных оценок становятся очень большими. Эти ошибки оказываются сильно коррелированными друг с другом, выборочные дисперсии резко возрастают.
2. коэффициенты при некоторых переменных оказываются незначимыми, но истинная причина может заключаться не в том, что эти переменные не влияют на объясняемую переменную, а в том, что множество выборочных данных не позволяет это влияние отразить.
3. оценки коэффициентов становятся очень чувствительны к особенностям множества выборочных данных, так что добавление совсем небольшого количества новых наблюдений может иногда привести к очень сильным сдвигам в значениях некоторых коэффициентов.
Мультиколлинеарность порождает проблему выявления из исходного массива данных наиболее существенных признаков. Исключение из регрессии существенных переменных может привести к очень серьезным ошибкам. При этом не только оценки коэффициентов окажутся смещенными, но и выводы, основанные на них, будут неточными, так как оценка остаточной дисперсии будет смещена еще больше. Поэтому, если позволяет связь между данными и числом степеней свободы, то лучше ошибиться, введя несущественные переменные, нежели исключив существенные.



Download 1.41 Mb.

Do'stlaringiz bilan baham:
1   ...   6   7   8   9   10   11   12   13   ...   25




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling