Линейная регрессия и метод наименьших квадратов




Скачать 59.87 Kb.
НазваниеЛинейная регрессия и метод наименьших квадратов
Дата публикации02.10.2013
Размер59.87 Kb.
ТипДокументы
vbibl.ru > Математика > Документы
Линейная регрессия и метод наименьших квадратов

Сами количественные признаки — это фактически случайные величины, которые описываются своими распределениями (совокупностью принимаемых значений и совокупностью вероятностей, с которыми эти значения принимаются). Соответственно для признаков определяются средние, а сами случайные величины могут быть представлены в виде суммы средней и остатка, характеризующего случайные флуктуации:



где средняя (первое слагаемое) может быть приближена или просто заменена некоторой функцией, например, линейной:



Это представление имеет глубокий смысл и будет неоднократно использоваться и обсуждаться далее. Далее, помимо среднего для признака как для случайной величины, определяется дисперсия, которая служит мерой вариации признака в целом (интегральная характеристика колеблемости признака):



Эконометрика исследует взаимозависимости между признаками и динамику их изменения во времени. Признаки, зависящие от других, называются зависимыми, или объясняющими. Признаки, от которых зависят первые (зависимые), называются независимыми, или факторами, (регрессорами). Далее мы увидим, что их так называемая независимость друг от друга отнюдь не носит абсолютный характер. Тем не менее, понятие независимости факторов является весьма важным и весьма полезным начальным предположением.

После исследования соответствующих базовых моделей начального уровня удается строить и изучать более сложные и более совершенные модели, в которых можно учитывать частичную зависимость факторов. Также естественно, что в качестве начальных базовых моделей используются простейшие зависимости, например, линейные. После этого рассматривают модели, которые можно преобразовать в линейные. И, наконец, только после этого — существенно нелинейные модели. О том, каков точный смысл этих понятий, речь пойдет в следующих главах.

Возвращаясь к нашему примеру с линейной зависимостью, отметим, что если просто провести на глаз прямую (график линейной зависимости), максимально соответствующую точкам (наблюдениям), то получаем простую графическую интерпретацию. Отрезок, отсекаемый на оси y, представляет собой оценку свободного члена в формуле линейной зависимости. Соответственно, угловой коэффициент прямой — это оценка параметра при независимой переменной.

Линия графика (линейной зависимости), или линия регрессии, должна быть такова, чтобы указанные остатки являлись минимальными. Как понимать требование минимальности именно всех остатков? Ведь, уменьшая одни остатки, мы всегда будем увеличивать другие. Наилучший способ — это потребовать минимизации суммы квадратов остатков, которые еще называют отклонениями. В этом случае говорят о минимизации суммы квадратов отклонений. Это одно и то же. Наилучшее соответствие кривой точкам наблюдений получилось бы в предельном случае абсолютно точного соответствия, когда кривая (в нашем случае — прямая) пройдет точно через все точки. Но это нереально для линии регрессии ввиду наличия случайного члена и ошибок наблюдений.

Именно описанный только что принцип минимизации квадратов остатков и его реализация называются методом наименьших квадратов (МНК). Поскольку существует также модификация и развитие его, то говорят также о традиционном, или обычном, МНК.

В математике (математической статистике и теории приближенных вычислений) МНК рассматривается в качестве одного из наиболее важных и эффективных методов приближенных вычислений и способов оценивания. По существу, именно ситуация, когда система алгебраических линейных уравнений не имеет точного решения (в смысле, вкладываемом в понятие решения в классическом школьном курсе математики), является наиболее общей и важной с практической точки зрения. В большинстве случаев удается найти содержательные приближенные решения, дающие ответ на вопросы, поставленные в данной задаче, и служащие обобщением такого решения в узком смысле обращения уравнений системы в тождества.

Важно понимать, что в МНК переменные и коэффициенты как бы меняются местами. Из требования минимизации суммы квадратов остатков вытекает довольно простая система линейных алгебраических уравнений. Она называется нормальной системой, или системой нормальных уравнений. В этой системе уравнений в качестве известных выступают величины, получаемые в результате непосредственного сложения, перемножения друг на друга соответствующих величин, возведения их в квадрат и последующего суммирования наблюдаемых значений переменных.

Надо отчетливо понимать, что, несмотря на свой нередко относительно громоздкий вид, это всего лишь известные величины, играющие теперь роль коэффициентов системы. С другой стороны, сами исходные коэффициенты линейной зависимости (параметры) неизвестны. Именно их и надо определить из системы нормальных уравнений.

Для решения системы алгебраических линейных уравнений существуют различные методы — от простого исключения переменных до использования определителей и обратных матриц, метод Гаусса, систематизирующий и обобщающий исключение переменных и называемый поэтому методом последовательного исключения неизвестных. Для случая двух переменных эти формулы нахождения решения системы нормальных уравнений довольно просты. Для множественной регрессии, когда рассматриваются зависимости от множества факторов, такие формулы становятся более громоздкими, но в принципе сохраняющими аналогичную структуру уравнений системы.

Для использования МНК крайне важно, что в очень большом количестве исследуемых ситуаций выборочная дисперсия весьма близка к генеральной дисперсии и является хорошим приближением, а потому хорошей оценкой для генеральной дисперсии, кроме отдельных специальных случаев. В то же время выборочное среднее не является достаточно хорошей оценкой, а служит всего лишь грубым первоначальным приближением к оценке генерального среднего, которое уточняется с помощью формул, использующих выборочную дисперсию.

Сами оценки являются случайными величинами, т.к. зависят от случайного сочетания значений в выборке, объема выборки и поэтому, так же как и исследуемая исходная случайная величина, имеют постоянную и случайную составляющие. Таким образом, оценки как случайные величины, вообще говоря, не совпадают в точности с оцениваемыми с их помощью характеристиками генеральной совокупности. Соответствующие разности между самой характеристикой и оценкой называются ошибками и также являются случайными величинами. Существует важное требование к оценкам, которое называется требованием несмещенности (несмещенные оценки): именно среднее оценки должно равняться соответствующей характеристике генеральной совокупности. Это свойство выражает, так сказать, аккуратность оценки.

Другое важное требование — это надежность оценки, характеризуемая степенью сближения (сжатия) выборочной функции распределения к оцениваемой истинной, или теоретической, функции распределения. Поскольку разброс, или вариация, выражается дисперсией, то можно сказать, что требуется получить по возможности наименьшую дисперсию. Это требование и соответствующее свойство называются эффективностью.

Наконец, третье важное требование заключается в том, чтобы предел оценки при стремлении объема выборки к бесконечности равнялся бы с вероятностью 1 истинному значению характеристики генеральной совокупности, и оно называется состоятельностью.

Проверка значимости уравнения регрессии по критерию Фишера

. (2.4)

Из рис. 2.4 следует, что FT = 0,0058. Критическое значение F-критерия (FКРИТ ) определяем с помощью использования статистической функции FРАСПОБР (рис. 2.5). Входными параметрами функции является уровень значимости (вероятность) и число степеней свободы 1 и 2. Для модели парной регрессии число степеней свободы соответственно равно 1 (одна объясняющая переменная) и n - 2 = 6 – 2 = 4.

Из рис. 2.5 видно, что FКРИТ = 7,71.

Поскольку FT <FКРИТ , то нулевая гипотеза не отвергается, и полученное регрессионное уравнение статистически незначимо.

Перейдем теперь к более сложному заданию — построению модели множественной регрессии.

. (2.5)

Добавить документ в свой блог или на сайт

Похожие:

Линейная регрессия и метод наименьших квадратов iconВопрос №4: Предпосылки метода наименьших квадратов, гомоскедастичность,...
Метод наименьших квадратов — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих...

Линейная регрессия и метод наименьших квадратов iconОбобщенный метод наименьших квадратов
В этом плане невозможность или нецелесообразность использования традиционного мнк по причине проявляющейся в той или иной степени...

Линейная регрессия и метод наименьших квадратов icon3. Открытая и закрытая модели транспортной задачи
Наилучшей кривой из всех кр явл та, для которой сумма квадратов отклонений исходных значений yt и модельных значения явл наименьшей....

Линейная регрессия и метод наименьших квадратов icon2. 15 Аппроксимация функций. Метод наименьших квадратов
Если какую либо функцию f на промежутке [a, b] приближенно воспроизводят с помощью другой, g(X),то качество этой аппроксимации можно...

Линейная регрессия и метод наименьших квадратов iconОпределение параметров объекта управления методом наименьших квадратов
...

Линейная регрессия и метод наименьших квадратов iconОбзор программ для аппроксимации экспериментальных данных
В данной программе аппроксимация осуществляется с помощью метода наименьших квадратов путем линеаризации требуемых зависимостей....

Линейная регрессия и метод наименьших квадратов iconОбзор программ для аппроксимации экспериментальных данных
В данной программе аппроксимация осуществляется с помощью метода наименьших квадратов путем линеаризации требуемых зависимостей....

Линейная регрессия и метод наименьших квадратов iconМетод наименьших квадратов для одного фактора
Рассмотрим численный пример линейного уравнения для одного фактора. Опишем его на матричном языке

Линейная регрессия и метод наименьших квадратов iconДвухшаговый метод наименьших квадратов
В первом случае, если все уравнения системы сверхидентифицируемые, для оценки структурных коэффициентов каждого уравнения используется...

Линейная регрессия и метод наименьших квадратов icon1. 2Приближение сигналов рядом Тейлора
Функция реализации метода наименьших квадратов LeastSquares

Вы можете разместить ссылку на наш сайт:
Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
vbibl.ru
Главная страница