1. Понятие корр">
Виды безработицы
Введение
Существующие между явлениями формы и виды связей весьма разнообразны по своей классификации. Предметом статистики <#"justify">1. Понятие корреляционно-регрессионного анализа
Классическая нормальная линейная регрессионная модель Обобщением линейной регрессионной модели с одной объясняющей переменной является линейная регрессионная модель с k-объясняющими переменными (модель множественной регрессии):
где - параметры модели; - объясняющие переменные;
- случайный член.
Случайный член е удовлетворяет тем же предпосылкам (условия Гаусса-Маркова), что и в модели с парной регрессией, но на объясняющие переменные наложено условие: случайные члены в любом наблюдении должны быть статистически независимы от объясняющих переменных.
При выполнении условий Гаусса-Маркова модель называется классической нормальной линейной регрессионной моделью.
Кроме того, предполагается, что объясняющие переменные некорелированы друг с другом. На основе п наблюдений оценивается выборочное уравнение регрессии:
где оценки параметров
Для оценки параметров регрессии используется метод наименьших квадратов, в соответствии с которым минимизируется сумма квадратов остатков:
Необходимым условием ее минимума является равенство нулю всех ее частных производных по .
В результате приходим к системе из (к + 1) линейных уравнений с (к + 1) неизвестными, называемой системой нормальных уравнений. Ее решение в явном виде обычно записывается в матричной форме, иначе оно становится слишком громоздким. Оценки параметров модели и их теоретические дисперсии в матричной форме определяются выражениями:
где b -вектор с компонентами
Х - матрица значений объясняющих переменных.
Y-вектор значений зависимой переменной,
- дисперсия случайного члена.
Несмещенной оценкой является величина (остаточная дисперсия)
Величина S называется стандартной ошибкой регрессии. Заменяя в теоретических дисперсиях неизвестную дисперсию ее оценкой и извлекая квадратный корень, получим стандартные ошибки коэффициентов регрессии:
Если предпосылки относительно случайного члена е выполняются, оценки параметров множественной регрессии являются несмещенными, состоятельными и эффективными. В дальнейшем определение коэффициентов регрессии и их стандартных ошибок производится без использования матричной алгебры другие показатели вычисляются автоматически и одновременно. При этом интерпретация получаемых показателей так же, как в парной регрессии с учетом числа степеней свободы.
Мультиколлинеарность - это коррелированность двух или не- сколько объясняющих переменных в уравнении регрессии. При наличии мультиколлинеарности МНК-оценки формально существуют, но обладают рядом недостатков:
небольшое изменение исходных данных приводит к существенному изменению оценок коэффициентов регрессии;
оценки коэффициентов регрессии имеют большие стандартные ошибки, малую значимость, в то время как модель в целом является значимой (высокое значение )
Если при оценке уравнения регрессии несколько факторов оказались незначимы, то нужно выяснить, нет ли среди них сильно коррелированных между собой. Для отбора факторов в модель регрессии и оценки их мультиколлинеарности анализируют корреляционную матрицу. Общий вид корреляционной матрицы, составленной из переменных y, приведен в следующей таблице:
yy1111
При наличии корреляции один из пары связанных между собой факторов исключается. Если статистически незначим лишь один фактор, то он должен быть исключен. В модель регрессии включаются те факторы, которые более сильно связаны с зависимой переменной, но слабо связаны с другими факторами.
Корреляционный анализ занимается степенью связи между двумя переменными, x и y.
Сначала предполагается, что как x, так и y количественные, например рост и масса тела.
Обычно на графике переменную x располагают на горизонтальной оси, а у - на вертикальной.
Больше работ по теме:
Предмет: Менеджмент
Тип работы: Реферат
Новости образования
КОНТАКТНЫЙ EMAIL: [email protected]
Скачать реферат © 2017 | Пользовательское соглашение
ПРОФЕССИОНАЛЬНАЯ ПОМОЩЬ СТУДЕНТАМ