Главная

Популярная публикация

Научная публикация

Случайная публикация

Обратная связь

ТОР 5 статей:

Методические подходы к анализу финансового состояния предприятия

Проблема периодизации русской литературы ХХ века. Краткая характеристика второй половины ХХ века

Ценовые и неценовые факторы

Характеристика шлифовальных кругов и ее маркировка

Служебные части речи. Предлог. Союз. Частицы

КАТЕГОРИИ:






Корреляционный анализ и регрессионный анализ.




Общие сведения

Статистической называется зависимость между случайными величинами, при которой изменение одной из величин влечет за собой изменение закона распределения другой величины.

Односторонняя вероятностная зависимость между случайными есть регрессия. Она устанавливает соответствие между этими величинами.

Виды регрессии:

1.Регрессия относительно числа переменных:

- Простая регрессия – регрессия между двумя Множественная регрессия – это регрессия между зависимой переменной переменой у и несколькими объясняющими переменными х 1, х 2, …, х n. Множественная линейная регрессия имеет следующий вид:

У = а 0 + а 1 х 1 + а 2 х 2 + …+ а n x n,

Где: у – функция регрессии;

х 1, х2, …, х n - независимые переменные;

а 1, а 2, …, а n – коэффициенты регрессии;

а 0 - свободный член уравнения;

n – число факторов, включаемых в модель.

 

1. Регрессия относительно формы зависимости:

- линейная регрессия, выражаемая линейной функцией;

- нелинейная регрессия, выражаемая нелинейной функцией.

2. В зависимости от характера регрессии различают следующие ее виды:

- положительную регрессию. Она имеет место, если с увеличением (уменьшением) объясняющей переменной значения зависимой переменной также соответственно увеличиваются (уменьшаются);

- отрицательную регрессию. В этом случае с увеличением или уменьшением объясняющей переменной зависимая переменная уменьшается или увеличивается.

3. Относительно типа соединения явлений различают:

- непосредственную регрессию. В этом случае зависимая и объясняющая переменные связаны непосредственно друг с другом;

- косвенную регрессию. В этом случае объясняющая переменная действует на зависимую через ряд других переменных;

- ложную регрессию. Она возникает при формальном подходе к исследуемым явлениям без уяснения того, какие причины обуславливают данную связь.

Регрессия тесно связана с корреляцией.

Корреляция в широком смысле слова означает связь, соотношение между объективно существующими явлениями. Связи между явлениями могут быть различны по силе.

Понятия «корреляция» и «регрессия» тесно связаны между собой. В корреляционном анализе оценивается сила связи, а регрессионном анализе исследуется ее форма. Корреляция в широком смысле объединяет корреляцию в узком смысле и регрессию.

Корреляция, как и регрессия, имеет различные виды:

1. Относительно характера корреляции различают:

· положительную;

· отрицательную.

2. Относительно числа переменных –

· простую;

· множественную;

· частную.

3. Относительно формы связи –

· линейную;

· нелинейную.

4. Относительно типа соединения –

· непосредственную;

· косвенную;

· ложную.

 

Исследование корреляционных связей называется корреляционным анализом, а исследование односторонних стохастических зависимостей – регрессионным анализом.

 

Линейная регрессия

Пусть задана система случайных величин Х и Y и случайные величины Х и Y зависимы.

Представим одну из случайных величин как линейную функцию другой случайной величины Х:

Y= g(x) = a + bx,

где a, b - параметры, которые подлежат определению.

Эти параметры могут быть определены различными способами, наиболее часто используется метод наименьших квадратов (МНК).

Функцию g(x) называют наилучшим приближением в смысле МНК, если математическое ожидание М[Y-g(x)] 2 принимает возможное наименьшее значение.

В этом случае функцию g(x) называют средней квадратической регрессией Y на X.

Рассмотрим определение параметров выбранного уравнения прямой линии средней квадратической регрессии по не сгруппированным данным. Пусть изучается система количественных признаков (Х,Y), т.е. ведутся наблюдения за случайной двухмерной величиной (Х, Y). Пусть в результате n наблюдений получено n пар чисел 11), (х2, у2), …, (хn, yn).

Требуется по полученным данным найти выборочное уравнение прямой линии средней квадратической регрессии:

Поскольку данные несгруппированные, т.е. каждая пара чисел встречается один раз, то можно перейти от условной средней к переменной у. Угловой коэффициент k обозначим через k = p и назовем ее выборочной оценкой коэффициента регрессии .

Итак, требуется найти:

Метод наименьших квадратов (МНК) получили систему двух линейных уравнений относительно p и b. Решая эту систему, получим:

;

.

Основные понятия корреляционно-регрессионного анализа

1. Среднее значение переменной определяется по следующей формуле:

где х1 – эмпирическое значение переменной х; n – число наблюдений.

Дисперсия

2. Коэффициент корреляции

Коэффициент корреляции характеризует тесноту или силу связи между переменными у и х. Значения, переменные rху, заключены в пределах от –1 до +1. При положительном значении rху имеет место положительная корреляция, т.е. с увеличением (уменьшением) значений одной переменной (х) значение другой (у) соответственно увеличивается (уменьшается). При отрицательном значении rху имеет место отрицательная корреляция, т.е. с увеличением (уменьшением) значений х значения у соответственно уменьшаются (увеличиваются). При изучении экономического явления, зависящего от многих факторов, строится множественная регрессионная зависимость. В этом случае для характеристики тесноты связи используются коэффициент множественной корреляции:

где s2ост – остаточная дисперсия зависимой переменной;

s2общ – общая дисперсия зависимой переменной.

 

3. Общая дисперсия определяется по формуле:

Величина s2общ характеризует разброс наблюдений фактических значений от среднего значения .

Остаточная дисперсия определяется по следующей формуле:

где уiт – теоретические значения переменной у, полученные по уравнению регрессии при подстановке в него наблюдаемых фактических значений хi.

Остаточная дисперсия характеризует ту часть рассеяния переменной у, которая возникает из-за всякого рода случайностей и влияния неучтенных факторов.

4. Коэффициент детерминации служит для оценки точности регрессии, т.е. соответствие полученного уравнения регрессии имеющимся эмпирическим данным, и вычисляется по формуле

Изменяется Д в пределах от 0 до 1, т.е.

0 £ Д £ 1

Модель считается тем точнее, чем ближе Д к 1, т.е. чем меньше s2ост.

Стандартная ошибка оценки равна .

Если Д =0, это значит отношение , т.е. s2ост = s2общ, и, следовательно, . В этом случае прямая регрессии будет параллельна оси X, корреляционно-регрессионная связь между X и Y отсутствует. Если

Д = 1, значит, , т.е. s2ост = 0. Отсюда уi = yiT т. е наблюдаемые точки лежат на построенной прямой, следовательно, зависимость функциональная.

8. Корреляционное отношение используется для оценки тесно­ты связи между двумя явлениями, в частности для определения тесноты связи исходного ряда уi, с теоретическим рядом yiT. Корре­ляционное отношение определяют по данным, сгруппированным по объясняющей переменной по следующей формуле:

 

 






Не нашли, что искали? Воспользуйтесь поиском:

vikidalka.ru - 2015-2024 год. Все права принадлежат их авторам! Нарушение авторских прав | Нарушение персональных данных