Рівняння регресії. Рівняння численної регресії

Рівняння регресії. Рівняння численної регресії

Під час навчання студенти дуже часто стикаються з різноманітними рівняннями. Одне з них - рівняння регресії - розглянуто в цій статті. Такий тип рівняння застосовується спеціально для опису характеристики зв 'язку між математичними параметрами. Цей вид рівностей використовують у статистиці та економетриці.


Визначення поняття регресії

У математиці під регресією передбачається певна величина, що описує залежність середнього значення сукупності даних від значень іншої величини. Рівняння регресії показує як функцію певної ознаки середнє значення іншої ознаки. Функція регресії має вигляд простого рівняння у = х, в якому у виступає залежної змінної, а х - незалежної (ознак-фактор). Фактично регресія виражатиметься як у = f (x).

Які бувають типи зв 'язків між змінними

Загалом, виділяється два протилежних типи взаємозв 'язку: кореляційна і регресійна.

Перша характеризується рівноправністю умовних змінних. У даному випадку достовірно не відомо, яка змінна залежить від іншої.

Якщо ж між змінними не спостерігається рівноправності і в умовах сказано, яка змінна пояснююча, а яка - залежна, то можна говорити про наявність зв 'язку другого типу. Щоб побудувати рівняння лінійної регресії, необхідно буде з 'ясувати, який тип зв' язку спостерігається.

Види регресій

На сьогоднішній день виділяють 7 різноманітних видів регресії: гіперболічна, лінійна, множинна, нелінійна, парна, зворотна, логарифмічно лінійна.

Гіперболічна, лінійна та логарифмічна

Рівняння лінійної регресії застосовують у статистиці для чіткого пояснення параметрів рівняння. Воно виглядає як у = с + т * х + Е. Гіперболічне рівняння має вигляд правильної гіперболи у = з + т/х + Е. Логарифмічно лінійне рівняння виражає взаємозв 'язок за допомогою логарифмічної функції: In = In + т * In x + In E.

Множинна і нелінійна

Два більш складних види регресії - це множинна і нелінійна. Рівняння численної регресії виражається функцією = f (x1, х2... хс) + Е. У даній ситуації у виступає залежної змінної, а х - пояснюючої. Змінна Е - стохастична, вона включає вплив інших факторів у рівнянні. Нелінійне рівняння регресії трохи суперечливе. З одного боку, щодо врахованих показників воно не лінійне, а з іншого боку, в ролі оцінки показників воно лінійне.

Зворотні та парні види регресій

Зворотній - це такий вид функції, який необхідно перетворити на лінійний вигляд. У найбільш традиційних прикладних програмах вона має вигляд функції у = 1/с + т * х + Е. Парне рівняння регресії демонструє взаємозв 'язок між даними в якості функції у = f (x) + Е. Точно так само, як і в інших рівняннях, у залежить від х, а Е - стохастичний параметр.

Поняття кореляції

Це показник, що демонструє існування взаємозв 'язку двох явищ або процесів. Сила взаємозв 'язку виражається як коефіцієнт кореляції. Його значення коливається в межах інтервалу [-1; + 1]. Негативний показник говорить про наявність зворотного зв 'язку, позитивний - про прямий. Якщо коефіцієнт приймає значення, рівне 0, то взаємозв 'язку немає. Чим ближче значення до 1 - тим сильніше зв 'язок між параметрами, чим ближче до 0 - тим слабкіше.

Методи

Кореляційні параметричні методи можуть оцінити тісноту взаємозв 'язку. Їх використовують на базі оцінки розподілу для вивчення параметрів, що підпорядковуються закону нормального розподілу.

Параметри рівняння лінійної регресії необхідні для ідентифікації вигляду залежності, функції регресійного рівняння та оцінювання показників обраної формули взаємозв 'язку. У якості методу ідентифікації зв 'язку використовується поле кореляції. Для цього всі існуючі дані необхідно зобразити графічно. У прямокутній двовимірній системі координат необхідно нанести всі відомі дані. Так утворюється поле кореляції. Значення описуючого фактора позначаються вздовж осі абсцис, в той час як значення залежного - вздовж осі ординат. Якщо між параметрами є функціональна залежність, вони вибудовуються у формі лінії.

У разі якщо коефіцієнт кореляції таких даних буде менше 30%, можна говорити про практично повну відсутність зв 'язку. Якщо він знаходиться між 30% і 70%, то це говорить про наявність зв 'язків середньої тісноти. 100% показник - свідоцтво функціонального зв 'язку.

Нелінійне рівняння регресії так само, як і лінійне, необхідно доповнювати індексом кореляції (R).

Кореляція для численної регресії

Коефіцієнт детермінації є показником квадрата множинної кореляції. Він говорить про тісноту взаємозв 'язку представленого комплексу показників з досліджуваною ознакою. Він також може говорити про характер впливу параметрів на результат. Рівняння множині регресії оцінюють за допомогою цього показника.

Для того щоб обчислити показник множинної кореляції, необхідно розрахувати його індекс.

Метод найменших квадратів

Даний метод є способом оцінювання факторів регресії. Його суть полягає в мінімізуванні суми відхилень у квадраті, отриманих внаслідок залежності фактора від функції.

Парне лінійне рівняння регресії можна оцінити за допомогою такого методу. Цей тип рівнянь використовується в разі виявлення між показниками парної лінійної залежності.

Параметри рівнянь

Кожен параметр лінійної регресії несе певний сенс. Парне лінійне рівняння регресії містить два параметри: з і т. Параметр т демонструє середню зміну кінцевого показника функції у, за умови зменшення (збільшення) змінної х на одну умовну одиницю. Якщо змінна х - нульова, то функція дорівнює параметру с. Якщо ж змінна х не нульова, то фактор з не несе в собі економічний сенс. Єдиний вплив на функцію робить знак перед фактором с. Якщо там мінус, то можна сказати про уповільнену зміну результату порівняно з фактором. Якщо там плюс, то це свідчить про прискорену зміну результату.

Кожен параметр, що змінює рівняння регресії, можна виразити через рівняння. Наприклад, фактор з має вигляд з = y - тх.

Згруповані дані

Бувають такі умови завдання, в яких вся інформація групується за ознакою x, але при цьому для певної групи зазначаються відповідні середні значення залежного показника. У такому випадку середні значення характеризують, яким чином змінюється показник, залежний від х. Таким чином, згрупована інформація допомагає знайти рівняння регресії. Її використовують як аналіз взаємозв 'язків. Однак у такого методу є свої недоліки. На жаль, середні показники досить часто піддаються зовнішнім коливанням. Дані коливання не є відображенням закономірності взаємозв 'язку, вони всього лише маскують її "шум". Середні показники демонструють закономірності взаємозв 'язку набагато гірше, ніж рівняння лінійної регресії. Однак їх можна застосовувати як базу для пошуку рівняння. Перемножуючи чисельність окремої сукупності на відповідну середню можна отримати суму у межах групи. Далі необхідно підбити всі отримані суми і знайти кінцевий показник у. Трохи складніше проводити розрахунки з показником суми ху. У тому випадку якщо інтервали малі, можна умовно взяти показник х для всіх одиниць (в межах групи) однаковим. Слід перемножити його з сумою у, щоб дізнатися суму творів x на у. Далі всі суми підбиваються разом і виходить загальна сума ху.

Множинне парне рівняння регресії: оцінка важливості зв 'язку

Як було розглянуто раніше, численні регресії мають функцію виду у = f (x1, x2,..., xm) + E. Найчастіше таке рівняння використовують для вирішення проблеми попиту і пропозиції на товар, процентного доходу за викупленими акціями, вивчення причин і виду функції витрат виробництва. Її також активно застосовують у найрізноманітніших макроекономічних дослідженнях і розрахунках, а ось на рівні мікроекономіки таке рівняння застосовують трохи рідше.

Основним завданням множинної регресії є побудова моделі даних, що містять величезну кількість інформації, для того щоб надалі визначити, який вплив має кожен з факторів окремо і в їх загальній сукупності на показник, який необхідно змоделювати, і його коефіцієнти. Рівняння регресії може приймати найрізноманітніші значення. При цьому для оцінки взаємозв 'язку зазвичай використовується два типи функцій: лінійна і нелінійна.

Лінійна функція зображується у формі такого взаємозв 'язку: = а0 + а1х1 + а2х2, +... + amxm. При цьому а2, am, вважаються коефіцієнтами "чистої" регресії. Вони необхідні для характеристики середньої зміни параметра у зі зміною (зменшенням або збільшенням) кожного відповідного параметра х на одну одиницю, з умовою стабільного значення інших показників.

Нелінійні рівняння мають, наприклад, вид ступеневої функції y = ax1b1 x2b2... xmbm. В даному випадку показники b1, b2..... bm - називаються коефіцієнтами еластичності, вони демонструють, яким чином зміниться результат (на скільки%) при збільшенні (зменшенні) відповідного показника х на 1% і при стабільному показнику інших факторів.

Які фактори необхідно враховувати при побудові множинної регресії

Для того щоб правильно побудувати множинну регресію, необхідно з 'ясувати, на які саме фактори слід звернути особливу увагу.

Необхідно мати певне розуміння природи взаємозв 'язків між економічними факторами і модельованим. Фактори, які необхідно буде включати, зобов 'язані відповідати наступним ознакам:

  • Повинні бути підвладні кількісному виміру. Для того щоб використовувати фактор, що описує якість предмета, в будь-якому випадку слід надати йому кількісну форму.
  • Не повинна бути присутня інтеркореляція факторів, або функціональний взаємозв 'язок. Такі дії найчастіше призводять до незворотних наслідків - система звичайних рівнянь стає не обумовленою, а це тягне за собою її ненадійність і нечіткість оцінок.
  • У разі існування величезного показника кореляції не існує способу для з 'ясування ізольованого впливу факторів на остаточний результат показника, отже, коефіцієнти стають неінтерпретованими.

Методи побудови

Існує величезна кількість методів і способів, що пояснюють, яким чином можна вибрати фактори для рівняння. Однак всі ці методи будуються на відборі коефіцієнтів за допомогою показника кореляції. Серед них виділяють:

  • Спосіб виключення.
  • Спосіб включення.
  • Покроковий аналіз регресії.

Перший метод передбачає відсів всіх коефіцієнтів із сукупного набору. Другий метод включає введення безлічі додаткових факторів. Ну а третій - відсів факторів, які були раніше застосовані для рівняння. Кожен з цих методів має право на існування. У них є свої плюси і мінуси, але вони все по-своєму можуть вирішити питання відсіву непотрібних показників. Як правило, результати, отримані кожним окремим методом, досить близькі.

Методи багатовимірного аналізу

Такі способи визначення факторів базуються на розгляді окремих поєднань взаємопов 'язаних ознак. Вони включають в себе дискримінантний аналіз, розпізнання вигляду, спосіб головних компонент і аналіз кластерів. Крім того, існує також факторний аналіз, однак він з 'явився внаслідок розвитку способу компонент. Всі вони застосовуються в певних обставинах, за наявності певних умов і факторів.