скачать рефераты
  RSS    

Меню

Быстрый поиск

скачать рефераты

скачать рефератыДипломная работа: Підвищення ефективності роботи підприємства на основі застосування економіко-математичних методів (на прикладі ВАТ "Дніпрополімермаш")

Множинна (багатофакторна регресія) являє собою вивчення зв'язку між трьома, і більш зв'язаними ознаками й описується функцією виду [19]:

, (2.1.4)

Вибір типу рівняння ускладнюється тим, що для будь-якої форми залежності можна вибрати цілий ряд рівнянь, що деякою мірою будуть описувати ці зв'язки. Оскільки рівняння регресії будується головним чином для пояснення і кількісного виразу залежностей, воно повинно відображати сформовані між досліджуваними факторами фактичні зв'язки.

Практика побудови багатофакторних моделей показує, що всі реально існуючі залежності між соціально-економічними явищами можна описати, використовуючи п'ять типів моделей:

1.   Лінійна ;

2.   Степенева ;

3.   Показова ;

4.   Параболічна ;

5.   Гіперболічна .

Основне значення мають лінійні моделі в силу простоти і логічності їхньої економічно нтерпретації. Нелінійні форми залежності приводяться до лінійних шляхом лінеаризації.

Узагальнена багатофакторна лінійна регресійна модель може бути записана у такому вигляді:

, (2.1.5)

де y залежна змінна;

 - незалежн змінні (фактори);

 - параметри моделі (константи), які потрібно оцінити;

 - не спостережувана випадкова величина.

Відомо, що узагальнена модель регресії – це модель, яка дійсна для всієї генерально сукупності. Невідомі параметри узагальненої моделі є константами, а випадкова величина – неспостережувана, і можна зробити лише припущення відповідно закону розподілу. На відміну від узагальненої регресійної моделі, вибіркова модель будується для певної вибірки, невідомі параметри вибіркової моделі є випадковими величинами, математичне сподівання яких дорівнює параметрам узагальнено моделі. Випадкові величини можна оцінити, виходячи з вибіркових даних.

Тому вибіркова регресійна лінійна багатофакторна модель має вигляд:

, (2.1.6)

де y залежна змінна;

 - незалежн змінні (фактори);

 - оцінки невідомих параметрів узагальненої моделі;

 - випадкова величина.

Система нормальних рівнянь для лінійної багатофакторної моделі має такий вигляд:

 (2.1.7)

Лінійною регресійною моделлю називають модель, що лінійна за своїми параметрами. За введеними позначеннями, багатофакторна лінійна регресійна модель має p незалежних змінних, або факторів, які впливають на залежну змінну y, та (p+1) невідомих параметрів, які потрібно оцінити.

Важливим етапом побудови вже обраного рівняння множинної регресії являються добір наступне включення факторних ознак.

Проблема добору факторних ознак для побудови моделей взаємозв'язку може бути вирішена на основі евристичних (інтуїтивних-логічних) чи багатомірних статистичних методів аналізу.

Найбільш прийнятним способом добору факторних ознак являється крокова регресія. Сутність методу крокової регресії полягає в послідовному включенні факторів у рівняння регресії і наступній перевірці їхньої значимості. Фактори по черзі вводяться в рівняння так називаним «прямим» методом. При перевірці значимості введеного фактора обумовлюється, наскільки зменшується сума квадратів залишків збільшується величина множинного коефіцієнта кореляції (). Одночасно використовується і зворотний метод, тобто виключення факторів, що стали незначущими на основі t-критерію Стьюдента.

Розглянемо основні припущення у багатофакторному регресійному аналізі. Для класично багатофакторної регресивної моделі, яка є узагальненням простої лінійно регресійної моделі, всі основні класичні припущення зберігаються, але дещо модифікуються. Серед них такі:

1.   Математичне сподівання випадкової величини  дорівнює 0.

, для кожного .

2. Випадкові величини незалежні між собою.

; .

3. Модель гомоскедастична, тобто має однакову дисперсію для будь-якого спостереження.

.


4. Коваріація між випадковою величиною  та кожною незалежною змінною х дорівнює 0. Ця властивість виконується автоматично, якщо  не стохастичні та перше припущення має силу.

5. Модель повинна бути правильно специфікованою.

6. Випадкова величина  відповідає нормальному закону розподілу з нульовим математичним сподіванням і постійною дисперсією.

7. Відсутність мультиколінеарності між факторами х, тобто фактори повинні бути незалежними між собою. Не повинно бути лінійного зв’язку між двома або більше факторами.

При побудові моделей регресії можна зіткнутися з проблемою мультиколінеарності, під якою розуміється тісна залежність між факторними ознаками, включеними в модель. Мультиколінеарність істотно змінює результати дослідження.

Одним з індикаторів визначення наявності мультиколінеарності між факторними ознаками перевищення величини парного коефіцієнта кореляції 0,8 ().

Усунення мультиколінеарності може реалізовуватися через виключення з кореляційної модел одного чи декількох лінійно зв'язаних факторних ознак у нові, укрупнені фактори [8, 19].

Розглянемо проблему мультиколінеарності детальніше. Припустимо, що є лінійна залежність  та . В такому випадку неможливо точно визначити окремий вплив кожного з цих факторів на залежні змінну у. Математично відсутність колінеарності між двома факторами визначається так, що не існує таких чисел  та , які одночасно не дорівнюють 0, для яких би існувала тотожність:

, (2.1.8)


Отже приймаємо, що коли між двома змінними є лінійний зв‘язок, то йдеться не про дві, а про одну незалежну змінну, бо неможливо знайти окремий вплив кожної з цих змінних на у.

Розглянемо етапи побудови багатофакторної регресійної моделі. Процес побудови багатофакторно регресійної моделі більш складний, ніж процес побудови простої лінійно регресії та складається з багатьох етапів:

1.   Вибір та аналіз усіх можливих факторів, які впливають на процес (або показник), що вивчається;

2.   Вимір та аналіз знайдених факторів;

3.   Математико-статистичний аналіз факторів.

4.   Вибір методу побудови регресійної багатофакторної моделі;

5.   Оцінка невідомих параметрів регресійної моделі;

6.   Перевірка моделі на адекватність;

7.   Розрахунок основних характеристик та побудова інтервалів довіри;

8.   Аналіз отриманих результатів, висновки.

На першому етапі дослідник повинен глибоко зрозуміти сам економічний процес, розглянути його з мікроекономічних та макроекономічних позицій, виявити якомога більше факторів, які в конкретному випадку можуть справити суттєвий або несуттєвий вплив на його зміну.

На етапі кількісного аналізу необхідно оцінити можливість кількісного вираження відібраних факторів, провести вимірювання та зібрати статистику для кількісних факторів, підібрати або створити балову шкалу оцінок якісних даних. З подальшого розгляду вилучаються також фактори, за якими немає або недоступна статистика.

Етап математик-статистичного аналізу є найважливішим підготовчим етапом для побудови регресійної багатофакторної моделі. Це заключний етап формування необхідно нформаційної бази. При наявності у динамічних рядах недостатньої інформац саме на цьому етапі за допомогою спеціальних методів проводиться відтворення. На цьому етапі проводиться перевірка основних припущень класичного регресійного аналізу, крім того, здійснюється найважливіша процедура багатофакторного аналізу – перевірка факторів на мультиколінеарність. Для цього будується матриця коефіцієнтів парної кореляції, яка є симетричною. Потім аналізуються коефіцієнти парної кореляції між факторами. Якщо значення деяких з них близьке до 1, то це вказує на щільний зв’язок між ними, або на мультиколінеарність. Тоді один з факторів треба залишити, а інший вилучається з подальшого розгляду. Найчастіше залишають той фактор, який з економічної точки зору біль вагомий для аналізу впливу на залежну змінну. Або можна залишити фактор, що має більший коефіцієнт із залежною змінною у. Такий аналіз проводиться для кожної пари залежних між собою факторів. Результатом етапу математико-статистичного аналізу є знаходження множини основних незалежних між собою факторів, які є базою для побудови регресійної моделі.

Метод побудови регресійної багатофакторної моделі неможливо відокремити від само моделі, вони найщільнішим чином пов’язані між собою. Саме обраний метод вплива на остаточний вигляд регресійної моделі.

Дал розраховуються невідомі параметри багатофакторної регресії за методом найменших квадратів. Нехай існує ряд спостережень за залежною змінною  та за незалежними змінними, або факторами:

.

На підставі цих спостережень будується лінійна вибіркова багатофакторна модель, а саме:

, (2.1.9)


де y залежна змінна;

 - незалежн змінні (фактори);

 - невідом параметри;

 - випадкова величина.

Сутність методів найменших квадратів полягає у потребі мінімізувати суму квадратів відхилень фактичних даних від теоретичних:

, (2.1.10)

Для того, щоб знайти мінімум цього виразу, необхідно прирівняти до нуля частков похідні функції F за аргументами . Отримаємо систему нормальних рівнянь.

Розглянемо властивості методу найменших квадратів:

1. Багатофакторна регресійна модель правильна для середніх точок . Тобто для моделі

 (2.1.11)

маємо: .

2. Середнє значення оцінки дорівнює середньому значенню фактичних даних, тобто . Це виходить з простого перетворення:

 (2.1.12)

,


Просумуємо обидві частини рівняння за , а також виходячи з того, що ; для , отримаємо .

Для спрощення пояснення наступних властивостей введемо умовні позначення. Позначимо , тод рівність (2.1.12) можна записати так:

, (2.1.13)

де.

Тому багатофакторну вибіркову модель можна записати у формі:

, (2.1.14)

3. Сума помилок дорівнює нулю. Це випливає з рівняння (2.1.14).

.

4. Помилки  некорельован з , тобто

.

5. Помилки  некорельован з , тобто


.

6. Якщо правильні припущення класичної лінійної регресійної моделі, то оцінки методу найменших квадратів є не тільки лінійними, без відхилень, а й мають найменшу дисперсію.

Корисною мірою ступеня відповідності даних, отриманих з регресійної моделі, фактичним даним є коефіцієнт множинної кореляції, який визначається як коефіцієнт кореляц між у та  і має вигляд [10, 15, 20, 21, 35]:

, (2.1.15)

Після того, як параметри знайдено за методом найменших квадратів, проводиться перевірка моделей на адекватність за допомогою F-критерію Фішера, а також перевірка значущості знайдених параметрів за t-критерієм Ст‘юдента. Якщо модель неадекватна, то необхідно повернутися до етапу побудови моделі і, можливо, від лінійної моделі перейти до нелінійної, або ввести додаткові фактори.

Якщо модель адекватна, то можна робити прогнози, вивчати вплив окремих факторів на залежний показник, будувати інтервали довіри, аналізувати та інтерпретувати отримані результати. Для того, щоб розглянути, як можна проінтерпретувати треба звернутися до загальної моделі багатофакторного регресійного аналізу та знайдемо математичне очікування обох частин. Отримаємо:

, (2.1.16)

Це рівняння дає умовне математичне сподівання у при фіксованих значеннях х. Параметри  також називають частковими коефіцієнтами регресії. Кожен з них вимірює вплив відповідної змінної за умови, що всі інші залишаються без змін, тобто константами.

Перевірка адекватності моделей, побудованих на основі рівнянь регресії, починається з перевірки значимості кожного коефіцієнта регресії. Значимість коефіцієнта регресії здійснюється за допомогою t-критерію Стьюдента:

, (2.1.17)

де  - дисперсія коефіцієнта регресії.

Параметр моделі визнається статистично значимим, якщо  , де  - рівень значимості, v = n – k 1 – число ступенів волі.

Величина  може бути визначена по виразу:

,  (2.1.18)

де - дисперсія результативної ознаки;

 k число факторних ознак у рівнянні.

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12


Новости

Быстрый поиск

Группа вКонтакте: новости

Пока нет

Новости в Twitter и Facebook

  скачать рефераты              скачать рефераты

Новости

скачать рефераты

© 2010.