Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
11-30.docx
Скачиваний:
2
Добавлен:
22.08.2019
Размер:
37.21 Кб
Скачать

11.Дія причинно-наслідкового механізму в економіці. Ек. процеси перебувають у постійному русі і пов’язані один з одним. Для того щоб відкрити сутність ек. явища, пояснити закономірність його розвитку необхідно дослідити існуючі взаємозв’язки між величинами які це явище визначають. Під причинно-наслідковим зв’язком розуміють таке поєднання явищ та процесів дійсності, коли зміна одного з них є наслідком інших. Особливості п-н зв’язку: зміна умов призводить до зміни причини, а отже до зміни наслідку; причина завжди передує наслідку; причина за даних умов при повторенні породжує такі самі наслідки; розкриття причинно-наслідкових зв’язків можливо лише при існуванні декількох реалізацій дії причинно-наслідково механізму; умови та причини багатьох соц.-ек. явищ є відносно стійкими, тому ніколи не буває точного повторення. Більшість ек процесів являють собою результат багатьох одночасно і в сукупності діючих причин, серед яких виділяють головні і другорядні. Головні причини призводять до даного наслідку, другорядні ускладнюють дію головних. В економіці причинній дії і її наслідку властива певна випадковість , що призводить до того що кожен ек процес при повторенні його причинного комплексу реалізується з відхиленнями від закону, який лежить в його основі. Крім випадковості, іншими незмінними складовими будб-якого ек явища є збурення або перешкоди, які змінюють дію головних причин та призводять до непередбачуваності наслідку.

12.Основні числові характеристики випадкових величин. Характеристики, що виражають в стислій формі найістотніші особливості закону розподілу випадкової величини, називаються числовими характеристиками випадкової величини. Це: математичне сподівання(є дійсним середнім значенням випадкової величини і визначається з врахуванням різних ймовірностей її окремих значень), дисперсія(характеризує розсіювання значень випадкової величини відносно її центра розподілу, D(X)=M(X-M(X))2), мода (випадкової величини Xназивається найімовірнісне значення випадкової величини), медіана ((Me) випадкової величини – таке значення випадкової величини, відносно якого рівноймовірно одержання більшого або меншого значення випадкової величини,), коефіцієнт асиметрії (характеризує асиметрію графіка функції розподілу), коефіцієнт ексцесу (характеризує гостровершинність кривої розподілу), коефіцієнт варіації (показує, наскільки велике розсіювання порівняно із середнім значенням випадкової величини)

13 в яких кожному значенні однієї змінної відповідає єдине значення іншої. В більшості випадків між соц.-ек показниками функціональної залежності не існує. Стохастична – залежність коли одній змінній х відповідає певний розподіл змінної у. у такому випадку точно описати залежність між х і у неможливо. Знаючи значення величини х величину у можна передбачити лише з певною ймовірністю, або в певному інтервалі. Кореляційна – залежність однієї змінної та умовами математичного сподівання іншої. За кореляційної залежності між змінними немає повної відповідальності, вплив певних факторів проявляється всередньому.

14.Тіснота зв’язку. Методи виявлення та оцінки. Ек величини взаємопов’язані між собою. Знаючи значення одних можна визначити значення інших величин. в економетриці взаємозв’язки між економічними показниками оцінюють шляхом вивичення зв’язків між відповідними випадковими величинами, тобто як реалізуються однієї випадкової величини впливає на ймовірність реалізації іншої випадкової величини. У поняття "тіснота зв'язку" (щільність) вкладається оцінка впливу незалежної змінної на залежну змінну. Для опису сили взаємозв’язку між двома випадковими величинами впливає на ймовірність реалізації іншої випадкової величини використовують коваріацію та кореляцію. Cov(x,y) = 1/n * sum(x-xcep)(y – ycep): rxy=cov(x,y)/skv(x)*skv(y). Якщо cov(x,y)>0, то зв’язок прямий, а якщо cov(x,y)<0 то зв’язок обернений. Основними недоліками коверіації є: залежність від розмірності досліджуваних величин; неможливість точної оцінки. Тому на практиці більш поширеним є коефіцієнт кореляції – безрозмірна відносна оцінка взаємозв’язку що дорівнює відношенню коваріації двох випадкових величин до добутку їх середніх квадратичних відхилень.

16.Властивості коефіцієнта кореляції. rxх=1; rxу= rух; |rxy |<=1; якщо |rxy |=1то між х і у існує функціональний зв’язок.; якщо х і у незалежні то rxу=0.

14.Поняття кореляційного аналізу. Основні показники та їх характеристики. Методи математичної статистики що дають можливість виявити та оцінити силу взаємозв’язку між двома величинами назв кореляційним аналізом. З його допомогою вимірюють ступінь взаємозв’язку між 2ма і більше величинами; здійснюють відбір факторів що найбільше впливають на залежну змінну; встановлюють раніше невідомі причинні зв’язки.

17.Доведення того, що коефіцієнт кореляції приймає значення в межах від -1 до1.

18.Статистична значущість коефіцієнта кореляції. Оцінка сили зв’язку за допомогою коефіцієнта кореляції здійснюється на основі обмеженої і-ції, тому виникає питання наскільки надійним є висновок про наявність зв’язку в усій генеральній сукупності на основі аналізу вибіркових даних. Для цього здійснюють оцінку статистичної значущості коеф кореляції. , де - об’єм вибірки. Тоді порівнюють з кр. Якщо кр, то коефіцієнт кореляції вважається статистично значущим (надійним).

19.Поняття регресійного аналізу. Етапи проведення регресійного аналізу.Методи математичної статистики що вивчають кількісний вплив факторних величин на результуючу досліджують форму та вид залежності між ними назв регресійним аналізом. Якщо неможна точно описати вплив незалежної змінної на залежну то визначають як величина впливає на у всередньому: М(У(х))=f(х). така залежність назв ф-цією регресії. Якщо описується залежність між одним х і одним у то маємо парну регресію, якщо між декількома факторами і однією результуючою величиною то це множинна регресія. Основні етапи регресійного аналізу: 1.вибір форми залежності між х і у. 2. визначення ф-ції регресії. 3. Визначення невідомих параметрів ф-ції регресії. 4.оцінка якості р-ння регресії. 5.оцінка невідомих значень результуючої змінної. Ціль регресійного аналізу полягає у визначенні ф-ції регресії яка математично описує односторонню залежність середнього значення змінної у від однієї або декількох змінних х.

20.Емпірична та теоретична лінії регресії. Графічне зображення ф-ції регресії назв лінією регресії. Лінія регресії є важливою характеристикою кореляційного зв’язку. Емпірична лінія регресії представлена груповими середніми результативної ознаки , кожна з яких належить до відповідного інтервалу значень групувального фактора хjТеоретична лінія регресії описується певною функцією  яку називають рівнянням регресії, а Y — теоретичним рівнем результативної ознаки. На відміну від емпіричної, теоретична лінія регресії неперервна.

21.Регресія вибіркова та узагальнена.

Узагальнена багатофакторна лінійна регресійна модель може бути записана у вигляді:у= . де у – залежна змінна, х1 х2,…хp – незалежні змінні (фактори) а0, …ар – параметри моделі, які потрібно оцінити, e - не спостережувана випадкова величина.

Узагальнена регресійна модель – це модель, яка дійсна для всієї генеральної сукупності. Невідомі параметри узагальненої моделі є константами, а випадкова величина – не спостережувана, і можна лише зробити припущення відповідно до закону її розподілу. На відміну від узагальненої регресійної моделі, вибіркова модель будується для певної вибірки; невідомі параметри вибіркової моделі є випадковими величинами, математичне сподівання яких дорівнює параметрам узагальненої моделі.Відповідна вибіркова лінійна багатофакторна модель має вигляд:у= .де ŷ – залежна змінна, х1…хр – незалежні змінні, b0, b1bр  оцінки невідомих параметрів узагальненої моделі, е – випадкова величина (помилка).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]