Анализ регрессии в изучении экономических проблем — страница 3

  • Просмотров 5441
  • Скачиваний 42
  • Размер файла 174
    Кб

Регрессионный анализ используется для прогноза, анализа временных рядов, тестирования гипотез и выявления скрытых взаимосвязей в данных. Цели регрессионного анализа: 1 Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными) 2 Предсказание значения зависимой переменной с помощью независимой. 3 Определение вклада отдельных независимых переменных в

вариацию зависимой. Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа. РАЗДЕЛ 2. Множественная линейная регрессия 2.1 Определение параметров уравнения регрессии На любой экономический показатель практически всегда оказывает влияние не один, а несколько факторов. Например, спрос на некоторое благо определяется не

только ценой данного блага, но и ценами на замещающие и дополняющие блага, доходом потребителей и многими другими факторами. В этом случае вместо парной регрессии M(Y|x) = f(x) рассматривается множественная регрессия М(Y|x1, x2, …, xm) = f(x1, x2, …, xm). (2.1) Задача оценки статистической взаимосвязи переменных Y и X1, X2, ..., Xm формулируется аналогично случаю парной регрессии. Уравнение множественной регрессии может быть представлено в виде Y = f(β, X) +

ε, (2.2) где X = (X1, X2, ..., Xm) − вектор независимых (объясняющих) переменных; β − вектор параметров (подлежащих определению); ε − случайная ошибка (отклонение); Y – зависимая (объясняемая) переменная. Предполагается, что для данной генеральной совокупности именно функция f связывает исследуемую переменную Y с вектором независимых переменных X. Рассмотрим самую употребляемую и наиболее простую из моделей множественной регрессии –

модель множественной линейной регрессии. Теоретическое линейное уравнение регрессии имеет вид: Y = β0 + β1X1 + β2X2 + ... + βmXm + ε (2.3) или для индивидуальных наблюдений i, i = 1, 2, …, n: yi = β0 + β1xi1 + β2xi2 + ... + βmxim + εi. (2.4) Здесь β = (β0, β1, ..., βm) – вектор размерности (m + 1) неизвестных параметров. βj, j = 1, 2, …, m, называется j-м теоретическим коэффициентом регрессии (частичным коэффициентом регрессии). Он характеризует чувствительность величины Y к

изменению Xj. Другими словами, он отражает влияние на условное математическое ожидание М(Y|x1, x2, …, xm) зависимой переменной Y объясняющей переменной Хj при условии, что все другие объясняющие переменные модели остаются постоянными. β0 – свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны нулю. После выбора линейной функции в качестве модели зависимости необходимо оценить параметры регрессии.