Лекция № 3
DESCRIPTION
Лекция № 3. м ножественная регрессия и корреляция. Уравнение множественной регрессии. Основная цель множественной регрессии - PowerPoint PPT PresentationTRANSCRIPT
![Page 1: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/1.jpg)
Лекция № 3
множественная регрессия и корреляция.
![Page 2: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/2.jpg)
• Уравнение множественной регрессии
pp xbxbxbay ...2211
![Page 3: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/3.jpg)
Основная цель множественной регрессии
– построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.
![Page 4: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/4.jpg)
например• Современная потребительская функция
чаще всего рассматривается как модель вида
• С – потребление;• у – доход;• P – цена,• M – наличные деньги;• Z – ликвидные активы;
( , , , ) ,С f y P M Z
![Page 5: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/5.jpg)
Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели.
![Page 6: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/6.jpg)
Условия включения факторов при построении множественной регрессии.
• 1. факторы должны быть количественно измеримы.
![Page 7: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/7.jpg)
• 2. Факторы не должны быть интеркоррелированы.
![Page 8: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/8.jpg)
• Если между факторами существует высокая корреляция, то параметры уравнения регрессии оказываются неинтерпретируемыми.
![Page 9: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/9.jpg)
• Пусть в уравнении
2211 хbхbay
.021 xxr
![Page 10: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/10.jpg)
Если же
то , нельзя интерпретировать как показатели раздельного влияния и на у .
121 xxr
2b1b
1x 2x
![Page 11: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/11.jpg)
Пример.
• Рассмотрим регрессию себестоимости: единицы продукции (руб.,у) от заработной платы работника (руб., ) и производительности его труда (единиц в час, ):
• = 0,95
zxy 10522600
x
z
xzr
![Page 12: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/12.jpg)
Отбор факторов при построении
множественной регрессии.
![Page 13: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/13.jpg)
• 2 этапа отбора факторов:
– факторы подбираются исходя из сущности проблемы;– на основе корреляционной матрицы производится
исключение части факторов• 1) проверка парной корреляции, • 2) оценка мультиколлинеарности факторов:
– Проверка гипотезы H0: Det R=1
![Page 14: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/14.jpg)
Пути преодоления сильной межфакторной корреляции
• Исключение одного или нескольких факторов• Преобразование факторов для уменьшения
корреляции между ними– Переход к первым разностям– Переход к линейным комбинациям (метод главных
компонент)
• Переход к совмещенным уравнениям регрессии
• Переход к уравнениям приведенной формы
![Page 15: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/15.jpg)
• Предпочтение отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточной тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.
![Page 16: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/16.jpg)
• Пусть, например, при изучении зависимости матрица парных коэффициентов корреляции оказалась следующей:
![Page 17: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/17.jpg)
y
x
zv
y x z v
1
0,8 1
0,7
0,8
1
0,6
0,5
0,2
1
![Page 18: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/18.jpg)
пример
1
0,3 1
0,7
0,75
1
0,6
0,5
0,8
1
y
x
zv
y x z v
![Page 19: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/19.jpg)
• Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
![Page 20: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/20.jpg)
• Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции была бы единичной матрицей т.е.
,1
100
010
001
333231
232221
131211
xxxxxx
xxxxxx
xxxxxx
rrr
rrr
rrr
RDet
![Page 21: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/21.jpg)
• Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции равны единице, то определитель такой матрицы равен нулю:
.0
111
111
111
RDet
![Page 22: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/22.jpg)
• Таким образом,
• чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.
![Page 23: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/23.jpg)
• Через коэффициенты множественной детерминации можно найти переменные, ответственные за мультиколлинеарность факторов.
![Page 24: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/24.jpg)
• Сравнивая между собой коэффициенты множественной детерминации факторов
• оставляем в уравнении факторы с
минимальной величиной коэффициента множественной детерминации.
;; 2...312
2...3,21 pxxxxpxxxx
RR
![Page 25: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/25.jpg)
• При дополнительном включении в регрессию р+1 фактора коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться;
и 221 pp RR .22
1 pp SS
![Page 26: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/26.jpg)
• Пусть для регрессии, включающих пять факторов, коэффициент детерминации составил 0,857
включение шестого фактора дало коэффициент детерминации
0,855,
вряд ли целесообразно дополнительно включать в модель этот фактор.
![Page 27: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/27.jpg)
Оценка параметров уравнения множественной регрессии
• Метод: – а) метод наименьших квадратов (МНК) – б) метод наименьших квадратов (МНК) для
стандартизованного уравнения
![Page 28: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/28.jpg)
• В линейной множественной регрессии
параметры при переменной x называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизменном значении других факторов, закрепленном на среднем уровне.
ppx xbxbxbay
...2211
![Page 29: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/29.jpg)
• уравнение регрессии в стандартизованном виде:
pxpxxy tbttt 2211
![Page 30: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/30.jpg)
Где -стандартизованные переменные
Свойства:
-стандартизованные коэффициенты регрессии.
i
;1xy tt
pxxy tyt ,,,1
,i
i
x
iix
xxt
y
y
yyt
,0ixy tt
![Page 31: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/31.jpg)
• Стандартизованные коэффициенты регрессии показывают, на сколько % изменится в среднем результат, если соответствующий фактор xi изменится на 1 % при неизменном среднем уровне других факторов.
![Page 32: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/32.jpg)
• Стандартизованные коэффициенты регрессии i сравнимы между собой.
• Связь между «чистыми» и
«стандартизованными» коэффициентами регрессии
ix
yiib
![Page 33: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/33.jpg)
• Пример. Пусть функция издержек производства y(тыс. руб.) характеризуется уравнением вида
• x1 - основные производственные фонды(тыс.руб.)
• х2 - численность занятых в производстве(чел.)
21 1,12,1200 xxy
![Page 34: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/34.jpg)
• уравнение регрессии в стандартизованном виде выглядит так
• Вывод:
.8,05,021 xxy ttt
![Page 35: Лекция № 3](https://reader035.vdocuments.mx/reader035/viewer/2022062723/56813ebb550346895da92170/html5/thumbnails/35.jpg)
• Достоинство стандартизованных коэффициентов регрессии:
использовать при отсеве факторов – из модели исключаются факторы с наименьшим значением j