Анализ рентабельности с помощью программы Олимп

В зависимости от конкретных задач, решаемых в экономике, каждый из методов факторного анализа, в том числе метод главных компонент, имеют

Анализ рентабельности с помощью программы Олимп

Информация

Математика и статистика

Другие материалы по предмету

Математика и статистика

Сдать работу со 100% гаранией
етодом. Однако, есть другой подход, приводящий к компонентному анализу, но не являющийся статистическим. Этот подход связан с получением наилучшей проекции точек наблюдения в пространстве меньшей размерности. В статистическом подходе задача будет заключаться в выделении линейных комбинаций случайных величин, имеющих максимально возможную дисперсию. Он опирается на ковариационную и корреляционную матрицу этих величин. У этих двух разных подходов есть общий аспект: использование матрицы вторых моментов как исходной для начала анализа.

Методы факторного анализа позволяют решать следующие четыре задачи.

Первая заключается в «сжатии» информации до обозримых размеров, т.е. извлечения из исходной информации наиболее существенной части за счет перехода от системы исходных переменных к системе обобщенных факторов. При этом выявляются неявные, непосредственно не измененные, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.

Вторая сводится к описанию исследуемого явления значительно меньшим числом m обобщенных факторов (главных компонент) по сравнению с числом исходных признаков. Обобщенные факторы это новые единицы измерения свойств явления, непосредственно измеряемых признаков.

Третья связана с выявлением взаимосвязи наблюдаемых признаков с вновь полученными обобщенными факторами.

Четвертая заключается в построении уравнения регрессии на главных компонентах с целью прогнозирования изучаемого явления.

Компонентный анализ может быть также использован при классификации наблюдений (объектов). В экономических исследованиях стремление полнее изучить исследуемое явление приводит к включению в модуль все большего числа исходных переменных, которые зачастую отражают одни и те же свойства объема наблюдения. Это приводит к высокой корреляции между переменными, т.е. к явлению мультиколлинеарности. При этом классические методы регрессионного анализа оказываются малоэффективными. Преимущество уравнения регрессии на главные компоненты в том, что последние не коррелированны между собой.

Главные компоненты являются характеристическими векторами ковариационной матрицы.

Множество главных компонент представляет собой удобную систему координат, а их вклад в общую дисперсию характеризует статистические свойства главных компонент. Из общего числа главных компонент для исследования, как правило, оставляют наиболее весомых, т.е. вносящих максимальный вклад в объясняемую часть общей дисперсии.

Таким образом, несмотря на то, что в методе главных компонент надо для точного воспроизведения корреляции и дисперсии между переменными найти все компоненты, большая доля дисперсии объясняется небольшим числом главных компонент. Кроме того, можно по признакам описать факторы, а по факторам (главным компонентам) описать признаки.

Интерпретация результатов исследования

 

Для исследования использовались следующие данные:

Исходные данные для анализа

NY2X4X5X6X7X8X91

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

3013.26

10.16

13.72

12.85

10.63

9.12

25.83

23.38

14.68

10.05

13.99

9.68

10.03

9.13

5.37

9.86

12.62

5.02

21.18

25.17

19.1

21.0

6.57

14.19

15.81

5.23

7.99

17.5

17.16

14.540.23

0.24

0.19

0.17

0.23

0.43

0.31

0.26

0.49

0.36

0.37

0.43

0.35

0.38

0.42

0.30

0.32

0.25

0.31

0.26

0.37

0.29

0.34

0.23

0.17

0.29

0.41

0.41

0.22

0.290.78

0.75

0.68

0.70

0.62

0.76

0.73

0.71

0.69

0.73

0.68

0.74

0.66

0.72

0.68

0.77

0.78

0.78

0.81

0.79

0.77

0.78

0.72

0.79

0.77

0.80

0.71

0.79

0.76

0.780.40

0.26

0.40

0.50

0.40

0.19

0.25

0.44

0.17

0.39

0.33

0.25

0.32

0.02

0.06

0.15

0.08

0.20

0.20

0.30

0.24

0.10

0.11

0.47

0.53

0.34

0.20

0.24

0.54

0.401.37

1.49

1.44

1.42

1.35

1.39

1.16

1.27

1.16

1.25

1.13

1.10

1.15

1.23

1.39

1.38

1.35

1.42

1.37

1.41

1.35

1.48

1.24

1.40

1.45

1.40

1.28

1.33

1.22

1.281.23

1.04

1.80

0.43

0.88

0.57

1.72

1.70

0.84

0.60

0.82

0.84

0.67

1.04

0.66

0.86

0.79

0.34

1.60

1.46

1.27

1.58

0.68

0.86

1.98

0.33

0.45

0.74

1.03

0.990.23

0.39

0.43

0.18

0.15

0.34

0.38

0.09

0.14

0.21

0.42

0.05

0.29

0.48

0.41

0.62

0.56

1.76

1.31

0.45

0.50

0.77

1.20

0.21

0.25

0.15

0.66

0.74

0.32

0.89Далее был проведен на исходные данные корреляционный анализ. Были получены следующие результаты.

Матрица

 

┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐

│ N │ 1 │ 2 │ 3 │ 4 │ 5 │ 6 │ 7 │

│ x4 │ 1.00 │ -0.14 │ -0.65 │ -0.54 │ -0.38 │ 0.01 │ -0.21 │

│ x5 │ -0.14 │ 1.00 │ -0.05 │ 0.39 │ 0.13 │ 0.35 │ 0.24 │

│ x6 │ -0.65 │ -0.05 │ 1.00 │ 0.06 │ 0.20 │ -0.43 │ 0.24 │

│ x7 │ -0.54 │ 0.39 │ 0.06 │ 1.00 │ 0.15 │ 0.20 │ -0.02 │

│ x8 │ -0.38 │ 0.13 │ 0.20 │ 0.15 │ 1.00 │ -0.09 │ 0.76 │

│ x9 │ 0.01 │ 0.35 │ -0.43 │ 0.20 │ -0.09 │ 1.00 │ -0.09 │

│ y2 │ -0.21 │ 0.24 │ 0.24 │ -0.02 │ 0.76 │ -0.09 │ 1.00 │

└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘

t-значения

┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐

│ N │ 1 │ 2 │ 3 │ 4 │ 5 │ 6 │ 7 │

├─────┼───────┼───────┼───────┼───────┼───────┼───────┼───────┤

│ x4 │ 1.00 │ 0.75 │ 4.51 │ 3.42 │ 2.18 │ 0.05 │ 1.14 │

│ x5 │ 0.75 │ 1.00 │ 0.25 │ 2.25 │ 0.68 │ 2.00 │ 1.32 │

│ x6 │ 4.51 │ 0.25 │ 1.00 │ 0.29 │ 1.09 │ 2.49 │ 1.30 │

│ x7 │ 3.42 │ 2.25 │ 0.29 │ 1.00 │ 0.82 │ 1.06 │ 0.13 │

│ x8 │ 2.18 │ 0.68 │ 1.09 │ 0.82 │ 1.00 │ 0.46 │ 6.12 │

│ x9 │ 0.05 │ 2.00 │ 2.49 │ 1.06 │ 0.46 │ 1.00 │ 0.48 │

│ y2 │ 1.14 │ 1.32 │ 1.30 │ 0.13 │ 6.12 │ 0.48 │ 1.00 │

└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘

 

 

Кpитические значения t-pаспpеделения пpи 28 степенях свободы

веpоятность t-значение

0.950 1.706

0.990 2.470

0.999 3.404

 

 

Доверительные интервалы

 

┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐

│ N │ 1 │ 2 │ 3 │ 4 │ 5 │ 6 │ 7 │

├─────┼───────┼───────┼───────┼───────┼───────┼───────┼───────┤

│ x4 │ 0.00 │ 0.17 │ -0.43 │ -0.28 │ -0.08 │ 0.32 │ 0.10 │

│ x4 │ 0.00 │ -0.43 │ -0.80 │ -0.73 │ -0.62 │ -0.30 │ -0.49 │

│ x5 │ 0.17 │ 0.00 │ 0.26 │ 0.62 │ 0.42 │ 0.60 │ 0.51 │

│ x5 │ -0.43 │ 0.00 │ -0.35 │ 0.10 │ -0.19 │ 0.05 │ -0.07 │

│ x6 │ -0.43 │ 0.26 │ 0.00 │ 0.36 │ 0.48 │ -0.14 │ 0.51 │

│ x6 │ -0.80 │ -0.35 │ 0.00 │ -0.26 │ -0.11 │ -0.65 │ -0.07 │

│ x7 │ -0.28 │ 0.62 │ 0.36 │ 0.00 │ 0.44 │ 0.48 │ 0.28 │

│ x7 │ -0.73 │ 0.10 │ -0.26 │ 0.00 │ -0.16 │ -0.12 │ -0.33 │

│ x8 │ -0.08 │ 0.42 │ 0.48 │ 0.44 │ 0.00 │ 0.23 │ 0.86 │

│ x8 │ -0.62 │ -0.19 │ -0.11 │ -0.16 │ 0.00 │ -0.38 │ 0.59 │

│ x9 │ 0.32 │ 0.60 │ -0.14 │ 0.48 │ 0.23 │ 0.00 │ 0.22 │

│ x9 │ -0.30 │ 0.05 │ -0.65 │ -0.12 │ -0.38 │ 0.00 │ -0.39 │

│ y2 │ 0.10 │ 0.51 │ 0.51 │ 0.28 │ 0.86 │ 0.22 │ 0.00 │

│ y2 │ -0.49 │ -0.07 │ -0.07 │ -0.33 │ 0.59 │ -0.39 │ 0.00 │

└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘

 

 

прогноз по регрессии НЕТ

 

┌1────┬──────────────────────────────────────────────────┬────────┐

│ N │ kkkkkkkkkk╞k°кdYь │ .Ў5 │

├─────┼──────────────────────────────────────────────────┼────────┤

│ x4 │ 0.87 │ 10.12 │

│ x5 │ 0.60 │ 1.74 │

│ x6 │ 0.84 │ 7.37 │

│ x7 │ 0.74 │ 3.83 │

│ x8 │

Похожие работы

< 1 2 3 4 5 > >>