Статистическое изучение связи между явлениями статистика. Статистическое изучение взаимосвязей социально-экономических явлений. Если изучается связь между двумя признаками - это парная корреляция. Если изучается связь между многими признаками - корреляция

Исследование объективно существующих связей между явлениями - важнейшая задача общей теории статистики. В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки), оказывающие существенное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения - это связь явлений и процессов, при которой изменение одного из них - причины - ведет к изменению другого - следствия.

Причина - это совокупность условий, обстоятельств, действие которых приводит к появлению следствия. Если между явлениями действительно существуют причинно-следственные отношения, то эти условия должны обязательно реализовываться вместе с действием причин. Причинные связи носят всеобщий и многообразный характер, и для обнаружения причинно-следственных связей необходимо отбирать отдельные явления и изучать их изолированно.

Особое значение при исследовании причинно-следственных связей имеет выявление временной последовательности: причина всегда должна предшествовать следствию, однако не каждое предшествующее событие следует считать причиной, а последующее - следствием.

В реальной социально-экономической действительности причину и следствие необходимо рассматривать как смежные явления, появление которых обусловлено комплексом сопутствующих более простых причин и следствий. Между сложными группами причин и следствий возможны многозначные связи, в которых за одной причиной будет следовать то одно, то другое действие или одно действие будет иметь несколько различных причин. Чтобы установить однозначную причинную связь между явлениями или предсказать возможные следствия конкретной причины, необходима полная абстракция от всех прочих явлений в исследуемой временной или пространственной среде. Теоретически такая абстракция воспроизводится. Приемы абстракции часто применяются при изучении взаимосвязей между двумя признаками (парная корреляция). Но чем сложнее изучаемые явления, тем труднее выявить причинно-следственные связи между ними. Взаимное переплетение различных внутренних и внешних факторов неизбежно приводит к некоторым ошибкам в определении причины и следствия.

Особенностью причинно-следственных связей в социально-экономических явлениях является их транзитивность, т.е. причина и следствие связаны соотношением, а не непосредственно. Однако промежуточные факторы, как правило, при анализе опускаются.

Так, например, при использовании показателей международной методологии расчетов фактором валовой прибыли считается валовое накопление основных и оборотных фондов, но при этом допускаются такие факторы, как валовой выпуск, оплата труда и т.д. Правильно вскрытые причинно-следственные связи позволяют установить силу воздействия отдельных факторов на результаты хозяйственной деятельности.

Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо, абстрагируясь от второстепенных, выявлять главные, основные причины.

На первом этапе статистического изучения связи осуществляется качественный анализ изучаемого явления методами экономической теории, социологии, конкретной экономики.

На втором этапе строится модель связи на основе методов статистики: группировок, средних величин, таблиц и т. д.

На третьем, последнем этапе интерпретируются результаты; анализ вновь связан с качественными особенностями изучаемого явления.

Статистика разработала множество методов изучения связей, выбор которых зависит от целей исследования и поставленных задач. Связи между признаками и явлениями, ввиду их большого разнообразия, классифицируются по ряду оснований. Признаки по значению для изучения взаимосвязи делятся на два класса. Признаки, обуславливающие изменения других, связанных с ними признаков, называются факторными, или просто факторами. Признаки, изменяющиеся под действием факторных признаков, являются результативными. Связи между явлениями и их признаками классифицируются по степени тесноты связи, направлению и аналитическому выражению.

В статистике различают функциональную связь и стохастическую зависимость. Функциональной называют такую связь, при которой определенному значению факторного признака соответствует одно и только одно значение результативного признака. Функциональная связь проявляется во всех случаях наблюдения и для каждой конкретной единицы исследуемой совокупности.

Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.

По степени тесноты связи различают количественные критерии оценки тесноты связи (табл. 1).

Таблица 1 Количественные критерии оценки тесноты связи

По направлению выделяют связь прямую и обратную. При прямой связи с увеличением или уменьшением значений факторного признака происходит увеличение или уменьшение значений результативного. Так, например, рост производительности труда способствует увеличению уровня рентабельности производства. В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака. Так, с увеличением уровня фондоотдачи снижается себестоимость единицы производимой продукции.

По аналитическому выражению выделяют связи прямолинейные (или просто линейные) и нелинейные. Если статистическая связь между явлениями может быть приближенно выражена уравнением прямой линии, то ее называют линейной связью; если же она выражается уравнением какой-либо кривой линии (параболы, гиперболы, степенной, показательной, экспоненциальной и т. д.), то такую связь называют нелинейной или криволинейной.

В статистике не всегда требуются количественные оценки связи, часто важно определить лишь ее направление и характер, выявить форму воздействия одних факторов на другие. Для выявления наличия связи, ее характера и направления в статистике используются методы приведения параллельных данных; аналитических группировок; графический; корреляционный, регрессионный.

Метод приведения параллельных данных основан на сопоставлении двух или нескольких рядов статистических величин. Такое сопоставление позволяет установить наличие связи и получить представление о ее характере. Сравним изменения двух величин и с увеличением величины величина также возрастает. Поэтому связь между ними прямая, и описать ее можно или уравнением прямой, или уравнением параболы второго порядка.

Взаимосвязь двух признаков изображается графически с помощью поля корреляции. В системе координат на оси абсцисс откладываются значения факторного признака, а на оси ординат - результативного. Каждое пересечение линий, проводимых через эти оси, обозначается точкой. При отсутствии тесных связей наблюдается беспорядочное расположение точек на графике. Чем сильнее связь между признаками, тем теснее будут группироваться точки вокруг определенной линии, выражающей форму связи.

Для социально-экономических явлений характерно, что наряду с существенными факторами, формирующими уровень результативного признака, на него оказывают воздействие многие другие неучтенные и случайные факторы. Это свидетельствует о том, что взаимосвязи явлений, которые изучает статистика, носят корреляционный характер и аналитически выражаются функцией вида.

Корреляционный метод имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).

Корреляция - это статистическая зависимость между случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.

В статистике различаются следующие варианты зависимостей:

  • -парная корреляция - связь между двумя признаками (результативным и факторным или двумя факторными);
  • -частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков;
  • -множественная корреляция - зависимость результативного и двух или более факторных признаков, включенных в исследование.

Теснота связи количественно выражается величиной коэффициентов корреляции. Коэффициенты корреляции, представляя количественную характеристику тесноты связи между признаками, дают возможность определить «полезность» факторных признаков при построении уравнений множественной регрессии. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

Первоначально исследования корреляции проводились в биологии, а позднее распространились и на другие области, в том числе на социально-экономическую. Одновременно с корреляцией начала использоваться и регрессия. Корреляция и регрессия тесно связаны между собой: корреляция оценивает силу (тесноту) статистической связи, регрессия исследует ее форму. Та и другая служат для установления соотношения между явлениями, для определения наличия или отсутствия связи.

Корреляционный и регрессионный анализ как общее понятие включает в себя измерение тесноты, направления связи и установление аналитического выражения (формы) связи (регрессионный анализ).

Регрессионный метод заключается в определении аналитического выражения связи, в котором изменение одной величины (называемой зависимой или результативным признаком) обусловлено влиянием одной или нескольких независимых величин (факторов), а множество всех прочих факторов, также оказывающих влияние на зависимую величину, принимается за постоянные и средние значения. Регрессия может быть однофакторной (парной) и многофакторной (множественной).

По форме зависимости различают:

Линейную регрессию, которая выражается уравнением прямой (линейной функцией) вида:

Yx = а0 + а1х;

Нелинейную регрессию, которая выражается уравнениями вида:

Yx = а0 + а1х + а2 х 2 - парабола; Yx = а0 ++ а1/х - гипербола

По направлению связи различают:

  • -прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются;
  • -обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины зависимая соответственно уменьшается или увеличивается.

Положительную и отрицательную регрессии можно легче понять, если использовать их графическое изображение.

Для простой (парной) регрессии в условиях, когда достаточно полно установлены причинно-следственные связи, приобретает практический смысл только последнее положение; при множественности причинных связей невозможно четко отграничить одни причинные явления от других.

сезонный колебание регрессия

9.1. Причинность, регрессия, корреляция

В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки), оказывающие основное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения – это связь явлений и процессов, когда изменение одного из них – причины, ведет к изменению другого – следствия.

Признаки по их значению для изучения взаимосвязи делятся на два вида: факторные и результативные.

Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.

В основе первого этапа статистического изучения связи лежит качественный анализ изучаемого явления, т.е. исследование его природы методами экономической теории, социологии, конкретной экономики. Второй этап – построение модели связи. Третий, последний этап – интерпретация результатов, вновь связан с качественными особенностями изучаемого явления.

В статистике различают функциональную связь и стохастическую. Функциональной называют такую связь, при которой определенному значению факторного признака соответствует одно и только одно значение результативного признака. Такая связь проявляется во всех случаях наблюдения и для каждой конкретной единицы исследуемой совокупности. Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.

Связи между признаками и явлениями ввиду их большого разнообразия классифицируются по ряду оснований: по степени тесноты связи, направлению и аналитическому выражению.

Степень тесноты корреляционной связи количественно может быть оценена с помощью коэффициента корреляции, величина которого определяет характер связи (табл. 1).

Таблица 1 - Количественные критерии тесноты связи

По направлению выделяют связь прямую и обратную .

При прямой связи с увеличением или уменьшением значений факторного признака происходит увеличение или уменьшение значений результативного. В случае обратной связи с увеличением значений факторного признака значения результативного убывают, и наоборот.

По аналитическому выражению выделяют связи: прямолинейные (или просто линейные) и нелинейные . Если статистическая связь между явлениями может быть приближенно выражена уравнением прямой линии, то ее называют линейной; если же она выражается уравнением какой-либо кривой линии (параболы, гиперболы, показательной, экспоненциальной и т.п.), то такую связь называют нелинейной или криволинейной.

Для выявления наличия связи, ее характера и направления в статистике используются методы: приведения параллельных данных; аналитических группировок; статистических графиков; корреляции.

Метод приведения параллельных данных основан на сопоставлении двух или нескольких рядов статистических величин. Такое сопоставление позволяет установить наличие связи и получить представление о ее характере. Например, изменение двух величин представлено следующими данными.

Графически взаимосвязь двух признаков изображается с помощью поля корреляции . В системе координат на оси абсцисс откладываются значения факторного признака, а на оси ординат – результативного. Чем сильнее связь между признаками, тем теснее будут группироваться точки вокруг определенной линии, выражающей форму связи (рис.).

При отсутствии тесных связей имеет место беспорядочное расположение точек на графике.

Для социально-экономических явлений характерно, что наряду с существенными факторами, формирующими уровень результативного признака на него оказывают влияние многие другие неучтенные и случайные факторы. Это свидетельствует о том, что взаимосвязи явлений, которые изучает статистика, носят корреляционный характер.

Корреляция – это статистическая взаимосвязь между случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания (средней величины) другой.

В статистике принято различать следующие виды зависимостей .

1. Парная корреляция – связь между двумя признаками (результативным и факторным или двумя факторными).

2. Частная корреляция – зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков.

3. Множественная корреляция – зависимость результативного и двух или более факторных признаков, включенных в исследование.

Задачей корреляционного анализа является количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаком (при многофакторной связи).

Теснота связи количественно выражается величиной коэффициентов корреляции, которые дают возможность определить «полезность» факторных признаков при построении уравнений множественной регрессии. Кроме того, величина коэффициента корреляции служит оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

9.2. Оценка тесноты связи

Теснота корреляционной связи между факторным и результативным признаками может исчисляться с помощью таких коэффициентов : эмпирический коэффициент корреляционной связи (коэффициент Фехнера); коэффициент ассоциации; коэффициент взаимной сопряженности Пирсона и Чупрова; коэффициент контингенции; ранговые коэффициенты корреляции Спирмэна и Кендэла; линейный коэффициент корреляции; корреляционное отношение и др.

Наиболее совершенно тесноту связи характеризует линейный коэффициент корреляции: , где – средняя из произведений значений признаков ху ; – средние значения признаков х и у ; - средние квадратические отклонения признаков х и у. Он используется в том случае, если связь между признаками линейная

Линейный коэффициент корреляции может быть положительным или отрицательным.

Положительная его величина свидетельствует о прямой связи, отрицательная – об обратной. Чем ближе к ±1, тем связь теснее. При функциональной связи между признаками = ±1. Близость к 0 означает, что связь между признаками слабая.

9.3. Методы регрессионного анализа

С понятием корреляции тесно связано понятие регрессии . Первая служит для оценки тесноты связи, вторая - исследует ее форму. Корреляционно-регрессионный анализ , как общее понятие, включает в себя измерение тесноты и направления связи (корреляционный анализ) и установление аналитического выражения (формы) связи (регрессионный анализ).

После того, как с помощью корреляционного анализа выявлено наличие статистических связей между переменными и оценена степень их тесноты, переходят к математическому описанию конкретного вида зависимостей с использованием регрессионного анализа. Для этого подбирают класс функций, связывающий результативный показатель у и аргументы х 1 , х 2 ,… х k , отбирают наиболее информативные аргументы, вычисляют оценки неизвестных значений параметров связи и анализируют свойства полученного уравнения.

Функция, описывающая зависимость среднего значения результативного признака у от заданных значений аргументов, называется функцией (уравнением) регрессии . Регрессия – линия, вид зависимости средней результативного признака от факторного.

Наиболее разработанной в теории статистики является методология парной корреляции, рассматривающая влияние вариации факторного признака х на результативный у

Уравнение прямолинейной корреляционной связи имеет вид: .

Параметры а 0 и а 1 называют параметрами уравнения регрессии.

Для определения параметров уравнения регрессии используется способ наименьших квадратов, который даёт систему двух нормальных уравнений:

.

Решая эту систему в общем виде, можно получить формулы для определения параметров уравнения регрессии: ,

УПРАЖНЕНИЯ

Задача 9.1. 15 заводов проранжированы в порядке возрастания рентабельности производства.

№ предприятия

Рентабельность производства, %

Выработка одного работающего, т / чел

Себестоимость единицы продукции, руб.

Установите наличие и форму корреляционной связи между рентабельностью производства и выработкой, рентабельностью производства и себестоимостью единицы продукции с помощью методов статистических графиков и регрессионного анализа.

1. Курс теории статистики для подготовки специалистов финансово-экономического профиля: учебник/ Салин В. Н. - М. : Финансы и статистика, 2006. - 480 с.

2. Общая теория статистики: учебник для студентов вузов / М. Р. Ефимова, Е. В. Петрова, В. Н. Румянцев. - 2-е изд., испр. и доп. - М. : ИНФРА-М, 2006. - 414 с.

3. Практикум по общей теории статистики: учебное пособие / М.Р. Ефимова, О.И. Ганченко, Е.В. Петрова. - Изд. 3-е, перераб. и доп. - М. Финансы и статистика, 2007. - 368 с.

4. Практикум по статистике / А.П. Зинченко, А.Е, Шибалкин, О.Б. Тарасова, Е.В. Шайкина; Под ред. А.П. Зинченк. – М.: КолосС, 2003. – 392 с.

5. Статистика: Учебник для студ. учреждений сред. проф. образования / В.С. Мхитарян, Т.А. Дуброва, В.Г. Минашкин и др.; Под ред. В.С. Мхитаряна. – 3-е изд., стер. – М.: Издательский центр «Академия», 2004. -272 с.

6. Статистика: учебник для студентов вузов / Санкт-Петербург. гос. ун-т экономики и финансов; под ред. И. И. Елисеевой. - М. : Высшее образование, 2008. - 566 с.

7. Теория статистики: учебник для студентов экономических специальностей вузов / Р. А. Шмойлова [и др.] ; ред. Р. А. Шмойлова. - 5-е изд. - М. : Финансы и статистика, 2008. - 656 с.

Изучение современного производства показывает, что каждое явление находится в тесной взаимосвязи и взаимодействии.

При изучении конкретных зависимостей одни признаки выступают в качестве факторов, обусловливающих изменение других признаков. Признаки этой группы называются признаками-факторами (факторными признаками), а признаки, которые являются результатом влияния этих факторов, называются результативными (как на объем выпуска влияет техническая оснащенность производства, тогда объем производства – результативный, а техническая оснащенность – факторный признак). Различают два вида зависимостей между экономическими явлениями – функциональную и стохастическую. При функциональной связи каждой определенной системе значений факторных признаков соответствуют одно или несколько строго определенных значений результативного признака. Примеры функциональной зависимости можно привести из области физических явлений (S = v·t).

Стохастическая (вероятностная) связь проявляется только в массовых явлениях. В данной связи каждой определенной системе значений факторных признаков соответствует некоторое множество значений результативного признака. Изменение факторных признаков приводит не к строго определенному изменению результативного признака, а к изменению только распределения его значений. Это обусловлено тем, что зависимая переменная, кроме выделенной переменной, подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что измерение переменных неизбежно сопровождается некоторыми случайными ошибками. Поскольку значения зависимой переменной подвержены случайному разбросу, они не могут быть предсказаны с достаточной точностью, а только указаны с определенной вероятностью (число бракованных деталей за смену, количество простоев за смену и т.д.).

Стохастическую связь называют корреляционной. Корреляция в широком смысле слова означает связь, соотношение между объективно существующими явлениями и процессами. Регрессия – это частный случай корреляции. В то время, как в корреляционном анализе оценивается сила стохастической связи, в регрессионном анализе исследуется ее форма, т.е. находится уравнение корреляционной связи (уравнение регрессии).

Рассмотрим различные виды корреляции и регрессии.

По числу переменных различают регрессию:

1) парную – регрессия между двумя переменными (прибыль производительность труда);

2) множественную – регрессия между зависимой переменной y и несколькими переменными (производительность труда уровень механизации производства, квалификации рабочих).

Относительно формы зависимости различают:

линейную регрессию; нелинейную регрессию.

В зависимости от характера регрессии различают:

1) прямую регрессию. Она имеет место, если с увеличением или уменьшением значений факторных переменных значения результативной переменной также увеличиваются или уменьшаются;

2) обратную регрессию. В этом случае с увеличением или уменьшением значений факторного признака результативный признак уменьшается или увеличивается.

Относительно типа соединений явлений различают:

1) непосредственную регрессию. В этом случае явления соединены непосредственно между собой (прибыль затраты);

2) косвенную регрессию. Она имеет место тогда, если факторная и результативная переменная не состоят непосредственно в причинно-следственных отношениях и факторная переменная через какую-то другую переменную действует на результативную переменную (число пожаров и урожайность зерновых (метеорологические условия));

3) ложная или абсурдная регрессия. Она возникает при формальном подходе к исследуемым явлениям. В результате можно придти к ложным и даже бессмысленным зависимостям (число импортируемых фруктов и рост дорожно-транспортных происшествий со смертельным исходом).

Аналогична классификация и корреляции.

Изучение взаимозависимостей в экономике имеет большое значение. Статистика не только отвечает на вопрос о реальном существовании связи между явлениями, но и дает количественную характеристику этой зависимости. Зная характер зависимости одного явления от другого, можно объяснить причины и размеры изменений в явлении, а также планировать необходимые мероприятия для дальнейшего его изменения. Чтобы результаты корреляционного анализа нашли практическое применение и дали желаемый результат, должны выполняться определенные требования:

1) однородность единиц, подвергающихся корреляционному анализу (предприятия выпускают однотипную продукцию, одинаковый характер технологического процесса и тип оборудования);

2) достаточное число наблюдений;

3) включаемые в исследование факторы должны быть независимы друг от друга.

Для исследования функциональных связей применяются балансовый и индексный методы. Для изучения стохастических связей используют метод параллельных рядов, метод аналитических группировок, дисперсионный анализ и анализ регрессий и корреляций.

Простейшим приемом обнаружения связей является сопоставление двух параллельных рядов. Сущность метода состоит в том, что сначала показатели, характеризующие факторный признак, ранжируются, а затем параллельно им располагаются соответствующие показатели результативного признака. Сравнение построенных таким образом рядов дает возможность не только подтвердить само наличие связи, но и выявить ее направление.

В случае, когда сравниваемые ряды состоят из большого числа единиц, направления связи для разных единиц может оказаться различным. В этом случае целесообразнее воспользоваться корреляционными таблицами. В корреляционной таблице факторный признак (х) располагают в строках, а результативный (у) – в столбцах. Числа, расположенные на пересечении строк и столбцов таблицы, показывают частоту повторения данного сочетания х и у. Построение корреляционной таблицы начинают с группировки единиц наблюдения по значениям факторного и результативного признаков. Если частоты в корреляционной таблице расположены по диагонали из левого верхнего угля в правый нижний угол, то можно предположить наличие прямой корреляционной зависимости. Если же частоты расположены по диагонали справа налево, то предполагают наличие обратной связи между признаками.

Другим методом обнаружения связи является построение групповой таблицы (метод аналитических группировок). Совокупность значений фактора х разбивают на группы и по каждой группе вычисляют среднее значение результативного признака. Предполагается, что при достаточно большом числе наблюдений в каждой группе влияние прочих случайных факторов при расчете групповой средней будет взаимопогашаться и яснее выявится зависимость результативного признака от факторного и, следовательно, различия в величине средних будут связаны только с различиями в величине данного факторного признака. Если бы связи между факторным и результативным признаком не было, то все групповые средние были бы приблизительно одинаковы по величине.

Простейшим показателем тесноты связи является коэффициент корреляции знаков (коэффициент Г.Фехнера):

,

где – число совпадений знаков отклонений индивидуальной величины от средней;

– число несовпадений знаков отклонений индивидуальной величины от средней.

Этот коэффициент позволяет получить представление о направлении связи и приблизительную характеристику ее тесноты. Для его расчета вычисляют средние значения результативного и факторного признаков, а затем проставляют знаки отклонений для всех значений взаимосвязанных признаков Кф = [-1;+1]. Если знаки всех отклонений совпадут, то и Кф = 1 – прямая связь, если знаки всех отклонений будут разными, то Кф = - 1, что свидетельствует о наличии обратной связи.

Таблица 28

Численность рабочих и балансовая прибыль

Численность рабочих, чел.

Балансовая прибыль, тыс.руб.

Знак отклонений индивидуальной величины признака от средней

Совпадение (a), несовпадение (b)

Тыс. руб.

, таким образом, между признаками существует слабая обратная связь.

Для приблизительной оценки направления и тесноты связи между признаками, представленными двумя рядами, можно также использовать коэффициент корреляции рангов. При определении коэффициента корреляции рангов значения х ранжируются, а затем ранжируются и соответствующие им значения у. В результате получаем ранги, т.е. места, номера единиц совокупности в упорядоченном ряду. При этом в случае наличия одинаковых вариантов каждому из них присваивается среднее арифметическое значение их рангов.

Коэффициент ранговой корреляции Спирмена:

,

где d – разность между рангами соответствующих величин двух признаков;

n – число единиц в ряду.

Коэффициент корреляции рангов принимает значения [-1; 1]. Если – тесная прямая связь, – тесная обратная связь, – связь отсутствует. Коэффициент корреляции рангов имеет определенные преимущества перед другими характеристиками направления и тесноты связи: его можно определять при исследовании данных, которые не поддаются нумерации, но ранжируются (оттенки, качество).

Для числовой характеристики тесноты связи могут быть использованы показатели вариации результативного признака: общая его дисперсия и межгрупповая дисперсия ().

Коэффициент ранговой корреляции Кендэла:

,

где q – число рангов, расположенных в обратном порядке.

В практике статистических исследований часто приходится анализировать альтернативные распределения, когда совокупность распределяется по каждому признаку на две группы с противоположными характеристиками. Тесноту связи в этом случае можно оценить с помощью коэффициента контингенции:

.

Таблица 29

Зависимость успеваемости студентов от пола

Контингент студентов

сдавших экзамены

не сдавших экзамены

.

Следовательно, между полом студента и его успеваемостью связь практически отсутствует.

Коэффициент ассоциации рассчитывается следующим образом:

Рассмотренные ранее статистические методы исследования взаимосвязей часто оказываются недостаточными, ибо они не позволяют выразить имеющуюся связь в виде определенного математического уравнения. Методы параллельных рядов и аналитических группировок эффективны лишь при малом числе факторных признаков, в то время, как социально-экономические явления складываются обычно под воздействием множества причин. Эти ограничения устраняет метод анализа корреляций и регрессий.

Метод анализа корреляций и регрессий заключается в построении и анализе экономико-математической модели в виде уравнения регрессии, выражающего зависимость явления от определяющих его факторов. Например, зависимость объема производства (у) (млн. руб.) от его технической оснащенности (х) (%) выражается следующей зависимостью:

.

Можно предполагать, что с увеличением технической оснащенности на 1%, объем производства увеличится в среднем на 21,4 млн. руб.

Метод анализа корреляций и регрессий состоит из следующих этапов:

предварительный анализ; сбор информации и ее первичная обработка; построение модели (уравнения регрессии); оценка и анализ модели.

На первом этапе необходимо в общем виде сформулировать задачу исследования (изучение влияния различных факторов на уровень производительности труда). Далее следует определить методику измерения результативного показателя (производительность труда может быть определена натуральным, трудовым или стоимостным методами). Необходимо также определить число факторов, оказывающих наиболее существенное влияние на формирование результативного признака.

На этапе сбора и обработки информации исследователю необходимо помнить, что изучаемая совокупность должна быть достаточно большой по объему. Исходные данные должны быть качественно и количественно однородны.

При построении корреляционной модели (уравнения регрессии) возникает вопрос о типе аналитической функции, характеризующей механизм взаимосвязи между признаками. Эта связь может быть выражена:

прямой линией ; параболой второго порядка ; гиперболой ; показательной функцией и др.

То есть, возникает вопрос о выборе формы связи. По виду эмпирической регрессии предполагают, какой тип кривой может быть описан. Далее решается уравнение регрессии. Затем с помощью специальных критериев оценивается их адекватность и выбирается та форма связи, которая обеспечивает наилучшее приближение и достаточную статистическую достоверность. Выбрав форму связи и построив уравнение регрессии в общем виде, необходимо найти численное значение его параметров. Для нахождения параметров используют способ наименьших квадратов. Суть его состоит в следующем.

Изучение зависимостей - это сложнейшая задача, поскольку социально-экономические явления сами по себе сложны и многообразны. Кроме того, полученные выводы носят вероятностный характер, так как они делаются на основе данных, представляющих собой выборку во времени или пространстве.

Статистические методы изучения зависимости построены с учетом особенностей изучаемых закономерностей. Статистика изучает преимущественно стохастические связи, когда одному значению признака-фактора соответствует группа значений результативного признака. Если с изменением значений признака-фактора изменяются среднегрупповые значения результативного признака, то такие связи называют корреляционными. Не всякая стохастическая зависимость является корреляционной. Если каждому значению факторного признака соответствует строго определенное значение результативного признака, то такая зависимость функциональная. Ее называют еще полной корреляцией. Неоднозначные корреляционные зависимости называют неполной корреляцией.

По механизму взаимодействия различают:

· Непосредственные связи - когда причина прямо влияет на следствие;

· Косвенные связи - когда между причиной и следствием существуют ряд промежуточных признаков (например, влияние возраста на заработок).

По направлениям различают:

· Прямые связи - когда значение факторного и результативного признаков изменяются в одном направлении;

· Обратные связи - когда значения факторного и результативного признаков изменяются в разных направлениях.

· Прямолинейные (линейные) связи - выражены прямой линией;

· Криволинейные связи - выражены параболой, гиперболой.

По числу взаимосвязанных признаков различают:

· Парные связи - когда анализируется взаимосвязь двух признаков (факторного и результативного);

· Множественные связи - характеризуют влияние нескольких признаков на один результативный.

По силе взаимодействия различают:

· Слабые (заметные) связи;

· Сильные (тесные) связи.

Задача статистики определить наличие, направление, форму и тесноту взаимосвязи.

Для изучения зависимости применяются различные статистические методы. Поскольку зависимости в статистике проявляются через вариацию признаков, то и методы в основном измеряют и сопоставляют вариацию факторного и результативного признаков.

Если изобразить результаты группировки на графике, получим эмпирическую линию регрессии. Интервалы значений факторного признака заменяются средними групповыми показателями.

Помимо эмпирической линии регрессии, непосредственно определяющей форму и направление взаимосвязей, существует корреляционное поле, на котором отражаются параметрические данные.

По корреляционному полю так же можно судить о характере взаимосвязи. Если точки сконцентрированы около диагонали идущей слева направо, снизу вверх - то связь прямая. Если около другой диагонали - обратная. Если точки рассеяны по всему полю графика - связь отсутствует.

При построении аналитической группировки важно правильно определить величину интервала. Если в результате первичной группировки связь не проявляется отчетливо, можно укрупнить интервал. Однако, укрупняя интервалы, можно иногда обнаружить связь даже там, где ее нет. Поэтому при построении аналитической группировки руководствуются правилом: чем больше групп мы можем выделить, не натолкнувшись ни на одно исключение, тем надежнее наша гипотеза о наличии и форме связи.

Нематематические методы дают приближенную оценку о наличии, формы и направлении связи. Более глубокий анализ осуществляется с помощью математических методов, которые развились на базе методов, применяемых статистиками - нематематиками:

· Регрессионный анализ, позволяющий выразить с помощью уравнения форму взаимосвязи.

· Корреляционный анализ используется для определения тесноты или силы взаимосвязи признаков. Корреляционные методы делят:

- Параметрические методы, которые дают оценку тесноты связи непосредственно на базе значений факторного и результативного признаков;

- Непараметрические методы - дают оценку на основе условных оценок признаков.

Оценка тесноты криволинейных зависимостей дается после расчета параметра уравнения регрессии. Поэтому такой метод называется корреляционно-регрессивным.

Если анализируется зависимость одного факторного и результативного признаков, то в этом случае имеем дело с парной корреляцией и регрессией. Если анализируются несколько факторных и результативных признаков - это множественная корреляция и регрессия.

Регрессия - это линия, характеризующая наиболее общую тенденцию во взаимосвязи факторного и результативного признаков.

Предполагается, что аналитическое уравнение выражает подлинную форму зависимости, а все отклонения от этой функции обусловлены действием различных случайных причин. Так как изучаются корреляционные связи, изменению факторного признака соответствует изменение среднего уровня результативного признака. При построении аналитических группировок мы рассматривали эмпирическую линию регрессии. Однако, эта линия не пригодна для экономического моделирования и ее форма зависит от произвола исследователя. Теоретически линия регрессии в меньшей степени зависит от субъективизма исследователя, однако, здесь так же может быть произвол при выборе формы или функции взаимосвязи. Считается, что выбор функции должен опираться на глубокое знание специфики предмета исследования.

На практике чаще всего применяются следующие формы регрессионных моделей:

· Линейная;

· Полулогарифметическая кривая;

· Гипербола;

· Парабола второго порядка;

· Показательная функция;

· Степенная функция.


Данное свойство средней, гласящее, что сумма квадратов отклонений всех вариантов ряда от средней арифметической меньше суммы квадратов их отклонений от любого другого числа, положено в основу метода наименьших квадратов, позволяющего рассчитать параметры избранного уравнения регрессии таким образом, чтобы линия регрессии была в среднем наименее удалена от эмпирических данных.

Непараметрические методы измерения тесноты взаимосвязи количественных признаков были первыми из методов измерения тесноты взаимосвязи. Впервые попытался измерить тесноту связи в 30-ч годах 19 века французский ученый Гиррий. Он сопоставлял между собой среднегрупповые значения факторного и результативного признаков. При этом абсолютные значения заменялись их отношениями к некоторым константам. Полученные результаты ранжировались в порядке возрастания. О наличии или отсутствии связи Гиррий судил сопоставляя ранее по группам и подсчитывая количество совпадений и несовпадений рангов. Если преобладало число совпадений - связь считалась прямой. Несовпадение - обратной. При равенстве совпадений и несовпадений - связь отсутствовала.

Методика Гиррий была использована Фехнером при разработке своего коэффициента, а так же Спирменом при разработке коэффициента корреляции рангов.

Коэффициент указывает на наличие весьма тесной обратной связи.

На ряду с коэффициентом Фехнера для измерения взаимосвязи количественных признаков применяются коэффициенты корреляции рангов. Наиболее распространенным среди них является коэффициент корреляции рангов Спирмена.

Непараметрические методы применяются для измерения тесноты связи качественных и альтернативных признаков, а так же количественных признаков, распределение которых отличается от нормального распределения.

Для измерения связи альтернативных признаков применяются коэффициент ассоциации Дэвида Юла и коэффициент контингенции Карла Пирсона. Для расчета этих показателей применяется следующая матрица взаимного распределения частот:

a, b, c, d - частоты взаимного распределения признаков.

При прямой связи частоты сконцентрированы по диагонали a-d, при обратной связи по диагонали b-c, при отсутствии связи частоты практически равномерно распределены по всему полю таблицы.

Коэффициент ассоциации

Коэффициент ассоциации непригоден для расчета в том случае, если одна из частот по диагонали равна 0. В этом случае применяется коэффициент контингенции, который рассчитывается по формуле:

Коэффициент контингенции также указывает на практическое отсутствие связи между признаками (его величина всегда меньше К ас).

Для измерения тесноты линейной взаимосвязи применяется коэффициент корреляции. Базовая форма коэффициента корреляции следующая:


Фактически, коэффициент корреляции - это среднее произведения нормативных отклонений:

Если связь между признаками отсутствует, то результативный признак не варьирует при изменении факторного признака, следовательно. Такой же результат получается при сбалансированности сумм отрицательных и положительных произведений.

Обычно для расчета коэффициента корреляции применяются формулы, использующие те показатели, которые уже рассчитывались при определении параметров уравнения регрессии.

Множественная корреляция и регрессия применяется для изучения влияния двух и более факторов на результативный признак. Процесс исследования включает несколько этапов.

Сначала проводится выбор формы уравнения взаимосвязи, чаще всего выбирается n-мерная линейная формула:

Поскольку расчеты важны и трудоемки, важнейшее значение имеет отбор факторов для включения в регрессионную модель. На основе качественного анализа необходимо отбирать наиболее существенные факторы. На этапе отбора факторов, рассчитывается так же единичная матрица парных коэффициентов корреляции между признаками факторов, отобранных для включения в уравнение регрессии.

Исследование объективно существующих связей между социально-экономическими явлениями и процессами является важнейшей задачей теории статистики. В процессе

статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки), оказывающие основное влияние на вариацию изучаемых явлений и процессов. Причинно-следственныеотношения – это такая связь явлений и процессов, когда изменение одного из них – причины ведет к изменению другого – следствия.

Финансово-экономические процессы представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих процессов необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.

В основе первого этапа статистического изучения связи лежит качественный анализ, связанный с анализом природы социального или экономического явления методами экономической теории, социологии, конкретной экономики. Второй этап – построение модели связи, базируется на методах статистики: группировках, средних величинах, и так далее. Третий, последний этап – интерпретация результатов, вновь связан с качественными особенностями изучаемого явления. Статистика разработала множество методов изучения связей. Выбор метода изучения связи зависит от познавательной цели и задач исследования.

Признаки по их сущности и значению для изучения взаимосвязи делятся на два класса. Признаки, обуславливающие изменения других, связанных с ними признаков, называются факторными , или просто факторами. Признаки, изменяющиеся под действием факторных признаков, называются результативными .

В статистике различают функциональную и стохастическую зависимости. Функциональной называют такую связь, при которой определенному значению факторногопризнака соответствует одно и только одно значение результативного признака.

Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем, при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.

Связи между явлениями и их признаками классифицируются по степени тесноты,

направлению и аналитическому выражению.

По степени тесноты связи различают:

С увеличением или с уменьшением значений факторного признака происходит увеличение или уменьшение значений результативного признака. Так, рост объемов производства способствует увеличению прибыли предприятия. В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака, то есть обратная – это связь, при которой с увеличением или с уменьшением значений одного признака происходит уменьшение или увеличение значений другого признака. Так, снижение себестоимости единицы производимой продукции влечет за собой рост рентабельности.

По аналитическому выражению выделяют связи прямолинейные (или просто ли-

нейные ) и нелинейные . Если статистическая связь между явлениями может быть при-

близительно выражена уравнением прямой линии, то ее называют линейной связью вида.

Поделитесь с друзьями или сохраните для себя:

Загрузка...