- Услуги
- Цена и срок
- О компании
- Контакты
- Способы оплаты
- Гарантии
- Отзывы
- Вакансии
- Блог
- Справочник
- Заказать консультацию
Предыдущие показатели, именуемые статистиками, характеризуют совокупность данных по одному какому-либо признаку. Этот изменяющийся признак называют переменной величиной или просто «переменной». Меры связи же выявляют соотношения между двумя переменными или между двумя выборками.
Например, нужно установить, существует ли связь между ростом и весом человека, между типом темперамента и успешностью решения интеллектуальных задач и т. д. Или, скажем, надо выяснить, принадлежат ли две выборки к одной популяции или к разным. Эти связи, или корреляции (от лат. correlatio – соотношение, взаимосвязь), и выявляют через вычисление коэффициентов корреляции (R), если переменные находятся в линейной зависимости между собой. Считается, что большинство психических явлений подчинено именно линейным зависимостям, что и предопределило широкое использование методов корреляционного анализа. Но наличие корреляции не означает, что между переменными существует причинная (или функциональная) связь.
Функциональная зависимость [у = f(x)] – это частный случай корреляции. Даже если связь причинна, корреляционные показатели не могут указать, какая из двух переменных причина, а какая – следствие. Кроме того, любая обнаруженная в психологии связь, как правило, существует благодаря и другим переменным, а не только двум рассматриваемым. К тому же взаимосвязи психологических признаков столь сложны, что их обусловленность одной причиной вряд ли состоятельна, они детерминированы множеством причин.
Виды корреляции: I. По тесноте связи:
Встречаются и другие градации оценок тесноты связи. Кроме того, в психологии при оценке тесноты связи используют так называемую «частную» классификацию корреляционных связей. Эта классификация ориентирована не на абсолютную величину коэффициентов корреляции, а на уровень значимости этой величины при определенном объеме выборки.
Эта классификация применяется при статистической оценке гипотез. Тогда чем больше выборка, тем меньшее значение коэффициента корреляции может быть принято для признания достоверности связей. А для малых выборок даже абсолютно большое значение R может оказаться недостоверным.
II. По направленности:
Коэффициент R со знаком «плюс» означает прямую зависимость: увеличение значения одной переменной влечет увеличение другой. Например, связь между числом повторений и запоминанием положительна.
2. Отрицательная (обратная).
Коэффициент R со знаком «минус» означает обратную зависимость: увеличение значения одной переменной влечет уменьшение другой. Например, увеличение объема информации ухудшает ее запоминание.
III. По форме:
При такой связи равномерным изменениям одной переменной соответствуют равномерные изменения другой. Например, последовательному изменению величины стороны прямоугольника соответствует столь же последовательное изменение его площади. Если говорить не только о корреляциях, но и о функциональных зависимостях, то такие формы зависимости называют пропорциональными.
В психологии строго прямолинейные связи – явление не частое. Например, иногда наблюдается прямолинейная связь между тренированностью и успешностью деятельности.
Это связь, при которой равномерное изменение одного признака сочетается с неравномерным изменением другого. Эта ситуация типична для психологии. Классическими иллюстрациями могут служить знаменитые законы Йеркса–Додсона и Вебера-Фехнера. Согласно первому успешность деятельности при увеличении мотивации к ней изменяется по колоколообразной кривой: до определенного уровня рост мотивации сопровождается увеличением успешности, после чего с повышением мотивации успешность деятельности спадает. Согласно второму закону интенсивность наших ощущений при равномерном увеличении стимула увеличивается по логарифмической кривой, т. е. при изменении стимуляции в арифметической прогрессии ощущения изменяются в геометрической прогрессии.
Формулы коэффициента корреляции
p = 6Sd2/N(N2-l),
где d – разность рангов (порядковых мест) двух величин; N – число сравниваемых пар величин двух переменных (X и Y). Пример вычисления р дан в таблице 3.
r = Sxy/Nσxσy,
где х – отклонение отдельного значения X от среднего выборки (Мх); у – то же для Y; σх – стандартное отклонение для X; σу – то же для Y; N – число пар значений X и Y.
Рекомендации по анализу коэффициентов корреляции