Отрицательная (обратная).
Коэффициент R со знаком «минус» означает обратную зависимость: увеличение значения одной переменной влечет уменьшение другой. Например, увеличение объема информации ухудшает ее запоминание.
III. По форме:
1) Прямолинейная.
При такой связи равномерным изменениям одной переменной соответствуют равномерные изменения другой. Например, последовательному изменению величины стороны прямоугольника соответствует столь же последовательное изменение его площади. Если говорить не только о корреляциях, но и о функциональных зависимостях, то такие формы зависимости называют пропорциональными.
В психологии строго прямолинейные связи – явление не частое. Например, иногда наблюдается прямолинейная связь между тренированностью и успешностью деятельности.
2) Криволинейная.
Это связь, при которой равномерное изменение одного признака сочетается с неравномерным изменением другого. Эта ситуация типична для психологии. Классическими иллюстрациями могут служить знаменитые законы Йеркса–Додсона и Вебера-Фехнера. Согласно первому успешность деятельности при увеличении мотивации к ней изменяется по колоколообразной кривой: до определенного уровня рост мотивации сопровождается увеличением успешности, после чего с повышением мотивации успешность деятельности спадает. Согласно второму закону интенсивность наших ощущений при равномерном увеличении стимула увеличивается по логарифмической кривой, т. е. при изменении стимуляции в арифметической прогрессии ощущения изменяются в геометрической прогрессии.
Формулы коэффициента корреляции
1. При сравнении порядковых данных применяется коэффициент ранговой корреляции по Ч. Спирмену (р):
p = 6Sd2/N(N2-l),
где d – разность рангов (порядковых мест) двух величин; N – число сравниваемых пар величин двух переменных (X и Y). Пример вычисления р дан в таблице 3.
2. При сравнении метрических данных используется коэффициент корреляциипроизведений по К. Пирсону (г):
r = Sxy/Nσxσy,
где х – отклонение отдельного значения X от среднего выборки (Мх); у – то же для Y; σх – стандартное отклонение для X; σу – то же для Y; N – число пар значений X и Y.
Рекомендации по анализу коэффициентов корреляции
1. R – это не процент соответствия переменных, а только степень связи.
2. Сравнение коэффициентов дает только неметрическую информацию, т. е. нельзя говорить, на сколько или во сколько раз один больше или меньше другого. Они сравниваютсяв оценках «равно – неравно», «больше – меньше». Можно сказать, что один коэффициент превышает (слабо, заметно, очень заметно) другой, но какова величина этого превышения говорить нельзя.
3. Существуют явления, в которых заведомо известно, чтомежду ними слабая (или сильная) связь. Тогда R приобретает не абсолютный, а относительный характер. Так, для слабой связи R = 0,2 может считаться высоким показателем, а для сильной и R = 0,7 будет считаться низким.
4. Иногда и слабая корреляция заслуживает внимания, еслиэто обнаружено впервые, т. е. выявлена новая связь.
5. Надежность R зависит от надежности исходных данных.
Нормальное распределение
Мы уже знакомы с понятиями «распределение», «полигон» (или «частный полигон») и «кривая распределения». Частным случаем этих понятий является «нормальное распределение» и «нормальная кривая». Но этот частный вариант очень важен при анализе любых научных данных, в том числе и психологических. Дело в том, что нормальное распределение, изображаемое графически нормальной кривой, есть идеальное, редко встречающееся в объективной действительности распределение. Но его использование многократно облегчает и упрощает обработку и объяснение получаемых в натуре данных. Более того, только для нормального распределения приведенные коэффициенты корреляции имеют истолкование в качестве меры тесноты связи, в других случаях они такой функции не несут, а их вычисление приводит к труднообъяснимым парадоксам.
В научных исследованиях обычно принимается допущение онормальности распределения реальных данных и на этом основании производится их обработка, после чего уточняется и указывается, насколько реальное распределение отличается от нормального, для чего существует ряд специальных статистических приемов. Как правило, это допущение вполне приемлемо, так как большинство психических явлений и их характеристик имеют распределения, очень близкие к нормальному.
Так что же такое нормальное распределение и каковы его особенности, привлекающие ученых? Нормальным называется такое распределение величины, при котором вероятность ее появления и не появления является одинаковой. Классическая иллюстрация – бросание монеты. Если монета правильна и броски выполняются одинаково, то выпадение «орла» или «решки» равновероятно. То есть «орел» с одинаковой вероятностью может выпасть и не выпасть, то же касается и «решки».
Мы ввели понятие «вероятность». Уточним его. Вероятность– это ожидаемая частота наступления события (появления – не появления величины). Выражается вероятность через дробь, в числителе которой – число сбывшихся событий (частота), а взнаменателе – предельно возможное число этих событий. Когда выборка (число возможных случаев) ограниченна, то лучше говорить не о вероятности, а очастости, с которой мы уже знакомы. Вероятность предполагает бесконечное число проб. Но на практике эта тонкость часто игнорируется.
Пристальный интерес математиков к теории вероятности вцелом и к нормальному распределению в частности появляется вXVII веке в связи со стремлением участников азартных игр найти формулу максимального выигрыша при минимальном риске. Этими вопросами занялись знаменитые математики Я. Бернулли (1654-1705) и П. С. Лаплас (1749-1827). Первым математическое описание кривой, соединяющей отрезки диаграммы распределения вероятностей выпадения «орлов» при многократном бросании монет, дал Абрахам де Муавр(1667-1754). Эта кривая очень близка к нормальной кривой,точное описание которой дал великий математик К. Ф. Гаусс(1777-1855), чье имя она и носит поныне. График и формула нормальной (Гауссовой) кривой выглядит следующим образом.
где Р – вероятность (точнее, плотность вероятности), т. е. высота кривой над заданным значением Z; е – основание натурального логарифма (2.718...); π= 3.142...; М – среднее выборки; σ – стандартное отклонение.
Свойства нормальной кривой
1. Среднее (М), мода (Мо) и медиана (Me) совпадают.
2. Симметричность относительно среднего М.
3. Однозначно определяется всего лишь двумя параметрами – М и о.
4. «Ветви» кривой никогда не пересекают абсциссу Z, асимптотически к ней приближаясь.
5. При М = 0 и о =1 получаем единичную нормальную кривую, так как площадь под ней равна 1.
6. Для единичной кривой: Рм = 0.3989, а площадь под кривой в диапазоне:
-σ до +σ = 68.26%; -2σ до + 2σ = 95.46%; -Зσ до + Зσ = 99.74%.
7. Для неединичных нормальных кривых (М ≠0, σ ≠1) закономерность по площадям сохраняется. Разница – в сотых долях.
Вариации нормального распределения
Представленные ниже вариации относятся не только к нормальному распределению, но к любому. Однако для наглядности мы их приводим здесь.
1. Асимметрия – неодинаковость распределения относительно центрального значения.
Рис. 6. Графики асимметричного распределения
Асимметрия – третий показатель, описывающий распределение наряду с мерами центральной тенденции и изменчивостью. Эксцесс – показатель, характеризующий скорость нарастания концентрации данных к центральному значению. На графиках это выражается «островершинностью» или «плосковершинностью».
Эксцесс – четвертый основной показатель распределения. 3. Бимодальность– распределение с двумя классами данных в выборке. Об этом эффекте уже говорилось при рассмотрении моды (Мо). На графике это выражается «двувершинностью».
Не нашли, что искали? Воспользуйтесь поиском по сайту:
©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.
|