Сделай Сам Свою Работу на 5

Отрицательная (обратная).





Коэффициент R со знаком «минус» означает обратную зависимость: увеличение значения одной переменной влечет уменьшение другой. Например, увеличение объема информации ухудшает ее запоминание.

III. По форме:

1) Прямолинейная.

При такой связи равномерным изменениям одной переменной соответствуют равномерные изменения другой. Например, последовательному изменению величины стороны прямоугольника соответствует столь же последовательное изменение его площади. Если говорить не только о корреляциях, но и о функциональных зависимостях, то такие формы зависимости называют пропорциональными.

В психологии строго прямолинейные связи – явление не частое. Например, иногда наблюдается прямолинейная связь между тренированностью и успешностью деятельности.

2) Криволинейная.

Это связь, при которой равномерное изменение одного признака сочетается с неравномерным изменением другого. Эта ситуация типична для психологии. Классическими иллюстрациями могут служить знаменитые законы Йеркса–Додсона и Вебера-Фехнера. Согласно первому успешность деятельности при увеличении мотивации к ней изменяется по колоколообразной кривой: до определенного уровня рост мотивации сопровождается увеличением успешности, после чего с повышением мотивации успешность деятельности спадает. Согласно второму закону интенсивность наших ощущений при равномерном увеличении стимула увеличивается по логарифмической кривой, т. е. при изменении стимуляции в арифметической прогрессии ощущения изменяются в геометрической прогрессии.



Формулы коэффициента корреляции

1. При сравнении порядковых данных применяется коэффициент ранговой корреляции по Ч. Спирмену (р):

p = 6Sd2/N(N2-l),

где d – разность рангов (порядковых мест) двух величин; N – число сравниваемых пар величин двух переменных (X и Y). Пример вычисления р дан в таблице 3.

2. При сравнении метрических данных используется коэффициент корреляциипроизведений по К. Пирсону (г):

r = Sxy/Nσxσy,

где х – отклонение отдельного значения X от среднего выборки (Мх); у – то же для Y; σх – стандартное отклонение для X; σу – то же для Y; N – число пар значений X и Y.



Рекомендации по анализу коэффициентов корреляции

1. R – это не процент соответствия переменных, а только степень связи.

2. Сравнение коэффициентов дает только неметрическую информацию, т. е. нельзя говорить, на сколько или во сколько раз один больше или меньше другого. Они сравниваютсяв оценках «равно – неравно», «больше – меньше». Можно сказать, что один коэффициент превышает (слабо, заметно, очень заметно) другой, но какова величина этого превышения говорить нельзя.

3. Существуют явления, в которых заведомо известно, чтомежду ними слабая (или сильная) связь. Тогда R приобретает не абсолютный, а относительный характер. Так, для слабой связи R = 0,2 может считаться высоким показателем, а для сильной и R = 0,7 будет считаться низким.

4. Иногда и слабая корреляция заслуживает внимания, еслиэто обнаружено впервые, т. е. выявлена новая связь.

5. Надежность R зависит от надежности исходных данных.

Нормальное распределение

Мы уже знакомы с понятиями «распределение», «полигон» (или «частный полигон») и «кривая распределения». Частным случаем этих понятий является «нормальное распределение» и «нормальная кривая». Но этот частный вариант очень важен при анализе любых научных данных, в том числе и психологических. Дело в том, что нормальное распределение, изображаемое графически нормальной кривой, есть идеальное, редко встречающееся в объективной действительности распределение. Но его использование многократно облегчает и упрощает обработку и объяснение получаемых в натуре данных. Более того, только для нормального распределения приведенные коэффициенты корреляции имеют истолкование в качестве меры тесноты связи, в других случаях они такой функции не несут, а их вычисление приводит к труднообъяснимым парадоксам.



В научных исследованиях обычно принимается допущение онормальности распределения реальных данных и на этом основании производится их обработка, после чего уточняется и указывается, насколько реальное распределение отличается от нормального, для чего существует ряд специальных статистических приемов. Как правило, это допущение вполне приемлемо, так как большинство психических явлений и их характеристик имеют распределения, очень близкие к нормальному.

Так что же такое нормальное распределение и каковы его особенности, привлекающие ученых? Нормальным называется такое распределение величины, при котором вероятность ее появления и не появления является одинаковой. Классическая иллюстрация – бросание монеты. Если монета правильна и броски выполняются одинаково, то выпадение «орла» или «решки» равновероятно. То есть «орел» с одинаковой вероятностью может выпасть и не выпасть, то же касается и «решки».

Мы ввели понятие «вероятность». Уточним его. Вероятность– это ожидаемая частота наступления события (появления – не появления величины). Выражается вероятность через дробь, в числителе которой – число сбывшихся событий (частота), а взнаменателе – предельно возможное число этих событий. Когда выборка (число возможных случаев) ограниченна, то лучше говорить не о вероятности, а очастости, с которой мы уже знакомы. Вероятность предполагает бесконечное число проб. Но на практике эта тонкость часто игнорируется.

Пристальный интерес математиков к теории вероятности вцелом и к нормальному распределению в частности появляется вXVII веке в связи со стремлением участников азартных игр найти формулу максимального выигрыша при минимальном риске. Этими вопросами занялись знаменитые математики Я. Бернулли (1654-1705) и П. С. Лаплас (1749-1827). Первым математическое описание кривой, соединяющей отрезки диаграммы распределения вероятностей выпадения «орлов» при многократном бросании монет, дал Абрахам де Муавр(1667-1754). Эта кривая очень близка к нормальной кривой,точное описание которой дал великий математик К. Ф. Гаусс(1777-1855), чье имя она и носит поныне. График и формула нормальной (Гауссовой) кривой выглядит следующим образом.

где Р – вероятность (точнее, плотность вероятности), т. е. высота кривой над заданным значением Z; е – основание натурального логарифма (2.718...); π= 3.142...; М – среднее выборки; σ – стандартное отклонение.

Свойства нормальной кривой

1. Среднее (М), мода (Мо) и медиана (Me) совпадают.

2. Симметричность относительно среднего М.

3. Однозначно определяется всего лишь двумя параметрами – М и о.

4. «Ветви» кривой никогда не пересекают абсциссу Z, асимптотически к ней приближаясь.

5. При М = 0 и о =1 получаем единичную нормальную кривую, так как площадь под ней равна 1.

6. Для единичной кривой: Рм = 0.3989, а площадь под кривой в диапазоне:

-σ до +σ = 68.26%; -2σ до + 2σ = 95.46%; -Зσ до + Зσ = 99.74%.

7. Для неединичных нормальных кривых (М ≠0, σ ≠1) закономерность по площадям сохраняется. Разница – в сотых долях.

Вариации нормального распределения

Представленные ниже вариации относятся не только к нормальному распределению, но к любому. Однако для наглядности мы их приводим здесь.

1. Асимметрия – неодинаковость распределения относительно центрального значения.

Рис. 6. Графики асимметричного распределения

Асимметрия – третий показатель, описывающий распределение наряду с мерами центральной тенденции и изменчивостью. Эксцесс – показатель, характеризующий скорость нарастания концентрации данных к центральному значению. На графиках это выражается «островершинностью» или «плосковершинностью».

Эксцесс – четвертый основной показатель распределения. 3. Бимодальность– распределение с двумя классами данных в выборке. Об этом эффекте уже говорилось при рассмотрении моды (Мо). На графике это выражается «двувершинностью».

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.