Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
Зависимые и независимые случайные величины
При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными величинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.
Понятие о независимых случайных величинах—одно из важных понятий теории вероятностей.
Случайная величина У называется независимой от случайной величины X, если закон распределения величины Y не зависит от того, какое значение приняла величина X.
Для непрерывных случайных величин условие независимости Y от Х может быть записано в виде:
f(y│x)=f2(y) при любом у.
Напротив, в случае, если Y зависит от X, то
f(y│x)≠ f2 (y)
Доказано, что зависимость или независимость случайных величин всегда взаимны: т.е. если величина Y не зависит от X, то и величина Х не зависит от Y.
Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.
Случайные величины Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины Х и Y называются зависимыми.
Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:
f(x,y)=f1(x)f2(y),
т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему. Данное условие может рассматриваться как необходимое и достаточное условие независимости случайных величин.
Часто по самому виду функции f(x, у) можно заключить, что случайные величины X, Y являются независимыми, а именно, если плотность распределения f(x, у) распадается на произведение двух функций, из которых одна зависит только от х, другая—только от у, то случайные величины независимы.
Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы (X, Y) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины Х и Y независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.
Остановимся несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.
Понятие «зависимости» случайных величин, которым пользуются в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым оперируют в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую функциональную зависимость. Две величины Х и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.
В теории вероятностей мы встречаемся с другим, более общим, типом зависимости - с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной Х вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.
Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя крайними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действительности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.
Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины Х и Y находятся в вероятностной зависимости, это не означает, что с изменением величины Х величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины Х величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступления.
Рассмотрим, например, две такие случайные величины: Х - рост наугад взятого человека, Y—его вес. Очевидно, величины Х и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяющую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: Y (кг) == Х (см) - 100.
Формулы подобного типа, очевидно, не являются точными и выражают лишь некоторую среднюю, массовую закономерность, тенденцию, от которой в каждом отдельном случае возможны отступления.
В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: Х—рост наугад взятого человека; Z—его возраст. Очевидно, для взрослого человека величины Х и Z можно считать практически независимыми; напротив, для ребенка величины Х и Z являются зависимыми.
Приведем еще несколько примеров случайных величин, находящихся в различных степенях зависимости.
1. Из камней, составляющих кучу щебня, выбирается наугад один камень. Случайная величина Q — вес камня; случайная величина L—наибольшая длина камня. Величины Q и L находятся в явно выраженной вероятностной зависимости.
2. Производится стрельба ракетой в заданный район океана. Величина ∆Х - продольная ошибка точки попадания (недолет, перелет); случайная величина ∆V—ошибка в скорости ракеты в конце активного участка движения. Величины ∆Х и ∆V явно зависимы, так как ошибка ∆V является одной из главных причин, порождающих продольную ошибку ∆Х.
Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
Мы ввели в рассмотрение числовые характеристики одной случайной величины Х - начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание mx и дисперсия Dx.
Аналогичные числовые характеристики - начальные и центральные моменты различных порядков - можно ввести и для системы двух случайных величин. Начальным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения Хk на Ys:
M[Хk Ys]
Центральным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:
На практике обычно применяются только первые и вторые моменты.
Первые начальные моменты представляют собой уже известные нам математические ожидания величин Х и Y, входящих в систему:
mx и my
Совокупность математических ожиданий mx, my представляет собой характеристику положения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки (X. Y).
Кроме первых начальных моментов, на практике широко применяются еще, вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин Х и Y.
D[X] и D [Y], характеризующие рассеивание случайной точки в направлении осей Ох а Оу.
Особую роль как характеристика системы играет второй смешанный центральный момент:
μ1,1 = М [X Y],
т. е. математическое ожидание произведения центрированных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин для него введено особое обозначение:
Кху =М[Х0 Y0]=M[(X—mx)(Y— my)].
Характеристика Кxy называется корреляционным моментом (иначе — «моментом связи») случайных величин X, Y.
Для дискретных случайных величин корреляционный момент выражается формулой
Кху =Σ Σ(xi-mx)(yj-my) pij
i j
Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.
Таким образом, если корреляциснный момент двух случайных величин отличен от нуля, это есть признак наличия зависимости между ними.
Из формулы видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента к безразмерной характеристике
rху=Кху/σх σу
где σх, σу - средние квадратические отклонения величин X, Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.
Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для независимых случайных величин коэффициент корреляции равен нулю.
Случайные величины, для которых корреляционный момент (а значит, и коэффициент корреляции) равен нулю, называются некоррелированными (иногда — «несвязанными»).
Эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Известно, что независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обратное положение, вытекает ли из некоррелированности величин их независимость? Оказывается - нет. Существуют такие случайные величины, которые являются некоррелированными, но зависимыми. Равенство нулю коэффициента корреляции - необходимое, но не достаточное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелированность; напротив, из некоррелированности величии еще не следует их независимость. Условие независимости случайных величин—более жесткое, чем условие некоррелированности.
Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выраженной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характеризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины Х и Y связаны точной линейной функциональной зависимостью:
У=аХ + в, то rху = ±1, причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины Х и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах:
- 1 < rху < 1
В случае r > 0 говорят о положительной корреляции величин Х и Y, в случае г<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами означает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.
Приведем несколько примеров случайных величин с положительной и отрицательной корреляцией.
1.Вес и рост человека связаны положительной корреляцией.
2.Время, потраченное на подготовку к занятиям, и полученная оценка связаны положительной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество полученных двоек, связаны отрицательной корреляцией.
3. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорциональная ошибке первого выстрела с обратным знаком. Координаты точек попадания первого и второго выстрелов будут связаны отрицательной корреляцией.
Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом приближении по графику, на котором изображены в виде точек все полученные из опыта пары значений случайных величин. Например, если наблюденные пары значений величин расположились следующим образом
y
x
то это указывает на наличие явно выраженной положительной корреляции между величинами. На практике, перед тем как исследовать корреляцию случайных величин, всегда полезно предварительно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции.
Оценки для числовых характеристик системы случайных величин
Имеются результаты n независимых опытов над системой случайных величин (Х,У)
(x1,y1); (x2,y2);….(xn,yn)
Требуется найти оценки для числовых характеристик
mx,my,Dx,Dy и корреляционный момент Kxy
Несмещенными оценками для МОЖ будут
n
mx˜= Σi=1Xi
n
n
mу˜= Σi=1Уi
n
n
D˜x= Σ (xi-mx˜)2
i=1
n
n
Σ (xi-mx˜)2 (yi-my˜)2
Kxy= i=1
n-1
План лекции по т. 11.5
1. Оценки для математического ожидания и дисперсии
2. Доверительный интервал. Доверительная вероятность.
3. Зависимые и независимые случайные величины
Не нашли, что искали? Воспользуйтесь поиском по сайту:
©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.
|