Сделай Сам Свою Работу на 5

Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции





Зависимые и независимые случайные величины

 

При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными вели­чинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми.

Понятие о независимых случайных величинах—одно из важных понятий теории вероятностей.

Случайная величина У называется независимой от случайной ве­личины X, если закон распределения величины Y не зависит от того, какое значение приняла величина X.

Для непрерывных случайных величин условие независимости Y от Х может быть записано в виде:

f(y│x)=f2(y) при любом у.

Напротив, в случае, если Y зависит от X, то

f(y│x)≠ f2 (y)

Доказано, что зависимость или независимость случайных ве­личин всегда взаимны: т.е. если величина Y не зависит от X, то и ве­личина Х не зависит от Y.



Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.

Случайные величины Х и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины Х и Y называются зависимыми.

Для независимых непрерывных случайных величин теорема умно­жения законов распределения принимает вид:

f(x,y)=f1(x)f2(y),

т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения от­дельных величин, входящих в систему. Данное условие может рассматриваться как необходимое и до­статочное условие независимости случайных величин.

Часто по самому виду функции f(x, у) можно заключить, что случайные величины X, Y являются независимыми, а именно, если плотность распределения f(x, у) распадается на произведение двух функций, из которых одна зависит только от х, другая—только от у, то случайные величины независимы.



Вышеизложенный критерий суждения о зависимости или незави­симости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает на­оборот: закон распределения системы (X, Y) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины Х и Y независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему.

Остановимся несколько подробнее на важных понятиях о «зави­симости» и «независимости» случайных величин.

Понятие «зависимости» случайных величин, которым пользуются в теории вероятностей, несколько отличается от обычного по­нятия «зависимости» величин, которым оперируют в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости - полную, жесткую, так называемую функциональную зависимость. Две величины Х и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.

В теории вероятностей мы встречаемся с другим, более общим, типом зависимости - с вероятностной или «стохастической» зави­симостью. Если величина Y связана с величиной Х вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.

Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай - полная независимость случайных величин. Между этими двумя край­ними случаями лежат все градации вероятностной зависимости - от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действитель­ности связаны весьма тесной вероятностной зависимостью: при заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне опреде­ленной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь.



Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины Х и Y находятся в вероятностной зависимости, это не означает, что с из­менением величины Х величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины Х величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь «в среднем», в об­щих чертах, и в каждом отдельном случае от нее возможны отступления.

Рассмотрим, например, две такие случайные величины: Х - рост наугад взятого человека, Y—его вес. Очевидно, величины Х и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяю­щую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: Y (кг) == Х (см) - 100.

Формулы подобного типа, очевидно, не являются точными и вы­ражают лишь некоторую среднюю, массовую закономерность, тенден­цию, от которой в каждом отдельном случае возможны отступления.

В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: Х—рост наугад взятого человека; Z—его возраст. Очевидно, для взрослого человека величины Х и Z можно считать практически независимыми; напротив, для ребенка величины Х и Z являются зависимыми.

Приведем еще несколько примеров случайных величин, находя­щихся в различных степенях зависимости.

1. Из камней, составляющих кучу щебня, выбирается наугад один камень. Случайная величина Q — вес камня; случайная величина L—наибольшая длина камня. Величины Q и L находятся в явно выраженной вероятностной зависимости.

2. Производится стрельба ракетой в заданный район океана. Величина ∆Х - продольная ошибка точки попадания (недолет, пере­лет); случайная величина ∆V—ошибка в скорости ракеты в конце активного участка движения. Величины ∆Х и ∆V явно зависимы, так как ошибка ∆V является одной из главных причин, порождаю­щих продольную ошибку ∆Х.

Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции

Мы ввели в рассмотрение числовые характеристики одной случайной величины Х - начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание mx и дисперсия Dx.

Аналогичные числовые характеристики - начальные и центральные моменты различных порядков - можно ввести и для системы двух случайных величин. Начальным моментом порядка k, s системы (X, Y) называется математическое ожидание произведения Хk на Ys:

M[Хk Ys]

Центральным моментом порядка k, s системы (X, Y) назы­вается математическое ожидание произведения k-й и s-й степени соответствующих центрированных величин:

На практике обычно применяются только первые и вторые моменты.

Первые начальные моменты представляют собой уже известные нам математические ожидания величин Х и Y, входящих в систему:

mx и my

Совокупность математических ожиданий mx, my представляет собой характеристику положения системы. Геометрически это коор­динаты средней точки на плоскости, вокруг которой происходит рас­сеивание точки (X. Y).

Кроме первых начальных моментов, на практике широко при­меняются еще, вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин Х и Y.

D[X] и D [Y], характеризующие рассеивание случайной точки в направлении осей Ох а Оу.

Особую роль как характеристика системы играет второй сме­шанный центральный момент:

μ1,1 = М [X Y],

т. е. математическое ожидание произведения центрированных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин для него введено особое обозначение:

Кху =М[Х0 Y0]=M[(X—mx)(Y— my)].

Характеристика Кxy называется корреляционным моментом (иначе — «моментом связи») случайных величин X, Y.

Для дискретных случайных величин корреляционный момент вы­ражается формулой

Кху =Σ Σ(xi-mx)(yj-my) pij

i j

 

Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Y, еще и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.

Таким образом, если корреляциснный момент двух случайных величин отличен от нуля, это есть признак наличия зависи­мости между ними.

Из формулы видно, что корреляционный момент характе­ризует не только зависимость величин, но и их рассеивание. Дей­ствительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, Y) в чистом виде переходят от момента к безразмерной характеристике

rху=Кху/σх σу

где σх, σу - средние квадратические отклонения величин X, Y. Эта характеристика называется коэффициентом корреляции величин Х и Y.

Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для не­зависимых случайных величин коэффициент корреляции равен нулю.

Случайные величины, для которых корреляционный момент (а зна­чит, и коэффициент корреляции) равен нулю, называются некорре­лированными (иногда — «несвязанными»).

Эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Известно, что независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обрат­ное положение, вытекает ли из некоррели­рованности величин их независимость? Оказывается - нет. Существуют такие случайные величины, которые являются некоррелированными, но зави­симыми. Равенство нулю коэффициента корреляции - необходимое, но не доста­точное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелирован­ность; напротив, из некоррелированности величии еще не следует их независимость. Условие неза­висимости случайных величин—более жесткое, чем условие некор­релированности.

Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятност­ная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выражен­ной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характе­ризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины Х и Y связаны точной линейной функциональной зависимостью:

У=аХ + в, то rху = ±1, причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины Х и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пре­делах:

- 1 < rху < 1

В случае r > 0 говорят о положительной корреляции вели­чин Х и Y, в случае г<0 - об отрицательной корреляции. Положительная корреляция между случайными величинами озна­чает, что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать.

Приведем несколько примеров случайных величин с положитель­ной и отрицательной корреляцией.

1.Вес и рост человека связаны положительной корреляцией.

2.Время, потраченное на подготовку к занятиям, и полученная оценка связаны положитель­ной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество полученных двоек, связаны отрицательной корреляцией.

3. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорцио­нальная ошибке первого выстрела с обратным знаком. Координаты точек попадания первого и второго выстрелов будут связаны отри­цательной корреляцией.

Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (X, Y), то о наличии или отсутствии существенной корреляции между ними легко судить в первом при­ближении по графику, на котором изображены в виде точек все полученные из опыта пары значений слу­чайных величин. Например, если наблюденные пары зна­чений величин расположи­лись следующим образом

 

y

 
 

 


 

 

x

то это указывает на наличие явно выражен­ной положительной корреля­ции между величинами. На практике, перед тем как исследовать корреляцию случайных величин, всегда полезно предвари­тельно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции.

 

Оценки для числовых характеристик системы случайных величин

 

Имеются результаты n независимых опытов над системой случайных величин (Х,У)

(x1,y1); (x2,y2);….(xn,yn)

Требуется найти оценки для числовых характеристик

mx,my,Dx,Dy и корреляционный момент Kxy

Несмещенными оценками для МОЖ будут

 

n

mx˜= Σi=1Xi

n

n

mу˜= Σi=1Уi

n

 

n

x= Σ (xi-mx˜)2

i=1

n

n

Σ (xi-mx˜)2 (yi-my˜)2

Kxy= i=1

n-1

 

 

План лекции по т. 11.5

 

1. Оценки для математического ожидания и дисперсии

2. Доверительный интервал. Доверительная вероятность.

3. Зависимые и независимые случайные величины

 

 

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.