Материалы сайта
Это интересно
Серьёзные лекции по высшей экономической математике
Правило 3-х ( (трех “сигм”). Пусть имеется нормально распределённая случайная величина ( с математическим ожиданием, равным а и дисперсией (2. Определим вероятность попадания ( в интервал (а – 3(; а + 3(), то есть вероятность того, что ( принимает значения, отличающиеся от математического ожидания не более, чем на три среднеквадратических отклонения. P(а – 3(< ( < а + 3()=Ф(3) – Ф(–3)=2Ф(3) По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практически равняется единице. Таким образом, можно сделать важный вывод: нормальная случайная величина принимает значения, отклоняющиеся от ее математического ожидания не более чем на 3(. (Выбор числа 3 здесь условен и никак не обосновывается: можно было выбрать 2,8, 2,9 или 3,2 и получить тот же вероятностный результат. Учитывая, что Ф(2)=0,477, можно было бы говорить и о правиле 2–х “сигм”.) Совместное распределение двух случайных величин. Пусть пространство элементарных исходов ( случайного эксперимента таково, что каждому исходу (ij ставиться в соответствие значение случайной величины (, равное xi и значение случайной величины (, равное yj. Примеры: 1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать ( и толщину—( (можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах). 2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за ( можно принимать объем производства отнесенный к количеству сотрудников, а за (—объем продукции, идущей на экспорт, тоже отнесенной к числу сотрудников. В этом случае мы можем говорить о совместном распределении случайных величин ( и ( или о “двумерной” случайной величине. Если ( и ( дискретны и принимают конечное число значений (( – n значений, а ( – k значений), то закон совместного распределения случайных величин ( и ( можно задать, если каждой паре чисел xi, yj (где xi принадлежит множеству значений (, а y j—множеству значений () поставить в соответствие вероятность pij, равную вероятности события, объединяющего все исходы (ij (и состоящего лишь из этих исходов), которые приводят к значениям ( = xi; ( = y j. Такой закон распределения можно задать в виде таблицы: |( |y1 |y2 |( |yj |( |yk | | | |( | | | | | | | | | |x1 |р11 |р12 |( |р1j |( |р1k |P1 | | |( |( |( |( |( |( |( |( | | |xi |рi1 |рi2 |( |рij |( |рik |Pi |(*) | |( |( |( |( |( |( |( |( | | |xn |рn1 |рn2 |( |рnj |( |рnk |Pn | | | |P1 |P2 |( |Pj |( |Pk |( | | Очевидно [pic] Если просуммировать все рij в i–й строке, то получим [pic] вероятность того, что случайная величина ( примет значение xi. Аналогично, если просуммировать все рij в j–м столбце, то получим [pic] вероятность того, что ( принимает значение y j. Соответствие xi ( Pi (i = 1,2,(,n) определяет закон распределения (, также как соответствие yj ( P j (j = 1,2,(,k) определяет закон распределения случайной величины (. Очевидно [pic], [pic]. Раньше мы говорили, что случайные величины ( и ( независимы, если pij=Pi(P j (i=1,2,(,n; j=1,2,(,k). Если это не выполняется, то ( и ( зависимы. В чем проявляется зависимость случайных величин ( и ( и как ее выявить из таблицы? Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число pi/1=[pic] (1) которое будем называть условной вероятностью (= xi при (=y1. Обратите внимание на то, что это не вероятность Pi события (= xi, и сравните формулу (1) с уже известной формулой условной вероятности [pic]. Соответствие xi(рi/1, (i=1,2,(,n) будем называть условным распределением случайной величины ( при (=y1. Очевидно [pic]. Аналогичные условные законы распределения случайной величины ( можно построить при всех остальных значениях (, равных y2; y3,(, yn ,ставя в соответствие числу xi условную вероятность pi/j =[pic] ([pic]). В таблице приведён условный закон распределения случайной величины ( при (=yj |( |x1 |x2 |( |xi |( |xn | |pi/j |[pic] |[pic] |( |[pic] |( |[pic] | Можно ввести понятие условного математического ожидания ( при ( = yj [pic] Заметим, что ( и ( равноценны. Можно ввести условное распределение ( при (=xi соответствием [pic] (j = 1,2,(,k) Также можно ввести понятие условного математического ожидания случайной величины ( при (=xi : [pic] Из определения следует, что если ( и ( независимы, то все условные законы распределения одинаковы и совпадают с законом распределения ( (напоминаем, что закон распределения ( определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М((/( = yj) при j = 1,2,(,k, которые равны М(. Если условные законы распределения ( при различных значениях ( различны, то говорят, что между ( и ( имеет место статистическая зависимость. Пример I. Пусть закон совместного распределения двух случайных величин ( и ( задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины (, а первая и последняя строки – закон распределения случайной величины (. |( |1 |2 |3 | | |( | | | | | |10 |1/36 |0 |0 |1/36 | |20 |2/36 |1/36 |0 |3/36 | |30 |2/36 |3/36 |2/36 |7/36 | |40 |1/36 |8/36 |16/36 |25/36 | | |6/36 |12/36 |18/36 | | Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1). [pic] Здесь явно просматривается зависимость условного закона распределения ( от величины (. Пример II. (Уже встречавшийся). Пусть даны две независимые случайные величины ( и ( с законами распределения |( |0 |1 | |( |1 |2 | |Р |1/3 |2/3 | |Р |3/4 |1/4 | Найдем законы распределений случайных величин (=(+( и (=((( |( |1 |2 |3 | |( |0 |1 |2 | |Р |3/12 |7/12 |2/12 | |Р |4/12 |6/12 |2/12 | Построим таблицу закона совместного распределения ( и (. |( |0 |1 |2 | | |( | | | | | |1 |3/12 |0 |0 |3/12 | |2 |1/12 |6/12 |0 |7/12 | |3 |0 |0 |2/12 |2/12 | | |4/12 |6/12 |2/12 | | Чтобы получить (=2 и (=0, нужно чтобы ( приняла значение 0, а ( приняла значение 2. Так как ( и ( независимы, то Р((=2; (=0)= Р((=0; (=2)=Р((=0)(Р((=2)=1/12. Очевидно также Р((=3; (=0)=0. [pic] Построим полигоны условных распределений. Здесь зависимость ( от ( довольно близка к функциональной: значению (=1 соответствует единственное (=2, значению (=2 соответствует единственное (=3, но при (=0 мы можем говорить лишь, что ( с вероятностью [pic] принимает значение 1 и с вероятностью [pic] – значение 2. Пример III. Рассмотрим закон совместного распределения ( и (, заданный таблицей |( |0 |1 |2 | | |( | | | | | |1 |1/30 |3/30 |2/30 |1/5 | |2 |3/30 |9/30 |6/30 |3/5 | |3 |1/30 |3/30 |2/30 |1/5 | | |1/6 |3/6 |2/6 | | В этом случае выполняется условие P((=xi; (=yj)=P((=xi)(P((=yj), i=1,2,3(; j=1,2,3,( Построим законы условных распределений |( |1 |2 |3 | |[pic] |1/5 |3/5 |1/5 | Законы условных распределений не отличаются друг от друга при (=1,2,3 и совпадают с законом распределения случайной величины (. В данном случае ( и ( независимы. Характеристикой зависимости между случайными величинами ( и ( служит математическое ожидание произведения отклонений ( и ( от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией. cov((; () = M(((–M()((–M()) Пусть ( = (x1, x2, x3,(, xn(, ( = (y1, y2, y3,(,yn(. Тогда cov((; ()=[pic] (2) Эту формулу можно интерпретировать так. Если при больших значениях ( более вероятны большие значения (, а при малых значениях ( более вероятны малые значения (, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения. Если же более вероятны произведения (xi – M()(yj – M(), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям ( в основном приводят к малым значениям ( и наоборот, то ковариация принимает большие по модулю отрицательные значения. В первом случае принято говорить о прямой связи: с ростом ( случайная величина ( имеет тенденцию к возрастанию. Во втором случае говорят об обратной связи: с ростом ( случайная величина ( имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (xi – M()(yj – M()pij, то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой. Легко показать, что если P((( = xi)((( = yj)) = P(( = xi)P(( = yj) (i = 1,2,(,n; j = 1,2,(,k), то cov((; ()= 0. Действительно из (2) следует [pic] [pic] [pic] Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю. Доказательство (для дискретных случайных величин с конечным числом значений). [pic] Ковариацию удобно представлять в виде cov((; ()=M(((–(M(–(M(+M(M()=M((()–M((M()–M((M()+M(M(M()= =M((()–M(M(–M(M(+M(M(=M((()–M(M( Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий. Легко доказывается следующее свойство математического ожидания: если ( и (—независимые случайные величины, то М((()=М(М(. (Доказать самим, используя формулу M((() = [pic]) Таким образом, для независимых случайных величин ( и ( cov((;()=0.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18