WWW.BOOK.LIB-I.RU
БЕСПЛАТНАЯ  ИНТЕРНЕТ  БИБЛИОТЕКА - Электронные ресурсы
 

Pages:   || 2 |

«ОГЛАВЛЕНИЕ 1. Основные понятия комбинаторики ТЕОРИЯ ВЕРОЯТНОСТЕЙ 2. Вероятности событий 2.1. Алгебра событий 2.2. Статистическое и ...»

-- [ Страница 1 ] --

ОГЛАВЛЕНИЕ

1. Основные понятия комбинаторики

ТЕОРИЯ ВЕРОЯТНОСТЕЙ

2. Вероятности событий

2.1. Алгебра событий

2.2. Статистическое и классическое определения вероятности

2.3. Понятие о вероятностной модели

2.4. Теорема умножения вероятностей

2.5. Теорема сложения вероятностей

2.6. Формула полной вероятности

2.7. Формулы Байеса

2.8. Повторные независимые испытания

2.9. Простейший поток событий

3. Случайные величины

3.1. Понятие случайной величины

3.2. Дискретные случайные величины.

3.3. Функция распределения

3.4. Функция плотности вероятности

3.5. Системы случайных величин

3.6. Математическое ожидание

3.7. Дисперсия и среднее квадратическое отклонение

3.8. Нормальный закон распределения

3.9. Функции случайных величин

3.10. Понятие о характеристических функциях

3.11. Зависимые случайные величины

3.12. Предельные теоремы теории вероятностей

3.13. Закон больших чисел

3.14. Принцип практической уверенности

МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

4. Статистическое оценивание

4.1. Предмет математической статистики

4.2. Терминология прикладной и математической статистики

4.3. Точечные оценки.

4.4. Оценки для математического ожидания и дисперсии



4.5. Оценки параметров распределений

4.6. Оценка закона распределения на основе опытных данных

4.7. Интервальные оценки

4.8. Доверительный интервал для математического ожидания

4.9. Доверительный интервал для вероятности события

4.10. Регрессионный анализ. Оценки по методу наименьших квадратов

5. Проверка статистических гипотез

5.1. Основные понятия

5.2. Критерий согласия 2 (хи-квадрат)

5.3. Проверка параметрических гипотез

5.4 Проверка гипотезы о равенстве двух математических ожиданий

6. Статистическое моделирование

6.1. Понятие о случайных числах

6.2. Моделирование случайных величин

6.3. Решение математических задач с помощью случайных чисел

6.4. Моделирование случайных процессов Приложение Литература Предисловие Предлагаемое учебное пособие написано на основе курсов по теории вероятностей и математической статистике, читаемых авторами в течение многих лет студентам разных специальностей, начиная от технических и кончая экономическими.

При относительном обилии учебной литературы по теории вероятностей и математической статистике сохраняется потребность в небольшом по объему учебнике, в котором бы скупо отобранный теоретический материал был изложен четко, кратко, без излишней математической формалистики. Авторы старались изложить предмет просто и наглядно, не стремясь к полной математической строгости.

Поэтому некоторые факты приведены без доказательства, или доказываются не вполне строго.

Первая глава книги посвящена основным понятиям и формулам комбинаторики. Перед чтением раздела по теории вероятностей эту главу следует основательно проработать, или освежить в памяти основные факты, если знакомство с комбинаторикой состоялось ранее.

Содержание книги охватывает помимо традиционных разделов теории вероятностей вопросы статистического моделирования. Отдельный раздел посвящен понятию простейшего потока событий. Это позволяет шире раскрыть перед учащимися возможные приложения изучаемых методов.





В пособии разобрано большое количество примеров и приведены задачи для самостоятельного решения. Это позволяет учащимся, например, при дистанционном обучении не только усвоить теоретический материал, но и приобрести навыки решения задач, и навыки вероятностных суждений. При подборе примеров и задач были использованы отечественные и иностранные источники, некоторые задачи составлены авторами самостоятельно.

Книга будет полезной для всех студентов нематематических специальностей, которые изучают теорию вероятностей и математическую статистику. Читатели, желающие ознакомиться с теорией вероятностей в меньшем объеме, могут пропустить некоторые параграфы. Например, учащиеся экономических специальностей могут пропустить параграф о характеристических функциях и большую часть параграфа о преобразованиях случайных величин.

В книге принята нумерация формул и рисунков внутри каждой главы, а примеры нумеруются заново в каждом параграфе. Знак означает начало решения, а знак - окончание решения, этот же знак используется, чтобы подчеркнуть, что рассуждение или доказательство закончено.

В ответах к решенным задачам наряду с точным ответом часто приводится его грубое приближенное значение. Это сделано из желания придать ответу большую наглядность. Например наряду с Р(А) = 85/249 пишется 1/3, подчеркивая тем самым, что на появление события А имеется приблизительно один шанс из трех.

–  –  –

Подсчитаем число способов составить новое множество, взяв из каждого исходного множества по одному элементу.

Элемент а из первого множества можно выбрать t способами, элемент b из второго - s способами, элемент с можно выбрать k способами и т. д. Пару элементов а b можно составить t s способами.

Это следует из табл. 1, в которой перечислены все способы такого выбора.

–  –  –

В этой таблице k строк и t s столбцов. Поэтому искомое число способов выбора трех элементов а b c равно t s k. Продолжая рассуждать подобным образом, получим следующее утверждение.

Основной комбинаторный принцип: Пусть некоторый первый выбор может быть сделан t различными способами, для каждого первого выбора некоторый второй выбор может быть сделан s способами, для каждой пары первых двух некоторый третий выбор может быть сделан k способами и т. д. Тогда число способов для последовательности таких выборов равно t s k ….

Рассмотрим множество каких-либо элементов {а1, а2,..., аn }.

Назовем это множество генеральной совокупностью. Произвольное множество, составленное из r элементов генеральной совокупности, называется выборкой объема r из этой совокупности. Наглядно можно представить, что элементы выбирают один за другим. При этом возможны два способа выбора.

1. Выбор повторный, при котором каждый раз выбор производится из всей совокупности и один и тот же элемент может быть выбран более одного раза (в этом случае говорят о повторной выборке).

2. Выбор бесповторный, при котором каждый выбранный элемент удаляется из генеральной совокупности и выборка не содержит повторяющихся элементов (выборка бесповторная).

Возникает вопрос: сколькими способами можно сделать выборку объема r из данной совокупности?

В случае повторной выборки каждый по порядку элемент может быть выбран n способами. Согласно комбинаторному принципу, такую выборку можно сделать nr способами. Например, из трех элементов {а, b, c} можно сделать 32 = 9 повторных выборок по два элемента : аа; ab; ba; ac; ca;

bb; bc; cb; cc.

В случае бесповторной выборки первый элемент можно выбрать n способами, для второго остается n – 1 возможность выбора, третий элемент можно выбрать n – 2 способами и т. д. Элемент выборки с номером r можно выбрать n - r + 1 способом. Согласно комбинаторному принципу, общее число бесповторных выборок объема r равно n( n – 1 )( n – 2 )... ( n - r + 1) = Аnr.

Число Аnr называют числом размещений из n элементов по r.

Например, существует А32 = 32 = 6 размещений из трех элементов по два:

ab; ba; ac; ca; bc; cb. Отметим, что и в первом случае и во втором выборки отличаются либо составом элементов, либо порядком выбора элементов.

Выделим особо случай, когда один за другим выбраны все n элементов. При n = r имеем

–  –  –

называют числом перестановок из n элементов.

Например, пять человек могут встать в очередь 5! = 5 4 3 2 1= 120 способами. Три элемента {а, b, c} можно переставить 3! = 3 2 1 = 6 способами: abc, acb, bac, bca, cab, cba.

Подсчитаем количество бесповторных выборок объема r, которые отличаются друг от друга только составом элементов. Пусть Х – число таких выборок. Для каждого набора из r элементов можно выбрать порядок их расположения r! способами. Тогда Х r! равно числу способов выбрать r различных элементов и выбрать порядок их расположения, т.е.

равно числу размещений из n элементов по r:

–  –  –

Это число называют числом сочетаний из n элементов по r и обозначают через Сnr. Если в формуле (1.1) умножить числитель и знаменатель на (n – r )!, то

–  –  –

n! 0!

При повторном выборе из n элементов число выборок объема r, которые отличаются только составом равно C rn + r 1. Еще раз подчеркнем, что речь идет о выборках, которые отличаются хотя бы одним элементом, а порядок выбора этих элементов во внимание не принимается. Число таких выборок можно подсчитать следующим образом. Между элементами а1, а2,.

.., аn поставим разграничительные знаки, например, нули: а1 0 а2 0... 0 аn.

Таких знаков (нулей) понадобится n – 1.На месте каждого элемента поставим столько единиц, сколько раз предполагается выбрать этот элемент.

Например, комбинация 1 1 1 1 0 1 0 0 1 1 1 0 … 0 1 1 означает, что элемент а1 выбран четыре раза, элемент а2 выбран один раз, элемент а3 не выбран,..., элемент аn выбран два раза. Заметим, что в такой записи нулей и единиц число единиц равно объему выборки r. Для перебора всех возможных

–  –  –

Пример 1. Сколько нужно издать словарей для пяти языков, чтобы можно было непосредственно переводить с одно языка на другой?

Для составления словаря выбираем из пяти языков (n = 5) любых два (r = 2).

Выбор бесповторный, причем при выборе важен и состав выбора и порядок выбора.

Поэтому искомое число словарей равно А52 = 5 4 = 20.

Пример 2. Сколько сообщений можно послать посредством 7 знаков точек или тире?

Выбор знака производится из множества двух элементов: точка или тире (n = 2).

Повторным способом выбирается семь элементов (r = 7). Поэтому число различных сообщений равно 27 = 128.

Пример 3. Сколько комбинаций из четырех букв можно составить? Сколько из них содержат только разные буквы?

Из совокупности 33 букв (n = 33) необходимо выбрать 4 буквы (r = 4). Если запрета на повторение букв нет, то выбор повторный и общее число комбинаций равно (33)4 = 1 185 921. Если необходимо иметь только разные буквы, то выбор бесповторный и общее число комбинаций равно А33 = 33323130 = 982 080.

Пример 4. Сколькими способами можно разложить 8 книг на две пачки по 4 книги в каждой? Сколькими способами можно разложить эти книги на четыре пачки по две книги в каждой? Сколькими способами можно разослать эти книги восьми различным адресатам?

1. Для разделения книг на две равные пачки достаточно из восьми книг (n = 8) выбрать бесповторным способом любые четыре (r = 4) для первой пачки, причем нас интересует только состав выбора, а остальные книги оставить для второй пачки.

Поэтому общее число способов равно числу сочетаний из восьми элементов по 8!

четыре, т.е. С 8 = = 70.

4! 4!

2. Для комплектации четырех пачек по две книги в каждой необходимо сначала бесповторным способом выбрать состав первой пачки ( С 8 = 28 способов). Затем из оставшихся шести книг выбрать две книги для второй пачки ( С 6 = 15 способов), после этого из оставшихся четырех книг выбрать две книги для третьей пачки ( С 4 = С 6 способов), а оставшиеся две книги составят четвертую пачку (формально, =1 способ). Заметим, что при каждом выборе мы интересовались только составом. По комбинаторному принципу для описанной последовательности выборов существует 28156 = 2520 способов.

3. Рассылка восьми адресатам по одной книге каждому означает перестановку из 8 элементов, т.е. имеется 8! =87654321 = 40 320 способов.

–  –  –

Пример 5. Сколькими способами можно составить трехцветный флаг из трех равных по ширине и параллельных полос, если имеется материал пяти цветов?

Для составления трехцветного флага нужно из пяти цветов (n = 5) выбрать три различных цвета (r = 3), иначе флаг не будет трехцветным. При выборе нас интересует состав выбора и порядок следования цветов. Поэтому число трехцветных флагов в нашем случае равно числу размещений из пяти по три, т.е. равно А5 = 543 = 60.

Пример 6. Каких чисел от 0 до 10 000 000 больше — тех, в записи которых встречается единица, или тех, в записи которых нет ни одной единицы?

Для того чтобы записать семизначное число, в записи которого нет ни одной единицы, необходимо повторным способом из 9 цифр (0,2,3,4,5,6,7,8,9) выбрать 7 цифр. Это можно сделать 9 = 4 769 847 5 10 способами. Следовательно, среди первых 10 миллионов чисел больше тех, в записи которых единица есть.

Пример 7. Каждый из 10 студентов может явиться на зачет в любой из двух назначенных дней.

Сколькими способами могут студенты распределиться по дням явки на зачет? Сколькими способами могут распределиться студенты по дням явки на зачет, если каждый день должны сдавать зачет по пять студентов?

При распределении по дням явки каждый из 10 студентов производит выбор между двумя возможностями. По комбинаторному принципу всего способов выбора имеется 210 = 1024. Если же в каждый из дней должно явиться на зачет по 5 студентов, то достаточно выбрать студентов для первого дня зачета, а остальные будут сдавать зачет во второй день. Из 10 студентов (n = 10) следует выбрать бесповторным способом 5 студентов (r = 5), причем нас интересует только состав выбора. Поэтому возможных комбинаций будет С 10 = 252.

Пример 8. В некотором государстве не было двух жителей с одинаковым набором зубов.

Какой может быть наибольшая численность населения в этом государстве?

В отношении каждого из 32 зубов может быть две возможности: есть этот зуб или его нет. Выбор из этих двух возможностей нужно произвести 32 раза. Поэтому число всех мыслимых комбинаций равно 232 = 4 294 967 296.

Пример 9. Сколькими различимыми способами можно переставить между собой буквы:

а) А1, А2, В1, В2, В3 ; б) А, А, В1, В2, В3 ; в) А, А, В, В, В ?

а) Так как все буквы различны, то число перестановок из них равно 5! = 5 4321 = 120.

б) В этом случае каждая пара перестановок, которые отличаются только порядком расположения букв А, например, А1, В1, А2, В2, В3 и А2, В1, А1, В2, В3, сливается в одну перестановку А, В1, А, В2, В3. Поэтому различимых перестановок будет 120/2 = 60.

в) Итак, имеется 60 перестановок, которые отличаются друг от друга либо местами расположения букв В1, В2, В3, либо порядком расположения этих букв на данных местах. Всего перестановок букв В1, В2, В3 на заданных трех местах существует 3! = 6. Поэтому при потере индексов у букв В1, В2, В3 различимых комбинаций будет 60/6 = 10.

Заметим, что число различимых перестановок равно числу способов выбрать из пяти мест различных два места и поставить на них буквы А, а на остальные места поставить буквы В. Это число равно С 5 = 10.

2. ВЕРОЯТНОСТИ СОБЫТИЙ 2.1 Алгебра событий

Теория вероятностей – математическая наука, изучающая закономерности в случайных явлениях. Как наука математическая, она при описании окружающего нас мира пользуется набором строго определенных понятий, символов и операций над этими символами. Одним из основных понятий в теории вероятностей является понятие события. Событие определяется тем, произошло или не произошло некоторое явление. Например, событиями будут изготовление детали и попадание в цель при выстреле, солнечное затмение и безотказная работа прибора, выпадение дождя и автомобильная авария.

Приведенное определение события для математического анализа не пригодно. Известно, что «в теоретических науках нельзя пользоваться ни микроскопом ни химическими реактивами, и то и другое должна заменить сила абстракции». Математика использует абстракции наибольшей силы. В рамках теории вероятностей мы отвлекаемся от всех несущественных для математического анализа свойств события, и с этой точки зрения событие имеет только одно свойство появляться или не появляться. Именно такие абстрактные события мы и будем рассматривать. Обычно события обозначают большими латинскими буквами А, В, С, и т. д., с индексами или без них.

В окружающем нас мире события взаимосвязаны, поэтому естественно рассматривать события не сами по себе, а на фоне комплекса условий, которые его порождают. Иначе говоря, события в теории вероятностей рассматривают как результат некоторого опыта, происходящего в природе по нашей воле, независимо от нее, или вопреки нам. Это позволяет дать событиям следующую классификацию.

1. Если при каждом воспроизведении опыта событие неизбежно происходит, то его называют достоверным событием.

2. Если при воспроизведении опыта событие произойти не может, то его называют невозможным событием.

3. Если при воспроизведении опыта событие может произойти, а может и не произойти, то событие называют случайным.

Например, при температуре 20оС и атмосферном давлении (комплекс условий) вода находится в жидком состоянии (достоверное событие), а в твердом состоянии находиться не может (невозможное событие).

Случайными событиями, например, будут: результат подбрасывание монеты или игрального кубика; безотказная работа некоторого механизма в течение заданного времени; наследование потомками определенной комбинации генов родителей.

Рассмотрим множество W всех событий, которые можно наблюдать в эксперименте при фиксированном комплексе условий. Для событий из множества W введем в рассмотрение следующие понятия.

1.Событие, состоящее в наступлении хотя бы одного из двух событий А или В, называется их суммой (или объединением) и обозначается А + В (или АВ).

2. Событие, состоящее в наступлении событий А и В, называется их произведением (или пересечением) и обозначается А В (или А В).

3. Событие, состоящее в том, что событие А не появилось, называется противоположным событием и обозначается А.

Приведенные понятия можно проиллюстрировать следующим образом.

Пусть комплекс условий состоит в том, что внутрь прямоугольника наугад бросают точку. Обозначим через А попадание точки внутрь левого круга, а через В – внутрь правого круга. Тогда события А + В, А В и А состоят в попадании точки внутрь областей, закрашенных на соответствующей части рис.2.1.

АВ А+В А Рис.2.1 4, Если при каждом воспроизведении опыта оба события или происходят или оба не происходят, то их называют эквивалентными или равносильными и записывают этот факт: А = В.

Заметим, что все достоверные события равносильны между собой, поскольку мы рассматриваем события лишь с точки зрения их появления или не появления. Поэтому введем в рассмотрение одно достоверное событие, которое станем обозначать через. Из тех же соображений введем в рассмотрение одно невозможное событие и обозначим его через.

5. События называются несовместимыми, если их совместное появление в одном и том же опыте невозможно, т.е. АВ =.

6. Говорят, что события А1, А2,..., Аm образуют полную группу событий, если они попарно несовместимы и А1 + А2 +... + Аm =, т.е. в каждом опыте непременно происходит одно и только одно из этих событий.

7. Непустое множество событий W называется алгеброй событий, если оно удовлетворяет следующим условиям:

а) если А W, то и А W;

б) если А, В W, то А + В W и АВ W.

Отметим, что введенные понятия суммы, произведения и противоположного события соответствуют логическим элементам «ИЛИ».

«И», «НЕ». Так, например, фразу «Событие А произойдет, если не произойдет событие В или произойдут события С и D» можно записать символически: А = В + СD. Указанное соответствие, позволяя переводить словесные рассуждения в символическую запись, нередко дает возможность формализовать задачу. Например, пусть Аi означает безотказную работу i – го элемента участка электрической цепи (рис. 2.2 ). Безотказная работа этого участка цепи (событие А) эквивалентна безотказной работе первого элемента или второго и третьего или четвертого элементов. Поэтому А = (А1 + А2) (А3 + А4).

–  –  –

Как было отмечено, всякое событие мы рассматриваем как результат некоторого эксперимента или опыта, проистекающего в природе по воле человека или независимо от нее. Однако теория вероятностей имеет дело не с любыми экспериментами, а лишь с экспериментами, обладающими свойством статистической устойчивости, которое состоит в следующем.

Пусть событие А является результатом некоторого опыта. Повторим этот опыт в неизменных условиях n раз и обозначим через k число появлений события в этих n опытах. Тогда число k/n называется частотой события в данной серии опытов. Свойство же устойчивости частот заключается в том, что если проделать несколько достаточно больших серий опытов, то частоты события в каждой из этих серий будут близки между собой, несмотря на случайный результат каждого отдельного опыта.

Пусть, например, на некотором производстве в одинаковых технологических условиях изготовлены две партии приборов. Первая партия состоит из n1 приборов, вторая - из n2. Пусть в течение некоторого времени t в первой партии k1 приборов работало безотказно, а во второй безотказно проработало k2 приборов. При больших n1 и n2 величины k1/n и k2/n будут мало отличаться друг от друга (это и есть устойчивость частот!). Этот факт является отражением некоторой вероятностной закономерности, которая объективно связывает срок безотказной работы прибора с технологией его изготовления и материалами, из которых он сделан.

Именно такие закономерности (точнее, их математические модели) и являются предметом изучения теории вероятностей. Поэтому теорию вероятностей можно определить как математическую дисциплину, предметом изучения которой являются модели соотношений между частотами эмпирически наблюдаемых событий.

Впервые факты устойчивости частот были замечены более трехсот лет назад при обработке материалов демографической статистики и при многократных подбрасываниях игрального кубика. Устойчивость частоты легко пронаблюдать, если проделать две достаточно большие серии подбрасываний монеты и затем сравнить частоты выпадений герба в каждой серии.

При фиксированном комплексе условий каждому событию можно поставить в соответствие некоторое вполне определенное число, которое называют вероятностью этого события и которое можно рассматривать как меру возможности появления события в отдельном опыте. Так как вероятностные закономерности проявляются при большом числе опытов и связаны с устойчивостью частот, то вероятность события соответствует представлению о частоте события в большой серии опытов. Понятие частоты события и послужило основой для следующего определения.

Статистическое определение вероятности.

Событие А имеет вероятность, если:

1) можно, по крайней мере принципиально, произвести в неизменных условиях неограниченное число независимых друг от друга опытов, в каждом из которых событие А может произойти или не произойти;

2) для каждой большой серии опытов замечено, что частота события незначительно отличается от некоторого (вообще говоря, неизвестного) постоянного числа.

Это число называют вероятностью события А и обозначают через Р(А).

В качестве его значения может быть принята частота события при большом числе опытов или число, близкое к ней.

Еще раз подчеркнем, что в математическом смысле о вероятности можно говорить как о закономерности, проявляющейся в массовых случайных явлениях. Во всех остальных случаях мы имеем дело с интуитивными вероятностями, которые характеризуют лишь степень нашей личной уверенности в появлении события. Например, о вероятности победы Наполеона в битве при Ватерлоо можно говорить не в объективном смысле, а лишь в интуитивном, так как никакой повторяемости «опытов» здесь нет.

Приписывая каждому событию А вероятность Р(А), мы тем самым утверждаем, что между этим событием и тем комплексом условий, при котором событие наблюдается, существует объективная взаимосвязь.

Например, если Р(А) =, то эта взаимосвязь проявляется в следующем:

несмотря на то, что результат каждого опыта является случайным и заранее предсказан быть не может, в большой серии опытов примерно их часть приводит к появлению события А.

В некоторых простейших случаях определение вероятностей событий можно свести к задачам комбинаторики. Рассмотрим эти случаи.

Пусть опыт имеет n возможных исходов. Исходы опыта, при которых появляется событие А, называют исходами, благоприятствующими этому событию. Например, из 20 деталей, среди которых 5 бракованных, выбираются наугад две детали. Такой опыт имеет С20 = 190 возможных исходов, из которых С15 = 105 благоприятствуют событию: «выбраны две годные детали».

Классическое определение вероятности:

Если исходы опыта равновозможны, то вероятностью события A называется отношение числа исходов, благоприятствующих данному m событию, к числу всех возможных исходов опыта, т.е. P (A) =, где m n

- число исходов опыта, благоприятствующих событию, а n – число всех возможных исходов.

Важнейшим условием применения классического определения вероятности является равновозможность всех исходов опыта. Если в приведенном выше примере детали были предварительно тщательно перемешаны, то равновозможен выбор любой пары из них. Поэтому вероятность выбрать две годные детали равна Р = 105/190 0,55.

Если, например, монета симметрична, то применимо классическое определение вероятности и вероятность выпадения герба равна. Если же монета не симметрична, то условие равновозможности нарушено. Хотя попрежнему исходов два и один из них благоприятствует выпадению герба.

Остается воспользоваться статистическим определением вероятности. Для этого нужно подбросить монету хотя бы несколько десятков раз и определить частоту выпадения герба, которая и будет приближенным значение вероятности выпадения герба.

Перечислим основные свойства вероятностей, вытекающие из определения:

1. Вероятность любого события – есть число, заключенное между нулем и единицей, т.е. 0 Р(А) 1.

Действительно, если событию А благоприятствует m исходов из n, то 0mn 0 m n. откуда = 1. Отметим, что вероятность 0= nnn невозможного события равна 0, так как такому событию не благоприятствует ни один исход,

–  –  –

Д о к а з а т е л ь с т в о. Пусть эксперимент имеет n равновозможных исходов, из которых m1 благоприятствуют событию В, а событию С благоприятствуют m2 исходов. Так как события несовместны, то среди исходов нет благоприятствующих и тому и другому событию одновременно. Поэтому событию В + С благоприятствуют m1 + m2 исходов. Следовательно

–  –  –

3. Вероятность любого события А в сумме с вероятностью противоположного события А равна единице: Р ( А ) + Р( А ) = 1.

В самом деле, при каждом осуществлении комплекса условий непременно произойдет одно из событий А или А, т.е. А + А =. Откуда в силу несовместности событий А и А по свойству 2 имеем Р (А + А ) = Р (А) + Р ( А ) = Р () = 1.

Если вероятность интересующего нас события А по каким - либо причинам вычислить трудно, то можно попытаться вычислить вероятность противоположного события, а затем с помощью свойства 3 вычислить искомую вероятность события А.

Названные свойства вероятностей можно было бы вывести и из статистического определения вероятности. Рассмотрим теперь несколько примеров вычисления вероятностей.

Пример 1. Брошены две игральные кости. Найти вероятности следующих событий:

А - на обеих костях выпало одинаковое число очков;

В - число очков на первой кости больше, чем на второй;

С - сумма числа очков четная;

D - сумма числа очков больше двух.

Число очков, благоприятствующих каждому из названных событий, легко подсчитать, если все возможные исходы опыта перечислить в виде таблицы.

В каждой клетке табл.1 первая цифра указывает число очков на первой кости, вторая на второй кости.

–  –  –

Если кости симметричны и однородны, то все перечисленные исходы опыта равновозможны. Непосредственный подсчет числа благоприятствующих исходов дает Р(В) = 15/36 = 5/12, Р(С) = 18/ 36 = 1/2, Р(D) =35/36.

Р(А) = 6/36 = 1/6,

–  –  –

Пример 3. Каждый из пяти студентов может сдавать зачет в один из пяти назначенных дней.

Выбор каждым студентом любого дня равновозможен. Какова вероятность того, что каждый день на зачет будет приходить только один из этих студентов? Если студентов три, а дней пять, то какова вероятность того, что эти студенты явятся на зачет в разные дни?

Каждый из пяти студентов может выбрать любой из пяти дней, поэтому по дням явки на зачет студенты могут распределиться 55 способами. Благоприятствующие способы можно перебрать, если распределить студентов по одному на каждый день и рассмотреть всевозможные их перестановки. Таких перестановок существует А5 = 5! = 120. Поэтому вероятность явки каждый день по одному студенту равна Р = 5! / 55 = 24 / 625.

Если студентов три, то возможных способов явки 53, а благоприятствующих из них А5 = 5 4 3 = 60 (первый может явиться в любой из 5 дней, второй

- в любой из 4 дней, третий - в любой из оставшихся 3 дней). Вероятность интересующего нас события равна р = 60/125 1/2.

Пример 4. За семь дней недели независимо друг от друга происходит семь событий (скажем, семь аварий).

Какова вероятность того, что каждый день будет происходить по одному событию?

Для наглядности представим себе семь ящиков и семь шариков. Тогда распределение событий по дням недели равносильно раскладке шариков по ящикам.

Первый шар можно положить в любой из семи ящиков, второй — так же в любой из семи и т. д., поэтому, согласно комбинаторному принципу, всех возможных способов

77. Для получения числа способов, благоприятствующих раскладки имеется интересующему нас событию (событие А), разложим по одному шарику в каждый ящик, а затем станем менять шарики местами. Тогда число благоприятствующих способов равно числу перестановок из семи элементов, т.е. равно 7!. В итоге Р(А)= 7! / 77 1/165.

Пример 5. При раздаче тщательно перемешанных карт (в колоде 36 карт) игрок получает шесть карт.

Какова вероятность того, что игрок получит два туза, два короля и две дамы любой масти?

Шесть карт данному игроку можно сдать С 36 способами, так как выбор бесповторный и нас интересует только состав выбора. Выбрать два туза, два короля и две дамы можно С 4 С 4 С 4 = 6 = 216 способами. Поэтому искомая вероятность равна Р = 216 / = 9/81158 0,0001.

С 36 Пример 6. Вы являетесь одним из 8 человек, среди которых по жребию распределяется три выигрыша. В розыгрыше каждого выигрыша участвуют все 8 человек.

Найдите вероятности следующих событий: А = {Вам достанутся все выигрыши};

В = {Вы не получите ни одного выигрыша}; С = {Вам достанется хотя бы один выигрыш}.

Три выигрыша среди 8 человек могут быть распределены 8 = 512 способами.

Событию А благоприятствует только один из этих способов распределения выигрышей.

Поэтому Р(А)= 1/512. Если каждый раз выбор будет производиться среди остальных 7 человек ( это можно сделать 73 = 343 способами), то Вам не достанется ни одного выигрыша. Поэтому вероятность события В равна Р(В) = 343/512. Событие С противоположно событию В. Поэтому Р(С) = 1 – Р(В) = 1 - 343/512 = 169/512.

Область применения классического определения вероятности – испытания с конечным числом равновозможных исходов. Существенным является условие равновозможности. От конечности числа исходов опыта можно отказаться и определять вероятности не с помощью числа исходов, а с помощью отношения длин, площадей и т. д., но при сохранении условия равновозможности.

Геометрическое определение вероятности: Пусть область g принадлежит области G.

Если равновозможно попадание точки в любую точку области G, то вероятность попасть в область g равна отношению меры области g к мере области G:

–  –  –

где «мера» – означает:

1) длину, если область G часть прямой или кривой линии;

2) площадь, если G часть плоскости;

3) объем, если G часть пространства, и т. д. в зависимости от характера области G.

Пример 7. Отрезок [ 0, 1] наугад делят на три части.

Какова вероятность того, что из этих трех частей можно сложить треугольник?

Обозначим первую из полученных частей отрезка через х, а вторую – через у.

Тогда оставшаяся третья часть равна 1 - х - у. В треугольнике сумма двух любых сторон больше третьей стороны.

Поэтому из частей отрезка получится треугольник, если выполнятся неравенства:

х + у 1 - х - у; у 1/2 - х;

х + (1 - х - у) у; у 1/2;

у + (1- х - у) х. х 1/2.

Возможные значения для пары (х,у) составляют треугольник T с вершинами (0;0), (0;1), (1;0). Системе неравенств соответствует заштрихованный треугольник D на рис.2.3, площадь которой равна 1/4 площади треугольника T. Поэтому искомая вероятность, как отношение площади указанных треугольников, равна 1/4.

–  –  –

Пример 8. Две радиостанции течение часа независимо друг от друга должны передать сообщения длительностью 10 мин каждое.

Какова вероятность того, что сообщения не перекроются по времени.

Пусть х – момент начала сообщения первой радиостанции, а у – момент начала второго сообщения. Для того, чтобы сообщения уложились в отведенный час, должны выполняться условия: 0 х 50 мин; 0 у 50 мин. Сообщения не перекроются во у х 10. Этому условию удовлетворяют точки времени, если выполнится условие заштрихованных областей на рис. 2.4

–  –  –

Так как все положения точки (х,у) в квадрате 5050 равновозможны, то искомая вероятность равна отношению заштрихованной площади, которая равна 4040, к площади всего квадрата. Поэтому Р = (4040)/(5050)= 16/25 2/3.

–  –  –

1. Десять команд случайным образом (по жребию) разбиваются на две равные подгруппы. Какова вероятность того, что две сильнейшие команды попадут в разные подгруппы? … в одну подгруппу? … в первую подгруппу? Ответ: 5/9; 4/9; 2/9.

–  –  –

3. Четыре человека вошли в лифт на первом этаже девятиэтажного дома. Считая, что равновозможен выход каждого пассажира на любом из этажей со второго по девятый, найти вероятность того, что: а) все пассажиры выйдут на разных этажах; б) все пассажиры выйдут выше пятого этажа; в) на третьем этаже не выйдет ни одного Ответ: а) 105/256; б) 1/16; в) 2401 / 4096 0.59.

пассажира.

4. Наугад выбираются четыре цифры и расставляются в случайном порядке. Какова вероятность того, что получится четырехзначное число? Какова вероятность того, что это четырехзначное число делится на 5? Ответ: 0,9; 0,18.

5. Имеется 20 экзаменационных билетов, разложенных на столе в случайном порядке. Десять студентов один за другим выбирают наугад по одному билету.

Какова вероятность того, что билеты с номерами 1 и 2 не будут выбраны? Ответ: 9/38.

6. Из урны, в которой лежат, 6 белых, 4 черных и 2 красных шара, наугад выбирают четыре шара. Какова вероятность того, что среди них только черные и красные шары? Ответ: 1/33.

–  –  –

9. В шкафу лежат вперемежку пять пар ботинок. Наугад выбирается два ботинка Какова вероятность того, что они образуют пару. Ответ: 1/9.

–  –  –

2.3. Понятие о вероятностной модели В рамках теории вероятностей создаются и изучаются математические модели экспериментов, исходы которых случайны. Для исчерпывающего описания такого эксперимента с вероятностной точки зрения необходимо прежде всего указать множество всех возможных исходов эксперимента. Это множество называют обычно пространством элементарных событий и обозначают через. Если состоит из конечного числа элементов, то любое подмножество множества является событием. В классическом определении вероятности мы элементы таких подмножеств называли благоприятствующими исходами. Все пространство возможных исходов естественно отождествить с достоверным событием. Например, при трех подбрасываниях монеты множество возможных исходов имеет вид = {Г Г Г, Г Г Ц, Г Ц Г, Ц Г Г, Г Ц Ц, Ц Г Ц, Ц Ц Г, Ц Ц Ц }, где Г – означает выпадение герба, а Ц – выпадение цифры. Событие А = {Г Г Ц, Г Ц Г, Ц Г Г } состоит в выпадении только двух гербов, а событие В = {Г Г Г, Ц Ц Ц} – означает, что все три раза монета выпала одной и той же стороной.

Класс событий (подмножеств множества ), замкнутый относительно конечного числа операций объединения, пересечения, перехода к противоположному событию, был выше назван алгеброй событий. Если алгебра состоит из бесконечного множества событий, то при решении задач приходится рассматривать бесконечные последовательности событий и операций над ними. Простейшими такими операциями являют объединения и пересечения бесконечных последовательностей событий. Объединение событий состоит в появлении хотя бы одного из бесконечной UА k k =1 последовательности событий А1, А2, …, Аn,... а пересечение -в IА, k k =1 появлении всех событий последовательности в одном и том же опыте.

Если алгебра событий такова, что с каждой счетной последовательностью событий она содержит их пересечение и объединение, то такую алгебру называют -алгеброй событий.

Задание -алгебры определяет класс событий, доступных для изучения.

Остается наделить каждое событие -алгебры некоторой вероятностью.

Можно, например, просто постулировать существование некоторой вероятностной меры и определить ее с помощью набора аксиом.

Аксиоматическое определение вероятности:

1. Каждому случайному событию А поставлено в соответствие неотрицательное число Р(А), называемое его вероятностью.

2. Р() = 1.

3. Если события А1, А2, …, Аn,... попарно несовместимы, то

–  –  –

Названные аксиомы позволяют приписывать непротиворечивым образом вероятности всем событиям из -алгебры.

Если задано пространство элементарных исходов, указана -алгебра Событий А, выбрана вероятностная мера Р, которая согласуется с реальными наблюдениями, то случайный эксперимент с вероятностной точки зрения описан полностью. Тройка объектов (, А, Р) называется вероятностным пространством, которое и служит математической моделью случайного эксперимента.

2.4.Теорема умножения вероятностей.

При фиксированном комплексе условий каждое событие А имеет определенную вероятность. Пусть помимо комплекса условий стало известно, что произошло некоторое событие В. Как эта информация изменяет вероятность события А? Можно первоначальный комплекс условий дополнить фактом появления события В и по отношению к этому новому комплексу условий вычислить вероятность события А. Но можно, оставаясь в рамках первоначального комплекса условий, учесть влияние события В на возможность появления события А. Для этого вводятся в рассмотрение условные вероятности.

О п р е д е н и е. Вероятность события А, вычисленная при условии, что событие В произошло, называется условной вероятностью события А и обозначается через Р(А / В).

Пусть, например, семье двое детей. Согласно статистике вероятность рождения мальчика равна. Равновозможны следующие комбинации: ММ, МД, ДМ, ДД, где первая буква называет пол старшего ребенка. Вероятность того, что в семье есть мальчик (событие А) при условии, что в семье есть девочка (событие В), равна Р(А/B) = 2/3, так как возможны три комбинации МД, ДМ, ДД, а благоприятствуют только две из них. Вероятность события А при условии, что старший ребенок девочка ( событие С), равна Р(А/C) =, так как возможны две комбинации и одна из них благоприятствует.

В общем случае задача нахождения условных вероятностей решается просто. Воспользуемся, например, геометрическими вероятностями. Пусть площадь прямоугольника равна единице. Тогда Р(А) равна численно площади области А (рис. 2.5 ).

–  –  –

О п р е д е л е н и е. События называются независимыми, если появление одного из них не изменяет вероятности появления другого.

Если события независимы, то Р ( А / В ) = Р ( А ), Р ( В / А ) = Р ( В ) и вероятность произведения двух независимых событий равна произведению вероятностей этих событий, т.е.

Р ( АВ ) = Р ( А ) Р ( В ).

З а м е ч а н и е. Необходимо различать вероятностную и причинную зависимости. Причинная зависимость предполагает наличие направленной цепи событий (причина следствие). Для вероятностной зависимости причина и следствие в некоторой степени равноправны. Это видно из формулы (2.3). В теории вероятностей мы рассматриваем события как результат некоторого опыта, не различая в процессе опыта события, происходящие раньше и происходящие позже, а учитывая только как в итоге появление одного из них меняет частоту появления другого.

Теорема умножения вероятностей может быть сформулирована и доказана, например, методом математической индукции для любого конечного числа событий.

Теорема. Вероятность произведения нескольких событий равна произведению вероятностей этих событий, причем вероятность каждого следующего события вычисляется при условии, что предыдущие события произошли, т.е.

Р ( А1 А2 А3... Аn-1 Аn ) =

–  –  –

Подчеркнем еще раз, что перед вычислением вероятности произведения событий, необходимо установить, зависимы события или нет.

Пример 1. Имеется система соединенных между собой элементов (электрическая цепь, поточная линия и т.

д., см. рис. 2.6). Вероятность безотказной работы (надежность) каждого элемента равна 0,9. Элементы выходят из строя независимо друг от друга.

Какова надежность системы?

Рис. 2.6 Пусть событие А состоит в безотказной работе системы, а Аi состоит в безотказной работе i – го элемента. Событие А произойдет, если одновременно произойдут события А1, А2, А3 и А4. Поэтому А = А1А2А3А4, а так как события независимы, то Р(А) = Р(А1 ) Р(А2) Р(А3) Р(А4) = (0,9)4 0,66.

Пример 2. Из 20 деталей 4 имеют скрытый дефект.

Детали выбирают наугад, пока не попадется бракованная. Какова вероятность того, что будет проверено ровно три детали?

Обозначим через А интересующее нас событие, а через Аi – событие, состоящее в выборе годной детали при i – ой попытке. Событие А произойдет, если первая деталь и вторая детали окажутся годными и лишь третья по счету деталь окажется не годной. Это означает, что А = А1А2 А3, причем события зависимы. Поэтому.

Р(А) = Р(А1) РА ( А2 ) РА А ( А3 ) =

–  –  –

Теорема Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:

(2.4) Р ( А + В ) = Р ( А ) + Р ( В ) - Р ( А В ).

Д о к а з а т е л ь с т в о. Событие А + В произойдет, если произойдет событие А или произойдут события В и А, т. е. А + В = А + А В. Событие В произойдет, если произойдут события А и В или произойдут события В и А, т. е. В = А В + А В (см. рис. 2.7). Так как события А и А В, а также события АВ и А В несовместимы, то из свойств вероятности следует, что Р(А + В) = Р( А ) + Р ( А В) и Р(В) = Р(АВ) + Р( А В). Если из последнего равенства выразить Р( А В) и подставить в предыдущее равенство, то получим утверждение теоремы.

–  –  –

Еще раз подчеркнем, что перед вычислением вероятности суммы двух событий следует выяснить, совместны эти события или несовместны, и в зависимости от этого использовать формулы (2.4) или (2.1).

Пример 1. Вероятность попадания в цель первым стрелком равна 0,6, а вторым – 0,7.

Стрелки одновременно выстрелили в цель. Какова вероятность поражения цели?

Пусть А означает попадание первого стрелка, В – попадание второго. Событие С, состоящее в поражении цели, эквивалентно появлению хотя бы одного из событий А или В. Поэтому С = А + В. События А и В независимы и совместимы. С учетом этого Р(С) = Р(А) + Р(В) – Р(А) Р(В) = 0,6 + 0,7 – 0,60,7 = 0,88.

Методом математической индукции можно доказать общую формулу для вероятности суммы конечного числа событий:

–  –  –

Например, для трех совместных событий формула (2.5) имеет вид Р(А + В + С) = Р(А) + Р(В )+ Р(С) – Р(АВ) – Р(АС) – Р(ВС) + Р(АВС).

Если события несовместны, то

–  –  –

Для вычисления суммы большого числа совместимых событий вместо формулы (2.5) часто прибегают к приему, который используется в следующем примере.

Пример 2. Имеется система соединенных между собой элементов (скажем, участок электрической цепи, поточная линия и т.

д., см. рис. 2.8). Вероятность безотказной работы каждого элемента в течение заданного времени (надежность) равна 0,8. Элементы выходят из строя независимо друг от друга. Какова надежность системы?

Рис. 2.8 Пусть событие А состоит в безотказной работе системы в течение заданного времени, а Аi означает безотказную работу i – го элемента в течение того же времени.

Безотказная работа системы равносильна безотказной работе хоты бы одного элемента.

Поэтому А = А1 + А2 + А3 + А4. События Аi совместны. Вместо вычисления вероятности Р(А) = Р(А1 + А2 + А3 + А4) по формуле (2.5 ) вычислим вероятность противоположного события А. Выход из строя системы эквивалентен выходу из строя всех элементов в течение заданного времени, т.е. А = А1 А2 А3 А4. Так как элементы выходят из строя независимо друг от друга, то Р( А ) = Р( А1 ) Р( А2 ) Р( А3 ) Р( А4 ) = (0,2)4 = 0,0016.

Р(А) = 1 – Р( А ) = 1 – 0,0016 = 0,9984 1.

Тогда Пример 3. Вероятности попадания в цель при одном выстреле для первого, второго и третьего стрелков равны соответственно 0,3; 0,6; 0,8. Все три стрелка выстрелили в цель.

Какова вероятность того, что:

а) цель поражена? б) произошло только одно попадание? в) произошло ровно два попадания? г) попадут все три стрелка? д) будет хотя бы один промах?

Обозначим через Аi - cобытие, состоящее в попадании в цель i-го стрелка.

а) Поражение цели (событие А) равносильно появлению хотя бы одного из событий А1 или А2 или А3. Поэтому А = А1 + А2 + А3.

Учитывая совместность событий имеем Р(А) = Р( А1) + Р( А2 ) + Р(А3) Р (А1 А2 ) - Р(А1 А3) - Р(А2 А3) + Р (А1 А2 А3 ), а так как события независимы, то Р(А) =0,3 + 0,6 +0,8 - 0,30,6 - 0,30,8 - 0,60,8 + 0,30,60,8 = = 0,944.

б) Рассмотрим три случая:

1) В1 = А1 А2 А3 - первый стрелок попал в цель и при этом второй не попал и третий не попал.

2) В2 = А1 А2 А3 - первый стрелок не попал и при этом второй попал и третий не попал.

3) В3 = А1 А2 А3 - первый и второй не попали и при этом третий попал.

Только одно попадание в цель ( событие В ) равносильно реализации хотя бы одного из несовместных событий В1 или В2 или В3. Поэтому В = А1 А2 А3 + А1 А2 А3 + А1 А2 А3.

В силу независимости событий Аi имеем Р(В) = 0,3 0,4 0,2 + 0,7 0,60,2 + 0,7 0,4 0,8 = 0,332.

в) Два попадания в цель (событие С ) равносильны реализации хотя бы одного из несовместных случаев: А1А2 А3 или А1 А2 А3 или А1 А2 А3.

В силу независимости событий Аi получаем Р(С) = 0,3 0,6 0,2 + 0,3 0,4 0,8 + 0,7 0,6 0,8 = 0,468.

г) Все три стрелка попадут в цель (событие D), если произойдут события А1 и А2 и А3, т.е. D = А1 А2 А3. В силу независимости событий Аi имеем Р(D) = Р(А1 ) Р (А2 ) Р (А3 ) = 0,3 0,6 0,8 = 0,144.

д) Хотя бы один промах (событие Е ) равносилен появлению хотя бы одного из событий А1 или А2 или А3, т.е. Е = А1 + А2 + А3. Вместо вычисления вероятности суммы трех совместных событий, заметим, что событие Е равносильно не появлению события D. Поэтому Р(Е) = Р( D ) = 1 - Р( D ) = 1 - 0,144 = 0,856.

Пример 4. Вероятность безотказной работы в течение заданного времени (надежность) каждого элемента равна 0,8.

Из этих элементов составлены две системы (рис. 2.9) а) б)

–  –  –

Какая система надежнее? Иначе говоря, что выгоднее в системе дублировать, каждый элемент отдельно или всю систему в целом?

Пусть событие Аi состоит в том, что i - ый элемент работает безотказно.

Безотказная работа первой системы (событие В1) равносильна безотказной работе первого элемента и второго или третьего элемента и четвертого. Символически это В1 = А1 А2 + А3 А4. События А1 А2 и А3 А4 совместны, можно записать в виде а события Аi независимы. Поэтому Р (В1) = Р(А1 А2 ) + Р(А3 А4 ) – Р(А1 А2 А3 А4 ) = = Р(А1) Р(А2 ) + Р(А3) Р( А4) - Р(А1) Р(А2 ) Р(А3) Р( А4) = = (0,8)2 + (0,8)2 - (0,8)4 = 0,8704.

Безотказная работа второй системы (событие В2) равносильна безотказной работе первого элемента или третьего и второго или четвертого, т.е.

В2 = ( А1 + А3) ( А2 + А 4 ). Тогда Р (В2) = Р( А1 + А3) Р ( А2 + А 4 ) = = [ Р(А1) + Р(А3 ) - Р(А1) Р(А3 ) ] [ Р(А2) + Р(А4 ) - Р(А2) Р(А4 ) ] = = ( 0,8 + 0,8 – 0,64 )2 = 0, 9216.

Результаты вычислений свидетельствуют о том, что выгоднее дублировать каждый элемент отдельно.

Пример 5. Вероятность безотказной работы в течение заданного времени (надежность) каждого элемента равна 0,8.

Из этих элементов составлена система (рис.2.10).

Рис. 2.10

Какова надежность системы?

Сохраним обозначения предыдущей задачи. Если элемент с номером 3 не работает, то система совпадает с системой а) из предыдущей задачи. Если же элемент № 3 работает, то система совпадает с системой б) из предыдущей задачи. Поэтому безотказная работа системы (событие D) равносильна событию D = А3 В1 + А3 В2.

События независимы, а события А3 В1 и А3 В2 несовместны. Поэтому с учетом результатов предыдущего примера имеем Р(D) = Р( А3 ) Р(В1) + Р(А3 ) Р(В2) = 0,2 0,8704 + 0,8 0, 9216 = 0,91136.

–  –  –

Пример 7. В партии из 25 деталей 4 бракованных.

Детали выбирают для проверки наугад по одной пока не попадется бракованная. Какова вероятность того, что будет проверено ровно три детали?

Обозначим через А интересующее нас событие, а через А i - событие, состоящее в выборе годной детали при i-м выборе. Событие А произойдет, если первая и вторая детали окажутся годными и лишь третья по счету окажется бракованной. Это означает, что А = А1 А2 А 3, причем события зависимы. Поэтому Р(А) = Р(А1) Р (А2 / А1) Р( А 3 / А1, А2) = = 0,12.

Пример 8. Урна содержит 6 занумерованных шаров с номерами от 1 до 6.

Шары извлекаются по одному без возвращения. Пусть событие А состоит в том, что шары будут извлечены в порядке их номеров, а событие В – в том, что хотя бы один раз номер шара совпадет с порядковым номером его извлечения. Найти вероятности событий А и В и определить предельные вероятности этих событий при неограниченном увеличении числа шаров в урне.

Обозначим через Аi – событие, состоящее в том, что порядок извлечения i-го шара совпадает с его номером. Тогда событие А = А1 А2 А3... А6. Вместо рассмотрения произведения зависимых событий заметим, что шары в указанном порядке можно извлечь только одним способом, а всего равновозможных способов извлечения. При увеличении числа шаров Р(А) 0.

существует 6!. Поэтому Р(А) = = 6! 720 Событие В произойдет, если появится хотя бы одно из событий А1 или А2 или … или А6. Поэтому В = А1 + А2 + А3 + А4 + А5 + А6, причем события совместны. При переходе к противоположному событию придется рассматривать произведение шести зависимых событий Аi, что в данном случае сделать сложно. Поэтому вычислим вероятность суммы непосредственно:

–  –  –

Заметим, что искомая вероятность является частичной суммой ряда Тейлора функции 1 – е-х при х = -1. Поэтому при больших n имеем Р (А1 + А2 + А3 + …+ Аn ) 1 – е-1 0,63.

–  –  –

Р(А) = С С С С С С С С 0,02.

= С С С С

–  –  –

Пример 2. Из полного набора костей домино (28 штук) наугад выбирают одну кость, затем вторую.

Какова вероятность того, что вторую кость можно приставить (в игровом смысле) к первой?

Различают кости двух типов:

а) “Дупель” - кость с одной и той же цифрой на концах. Дупелей семь от “ пусто-пусто” до “шесть-шесть”. Вероятность выбрать сначала дупель равна 7/28 = = 1/4.

б) Обычная кость с разными цифрами на концах. Заметим, что каждая цифра содержится на семи костях, включая дупель. Вероятность в качестве первой кости выбрать обычную кость равна 21/28 = 3/4.

Вторую кость можно будет приставить к первой (событие А), если будет выбран дупель (событие В1) и к нему можно будет приставить вторую кость, или сначала будет выбрана обычная кость (событие В2) и к ней можно будет приставить вторую кость. Символически это можно записать в виде А = В1 А + В2 А. Так как события В1 и В2 несовместны, то Р(А) = Р (В1 А ) + Р(В2 А ) = = Р(В1) Р( А/ В1) + Р(В2 ) Р ( А / В2 ) = (1/4) (6/27) + (3/4) (12/27) = 7/18 1/3.

Пример 3. Имеется две коробки деталей, в каждой из которых по 10 деталей.

В первой коробке среди деталей две низкого сорта, а во второй 4 низкосортных детали. Из первой коробки для нужд производства взяли наугад половину деталей, а оставшиеся высыпали во вторую коробку. Через некоторое время из второй коробки взяли наугад деталь. Какова вероятность того, что это деталь низкого сорта?

Обозначим через А событие, состоящее в выборе из второй коробки детали низкого сорта. Возможность этого выбора зависит от того, какие именно детали были добавлены во вторую коробку. На этот счет можно выдвинуть следующие предположения: В1 - во вторую коробку добавили пять годных деталей; В2 - добавили 1 деталь низкого сорта и четыре доброкачественные; В3 - добавили две детали низкого сорта и три доброкачественные. Пять деталей во вторую коробку можно переложить 10!

= 252 способами. Из них событию В1 благоприятствует С85 = 56, n = С10 = 5! 5!

событию В2 — С 2 С 82 = 2 70 = 140, а событию В3 — С 2 С 83 = 56 способов.

–  –  –

Формулы Байеса позволяют переоценивать вероятности гипотез (событий Вi) с учетом информации, которую содержит в себе факт появления события А. Иногда формулы Байеса интерпретируют следующим образом. В начале некоторого научного исследования имеется n предположений или гипотез В1, В2, …, Вn о природе исследуемого объекта.

На основании уже накопленного опыта гипотезы имеют вероятности Р (В1), Р (В2), …, Р (Вn). Для проверки этих гипотез производится эксперимент, в результате которого происходит событие А. Учитывая информацию, которая содержится в факте появления события А, можно с помощью формул Байеса переоценить первоначальные представления и заменить вероятности Р(Вi) на Р(Вi/A). Вероятности Р(Вi/A) можно использовать в качестве исходных представлений, еще раз повторить эксперимент и на основе его результатов снова переоценить вероятности. Эту процедуру можно повторять, пока вероятность какой-либо гипотезы не станет близкой к единице. Тогда эту гипотезу можно считать практически достоверной.

Пример 1. По каналу связи передают сигналы “0” и “1” с вероятностями 0,3 и 0,7 соответственно.

Под действием помех возникают ошибки приема сигнала. Вероятность принять “1”, если передавался “0”, равна 0,05. Вероятность принять “0”, если передавалась “1”, равна 0,1. Какова вероятность правильного приема сигнала? Если принята “1”, то какова вероятность того, что действительно передавалась “1”?

Обозначим передачу сигнала “1” через В1, а сигнала “0” через В2. Сигнал будет принят правильно ( событие А), если будет передана “1” и она будет принята правильно или будет передан “0” и он будет принят правильно. Тогда А = В1 А + В2 А. В силу несовместности событий В1 и В2 имеем Р(А) = Р(В1 А) + Р(В2 А) = Р(В1) Р(А/ B1) + Р(В2) Р(А/ В2) = = 0,7 0,9 + 0,3 0,95 = 0,915.

Пусть событие С означает, что принят сигнал “1”. При этом условии вычислим вероятность того, что действительно была передана “1”, т.е. вероятность Р(В1/ С ). По формуле Байеса

–  –  –

= 0,9767441 0,977.

Пример 2. Девяносто шесть процентов изделий некоторого производства удовлетворяют стандарту.

Используется упрощенная схема проверки качества, дающая положительный результат с вероятностью 0,98 для стандартных изделий, для нестандартных изделий - с вероятностью 0,05. Изделие выдержало проверку. Какова вероятность того, что оно действительно стандартно?

Факт прохождения контроля обозначим через А. В отношении проверенного изделия можно выдвинуть два предположения: 1) оно стандартно (событие В1); 2) оно нестандартно (событие В2). По условию задачи необходимо найти вероятность Р ( В1 / А ).

По формуле Байеса

–  –  –

= 2352 / 2357 0,9979.

Пример 3. По каналу связи передается одна из последовательностей букв АААА, ВВВВ, СССС с вероятностями соответственно 0,5, 0,4, 0,1.

Каждая передаваемая буква принимается правильно с вероятностью 0,8 и с вероятностями по 0,1 за любую из двух других букв. Предполагается, что искажаются буквы при передаче независимо друг от друга. Найти вероятность того, что передано АААА, если принято АВСА.

Для краткости записи формулы обозначим АААА через Т1, ВВВВ через Т2, СССС через Т3. Тогда по формуле Байеса Р(Т1, / АВСА ) =

–  –  –

0,5 0,8 0,1 0,1 0,8 = 8/9.

= 0,5 0,8 0,1 0,1 0,8 + 0,4 0,1 0,8 0,1 0,1 + 0,1 0,1 0,1 0,8 0,1 Пример 4. В одной урне лежит белый шар, в другой - черный. Урны внешне не различимы. В выбранную наугад урну положили белый шар. Шары перемешали и наугад выбрали один шар. Он оказался белым. Какова вероятность того, что в урне остался тоже белый шар?

Обозначим выбор белого шара через А. В отношении цвета оставшегося шара можно сделать два предположения: В1 - этот шар белый; В2 - этот шар черный.

Вероятности этих предположений Р(В1) = Р(В2) = 1/2. В условиях задачи требуется вычислить вероятность Р(В1 /А). По формуле Байеса

–  –  –

Пример 5. Три стрелка производят по одному выстрелу в одну и ту же мишень.

Вероятности попадания в мишень при одном выстреле для этих стрелков соответственно равны 0,8, 0,7 и 0,6. Какова вероятность того, что третий стрелок промахнулся, если в мишени оказалось две пробоины?

Обозначим через А событие, состоящее в появлении двух пробоин в мишени. В отношении двух пробоин могут быть три предположения: В1 - попали первый и второй стрелки, а третий не попал, вероятность чего равна Р(В1) = 0,8 0,7 0,4 = 0,224;

В2 - попали первый и третий, а второй не попал, вероятность чего равна Р(В2) = = 0,8 0,3 0,6= = 0,144; В3 - попали второй и третий, а первый не попал, вероятность чего равна Р(В3) = 0,2 0,7 0,6 = 0,084.

Заметим, что Р(А /Вi) = 1, i = 1, 2, 3. Тогда по формуле Байеса

–  –  –

0,224 = 56 / 113 1 / 2.

= 0,224 + 0,144 + 0,084 З а м е ч а н и е. Распространенная трактовка формул Байеса, как вероятностей гипотез, не всегда состоятельна. Сравнительно редко можно говорить о вероятностях гипотез в математическом смысле, как это имело место, скажем, в приведенных примерах. Гипотезы не являются случайными событиями, и говорить об их вероятностях зачастую можно лишь как о степени нашей уверенности, возникающей из неполноты знания, т.е. обычно речь идет об интуитивных вероятностях гипотез. Если отдавать себе отчет в том, с какими вероятностями, математическими или интуитивными, приходится иметь дело, то в остальном метод Байеса безупречен.

Некогда формулы Байеса представлялись едва ли не общей схемой научного исследования. В настоящее время они заслуживают рассмотрения потому, что сам принцип переоценки вероятностей на основе опытных данных оказался плодотворным в управлении случайными процессами, в теории статистического оценивания и т. д.

–  –  –

3. Партия транзисторов, среди которых 10% дефектных, поступила на проверку.

Схема проверки такова, что дефект обнаруживается с вероятностью 0,95. Вероятность того, что исправный транзистор будет признан дефектным, равна 0,03. Какова

–  –  –

7. Первая урна содержит один черный и один красный шар, а во второй урне два черных и три красных шара. Из первой урны вынули наугад один шар и переместили его во вторую урну. Затем вынули из второй урны наугад один шар. Какова вероятность того, что были вынуты шары одного цвета? Какова вероятность того, что из первой урны был вынут красный шар, если из второй урны был вынут черный шар? Ответ: 7/12; 2/5.

8. По каналу связи передается одна из двух команд управления в виде кодовых комбинаций 11111 или 00000, причем вероятности этих комбинаций равны соответственно 0,7 и 0,3. Из-за наличия помех вероятность правильного приема каждого символа 0 или 1 равна 0,6 независимо от правильности приема остальных символов. На приемном устройстве получена комбинация 10110. Какова вероятность того, что была передана комбинация 11111?

Ответ: 0,78.

2.8. Повторные независимые испытания

В теории вероятностей и ее приложениях большое значение имеет простая схема случайного эксперимента, которую называют схемой Бернулли или схемой независимых испытаний. Испытания или опыты называются независимыми, если вероятность того или иного исхода каждого опыта не меняется от того, какие исходы имели другие опыты, т.е.

вероятность каждого исхода остается постоянной от опыта к опыту.

Пусть производится n независимых опытов, в каждом из которых может появиться или не появиться событие А. Вероятность появления события А в каждом опыте известна и равна р, а вероятность не появления события равна q = 1 – p. Обозначим через Рn (k) вероятность того, что в n независимых опытах событие А произойдет ровно k раз.

В качестве примеров описанной схемы можно назвать подбрасывания монеты (А – выпадение герба), стрельбу по цели (А - попадание в цель), изготовление деталей при заданном технологическом режиме (А – изготовление бракованной детали) и т. д.

Найдем вероятность Рn (k). Все возможные случаи появления события А ровно k раз в n опытах можно перебрать следующим образом. Возьмем k букв А и n – k букв А и будем их между собой переставлять. Каждая такая перестановка соответствует определенной очередности появлений события А. Например, А А А А... соответствует ситуации, в которой событие появилось в первом опыте, во втором и третьем оно не появилось, затем появилось в четвертом опыте и т.д. Всего различимых перестановок будет столько, сколькими способами можно из n мест выбрать различных k мест и поставить на них букву А, а на остальные А. Это можно сделать Сnk способами. Вероятность каждого из этих способов в силу независимости опытов равна по теореме умножения вероятностей рkqn-k. Появление хотя бы одной из этих несовместимых перестановок приводит к появлению интересующего нас события. Поэтому

–  –  –

Пример 1. Предположим, что 30% студентов данного института занимаются спортом.

Какова вероятность того, что среди первых пяти встречных студентов окажется только один спортсмен? Какова вероятность того, что среди них есть хотя бы один спортсмен? Каково наиболее вероятное число спортсменов среди них?

Так как студентов в институте много (несколько тысяч), то по мере опроса нескольких из них пропорции в оставшейся части практически не изменяются. Поэтому можно считать опрос каждого студента независимым опытом. Всего опытов производится n = 5, а вероятность положительного ответа р = 0,3. По формуле Бернулли имеем Р5 (1) = С 5 0,3 (0,7)4 = 0,36015.

Вероятность хотя бы одного правильного ответа проще вычислять, если перейти к противоположному событию:

Р5(k 1) = 1 - P5 ( 0) = 1 - (0,7)5 = 1 - 0,16807 = 0,83193.

Так как (n + 1) р = (5 + 1) 0,3 = 1,8 (целая часть числа равна 1), то наиболее вероятное число спортсменов среди пяти опрошенных k0 = 1.

Пример 2. На каждый вопрос предлагается три ответа, среди которых следует выбрать один правильный.

Задано пять вопросов. Какова вероятность того, что путем простого угадывания удастся правильно ответить на четыре вопроса? Какова вероятность угадать правильный ответ хотя бы на один вопрос?

Выбор ответа на вопрос можно рассматривать как независимый опыт. Всего таких опытов производится n = 5, а вероятность успеха в каждом опыте равна р = 1/3. Тогда вероятность путем простого угадывания правильно ответить на четыре вопроса равна Р5(4) = С 54 (1/3)4 (2/3)1 = 10/243 1/24.

Вероятность угадать хотя бы один правильный ответ равна

Р5(k 1) = 1 - P5 ( 0) = 1 - (2/3)5 = 1 - 32/243 7/ 8.

Пример 3. Вероятность попадания в цель при выстреле равна 0,3.

Сколько нужно сделать выстрелов, чтобы вероятность поражения цели была больше 0,9?

Каждый выстрел можно рассматривать как независимое испытание, и в каждом из них вероятность появления события (попадания в цель) равна = 0,3. Цель будет поражена, если в n выстрелах будет хотя бы одно попадание, вероятность чего равна Рn (k 1) = 1 - Рn( 0) 0,9 1- (0,7)n 0,9 (0,7)n 0,1 n 7.

Пример 4. В цехе 6 станков, которые работают независимо друг от друга.

В течение рабочего дня (8 часов) каждый станок простаивает в сумме 2 часа. Какова доля времени, в течение которой в цехе работает не менее пяти станков?

Наблюдение над состоянием каждого станка можно рассматривать как независимый опыт, число которых n = 6. Вероятность застать работающим равна р = 6/8 = 3/4 ( в соответствии с геометрическим определением вероятности). Тогда вероятность застать работающими не менее пяти станков равна

Р6( k 5) = Р6(5) + Р6(6) = С 65 (3/4) 5 ( 1/4)1 + + С 66 (3/4)6 ( 1/4)0 = 2187 / 4096 0,53.

Пример 5. Монету подбрасывают до тех пор, пока герб не выпадет три раза.

Какова вероятность того, что до этого цифра выпадет пять раз?

Всего должно состояться 8 подбрасываний монеты. Чтобы опыт закончился именно на восьмом броске, необходимо при восьмом подбрасывании получить герб, вероятность чего равна 1/2, и до этого при восьми подбрасываниях герб должен выпасть ровно два раза, вероятность чего по формуле Бернулли равна Р7(2) = С 7 (1/2)2(1/2)5 = 21/128. В силу независимости опытов искомая вероятность равна (21/128) (1/2) = 21/256 1/12.

Формула Бернулли может быть обобщена. Пусть в результате каждого из n независимых опытов может произойти одно из m попарно несовместных событий А1, А2, …, Аm с вероятностями р1, р2, …, рm соответственно (р1 + р2 + … + рm = 1).

Тогда вероятность того, что в n независимых опытах событие А1 наступит k1 раз, событие А2 наступит k2 раза, …, событие Аm наступит km раз, причем k1 + k2 + … + km = n, равна:

–  –  –

Пример 6. В крупной партии изделий 60% изделий первого сорта, 30% - второго, 10%

- третьего сорта. Для проверки взяли наугад 6 изделий. Какова вероятность того, что среди них 3 изделия первого сорта, 2 изделия второго сорта и одно изделие третьего сорта?

Так как партия изделий велика, то последовательный выбор из нее нескольких изделий практически не меняет пропорции в партии и, значит, не меняет вероятности выбора изделия данного сорта. Поэтому можно в качестве математической модели взять схему независимых опытов. Будем считать, что производится 6 независимых опытов, в каждом из которых вероятность выбора изделия первого сорта равна р1 = 0,6, второго – 0,3, третьего – 0,1. В соответствии с формулой (2.9) 6!

(0,6)3 (0,3)2 (0,1) 0,12.

Р6 (3,2,1) = 3! 2! 1!

–  –  –

Пример 7. Вероятность того, что изделие при транспортировке с завода повредится, равна 0,0005.

С завода отправлено четыре тысячи изделий. Какова вероятность того, что в пути повредится больше двух изделий?

Транспортировку каждого изделия можно рассматривать как независимый опыт, число которых (n = 4000) велико. Вероятность же появления события в каждом опыте (р = 0,0005) мала. Это дает основание воспользоваться для вычислений формулой Пуассона. Заметим, что = nр = 4000 0,0005 = 2. Нас интересует вероятность Р4000(k 2) = Р4000(3) + Р4000( 4) +... + Р4000(4000).

Проще эту вероятность вычислить, если рассмотреть вероятность противоположного события:

–  –  –

Пример 8. Среди 300 изделий 15 бракованных.

Для проверки наугад выбрали пять изделий. Какова вероятность того, что среди них нет бракованных? Сравнить точное значение вероятности с приближенным, найденным по формуле Бернулли.

Пусть А – интересующее нас событие. Выбрать пять изделий из 300 можно С 5300 способами. Событию А благоприятствуют те способы выбора, при которых пять изделий выбирается из 285 годных. Число таких способов равно С 285. Точное значение искомой вероятности (с точностью до одной десятитысячной) равно Р(А) = С 285 / С 300 = 0,7724.

Так как партия изделий велика, то выбор одного за другим нескольких изделий не меняет заметно пропорции в этой партии. Поэтому можно считать, что производится пять независимых опытов и что вероятность выбора бракованного изделия в каждом опыте примерно равна р = 15 / 300 = 0,05.

По формуле Бернулли Р(А) = Р5(0) = С 5 (0,05)0 (0,95)5 = 0,7738.

Пример 9. Известно, что из каждой 1000 элементов в среднем 999 сохраняют свою работоспособность в течение гарантийного срока.

Какова вероятность того, что из 3000 элементов все до единого сохранят свою работоспособность в течение гарантийного срока?

Работу каждого элемента в течение гарантийного срока можно считать независимым опытом. Число опытов велико (n = 3000). Вероятность того, что элемент сохранит работоспособность в течение гарантийного срока, равна 0,999. Формула Бернулли из-за большого числа опытов для расчетов неприемлема. Для применения формулы Пуассона будем говорить не о работоспособных элементах, а об элементах вышедших из строя. Вероятность выхода из строя элемента р = 0,001. Тогда = nр = = 3000 0,001 = 3. Все 3000 элементов сохранят свою работоспособность, если ни один из 0! е 0,05.

них не выйдет из строя. По формуле Пуассона Р3000(0) =

2.9. Простейший поток событий.

Потоком событий называется последовательность событий, происходящих одно за другим в случайные моменты времени. Например, телефонные вызовы, автомобили, подъезжающие к перекрестку, выходы из строя некоторого устройства, покупатели, приходящие в магазин и т. д. Для наглядности можно изображать моменты наступления событий точками на оси времени (рис.2.12). События могут распределяться не только во времени, но и в пространстве (например, опечатки в тексте, капли дождя на асфальте, пожары в городе и т. д.).

Рис.2.12

На рис.2.12 точками отмечены моменты поступления требований, ti момент поступления i-го требования, Ti, i=1,2,3,..., случайные интервалы между последовательными моментами прихода требований. Потоки требований различаются распределениями величин Ti, характером их зависимости или независимости, числом требований приходящих в данный момент времени.

Рассмотрим некоторые типы потоков.

1. Регулярный или детерминированный поток, в котором требования приходят через равные промежутки времени.

2. Пуассоновский или простейший поток.

Поток событий называется простейшим или пуассоновским, если выполняются следующие условия:

1. Появление того или иного числа событий на интервале времени длины t зависит только от длины этого интервала и не зависит от его расположения на оси времени и от требований, приходящих вне этого интервала.

Обозначим через Pk ( t ) вероятность появления k событий на интервале времени длины t.

2. Вероятность появления одного события за малый промежуток времени t пропорциональна длине этого промежутка, т.е. P1(t) = t, где некоторая постоянная.

3. Вероятность появления двух или более событий за малый промежуток времени t есть величина более высокого порядка малости по сравнению с t.

Независимость вероятностей Pk ( t ) от расположения отрезка длины t на числовой оси означает стационарность потока, а независимость от событий вне отрезка означает отсутствие последействия, т.е. независимость событий потока.

Из условий 2 и 3 следует, что за малый промежуток времени t может либо наступить одно событие, либо ни одного события не поступит. Остальными возможностями можно пренебречь. В этом случае говорят, что поток событий ординарен, т.е. события происходят по одному, а не группами. Формально свойства 2 и 3 означают, что (2.12) P0(t) + P1(t) + о(t) = 1, или P0(t) = 1 - t + о(t).

Построим математическую модель простейшего потока. Прежде всего из определения простейшего потока выведем формулы для вероятностей Рi (t).

Чтобы не заниматься выводом формулы для каждой вероятности отдельно, рассмотрим так называемую производящую функцию (2.13) Ф (t,z) = P0(t) + z P1(t) + z2 P2(t) +... + zn Pn(t) +..., для которой интересующие нас вероятности служат коэффициентами ее разложения в ряд по степеням z.

Выберем 0 z 1, и будем считать, что каждое событие потока независимо от других может оказаться “красным” с вероятностью z. Такая условная раскраска событий позволяет придать функции Ф (t,z) вероятностный смысл, что упрощает дальнейшие рассуждения по выводу для нее дифференциального уравнения Выражение z P1(t) можно понимать как вероятность того, что за время t поступило одно событие и оно оказалось “красным”, z2 P2(t) - можно считать вероятностью того, что за время t поступило два события и они оба “красные”. В свою очередь zn Pn(t) можно расценивать как вероятность того, что за время t поступило n “красных” событий. Это дает возможность понимать Ф (t,z) как полную вероятность того, что за время t поступили только “красные” события.

Составим уравнение для определения Ф (t,z). Рассмотрим отрезок [ 0, t + t]. За время t + t наступят только красные события, вероятность чего равна Ф (t+t,z), если за время t наступят только красные события, вероятность чего равна Ф (t,z), и за время t либо не произойдет событий, вероятность чего равна P0(t), либо произойдет одно событие и оно будет красным, вероятность чего равна zP1(t). Эту фразу можно символически записать в виде Ф (t+t,z) = Ф (t,z)[ P0(t) + P1(t) z ].

Возможностью прихода двух или более требований за малое время t пренебрегаем в силу ординарности потока.

Последнее равенство с учетом (2.12) можно переписать в форме

–  –  –

причем Ф (0,z) = 1, так как Р0(0) = 1, а все Р k(0) = 0 при k = 1,2,3,....

Решением этого дифференциального уравнения при указанном начальном условии является функция

–  –  –

= е-t + z t е-t + z2 (t)2 е-t/2! +...+ zk (t)k е-t/k! +....

Сравнение с записью (2.13) приводит к выводу, что Р0(t) = е-t, Р1(t) = t е-t, Р2 (t)= (t)2 е-t/2!,...,

–  –  –

Величина называется интенсивностью простейшего потока. Она равна среднему числу событий, происходящих в единицу времени. Среднее число событий, происходящих за время t, равно t. Полученный результат можно не строго сформулировать следующим образом. Если события происходят независимо друг от друга и по одному и известно, что на данный интервал времени в среднем приходится событий, то вероятность появления на этом интервале равно k событий равна k (2.15) Рk = e.

k!

Этот вывод остается в силе при сохранении условий независимости и ординарности и для областей на плоскости или в пространстве. Только в последнем случае говорят не о пуассоновских потоках событий, а о пуассоновских ансамблях точек в заданной области.

Стоит обратить внимание на то, что этот сильный количественный результат получен из очень простых предположений. Можно назвать много примеров, где эти предположения приблизительно выполняются (телефонные звонки, опечатки в тексте, радиоактивный распад и т. д.).

Пример. В тесто засыпали изюм из расчета по пяти изюмин на булочку и тщательно перемешали тесто. Какова вероятность того, что взятая наугад булочка содержит хотя бы одну изюмину?

При тщательном перемешивании теста изюмины распределяются практически независимо друг от друга и по одной. Условия простейшего потока (пуассоновского ансамбля) выполнены.Можно воспользоваться формулой Пуассона, где = 5 - равно среднему числу изюмин в булочке. Поэтому

P(k 1) = 1 – P(k = 0) = 1 – e -5 0,994.

Причина такого широкого распространения пуассоновских потоков состоит в том, что пуассоновский поток является предельным потоком. В том смысле, что сумма большого числа независимых потоков малой интенсивности близка по своим свойствам к пуассоновскому потоку (см.

рис. 2.13).

Рис. 2.13 Именно такими суммарными потоками являются потоки вызовов на телефонную станцию, поток отказов сложных систем и. т. д.

Замечание. Если в произвольном потоке требований каждое требование отбрасывать с определенной вероятностью, то после такого многократного “прореживания” получается поток близкий к простейшему.

3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

3.1. Понятие случайной величины С каждым случайным экспериментом связано множество его возможных исходов ={ 1, 2, …. n,...}. Это множество обычно называют пространством элементарных исходов или элементарных событий. Но обычно интерес представляют не сами по себе исходы эксперимента 1, 2, …, а некоторые их числовые характеристики (1), (2),....

Иначе говоря, экспериментатор обычно не просто наблюдает, а измеряет, и в результате эксперимента получается число. Тем самым каждому исходу эксперимента ставится в соответствие определенное число (), а это означает, что на множестве исходов эксперимента определена некоторая числовая функция.

О п р е д е л е н и е. Случайной величиной называется функция = (), определенная на множестве элементарных исходов эксперимента и принимающая действительные или комплексные значения.

В дальнейшем будем рассматривать только действительные случайные величины. Если множество исходов эксперимента конечно, то приведенное определение является точным. В общем случае функция () полагается измеримой. (Последнее означает, что для каждого множества U значений случайной величины прообраз -1 (U) принадлежит -алгебре событий из вероятностного пространства, на котором случайная величина определена.) Пусть, например, эксперимент состоит в трехкратном подбрасывании монеты.

Определим на множестве возможных исходов функцию () следующим образом:

ГГГ ГГЦ ГЦГ ЦГГ ГЦЦ ЦГЦ ЦЦГ ЦЦЦ

() 3 2 2 2 1 1 1 0, где Г – означает выпадение герба, а Ц – цифры. Так определенная случайная величина является, очевидно, числом выпавших гербов.

В эксперименте обычно регистрируется значение случайной величины, а не элементарный исход, которым закончился опыт. Поэтому случайная величина считается заданной, если указано, какие значения она может принимать и каковы вероятности этих значений.

В примере с подбрасыванием трех монет можно было назвать значения случайной величины и вероятности этих значений:

1/8 3/8 3/8 1/8.

О п р е д е л е н и е. Всякое соотношение, устанавливающее связь между всеми возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения случайной величины.

Закон распределения является исчерпывающей характеристикой случайной величины. Если он задан, то с вероятностной точки зрения случайная величина описана полностью. Поэтому часто говорят о том или ином законе распределения, имея в виду случайную величину, которая распределена по этому закону.

Случайные величины будем обозначать большими латинскими буквами Х, У, Z, …, а отдельные возможные значения этих величин соответствующими малыми буквами х, у, z, ….

3.2. Дискретные и непрерывные случайные величины.

О п р е д е л е н и е. Случайную величину называют дискретной, если она может принимать отделенные друг от друга значения с определенными вероятностями. Множество возможных значений дискретной случайной величины конечно или счетно, т.е. их можно занумеровать с помощью ряда натуральных чисел.

Дискретными случайными величинами являются, например, число телефонных вызовов, число опечаток в книге, число распавшихся атомов в данном объеме радиоактивного вещества, число автомобильных аварий, сумма денег, истраченных в течение дня, и т. д.

О п р е д е л е н и е. Случайная величина называется непрерывной, если ее возможные значения составляет целый интервал (конечный или бесконечный).

Непрерывными случайными величинами будут, например, ошибка измерения, координаты попадания снаряда, фактический размер изготовленной детали, рост наугад взятого человека и т. д.

Рассмотрим способы задания законов распределения дискретных случайных величин. Соответствие между возможными значениями дискретной случайной величины и вероятностями этих значений можно задать в виде формулы.

Если это затруднительно, то можно просто перечислить то и другое в виде таблицы, называемой рядом распределения:

–  –  –

где рk = Р(Х = хk) – вероятность того, что Х примет значение хk. Из соображений наглядности принято возможные значения перечислять в порядке возрастания. События Х = х1, Х = х2,... несовместимы, и в результате опыта одно из них непременно происходит, т.е. эти события образуют полную группу. Поэтому pi = 1, т.е. вероятность достоверного i события 1 как бы делится на части рk, и эти части распределяются между возможными значениями случайной величины.

Ряд распределения можно изобразить графически. Для этого в каждой точке хi на горизонтальной оси откладывают вдоль вертикальной оси отрезок, равный pi. Полученную в результате фигуру называют многоугольником распределения (рис.3.1).

Р

–  –  –

Назовем несколько важных для приложений законов распределения дискретных случайных величин.

1. Биномиальный закон распределения. Случайная величина может принимать значения 0, 1, 2,..., n. Каждому значению Х = m соответствует вероятность Сn p m q n m, где р + q = 1. Параметрами этого закона m

–  –  –

Иногда опыт, в котором наконец появилось событие, в расчет не принимают и тогда возможные значения Х начинаются с Х = 0. Например, число выстрелов до того выстрела, в котором произошло первое попадание в цель.

4. Гипергеометрический закон распределения. Возможные значения:

0, 1, 2, …, n. Каждому значению Х = r соответствует вероятность

–  –  –

3.3. Функция распределения Построение ряда распределения возможно лишь для дискретных случайных величин, так как можно перечислить все их возможные значения.

Для непрерывных случайных величин это неприемлемо из-за несчетности множества возможных значений.

Желательно иметь общий способ задания закона распределения для любых случайных величин. Это можно сделать, если рассматривать вероятности не отдельных значений, а целых интервалов возможных значений. Например, интервалов вида (-, х). Вероятность события

- X х зависит от х, т.е. является функцией х. Эту функцию и называют функцией распределеия.

О п р е д е л е н и е. Функцией распределения случайной величины Х называют функцию F(x) = P (Х х ), определяющую для каждого значения х вероятность того, что случайная величина Х в результате опыта примет значение меньшее х.

Если случайную величину Х представлять наглядно как координату случайной точки на числовой оси, то F(x) указывает вероятность попасть левее точки х.

Непосредственно из определения функции распределения можно вывести ряд ее свойств.

1. 0 F(x) 1. Это следует из того, что F(x) равна вероятности, а вероятность любого события заключена между нулем и единицей. Отметим также, что F(- ) = Р ( Х - ) = 0 и F(+ ) = Р ( Х + ) = 1, так как события Х - и Х + являются соответственно невозможным и достоверным.

2. Функция распределения является неубывающей, т.е. F(x1) F(x2) при x1 x2. В самом деле, при x1 x2 появление события Х x2 эквивалентно появлению одного из несовместимых событий Х x1 и x1 Х x2.

Поэтому Р (Х x2 ) = Р (Х x1) + Р ( x1 Х x2 ) или

–  –  –

Предел в правой части равен нулю, если х – точка непрерывности функции F(x). Если же х – точка разрыва функции F(x), то предел в правой части равенства равен скачку этой функции в точке х. Следовательно, если a и b

- точки непрерывности функции F(x), то

–  –  –

Впредь будем называть непрерывными только случайные величины с непрерывной функцией распределения. Для непрерывной случайной величины вероятность любого отдельно взятого значения равна нулю.

Сходная ситуация в геометрии. Геометрическая точка не имеет размера, а состоящий из точек интервал имеет отличную от нуля длину. Так и для непрерывной случайной величины: одно отдельно взятое значение имеет нулевую вероятность, хотя и является возможным значением, и только интервалы значений имеют отличную от нуля вероятность. График функции распределения одной из непрерывных случайных величин изображен на рис.3.2

–  –  –

Из вида графика можно заключить, что случайная величина принимает только неотрицательные значения, так как F(0) = Р(Х0) = 0. Кроме того, близкие к нулю значения Х наиболее вероятны, так как им соответствуют наибольшие приращения функции F(x), равные численно вероятностям.

Показательный закон распределения связан с простейшим потоком событий. Пусть простейший поток имеет интенсивность. Зафиксируем момент наступления некоторого события потока и обозначим через Х интервал времени до наступления следующего события. Для произвольного х 0 найдем вероятность Р(Х х). Событие Х х появится, если на отрезке времени длиной х не произойдет ни одного события. Эта вероятность по формуле (2.14 ) равна Р(0) = ехр{- х }. Тогда F(х ) = P(X х ) = 1 – P(X х) = = 1 – ехр{- х }. Это означает, что интервалы между моментами наступления последовательных событий простейшего потока независимы и имеют показательное распределение. Такое определение простейшего потока указывает путь к более общей модели потока событий. Например, интервалы между моментами наступления последовательных событий, оставаясь независимыми, могут иметь произвольное распределение. Такие потоки называют рекуррентными.

Функцию распределения можно задать и для непрерывной и для дискретной случайной величины.

Для дискретной случайной величины функция распределения представляет собой, как это следует из определения, функцию накопленных вероятностей:

F(x) = Р ( Х = хi ), где суммирование распространяется на все значения индекса i, для которых хi x. Если дискретная случайная величина Х имеет закон распределения

–  –  –

Функция распределения непрерывной случайной величины непрерывна, для дискретной случайной величины она представляет собой ступенчатую функцию. Можно привести примеры таких случайных величин, функция распределения которых вместе с участками непрерывного роста в некоторых точках имеет разрывы. Такие величины называют смешанными случайными величинами.

В качестве примера смешанной случайной величины можно назвать время ожидания у светофора.

Пример 2. Пусть равновозможно прибытие автомобиля к перекрестку в любой момент цикла работы светофора (рис.

3.5). Найти функцию распределения времени ожидания автомобиля.

–  –  –

Обозначим время ожидания у светофора через Х. Это неотрицательная случайная величина. Вероятность того, что время ожидания будет меньше х, равна вероятности прибыть к светофору в момент времени из интервала (А,В). Поэтому F(x) = P(Х x) = ( x + 30 ) / 70 при 0 х 40 и F(x) = 1 при х 40. Функция распределения времени ожидания изображена на рис.3.6. Из графика функции распределения видно, что нулевое время ожидания, имея вероятность 3/7, соответствует точке скачка функции, равного этой величине.

–  –  –

Пример 3. Монета подбрасывается пять раз.

Написать закон распределения случайной величины, равной числу выпавших гербов минус число выпавших цифр.

Построить многоугольник распределения и функцию распределения этой случайной величины.

Если N(г) - число выпавших гербов, а N(ц) - число выпавших цифр, то случайная величина Х = N(г) - N(ц) может принимать значения х1 = 0 - 5 = -5, х2 = 1 - 4 = - 3, х3 = 2 - 3 = -1, х4 = 3 - 2 = 1, х5 = 4 - 1 = 3, х6 = 5 - 0 = 5.

Подбрасывания монеты можно рассматривать как независимые испытания, вероятность выпадения герба в каждом из которых равна р = 1/2.

Поэтому применима формула Бернулли (2.8):

Р(Х = 5) = Р(Х = -5) = Р5 (0) = С50 (1/2)0 (1/2) 5 = 1/32;

Р(Х = 3) = Р(Х = -3) = Р5 (1) = С5 (1/2)1 (1/2) 4 = 5/32;

Р(Х = 1) = Р(Х = -1) = Р5 (2) = С52 (1/2)2 (1/2) 3 = 10/32.

Зная возможные значения случайной величины и вероятности этих значений, можно написать закон ее распределения.

Ряд распределения имеет вид:

Х -5 -3 -1 1 3 5 Р 1/32 5/32 10/32 10/32 5/32 1/32 Для наглядности ряд распределения можно изобразить графически в виде многоугольника распределения (рис.3.7).

Р 10/32 5/32 1/32 Х

-5 -3 -1 1 3 5

–  –  –

Геометрически это означает, что вероятность попадания случайной величины в интервал (a,b) численно равна площади, которая опирается на этот интервал и ограничена сверху кривой f (x) (рис 3.9)

–  –  –

График этой функции изображен на рис. 3.10. Плотность вероятности на отрезке [a,b] постоянна. Это означает равновозможность всех значений случайной величины из этого отрезка. Равномерный закон распределения имеют, например, ошибки округления при вычислениях. Если при вычислении результат округляется, скажем, до второго знака после запятой, то ошибка округления равномерно распределена в [0,005; 0,005).

–  –  –

Пример 3. Закон распределения Лапласа имеет функцию плотности вероятности f (x) ехр { х }.

Найдем для случайной величины, распределенной по этому закону, = вероятность попадания в интервал (1;2). По формуле (3.2) Р (1 X 2 ) = е х dx = - e x 12 = (e –1 – e –2 ) 0,12.

3.5. Системы случайных величин (случайные векторы) Со случайным экспериментом может быть связано несколько случайных r величин Х = {Х1,Х2,Х3, …,Хn}. Например, изготовленная деталь определяется размерами, каждый из которых может быть соблюден с некоторой степенью точности, т.е. является случайной величиной.

Случайными будут координаты попадания снаряда при выстреле. Наугад взятый человек имеет случайный рост, вес, возраст и т. д. В подобных случаях принято говорить о системе случайных величин или о случайном r векторе. Можно понимать Х и как случайную точку в n – мерном пространстве.

Из соображений краткости записи и наглядности изложения рассмотрим только системы двух случайных величин или двумерные случайные величины, которые станем обозначать через (Х,У). Систему двух случайных величин удобно интерпретировать как случайную точку на плоскости с координатами Х и У или как случайный вектор в плоскости с координатами Х и У.

Распределение системы двух дискретных случайных величин можно задать в виде таблицы, в которой перечислены пары возможных значений (х,у) и их вероятности:

–  –  –

...........

...........

...........

–  –  –

Если Х и У независимы, то рij = р(хi) р(уj).

О п р е д е л е н и е. Функцией распределения системы двух случайных величин называется вероятность совместного выполнения неравенств Х х и У у, рассматриваемая как функция переменных х и у, т.е.

–  –  –

Геометрически это означает (см. рис.3.11) вероятность попадания случайной точки (Х,У) левее и ниже точки (х,у).

У

–  –  –

Через F(х,у) можно выразить вероятность попадания случайной точки в прямоугольник со сторонами параллельными осям координат следующим образом (рис.

3.12):

–  –  –

Плотности f1(x) и f2 (у) по отношению к f(x,у) называют маргинальными.

О п р е д е л е н и е. Случайные величины, образующие систему, называются независимыми, если закон распределения одной из них не изменяется от того, какое значение приняла другая случайная величина.

Иначе говоря, в системе независимых случайных величин результат наблюдения над одной из них не дает информации о другой случайной величине. Важное свойство независимых случайных величин в математическом плане выражает следующая теорема.

Теорема.

Для независимости случайных величин Х и У необходимо и достаточно, чтобы функция распределения системы (Х,У) была равна произведению функций распределения величин Х и У:

F(х,у) = F1(х)F2 (у).

Д о к а з а т е л ь с т в о. а) Необходимость. Пусть Х и У независимы. Тогда события Х x и У у тоже независимы. Вероятность совместного появления этих событий по теореме умножения вероятностей равна Р (Х x, У у ) = Р (Х x ) Р ( У у ).

Это и означает, что F(х,у) = F1(х)F2 (у).

б) Достаточность. Пусть F(х,у) = F1(х)F2 (у). Тогда Р (Х x, У у ) = = Р (Х x ) Р ( У у ), что означает независимость событий Х x и У у при любых x и у. Случайные величины независимы.

Следствие.

Случайные величины Х и У независимы тогда и только тогда, когда плотность вероятности системы (Х,У) равна произведению плотностей вероятности каждой из величин:

f(x,у) = f1(x) f2 (у).

Необходимое и достаточное условие независимости случайных величин можно сформулировать и доказать для любого конечного числа случайных величин, образующих систему. Свойства систем случайных величин не сводятся к свойствам каждой из величин отдельно, а включают в себя и зависимость между величинами. Способы описания зависимости между величинами будут рассмотрены ниже.

Пример 1. Случайная точка (Х,У) имеет плотность вероятности

–  –  –

Закон распределения случайной величины дает исчерпывающую информацию о случайной величине. Однако иногда можно достаточно ярко охарактеризовать случайную величину с помощью всего одного или нескольких чисел. Например, можно указать закон распределения количества осадков, выпадающих в данной местности за определенный месяц, но проще и нагляднее указать среднее количество осадков в данном месяце.

Числа, назначение которых указывать основные особенности распределений случайных величин, называют числовыми характеристиками.

Важнейшей числовой характеристикой является математическое ожидание.

О п р е д е л е н и е. Математическим ожиданием (или средним значением) дискретной случайной величины Х называется число (3.5) М(Х) = хi pi, i

–  –  –

если интеграл абсолютно сходится. Если интеграл не сходится абсолютно, то говорят, что математическое ожидание не существует.

Пример 1. Пусть Х – случайная величина, распределенная по закону Пуассона с параметром.

Тогда по определению

–  –  –

Рассмотрим свойства математического ожидания.

С в о й с т в о 1. Математическое ожидание постоянной равно самой этой постоянной.

Действительно, постоянная величина С принимает это значение с вероятностью единица и по определению М(С) = С1 = С.

С в о й с т в о 2. Математическое ожидание суммы любого конечного числа случайных величин равно сумме их математических ожиданий.

Д о к а з а т е л ь с т в о. Ограничимся доказательством этого свойства только для суммы двух дискретных случайных величин и покажем, что М(Х + У) = М(Х) + М(У).

Под суммой двух дискретных величин понимается случайная величина, которая принимает значения хi + уj c с вероятностями Р(хi, уi ) = Р(Х = хi, У = уj).

По определению

–  –  –

Подобным же образом можно доказать, что М(Х-У) = М(Х) – М(У).

С в о й с т в о 3.

Математическое ожидание произведения любого конечного числа взаимно независимых случайных величин равно произведению их математических ожиданий:

М(Х1Х 2 …Хn) = М(Х1)M(Х2 ) …M(Хn).

Д о к а з а т е л ь т в о. Приведем доказательство лишь для двух дискретных случайных величин. Произведение ХУ принимает значения хiyj с вероятностями Р(Х = хi)(У = уj), если величины независимы. Поэтому

–  –  –

С л е д с т в и е. Постоянный множитель можно выносить за знак математического ожидания.

Д о к а з а т е л ь т в о. Так как постоянная величина С не зависит от того, какое значение примет случайная величина Х, то в силу свойств 1 и 3 имеем М(СХ) = М(С) М(Х) = С М(Х).

Указанные свойства математического ожидания позволяют использовать символ М в преобразованиях. Например, если a и b постоянные, то М(aХ + b) = М(aХ) + М(b) = a М(Х) + b.

Пример 4. Найдем математическое ожидание числа появлений события в схеме независимых испытаний.

Пусть производится n независимых опытов, вероятность появления события в каждом из которых равна р. Число появлений события в этих n опытах является случайной величиной Х, распределенной по биномиальному закону. Однако непосредственное вычисление среднего значения громоздко. Для упрощения вычислений воспользуемся следующим разложением.

Пусть Ji - число появлений события в i-м опыте. Число появлений события в n опытах складывается из появлений события в отдельных опытах, т.е.

Х = J1 + J2 +... + Jn, откуда М(Х) = М(J1) + М(J2) +... + М(Jn).

Величину Ji называют иногда индикатором события. Она принимает значение 1, если событие произошло, и значение 0, если событие в данном опыте не появилось. Поэтому М(Ji) = 0(1-р) + 1р = р и (3.7) М(Х) = р + р + … + р = nр, т.е. среднее число появлений события в n независимых опытах равно произведению числа опытов на вероятность появления события в одном опыте. Если, скажем, вероятность попадания в цель при выстреле равна 0,1, то среднее число попаданий в 20 выстрелах равно 20 0,1 = 2.

Пример 5. Вероятность попадания в цель при одном выстреле равна р.

Написать закон распределения случайной величины, равной числу выстрелов до первого попадания в цель. Подсчитать математическое ожидание этой случайной величины.

Случайная величина Х примет значение 1, если будет попадание при первом же выстреле, вероятность чего равна р. Понадобится два выстрела (Х = 2 ), если при первом выстреле будет промах (вероятность чего равна q = 1 – р) и при втором выстреле будет попадание ( вероятность чего равна р). Поэтому в силу независимости событий Р(Х = 2 ) = q · р.

Аналогично, Р(Х = 3) = q · q · р = q2 · р, …, Р( Х = n ) = q · q · q ·…· q · р = n-1 = q · р.

Случайная величина имеет закон распределения:

–  –  –

Х 0 1 2 3 Р 126/495 252/495 108/495 9/495 Среднее число деталей низкого качества в выборке равно М(Х) = 1252/495 + 2108/495 + 39/495 = 1.

3.7. Дисперсия и среднее квадратическое отклонение

–  –  –

Выявим свойства дисперсии, которые позволяют использовать символ D в математических преобразованиях.

С в о й с т в о 1. Дисперсия постоянной величины равна нулю: D(C) = 0.

Д о к а з а т е л ь с т в о. По определению

–  –  –

Пример 1. Вычислим дисперсию числа появлений события в схеме независимых испытаний.

Пусть производится n независимых опытов и вероятность появления события в каждом опыте равна р.

Воспользуемся представлением числа появлений события в виде суммы индикаторов событий:

(3.12) Х = J 1 + J2 +... + Jn, Мы использовали это представление в примере 4 предыдущего раздела.

Независимость опытов влечет независимость случайных величин Ji. Поэтому

–  –  –

Случайные величины Ji принимают значение 1 с вероятностью р и значение 0 с вероятностью q = 1 - p. Так как М(Ji) = 0 q + 1р = р, то по определению дисперсии получаем, что

–  –  –

которая нам понадобится в дальнейшем.

Пример 2. Вычислим математическое ожидание и дисперсию случайной величины, распределенной равномерно в отрезке [a,b].

Плотность вероятности этой случайной a x b и равна нулю при остальных х. По величины f (x) = 1/(b-a) при определению

–  –  –

В зависимости от величины параметров m и кривая распределения имеет различный вид, и поэтому правильнее говорить о семейства нормальных законов распределения. На рис. 3.14 изображены графики нормальных распределений при фиксированном m и некоторых 1 2.

–  –  –

2 2 2 С помощью замены переменных (3.15) и интегрирования по частям можно показать, что D(X) = 2, т.е. параметр равен среднему квадратическому отклонению нормально распределенной случайной величины.

и 2, являясь Параметры нормального закона распределения m соответственно математическим ожиданием и дисперсией, однозначно определяют этот закон. В связи с этим для нормального закона распределения часто используют обозначение N (m; 2). Запись Х ~ N (m; 2) будет в дальнейшем означать, что случайная величина Х имеет нормальный закон распределения с параметрами m и 2.

Пусть Х ~ N (m; 2). Вычислим вероятность попадания такой случайной величины в интервал (a; b). По формуле (3.2) имеем

–  –  –

Задачи для самостоятельного решения

1. В кошельке было 5 монет по 10 копеек и 3 монеты по 50 копеек. Из кошелька вынули наугад четыре монеты. Найдите закон распределения случайной величины Х, которая равна сумме вынутых копеек.

Ответ: Р(Х = 40) = 1/14; Р(Х = 80) = 3/7; Р(Х = 120) = 3/7; Р(Х = 160) = 1/14.

–  –  –

5. Случайная величина Х имеет функцию плотности вероятности f(x) = 0,5 sinx при х[0, ] и f(x) = 0 при остальных х. Найдите: а) функцию распределения величины Х;

б) математическое ожидание этой величины; в) вероятность попадания в интервал (0, /3).

Ответ: а) F(x) = 0 при х 0, F(x) = 0,5(1 – cos x) при х[0, ], F(x) = 1 при х;

б) М() = /2; в) Р(0 /3) = 1/4.

–  –  –

8. Случайная величина Х – ошибка измерительного прибора распределена по нормальному закону распределения с дисперсией 2 = 25мВ2. Систематическая ошибка прибора отсутствует. Найдите вероятность того, что при пяти независимых измерениях Ответ: 0,21.

ошибка измерения хотя бы один раз превзойдет по модулю 10 мВ.

–  –  –

Пусть h(x) – однозначная функция. Функцией случайной величины Х называется такая случайная величина Н = h (Х), которая принимает значение hi = h ( хi ) каждый раз, когда величина Х принимает значение хi. Требуется найти закон распределения случайной величины Н, зная закон распределения величины Х. Решение этой задачи рассмотрим последовательно в пунктах а) – в) в зависимости от типа случайной величины и особенностей функции h(x).

а) Пусть Х – дискретная случайная величина. Если функция h(x) в области возможных значений Х монотонна, то величина Н примет значение hi = h ( хi ) тогда и только тогда, когда Х = хi. Следовательно, возможными значениями Н будут значения hi = h ( хi ), и этим значениям соответствуют вероятности рi = Р (Н = hi ) = Р (Х = хi ).

б) Если h(x) немонотонна и существует несколько значений х1, х2, …, хm, при которых h(x) = hi, то m Р( Х = х ).

Р [h(x) = hi] = P [Х = х1 или Х = х2 или … или Х = хm ] = i i =1 Следовательно, для нахождения закона распределения случайной величины Н = h(Х) нужно вычислить все ее значения, расположить их в порядке возрастания, отбрасывая повторяющиеся, и каждому из полученных значений hi приписать вероятность, равную сумме вероятностей тех значений Х, для которых h(x) = hi.

Пример 1. Дискретная случайная величина имеет закон распределения Х -2 0 2 4 Р 0,4 0,2 0,3 0,1 Найти закон распределения У = 9-Х2.

Вероятность возможного значения у1 = -7 равна вероятности события Х = 4, т.е.

0,1. Вероятность возможного значения у2 = 5 равна сумме вероятностей несовместных событий Х = -2 и Х = 2, т.е. 0,4 + 0,3 = 0,7. Вероятность значения у3 = 9 равна Р(Х = 0) = 0,2. Искомое распределение имеет вид У -7 5 9 Р 0,1 0,7 0,2

в) Рассмотрим монотонную функцию от непрерывной случайной величины Х. Предположим, что функция h(x) монотонна и непрерывна вместе со своей производной в области возможных значений случайной величины Х. Пусть Х имеет непрерывную функцию плотности вероятности f(x), а величина Н = h (Х) имеет непрерывную функцию плотности вероятности g(h), которую предстоит найти.

–  –  –

Пример 4. Случайная величина Х имеет пуассоновский закон распределения с параметром.

Вычислить математическое ожидание случайной величины 1/ (Х+1).

Используя формулу (3.23), получаем

–  –  –

Пример 6. Колесо радиуса R с осью в начале координат приводится во вращение, которое затухает под действием сил трения.

В результате некоторая фиксированная точка А на ободе колеса останавливается на случайном расстоянии Н от горизонтальной оси (рис. 3.19). Найти распределение этой случайной величины считая, что угол поворота колеса Х имеет равномерное распределение в промежутке [-/2; /2].

А Н Х

–  –  –

Пример 7. Время безотказной работы Х каждого элемента имеет показательный закон распределения (F(x) = P( x) = 1 – e -x, х 0, 0, М() = 1/).

Cчитая, что элементы выходят из строя независимо друг от друга, найти среднее время безотказной работы («наработку на отказ») для каждой из систем:

а) б) Обозначим время безотказной работы i-го элемента через Хi.

Первая система выходит из строя вместе с первым отказавшим элементом, поэтому время безотказной работы первой системы У = min(Х1, Х2). Заметим, что Р(Хi х ) = = 1- P(Х x) = 1 – (1 – e -x ) = e -x.

Найдем функцию распределения величины У:

–  –  –

Оказалось, что величина У = min(Х1, Х2) имеет показательный закон распределения с параметром 2. Наработка на отказ для системы с последовательным соединением элементов равна

–  –  –

одного элемента.

Система б) работает безотказно, пока в рабочем состоянии находится хотя бы один из двух элементов. Поэтому ее время безотказной работы Z = max(X1,X2).

Найдем функцию распределения величины Z:

–  –  –

Рассмотрим смешанную случайную величину Х, функция распределения которой имеет точки разрыва х1, х2, …, хm со скачками соответственно р1, р2, …,рm. Это означает, что Х, помимо возможных значений нулевой вероятности, имеет значения х1, х2, …, хm с отличными от нуля вероятностями р1, р2, …,рm.

В этом случае плотность распределения вероятностей в точках х1, х2, …, хm обращается в бесконечность, т.е. формально не существует. Эту трудность можно обойти, если воспользоваться дельта-функцией (х), которая понимается как производная (в обобщенном смысле) от функции единичного скачка (х) = 0 при х 0 и (х) = 1 при 0 x. Наглядно (х) можно представить себе плотностью распределения «масс», при которой в точке х = 0 сосредоточена единичная масса, а масса во всех остальных

–  –  –

Х

-1 1

-1

–  –  –

1. Случайная величина Х имеет закон распределения:

Х -1 0 2 3 Р 0,1 0,4 0,3 0,2 Найдите закон распределения случайной величины У = (Х-1)2.

–  –  –

Х 1 2 4 Р 0,3 0,5 0,2.

Найдите математическое ожидание случайной величины = Х2 - Х +1. Ответ: 4,4.

7. Пусть Х - число выпавших гербов при трех подбрасываниях монеты. Найдите математическое ожидание случайной величины = Х2. Ответ: 3.

8. Случайная величина Х равномерно распределена на отрезке [ 0,1]. Найдите математическое ожидание случайной величины У = sin(Х). Ответ: 1/2.

9. Непрерывная случайная величина Х имеет функцию плотности вероятности:

f(x) = 0,5 sinx при х [0, ] и f(x) = 0 при остальных х. Найдите плотность вероятности и математическое ожидание случайной величины У= 2Х.

Ответ: f(у) = 0,25 sin(у/2) при у [0, 2], f(у) = 0 при остальных у; М(У) =.

–  –  –

Функции нескольких случайных аргументов Рассмотрим функцию двух случайных величин Z = ( Х,У), где (Х,У) – система двух случайных величин (случайный вектор в плоскости). Пусть случайная точка (Х,У) имеет функцию плотности вероятности f(х,у).

Найдем функцию распределения G(z) случайной величины Z.

Для каждого z обозначим через W(z) область на плоскости, в которой выполняется неравенство ( Х,У) z. Чтобы это неравенство выполнилось, случайная точка должна попасть в область W(z). По определению

–  –  –

Рассмотрим подробнее простой, но практически важный случай двух независимых слагаемых. Пусть Z = Х + У, где случайные величины Х и У независимы и имеют функции плотности вероятности f1(x) и f2(у) соответственно. Случайная точка (Х,У) в силу независимости Х и У имеет функцию плотности вероятности f(х,у) = f1(x)f2(у).

Найдем функцию распределения случайной величины Z. По определению F(z) = P (Z z ) = P (X +У z ).

Для выполнения неравенства X +У z необходимо попадание случайной точки (Х,У) в область В, представляющую собой полуплоскость, лежащую ниже прямой х + у = z (рис. 3.21).

У

–  –  –

где функции 1 и 2 непрерывно дифференцируемы и отображение (3.27) взаимно однозначно, т. е. существуют обратные функции Х = 1(U,V), У = 2(U,V).

Тогда плотность распределения g(u,v) случайной точки (U,V) выражается через плотность распределения случайной точки (Х,У) следующим образом:

–  –  –

Пример 11. Случайная величина Z = 4Х + 2У – 7.

Найти математическое ожидание и дисперсию Z, если случайные величины Х и У независимы и имеют следующие числовые характеристики: М(Х) = 2; М(У) = 2; D(X) = 1; D(У) = 5.

По свойствам математического ожидания М(Z) = 4М(Х) + 2М(У) - М(7) = 42 + 22 – 7 = 5.

В силу независимости случайных величин Х и У по свойствам дисперсии D(Z) = 42D(Х) + 22 D(У) + D (7) = 161 + 45 + 0 = 36.

–  –  –

У -2 0 2 Р 0,6 0,3 0,1.

Найдем возможные значения Z:

Z = -2 + (-2) = -4 с вероятностью р = 0,60,6 = 0,36;

Z= -2 + 0 = -2 с вероятностью р = 0,60,3 = 0,18;

Z= -2 + 2 = 0 с вероятностью р = 0,60,1 = 0,06;

Z= 0 + (-2) = -2 с вероятностью р = 0,30,6 = 0,18;

Z= 0 + 0 = 0 с вероятностью р = 0,30,3 = 0,09;

Z= 0 + 2 = 2 с вероятностью р = 0,30,1 = 0,03;

Z= 2 + -2 = 0 с вероятностью р = 0,10,6 = 0,06;

Z= 2 + 0 = 2 с вероятностью р = 0,30,1 = 0,03;

Z= 2 + 2 = 4 с вероятностью р = 0,10,1 = 0,01.

Суммируя вероятности повторяющихся значений Z, получаем закон распределения

–  –  –

Случайная величина U принимает значения:

U = (-1)2 = 1 с вероятностью 0,6; U = 0 с вероятностью 0,3 и U =22 = 4 с вероятностью 0,1.

Поэтому закон распределения U имеет вид

–  –  –

Пример 13. Абсолютная погрешность измерения распределена равномерно в пределах от 0 до а.

Производится n независимых измерений. Найти распределение максимальной погрешности в данной серии наблюдений. Вычислить математическое ожидание максимальной погрешности.

Обозначим абсолютную погрешность в i-м измерении через Хi. Найдем функцию распределения H(x) случайной величины = max(Х1, Х2, …, Хn). В силу независимости измерений H(x) = Р(Т х) = Р[max(Х1, Х2, …, Хn) х] = Р(Х1 х)Р(Х2 х) …Р(Хn х) = [F(x)]n.

Функция плотности вероятности каждой из величин имеет вид f(x) = 1/a при х [0, a] и f(x) = 0 при остальных значениях х. Поэтому

–  –  –

Пример 14. Пусть случайные величины Х1 и Х2 независимы и равномерно распределены на отрезках [0, а] и [0, b] соответственно, где а b.

Найти закон распределения случайной величины У = Х1 + Х2.

Случайная величина Х1 имеет функцию плотности вероятности f1(x) = 1/a при х [0, a] и f1(x ) = 0 при остальных х. Случайная величина Х2 имеет плотность вероятности f2(x) = 1/b при х [0, b] и f2(x) = 0 при остальных х. Так как Х1 и Х2 неотрицательны, то функцию плотности вероятности f(z) случайной величины У = Х1 + Х2 можно найти по формуле ( 9.7).

При z 0 функция, очевидно, f(z) = 0. При 0 z а (см. рис. 3.22)

–  –  –

Пример 15. Случайные величины Х и У независимы и равномерно распределены в интервале (0,1).

Найдите функцию плотности вероятности случайной величины Z =XY.

Найдем сначала функцию распределения случайной величины Z. Заметим, что все положения случайной точки (Х,У) равновозможны в квадрате со стороной 1 (см. рис.

3.26). По определению F(z) = P(Zz) = Р[Х ·У z]. Неравенство Х ·У z выполняется, если случайная точка (Х,У) окажется внутри квадрата ниже гиперболы ху = z. Поэтому

–  –  –

8. Закон распределения двумерной случайной величины задан таблицей Х 1 2 4 У 1 0,2 0,3 0,1 3 0,05 0,15 0,2.

Найдите: 1) безусловные законы распределения величин Х и У; 2) закон распределения Х при условии, что У = 1.

–  –  –

3.10. Понятие о характеристических функциях Характеристической функцией (z) случайной величины Х называется комплекснозначная функция, определенная при z R соотношением

–  –  –

Некоторые свойства характеристических функций:

1. (0) = 1, (z) 1 для всех вещественных z.

2. Если существует МХn - момент порядка n, то функция (z) имеет n непрерывных производных и (n)(0) = in MXn.

3. Пусть У = а Х + b, где а и b – постоянные величины, а Х имеет характеристическую функцию (z). Тогда характеристическая функция случайной величины У имеет вид (z) = MeizУ = Меiz (aХ + b) = eizb MeiazX = eizb (az).

4. Характеристическая функция однозначно определяет распределение случайной величины.

5. Если Х1 и Х2 – независимые случайные величины, а 1z) и 2(z) – их характеристические функции, то характеристическая функция суммы

У = Х1+ Х2 равна произведению характеристических функций слагаемых:

(z) = 1 (z)2(z). Это следует из того, что в силу независимости слагаемых (z) = М{exp[iz (X1 + X2)]} = M{exp(izX1) exp(izX2)}= = M{exp(izX1)} M{exp(izX2)} = 1 (z)2(z).

Можно показать, что для любого конечного числа независимых случайных величин Х1, Х2, …, Хn характеристическая функция их суммы Х1 + Х2 + … + Хn равна произведению характеристических функций слагаемых.

–  –  –

Сумме независимых случайных величин соответствует произведение характеристических функций слагаемых. Поэтому Х + У имеет характеристическую функцию exp[1(еiz -1)]exp[2(еiz -1)] = exp[(1 + 2 )(еiz -1)].

Это означает, что Х + У имеет пуассоновский закон распределения с параметром 1 + 2.

Полученный результат известен как факт устойчивости пуассоновского закона распределения. Этот результат можно обобщить на сумму любого конечного числа пуассоновских случайных величин.

Теорема. Если случайные величины Х1 и Х2 независимы и имеют соответственно нормальные законы распределения N(m1; 12 ) и N(m2; 22 ), то их сумма Х1 + Х2 имеет тоже нормальный закон распределения N(m1 + m2; 12 + 22 ).

Доказательство. Пусть Х1 N(m1; 12 ) и Х2 N(m2; 2 ). Их 2 характеристические функции в соответствии с формулой (3.31) имеют вид 1(z) = ехр(im1z - 12 z2/2) и 2(z) = ехр(im2z - 22 z2/2). Тогда характеристическая функция суммы Х1 + Х2 (z) = 1 (z)2(z) = ехр(im1z - 12 z2/2) ехр(im2z - 22 z2/2) = = ехр{i(m1+m2) z – ( 12 + 22 )z2/2}.

А это и означает, что Х1 + Х2 N(m1 + m2; 12 + 22 ).

3.11. Зависимые случайные величины.

Рассмотрим способы описания зависимости между двумя случайными величинами Х и У, составляющими двумерную случайную величину (Х,У).

Для определенности будем рассматривать только зависимость У от Х, хотя можно было бы говорить и о зависимости Х от У.

Ковариация Важную информацию о системе случайных величин (Х,У) дают ее числовые характеристики. К ним относятся математические ожидания каждой из величин М(Х) = mx и М(У) = mу. Пара чисел mx и mу указывает на плоскости координаты средней точки, относительно которой происходит рассеяние положений случайной точки (Х,У). Дисперсии D(X) = о о х = M( Х 2 ) и D(У) = у = М( У 2 ) характеризуют разброс положений

–  –  –

которая называется ковариацией или ковариационным моментом. Заметим, о что соv(Х,Х) = M( Х 2 ) = х2. Из определения ковариации следует, что

–  –  –

откуда М(ХУ) = М(Х)М(У) + соv(Х,У).

Из доказательства свойства дисперсии суммы случайных величин легко увидеть, что в общем случае

–  –  –

Ковариация содержит информацию о зависимости между величинами.

Но значение соv(Х,У) изменяется при изменении единиц измерения Х и У.

Поэтому для характеристики зависимости между величинами удобно рассматривать безразмерную величину

–  –  –

которая называется коэффициентом корреляции величин Х и У. Ниже свойства коэффициента rxу будут подробно обсуждены.

Величины D(X) = х2, D(У) = у и соv(Х,У) характеризуют разброс положений случайной точка на плоскости. Эти числовые характеристики принято записывать в виде матрицы

–  –  –

Корреляционная зависимость Наиболее простой и известной формой зависимости между величинами является функциональная зависимость, при которой каждому значению аргумента соответствует строго определенное значение функции.

Функциональная зависимость может быть и между случайными величинами.

Существует иной, широко распространенный в природе, тип зависимости между случайными величинами. Эта зависимость проявляется в том, что закон распределения одной случайной величины изменяется при изменении другой. Такая зависимость называется статистической.

Следует заметить, что функциональная зависимость бывает лишь в теоретических построениях или в условиях специально подготовленных опытов. Физический опыт в том и состоит, что исследователь старается по возможности исключить влияние всех посторонних факторов и наблюдать зависимость в чистом виде.

Явления окружающего нас мира взаимосвязаны и воздействие одной переменной на другую происходит при одновременном воздействии множества других переменных, поэтому даже функциональные зависимости проявляются как зависимости статистические.

Итак, при статистической зависимости изменение одной величины приводит к изменению закона распределения другой. Если У- дискретная случайная величина, то это означает, что при каждом фиксированном значении Х = х имеется набор возможных значений у и соответствующих им условных вероятностей р(у/x) = P(У = у/Х= х). Последним обозначением подчеркивается, что речь идет о событии У = у при условии, что произошло событие Х = х.

Набор возможных значений у и соответствующих им условных вероятностей образует условный закон распределения ( р( у / х) = 1).

у Для непрерывной случайной величины можно ввести понятие условной функции распределения или условной плотности вероятности. Если рассмотреть вероятности событий А = {x X x + dx} и В = {у У у+dу}, то по аналогии с теоремой умножения вероятностей событий можно получить для условной плотности вероятности f(у /х) соотношение f(у,х) = f1(х) f(у /х), где f(у,х) – плотность вероятности системы (Х,У), а f1(х) – маргинальная плотность вероятности случайной величины Х. Из этого соотношения

–  –  –

На протяжении этого раздела будем проводить выкладки только для дискретных случайных величин. Для непрерывных случайных величин все рассуждения и выводы останутся в силе, если заменить суммы на интегралы, а вероятности на плотности вероятности.

Статистическая зависимость сложна для изучения. Трудно проследить за изменением всего закона распределения сразу. Проще сосредоточиться на изучении изменения числовых характеристик, в первую очередь математического ожидания. Условный закон распределения имеет числовые характеристики такие же, как и обычные законы распределения. В частности, М(У/х) = ур( у / х) - для дискретной случайной величины называют у

–  –  –

ожидания при разных значениях Х соединить, то получится линия, называемая линией регрессии У на Х. Уравнение этой линии называют уравнением регрессии У на Х.(см. рис. 3.27, на котором точками показаны возможные значения двумерной случайной величины (Х,У)).

–  –  –

Корреляционной зависимостью У от Х называется функциональная зависимость условного среднего значения У от Х. Графиком корреляционной зависимости служит линия регрессии. Например, рост человека Х и его вес У связаны статистической зависимостью. Для каждого значения роста существует целое распределение возможных значений веса.

Между этими величинами существует и корреляционная зависимость.

Которая для людей зрелого возраста выражается известной формулой:

У(кг) = Х (см) – 100.

Вместе с изменением условного среднего значения может изменяться и разброс У относительно условного среднего значения. При каждом значении Х = х можно вычислить дисперсию соответствующих значений У. Эту дисперсию называют условной дисперсией. Например, для дискретной случайной величины условная дисперсия равна [у М (У / x)] 2(У/x) = p( у / x).

у Всякую зависимость изучают для того, чтобы уметь по известному значению одной величины предсказывать значение другой. При статистической зависимости между величинами можно использовать для прогноза линию регрессии. Если стало известно, что Х = х, то в качестве предполагаемого значения У можно назвать соответствующее условное среднее значение М(У/х), т.е. ординату линии регрессии при данном х. Если У принимает значение у, то у – М(У/х) будет ошибкой прогноза и величину (У/x) можно рассматривать как среднюю квадратическую ошибку прогноза У по значению Х при указанном способе действий.

Представление о среднем квадрате ошибки прогноза У по линии регрессии дает средняя из условных дисперсий 2(У/Х) = 2 (У / х) Р( Х = х).

х Здесь значения 2(У/x) взяты с учетом вероятности каждого значения х.

Величина 2(У/Х) равна среднему квадрату отклонения значений У от линии регрессии. Ее можно записать в виде 2(У/Х) = М[ У – М ( У/ Х)]2.

Заметим, что при прогнозе У по любой другой линии средний квадрат ошибки прогноза будет больше. В самом деле, для любой постоянной а

–  –  –

+2 [ M(X) – a ]M[X - M(X)] + M[ M(X) – a ]2.

Второе слагаемое в правой части равно нулю, так как M[X - M(X)] = = М(Х) – М(Х) = 0. Третье слагаемое, очевидно, неотрицательно. Поэтому М(Х – а)2 M[ X – M(X) ]2.

Равенство возможно лишь при а = М(Х). Это означает, что средняя квадратическая ошибка прогноза будет наименьшей, если случайную величину прогнозировать по ее среднему значению. Линия регрессии проходит через условные средние значения У. Поэтому можно утверждать, что линия регресcии минимизирует среднюю квадратическую ошибку прогноза случайной величины У по наблюдаемому значению величины Х.

Линейная корреляция

Корреляция называется линейной, если линия регрессии одной величины на другую является прямой. В противном случае говорят о нелинейной корреляции.

Пусть линия регрессии имеет вид М(У/Х) = х + b. Согласно свойству линии регрессии, должен быть минимален средний квадрат отклонений У от этой линии, т.е. минимальной должна быть величина

–  –  –

причем ее минимальное значение равно 2(У/Х).

Параметры b и можно найти из условия минимума функции F(b, ).

Необходимые условия экстремума дают систему уравнений

–  –  –

2. Если rху = 0, то в силу (3.34) и угловой коэффициент линии регрессии равен нулю. Линия регрессии параллельна оси 0Х. В этом случае говорят, что величины некоррелированы, так как среднее значение У не изменяется при изменении Х. Отсутствие корреляционной зависимости не всегда означает независимость величин. Например, при постоянном среднем значении У может изменяться разброс значений относительно среднего (см.

рис.3.28, на котором точками изображены возможные положения случайной точки).

Рис.3.28

3. Из (3.34) следует, что угловой коэффициент линии регрессии и коэффициент корреляции имеют одинаковые знаки. Если rху 0, то говорят, что величины коррелированы положительно. В этом случае большему значению величины Х соответствует большее среднее значение У (см.

рис. 3.29). Еще раз подчеркнем, что речь идет именно об увеличении среднего значения У. В отдельных опытах большему Х может соответствовать меньшее У. Например, положительно коррелированы рост и вес человека, возраст и высота дерева, качество сырья и качество продукции и т. д.

Рис. 3.29 Если rху 0, то говорят, что величины коррелированы отрицательно.

Это означает, что большему значению одной величины соответствует в среднем меньшее значение другой. Например, число пропусков занятий и успеваемость коррелированы отрицательно.

4. Если rху = ± 1, то из (3.35) следует, что 2(У/Х) = 0. В этом случае разброса относительно линии регрессии нет. Между величинами существует линейная функциональная зависимость.

5. Из (3.35) следует, что 2(У/Х) 0 при rХУ 1. Значит, чем больше по модулю коэффициент корреляции, тем теснее прилегают значения У к линии регрессии, тем меньше средний квадрат ошибки прогноза У по наблюдаемому значению Х. На рис. 3.30 для сравнения показан разброс положений случайной точки (Х,У) относительно линии регрессии при двух разных значениях коэффициента корреляции rХУ) rХУ).

(1 (2

–  –  –

Во второй половине девятнадцатого века в теории вероятностей возникло новое направление исследований, которое получило название: предельные теоремы теории вероятностей. В этом направлении, начало которого было положено нашими соотечественниками П.Л. Чебышевым, А.А. Марковым, А.М. Ляпуновым, по сей день ведутся интенсивные исследования.

Предельные теоремы теории вероятностей можно разбить на две группы.

Одна группа теорем составляет так называемый закон больших чисел. Закон больших чисел формулирует условия, при которых совокупное действие большого числа случайных факторов приводит к результату, почти не зависящему от случая.

Вторая группа теорем связана распределением сумм большого числа случайных величин. В этих теоремах выясняется, какие законы распределения может иметь сумма случайных величин, если число слагаемых неограниченно увеличивается. В частности, центральная предельная теорема посвящена установлению условий, при которых суммы большого числа слагаемых имеют распределение, близкое к нормальному.

Первый вариант центральной предельной теоремы был доказан в 1912 г.

А.М. Ляпуновым. В настоящее время имеется несколько вариантов этой теоремы, различающихся условиями, которые накладываются на суммируемые случайные величины. Приведем простейшую формулировку центральной предельной теоремы для одинаково распределенных слагаемых.

Формулировка центральной предельной теоремы (для одинаково распределенных слагаемых):



Pages:   || 2 |



Похожие работы:

«РАБОЧАЯ ПРОГРАММА 2 вида по русскому языку 6 класс 1. ПОЯСНИТЕЛЬНАЯ ЗАПИСКА Рабочая программа по русскому языку для 6 класса составлена на основе авторской программы для общеобразовательных учреждений "Русский язык. 5-9 классы" под редакцией М.Т. Б...»

«АЛЕКСЕЕВ Юрий Валерьевич, председатель Совета директоров национальной компании человеческого капитала "ОПТИМА ПРОЕКТ", профессор. ДОВЖЕНКО Александр Алексеевич, руководитель проекта, разработчик методической и технической документаци...»

«shop.autoeuro.ru 4 августа, 2010 Описание WEB-магазина shop.autoeuro.ru.1. Регистрация Для работы с WEB-магазином необходима регистрация. После запроса на регистрацию, оператор производит активацию аккаунта...»

«Декабрь ‘94 Выпуск 2 Goblins Bridge УВАЖАЕМЫЙ ЧИТАТЕЛЬ! Мы рады снова приветствовать тебя. Мы рады уже тому, что первый выпуск не останется единственным. Однако еще большую радость доставило нам то, что уже первый выпуск вызвал хотя бы небольшое внимание, и у нас появилась надежда, что “пациент скорее будет жив, чем мертв”...»

«ИЛП-241 Батманова А.М. Г. Екатеринбург, УГЛТУ Проблемы Я у детей 3-4 лет: Кризис или норма?Мишечка, принеси, пожалуйста, книгу, ласково просит мама.Не принесу, твердо отвечает Миша.Пойдем, погуляем.Не пойду.Иди обедать.Не хочу.Послушаем сказку.Не буду.Дай, сынуля, я тебе помогу, как всегда, предлагает мама.Нет, я сам, упрямо возражает Миш...»

«69047 Светодиодный цветной бумажный фонарик на солнечной батарее Информация о продукте “Чибо ГмбХ” D-22290 Гамбург – 69047FV03X|||00GS – 291 131/291 132/291 133 Уважаемый покупатель! Ваш новый светодиодный цветной бумажный фонарик на солнечной батарее излучает приятный мягкий свет и рассеивает цветные блики в саду и на балконе...»

«№ Лист/ Код Наименование документа Редакция процесса листов Руководство по замерам и монтажу Д-5.7-07светопрозрачных конструкций П-5.7 0 стр. 1 из 42 ООО "Спецремстрой" Д-5.7-07-2014 Руководство по замерам и монтажу светопрозрачных конструкций ООО "Спецремстрой" Отменен Действует с 05.05.2014 подписано Утверждено Заместитель директора П...»

«МБОУ "Лицей г.Уварово им. А.И.Данилова" Победитель 393460, г. Уварово Тамбовской обл., 4-й мкрн., д.1, конкурсов тел. (47558), 4-14-15, 4-70-93 4-13-31, ПНПО-06, ПНПО-08. E-mail: l u v r o o @ m a i l. r u www.luvr.68edu.ru ИНН 6830003915, КПП 683001001, ОГРН 1056829384237 Рассмотрена и рекомендована к Утверждаю: утвер...»

«Инструкция по установке Данная инструкция по эксплуатации предназначена исключительно для внутреннего пользования. В ней содержатся процедуры сборки, эксплуатации и ремонта диспансера.Режимы работы: Режим рабочих параметров В этом режиме машина фун...»

«ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ УЧРЕЖДЕНИЕ НАУКИ ТИХООКЕАНСКИЙ ОКЕАНОЛОГИЧЕСКИЙ ИНСТИТУТ ИМ. В.И.ИЛЬИЧЕВА ДАЛЬНЕВОСТОЧНОГО ОТДЕЛЕНИЯ РОССИЙСКОЙ АКАДЕМИИ НАУК (ТОИ ДВО РАН) УДК 550.34; 551.466; 534.2; 519.688 № гос. рег. 01200956...»

«Приложение 1 Утверждено Приказом Муниципального бюджетного общеобразовательного учреждения "Школы № 8 г.Феодосии Республики Крым" от " 30" сентября 2016 г. № 241 Изменения к ООП ООО (ФГОС), которые вносятся в ООП OОО по ФК ГОС, утвержденную приказом МБОУ школы № 8 от 31 августа 2015...»

«Qtek t mobile инструкция 25-03-2016 1 Цементный сочельник является, наверное, ветровой каталажкой, но иногда нефтяное колыхает. Стационарная единичка вдается про. Подрыв патетично оборачивается затем бурильный осци...»

«1 В трех водах топлено, в трех кровях купано, в трех щелоках варено. Чище мы чистого. Все было кончено. По опустевшим улицам притихшего Петербурга морозный ветер гнал бумажный мусор — обрывки военных приказов, театральных афиш, воззваний к "сов...»

«Февраль, 2016г 1 А класс Вот и наступил последний зимний месяц – февраль. Хотя он и самый короткий из всех, но очень важный. 13 человек нашего класса приняли участие во Всероссийском турнире "Первоклассники в стране Знаний", 4 человека из них заняли...»

«ELITECH V по ЭКСПЛУАТАЦИИ РУКОВОДСТВО ПРЯМАЯ ШЛИФМАШИНА ПШ 650Э По вопросам продаж и поддержки обращайтесь: Архангельск (8182)63-90-72 Калининград (4012)72-03-81 Нижний Новгород (83...»

«46 Кириллов А.К. Россия капиталистическая Глава 3. Противостояние. 1874–1881 Противостояние. 1874–1881: революционеры, власть и общество Всё издалёка предвещало, Что час свершится роковой, Что выпадет такая карта. И этот века час дневной последний – Назван первым марта. (Александр Блок, тридцать лет спустя) 1860-е годы – бурный от...»

«Систематика мостов в свете безопасности. Побуждение к необходимости данной публикации с целью развить идейный замысел моей предыдущей статьи "Чтобы не было мостопада." ("РД" №14 от 30.03.2017 г.) главным образом обусловлено обращением к президенту РФ Путину В.В. д.э.н., к.т.н....»

«СЛУЖБА иже во святыхъ отцу нашему Iон, епископу Ханькоускому, чудотворцу На велицй вечерни, Блаженъ мужъ, 1-ый антифонъ.На "Господи воззвах" стихиры на 6, глас 6 Подобенъ: "Все отложше": Похвало Козельска и Калуги славо, / казанскаго вертограда богословiя украшенiе / и Маньчжурiи пастырю предобрый, / вся концы отечествiя и ра...»

«22 апреля 1996 года N 39-ФЗ РОССИЙСКАЯ ФЕДЕРАЦИЯ ФЕДЕРАЛЬНЫЙ ЗАКОН О РЫНКЕ ЦЕННЫХ БУМАГ Принят Государственной Думой 20 марта 1996 года Одобрен Советом Федерации 11 апреля 1996 года (в ред. Федеральных законов от 26.11.1998 N 182-ФЗ, от 08.07.1999 N 139-...»

«ИНСТРУКЦИЯ ПО ЭКСПЛУАТАЦИИ Кухонный комбайн Bosch MCM – 5529 Описание Рисунок А 1. Поворотный выключатель 0/off = остановка М = моментальное включение на наивысшую скорость, поворотный выключатель не отпускать Скорости 1-2 = рабочие скорости Скорость 1 = самое низкое число оборотов медленное вращение Скорость 2 = наивысшее...»









 
2017 www.book.lib-i.ru - «Бесплатная электронная библиотека - электронные ресурсы»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.