Содержание1.Основные понятия теории вероятности2.Случайная величина3.Основные теоремы теории вероятности4.Случайные величины и их законы распределения
Библиографический список
1. Основные понятия теории вероятности
Полнаягруппа событий: несколькособытий образуют полную группу, если в результате опыта непременнодолжно появиться хотя бы одно из них.
Несовместныесобытия: несколькособытий являются несовместными в данном опыте, если никакие два из нихне могут появиться вместе.
Равновозможныесобытия: несколькособытий называются равновозможными, если есть основание считать, что ниодно из них не является предпочтительным по сравнению с другими.
Частотасобытия: еслипроизводится серия из Nопытов, в каждом из которых могло появиться или не появиться некоторое событие А,то частотой события А в данной серии опытов называетсяотношение числа опытов, в которых появилось событие А, к общему числупроизведенных опытов.
Частотусобытия часто называют статистической вероятностью и вычисляют на основаниирезультатов опыта по формуле />, где m – число появлений события А.
Принебольшом числе опытов Nчастота может меняться от одной серии опытов к другой из-за случайностисобытий. Однако при большом числе опытов она носит устойчивый характер истремится к значению, которое называется вероятностью события.2. Случайная величина
Случайнойвеличиной (СВ)называется величина, которая в результате опыта может принять то или иноезначение, причем неизвестно заранее, какое именно.
Примеры: число попаданий в мишень приограниченном числе выстрелов; число вызовов по телефону в единицу времени;количество некондиционных транзисторов в партии выпускаемых изделий и т.д.
Случайныевеличины, принимающие только отдельные значения, которые можно пересчитать,называются дискретными случайными величинами.
СуществуютСВ другого типа: значения шумового давления, измеренного в различные моментывремени; вес булки хлеба, продаваемого в магазине и т.д. Называют их непрерывнымислучайными величинами.3. Основные теоремы теории вероятности
Суммаи произведение событий. Суммой двух событий А и Б называется событие С,состоящее в выполнении события А, или события Б, или обоихвместе.
Например,если событие А – попадание в мишень при первом выстреле, событие Б– попадание в мишень при втором выстреле, то событие С = А + Б естьпопадание в мишень вообще безразлично при каком выстреле – при первом, привтором или при обоих вместе.
Суммойнескольких событийназывается событие, состоящее в появлении хотя бы одного из этих событий.
Произведениемдвух событий Аи Б называется событие С, состоящее в совместном выполнениисобытия А и события Б.
Еслипроизводится два выстрела по мишени и если событие А есть попадание припервом выстреле, а событие Б – попадание при втором выстреле, то С= А∙Б есть попадание при обоих выстрелах.
Произведениемнескольких событийназывается событие, состоящее в совместном появлении всех этих событий.
2. Теорема сложения вероятностей.Вероятность суммы двух несовместных событий равна сумме вероятностей этихсобытий:
/>.
Пустьвозможные исходы опыта сводятся к совокупности случаев, которые для наглядностипредставлены на рис. 1 в виде Nсимволов.
/>
Рис. 1
Предположим,что из этих случаев mблагоприятны событию А, а k – событию Б. Тогда
/>.
Так каксобытия А и Б несовместны, то нет случаев, которые благоприятнысобытиям А и Б вместе. Следовательно, событию А + Бблагоприятны m + k случаев и
/>.
Подставляяполученные выражения в формулу для вероятности суммы двух событий, получимтождество.
Следствие Если события А1, А2,…, АNобразуют полную группу событий, то сумма их вероятностей равна единице.
Следствие 2. Сумма вероятностейпротивоположных событий равна единице.
3. Теорема умножения вероятностей.Необходимо ввести понятия независимых и зависимых событий.
Событие Аназывается независимым от события Б, если вероятность события Ане зависит от того, произошло событие Б или нет.
Событие Аназывается зависимым от события Б, если вероятность события Аменяется от того, произошло событие Б или нет.
Вероятностьсобытия А, вычисленная при условии, что имело место другое событие В,называется условной вероятностью события А и обозначается P(А/В).
Теоремаумножения вероятностей: вероятность произведения двух событий равнапроизведению вероятности одного из них на условную вероятность другого,вычисленную при условии, что первое имело место:
/>.
Пустьвозможные исходы опыта сводятся к N случаям, которые для наглядности даны в виде символов на рис. 2.
/>
Рис. 2
Предположим,что событию А благоприятны m случаев, а событию Б – k случаев. Так как не предполагались события А иБ совместными, то существуют случаи, благоприятные и событию А, исобытию Б одновременно. Пусть число таких случаев l. Тогда P(АБ) = l/N;P(A) = m/N. Вычислим P(Б/А), т.е. условнуювероятность события Б в предположении, что А имело место. Еслиизвестно, что событие А произошло, то из произошедших N случаев остаются возможными толькоте из m, которые благоприятствовали событию А.Из них l случаев благоприятны событию Б.Следовательно, P(Б/А)= l/m. Подставляя выражения P(АБ), P(A)и P(Б/А) в формулу вероятностипроизведения двух событий, получим тождество.
Следствие Если событие А не зависит отсобытия Б, то и событие Б не зависит от события А.
Следствие 2. Вероятность произведения двухнезависимых событий равна произведению этих событий.
4. Формула полной вероятности.Формула полной вероятности является следствием обеих теорем – теоремы сложениявероятностей и теоремы умножения вероятностей.
Пустьтребуется определить вероятность некоторого события А, которое можетпроизойти вместе с одним из событий H1, H2,…, HN, образующих полную группунесовместных событий. Будем эти события называть гипотезами. Тогда
/>,
т.е.вероятность события А вычисляется как сумма произведений вероятностикаждой гипотезы на вероятность события при этой гипотезе.
Эта формуланосит название формулы полной вероятности.
Так какгипотезы H1, H2,…, HN образуют полную группу событий, тособытие А может появиться только в комбинации с какой-либо из этихгипотез: А = H1А + H2А + …+ HNА. Так как гипотезы H1,H2,…, HN несовместны, то и комбинации H1А, H2А, … HNА также несовместны. Применяя к ним теорему сложения,получим:
/>.
Применяя ксобытию HiА теорему сложения, получим искомую формулу.
5. Теорема гипотез (формулаБайеса). Имеется полная группа несовместных гипотез H1, H2,…, HN. Вероятности этих гипотез до опыта известныи равны соответственно P(H1), P(H2), …, P(HN). Произведем опыт, в результатекоторого будет наблюдаться появление некоторого события А. Спрашивается,как следует изменить вероятности гипотез в связи с появлением этого события?
Здесь, посуществу, идет речь о том, как найти условную вероятность /> для каждой гипотезыпосле проведения эксперимента.
Из теоремыумножения имеем:
/>, (i =1, 2, …, N).
Или,отбрасывая левую часть, получим
/>, (i = 1, 2, …, N),
откуда
/>, (i =1, 2, …, N).
Выражая P(А) с помощью формулы полнойвероятности, имеем:
/>, (i =1, 2, …, N).
Эта формулаи носит название формулы Байеса или теоремы гипотез. Используется она в теориипроверки статистических гипотез (в частности, в теории обнаружения сигналов нафоне помех).
4. Случайные величины и их законы распределения
Закономраспределения СВ называется всякое соотношение, устанавливающее связь междувозможными значениями случайной величины и соответствующими им вероятностями.Про случайную величину будем говорить, что она подчинена данному законураспределения.
Простейшейформой задания закона является табл. 1, в которой перечислены возможныезначения СВ и соответствующие им вероятности.
Таблица 1×1 x2 … xN p1 p2 … pN
Однако такуютаблицу невозможно построить для непрерывной СВ, поскольку для нее каждоеотдельное значение не обладает отличной от нуля вероятностью.
Дляколичественной характеристики распределения используют зависимость вероятностисобытия X x, где x – некоторая текущая переменная, от x. Эта функция называется функцией распределения СВ X и обозначается F(x): F(x) = P(Xx). Функцию распределения F(x) иногда называют интегральной функцией распределенияили интегральным законом распределения.
Функцияраспределения существует для всех СВ – как непрерывных, так и дискретных.
Сформулируемнекоторые общие свойства F(x):
1) F(x) есть неубывающая функция своего аргумента, т.е. при x2 > x1F(x2) > F(x1);
2) на –¥ F(x)равна нулю, т.е. F(–¥) = 0;
3) F(¥) =
Поопределению, F(x) при некотором x есть вероятность попадания СВ X в интервал от –¥ до x.
Длядискретной СВ распределение F(x) имеет ступенчатый вид, причемвеличина каждого скачка равна вероятности значения, при котором имеется скачок F(x).
При решениипрактических задач часто необходимо вычислять вероятность того, что СВ приметзначение, заключенное в некоторых пределах, например от x1доx2.Это событие называется «попаданием СВ X на участок от x1доx2».Выразим вероятность этого события через функцию распределения СВ X. Для этого рассмотрим два события:
– событие А,состоящее в том, что Xx2;
– событие В, состоящее в том,что Xx1;
– событие С,состоящее в том, что x1X x2.
Учитывая,что А = В + С, по теореме сложения вероятностей получим />, или />, откуда />, т.е. вероятностьпопадания СВ на заданный участок равна приращению функции распределения на этомучастке.
Пустьимеется непрерывная СВ Xс функцией распределения F(x), которую считаем непрерывной идифференцируемой. Вычислим вероятность попадания этой СВ на участок от x до x+ Dx: />, т.е. эта вероятность равна приращениюфункции распределения на этом участке. Рассмотрим отношение этой вероятности кдлине участка или среднюю вероятность, приходящуюся на единицу длины на этомучастке. Кроме того, устремим Dxк нулю. В пределе получим производную от функции распределения:
/>.
Обозначим /> через f(x). Полученная функция характеризует плотность,с которой распределяется значение СВ в данной точке x. Это и есть плотность вероятности. Иногда ееназывают дифференциальным законом распределения СВ X.
Если X есть непрерывная СВ с плотностьювероятности f(x), то величина f(x)dxесть элементарная вероятность, соответствующая событию – попаданию СВ X на отрезок dx. Геометрически это есть площадьэлементарного прямоугольника, опирающегося на отрезок dx и ограниченного сверху функцией f(x).
Свойстваплотности вероятности:
1) /> при всех x, поскольку вероятность не может бытьотрицательной (кроме того, производная неубывающей функции не может быть отрицательной);
2) />;
3) />;
4) свойствонормировки />,т.е. площадь, ограниченная графиком плотности вероятности и осью x, всегда равна 1 (кроме того,попадание СВ X внеограниченную с обеих сторон ось x является достоверным событием).
Во многихпрактических ситуациях нет необходимости характеризовать СВ плотностьювероятности. Часто бывает достаточно указать только отдельные числовыепараметры, характеризующие в какой-то степени существенные черты распределенияСВ, например, среднее значение, вокруг которого группируются возможные значенияСВ; число, характеризующее степень разбросанности этих значений относительносреднего значения и т.д. Такие характеристики называются числовымихарактеристиками СВ.
Математическоеожидание (МО)иногда называют средним значением СВ. Оно обозначается /> и для дискретной СВ определяетсяпо формуле
/>.
Это среднеевзвешенное значение и называют МО.
Математическиможиданием СВ называют сумму произведений всех возможных значений СВ навероятности этих значений.
Математическоеожидание СВ X связано сосредним арифметическим значением наблюдаемых значений СВ при большом числеопытов так же, как и вероятность с частотой события, т.е. при увеличении числаопытов среднее арифметическое значение стремится к МО.
Длянепрерывной СВ МО определяется по формуле
/>.
Физически МОможно трактовать как координату центра тяжести тела (плотности вероятности).Единица измерения МО соответствует единице измерения СВ.
Моменты.Дисперсия. Среднеквадратическое отклонение. Начальным моментом s-го порядка для дискретной СВ X называется сумма вида />. Длянепрерывной СВ –
/>.
Из этихформул видно, что МО есть не что иное, как первый начальный момент СВ X. Условно, используя знак МО, можнозаписать выражение для s-гоначального момента, т.е. /> – начальным моментом s-го порядка СВ Xназывают МО s-й степени этой СВ.
ЦентрированнойСВ, соответствующейСВ X, называют отклонение СВ X от ее МО, т.е. />. Нетрудно убедиться,что МО центрированной СВ равно нулю. Моменты центрированной СВ называют центральнымимоментами. Таким образом, центральным моментом s-го порядка называют МО s-й степеницентрированной СВ: />. Длянепрерывной СВ s-й центральный момент выражаютинтегралом:
/>.
Введемсоотношения, связывающие центральные и начальные моменты различных порядков: />; />; />;…
Из всехмоментов чаще всего в статистической радиотехнике применяют МО и вторые моменты– начальный и центральный. Второй центральный момент называют дисперсиейСВ X. Для нее вводят специальное обозначение/>, или DX.
Дисперсияхарактеризует степень разбросанности (или рассеивания) СВ X относительно математическогоожидания и имеет размерность квадрата СВ X. На практике удобнее пользоваться величиной,размерность которой совпадает с размерностью СВ. Для этого из дисперсииизвлекают квадратный корень. Полученную величину называют среднеквадратическимотклонением (СКО). Ее обозначают через />. При извлечении квадратного корняиз второго начального момента получается величина, названнаясреднеквадратическим значением (СКЗ). Часто используют формулу, связывающуюосновные моменты:
/>.
Третийцентральный момент служит для характеристики асимметрии (или «скошенности»)плотности вероятности. Если плотность вероятности симметрична относительно МО,то все моменты нечетного порядка равны нулю. Поэтому естественно в качествехарактеристики асимметрии плотности вероятности выбрать какой-либо из нечетныхмоментов, из них простейший />. Но чтобы иметь безразмернуювеличину, этот момент делят на куб среднеквадратического отклонения />. Полученнаявеличина носит название коэффициента асимметрии или просто асимметрии,обозначают ее через Sk:
/>.
Четвертыйцентральный момент служит для характеристики так называемой «крутости»(островершинности или плосковершинности) плотности вероятности. Эти свойствараспределения описываются с помощью так называемого эксцесса: />. Число 3 вычитается изотношения /> потому,что для весьма распространенного в природе нормального закона это отношениеравно трем.
Кромерассмотренных моментов, используют иногда абсолютные моменты (начальныеи центральные): />; />. Из них чаще всего применяютпервый абсолютный центральный момент />, называемый среднимарифметическим отклонением. Его используют наряду со среднеквадратическимотклонением для характеристики рассеивания СВ, для которых не существуетдисперсии.
Кроме такиххарактеристик, используются понятия мода и медиана плотностивероятности. Модой (М) называют наиболее вероятное значение,соответствующее максимуму плотности вероятности (если таких максимумовнесколько, то распределение называют полимодальным). Медиана (Ме)– это такое значение СВ X,для которого P(X Me). Вслучае симметричного одномодального (унимодального) распределения медиана совпадаетс МО и модой.
РаспределениеЛапласа (двухсторонний экспоненциальный):
/>,
где m – МО; l – характеризует степень разбросанности X относительно m.
2.Биномиальное распределение (Бернулли):
/>.
Например,это распределение используется для определения вероятностей правильногообнаружения и ложной тревоги по пачке импульсов при заданных вероятностяхобнаружения и вероятности ложной тревоги одного импульса в пачке.
3. Законравномерной плотности вероятности.
Пример. Погрешность измерения напряжения спомощью вольтметра с дискретной шкалой (±(a – b)/2 – половина деления). МО есть (a + b)/2; дисперсия – (a – b)2/12;среднеквадратическое отклонение (a – b)/(2/>).
4.Нормальный (Гаусса) закон. Самый распространенный в природе:
/>.
Центральныемоменты: />;/>; />; /> и т.д.Следовательно, Sk=0; Ex = 0. Для нормального закона принахождении вероятности попадания случайной точки на заданный участок оси x имеются таблицы так называемого интегралавероятностей; их несколько для различных выражений, например: /> (для m = 0 и s = 1). При определении вероятности попадания научасток от а до bполучим />.Интерес для практики представляет определение вероятности попадания в интервал,заданный в единицах среднеквадратического отклонения, например, ±3s. Так, например, эта вероятность есть 0,997. Отсюда следуеттак называемое «правило 3s».Для нормальных СВ это правило позволяет на практике приближенно вычислять s. Например, при определениидинамического диапазона магнитофона с помощью осциллографа при отсутствиивольтметра.
Всеостальные законы плотности вероятности непрерывных СВ образованыпреобразованием равномерного или нормального законов, например:
– законСимпсона (треугольный). Дисперсия />. Свертка двух равномерных законовсоответствует плотности вероятности суммы двух независимых равномернораспределенных случайных величин;
– законРэлея (корень квадратный из суммы квадратов двух СВ, распределенных понормальному закону)
/>.
Распределениемодуля комплексной случайной величины при нормальных распределенияхдействительной и мнимой составляющих подчиняется этому закону (распределениеогибающей узкополосного случайного процесса).
Гистограмма. По оси абсцисс откладываютсяразряды (интервалы шириной l),и на каждом из них как на основании строится прямоугольник, площадь которогоравна частоте для данного разряда (оценке вероятности попадания значений вданный разряд – отношение числа попаданий в разряд к общему числу испытаний).Для построения гистограммы нужно частоту для каждого разряда разделить на егодлину и полученное число взять в качестве высоты прямоугольника. Очевидно, чтоплощадь всех прямоугольников равна
Приувеличении числа измерений Nширину lинтервалов можно уменьшать(увеличивать их число m).По мере увеличения Nи уменьшения l гистограммабудет приближаться к графику плотности вероятности величины X. То есть гистограмма является«портретом» плотности вероятности. Для получения «хорошего портрета» необходимопри заданном N рациональновыбрать число интервалов. При малом числе интервалов плотность вероятностибудет описываться слишком грубо, по мере увеличения числа интервалов будетвыявляться тонкая структура плотности вероятности. Но при слишком большом числеинтервалов «портрет» снова существенно исказится: появятся неравномерности, незакономерные для исследуемой плотности вероятности (в интервалы попадет малорезультатов измерений, и элемент случайности приведет к искажениям).
Числовыехарактеристики распределения. Среднее арифметическое наблюдаемых значений:
/>.
Приувеличении N статистическое среднее стремится кМО. Аналогично оценивается дисперсия – это среднее арифметическое квадратацентрированной СВ, т.е.
/>, где />.
Таким жеобразом определяются другие статистические характеристики, например:определение плотности вероятности по гистограмме.
Задача эта взначительной мере неопределенная, так как сложно подобрать плотностьвероятности, отвечающую модели СВ, т.е. исходя из какого критерия можногистограмму заменить подходящей плотностью вероятности. Более строго, но созначительными допущениями решается эта проблема с помощью критериев согласия, асейчас воспользуемся более простыми соображениями: сначала производим анализвида гистограммы, сравнивая ее с известными законами распределения, а затем, подбираяпараметры этого закона, будем добиваться наибольшего визуального сходствасглаженной гистограммы с кривой подобранной плотности вероятности. Например,если график сглаженной гистограммы по виду близок к нормальному закону, торассчитанные по результатам измерений оценки МО и /> можно использовать для построениянормальной плотности вероятности и считать ее соответствующей анализируемой выборкеСВ.
теориявероятности теорема дисперсия
Библиографическийсписок
1. Математические основы современнойрадиоэлектроники [Текст] / И.А. Большаков [и др.]. – М.: Сов. радио, 2009. –208 с.
2. Гоноровский, И.С. Радиотехническиецепи и сигналы [Текст] / И.С. Го-норовский. – М.: Радио и связь, 2006. – 608с.
1. Манжос, В.Н. Теория и техникаобработки радиолокационной информа-ции на фоне помех [Текст] / Я.Д. Ширман,В.Н. Манжос. – М.: Радио и связь, 2011. – 416 с.
2. Фомичев, К.И. Моноимпульснаярадиолокация [Текст] / А.И. Леонов, К.И. Фомичев. – М.: Сов. радио, 2010. –370 с.
3. Федосов, В.П. Статистическаярадиотехника [Текст]: конспект лекций / В.П. Федосов, В.П. Рыжов. – Таганрог:Изд-во ТРТИ, 2008. – 76 с.