Расчет информационных характеристик источников сообщений сигналов и каналов

Федеральное агентство по образованию
Государственное образовательное учреждение высшего профессионального образования
«ПЕНЗЕНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»
Кафедра «Информационная безопасность систем и технологий»
УТВЕРЖДАЮ
Зав. кафедрой ИБСТ
______________ С.Л. Зефиров
ОТЧЕТ
О КУРСОВОМ ПРОЕКТЕ
«Расчет информационных характеристик источников сообщений, сигналов и каналов».
Руководитель КП
Н.А.Егорова
Исполнитель КП
П.А. Пивоваров
Нормоконтролер
Т.В. Щербакова
Пенза, 2007
Реферат
Пояснительная записка 27с., 8 рис., 1 табл.
СИГНАЛ, КАНАЛ, ЭНТРОПИЯ, СООБЩЕНИЕ, АНСАМБЛЬ, ИЗБЫТОЧНОСТЬ, КВАНТОВАНИЕ, ДИСКРЕТИЗАЦИЯ, ИНФОРМАЦИЯ.
Объектом исследования являются источники сообщений, сигналы и каналы, рассматриваемые с позиции теории информации.
Цель работы – получение навыков расчёта информационных характеристик источников дискретных сообщений и дискретного канала, изучение процессов согласования дискретного источника с дискретным каналом, дискретизации и квантования.
В процессе работы проводилось изучение необходимого теоретического материала и решение задач в соответствии с пунктами задания.
В результате выполнения работы были решены все задачи в соответствии с вариантом задания, получены навыки расчёта информационных характеристик источников дискретных сообщений и дискретного канала, изучены процессы согласования дискретного источника с дискретным каналом, дискретизации и квантования.
Значимость работы – ещё раз подтверждает слова К. Шеннона, «что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия».
Следует ожидать, что идеи и методы теории информации, касающиеся источников сообщений, сигналов и каналов, будут успешно использоваться и в дальнейшем, особенно при создании сложных систем, объединяющих различные по целям, функциям и даже физическому воплощению подсистемы.
Содержание
Нормативные ссылки
Введение
1 Расчет информационных характеристик источников дискретных сообщений
2 Расчет информационных характеристик дискретного канала
3 Согласование дискретного источника с дискретным каналом
4 Дискретизация и квантование
Заключение
Нормативные ссылки
В настоящем отчете использованы ссылки на следующие стандарты:
— ГОСТ 1.5 – 93 Государственная система стандартизации РФ. Общие требования к построению, изложению, оформлению и содержанию стандартов.
— ГОСТ 2.105 – 95 Единая система конструкторской документации.
— ГОСТ 2.301 – 68 ЕСКД Форматы.
— ГОСТ 7.1 – 84 Система стандартов по информации, библиотечному и издательскому делу. Библиографическое описание документа. Общие требования и правила составления.
— ГОСТ 7.32 – 2001 Система стандартов по информации, библиотечному, издательскому делу. Отчёт о научно – исследовательской работе.
Введение
Эффективная организация обмена информацией приобретает всё большее значение, прежде всего как условие успешной практической деятельности людей. Объём информации, необходимой для нормального функционирования современного общества, растёт примерно пропорционально квадрату развития производительных сил. Доля рабочей силы, занятой вопросами обеспечения информацией, начинает превышать долю рабочей силы, занятой непосредственно в сфере производства.
Информация наряду с материей и энергией является первичным понятием нашего мира и поэтому в строгом смысле не может быть определена, при этом в узком практическом смысле под информацией обычно понимают совокупность сведений об окружающем мире, являющуюся объектом хранения, передачи и преобразования. Информация передаётся и хранится в виде сообщений, а изменяющийся во времени физический процесс, отражающий передаваемое сообщение называется сигналом. А система связи, являющаяся совокупностью технических средств, используемых для передачи сообщений от источника к потребителю информации.
В данной работе объектом исследования являются источники сообщений, сигналы и каналы, рассматриваемые с позиций теории информации, круг проблем которой можно охарактеризовать как исследование методов кодирования для экономного представления сообщений различных источников и для надёжной передачи сообщений по каналам связи с шумом.
В основе теории информации лежит статистическое описание источников сообщений и каналов связи, а также базирующееся на этом описание измерения количества информации между сообщениями, определяемого только вероятностными свойствами сообщения.
На основе теории информации можно ответить на вопросы о предельных возможностях, т.е. максимально достижимых характеристиках различных систем, определить в какой мере проектируемая система близка к теоретически возможной. В некоторых случаях логика рассуждений, используемая в теории информации, подсказывает путь, на котором может быть найдено конструктивное решение для реальной системы.
В данной работе основные идеи и методы теории информации были рассмотрены и практически закреплены на примере конкретных задач, составляющих четыре раздела задания.
1. Расчёт информационных характеристик источников дискретных сообщений
1.1 Задача № 1.38
Ансамбли событий X и Y объединены, причем вероятности совместных событий равны: />;/>;/>; />; />; />; />; />.Найти: энтропии ансамблей X и Y соответственно />/>; энтропию объединенного ансамбля />; условные энтропии ансамблей />
Решение:
Известны вероятности совместных событий, и с учётом соотношения
/>
находятся безусловные вероятности p(xk) и p(yk), которые потребуются при дальнейшем решении:
/>;
/>
/>;
/>;
/>;
/>.
2) По формуле определения энтропии (1.4), находятся энтропии ансамблей H(X) и H(Y):
/>
/>
3) Для нахождения среднего количества информации, даваемое сообщением X при условии, что сообщение ансамбля Y уже известно, т.е. нахождение энтропии ансамбля H(X,Y), используется формула определения энтропии объединённого ансамбля:
/>
т.о., в нашем случае H(X,Y) будет равна
/>
4) Итак, была найдена энтропия объединённого ансамбля. Далее по заданию требуется определить условные энтропии ансамблей H(X/Y) и H(Y/X). Формулу условной энтропии можно получить из формулы количества информации, содержащейся Y относительно X и наоборот.
/>
1.2 Задача № 1.66
Принимаемый сигнал может иметь амплитуду /> (событие />) или /> (событие />), а также сдвиг фазы /> (событие />) или /> (событие />) режимах. Вероятности совместных событий имеют следующие значения:–PAGE_BREAK–
/>; />; />;/>.
Вычислить количество информации получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда.
Решение:
Количество информации вычисляется по формуле:
/>
Величина I(Y,X) показывает, сколько в среднем бит информации о реализации ансамбля Y дает наблюдение реализации ансамбля Z. Подставив в эту формулу в выражение для вычисления энтропии и условной энтропии:
/>
/>
/>
Учитывая, что
/>,
последнее выражение можно записать в виде:
/>
Вычисляются необходимые величины.
p(y1) = p(x1, y1) + p(x2, y1) = 0.47 + 0.27 = 0.74
p(y2) = p(x1, y2) + p(x2, y2) = 0.17 + 0.09 = 0.26
p(x1) = p(x1, y1) + p(x1, y2) = 0.47 + 0.17 = 0.64
p(x2) = p(x2, y1) + p(x2, y2) = 0.27 + 0.09 = 0.36
Все величины подставляются в формулу:
/>
/>
1.3 Задача № 1.84
Дискретный источник выбирает сообщения из ансамбля
/>.
Длительности сообщений соответственно равны: tu1=0,96 c, tu2=0,44 c, tu3=0,67 c, tu4=0,39 c. Определить производительность источника.
Решение:
Производительность источника рассчитывается по формуле,
/>
где T – время, затрачиваемое в среднем на каждое сообщение при передаче, и определяемое в соответствии со следующим выражением:
/>
а энтропия источника H(U) в соответствии с формулой (1.4) [1] равна:
/>
Итак, производительность источника равна:
/>
2. Расчёт информационных характеристик дискретного канала
2.1 Задача № 2.23
На вход дискретного симметричного канала, показанного на рисунке 2, без памяти поступают двоичные символы /> и /> с априорными вероятностями p(U1)=0,75 и p(U2)=0,25.
/>
Рисунок 2 – Дискретный симметричный канал

Переходные вероятности />в таком канале задаются соотношением

/> ,

где p=0,1 – вероятность ошибки. Определить все апостериорные вероятности />.
Решение:
/> — переходные вероятности того, что на выходе будет символ zjпри условии, что на входе был символ ui.
/> — апостериорные вероятности того, что на входе канала имел место символ ui при условии, что на выходе наблюдается zj.
По формуле Байеса:
/>
Итак, />
/>
/>
/>
2.2 Задача № 2.48
Двоичный источник с равновероятными элементами имеет производительность U’=1500 бит в секунду. При передачи по каналу в среднем один из 100 символов принимается ошибочно. Определить скорость передачи инфориации по данному каналу.
Решение:
U1 Z1 “1”
/>/>/>

U2 Z2 “0”
Рисунок 3 – Дискретный канал
Ситуация в канале характеризуется данным рисунком 3. В среднем один из 100 символов принимается ошибочно, поэтому вероятность ошибки будет составлять ро=1/100=0,01. Тогда вероятность правильного принятия будет вычисляться из следующего выражения: 1-р0=1-0,01=0,99.
Таким образом, канал описывается распределением вероятностей:
P(Z1/U1)=P(Z2/U2)=0,99
P(Z1/U2)=P(Z1/U2)=0,01
P(U1)=P(U2)=0,5- дано по условию
Скорость передачи информации вычисляется по формуле:
I’(U,Z)=H’(U)-H’(U/Z),
а энтропия будет равна 1 биту, так как
0,5log2+0,5log2=1
H’(U)=VC*H(U), гдеVC=1500 c-1
I’(U,Z)=H’(U)-H’(U/Z)
H’(U/Z)=VC*H(U/Z)    продолжение
–PAGE_BREAK–
/>
Условные вероятности можно найти по формуле Байеса:
/>
H(U/Z)=-P(Z1)[P(U1/Z1)log2P(U1/Z1)+P(U2/Z1)log2P(U2/Z1)]-P(Z2)[P(U1/Z2)log2P(U1/Z2)+ P(U2/Z2)log2P(U2/Z2)]
H(U/Z)=-(0.5+0.5)(-2*0.99log(0.99)-2*0.01*log(0.01))=0.16
H’(U/Z)=VC*H(U/Z)=1500*0,16=241 (бит)
I’(U,Z)=H’(U)-H(U/Z)=1500-241=1259(бит/с)
3. Согласование дискретного источника с дискретным каналом
3.1 Задача № 3.23
Закодировать двоичным кодом Фано ансамбль сообщений {ai}:
{0.08, 0.001, 0.06, 0.09, 0.017, 0.18, 0.4, 0.06, 0.003, 0.027, 0.014, 0.068}
Закодировать произвольную комбинацию, состоящую из 5 символов из ансамбля{ai}. Определить потенциальный минимум среднего количества символов кода, приходящихся на одно сообщение ансамбля {ai} и среднее количество символов, разработанного кода Фано, приходящихся на одно сообщение из ансамбля {ai}. Рассчитать эффективность разработанного кода.
Решение.
Кодируется кодом Фано заданный ансамбль сообщений следующим образом.
Таблица 1 — Кодирование ансамбля сообщений {ai} двоичным кодом Фано
сообщение
вероятность
код
а7
0,4
00
а6
0,18
01
а4
0,09
100
a1
0,08
1010
а12
0,068
1011
а3
0,06
1100
а8
0,06
1101
а10
0,027
1110
а5
0,017
11110
а11
0,014
111110
а9
0,003
1111110
a2
0,001
1111111
Сообщения источника располагаются в порядке не возрастания их вероятностей, делятся на две части так, чтобы суммарные вероятности сообщений в каждой части были по возможности равны. Сообщениям первой части приписывается в качестве первого символа нуль, а сообщениям второй части единица. Затем каждая из этих частей (если она содержит более одного сообщения) опять делится на две примерно равные части и в качестве второго символа для первой из них берется 0, а для второй 1. Этот процесс повторяется до тех пор, пока в каждой из полученных частей не останется по одному сообщению.
После использования полученных комбинаций символов, закодируется произвольная комбинация, состоящая из 5 символов из ансамбля {ai}: 101011111110010011110.
Среднее количество символов, приходящихся на одно сообщение, определяется по формуле 2.9 курса лекций:
/>,
где ms – количество позиций, а ps – вероятность сообщения из ансамбля {ai}.
/>
Определяется минимальное среднее количество символов, приходящихся на одно сообщение, по формуле
/>,
где M – объем алфавита кода, равный 2, а H(U) энтропия источника.
Далее находится энтропия:
/>/>
/>/>/>
/>
Затем вычисляется величина ψ-эффективность кода, которая характеризует степень близости неравномерного статистического кода к оптимальному.
/>/>
3.2 Задача № 3.56
Определить избыточность оптимального по Шеннону кода (существование которого утверждается теоремой для канала с шумом) с объемом алфавита m и средним количеством символов, переданных в единицу времени Vk, предназначенного для безошибочной передачи информации по каналу с пропускной способностью С.
Найти минимально возможную избыточность оптимального кода для симметричного канала при m = 8 и вероятности ошибки P = 0,08.
Решение:
Избыточность кода вычисляется по следующей формуле:
/>,
где H¢(Z)=Vk*H(Z)
Так как передача информации предполагается безошибочной, то кодирование должно быть однозначным, то есть потери информации при кодировании должны отсутствовать. Это означает, что:
H¢(Z)=H¢(U),
где H¢(U)- производительность источника, который передает информацию.
В соответствии с условием теоремы Шеннона
H¢(U) C, а H(U) = С + ε = С; (ε→0),    продолжение
–PAGE_BREAK–
тогда формула избыточности будет выглядеть следующим образом:
/>, при ε→0
/>
Для двоичного симметричного канала справедливо выражение:
C=Vk*[1+p*log2p+(1-p)*log2(1-p)]
Подставив известные значения в формулы, получается:
C=Vk*0.6
/>
4. Дискретизация и квантование
4.1 Задача № 4.23
/>Непрерывный сигнал x(t), имеющий спектр X(jω) дискретизируется с частотой дискретизации ωд, отображенный на рисунке 4.
/>

/>/>/>

Рисунок 4 — Непрерывный сигнал x(t), имеющий спектр X(jω) дискретизируется с частотой дискретизации ωд
Выполняется ли в данном случае условие теоремы Котельникова? Построить график спектра дискретизированного сигнала (изобразить 5 периодов спектра).Проиллюстрировать графически процесс восстановления спектра непрерывного сигнала с помощью идеального интерполирующего фильтра по спектру дискретного сигнала.
Решение:
При построении графика спектра дискретизированного сигнала (рисунок 4) исспользуется выражение (3.16) [1], причём для изображения 5 периодов спектра следует учесть 5 слагаемых:
/>
Процесс восстановления спектра непрерывного сигнала с помощью идеального интерполирующего фильтра по спектру дискретного сигнала проиллюстрирован графически на рисунке 5, где первый график представляет собой частотную характеристику идеального фильтра низких частот, а /> — спектр сигнала на выходе интерполятора.
Условие теоремы Котельникова (неравенство (3.17) [1]) в данном случае не выполняется (т.к. />), из-за взаимного перекрытия слагаемых /> происходит изменение формы спектра /> и точное восстановление />, а следовательно и x(t), невозможно.
4.2 Задача № 4.52
Непрерывный сигнал /> дискретизируется с частотой дискретизации ωд=2,5. Построить графики непрерывного и дискретизированного сигналов (изобразить не менее пяти периодов). Проиллюстрировать графически процесс восстановления непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка.
Решение:
Зная выражение, описывающее непрерывный сигнал, и частоту дискретизации, найдём период дискретизации />, необходимый при построении графика дискретизированного сигнала, выразив его через период Т непрерывного сигнала:
/>.
Графики исходного непрерывного и дискретизированного сигналов представлены на рисунке 6.
/>/>/>
/>/>
Интерполятором называется фильтр, преобразующий отсчёты дискретного сигнала в непрерывный сигнал. Процесс восстановления сводится к подаче дискретного сигнала на вход фильтра, с выхода которого снимается непрерывный сигнал. Математически процесс восстановления сигнала описывается следующим выражением:
/>,
где /> — сигнал на выходе интерполятора;
/> — отсчёты дискретного сигнала;
/> — импульсная характеристика фильтра, для интерполятора 1-ого порядка она имеет вид, представленный на рисунке 7.
/>/>/>
Итак, процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка проиллюстрирован графически на рисунке 8, где последний график описывает сигнал, получившийся на выходе интерполятора.
/>/>
/>/>
Рисунок 8 Лист 21 — Процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка
/>/>
/>/>
/>/>
/>/>
Рисунок 8 Лист 22 — Процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка
/>/>
/>/>
/>/>
/>/>
Рисунок 8 Лист 23 — Процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка
/>/>
/>/>
/>/>
Рисунок 8 Лист 24 — Процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка
/>/>/>/>
Рисунок 8 Лист 25 — Процесс восстановления заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора 1-го порядка
4.3 Задача № 4.67
Непрерывное сообщение u(t) квантуется с округлением с постоянным шагом Du при числе уровней квантования Ny=45. Плотность распределения вероятностей сообщения Wu(U) равномерна в интервале от –Um до Um, т.е.
/>/>
0, при др. U
Определить соотношение сигнал – шум в квантованном сообщении./>
Решение:
Соотношение сигнал – шум определяется как отношение мощности сигнала к мощности шума, т.е.
/>,
где Рс и Рш находятся как дисперсия случайной величины Uc и Uш, следовательно,
/>/>,
где Mu – математическое ожидание, которое определяется как:
/>.
Исходя из значения математического ожидания, получается:
/>/>.
Согласно условию задачи квантование производится с округлением, следовательно, дисперсия или мощность шума определяется формулой
/>.
Подставляя полученные значения в выражение для нахождения соотношения сигнал – шум, получается:
/>
В соответствии с формулой 3.1 а курса лекций
/>, откуда:
/>.
Известно, что Ny=45, получается
/>
Заключение
В результате выполнения работы изучен необходимый теоретический материал, решены все задачи в соответствии с вариантом задания, получены навыки расчёта информационных характеристик источников дискретных сообщений и дискретного канала, изучены процессы согласования дискретного источника с дискретным каналом, дискретизации и квантования, т.о. задание курсового проекта выполнено в полном объёме.