Расчёт элементов и узлов аппаратуры связи

 

СОДЕРЖАНИЕ


ИСХОДНЫЕ ДАННЫЕ

ВВЕДЕНИЕ

. РАСЧЕТНАЯ ЧАСТЬ

.1 Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений

.2 Теоретическая и эмпирическая вероятность появления на выходе источника цепочек символов

.3 Вычисление безусловной и условной энтропии источника

.4 Статистическое двоичное кодирование источника

.5 Построение графиков модулирующего и модулированного сигнала

.6 Расчет спектров модулирующего и модулированного сигналов

.7 Расчет средней мощности и практической ширины спектра модулирующего сигнала

.8 Расчет пропускной способности двоично-симметричного сигнала

.9 Расчет коэффициента использования линий связи

.10 Расчет эквивалентной вероятности ошибочного приема двоичного элемента

.11 Код Хэмминга

ЗАКЛЮЧЕНИЕ

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ


ИСХОДНЫЕ ДАННЫЕ


Система связи состоит из источника дискретных сообщений, кодера источника, кодера канала, модулятора, линии связи, демодулятора, декодера канала, декодера источника и получателя сообщений.

Определить характеристики системы:

. Статистический анализ вероятностных свойств источника для заданной реализации отрезка его выходного текста сообщений - таблица 1.

. Оценить теоретически и эмпирически вероятности появления на выходе источника цепочек символов - таблица 2. Определить количество информации, содержащееся в этих цепочках сообщениях.

. Вычислить безусловную и условную энтропию источника, а также его коэффициент избыточности и производительность при заданных длительностях символов первичного алфавита


Таблица

Номер вариантаЦепочки символовДлительность символовТа, мSТb, мSТс, мS7САВВСABBС2.71.43.8

. Провести статистическое кодирование источника по методу Шеннона-Фано. Кодирование источника необходимо выполнить для первичного алфавита и для вторичного (укрупненного) алфавита при объединении символов в блоки по m=3 символа.

. Для произвольно выбранной цепочки из 12 символов первичного алфавита построить графики модулирующего и модулированного сигналов с двоичной АМ, ЧМ и ФМ.

Примечание: 1) Модулирующий сигнал формируется на выходе кодера источника для укрупненного алфавита в соответствии с пунктом 4 и состоит из однополярных прямоугольной формы двоичных посылок с длительностью согласованной с производительностью источника из пункта 3; 2) Несущая частота модулированного гармонического сигнала должна быть выбрана такой, чтобы на длительности одной двоичной посылки укладывалось ровно p=6 периодов колебаний. 3) Амплитуды модулирующего и модулированного сигналов принять равными 1 В.

. Рассчитать и построить графики спектров модулирующего и модулированного сигнала, взяв скважность Q=4, а длительность посылки - как в пункте 5.

. Рассчитать среднюю мощность единичной посылки и практическую ширину спектра модулирующего сигнала.

. Рассчитать пропускную способность двоично-симметричного канала между входом модулятора и выходом демодулятора.

. Рассчитать коэффициент использования для пропускной способности линии связи.

10. Рассчитать эквивалентную вероятность ошибочного приема двоичного элемента при использовании помехоустойчивого блочного кода с исправлением 2-кратных ошибок и длине блока = 15.

Примечание. При расчете в п. 8 и 9 полагать, что: 1) спектральная плотность мощности аддитивной гауссовской помехи, действующей в линии связи =1 мВт/Гц; 2) Амплитуда сигнала на выходе передатчика подбирается из расчета выполнения следующего условия для вероятности ошибочного приема двоичного элемента: ; 3) Метод приема сигналов в демодуляторе - оптимальный когерентный.


ВВЕДЕНИЕ


Обобщенная структурная схема рассчитываемой системы имеет вид:



Система связи состоит из источника дискретных сообщений, кодера источника, кодера канала, модулятора, линии связи, демодулятора, декодера канала, декодера источника и получателя сообщений.


1. РАСЧЕТНАЯ ЧАСТЬ


.1 Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений


Дискретным источником сообщений называют источник, выдающий последовательность символов, принадлежащих некоторому алфавиту , где K - объем алфавита; - символы алфавита. В данном курсовом проекте: K=3, , и . Источник считается заданным, если известны априорные вероятности и переходные (условные) вероятности появления символов.

Статистический анализ свойств источника заключается в нахождении указанных вероятностей. Для этого следует воспользоваться классической формулой определения вероятности:


. (1)


Отсюда априорную вероятность появления отдельных символов можно найти как


,(2)


где - количество символов в тексте сообщения; - общее количество символов в тексте сообщения (в данном курсовом проекте = 200). Аналогично переходные вероятности появления символов для простейшего источника с памятью (марковский источник 1-го порядка) могут быть определены по формуле

,(3)


где - вероятность появления символа , если перед ним был символ ; - количество появлений пар сочетаний символов в тексте.

Результаты расчета априорных и переходных вероятностей по формулам (2),(3), выполненные по условиям курсового проекта, показаны в таблицах 1.1.1 и 1.1.2, соответственно.


Таблица 1.1.1 - Априорные вероятности источника сообщений

554798

Таблица 1.1.2 - Переходные вероятности источника сообщений

Для найденных вероятностей соблюдаются следующие условия нормировки:


1.2 Теоретическая и эмпирическая вероятность появления на выходе источника цепочек символов


Эмпирическая вероятность - это вероятность, получаемая в результате практических испытаний. В нашем случае эмпирическая вероятность некоторой цепочки символов может быть найдена в соответствии с формулой (1)


.(4)


В частности, пусть, например, требуется определить вероятность цепочки CA. Тогда формула (4) приобретет вид


,(5)


где - количество появлений цепочки CA в тексте; N-1- количество полных двоек со смещением в тексте.

Требуется определить вероятность цепочки BBC. Тогда формула (4) приобретет вид


,(5)


где N(BBC) =5 - количество появлений цепочки BBC в тексте; N-2- количество полных двоек со смещением в тексте.

Требуется определить вероятность цепочки AABB. Тогда формула (4) приобретет вид


,(5)


где N(ABBC) =5 - количество появлений цепочки ABBC в тексте; N-3- количество полных двоек со смещением в тексте.

Теоретическая вероятность - это вероятность, определяемая с помощью формул и теорем теории вероятностей. В частности, для рассматриваемой цепочки BA теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий


(6)


где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Для рассматриваемой цепочки BBC теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий


(6)


где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Для рассматриваемой цепочки ABBC теоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий

(6)


где входящие в формулу значения вероятностей взяты из таблиц 1.1.1, 1.1.2.

Следует заметить, что выполненные вычисления по формулам (5) и (6) могут не совпадать в общем случае, особенно, для редких цепочек. Это связано с недостаточно полным объёмом исходных статистических данных (ограниченной длиной текста сообщения N = 200 символов).

Расчёт количества информации содержащейся в цепочке проводится согласно определению: количество информации - это величина, определяющая число двоичных символов, необходимых для передачи цепочки, и вычисляемая в соответствии с мерой информации по К.Шеннону:


[бит/сообщ],(7)


где log - здесь и далее обозначает двоичный логарифм; - вероятность цепочки, например, эмпирическая или теоретическая.

Отметим, что количество информации не зависит от качественного содержания сообщения (цепочки), в частности от степени его важности для получателя, возможных последствий его передачи и т.д. Количество информации, содержащейся в сообщении , есть логарифмическая функция от вероятности . Количество информации в достоверном событии равно нулю, а количество информации в невозможном событии (имеющем вероятность = 0) равно бесконечности. Отсюда можно сделать вывод, что чем меньше вероятность сообщения (цепочки), тем большее количество информации оно содержит. Расчет теоретической и эмпирической вероятностей появления цепочек символов в сообщении приведен в таблице.

Таблица 1.2.1 - Теоретическая и эмпирическая вероятности появления цепочек символов в сообщении

ЦепочкаI(цепочка), [бит/сообщ]CA0,16080,10003,3219BBC0,02530,02335,4252ABBC0,02540,00388,0371

1.3 Вычисление безусловной и условной энтропии источника


Поскольку сообщения случайные, то и количество информации является случайной величиной. Для того чтобы охарактеризовать источник более полно используют среднюю меру, называемую энтропией. Отсюда, энтропия - это математическое ожидание по частным количествам информации сообщений, генерируемых источником. Безусловная энтропия источника вычисляется по формуле


[бит/сообщ.](8)


В данную формулу подставляются значения априорных вероятностей появления отдельных символов, вычисленных в пункте 1. Отметим, что формула (8) не учитывает статистическую связь между символами, поэтому такая энтропия называется безусловной.

Энтропия является показателем средней априорной неопределенности при выборе очередного символа из источника. Выражение (8) можно рассматривать, как меру неопределенности (энтропии) состояния источника, заданного своими безусловными вероятностями.

Из выражения (8) следует, что энтропия источника равна нулю тогда и только тогда, когда одна из вероятностей равна единице, а остальные вероятности соответственно равны нулю, т.е. когда имеет место полной определенности выбора.

С другой стороны, легко показать, что наибольшая неопределенность выбора при заданном объёме алфавита K соответствует ситуации, когда априорные вероятности всех выборов равны между собой. В этом случае энтропия равна


,[бит / сообщ] . (9)


Между значениями величин энтропий, вычисленными по формулам (8) и (9), должно соблюдаться очевидное условие


(10)


Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии, определяемой формулой (8), не учитывающей этой связи. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия. Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле


[бит/сообщ] ,(11)

где(12)


условная частная энтропия, вычисляемая для каждого символа . Для расчета условной энтропии по формулам (11), (12) необходимо использовать переходные вероятности , найденные раньше в пункте 1.2 курсавой работы.

Как следует из вышесказанного, между условной энтропией (11) и безусловной энтропией должно соблюдаться неравенство


.(13)


По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника. В дальнейшем, всюду, говоря об энтропии, будем иметь в виду условную энтропию.

Для рассматриваемого варианта задания расчеты по формулам (8)-(12) имеют вид:


бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ,

бит/сообщ.


Наличие в сообщении большего числа букв или в кодовой комбинации большего числа элементов, чем это минимально необходимо для передачи содержащегося в них количества информации, называют избыточностью. Расчет избыточности проводится по формуле:


(14)


Следующей, рассчитываемой в курсовой работе, характеристикой источника является производительность источника, под которой понимают среднее количество информации, создаваемой источником в единицу времени:


[бит/с], (15)

где (16)


средняя длительность одного символа, выдаваемого источником.

Для рассматриваемого варианта задания расчеты по формулам (14)-(16) имеют вид:


,

мс,

бит/с.


.4 Статистическое двоичное кодирование источника


Статистическое (или эффективное) кодирование используется для исключения, точнее существенного уменьшения избыточности сообщений, обусловленной неравновероятностью и зависимостью символов, вырабатываемых источником. Суть статистического кодирования сводится к кодированию символов источника неравномерным двоичным кодом по следующему правилу: для часто встречающихся символов присваиваются короткие двоичные кодовые комбинации, а для редко встречающихся - длинные кодовые комбинации.

Одним из широко используемых на практике алгоритмов статистического кодирования, например, в программах-архиваторах компьютерных файлов, является код Шеннона-Фано. Кодирование по методу Шеннона-Фано состоит из следующих этапов:

) Подлежащие кодированию символы алфавита источника дискретных сообщений располагают в первом столбце таблицы в порядке убывания вероятностей.

) Символы алфавита разбивают на две группы с примерно равными суммарными вероятностями. Символам первой (верхней) группы присваивают 1 в качестве первого знака двоичной кодовой комбинации, а символам второй группы - 0.

) Символы, входящие в каждую из групп, вновь разбивают на две группы с примерно равными суммарными вероятностями. Символам вновь полученных первых (верхних) подгрупп присваивают 1 в качестве следующего знака двоичной кодовой комбинации, а символам вторых подгрупп -0.

) Пункт 3) продолжают до тех пор, пока в каждой из подгрупп не останется по одному символу.

Другим распространенным алгоритмом статистического кодирования, дающим примерно такой же эффект сжатия, является код Хаффмана. Кодирование по Хаффману выполняется в следующем порядке:

)


СОДЕРЖАНИЕ ИСХОДНЫЕ ДАННЫЕ ВВЕДЕНИЕ . РАСЧЕТНАЯ ЧАСТЬ .1 Статистический анализ вероятностных свойств дискретного источника по заданной реализаци

Больше работ по теме:

КОНТАКТНЫЙ EMAIL: [email protected]

Скачать реферат © 2017 | Пользовательское соглашение

Скачать      Реферат

ПРОФЕССИОНАЛЬНАЯ ПОМОЩЬ СТУДЕНТАМ