СДЕЛАЙТЕ СВОИ УРОКИ ЕЩЁ ЭФФЕКТИВНЕЕ, А ЖИЗНЬ СВОБОДНЕЕ

Благодаря готовым учебным материалам для работы в классе и дистанционно

Скидки до 50 % на комплекты
только до

Готовые ключевые этапы урока всегда будут у вас под рукой

Организационный момент

Проверка знаний

Объяснение материала

Закрепление изученного

Итоги урока

КС109, Оценка количества информации

Категория: Прочее

Нажмите, чтобы узнать подробности

Дата выдачи задания: 10.11.2020г.

Просмотр содержимого документа
«КС109, Оценка количества информации»

КС109 ОП.01 Основы теории информации

Преподаватель: Класс Юлия Николаевна

E-mail: [email protected]

Дата выдачи задания

Срок выполнения

10.11.2020г.

11.11.2020г.



ТЕМА ЗАНЯТИЯ:

ОЦЕНКА КОЛИЧЕСТВА ИНФОРМАЦИИ

Список литературы:


  1. Лекция (Код доступа: https://cloud.mail.ru/public/4yHZ/2Wx8n82W9


Задание: Рассмотреть решение задач по образцу, выполнить задания


Типовой пример. По двоичному симметричному каналу связи с помехами передаются два сигнала x1 и x2 с априорными вероятностями P(x1)=3/4 и P(x2)=1/4. Из-за наличия помех вероятность правильного приема каждого из сигналов уменьшается до 7/8. Требуется определить:

1) полную информацию I(X) на выходе источника сигналов;

2) взаимную частную информацию I(y2,x2) двух случайных сигналов на выходе и входе канала связи относительно друг друга (т.е. количество информации о сигнале x2 источника в сообщении y2 приемника);

3) условную частную информацию I(x2/y2), содержащуюся в сообщении x2 источника при условии приема сообщения y2;

4) среднее количество информации I(y2,X) в принятом сообщении y2 относительно всех передаваемых сообщений X(x1,x2);

5) среднее количество взаимной информации I(Y,X) в сообщениях Y приемника о сообщениях X источника;

Решение. По условию:

а) безусловные вероятности P(xi)=Pxi сообщений x1 и x2:

; .

б) условные вероятности P(yj/xi)= приема сообщений y1, y2 при условии передачи сообщений x1, x2:

; ; ; .

Вычислим вероятности P(yj)=Pyj , P(xi, yj)=Pxyi,j и P(xi/yj)= при и , необходимые для расчета информационных характеристик:

.

; ;

 задание начального значения индексов;

; .

Итак, ; ;

; .

Так как или ,

то имеем следующие условные вероятности

.

, т.е.

; ; ;

Определим единицы измерения количества информации:

а) при натуральном логарифме (нит)  ;

б) при двоичном логарифме (бит)  .

В случае дискретного источника полное количество информации на его выходе в расчете на одно сообщение, согласно (2.2), совпадает с энтропией источника (1.1) и будет

; или .

Согласно (2.7), взаимная частная информация I(y2,x2) двух сигналов

или ;

; .

Условная частная информация I(x2/y2)

; .

Согласно (2.5), среднее количество информации I(yj,X) в принятом сообщении yj относительно всех передаваемых сообщений X

; ;

; .

Согласно (2.4), среднее количество взаимной информации I(Y,X) в сообщениях Y приемника относительно всех передаваемых сообщений X

; .

Рассмотрим второй способ определения I(Y,X). Найдем, согласно (1.5), условную энтропию источника при условии снятия неопределенности приемника

; .

Тогда на основании (2.3) с учетом I(X)=H(X) среднее количество взаимной информации I(Y,X) в расчете на одно сообщение

; .

Типовые задачи.

Задача 1. В линию связи посылаются равновероятные и статистически независимые дискретные сигналы x1 и x2 ( ). Действие помех приводит к тому, что на выходе канала связи имеются сигналы z1, z2 и z3 ( ) с матрицей условных вероятностей P(zi/xj)= при

.

, например,

Определить полную взаимную информацию I(X,Z)=IXZ.

Ответ. Матрица безусловных вероятностей выходного сигнала

.

Матрица совместных вероятностей входного и выходного сигналов

.

Полная взаимная информация .

Задача 2. Измеряемая величина X на интервале [ ] при с параметрами и


имеет усеченный нормальный закон распределения с плотностью вероятности (рис.2.3.1 при и )


.

Погрешность  каждого результата измерения (например, ) при параметре имеет распределение Лапласа (двустороннее экспоненциальное) с плотностью вероятности (рис.2.3.1 при и )

.

Рис.2.3.1

Требуется найти количество информации, получаемой в среднем на одно измерение.

Ответ. Коэффициент

.

Количество информации

, .

Задача 3. Информация передается путем изменения амплитуды сигнала x, распределенной по нормальному закону с параметрами  среднее значение и дисперсия . Величина X измеряется регистрирующим устройством с погрешностью Z, не зависящей от амплитуды сигнала и также распределенной по нормальному закону со средним значением и дисперсией .

Определить количество информации I(X,Y)=IXY о величине X, содержащееся в результатах измерения Y=X+Z.

Ответ. ______________________________________________________________________

Задача 4. По каналу связи с одинаковыми вероятностями передаются статистически независимых сигнала xi ( ). При отсутствии помех передаваемому сигналу xj соответствует на выходе канала сигнал yj ( ). При наличии помех каждый передаваемый сигнал может быть с вероятностью принят правильно и с вероятностью искажен и перейти при этом в любой из остальных выходных сигналов.

Определить среднее количество информации на один сигнал, передаваемое по каналу при наличии и отсутствии помех.

Ответ. ___________________________________________________________

Задача 5. Система передачи информации характеризуется при , и матрицей P(X,Y)=Pxy совместных вероятностей

.

Определить среднее количество взаимной информации I(X,Y)=IXY.

Ответ. ___________________________________________________________________________