СДЕЛАЙТЕ СВОИ УРОКИ ЕЩЁ ЭФФЕКТИВНЕЕ, А ЖИЗНЬ СВОБОДНЕЕ

Благодаря готовым учебным материалам для работы в классе и дистанционно

Скидки до 50 % на комплекты
только до

Готовые ключевые этапы урока всегда будут у вас под рукой

Организационный момент

Проверка знаний

Объяснение материала

Закрепление изученного

Итоги урока

КС109, Основы теории информации

Категория: Прочее

Нажмите, чтобы узнать подробности

Дата выдачи задания: 09.11.2020г.

Просмотр содержимого документа
«КС109, Основы теории информации»

КС109 ОП.01 Основы теории информации

Преподаватель: Класс Юлия Николаевна

E-mail: [email protected]

Дата выдачи задания

Срок выполнения

09.11.2020г.

09.11.2020г.



ТЕМА ЗАНЯТИЯ:

ОЦЕНКА ЭНТРОПИЙНЫХ ХАРАКТЕРИСТИК

Список литературы:


  1. Лекция (Код доступа: https://cloud.mail.ru/public/4yHZ/2Wx8n82W9

Тема 1. О


ЦЕНКА ЭНТРОПИЙНЫХ ХАРАКТЕРИСТИК


Типовой пример. Имеются три дискретных источника информации X(x1,x2), Y(y1,y2,y3) и Z(z1,z2). Вероятности появления сообщений P(xi), P(yi) и P(zi) каждого источника заданы при , и (задание начальных значений индексов) векторами

, и .

Требуется определить, какой источник обладает большей неопределенностью.

Решение. Сначала определим единицы измерения количества энтропии:

а) при натуральном логарифме (нит)  ;

б) при двоичном логарифме (бит)  .

На основании (1.1) энтропии источников:

  • первого 

и составит ;

  • второго 

и составит ;

  • третьего 

и составит .

Таким образом, в случае равновероятных сообщений большей неопределенностью обладает троичный источник Y. При этом неопределенность может быть подсчитана так же как мера Хартли, равная logN, где N  число равновероятных сообщений. Сравнение двоичных источников X и Z показывает, что большей неопределенностью обладает источник с равновероятными сообщениями.


Типовые задачи


Задача 1. Имеются три дискретных источника информации X(x1,x2,x3), Y(y1,y2) и Z(z1,z2). Вероятности появления их сообщений P(xi), P(yi) и P(zi) заданы при векторами

, и .

Вычислить среднюю неопределенность каждого источника и установить связь между их энтропиями.

Ответ. Средняя неопределенность источников:

; ; .

Связь между энтропиями источников определяется выражением

.

Задача 2. Предварительно определим единицу измерения энтропии как . При этом один . Элементы алфавитов X и Y статистически связаны. Известно, что энтропии и . В каких пределах меняется условная энтропия H(Y/X) при изменении H(X/Y) в максимально возможных пределах.

Ответ. Условная энтропия H(Y/X) меняется в пределах от 4 до 12 бит.

Задача 3. Предварительно определим единицу измерения энтропии как . При этом один . Дискретный источник информации X имеет энтропию , а источник Y  энтропию . Найти условную энтропию H(X/Y), если условная энтропия H(Y/X)= .

Ответ. Условная энтропия .

Задача 4. Дана при , и матрица совместных вероятностей

.

, например элемент (2,2) матрицы

Определить энтропии H(X), H(Y), H(X/Y), H(Y/X), H(X/y1), H(Y/x2), H(X,Y).

Ответ. ; ; ;

; ;

; .

Задача 5. Случайный сигнал имеет с параметрами , , плотность вероятности

,

и квантуется по уровню с шагом квантования (рис.1.3.1, где pkv(x)  плотность вероятности квантованного сигнала).

Рис.1.3.1

Найти энтропию квантованного сигнала, если условные вероятности уровней заданы при матрицей

.

,

Ответ. Для указанного на рис.1.2.2 способа квантования матрица безусловных вероятностей уровней будет

.

При этом энтропия квантованного сигнала .