Урок информатики "Количество информации. Единицы измерения информации"
Цели:
образовательные – дать понятие количества информации, познакомить с вероятностным и алфавитным подходом при определении количества информации, познакомить с единицами измерения информации, формировать практические навыки по определению количества информации.
развивающие – продолжить формирование научного мировоззрения, расширять словарный запас по теме «Информация»
воспитательные – формировать интерес к предмету, воспитывать настойчивость в преодолении трудностей в учебной работе.
1. Организационный этап (приветствие, определение отсутствующих на уроке)
2. Контроль знаний.
Что такое информация? Виды информации? Свойства информации?
3. Вероятностный подход к измерению количества информации (см. мультимедийную презентацию).
Сегодня мы с вами поговорим об измерении информации, т. е. об определении ее количества. (Учащиеся записывают тему урока в тетрадь – «Измерение информации. Содержательный и алфавитный подход к измерению информации»).
Мы с вами говорили о том, что в основе нашего мира лежат три составляющие – вещество, энергия и информация.
- Можно ли измерить вещество? (можно взвесить, определить длину, найти объем и т.д.)
- Можно ли определить количество энергии? (можно тепловую, электроэнергию и т.д.)
- Но как измерить количество информации?
Количество информации в одном том же сообщении, с точки зрения разных людей, может быть разным. Пример, для человека, не владеющего китайским языком, вывеска на китайском языке не несёт никакой информации. Информативным для человека является то сообщение, которое содержит новые и понятные сведения.
Задание № 1. Определите количество информации с позиции «информативно» или «не информативно».
Столица России – Москва (не инф., т.к. уже знаем).
Сумма квадратов катетов равна квадрату гипотенузы (не инф., уже знаем).
Эйфелева башня имеет высоту 300 метров и вес 9000 тонн (инф.).
Дифракцией света называется совокупность явлений, которые обусловлены волновой природой света и наблюдаются при его распространении в среде с резко выраженной оптической неоднородностью (не инф., т.к. непонятно).
Следует отличать понятия информация и информативность.
- Содержит ли учебник физики 8 класса информацию? (да)
- Для кого он будет информативным – для ученика 8 класса или 1 класса? (для ученика 8 класса)
Существует 2 подхода при определении количества информации – смысловой и технический (алфавитный). Смысловой применяется для измерения информации, используемой человеком, а технический (или алфавитный) – компьютером.
В содержательном подходе количество информации, заключенное в сообщении, определяется объемом знаний, который это сообщение несет получающему его человеку.
Вспомним, что с «человеческой» точки зрения информация - это знания, которые мы получаем из внешнего мира. Количество информации, заключенное в сообщении, должно быть тем больше, чем больше оно пополняет наши знания.
Вы уже знаете, что за единицу измерения информации принимается 1 бит.
1 бит - минимальная единица измерения количества информации.
Проблема измерения информации исследована в теории информации, основатель которой - Клод Шеннон.
В теории информации для бита дается следующее определение:
Сообщение, уменьшающее неопределенность знания в два раза, несет 1 бит информации.
Что такое неопределенность знания, поясним на примерах.
Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка. Есть всего два возможных результата бросания монеты. Причем ни один из этих результатов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.
В случае с монетой перед ее подбрасыванием неопределенность знания о результате равна двум.
Игральный же кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределенность знания о результате бросания кубика равна шести.
Еще пример: спортсмены-лыжники перед забегом путем жеребьевки определяют свои порядковые номера на старте. Допустим, что имеется 100 участников соревнований, тогда неопределенность знания спортсмена о своем номере до жеребьевки равна 100.
Следовательно, можно сказать так:
Неопределенность знания о результате некоторого события (бросание монеты или игрального кубика, вытаскивание жребия и др.) - это количество возможных результатов.
Вернемся к примеру с монетой. После того как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Определился один из двух возможных результатов. Неопределенность знания уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации.
Сообщение об одном из двух равновероятных результатов некоторого события несет 1 бит информации.
Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий.
Тогда количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, можно определить из формулы Хартли:
N=2i.
Данная формула является показательным уравнением относительно неизвестного i.
Пример:
Шахматная доска состоит из 64 полей: 8 столбцов на 8 строк.
Какое количество бит несет сообщение о выборе одного шахматного поля?
Решение.
Поскольку выбор любой из 64 клеток равновероятен, то количество бит находится из формулы:
2i=64,
Следовательно, i=6 бит.
В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей двоичных логарифмов.
Также, если N не является целой степенью 2, то можно выполнить округление i в большую сторону. При решении задач в таком случае i можно найти как log2K, где K - ближайшая к N степень двойки, такая, что KN.
Пример:
При игре в кости используется кубик с шестью гранями.
Сколько битов информации получает игрок при каждом бросании кубика?
Решение.
Выпадение каждой грани кубика равновероятно. Поэтому количество информации от одного результата бросания находится из уравнения:2i=6.
Решение этого уравнения: i=log26
Из таблицы двоичных логарифмов следует (с точностью до 3-х знаков после запятой):
i=2,585 бита.
Данную задачу также можно решить округлением i в большую сторону: 2i=6i=3 бита. Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.(Выделенное курсивом учащиеся записывают в тетрадь).
Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:
N=2I (N – количество возможных информационных сообщений, I – количество информации, которое несет полученное сообщение).
Для количественного выражения любой величины необходимо определить единицу измерения. Например, для измерения длины выбран определенный эталон метр, массы – килограмм.
4. Единицы измерения информации
За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в 2 раза. Такая единица называется битом.
Вернемся к рассмотренному выше получению информационного сообщения о том, что выпал «орел» при бросании монеты. Здесь неопределенность уменьшилась в 2 раза, следовательно, это сообщение равно 1 биту. Сообщение о том, что выпала определенная грань игрального кубика, уменьшает неопределенность в 6 раз, следовательно, это сообщение равно 6 битам.
Минимальной единицей измерения количества информации является бит, а следующей по величине единицей – байт, причем
1 байт = 8 битов
В международной системе СИ используют десятичные приставки «Кило» (103), «Мега» (106), «Гига» (109),… В компьютере информация кодируется с помощью двоичной знаковой системы, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.
1 килобайт (Кбайт) = 210 байт = 1024 байт
1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт
1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт
1 терабайт (Тбайт) = 210 Гбайт = 1024 Гбайт
Терабайт – очень крупная единица измерения информации, поэтому применяется крайне редко. Всю информацию, которое накопило человечество, оценивают в десятки терабайт.
5. Определение количества информации
Задача 1. Определите количество экзаменационных билетов, если зрительное сообщение о номере одного вытянутого билета несет 5 битов информации. Количество билетов – это количество информационных сообщений. N=2I = 25 = 32 билета.
Задача 2. Какое количество информации несет сообщение об оценке за контрольную работу? Вы можете получить за контрольную 2, 3, 4 или 5. Всего 4 сообщения (N=4). Формула принимает вид уравнения - 4=2I = 22,I=2.
Задания для самостоятельного выполнения: (формула всегда должна быть перед глазами, можно также вывесить таблицу со степенями 2) (3 мин.)
Какое количество информации мы получаем в зрительном сообщении о падении симметричной восьмигранной пирамиды на одну из граней? Ответ: 3 бита, потому что количество возможных событий (сообщений) N=8, 8=2I = 23, I=3.
Из непрозрачного мешочка вынимают шарики с номерами и известно, что информационное сообщение о номере шарика несет 5 битов информации. Определите количество шариков в мешочке. Ответ: в мешочке 32 шарика, т. к. N=2I = 25 = 32.
Какое количество информации при игре в крестики-нолики на поле размером 4 Х 4 клетки получит второй игрок после первого хода первого игрока. Ответ: Количество событий до начала игры N=16, 16=2I = 24, I=4. Второй игрок после первого хода первого игрока получит 4 бита информации.
6. Алфавитный подход к определению количества информации
Суть технического или алфавитного подхода к измерению информации определяется по количеству использованных для ее представления знаков некоторого алфавита. Например, если при представлении числа XVIII использовано 5 знаков римского алфавита, то это и есть количество информации. То же самое число, т. е. ту же самую информацию, можно записать в десятичной системе (18). Как видим, получается 2 знака, т. е. другое значение количества информации. Для того, чтобы при измерении одной и той же информации получалось одно и то же значение количества информации, необходимо договориться об использовании определенного алфавита. Так как в технических системах применяется двоичный алфавит, то его же используют для измерения количества информации. Количество знаков в алфавите N=2, N=2I, I – количество информации, которое несет один знак. 22 = 21 , I=1бит. Интересно, что сама единица измерения количества информации «бит» (bit) получила свое название от английского словосочетания «BInary digiT» - «двоичная цифра».
Чем большее количество знаков в алфавите, тем большее количество информации несет 1 знак алфавита.
Определите самостоятельно количество информации, которое несет 1 буква русского алфавита.
Ответ: буква русского алфавита несет 5 битов информации (при алфавитном подходе к измерению информации).
Какое количество информации содержится в одном символе 8 разрядного двоичного кода (символ А – 11000000)? Ответ: 8 битов или 1 байт.
Практическая работа (раздаточный материал – инструкционная карта для выполнения практической работы) по определению количества информации с помощью калькулятора:
Определите информационный объем следующего сообщения в байтах (сообщение напечатано на карточке, карточки на каждой парте):
Количество информации, которое несет в себе знак, зависит от вероятности его получения. В русской письменной речи частота использования букв в тексте различна, так в среднем на 1000 знаков осмысленного текста приходится 200 букв «а» и в сто раз меньше количество букв «ф» (всего 2). Таким образом, с точки зрения теории информации, информационная емкость знаков русского алфавита различна (у буквы «а» она наименьшая, а у буквы «ф» - наибольшая).
Определяем количество символов (количество символов в строке*количество строк) – 460 символов = 460 байт
Введите и сохраните этот текст на рабочем столе с помощью программы Блокнот. Определите информационный объем этого файла с помощью компьютера (Выделите объект àПКМ à Свойства) Ответ: 460 байт.
7. Подведение итогов урока в форме фронтального опроса:
Какие существуют подходы к определению количества информации? Ответ: существует 2 подхода к измерению количества информации – смысловой и технический или алфавитный.
В чем состоит отличие одного подхода от другого? Ответ: при смысловом подходе количество информации – мера уменьшения неопределенности знания при получении информационного сообщения, при алфавитном – количество знаков в сообщении * количество информации, которое несет 1 знак алфавита.
Назовите единицы измерения информации от самых маленьких до самых больших. Ответ: бит, байт, Кб, Мб, Гб, Тб.
На какую величину отличается байт от Кб, Кб от Мб, Мб от Гб? Ответ: 1024 (210).
Сколько битов содержится в 1 байте? Ответ: 8.
Что такое бит при смысловом и алфавитном подходе к определению количества информации? Ответ: при смысловом подходе бит – уменьшение неопределенности знания в 2 раза при получении информационного сообщения; при алфавитном подходе бит – информационная емкость одного знака при двоичном кодировании.