Конспект. Количественные характеристики информационных процессов


Количественные характеристики информационных процессов
(Информация и её свойства. Измерение информации.)Цели: разобрать свойства информации, освоить основные подходы к измерению информации формулу вычисления количества информации; уметь решать задачи на нахождение количества информации с помощью алфавитного и содержательного подходов; иметь представление обо всех способах нахождения количества информации.
Ход урока
Организационный момент.Информация и её свойства
Возможность эффективного использования информации обусловливается ее качественными характеристиками или свойствами:
* понятность. Информация должна быть понятной всем участникам обмена информацией. Например, человек — существо социальное, для общения с другими людьми должен обмениваться ими информацией, причем обмен информацией всегда происходит на определенном языке (русском, английском и т.д.), поэтому участники дискуссии должны владеть тем языком, на котором ведется общение;
* достоверность. Информация должна быть достоверной, т.е. она должна отражать истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т.е. перестает отражать истинное положение дел;
* полнота. Информация должна быть полной, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений и может повлечь ошибки;
* ценность. Ценность информации зависит ос того, насколько важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека;
* своевременность. Информация должна быть своевременной — только в этом случае она может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации, когда она еще не может быть усвоена, так и подача информации с задержкой.
Измерение информации. Вероятностный метод измерения информации.
Измерение информации. Вероятностный метод измерения информации Для того чтобы рассмотреть участие информации в информационном процессе, необходимо ввести количественные характеристики информации, т.е. научиться ее измерять.
В теоретической информатике информация рассматривается как знания, т.е. процесс систематического научного познания окружающего мира приводит к накоплению информации в виде знаний (научных теорий, фактов и т.д.).
Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек и чем шире круг его знаний, тем больше он ощущает недостаток знании и тем больше граница его незнания, мерой которого в этой модели является длина окружности.
Например, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника или пятиклассника, однако и граница его незнания также существенно больше. Действительно, первоклассник совершенно ничего не знает о законах физики, химии или экономики и его это не смущает, тогда как выпускник школы, например, при подготовке к экзамену по физике может обнаружить, что есть законы, которых он не знает или не понимает. Можно считать, что ученик, получая информацию, уменьшает неопределенность знания (расширяет круг знания). Подход к информации как к мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики, учитывая, что она имеет дело с процессами передачи и хранения информации.
Информацию можно рассматривать как набор сообщений.

Пример 1. В закрытом ящике лежат два шара — черный и белый. Вытаскиваем один шар. Перед вытаскиванием существовала неопределенность нашего знания, так как возможны два события: «черный шар» или «белый шар». После того как шар вытащен, наступает полная определенность: событие «черный шар», тогда в ящике остался белый, и наоборот.
Вытаскивание одного из двух шаров приводит к уменьшению неопределенности нашего знания в 2 раза.
Рассмотрим понятие «вероятность».
Если N — это общее число возможных исходов какого-то процесса (например, вытаскивание шара), а из них интересующее нас событие (например, вытаскивание белого шара) может произойти k раз, то вероятность этого события р можно определить по формуле:
р = k/N
Вероятность выражается в долях единицы. Для примера 1 вероятность вытаскивания, как белого, так и черного шара равна 1/2, т.е. они равновероятны. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар); вероятность невозможного события равна 0 (из 50 белых шаров вытащен черный шар).
Пример 2. В ящике лежат четыре шара — три черных и один белый. Вытаскиваем один шар. Его цвет, скорее всего, будет черным, но может быть и белым.
Посчитаем вероятность вытаскивания белого и черного шара:
pбел = 1/4 = 0,25; pчерн = 3/4 = 0,75
Информация содержится в сообщении о цвете вытащенного шара. Какая информация в примере 2 ценнее: «белый шар» или «черный шар»? Конечно, информация о том, что вытащили белый шар, т.е. этим сообщением получено полное знание, что в коробке остались только черные шары.
Информация о том, что вытащили черный шар, тоже уменьшает неопределенность знания (после этого события в ящике осталось три шара — один белый и два черных), но не дает полного знания, какой шар может быть вытащен следующим.
Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем выражается формулой
i = log2(1/p), (1) или
2 i =1/р (2)
Пример 3: Количество информации достигает max значения, если события равновероятны, поэтому количество информации можно расcчитать по формуле
В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?
т.к. N = 16 шаров, то I = log2 N = log2 16 = 4 бит.
Если событие достоверно, его вероятность равна 1, то оно неинформативно, т.е. количество информации в нем равно 0, но чем меньше вероятность какого-то события, тем большую ценность имеет информация об этом событии и тем больше будет значение i.
Единицей измерения количества информации является бит (от англ, bit — binary digit — двоичная цифра).

количественный метод измерения информации
Рассмотренный выше подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:
N = 2i
Бит. Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения.
За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.
Если вернуться к рассмотренному выше получению информационного сообщения о результатах зачета, то здесь неопределенность как раз уменьшается в два раза и, следовательно, количество информации, которое несет сообщение, равно 1 биту.
Производные единицы измерения количества информации. Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:
1 байт = 8 битов = 23 битов.
В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д.
В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n
Так, кратные байту единицы измерения количества информации вводятся следующим образом:
1 килобайт (Кбайт) = 210 байт = 1024 байт;
1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;
1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт.
Совместное решение задач.
1)Сообщение, записанное буквами 64-символьного алфавита, содержит 20 символов. Какой объем информации оно несет?
Решение: Один символ алфавита несет в себе 6 бит информации (2^6=64), Соответственно сообщение из 20 символов несет 6 х 20 = 120 бит. Ответ: 120 бит
2) Жители планеты Принтер используют алфавит из 256 знаков, а жители планеты Плоттер — из 128 знаков. Для жителей какой планеты сообщение из 10 знаков несет больше информации и на сколько?
Решение: Один символ алфавита жителей планеты Принтер несет в себе 8 бит информации (2^8=256), а жителей планеты Плоттер — 7 бит информации (2^7=128). Соответственно сообщение из 10 знаков для жителей Принтер несет 10 х 8 = 80 бит, а для жителей Плоттер — 10 х 7 = 70 бит 80 — 70 = 10 бит.
Ответ: Больше для жителей Принтер на 10 бит. 3.
3) Для кодирования нотной записи используется 7 значков-нот. Каждая нота кодируется одним и тем же минимально возможным количеством бит. Чему равен информационный объем сообщения, состоящего из 180 нот?
Каждая нота кодируется 3 битами (2^2=4<7<2^3=8).
Информационный объем сообщения равен 180 х 3 = 540 бит.
Ответ: 540 бит.
4) Цветное растровое графическое изображение, палитра которого включает в себя 65 536 цветов, имеет размер 100Х100 точек (пикселей). Какой объем видеопамяти компьютера (в Кбайтах) занимает это изображение в формате BMP?
Решение: 65536 = 2^16, I = 16 бит на кодирование 1 цвета. Все изображение состоит из 10х10=10 000 точек. Следовательно, количество информации, необходимое для хранения изображения целиком 16*10 000=160 000 бит = 20 000 байт = 19,5 Кб.
Ответ: 19,5 килобайт
5) В велокроссе участвуют 119 спортсменов. Специальное устройство регистрирует прохождение каждым из участников промежуточного финиша, записывая его номер с использованием минимально возможного количества бит, одинакового для каждого спортсмена. Каков информационный объем сообщения, записанного устройством, после того как промежуточный финиш прошли 70 велосипедистов?
Решение: N=119 (2^6=64<7<2^7=128), I ≈7 бит необходимо для кодирования одного спортсмена, поскольку была записана информация о 70 спортсменах, объем сообщения составил: 7 х 70 = 490 бит.Ответ: 490 бит.
Самостоятельная работа
1)В некоторой стране автомобильный номер длиной 7 символов составляется из заглавных букв (всего используется 26 букв) и десятичных цифр в любом порядке. Каждый символ кодируется одинаковым и минимально возможным количеством бит, а каждый номер – одинаковым и минимально возможным количеством байт. Определите объем памяти, необходимый для хранения 20 автомобильных номеров.
Решение: 
всего используется 26 букв + 10 цифр = 36 символов для кодирования 36 вариантов необходимо использовать 6 бит, так как 2^5=32<36<2^6=64, т.е. пяти бит не хватит (они позволяют кодировать только 32 варианта), а шести уже достаточно таким образом, на каждый символ нужно 6 бит (минимально возможное количество бит).полный номер содержит 7 символов, каждый по 6 бит, поэтому на номер требуется 6 x 7 = 42 бита.По условию каждый номер кодируется целым числом байт (в каждом байте – 8 бит), поэтому требуется 6 байт на номер (5x8=40<42<6x8=48), пяти байтов не хватает, а шесть – минимально возможное количество на 20 номеров нужно выделить 20x6=120 байт. Ответ: 120 байт.
2)Каждая клетка поля 8×8 кодируется минимально возможным и одинаковым количеством бит. Решение задачи о прохождении 'конем' поля записывается последовательностью кодов посещенных клеток . Каков объем информации после 11 сделанных ходов? (Запись решения начинается с начальной позиции коня).
Решение:
Всего клеток 8х8 = 64. Для кодирования 1 клетки необходимо 6 бит (2^6=64). В записи решения будет описано 12 клеток (11 ходов+начальная позиция). Объем информации записи 12х6 = 72 бита = 72:8 = 9 байт.Ответ: 9 байт.
3) Информационное сообщение объемом 1,5 килобайта содержит 3072 символа. Сколько символов содержит алфавит, с помощью которого было записано это сообщение?
Решение:
1,5 Кбайта = 1,5*1024*8 = 12288 бит. 12288/3072 = 4 бита — информационный вес одного символа. Мощность алфавита равна 2^4=16 символов. Ответ: 16 символов.
4)Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?
Решение:
Всего требуется сохранить 128 х 256 = 32768 символов.Информационный вес 1 символа 6 бит (2^6=64). Чтобы сохранить весь текст, потребуется 32768 х 6 = 196608 бит = 196608 : 8 =24576 байт = 24576 : 1024 = 24 Кб. Ответ: 24 Кб.
Подведение итогов, выставление отметок.
объявление оценок за урок.
Домашнее задание:

Приложенные файлы


Добавить комментарий