Тема: Измерение информации. Единицы измерения информации
Цель: познакомить учащихся с единицами измерения информации; с методами перевода в различные системы измерения информации; усвоить понятия мощность, вес, объем информации; развитие логического мышления, внимания, усидчивости, информационной, культуры, самостоятельности; повышать и развивать интерес к предмету «информатика», развивать воображение, уметь анализировать, сравнивать, строить по аналогии.
Задачи:
1. Дать понятие о количестве информации, единицах измерения информации.
2. Развивать умение работать в группе и умение выстраивать самостоятельную работу, умение слушать, аргументировать свое мнение.
3. Развивать навыки само и взаимооценивания.
Оборудование: IBM PC, мультимедийный проектор, экран, доска, раздаточные карточки,
Ход занятия:
I. Организационный момент.
1. Сообщение темы урока, его целей и задач.
2. Проверка домашнего задания.
II. Основная часть.
Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов.
Часто приходится слышать, что сообщение или несет мало информации или, наоборот, содержит исчерпывающую информацию. При этом разные люди, получившие одно и то же сообщение (например, прочитав статью в газете), по-разному оценивают количество информации, содержащейся в нем. Это происходит оттого, что знания людей об этих событиях (явлениях) до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.
Однако иногда возникает ситуация, когда людям сообщают много новых для них сведений (например, на лекции), а информации при этом они практически не получают (в этом нетрудно убедиться во время опроса или контрольной работы). Происходит это оттого, что сама тема в данный момент слушателям не представляется интересной.
Итак, количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность (т.е. неполнота знания) по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что была получена исчерпывающая информация. Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).
В информатике используются различные подходы к измерению информации:
Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными Информация - знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0.
Алфавитный подход к измерению информации. Не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.
Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.
Количество информации - это мера уменьшения неопределенности .
Для измерения любой величины существуют эталонные единицы. Например, для измерения длины используются метры, для измерения массы – килограммы, для измерения времени – секунды и т. д. Для измерения информации существует своя эталонная единица – бит.
Бит- это наименьшая единица измерения информации.
Бит – это объем информации, возникающей при равновероятных событиях. Например, при подбрасывании монеты вероятность выпадения «орла» равна вероятности выпадения «решки». Выпадение монеты одной из сторон несет информацию в 1 бит.
Если в рассмотренном выше примере о подбрасывании монеты выпадение «орла» обозначить 1, а выпадение «решки» – 0, тогда исходом равновероятного события будет, соответственно, 1 или 0.
В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из 256 (28). В большинстве современных ЭВМ при кодировании каждому символу соответствует своя последовательность из восьми нулей и единиц, т.е. байт. Соответствие байтов и символов задается с помощью таблицы, в которой для каждого кода указывается свой символ. Так, например, в широко распространенной кодировке Koi8-R буква "М" имеет код 11101101, буква "И" - код 11101001, а пробел - код 00100000.
Наряду с байтами для измерения количества информации используются более крупные единицы:
1 Кбайт (один килобайт) = 210 байт = 1024 байта;
1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;
1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.
Формула Шеннона
I- количество информации
N – количество возможных событий
pi – вероятности отдельных событий
III. Заключительный этап.
1. Подведение итогов занятия.
2. Домашнее задание.