Меню
Разработки
Разработки  /  Информатика  /  Уроки  /  10 класс  /  Урок информатики "Измерение информации. Вероятностный подход"

Урок информатики "Измерение информации. Вероятностный подход"

На уроке происходит формирование у учащихся понимания вероятности, равновероятных событий, неравновероятных событий, вероятностного подхода к измерению информации.
17.10.2014

Описание разработки

Цели урока:

Обучающая – формирование у учащихся понимания вероятности, равновероятных событий, неравновероятных событий; вероятностного подхода к измерению информации;

Развивающая – развивать умение качественно оценивать поставленную задачу для правильного выбора способа решения задачи; развивать самостоятельность; логическое мышления учащихся.

Воспитательная – формировать интерес к предмету, навыки контроля и самоконтроля; чувство ответственности, деловые качества учащихся.

Оборудование: доска, маркер, карточки - памятки, справочный материал.

Тип урока: комбинированный: объяснение нового материала с выполнением практической работы.

Ход урока

I. Организационный момент.

II. Актуализация знаний.

Задача: Какое сообщение содержит большее количество информации?

В классе 32 ученика. Какое количество информации содержится в сообщении о том, что к доске пойдёт Коля Сидоров; (Отв. : 5 бит. )

Вася получил за экзамен оценку 4 (по 5 - бальной системе единицы не ставят). (Отв. : 2 бит. )

Сообщение о том, что из корзины с разноцветными шарами (все шары разного цвета) достали зелёный шар, содержит 4 бита информации. Сколько шаров было в корзине? (Отв. : 2 бит. )

В классе 30 человек. За контрольную работу по информатике получено 15 пятерок, 6 четверок, 8 троек и 1 двойка. Какое количество информации несет сообщение о том, что Андреев получил пятерку? Какое количество информации несет сообщение о том, что Андреев получил любую оценку?

Первые три варианта учащиеся решают без затруднения. События равновероятны, поэтому можно применить для решения формулу Хартли. Но третье задание вызывает затруднение. Делаются различные предположения. Роль учителя: подвести учащихся к осмыслению, что в четвертом варианте мы сталкиваемся с ситуацией, когда события неравновероятны. Не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются.

Сегодня на уроке мы должны ответить на вопрос: как вычислить количество информации в сообщении о неравновероятном событии.

III. Изучение нового материала.

Для вычисления количества информации в сообщении о неравновероятном событии используют следующую формулу: I=log2(1/p), заметим, что ранее мы использовали формулу Хартли следующего вида I=log2(N), на самом деле эти формулы не разные! Формула Хартли является частным случаем второй , для случая, когда вероятность исходов события оказывается одинаковой (в случае, например, если бы мы кидали монету и вероятность выпадет орел или решка была бы равновероятна).

Теперь вернемся к нашей формуле и разберем ее более подробно.

 – это количество информации, р – вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле: р=K/N,

где К – величина, показывающая сколько раз произошло интересующее нас событие, N – общее число возможных исходов какого - то процесса.

Вернемся к нашей задаче.

Пусть К5 – это количество пятерок, К5=15

К4 – количество четверок, К4=6

К3 – количество троек, К3=8

К2 – количество двоек, К2=1

N – общее количество оценок, N = К5 +К4 + К3 2=15+6+8+1=30

Вычислим вероятность, что Андреев получил пятерку, которое при этом было получено.

Вероятность, что Андреев получил пятерку: р5=15/30=1/2=0, 5.

Вероятность, что Андреев получил четверку: р4=6/30=1/5=0, 2.

Вероятность, что Андреев получил тройку: р3=8/30=4/15=0, 27.

Вероятность, что Андреев получил четверку: р4=1/30=0, 03.

Обращаем внимание учащихся на то, что в сумме все вероятности дают 1.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил пятерку: I5=log2(1/p5)= log2(1/0, 5)=log22=1 бит.

Затем, ученикам предлагается вычислить количество информации остальных оценок.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил четверку: I4=log2(1/p4)= log2(1/0, 2)= log25=2, 32 бит.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил тройку: I3=log2(1/p3)= log2(1/0, 27)= log23, 7=1, 9 бит.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил двойку: I2=log2(1/p2)= log2(1/0, 03)= log233, 3=4, 9 бит.

Пояснение: если учащиеся не умеют вычислять значение логарифмической функции, то можно использовать при решении задач этого урока следующие приемы:

Ответы давать примерные, задавая ученикам следующий вопрос: «В какую степень необходимо возвести число 2, чтобы получилось число, стоящее под знаком логарифма?».

Применить таблицу из задачника - практикума под редакцией Семакина И. Г. и др.

При сравнении результатов вычислений получается следующая ситуация: чем меньше вероятность события, тем больше информации несет сообщение о нем, то есть вероятность получения двойки была самая маленькая, но при этом информационный объем по сравнению с другими самый большой. Это не случайность, а закономерность. Приведем еще примеры об исходах события с разной вероятностью и сравним их информативность. Вот, скажем сообщение об осадках в зимнем прогнозе погоды. Зимой бывает снег, бывает отсутствие осадков и, очень редко, бывает дождь (во время сильной оттепели). Дождь зимой маловероятен, поэтому зимой сообщение о дожде несет самую большую информацию.

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Вернемся к нашей задаче об оценках Андреева. Попробуем ответить на вопрос: сколько получим информации при получении любой оценки?

Ответить на этот вопрос нам поможет формула вычисления количества информации для событий с различными вероятностями, которую предложил в 1948 г. американский инженер и математик К. Шеннон.

Весь материал – смотрите документ.

Содержимое разработки

Конспект урока по информатике в 10 классе (профиль).

Тема: «Измерение информации. Вероятностный подход».



Цели урока: 

  • Обучающая – формирование у учащихся понимания вероятности, равновероятных событий, неравновероятных событий; вероятностного подхода к измерению информации;

  • Развивающая – развивать умение качественно оценивать поставленную задачу для правильного выбора способа решения задачи; развивать самостоятельность; логическое мышления учащихся.

  • Воспитательная – формировать интерес к предмету, навыки контроля и самоконтроля; чувство ответственности, деловые качества учащихся.

Оборудование: доска, маркер, карточки-памятки, справочный материал.

Тип урока: комбинированный: объяснение нового материала с выполнением практической работы.

План урока:

I. Организационный момент.

II. Актуализация знаний.

III. Изучение нового материала.

IV. Закрепление изучаемого материала.

V. Подведение итогов урока.

VI. Информация о домашнем задании.

Ход урока

I. Организационный момент.

II. Актуализация знаний.

Задача: Какое сообщение содержит большее количество информации?

  • В классе 32 ученика. Какое количество информации содержится в сообщении о том, что к доске пойдёт Коля Сидоров; (Отв.: 5 бит.)

  • Вася получил за экзамен оценку 4 (по 5-бальной системе единицы не ставят). (Отв.: 2 бит.)

  • Сообщение о том, что из корзины с разноцветными шарами (все шары разного цвета) достали зелёный шар, содержит 4 бита информации. Сколько шаров было в корзине? (Отв.: 2 бит.)

  • В классе 30 человек. За контрольную работу по информатике получено 15 пятерок, 6 четверок, 8 троек и 1 двойка. Какое количество информации несет сообщение о том, что Андреев получил пятерку? Какое количество информации несет сообщение о том, что Андреев получил любую оценку?

Первые три варианта учащиеся решают без затруднения. События равновероятны, поэтому можно применить для решения формулу Хартли. Но третье задание вызывает затруднение. Делаются различные предположения. Роль учителя: подвести учащихся к осмыслению, что в четвертом варианте мы сталкиваемся с ситуацией, когда события неравновероятны. Не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются.

Сегодня на уроке мы должны ответить на вопрос: как вычислить количество информации в сообщении о неравновероятном событии.

III. Изучение нового материала.

Для вычисления количества информации в сообщении о неравновероятном событии используют следующую формулу: I=log2(1/p), заметим, что ранее мы использовали формулу Хартли следующего вида I=log2(N), на самом деле эти формулы не разные! Формула Хартли является частным случаем второй , для случая, когда вероятность исходов события оказывается одинаковой (в случае, например, если бы мы кидали монету и вероятность выпадет орел или решка была бы равновероятна).

Теперь вернемся к нашей формуле и разберем ее более подробно.

 – это количество информации, р – вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле: р=K/N,

где К – величина, показывающая сколько раз произошло интересующее нас событие, N – общее число возможных исходов какого-то процесса.

Вернемся к нашей задаче.

Пусть К5 – это количество пятерок, К5=15

К4 – количество четверок, К4=6

К3 – количество троек, К3=8

К2 – количество двоек, К2=1

N – общее количество оценок, N = К5 +К4 + К3 2=15+6+8+1=30

Вычислим вероятность, что Андреев получил пятерку, которое при этом было получено.

Вероятность, что Андреев получил пятерку: р5=15/30=1/2=0,5.

Вероятность, что Андреев получил четверку: р4=6/30=1/5=0,2.

Вероятность, что Андреев получил тройку: р3=8/30=4/15=0,27.

Вероятность, что Андреев получил четверку: р4=1/30=0,03.

Обращаем внимание учащихся на то, что в сумме все вероятности дают 1.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил пятерку: I5=log2(1/p5)= log2(1/0,5)=log22=1  бит.

Затем, ученикам предлагается вычислить количество информации остальных оценок.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил четверку: I4=log2(1/p4)= log2(1/0,2)= log25=2,32 бит.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил тройку: I3=log2(1/p3)= log2(1/0,27)= log23,7=1,9 бит.

Вычислим количество информации, содержащееся в сообщении, что Андреев получил двойку: I2=log2(1/p2)= log2(1/0,03)= log233,3=4,9 бит.

Пояснение: если учащиеся не умеют вычислять значение логарифмической функции, то можно использовать при решении задач этого урока следующие приемы:

  • Ответы давать примерные, задавая ученикам следующий вопрос: «В какую степень необходимо возвести число 2, чтобы получилось число, стоящее под знаком логарифма?».

  • Применить таблицу из задачника-практикума под редакцией Семакина И.Г. и др.

При сравнении результатов вычислений получается следующая ситуация: чем меньше вероятность события, тем больше информации несет сообщение о нем, то есть вероятность получения двойки была самая маленькая, но при этом информационный объем по сравнению с другими самый большой. Это не случайность, а закономерность. Приведем еще примеры об исходах события с разной вероятностью и сравним их информативность. Вот, скажем сообщение об осадках в зимнем прогнозе погоды. Зимой бывает снег, бывает отсутствие осадков и, очень редко, бывает дождь (во время сильной оттепели). Дождь зимой маловероятен, поэтому зимой сообщение о дожде несет самую большую информацию.

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Вернемся к нашей задаче об оценках Андреева. Попробуем ответить на вопрос: сколько получим информации при получении любой оценки?

Ответить на этот вопрос нам поможет формула вычисления количества информации для событий с различными вероятностями, которую предложил в 1948 г. американский инженер и математик К.Шеннон.

Если I-количество информации, N-количество возможных событий, рi - вероятности отдельных событий, где i принимает значения от 1 до N, то количество информации для событий с различными вероятностями можно определить по формуле:

можно расписать формулу в таком виде:

Рассмотрим формулу на нашем примере:

I = - (р2∙log2p2 + р3∙log2p3 4∙log2p4 + р5∙log2p5)= - (0,03∙ log20,03+0,27∙ log20,27+3,32∙ log22,32+0,5∙ log20,5)≈-(0,16+0,5+0,46+0,5)=1,6 бит

Теперь мы с вами можем ответить на вопрос задачи, которая была поставлена в начале урока. Какое сообщение содержит большее количество информации?

  • Сообщение о том, что из корзины с разноцветными шарами (все шары разного цвета) достали зелёный шар, содержит 4 бита информации. Сколько шаров было в корзине? (Отв.: 2 бит.)

  • В классе 30 человек. За контрольную работу по информатике получено 15 пятерок, 6 четверок, 8 троек и 1 двойка. Какое количество информации несет сообщение о том, что Андреев получил пятерку? Какое количество информации несет сообщение о том, что Андреев получил любую оценку? (Отв.: 1,6 бит.)

Обратите внимание на 3 и 4 задачу. Сравните количество информации.

Мы видим, что количество информации достигает максимального значения, если события равновероятны.

Интересно, что рассматриваемые нами формулы классической теории информации первоначально были разработаны для технических систем связи, призванных служить обмену информацией между людьми. Работа этих систем определяется законами физики т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон. Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном “математической теорией связи”, и явилась основой классической теории информации.

Можно ли применить формулу К. Шеннона для равновероятных событий?

Если p1=p2=..=pn=1/N, тогда формула принимает вид:

Мы видим, что формула Хартли является частным случаем формулы Шеннона.

IV. Закрепление изучаемого материала.

Задача: В корзине лежат 32 клубка красной и черной шерсти. Среди них 4 клубка красной шерсти.

Сколько информации несет сообщение, что достали клубок красной шерсти? Сколько информации несет сообщение, что достали клубок шерсти любой окраски?

Дано: Кк=4;N=32

Найти: Iк, I

Решение:

  1. Найдем количество клубков черной шерсти: Кч=N- Кк; Кч=32-4=28

  2. Найдем вероятность доставания клубка каждого вида: pк= Кк/N=4/32=1/8; pч= Кч/N=28/32=7/8;

  3. Найдем количество информации, которое несет сообщение, что достали клубок красной шерсти: Iк= log2(1/(1/ pк))= log2(1/1/8)= log28=3 бит

  4. Найдем количество информации, которое несет сообщение, что достали клубок шерсти любой окраски: 

Ответ: Iк=3 бит; I=0,547 бит

V. Подведение итогов урока.

Вопросы:

  • Объясните на конкретных примерах отличие равновероятного события от неравновероятного?

  • С помощью какой формулы вычисляется вероятность события.

  • Объясните качественную связь между вероятностью события и количеством информации в сообщении об этом событии.

  • В каких случаях применяется формула Шеннона для измерения количества информации.

  • В каком случае количество информации о событии достигает максимального значения.

VI. Информация о домашнем задании.

Прочитать § 1.2 .3, выучить формулы и решить задачи в рабочей тетради:

Задача№1

В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.

Задача№2

В непрозрачном мешочке хранятся 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика?

-80%
Курсы повышения квалификации

Применение облачных технологий в образовании

Продолжительность 72 часа
Документ: Удостоверение о повышении квалификации
4000 руб.
800 руб.
Подробнее
Скачать разработку
Сохранить у себя:
Урок информатики "Измерение информации. Вероятностный подход" (0.19 MB)

Комментарии 0

Чтобы добавить комментарий зарегистрируйтесь или на сайт