Главная » Тарифы » Производятся две лотереи 4 из 32. Проводятся две лотереи. Примеры решения задач

Производятся две лотереи 4 из 32. Проводятся две лотереи. Примеры решения задач

Лабораторная работа №1

Измерение информации (содержательный подход)

1 бит – количество информации, уменьшающее неопределенность знаний вдвое. Задачи по теме связаны с использованием формулы Р. Хартли:

i = log 2 N или 2 i = N,

где i – количество информации, N – количество равновероятных исходов события.

Возможны два варианта условий задач:

1) дано N, найти i;

дано i, найти N.

Равновероятные события

1.В соревновании участвуют 4 команды. Сколько информации в сообщении, что выиграла 3-я команда?

– Сообщение уменьшает первоначальную неопределенность ровно в четыре раза (дважды по два) и несет два бита информации.

2. Шарик находится в одном из 64 ящичков. Сколько единиц информации будет содержать сообщение о том, где находится шарик?

6 бит (64 = 2 6)

3. При угадывании целого числа в некотором диапазоне было получено 8 бит информации. Сколько чисел содержал этот диапазон?

5. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение этой задачи следует описывать так: при случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества по сравнению с другими быть выбранной. Следовательно, случайный выбор любой карты, в том числе и дамы пик, - события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 - числу карт в колоде. Если i - количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение

Поскольку 32= 2 5 , следовательно, i = 5 бит.

6. Шарик находится в одной из трех урн: А, В или С. Определить, сколько бит информации содержит сообщение о том, что он находится в урне В.

Такое сообщение содержит I = log 2 3 = 1,585 бита информации.

7. Вы бросаете два кубика с нанесенными на гранях цифрами от 1 до 6. Определите, сколько бит информации несет сообщение, что на одном кубике выпала тройка, а на другом - пятерка.

log 2 6 + log 2 6 = 2,585 + 2,585 = 5,17 (бит)

8. Проводятся две лотереи: "4 из 32" и "5 из 64". Сообщение о результатах какой из лотерей несет больше информации?

Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана – события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (2 5 = 32), а во второй – 6 бит (2 6 = 64). Сообщение о четырех номерах в первой лотерее несет 5х4= 20 бит. Сообщение о пяти номерах второй лотереи несет 6х5= 30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о первой.

Но возможен и такой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й - из 30 номеров, 4-й - из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения:

2 i = 31 , отсюда i= 4,95420 бита.

Для 3-го номера: 2"= 30 ;i = 4,90689 бита.

Для 4-го номера: 2"= 29 ; i= 4,85798 бита.

В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 бита.

и размещение баннера -ОБЯЗАТЕЛЬНО!!!

Разработка урока по теме: "Как измерить информацию"

Разделы учебника : § 2. Дополнительный материал: часть 2, раздел 1.1.

Основные цели . Раскрыть понятие информативности сообщения с субъективной (содержательной) точки зрения на информацию. Ввести единицу измерения информации - бит. Научить вычислять количество информации в частном случае сообщения о событии с известной вероятностью (из данного конечного множества).

Изучаемые вопросы :

o От чего зависит информативность сообщения, принимаемого человеком.

o Единица измерения информации.

o Количество информации в сообщении об одном из N равновероятных событий.

1. В данной теме используется понятие "сообщение", интуитивно понятное ученикам. Тем не менее может возникнуть потребность расшифровать это понятие. Сообщение - это информационный поток, который в процессе передачи информации поступает к приемнику. Сообщение - это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем, и т.д.

2. Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т.е. несет для него информацию. Для разных людей одно и то же сообщение с точки зрения его информативности может быть разным. Если сведения "старые" , т.е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Еще раз хочется подчеркнуть всю познавательную (для учеников) и методическую (для учителя) сложность данного материала. Нельзя отождествлять понятия "ин формация" и "информативность сообщения". Следующий пример иллюстрирует различие понятий. Вопрос:

"Содержит ли информацию вузовский учебник по высшей математике, с точки зрения первоклассника?" Ответ: "Да, содержит с любой точки зрения! Потому что в учебнике заключены знания людей: авторов учебника, создателей математического аппарата (Ньютона, Лейбница и др.), современных математиков". Эта истина - абсолютна. Другой вопрос: "Будет ли информативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первоклассник с помощью этого учебника пополнить собственные знания?" Очевидно, что ответ отрицательный. Читая учебник, т.е. получая сообщения, первоклассник ничего не поймет, а стало быть, не обратит его в собственные знания. Введение понятия "информативность сообщения" является первым подходом к изучению вопроса об измерении информации. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

При объяснении этой темы можно предложить ученикам поиграть в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, ответы на которые они молча записывают на бумагу. Если ученик не знает ответа, он ставит знак вопроса. После этого учитель дает правильные ответы на свои вопросы, а ученики, записав ответы учителя, отмечают, какие из ответов оказались для них информативными (+), какие - нет (-). При этом для сообщений, отмеченных минусом, нужно указать причину отсутствия информации: не новое (это я знаю), непонятное. Например, список вопросов и ответы одного из учеников могут быть такими, как в таблице на с. 6. 3. Определение бита - единицы измерения информации - может оказаться сложным для понимания. В этом определении содержится незнакомое детям понятие "неопределенность знаний". Прежде всего нужно раскрыть его. Учитель должен хорошо понимать, что речь идет об очень частном случае: о сообщении, которое содержит сведения о том, что" произошло одно из конечного множества (N) возможных событий. Например, о результате бросания монеты, игрового кубика; вытаскивания экзаменационного билета и т.п. Неопределенность знания о результате некоторого события - это число возможных вариантов результата. Для монеты - 2, для кубика - б, для билетов - 30 (если на столе лежало 30 билетов).

Вопрос учителя

Ответ ученика

Сообщение учителя

Информативность сообщения

Причина неинформативности

1. Какой город является столицей Франции?

Столица Франции - Париж

Столица Франции - Париж

2. Что изучает коллоидная химия?

Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности

Непонятное

3. Каковы высота и вес Эйфелевой башни?

Эйфелева башня имеет высоту 300 метров и вес 9000 тонн

4. Еще одной сложностью является понятие равновероятности. Здесь следует оттолкнуться от интуитивного представления детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадение орла и решки - равновероятны; выпадение одной из шести граней кубика - равновероятны. Полезно привести примеры и неравновероятных событий. Например, в сообщении о погоде в зависимости от сезона сведения о том, что будет - дождь или снег, могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой - о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными. Понятие "более вероятное событие" можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача понимания учениками строгого определения вероятности, умения вычислять вероятность. Но представление о равновероятных и неравновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и неравновероятных событий.

При наличии учебного времени полезно обсудить с учениками понятия "достоверное событие" - событие, которое обязательно происходит, и "невозможное событие". От этих понятий можно оттолкнуться, чтобы ввести интуитивное представление о мере вероятности. Достаточно сообщить, что вероятность достоверного события равна 1, а невозможного - 0. Это крайние значения. Значит, во всех других "промежуточных" случаях значение вероятности лежит между нулем и единицей. В частности, вероятность каждого из двух равновероятных событий равна 1/2. При углубленном варианте изучения базового курса следует обратиться к разделу 1.1 "Вероятность и информация" второй части учебника.

5. В учебнике дано следующее определение единицы информации: "Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации". Немного дальше приводится определение для частного случая: "Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации". Учитель, предпочитающий индуктивный метод объяснения, может начать со второго определения. Обсуждая традиционный пример с монетой (орел-решка) , следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два раза: перед подбрасыванием монеты было два равновероятных варианта, после получения сообщения о результате остался один-единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в два раза передается 1 бит информации. Примеры, приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приходит к обобщенной формуле:2i= N. Здесь N - число вариантов равновероятных событий (неопределенность знаний), a i - количество информации в сообщении о том, что произошло одно из N событий. Если N - известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение. Как известно, показательное уравнение решается с помощью функции логарифма: i=log2N. Здесь учителю предоставляются два возможных пути:

либо с опережением уроков математики объяснить, что такое логарифм, либо "не связываться" с логарифмами. Во втором варианте следует рассмотреть с учениками решение уравнения для частных случаев, когда N есть целая степень двойки: 2, 4, 8, 16, 32, - и т.д. Объяснение происходит по схеме:

ЕСЛИ N= 2= 21, то уравнение принимает вид: 2i= 21, отсюда i = 1.

Если N = 4 = 22, то уравнение принимает вид: 2 i = 22, отсюда i == 2.

Если N = 8 == 23, то уравнение принимает вид: 2 i = 23, отсюда i = 3 и т.д.

В общем случае, если N = 2k где k - целое число, то уравнение принимает вид 2i = 2k и, следовательно, i = k. Ученикам полезно запомнить ряд целых степеней двойки хотя бы до 210= 1024. С этими величинами им предстоит еще встретиться в других разделах.

Для тех значений N, которые не являются целыми степенями двойки, решение уравнения 2i = N можно получать из приведенной в учебнике таблицы в § 2. Совсем необязательно говорить ученикам, что это таблица логарифмов по основанию 2. Например, желая определить, сколько же бит информации несет сообщение о результате бросания шестигранного кубика, нужно решать уравнение: 2i = 6, Поскольку 22 < 6 < 23, то следует пояснить ученикам, что 2 < i < 3. Заглянув а таблицу, узнаем (с точностью до пяти знаков после запятой), что i= 2,58496 бита.

Задачи по теме § 2 связаны с использованием уравнения 2i= N. Возможны два варианта условий задач:

1) дано N, найти i ;

2) дано i, найти N.

В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления "в уме". Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу 1.1, где рассматриваются значения N от 1 до 64,

Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин "равновероятные события".

Пример 1. [I] Задание № 7 к § 2. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение этой задачи следует описывать так: при случайном вытаскивании карт и а перемешанной колоды ни одна из карт не имеет преимущества по сравнению с другими быть выбранной. Следовательно, случайный выбор любой карты, в том числе и дамы пик, - события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 - числу карт в колоде. Если i - количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение;

Поскольку 32= 25, следовательно i = 5 бит.

На тему данной задачи учитель может предложить еще несколько заданий. Например:

Сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество.)

Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде 4 масти и количества карт в них равные.)

Пример 2. [ 1 ] Задание № 8 к § 2. Проводятся две лотереи: "4 из 32" и "5 из 64". Сообщение о результатах какой из лотерей несет больше информации?

У этой задачи есть "подводный камень", на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана - события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит(25 = 32), а во второй - 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5х4= 20 бит. Сообщение о пяти номерах второй лотереи несет 6х5= 30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о первой.

Но возможен и такой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й - из 30 номеров, 4-й - из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения: 2i= 31.

Глядя в таблицу 1.1, находим: i= 4,95420 бита. Для 3-го номера: 2"= 30; г = 4,90689 бита. Для 4-го номера: 2"= 29; г= 4,85798 бита. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 бита.

Изучаемые вопросы:

ª Что такое алфавит, мощность алфавита.

ª Что такое информационный вес символа в алфавите.

ª Как измерить информационный объем текста с алфавитной точки зрения.

ª Что такое байт, килобайт, мегабайт, гигабайт.

ª Скорость информационного потока и пропускная способность канала.

Рассматриваемый в этой теме подход к измерению информации является альтернативным к содержательному подходу, обсуждавшемуся ранее. Здесь речь идет об измерении количества информации в тексте (символьном сообщении), составленном из символов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, т.е. не зависящим от воспринимающего его субъекта.

Алфавитный подход - это единственный способ измерения информации, который может применяться по отношению к информации, циркулирующей в информационной технике, в компьютерах.

Опорным в этой теме является понятие алфавита. Алфавит - это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита (термин взят из математической теории множеств). В основном содержании базового курса алфавитный подход рассматривается лишь с позиции равновероятного приближения. Это значит, что допускается предположение о том, что вероятности появления всех символов алфавита в любой позиции в тексте одинаковы. Разумеется, это не соответствует реальности и является упрощающим предположением.

В рассматриваемом приближении количество информации, которое несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2 i = N, где N - мощность алфавита. Величину i можно назвать информационным весом символа. Отсюда следует, что количество информации во всем тексте (i), состоящем из К символов, равно произведению информационного веса символа на К: I = i´К. Эту величину можно назвать информационным объемом текста. Такой подход к измерению информации еще называют объемным подходом.

Полезно обсудить с учениками следующий вопрос: какова минимальная мощность алфавита, с пoмощыо которого можно записывать (кодировать) информацию? Этот вопрос напрямую связан с заданием № 3 к § 3 учебника , которое звучит так: «Докажите, что исходя из алфавитного подхода, сообщение любой длины, использующее односимвольный алфавит, содержит нулевую информацию».

Предположим, что используемый алфавит состоит всего из одного символа, например «1». Интуитивно понятно, что сообщить что-либо с помощью единственного символа невозможно. Но это же доказывается строго с точки зрения алфавитного подхода. Информационный вес символа в таком алфавите находится из уравнения: 2 i = 1. Но поскольку 1 = 2°, то отсюда следует, что i = 0 бит. Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль. Причем такой ответ получается с любой позиции, как с содержательной, так и с алфавитной.

Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом. Информационный вес символа в двоичном алфавите легко определить. Поскольку 2 i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. С этим обстоятельством ученики снова встретятся, когда будут знакомиться с алфавитом внутреннего языка компьютера - языка двоичного кодирования.

Бит - основная единица измерения информации. Кроме нее используются и другие единицы. Следует обратить внимание учеников на то, что в любой метрической системе существуют единицы основные (эталонные) и производные от них. Например, основная физическая единица длины - метр. Но существуют миллиметр, сантиметр, километр. Расстояния разного размера удобно выражать через разные единицы. Так же обстоит дело и с измерением информации. 1 бит - это исходная единица. Следующая по величине единица - байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 2 8 , то 1 байт = 8 бит. Мы снова встречаемся с темой, которая является своеобразной пропедевтикой к будущему изучению компьютера.

Уже в рамках данной темы можно сообщить ученикам, что компьютер для внешнего представления текстов и другой символьной информации использует алфавит мощностью 256 (во внутреннем представлении любая информация в компьютере кодируется в двоичном алфавите). Фактически, для выражения объема компьютерной информации в качестве основной единицы используется байт.

Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт - нужно обратить их внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 2 10 . Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных вычислениях используют коэффициент 1000.

В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов. Теоретический и практический материал на эту тему можно найти в пособии в подразделе 1.4.

Примеры решения задач

Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2 i = N. Возможны два варианта условия задачи: 1) дано N, найти i; 2) дано i, найти N.

В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 2 10 . В противном случае следует использовать таблицу решения уравнения 2 i = N, приведенную в и , в которой рассматриваются значения N от 1 до 64.

Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».

Пример 1 . Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение. При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик - события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 - числу карт в колоде. Если i - количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:

Поскольку 32 = 2 5 , то, следовательно, i = 5 бит.

На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).

Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде 4 масти и количество карт в них равные).

Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?

Решение. У этой задачи есть «подводный камень», на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана - события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (2 5 = 32), а во второй - 6 бит (2 б = 64). Сообщение о четырех номерах в первой лотерее несет 5´4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6´5 = 30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.

Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й - из 30 номеров, 4-й - из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения: 2 i = 31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит. Для 3-го номера: 2 i = 30; i = 4,90689 бит. Для 4-го номера: 2 i " = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации, чем первое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».

Последовательность событий в этом случае не является независимой друг от друга (кроме первого). Это, как мы увидели, отражается в различии информативности сообщений о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.

В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита - N; информационный вес символа - /; число символов в тексте (объем текста) - К; количество информации, заключенной в тексте (информационный объем текста) - I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, килобайт, мегабайт, гигабайт.

Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т. е. допущение того, что появление любого символа в любой позиции текста - равновероятно. В задачах для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр - вероятность символа (р).

Пример 3 . Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй - мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?

Решение . В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:

Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i 1 для первого алфавита и i 2 для второго алфавита:

2 i1 = 32, отсюда i 1 = 5 бит;

2 i2 = 64, отсюда i 2 = 6 бит.

Следовательно, информационные объемы первого и второго текстов будут равны:

I 1 = К× 5 бит, 1 2 =К×6 бит.

Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.

Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз - на 8:

I = 1/512 1024 1024 8 = 16384 бит.

Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:

i = I/K = 16384/1024 = 16 бит.

Отсюда следует, что размер (мощность) использованного алфавита равен 2 16 = 65 536 символов.

Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символьной информации в компьютере (кодировка Unicode).

краткое содержание других презентаций

«Алфавитный подход к измерению информации» - Единицы измерения информации. Информационный объем сообщения. Оформление решения задачи №3. Информационный объем текста. Количество возможных информационных сообщений. Количество информации в сообщении. Единицы измерения. Переведите. N алфавита из русских букв равна 32. Оформление решения задачи №2. Оформление решения задачи. Алфавит. Количество информации. 32-символьный алфавит. Символ текста. Количество знаков в алфавите знаковой системы.

«Формулы Хартли и Шеннона» - Формула Хартли. Число. Событие. Формулы Хартли и Шеннона. Наступление. Хартли. Количество информации. Задача. Американский инженер Хартли. Американский ученый Клод Шеннон. Формула Хартли: I=log2N где I -количество информации, N -число. Формула Шеннона. Примеры равновероятных сообщений. Запись формулы Шеннона. Решение.

«Содержательный подход к измерению информации» - Содержательный подход. Пример. Измерение информации. Как измерить информацию. Из колоды карт достали король пик. Информативность сообщения. Единица измерения информации. Сколько информации содержит сообщение. Формула вычисления кол-ва информации. Одна из клеток закрашена. Сообщение о выпадении грани с числом 3. На книжном стеллаже восемь полок.

«Количество информации по информатике» - Задачи. Контрольные вопросы. В школьной библиотеке 16 полок с книгами. Сообщение о результате жребия. Каждый символ кодируется одним байтом. Определение количества информации. Содержательный подход. Преобразование единиц измерения. Информация для человека. Решить задачи в тетради. Алфавитный подход. Шахматная доска состоит из 64 полей. Самостоятельная работа.

«Подходы к измерению информации» - Достоверное и невозможные события. Содержание. Другой способ измерения количества информации. Сообщение занимает 3 страницы по 25 строк. Составим таблицу из предыдущих примеров. Алфавит. Равновероятные события. Неопределенность знаний. В течение четверти ученик получил 100 оценок. Стратегия отгадывания чисел. Что изучает коллоидная химия. Количество вариантов выпадения одной из 6 сторон. Как же измерить количество информации.

«Единица количества информации» - Мера уменьшения неопределенности знания. Информационная емкость знака. Примеры информационных сообщений. Информационная емкость знака двоичной знаковой системы. Количество информации. Алфавитный подход. Формула. Производные единицы. Бит. Количество возможных информационных сообщений. Информация кодируется. Вид уравнения. Полученное сообщение. Количество знаков. Информационное сообщение. Определение количества информации.

Бит – основная единица измерения информации. Кроме нее используются и другие единицы. Следующая по величине единица – байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 байт = 8 бит.

Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт – нужно обратить внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных величинах используют коэффициент 1000.

В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов.

Многие учебники содержательную линию «Информация и информационные процессы начинают одинаково, с того, что понятие «Информация» стало одним из фундаментальных понятий в современной науке. Наряду с понятиями «вещество», «энергия», «пространство» и «время». Оно составляет основу научной картины мира.

2.3. Методика решения задач по темам раздела «Информация»

Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2i = N. Возможны два варианта решения задачи:

Дано N, найти i;

Дано i, найти N.

В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения 2i = N, в которой рассматриваются значения N от 1 до 64.

Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».

Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение: При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик – событие равновероятное. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 – числу карт в колоде. Если i - количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:

Поскольку 32 = 25 , то, следовательно, i = 5 бит.

На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).

Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде четыре масти и количество карт в них равные).

Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?

Решение: У этой задачи есть «подводный камень», на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана – события равновероятные. Поэтому в первой лотереи количество информации в сообщение об одном номере равно 5 бит (25 = 32), а во второй – 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5 * 4 = 20 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.

Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но второй шар будет выбираться уже из 31 номера, третий – из 30 номеров, четвертый – из 29. Значит, количество информации, которое несет второй номер, находится из уравнения: 2i = 31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит, для третьего номера: 2 i = 30; i = 4,90689 бит, для четвертого номера: 2 i = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,85798 + 4,90689 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации чем первое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».

Последовательность событий в этом случае не является независимой друг от друга (кроме первой). Это, как мы увидели, отражается в различии информативности сообщении о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.

В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита – N; информационный вес символа – i; число символов в тексте (объем текста) – К; количество информации, заключенной в тексте (информационный объем текста) – I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, Кбайт, Мбайт, Гбайт.

Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т.е. допущение того, что появление любого символа в любой позиции текста – равновероятно. В задача для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр – вероятность символа (р).

Решение: В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:

Поскольку оба текста имеют одинаковое число символов (К), то различия информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1 для первого алфавита и i2 для второго алфавита:

2i1 = 32, отсюда i1 = 5 бит;

2i2 = 64, отсюда i2 = 6 бит.

Следовательно, информационные объемы первого и второго текстов будут равны:

I1 = К*5 бит, I2 = К*6 бит.

Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.

Задачи по теме «Информация»

1. Представление информации.

1. Предположим, что на «марсианском» языке выражение lot do may означает кот съел мышь; may si – серая мышь; ro do – он съел. Как написать на «марсианском» языке «серый кот»?

Ответ: lot si.

2. Фраза на некотором языке «Каля маля» в переводе на русский означает «Красное солнышко», «Фаля маля баля» – «Большая красная груша», «Цаля баля» - «Большое яблоко». Как на этом языке записать слова: груша, яблоко, солнышко?

Ответ: «Цаля» – «Яблоко», «Баля» – «Груша», «Каля» – «Солнышко».



Предыдущая статья: Следующая статья:

© 2015 .
О сайте | Контакты
| Карта сайта