Раздел B • Категория B1 (демонстрационный вариант-2012)

 
 
 

Условие задачи

Дано:
автоматическое устройство осуществило перекодировку информационного сообщения на русском языке длиной в 20 символов, первоначально записанного в 2-байтном коде Unicode, в 8-битную кодировку КОИ-8.

 

Вопрос:
на сколько бит уменьшилась длина сообщения?

 

Теоретические сведения

Рассмотрим две фундаментальные таблицы кодирования символов:

  • ASCII (American Standart Code for Information Interchange);

  • Unicode.

 

Также существует две разновидности таблицы ASCII:

  • стандартный вариант таблицы;

  • расширенный вариант таблицы.

В настоящее время стандартная таблица ASCII практически не используется.

Расширенная таблица ASCII состоит из 256 символов, причем первых 128 символов составляют буквы латинского алфавита, арабские цифры и специальные символы, а вторые 128 символов составляет национальный алфавит. То есть практически для каждой нации существует свой вариант кодировочной ASCII-таблицы. В России используются следующие ASCII-таблицы:

  • CP866;

  • KOI8-R;

  • ISO 8859-5;

  • Windows-1251.

Для кодирования каждого символа из ASCII-таблицы требуется 1[байт] или 8[бит] информации. Данное утверждение продиктовано тем, что мощность ASCII-таблицы составляет 256 знаков.

 

Кодировочная таблица Unicode является "продолжением" и более продвинутым вариантом своего прародителя ASCII-таблицы. Unicode-таблица состоит из 65536 символов и на кодирование каждого символа отводится уже 2[байт] или 2 * 8 = 16[бит]. Unicode-таблица вмещает практически все современные национальные алфавиты, но приходится "расплачиваться" требуемой памятью (так как каждый символ из Unicode-таблицы в два раза "тяжелее", чем соответствующий символ из ASCII-таблицы), но, учитывая мощности современных компьютерных процессоров и используемой оперативной памяти, это не кажется такой уж большой проблемой.

 

Решение

Определим объем начального информационного сообщения:

V[начальное сообщение] = [длина] * [память, отводимая на 1 символ] = 20 * 2[байт] = 40[байт].

 

Очень важно понимать следующее, что после перекодировки длина (количество символов) информационного сообщения не меняется, то есть длина останется те же 20 символов. После перекодирования меняется объем памяти, отводимый на каждый символ информационного сообщения.

Определим объем перекодированного начального информационного сообщения:

V[перекодированное сообщение] = [длина] * [память, отводимая на 1 символ] = 20 * 1[байт] = 20[байт].

 

Определим разность информационных объемов:

V = V[начальное сообщение] - V[перекодированное сообщение] = 40[байт] - 20[байт] = 20[байт].

В условии задачи спрашивали "на сколько бит уменьшилась длина сообщения", следовательно, полученный результат нужно перевести в метрику [бит]. Как известно из теории информации 8[бит] = 1[байт], следовательно:

V = 20 * 8[бит] = 160[бит].

 

Вывод:

на 160[бит] уменьшилась длина сообщения.

Резюме

  1. определяем объем начального информационного сообщения (получаем 40[байт]);

  2. определяем объем перекодированного информационного сообщения (получаем 20[байт]);

  3. определяем разность рассчитанных объемов и переводим результат в метрику [бит] (получаем 160[бит]).

 

Ответ:

160

 
Рейтинг:
 
Проголосовало: 0
Количество просмотров: 977
 
 
 

Раздел B • Категория B1 (демонстрационный вариант-2012)

 

Комментарии

Для комментирования или зарегистрируйтесь
 
 
© 2011-2019 ООО "СтадиМен". Все права сохранены.
Перепечатка и использование материалов с данного сайта, разрешена только по согласию с владельцем.
Владелец оставляет за собой право воспользоваться 146 статьей УК РФ при нарушении авторских и смежных прав.
 
 
 
 
Авторизация на сайте
 
 
 
Обнаружили
ошибку на сайте?