виды информации кодирование информации измерение информации

Измерение и кодирование информации

Единицы информации

1 байт = 8 бит; 1 Кбайт = 2 10 байт = 1024 байт; 1 Мбайт = 2 10 Кбайт = 1024 Кбайт; 1 Гбайт = 2 10 Мбайт = 1024 Мбайт

Определение количества (объема) информации

Количество (объем) получаемой информации (I) при известном количестве возможных событий (N):

Для равновероятных событий: I = log2N

Для разновероятных событий: (формула Шеннона),

Количество (объем) информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно: Информационная емкость «знака» * Количество знаков в сообщении.

Представление информации в компьютере

Логические последовательности нулей и единиц представляют собой машинный язык.

Кодирование текстовой информации

Принцип кодирования: каждому символу ставится в соответствие определенный уникальный числовой (двоичный) код. Таблица, устанавливающая такое соответствие, называется таблицей кодировки символов.

Наиболее распространенные 8-разрядные таблицы кодировок: ASCII (принята в качестве стандарта в MS-DOS), Windows-1251 (CP1251), КОИ-8, ISO.

Кодирование графической информации

Наиболее распространенные значения глубины цвета: 4, 8, 16, 24 бита на точку.

Наиболее частот используемые экранные разрешения: 640×480, 800×600, 1024×768, 1280×1024 точек.

Глубина кодирования и разрешение влияют на качество кодирования изображения.

Кодирование звуковой информации

Глубина кодирования и частота дискретизации влияют на качество кодирования звука.

Представление чисел в памяти компьютера

В компьютере числа представляются в одной из двух форм:

Источник

Виды информации кодирование информации измерение информации

Информация должна обладать следующими свойствами:

Алфавитный подход к измерению информации

Полное количество символов в алфавите называется мощностью алфавита (N).

Информационный вес одного символа – i.

Зависимость между мощностью алфавита и информационным весом символа записывается следующим образом: 2 i = N

Следовательно, можно сказать, что 1 бит – это информационный вес символа в двухсимвольного алфавита.

Алфавит состоящий из 256 символов:

1 байт = 2 3 = 8 бит
1 Килобайт = 2 10 = 1024 байт
1 Мегабайт = 2 10 = 1024 Килобайт
1 Гигабайт = 2 10 = 1024 Мегабайт

Чтобы подсчитать информационный объем сообщения необходимо количество символов в сообщении умножить на информационный вес одного символа

i – информационный вес одного символа

I информационный объем всего сообщения

Считая, что каждый символ кодируется одним байтом, определите, чему равен информационный объем следующего высказывания Рене Декарта:

Я мыслю, следовательно, существую.

1) Из условия известно, что 1 символ равен 1 байт, т.е. 8 бит.

2) Посчитаем, сколько символов в сообщении (учитывая, что все знаки препинания и пробелы считаются символами). Получилось 34 символов.

3) Считаем 34 символов × 8 бит = 272 бит

4) Следовательно, правильный ответ: 2)

Содержательный подход к измерению информации.

Неопределенность знаний о некотором событии – это количество возможных результатов события.

Сообщение, уменьшающее неопределенность знаний в два раза, несет один бит информации.

Можно сказать иначе: Сообщение о том, что произошло одно из двух событий, несет 1 бит информации.

Количество информации, содержащееся в сообщении, о том что произошло одно событие, связано с количеством возможных событий следующей формулой:

2 i = N где N – количество равновероятных событий

i – количество информации, содержащееся в сообщении о том, что произошло одно из равновероятных событий (количество бит).

Шахматная доска состоит из 64 полей: 8 строк и 8 столбцов. Какое минимальное количество бит потребуется для кодирования координат одного шахматного поля?

1) Нам известно количество полей (количество равновероятных событий) – 64.

2) По формуле 2 I = N найдем количество бит для кодирования одного поля:

5) Следовательно, правильный ответ: 4)

Рекомендую дополнительно дать теорию по вероятности (иногда задачи на эту тему встречаются в ЕГЭ):

где p – вероятность события

K – количество благоприятных событий

N – общее количество событий

Связь между вероятностью события и количеством информации в сообщении: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Источник

Лекция на тему «Кодирование информации. Измерение информации»

Новые аудиокурсы повышения квалификации для педагогов

Слушайте учебный материал в удобное для Вас время в любом месте

откроется в новом окне

Выдаем Удостоверение установленного образца:

Кодирование информации. Измерение информации.

Кодирование информации – переход от одной формы представления информации к другой.

Способ кодирования зависит от цели, ради которой оно осуществляется: сокращение записи, шифровка. Существуют три основных способа кодирования:

Графический – с помощью рисунков или значков.

Числовой – с помощью чисел.

Символьный – с помощью символов того же алфавита, что и исходный текст.

Самое простое кодирование – перевод с одного языка на другой.

Английский писатель Конан Дойль придумал пляшущих человечков, Леонардо да Винчи писал свои записки в зеркальном отражении, американский художник Морзе придумал свою азбуку, существует флажковая азбука, штрих-код.

Компьютерное кодирование. Всю получаемую информацию компьютер превращает в свой код – всего две цифры – 1 и 0. Человечеству удалось придумать надежные технические устройства, которые распознают и сохраняют два различных состояния (цифры):

— магнитная лента. Намагничено/не намагничено. И т.д.

Все виды информации в ПК кодируются на машинном языке в виде последовательностей нулей и единиц.

Единицы измерения информации

Самая маленькая единица измерения информации – 1 бит (0 или 1).

BIT – это аббревиатура от BI nary digi T ( двоичная цифра ).

Следующая единица – байт.

BYTE – B inar Y Te rm (двоичный элемент) – это последовательность из восьми бит. Именно одним байтом кодируется один символ.

Но байт – маленькая величина, поэтому обычно используют килобайты, мегабайты.

Килобайт=2 10 =1024 байт

Мегабайт=2 10 Кбайт=2 20 байт=1 048 576байт

Гигабайт=2 10 Мбайт=2 30 байт=1 073 741 824байт

Терабайт=2 10 Гбайт=2 40 байт=1 099 511 627 776байт

Петабайт; Экзабайт; Зеттабайт; Йоттабайт.

1 страница печатного текста (60 строк и 80 символов в строке)- (60*80=4800/1024=4,7 Кбайт).

ПРИМЕР: перевести 5Мбайт в байты;

Перевести 345байт в Кбайты;

Количество возможных событий и количество информации

ПРИМЕРЫ: 1. Вы подошли к светофору, когда горел желтый цвет. После этого загорелся зеленый. Какое количество информации вы при этом получили?

2. Вы подошли к светофору, когда горел красный цвет. После этого загорелся желтый. Какое количество информации вы при этом получили?

N=1; 1=2 I > 2 0 =2 I > I=0 бит

3. Группа школьников пришла в бассейн, в котором 4 дорожки для плавания. Тренер сообщил, что группа будет плавать по дорожке № 3. Сколько информации получили школьники из этого сообщения?

N =4; 4=2 I > 2 2 =2 I > I =2 бит

N =8; 8=2 I > 2 3 =2 I > I =3 бит

5. В школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже по 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации библиотекарь передал Пете?

N =16*8=128; 128=2 I > 2 7 =2 I > I =7 бит

6. Сообщение о том, что ваш друг живет на 10 этаже, несет 4 бита информации. Сколько этажей в доме?

N =2 4 ; > N =16 этажей (событий)

7. Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме?

N =2 3 =8 подъездов (событий)

8. В коробке лежат 7 разноцветных карандашей. Какое количество информации содержит сообщение, что из коробки достали красный карандаш?

N=2 I ; > 7=2 I > 2 2,8 =2 I > I=2,8 бита

9. Какое количество информации несет сообщение «Встреча назначена на сентябрь»?

N=2 I ; > 12=2 I > 2 3,58 =2 I > I=3,58 бит

Источник

Лекция по информатике на тему : «Понятие информации. Виды информации. Средства хранения, передачи и обработки информации. Кодирование и измерение информации в ЭВМ».

Новые аудиокурсы повышения квалификации для педагогов

Слушайте учебный материал в удобное для Вас время в любом месте

откроется в новом окне

Выдаем Удостоверение установленного образца:

Раздел 1. Информатика

Понятие информации. Виды информации. Средства хранения, передачи и обработки информации. Кодирование и измерение информации в ЭВМ.

Понятие «информация» является фундаментальным и базовым в информатике. В зависимости от области знания существуют различные подходы к определению понятия информации (например, в информатике используют два подхода – содержательный и кибернетический ).

Информация – от латинского informatio – сведения, разъяснения, изложение.

В бытовом понимании информация – это некоторые сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами. Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов. Под информацией в теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. По определению К. Шеннона: «Информация – это снятая неопределенность». В кибернетике : информация (по определению Н. Виннера) – это часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы. В теории связи информация – это произвольный набор символов, и каждый новый символ увеличивает количество информации.

Можно привести и другие определения информации, характерные для конкретных предметных областей. Общим определением можно считать следующее: « Информация – это отражение внешнего мира с помощью знаков и сигналов».

Носителями информации могут быть:

Любой материальный предмет (бумага, камень, дерево и т.д.);

Волны различной природы: акустическая (звук), электромагнитная (свет, радиоволна), гравитационная (давление, притяжение) и т.д.;

Вещество в различном состоянии (концентрация молекул в жидком растворе, температура и давление газа и т.д.)

Машинными носителями информации являются: перфокарты, перфоленты, магнитные ленты, диски и т.д.

Информацию можно классифицировать по различным основаниям: по форме сигнала (непрерывная, дискретная), по способам восприятия, по форме представления и по общественному значению.

По способам восприятия:

По форме представления:

По общественному значению:

Массовая: обыденная, общественно-политическая, эстетическая;

Специальная: научная, производственная, техническая, управленческая;

Личная: знания, умения, интуиция.

Информация обладает определенными свойствами. Можно выделить следующие основные свойства информации:

Актуальность информации – существенность для настоящего времени.

Ценность информации – важность для принятия решения.

При данном способе определения количества информации опираются на понятия алфавит и мощность алфавита:

Алфавит, мощностью 256 символов используется для внешнего представления текстов и другой символьной информации в ЭВМ. Информационный вес символа такого алфавита равен 8 битам (т.е. информационный вес любого символа с клавиатуры).

Какое количество информации несет компьютерный текст из 10 строк, содержащий 80 символов в строке?

Единицы измерения количества информации:

0 или 1 – 1 бит информации;

8 бит – 1 байт информации;

1024 байт – 1 килобайт;

1024 килобайт – 1 мегабайт;

1024 мегабайт – 1 гигобайт.

Информацию, предназначенную для обработки ЭВМ, кодируют при помощи двоичной системы счисления. Создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных состояния: некоторый физический элемент может быть намагничен в двух противоположных направлениях или устройство может пропускать либо не пропускать электрический ток или конденсатор в какой-то момент времени может быть заряжен либо не заряжен и т.п.. Символом 0 обозначают отсутствие электрического или электромагнитного сигнала, а символом 1 – его наличие. Вся информация – текстовая, числовая, графическая, звуковая представляется (кодируется) в виде последовательности нулей и единиц, а затем обрабатывается на ЭВМ. Существуют специальные кодировочные таблицы для каждого класса ЭВМ, где можно посмотреть код того или иного символа. Кодирование информации происходит в ЭВМ автоматически.

Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается по количеству требуемых для такой записи двоичных символов. Например, для кодирования буквы алфавита используют последовательность из 8 символов, т.е. объем информации, содержащийся в одной букве – 8 бит.

Средства хранения информации в ЭВМ: память (внутренняя и внешняя).

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

Информационная структура внутренней памяти представляет собой последовательность двоичных ячеек — битов. Битовая структура внутренней памяти определяет ее первое свойство: дискретность. Каждый бит памяти в данный момент хранит одно из двух значений: 0 или 1, то есть один бит информации. Второе свойство внутренней памяти – адресуемость. Но адресуются не биты, а байты — 8 расположенных подряд битов памяти. Адрес байта – это его порядковый номер в памяти.

Доступ к информации в оперативной памяти происходит по адресам: чтобы записать данные в память, нужно указать, в какие байты ее следует занести. Точно так же и чтение из памяти производится по адресам. Таким способом процессор общается с оперативной памятью.

Информационная структура внутренней памяти — битово-байтовая. Ее размер (объем) обычно выражают в килобайтах, мегабайтах.

Информационная структура внешней памяти— файловая. Наименьшей именуемой единицей во внешней памяти является файл. Информация, хранящаяся в файле, тоже состоит из битов и байтов. Но, в отличие от внутренней памяти, байты на дисках не адресуются. При поиске нужной информации на внешнем носителе должно указываться имя файла, в котором она содержится; сохранение информации производится в файле с конкретным именем.

Средства передачи информации в ЭВМ: шина, порты ввода-вывода, адаптеры.

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

Обмен информацией между устройствами ПК осуществляется через общую многопроводную магистраль (шину), внешние устройства подсоединены к магистрали через контроллеры (адаптеры) и порты ввода-вывода.

Рассмотренную структуру ПК называют архитектурой с общей шиной (другое название — магистральная архитектура). Впервые она была применена на мини-ЭВМ, затем перенесена на микро-ЭВМ и ПК. Ее главное достоинство — простота, возможность легко изменять конфигурацию компьютера путем добавления новых устройств или замены старых. Отмеченные возможности принято называть принципом открытой архитектуры ПК.

Средства обработки информации в ЭВМ: центральный процессор, сопроцессор.

Процессор состоит из нескольких частей и его устройство можно представить в виде следующей схемы:

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

Блок управления ЦП отвечает за вызов команд из памяти и определения их типа. Арифметико-логическое устройство (АЛУ) выполняет арифметические (например, вычитание) и логические операции (например, логическое ИЛИ). Внутри ЦП находится память для хранения промежуточных результатов и некоторых команд управления. Эта память состоит из нескольких регистров, каждый из которых выполняет определенную функцию. Обычно все регистры имеют одинаковый размер. Каждый регистр содержит одно число, которое ограничивается размером регистра. Регистры считываются и записываются очень быстро, поскольку находятся внутри ЦП.

Самый важный из регистров – счетчик команд указывает, какую команду нужно выполнять дальше. Наличие данного регистра в компьютере было предложено еще в работах фон Неймана. Роль счетчика состоит в сохранении адреса очередной команды программы и автоматическом вычислении адреса следующей. Благодаря наличию программного счетчика в ЭВМ реализуется основной цикл исполнения последовательно расположенных команд программы.

ЦП выполняет каждую команду за несколько шагов:

вызывает следующую команду из памяти и переносит ее в регистр команд;

меняет положение счетчика команд, который теперь должен указывать на следующую команду. Это происходит после декодирования текущей команды, а иногда после ее выполнения;

определяет тип вызванной команды;

если команда использует слово из памяти, то определяет, где находится это слово;

переносит слово, если это необходимо, в регистр ЦП;

переходит к шагу 1, чтобы начать выполнение следующей команды.

Такая последовательность шагов (выборка–декодирование–исполнение) является основой работы всех компьютеров.

Источник

Виды информации кодирование информации измерение информации

Электронные облака

Лекции

Рабочие материалы

Тесты по темам

Template tips

Задачи

Логика вычислительной техники и программирования

Лекция «Технология кодирования и измерения количества информации»

Качество и количество информации

Анализируя информацию, мы сталкиваемся с необходимостью определения качества и определения количества полученной информации. Определить качество информации чрезвычайно сложно, а часто и вообще невозможно. Какие-либо сведения, например исторические, могут десятилетиями считаться ненужными и вдруг их ценность может резко возрасти.

Вместе с тем определить количество информации не только можно, но и нужно. Это необходимо для того, чтобы сравнить друг с другом различные массивы информации, а также определить, какие размеры должны иметь материальные объекты (бумага, магнитные носители и т.д.), хранящие эту информацию.

Далее, говоря об измерении информации, мы будем иметь в виду определение ее количества.

Единая форма кодирования и измерения количества информации

Как измерять количество информации? Для этого нужно иметь универсальный способ, позволяющий представить любую ее форму (текстовую, графическую и др.) в едином стандартном виде.

За такой способ принята так называемая двоичная форма представления информации. Она заключается в записи любой информации в виде последовательности только двух символов: 0 и 1 (то есть в виде двоичных чисел) и с технической точки зрения наиболее проста и удобна (есть ток/нет тока, намагничено/размагничено, высокое напряжение/низкое напряжение).

Рассмотрим сначала одноразрядное двоичное число – бит. Оно может принимать два различных значения: 0 и 1

Если с помощью одноразрядного числа попробовать закодировать какую-либо информацию (например, ответ на вопрос «идет ли дождь?»), то мы успешно справимся с поставленной задачей, поскольку количество различных вариантов кодирования в данном случае равно двум (0-не идет, 1-идет).

К = 2 n °, где n – число разрядов двоичного числа.

В общем случае, верно, что чем больше различных видов однотипной информации требуется закодировать, тем больше разрядов двоичного числа (бит) требуется.

Единицы измерения информации

Таким образом, можно утверждать: информацию можно измерять в битах, то есть в количестве двоичных разрядов. Бит является наименьшей единицей измерения количества информации.

В 100 Мб можно уместить:

Страниц текста50000
Цветных слайдов высочайшего качества150
Аудиозапись1,5 часа
Музыкальный фрагмент качества CD-стерео10 минут
Фильм высокого качества записи15 секунд
Протоколы операций по банковским счетамЗа 1000 лет

Представление текстовой информации в компьютере. Кодовые таблицы

Кодирование текстового сообщения

Каждому символу ставится в соответствие двоичное число, причем таким образом, что чем дальше символ расположен от начала алфавита, тем больше значение двоичного числа, которое является кодом данного символа. Сколько разрядов (бит) требуется, чтобы закодировать все буквы, знаки препинания, математические и специальные символы? Легко подсчитать:

Находим, что для кодирования всех символов необходимо 8-разрядное двоичное число. Каждому символу ставится в соответствие свое уникальное значение восьмиразрядного двоичного числа. Так, если 10000000 – код буквы А, а 10001100 – код буквы М, то слово «МАМА» кодируется последовательностью из 32-х двоичных цифр (бит):

10000000 10001100 10000000 10001100, именно в такой форме данное текстовое сообщение и будет закодировано компьютером с использованием ровно 32-х бит.

Таблица кодирования ASCII

Как мы уже выяснили, традиционно для кодирования одного символа используется 8 бит. И, когда люди определились с количеством бит, им осталось договориться о том, каким кодом кодировать тот или иной символ, чтобы не получилось путаницы, т.е. необходимо было выработать стандарт – все коды символов сохранить в специальной таблице кодов. В первые годы развития вычислительной техники таких стандартов не существовало, а сейчас наоборот, их стало очень много, но они противоречивы. Первыми решили эти проблемы в США, в Институте стандартизации. Этот институт ввел в действие таблицу кодов ASCII (American Standard Code for Information Interchange – стандартный код информационного обмена США).

Рассмотрим таблицу кодов ASCII:

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

Таблица ASCII разделена на две части. Первая – стандартная – содержит коды от 0 до 127. Вторая – расширенная – содержит символы с кодами от 128 до 255.

Первые 32 кода отданы производителям аппаратных средств и называются они управляющие, т.к. эти коды управляют выводом данных. Им не соответствуют никакие символы.

Коды с 32 по 127 соответствуют символам английского алфавита, знакам препинания, цифрам, арифметическим действиям и некоторым вспомогательным символам.

Коды расширенной части таблицы ASCII отданы под символы национальных алфавитов, символы псевдографики и научные символы.

Все буквы расположены в них по алфавиту, а цифры – по возрастанию. Этот принцип последовательного кодирования позволяет определить код символа, не заглядывая в таблицу.

Коды цифр берутся из этой таблицы только при вводе и выводе и если они используются в тексте. Если же они участвуют в вычислениях, то переводятся в двоичную систему счисления.

Альтернативные системы кодирования кириллицы

Таблица Unicode разделена на несколько областей. Область с кодами от 0000 до 007F содержит символы набора Latin 1 (младшие байты соответствуют кодировке ISO 8859-1). Далее идут области, в которых расположены знаки различных письменностей, а также знаки пунктуации и технические символы. Часть кодов зарезервирована для использования в будущем (29000). 6000 кодовых комбинаций оставлено программистам.

Символам кириллицы выделены коды в диапазоне от 0400 до 0451.

Использование Unicode значительно упрощает создание многоязычных документов, публикаций и программных приложений.

Решение задач

1. Закодируйте с помощью ASCII слово: МИР

Решение: открываем таблицу ASCII,
по таблице ищем букву М, её код 204
по таблице ищем букву И, её код 200
по таблице ищем букву Р, её код 208

Ответ: код слова МИР – 204 200 208

2. Декодируйте тексты, заданные десятичным кодом: 192 203 195 206 208 200 210 204

Решение: открываем таблицу ASCII, в таблице ищем коды и соответствующую им букву:
192 – А; 203 – Л; 195 – Г; 206 – О; 208 – Р; 200 – И; 210 – Т; 204 – М, т. е. получили слово: АЛГОРИТМ

Ответ: 192 203 195 206 208 200 210 204 – АЛГОРТИМ

3. Десятичный код буквы «I» в таблице ASCII равен 73. Не пользуясь таблицей, составьте последовательность кодов, соответствующих слову MIR

Решение: Зная, что все буквы расположены по алфавиту, а цифры по возрастанию делаем следующие выводы: I – 73, J – 74, K – 75, L – 76, M – 77, N – 78, O – 79, P – 80, Q – 81, R – 82

Ответ: MIR – 77 73 82

4. Каков информационный объём текста, содержащего слово МИР:

а) в 16-битовой кодировке; б) в 8-битовой кодировке

Решение:
Зная, что в 8-битовой кодировке 1 символ – 8 бит делаем следующие выводы:
МИР – 3 символа = 24 бит (3*8)

Зная, что в 16-битовой кодировке 1 символ – 16 бит делаем следующие выводы:
МИР – 3 символа = 48 бит (3*16)

Ответ: а) 48 бит; б) 24 бит.

5. Текст занимает полных 2 страницы. На каждой странице размещается 45 строк по 45 символов. Определить объём оперативной памяти, который займёт этот текст.

Кодирование графической информации

Общие понятия о графической информации

Графическая информация представляет собой изображение, сформированное из определенного числа точек – пикселей. Добавим к этой информации новые сведения. Процесс разбиения изображения на отдельные маленькие фрагменты (точки) называется пространственной дискретизацией. Ее можно сравнить с построением рисунка из мозаики. При этом каждой мозаике (точке) присваивается код цвета.

От количества точек зависит качество изображения. Оно тем выше, чем меньше размер точки и соответственно большее их количество составляет изображение. Такое количество точек называется разрешающей способностью и обычно существуют четыре основных значений этого параметра: 640×480, 800×600, 1024×768, 1280×1024.

Качество изображения зависит также от количества цветов, т.е. от количества возможных состояний точек изображения, т.к. при этом каждая точка несет большее количество информации. Используемый набор цветов образует палитру цветов.

Кодирование цвета

Рассмотрим, каким образом происходит кодирование цвета точек. Для кодирования цвета применяется принцип разложения цвета на составляющие. Их три: красный цвет (Red, R), синий (Blue, В) и зелёный (Green, G). Смешивая эти составляющие, можно получать различные оттенки и цвета – от белого до черного.

Сколько бит необходимо выделить для каждой составляющей, чтобы при кодировании изображения его качество было наилучшим?

Если рисунок черно-белый, то общепринятым на сегодняшний день считается представление его в виде комбинации точек с 256 градациями серого, т.е. для кодирования точки достаточно 1 байта.

Если же изображение цветное, то с помощью 1 байта можно также закодировать 256 разных оттенков цветов. Этого достаточно для рисования изображений типа тех, что мы видим в мультфильмах. Для изображений же живой природы этого недостаточно. Если увеличить количество байт до двух (16 бит), то цветов станет в два раза больше, т.е. 65536. Это уже похоже на то, что мы видим на фотографиях и на картинках в журналах, но все равно хуже, чем в живой природе. Увеличим еще количество байтов до трех (24 бита). В этом случае можно закодировать 16,5 миллионов различных цветов. Именно такой режим позволяет работать с изображениями наилучшего качества.

Количество бит, необходимое для кодирования цвета точки называется глубиной цвета. Наиболее распространенными значениями глубины цвета являются 4, 8, 16 и 24 бита на точку.

Решение задач

1. Какой объём видеопамяти необходим для хранения четырёх страниц изображения при условии, что разрешающая способность дисплея равна 640Х480 точек, а используемых цветов – 32?

Теперь все параметры нам известны, находим объём:

V = 640*480*5*4 =6144000 бит = 750 Кбайт (т.к. в 1 байте – 8 бит и в 1 Кбайте – 1024 байт)

Ответ: 750 Кбайт

2. 256-цветный рисунок содержит 1 Кбайт информации. Из скольки точек он состоит?

Переведём известный объём в биты: 1Кбайт = 1024 байт*8бит = 8192 бит

Зная глубину и объём находим количество точек на изображении: 8192:8 = 1024 точек

Кодирование звуковой информации

Оцифровка звука

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Для человека звук тем громче, чем больше амплитуда сигнала, и тем выше тон, чем больше частота сигнала. Непрерывный сигнал не несет в себе информации, поэтому он должен быть превращен в последовательность двоичных нулей и единиц – двоичный (цифровой) код.

Оцифровку звука выполняет специальное устройство на звуковой плате. Называется оно аналого-цифровой преобразователь (АЦП). Обратный процесс – воспроизведение закодированного звука производится с помощью цифро-аналогового преобразователя (ЦАП).

Весь процесс кодирования и декодирования представить в виде следующей схемы:

Схема кодирования звука:

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

В процессе кодирования непрерывного звукового сигнала производится дискретизация по времени, или, как говорят, «временная дискретизация». Звуковая волна разбивается на отдельные маленькие временные участки и для каждого участка устанавливается определенная величина амплитуд. Данный метод называется импульсно-амплитудной модуляцией РСМ Code Modulation).

виды информации кодирование информации измерение информации. Смотреть фото виды информации кодирование информации измерение информации. Смотреть картинку виды информации кодирование информации измерение информации. Картинка про виды информации кодирование информации измерение информации. Фото виды информации кодирование информации измерение информации

Таким образом, гладкая кривая заменяется на последовательность «ступенек».. Каждой «ступеньке» присваивается значение громкости звука (1, 2, 3). Чем больше «ступенек», тем большее количество уровней громкости выделено в процессе кодирования, и тем большее количество информации будет нести значение каждого уровня и более качественным будет звучание.

Характеристики оцифрованного звука

Качество звука зависит от двух характеристик – глубины кодирования и частоты дискретизации. Рассмотрим эти характеристики.

Современные звуковые карты обеспечивают 16-битную глубину кодирования звука, и тогда общее количество различных уровней будет: N=2 16 = 65536.

Частота дискретизации (М) – это количество измерений уровня звукового сигнала в единицу времени. Эта характеристика показывает качество звучания и точность процедуры двоичного кодирования. Измеряется в герцах (Гц). Одно измерение за одну секунду соответствует частоте 1 Гц, 1000 измерений за одну секунду – 1 килогерц (кГц). Частота дискретизации звукового сигнала может принимать значения от 8 до 48 кГц. При частоте 8 кГц качество дискретизированного звукового сигнала соответствует качеству радиотрансляции, а при частоте 48 кГц – качеству звучания аудио-CD.

Высокое качество звучания достигается при частоте дискретизации 44,1 кГц и глубины кодирования звука, равной 16 бит. Для мрачного, приглушенного звука характерны следующие параметры: частота дискретизации – 11 кГц, глубина кодирования – 8 бит.

Глубина кодированияЧастота дискретизации
Радиотрансляция8 битДо 8 кГц
Среднее качество8 бит или 16 бит8-48 кГц
Звучание CD-диска16 битДо 48 кГц

Для того, чтобы найти объем звуковой информации, необходимо воспользоваться следующей формулой:
V= M*I*t,
где М — частота дискретизации (в Гц),
I — глубина кодирования (в битах),
t — время звучания (в секундах).

Решение задач

1. Определить объём памяти для хранения моноаудиофайла, время звучания которого составляет пять минут при частоте дискретизации 44 кГц и глубине кодирования 16 бит.

Решение: Воспользуемся формулой: V = M*I*t

В нашем случае М = 44 кГц = 44000 Гц
I = 16 бит
t = 5 минут,
подставляем в формулу и получаем:
V = 44000*16*5 = 3520000 бит = 430 Кбайт (примерно)

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *