основной принцип кодирования звука это
Что такое частота дискретизации звука? Что такое кодирование звука?
Содержание:
Кодирование звуковой информации и частота дискретизации звука — это два взаимосвязанных понятия, чуть ниже вы поймете почему.
Все понимают значение термина «звук»? Любое звучание — это всего лишь колебание невидимых волн, которые могут распространяться по воздуху, в водной стихии или в любом другом окружении; эти волны имеют бесперебойную частотность и интенсивность колебания. Люди улавливают различные звуки при помощи своего уха, что дает им возможность различать их громкость и тональность. Причем тон зависит от частотности волн, а громкость от ее интенсивности.
Чтобы измерить громкость звука, люди используют специализированную единицу измерения — Дб (децибел). Громкость звучания имеет прямую зависимость от его интенсивности, поэтому когда мы говорим, что громкость уменьшилась или увеличилась на 15 Дб, это означает, что интенсивность уменьшилась или увеличилась в 15 раз.
Если громкость измеряется в Дб, то частотность звука измеряют в Гц (Герцах). Герцы показывают сколько колебаний в секунду делает звуковая волна.
Кодирование звуковой информации
Как мы знаем, современный компьютер — это мощное устройство для обработки различных типов данных. Компьютер также может обрабатывать и звук, поэтому когда мы произносим «кодирование звуковой информации», то косвенно подразумеваем наличие компьютера. Но компьютер не осуществляет кодирование нашего привычного аналогового звука, который мы улавливаем своим ухом. Для компьютера пригоден только цифровой звук. Чтобы преобразовать стандартный звук в цифровой необходимо специальное устройство. На компьютере таким устройством является звуковая карта.
Преобразование звука из «привычного человеческому уху» в цифровой — это и есть процесс дискретизации. Причем для дискретизации звука, так же как и обычному звучанию, свойственна частотность и интенсивность.
Кодирование звуковой информации: частота дискретизации звука
Чтобы компьютерное устройство смогло преобразовать стандартный звук в цифровой формат (последовательность цифр), ему необходимо само звучание привести в соответствующий дискретный формат. Для этого применяется такое свойство, как «временная дискретизация».
Временная дискретизация представляет собой процесс разбивки и фиксации «привычного нам» звучания на небольшие промежутки по времени. В каждом зафиксированном промежутке измеряется показатель интенсивности звучания.
Частота дискретизации звука — это количественное значение фиксации интенсивности звучания в течение одной секунды. Чем больше частотность дискретизации звучания, тем четче оцифрованный звуковой сигнал будет отражать «привычный нашему уху» звук, соответственно, кодирование звуковой информации будет качественней. Частота дискретизации звука располагается в интервале от 8000 и до 48 000 измерительных фиксаций интенсивности в секунду. Вообще-то сегодняшние компьютерные звуковые системы смогут осуществлять куда большее количество фиксаций громкости в секунду, чем 48 000 (48кГц), некоторые могут вплоть до 192 000. Просто 48 кГц — это частота дискретизации стандарта DAT, который часто используется на компьютере, также есть стандарт CD со своими 44.1 кГц.
У вас может возникнуть такой вопрос. Мы же знаем, что, раз используется большая частота дискретизации звука, тогда и лучше будет само кодирование звуковой информации и, соответственно, оцифрованное звучание будет качественней. Это не совсем так. Чем интенсивней частота дискретизации, тем сильнее возрастает нагрузка на вычислительные мощности компьютера. Поэтому важно найти «золотую середину», чтобы и звук был хороший, и компьютер справлялся. Для этого оптимальную частоту дискретизации звука выбрали по-другому пути. Известно, что человеческое ухо улавливает частоты до 20 кГц. Опираясь на теорему Котельникова, можно посчитать, что, для того, чтобы цифровой звук соответствовал 20 кГц аналогового, то частотность его дискретизации должна составлять примерно в 2 раза больше, то есть около 40 кГц. Делать частотность дискретизации намного больше нет смысла, потому что человеческое ухо не рассчитано на такой диапазон.
Кодирование звуковой информации: глубина кодирования звука
Глубина кодирования звука — это количественная мера, которая показывает объем информации, необходимый для кодирования уровней в момент дискретизации. Простыми словами: в момент дискретизации происходит «срез» интенсивности звучания. Чтобы этот «срез» как-то оцифровать, нужна определенная величина информации. Вот эта величина информации и есть глубина кодирования звука.
Глубина кодирования звука исчисляется в битах. Самые распространенные варианты это звук в 8 или 16 бит. Но нужно понимать, что есть звуковые карты, которые выдают глубину кодирования звучания и в 24 бита.
Кодирование звуковой информации с глубиной кодирования звука в 16 бит будет означать, что зафиксированным «срезам» громкости при дискретизации звучания будет задаваться 16-битный код двоичной системы счисления.
Кодирование звуковой информации напрямую имеет зависимость от частоты дискретизации и глубины кодирования звука. Например, нижайшее качество звучания будет обеспечено частотностью в 8 кГц и глубиной 8 бит. Самое высшее качество звучания будет обеспечено частотностью в 48 кГц и глубиной в 16 бит. Но самое главное, чем больше качество звучания, тем больше будет его «вес».
Обработка звука
Под обработкой звука следует понимать различные преобразования звуковой информации с целью изменения каких-то характеристик звучания. К обработке звука относятся способы создания различных звуковых эффектов, фильтрация, а также методы очистки звука от нежелательных шумов, изменения тембра и т.д. Все это огромное множество преобразований сводится, в конечном счете, к следующим основным типам:
1. Амплитудные преобразования. Выполняются над амплитудой сигнала и приводят к ее усилению/ослаблению или изменению по какому-либо закону на определенных участках сигнала.
2. Частотные преобразования. Выполняются над частотными составляющими звука: сигнал представляется в виде спектра частот через определенные промежутки времени, производится обработка необходимых частотных составляющих, например, фильтрация, и обратное «сворачивание» сигнала из спектра в волну.
3. Фазовые преобразования. Сдвиг фазы сигнала тем или иным способом; например, такие преобразования стерео сигнала, позволяют реализовать эффект вращения или «объёмности» звука.
4. Временные преобразования. Реализуются путем наложения, растягивания/сжатия сигналов; позволяют создать, например, эффекты эха или хора, а также повлиять на пространственные характеристики звука.
Аналоговый и дискретный способы представления звука
Информация, в том числе графическая и звуковая, может быть представлена в аналоговой или дискретной форме.
При аналоговом представлении физическая величина принимает бесконечное множество значений, причем ее значения изменяются непрерывно.
При дискретном представлении физическая величина принимает конечное множество значений, причем ее величина изменяется скачкообразно.
Примером аналогового хранения звуковой информации является виниловая пластинка (звуковая дорожка изменяет свою форму непрерывно), а дискретного — аудиокомпакт-диск (звуковая дорожка которого содержит участки с различной отражающей способностью).
Восприятие звука человеком
Звуковые волны улавливаются слуховым органом и вызывают в нем раздражение, которое передается по нервной системе в головной мозг, создавая ощущение звука.
Колебания барабанной перепонки в свою очередь передаются во внутреннее ухо и раздражают слуховой нерв. Так образом человек воспринимает звук.
В аналоговой форме звук представляет собой волну, которая характеризуется:
Герц (Гц или Hz) — единица измерения частоты колебаний. 1 Гц= 1/с
Человеческое ухо может воспринимать звук с частотой от 20 колебаний в секунду (20 Герц, низкий звук) до 20 000 колебаний в секунду (20 КГц, высокий звук).
Кодирование звуковой информации
Для того чтобы комп ьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц).
Качество кодирования звуковой информации зависит от :
1)частотой дискретизации, т.е. количества измерений уровня сигнала в единицу времени. Чем большее количество измерений производится за 1 секунду (чем больше частота дискретизации), тем точнее процедура двоичного кодирования.
2)глубиной кодирования, т.е. количества уровней сигнала.
Современные звуковые карты обеспечивают 16-битную глубину кодирования звука. Количество различных уровней сигнала (состояний при данном кодировании) можно рассчитать по формуле: N = 2 i = 2 16 = 65536, где i — глубина звука.
Таким образом, современные звуковые карты могут обеспечить кодирование 65536 уровней сигнала. Каждому значению амплитуды звукового сигнала присваивается 16-битный код.
Форматы звуковых файлов
РСМ. РСМ расшифровывается как pulse code modulation, что и является в переводе как импульсно-кодовая. Файлы именно с таким расширением встречаются довольно редко. Но РСМ является основополагающей для всех звуковых файлов.
RIFF. Resource Interchange File Format. Уникальная система хранения любых структурированных данных.
MOD. Файл хранит в себе короткий образец звука, который потом можно использовать в качестве шаблона для инструмента.
AIF или AIFF. Audio Interchange File Format. Данный формат распространен в системах Apple Macintosh и Silicon Graphics. Заключает в себе сочетание MOD и WAV.
MID. Файл, хранящий в себе сообщения MIDI-системе, установленной на Вашем компьютере или в устройстве.
МР3. Самый скандальный формат за последнее время. Многие для объяснения параметров сжатия, которые в нем применяют, сравнивают его с jpeg для изображений. Там очень много наворотов в вычислениях, чего и не перечислишь, но коэффициент сжатия в 10-12 раз сказали о себе сами. Специалисты говорят о контурности звука как о самом большом недостатке данного формата. Действительно, если сравнивать музыку с изображением, то смысл остался, а мелкие нюансы ушли. Качество МР3 до сих пор вызывает много споров, но для «обычных немузыкальных» людей потери не ощутимы явно.
RA. Real Audio или потоковая передача аудиоданных. Довольно распространенная система передачи звука в реальном времени через Интернет. Скорость передачи порядка 1 Кб в секунду. Полученный звук обладает следующими параметрами: 8 или 16 бит и 8 или 11 кГц.
Кодирование и обработка звуковой информации
Звуковая информация. Звук представляет собой распространяющуюся в воздухе, воде или другой среде волну с непрерывно меняющейся интенсивностью и частотой.
Человек воспринимает звуковые волны (колебания воздуха) с помощью слуха в форме звука различных громкости и тона. Чем больше интенсивность звуковой волны, тем громче звук, чем больше частота волны, тем выше тон звука (рис. 1.1).
Рис. 1.1. Зависимость громкости и высоты тона звука от интенсивности и частоты звуковой волны
Человеческое ухо воспринимает звук с частотой от 20 колебаний в секунду (низкий звук) до 20 000 колебаний в секунду (высокий звук).
Человек может воспринимать звук в огромном диапазоне интенсивностей, в котором максимальная интенсивность больше минимальной в 10 14 раз (в сто тысяч миллиардов раз). Для измерения громкости звука применяется специальная единица «децибел» (дбл) (табл. 5.1). Уменьшение или увеличение громкости звука на 10 дбл соответствует уменьшению или увеличению интенсивности звука в 10 раз.
Таблица 5.1. Громкость звука
Временная дискретизация звука. Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть преобразован в цифровую дискретную форму с помощью временной дискретизации. Непрерывная звуковая волна разбивается на отдельные маленькие временные участки, для каждого такого участка устанавливается определенная величина интенсивности звука.
Таким образом, непрерывная зависимость громкости звука от времени A(t) заменяется на дискретную последовательность уровней громкости. На графике это выглядит как замена гладкой кривой на последовательность «ступенек» (рис. 1.2).
Рис. 1.2. Временная дискретизация звука
Частота дискретизации. Для записи аналогового звука и г го преобразования в цифровую форму используется микрофон, подключенный к звуковой плате. Качество полученного цифрового звука зависит от количества измерений уровня громкости звука в единицу времени, т. е. частоты дискретизации. Чем большее количество измерений производится за I секунду (чем больше частота дискретизации), тем точнее «лесенка» цифрового звукового сигнала повторяет кривую диалогового сигнала.
Частота дискретизации звука может лежать в диапазоне от 8000 до 48 000 измерений громкости звука за одну секунду.
Глубина кодирования звука. Каждой «ступеньке» присваивается определенное значение уровня громкости звука. Уровни громкости звука можно рассматривать как набор возможных состояний N, для кодирования которых необходимо определенное количество информации I, которое называется глубиной кодирования звука.
N = 2 I = 2 16 = 65 536.
Качество оцифрованного звука. Чем больше частота и глубина дискретизации звука, тем более качественным будет звучание оцифрованного звука. Самое низкое качество оцифрованного звука, соответствующее качеству телефонной связи, получается при частоте дискретизации 8000 раз в секунду, глубине дискретизации 8 битов и записи одной звуковой дорожки (режим «моно»). Самое высокое качество оцифрованного звука, соответствующее качеству аудио-CD, достигается при частоте дискретизации 48 000 раз в секунду, глубине дискретизации 16 битов и записи двух звуковых дорожек (режим «стерео»).
Необходимо помнить, что чем выше качество цифрового звука, тем больше информационный объем звукового файла. Можно оценить информационный объем цифрового стереозвукового файла длительностью звучания 1 секунда при среднем качестве звука (16 битов, 24 000 измерений в секунду). Для этого глубину кодирования необходимо умножить на количество измерений в 1 секунду й умножить на 2 (стереозвук):
16 бит × 24 000 × 2 = 768 000 бит = 96 000 байт = 93,75 Кбайт.
Звуковые редакторы. Звуковые редакторы позволяют не только записывать и воспроизводить звук, но и редактировать его. Оцифрованный звук представляется в звуковых редакторах в наглядной форме, поэтому операции копирования, перемещения и удаления частей звуковой дорожки можно легко осуществлять с помощью мыши. Кроме того, можно накладывать звуковые дорожки друг на друга (микшировать звуки) и применять различные акустические эффекты (эхо, воспроизведение в обратном направлении и др.).
Звуковые редакторы позволяют изменять качество цифрового звука и объем звукового файла путем изменения частоты дискретизации и глубины кодирования. Оцифрованный звук можно сохранять без сжатия в звуковых файлах в универсальном формате WAV или в формате со сжатием МР3.
При сохранении звука в форматах со сжатием отбрасываются «избыточные» для человеческого восприятия звуковые частоты с малой интенсивностью, совпадающие по времени со звуковыми частотами с большой интенсивностью. Применение такого формата позволяет сжимать звуковые файлы в десятки раз, однако приводит к необратимой потере информации (файлы не могут быть восстановлены в первоначальном виде).
Контрольные вопросы
1. Как частота дискретизации и глубина кодирования влияют на качество цифрового звука?
Задания для самостоятельного выполнения
1. Задание с выборочным ответом. Звуковая плата производит двоичное кодирование аналогового звукового сигнала. Какое количество информации необходимо для кодирования каждого из 65 536 возможных уровней интенсивности сигнала?
1) 16 битов; 2) 256 битов; 3) 1 бит; 4) 8 битов.
2. Задание с развернутым ответом. Оценить информационный объем цифровых звуковых файлов длительностью 10 секунд при глубине кодирования и частоте дискретизации звукового сигнала, обеспечивающих минимальное и максимальное качество звука:
а) моно, 8 битов, 8000 измерений в секунду;
б) стерео, 16 битов, 48 000 измерений в секунду.
3. Задание с развернутым ответом. Определить длительность звукового файла, который уместится на дискете 3,5″ (учтите, что для хранения данных на такой дискете выделяется 2847 секторов объемом 512 байтов каждый):
а) при низком качестве звука: моно, 8 битов, 8000 измерений в секунду;
б) при высоком качестве звука: стерео, 16 битов, 48 000 измерений в секунду.
Кодирование звуковой информации
Звук и его дискретность
Звук являет собой волну, имеющую изменяющуюся со временем частоту и амплитуду колебаний. Иными словами, это непрерывный сигнал. Чем тише звук, который слышит человеческое ухо, тем ниже его амплитуда, а чем ниже его тон, тем меньше частота звукового сигнала.
На сегодняшний день для производства звуковых карт используется глубина кодирования звуковой волны величиной 64, 32 и 16 бит. Для удобства использования непрерывность звукового колебания при кодировании заменяют на последовательные отдельные сигналы, являющие собой последовательный ряд электрических импульсов, записанных с помощью нулей и единиц системы двоичного исчисления.
Не нашли что искали?
Просто напиши и мы поможем
Частота дискретизации звуковой волны
Объем звуковой информации
Чем больше по объему аудио файл, тем лучше будет качество его воспроизведения. Объем более качественного файла всегда меньше объема файла с низким качеством, при равной их продолжительности.
Для расчета объема информации, занимаемого аудио файлом с одной звуковой дорожкой, используют нижеприведенную формулу:
Рассмотрим пример, когда время звучания аудио файла 5 минут с высоким качеством воспроизведения с частотой дискретизации 48000 Гц и глубиной кодирования 64 бит, то объем такого файла будет составлять:
\(V = 5 * 60 * 48000 * 64 = 921600000 бит,\)
что составляет 115200000 байт, или 115200 Кбайт, или 115,2 Мбайт.
Для стереозвука расчет объема производится по той же формуле, лишь только с той разницей, что нужно еще умножить на два, так как файл со стереозвуком обычно занимает в два раза больше места из-за того, что процесс дискретизации во время кодирования стереозвука проводится для каждой дорожки отдельно.
Самые распространенные методы аудио кодирования
Аудио информация кодируется обычно с применением методов двоичного кода, из них самыми популярными являются таблично-волновой метод (Wave-Table) и метод модуляции частоты (FM).
Сложно разобраться самому?
Попробуй обратиться за помощью к преподавателям
Таблично-волновой метод (англ. Wave-Table) базируется на использовании предварительно разработанной таблицы, которая состоит из ячеек, содержащих все возможные звуки окружающей среды (птиц, животных, природы, музыкальных инструментов и так далее). Они представлены в виде цифровых кодов, каждый из них имеет свою определенную частоту, высоту, глубину, длительность и другие звуковые параметры. Благодаря тому, что образцы представляют собой реальные существующие звуки, воспроизводимый звук будет достаточно высококачественным, и сильно напоминать звуки живых инструментов.
Распространенные форматы аудио файлов
Аудио файлы бывают различных форматов. Рассмотрим самые распространенные из них:
Не пустой звук. Разбираемся, как устроено цифровое кодирование звука
Содержание статьи
PCM (ИКМ)
Как известно, в цифровом звуке практически любой формат, за редким исключением, записывается импульсно-кодовым потоком, или потоком PCM — pulse code modulation. FLAC, MP3, WAV, Audio CD, DVD-Audio и другие форматы — это лишь способы упаковки, «консервации» потока PCM.
С чего все начиналось
Теоретические основы цифровой передачи звука были разработаны еще на заре двадцатого века, когда ученые попытались передать звуковой сигнал на большое расстояние, но не по телефону, а довольно странным для того времени способом.
Разделив звуковую волну на небольшие части, ее можно было отправлять получателю в некоем математическом представлении. Получатель, в свою очередь, мог восстановить исходную волну и прослушать запись. Также перед учеными стояла задача увеличить пропускную способность «эфира».
В 1933 году увидела свет теорема В. А. Котельникова. В западных источниках ее называют теоремой Найквиста — Шеннона. Да, Гарри Найквист был первым, кто затронул эту тему: в 1927 году он рассчитал минимальную частоту дискретизации для передачи формы волны, впоследствии названную в его честь «частотой Найквиста», — но теорема Котельникова была издана на 16 лет раньше.
Суть теоремы проста: непрерывный сигнал можно представить в виде интерполяционного ряда, состоящего из дискретных отчетов, по которым можно заново восстановить сигнал. Чтобы была возможность восстановить приблизительно исходное состояние сигнала, частота дискретизации должна равняться как минимум удвоенной верхней граничной частоте этого сигнала.
Много лет теорема не была востребована — вплоть до прихода цифровой эпохи. Тут-то ей и нашлось применение. В частности, теорема пригодилась при разработке формата CDDA (Compact Disc Digital Audio), в простонародье его называют Audio CD или Red Book. Формат был выпущен инженерами Philips и Sony в 1980 году и стал стандартом для аудио-компакт-дисков.
Частота дискретизации 44,1 кГц была рассчитана из теоремы Котельникова. Считается, что слух среднестатистического человека не способен уловить звук за пределами 19–22 кГц. Вероятно, частота 22 кГц и была выбрана в качестве верхней граничной.
22 000 × 2 = 44 000 + 100 = 44 100 Герц
Откуда взялось 100 Герц? Есть версия, что это небольшой запас на случай ошибок или передискретизации. На самом деле такую частоту в Sony выбрали из соображений совместимости со стандартом телевещания PAL.
Разрядность формата CDDA — 16 бит, или 65 536 отсчетов, что равняется динамическому диапазону примерно в 96 дБ. Такое большое число отсчетов выбрано не случайно. Во-первых, из-за сильного влияния шумов квантования, во-вторых, чтобы обеспечить формальный динамический диапазон выше, чем у главных тогда конкурентов — кассетных записей и виниловых пластинок. Я расскажу об этом подробнее в разделе про цифроаналоговые преобразователи.
Дальнейшее развитие PCM так и продолжилось по принципу умножения на два. Появились другие частоты дискретизации: сначала добавилась частота дискретизации 48 кГц, а в дальнейшем основанные на ней частоты 96, 192 и 384 кГц. Частота 44,1 кГц также удваивалась до 88,2, 176,4 и 352,8 кГц. Разрядность же увеличилась с 16 до 24, а позднее и до 32 бит.
Следующим после CDDA в 1987 году появился формат DAT — Digital Audio Tape. Частота дискретизации в нем составила 48 кГц, разрядность квантования не изменилась. И хотя формат провалился, частота дискретизации 48 кГц прижилась на студиях звукозаписи, как пишут, из-за удобства цифровой обработки.
В 1999 году вышел формат DVD-Audio, который позволял записать на один диск шесть стереодорожек с частотой дискретизации 96 кГц и разрядностью 24 бит или две стереодорожки с частотой 192 кГц, 24 бит.
В том же году был представлен формат SACD — Super Audio CD, но диски для него стали производить только спустя три года. Подробнее об этом формате я расскажу в разделе про DSD.
Это основные форматы, которые считаются стандартом для цифровых звукозаписей на носителях. Теперь рассмотрим, как передаются данные в цифровом звуковом тракте.
Структура цифрового звукового тракта
При проигрывании музыки происходит примерно следующее: плеер при помощи кодека, выполненного в виде устройства или программы, распаковывает файл в заданном формате (FLAC, MP3 и другие) или считывает данные с CD, DVD-Audio или SACD-диска, получая стандартный поток данных PCM. Затем этот поток передается через USB, LAN, S/PDIF, PCI и так далее в I2S-конвертер. В свою очередь, конвертер преобразует полученные данные в так называемые кадры интерфейса передачи данных I2S (не путать с I2С!).
I2S — это последовательная шина передачи цифрового аудиопотока. Сейчас I2S — стандарт для подключения источника сигнала (компьютер, проигрыватель) к цифроаналоговому преобразователю. Именно через нее подключается напрямую или опосредованно подавляющее большинство ЦАП. Существуют и другие стандарты передачи цифрового аудиопотока, но они используются гораздо реже.
Выход (вход) I2S на печатных платах
Шина I2S может состоять из трех, четырех и даже пяти контактов:
SD или SDOUT служит для подключения цифроаналогового преобразователя, а SDIN используется для подключения аналого-цифрового преобразователя к шине I2S.
В большинстве случаев присутствует еще один контакт, Master Clock (MCLK или MCK), он используется для синхронизации приемника и передатчика от одного генератора тактовых импульсов, чтобы снизить коэффициент ошибок передачи данных. Для внешней синхронизации MCLK служат два генератора тактовых импульсов: с частотой 22 579 кГц и 24 576 кГц. Первый, 22 579 кГц, — для частот, кратных 44,1 кГц (88,2, 176,4, 352,8 кГц), а второй, 24 576 кГц, — для частот, кратных 48 кГц (96, 192, 384 кГц). Также могут встречаться генераторы на 45 158,4 кГц и 49 152 кГц — наверняка ты уже заметил, как в мире цифрового звука всё любят умножать на два.
Frame, или кадр I2S
В I2S обязательно используются три контакта: SCK, WS, SD — остальные контакты опциональны.
По каналу SCK передаются синхроимпульсы, под которые синхронизированы кадры.
По каналу WS передается длина «слова», при этом используются и логические состояния. Если на контакте WS логическая единица, значит, передаются данные правого канала, если ноль — данные левого канала.
По SD передаются биты данных — значения амплитуды звукового сигнала при квантовании, те самые 16, 24 или 32 бита. Никаких контрольных сумм и служебных каналов на шине I2S не предусмотрено. Если данные при передаче потеряются, возможности восстановить их не существует.
На дорогих ЦАП часто бывают внешние разъемы для подключения к I2S. Использование таких разъемов и кабелей может плохо отразиться на звуке, вплоть до появления «артефактов» и заиканий, все будет зависеть от качества и длины провода. Все же I2S это внутрисхемный разъем, и длина проводников от передатчика до приемника должна стремиться к нулю.
Рассмотрим, как передается поток данных PCM по шине I2S. Например, при передаче PCM 44,1 кГц с разрядностью 16 бит длина слова на канале SD будет соответствовать этим шестнадцати битам, а длина кадра будет 32 бита (правый канал + левый). Но чаще всего передающие устройства используют длину слова 24 бита.
При воспроизведении PCM 44,1 × 16 старшие биты либо попросту игнорируются, так как заполнены нулями, либо, в случае со старыми мультибитными ЦАП, они могут перейти на следующий кадр. Длина «слова» (WS) может также зависеть от плеера, через который воспроизводится музыка, а также от драйвера устройства воспроизведения.
Альтернативой PCM и I2S может быть запись звукового сигнала в DSD. Этот формат развивался параллельно с PCM, хотя и тут теорема Котельникова оказала некоторое влияние. Для улучшения качества звучания по сравнению с CDDA упор был сделан не на повышение разрядности квантования, как в формате DVD Audio, а на увеличение частоты дискретизации.
DSD расшифровывается как Direct Stream Digital. Он берет свое начало в лабораториях фирм Sony и Philips — впрочем, как и другие форматы, рассматриваемые в этой статье.
Впервые DSD увидел свет на дисках Super Audio CD в далеком 2002 году.
На тот момент SACD казался шедевром инженерной мысли, в нем был применен совершенно новый способ записи и воспроизведения, очень близкий к аналоговым устройствам. Реализация одновременно была простой и изящной.
Носитель даже оснастили защитой от копирования, хотя и без этого никакие пираты были не страшны. Под марками Sony и Philips стали выпускать «закрытые» устройства исключительно для воспроизведения, без какой-либо возможности копировать диски. Производители продавали студиям оборудование для записи, но при этом оставили за собой контроль за выпуском SACD-дисков.
Как знать, возможно, формат SACD мог бы обрести популярность, сравнимую с Audio CD, если бы не стоимость устройств воспроизведения. Безосновательно накручивая цены на проигрыватели, руководители Sony и Philips сами мешали популярности своего формата. А следующая ошибка и вовсе поставила крест на продажах специализированных устройств. Для продвижения игровой приставки Sony PlayStation инженеры Sony добавили возможность слушать на ней SACD. Хакеры тут же взломали приставку и стали копировать диски SACD в ISO-образы, которые можно записать на обычную болванку DVD и воспроизводить на любом плеере фирм-конкурентов; другие просто извлекали дорожки для воспроизведения на компьютере.
Звукозаписывающие компании тоже хороши: вопреки ожиданиям меломанов, они не пользовались всеми возможностями нового формата высокого разрешения. На студиях не записывали в DSD музыку с мастер-ленты, а брали цифровую запись в PCM, пересводили и обрабатывали всем подряд: лимитерами, компрессорами, дитерингом с нойз-шейпингом и различными цифровыми фильтрами. В итоге на выходе получался такой стерильный и сухой звук, что даже CD Audio мог бы звучать гораздо лучше. Таким образом было подорвано доверие слушателей к SACD, а заодно и к новым форматам вообще.
Увы, с виниловыми пластинками эта порочная практика применяется и по сей день: студии печатают винил с цифровой записи, даже если у них есть запись на мастер-ленте. Так что на современном виниле запросто может оказаться 44,1 × 16.
Что же представляет собой DSD? Это однобитный поток с очень высокой, по сравнению с PCM, частотой дискретизации. Также в DSD используется иной вид модуляции, PDM (Pulse Density Modulation) — плотностно-импульсная модуляция. Запись звука в таком формате производится однобитным аналого-цифровым преобразователем, сейчас такие АЦП на основе сигма-дельта-модуляции используются повсеместно. Процесс записи выглядит примерно так: пока амплитуда волны возрастает, на выходе АЦП логическая единица, когда амплитуда падает, на выходе логический ноль, среднего значения быть не может. Сравнивается с предыдущим значением амплитуды волны.
DSD позволяет достичь важных преимуществ по сравнению с PCM:
Изначально на SACD-дисках использовался формат DSD x64 c частотой дискретизации 2822,4 кГц. За основу взяли частоту дискретизации Audio CD 44,1 кГц, увеличенную в 64 раза, отсюда название x64. Сегодня реально используются следующие DSD:
Существует некий промежуточный формат между PCM и DSD под названием DXD — Digital eXtreme Definition. Это, по сути, PCM высокого разрешения — 352,8 кГц или 384 кГц с разрядностью квантования 24 или 32 бита. Он применяется в студиях для обработки и последующего сведения материалов.
Но такой подход ущербен: во-первых, он не позволяет задействовать все преимущества DSD, во-вторых, размер файлов получается больше, чем в DSD. На текущий момент флагманские ЦАП на входе I2S принимают поток данных PCM с частотой дискретизации до 768 кГц и разрядностью до 32 бит. Страшно даже считать, какой объем на жестком диске будет занимать один альбом в таком разрешении.
DSD практически отделился от SACD. Теперь формат DSD чаще можно встретить упакованным в файлы с расширением DSF и DFF. Выпущено множество проигрывателей с возможностью записи в DSF и DFF, любители хорошего звука все чаще и чаще оцифровывают виниловые пластинки именно в формате DSD. А вот на звукозаписывающих студиях никто не хочет вкладываться в малопопулярные форматы, так что там продолжают клепать звук на минималках: 44,1 × 16.
Коммутация DSD и передача данных
Для передачи цифрового потока в DSD используется трехконтактная схема подключения:
В отличие от I2S, передача данных DSD предельно упрощена. DCLK задает тактовую частоту битовой синхронизации, а по контактам DSDL и DSDR последовательно передаются сами данные левого и правого канала соответственно. Никаких ухищрений тут нет, запись и воспроизведение в DSD делается побитно. Такой подход дает максимальное приближение к аналоговому сигналу, а за счет высокой частоты уменьшаются шумы квантования и на порядок повышается точность воспроизведения.
DoP часто применяется для передачи потока данных DSD, поэтому упомянуть о нем стоит. DoP — это открытый стандарт передачи данных DSD через кадры PCM (DSD over PCM). Стандарт создан для того, чтобы передавать поток через драйверы и устройства, не поддерживающие прямую передачу DSD (не DSD native).
Принцип работы такой: в 24-битном кадре PCM старшие 8 бит заполняются единицами — это значит, что в данный момент передаются данные DSD. Оставшиеся 16 бит заполняются последовательно битами данных DSD.
Для передачи DSD x64 с частотой однобитного потока 2822,4 кГц необходима частота дискретизации PCM, равная 176,4 кГц (176,4 × 16 = 2822,4 кГц). Для передачи DSD x128 с частотой 5644,8 кГц уже потребуется частота дискретизации PCM 352,8 кГц.
Подробности ты можешь найти в описании стандарта DoP (PDF).
Цифроаналоговые преобразователи
Перейдем к ЦАП — цифро-аналоговым преобразователям. Эта сложная тема всегда покрыта завесой тайны и присыпана аудиофильской мистикой. К тому же вокруг цифроаналоговых преобразователей очень много спекуляций противоборствующих лагерей: маркетологов, аудиофилов и скептиков. Давай разберемся, в чем тут дело.
Мультибитные ЦАП
Вначале, когда только появился формат Audio CD, PCM преобразовывали в аналоговый сигнал при помощи мультибитных ЦАП. Они были построены на основе резистивной матрицы постоянного импеданса, так называемой матрицы R-2R.
Упрощенная схема мультибитного ЦАП
Мультибитные ЦАП работают так: поток PCM разделяется на два канала, левый и правый, и переводится из последовательного представления сигнала в параллельное — например, при помощи сдвиговых регистров. В буфер одного регистра записываются данные правого канала, а в буфер другого — данные левого. Данные передаются одновременно по параллельным портам с заданной частотой дискретизации (чаще всего 44,1 кГц), как на изображении ниже, только параллельных выходов не восемь, а шестнадцать, потому что разрядность 16 бит. В зависимости от положения в кадре старшие и младшие биты будут встречать на пути следования электрического тока разное сопротивление, поскольку разным будет количество последовательно подключенных резисторов. Чем старше бит, тем больше должна быть его значимость.
Мультибитные ЦАП, или мультибиты, требуют очень качественных компонентов и точной подгонки резисторов, ведь любые неточности в номиналах компонентов суммируются. Это приводит к серьезным отклонениям от исходной волны и создает погрешность в несколько разрядов квантования.
В мультибитных ЦАП восьмидесятых годов нет никаких манипуляций с PCM. Мультибиты подключаются напрямую к шине I2S и проигрывают PCM как есть: пришли данные правого канала (16 бит), подождал данные второго канала (16 бит), выдал оба канала на резистивную матрицу — и так с частотой 44,1 кГц.
В восьмидесятые годы частота и разрядность определялись форматом СDDA, который стал практически эталонной реализацией теоремы Котельникова. С некоторыми оговорками так можно охарактеризовать и более поздний MP3. Только начиная с формата DVD Audio был пересмотрен подход к оцифровке и воспроизведению звука.
Так работали простейшие первые ЦАП, позднее стали использовать преобразователи с более сложным устройством. Схемы модернизировали, качество компонентов улучшалось, а еще в мультибитных ЦАП стали применять технологию oversampling. Oversampling — это передискретизация цифрового потока с повышением частоты дискретизации и разрядности квантования для уменьшения шума квантования.
Чтобы объяснить, зачем используется oversampling, необходимо рассказать о применении теоремы Котельникова на практике. Здесь все не так радужно, как представляется в мире математики, — ни о каком «с любой точностью», как написано в теореме, и речи не идет.
Теорема Котельникова
«Любую функцию F(t), состоящую из частот от 0 до f1, можно непрерывно передавать с любой точностью при помощи чисел, следующих друг за другом через 1/(2f1) секунд»
Следствия теоремы Котельникова:
Если тебя интересуют подробности, можешь обратиться к первоисточнику — работе «О пропускной способности „эфира“ и проволоки в электросвязи» авторства В. А. Котельникова (PDF).
Сложности с теоремой Котельникова
Часто теорему Котельникова воспринимают слишком буквально и возводят в абсолют. Сколько я прочитал статей твердолобых скептиков о чудесных форматах MP3 и CDDA и о безумных аудиофилах, которые впаривают всем свои ненужные DVD-Audio и DSD! Конечно же, главным аргументом у них выступает теорема Котельникова.
Начнем с того, что частоты Найквиста на практике недостаточно для передачи точной формы волны. Из-за неидеальных условий неизбежно появляются шумы и искажения: шумы квантования при записи звукового сигнала, шумы округления при его обработке и воспроизведении и не только. Принято считать, что шумы квантования не могут быть меньше половины младшего разряда квантования. Это обусловлено тем, что при квантовании звукового сигнала делается округление до ближайшего разряда, в большую или меньшую сторону. Шумы округления также не могут быть меньше половины младшего разряда, или, как его еще называют, шага квантования. Есть еще собственные шумы АЦП и ЦАП, но для них сложно привести точную цифру, ведь на них влияет большое количество факторов: конкретная реализация, количество и качество компонентов и даже окружающая среда. Обычно собственные шумы составляют несколько разрядов квантования.
Из этого следует, что частота дискретизации должна быть значительно выше частоты Найквиста, чтобы компенсировать потери при оцифровке и последующем воспроизведении цифровой записи.
Приведу пример из конспекта лекций Э. И. Вологдина «Стандарты и системы цифровой звукозаписи»:
Как видно, пока пиковое значение входного сигнала не превышает 0,5 кванта, выходной сигнал квантователя равен нулю, то есть имеет место центральная отсечка. Это приводит к нелинейности преобразования и возникновению больших искажений при малых амплитудах ЗС. Пока значение A > 1,5, выходной сигнал демодулятора представляет собой последовательность прямоугольных импульсов, у которых с изменением уровня ЗС меняется длительность. Это обусловлено ошибками квантования, которые соизмеримы с амплитудой входного сигнала. Искажения начинают заметно уменьшаться только при A > 2.
За А взята амплитуда сигнала.
В приведенной цитате речь идет только о шуме квантования, причем взято минимально возможное значение — 1/2 шага квантования. Шумы округления оказывают примерно такое же влияние — минимум 1/2 шага квантования.
Кроме шумов, в цифровой записи могут появляться искажения, вызванные использованием ФНЧ — фильтра низких частот. По теореме Котельникова необходимо ограничить частоту звукового сигнала фильтром и принять ее за верхнюю граничную, из которой потом умножением на два вычисляют частоту Найквиста. Проблема в том, что в теореме рассматривается идеальный ФНЧ, которых в реальном мире не бывает. Приведу цитату из того же конспекта лекций Вологдина:
Для надежного подавления спектральных составляющих выше частоты Найквиста антиэлайзинговый ФНЧ должен иметь частоту среза несколько ниже частоты Найквиста и очень сильно (не меньше 90 дБ) подавлять составляющие спектра сигнала на этой частоте. Обычно это эллиптические фильтры 7. 9 порядков. Высокая крутизна среза ФНЧ приводит к специфическим искажениям в виде «звона». Это связано с тем, что отклик на импульсное воздействие такого фильтра описывается осциллирующей функцией вида sinс (v). Чем выше крутизна среза ФНЧ, тем медленнее происходит затухание звуковых колебаний. Единственным способом борьбы с этими искажениями является повышение частоты выборок. Это позволяет уменьшить крутизну спада антиэлайзингового ФНЧ без уменьшения эффективности подавления спектральных составляющих выше частоты Найквиста.
Рассмотрю еще один интересный момент. В теореме Котельникова приводится бесконечный по времени сигнал, что противоречит условиям записи на носитель или в файл.
Теорема Котельникова дает предельные соотношения для идеализированных условий, среди которых следует отметить ограниченность спектра по частоте и бесконечное время наблюдения. Все реальные сигналы конечны во времени и имеют неограниченный по частоте спектр. Использование модели с ограниченным спектром и конечное время наблюдения приводят к погрешности при восстановлении непрерывного сигнала. Расчеты показывают, что на практике частота FД существенно превышает частоту дискретизации по Котельникову» (здесь FД — это частота дискретизации).
Источник — И. П. Ястребов «Дискретизация непрерывных сигналов во времени. Теорема Котельникова» (PDF)
Чтобы обрисовать масштаб проблемы, приведу еще одну цитату.
Искажения, вызванные ошибками квантования, уверенно заметны на слух уже при восьмиразрядном кодировании, хотя при этом величина искажений не превышает 0,5%. Это значит, что при шестнадцатиразрядном кодировании, используемом при записи CD, реальный динамический диапазон цифрового звука не превышает 48 дБ, а не 96 дБ, как это пишется в рекламе».
Источник — Э. И. Вологдин «Цифровая звукозапись» (PDF)
Выводы
Теорема Котельникова математически верна, но для практического ее применения требуется существенная коррекция. И частоту Найквиста можно обозначить скорее как минимально допустимую для восстановления приблизительной формы волны, но никак не для восстановления сигнала «с любой точностью». Для компенсации потерь при оцифровке и воспроизведении частота дискретизации должна быть не в два, а как минимум в несколько раз выше верхней граничной частоты.
На этом оставим в покое теорему Котельникова и перейдем к изучению различных шумов при записи, сведении и воспроизведении звукового сигнала.
Существует множество видов шумов, влияющих на запись. Приведу основные: шум квантования, шум округления, дрожание апертуры, нелинейные искажения, аналоговый шум. Можешь познакомиться с описаниями четырех типов шумов и формулами, чтобы примерно понять, сколько искажений в оцифрованный сигнал вносит каждый вид.
Не стоит воспринимать термин «шум» как проявление именно знакомого всем «белого шума». Разные виды шумов воспринимаются по-разному, в данном контексте термин «шум» скорее нужно понимать как потерю части полезного сигнала.
Примерно рассчитать отдельный вид шума еще можно, но общий уровень шумов при оцифровке — едва ли. Это очень сложная математическая модель с множеством допущений. Попробуем пойти от обратного и проанализировать динамический диапазон записанного сигнала на АЦП (аналого-цифровом преобразователе) и сравнить его с теоретически возможным.
Уровень шума обычно рассчитывают по отношению к шагу квантования (один разряд) или к динамическому диапазону звукового сигнала. Динамический диапазон измеряется в децибелах, рассчитать его можно по формуле: DR = 20lg(2 N ), где N — разрядность квантования. Получается для 16 бит возможный динамический диапазон около 96 дБ, а для 24 бит около 144 дБ.
Возьму результаты тестирования АЦП «Lynx Studio Hilo TB», это студийный АЦП/ЦАП высшей ценовой категории. Он показал следующие результаты.
Режим работы | 24 бит, 44 кГц | |
---|---|---|
Динамический диапазон, дБ (А) | 119,3 | Отлично |
А вот результаты без усиления.
Режим работы | 24 бит, 44 кГц | |
---|---|---|
Динамический диапазон, дБ (А) | 112,6 | Отлично |
Забегая вперед, скажу, что в тестируемом АЦП используются технологии дитеринг (Dithering), нойз-шейпинг (Noise shaping), а также децимация, что позволяет расширить динамический диапазон и снизить уровень шума. Подробнее про эти технологии расскажу в следующем пункте.
А теперь прикинем: 24 бита равняются 144 дБ — это возможный динамический диапазон. От 144 дБ отнимем реальный динамический диапазон 119 дБ, потери от шумов составят лучшем случае 25 дБ, а в худшем 32 дБ. К сожалению, при 16 бит его не тестировали, но в соотношении результаты должны быть еще хуже, поскольку понижение разрядности неминуемо приводит к росту шумов. Получается, что примерно 1/5 часть сигнала просто теряется из-за шума.
Складывается далеко не радужная картина. А если копнуть глубже и учесть, как звук сводят на студии записи, становится не по себе. Как правило, готовое произведение сводят из семплов, в которых уже и так присутствуют указанные шумы, поскольку семплы записаны на подобном АЦП. Затем добавляют эффекты, которые как минимум приводят к передискретизации (resampling) и связанным с ней ошибкам округления.
Методы борьбы с шумами
Чтобы исправить это плачевное положение, были разработаны специальные технологии борьбы с шумами. Давай рассмотрим самые основные.
Oversampling
Технологию oversampling стали применять еще во времена мультибитных ЦАП для компенсации потерь, вызванных шумами. Принцип работы oversampling заключается в том, что к уже существующим дискретным отсчетам добавляются промежуточные, которые повторяют приблизительную форму волны. Промежуточные отсчеты либо рассчитываются с применением математической интерполяции, либо заполняются нулевыми значениями и передаются на цифровой фильтр. Обычно и тот и другой подход называют интерполяцией, а цифровой фильтр называют интерполирующим. Самым простым способом интерполяции является линейная интерполяция, а самым простым цифровым фильтром может выступать фильтр нижних частот.
Ниже — иллюстрация алгоритма интерполяции дискретного сигнала с коэффициентом 2. Красные точки обозначают исходные отсчеты сигнала, сплошные линии — непрерывный сигнал, представлением которого эти отсчеты являются. Сверху — исходный сигнал. В середине — этот же сигнал со вставленными нулевыми отсчетами (зеленые точки). Снизу — интерполированный сигнал (синие точки — интерполированные значения отсчетов).
Сначала стали применять только передискретизацию с повышением частоты, например с 44,1 до 176,4 кГц. Позднее применяли уже передискретизацию с повышением частоты дискретизации и увеличением разрядности квантования — этот процесс называется реквантование.
Хотя oversampling вносит шум округления, все же при его использовании благодаря расширению динамического диапазона сигнала снижается общая плотность шума, и последующая обработка сигнала окажет уже меньшее влияние. Каждое удвоение частоты дискретизации расширяет динамический диапазон примерно на один шаг квантования — 6 дБ — минус шум округления.
Как раз для возможности применить oversampling стали выпускать микросхемы мультибитных ЦАП, поддерживающие на входе цифровой поток до 192 × 24. Также появились аппаратные апсемплеры на основе DSP (digital signal processor).
Конечно, применение технологии oversampling давало улучшение характеристик звукового сигнала, но кардинально ситуацию не меняло: уровень шума все равно оставался высоким. Поэтому стали применяться и другие технологии.
Децимация
Для записи и сведения звукового сигнала начали использовать децимацию — это обратный процесс, передискретизация с понижением частоты дискретизации и разрядности квантования. Сигнал записывается с высокой частотой дискретизации и разрядностью квантования, например 176,4 или 192 кГц с разрядностью 24 бит, и при помощи удаления части отсчетов цифровым фильтром «сжимается» до стандарта CDDA — 44,1 кГц, 16 бит. Этот подход позволяет немного снизить уровень шума квантования.
Ниже — иллюстрация алгоритма децимации дискретного сигнала с коэффициентом 2. Красные точки обозначают отсчеты, сплошные линии — непрерывный сигнал, представлением которого эти отсчеты являются. Сверху — исходный сигнал. В середине — этот же сигнал после фильтрации в цифровом фильтре нижних частот. Снизу — децимированный сигнал.
Dithering
Dithering (дитеринг) — метод подмешивания псевдослучайного шума при оцифровке или воспроизведении звукового сигнала. Эта технология выполняет две задачи:
Шумы квантования имеют корреляцию, то есть взаимосвязь с основным сигналом. Это создает паразитные гармоники, которые повторяют форму сигнала. Они влияют на восприятие, создавая ощущение «нечеткости» звучания. Корреляцию можно убрать, добавляя специально смоделированный шум в основной сигнал, — таким образом коррелированный шум квантования превращается в обычный белый шум. Это немного поднимает общий шумовой уровень, но хорошо сказывается на восприятии.
Дитеринг на примере обработки изображений: до и после
Noise shaping (нойз-шейпинг)
Технология noise shaping (NS) позволяет значительно уменьшить шум, вносимый при квантовании, реквантовании и дитеринге.
Нойз-шейпинг работает так: квантованный сигнал на входе сравнивается с сигналом на выходе реквантователя, формируется разница (ошибка), которая вычитается из основного сигнала. Тем самым компенсируются искажения, внесенные реквантователем и в процессе дитеринга. Образуется так называемая обратная связь, которая стремится компенсировать ошибку на входе и выходе реквантователя. Эта технология работает подобно отрицательной обратной связи на операционном усилителе, только все преобразования происходят в цифровом виде.
Здесь приведена схема реквантователя первого порядка, но, как правило, используются реквантователи вплоть до 9–12-го порядка
У этой технологии есть свои минусы. Применение NS вносит большое количество шумов в область высоких частот, поэтому необходимо применять фильтр низких частот, с частотой среза, близкой к верхней граничной частоте. На практике вместе с NS всегда применяют еще и дитеринг, результат их совместной работы намного лучше на слух.
Dynamic Element Matching
Dynamic Element Matching (DEM) — технология, которая формирует на выходе ЦАП несколько уровней сигнала. Она похожа на нечто среднее между однобитным и мультибитным ЦАП. DEM служит для снижения детерминированных ошибок при использовании сигма-дельта-модуляции (SDM). Эти ошибки, подобно шумам квантования, сильно коррелированы с сигналом на выходе однобитного модулятора, поэтому значительно влияют на восприятие звукового сигнала.
Также эта технология снижает требования к аналоговому фильтру, потому что форма сигнала еще до фильтрации приближается к форме воспроизводимой волны. DEM реализуется при помощи нескольких выводов, соединенных в общую шину, которые формируют выходной сигнал ЦАП.
Кроме рассмотренных, применяются и другие технологии, а также их сочетания и вариации. Особенно производители любят экспериментировать с цифровой фильтрацией и модуляторами, изобретая все новые и новые цифровые фильтры, влияющие на сигнал как в лучшую, так и в худшую сторону. Алгоритмы обработки цифрового сигнала современных ЦАП, как правило, сложны и включают все перечисленное, а также собственные наработки производителей. Разумеется, производители не публикуют алгоритмы фильтров и модуляторов, в лучшем случае приводят примерную блок-схему. Так что остается только предполагать, что на самом деле происходит со звуковым сигналом внутри того или иного цифроаналогового преобразователя.
Сигма-дельта-преобразователи
Сигма-дельта цифроаналоговые преобразователи развивались обособленно от мультибитных ЦАП. За основу была взята, как понятно из названия, сигма-дельта-модуляция, в литературе она обычно обозначается аббревиатурой SDM. В сигма-дельта-модуляции передается не абсолютное значение амплитуды сигнала за единицу времени, как в мультибитных ЦАП, а изменения сигнала относительно предыдущего значения. Так, если амплитуда возрастает, передается 1, а если падает — 0. Подобный принцип уже был описан в разделе про DSD.
Первые сигма-дельта-ЦАП были полностью однобитными, но за счет высокой частоты дискретизации обеспечивали динамический диапазон на уровне примерно 129 дБ. За основу взяли частоту дискретизации 44,1 кГц. Вероятно, выбранная частота позволяла экономить аппаратные ресурсы благодаря упрощению вычислений при интерполяции.
Сначала использовали частоту 2,8 МГц, это 44,1 кГц, увеличенная в 64 раза. Сейчас частота может быть разной, она определяется внутренней архитектурой самого ЦАП. Обычно она основана на частотных сетках, кратных 44,1 кГц и 48 кГц, с множителем 64, 128, 256, 512, 1024.
Со временем дельта-сигма-ЦАП практически полностью вытеснили мультибитные, просто по экономическим причинам. Во-первых, их требования к качеству и точности компонентов гораздо ниже, чем у мультибитных ЦАП, соответственно, и себестоимость ниже. Во-вторых, в восьмидесятые — девяностые годы стоимость реализации интерполяции и noise shaping для однобитного модулятора была существенно меньше, чем для 16 бит. Сейчас, с развитием технологий, это не так критично, и многие сигма-дельта-ЦАП имеют, подобно мультибитам, несколько уровней на выходе. Но за счет многократного увеличения частоты требования к компонентам остаются не очень высокими, поэтому первое преимущество сохраняется и по сей день.
Современные сигма-дельта-ЦАП имеют сложную структуру и включают в себя практически все технологии, перечисленные в предыдущей главе. Приведу пример внутренней структуры одного из простых сигма-дельта-ЦАП из лекций Вологдина.
Входные цифровые 16-разрядные выборки с частотой дискретизации 44,1 кГц подаются на вход цифрового фильтра передискретизации. В схеме используется нерекурсивный с четырехкратной передискретизацией FIR (finite impulse response) интерполяционный фильтр с линейной фазовой характеристикой. На первом этапе модуляции в результате переквантования число разрядов в выборках понижается с 16 до 14 и используется SDM 1-го порядка. Затем еще раз производится передискретизация c помощью двух ступеней (Kos = 32 и 2). Между этими ступенями в тракт вводится шумовой сигнал, осуществляющий операцию «Dithering» с уровнем шума, равным минус 20 дБ. Она уменьшает нелинейность передаточной функции из-за ошибок квантования. Общий коэффициент передискретизации равен 256, и частота дискретизации увеличивается до 11,29 МГц. Во второй ступени модуляции используется SDM 2-го порядка и формируется одноразрядный цифровой поток. К выходу ЦАП подключается время-импульсный цифровой модулятор, преобразующий цифровые данные в последовательность импульсов, модулированных по плотности (PDM).
Если обобщить и упростить, происходит примерно следующее. На вход ЦАП подается поток данных PCM через разъем I2S, подвергается интерполяции (oversampling), далее добавляется шум (dithering), и затем поток подается на реквантователь с обратной связью (noise shaping). В конце формируется однобитный поток, он проходит через аналоговый фильтр нижних частот, где уже и получается конечный звуковой сигнал, который мы слышим.
Многоразрядный ЦАП устроен сложнее: кроме перечисленного, в нем используется еще и технология DEM.
Если хочешь разобраться в деталях, почитай материалы по ссылкам, там есть информация не только о сигма-дельта-ЦАП, но и о сигма-дельта-АЦП.
Современные цифроаналоговые преобразователи — устройства сложные. Но применение этих технологий необходимо для искусственного расширения динамического диапазона, и по большому счету они используются, чтобы преодолеть ограничения форматов CDDA и MP3. Если бы записи изначально выпускали в высоком разрешении PCM (192 × 24), а лучше в формате DSD, то не пришлось бы применять так много технологий и сложных цифровых преобразований. В случае с DSD вмешательство в квантованный сигнал и вовсе не нужно, по крайней мере при воспроизведении.
Заключение
Путь развития звукозаписи и воспроизведения в цифровую эпоху был непростым и тернистым. С изобретением компакт-дисков всего за пару десятилетий звук на аналоговых носителях практически прекратил свое существование. Хорошо это или плохо — каждый решает для себя, но хотелось бы, чтобы оставалась сама возможность выбора. Если не между цифрой и аналогом, то хотя бы как и в каком качестве слушать любимую музыку. К сожалению, сейчас этого выбора почти нет. Сейчас мало кто выпускает музыку в высоком разрешении, кроме энтузиастов на трекерах. Винить в этом можно разве что студии звукозаписи, которые решили ограничиться единственным форматом — CDDA.
Остается только посочувствовать музыкантам! Сколько сил и времени они тратят на создание музыки, но их труд даже не сохраняется в достойном качестве. Выходом могла бы стать запись на мастер-ленту или хотя бы в DSD. Но звукозаписывающие студии не станут тратить лишние усилия, ведь их устраивает текущее положение вещей.