Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Курс лекций Информационные технологии в ИТСС

.pdf
Скачиваний:
121
Добавлен:
13.02.2015
Размер:
4.52 Mб
Скачать

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

Рис. 7.11

7.3 Вопросы для самоконтроля

1.Каков алгоритм действия фильтрации растровых изображений?

2.Что такое маска свертки?

3.Что такое весовые коэффициенты фильтра?

4.Что такое ядро свертки?

5.Поясните на примере действие фильтра размывания границ.

6.Для каких целей используется фильтр размывания границ?

7.Поясните на примере действие фильтра наведения резкости.

8.Для каких целей используется фильтр наведения резкости?

9.Почему с помощьюфильтра наведения резкостинельзя нейтрализовать действие фильтра размывания границ?

10.Какие фильтры применяются в программе PhotoShop?

11.Что такое геометрические преобразования растровых изображений?

12.В чем заключается сложность геометрических преобразований растровых изображений?

13.Назовите схемы интерполяции растровых изображений. В чем их отличия?

14.Поясните принцип интерполяции с использованием ближайшего соседнего пиксе-

ля.

15.Поясните принцип билинейной интерполяции.

81

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

ЛЕКЦИЯ 8

8 Основы компьютерного видео

В этой главе вы найдете ответы на следующие вопросы:

Какие существуют стандарты видео?

Для чего применяется субдискретизация цветности?

Какие способы применяются для сжатия видео?

Что дает использование технологии компенсации движения?

Как восстанавливаются предсказанные и двунаправленные изображения?

Все существующие методы отображения движущихся изображений базируются на инертности зрительного восприятия - задержке реакции глаза на зрительный раздражитель, из-за которой возникают остаточные изображения. Благодаря инертности зрительного восприятия последовательность неподвижных изображений, демонстрируемая глазу с достаточно высокой скоростью, воспринимается, как непрерывный зрительный образ, а не как отдельные изображения. Если последовательные изображения отличаются незначительно, любое плавное изменение будет восприниматься, как движение элементов изображения. Частота слияния мельканий составляет порядка 10 изображений в секунду (это значение индивидуально для каждого человека). Ниже этой частоты ощущение движения будет утрачено, и мы будем воспринимать последовательность неподвижных изображений.

Современные кинофильмы демонстрируются со скоростью 24 кадра в секунду, но чтобы не было заметно мельканий, проекторы оборудованы устройством (обтюратором), которое прерывает поток света 48 раз в секунду, реально отображая каждый кадр дважды. Верхняя пороговая частота мелькания, воспринимаемая человеческим мозгом, в среднем составляет 39-42 герца и индивидуальна для каждого человека. Некоторые современные профессиональные камеры могут снимать с частотой до 120 кадров в секунду. А специальные камеры для сверхбыстрой съёмки снимают с частотой до 1000 кадров в секунду и выше, что необходимо, например, для детального изучения траектории полёта пули или структуры взрыва.

8.1 Оцифровка видео

Когда речь идет о цифровом видео, нужно постоянно помнить о размере получаемых данных. Видеоряд состоит из набора кадров, каждый из которых является отдельным изображением, полученным путем оцифровки переменного сигнала, генерируемого матрицей видеокамеры. Размер изображения, созданного для каждого кадра видео стандарта NТSC, используемого в Северной Америке и Японии, составляет 640 пикселей (ширина) на 480 пикселей (высота). Если использовать 24-битовый цвет, каждый кадр потребует 640 х 480 х 3 байт (900 Кбайт). Одна секунда несжатого видео NТSC содержит 30 кадров, так что каждая секунда видео требует более 26 Мбайт, а минута - порядка 1,6 Гбайт. Изображения системы РAL еще больше: при размере 768 х 576 и частоте воспроизведения 25 кадров в секунду получаем 31 Мбайт для записи одной секунды и 1,85 Гбайт для записи одной минуты видео. При таких цифрах запись/воспроизведение видео на СD или DVD выглядит нереальной; также как и передача видео по сетям.

Большой объем каждого кадра объясняется требованиями к записи растровых изображений. Как говорилось в одной из предыдущих лекций, данные требования можно снизить с помощью сжатия изображений.

82

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

Устройства или программы, которые сжимают и восстанавливают сигналы, называются компрессорами и декомпрессорами, или кодеками.

8.2 Стандарты видео

В настоящее время экономически невыгодно производить камеры, подключаемые исключительно к компьютерам. Поэтому, в производстве мультимедиа нужно работать с сигналами, которые соответствуют стандартным сигналам управления телевизором. Новейшие цифровые устройства должны быть совместимыми со старым аналоговым оборудованием по таким важным параметрам, как размер и частота смены кадров, поэтому, чтобы понять цифровое видео, вначале ознакомимся с его аналоговыми предками.

8.2.1 Стандарты аналогового широковещания

Существует три набора стандартов, используемых в аналоговом цветном широковещательном телевидении. Старейшим из них является NТSC, разработанный американским Национальным комитетом по телевизионным системам. Этот стандарт используется в Америке, Японии, Тайване и в ряде стран Карибского бассейна. В большинстве стран Западной Европы, в Австралии, Новой Зеландии и Китае используется стандарт PAL. В России, в странах бывшего СССР и Восточной Европе, а также во Франции используется стандарт SECAM.

Экран телевизора должен обновляться более 40 раз в секунду, чтобы не было заметно мерцания. Такая быстрая передача всего изображения требует широкой полосы пропускания сигнала, признанной непрактичной на момент разработки стандартов. Вместо этого каждый кадр делится на два полукадра, один из которых состоит из нечетных, а другой - из четных строк кадра. Эти два полукадра передаются попеременно, (Рис. 8.1). Частотапередачи полукадров выбиралась согласно частоте местной сети переменного тока, так что в России и Западной Европе по стандартам SECAM и PAL частота полукадров составляет 50 полукадров в секунду или 25 кадров в секунду; в Северной Америке для черно-- белойпередачииспользоваласьчастота60 полукадров в секунду, но когда в стандарт NТSC был добавлен цветной сигнал, выяснилось, что он интерферирует со звуком, поэтому частоту смены полукадров изменили

иврезультатеполучили59,94 полукадравсекунду.

Рис. 8.1

Все широковещательные стандарты определяют набор сигналов, указывающих на начало строки, и способ кодировки изображения в каждой строке. Помимо линий, которые можно наблюдать на изображении, в каждом кадре дополнительно передается несколько линий, содержащих, информацию о синхронизации. Кадр NTSC содержит 525 строк, из которых 480 относятся к изображению; стандарты РAL и SECAM используют 625 строк, из которых 576 относятся к изображению. Часто определенный стандарт характеризуется количеством строк и частотой смены полукадров, например стандарт SECAM описывается как 625/50.

83

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

8.2.2 Стандарты цифрового видео

Стандарты цифрового видео должны быть совместимы с существующим оборудованием, поэтому должны существовать форматы цифрового видео 625/50 и 525/60. Кроме того, должны учитываться развивающиеся стандарты HDTV (телевидение высокой четкости). Определенные попытки унифицировать два существующих формата предпринимались, но, к сожалению, для пользовательского и профессионального применения были приняты различные цифровые стандарты.

Подобно любым аналоговым данным для преобразования в цифровую форму видео нужно дискретизировать. Поскольку видеокадр двухмерный, его нужно дискретизировать в обоих направлениях. Строки развертки задают очевидное вертикальное упорядочение; в стандарте определяется горизонтальный формат дискретизации изображения, состоящий из 720 выборок яркости независимо от стандарта развертки. Таким образом, можно считать, что кадр NТSC, дискретизированный по стандарту CCIR 601, будет состоять из 720 х 480 пикселей, а кадр PAL - из 720 х 576 пикселей.

Вы вероятно заметили, что здесь кроется какая-то ошибка, ведь ранее утверждалось, что размер кадров РAL и NТSC составляет соответственно 768 х 576 и 640 х 480 пикселей, поэтому необходимо дать некоторые разъяснения. PAL и NТSC - это аналоговые стандарты. Кадры делятся вертикально на линии, но каждая линия генерируется непрерывным сигналомивдействительностинеразбивается напиксели, какцифровоеизображение. Количествопикселейвлинииопределяетсяследующимобразом: количествострокизображения(576 или 480) умножается на характеристическое отношение (отношение ширины к высоте) кадра. Данное отношение в системах PAL и NТSC равно 4:3, откуда и получается указанныйвышеразмер. Платы, которыеоцифровываютаналоговыесигналы, обычнодаюткадры в форме растровых отображений с такими размерами. Логические пиксели в стандарте CCIR 601 не квадратные: для системы 625 строк их ширина больше высоты, а для системы 525 строк - наоборот. Оборудование, отображающее видео и дискретизированное согласно стандартуCCIR 601, должнонастраиватьсянаиспользованиепикселейподходящейформы.

Видео, дискретизированное согласно стандарту CCIR 601, состоит из компонента яркости и двух компонентов разности цветов. На первом этапе уменьшения размера цифрового видео для каждого значения разности цветов берется меньшее количество выборок, чем для яркости; данный процесс называется субдискретизацией цветности.

Это объясняется наблюдениями, показывающими, что человеческий глаз менее чувствителен к изменениям цвета, чем к изменениям яркости. Упорядочение выборок, использованное в CCIR 601, называется дискретизацией 4:2:2; оно иллюстрируется на рис. 8.2. В каждой строке выборок яркости в два раза больше, чем выборок цветностей B-Y и R-Y. Поэтому для тех пикселей, цвет которых дискретизируется, все три значения выбираются в одной точке, и выборки называются пространственно совмещенными.

Рис. 8.2

Получающийся поток данных для видео CCIR 601 с использованием 8 бит для записи каждого компонента составляет 166 Мбит, или чуть больше 20 Мбайт в секунду, или почти 73 Гб/час.

84

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

8.3 Форматы цифрового кодирования и сжатия

Все алгоритмы сжатия видео работают с оцифрованным видео, состоящим из последовательности растровых изображений. Существует два подхода к сжатию этой последовательности:

по отдельности сжимать каждое неподвижное изображение, используя технологии для сжатия картинок, и

записывать отличие ряда последовательных кадров.

Данные два подхода обычно называются соответственно пространственным и временным сжатием, хотя используются и более точные названия - внутрикадровое (intra-frame) и межкадровое (inter-frame) сжатие. Отметим, что вполне естественно использовать оба подхода одновременно.

Пространственное сжатие в действительности представляет собой всего лишь сжатие изображений, которое мы рассмотрели ранее на примере сжатия JPEG.

Рассмотрим принцип действия алгоритмов временного сжатия. Итак, выделяется несколько кадров последовательности, которые называются ключевыми. Часто ключевые кадры выбираются с постоянным интервалом (например, каждый шестой кадр). Данные ключевые кадры либо не сжимаются вообще, либо подвергаются только пространственному сжатию. Все кадры между парой ключевых заменяются разносными кадрами, на которых записывается только разница между кадром, ранее находившимся на этом месте, и предыдущим кадром. Для большинства последовательностей разности будут ненулевыми на маленькой части изображения. Рассмотрим, например, типичный фрагмент, когда в кадре находится "говорящая голова" или голова с верхней частью туловища на неподвижном фоне (например, изображение диктора выпуска новостей). Большую часть времени двигаться будет только лицо говорящего человека; фон и, возможно, туловище человека, будут статичными, так что пиксели, соответствующие этим элементам, будут иметь одинаковые значения на всех кадрах. Следовательно, все разностные кадры будут содержать намного меньше информации, чем полный кадр. Значит, данную информацию можно представить гораздо компакт-

нее, чем информацию обо всем кадре, рис. 8.3.

Рис. 8.3

8.3.1 Motion JPEG

MJPЕG (Motion JPEG) — покадровый метод видеосжатия, основной особенностью которого является сжатие каждого отдельного кадра видеопотока с помощью алгоритма сжатия изображений JPEG.

При сжатии методом MJPEG межкадровая разница не учитывается. Это наиболее прямолинейный способ применения сжатия к каждому кадру без временного сжатия. Основными преимуществами видеосжатия MJPEG являются:

простота реализации, что делает MJPEG подходящим для реализации в устройствах с ограниченными вычислительными ресурсами;

85

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

чрезвычайно быстрый нелинейный видеомонтаж — если какой-либо кадр берётся целиком (без изменений) из одного MJPEG-источника, его можно записать в выходной MJPEG-поток как есть, без декодировки-сжатия;

MJPEG даёт качественные стоп-кадры, что позволяет его использовать, например, в системах видеонаблюдения (там это важно — например, чтобы выяснить номер проехавшего автомобиля).

Кнедостаткам можно отнести более низкий коэффициент сжатия по сравнению с потоковыми методами сжатия, например MPEG-4.

8.3.2 Видео MPEG

Для мультимедиа важнейшим из стандартов MPEG являются MPEG-2 и MPEG-4, но использованная в нем схема обработки видео основана на старом стандарте MPEG-1, который также иногда применяется в видео на компактдисках и в Интернете. Поэтому мы вкратце рассмотрим сжатие MPEG-1, а затем выделим отличия от MPEG-2 и 4.

Стандарт MPEG-1 объединяет временное сжатие с пространственным.

Простой подход к временному сжатию состоит в вычитании значения каждого пикселя кадра из значения соответствующего пикселя предыдущего кадра, в результате чего определяется разностный кадр. В тех областях изображения, в которых кадры не менялись, результат вычитания будет равен нулю. Если изменения локализованы, разностные кадры будут содержать большое количество нулевых пикселей, поэтому они будут хорошо сжиматься - намного лучше, чем ключевыекадры.

Рис. 8.4

Впрочем, часто можно достичь еще лучшего результата, поскольку изображения составлены из объектов, движущихся, как единое целое: человек может идти по улице, футбольный мяч - летать по полю, с помощью камеры может создаваться панорамное изображение ландшафта. Рассмотрим простой пример, представленный на рисунке 8.4. Здесь нумератор-хлопушка (отдельный четко очерченный объект) перемещается на двух последовательных кадрах фильма. Хлопушка, двигающаяся по экрану, затеняет различныеучастки побережья, при этомдругиеэлементы сцены остаются неизменными.

На рисунке 8.5 слева, показана область, в которой, возможно, изменились значения пикселей и которую нужно записать в разностном кадре. Если каким-то образом можно определить области, соответствующие хлопушке, потребуется записать только смещение и изменившиеся пиксели в небольшой области, показанной на рисунке 8.5 справа. Чтобы выполнятьвсе эти действия, была разработана технология компенсации движения.

Схемы сжатия MPEG-1 не пытаются идентифицировать объекты на сцене. Вместо этого они делят каждый кадр на блоки размером 16 х 16 пикселей, называемые макроблоками, и пытаются предсказать местоположение соответствующего макроблока на следующем кадре. В этом предсказании не используются сложные схемы искусст-

86

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

венного интеллекта: перебираются все возможные смещения в пределах ограниченного диапазона и выбирается наилучшее соответствие. Затем строится разностный кадр: все макроблоки вычитаются из предсказанных прототипов, причем после пространственного сжатия должно получиться больше нулевых значений и меньший разностный кадр. За это мы платим тем, что, помимо разностного кадра, у нас теперь есть еще и векторы движения, описывающие предсказанное смещение макроблоков между кадрами, которые тоже нужно сохранять (или передавать). Данные векторы движения так же можно сжимать: вектор движения для макроблока, как правило,

идентичен вектору движения соседних макроблоков (поскольку часто они описывают элементы одного объекта). Поэтому, записывая разности векторов движения, мы дополнительно сжимаем данные.

Рис. 8.5

Сжатие фрагмента видео нужно с чего-то начать. Ключевые кадры MPEG называются I-изображениями (от "intra" - "внутренние"). Они сжимаются исключительно пространственно, т.е. используется внутрикадровое сжатие. Разностные кадры, использующие предыдущие кадры, называются Р-изображенuями (от "predicted" - "предсказанные"). Р-изображения могут строиться по предыдущим I- или Р-изображениям. В данном вопросе разработчики MPEG пошли дальше и допустили, что кадры можно восстанавливать по последующим кадрам; в результате были определены В-

изображения (от "bi-directional prediction", "двунаправленное предсказание"). На ри-

сунке 8.6 показано, почему обратное предсказание может быть полезным. На верхнем кадре (начало видеоряда) изображение актрисы скрыто, но ближе к концу видеоряда она появляется из-за движущейся хлопушки. Если необходимо использовать этот кадр (без актрисы) как I-изображение, в следующих за ним Р-изображениях придется записать все пиксели изображения (актрисы). В то же время актриса присутствует на более позднем I-изображении, поэтому, если промежуточные кадры восстанавливать по обоим изображениям, представленным на рисунке 8.6 (т.е. не только по предыдущему, но и по последующему кадру), можно достичь еще большего сжатия.

Рис. 8.6

Видеоклип можно закодировать в сжатой форме как последовательность I-, Р- и В- изображений. Данная последовательность необязательно должна быть регулярной, но в схемах кодирования обычно используется повторяющаяся последовательность, известная как группа изображений (Group of Pictures - GOP), которая всегда начинается с I-изображения. Типичный пример такой схемы приведен на рисунке 8.7. На рисунке показаны две группы: кадры 01-06 и 11-16. Стрелки указывают прямое и двунаправленное предсказание. Например, Р-изображение 04 зависит от I-изображения 01 в начале группы; В-изображения 05 и 06 зависят от предшествующего Р- изображения 04 и последующего I-изображения 11. Обычно Р-изображения сжимаются втрое сильнее, чем I-изображения, а В-изображения - в полтора раза сильнее,

87

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

чем Р-изображения. В то же время восстанавливать В-изображения сложнее, чем другие, поэтому при разработке схемы группировки изображений нужно выбирать между степенью сжатия и вычислительной сложностью.

Рис. 8.7 Последовательность MPEG в порядке отображения

Рис. 8.8 Последовательность MPEG в порядке потока битов

Если говорить о декодерах, то очевидно, что В-изображения представляют проблему: информация, необходимая для восстановления соответствующего кадра, содержится в I или Р-изображении, которое появится позже. Данная проблема решается путем переупорядочения последовательности. Говорят, что ряд изображений, соответствующий реальному порядку кадров, идет "в порядке отображения"; для передачи его нужно представить в подходящем "порядке потока битов". На рисунке 8.8 в порядке потока битов представлена последовательность, показанная на рисунке 8.7 в порядке отображения. Теперь все стрелки, показывающие восстановление кадров, направлены справа налево, т.е. все восстанавливаемые кадры располагаются после кадров, от которых они зависят. Перед демонстрацией эти восстановленные кадры нужно упорядочить в правильном порядке – в порядке отображения.

Итак, рассмотрим, из каких этапов состоит сжатие цифрового видео по алгоритму

MPEG.

Во-первых, из исходного сигнала выбрасываются служебные пиксели. Как вы помните, из 858 точек яркости на линию под информацию изображения задействованы только 720. Аналогично, только 480 линий из 525 задействованы под изображение по вертикали (NTSC) и 576 из 625 для PAL и SECAM.

Во-вторых, разрешение цветоразностных сигналов уменьшается в 2 раза по сравнению со студийным сигналом CCIR-601, который представляет сигнал цветности с половинным разрешением по горизонтали, но с полным вертикальным разрешением. Это соотношение частот оцифровки известно как 4:2:2. Однако, MPEG-1 и MPEG-2 Main Profile

устанавливают использование формата 4:2:0, который считается достаточным для бытовых приложений, рис. 8.9.

Рис. 8.9

88

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

В-третьих, ключевые кадры сжимаются по технологии JPEG.

В-четвертых, разностные кадры сжимаются по временной технологии, т.е. сохраняются только отличия от предыдущих или последующих кадров.

В-пятых, используется технология компенсации движения, позволяющая сохранять только вектора перемещения макроблоков изображения.

MPEG-4 — принципиально новый объектно-ориентированный мультимедийный формат компрессии и передачи цифровых аудио- и видеосигналов, предназначенный для кодирования аудио- и видеоданных с очень малыми скоростями передачи. И хотя разработка его спецификаций началась еще до массового признания Всемирной паутины, MPEG-4 прочат большое будущее именно приложениях Internet-вещания.

На сегодня стандарт MPEG–4 — самый распространённый способ хранения цифрового видео на компьютерах. MPEG–4 обеспечивает степень сжатия больше, чем MPEG– 2. MPEG–4 поддерживает ряд т. н. профилей (profile): simple profile (SP, разрешение до 384x288), advanced simple profile (ASP, разрешение до 720x576), advanced video coding (AVC, разрешения вплоть до 1920x1080). Всё большее количество аппаратных проигрывателей получает поддержку декодирования видео в формате MPEG–4 ASP. Появляются первые реализации кодеков стандарта MPEG–4 advanced video coding (MPEG–4 AVC, или H.264), которые обеспечивают ещё большую степень сжатия видео. Скорее всего, именно MPEG–4 AVC сменит MPEG–2 в отрасли бытового видео (домашние кинотеатры и цифровое вещание) — он включён в стандарт видео высокой чёткости (HD–видео) как один из базовых форматов сжатия видео (наряду с

MPEG–2 и WMV).

Для каждого из профилей различные уровни задают такие значения параметров, как размер кадра и частота передачи. Например, SP@L1 (уровень 1 профиля SP) задает скорость 64 Кбит/с для размера кадра 176х 144 пикселей; ASP@L5 задает 8 000 Кбит/с для полного размера PAL (720 х 576).

Высшие профили используют метод деления сцены на видео-объекты произвольной формы (например, певец и декорации, на фоне которых ведется выступление), которые можно сжимать по отдельности. Лучший метод сжатия фона может отличаться от лучшего метода сжатия изображения человека, поэтому, разделив эти два "объекта", можно повысить общую эффективность сжатия. В то же время деление сцены на объекты является нетривиальной задачей, поэтому нижние профили - SP и ASP - ограничены прямоугольными объектами, в частности - завершенными кадрами, и именно эти профили реализованы в таких широко используемых системах, как QuickTime и DivX.

8.4 Форматы записи видео высокого разрешения

Видео высокого разрешения (далее, HD-видео, от англ. High Definition — высокая четкость) уверенно входит в нашу жизнь. Его распространению способствует увеличивающаяся популярность ЖК и плазменных телевизоров с большой диагональю, на которых видео стандартного разрешения смотрится уже "не очень".

Рассмотрим 2 наиболее популярных формата видео высокого разрешения: HDV и AVCHD.

89

ГОУ СПО «Самарский государственный профессионально-педагогический колледж»

HDV — формат HD-видео, первым проник на бытовой рынок. Перед разработчиками стандарта HDV стояла задача, во-первых, значительно увеличить разрешение финального видео по сравнению с видео стандартного разрешения, а во-вторых, оставить величину видеопотока сравнимой с той, что мы имеем в формате DV, это дало бы возможность записывать HD-видео на те же кассеты miniDV, не жертвуя при этом временем съемки на одну кассету. Для решения этой задачи разработчики стандарта HDV (в качестве которых выступили Sony, Canon, JVC и Sharp) использовали уже знакомый нам формат компрессии MPEG-2. При этом величина видеопотока осталась такой же, как и для DV, — 25 Мбит/с. Это было достигнуто, помимо использования более высокой степени компрессии, с помощью анаморфного преобразования. Его суть в том, что первоначальный кадр, имеющий размер 1920х1080 точек, перед записью на ленту, еще и сжимается по горизонтали до 1440 точек, так что размер кадра готового видео составляет 1440х1080. Оно "сплюснуто" по горизонтали, его пропорции нарушены. При воспроизведении такого видео устройство воспроизведения (например, программа-плеер на компьютере или сама видеокамера в режиме воспроизведения) производит обратное преобразование 1440->1920, восстанавливая при этом нарушенные пропорции. Анаморфное преобразование позволяет "уложиться" в поток 25 Мбит/с, не прибегая к "запредельным" коэффициентам компрессии, а значит, со-

храняя высокое качество видео. А оборотной стороной его использования является сниженное горизонтальное разрешение, информация, потерянная во время преобразования 1920- >1440, при обратном преобразовании уже не восстанавливается. Остальные характеристики формата: чересстрочное видео с размером кад-

ра 1920х1080 (1080i, i — interlaced, чересст-

рочное), форматное соотношение 16:9, видеопоток в 25 Мбит/с, формат компрессии MPEG- 2, носитель видео — кассета miniDV.

Рис. 8.10

AVCHD — формат HD-видео, совместно предложенный Sony и Panasonic летом 2006 года. Необходимость появления этого формата была обусловлена двумя основными факторами. Во-первых, явным дисбалансом между устройствами записи/просмотра видео высокой четкости и устройствами его воспроизведения, сложившимся на современном рынке. Действительно, на рынке в достаточном количестве и по относительно приемлемым ценам присутствуют ЖК и плазменные телевизоры высокой четкости, а также кинотеатральные проекторы, для которых стандартного разрешения уже явно не хватает. Нет недостатка и в видеокамерах высокой четкости. А носителей, на которые можно было бы записывать видео высокой четкости, которые были бы достаточно вместительны для этой цели — практически нет. Затянувшееся противостояние HD-DVD и Blu-Ray снижает интерес пользователей к обоим форматам, да и производство приводов на "синем" лазере еще не было отлажено в должной мере на момент разработки стандарта, а цена на них была неоправданно высока. Во-вторых, необходимость появления формата AVCHD обусловлена отказом большинства пользователей (на бытовом рынке, конечно) воспринимать кассету как средство хранения цифрового видео. А значит, учитывая фактор номер один (малую распространенность приводов и дисков на основе "синего" лазера), надо придумать формат, который позволит записывать HD-видео на обычные DVD-диски и flash-карточки, и, не жертвуя качеством этого видео в придачу. Так на сцене и появляется AVCHD. В его

90

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]