|
Сжатие передаваемой информации
При передаче сообщения возникают две взаимосвязанные проблемы: устранение избыточности в передаваемой информации и ее сжатие. Кратко рассмотрим их. Под избыточностью будем понимать бесполезную, лишнюю при приеме часть информации, которой все равно невозможно воспользоваться. Одной из причин здесь является невосприимчивость человеческих органов к некоторой части принятой информации. Так, например, телевизионное изображение может содержать до 16 тысяч цветовых оттенков, тогда как зрение человека, чувствительное к яркости, невосприимчиво к такой громадной гамме цветов. В лучшем случае человек может различить до нескольких сотен цветовых оттенков. Поэтому часть цветовых оттенков при передаче можно исключить без ощутимой со стороны человека потери качества цветного изображения на экране телевизора. То же самое можно сказать относительно передачи по каналу связи устной речи, верхнюю частоту спектра которой можно ограничить частотой 3400 Гц без потери смысла принятого сообщения.
Устранение избыточности в передаваемой информации позволяет передавать или хранить меньшее число байт А . Вместе с тем Согласно (1.5) уменьшение объема А передаваемого сообщения позволяет при неизменном интервале времени Т = const снизить скорость передачи V, что согласно (1.11) допускает, в свою очередь, сужение полосы пропускания канала связи и, следовательно, повышение его помехозащищенности. С другой стороны, сохранив неизменной скорость V- const, можно существенно уменьшить времяпередачи Т. Уменьшение числа байт А позволяет также разместитьв электронной памяти большее число полезных сведений. Во всехуказанных случаях в результате устранения избыточности, т.е. уменьшения числа байт А, можно получить значительный экономическийэффект.
Предположим теперь, что избыточность в передаваемой информации устранена. Но при этом все равно по разным причинам сохраняется потребность в уменьшении объема передаваемой информации, т.е. количества байт А . Одной из причин здесь является ограниченная пропускная способность канала связи С (1.17), не позволяющая повысить скорость передачи V ≤ С. В этой связи возникает проблема по сжатию передаваемой информации с полным ее восстановлением на приемном конце линии связи. Решить данную задачу можно путем оптимального кодирования, связанного с затратой минимального количества бит на передачу сообщения с требуемой достоверностью при известных параметрах канала связи.
Сущность сжатия информации рассмотрим сначала на примере передачи текстового сообщения. При равномерном коде согласно табл. 1.1 любая буква алфавита передается 6 битами. Частота появления букв в тексте при этом не учитывается. Вместе с тем статистический анализ показывает, что в стандартном тексте на русском языке, состоящем из 1000 символов, буква О встречается в среднем 95 раз, буква Е - 74 раза, буква Ф - всего 2 раза, пробел между словами - 145 раз и т.д. Частота появления букв в тексте на русском языке приведена в табл. 1.3.
С помощью табл. 1.3, в которой буквы расположены в порядке убывания их частот, составим неравномерный код согласно методу Шеннона-Фано. С этой целью разделим весь список на две группы с неравным количеством букв, но с примерно равной суммарной вероятностью. В первую группу поместим буквы из верхней части списка от «пробела» до буквы Т с суммарной вероятностью 0,498, во вторую - все остальные буквы с суммарной вероятностью 0,502. Каждой букве из первой группы в качестве первой цифры кода присвоим 0, а из второй группы - 1.
Таблица1.3
Буква
| Частота
| Двоичное число
| Пробел
| 0,145
|
| О
| 0,095
|
| Е
| 0,074
|
| А
| 0,064
|
| И
| 0,064
|
| Т
| 0.056
|
| Н
| 0,056
|
| С
| 0,047
|
| Р
| 0,041
|
| В
| 0,039
|
| Л
| 0,036
|
| К
| 0,029
|
| М
| 0,026
|
| Д
| 0,026
|
| П
| 0,024
|
| У
| 0,021
|
| Я
| 0,019
|
| Ы
| 0,016
|
| З
| 0,015
|
| Ь,Ъ
| 0,015
|
| Б
| 0,015
|
| Г
| 0,014
|
| Ч
| 0,013
|
| Й
| 0,010
|
| X
| 0,009
|
| Ж
| 0,008
|
| Ю
| 0,007
|
| Ш
| 0,006
| 111U100
| Ц
| 0,004
|
| Щ
| 0,003
|
| Э
| 0,003
|
| Ф
| 0,002
|
|
Каждая из полученных групп букв аналогичным образом вновь делится на две части с добавлением еще одной цифры кода. Так, первая группа будет разделена на две подгруппы: от «пробела» до буквы О и от Е до Т. Для всех букв первой подгруппы на втором месте кода поставим 0, второй - 1. Аналогичным образом разделим вторую группу букв. Процесс такого деления с присвоением новой цифры кода будем продолжать до тех пор, пока в каждом из разрядов не останется одна буква, которая будет закодирована двоичным числом наибольшей длительности. Полученный в результате описанного алгоритма неравномерный код представлен в табл. 1.3. В нем часто встречающиеся буквы в тексте закодированы всего тремя битами, а редко - девятью. В результате общее число бит в передаваемом тексте будет уменьшено, чго сократит объем передаваемой информации.
Проверим последнее утверждение на примере передачи слова «Дополнительное". Закодированное согласно табл. 1.3 это слово примет вид: 110010 001 110011 001 10110 1000 0110 0111 0100 10110 111001 1000 001 0100.
Общее число бит составит 61 вместо 84 при передаче того же слова равномерным шестизначным кодом согласно табл. 1.1. Таким образом, в рассмотренном примере применение неравномерного кода взамен равномерного позволяет сжать объем передаваемой информации на 38% .
Другой метод сжатия информации, называемый RLE, основан на учете часто повторяющихся и следующих друг за другом одинаковых символов (RLE есть аббревиатура слов Run-Lengh Encoding, что в переводе на русский язык означает кодирование длины последовательности). Например, при методе RLE последовательность символов в виде ААААААВВВСССС будет передана как 6АЗВ4С, что при 8-разрядном коде сократит число передаваемых бит со 104 до 48. Этот метод дает, в частности, ощутимый выигрыш при передаче изображений с одинаковыми цветовыми участками.
Более эффективные методы, позволяющие многократно сжимать дискретную информацию, подразделяются на три основные группы: статистические, словарные и контекстные [32, 33].
При первом методе производится статистическая обработка передаваемой информации с целью определения вероятности появления в текущем контексте того или иного символа или определенной последовательности символов, что определяет длину кода.
Рассмотрим статистический метод на примере сжатия речевого сигнала с помощью устройства, называемого кодером, работа которого основывается на учете статистических характеристик речевого сигнала согласно методу линейного предсказания [21].
Сущность последнего заключается в том, что по каналу связи передаются не сами параметры речевого сигнала, а параметры специального фильтра линейного предсказания, являющегося моделью голосового тракта человека, и параметры сигнала возбуждения этого фильтра. Относительно самого речевого сигнала следует иметь в виду, что он состоит из гласных звуков со средней длительностью 210 мс и согласных - 95 мс с мгновенным уровнем изменения амплитуды 35...40 дБ. Постоянная времени слуха человека составляет 20...30 мс при нарастании звука и 100...200 мс при его спаде.
В целом один из типов кодера работает следующим образом. Сначала речь человека - аналоговый сигнал, занимающий полосу частот 300...3400 Гц, с помощью аналого-цифрового преобразователя (АЦП) преобразуется в цифровой сигнал с частотой дискретизации 8000 Гц и скоростью следования бит V - 64 кбит/с (см. пример в конце § 1.3). Далее оцифрованный сигнал разбивается на сегменты длительностью 20 мс с учетом постоянной времени слуха человека. При данном интервале времени речевой сигнал можно рассматривать как квазистационарный гауссовский процесс. Для каждого сегмента согласно методу линейного предсказания производится определение параметров специального фильтра и сигнала возбуждения. Сущность такого предсказания заключается в том, что каждая очередная выборка речевого сигнала определяется как линейная комбинация нескольких предшествующих выборок, поскольку каждый звук статистически зависит от предшествующих звуков:
где аi - коэффициент линейного предсказания.
Исходя из полученного значения выборки определяются параметры специального фильтра - своеобразной модели голосового тракта человека на интервале времени в 20 мс. Параметры этого фильтра и сигнала возбуждения поступают в канал связи. На приемном конце согласно полученным данным осуществляется синтез фильтра, моделирующего голосовой тракт на время одной 20-миллисекундной выборки речи. Далее цифровой сигнал с помощью цифро-аналогового преобразователя (ЦАП) переводится в аналоговую форму. Устройство восстановления сигнала называется декодером. Структурная схема описанного метода передачи речи приведена на рис. 1.6.
В результате описанной процедуры удается передать речевой сигнал при 8 кратном уменьшении числа бит со скоростью 8 кбит/с вместо 64 кбит/с и, следовательно, осуществить сжатие передаваемой информации в 8 раз.
При словарном методе сжатия информации на основе части обработанной информации составляется специальный словарь, с помощью которого осуществляется кодирование.
В словарь-таблицу записываются часто повторяющиеся последовательности бит. При новом появлении аналогичных кодовых комбинаций производится обращение к соответствующей ячейке таблицы и передача не ее содержимого, а только номера, что значительно сокращает объем передаваемой информации. Структурная схема одного из алгоритмов такой группы, называемого LZW, приведена на рис. 1.7.
Алгоритм LZW, названный по первым буквам фамилий его авторов - Lempel, Ziv, Welch, позволяет автоматически адаптироваться к качественному составу входного битового потока, использовать плавающую длину байта от 9 до Л/ бит, экономно использовать динамическую память.
В результате кодовый поток бит на выходе, передаваемый по каналу связи, оказывается в несколько раз меньшим по объему, чем входной поток бит.
Данный алгоритм по сжатию информации особенно эффективен при передаче по цифровому каналу связи цветных фотографий и телевизионных изображений. Он использовался, в частности, при передаче по узкополосному радиоканалу фотографий с поверхности Марса, позволяя получить на Земле снимки высокого качества.
Различные алгоритмы кодирования второй группы различаются между собой методом составления кодового словаря, способом поиска совпадений входных кодовых комбинаций с содержанием словаря и видом ссылок на найденные совпадения.
К словарным способам сжатия дискретной информации близко примыкает контекстный, при котором поступающая информация разбивается на блоки, после чего производится обработка битовых потоков.
Не нашли, что искали? Воспользуйтесь поиском по сайту:
©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.
|