Количественная оценка информации
Количественная оценка информации
КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ
Общее число неповторяющихся сообщений, которое может быть составлено
из алфавита m путем комбинирования по n символов в сообщении,
[pic]. (1)
Неопределенность, приходящаяся на символ первичного (кодируемого)[1]
алфавита, составленного из равновероятностных и взаимонезависимых символов,
[pic]. (2)
Основание логарифма влияет лишь на удобство вычисления. В случае
оценки энтропии:
а) в двоичных единицах
[pic]
б) в десятичных единицах
[pic]
где [pic];
в) в натуральных единицах
[pic]
где [pic]
Так как информация есть неопределенность, снимаемая при получении
сообщения, то количество информации может быть представлено как
произведение общего числа сообщений к на среднюю энтропию Н, приходящуюся
на одно сообщение:
[pic] (3)
Для случаев равновероятностных и взаимонензависимых символов
первичного алфавита количество информации в к сообщениях алфавита m равно
[pic]
а количество информации в сообщении, составленном из к неравновероятностных
символов,
[pic] (5)
Для неравновероятностных алфавитов энтропия на символ алфавита
[pic] (4)
При решении задач, в которых энтропия вычисляется как сумма
произведений вероятностей на их логарифм, независимо от того, являются ли
они безусловными [pic], условными [pic] или вероятностями совместных
событий[pic].
Количество информации определяется исключительно характеристиками
первичного алфавита, объем – характеристиками вторичного алфавита. Объем[2]
информации
[pic] (6)
где lср – средняя длина кодовых слов вторичного алфавита. Для равномерных
кодов (все комбинации кода содержат одинаковое количество разрядов)
[pic]
где n – длина кода (число элементарных посылок в коде). Согласно (3), объем
равен количеству информации, если lср=Н, т.е. в случае максимальной
информационной нагрузки на символ сообщения. Во всех остальных случаях
[pic].
Например, если кодировать в коде Бодо некоторые равновероятный алфавит,
состоящий из 32 символов, то
[pic]
Если закодировать в коде Бодо русский 32-буквенный алфавит, то без
учета корреляции между буквами количество информации
[pic]
т.е. если в коде существует избыточность и [pic], то объем в битах всегда
больше количества информации в тех же единицах.
Тема 2. Условная энтропия и энтропия объединения
Понятие условной энтропии в теории информации используется при
определении взаимозависимости[3] между символами кодируемого алфавита, для
определения потерь при передаче информации по каналам связи, при вычислении
энтропии объединения.
Во всех случаях при вычислении условной энтропии в том или ином виде
используются условные вероятности.
Если при передаче n сообщений символ А появился m раз, символ В
появился l раз, а символ А вместе с символом В – к раз, то вероятность
появления символа А [pic]; вероятность появления символа В [pic];
вероятность совместного появления символов А и В [pic]; условная
вероятность появления символа А относительно символа В и условная
вероятность появления символа В относительно символа А
[pic] (7)
Если известна условная вероятность, то можно легко определить и
вероятность совместного появления символов А и В, используя выражения (7)
[pic] (8)
От классического выражения (4) формула условной энтропии отличается
тем, что в ней вероятности – условные:
[pic] (9)
[pic] (10)
где индекс i выбран для характеристики произвольного состояния источника
сообщения А, индекс j выбран для характеристики произвольного состояния
адресата В.
Различают понятия частной и общей условной энтропии. Выражение (9) и
(10) представляют собой частные условные энтропии.
Общая условная энтропия сообщения В относительно сообщения А
характеризует количество информации, содержащейся в любом символе алфавита,
и определяется усреднением по всем символам, т. е. по всем состояниям с
учетом вероятности появления каждого из состояний, и равна сумме
вероятностей появления символов алфавита на неопределенность, которая
остается после того, как адресат принял сигнал
[pic] (11)
Выражение (11) является общим выражением для определения количества
информации на один символ сообщения для случая неравномерных и
взаимонезависимых символов.
Так как [pic]представляет собой вероятность совместного появления
двух событий [pic], то формула (11) можно записать следующим образом:
[pic] (12)
Понятие общей и частной условной энтропии широко используется при
вычислении информационных потерь в каналах связи с шумами.
В общем случае, если мы передаем m сигналов А и ожидаем получить m
сигналов В, влияние помех в канале связи полностью описывается канальной
матрицей, которую мы приводим ниже:
[pic]
|В | |
|А |b1 b2 … bj |
| |… bm |
|а1 |[pic][pic][pic][pic][pic] |
|а2 |………………………………………………………….. |
|… | |
|аi |[pic][pic] |
|… |…………………………………………………………… |
|аm | |
| |[pic][pic] |
Вероятности, которые расположены по диагонали, определяют правильный
прем, остальные – ложный. Значение цифр, заполняющих колонки канальной
матрицы, обычно уменьшаются по мере удаления от главной диагонали и при
полном отсутствии помех всех, кроме цифр, расположенных на главной
диагонали, равны нулю.
Если описывать канал связи со стороны источника сообщений, то
прохождение данного вида сигнала в данном канале связи описывается
распределением условных вероятностей вида [pic], так для сигнала
[pic]распределением вида
[pic] (13)
[pic](14)
[pic](15)
[pic](16)
[pic]
|В | |
|А |b1 b2 … bj |
| |… bm |
|а1 |[pic][pic][pic][pic][pic] |
|а2 |………………………………………………………….. |
|… | |
|аi |[pic][pic] |
|… |…………………………………………………………… |
|аm | |
| |[pic][pic] |
[pic]
[pic](17)
[pic](18)
[pic]
[pic](19)
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic]
[pic] [pic]
[pic]
[pic]
тема 3. Вычисление информационных потерь при передаче сообщений по каналам
связи с шумами
Потери информации в каналах связи с шумами обычно описывают при
помощи условной энтропии и энтропии объединения.
Если помех нет или их уровень настолько низок, что они не в состоянии
уничтожить сигнал или имитировать полезный сигнал в отсутствие передачи, то
при передаче мы будем твердо уверены, что получим - сигнал,
соответствующий переданному ai-му сигналу. События А и В статистически
жестко связаны, условная вероятность максимальна , а условная энтропия
!!!!1
так как !!!!. В этом случаи количество информации, содержащейся в принятом
ансамбле сообщений В, равно энтропии передаваемых сообщений ансамбля А,
т.е. I(В, А) = Н (А).
При высоком уровне помех любой из принятых сигналов bj может
соответствовать любому принятому сигналу ai, статистическая связь между
переданными и принятыми сигналами отсутствует. В этом случае
вероятности!!!!!! Есть вероятности независимых событий и !!!!!!
!!!!1
так как !!11, т.е. условная энтропия равна безусловной, а количество
информации, содержащейся в В, относительно А равно нулю:
!!!!
Информационные характеристики реальных каналов связи лежат между этими
двумя предельными случаями. При этом потери информации при передаче !!
символов по данному каналу связи
!!!!!
Несмотря на то, что часть информации поражается помехами, между
принятыми и переданными сообщениями существует статистическая зависимость.
Это позволяет описывать информационные характеристики реальных каналов
связи при помощи энтропии объединения статистически зависимых событий. Так
как
!!!!1
то потери в канале связи могут быть учтены при помощи энтропии объединения
следующим образом:
!!1!
а с использованием условной энтропии
!!!
Для вычисления среднего количества информации, содержащегося в
принятом ансамбле сообщений В относительно передаваемого ансамбля сообщений
А в условиях действия помех, пользуются следующими выражениями, выведенными
непосредственно из выражения (25):
!!!!!!!!
Для вычисления часто удобно применять выражения (26-28) в виде
!!!!!!!
Для полного и всестороннего описания канала связи необходимо задать:
канальную матрицу вида !!!!!! и безусловные вероятности вида !!!! или
канальную матрицу вида !!!!!! и безусловные вероятности вида !!!!!. В
последнем случае сумма значений матрицы по столбцам дает безусловные
вероятности вида !!!!!!!!!!, а сумма по строкам дает безусловные
вероятности вида !!!!!!. Условные вероятности могут быть найденными из
выражений:
!!!!!!!
Зная условные и безусловные вероятности, можно найти Н (А), Н(В),
Н(А/В) и Н(В/А).
Если уровень помех настолько высок, что с равной вероятностью можно
ожидать переход любого символа источника сообщения в произвольный символ
первичного алфавита,. то энтропия канала связи будет равна !!!!!, а
количество информации !!!!!!!, при этом значение I может быть отрицательной
величиной, что означает, что канал связи вносит дезинформацию.
ТЕМА 5. ОПРЕДЕЛЕНИЕ ИЗБЫТОЧНОСТИ СООБЩЕНИЙ. ОПТИМАЛЬНОЕ КОДИРОВАНИЕ
Если энтропия источника сообщений не равна максимальной энтропии для
алфавита с данным количеством качественных признаков (имеются в виду
качественные признаки алфавита, при помощи которых составляются сообщения),
то это прежде всего означает, что сообщения данного источника могли бы
нести большее количество информации. Абсолютная недогруженность на символ
сообщений такого источника
[pic]
Для определения количества «лишней» информации, которая заложена в
структуре алфавита либо в природе кода, вводится понятие избыточности.
Избыточность, с которой мы имеем дело в теории информации, не зависит от
содержания сообщения и обычно заранее известна из статистических данных[4].
Информационная избыточность показывает относительную недогруженность на
символ алфавита и является безразмерной величиной:
[pic] (45)
где [pic]— коэффициент сжатия (относительная энтропия).[pic] и [pic]
берутся относительно одного и того же алфавита.
Кроме общего понятия избыточности существуют частные виды избыточности.
Избыточность, обусловленная неравновероятным распределением символов в
сообщении,
[pic] (46)
Избыточность, вызванная статистической связью между символами сообщения,
[pic] (47)
Полная информационная избыточность
[pic] (48)
Избыточность, которая заложена в природе данного кода, получается в
результате неравномерного распределения в сообщениях качественных признаков
этого кода и не может быть задана одной цифрой на основании статистических
испытаний.
Так при передаче десятичных цифр двоичным кодом максимально загруженными
бывают только те символы вторичного алфавита, которые передают значения,
являющиеся целочисленными степенями двойки. В остальных случаях тем же
количеством символов может быть передано большее количество цифр
(сообщений). Например, тремя двоичными разрядами мы можем передать и цифру
5, и цифру 8, т. е. на передачу пяти сообщений тратится столько же
символов, сколько тратится и на восемь сообщений.
Фактически для передачи сообщения достаточно иметь длину кодовой
комбинации
[pic],
где N - общее количество передаваемых сообщений.
L можно представить и как
[pic],
где [pic] и [pic]—соответственно качественные признаки первичного и
вторичного алфавитов. Поэтому для цифры 5 в двоичном коде можно записать
[pic]
Однако эту цифру необходимо округлить до ближайшего целого числа, так как
длина кода не может быть выражена дробным числом. Округление, естественно,
производится в большую сторону. В общем случае, избыточность от округления
[pic]
где [pic] — округленное до ближайшего целого числа значение [pic]. Для
нашего примера
[pic]
Избыточность — не всегда нежелательное явление. Для повышения
помехоустойчивости кодов избыточность необходима и ее вводят искусственно в
виде добавочных [pic][pic] символов (см. тему 6). Если в коде всего п
разрядов и [pic] из них несут информационную нагрузку, то [pic]=[pic][pic]
характеризует абсолютную корректирующую избыточность, а величина [pic]
характеризует относительную корректирующую избыточность.
Информационная избыточность - обычно явление естественное, заложена она в
первичном алфавите. Корректирующая избыточность - явление искусственное,
заложена она в кодах, представленных во вторичном алфавите.
Наиболее эффективным способом уменьшения избыточности сообщения является
построение оптимальных кодов.
Оптимальные коды[5] - коды с практически нулевой избыточностью.
Оптимальные коды имеют минимальную среднюю длину кодовых слов - L. Верхняя
и нижняя границы L определяются из неравенства
[pic] (49)
где Н - энтропия первичного алфавита, т - число качественных признаков
вторичного алфавита.
В случае поблочного кодирования, где каждый из блоков состоит из М
независимых букв [pic], минимальная средняя длина кодового блока лежит в
пределах
[pic] (50)
Общее выражение среднего числа элементарных символов на букву сообщения
при блочном кодировании
[pic] (51)
С точки зрения информационной нагрузки на символ сообщения поблочное
кодирование всегда выгоднее, чем побуквенное.
Суть блочного кодирования можно уяснить на примере представления
десятичных цифр в двоичном коде. Так, при передаче цифры 9 в двоичном коде
необходимо затратить 4 символа, т. е. 1001. Для передачи цифры 99 при
побуквенном кодировании - 8, при поблочном - 7, так как 7 двоичных знаков
достаточно для передачи любой цифры от 0 до 123; при передаче цифры 999
соотношение будет 12 - 10, при передаче цифры 9999 соотношение будет 16 -
13 и т. д. В общем случае «выгода» блочного кодирования получается и за
счет того, что в блоках происходит выравнивание вероятностей отдельных
символов, что ведет к повышению информационной нагрузки на символ.
При построении оптимальных кодов наибольшее распространение нашли
методики Шеннона—Фано и Хаффмена.
Согласно методике Шеннона - Фано построение оптимального кода ансамбля из
сообщений сводится к следующему:
1-й шаг. Множество из сообщений располагается в порядке убывания
вероятностей.
2-й шаг. Первоначальный ансамбль кодируемых сигналов разбивается на две
группы таким образом, чтобы суммарные вероятности сообщений обеих групп
были по возможности равны. Если равной вероятности в подгруппах нельзя
достичь, то их делят так, чтобы в верхней части (верхней подгруппе)
оставались символы, суммарная вероятность которых меньше суммарной
вероятности символов в нижней части (в нижней подгруппе).
3-й шаг. Первой группе присваивается символ 0, второй группе символ 1.
4-й шаг. Каждую из образованных подгрупп делят на две части таким
образом, чтобы суммарные вероятности вновь образованных подгрупп были по
возможности равны.
5-й шаг. Первым группам каждой из подгрупп вновь присваивается 0, а
вторым - 1. Таким образом, мы получаем вторые цифры кода. Затем каждая из
четырех групп вновь делится на равные (с точки зрения суммарной
вероятности) части до тех пор, пока в каждой из подгрупп не останется по
одной букве.
Согласно методике Хаффмена, для построения оптимального кода N символы
первичного алфавита выписываются в порядке убывания вероятностей. Последние
[pic] символов, где [pic][6] и [pic] - целое число, объединяют в некоторый
новый символ с вероятностью, равной сумме вероятностей объединенных
символов Последние символы с учетом образованного символа вновь объединяют,
получают новый, вспомогательный символ, опять выписывают символы в порядке
убывания вероятностей с учетом вспомогательного символа и т. д. до тех пор,
пока сумма вероятностей т оставшихся символов после [pic]-го выписывания в
порядке убывания вероятностей не даст в сумме вероятность, равную 1. На
практике обычно, не производят многократного выписывания вероятностей
символов с учетом вероятности вспомогательного символа, а обходятся
элементарными геометрическими построениями, суть которых сводится к тому,
что символы кодируемого алфавита попарно объединяются в новые символы,
начиная с символов, имеющих наименьшую вероятность. Затем с учетом вновь
образованных символов, которым присваивается значение суммарной вероятности
двух предыдущих, строят кодовое дерево, в вершине которого стоит символ с
вероятностью 1. При этом отпадает необходимость в упорядочивании символов
кодируемого алфавита в порядке убывания вероятностей.
Построенные по указанным выше (либо подобным) методикам коды с
неравномерным распределением символов, имеющие минимальную среднюю длину
кодового слова, называют оптимальным, неравномерным, кодами (ОНК).
Равномерные коды могут быть оптимальными только для передачи сообщений с
равновероятным распределением символов первичного алфавита, при этом число
символов первичного алфавита должно быть равно целой степени числа, равного
количеству качественных признаков вторичного алфавита, а в случае двоичных
кодов - целой степени двух.
Максимально эффективными будут те ОНК, у которых
[pic]
Для двоичных кодов
[pic] (52)
так как log22 = 1. Очевидно, что равенство (52) удовлетворяется при
условии, что длина кода во вторичном алфавите
[pic]
Величина [pic] точно равна Н, если [pic], где п - любое целое число. Если
п не является целым числом для всех значений букв первичного алфавита, то
[pic] и, согласно основной теореме кодирования[7], средняя длина кодового
слова приближается к энтропии источника сообщений по мере укрупнения
кодируемых блоков.
Эффективность ОНК. оценивают при помощи коэффициента статистического
сжатия:
[pic] (53)
который характеризует уменьшение количества двоичных знаков на символ
сообщения при применении ОНК по сравнению с применением методов
нестатистического кодирования и коэффициента относительной эффективности
[pic] (54)
который показывает, насколько используется статистическая избыточность
передаваемого сообщения.
Для наиболее общего случая неравновероятных и взаимонезависимых символов
[pic]
Для случая неравновероятных и взаимозависимых символов
[pic]
ТЕМА 6. ОБНАРУЖЕНИЕ И ИСПРАВЛЕНИЕ ОШИБОК В СООБЩЕНИЯХ
Понятие об идее коррекции ошибок
Для того чтобы в принятом сообщении можно было обнаружить ошибку это
сообщение должно обладать некоторой избыточной информацией, позволяющей
отличить ошибочный код от правильного Например, если переданное сообщение
состоит из трех абсолютно одинаковых частей, то в принятом сообщении
отделение правильных символов от ошибочных может быть осуществлено по
результатам накопления посылок одного вида, например 0 или 1. Для двоичных
кодов этот метод можно проиллюстрировать следующим примером:
10110 - переданная кодовая комбинация;
10010 - 1-я принятая комбинация;
10100 - -я принятая комбинация;
00110 - 3-я принятая комбинация;
10110 - накопленная комбинация.
Как видим, несмотря на то, что во всех трех принятых комбинациях были
ошибки, накопленная не содержит ошибок[8].
Принятое сообщение может также состоять из кода и его инверсии. Код и
инверсия посылаются в канал связи как одно целое. Ошибка на приемном конце
выделяется при сопоставлении кода и его инверсии.
Для того чтобы искажение любого из символов сообщения привело к
запрещенной комбинации, необходимо в коде выделить комбинации, отличающиеся
друг от друга в ряде символов, часть из этих комбинаций запретить и тем
самым ввести в код избыточность. Например, в равномерном блочном коде
считать разрешенными кодовые комбинации с постоянным соотношением нулей и
единиц в каждой кодовой комбинации. Такие коды получили название кодов с
постоянным весом. Для двоичных кодов число кодовых комбинаций в кодах с
постоянным весом длиной в п символов равно
[pic] (55)
где [pic] - число единиц в кодовом слове. Если бы не существовало условия
постоянного веса, то число комбинаций кода могло бы быть гораздо большим, а
именно [pic]. Примером кода с постоянным весом может служить стандартный
телеграфный код № 3 (см. приложение 4). Комбинации этого кода построены
таким образом, что на 7 тактов, в течение которых должна быть принята одна
кодовая комбинация, всегда приходятся три токовые и четыре безтоковые
посылки. Увеличение или уменьшение количества токовых посылок говорит о
наличии ошибки.
Еще одним примером введения избыточности в код является метод суть
которого состоит в том, что к исходным кодам добавляются нули либо единицы
таким образом, чтобы сумма их всегда. была четной или нечетной. Сбой любого
одного символа всегда нарушит условие четности (нечетности), и ошибка будет
обнаружена. В этом случае комбинации друг от друга должны отличаться
минимум в двух символах, т. е. ровно половина комбинаций кода является
запрещенной (запрещенными являются все нечетные комбинации при проверке на
четность или наоборот).
Во всех упомянутых выше случаях сообщения обладают избыточной
информацией. Избыточность сообщения говорит о том, что оно могло бы
содержать большее количество информации, если бьг не многократное
повторение одного и того же кода, не добавление к коду его инверсии, не
несущей никакой информации, если бы. не искусственное запрещение части
комбинаций кода и т. д. Но все перечисленные виды избыточности приходится
вводить для того, чтобы можно было отличить ошибочную комбинацию от
правильной.
Коды без избыточности обнаруживать, а тем более исправлять ошибки не
могут[9]. Минимальное количество символов, в которых любые две комбинации
кода отличаются друг от друга, называется кодовым расстоянием. Минимальное
количество символов, в которых все комбинации кода отличаются друг от
друга, называется минимальным кодовым расстоянием. Минимальное кодовое
расстояние - параметр, определяющий помехоустойчивость кода и заложенную в
коде избыточность. Минимальным кодовым расстоянием определяются
корректирующие свойства кодов.
В общем случае для обнаружения r ошибок минимальное кодовое расстояние
[pic] (56)
Минимальное кодовое расстояние, необходимое для одновременного
обнаружения и исправления ошибок,
[pic] (57)
где s - число исправляемых ошибок.
Для кодов, только исправляющих ошибки,
[pic] (58)
Для того чтобы определить кодовое расстояние между двумя комбинациями
двоичного кода, достаточно просуммировать эти комбинации по модулю 2 и
подсчитать число единиц в полученной комбинации.
Понятие кодового расстояния хорошо усваивается на примере построения
геометрических моделей кодов. На геометрических моделях в вершинах n-
угольников, где n-значность кода, расположены кодовые комбинации, а
количество ребер n-угольника, отделяющих одну комбинацию от другой, равно
кодовому расстоянию.
Если кодовая комбинация двоичного кода А отстоит от кодовой комбинации В
на расстоянии d, то это значит, что в коде А нужно d символов заменить на
обратные, чтобы получить код В, но это не означает, что нужно d добавочных
символов, чтобы код обладал данными корректирующими свойствами. В двоичных
кодах для обнаружения одиночной ошибки достаточно иметь 1 дополнительный
символ независимо от числа информационных разрядов кода, а минимальное
кодовое расстояние [pic]
Для обнаружения и исправления одиночной ошибки соотношение между числом
информационных разрядов [pic] и числом корректирующих разрядов [pic] должно
удовлетворять следующим условиям:
[pic] (59)
[pic] 60)
при этом подразумевается, что общая длина кодовой комбинации
[pic]. (61)
Для практических расчетов при определении числа контрольных разрядов
кодов с минимальным кодовым расстоянием [pic] удобно пользоваться
выражениями:
[pic] (62)
если известна длина полной кодовой комбинации п, и
[pic] (63)
если при расчетах удобнее исходить из заданного числа информационных
символов [pic][10].
Для кодов, обнаруживающих все трехкратные ошибки [pic]
[pic] (64)
или
[pic][pic] (65)
Для кодов длиной в п символов, исправляющих одну или две ошибки [pic]
[pic] (66)
Для практических расчетов можно пользоваться выражением
[pic] (67)
Для кодов, исправляющих 3 ошибки [pic]
[pic] (68)
Для кодов, исправляющих s ошибок [pic]
[pic] (69)
Выражение слева известно как нижняя граница Хэмминга [16], а выражение
справа – как верхняя граница Варшамова – Гильберта [3][11]
Для приближенных расчетов можно пользоваться выражением
[pic] (70)
Можно предположить, что значение [pic] будет приближаться к верхней границе
в зависимости от того, насколько выражение под знаком логарифма
приближается к целой степени двух.
Линейные групповые коды
Линейными называются коды, в которых проверочные символы представляют
собой линейные комбинации информационных символов.
Для двоичных кодов в качестве линейной операции используют сложение по
модулю 2.
Правила сложения по модулю 2 определяются следующими равенствами:
[pic]
Последовательность нулей и единиц, принадлежащих данному коду, будем
называть кодовым вектором.
Свойство линейных кодов: сумма (разность) кодовых векторов линейного кода
дает вектор, принадлежащий данному коду.
Линейные коды образуют алгебраическую группу по отношению к операции
сложения по модулю 2. В этом смысле они являются групповыми кодами.
Свойство группового кода: минимальное кодовое расстояние между кодовыми
векторами группового кода равно минимальному весу ненулевых кодовых
векторов.
Вес кодового вектора (кодовой комбинации) равен числу его ненулевых
компонентов.
Расстояние между двумя кодовыми векторами равно весу вектора, полученного
в результате сложения исходных векторов по модулю 2. Таким образом, для
данного группового кода
[pic].
Групповые коды удобно задавать матрицами, размерность которых
определяется параметрами кода [pic] и [pic]. Число строк матрицы равно
[pic], число столбцов равно [pic]+[pic]=[pic]:
[pic] (71)
Коды, порождаемые этими матрицами, известны как [pic]-коды, где [pic], а
соответствующие им матрицы называют порождающими, производящими,
образующими.
Порождающая матрица С может быть представлена двумя матрицами И и П
(информационной и проверочной). Число столбцов матрицы П равно [pic], число
столбцов матрицы И равно [pic]:
[pic] (72)
Теорией и практикой установлено, что в качестве матрицы И удобно брать
единичную матрицу в канонической форме:
[pic]
При выборе матрицы П исходят из следующих соображений: чем больше единиц в
разрядах проверочной матрицы П, тем ближе соответствующий порождаемый код к
оптимальному[12], с другой стороны, число единиц в матрице П определяет
число сумматоров по модулю 2 в шифраторе и дешифраторе, т. е. чем больше
единиц в матрице П, тем сложнее аппаратура.
Вес каждой строки матрицы П должен быть не менее [pic], где [pic] - вес
соответствующей строки матрицы И. Если матрица И - единичная, то [pic]
(удобство выбора в качестве матрицы И единичной матрицы очевидно: при [pic]
усложнилось бы как построение кодов, так и их техническая реализация).
При соблюдении перечисленных условий любую порождающую матрицу группового
кода можно привести к следующему виду:
[pic]
называемому левой канонической формой порождающей матрицы.
Для кодов с [pic]=2 производящая матрица С имеет вид
[pic]
Во всех комбинациях кода, построенного при помощи такой матрицы, четное
число единиц.
Для кодов с [pic] порождающая матрица не может быть представлена в форме,
общей для всех кодов с данным [pic]. Вид матрицы зависит от конкретных
требований к порождаемому коду. Этими требованиями могут быть либо минимум
корректирующих разрядов, либо максимальная простота аппаратуры.
Корректирующие коды с минимальным количеством избыточных разрядов
называют плотно упакованными или совершенными кодами.
Для кодов с [pic] соотношения п и [pic]. следующие: (3; 1), (7;4), (15;
11), (31; 26), (63; 57) и т. д.
Плотно упакованные коды, оптимальные с точки зрения минимума избыточных
символов, обнаруживающие максимально возможное количество вариантов ошибок
кратностью r + 1; r + 2 и т. д. и имеющие [pic]и [pic], были исследованы Д.
Слепяном в работе [10]. Для получения этих кодов матрица П должна иметь
комбинации с максимальным весом. Для этого при построении кодов с [pic]
последовательно используются векторы длиной п[pic], весом [pic]. Тем же
Слепяном в работе [11] были исследованы неплотно упакованные коды с малой
плотностью проверок на четность. Эти коды экономны с точки зрения простоты
аппаратуры и содержат минимальное число единиц в корректирующих разрядах
порождающей матрицы. При построении кодов с максимально простыми
шифраторами и дешифраторами последовательно выбираются векторы весом [pic]
= 2, 3, ..., [pic]. Если число комбинаций, представляющих собой
корректирующие разряды кода и удовлетворяющих условию [pic], больше [pic],
то в первом случае не используют наборы с наименьшим весом, а во втором - с
наибольшим.
Строчки образующей матрицы С представляют собой [pic] комбинаций искомого
кода. Остальные комбинации кода строятся при помощи образующей матрицы по
следующему правилу: корректирующие символы, предназначенные для обнаружения
или исправления ошибки в информационной части кода, находятся путем
суммирования по модулю 2 тех строк матрицы П, номера которых совпадают с
номерами разрядов, содержащих единицы в кодовом векторе, представляющем
информационную часть кода. Полученную комбинацию приписывают справа к
информационной части кода и получают вектор полного корректирующего кода.
Аналогичную процедуру проделывают со второй, третьей и последующими
информационными кодовыми комбинациями, пока не будет построен
корректирующий код для передачи всех символов первичного алфавита.
Алгоритм образования проверочных символов по известной информационной
части кода может быть записан следующим образом:
[pic]
В процессе декодирования осуществляются проверки, идея которых в общем виде
может быть представлена следующим образом:
[pic]
Для каждой конкретной матрицы существует своя, одна-единственная система
Страницы: 1, 2
|