Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции - Надежность информационных систем - файл 1.doc


Лекции - Надежность информационных систем
скачать (925 kb.)

Доступные файлы (1):

1.doc925kb.17.11.2011 17:20скачать

содержание
Загрузка...

1.doc

1   2   3   4   5   6
Реклама MarketGid:
Загрузка...
Классификация помехоустойчивых кодов
На рис. 4.1 приведена упрощённая классификация помехоустойчивых кодов [17]. Остановимся кратко на основных особенностях различных классов кодов. Помехоустойчивые (корректирующие) коды делятся на блочные и непрерывные.

 




Рис. 4.1

 Блочными называются коды, в которых информационный поток символов разбивается на отрезки и каждый из них преобразуется в определённую последовательность (блок) кодовых символов. В блочных кодах кодирование при передаче (формирование проверочных элементов) и декодирование при приёме (обнаружение и исправление ошибок) выполняются в пределах каждой кодовой комбинации (блока) в отдельности по соответствующим алгоритмам. Непрерывные или рекуррентные коды образуют последовательность символов, не разделяемую на отдельные кодовые комбинации. Кодирование и декодирование непрерывно совершаются над последовательностью элементов без деления их на блоки. Формирование проверочных символов ведётся по рекуррентным (возвратным) правилам, поэтому непрерывные коды часто называют рекуррентными цепными.

В простейшем цепном коде каждый проверочный элемент формируется путём сложения по модулю 2 соседних или отстоящих друг от друга на определённое число позиций информационных элементов. В канал связи передаётся последовательность импульсов, в которой за каждым информационным следует проверочный. Подобную чередующуюся последовательность разрядов имеет, например, корреляционный манчестерский код.

К непрерывным кодам относятся и свёрточные коды, в которых каждый информационный символ, поступающий на вход кодирующего устройства, вызывает появление на его выходе ряда проверочных элементов, образованных суммированием по модулю 2 данного символа и k-1 предыдущих информационных символов. Рекуррентные коды позволяют исправлять групповые ошибки («пачки») в каналах связи.

Блочные коды делятся на равномерные и неравномерные. В равномерных кодах, в отличие от неравномерных, все кодовые комбинации содержат одинаковое число n-символов (разрядов) с постоянной длительностью τ0 импульсов символов кода. Равномерные коды, в основном, и применяются в системах связи, так как это упрощает технику передачи и приёма.

Классическими примерами неравномерного кода являются: код Морзе, широко применяемый в телеграфии, и код Хафмена, применяемый для компрессии информации (факсимильная связь, ЭВМ).

Никаких специальных мер по исправлению и обнаружению ошибок в коде Морзе не предусматривается в связи с большой избыточностью самого передаваемого текста. В этом смысле, код Морзе не относится к классу корректирующих кодов.

Почти все блочные корректирующие коды принадлежат к разделимым кодам, в которых кодовые комбинации состоят из двух частей: информационной и проверочной. Их символы всегда занимают одни и те же позиции, т. е. располагаются на определенных местах. Как правило, в таких кодах, все кодовые комбинации которых содержат n символов, первые k символов являются информационными, а за ними располагаются (n-k) проверочных символов. В соответствии с этим разделимые коды получили условное обозначение – (n-k)-коды.

В неразделимых кодах деление на информационные и проверочные символы отсутствует. К таким кодам относятся, в частности, коды с постоянным весом, так называемые равновесные коды. Например, Международным консультативным комитетом по телеграфии и телефонам (МККТТ) рекомендован для использования телеграфный код № 3 – семиразрядный код с постоянным весом, т. е. с числом единиц в каждой кодовой комбинации, равным 3 (W = 3).

Систематические коды образуют наиболее обширную группу (n, k)-разделимых кодов. Особенностью этих кодов является то, что проверочные (корректирующие) символы образуются с помощью линейных операций над информационными. Кроме того, любая разрешённая кодовая комбинация может быть получена в результате линейной операции над набором k линейно независимых кодовых комбинаций. В частности, суммирование по модулю 2 двух и более разрешённых комбинаций также дает разрешённую кодовую комбинацию. Поскольку теоретической основой получения таких комбинаций является математический аппарат линейной алгебры, то коды и называют линейными,
а учитывая, что проверочные символы формируются по определённой системе (правилам), блочные равномерные разделимые линейные коды получили название систематических. Использование аппарата линейной алгебры, в которой важное значение имеет понятие «группа», породило и другое название этих кодов – групповые.

Эти коды получили наибольшее применение в системах передачи дискретной информации.

Несистематические (нелинейные) коды указанными выше свойствами не обладают и применяются значительно реже, в специальных случаях. Примером нелинейного кода является уже упоминавшийся неразделимый, равновесный код. Эти коды обычно используются в несимметричных каналах связи, в которых вероятность перехода 1 в 0 значительно больше вероятности перехода 0 в 1, или наоборот. В таких каналах очень маловероятно, чтобы в одном блоке были переходы обоих видов, и поэтому почти все ошибки приводят к изменению веса блока и, следовательно, обнаруживаются.

Другим примером несистематического кода является код с контрольным суммированием – итеративный код. В этом коде проверочные разряды формируются в результате суммирования значений разрядов, как в данной кодовой комбинации, так и одноимённых разрядов в ряде соседних с ней комбинаций, образующих совместный блок. Итеративные коды позволяют получить так называемые мощные коды, т. е. коды с длинными блоками и большим кодовым расстоянием при сравнительно простой процедуре декодирования. Итеративные коды могут строиться как комбинационные, посредством произведения двух или более систематических кодов.

К комбинационным кодам можно отнести также антифединговые коды, предназначенные для обнаружения и исправления ошибок в каналах с замираниями (федингом) сигналов. Для таких каналов с группированием ошибок применяют метод перемежения символов или декорреляции ошибок. Он заключается в том, что символы, входящие в одну кодовую комбинацию, передаются не непосредственно друг за другом, а перемежаются символами других кодовых комбинаций исходного систематического или любого другого кода. Если интервал между символами, входящими в одну кодовую комбинацию, сделать длиннее «памяти» (интервала корреляции) канала с замираниями, то в пределах длительности одной исходной кодовой комбинации группирования ошибок не будет. На приёме после обратной «расфасовки» в кодовых комбинациях можно производить декодирование с обнаружением и исправлением ошибок.

В систематических кодах различают два метода формирования проверочной группы символов: поэлементный и в целом.

Наиболее известны среди систематических кодов коды Хемминга, которые исторически были найдены раньше многих других кодов и сыграли большую роль в развитии теории корректирующих кодов. В этих кодах используется принцип проверки на чётность определённого ряда информационных символов. Проверочная группа из r символов формируется поэлементно по соответствующему алгоритму. Коды Хемминга, имеющие dmin = 3, позволяют исправить одну ошибку.

Расширенные коды Хемминга строятся в результате дополнения кодов
с dmin = 3 общей проверкой каждой из кодовых комбинаций на чётность, т. е. ещё одним проверочным символом. Это позволяет увеличить минимальное кодовое расстояние до dmin = 4.

Циклические коды также относятся к классу линейных систематических кодов и обладают всеми их свойствами. Коды названы циклическими потому, что циклический сдвиг любой разрешённой кодовой комбинации также является разрешённой комбинацией. Теория построения циклических кодов базируется на разделах высшей алгебры, изучающей свойства двоичных многочленов. Особую роль в этой теории играют так называемые неприводимые многочлены, т. е. полиномы, которые не могут быть представлены в виде произведения многочленов низших степеней. В связи с этим, циклические коды относят к разновидности полиномиальных кодов.

Среди циклических кодов особое место занимает класс кодов, предложенных Боузом и Рой-Чоудхури и независимо от них – Хоквингемом. Коды Боуза – Чоудхури – Хоквингема, БЧХ-коды отличаются специальным выбором порождающего (образующего) циклический код полинома, что приводит к простой процедуре декодирования.

В циклических кодах r проверочных символов, добавляемых к исходным k информационным, могут быть получены сразу, т. е. в целом, в результате умножения исходной подлежащей передаче кодовой комбинации Q(x) простого кода на одночлен xr и добавлением к этому произведению остатка R(x), полученного в результате деления произведения на порождающий полином Р(х).

Отметим, что коды Хемминга также можно получить по алгоритмам формирования циклических кодов.

Проблема помехоустойчивого кодирования представляет собой обширную область теоретических и прикладных исследований. Основными задачами при этом являются следующие: отыскание кодов, эффективно исправляющих ошибки требуемого вида; нахождение методов кодирования и декодирования
и простых способов их реализации.

Наиболее разработаны эти задачи применительно к систематическим кодам. Такие коды успешно применяются в вычислительной технике, различных автоматизированных цифровых устройствах и цифровых системах передачи информации.
^ Основные характеристики корректирующих кодов
В настоящее время наибольшее внимание, с точки зрения технических приложений, уделяется двоичным блочным корректирующим кодам. При использовании блочных кодов цифровая информация передаётся в виде отдельных кодовых комбинаций (блоков) равной длины. Кодирование и декодирование каждого блока осуществляется независимо друг от друга.

Почти все блочные коды относятся к разделимым кодам, кодовые комбинации которых состоят из двух частей: информационной и проверочной. При общем числе n символов в блоке число информационных символов равно k, а число проверочных символов

r = n - k.                                                     (4.2)

К основным характеристикам корректирующих кодов относятся:

- число разрешённых и запрещённых кодовых комбинаций (N0, Nk);

- избыточность кода (χ);

- минимальное кодовое расстояние (dmin);

- число обнаруживаемых или исправляемых ошибок (g0);

- корректирующие возможности кодов.

Для блочных двоичных кодов, с числом символов в блоках равным n, общее число возможных кодовых комбинаций определяется выражением

N0 = 2n.                                                  (4.3)

Число разрешённых кодовых комбинаций при наличии k информационных разрядов в первичном коде равно

Nk = 2k.                                                  (4.4)

Очевидно, что число запрещённых комбинаций равно:

Nз = N0 – Nk = 2n - 2k,                                      (4.5)

а с учётом (4.2) отношение будет:

N0 /Nk = 2n /2k = 2n-k = 2r,                                  (4.6)

где r – число избыточных (проверочных) разрядов в блочном коде.

Избыточностью корректирующего кода называют величину

χ = r/n = (n-k)/n = 1 – k/n = 1 – log2 Nk / log2 N0,                 (4.7)

откуда следует

Bk = k/n = 1 – χ.                                               (4.8)

Эта величина показывает, какую часть общего числа символов кодовой комбинации составляют информационные символы. В теории кодирования величину Bk называют относительной скоростью кода. Если производительность источника информации равна Н символов в секунду, то скорость передачи после кодирования этой информации окажется равной

B = H∙(k/n),                                               (4.9)

поскольку в закодированной последовательности из каждых n символов только k символов являются информационными.

Если число ошибок, которые нужно обнаружить или исправить, значительно, то необходимо иметь код с большим числом проверочных символов. Чтобы при этом скорость передачи оставалась достаточно высокой, необходимо в каждом кодовом блоке одновременно увеличивать как общее число символов, так и число информационных символов. При этом длительность кодовых блоков будет существенно возрастать, что приведёт к задержке информации при передаче и приёме. Чем сложнее кодирование, тем длительнее временная задержка информации.

Для того, чтобы можно было обнаружить и исправить ошибки, разрешённая комбинация должна как можно больше отличаться от запрещённой. Если ошибки в канале связи действуют независимо, то вероятность преобразования одной кодовой комбинации в другую будет тем меньше, чем большим числом символов они различаются.

Если интерпретировать кодовые комбинации как точки в пространстве, то отличие выражается в близости этих точек, т. е. в расстоянии между ними.

Количество разрядов (символов), которыми отличаются две кодовые комбинации, можно принять за кодовое расстояние между ними. Для определения этого расстояния нужно сложить две кодовые комбинации по модулю 2 и подсчитать число единиц в полученной сумме. Например, две кодовые комбинации xi = 01011 и  xj  = 10010 имеют расстояние d(xi, xj), равное 3, так как

xi = 01011 имеет W = 3,  xj = 10010 имеет W = 2.

Заметим, что кодовое расстояние d(xj, x0) между комбинацией xj и нулевой (х0 = 00…0) называют весом W комбинации xi, т. е. вес xi равен числу «1» в ней.

xi  xj = 11001   →    d(xj, xj) = 3.                         (4.10)

Под операцией «» понимается сложение по модулю 2).

Расстояние между различными комбинациями некоторого конкретного кода могут существенно отличаться. Так, в частности, в безызбыточном первичном натуральном коде (n = k) это расстояние для различных комбинаций может изменяться от единицы до величины n, равной значности кода. Особую важность для характеристики корректирующих свойств кода имеет минимальное кодовое расстояние dmin, определяемое при попарном сравнении всех кодовых комбинаций, которое называют расстоянием Хемминга.

В безызбыточном коде все комбинации являются разрешёнными, и, следовательно, его минимальное кодовое расстояние равно единице – dmin = 1. Поэтому достаточно исказиться одному символу, чтобы вместо переданной комбинации была принята другая разрешённая комбинация. Чтобы код обладал корректирующими свойствами, необходимо ввести в него некоторую избыточность, которая обеспечивала бы минимальное расстояние между любыми двумя разрешёнными комбинациями не менее двух – dmin ≥ 2.

Минимальное кодовое расстояние является важнейшей характеристикой помехоустойчивых кодов, указывающей на гарантируемое число обнаруживаемых или исправляемых заданным кодом ошибок.

При применении двоичных кодов учитывают только дискретные искажения, при которых единица переходит в нуль (1 → 0) или нуль переходит в единицу (0 → 1). Переход 1→ 0 или 0 → 1 только в одном элементе кодовой комбинации называют единичной ошибкой (единичным искажением). В общем случае, под кратностью ошибки подразумевают число позиций кодовой комбинации, на которых под действием помехи одни символы оказались заменёнными на другие. Возможны двукратные (g = 2) и многократные (g > 2) искажения элементов в кодовой комбинации в пределах 0 ≤ g ≤ n.

Минимальное кодовое расстояние является основным параметром, характеризующим корректирующие способности данного кода. Если код используется только для обнаружения ошибок кратностью g0, то необходимо и достаточно, чтобы минимальное кодовое расстояние было равно

dmln ≥ g0 + 1.                                               (4.11)

В этом случае никакая комбинация из g0 ошибок не может перевести одну разрешённую кодовую комбинацию в другую разрешённую. Таким образом, условие обнаружения всех ошибок кратностью g0 можно записать в виде:

g0 ≤ dmin1.                                             (4.12)

Чтобы можно было исправить все ошибки кратностью gi и менее, необходимо иметь минимальное расстояние, удовлетворяющее условию:

dmin ≥ 2 ∙ gu + 1.                                          (4.13)

В этом случае любая кодовая комбинация с числом ошибок gu отличается от каждой разрешённой комбинации не менее чем в gu + 1 позициях. Если условие (4.13) не выполнено, возможен случай, когда ошибки кратности g исказят переданную комбинацию так, что она станет ближе к одной из разрешённых комбинаций, чем к переданной или даже перейдёт в другую разрешённую комбинацию. В соответствии с этим, условие исправления всех ошибок кратностью не более gu можно записать в виде:

gu ≤ (dmin – 1)/2.                                         (4.14)

Из (4.11) и (4.13) следует, что если код исправляет все ошибки кратностью gu, то число ошибок, которые он может обнаружить, равно g0 = 2 ∙ gu. Следует отметить, что соотношения (4.11) и (4.13) устанавливают лишь гарантированное минимальное число обнаруживаемых или исправляемых ошибок при заданном dmin и не ограничивают возможность обнаружения ошибок большей кратности. Например, простейший код с проверкой на чётность с dmin = 2 позволяет обнаруживать не только одиночные ошибки, но и любое нечётное число ошибок в пределах g0 n.

При независимых ошибках полная вероятность ошибки кратности g, учитывающая все сочетания ошибочных символов определяется выражением [8]:

,                                   (4.15)

где   ;

 – вероятность искажения одного символа.

Отсюда вероятность отсутствия ошибок в кодовой комбинации, т. е. вероятность правильного приема равна

                                              (4.16)

и вероятность правильного корректирования ошибок равна

.                         (4.17)

Здесь суммирование производится по всем значениям кратности ошибок g, которые обнаруживаются и исправляются. Таким образом, вероятность некорректируемых ошибок будет равна

.       (4.18)

Анализ формулы (4.18) показывает, что при малой величине P0  и небольших значениях n, наиболее вероятны ошибки малой кратности, которые необходимо корректировать в первую очередь.

Вопрос о минимально необходимой избыточности, при которой код обладает нужными корректирующими свойствами, является одним из важнейших в теории кодирования. Этот вопрос до сих пор не получил полного решения. В настоящее время получен лишь ряд верхних и нижних оценок (границ), которые устанавливают связь между максимально возможным минимальным расстоянием корректирующего кода и его избыточностью.

Так, граница Плоткина даёт верхнюю границу кодового расстояния dmin при заданном числе разрядов n в кодовой комбинации и числе информационных разрядов k, и для двоичных кодов:

dmin ≤ (n ∙2 ∙ k – 1 ) ∕ (2 ∙ k -1)                                  (4.19)

или

r ≥ 2 ∙ (dmin - 1) – log2 dmin,                                    (4.20)

при n ≥ 2 ∙ dmin – 1.

Верхняя граница Хемминга устанавливает максимально возможное число разрешённых кодовых комбинаций (2k) любого помехоустойчивого кода при заданных значениях n и dmin:

,                                         (4.21)

где  – число сочетаний из n элементов по i элементам.

Отсюда можно получить выражение для оценки числа проверочных символов:

.                                       (4.22)

Для значений (dmin / n) ≤ 0,3 разница между границей Хемминга и границей Плоткина сравнительно невелика.

Граница Варшамова – Гильберта для больших значений n определяет нижнюю границу для числа проверочных разрядов, необходимого для обеспечения заданного кодового расстояния:

.                                       (4.23)

Отметим, что для некоторых частных случаев Хемминг получил простые соотношения, позволяющие определить необходимое число проверочных символов:

r ≥ log2 (n + 1) для  dmin = 3;

r ≥ log2 (2 ∙ n) для  dmin = 4.

Блочные коды с dmin = 3 и 4 в литературе обычно называют кодами Хемминга.

Все приведённые выше оценки дают представление о верхней границе числа dmin при фиксированных значениях n и k или оценку снизу числа проверочных символов r при заданных k и dmin.

Существующие методы построения избыточных кодов решают, в основном, задачу нахождения такого алгоритма кодирования и декодирования, который позволял бы наиболее просто построить и реализовать код с заданным значением dmin. Поэтому различные корректирующие коды при одинаковых dmin сравниваются по сложности кодирующего и декодирующего устройств. Этот критерий является, в ряде случаев, определяющим при выборе того или иного кода.
^ Корректирующие коды Хемминга
Построение кодов Хемминга базируется на принципе проверки на чётность веса W (числа единичных символов) в информационной группе кодового блока.

Поясним идею проверки на чётность на примере простейшего корректирующего кода, который так и называется, кодом с проверкой на чётность или кодом с проверкой по паритету (равенству).

В таком коде к кодовым комбинациям безызбыточного первичного двоичного k-разрядного кода добавляется один дополнительный разряд (символ проверки на чётность, называемый проверочным, или контрольным). Если число символов «1» в исходной кодовой комбинации чётное, то в дополнительном разряде формируют контрольный символ «0», а если число символов «1» нечётное, то в дополнительном разряде формируют символ «1». В результате общее число символов «1» в любой передаваемой кодовой комбинации всегда будет чётным.

Таким образом, правило формирования проверочного символа cводится
к следующему:

r1 = i1  i2  . . .  ik,

где i – соответствующий информационный символ (0 или 1); k – общее их число, а под операцией  здесь и далее понимается сложение по модулю 2.

Очевидно, что добавление дополнительного разряда увеличивает общее число возможных комбинаций вдвое по сравнению с числом комбинаций исходного первичного кода, а условие чётности разделяет все комбинации на разрешённые и неразрешённые. Код с проверкой на чётность позволяет обнаруживать одиночную ошибку при приёме кодовой комбинации, так как такая ошибка нарушает условие чётности, переводя разрешённую комбинацию в запрещённую.

Критерием правильности принятой комбинации является равенство нулю результата S суммирования по модулю 2 всех n символов кода, включая проверочный символ ri. При наличии одиночной ошибки S принимает значение 1:

S = r1  i1  i2  . . .  ik = 0 – ошибки нет;

S = r1  i1  i2  . . .  ik  = 1 – однократная ошибка.

Этот код является (k + 1, k)-кодом, или (n, n - 1)-кодом. Минимальное расстояние кода равно двум (dmin = 2), и, следовательно, никакие ошибки не могут быть исправлены. Простой код с проверкой на чётность может использоваться только для обнаружения (но не исправления) однократных ошибок.

Увеличивая число дополнительных проверочных разрядов и формируя по определённым правилам проверочные символы r, равные 0 или 1, можно усилить корректирующие свойства кода так, чтобы он позволял не только обнаруживать, но и исправлять ошибки. На этом и основано построение кодов Хемминга. Рассмотрим эти коды, позволяющие исправлять одиночную ошибку, с помощью непосредственного описания. Для каждого числа проверочных символов r = 3, 4, 5... существует классический код Хемминга с маркировкой

(n, k) = (2r1, 2r1 - r),                                    (4.24)

т. е. – (7,4), (15,11), (31,26).

При других значениях числа информационных символов k получаются так
называемые усечённые (укороченные) коды Хемминга. Так, для международного телеграфного кода МТК-2, имеющего 5 информационных символов, потребуется использование корректирующего кода (9,5), являющегося усечённым от классического кода Хемминга (15,11), так как число символов в этом коде уменьшается (укорачивается) на 6. Для примера рассмотрим классический код Хемминга (7,4), который можно сформировать и описать с помощью кодера, представленного на рис. 4.2.



Рис. 4.2

 

 

В простейшем варианте при заданных четырёх (k = 4) информационных символах (i1, i2, i3, i4) будем полагать, что они сгруппированы в начале кодового слова, хотя это и не обязательно. Дополним эти информационные символы тремя проверочными символами (r = 3), задавая их следующими равенствами проверки на чётность, которые определяются соответствующими алгоритмами

r1 = i1  i2  i3;

r2 = i2  i3  i4;

r3 = i1  i2  i4,

где знак «» означает сложение по модулю 2.

На рис. 4.3 приведена схема декодера для (7,4)-кода Хемминга, на вход которого поступает кодовое слово:

V = (i1, i2, i3, i4 , r1, r2, r 3).

Апостроф означает, что любой символ слова может быть искажён помехой в канале передачи.



Рис. 4.3

 

 

В декодере, в режиме исправления ошибок, строится последовательность:

s1 = r1’   i1  i2  i3;

s2 = r2   i2  i3  i4;

s3 = r3’   i1  i2  i4.

Трёхсимвольная последовательность (s1, s2, s3) называется синдромом. Термин «синдром» используется и в медицине, где он обозначает сочетание признаков, характерных для определённого заболевания. В данном случае синдром S = (s1, s2, s3) представляет собой сочетание результатов проверки на чётность соответствующих символов кодовой группы и характеризует определённую конфигурацию ошибок (шумовой вектор).

Кодовые слова кода Хемминга для k = 4 и r = 3 приведены в табл. 4.1.

Число возможных синдромов определяется выражением

S = 2r.                                                   (4.25)

При числе проверочных символов r = 3, имеется восемь возможных синдромов (23 = 8). Нулевой синдром (000) указывает на то, что ошибки при приёме отсутствуют или не обнаружены. Всякому ненулевому синдрому соответствует определённая конфигурация ошибок, которая и исправляется. Классические коды Хемминга (4.20) имеют число синдромов, точно равное их необходимому числу, позволяют исправить все однократные ошибки в любом информативном и проверочном символах и включают один нулевой синдром. Такие коды называются плотноупакованными.

 

Таблица 4.1

k = 4

r = 3

i1

i2

i3

i4

r1

r2

r3

0

0

0

0

0

0

0

0

0

0

1

0

1

1

0

0

1

0

1

1

0

0

0

1

1

1

0

1

0

1

0

0

1

1

1

0

1

0

1

1

0

0

0

1

1

0

0

0

1

0

1

1

1

0

1

0

1

0

0

0

1

0

1

1

0

0

1

1

1

0

1

0

1

0

0

1

1

1

0

1

1

0

0

0

1

1

0

0

0

1

0

1

1

0

1

0

0

1

1

1

1

1

1

0

0

1

1

1

1

1

1

1

 

Усечённые коды являются неплотноупакованными, так как число синдромов у них превышает необходимое. Так, в коде (9,5) при четырёх проверочных символах число синдромов будет равно 24 = 16, в то время как необходимо всего 10. Лишние 6 синдромов свидетельствуют о неполной упаковке кода (9,5).

Для рассматриваемого кода (7,4) в табл. 4.2 представлены ненулевые синдромы и соответствующие конфигурации ошибок.

Таблица 4.2

Синдром

 

001

 

010

 

011

 

100

 

101

 

110

 

111

 

Конфигурация ошибок

 

0000001

 

0000010

 

0001000

 

0000100

 

1000000

 

0010000

 

0100000

 

Ошибка в символе

 

r3

r2

i4

r1

i1

i3

i2

 

Таким образом, код (7,4) позволяет исправить все одиночные ошибки. Простая проверка показывает, что каждая из ошибок имеет свой единственный синдром. При этом возможно создание такого цифрового корректора ошибок (дешифратора синдрома), который по соответствующему синдрому исправляет соответствующий символ в принятой кодовой группе. После внесения исправления проверочные символы ri можно на выход декодера не выводить. Две или более ошибки превышают возможности корректирующего кода Хемминга, и декодер будет ошибаться. Это означает, что он будет вносить неправильные исправления и выдавать искажённые информационные символы.

Идея построения подобного корректирующего кода, естественно, не меняется при перестановке позиций символов в кодовых словах. Все такие варианты также называются (7,4) кодами Хемминга.

 

1   2   3   4   5   6



Скачать файл (925 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru