Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции - Формирование и передача сигналов - файл ФИПС. Конспект лекций.doc


Лекции - Формирование и передача сигналов
скачать (285.8 kb.)

Доступные файлы (1):

ФИПС. Конспект лекций.doc2770kb.10.01.2005 16:23скачать

содержание
Загрузка...

ФИПС. Конспект лекций.doc

  1   2   3   4
Реклама MarketGid:
Загрузка...
Министерство транспорта Российской Федерации

Федеральное государственное образовательное учреждение

высшего профессионального образования

Волжская государственная академия водного транспорта


Кафедра информатики, систем управления

и телекоммуникаций


А.В.Преображенский


ФОРМИРОВАНИЕ И ПЕРЕДАЧА СИГНАЛОВ.

КОНСПЕКТ ЛЕКЦИй


Учебное пособие


Издательство ФГОУ ВПО ВГАВТ

Н. Новгород, 2005


УДК 621.37

П 91


А.В. Преображенский. Формирование и передача сигналов. Конспект лекций. Учебное пособие. Н. Новгород: изд-во ФГОУ ВПО ВГАВТ, 2005.-89 с.


Учебное пособие предназначено для студентов высших учебных заведений водного транспорта, обучающихся по специальности «техническая эксплуатация транспортного радиооборудования». Содержание пособия соответствует требованиям Государственного образовательного стандарта высшего профессионального образования.

Рассмотрены вопросы представления сигналов, генерации и усиления колебаний. Дано описание основ теории информации, принципов кодирования источника и канала, способов формирования широкополосных сигналов и построения многоканальных систем связи. Приведены примеры применения методов формирования сигналов в современных системах радионавигации и связи с подвижными объектами.

Рекомендовано к изданию кафедрой Информатики, систем управления и телекоммуникаций Волжской государственной академии водного транспорта 17. 12. 04, протокол № 4.

Рецензенты:

  • кафедра Электроники и сетей ЭВМ Нижегородского государственного технического университета, зав. кафедрой академик МАИ проф. В.Г. Баранов и проф., д.т.н. В.Р. Милов,

  • генеральный конструктор Нижегородского научно-исследовательского института радиотехники, лауреат Государственных премий РФ доцент, к.т.н. А.А. Зачепицкий.


 ФГОУ ВПО ВГАВТ, 2005.


1. Основные задачи формирования

и передачи сигналов


В данном курсе рассматриваются сигналы, используемые в радиотехнических системах и системах электросвязи. Радиотехнические системы по назначению разделяют на системы: передачи информации (радиосвязь, телеметрия, радио и телевещание), извлечения информации (РЛС, РНС, радиоастрономия, радио и радиотехническая разведка), разрушения информации, радиоуправления. Электросвязь - это системы звукового и телевизионного вещания, телефон, телеграф, передача документов (факс), радиовызов (пейджинг), электронная почта и т.д. Классификация систем достаточно условна: одна и та же система может выполнять разные функции, один и тот же канал связи используется одновременно разными системами.







Основные классификационные признаки сигналов: периодичность- непериодичность, непрерывность-дискретность, детерминированность-случайность. По виду сигналов различают системы непрерывные, импульсные (с дискретизацией сигналов по времени) и цифровые (с дискретизацией сигналов по времени и квантованием по уровню).


Некоторые этапы формирования сигналов в цифровой системе передачи сообщений представлены на рис.1 Сообщение выдается источником в виде буквенно-цифрового текста или аналогового "первичного" сигнала (с микрофона, видеокамеры, датчика системы управления и т.д). Кодер источника форматирует сообщение, представляя в форме, необходимой для цифровой обработки: последовательностью двоичных знаков 0 и 1 (битов). Количество знаков 0 и 1 в этой последовательности может быть сокращено при рациональном кодировании, устраняющем "избыточность". То, что это возможно при текстовых сообщениях, следует хотя бы из того, что один и тот же текст на разных языках содержит разное количество знаков. При передаче сигналов звука и изображения широко применяются методы кодирования источника с предсказанием последующих значений сигнала по предыдущим и передачей вместо абсолютных значений сигнала ошибок его предсказания или, по крайней мере, изменений сигнала по отношению к предыдущим значениям.

В канале связи сигнал искажается под влиянием ряда факторов. Это собственный тепловой шум приемной аппаратуры, нелинейные и линейные искажения вследствие неидеальности характеристик элементов системы, атмосферные, индустриальные и даже преднамеренные помехи, замирания сигнала из-за многолучевого распространения и т.д. Искажения сигнала в цифровых системах приводят к ошибкам. Значительное число ошибок может быть обнаружено и даже исправлено применением корректирующих кодов. Кодер канала добавляет к "информационным" битам сообщения проверочные биты таким образом, чтобы из всех возможных кодовых комбинаций можно было выделить заведомо ошибочные и заменить их на "ближайшие" разрешенные, считающиеся "правильными". Помехоустойчивые коды применяются с учетом характера типовых ошибок в конкретной системе связи. В результате работы кодеров передатчика формируется последовательность двоичных знаков (0,1), представленных разными уровнями напряжения (или тока). Соответствующий сигнал является последовательностью однополярных или разнополярных импульсов (видеоимпульсов). Различные варианты такого представления называют кодами канала, кодированием "в основной полосе частот", "узкополосной модуляцией".

Сигнал с выхода кодера управляет одним или несколькими параметрами высокочастотного (ВЧ) колебания (амплитудой, частотой, фазой). Эта процедура называется модуляцией. В цифровых системах процесс модуляции часто называют манипуляцией. Способ модуляции выбирают таким образом, чтобы обеспечить наиболее достоверную передачу сообщения. Параметры ВЧ-колебания устанавливаются модулятором в зависимости от бита двоичной последовательности или "символа" - группы из “к” бит. Эта группа содержит М=2к разных кодовых комбинаций, так что модулирумый параметр ВЧ-колебания может принимать М различных значений. Такой способ передачи сигналов, в отличие от двоичного (бинарного) называется М-арным, а скорость передачи измеряется в бодах - количестве переданных символов в единицу времени (секунду).

Демодулятор и декодеры выполняют преобразования сигнала, обратные модуляции и кодированию.

Схема рис.1 отражает только часть операций формирования сигналов. Для обеспечения конфиденциальности сообщений может потребоваться шифрование. В многоканальных системах после канального кодирования производится уплотнение - формирование группового сигнала из сигналов нескольких источников. Кодирование и модуляция могут выполняться в несколько этапов с использованием различных способов. В системе имеются средства для разрешения конфликтов различных пользователей при одновременном обращении к одному каналу и обеспечения взаимной синхронизации передатчика и приемника.

Основными требованиями к системам связи являются: высокая скорость передачи сообщений, измеряемая в бит/c или бодах, многоканальность, малая вероятность ошибки передачи бита или символа (в цифровых системах), защита от несанкционированного доступа, простая аппаратная реализация.

Принципиальные сложности при передаче сигналов: расширение спектра сигнала при увеличении скорости передачи сообщений и увеличение вероятности ошибки при уменьшении отношения сигнал- шум. Существует понятие объема (емкости) сигнала Vc= Tc Fc Нс, где Тс- время передачи сигнала, Fс- ширина спектра сигнала, Нс- превышение уровня сигнала над помехой. Объем (емкость) канала Vк выражается произведением аналогичных величин, характеризующих возможности канала. Сообщение можно успешно передать при условии Vc<Vk. В случае несоответствия отдельных параметров сигнала и канала может быть найден компромисс путем рационального выбора методов кодирования и модуляции.

Компромисс легче достигается в цифровых системах. У них выше помехоустойчивость, проще регенерация сигнала, возможно применение кодов, корректирующих ошибки. Нет проблем с длительным запоминанием сигнала. Благодаря высокой помехоустойчивости удается плотнее разместить каналы в полосе частот и, соответственно, полнее использовать пропускную способность физического канала. Аппаратная реализация цифровых устройств проще, чем аналоговых, выше степень интеграции микроэлектронных схем и унификация, а следовательно дешевле аппаратура. Есть возможность применения сложных алгоритмов обработки сигналов.


^ 2. Основные характеристики сигналов


Для описания процессов формирования и передачи сигналов необходимы математические модели сигналов и элементов систем. Детерминированные сигналы описываются в двух основных формах: временной и частотной. В качестве моделей элементов систем используются дифференциальные и конечно-разностные уравнения в обычной и матричной формах, передаточные функции и характеристики: переходная h(t) и импульсная переходная g(t). Это реакции на единичный скачок 1(t) и короткий импульс, описываемый  - функцией.


^ 2.1. Временная форма представления сигнала


Математической моделью сигнала является функция времени s(t). При описании прохождения сигнала через линейный элемент используется импульсная переходная характеристика элемента g(t). Сигнал s(t) разделяется на короткие элементарные импульсы. На рис.2 для примера показаны отклики на 2 импульса. В результате суммирования откликов получается сигнал на выходе элемента. При бесконечно малой длительности элементарных импульсов суммирование сводится к интегрированию:



Выражение (1), записанное в двух вариантах выбора переменной интегрирования, называют интегралом наложения, сверткой функций s(t) и g(t), интегралом Дюамеля.


Рис.2

’








S(t-)=S(’)

0

t

g() s(t-)





^ 2.2. Частотная форма представления

периодического сигнала


Периодический сигнал s(t) представляют в виде ряда Фурье - суммы гармонических составляющих. Такое представление удобно для линейных систем, поскольку в них справедлив принцип суперпозиции, реакция на гармоническое воздействие находится простым умножением входного сигнала, представленного в комплексной форме, на комплексный коэффициент передачи системы, а собственные движения системы являются гармоническими функциями.

Гармонический сигнал представляют в разных формах:



называемых соответственно амплитудно-фазовой (A -амплитуда, (t) - полная фаза, 0 - начальная фаза), квадратурной и экспоненциальной (комплексной). Последняя основана на формуле Эйлера и позволяет представить гармоническое колебание как сумму двух комплексно-сопряженных чисел, или вращающихся в противоположные стороны векторов (рис. 3). Вращение векторов в разные стороны описывается введением понятия отрицательной частоты. Мгновенная частота связана с полной фазой соотношением (t) = d(t)/dt , так что отрицательная частота означает уменьшение фазы. Применение экспоненциальной формы упрощает математические преобразования гармонических сигналов.




Рис.3


Ряд Фурье представляют в амплитудно-фазовой, тригонометрической и экспоненциальной формах:










где 1=2/T - частота первой гармоники, Т и n - период и номер гармоники, ряд значений An и n - спектры амплитуд и фаз, Cn - комплексные амплитуды, содержащие информацию и о спектре амплитуд, и о спектре фаз. В комплексном спектре спектр амплитуд Cn является четной функцией, спектр фаз – нечетной. Входящие в (3, 4 ) величины связаны между собой соотношениями





(5)

В качестве примера найдем комплексный спектр последовательности прямоугольных импульсов с началом отсчета времени по фронту импульса (рис. 4а).



При =T/2



(7)

Согласно (7) спектры амплитуд Cn  и фаз n :




(8)








На рис. 4 показаны действительная и мнимая части комплексных коэффициентов Cn ряда (7) - (б, в), спектр амплитуд (г) и фаз (д).

Вид спектра фаз зависит от начала отсчета времени. При начале отсчета времени от середины импульса имеем





(9)

В данном случае функция s(t) четная и ее комплексный спектр чисто действительный. Соответствующий спектр фаз при  = T/2, указывающий знак комплексной амплитуды, показан на рис. 4е.

Рис. 4 представляет "двусторонний" спектр амплитуд и фаз с использованием отрицательных частот. В "одностороннем" спектре рассматриваются только положительные частоты, при этом амплитуды спектральных составляющих увеличиваются в 2 раза. На рис. 5 представлен односторонний спектр амплитуд последовательности прямоугольных импульсов. Через амплитудно-фазовую форму спектра данный сигнал выражается следующим образом




(10)








Периодический сигнал предполагается имеющим бесконечную длительность, следовательно и бесконечную энергию. Поэтому его характеризуют не энергией, а средней за период мощностью, зависящей только от спектра амплитуд:




(11)

При этом предполагается, что сигнал представлен напряжением или током, действующим на сопротивлении в 1 Ом.

Спектр фаз не имеет значения в задачах, где рассматриваются только энергетические соотношения, но важен в процессах передачи информации.

^ 2.3. Спектр непериодического сигнала.

Преобразование Фурье.


Непериодический сигнал, имеющий конечную длительность Т, можно характеризовать его энергией, которая ограничена, поэтому такой сигнал называют иногда "энергетическим". Как видно из рис.5, при Т  будет получен "сплошной" спектр одиночного импульса, в котором спектральные линии расположены бесконечно близко друг к другу. Такой спектр описывается непрерывной спектральной функцией S(), являющейся преобразованием Фурье сигнала s(t):




(12)

Обратное преобразование




(13)

При конечной длительности Т непериодического сигнала интегрирование в (12) производится на интервале от -T/2 до T/2 , так что формулы (3) и (12) отличаются только множителем и



(14)

где f1 - частота первой гармоники, равная частотному интервалу между соседними линиями спектра периодического сигнала. Следовательно, спектральная функция сигнала конечной длительности имеет тот же вид, что и огибающая линейчатого спектра периодического повторения этого сигнала.

Спектральную функцию S(), имеющую размерность [амплитуда/Гц], называют также плотностью амплитуд, спектральной плотностью, а иногда и просто спектром. Величина  S() 2 имеет физический смысл плотности энергии, т.е. энергии, приходящейся на полосу частот в 1 Гц, а полная энергия непериодического сигнала




(15)

Отметим некоторые выводы, следующие из преобразования Фурье.

Спектральная функция  -функции равномерна на всех частотах и равна 1. Это следует непосредственно из определения (12).

Спектр выходного сигнала устройства является произведением спектра входного сигнала на комплексный коэффициент передачи устройства. Т.к. спектральная функция  - импульса равна 1, спектром импульсной переходной характеристики устройства является его комплексный коэффициент передачи.


Рис.6



Прямое и обратное преобразование Фурье (12) и (13) отличаются только множителем и знаком частоты в показателе экспоненты. При переходе от переменной  к f множитель исчезает, а знак при  не имеет значения для четных функций, у которых S()=S(-) . Это означает, что переменные t и f в формулах (12) и (13), а следовательно и на графиках, представляющих сигнал и его спектральную функцию, взаимозаменяемы. Если прямоугольный импульс (рис. 6а) имеет спектральную функцию вида sinx/x (рис.6б), то прямоугольный спектр рис.6в соответствует импульсу рис. 6г. Следовательно, короткий импульс, проходя через фильтр с частотной характеристикой рис. 6в, примет форму рис. 6г и не будет равен 0 даже при t - . Невозможность появления отклика на импульс ранее прихода самого импульса означает неосуществимость фильтра с прямоугольной частотной характеристикой вида рис. 6 в.

При уменьшении длительности сигнала его спектр расширяется. Это видно, в частности, из приведенных выше примеров. Понятие ширины спектра достаточно условно, т.к. любой реальный сигнал имеет неограниченный спектр. Практическую, "эффективную" ширину спектра определяют разными способами, в частности, как полосу положительных частот, в которой сосредоточена основная доля энергии сигнала (например, 50%, 95%), или как ширину главного лепестка спектральной функции (при "многолепестковом" спектре).


е-0,5 0,606



Произведение длительности сигнала  на ширину его одностороннего спектра f называется базой сигнала. Независимо от способа определения ширины спектра, при грубых оценках считается, что для видеосигналов база

B =  f  1. Например, для прямоугольного импульса f=1/  (ширина главного лепестка АЧХ в области положительных частот) и В= 1. Минимальной базой обладает "гауссов" импульс (рис.7):



Его база f = 1/, если эффективную длительность и ширину спектра определять по уровню e-0,5  0,606.


^ 2.4. Спектр дискретизированного сигнала


Дискретизация сигнала может привести к его существенному искажению. Как видно из примера, приведенного на рис. 8, сигналы с частотой 4 и 6 Гц, в случае опросов с частотой 5 Гц, воспринимаются как сигнал с частотой 1 Гц. При спектральной функции непрерывного сигнала, показанной на рис. 8 сплошной линией, спектр дискретизированного сигнала содержит бесконечный ряд показанных пунктиром копий спектра исходного сигнала, сдвинутых на nfт , где n - целое число, fт - частота опросов (тактовая). При достаточно высокой частоте дискретизации наложение копий незначительно и исходный сигнал можно восстановить соответствующей фильтрацией. В случае существенного наложения копий спектра восстановление исходного сигнала без искажений невозможно.












На рис. 9 приведены спектры некоторых сигналов. Спектр постоянного сигнала, опрашиваемого с периодом Т - это бесконечный ряд  -функций - копий спектра постоянного сигнала - рис.9а. Такой же спектр имеет бесконечный ряд  - импульсов.

Ограниченное число отсчетов можно рассматривать как опросы прямоугольного импульса, соответствующий спектр является повторением копий спектральной функции одиночного импульса - рис.9б. Такой же спектр имеет ограниченная последовательность  - импульсов.

Ограниченную последовательность прямоугольных импульсов можно считать результатом прохождения пачки  - импульсов через устройство с прямоугольной импульсной переходной характеристикой. Следовательно, спектр пачки прямоугольных импульсов является произведением спектра пачки  - импульсов на комплексный коэффициент передачи устройства, равный спектральной функции прямоугольного импульса (рис 9в).


^ 2.5. Характеристики случайных сигналов


Все сигналы, несущие информацию, появляются в приемном устройстве случайным образом: приемник "не знает" заранее, какой символ сообщения был передан. Под влиянием разнообразных случайных факторов принятый сигнал оказывается искаженным, так что один переданный символ может быть принят за другой. Чтобы повысить достоверность передачи информации, необходимо учитывать количественные статистические характеристики сигналов при выборе способов их формирования.

Математическую модель случайного сигнала называют случайной функцией или случайным процессом. В результате опыта случайная функция принимает заранее неизвестный конкретный вид, называемый реализацией случайного процесса, или выборочной функцией. Эта функция не случайная.

Примеры выборочных функций xi(t) случайной функции X(t) приведены на рис. 10. Множество всех выборочных функций, которое можно представить только мысленно, называется ансамблем. Значения выборочных функций ансамбля, соответствующие конкретному моменту времени t , являются случайной величиной, называемой сечением случайной функции.

Напомним основные, наиболее часто используемые характеристики случайных величин. Функция распределения вероятности дискретной или непрерывной случайной величины F(x) = р(X< x) - это вероятность того, что случайная величина X принимает значение меньше x. Функция плотности распределения вероятности непрерывной случайной величины р(x) = dF(x)/dx. Величина р(х)dх – это вероятность попадания случайной величины в интервал (х, х+dх). Математическое ожидание (среднее значение) и дисперсия непрерывной случайной величины




X(t)


t







Среднеквадратичное отклонение (СКО)  = является мерой разброса значений случайной величины.

Математическое ожидание и дисперсия случайной функции - это не случайные функции, образованные значениями математического ожидания и дисперсии сечений случайной функции в различные моменты времени. Математическое ожидание случайной функции показано на рис. 10а жирной линией. Разность случайной функции и ее математического ожидания называется центрированной случайной функцией.

Многие практически важные случайные процессы, начиная с некоторого момента времени, могут рассматриваться как установившиеся, стационарные. Математическое ожидание, дисперсия и распределение вероятностей любого сечения стационарной случайной функции не зависят от времени, что значительно упрощает описание процесса. Однако этих характеристик явно недостаточно. На рис. 10 б,в приведены примеры реализации двух случайных процессов с одинаковыми значениями математического ожидания и дисперсии, но разных по характеру. Случайная функция (б) описывает более низкочастотный процесс, в котором последующие значения сильнее зависят от предыдущих, чем в процессе (в). Степень взаимозависимости значений случайной функции, относящихся к различным моментам времени t1 и t2, описывают корреляционной функцией, которая определяется в общем случае как усредненное произведение центрированных значений случайной функции X(t) в моменты времени t1 и t2 :



(16)

Функция (16) при не центрированных значениях случайной величины называется ковариационной. Корреляционная функция стационарного случайного процесса зависит только от временного интервала

 =  t2-t1 , а не абсолютного времени:



В системах связи для описания стационарного случайного процесса, как правило, достаточно среднего значения и корреляционной функции. Процесс называют стационарным в узком (строгом) смысле, если все его статистические характеристики не зависят от начала отсчета времени. Если этим свойством обладают математическое ожидание и корреляционная функция, процесс называют стационарным в широком смысле.

Стационарная функция называется эргодической, если ее характеристики, полученные при исследовании одной реализации на достаточно длительном интервале времени, будут такие же, как при исследовании ансамбля реализаций. Неэргодическим является стационарный процесс, который может происходить в разных модификациях в зависимости от каких-то факторов, не связанных с временем. В частности, процесс рысканья судна на заданном курсе описывается неэргодической случайной функцией. Ее характер зависит от состояния окружающей среды. Об эргодичности процесса обычно судят на основании физических соображений.

Для процесса, эргодического по отношению к среднему значению и корреляционной функции,




(17)

Значение корреляционной функции при  = 0 равно дисперсии процесса. Нормированная корреляционная функция равна отношению R() к D. Величина



называется интервалом корреляции.

На практике интегралы (17) вычисляются как конечные суммы на некотором интервале времени Т. Шаг дискретизации по времени выбирается с учетом характера случайного процесса. Интервал времени Т должен быть достаточно большим для достижения приемлемой точности вычислений.

Спектральный состав случайного сигнала описывается спектральной плотностью мощности. Спектральная плотность мощности случайного сигнала (спектр мощности, энергетический спектр) - это средняя мощность, приходящаяся на полосу в 1 Гц. Понятие спектра мощности можно ввести следующим образом. Если S() – преобразование Фурье реализации случайного процесса длительности Т, то величина S()2 имеет физический смысл энергии, а S()2 /T - средней мощности данной реализации, приходящейся на полосу 1 Гц. Величина lim S()2 /T (T), усредненная по ансамблю реализаций, будет спектральной плотностью мощности случайного сигнала P(). Ее вычисление производится через корреляционную функцию на основании теоремы Винера - Хинчина, согласно которой энергетический спектр и корреляционная функция связаны между собой преобразованием Фурье:



Использование комплексной формы записи преобразования Фурье в данном случае излишне, т.к. функции R() и P() четные и вещественные. Приведем характеристики некоторых случайных сигналов.

^ Гауссов процесс. Это стационарная случайная функция, значения которой в любой момент времени характеризуются нормальным (гауссовым) законом распределения вероятности



где х - среднее значение, 2 - дисперсия. Гауссов процесс очень часто используется как модель случайного сигнала. Дело в том, что случайный сигнал обычно зависит от многих случайных взаимно независимых и равнозначных факторов. Согласно центральной предельной теореме распределение вероятностей такого процесса приближается к нормальному. Спектральный состав гауссова процесса может быть любым.

^ Белый шум. Это стационарный случайный процесс с одинаковой на всех частотах спектральной плотностью мощности N0 (односторонней). Автокорреляционная функция белого шума R() = N0 (). Такими характеристиками обладает сигнал, составленный из бесконечно малых по длительности импульсов. Во многих случаях можно считать, что в пределах ограниченной полосы пропускания реального устройства спектр помехи равномерен и ее можно принять за белый шум. Белый шум является, в частности, моделью теплового шума, вызванного хаотическим движением электронов в проводниках. Обычно считают, что белый шум является гауссовым процессом.

^ Случайный телеграфный сигнал. Этот сигнал принимает значения +1 и -1 в случайные моменты времени (рис.11). В среднем происходит  изменений сигнала в единицу времени. Вероятность появления m перепадов сигнала за интервал  описывается законом Пуассона



Вычислим корреляционную функцию этого сигнала. Будем предполагать, что сигнал опрашивается с шагом  по времени, i - номер опроса, N - количество опросов. Тогда  = k и



где p+ и p- -вероятности того, что произведение xi xi+k равно +1 и -1 соответственно. Величина xi xi+k принимает значения +1 и -1 в зависимости от того, четное или нечетное число перепадов сигнала произошло на интервале времени . Вероятность любого четного числа (m=2n ) и нечетного числа (m=2n+1) перепадов равна соответственно



Используя разложение в ряд



получим



Спектральная плотность мощности











^ 3. Методы модуляции


Модуляция - это процесс управления одним или несколькими параметрами высокочастотного (ВЧ) колебания. Управляющим является сигнал, несущий информацию. В аналоговых системах используются амплитудная модуляция (АМ) и угловая модуляция в двух модификациях: фазовая (ФМ) и частотная (ЧМ). Методы модуляции, применяемые в цифровых системах, более разнообразны. Передача цифрового сигнала по проводу может выполняться без использования высокочастотного колебания, при этом сигналам, представленным знаками 1 и 0, придают определенную форму. Этот процесс называют модуляцией в основной полосе частот.


^ 3.1. Амплитудная модуляция.


При амплитудной модуляции информационный сигнал s(t) управляет амплитудой ВЧ-колебания с несущей частотой 0 (рис.12). Рассмотрим два варианта управления амплитудой:

а) SАМ(t) = s(t) cos 0 t , б) SАМ(t) = [U0 + s(t)] cos 0 t, s(t)<U0. (18)

Сигналы (18) при однотональном модулирующем сигнале можно представить следующим образом:



М-коэффициент глубины модуляции. Спектры амплитуд этих сигналов показаны на рис. 13а. Если модулирующий сигнал занимает полосу частот, в спектре АМ- сигнала вместо частот 0  появятся две симметричные относительно 0 боковые полосы - верхняя и нижняя (рис.13б). Это явление, происходящее при любом виде модулирующего сигнала, называют переносом спектра в область высоких частот. Спектр модулированного сигнала симметричен относительно несущей частоты, его ширина 2max, где max – максимальная частота спектра модулирующего сигнала, а огибающая боковой полосы повторяет форму спектра модулирующего сигнала. Сигнал (18 -а) называется сигналом с двумя боковыми полосами и подавлением несущей (ДБП-ПН), сигнал (18 -б) - с двумя боковыми полосами и передаваемой несущей (ДБП-Н).






Практически чаще применяется сигнал ДБП-Н. Энергетически он менее выгоден, т.к. основная часть мощности тратится на передачу несущей, не содержащей информации, но его проще демодулировать. Это делается выделением огибающей с помощью выпрямителя (выпрямленный сигнал показан на рис.12 жирной линией) и фильтра низкой частоты. При модуляции (18а) огибающая искажается, если модулирующий сигнал двухполярный. Необходимо применять более сложную демодуляцию, синхронизируясь по фазе с несущей частотой. При модуляции (18б) таких искажений не происходит. В многоканальных системах связи с частотным разделением каналов широко применяются сигналы с одной боковой полосой и подавлением несущей (ОБП-ПН). Для выделения одной боковой полосы приходится применять в передатчике сложные полосовые фильтры и восстанавливать несущую в приемнике для осуществления демодуляции. Зато достигается значительный выигрыш по мощности и полосе. В телевидении используются сигналы с частичным подавлением боковой полосы (ДБП-ЧП). Для сохранения исходного спектра сигнала необходимо, чтобы характеристика среза фильтра была симметрична относительно несущей частоты.


^ 3.2. Угловая модуляция.


При угловой модуляции происходят относительно небольшие изменения периода несущего колебания под влиянием информационного сигнала s(t). Эти изменения можно представить и как результат введения добавки к частоте ВЧ-колебания =ks(t) – частотная модуляция (ЧМ) , и как результат введения добавки к фазе =ks(t) – фазовая модуляция (ФМ). Покажем это на примере однотонального модулирующего сигнала s(t)=cost , используя соотношение (t)=d(t)/dt. Изменение фазы =mcos t означает изменение частоты  = -m sin t , а изменение частоты  =mcost означает изменение фазы  = (m/)sint. Следовательно,



(19)

Из (19 ) следует, что сигналы с ФМ и ЧМ можно представить в единой форме



Индекс угловой модуляции m имеет физический смысл девиации фазы - ее максимального отклонения под влиянием информационного сигнала. При фазовой модуляции девиация фазы ВЧ-колебания (m=m ) не зависит от частоты модулирующего сигнала, а девиация частоты (m=m) пропорциональна частоте модулирующего сигнала. При частотной модуляции девиация частоты m не зависит от частоты модулирующего сигнала, а девиация фазы m =m/=m обратно-пропорциональна частоте модулирующего сигнала.

Сигнал с однотональной угловой модуляцией можно представить следующим образом:



Здесь использованы разложения в ряд Фурье



Коэффициенты в этих рядах - функции Бесселя первого рода. Они немонотонны (рис.14), поэтому при изменении индекса модуляции некоторые гармоники увеличиваются, а некоторые уменьшаются и могут обращаться в 0. Примеры амплитудных спектров приведены на рис. 15. Ширину спектра сигнала с угловой модуляцией приблизительно оценивают как

2 (m+max) = 2 max(m+1), где max - максимальная частота спектра модулирующего сигнала. При m<0,5 она такая же, как у сигнала с амплитудной модуляцией.


Рис.14


1

J0






^ 3.3. Модуляция в основной полосе частот


В цифровых системах информация представляется последовательностью двоичных знаков 1 и 0. Соответствующие этим знакам сигналы, передаваемые внутри электронной аппаратуры или в проводных системах связи, имеют вид импульсов и называются сигналами с импульсно-кодовой модуляцией (ИКМ). Т.к. при этом не используется высокочастотное несущее колебание, такой вид модуляции называют также модуляцией в основной полосе частот, или узкополосной модуляцией.

Полоса пропускания канала ограничена со стороны высоких и низких частот (из-за наличия разделительных конденсаторов и трансформаторов), поэтому фронты импульсных сигналов сглаживаются, а постоянная составляющая не пропускается. В результате возникают межсимвольные искажения: влияние предыдущих знаков передаваемой двоичной последовательности на вид текущего сигнала. Уровень искажений удобно наблюдать на "глазковой" диаграмме. На вход канала (или его модели) подается синхронная последовательность сигналов, соответствующих случайному двоичному коду. Глазковая диаграмма получается наложением участков осциллограммы выходного сигнала канала, равных по длительности нескольким тактовым (битовым) интервалам.

Примеры глазковых диаграмм приведены на рис. 16. Межсимвольные искажения вызывают джиттер - расширение области межуровневых переходов и "закрытие" глазка - размывание и взаимное сближение верхнего и нижнего уровней сигнала. В результате усложняется тактовая синхронизация - определение моментов опроса сигнала и снижается помехоустойчивость.

Уровень межсимвольных искажений зависит как от характеристик канала, так и от принятого способа модуляции - кода канала. К нему предъявляется ряд требований, в частности:

а) отсутствие постоянной составляющей, иначе уровень сигнала будет "плавать" в зависимости от расположения знаков 1 и 0 в последовательности,

б) свойство самосинхронизации - возможность формировать тактовые импульсы по фронтам принятого сигнала,

в) узкополосность и помехоустойчивость.


Рис.16

t


Известно большое число кодов канала, наилучших по отдельным показателям. Некоторые примеры приведены на рис.17. Коды (1-2) – «без возврата к 0», т.е. сигнал сохраняет свой уровень в течение всего такта - длительности бита. Вариант (1) типичен для цифровых логических схем. Знакам 0 и 1 соответствуют разные уровни сигнала. В варианте (2) при знаке 0 уровень сигнала сохраняется, а при знаке 1 изменяется на противоположный. Т.к. уровень сигнала определяется не абсолютным значением бита, а разницей соседних битов, такое кодирование называют дифференциальным. Коды (3-5) – «с возвратом к 0», т.е. к прежнему уровню сигнала в этом же такте. В варианте (3) однополярный импульс формируется только при появлении знака 1, в варианте (4) единице и нулю соответствуют импульсы разной полярности, в варианте (5) происходит чередование полярности при появлении знака 1, а при появлении знака 0 импульс не формируется.


1 0 1 1 0 0 0 1 1 0

(1)


(2)


(3)


(4)


(5)


(6)


(7)


Рис.17



При «фазовом» кодировании знаки 1 и 0 определяют направление изменения уровня сигнала. В манчестерском коде (6) знаку 1 соответствует изменение уровня с + на -, знаку 0 с - на +. В результате при знаке 1 импульс положительной полярности формируется в первой половине такта, при знаке 0 - во второй половине. В коде (7) при знаке 1 полярность сигнала изменяется, при знаке 0 формируется положительный перепад сигнала в середине такта.

Коды (2-5) применяются при записи на магнитную ленту. Из них свойством самосинхронизации обладает код (4). Код (5) применяется в телефонных системах, существуют его модификации с установкой дополнительных единиц после серий нулей для упрощения синхронизации. Коды с фазовой кодировкой самосинхронизующиеся. Особенно хорошо синхронизуется код (7). Он применяется в высокоскоростных системах.

Импульсно-кодовая модуляция - далеко не единственный способ кодирования цифровых сигналов в проводных линиях связи. Широко применяется передача знаков 1 и 0 сигналами определенных частот, разных для прямого и обратного каналов. При частотно-компактном кодировании исходная битовая последовательность делится на m-битовые группы. Каждой возможной битовой комбинации ставится в соответствие по таблице набор символов из троичного алфавита 0,+1,-1, где 0 - отсутствие сигнала, +1 и -1 - полупериоды синусоиды противоположных знаков. Может быть несколько разных таблиц, используемых по очереди.

Межсимвольные искажения отсутствуют, если величина сигнала в момент опроса текущего символа не зависит от соседних символов. Найквист доказал две теоремы, определяющие условия отсутствия межсимвольных искажений. Первая утверждает: если короткие импульсы с частотой следования fs = 1/Ts подаются в идеальный канал с частотой среза

fN =fs/2 , то отклики на эти импульсы можно наблюдать независимо. Идеальным считается канал с характеристиками, показанными на рис. 18: АЧХ прямоугольная, ФЧХ линейная. Рис. 19 иллюстрирует реакцию такого канала на  -импульс: при выполнении условий теоремы в точке максимального отклика на данный импульс отклики на любые другие импульсы равны 0. Согласно второй теореме, межсимвольные искажения отсутствуют не только при идеальной частотной характеристике канала, но и при характеристике, симметричной относительно частоты среза.

Реальный импульс имеет конечную длительность, а идеальный фильтр практически неосуществим. Тем не менее теоремы имеют большое значение, т.к. указывают, какая характеристика фильтра является предпочтительной. Что касается условия малой длительности входных импульсов, то оно не принципиально. Если пропустить последовательность импульсов длительности  через корректирующий фильтр с частотной характеристикой, обратной огибающей спектра прямоугольного импульса, т.е. имеющей вид f /sin(f), спектр станет равномерным - как у  -импульса, и условия теоремы будут выполнены.

В качестве желаемой частотной характеристики канала, к которой стараются приблизиться при проектировании систем связи, часто используют функцию "приподнятого косинуса":



где Ts -длительность бита,  = 0…1 - коэффициент скругления.




Характеристика приподнятого косинуса представлена на рис.20. Чем круче спад частотной характеристики, тем больше джиттер. При =0,3 он равен 36%, при =1 практически отсутствует.






^ 3.4. Амплитудно-фазовая манипуляция


Модуляцию цифровым сигналом часто называют манипуляцией. При амплитудно-фазовой манипуляции символы сообщения (m-битовые кодовые комбинации) управляют амплитудой и начальной фазой ВЧ-колебания постоянной частоты. Такой метод модуляции особенно хорош для каналов с ограниченной полосой. В частных случаях может меняться только амплитуда (амплитудная модуляция) или только фаза (фазовая модуляция). Ансамбли сигналов, соответствующих всем возможным символам, представляют "сигнальной диаграммой" (рис.21). Радиус-вектор точки диаграммы указывает амплитуду сигнала, аргумент этого вектора - фазу сигнала. Использование прямоугольной (квадратурной) конфигурации (рис.21б) позволяет сформировать любой сигнал ансамбля как сумму двух квадратурных - сдвинутых относительно друг друга на 90 сигналов, имеющих малое число градаций амплитуды.


Рис.21




Ансамбль сигналов строится таким образом, чтобы обеспечить максимально возможное "расстояние" между сигналами. Соответствие между двоичным кодом и точкой сигнальной диаграммы устанавливается следующим образом. Двоичный код переводится в код Грея, характеризующийся тем, что при изменении двоичного кода на единицу младшего разряда в соответствующем коде Грея меняется только один разряд. Код Грея формируется суммированием без переносов двоичного кода с собственной копией, сдвинутой на разряд вправо. Точкам сигнальной диаграммы ставятся в соответствие коды Грея таким образом, чтобы коды соседних точек отличались только в одном разряде. Благодаря этому при наиболее вероятной ошибке - перепутывании "соседних" сигналов ошибка двоичного кода минимальна: равна единице младшего разряда.


Q

I

Qsin0t

Icos0t

Рис.22

0 1



Простейшим вариантом амплитудно-фазовой манипуляции является двоичная фазовая манипуляция 2ФМ, при которой знакам 1 и 0 соответствуют сигналы одинаковой частоты и амплитуды, но разной фазы: 0 и . Это так называемые противоположные, или антиподные сигналы. Соответствующие векторы сигнальной диаграммы являются зеркальным отображением друг друга (рис.22а).

Широкое распространение получила квадратурная фазовая манипуляция 4ФМ с сигнальной диаграммой рис.22б. Модулированный сигнал формируется как сумма косинусоидальной (синфазной) и синусоидальной (квадратурной) составляющих: s(t) = I cos0t + Q sin0t с коэффициентами I и Q, принимающими значения +1 или -1 в соответствии со знаками 1 или 0 двоичной последовательности. Эта последовательность разделяется логической схемой на дибиты - группы по 2 знака. Первый бит дибита определяет знак I - составляющей, второй - Q - составляющей. Как видно из рис. 22, на границах дибитов при смене знаков составляющих происходят скачки фазы, расширяющие спектр сигнала и вызывающие внеполосное излучение. Фаза суммарного сигнала может меняться на 180. Скачки фазы снижаются до 90 при квадратурной модуляции со сдвигом благодаря тому, что Q - составляющую смещают на битовый период Tb = Ts / 2. В результате исключается одновременное изменение знаков составляющих I и Q. Сигналы со сдвигом фазы 90, представленные взаимно перпендикулярными векторами, являются ортогональными. Функция взаимной корреляции ортогональных сигналов равна 0.

Фазоманипулированный сигнал демодулируется когерентным или автокорреляционным способом. В обоих случаях применяется корреляционный приемник, содержащий устройство умножения принимаемого сигнала x(t) на опорный сигнал sоп(t) и интегратор, являющийся фильтром низкой частоты. При когерентной демодуляции фазоманипулированного сигнала опорный сигнал должен быть в фазе с несущим колебанием принятого сигнала. Сигнал на выходе корреляционного приемника



где t0 момент начала интегрирования, Т – время интегрирования, обычно равное длительности символа Тs.,  - фазовый сдвиг принятого сигнала относительно своей несущей, содержащий информацию о переданном символе. Для определения значения  необходимо, чтобы второе слагаемое в (20) было много меньше первого. Это условие выполняется, когда Т1/0 или время интегрирования кратно полупериоду несущей. В последнем случае sin(0T)=0 и второе слагаемое в (20) обращается в 0 независимо от момента начала интегрирования.

Структуру когерентного демодулятора сигналов с квадратурной модуляцией представляет рис.23. Блок «восстановления несущей» формирует опорный сигнал, синхронизованный по фазе с несущей частотой принятого сигнала. Блок «восстановления тактовой» определяет моменты опроса выходного сигнала интегратора и сброса интегратора с учетом временных границ символов. Демодулятор содержит два корреляционных приемника с квадратурными опорными сигналами. Если генераторы приемника и передатчика точно синхронизованы, сигналы I и Q на выходах интеграторов, согласно (20), принимают значения ATs/2. Кодам дибита 00, 01, 10, 11 соответствуют следующие комбинации знаков сигналов I и Q: --, -+, +-, ++. Равенство сигналов I, Q по абсолютной величине является необходимым, но не достаточным признаком синхронизации генераторов приемника и передатчика.

Проблемы, возникающие при восстановлении несущей в когерентном демодуляторе, проще пояснить на примере модуляции 2ФМ. Если принятый сигнал пропустить через элемент с квадратичной характеристикой, будет получен сигнал удвоенной частоты. Деление этой частоты на 2 восстановит несущую, но будет неизвестно, в фазе она с несущей принятого сигнала или сдвинута на 180. Неопределенность фазы можно снять, зная содержание синхропосылки, передаваемой перед сообщением. Однако


Q- нечётные

биты

010 ...

I-чётные

биты

+/-

cos 0t

sin 0t

+/-

Модулятор 4ФМ

Восстановление несущей

Восстановление

тактовой

cosω0t

sinω0t





Когерентный демодулятор 4ФМ

ПФ

Рис.23

I

Q



после одиночного сбоя во время передачи все последующие символы будут ошибочными. Вероятность сбоя фазы на высоких частотах велика: на частоте 1 ГГц длина волны 30 см и даже незначительные перемещения антенны, например из-за ветра, меняют фазу сигнала.

Чтобы избежать сложностей, возникающих при восстановлении несущей, используют автокорреляционную демодуляцию. В автокорреляционном демодуляторе опорным является сам принятый сигнал, задержанный на длительность символа Ts , т.е. сигнал, соответствующий предыдущему символу. За время прохождения одного или нескольких символов фаза несущей не успевает измениться, так что сигналы, соответствующие соседним символам, практически когерентны. Работу автокорреляционного демодулятора сигналов 4ФМ поясняет рис.24. Демодулятор содержит два канала. Каналы I и Q отличаются тем, что в канале Q задержанный на Ts входной сигнал дополнительно сдвигают по фазе на 90.





На рис. 24б показаны все возможные фазовые соотношения входных сигналов xi и xi-1 , соответствующих текущему и предыдущему символам, а также значения выходных сигналов I и Q. Во всех случаях по знакам сигналов I и Q определяется однозначно разность фаз xi и xi-1 , т.е. последующий символ по предыдущему. Автокорреляционный демодулятор выдает информацию не об абсолютном значении текущего символа, а о его изменении по отношению к предыдущему. Поэтому такой способ демодуляции называют дифференциальным.


Относительный

кодер

ai

модулятор

xi

xi=ai+xi-1

Демодулятор

относительный декодер

yi

ai*=yi+yi-1

Рис.25

1 ai 01111010

2 xi 01001011

3 yi 01001011

4 ai* 01101110

5 yi 01010100

6 ai* 01111110

7 yi 01011011

8 ai* 01110110

опорный

известный бит

ai*



При обычном кодировании, в случае сбоя фазы восстановленной несущей при когерентной демодуляции, а также при появлении одного ошибочного знака на выходе автокорреляционного демодулятора, все последующие знаки становятся ошибочными. Чтобы устранить это явление, применяют относительное кодирование, которое называют дифференциальным. Рис.25 поясняет алгоритм относительного кодирования в случае модуляции 2ФМ. Алгоритм относительного кодирования при модуляции 4ФМ сложнее. На рис.25 ai - входная последовательность двоичных знаков, xi, yi, a*i - последовательности на выходах относительного кодера, демодулятора и относительного декодера соответственно. Кодер и декодер являются сумматорами по модулю 2. Кодер заменяет каждый текущий бит сообщения его суммой с предыдущим битом. Первый бит, «опорный», при относительном кодировании должен быть априорно известным.

Последовательности 1-4 представляют безошибочную работу канала. В последовательности 5 демодулятор исказил все знаки, начиная с четвертого (ошибочные знаки выделены жирным шрифтом) . При этом на выходе декодера (последовательность 6) ошибочным оказывается только один знак (четвертый). При одиночной ошибке демодулятора (последовательность 7, четвертый знак) относительный декодер дает ошибку в двух знаках (последовательность 8, знаки 4, 5). Исключение возможности "обратной" работы канала является важным достоинством относительного кодирования.


^ 3.5. Частотная манипуляция


При частотной М-арной манипуляции М разных символов сообщения передаются на М разных частотах, получаемых перестройкой или переключением генераторов. Соседние частоты отличаются на величину f=2fd, где fd - девиация частоты. Демодулятор содержит М корреляционных приемников с разными опорными частотами. Для нормальной работы приемника необходимо, чтобы сигналы разных частот были взаимно ортогональны. Тогда ненулевой сигнал будет на выходе только одного корреляционного приемника, у которого частоты принятого и опорного сигналов совпадают. Выясним, при каком условии сигналы разных частот ортогональны, т.е.



Интеграл от первого слагаемого пренебрежимо мал, т.к. i+j1. Интеграл от второго слагаемого – величина площади, заштрихованной на рис.26. Она равна 0 при любом значении t0 , если время интегрирования Ts кратно периоду разностной частоты f=fi-fj , т.е. Ts =m/(2fd), где индекс модуляции m - целoе числo (рис. 26а). Следовательно, при целом m1 можно осуществить некогерентную демодуляцию ЧМ-сигнала с помощью корреляционного приемника без фазовой синхронизации опорных сигналов с принимаемым сигналом. В демодуляторе необходимо иметь два квадратурных канала для каждой частоты (рис.26в). Входной сигнал, фаза которого может быть любой, будет частично коррелировать с опорным сигналом sinit, частично с сигналом cosit . Выход приемника может иметь любую полярность, поэтому перед суммированием сигналы обоих каналов проходят устройство возведения в квадрат. Известны и другие способы некогерентной демодуляции ЧМ-сигналов. Например, с использованием полосовых фильтров и детекторов огибающей. Фильтрацию осуществляют цифровым способом.

Для увеличения скорости передачи сообщений без расширения полосы сигнала желательно уменьшить Ts при том же значении fd . Как видно из рис.26б, ортогональность сигналов разных частот сохранится при минимальном значении Ts = 1/(4fd) (индекс модуляции 0,5), если интегрирование начать в момент, когда cos2(fi-fj)t0=1, т.е. фазы сигналов oдинаковы. Это означает, что опорный сигнал должен быть синхронизован с принимаемым и демодуляция когерентная. Такая возможность реализуется при двоичной (Ts =Tb) частотной модуляции с «минимальным частотным сдвигом». В этом случае частотно модулированный сигнал можно представить как квадратурный:





Рис.26

Ts cos(i - j)t Ts


t t


t0 t0


а 1/f б 1/f










c амплитудами I и Q , изменяющимися по гармоническому закону



При одинаковых знаках амплитуд формируется сигнал частоты 0 - d , при разных - частоты 0 + d.

Для изменения частоты следует изменять знак одной из гармонических функций I или Q в момент завершения битового интервала Tb. Чтобы не было скачков фазы, изменение знака функции должно происходить в момент ее перехода через нулевое значение. Эти моменты следуют через полупериод частоты d , равный, при условии Tb = 1/(4fd), двум битовым интервалам Tb. На одном из них можно изменять знак функции I, на другом - знак функции Q. Пример приведен на рис. 27. Нечетные биты определяют знак I -составляющей , четные - знак Q - составляющей. Если принять t = 0 в начале нулевого интервала Tb , то на интервалах № 0 и 1

I = - cos d t, Q = - sin d t , в результате формируется сигнал частоты

fн=f0 - fd. Изменения частоты ( fн на fв=f0+fd и f в на fн ) происходят при изменении знака функции I на переходах к интервалам №7, 9 и знака функции Q на переходах к интервалам № 4, 6.



Tb

0 1 2 3 4 5 6 7 8 9

0 1 1 0 1 1 1 1 0 1









Частотную манипуляцию с минимальным сдвигом можно рассматривать как квадратурную модуляцию со сдвигом, в которой модулирующие двоичные сигналы проходят предмодуляционную фильтрацию: преобразуются в синусоидальные импульсы. Благодаря этому боковые максимумы спектральной функции сигнала с минимальным частотным сдвигом спадают быстрее, чем при квадратурной модуляции и квадратурной модуляции со сдвигом. Основной максимум спектральной функции сигнала с минимальным частотным сдвигом на 50 % шире, чем при квадратурной модуляции.

Чтобы как можно сильнее сузить спектр сигнала - уменьшить ширину главного лепестка и ускорить спад боковых лепестков спектра, в системах с частотной манипуляцией применяют гауссову фильтрацию: модулирующему импульсу, до его поступления на устройства формирования огибающих I и Q, придают форму гауссова импульса. В системах с гауссовой частотной манипуляцией сигнал с выхода гауссова фильтра (ГФНЧ) непосредственно управляет частотой генератора, управляемого напряжением. В этих системах индекс модуляции может выбираться в широком диапазоне (0,1<m<1). В системах с гауссовой частотной манипуляцией и минимальным частотным сдвигом гауссовы огибающие I и Q формируются ПЗУ, при этом условие m=0,5 строго выполняется.


^ 3.6. Основные показатели эффективности

методов формирования сигналов


К системам связи предъявляют противоречивые требования: обеспечение высокой скорости и помехоустойчивости передачи сообщений при узкой частотной полосе и малой мощности сигнала. Основными показателями эффективности цифровой системы являются спектральная эффективность, вероятность битовой ошибки и удельные энергетические затраты. Характер взаимосвязи этих показателей зависит от принятых в системе способов формирования сигналов.

^ Спектральная эффективность - это величина Rb / П - отношение скорости передачи сообщения Rb в битах/c к ширине частотной полосы П сигнала в Гц. При двоичном кодировании длительность передачи одного бита Tb равна длительности сигнала Ts , Rb = 1/Ts и Rb/П =1/(TsП). База сигнала ПTs  1 , так что Rb/П  1. При М-арном кодировании сигнал

длительности Ts несет информацию о log2 M битах сообщения, т.е.

Rb= (log2 M)/Ts. Если используется амплитудно-фазовая модуляция, полоса П не зависит от М. Если используется частотная манипуляция, полоса сигнала равна МП. Следовательно,



соответственно при амплитудно-фазовой и частотной манипуляции. Таким образом, спектральную эффективность можно увеличить, применяя амплитудно-фазовую модуляцию с М-арным кодированием. При этом расстояние между соседними сигналами уменьшается и для сохранения высокой помехоустойчивости необходимо увеличить мощность сигнала.

^ Вероятность битовой ошибки ре оценивают следующим образом. Каждому символу сообщения соответствует определенное значение некоторого параметра а, характеризующего уровень принятого сигнала. Из-за влияния шума измеренное приемником значение а будет случайным с нормальным, как предполагается, законом распределения. На рис. 28 а1 и а2 - теоретические значения параметра а, соответствующего соседним сигналам s1 и s2 , функции p1(x) и p2(x) - вероятности получить в приемнике значение x параметра а при условии передачи сигналов s1 и s2 соответственно. Параметр а* отождествляется приемником с сигналом s2 , хотя





получен при передаче сигнала s1 . Вероятность ошибки, равная заштрихованной площади,



зависит от расстояния между сигналами а2 - а1 и уровня шума, характеризуемого дисперсией 2 = N0/2 , N0 - спектральная плотность мощности шума.

Функция Q табулирована, для получения численного значения ре необходимо знать значение (a2 - a1)/(2 ). Для того, чтобы можно было сравнивать по величине ре различные способы формирования сигнала, безразмерную величину (a2 - a1)/(2 ) выражают через удельные энергетические затраты.

^ Удельные энергетические затраты Eb / N0 - это отношение энергии, приходящейся на 1 бит, к спектральной плотности мощности шума. Чтобы установить связь энергетических затрат с величиной а2 1 , оценим величину параметра "а" при когерентном приеме противоположных (двоичных) и ортогональных сигналов с помощью корреляционного приемника. Сигнал на выходе приемника



где Ai , i и Aоп , оп - параметры принимаемого и опорного сигналов (гармонических), Ts - длительность символа. Будем предполагать, что опорный сигнал имеет единичную энергию. Тогда



и при противоположных сигналах



при ортогональных сигналах



(см.рис.29). Если кодирование двоичное, Es=Eb и вероятность битовой ошибки при противоположном и ортогональном кодировании равна соответственно



Значения функции pb (Eb / N0) рассчитаны для различных способов формирования сигнала: при двоичном и М-арном кодировании, фазовой и частотной манипуляции, когерентном, автокорреляционном и некогерентном обнаружении и т. д. Два примера для двоичных систем приведено на рис.30.

Помехоустойчивое кодирование уменьшает вероятность ошибки и позволяет снизить удельные энергетические затраты. Теоретический предел этому снижению устанавливает теорема Шеннона, доказанная для гауссова канала, в котором шум имеет нормальное распределение вероятностей и равномерную спектральную плотность. Согласно этой теореме



где S/N - отношение мощности сигнала к мощности шума. Теорему можно пояснить следующим образом. Число бит информации, содержащейся в сигнале при М-арном кодировании, равно log2 M, а максимальное значение М - это по существу число градаций сигнала, различимых при заданной ширине спектра и средней мощности сигнала. Это число пропорционально отношению S/N. Поскольку S= Eb / Tb и N=N0П, выражение (20) можно представить как



(22)

где C = maxRb - пропускная способность канала, или максимально возможная скорость передачи информации в бит/с. График зависимости




Pb

1


10-2 2


10-4 1


10-6


0 8 16 , дБ

Рис.30

  1. Фазовая модуляция, когерентное обнаружение.

  2. Частотная модуляция, некогерентное обнаружение.

C/П от Eb /N0 показан на рис. 31. Точки указывают соотношение параметров Eb /N0 и Rb/П при вероятности битовой ошибки 10-5 в случае М-арных когерентной фазовой манипуляции и некогерентной частотной манипуляции, последние помечены знаком "х". Рядом с точкой указано значение М. Из (22) следует



Это предел Шеннона: передачу сообщений в принципе нельзя осуществить без ошибок, если Eb/N0 меньше указанного предела.

Как следует из приведенных данных, увеличение спектральной эффективности при той же вероятности ошибки достигается повышением энергетических затрат. Фазовая манипуляция предпочтительнее с точки зрения повышения спектральной эффективности, частотная манипуляция - с точки зрения снижения энергетических затрат. Спектральная эффективность квадратурной фазовой манипуляции (М=4) выше, чем двоичной (М=2) при тех же энергетических затратах. Частотная манипуляция 2ЧМ энергетически менее эффективна, чем 4ЧМ. При выборе компромиссного решения учитывается конкретная цена ресурсов мощность-полоса, зависящая от типа системы.



Недоступная область


64


16

8


4


-1,6 12 24 36




^ 4. Основные понятия теории информации


При построении систем связи возникает задача минимизации количества знаков, необходимых для передачи сообщения. Чтобы решить эту задачу "кодирования источника", необходимо дать определение понятиям "источник сообщения" и "количество информации". Источник сообщения определяют как объект, принимающий определенное состояние из некоторого множества. Состояния помечены знаками x1, x2,…, xm. Набор из m знаков, соответствующих всем возможным состояниям, составляет "алфавит" объема m. Состояние xi появляется с "априорной" вероятностью pi . Таким образом, источник характеризуется матрицей



Сообщение - это указание состояния, которое объект принял.

По виду распределения pi можно судить об уровне неопределенности состояний. Если все состояния равновероятны, неопределенность (непредсказуемость) состояния объекта максимальна и сообщение, снимающее эту неопределенность, наиболее ценно, наиболее информативно. Естественно связать понятие количества информации со степенью неопределенности объекта. Количественная мера неопределенности должна удовлетворять следующим достаточно очевидным требованиям: а) монотонно возрастать в зависимости от m (больше состояний - больше неопределенность), б) принимать максимальное значение при равновероятных состояниях, в) суммироваться при увеличении числа независимых источников. В качестве такой меры неопределенности источника Шеннон предложил величину



Знак "-" поставлен для того, чтобы величина Н была положительна. Хинчин доказал, что только величина (23) удовлетворяет поставленным выше условиям. В термодинамике величина вида p logp является мерой "разнообразия" скоростей молекул "замкнутой" системы и называется энтропией. По аналогии величину H назвали в теории информации энтропией источника X. За единицу измерения энтропии, при основании логарифма 2, принимается энтропия источника Х с двумя равновероятными состояниями. Эта единица называется "двоичная единица", "бит".

Энтропия источника, имеющего n равновероятных состояний, равна log n. Если 32 буквы русского алфавита считать равновероятными, энтропия языка Н=5. Если учесть частоту появления букв в тексте, Н  4,42, если учесть корреляцию соседних букв, Н  3,53, а если и дальние связи букв, в том числе между словами, Н  1,5.

Энтропия источника указывает минимальное теоретически возможное число двоичных символов, необходимое в среднем для кодирования одного знака алфавита источника. Известен ряд способов эффективного кодирования источника, уменьшающих среднее число символов на знак. Первым был метод Шеннона-Фано, предполагающий отсутствие корреляции знаков сообщения. Рассмотрим нижеследующий пример применения этого метода.

Алфавит источника - две буквы х1 и х2 с вероятностями появления 0,9 и 0,1. Энтропия источника Н(Х)= - (0,9 log20,9 + 0,1 log20,1) = 0,47. Если знаки х1 и х2 кодировать символами 0 и 1 соответственно, то для передачи одного знака потребуется 1 бит. Будем кодировать не отдельные знаки, а двухзнаковые кодовые комбинации. Согласно рассматриваемому методу, все знаки алфавита разделяют на 2 группы так, чтобы суммы вероятностей знаков каждой группы были по возможности одинаковы. Всем знакам одной группы приписывают в качестве первого символа 0, всем знакам другой группы - 1. Затем каждую из полученных групп, в свою очередь, делят на две группы, приписывая знакам группы аналогичным образом вторые символы и т.д. В табл.1 указаны вероятности двухзнаковых комбинаций и соответствующие им двоичные коды, полученные согласно данной методике. Среднее число бит на 2 символа

1*0,81 + 2*0,09 + 3(0,09 + 0,01) = 1,29,

на один символ - 0,65. Табл.2 иллюстрирует применение методики Шеннона-Фано к трехзнаковым кодовым комбинациям. В этом случае среднее число бит на 3 символа

1*0,729 + 3*(3*0,81) + 5*(3*0,009 + 0,001) = 1,598,

а на один символ – 0,53. Этот результат близок к теоретическому пределу- значению энтропии данного источника (0,47). Рассмотренный пример показывает, что эффективное кодирование действительно возможно, и что оно достигается благодаря кодированию не отдельных знаков, а их последовательностей.

Таблица 1

знаки

p

группы

код

Х 1 Х1

Х 1 Х2

Х 2 Х1

Х 2 Х2

0,81

0,09

0,09

0,01

1

  1. 0 1

0 0 0 0 0 1

0 0 0 0 0 0

1

0 1

0 0 1

0 0 0


Таблица 2

знаки

р

группы

код

Х1 Х1 Х1

Х2 Х1 Х1

Х1 Х 2 Х1

Х1 Х1 Х2

Х2 Х2 Х1

Х2 Х1 Х2

Х1 Х2 Х2

Х2 Х2 Х2

0,729

0,081

0,081

0,081

0,009
0,009

0,009

0,001

1

  1. 01 011

  1. 010

  1. 001

0 0001 00011

0 00 000 00010

0 0000 00001

0 00000

1

011

010

001

00011

00010

00001

00000


Если сообщение передается по каналу без помех и знаки сообщения не искажаются, принятое сообщение полностью снимает неопределенность состояния источника. В этом случае количество переданной информации, приходящееся на один знак, равно энтропии источника. Если канал с помехами, его можно описать матрицей вероятностей pij (табл.3), в которой столбцы помечены символами xi алфавита источника, строки - символами yj алфавита приемника, а элементы матрицы pij = p(xi yj) - вероятности приема символа yj при передаче символа xi. Вероятность передачи символа xi p(xi) является суммой элементов соответствующего столбца матрицы, а вероятность приема символа yj р(yj ) – суммой элементов строки. Если канал без помех, pij=1 при i=j, pij=0 при ij.

Количество информации на один знак, переданный по каналу с помехами, считают равным величине I(X) = H(X) - H(X/Y), где H(X/Y) - "остаточная", или "апостериорная" неопределенность источника X при условии, что приняты символы системы Y. Остаточную неопределенность находят следующим образом. Неопределенность символа xi - p(xi) log p(xi) , неопределенность символа xi при условии, что принят символ yj , равна p(xi/yj) log p(xi/yj). Эту величину надо усреднить по всем i (символ yj может быть принят при передаче, вообще говоря, любых символов xi ). Затем надо учесть, что символ yj появляется с вероятностью p(yj) , и усреднить по всем j. В итоге имеем



Условные вероятности находятся из соотношения




Таблица 3

x1 х2 ………хi……….xm

y1 p11 p12 …… p1i …………..p1m p(yi)

y2 p21………….p2i……….p2m p(y2)

………………………………………….

yj pj1 ………….pji………..pjm p(yj)

………………………………………….

ym pm1…………..pmi ……...pmm p(ym)

p(x1)………...p(xi)…….p(xm)…



Шеннон доказал теоремы о кодировании для канала без помех и с помехами, являющиеся основой теории эффективного и помехоустойчивого кодирования. В этих теоремах используются понятия производительности источника и пропускной способности канала. Производительность источника дискретных сообщений - это количество информации, вырабатываемое источником в единицу времени:



где H(X) - энтропия источника, u - длительность одного символа. Пропускная способность "С" дискретного канала без помех - это максимальная скорость передачи информации по каналу. Максимальное среднее количество информации, приходящееся на 1 символ, достигается, когда символы равновероятны. При этом



где k - средняя длительность символов, m - объем алфавита символов.

Теорема о кодировании для канала без помех утверждает, что если I(X) < C, то существует способ кодирования, позволяющий передать по каналу все сообщения источника. Важно не количество знаков, выдаваемых источником в единицу времени, а объем имеющейся в них информации. Надо кодировать не отдельные знаки, а достаточно длинные последовательности знаков. Из всех возможных последовательностей реально будут появляться, причем с почти одинаковой вероятностью, "типичные" последовательности, составляющие очень небольшую часть общего числа последовательностей. Остальные (нетипичные) последовательности будут появляться крайне редко. Их можно вообще не кодировать, или кодировать их всех одним символом. Равновероятность появления символов, соответствующих типичным последовательностям, устранит избыточность в передаваемом сообщении. Чем больше длина последовательности (больше объем алфавита), тем выше эффективность такого способа кодирования. Конечно, кодировать длинные последовательности технически сложнее, чем короткие.

Пропускная способность канала с помехами



Чтобы увеличить H(X)-H(X/Y) - среднее количество информации, приходящейся на символ, необходимо увеличить H(X), кодируя информацию равновероятными символами, т.е. довести до значения log2m , и уменьшить H(X/Y), применяя помехоустойчивое кодирование. К знакам сообщения добавляются контрольные знаки и кодирование становится избыточным. Можно предположить, что с неограниченным увеличением шумов потребуется неограниченно увеличивать и избыточность. Тогда, чтобы успевать пропускать избыточные символы, потребуется неограниченно увеличивать техническую скорость передачи символов в канале. Теорема о кодировании для канала с помехами утверждает, что при условии I(X)<C существует способ кодирования, позволяющий передать всю информацию источника со сколь угодно малой вероятностью ошибки. Согласно этой теореме, безошибочная передача информации по каналу с помехами обеспечивается не за счет неограниченного увеличения избыточности кодирования, а за счет удлинения кодируемых (типичных) последовательностей знаков. Конечно, при этом возрастает сложность аппаратуры.

Одним из основных результатов теории информации является доказательство того, что максимальная скорость передачи информации достигается при использовании сигналов с равновероятными и взаимно независимыми, некоррелирующими символами. В их последовательности нельзя установить какую-то закономерность, последовательность "шумоподобна". В то же время с «самой случайной» помехой вида белого шума, обладающей максимальной энтропией, особенно трудно бороться.


^ 5. Методы кодирования


Процесс кодирования в цифровой системе разделяют на кодирование источника и канальное кодирование. Задачей кодирования источника является минимизация среднего числа двоичных знаков, представляющих сообщение, или, другими словами, уменьшение избыточности в тексте сообщения. Цель канального кодирования - создать возможность диагностики и исправления ошибок в принятом сообщении с учетом вида наиболее типичных ошибок в канале связи. Эта цель достигается применением помехоустойчивого кодирования и "перемешивания". В помехоустойчивом коде к информационным битам добавляются избыточные, контрольные биты, в результате все возможные кодовые комбинации разделяются на разрешенные и запрещенные. Появление в приемном устройстве запрещенной комбинации является признаком ошибки. В результате анализа запрещенной комбинации, при соответствующем методе кодирования, можно исправить ошибку.

В процессе перемешивания (чередования) биты одной кодовой комбинации разносятся по времени, чередуясь с битами других кодовых комбинаций. Благодаря этому упрощается диагностика пакетов ошибок, т.к. ошибочные биты пакета после операции, обратной чередованию, оказываются расположенными по одному в различных кодовых комбинациях.

Канальное кодирование позволяет существенно повысить достоверность передачи сообщений. Оно значительно эффективнее, чем повторные передачи сообщений или дублирование каналов связи, особенно в тех случаях, когда повторы слишком часты из-за высокого уровня помех и нет обратного канала связи.


^ 5.1. Кодирование источника.


Аналоговые сигналы, до этапа кодирования, необходимо дискретизировать по времени и квантовать по уровню. Частота дискретизации fт , по теореме Найквиста, должна удовлетворять условию fт>2fm , где fm - максимальная частота сигнала. Т.к. спектр реального сигнала неограничен, происходит наложение спектральных компонент (рис.32) и перенос высокочастотной части спектра, начиная с частоты f* =0,5fт (f* … f2), в низкочастотную область (f* … f1), приводящий к искажениям сигнала. Искажений можно избежать, если спектр сигнала до дискретизации ограничить частотой f* с помощью аналогового фильтра. Аналоговые фильтры с резким спадом частотной характеристики, в отличие от цифровых фильтров, сложны и дороги, поэтому применяется «выборка с запасом»: частота дискретизации берется намного выше, например, fт = 8f* . Благодаря этому даже при использовании простого аналогового фильтра наложения частот не происходит. Дискретизированный сигнал пропускают через цифровой фильтр, ограничивающий полосу сигнала частотой f* , а затем дискретизируют с частотой 2f* .

S(f)


f1 f* f2 fт=2f* f

Рис.32

Аналоговый сигнал с большим динамическим диапазоном, например звуковой сигнал, квантуют неравномерно: шаг квантования слабых сигналов увеличивают, чтобы улучшить отношение сигнал-шум. Для этого исходный сигнал пропускают через усилитель с нелинейной характеристикой - компрессор (рис.33а), который «сжимает» сигнал, уменьшая диапазон выходного сигнала по сравнению с входным. В приемнике компандер осуществляет обратное преобразование (рис.33б) - расширение. Всю процедуру называют компандированием. Отношение сигнал-шум не зависит от уровня сигнала, если компрессор обладает логарифмической характеристикой. Стандартизованы два вида характеристик сжатия, аппроксимирующих логарифмическую функцию:  - закон (США, Япония) и А - закон (Европа).



После дискретизации и квантования получаются "отсчеты", представляющие абсолютную величину аналогового сигнала в цифровом коде. Этот этап аналого-цифрового преобразования называют импульсно-кодовой модуляцией (ИКМ). Избыточность кодирования сигналов с ИКМ можно уменьшить, если формировать передаваемый код с учетом его предыдущих значений. Подобные методы получили общее название дифференциальной ИКМ. Частный случай дифференциальной ИКМ - дельта-модуляция. В зависимости от знака разности значений текущего и предыдущего отсчетов выдается только один бит 1 или 0, соответственно принятый сигнал на каждом такте изменяется на один "квант" . Если при обычной ИКМ сигнал телефонного канала дискретизируется с частотой 8 кГц и представляется 8-битовым двоичным кодом, т.е. результирующая частота бит составляет 64 кГц, при дельта-модуляции оказывается достаточной тактовая частота 32 кГц.

Широко применяется дифференциальная ИКМ с предсказанием значения очередного отсчета в виде линейной комбинации N предыдущих



(24)

Такой предсказатель называют N- отводным. Идентичные устройства предсказания имеются в передатчике и приемнике. Передается только разность между реальным сигналом и его предсказанным в передатчике значением. Эта разность суммируется со значением, предсказанным в приемнике.

Доказано, что среднеквадратичная ошибка предсказания минимальна, если рассчитать коэффициенты в (24), используя знание функции автокорреляции передаваемого сигнала. В кодерах с адаптивной дифференциальной ИКМ передается ошибка предсказания и параметры предсказателя, переменные во времени (спектральные характеристики речи сохраняются 20 -50 мс). Этот метод настолько эффективен, что в некоторых системах ошибка предсказания не передается, т. к. она оказывается пренебрежимо малой. На практике применяется большое число весьма сложных алгоритмов и кодеров, уменьшающих избыточность при кодировании речи и изображения.


^ 5.2. Код Хэмминга как пример помехоустойчивого кода


Дадим определение некоторых понятий помехоустойчивого кодирования.

Кодовое (хэмминговое) расстояние - число несовпадающих разрядов двух кодовых комбинаций.

Минимальное расстояние, взятое по всем парам разрешенных кодовых комбинаций, называется минимальным кодовым расстоянием (d).

Кратность ошибки (r) - число искаженных символов кодовой комбинации.

Вес кодовой комбинации - число единиц в двоичной кодовой комбинации

Блоковый (n, k) код - код, содержащий 2к разрешенных комбинаций из 2n возможных ( n - общее число разрядов, к -число информационных разрядов).

Относительная избыточность кода (n-k)/k , кодовая скорость - k/n .

Вектор ошибки - двоичный код, содержащий 1 в искаженных разрядах и 0 в остальных.

Разделимый блоковый код - код, в котором часть символов совпадает с информационными символами, остальные символы добавлены как проверочные. В неразделимом коде исходная кодовая комбинация преобразуется так, что невозможно определить, какие символы информационные, а какие проверочные.

Систематический код - код, в котором проверочные символы добавляются после информационных (а не размещаются где-то между информационными символами).

Линейный код - код, в котором значения проверочных символов являются результатом линейных операций над информационными символами.

Непрерывный код: введение контрольных символов в информационную последовательность производится непрерывно, без разделения ее на отдельные блоки.

Ошибка кратности r может быть обнаружена при условии d  r + 1, ошибка кратности s может быть исправлена при условии d  2s + 1. Если выполняется условие d  r + s + 1 (r  s), то может быть обнаружена ошибка кратности r и, одновременно, исправлена ошибка кратности s. Исправление ошибки производится заменой запрещенной кодовой комбинации на "ближайшую" разрешенную. Такое декодирование называют декодированием по методу максимального правдоподобия.

Оценим долю обнаруживаемых ошибок. Общее число вариантов передачи кода 2к 2n : при передаче любой разрешенной кодовой комбинации может быть получена любая из 2n возможных кодовых комбинаций. Число правильных вариантов передачи 2k. Число вариантов не обнаруживаемых ошибок 2k(2k- 1): при передаче любой разрешенной кодовой комбинации может быть получена любая другая разрешенная комбинация. Число вариантов передачи, когда ошибка обнаруживается, равна 2k(2n-2k) , а их доля по отношению к общему количеству вариантов 1 - 2k-n .

Простейшим способом обнаружения ошибки кратности 1 является добавление одного избыточного разряда - бита четности к каждой кодовой комбинации. Если составить матрицу из строк - информационных кодовых комбинаций и добавить биты контроля четности к каждой строке и к каждому столбцу, то контроль по строкам и столбцам позволяет обнаружить ошибки кратности r >1.

Если ставится задача исправления ошибки, контрольная кодовая комбинация должна указывать место ошибки. Следовательно, число различных контрольных кодовых комбинаций должно быть не менее количества различных ошибок. При s = 1 должно выполняться условие

2n-k-1 > n = Cn1 (25)

(число различных ошибок кратности 1 равно n , число различных контрольных кодовых комбинаций 2n-k-1), при s = 2 - условие

2n-k-1 > Cn1+ Cn2

и т.д. Если s =1 и к=4; 7; 12, из условия (25) получим n=7, 11, 17, а относительная избыточность (n-k)/n=0,43; 0,36; 0,29 соответственно. Из этого примера видно, что с ростом n относительная избыточность уменьшается, а доля обнаруживаемых ошибок увеличивается.


Векторы ошибок синдром а1357=0

а7 а6 а5 а4 а3 а2 а1 б) а2367=0 д) 111

0 0 0 0 0 0 1 001 = 1 а4567=0 110

0 0 0 0 0 1 0 010 = 2 101

а) 0 0 0 0 1 0 0 011 = 3 а1357 H= 011

0 0 0 1 0 0 0 100 = 4 в) а2367 100

0 0 1 0 0 0 0 101 = 5 а4567 010

0 1 0 0 0 0 0 110 = 6 001

1 0 0 0 0 0 0 111= 7 1000 111

0100 110

г) Mn,k = Ik, Pk, n-k = 0010 101

0001 011

Рис.34


Методику выявления и исправления ошибки поясним на примере кода Хэмминга (7, 4), исправляющего ошибку кратности 1. Поставим условие: двоичное число в контрольных разрядах, называемое синдромом, должно быть равно номеру исправляемого разряда. На рис. 34а указаны все возможные векторы ошибок и соответствующие им кодовые комбинации в контрольных разрядах. Ошибка может произойти в любом разряде (а1…а7), как в информационном, так и в контрольном. Как следует из рис 34, единица в младшем (правом) разряде синдрома означает, что ошибка произошла в каком-то одном из разрядов а1, а 3, а 5 ,а7, единица в следующем разряде - что ошибка в одном из разрядов а2, а3 , а6, а7, единица в старшем разряде - что ошибка в одном из разрядов a4, a5, a6, a7. Среди указанных разрядов есть контрольные. Следовательно, их значения должны быть заданы так, чтобы при отсутствии ошибок выполнялись проверочные равенства рис.34б. Для того, чтобы каждый контрольный разряд вычислялся независимо от остальных только по информационным разрядам, в каждое проверочное равенство должен входить только один контрольный разряд. Этому условию удовлетворяют разряды a1, a2, a4. Правила определения значений контрольных разрядов приведены на рис. 34 в.

Процесс исправления ошибки поясним на примере. Допустим, что значение информационной части кодовой комбинации, записанной в разрядах а7 а6 а5 а3 , равно 6=011- 0 - - . Значения контрольных разрядов а13 + а5 + а7 = 0+1+0=1,

а2 = а3 + а6 + а7 = 0+1+0=1, а4567=1+1+0=0. Получили кодовую комбинацию 0110011. Внесем ошибку в разряд 6: 0010011. Проверочные равенства дадут следующий результат: а1357=1+0+1+0=0, а2367=1+0+0+0=1, а4567=0+1+0+0=1. Синдром 110=6 указывает номер искаженного разряда.

При построении более сложных кодов используют аппарат алгебры, в частности, теорию полей Галуа, и машинные алгоритмы. Одним из способов построения кодов является использование порождающей матрицы кода. Все разрешенные кодовые комбинации образуются суммированием некоторого количества строк этой матрицы. Порождающая матрица может быть задана неоднозначно, в наиболее удобной форме она состоит из единичной матрицы Ik, к которой "приписана" матрица дополнения - Pk. n-k. Порождающая матрица Мn,k вышерассмотренного кода Хэмминга (7,4) приведена на рис. 34г. Разрешенную кодовую комбинацию получают умножением информационной кодовой комбинации на порождающую матрицу. Чтобы проверить принятый код, его надо умножить на проверочную матрицу H, у которой первые к строк - это строки матрицы Pk. n-k, остальные n-к строк - строки единичной матрицы (рис.34д).


^ 5.3. Циклические коды


Почти все применяемые в настоящее время блоковые коды (в том числе код Хэмминга) являются циклическими. У них в качестве образующей матрицы можно взять матрицу со строками, полученными циклическим сдвигом одной строки - образующей кодовой комбинации. Двоичную кодовую комбинацию можно представить в виде многочлена относительно фиктивной переменной х: кодовой комбинации 001011 будет соответствовать многочлен g(x)=x3+x1+x0. Циклическому сдвигу, т.е. сдвигу с переносом единицы переполнения в младший разряд, соответствует умножение многочлена g(x) на х с операцией "приведения" по модулю хn+1. В результате такого сдвига получается многочлен g(x)x - xn +1 = g(x)x +xn+1. Если g(x) – многочлен, представляющий образующую кодовую комбинацию, разрешенной кодовой комбинации соответствует многочлен вида



который делится без остатка на g(x), если (xn+1) делится на g(x). Многочлен g(x) выбирается так, чтобы последнее условие удовлетворялось. Если принятая кодовая комбинация не делится на образующий многочлен, она ошибочна. Некоторые коды только обнаруживают ошибку, некоторые исправляют ее, анализируя величину остатка от деления на образующий многочлен. Для коррекции ошибок важно, чтобы число различных остатков было как можно больше. Этому требованию удовлетворяют неприводимые образующие многочлены g(x), не разлагающиеся на множители. Кодирование и декодирование циклических кодов основано на операциях умножения и деления многочленов, выполняемых с использованием сдвиговых регистров с обратными связями.


^ 5.4. Непрерывные коды и коды с чередованием


Среди непрерывных кодов наиболее простыми по технической реализации являются сверточные коды. Принцип сверточного кодирования поясняет рис.35а. Кодер содержит сдвиговый регистр из Кк триггеров, n сумматоров и коммутатор. Биты входной информационной последовательности вводятся в регистр группами по к разрядов. Чаще всего принимают к = 1. На каждый такт сдвига, т.е. на каждые к входных битов, коммутатор снимает с сумматоров и выдает на выход кодера n битов, так что кодовая скорость (степень кодирования) равна k/n. Каждый бит входной последовательности находится в регистре в течение К сдвигов, оказывая влияние на биты выходной последовательности. Параметр К называют длиной кодового ограничения.

кК триггеров

к к к g1 вход 1

вход к к к выход 111011

------------------------

вход 1 0 1

g2 11 10 11

1 n 00 0000

выход ____ _ ___ 111011

g1 = 7 = 111 = x2 + x + 1 выход 11 10 001011

g2 = 5 = 101 = x2 + 1

а б в

Рис.35

Способы описания сверточного кода рассмотрим на примере, показанном на рис 35б (n = 2, кодовая скорость 0,5, К = 3). Один из способов описания кода - задание порождающих векторов, или порождающих многочленов gi , определяющих вид связей регистра с сумматорами, а следовательно и характеристики кода. Другой способ - задание импульсной характеристики кодера: выходной битовой последовательности, формируемой при подаче на вход кодера одной единицы. Реакцию на любую входную последовательность можно получить, суммируя по модулю 2 смещенные импульсные характеристики. Как видно из примера рис. 35в, на один входной бит кодер выдает 6 выходных битов, а не 2 согласно кодовой скорости. Лишние 4 битовых позиции занимает "очистка" кодера, т.е. приведение регистра в исходное состояние после прохождения информационной последовательности битов. В некоторых системах сверточный код искусственно делят на блоки. В этом случае после прохождения каждого блока необходимо добавить биты для очистки кодера.

Работа кодера может описываться диаграммой состояний, изображенной в виде направленного графа (рис.36). Кодер, показанный на рис 35б, может находиться в одном из четырех состояний, зависящих от содержания двух триггеров регистра (состояние первого триггера определяется входным битом). Стрелки на графе указывают возможные изменения состояний при поступлении на вход кодера единицы (показаны сплошной линией) или нуля (пунктирные линии). Каждый переход помечен кодовой комбинацией, появляющейся на выходе кодера при этом переходе.


00


00

  1. 11

10

10 01

00

  1. 01

11

10





t1 00 t2 00 t3 00 t4 00 t5 состояния

00

000 11 11

01

11 00

10

10

01

01 01

11

10 10

Рис.36 Рис.37
  1   2   3   4



Скачать файл (285.8 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации