Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Проектирование ДЧМ КГ приемника - файл Курсовая.doc


Проектирование ДЧМ КГ приемника
скачать (406.8 kb.)

Доступные файлы (1):

Курсовая.doc1258kb.12.09.2008 22:27скачать

Курсовая.doc

1   2   3   4

7. Передача аналоговых сигналов методом ИКМ

7.1. Сущность ИКМ, дискретизации и квантования сигналов

Операция преобразования непрерывного сообщения в дискретное называется дискретизацией.

Дискретизация осуществляется не только по времени, но и по уровням. Дискретизация по времени выполняется путем взятия отсчетов функции b(t) в определенные дискретные моменты времени tk. В результате непрерывную функцию y(t) заменяют совокупностью мгновенных значений . Обычно моменты отсчетов выбирают по оси времени равномерно, т.е. .

Дискретизация значений функции (уровня) носит название квантования. Операция квантования сводится к тому, что вместо данного мгновенного значения передаваемого сообщения (или первичного сигнала) b(t) передают ближайшие значения по установленной шкале дискретных значений.

Преобразование аналог-цифра (A/D – Analogue to Digital) состоит из трех операций (рис. 7.1.1): сначала непрерывное сообщение подвергается дискретизации по времени через интервалы (рис. 7.1.1, а); полученные отсчеты мгновенных значений квантуются (рис. 7.1.1, б); наконец, полученная последовательность квантованных значений передаваемого сообщения представляется посредством кодирования в виде последовательности m-ичных кодовых комбинаций (рис. 7.1.1, в). Такое преобразование называется импульсно-кодовой модуляцией (ИКМ, PCM – Pulse-Code Modulation). Чаще всего кодирование сводится к записи номера уровня в двоичной системе счисления.



Рисунок 7.1.1 – Принцип ИКМ: а) – дискретизация и квантование; б) – ошибка квантования; в) – цифровой сигнал с ИКМ
Преобразование непрерывных сообщений в цифровую форму в системах ИКМ сопровождается округлением мгновенных значений до ближайших разрешенных уровней квантования. Возникающая при этом погрешность представляется неустранимой, но контролируемой (т.к. не превышает половины шага квантования) (рис. 7.1.1, г). Выбрав малый шаг квантования, можно обеспечить эквивалентность по заданному -критерию исходного и квантованного сообщений. Погрешность квантования, представляющую собой разность между исходным сообщением и сообщением, восстановленном по квантованным отсчетам, называют шумом квантования.
7.2. ИКМ при количестве уровней квантования равном 512

В системе с импульсно-кодовой модуляцией число разрядов двоичного кода , где N – число заданных уровней квантования ИКМ в нашем случае равное 512. Получаем число разрядов n = 9.

На рисунке 7.2.1 графиками временных диаграмм проиллюстрированно преобразование непрерывного сигнала произвольной формы с помощью ИКМ для определенного выше числа разрядов.


^ Рисунок 7.2.1 – ИКМ при количестве уровней квантования равном 512
Определим отношение мощности сигнала к мощности шума квантования.

Рассмотрим к примеру некоторую реализацию b(t) непрерывного сообщения. Сообщение b(t) рассматривают как реализацию некоторого случайного процесса B(t).

Средняя мощность шума квантования: .

Отношение средних мощностей сообщения и шума квантования:

(7.2.1)

Мощность сообщения на выходе приемника, равную , можно выразить через пик-фактор (коэффициент амплитуды) сообщения . Учитывая принятое нормирование сообщения , получим:

(7.2.2)

Выразим через число уровней N. Полагая, что B(t) – нормированное сообщение –1<B(t)<1, получим:

(7.2.3)

Подставляя выражения (7.2.2) и (7.2.3) в соотношение (7.2.1) получаем:

(7.2.4)

Подставляя в (7.2.4) числовые данные получаем:

49 дБ.

7.3. Преимущества и недостатки ИКМ

Преимущества:

  1. Основное техническое преимущество цифровых систем передачи перед непрерывными системами состоит в их высокой помехоустойчивости. Высокая помехоустойчивость цифровых систем передачи позволяет осуществить практически неограниченную по дальности связь при использовании каналов сравнительно невысокого качества.

  2. Шум квантования, в отличие от аддитивных шумов, не изменятся при ретрансляции (переприемом) сигналов, т.е. не накапливается.

  3. Цифровые сигналы легко поддаются обработке.

  4. Широкое использование в аппаратуре преобразования сигналов современной элементной базы цифровой вычислительной техники и микроэлектроники.

  5. Цифровые сигналы можно «сжимать», что позволяет в одной полосе частот организовать в одной полосе частот организовать больше каналов с высокой скоростью передачи и отличным качеством.

  6. Можно повысить верность в системе передачи применением помехоустойчивого кодирования.

  7. Возможность приведения всех видов передаваемой информации к цифровой форме позволит осуществить интеграцию систем передачи и систем коммутации, а также расширить область использования вычислительной техники при построении аппаратуры связи и единой автоматизированной сети связи.


Недостатки:

  1. Неустранимый шум квантования. Для борьбы с ним нужно увеличивать число уровней квантования, следовательно, нужно сокращать длительность символа и расширять спектр сигнала в канале.

  2. Аномальный шум ложных импульсов, мощность которого при расширении спектра сигнала, как правило, возрастает.

  3. Не исключается порог помехоустойчивости (верность приема резко ухудшается, если мощность сигнал упадает ниже пороговой).

  4. Конструктивная сложность и относительная дороговизна цифровой техники.


^ 8. Помехоустойчивое кодирование

8.1. Сущность помехоустойчивого кодирования

При передаче дискретных сигналов для уменьшения вероятности ошибок можно применить помехоустойчивое кодирование. Кодирование дискретных сообщений является одним из основных путей осуществления уверенного приема сигналов в тяжелых условиях связи.

Теоретическую основу помехоустойчивого кодирования составляет теорема К. Шеннона для канала с шумами, в которой утверждается, что для указанного канала можно найти такую систему оптимального кодирования, при которой сообщения будут переданы со сколь угодно большой степенью верности, если только производительность источника не превышает пропускной способности канала связи.

Но результаты К. Шеннона указывают на предельные возможности при оптимальном кодировании и декодировании дискретных сообщений, но не дают рекомендаций по их конкретной реализации. Поэтому основной задачей теории корректирующих кодов, определившей последующие пути ее развития, является нахождение практически реализуемых (конструктивных) методов построения кодеров и декодеров.

Кодирование – это процесс преобразования элементов дискретного сообщения в соответствующие числа, представленные кодовыми символами. Кодовая комбинация (кодовое слово) – это последовательность кодовых символов, соответствующих одному элементу дискретного сообщения. Кодом называют полную совокупность кодовых комбинаций, применяемую для кодирования сообщений.

^ Корректирующая способность кода – это способность кода обнаруживать или исправлять ошибки. Ошибки при передаче кодированного сообщения сводится к тому, что некоторые из переданных кодовых символов на приеме заменяются другими – неверными из-за действия помех в канале. Число t искаженных кодовых символов в пределах одной кодовой комбинации называют кратность ошибок.

Любой код способен обнаруживать и исправлять ошибки, если не все кодовые комбинации используются для передачи сообщений.

Например, можно рассмотреть блочный равномерный код с основанием m и числом кодовых элементов в комбинации n. Такой код имеет N0 = mn возможных кодовых комбинаций. Для передачи сообщений можно использовать только Np < N0 кодовых комбинаций (разрешенные кодовые комбинации). Остальные Nз = NpN0 не используются и называются неразрешенными (запрещенными), они по каналу связи не передаются, но необходимы для обнаружения ошибок на приеме.

Сформулируем принципы обнаружения и исправления ошибок при декодировании. В декодере хранится «список» всех разрешенных кодовых комбинаций. При декодировании с обнаружением ошибок принятая кодовая комбинация сравнивается с каждой из разрешенных и, если она не совпадает ни с одной разрешенной, то считается ошибочной, т.к. находится в области запрещенных – ошибка обнаруживается. Ошибка не обнаруживается, когда переданная разрешенная кодовая комбинация на приеме переходит в другую разрешенную. Декодирование с исправлением ошибок основано на двух операциях: определении расстояний (см. пункт 8.3) между принятой комбинацией и каждой из разрешенной и затем отыскания разрешенной комбинации, имеющей минимальной расстояние от поступившей комбинации. При этом принятая кодовая комбинация отождествляется с той комбинацией, до которой расстояние минимально.
8.2. Классификация помехоустойчивых кодов

В настоящее время известно большое количество кодов, отличающихся по помехоустойчивости и способам построения. Коды можно классифицировать по различным признакам. Одним из них является основание кода m, или число различных используемых в нем символов. Наиболее простым являются двоичные (бинарные) коды, у которых m=2. Если m>2, то код является недвоичным (соответственно, троичным, четверичным и т.д.).

Линейные коды – это коды, у которых избыточные символы образуются в результате линейных операций над информационными символами, в них сумма по модулю 2 любых разрешенных кодовых комбинаций также принадлежит данному коду. Большинство используемых на практике помехоустойчивых кодов являются линейными (циклические, сверточные и другие), т.к. они относительно просто кодируются и декодируются. Они разработаны с целью упрощения декодеров, когда в памяти достаточно хранить только линейно независимых кодовых комбинаций кода.

Нелинейные коды (с постоянным весом, инверсные и другие) в сравнении с линейными имеют малую длину кодовых слов и используются, в основном, в специальных приложениях, т.к. часто обеспечивают лучшие параметры.

Систематические коды – такие коды, у которых информационные символы не кодируются и на выходе кодера имеют такой же вид, как и на его входе.

Далее коды можно разделить на блочные и непрерывные. Блочными называют коды, в которых последовательность элементарных сообщений источника разбивается на отрезки и каждый из них преобразуется в определенную последовательность (блок) кодовых символов , называемую иногда кодовой комбинацией . Непрерывные коды образуют последовательность символов, не разделяемую на последовательные кодовые комбинации: здесь в процессе кодирования символы определяются всей последовательностью элементов сообщения.

Каскадные коды образуются параллельными или последовательным включением нескольких помехоустойчивых кодов.

В настоящее время на практике чаще используют блочные коды, равномерные и неравномерные. В равномерных кодах, в отличие от неравномерных, все кодовые комбинации содержат одинаковое число символов (разрядов), передаваемых по каналу элементами сигнала неизменной длительности. Это обстоятельство существенно упрощает технику передачи и приема сообщений и повышает помехоустойчивость системы синхронизации. Число различных блоков M n-разрядного равномерного кода с основанием m удовлетворяет равенству:

. (8.2.1)

Если в (8.2.1) имеет место равенство, т.е. все возможные кодовые комбинации используются для передачи сообщений, то в этом случае код называется простым, или примитивным. Он не вносит избыточность и не является помехоустойчивым.
8.3. Кодовое расстояние

Обнаруживающая и исправляющая способность корректирующих кодов тесно связаны с расстояниями между разрешенными кодовыми комбинациями. Расстояние между парой кодовых комбинаций и выражает различие между ними:

(8.3.1)

где – координаты кодовых комбинаций и в n-мерном неэвклидовом пространстве ln.

Если код является двоичным, расстоянием между парой комбинаций равно числу единиц в сумме этих комбинаций по модулю два.

Геометрической моделью n-значного двоичного кода является n-мерный куб с ребром, равным единице, каждая вершина которого представляет одну из возможных комбинаций. Расстояние между комбинациями равно числу ребер куба, отделяющих одну вершину от другой.

Наименьшее расстояние между парой разрешенных комбинаций данного кода называется кодовым расстоянием dmin = d.

Т.к. кратность ошибки t в геометрическом представлении является расстоянием между переданной комбинацией и искаженной, то для обнаружения ошибок кратности требуется кодовое расстояние

(8.3.2)

т.е. минимальное расстояние между разрешенными комбинациями должно быть больше обнаруживаемой кратности ошибок. Для исправления ошибок кратности требуется кодовое расстояние

(8.3.3)

Это означает, что для исправления ошибки искаженная комбинация должна располагаться ближе всего к правильной комбинации.
8.4. Простейший код для обнаружения однократных ошибок

Простейшим способом помехоустойчивого кодирования является добавление к информационным элементам кода одного проверочного кода. Получается код с четным числом единиц или код с проверкой на четность.

Код с четным числом единиц является двоичным блочным кодом и образуется путем добавления к комбинации k-элементного кода одного избыточного элемента так, чтобы количество единиц в новой n-элементной комбинации было четным.

В таблице 8.4.1 приведен такой код с параметрами (6, 5).
Таблица 8.4.1

k = 5

r = 1

1

2

3

4

5

6

1

0

1

1

0

1

0

1

0

0

1

0

1

1

0

1

1

0

0

0

0

0

1

1


Код обнаруживает все ошибки нечетной кратности. Обнаружение ошибок производится проверкой принятой комбинации на четность, т.к. все разрешенные комбинации имеют четное число единиц, а неразрешенные – нечетное. Проверка на четность осуществляется суммированием всех элементов комбинации по модулю два. Если комбинация имеет четное число единиц, то сумма ее элементов по модулю два равна 0.

Если в канале связи ошибки независимы и вероятность искажения кодового элемента равна Р (в нашем случае Р = 0,00135), то согласно биноминальному закону распределения вероятность обнаружения ошибки равна:



Верояность искажения комбинации:



Вероятность необнаруженной ошибки:

(8.4.1)

Если число информационных элементов равно 5, то формула (8.4.1) примет вид:



Получаем Рн = 0,0000273.

Коэффициент избыточности:

.
^ 9. Статистическое кодирование

9.1. Сущность статистического кодирования

Основой статистического (оптимального) кодирования сообщений является теорема К.Шеннона для каналов связи без помех:

Если источник сообщений имеет энтропию Н (бит на символ), а канал связи – пропускную способность С (бит в секунду), то можно закодировать сообщения таким образом, чтобы передать информацию по каналу со средней скоростью, сколь угодно близкой к величине С, но не превзойти ее.

Кодирование по методу Шеннона-Фано-Хаффемена называется оптимальным, т.к. при этом повышается производительность дискретного источника, и статистическим, т.к. для реализации оптимального кодирования необходимо учитывать вероятности появления на выходе источника каждого элемента сообщения (т.е. учитывать статистику сообщений).

Производительность дискретного источника:

(9.1.1)

Избыточность дискретного источника:

(9.1.2)

Из формул (9.1.1) и (9.1.2) получаем:

(9.1.3)

Из формулы (9.1.3) видно, что для увеличения производительности нужно уменьшать избыточность g и среднюю длительность сообщений .

Известно, что , если априорные вероятности различных элементов сообщения различны ( при равной вероятности этих элементов). Но при неравной вероятности сообщений можно применить оптимальное (статистическое) кодирование, при котором уменьшается средняя длительность сообщений, и, следовательно, по формуле (9.1.3) увеличивается производительность дискретного источника.

Идея такого кодирования заключается в том, что, применяя неравномерный неприводимый код, наиболее часто встречающиеся сообщения (буквы или слова) кодируются короткими комбинациями этого кода, а редко встречающиеся сообщения кодируются более длительными комбинациями.


9.2. Количество информации и энтропия источника дискретных сообщений

Информация – это совокупность сведений об объекте или явлении, которые увеличивают знания потребителя об этом объекте или явлении.

Рассмотрим дискретный источник, выдающий последовательность сообщений. Пусть этот источник посылает сообщение а из некоторого ансамбля А (). Тогда количество информации i(a), содержащееся в сообщении а:

, (9.2.1)

где Р(а) – вероятность того, что источник посылает данное сообщение. Количество информации в сообщении тем больше, чем оно менее вероятно, т.е. чем оно более неожиданно. Основания логарифма в (9.2.1) чаще всего выбирают равным 2. Полученная при этом единица информации носит название двоичная единица, или бит.

Для характеристики всего источника (или ансамбля) сообщений используется математическое ожидание количества информации, называемое энтропией и обозначается Н(А):

(9.2.2)

Чем больше энтропия источника, тем больше степень неожиданности передаваемых им сообщений в среднем, т.е. тем более неопределенным является ожидаемое сообщение. Поэтому энтропию можно назвать мерой неопределенности сообщений. Можно характеризовать энтропию также как меру разнообразия выдаваемых источником сообщений.

Энтропия является основной характеристикой источника. Чем она выше, тем труднее запомнить (записать) сообщение или передать его по каналу связи. Энтропию также можно интерпретировать как собственную информацию, т.е. информацию, содержащуюся в ансамбле А о самом себе.

Если ансамбль источника содержит К различных сообщений и сообщения передаются статистически независимо друг от другу (т.е. рассматривается источник без памяти), то (9.2.2) примет вид:

(9.2.3)

По условию рассматриваемый алфавит источника состоит из двух символов: «0» и «1». Вероятность передачи «1»: р(1) = 0,25. Следовательно, вероятность передачи «0»: р(0) = 1 – р(1) = 0,75 (т.к. суммарная вероятность этих сообщений равна 1).

Подставляя числовые данные в уравнение (9.2.3), получаем:

бит.

Подставим полученное значение в формулу (9.2.1) и взяв вместо средней длительности сообщений длительность элементарной посылки T = 3 мкс, найдем производительность данного источника:

бит/с.
9.3. Кодирование источника по методу Шеннона-Фано

Результаты кодирования тем лучше, чем более длинные кодовые комбинации первичного кода применяются для статистического кодирования. Поэтому перед осуществлением статистического кодирования образуем трехбуквенные комбинации, состоящие из элементов двоичного кода 1 и 0 с соответствующими заданными вероятностями р(1) = 0,25 и р(0) = 1–0,25 = 0,75. Вычислим вероятности этих трехбуквенных комбинаций (по теореме умножения вероятностей):

















Обозначим источник этих сообщений как «В» и найдем его энтропию по формуле (9.2.3): .

В соответствии с теоремой кодирования для источника эти сообщения можно закодировать двоичными символами так, чтобы в среднем на каждое сообщение затрачивать nср = 2,43 + двоичных символов, где – сколь угодно малое положительное число.

Алгоритм Шеннона-Фено заключается в следующем. Сообщения алфавита источника, записанные в порядке невозрастающих вероятностей, разделяются на две части так, чтобы суммарные вероятности сообщений в каждой из этих частей были по возможности одинаковыми. Сообщениям первой части приписываются в качестве первого символа 0, а сообщениям второй части – 1. Затем каждая из этих частей (если она содержит более одного сообщения) делится на две, по возможности равновероятные, части и в качестве второго символа для первой из них берется 0, а для второй – 1. Этот процесс повторяется, пока в каждой из полученных частей не останется по одному символу.
9.4. Кодирование источника по методу Хаффмена

Кодирование по методу Хаффмена сводится к построению кодового дерева. Данный метод более удобен в практическом плане, чем метод Шеннона-Фано.

Располагаем наши сообщения (см. пункт 9.3) в порядке убывания вероятностей (таблица 9.4.1). Объединяем два сообщения минимальными вероятностями двумя прямыми и в месте их соединения записываем суммарную вероятность: р(111) + р(110) = 0,063. В дальнейшем полученное число 0,063 учитываем в последующих расчетах наравне с другими оставшимися числами, кроме чисел 0,016 и 0,047. Эти уже использованные числа из дальнейшего расчета исключаются и т.д.
Таблица 9.4.1

xi

p(xi)

Кодовое дерево

Код

Nэi



x1 = 000

0,422




0

1

0,422

x2 = 001

0,14

100

3

0,42

x3 = 010

0,14

1010

4

0,56

x4 = 100

0,14

1011

4

0,56

x5 = 011

0,047

1100

4

0,188

x6 = 101

0,047

1101

4

0,188

x7 = 110

0,047

1110

4

0,188

x8 =111

0,016

1111

4

0,064















Построенное таким образом кодовое дерево используется для определения кодовых комбинаций. Для нахождения любой кодовой комбинации надо исходить из корня дерева (точка с вероятностью 1) двигаться по ветвям дерева к соответствующим сообщениям.

В таблице 9.4.1 записаны кодовые комбинации полученного неравномерного кода. В соответствие с поставленной задачей наиболее часто встречающееся выражение имеет длительность в 1 элемент, а наиболее часто встречающиеся комбинации длительность в 4 элемента.

Величина суммы произведений представляет собой число элементов, приходящихся на одну комбинацию, т.е. в данном случае .

Если бы для кодирования был применен равномерный двоичный код, который чаще всего применяется на практике, число элементов в каждой кодовой комбинации для кодирования восьми различных сообщений равнялось бы трем (23 = 8), т.е. .

Средняя длительность комбинаций благодаря примененному статистическому кодирования уменьшилось в 3/2,59=1,16 раз. Во столько же раз увеличилась и производительность источника. Она составила бит/с.

Следует отметить, что эффективные неравномерные коды позволяют сократить только ту избыточность источника, которая вызвана неравной вероятностью сообщений.
1   2   3   4



Скачать файл (406.8 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации