Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Математические модели сигналов - файл n1.docx


Математические модели сигналов
скачать (975.5 kb.)

Доступные файлы (1):

n1.docx976kb.06.01.2013 14:36скачать


n1.docx

1   2   3   4

13.Непрерывный источник сообщений. Дифференциальная энтропия для нормального закона распределения и её зависимость от дисперсии.

Для описания свойств непрерывного источника сообщений испольуется понятие дифферен-ой энтропии. В общем случае непрерывный источник может выраб. Бесконечное множество своих реализаций. Выделив некоторое врем-ое сечение для стационарного непрерывного канала. В этом случае мы получаем непрерывное множество значений случайной величины .

Т.к непрерывный источник вырабатывает сообщения с различными реализациями, то все эти источники могут характеризоваться различными значениями диффер-ых энтропий. Последняя определяется распределениями функции плотности вероятности случайной величины .

- Дифференциальная энтропия непрерывного источника с нормальным распределение вероятности случайной величины

,



1)Дифференциальная энтропия непрерывного источника с нормальным распределением случайной величины не зависит от моментов 1-го порядка и полностью определяется дисперсией или мощностью флюктуации сигнала вырабатываемого непрерывным дискретным источником.



2) В отличие от энтропии дискретного источника диффер-ая энтропия может принимать как положительные, так и отрицательные значения.

3) Диффер-ая энтропия не может служить мерой кол-ва информации вырабатываемой непрерывным источником.

4) Диффер-ая энтропия непрерывного источника с нормальным законом распределения случайной величины оказывается всегда самой максимальной среди всех источников непрерывных сообщений.

14. Непрерывный источник сообщений. Эпсилон-энтропия.

Будем рассматривать одно передаваемое сообщение u(t), создаваемое непрерывным источником и множество эквивалентных ему принятых сообщений z(t), которые можно рассматривать как различные реализации, то количество взаимной информации I(u,z) зависит как от дифференциальной энтропии входного источника h(u), так и от критерия эквивалентности, определяющего условную плотность вероятности переходов ?(z/u), а следовательно и условную энтропию h(u/z)

Среднее количество взаимной информации будет представлять собой разность между 2 дифференц. энтропиями =h(u)-h(u/z)

При разичных выходных реализациях z(t) мы получим разную величину взаимной информации м/д входом и выходом непрерывного канала
Минимальное количество информации содержащейся в сообщении z(t) относительно входного сообщения u(t), при котором они еще оказываются эквивалентными, принято называть эпсилон-энтропией - H?(u)



Для определения энтропии рассмотрим случай, когда источник неперерыного сигнала оказывается гауссовским( белый шум с равномерной спектральной плотностью). Такой сигнал u(t) представляет собой стационарный гауссовский процесс с заданной (дисперсией) мощностью Рс, а критерием эквивалентности является средне-квадратичное отклонение. Это означает, что средне-квадратичное отклонение шума воспроизведениязаданной величины



Сигнал, который вырабатывает непрерывный источник u(t)=z(t)-. При заданной характеристике непрерывного сигнала u(t) можно считать, что сигнал на выходе z(t) в нашем случае имеет нормальный закон распределения. Максимальное значение

Условной диф. энтропии будет соответствовать максим. Значению диф. энтропии шума воспроизведения max h(u/z)=max h()
Если шум воспроизведения имеет фиксированную дисперсию , то дифференциальная энтропия h(?) имеет максимум в случае нормального распределения max h()=log

В данном рассмотрении энтропия шума воспроизведения чаще всего бывает >0

При заданной дисперсии сообщения источника Рс дифференциальная энтропия гауссовского источника оказывается равной h(u)= log

В этом случае эпсилон - энтропия равна log log

Отношение мощности сигнала к мощности шума воспроизведения соответствуе той минимальной величине, при которой сигналы на входе и на выходе канала оказываются эквивалентными

Эпсилон – энтропия непрерывного источника при нормальных законах распределения сигнала на входе канала и шума воспроизведение не зависит от их моментов первого порядка.
15. Непрерывный источник сообщений. Производительность и избыточность непрерывного источника.

Для описания информационных свойств непрерывного источника сообщений используется такое понятие как дифференциальная энтропия

В результате случайный процесс - случайная величина. Важно определить количество информации, а и следовательно Н(а) для непрерывного источника.

Пусть случайная величина характеризуется своим распределением плотности вероятности .Выделим некоторый интервал мгновенных значений непрерывной случайной величины.

Внутри выбранного интервала мгновенное значение случайно величины может принимать различные мгновенные значения:



Количество информации следовательно и H(A),которое соответствовать выбранному интервалу будет соответствовать мере неопределенности появления случайной величины X внутри выбранного интервала:



Для определения количества информации,которое будет вырабатывать непрерывный источник необходимо перейти к случаю,когда будет уменьшатся до 0. Если при этом принять, что внутри выбранного интервала мгновенное значение случаной челичины оказыватся постоянными и равными значению , то получаем дискретное множество отчетов, как и в случае дискретного источника.



Таким образом, H(x) непрерывного источника =, => для передачи сигнала непрерывного источника с абсолютной точностью необходимо передавать за конечное время огромное количество информации. Но, не существует таких каналов, которые бы обеспечивали передачу такого количества информации. На практике вообще не требуется передача информации непрерывного источника с абсолютной точностью.

Первый член, определенный H(x) непрерывного источника – дифференциальная энтропия H(x).

Т.к. непрерывные источники вырабатывают сообщения с различными реализациями, то => все эти источники могут характеризоваться различными значениями дифференциальных энтропий, последняя характеризуется распределением функции вероятности случайно величины.

Производительность непрерывного источника

Производительность источника непрерывных сообщений можно определить как количество информации, которое необходимо передать в ед. времени, чтобы восстановить сообщение при

заданном критерии эквивалентности. Если источник выдает независимые отсчеты сообщения дискретно во времени со средней скоростью , то его - производительность



произволительность источника называют также скоростью создания информации при заданном критерии вероятности. В соответствии с Т.Котельникова

-интервал дискретизации



-производительность источника

Объем информации, который будет передан по непрерывному каналу за время T:



Произведение времени (Т) на ширину спектра сигнала ( в теории сигналов принято называть базой сигнала.

Для прямоугольного видеоимпульса база сигнала = 1

Избыточность непрерывного источника определяется также с использованием



соответствует непрерывному источнику, сигнал на входе которого представляет собой белый шум(гаусс.проц.)

16. Дискретный канал без шумов. Пропускная способность. Теорема Шеннона.

Если в дискр-м канале алфавиты кодовых символов на входе и на выходе одинаковы, а вероятность переходов т.е символы на входе и выходе всегда совпадают, то такой канал называют – дискретный канал без шумов.









Под пропускной способностью ДКБШ будем понимать кол-во информации, передаваемой в единицу времени. Если известна скорость передачи кодовых символов и основание кода , то пропускная спос-ть канала:

Чем выше основание кода, тем больше будет проп. спос-сть ДКБШ.

В соврем-х системах передачи сообщений основание кода . Это обусловлено физической реализацией 2-х символов : 0 и 1.

Теорема о скорости передачи информации:

Если источник сообщения имеет энтропию (двоичных единиц на символ или бит на символ), а канал обладает проп. способ-ю (двоичных единиц в сек), то можно закодировать сообщение источника таким образом, чтобы передавать его по каналу со средней скоростью :

(символ в сек), – малая величина

Данная Т. оказывается справедливой в том случае, если проп. способ-сть канала оказывается больше производительности дискретного источника : . При невыполнении этого условия таких способов кодирования не сущ-ет.

Несколько примеров, доказывающих Т.

Пример 1. Источник без памяти с объемом алфавита выдает дискретные символы с равными вероятностями , – энтропия оказывается максимальной. Если предположить, что основание кода , то кодирование сводится к установлению взаимно однозначного соответ-я каждого элемента сообщения символу кода . Такой способ кодирования принято наз-ть примитивным.



Пример 2. Источник без памяти с равной вер-ью осуществляет выбор дискр-х символов. Будем считать, что в качестве символов выступает цифр0,1,…,9 и с объемом алфавита .

Основание кода при кодировании указанных символов m=2. В этом случае объем алфавита не явл. целой частью основания кода. Тогда энтропия источника:

;

Решим данную задачу с исп-ем лин-го кодирования. Для передачи символов источнику нужен 4-х разрядный линейный код. Потом - 7 кодовых символа, - 10 кодовых символа. Неоптимальный способ.

Такой способ кодирования удобен при док-ве теоремы, но неэфф-н при физич. реализации.

Теорема Шеннона – в дискретном канале без помех с пропускной способностью можно, применяя равномерный код, передавать сообщения любого источника, имеющего объем алфавита со скоростью, сколь угодно билзкой к средней скорости. определится требованием канала (величина меры точности)

(букв в сек)
17. Дискретный канал с шумами. Понятие взаимной информации. Структурная модель канала.

Если на вход дискр-го канала с шумами поступают символы с объемом алфавита равным , а с выхода канала снимаются символы , , то условные вер-сти переходов , а также апостериорные вер-ти удовл-ют усл-ям:

,

то это означает, что при зафиксир-ном символе на выходе канала нельзя с полной уверенностью утверждать какой символ передавался. В этом случае на приемном конце дискр-го канала с шумом всегда сущ-ет некотор. неопред-сть в опр-ии принятого символа .

При передачи инф-ии по каналу всегда сущ-ет некотор. ее потеря. Среднее количество информации, теряемая при передачи произвольного символа по каналу без памяти.



Данная величина называется ненадежностью канала и показывает степень неопределенности последовательности входных символов при условии, что принята последовательность .

Средним кол-вом инф-ии на один символ, передающийся по дискр-му каналу с шумами, наз-тся разность между кол-вом инф-ии, поступающей на вход канала и кол-вом инф-ии, теряемой в канале .



C другой стороны это и есть среднее количество информации, содержащаяся в выходной последовательности относительно входной последовательности .

Т.к. условная энтропия никогда не превосходит безусловную: , то можно записать : .

Среднее количество информации, передаваемой по каналу имеет 2 граничных условия: 1. .

В канале действует огромная помеха и на выходе канала появляются символы, которые не зависят от действия входных символов. 1 случай реализуется тогда, когда канал оказывается физически оборван => сигнал на входе полностью определяется действиями помех в канале. 2 случай, когда кол-во переданной инф-ии соотв-ет кол-ву инф-ии, действующей на входе при отсутствии помех в канале.

Энтропия шума в канале определяется усл.энтропией:



Если на вход дискретного канала поступают символы со средней скоростью (символ/ сек), то можно определить среднюю скорость передачи информации по дискр. каналу с шумом:



где

- производительность источника на входе;

- производительность ненадежности канала;

- производительность на выходе канала;

- производительность источника шума в канале;
Структурная модель дискретного канала с шумом :











18. Дискретный канал с шумами. Пропускная способность канала

Дискретный канал с шумами характеризуется:

- алфавитом кодовых символов ;

- скоростью передачи кодовых символов в сек. ?;

- вероятностью переходов ;

При таком рассмотрении канала символы дискретного источника , с помощью кодирования преобразуются в кодовый символ, который может представлять собой кодовую последовательность.

Количество взаимной информации, содержащейся в среднем в одном символе последовательности относительно последовательности входных символов равен разности двух значений энтропий:

-среднее кол-во инфы, приходящейся на один символ на входном дискр. канале с шумами. Определяется входными параметрами канала.

-условная энтропия-среднее кол-во инфы, теряемой в канале одним символом. Зависит как от свойств источника, способа кодирования, так и свойств канала, который определяется помехами, действующими в канале.

Скорость передачи информации по дискретному каналу с шумами



При взаимооднозначном кодировании энтропия источника определяет первый член. Второй член зависит как от свойств источника и канала, так и способа кодирования. Выбирая различные источники и способы кодирования можно изменять скорость передачи информации. Максимально возможная скорость передачи информации называется пропускной способностью дискретного канала с шумами.

-распределение вероятностей входного источника.

Для канала без помех: .

В ДКБШ пропускная способность не зависит от свойств источника при заданном способе кодирования(известно m) и полностью определяется характеристиками канала - скорость передачи кодовых символов. Если кодовые символы не зависимы друг от друга, не обладают памятью, то реализуется при равновероятном выборе символов на выходе кодера .

Для канала с помехами:

Это означает, что количество передаваемых кодовых символов в канале с шумами должно быть больше, чем в канале без шумов с той же пропускной способностью. Такая избыточность кодовых

символов позволяет повысить достоверность приема, обычно избыточность обеспечивается способами кодирования. Применяемые корреляционные коды для кодирования пригодны, если производительность источника оказывается меньше пропускной способности канала : .
20. Информационные свойства канала с непрерывным сообщением. Связь пропускной способности канала с шириной спектра и мощностью источника.

Под пропускной способностью С непрерывного канала с заданными шумами в канале и скоростью передачи будем понимать предельное количества передаваемой информации в ед. времени, взятое по всевозможным источникам входного сигнала.

Пусть канал имеет ограниченную полосу пропускания шириной F. Тогда сигналы на его входе u(t) и выходе z(t) в соответствии с теоремой Котельникова будут определяться своими дискретными отсчетами, взятыми через интервал времени



В этом случае количество информации, переданное по каналу за время Т, будет равно сумме количества информации, переданных за каждый такой отсчет.

U(t)



t







z(t)

t

Пропускная способность непрерывного канала на один такой отсчет:



Рассчитаем пропускную способность непрерывного канала с аддитивным белым шумом в канале и имеющем:

- полосу пропускания F ;

- мощность сигнала (дисперсия) не более Pc;

- мощность (дисперсия) шума в полосе частот F: Pш=F

Z=U+N

Так как N имеет нормальное распределение с нулевым значением математического ожидания, то ?(z/u) при фиксированном значении u будет также иметь нормальное распределение с дисперсией равной Рш.

Дифференциальная энтропия h(z/u) при нормальном распределении ?(z/u) не зависит от мат. ожидания и в этом случае равна



В случае аддитивности дисперсия на выходе будет равна сумме дисперсий сигнала на входе и шума в канале:



При нормальном одномерном распределении случайной величины U на входе распределение случайной величины Z на выходе будет нормальным, обеспечивая максимум дифференциальной энтропии:



В этом случае пропускная способность непрерывного канала, приходящаяся на один отсчет, будет равна:



Т.к. в соответствие с т. Котельникова дискретные отсчеты оказываются независимыми, то пропускная способность непрерывного канала при равномерной спектральной плотности сигнала в полосе частот F:



Максимальный объем информации переданной за интервал времени Тк, что соответствует его трафику:



Для достижения той же самой пропуск. cпособн. канала можно обменять полосу пропускания канала на мощность источника сигнала сообщения, т. к. мощность сигнала источника сообщения всегда имеет ограничение по уровню, но целесообразно для увеличения пропуск. способн. канала использовать среды, обеспечивающие большую полосу пропускания. В настоящее время для этих целей применяется волоконно-оптический канал.
21. Информационные свойства канала с непрерывным сообщением. Объем передаваемой информации. Основная теорема кодирования.

Объём информации, который будет передан по непрерывному каналу за время T:



произведение времени T на ширину спектра сигнала в теории сигналов принято называть базой сигнала.

Для прямоугольного видеоимпульса база сигнала =1.

{из ?№20 т.к. в сооств. с т. Котельникова дискр. отсчёты оказываются независимыми}Пропускная способность непрерывного канала в заданной полосе частот F будет равна:



Максимальный объём информации, переданный за интервал времени Tk, что соответствует его трафику:



Т(об оптимальном кодировании в непр. канале по Шеннону)

Если эпсилон-производительность будет меньше пропускной способности канала С, то существуют такие способы кодирования и декодирования, при которых с вероятностью близкой к единице, средняя мощность шума воспроизведения будет меньше заданной величины Pш0.

Если исходное неравенство не выполняется, то таких оптимальных способов кодирования не существует.


22. Прием дискретных сигналов. Понятие о решающей схеме.

Любой демодулятор характеризуется своим законом обработки принятого сигнала, по которому сигнал преобразуется в кодовый символ. Это правило принято называть правилом решения, а реализующую его схему - решающая схема. Решающая схема демодулятора с заложенным правилом решения разбивает общее пространство сигналов соотвествующим образом на две подобласти и . Каждый демодулятор со своим правлом решения будет по-разному разбивать это пространство.

Вывод: Если задан критерий качества, то наилучшее разбиение пространства сигналов достигается методами теории статистических решений в этом заложен успех.

В настоящее время используется 2 критерия качества приема дискретных сообщений на фоне помех.

Одним из них является критерий идеального наблюдателя, согласно которому качество решающей схемы демодулятора оценивается безусловной вероятностью правильного приема символа .При этом полагается, что пространство передаваемых и принимаемых сигналов является конечномерным. В таком n-мерном пространстве принятый сигнал z(t) характеризуется n-мерной плотностью вероятности ?(z) вектора сигнала

Для определения правила решения по критерию идеального наблюдателя будем считать, что на вход демодулятора поступает элемент сигнала z(t). При этом демодулятор принимает решение, что передавался символ . Вероятность того, что это решение правильно, будет определяться условной (апостериорной) вероятностью p(/z) – эта вероятность соответствует тому, что при регистрации элемента сигнала z(t) передавался символ .

Вероятность правильного приема будет максимальной в такой решающей схеме, которая отнесет всякую реализацию приходящего сигнала Z(t) к той области пространства сигналов, для которой p(/z) – максимальна.

Критерий идеального наблюдателя обеспечивается решающей схемой, построенной по правилу максимума апостериорной вероятности j=,ij -правило решения представляет собой систему неравенств.

При m=2 система преобразуется в 1 неравенство : p(1,z)>p(0,z) (передавалась 1 , если ”<”- передавался 0). Используя формулу Байеса апостериорная вероятность




-апостериорная вероятность появления кодовых символов

- функция правдоподобия, не зависит от символа j

- функция плотности вероятностей распределения мгновенных значений сигнала, действующего на входе демодулятора.

правило решения по критерию идеального наблюдателя принимает следующий вид

j=,ij

При m=2 : p(1)?(z /1)> p(0)?(z / 0)

Для принятия решения о передаваемом символе необходимо знать:

  • Апостериорную вероятность

  • Функцию правдоподобия

  • Правило решения по критерию идеального наблюдателя можно модернизировать следующим образом

, j=,ij

В случае если все m кодовых символов передаются равновероятно, т.е. =1/m, то правило решения как отношение функций правдоподобия принимает следующий вид

Если ввести шумовую функцию правдоподобия ?(z/n[t]) в систему неравенств, то правило решения принимает следующий вид: Система неравенств выражается на основе функций правдоподобия. При m=2 правило решения основывается на вычислении одного неравенства .

При рассмотрении систем передачи информации иногда важное значение принимает случай какое решение принимает решающая схема демодулятора в зависимости от передаваемого символа ,т.е. какой вид имеет ошибка.

Пример: система передавала 1, а демодулятор принял решения, что передавался 0 и соответственно наоборот. . Вес такой ошибки оказывается различным при принятии решения на выходе приемного устройства.

Для решения задачи влияние различных видов ошибок при принятии демодулятора решений для каждой пары символов вводится некоторая численная мера, которую принято называть потеря. В случае правильного приема решения, когда , величина потерь .

Критерий min среднего риска заключается в том, что оптимально считается реализуемая схема, обеспечивающая наименьшее значение среднего риска . Приемник работающий по такому критерию- байесовский.
24, 25. Прием дискретных сигналов. Критерии качества и основные правила приема дискретных сообщений.

В этом случае удается отыскать наилучшую операцию обработки принятого сигнала z(t), обеспечивающую максимальное качество оценки .

Если принять, что свойства источника сообщения и кодера известны, а также модулятор и математическая модель непрерывного канала, то в этом случае нам требуется определить, каким должно быть правило решения демодулятора, обеспечивающего оптимальное качество приема. В такой постановке качество оценивается вероятностью правильного приема символа.

Максимум этой вероятности при заданном виде модуляции принято называть потенциальной помехоустойчивостью, а сам демодулятор –идеальным приемником.

Рассмотрим общую задачу приема дискретных сообщений на фоне шумов, действующих в канале. Будем считать, что при передачи дискретных сообщений, закодированных кодом с основанием m , используется реализации сигнала (t), действующие в интервале времени 0, i=

Если m=2, то в этом случае система передает 2 кодовых символа: 0 или 1и, соответственно, на выходе передающего устройства мы получаем 2 сигнала (t).

Каждому передаваемому кодовому сигналу соответствует сигнал постоянной длительности =T.

В течение тактового интервала на вход демодулятора поступает колебание Z(t), которое под действием помехи принимает вид, не совпадающее в точности ни с одним из передаваемых сигналов Ui(t)

Приемное устройство (демодулятор) с помощью своей решающей схемы должно выбрать одну из m возможных взаимоисключающих гипотез:







В двоичной системе демодулятор выбирает одну из двух гипотез 0 или 1. В графическом представлении все пространство сигналов разбивается на две области и .Путем создания определенного правила решения заложенного в решающую схему сигнал z(t) на входе демодулятора представляет собой смесь полезного сигнала и помехи: z(t)=; сигнал, соответствующий передаваемому кодовому символу ;n(t)-помеха, действующая в канале.

Если кодера нет - передаем соответствующий передаваемый символ. Кодер нужен для кодирования, с целью обнаружения и исправления ошибок.

Графическая модель канала:

2 передаваемых сигала и будут представлены двумя своими точками(векторами) в геометрическом пространстве сигналов.

Если бы не было помехи мы осуществили бы безошибочный прием. Воздействие помехи смещает точки сигналов. Решающая схема демодулятора с заложенным правилом решения разбивает общее пространство сигналов соответствующим образом на две подобласти и .

Каждый демодулятор со своим правилом решения будет по-разному разбивать это пространство. Вывод: Если задан критерий качества, то наилучшее разбиение пространства сигналов достигается методами теории статистических решений в этом заложен успех.

Критерии качества и правила приема дискретных сообщений.

В настоящее время используется 2 критерия качества приема дискретных сообщений на фоне помех.

Одним из них является критерий идеального наблюдателя, согласно которому

качество решающей схемы демодулятора оценивается безусловной вероятностью правильного приема символа .

При этом полагается, что пространство передаваемых и принимаемых сигналов является конечномерным. В таком n-мерном пространстве принятый сигнал z(t)

характеризуется n-мерной плотностью вероятности ?(z) вектора сигнала

В такой записи функция ?(z) может рассматриваться как проекция вектора принятого сигнала z(t) на одну из осей ортонормированного базиса.

Если передается символ , т.е. посылается сигнал Ui(t) в канал связи, то можно определить условную n-мерную плотность вероятностей ?(z/) – функцию правдоподобия i-ой гипотезы.

Для определения правила решения по критерию идеального наблюдателя будем считать, что на вход демодулятора поступает элемент сигнала z(t). При этом демодулятор принимает решение, что передавался символ . Вероятность того, что это решение правильно, будет определяться условной (апостериорной) вероятностью p(/z) – эта вероятность соответствует тому, что при регистрации элемента сигнала z(t) передавался символ .

Вероятность правильного приема будет максимальной в такой решающей схеме, которая отнесет всякую реализацию приходящего сигнала Z(t) к той области пространства сигналов, для которой p(/z) – максимальна. Критерий идеального наблюдателя обеспечивается решающей схемой, построенной по правилу максимума апостериорной вероятности j=,ij -правило решения представляет собой систему неравенств.

При m=2 система преобразуется в 1 неравенство : p(1,z)>p(0,z) (передавалась 1 , если ”<”- передавался 0)

Используя формулу Байеса апостериорная вероятность



-апостериорная вероятность появления кодовых символов

- функция правдоподобия, не зависит от символа j

- функция плотности вероятностей распределения мгновенных значений сигнала, действующего на входе демодулятора. Правило решения по критерию идеального наблюдателя принимает следующий вид

j=,ij

При m=2 : p(1)?(z /1)> p(0)?(z / 0)

Для принятия решения о передаваемом символе необходимо знать:

  1. Апостериорную вероятность

  2. Функцию правдоподобия

Правило решения по критерию идеального наблюдателя можно модернизировать следующим образом



j=,ij

В случае если все m кодовых символов передаются равновероятно, т.е. =1/m, то правило решения как отношение функций правдоподобия принимает следующий вид



Если ввести шумовую функцию правдоподобия ?(z/n[t]) в систему неравенств, то правило решения принимает следующий вид: Система неравенств выражается на основе функций правдоподобия. При m=2 правило решения основывается на вычислении одного неравенства .

Более обобщенным критерием, чем критерий идеального наблюдателя является критерий среднего риска. (вопрос № 26).

23. Прием дискретных сигналов как статистическая задача. Идеальный приемник.

В случае передачи дискретных сообщений на выходе кодера мы получаем кодовую последовательность символов , соответственно в модуляторе эти символы преобразуются в электрические символы соотв. Передаваемой кодовой последовательности.

Все символы кодовой последовательности имеют равную длительность. Принятый сигнал, который действует на вход демодулятора представляет собой аддитивную смесь: сигнал + помеха.

На выходе демодулятора мы получаем кодовую последовательность символов соотв. передав. из-за действия помехи на входе демодулятора мы получаем сигнал z(t), который отличается от передаваемого.В этом случае в р-те обработки демодулятором принятого сигнала, нельзя с полной достоверностью утверждать, какой символ передавался, след-но выбор различных способов обработки в демодуляторе приведет к различной оценке по предаваемому символу. В качестве такой оценки может выступать вероятность правильного приема. Вопрос о приеме дискретных сообщений выступает в виде статистической задачи. Для ее решения будем считать что на вход демодулятора (модема) поступает аддитивна смесь: z(t)=Si(t,bi)+n(t).Где Si(t,bi) – соотв. передаваемому символу bi, n(t) – помеха в канале.

Наилучший результат при приеме дискретных сообщений получается на основе статистической теории. В этом случае удается отыскать наилучшую операцию обработки принятого сигнала z(t), обеспечивающую максимальное качество оценки кодового символа . Если принять, что св-ва источника сообщения и кодера известны, а также модулятора и Мат. Модель непрерывного канала (известны характеристики шумов). В этом случае требуется определить каким должно быть решение демодулятора, обеспечивающее максимальное качество приема. В такой постановке качество оценивается вероятностью приема символа. На этой вероятности при заданном виде модуляции принято называть потенциальной помехоустойчивостью, а сам демодулятор - идеальным приемником.

Если задан критерий качества(вопрос25 и 26), то наилучшее разбиение пространства символов достигается методами теории статистических решений.
1   2   3   4



Скачать файл (975.5 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации