Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Математические модели сигналов - файл n1.docx


Математические модели сигналов
скачать (975.5 kb.)

Доступные файлы (1):

n1.docx976kb.06.01.2013 14:36скачать


n1.docx

  1   2   3   4
1.Обобщення структурная схема системы передачи информации. Понятие системы и канала передачи сообщений.

Под системой передачи сообщений понимается совокупность математических, программных и технических средств, которые используются для передачи сообщения по каналу и обеспечивающий получение информации с наибольшей правдоподобностью.

СИ содержит 3 базовых элемента:

Структурная схема:



На вход приемного устройства поступает чаще всего аддитивная смесь: сигнал + помеха. Т.о. приемное устройство обрабатывает совокупность этих двух сигналов.

В основу математических методов, заложенных при построении системы передачи информации. Заложены теория вероятности и теория случайных процессов.

Под каналом передачи сообщений в широком смысле понимается совокупность средств, используемых для передачи сообщений и соответствующих им сигналов от источника до получателя.

В зависимости от своего назначения системы передачи информации могут быть открытыми и закрытыми, локальными и распределенными, а также определяются типом сигналов, которые используются для передачи сообщений. В зависимости от типов сигналов, которые действуют на входе и выходе системы, каналы передачи информации классифицируются на 3 вида:

  • Дискретные;

  • Дискретно-непрерывные;

  • Непрерывные

Обобщенная структурная схема системы передаваемой информации представлена так: (независимо от вида используемого сигнала)



Передатчик выполняет функцию усилителя и тем самым увеличивает энергию передаваемого сигнала. В канале связи происходит ослабление сигнала и на него накладывается помеха.





Совокупность в одном устройстве модулятора и демодулятора соответствует модему.

2. Случайные величины и сигналы. Числовые характеристики для равномерного закона распределения случайной величины.

При передаче СМС по каналу они испытывают воздействие помехи, которое соответствует случайному процессу. В общем случае и источники СМС также вырабатывают сигналы, которые чаще всего также соответствуют случайному процессу.

примерный вид одной из реализаций источника сообщений.

Отличительной чертой случайных сигналов является тот факт, что их мгновенные значения нельзя предсказать заранее с абсолютной достоверностью => для их описания используются вероятностные характеристики. Одной из важнейших характеристик случайной величины, к которой можно отнести мгновенное значение сигнала, является вероятность ее появления. Если рассматривать дискретный источник, то он вырабатывает дискретные символы из конечномерного алфавита V=k, это соответствует(из теории вероятностей) понятию полного множества случайных событий ?:



Основные аксиомы:

  1. Вероятность события всегда >0 и

  2. Если – несовместимые события :

  3. Сумма всех событий, содержащихся в полном множестве ?, есть достоверное событие:

Случайные процессы, которые существуют в системах передачи информации м/б как стационарными, так и не стационарными, случайные процессы бывают стационарными в широком смысле и узком смысле.

Стационарный в узком смысле – если его функция плотности вероятности не зависит от временного сечения случайного процесса:




Стационарный в широком смысле – если его функция плотности вероятности , а также числовые характеристики не зависят от t, при этом функция корреляции определяемая расстоянием м/у 2мя отчетами времени: – функция корреляции.

Далее будем рассматривать стационарные процессы в широком смысле.

Функция распределения и числовые характеристики случайных процессов.

Случайный процесс описывается 2мя распределениями:

  1. Функция плотности вероятностей . Вероятность того, что случайная величина x примет значение, лежащее в интервале ()

–данная запись справедлива для сечения, соответствующего .

  1. 2ая характеристика – вероятностная характеристика(интегральная) F(x)=p

Такая интегральная характеристика всегда непрерывна и нарастающая, т.е. . Т.о. интегральная вероятностная характеристика изменяется в пределах от 0 до 1. В случае дискретного источника функция плотности вероятности:

– вероятность появления i-го символа.

Если взять предел интегрирования функции , то



Т.е. соответствует дифференциальной характеристике, она также непрерывна.
Моменты случайной величины

Результатом экспериментов над случайными величинами, как правило, служат средние значения тех или иных функций от этих величин.

Если (x) – известная функция от х (исхода случайного испытания), то по определению, ее среднее значение оказывается равным:



Для расчетов случ. величин, т.е. их средних значений используются моменты n-го порядка:

Моменты случайной величины:

, черта над x означает усреднение по ансамблю;

;

;

;

В случае усреднения по одной реализации также рассчитывается момент 1го порядка, но в этом случае .









t

С физической точки зрения соответствует среднему значению или постоянной составляющей случайного процесса. C геометр. точки зрения момент 1го порядка соответствует проекции центра тяжести геометр. фигуры функции плотности вероятностей.

– начальный момент 2го порядка. C физической точки зрения соответствует полной мощности

случайного процесса.

- (центральный момент или дисперсия случ. Процесса) с физической точки зрения соответствует мощности флюктуации.

= – среднеквадратическое отклонение, соответствует разбросу случайной величины.

Равномерное распределение









0





Наиболее простым является Равномерное распределение, для которого плотность вероятностей постоянна для данного интервала ( и равна нулю за его пределами, т.e.

Если, например, измерение какой-либо величины производится с точностью до целого числа делений шкалы измерительного прибора, так что ошибки, превосходящие по абсолютному значению половину деления (или половину шага квантования в приборах с цифровым отсчетом), практически невозможны, то ошибка измерений ? представляет собой равномерно распределенную случ. величину. Возможными значениями ? в этом смысле являются действительные числа, не превосходящие по своей абсолютной величине половину деления шкалы.
3. Случайные величины и сигналы. Числовые характеристики для гауссовского закона распределения случайной величины.

2 вопрос, кроме равномерного распределения +

Гауссовское распределение плотности вероятностей случайной величины.







-постоянная составляющая случайного процесса

функция плотности вероятности для Гауссовского белого шума



4. Классификация каналов. Математическое описание дискретных каналов.

Классификация каналов. В зависимости от сигналов, действующих на входе и выходе канала передачи сообщений, можно выделить три типа каналов: дискретные, дискретно-непрерывные, непрерывные.

В случае ДК передачи информации на входе и выходе наблюдаются дискретные сигналы как по уровню, так и состоянию информационного параметра во времени или символы из конечномерного ансамбля. Принципиально важно подчеркнуть, что в ДК действуют дискретные сигналы по уровню или дискретные символы с конечным объемом алфавита. В соответствии с обобщенной структурной схемой передачи информации ДК существует между точками: А-A', В-В`, А-В`, В-A’.

Для математического описания ДК передачи сообщения должны быть заданы 4 элемента:

  1. алфавит кодовых символов на входе: bi (i=1,m), где m основание кода;

  2. Априорные вероятности появления этих символов p(bi)

  3. алфавит кодовых символов на выходе канала: bj (j=1, m`), где m'-основание кодовых символов;

  4. Заданы вероятности переходов: соответствует тому, что при передачи символа появится .

Кроме 4 параметров при математическом описании можно получить совместную вероятность 2-х событий : .

Апостериорная вероятность соответствует вероятности того, что при регистрации символа на входе будет действовать символ . Данная апостериорная вероятность может быть определена, если известны априорные вероятности передаваемых кодовых символов p(bi), а также вероятность переходов :



5. Однородные и неоднородные дискретные каналы памятью и без памяти.

1) Однородные и неоднородные;

2) С памятью и без памяти;

3) Симметричный без стирания.

4) Канал со стиранием.

Опр. ДК окажется однородным (стационарным), если вероятность переходов, для каждой пары символов , не зависит от времени. Если хоть для одной пары передаваемых символов зависит от времени, то такой канал неоднородный.

Опр. ДК называется с памятью, если вероятность перехода зависит не только от передаваемого символа , но и от последующих кодовых символов. Если вероятность переходов определяется только кодовым символом , то такой канал принято называть без памяти.

Опр. ДК симметричный и без стирания, если основание кода на входе и выходе совпадает, т.е .



Если вероятность перехода , что соответствует правильному приему.

6. Геометрические модели симметричных дискретных каналов(ДК) без и со стиранием.

ДК оказывается симметричным и без стирания, если основание кода на входе и выходе совпадают, т.е. m=m? . Вероятность переходов p()= при ij, это соответствует ошибке в канале, если вероятность перехода равна q=1-(m-1)*,при i=j это соответствует правильному приему, следовательно, имеет место быть каналу без стирания.

Структурная модель однородного симметричного канала без стирания может быть представлена в виде некоторой графической модели. На входе действуют 2 символа и при основании кода m=2. На выходе - ,, соответственно две функции вероятности перехода: -соответствует вероятности перехода ;- соответствует вероятности перехода .




Такой переход является ошибочным, и на приемном конце получаем ошибочный кодовый символ. Задача кодера состоит в обнаружении ошибки и её возможном исправлении.
Дискретный канал (ДК) со стиранием.

В ДК со стиранием основание кода на выходе чаще всего на единицу отличается от основания кода на входе, т.е. m?=m+1. Графическая модель такого сигнала имеет следующий вид:




На входе два символа, на выходе три. соответствует процессу стирания, т.к. система не может распознать какой из двух символов передавался.

Для любой модели ДК можно записать, пользуясь сложением(по модулю основания кода m) в дискретном векторном пространстве следующее соотношение:

B’[n]=B[n]+E[n], где B’[n]-кодовая комбинация на выходе ДК с количеством символов n; B[n]-кодовая последовательность действующая на входе ДК; E[n]- кодовая последовательность образуемая в канале передачи информации под действием помехи.

Если основание кода m =2, то кодовые символы принимают два значения: 0 и 1. Если кодовая последовательность помехи будет содержать нули и единицы, то в этом случае если в одном из разрядов стоит 0,то это означает правильный прием, 1 означает ошибку при приеме сигнала. Для количественной меры ошибки служит расстояние Хеммигна, которое соответствует числу единиц в кодовой последовательности помехи Е[n]. Обозначим d(B’[n],B[n])-разность между принятой и передаваемой последовательностями.
7. Математическое описание дискретно-непрерывных каналов. Основные характеристики.

Дискретно-непрерывный канал – канал, на входе которого дискретный, а на выходе непрерывный по уровням сигнал( или наоборот).

Иногда ДНК проводят дискретизацию принятого непрерывного сигнала. Такой сигнал – дискр. по времени.

Точки доступа к такому каналу: A-Z,B-Z или Z-A’. В дальнейшем мы будем рассматривать ДНК м/д B-Z.

Математически такой канал оказывается описан, если заданы:

  1. Алфавит входных символов

  2. Априорная вероятность появления входных символов p()

  3. Плотности вероятностей переходов w(z|), что на выходе появится реализация колебания z(t ) при условии, что на входе , соответствует так же функции правдоподобия, т.е. вероятности того, что при реализации выходного сигнала z(t), на входе действовал код.символ . Сигнал z(t) содержит 2 составляющие: сигнал+помеха.

z(t)=; сигнал, соответствующий передаваемому кодовому символу ;n(t)-помеха, действующая в канале.
Если полностью детерминорован, т.е. его параметры точно известны в точке приема информации, то функция плотности вероятности перехода:

w(z|)=w[n(t)]
На приемном конце оказывается неизвестным только номер передаваемого сигнала i, следовательно решающее устройство в демодуляторе должно определить этот номер.
Плотность вероятностей переходов, в случае Гауссовского аддитивного белого шума с равной спектральной плотностью имеет следующий вид:

w(z(t)| k

k- коэф. Пропорциональности из условия нормировки функции плотности вероятности;

-спектральная плотность белого шума; t- длительность кодового сигнала(период).

для ДНК

- вероятность того, что принятой 1 реализации сигнала z(t) передавался символ .

. cигнала на выходе :

w(z(t)|



  1. Однородные или стационарные(если функция вероятности переходов не зависит от времени передаваемого сигнала)

  2. Неоднородные или нестационарные ( если функция правдоподобия хотя бы для одного передаваемого символа зависит от времени)

  3. Каналы без памяти ( если функции плотности вероятности переходов w(z(t)|зависит только от одного передаваемого символа )

  4. Каналы с памятью( если w(z(t)|зависит еще и от последующих символов)


8. Непрерывные каналы передачи сообщений и их математическое описание.

В таком непрерывном канале сигналы на входе и выходе оказываются непрерывны по уровню. Данный канал в обобщенной схеме реализуется между точками U-Z.



Для математического описания непрерывного канала необходимо задать 2 элемента:

-распределение плотности вероятности для входных сигналов W(U)

-плотность вероятностей переходов

Виды непрерывных каналов:

-Стационарные (однородные) каналы

-Нестационарные (неоднородные):-каналы с памятью

-каналы без памяти

Непрерывный канал будет стационарным, если функция плотности вероятности для пар реализаций входных и выходных сигналов не зависит от времени. Если функция вероятностей переходов для одной пар реализаций входных и выходных сигналов зависит от времени, то такой канал нестационарен.

Канал называется без памяти, если мгновенное значение реализации Z(t) на выходе канала в момент времени t определяет мгновенное значение реализации входного сигнала в тот же момент времени.

Если функция плотности вероятности для любой пары реализации в частности мгновенные значения выходного сигнала Z(t) определенные в момент времени t несколькими мгновенными значениями входного сигнала U(t) в различные моменты времени, то такой сигнал оказывается с памятью.

Классификация каналов передачи информации и их виды:



10. Количественное определение информации в сообщении. Связь количества информации с достоверным и недостоверным сообщением.

Чтобы сравнивать различные каналы передачи сообщений, а также их источники и системы накопления и хранения инфы необх. иметь нек. колич-ую меру. Сущ-ет несколько подходов к формир-ию колич-ой меры сообщения:

- учитывается содержат-ая часть сообщения;

- вер-ая хар-ка появления сообщения на вых-е источника.

В системах обработки инфы (сообщения) наиб-шее распространиние получил вер-ый подход, кот-й был предложен Шенноном.

Колич-ая мера инфы в символе дискретного источника.

Дискр-ый источник вырабатывает , , из конечномерного алфавита объемом

Две модели выбора дискретного символа источником:

1. Выбор дискретного символа источником заранее известен (достоверное событие).В этом случае заключенная в нем информация количественно равна нулю. По Шеннону в таком символе не содержится инфы, при этом не учитывается содержат-ая часть сообщения.

Чем менее вероятно событие, тем большее кол-во инфы должно содержаться в этом символе.

2. Выбор символа ai источником производится с некоторой вероятностью p ( ai ).

Количество информации I( ai ) , заключенное в выбранном символе ai ,

является функцией этой вероятности I( ai ) =I [ p( ai )]. След-но, наша задача – выяснение этой хар-ки зав-ти кол-ой меры инфы в зав-ти от вер-ти появления символа.

Количественная мера информации

1. Для поиска функциональной зависимости количественной меры информации I(ai ) =I [p (ai )] будем считать, что источник вырабатывает пару следующих друг за другом символа (ai, ak), которые будем рассматривать уже как укрупненный символ, соответствующий новому алфавиту с объемом алфавита К2.

2. Вероятность такого совместного события, есть вероятность того, что источник произведет последовательный выбор символов ai и ak : р (ai, ak).

Если поведение зависит от предшествующих символов, то в ее вер-ти появления должны учитываться вер-ти появления предшествующих символов; в этом случае дискретный источник оказывается с памятью.

В такой паре событий уже будет содержаться другое количество информации (определяется вер-тью совместимых событий) .

Количество информации, заключенное в паре символов ai и ak, должно удовлетворять условию аддитивности, т.е. равняется сумме количества информации, содержащейся в каждом символе ai и ak первоначального алфавита объемом К.



3. С другой стороны, вероятность выбора источником пары последовательных символов ai и ak по правилу умножения .

Требование аддитивности количества информации при операции укрупнения алфавита позволяет записать

Введем следующие обозначения , тогда для любых значений p и q: и .

Продифференцируем обе части уравнения по р: I ' ( p) = qI '[ pЧ q].

Умножая обе части на р и введя следующее обозначение pq=r имеем ; и .

Последнее уравнение оказывается симметрично относительно p и q, что возможно лишь в случае, если обе части уравнения соответствуют некоторой постоянной величине ?:

; ; , интегрируя обе части получаем функциональную зависимость кол-ой меры инфы, сод-щейся в символе дискретного источника. Коэф-т С опр-ся из нач-ого усл-ия соотв-его достоверному событию (р=1)

При ?=1 ;

Чаще выбирают – в системах передачи инфы и обработки данных - и в этом случае получаем количественную меру информации по Шеннону

Если имеется дискр-ый источник с объемом алфавита к=2, кот-ый имеет равную вер-ть появления р=1/2, то в этом случае кол-во инфы, кот-ое будет содерж-ся в символе, вырабатываемом источником равно 1, эту кол-ую меру принято наз-ть одним битом.
11. Дискретный источник сообщений. Энтропия, производительность и избыточность источника.

Рассмотрим дискретный источник, в котором вероятность выбора элементарного символа не зависит оттого, какие символы вырабатывались ранее. Такой источник относится к классу источников без памяти. Для него имеется алфавит А(а1,..аk) объемом k, существует постоянная вероятность выбора аi символа– p(аi). Сумма всех вероятностных событий , которые вырабатывает источник должна быть равна 1.

В этом случае в качестве среднего значения количества информации, приходящейся на 1 символ дискретного источника, вводится энтропия – H(A).



Это достигается, если источник вырабатывает символы с равной вероятностью.

Все другие дискретные источники всегда имеют меньшее значение энтропии при одном и том же объеме алфавита. С увеличением объема алфавита при равновероятных событиях появления символов энтропия будет увеличиваться.

В свою очередь энтропия характеризует заданное распределение вероятности с точки зрения степени неопределенности выбора того или иного символа

H(A) = 0 в том случае, если одна из вероятностей , тогда вероятность появления другого символа оказывается равным 0. Т.о энтропия равная 0 соответствует всегда появлению достоверного символа.

Можно сравнивать источники по мере избыточности. Она зависит от протяженности статистических связей между последовательно выбираемыми символами(память источника) и от степени вероятности появления каждого символа на выходе источника.

H(A)- энтропия дискретного источника с неравновероятными значениями появления символов.

- энтропия источника с равновероятными значениями появления символов. (идеальный источник).

Для определения производительности дискретного источника необходимо знать:

  1. Скорость выдачи дискретных символов в единицу времени

  2. Энтропию дискретного источника

- длительность во времени дискретного символа.

12. Непрерывный источник сообщений. Энтропия и дифференциальная энтропия.

Д.э. – для описания информационных свойств непрерывного источника сообщений

В результате случайный процесс – случайная величина. Важно определить кол-во информации, а следовательно, Н(А) для непрерывного источника. Пусть СВ характеризуется распределением плотности вероятности . Выделим нез.интервал мгновенных значений непрерывной СВ




Внутри выбранного интервала мгновенное значение СВ может принимать различные мгновенные значения. Вероятность того, что СВ окажется в p(Xk)

Количество информации, следовательно и Н(х), кот. будет соответствовать выбранному интервалу , будет соответствовать мере неопределенности появления СВ х внутри выбранного интервала



Для определения количества информации, кот. будет вырабатывать непрерывный источник, необходимо перейти к случаю, когда будет уменьшаться до 0. Если при этом принять, что внутри выбранного интервала мгновенное значение СВ оказывается постоянным и равным Xk, то получаешь дискретное множество отсчетов, как и в случае дискретного источника

– момент первого порядка



Т.о.Н(х) непр.источника =?, следовательно для передачи сигнала непрерывного источника с абсолютной точностью необх. передавать за конечное время огромное количество информации. Но не существует каналов, которые бы обеспечивали передачу такого кол-ва информации, на практике вообще не требуется передача информации непрерывного источника с абсолютной точностью. Первый член, определяемый Н(х) непрерывного источника – диф-ая энтропия Н(х)
  1   2   3   4



Скачать файл (975.5 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации