Logo GenDocs.ru


Поиск по сайту:  


Шпаргалки к Теории электросвязи Часть 2 (ТЭС) - файл шп ТЭС 01-09.doc


Шпаргалки к Теории электросвязи Часть 2 (ТЭС)
скачать (9912.1 kb.)

Доступные файлы (6):

шп ТЭС 01-09.doc6485kb.31.01.2010 13:54скачать
шп ТЭС 10-18 .doc5864kb.01.02.2010 09:56скачать
шп ТЭС 10-18.doc5864kb.05.02.2010 21:15скачать
шп ТЭС 19-27.doc3277kb.03.02.2010 19:55скачать
шп ТЭС 28-35.doc6790kb.04.02.2010 02:33скачать
шп ТЭС 36-40+вопросы.doc2986kb.05.02.2010 21:12скачать

содержание

шп ТЭС 01-09.doc

Реклама MarketGid:

1.Понятие взаимной информации

Энтропия – среднее количество информации на одно сообщение, которое формируется источником.

-потеря информации

T – среднее время передачи 1 сообщения

,






Физический смысл:

скорость форм.источника информациипердача – фильтрация, потери, помехи в процессе распространения в ЛС добавл. Помехи (случайные, КС) увеличивается количество информации в

Взаимную информацию м. определить:



Если воспользоваться теоремой умножения вероятностей для взаимосвязанных сообщений, то

получим: симметрич формула

^ 2.Свойства взаимной информации

1.

2., откуда следует

3., т. к. существуют потери в КС.

4. , т. к. существуют потери в КС.

5. Если В=А и учитывая, что, то , т.е. энтропия источника есть его собственная информация.

^ 3.Информация в непрерывных сигналах, дифференциальная энтропия

Закон распределения для данного момента времени: . W(s) - плотность распределения.

При

. Энтропия источника генерирующего случайную величину

Непрерывный сигнал содержит число признаков

; ;

Работа систем аналоговой связи : суть состоит в том, что 1) мы интересуемся частью информации в аналоговом сигнале (сигнал подавляется фильтрацией), 2) изменение информации при передаче информации взаимная, а не полная энтропия нас интересует, рассматрив. приращ. энтропии вел-ны не будут 3) дифференциальная энтропия – характеристика непрерывного источника. Для непрер.случайн. величины с законом изменения- интеграл от произведения этой величины на закон распр.этой величины. х – непрерывная случайная величина.

^ 4.Понятие пропускной способности канала святи (рис????)





1[бит/символ] – пропускная способность потока.

Пропускная способность – характеристика канала связи – экономичность информации. Экономия энергии и временных затрат на передачу.

2. [Бит/с]

Достигаем max С за счет скремблирования, фильтрации, переноса спектра. При этом свойства канала используется наилучшим образом.

-передачи КС, достигаемая за счет предварительного преобразования сигнала. Экономичность представления сигналов в этом канале, оценивается Бит/симв

передачи в КС, достигаемое за счет оптимизации временных характеристик сигналов, оптимизации частот этих сигналов.

Пропускная способность – некий предел к которому стремится скорость передачи. Реальные нагрузки КС< С пропускной способности канала

Способ кодирования передачи бит как процесс во времени.

Время, тратившееся на передачу одного символа – техническая скорость передачи (Бит/с)

Коэффициент передачи = отношению скорости передачи к пропускной способности - для дискретных каналов.

^ 5.Пропускная способность непрерывного канала связи

F-полоса пропускания КС, те диапазон частот. - интервал дискретизации.

Пропускная способность на один отсчет -



.Дифференциальная энтропия – энерг характ источника, условн.энтропия- потери в КС.

Пусть .


дифференциальная условная энтропия сообщения Z при известном U.

дифференциальная энтропия на выходе КС

Поскольку шум аддитивный, то ;

дифференциальная энтропия





^ 6.Информация в непрерывных сообщениях, эпсилон-ентропия

-экв

1.;

2. ;

3. - среднее значение квадрат.отклонения (теор.управл и связи)







Эквивалентность – канал обладает свойством, что он «не искажает» сообщение, т.е. сообщение, поступающее на его вход почти идентично сообщению, получаемому на его выходе, ограничено . МО и его отклонение. Центр.случайный процесс МО=0, мы ее не передаем.

3. Если разность сигнала укладывается в полосу пропускания, то передаваемое и полученное сообщение эквивалентны.

-принятое сообщение, - реализация сигнала, - закон

^ 7.Кодирование как представления информации в цифровом виде






тк энтропия бесконечна, невозможно полностью восстановить информацию.

Q- некоторое целое число, представленное в виде суммы произведения некоторого множества на основание системы счисления

-основание кода -разряды

1 60000 60000

2 16 32

3 10 30

4 8 32

16 4 64

40 3 120

60000 1 60000

Чем больше основание системы счисления, тем короче длина передаваемой последовательности.

Сообщение – дискретно (дискретн.позиций);

Информация – количество позиций;

число уровней – количеств.оценка информации;

позиционная система счислений – представление числа в виде совокупности разрядов. Параметры структуры элементов называют кодом.

Произведение - экономичность системы. При - наиболее экономичная.


^ 8.Назначение кодирования в системах связи




Теорема Шеннона (однозначное соответствие): Кодирование и декодирование взаимозаменяемые явления.

- энтропия источника = энтропии кода, и наоборот. Представление однозначно, если нет временных помех.

Дополняем систему источником:




Широкий смысл дискретное представление.


Назначение кодирования в системах связи:

1.Согл. источн с КС

(Источник генерирует сигнал информации, потом ее необходимо передать по ЛС, для этого нужно поставить кодер, согласующий сигнал с КС при преобразовании, приспособление к КС. Формирование алфавита наиболее экономично, когда самые часто встречаемые символы представлены коротким знаком )

2. Повышение информативности кода

(архиватор, уменьшение избыточности но при увеличении за счет избыточности – помехоустойчивость падает.)

3. Повышение помехоустойчивости

(возможно за счет внесения избыточности.)



^ 9.Параметры кодовых последовательностей



СЗР – старший значащий разряд, МЗР – младший значащий разряд


Параметры: - основание кода m (для доичных систем = 2);

-знакоместо (каждый разряд со свом номером);

-номер разряда;

-количество элементов в кодовом слове (n);

-число кодовых слов (M, );

-избыточность;


;

, R- относительная скорость кода , m – максимально число комбинаций

- расстояние по Хеммингу .


,

- кодовое расстояние

Кодовое расстояние – минимальное отличие одной таблицы от другой, .


*

3.Обратная сторона

Дифференц.энтропия нормального распределения зависит от мощности сигнала ;S, U – непрер-е случ.величины

;в {}усл.плотность вероя-и 2 источ-в






*

6.Обратная сторона

распределения, - дифферниальная.энтропия. Характеристика канала определяет min количество информации, которое необходимо передать, чтобы восстановить передаваемое сообщение с заданным критерием эквивалентности. Закон распределения . ;

;



т.к.


- производная непрерывного источника- минимальная частота сигнала, - производная непрер. источника = дифференц.энтропии на . Производная непрер.источника определяется:-полосой пропускания,-отношением сигнал/шум.


5.Обратная сторона




Чем шире полоса частот, тем больше информативных параметров источника можно использовать.

Чем больше полоса, тем больше пропускная способность.


Скорость нарастания ограничена, при уменьшении шумов мы не можем сделать их 0, и параметры сигнала мы не можем сделать .












*

Реклама:





Скачать файл (9912.1 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru
Разработка сайта — Веб студия Адаманов