Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Расчетно-графическая работа - Расчет оптимального кода по методике Шеннона-Фано вариант 10 - файл 1.doc


Расчетно-графическая работа - Расчет оптимального кода по методике Шеннона-Фано вариант 10
скачать (277 kb.)

Доступные файлы (1):

1.doc277kb.05.02.2012 08:17скачать

содержание

1.doc

Министерство образования РФ

Марийский Государственный Технический Университет

Факультет информатики и вычислительной техники


Кафедра ИВС

Расчетно-графическая работа по Информатике

«Расчет оптимального кода

по методике Шеннона-Фано»
Вариант 10

Выполнил: студент гр. БИ-12

Тупиков Р.А.

Проверил: Берман Н.В.

Оценка: _________

Подпись: _________


Йошкар-Ола, 2010

СОДЕРЖАНИЕ.


АННОТАЦИЯ 3

1. СОДЕРЖАНИЕ ЗАДАНИЯ 4

^ 2. ТЕОРЕТИЧЕСКАЯ ЧАСТЬ 5

КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ 5

ВЫЧИСЛЕНИЕ СКОРОСТИ ПЕРЕДАЧИ ИНФОРМАЦИИ И ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛОВ СВЯЗИ 5

ОПРЕДЕЛЕНИЕ ИЗБЫТОЧНОСТИ СООБЩЕНИЙ. ОПТИМАЛЬНОЕ КОДИРОВАНИЕ 8

^ 3. ПРАКТИЧЕСКАЯ ЧАСТЬ 11

СОДЕРЖАНИЕ ЗАДАНИЯ 11

ПРОГРАММА 13

ПОЛУЧЕННЫЕ РЕЗУЛЬТАТЫ 17

РАСЧЕТ ЗАДАНИЯ 1.2 17

Скорость передачи символов C= 0.14893 бит/сек 17

^ ОПТИМАЛЬНЫЙ НЕРАВНОМЕРНЫЙ КОД 18

СПИСОК ЛИТЕРАТУРЫ 20


АННОТАЦИЯ



В этой курсовой работе рассматривается алфавит из символов, появляющихся с определенной вероятностью, для которого рассчитаны различные величины: количества информации, приходящегося на символ сообщения в случае равновероятных и неравновероятных символов, недогруженость символов, скорость передачи данных и т.д. Также для этого алфавита с использованием методик Шеннона-Фано и Хаффмена построен оптимальный двоичный код. Выполняя данную курсовую работу, мы закрепляем наши знания по предмету

« Теория Информации ».

^ THE SUMMARY
In this course work we consider the alphabet from the symbols appearing with certain probability for which various sizes are designed: quantities of the information, the message falling a symbol in case of equiprobable and not equiprobable symbols, underused of symbols, speed of data transmission etc. Also for this alphabet with use of techniques of Shennon-Fano and Haffman optimum binary code is constructed. Performing the given course work, we fix our knowledge in a subject « the Theory of the Information ».

^


3


1. СОДЕРЖАНИЕ ЗАДАНИЯ


Задание получает каждый студент индивидуально в соответ­ствии с номером в списке группы - m.

Для проведения расчетов разработать программу на языке высокого уровня.
1.1. Число символов алфавита k = m (номер варианта задания) + 10. Определить количество информации на символ сообще­ния, составленного из этого алфавита:

а) если символы алфавита встречаются с равными вероят­ностями;

б) если символы алфавита встречаются в сообщении с ве­роятностями:

p = (1,0 + m)/k; p = p /(k-1); p = (p + p )/(k-2) ...

1 2 1 3 1 2
k-2 k-1

...p =( S p )/[k - (k-2)]; p = ( S p )/[k - (k - 1)].

k-1 n=1 n k n=1 n
Определить, насколько недогружены символы во втором слу­чае.
1.2. Число символов алфавита = k. Вероятности появления символов равны соответственно

p = (1,0 + m)/k; p = p /(k-1); p = (p + p )/(k-2) ...

1 2 1 3 1 2
k-2 k-1

...p =( S p )/[k - (k-2)]; p = ( S p )/[k - (k - 1)].

k-1 n=1 n k n=1 n
Длительности символов

Чему равна скорость передачи сообщений, составленных из таких символов?
1.3. Сообщения составляются из алфавита с числом символов = k. Вероятность появления символов алфавита равна соответ­ственно:

p = (1,0 + m)/k; p = p /(k-1); p = (p + p )/(k-2) ...

1 2 1 3 1 2
k-2 k-1

...p =( S p )/[k - (k-2)]; p = ( S p )/[k - (k - 1)].

k-1 n=1 n k n=1 n

Найти избыточность сообщений, составленных из данного алфавита.

Построить оптимальный код сообщения.



^

2. ТЕОРЕТИЧЕСКАЯ ЧАСТЬ

КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ


Общее число неповторяющихся сообщений, которое может быть составлено из алфавита m путем комбинирования по n символов в сообщении,

(1)

Неопределенность, приходящаяся на символ первичного (ко­дируемого) алфавита, составленного из равновероятных и взаи­монезависимых символов,

(2)

Так как информация есть неопределенность, снимаемая при получении сообщения, то количество информации может быть представлено как произведение общего числа сообщений k на среднюю энтропию H, приходящуюся на одно сообщение:

бит (3)

Для случаев равновероятных и взаимонезависимых символов первичного алфавита количество информации в k сообщениях алфавита m равно:

бит (4)

Для неравновероятных алфавитов энтропия на символ алфа­вита:

бит/символ (5)

а количество информации в сообщении, составленном из k не­равновероятных символов,

бит (6)

Количество информации определяется исключительно харак­теристиками первичного алфавита, объем – характеристиками вторичного алфавита. Объем информации:

(7)

где - средняя длина кодовых слов вторичного алфавита.

Для равномерных кодов (все комбинации кода содержат одина­ковое количество разрядов):

(8)

где n - длина кода (число элементарных посылок в коде).

^

ВЫЧИСЛЕНИЕ СКОРОСТИ ПЕРЕДАЧИ ИНФОРМАЦИИ И ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛОВ СВЯЗИ


В условиях отсутствия помех скорость передачи информации определяется количеством информации, переносимым символом сообщения в единицу времени, и равна

(9)

где n - количество символов, вырабатываемых источником сообщений за единицу времени; H - энтропия (неопределен­ность), снимаемая при получении одного символа сообщений, вырабатываемых данным источником.

Скорость передачи информации также может быть представ­лена как

бит/сек (10)

где - время передачи одного двоичного символа.

Скорость передачи информации всегда определяется относи­тельно первичного алфавита и зависит от его энтропии, а скорость передачи сигналов вычисляется относительно вторичного алфавита (если аппаратура обеспечивает передачу всех качественных признаков вторичного алфавита). Таким образом, скорость передачи информации зависит от информационных ха­рактеристик источника сообщений, а скорость передачи сигна­лов - от быстродействия аппаратуры. Величины эти не следует путать, так как они вычисляются по разным формулам и имеют разные размерности. Так, в отличие от (10), скорость пере­дачи сигналов вычисляется по формуле

символ/сек

где - время передачи одного символа вторичного алфавита.

Для сообщений, составленных из равновероятных взаимоне­зависимых символов равной длительности, скорость передачи информации

бит/сек (11)

В случае неравновероятных символов равной длительности

бит/сек (12)

В случае неравновероятных и взаимонезависимых символов разной длительности

бит/сек (13)

(где: - передаваемый сигнал; - сигнал, соответствующий переданному -му сигналу. События A и B статистически жестко связаны. При отсутствии помех условная вероятность максимальна , а условная энтропия

,

так как .

При высоком уровне помех любой из принятых сигналов может соответствовать любому переданному сигналу , статистическая связь между переданными и принятыми сигналами отсутствует. В этом случае вероятности p() и p() есть вероятности независимых событий и p(/) = p(); p(/) = p().

Информационные характеристики реальных каналов лежат между этими двумя предельными случаями.)

Пропускная способность (или емкость канала связи) - есть максимальная скорость передачи информации по данному каналу связи. Под каналом связи подразумевается совокупность средств, предназначенных для передачи информации от данного источника сообщений к адресату. Выражение для пропускной способности отличается от выражения (9) тем, что пропускную способность характеризует МАКСИМАЛЬНАЯ ЭНТРОПИЯ:

бит/сек (14)

для двоичного кода

бит/сек

При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии источника сообщений относительно принятого сигнала:

бит/сек (15)

или

бит/сек

В общем случае



бит/сек (16)

Если символы источника сообщений неравновероятны и взаи­мозависимы, то энтропия источника считается по формуле об­щей условной энтропии.

Для симметричных бинарных каналов, в которых сигналы пе­редаются при помощи двух качественных признаков и вероят­ность ложного приема , а вероятность правильного приема , потери учитываются при помо­щи условной энтропии вида

бит/сек (17)

пропускная способность таких каналов

бит/сек (18)

Для симметричного бинарного канала



бит/сек (19)

Для симметричных дискретных каналов связи с числом качест­венных признаков m > 2 пропускная способность

бит/сек (20)

^

ОПРЕДЕЛЕНИЕ ИЗБЫТОЧНОСТИ СООБЩЕНИЙ. ОПТИМАЛЬНОЕ КОДИРОВАНИЕ


Если энтропия источника сообщений не равна максимальной энтропии для алфавита с данным количеством качественных признаков (имеются в виду качественные признаки алфавита, при помощи которых составляются сообщения), то это прежде всего означает, что сообщения данного источника могли бы нести большее количество информации. АБСОЛЮТНАЯ недогружен­ность на символ сообщений такого источника

бит/символ

Для определения количества "лишней" информации, которая заложена в структуре алфавита либо в природе кода, вводится понятие ИЗБЫТОЧНОСТИ. Избыточность, с которой мы имеем дело в теории информации, не зависит от содержания сообщения и обычно заранее известна из статистических данных. ИНФОРМА­ЦИОННАЯ ИЗБЫТОЧНОСТЬ показывает ОТНОСИТЕЛЬНУЮ недогружен­ность на символ алфавита и является безразмерной величиной:

(21)

где - коэффициент сжатия (относительная энтропия). и берутся относительно одного и того же алфавита.

Кроме общего понятия избыточности существуют частные виды избыточности:

- Избыточность, обусловленная неравновероятным распреде­лением символов в сообщении

(22)

- Избыточность, вызванная статистической связью между символами сообщения

(23)

Полная информационная избыточность

(24)
ИЗБЫТОЧНОСТЬ, КОТОРАЯ ЗАЛОЖЕНА В ПРИРОДЕ ДАННОГО КОДА, получается в результате неравномерного распределения в со­общениях качественных признаков этого кода и не может быть задана одной цифрой на основании статистических испытаний. Так при передаче десятичных цифр двоичным кодом максимально загруженными бывают только те символы вторичного алфавита, которые передают значения, являющиеся целочисленными степе­нями двойки. В остальных случаях тем же количеством симво­лов может быть передано большее количество цифр (сообщений). Например, тремя двоичными разрядами мы можем передать и цифру 5, и цифру 8.

Фактически для передачи сообщения достаточно иметь длину кодовой комбинации



где N - общее количество передаваемых сообщений.

L можно представить и как



где и - соответственно качественные признаки первичного и вторичного алфавитов. Поэтому для цифры 5 в двоичном коде можно записать

дв. симв.

Однако эту цифру необходимо округлить до ближайшего целого числа (в большую сторону), так как длина кода не может быть выражена дробным числом.

В общем случае, ИЗБЫТОЧНОСТЬ ОТ ОКРУГЛЕНИЯ



где , k - округленное до ближайшего целого числа значение . Для нашего примера



Избыточность необходима для повышения помехоустойчивости кодов и ее вводят искусственно в виде добавочных символов. Если в коде всего n разрядов и из них несут информацион­ную нагрузку, то характеризуют АБСОЛЮТНУЮ КОРРЕКТИРУЮЩУЮ ИЗБЫТОЧНОСТЬ, а величина характеризует ОТНОСИТЕЛЬНУЮ корректирующую избыточность.

Для уменьшения избыточности используют оптимальные коды. При построении оптимальных кодов наибольшее распространение получили методики Шеннона-Фано и Хаффмена.

Согласно методике Шеннона-Фано построение оптимального кода ансамбля из сообщений сводится к следующему:

1-й шаг. Множество из сообщений располагается в порядке убывания вероятностей.

2-й шаг. Первоначальный ансамбль кодируемых сигналов раз­бивается на две группы таким образом, чтобы суммарные веро­ятности сообщений обеих групп были по возможности равны. Если равной вероятности в подгруппах нельзя достичь, то их делят так, чтобы в верхней части (верхней подгруппе) оста­вались символы, суммарная вероятность которых меньше суммар­ной вероятности символов в нижней части (нижней подгруппе).

3-й шаг. Первой группе присваивается символ 0, а второй группе - символ 1.

4-й шаг. Каждую из образованных подгрупп делят на две части таким образом, чтобы суммарные вероятности вновь об­разованных подгрупп были по возможности равны.

5-й шаг. Первым группам каждой из подгрупп вновь присва­ивается 0, а вторым - 1. Таким образом мы получаем вторые цифры кода. Затем каждая из четырех групп вновь делится на равные (с точки зрения суммарной вероятности) части до тех пор, пока в каждой из подгрупп не останется по одной букве.

Построенный код называют ОПТИМАЛЬНЫМ НЕРАВНОМЕРНЫМ КОДОМ (ОНК).

^

3. ПРАКТИЧЕСКАЯ ЧАСТЬ

СОДЕРЖАНИЕ ЗАДАНИЯ



Задание получает каждый студент индивидуально в соответствии с номером в списке группы. Для проведения расчетов разработать программу на языке Pascal.

1.1. Число символов алфавита = m (номер варианта задания). Определить количество информации на символ сообщения, составленного из этого алфавита:

а) если символы алфавита встречаются с равными вероятностями;

б) если символы алфавита встречаются в сообщении с вероятностями:
p1 = 1,0/k; p2 = p1 /(k-1); p3 = (p1 + p2 )/(k-2) ...

k-2 k-1

...p =( S p )/[m-(k - 2)]; p =( S p )/[m -(k - 1)].

k-1 n=1 n k n=1 n
Определить, насколько недогружены символы во втором случае.

1.2. Число символов алфавита = m (номер варианта задания).

Вероятности появления символов равны соответственно

К-1

p1 = 1,0/k; p2 = p1 /(k-1); ... p =( S p )/[m -(k - 1)].

k n=1 n
Длительности символов тау = 1 сек; тау = 2 сек;

0 1

тау = тау + 1.

k k-1

Чему равна скорость передачи сообщений, составленных из таких символов?

Определить количество информации на символ сообщения, составленного из этого алфавита:

а) если символы алфавита встречаются с равными вероятностями;

Определить, насколько недогружены символы во втором случае.

1.3. Сообщения составляются из алфавита с числом символов=m. Вероятность появления символов алфавита равна соответственно:

К-1

p1 = 1,0/k; p2 = p1 /(k-1); ... p =( S p )/[m -(k - 1)].

k n=1 n
^

Найти избыточность сообщений, составленных из данного алфавита. Построить оптимальный код сообщения.



Построение ОНК по методике Шеннона-Фано:


P1

0,50000

0

P2

0,16667

0,50000

0,25000

100

P3

0,08333

101

P4

0,05000

0,25000

0,10000

1100

1101

P5

0,05000

P6

0,03333

0,15000

0,07500

11100

0,04167

111010

111011

0,07500

0,03409

111100

0,02020

1111010

1111011

0,04091

0,01948

1111100

0,01190

11111010

11111011

0,02143

0,00893

11111100

11111101

0,01250

11111110

0,00882

111111110

0,00555

1111111110

1111111111

P7

0,02381

P8

0,01786

P9

0,01389

P10

0,01111

P11

0,00909

P12

0,00758

P13

0,00641

P14

0,00549

P15

0,00476

P16

0,00417

P17

0,00368

P18

0,00327

P19

0,00292

P20

0,00263

ПРОГРАММА


uses crt;

const

m=10;

n=m+10;
var

p:array[1..n] of real;

code:array[1..n] of string[15];

s,s1,s2,temp,H,Hmax,dD:real;

ch:char;

u: boolean;

j,i,k,x1,x2:integer;
procedure middle(x1,x2,w:integer);

var d,d1:real;

k:integer;

begin

if x1=x2 then exit;

if x2=x1+1 then

begin

code[x1]:=code[x1]+'0';

code[x2]:=code[x2]+'1';

exit;

end;

d:=0;d1:=0;

for i:=x1 to x2 do d:=d+p[i];

i:=x2;

repeat

d1:=d1+p[i];

code[i]:=code[i]+'1';

dec(i);

until d1>=d/2;

k:=i;

for i:=x1 to k do

code[i]:=code[i]+'0';
if w=1 then

writeln(x1:4,x2:13,k:13,d:16:5,d-d1:13:5,d1:13:5);
middle(x1,k,w);

middle(k+1,x2,w);
end;
begin

textbackground(7);

clrscr;

p[1]:=(1+m)/n;

s:=p[1];

textcolor(1);

for i:=2 to n do

begin

p[i]:=s/(n-(i-1));

s:=s+p[i];

end;

writeln('Вероятности появления символов равны:':45);

writeln;

window(1,3,30,14);

for i:=1 to n do

begin

p[i]:=p[i]/s;

if (i=11)

then window(31,3,50,14);

if (i=21)

then window(61,3,80,14);

writeln(i:3,p[i]:10:5);

end;

window(1,14,80,25);

textcolor(0);

writeln('РАСЧЕТ ЗАДАНИЯ 1.1':30);

writeln;

writeln(' Для равновероятных символов:');

writeln;

writeln('Количество информации ':30,'I=',n*ln(n)/ln(2):10:5);

writeln;

H:=0;

for i:=1 to n do

H:=H-p[i]*ln(p[i])/ln(2);

Hmax:=ln(n)/ln(2);

dD:=Hmax-H;

writeln(' Для неравновероятных символов:');

writeln;

writeln('Энтропия ':30,'H=',H:9:5,' бит/символ');

writeln('Максимальная энтропия ':30,'Hmax=',Hmax:9:5,' бит/символ');

writeln('Количество информации ':30,'I=',h*n:9:5,' бит');

write('Недогруженность символов ':30,'dD=',dD:9:5,' бит/символ');

readkey;

clrscr;

writeln('РАСЧЕТ ЗАДАНИЯ 1.2':30);

writeln;

s:=0;

for i:=1 to n do

s:=s+i*p[i];

writeln('Скорость передачи символов ':30,'C=',H/s:8:5,' бит/сек');

readkey;

clrscr;

writeln('РАСЧЕТ ЗАДАНИЯ 1.3':30);

writeln;

writeln('Избыточность сообщений ':30,'D=',1-H/Hmax:8:5);

GotoXY(10,9);

writeln('Для получения ОНК нажмите ENTER');

writeln;

writeln(' ':9,'Для получения промежуточных вычислений нажмите BACKSPASE');

u:=false;

while u=false do

begin

u:=true;

for i:=1 to n-1 do

if p[i] < p[i+1] then

begin

temp:=p[i];

p[i]:=p[i+1];

p[i+1]:=temp;

u:=false;

end;

end;

repeat

ch:=readkey;

until (ch=#13)or(ch=#8);
window(1,1,80,25);

clrscr;

if ch=#13 then middle(1,n,0);

if ch=#8 then

begin

writeln('ПРОМЕЖУТОЧНЫЕ ВЫЧИСЛЕНИЯ':50);

writeln;

writeln('Начальный Конечный Средний Общая Сумма Сумма');

writeln(' элемент элемент элемент сумма 1-ой подгр. 2-ой подгр.');

writeln;

middle(1,n,1);

gotoxy(10,25);

write('Для получения ОНК нажмите ENTER');

repeat until readkey=#13;

end;

clrscr;

writeln;

writeln('-------------------------------------------------------------------------------');

writeln(' № симв | Вероятность | Код | № симв | Вероятность | Код');

writeln('-------------------------------------------------------------------------------');

j:=trunc(n/2);

for i:=1 to j do

writeln(' ',i:2,' | ',p[i]:10:5,' | ',code[i]:11,' | ',i+j:2,' | ',p[i+j]:10:5,' | ',code[i+j]:11);

if (n mod 2)=1 then

writeln(' | | | ',n:2,' | ',p[n]:10:5,' | ',code[n]:11);

writeln('-------------------------------------------------------------------------------');

gotoxy(10,24);

write('Для выхода нажмите любую клавишу');

readkey

end.

БЛОК-СХЕМА



Подпрограмма Middle

нет

^

ПОЛУЧЕННЫЕ РЕЗУЛЬТАТЫ



Вероятности появления символов равны:
1 0.05000 11 0.00909

2 0.00263 12 0.01111

3 0.00292 13 0.01389

4 0.00327 14 0.01786

5 0.00368 15 0.02381

6 0.00417 16 0.03333

7 0.00476 17 0.05000

8 0.00549 18 0.08333

9 0.00641 19 0.16667

10 0.00758 20 0.50000

^ РАСЧЕТ ЗАДАНИЯ 1.1
Для равновероятных символов:
Количество информации I= 86.43856
Для неравновероятных символов:
Энтропия H= 2.59178 бит/символ

Максимальная энтропия Hmax= 4.32193 бит/символ

Количество информации I= 51.83557 бит

Недогруженность символов dD= 1.73015 бит/символ
^

РАСЧЕТ ЗАДАНИЯ 1.2

Скорость передачи символов C= 0.14893 бит/сек



РАСЧЕТ ЗАДАНИЯ 1.3
Избыточность сообщений D= 0.40032

ПРОМЕЖУТОЧНЫЕ ВЫЧИСЛЕНИЯ
Начальный Конечный Средний Общая Сумма Сумма

элемент элемент элемент сумма 1-ой подгр. 2-ой подгр.
1 20 1 1.00000 0.50000 0.50000

2 20 3 0.50000 0.25000 0.25000

4 20 5 0.25000 0.10000 0.15000

6 20 8 0.15000 0.07500 0.07500

6 8 6 0.07500 0.03333 0.04167

9 20 11 0.07500 0.03409 0.04091

9 11 9 0.03409 0.01389 0.02020

12 20 14 0.04091 0.01948 0.02143

12 14 12 0.01948 0.00758 0.01190

15 20 16 0.02143 0.00893 0.01250

17 20 17 0.01250 0.00368 0.00882

18 20 18 0.00882 0.00327 0.00556

^

ОПТИМАЛЬНЫЙ НЕРАВНОМЕРНЫЙ КОД



симв Вероятность Код № симв Вероятность Код

1 0.50000 0 11 0.00909 1111011

2 0.16667 100 12 0.00758 1111100

3 0.08333 101 13 0.00641 11111010

4 0.05000 1100 14 0.00549 11111011

5 0.05000 1101 15 0.00476 11111100

6 0.03333 11100 16 0.00417 11111101

7 0.02381 111010 17 0.00368 11111110

8 0.01786 111011 18 0.00327 111111110

9 0.01389 111100 19 0.00292 1111111110

10 0.01111 1111010 20 0.00263 1111111111
ЗАКЛЮЧЕНИЕ
В процессе выполнения данной курсовой работы был построен ОПТИМАЛЬНЫЙ КОД. Этот код имеет следующие свойства:

1). код состоит из комбинаций различной длины;

2). комбинации одинаковой длины не совпадают;

3). никакие комбинации не являются началом более длиной комбинации.

Это условия префиксности эффективного кода. Значит, этот код является оптимальным.

Так же были произведены расчеты количества информации, приходящегося на символ сообщения в случае равновероятных и неравновероятных символов, определена недогруженость символов, скорость передачи данных и избыточность сообщений. Оптимальный код сообщения построен по методике Шеннона-Фано.

Подтверждением результатов расчета является программа, написанная на языке Турбо Паскаль.

Кодировка символов по данной методике Шеннона-Фано является сравнительно оптимальной, так как символы, имеющие наибольшую вероятность появления, будут иметь наименьшую длину кодового слова.

Следует отметить сходство метода Шеннона-Фано и метода Хаффмана, однако первый из них является менее оптимальным по отношению ко второму. Алгоритм Шеннона-Фано, который был предложен Шенноном и Фано в 1948-49 г. независимо друг от друга, так же как и метод Хаффмана основывается на статистических исследованиях, т.е. на числе вхождений символов в исходный текст. Таким образом, более вероятные символы кодируются малым числом бит, а менее вероятные символы - большим числом бит.

Несмотря на то, что данный код хоть и имеет избыточность, но на практике ее наличие практически не влияет на полученный результат.
^

СПИСОК ЛИТЕРАТУРЫ



1. Бауэр Ф. Информатика, М. 1992.

2. Колесник В.Д. Курс теории информации, М. 1982.

3. Фаронов В. В. Turbo Pascal 7.0. Учебное пособие, М. 2000.

4. Цымбаль В.П. Задачник по теории информации и кодированию, Киев. 1976.

5. Марченко А.И. Программирование в среде Turbo Pascal 7.0

6. Епанешников А.М., Епанешников В.А. Программирование в среде

Турбо Паскаль 7.0. - М.: ДИАЛОГ-МИФИ, 1998 г.

7. Меженный О.А. Самоучитель TURBO PASCAL , М. 2006


Скачать файл (277 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации