Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции по теории информационных процессов и систем - файл лекции.doc


Лекции по теории информационных процессов и систем
скачать (3426.9 kb.)

Доступные файлы (2):

лекции.doc5922kb.09.10.2008 03:50скачать
Шпоры ТИПИС.doc6637kb.14.06.2009 12:01скачать

лекции.doc

1   2   3
Тема 3.

^ Динамическое описание систем.

3.1. Предположение о хар-ре функционирования системы.

Желая получить мат. модель, кот. по возможности охватывала бы больший класс реальных объектов, теория систем предлагает при этом исходить из ряда предположений о процессе ф-я системы. Их всего 5:

1. Система ф-ет во времени. В каждый момент времени система может находиться в одном из возможных состояний



2. На вход системы могут поступать вх. сигналы x(t)



3. Система способна выдавать вых. сигналы



4. Состояние системы в любой момент времени опред-ся состояниями системы в предыдущие моменты времени и входными сигналами, поступившими в данный момент времени и ранее.

5. Выходные сигналы опред-ся состояниями системы и входными сигналами в данный и предшествующий моменты времени.

1-е предположение отражает динамический хар-р ф-я системы в пространстве и времени. Процесс ф-я м.б. определен как последовательная смена состояний системы.

2-е и 3-е отражают вз-е системы с внешней средой.

4-е и 5-е отражают 2 важных аспекта ф-я систем, кот. связ. с такими понятиями как последействие и принцип физической реализуемости.

Наличие и отсутствие последействия: система явл-ся системой без последействия, если ее поведение в будущем определяется ее состоянием в данный момент времени и не зависит от того, каким образом она пришла к этому состоянию.

Пример: 1) иномарки разваливаются, 2) новый чел-к в группе.

Система с последействием: если ее поведение в буд. зависит и от прошлого.

Принцип физич. реализуемости:

система не реагирует на «будущие» факторы.

^ 3.2. Мн-во моментов времени. Пространство состояний системы.

Речь идет о формальном рассм-и 1-го предположения. Любой момент вр. в рамках ф-я сис-мы явл. эл-том мн-ва Т. В свою очередь мн-во Т явл. подмножеством множества действительных чисел. В ряде случаев для системы можно выделить конечное счетное мн-во моментов времени. И в связи с этим рассматривают функционир-е системы в дискретном и непрерывном времени.

Для дискр. мы можем говорить о моментах t0, ti…, tk, кот. мы можем поставить в соответствие числа-такты.

В рамках непр. люб. мом. вр. мы можем рассм. как бесчисленное кол-во моментов времени.

Наряду с этим рассматривают системы с дискретно-непрерывным временем (смешанный тип). Пример: многие произв. системы, где речь идет о преоб-и сигналов, ф-е нашей системы городского транспорта.

Итак, для люб. момента вр. tT система может находиться в некотором состоянии z, кот. в свою очередь явл. элементом мн-ва Z. Это мн-во как правило заданное. Н-р: реле - 2 состояния; произв-ое предприятие - срез: финансовые потоки на данный мом. вр., кол-во работников, число оборудования; число производимой продукции, ресурсы; зарплаты и многое другое. В д.сл. говоря о системе, сост-е системы опред-ся совокупностью объектов zi, кот. явл. эл-тами заданных мн-в Zi, где i=1,m и рассм. прямое произведение множеств.

Z^=Z1 x Z2 x Z3 x…Zm (1)

В рамках его рассм. ч/сл.: m=2 и если в д.сл. речь идет о числах, то это пр-е будет определять мн-во на пл-ти, если m=3→ каждое соот-е – точка в пространстве.

Объектами прямого произведения м.б. не только числа, но и вектора, матрицы, ф-и. И если состояние z^, опред-ое сов-тью эл-тов (z1…, zm), явл. эл-том мн-ва Z^, то в этом сл. прямое произ-е – это пространство сост-й системы.

Если мы говорим в рамках z1 и z2.



Все точки этого произведения не всегда связаны со всеми состояниями системы.

ZZ^

Все определяется спецификой самой системы.


- вел-на U=TxZ получила название фазового пространства системы, в соотв-и с которым каждому мом. вр. t мы можем сопоставить состояние системы z.

При построении модели речь идет о построении фазовой прямой.
^ 3.3 Вх и вых сигналы.

В этой теме рассм. предположения 2 и 3.

Пусть в люб мом вр tT на вход сист. могут поступать вх. сигналы xX, где X – заданное множество. Для люб мом вр сигнал будем обозначать x(t).

Вх сигнал образуется сов-тью нек. объектов xiXi, где .

Обозначим прямое пр-е: (1).

Это есть пространство входных сигналов системы. Здесь мн-во Xi – это элементарная ось. И каждый эл-т пр-ва вх. сообщений x опред-ся совок-тью координат: х1, х2,… хn.

Но в нек. мом. вр. сигнал может отсутствовать  x(t)=xØ;

Рассм. отображение мн-ва Т в Х (Т→Х): каждому мом. вр. tT ставится в соответствии нек зн-е x=L(t) (2) и в этом сл. можно говорить о вх. сообщениях, опред-ых парой (t; x).

В теории и практике пользуются понятием «отрывок вх. сообщения (сигнала)». Он выглядит след образом: (t, xL]t0t.

Для вых. сигналов 3 предположение. В д.сл. yY, где Y – зад. множество. Все аналогично.

yjYj, - сов-ть объектов

Пр-во вых. сигналов: =Y1xY2x…Yr (3)
^ 3.4. Операторы переходов и выходов.

Рассм. 4 и 5 предположения.

В рамках 4:

[Все будет справедливо для систем без последействия]

Нас будет интересовать сост-е системы в люб мом вр. Z(t), определяемое:

z(t)=H{t, to, z(to), (t, xL]tot} (1)

Здесь Н – это оператор перехода, аргументы которого:

tT - время

toT – текущий момент

z(to) Z

{(t, xL]tot} – мн-во входных отрывков для мом вр. t.

В рамках соотн-я (1) получение люб. нового зн-я отн. сост-я системы можно рассм. как отобр-е мн-в T в Z.

Наряду с непрерыв. сообщ. рассм. и конечные сообщения:

z(t)=H{t; to; z(to); (t1, x1); (t2, x2);…(tk, xk)} (2)

Наряду с необ-тью опр-я сост-я системы, возникает необ-ть нах-я построения в люб мом вр.

y(t)=G{to, t, z(to), (t, xL]tot} (3)

G – оператор выходов системы. Здесь все эл-ты (аргументы) явл эл-тами соотв. мн-в.

На практике вместо (3) исп. другая запись:

y(t)=G{t, z(t)} (4)

И теперь, если учесть запись (2), то (4):

y(t)=G{t, H{t, to, z(to), {t,xL]tot} (5)

Введем понятие:

H*=HxG (6) – оператор ф-я системы

Все сказанное отн. к детерминированным системам без последействия.
^ 3.5. Детерминированные системы без последствия с вх. сигналами двух классов.

Развитие теории и практики систем настоятельно выдвигает проблемы, изучение кот. выходит за рамки детерминированных систем без последействия.

Расширение понятия систем в связи с этим идет по 3 направлениям:

1) связано с учетом специфики воздействий, кот. можно рассм. в различных классах;

2) связано с учетом последействия;

3) связано с учетом случайного хар-ра воздействий.

Рассм. в рамках 1-го напр-я.


По аналогии с вопр-ми рассм-я вх и вых сигналов перейдем к понятию прям. произв-я управл-х сигналов.

uU

uiUi;

=U1xU2x…Ul (1) – пространство управляющих сигналов.

Рассм. отображение T→U; u=M(t) (2)

(t, u) – управляющее воздействие

(t, um]t1t2 (3) - отрывок управл-го воздействия.

На практике, несмотря на то, что важно разделение вх сигналов на X и на U, очень часто пользуются понятием обобщенный вх. сигнал:

(4)

=(x1, x2,…xn; u1…ul);
Моменты поступления сигналов X и U могут не совпадать:

Говоря о паре: (x; u)(xØ,u) (x,uØ)

В д.сл. обобщ. вх. сообщения опред-ся 3-мя пар-рами: (t, x, u).

И в этом сл. мы тоже может говорить об отрывке вх. сигнала: (t, x, um]t1t2 .

Теперь мы можем говорить о получении и формировании состояния системы без последействия:

z(t)=H{t, to, z(to), (t, xL, um]t1t2} (5)

Наряду с обобщ. вх. сообщ. и (5) на практике исп. и другое, с учетом специфики 2-х классов:

z(t)=H{t, to, z(to), (t, xL]t1t2, (t, um]t1t2} (6)

Пример: модель этой системы:

- это лин. система авт. упр-я:

(*) =AZ+BU+Df;

Y=CZ; z(to)=zo

1)

A, B, C и D – матрицы соотв. размерностей.

Y – это выходные сигналы yi, где i=.

Эту системы мы можем интерпретировать как детерминир-ую систему с вх. сигналами (сообщ-ми) 2-х классов.

К экзамену еще примеры

^ 3.6. Детерминированные системы с последействием.



t>to

Поведение в t будет опред-ся не только состоянием to, но и <to.

Нам нужно при построении моделей учесть это последействие.

Введем мн-во В0Т, для кот. хар-но, что t<to.

Введём отображение: z=w(t)

И теперь с учетом сказанного, можем записать поведение системы z(t) в любой. мом. вр. t, где t>to:

z(t)=H{t, to, z(to), (tBo, zw), (t, xL]tot} (1)

учитываем последействие.

Здесь исп. вся введенная терминология.

tT, toT; ВоТ; (tBo, zw)={(tBo; zw)}; (t, xL]tot{(t, xL]tot}
^ 3.7. Стохастические системы.

- системы, ф-е под воздействием случ. факторов, наз. стохастическими.

Одним из важных понятий СС явл. понятие случайного оператора.

Учет случ. факторов будем выполнять:

рассм. мн-во , кот. предст. собой пр-во элементарных событий с некоторой вер-ой мерой Р(А). Она м.б. любая. Это м.б. все то, что определяется с пом. закона распределения или случ. вел-н, или случ. процессов.

Рассм. X→Z – отображение, где

X – мн-во входных сигналов,

Z – мн-во состояний системы.

В д.сл. под сл. опертором подраз. оператор H1, позв. определить:

z=H1(x, ) (1) - реализация отобр-я мн-ва  в отображение

X→Z : →{X→Z}

В чем особ-ть сл. оператора?

При некот. xX, нельзя с учетом сл. факторов однозначно определить зн-е zZ, а можно лишь вести речь о появлении этого мн-ва Z*Z, имеющего свои законы распределения вероятности, определяемые вер-ой мерой Р(А) и сл. оператором Н1.

Введем понятие сл. оператора переходов и выходов.

z(t)=H1{t, to, z(to, o), (t, xL]tot, ’} (2)

y(t)=G1{t, z(t), ’’} (3)

Н1 – сл. оператор переходов

G1 – сл. оператор выходов

- Эти операторы отн. к СС без последействия. В рамках (2) и (3):

o, ’, ’’ – независимые элементарные события, принадлежащие  с соответсвующими вер-тными мерами Ро(А), Рz(A) и Py(A) по принадлежности этих событий соотв-им эл-ым событиям (объектам, пер-ым).

Теперь мы можем выделить ч/сл СС.

Пусть ’и ’’ – фиксированы. Тогда сл. событие - о. Имеем СС со случайными нач. условиями.

Пусть фиксировано о и ’  имеем систему со случайными выходами.

Пусть о и ’’ фиксировано  имеем систему со сл. переходами.

Рассм. примеры СС, в кот протекающие сл. процессы явл. Марковскими.
^ 3.7.1 Понятие Марковского сл. процесса (МСП). Процессы с дискретным и непрерывным временем.

Тоже рассм. в рамках СС без последействия.

Сл процессы, протекающие в системе, наз. Марковскими, если выполняются следующие условия:

для каждого мом. вр. tо вероятность перехода системы в то или иное состояние зависит от времени to и не зав. от сост. системы в мом. вр., предществующий мом. времени.

- т.е. это процессы без предыстории (последействия)

Понятие МСП очень широкое, кот. очень часто исп. на практике. Рассм некоторые классы МСП. В зав. от особенностей или от специфики смены состояний МСП делятся на 2 больших класса: 1) с дискретными состояниями; 2) с непрерывными состояниями.

1) Процессы, протекающие в системе, явл. процессами с дискр. состояниями, если переход из состояние в сост-е происходит скачком. Число состояний системы можно перенумеровать (оно конечно).

2) – это процессы, в кот. смена состояний осущ-ся плавно (н-р, напр-е питающей сети; высота полета).

В дальнейшем будем рассм. только с дискр., их различают: с дискретным временем и с непрерывным временем.

Если число состояний конечно, то иссл-ую систему можно представить в виде графа состояний.

Пример: рассм. систему, сост. из 2-х блоков. Они могут выходить из строя.

So - Б1 и Б2 исправны

S1 - Б1 не исправен

S2 - Б2 не исправен

S3 оба неисправны



Если каждый из блоков начнет восстанавливаться, то будут и обратные переходы.

Если смена состояний системы происходит в некоторые фиксированные, наперед известные моменты вр., то в д.сл. имеют место СП с дискр. временем.

Если смена сост-й системы происходит в нек. случайные, наперед неизвестные мом. вр., то это МСП с непр. временем.

Рассм. МСП с дискр. временем.

Обозначим эти моменты времени:

S: S1, S2, … Sn

T: t1, t2, t3, … tk

] (t1, S1)(t2,S3)(t3,S3)…(tk,Sq)…

м.б. и такое

Обычно вводят понятие шага:


S1(o), S3(1), S3(2) и т.д.

т.е. в общем случае система может нах-ся в Si(k) сост-ях, где

Как и люб. процессы, МСП должен задаваться опред. критериями, т.е. иметь вер-ые хар-ки. Это вер-ть того, что после k шагов система будет находиться в состоянии Si

pi(x)→Si()

Для системы, имеющей n состоящей для люб. k вып-ся условие:

(1) - нормировочное соотношение.
Суть: в д. сл. для системы, имеющей n сост-й, событие того, что система может нах в том или ином сост-и, составляют полную группу несовместных событий.

Поставим следующую задачу: для системы с n сост найти соотн-е, по кот для любого k мы могли бы найти Pi(k).

Обычно считаются заданными число сост-й и вер-ти переходов из одного сост-я в другое:

{Pij}: SiSj, где i, j = [1,n].
(2)

При построении этой матрицы необх-мо конрол-ть правильность: для каждой строки сумма =1 (это тоже связ с тем, что имеем полную группу несовм событий).

Систему можно задать либо матрицей состояний, либо размеченным графом сост-й:


Тогда вер-ть можно определить с пом рекуррентной ф-лы: .

Вер-ть того, что сист нах в одном из n сост после k шагов определ-ся матрицей сост-й на предыдущем шаге. К экзамену ф-лу вывести!

Как это реализуется в МСП с непрерывным временем? (это процессы с двойной случайностью). Рассмотрим систему с n сост-ями. Задача: для каждого текущего мом вр найти вер-ть сост-я: Pi(t)-?

Здесь вер-ть перехода = 0, след-но исп-ся другая хар-ка: плотность вер-ти перехода системы из Si в Sj: вер-ть того, что за время t система перейдёт из сост-я Si в сост-е Sj. Тогда из (4) получим другое соотношение:

достаточно малая вел-на.

Теперь, говоря о размеченном графе сост-й, каждая стрелка будет сопровождаться пл-тью вер-ти перехода.



Рассмотрим, каким образом можно определить P1(t)-?

Тоже рассмотрим не тек мом вр, а t+t: P1(t+t)-?



Система будет вкл 4 ур-я: это система лин диф ур-й (8). Это ур-я Колмогорова.



Как решать?

Также д.б. заданы нач условия. Для t=0: система может нах в одном возможном сост-и  после задания нач условий (Н-р, Р1(0)=1; Р2(0)=Р3(0)=Р4(0)=0) можно получить решение системы (8) графически.

Из графа сост-й мы можем построить модель системы – сист ур-й Колмогорова, из кот мы можем получить все интересующие нас хар-ки (вероятности состояний)

Речь идёт о рассмотрении систем, кот в любые сл мом вр сл образом изменяют свои сост-я. Переход из сост-я в сост-е удобно предст в виде процесса, нах под действием потока событий. Такое понятие «поток событий» - виртуальное. Мы его можем представить как угодно. Это можно отнести к процессу ф-я любой программы (Н-р, сбои). След-но, в теории Марковских процессов гораздо чаще связ ф-е систем именно с потоком событий.

^ 3.7.2. Потоки событий. Связь Пуассоновских потоков событий с МСП.

Под потоком событий понимается послед-ть однородных событий, появляющихся друг за другом в случ, наперёд неизвестные мом вр. Очень удобно рассматривать поток событий как посл-ть, связ с нек врем осью, на кот появление события отмечается точкой:

 широкий спектр потоков событий. Выделение тех или иных классов связ с тем, что им свойственны нек хар-ки:

  1. Стационарность потока событий. Поток стационарен, если вер-ть выпадения того или иного числа событий на интервал времени  зав только лишь от его длины (протяжённости) и не зав от положения его на временной оси (стационарность – постоянство во времени). Пример: рассмотрим работу выч центра в теч суток на предприятии. Можно ли рассматривать поток ошибок стационарным?

  2. Отсутствие последействия. Для любых 2-х непересекающихся участков 1 и 2 число событий, выпадающих на один из них, не зав от того, какое число событий выпало на другом. Т.е. события явл независимыми.

  3. Ординарность. Вер-ть появления на нек элементарном участке t 2-х и более событий пренебрежимо мала по сравн с вер-тью появления одного события, т.е. события приходят поодиночке.

Если потоку событий хар-ны 1, 2 и 3 cв-ва, то данный данный поток событий получил название простейшего потока событий. Он иногда наз Пуассоновским потоком. Если хар-ны 2 и 3 св-ва, но поток явл нестационарным, то в этом сл поток относят к классу нестационарных Пуассоновских потоков событий.

Введём нек количеств меру потока событий:  - интенсивность потока событий – это среднее число событий за ед времени.

Понятие «Пуассоновский поток событий» связано с распределением Пуассона:





a – пар-р закона Пуассона, кот определяет число событий, приходящихся на интервал времени . Если речь идёт об простейшем потоке событий, то a=, а если о нестац, то .

Теперь поставим такую задачу: пусть события независимы. Тогда и интервал Т м/у двумя соседними событиями есть сл вел-на. Найдём закон её распределения f(t)-? Воспользуемся ф-ей распределения F(t)? производная от кот и даст нам f(t): F(t)=P[T<t] (3), т.е. вер-ть того, что на участке t появится хотя бы одно событие. Эту вер-ть можно трактовать через вер-ть обратного события:



Тогда:

- экспоненциальный закон распределения:



Нас интересует мат ожидание и дисперсия:



На практике чаще исп:

Этот момент определяет, с каким потоком событий имеет дело пользователь.

Рассмотрим интервал t и оценим вер-ть появления одного события на этом участке:

. Последнее выр-е разложим в ряд по степеням t и учтём только лин члены. Тогда получим .

Т.о. элемент вер-ти одного события на t определяется интенсивностью t. Знак  связан со cв-вом ординарности.

Ради чего мы рассматриваем потоки событий? Рассмотрим некоторую систему, имеющую n состояний S: S1, S2, … Sn и для кот мы можем определить некоторый граф:



В рамках этого графа рассмотрим элемент



И рассмотрим переход системы из сост-я Si в Sj. Смену сост-й мы можем определить как вер-ть перехода через плотность вероятности перехода. Рассмотрим интервал времени t. Тогда вер-ть равна ijt. С другой стороны смену сост-й модно представить в виде некого потока событий с интенсивностью . Эта смена произойдёт с вер-тью t. А речь идёт об одном и том же событии – переходе. След-но м/у этими вер-тями можно поставить знак «=». Тогда =ij. След-но, плотность вер-ти перехода и интенсивность потока событий – это одно и то же.

Если в системе потоки событий, переводящие её из одного состояния в другое, явл. Пуассоновскими, то процессы в ней явл Марковскими.
^ 3.7.3. Предельная (финальная) вероятность состояний.

Рассмотрим некоторую систему: S: S1, S2, … Sn. Найдём Pi(t)-?, где Pi(t)=1 (1)



t – текущее.

Устремим t , т.е. рассмотрим ф-е системы на достаточно большом интервале времени. В теории доказывается следующее: Если число состояний системы конечно и возможен переход в каждое из них из любого другого за конечное число шагов, то в системе  предельные вероятности, кот не зав от начального состояния системы.

Условно считаем, что те ограничения, кот в утверждении, имеют место. Тогда существует предел:

- не зав от времени.

Для предельных вер-тей также соблюдается нормировочное условие: Pi(t)=1 (3).

Физ смысл этих предельных вероятностей:



Пример: разгон автомобиля, подъём самолёта.

По истечении длительного времени устанавливается нек стационарный режим, хотя сам процесс не стационарен, где система случайным образом меняет состояние, вер-ть каждого из которых есть величина постоянная. И физ смысл сводится к среднему относительному времени пребывания системы в том или ином состоянии.

] рассматривается работа ВМ, кот имеет 4 сост-я: S1-работает; S2-неисправна; S3-неисправности устраняются; S4-готовится к пуску.



Известны пред вер-ти: P1=0.45, P2=0.15, P3=0.25, P4=0.15.

Они позволяют оценить эф-ть работы системы и не только. Как их получить? По тому же принципу, т.е. с пом ур-й Колмогорова, но в первой части будет 0, т.к. производная от пост вел-ны =0. И получаются обычные алгебраич ур-я.
^ 3.7.4. Типовые МСП.

1) Процесс «размножения и гибели».

S: S1, S2, … Sn – конечное число сост-й.

СП получили название «размножения и гибели», если они имеют граф состояний в виде цепочки, в кот каждое из средних состояний (S2, … Sn-1) связано обратной и прямой связью с каждым из соседних состояний, и крайние (S1 и Sn) связаны лишь с одним из соседних состояний.



Можно привести несколько примеров: система сост из 3-х блоков, каждый из кот может выходить из строя и сразу начинает восстанавливаться:



0,1,2,3 – число неисправных блоков.

Удобно воспользоваться конечными формулами.

В рез-те расчётов получим:



Обозначим дробь за А. Нам нужно найти P1. Воспользуемся нормировочным соотношением:



Обозначим дробь за В. Тогда получим выр-е для Р1:


2) Циклические процессы.

Процессы явл циклическими, если они м.б. представлены в виде графа с последовательными состояниями и односторонними переходами (замкнутое кольцо с односторонними переходами):



Здесь исп аналогичное норм соотн-е: Pi=1 (12)

В результате расчётов получим:





Обозначим . Физ смысл: среднее время пребывания системы в сост-и Si.

Тогда можно объединить (13) и (14):


^ 3.7.5. Примеры применения МСП к исследованию систем.

При решении задач любых сложных систем очень широко исп аппарат МСП. Это объясняется: 1) его простотой (это или сист обыкн лин диф ур-й или обыч лин ур-й); 2) при исследовании сложных систем наряду с необходимостью определения обобщённых целевых ф-й возникает необх-ть определения достаточно большого кол-ва частных показателей, таких как определение среднего времени передачи И-и, ср времени формирования управляющего воздействия, ср времени первичной обработки сигналов и многое другое.

Многие усреднённые хар-ки опред-ся для объед-я подсистем в системы. В планировании гибких производств без этого аппарата никуда.

Послед-ть действий при исследовании систем по схеме МСП:

  1. выделение всех физ состояний системы (неоднозначно и определяется особенностями решаемой задачи)

  2. составление графа состояний системы

  3. получение размеченного графа (интенсивности сразу не даны как правило  трудно)

  4. составление ур-й Колмогорова

  5. задание нач условий

  6. Решение.

Пример 1: локальная система обработки детали на станке. Она нах на складе. Её нужно доставить к раб месту, обработать и возвратить инструмент в отдел укомплектования.

4 сост-я:



(i) – т.е. эта система справедлива для любого инструмента или любой детали. Если этот процесс протяжённый, то можем воспользоваться предельными вероятностями.
Пример 2: МСП исп также во всём, что связано с наведением на цель: организация головки самонаведения. Сост-я:



Здесь Pi – ф-и времени.

Эти задачи решаются на этапе отладки головки самонаведения на спец макетах.

Пример 3: Исследование микропроцессорных систем. Требуется исследовать влияние параметров программ на хар-ки обмена в микропроцессорных системах с общей магистралью. Рассмотрим простейший случай: 2-х процессорную систему:



Каждый процеесор может нах в фазе автономной работы. Сост-я: S0 – фаза автономной работы; S1 – обмен; S2 – ожидание. Для каждого из процеесоров фаза автономной работы имеет показательный закон с интенсивностями i: . Фаза обмена также имеет показательный закон с интенсивностями i: .

В конечном итоге нас интересуют вопросы исследования зависимости коэффициента загрузки магистрали -? и коэф-ты удлинения программ i-? для данной структуры в зав от временных хар-к программ.

1) выделяем состояния: S1(0,0); S2(1,0); S3(0,1); S4(1,2); S5(2,1)

2), 3) строим граф:



4) определим  и i. Для этого определим пред вероятности P(0,0) …

Тогда =1-P(0,0)



^ 3.8. Системы массового обслуживания.

Некоторые структурные компоненты СМО:

  1. каналы:



  1.  - поток заявок

  2.  - производительность канала

Примерами СМО явл: телеф станция, супермаркеты, любые автоматизированные системы сбора и обработки И-и, ВМ и т.д.

Под каналом можно понимать систему или отдельные устройства обработки. Н-р, проц-р, ОЗУ, ПЗУ или их отдельные элементы.

Поток заявок явл случайным. Время обслуживания тоже случайно. След-но, процессы в СМО случайные и всеми вопросами построения СМО занимается теория СМО. Предметом теории СМО явл определение зав-ти м/у хар-ром потока заявок, числом каналов обслуживания, их произв-тью, правилами организации систем и эфф-тью обслуживания.

Понятие СМО очень широкое. Классификация:

- в зав от числа каналов обслуживания различают одно- и многоканальные СМО;

- в зав от организации работ различают СМО с отказами и с ожиданием (с отказами: если заявка, пришедшая в момент, когда все каналы заняты, получает отказ и покидает систему; с ожиданием: если заявка, пришедшая в момент, когда все каналы заняты, становится в очередь и ожидает обслуживания)

-- каналы с ожиданием делятся на СМО с ограниченной и неограниченной очередью

Это неполная классификация.

Анализ систем того или иного класса предполагает получение хар-к и показателей.

  1. Рассмотривают СМО с отказами

  2. с неогр очередью

  3. с огр очередью

Показатели:

а) А – абсолютная пропускная способность – это среднее число заявок, обслуживаемых за единицу времени;

б) относительная пропускная способность q – это отношение среднего числа заявок, обслуживаемых системой за ед времени, к среднему числу заявок, поступивших на вход системы за то же самое время. q – это вер-ть того, что заявка, пришедшая в систему, будет принята к обслуживанию.

A=q

При рассмотрении 1) важны: А, q, Pотк – вер-ть отказа, - среднее число занятых каналов.

При рассмотрении 2) важны: - среднее время нахождения заявки в очереди; - среднее время нахождения заявки в системе; - средне время ожидания обслуживания; - среднее число заявок в очереди.

При рассмотрении 3) важны: все выше перечисленные.

^ Основные хар-ки и положения:

- интенсивность потока заявок 

- интервал времени м/у заявками, поступающими на обслуживание, имеет показательный закон:

- закон распределения потока обслуживания также показательный (с интенсивностью ):

Моменты при анализе:

  1. поток заявок с соответствующими интенсивностями и законом распределения (1)

  2. производительность канала, определяемая интенсивностью потока обслуживания  с соотв законом распр-я (2)

  3. число каналов

  4. правило организации работы системы.

В рамках этих 4-х пунктов мы охватываем все виды СМО.

Все процессы в СМО явл простейшими (потоки событий Пуассоновскими, процессы - МСП).
^ 3.8.1. Одноканальная СМО с отказами.

Базовая задача: управляющая ВМ обслуживает заявки с интенсивностью =0,8 з/мин. Среднее время обработки заявки =1/=1,5 мин. Все процессы и потоки простейшие. Определить при t A, q, Pотк и др и сравнить фактическую пропускную способность системы с номинальной, кот имела бы место, если бы обработка длилась в теч 1,5 мин и заявки шли одна за другой без перерыва.

Дано: , , k=1, система с отказами.

Найти: А-?, q-?, Ротк – ?



Состояния канала:



S0 – канал свободен

S1 – канал занят



Также используются и предельные вер-ти:




Но нас интересуют показатели системы:

q= (11)

A= (12)

Pотк= =1-q (13)

^ 3.8.2. Многоканальные СМО с отказами.

Дано: , , k=n, система с отказами.

Найти: А-?, q-?, Ротк – ?, -?





Система (14) получила название системы ур-й Эрланда. Решение её при заданных нач условиях (н-р, Р0(0)=1; Pi(0)=0, i=[1,n] (**)) позволяет найти Pi(t), где i=[0,n]. В задачах, связ с динамикой полётов, наведением исп Pi(t) Также существует много задач, где нас интересуют предельные вероятности Pi. Для них сост ур-я Эрланда. Для любого k-го выделенного состояния определяется его вероятность:



Введём (17) – приведённая интенсивность потока заявок. Физ смысл: это сред число заявок, пришедших в систему за время обслуживания одно заявки.

Для любого k-го состояния:


^ 3.8.3. Одноканальные СМО с ожиданием.



Дано: , , k=1, система с ожиданием, причём очередь ограничена числом m.

Найти: А-?, q-?, Ротк – ?, -?, (среднее число заявок, нах в очереди), rc -? (среднее число заявок, связ с системой: в очереди и под обслуживанием), - ? (среднее время ожидания обслуживания).




Рассмотрим случай, когда m.



Найти: А-?, q-?, Ротк – ?, -?, rc -?, - ?


сходится  стационарность процесса формирования очереди.


^ 3.8.4. Многоканальные СМО с ожиданием.

Дано: , , k=n, система с ожиданием, причём очередь ограничена числом m.

Найти: А-?, q-?, Ротк – ?, -?, rc -?, - ?, -?, -?



на экзамене рассчитать.
1   2   3



Скачать файл (3426.9 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации