Logo GenDocs.ru


Поиск по сайту:  


Лекции по экспертным системам - файл 3. Раздел.doc


Лекции по экспертным системам
скачать (2039 kb.)

Доступные файлы (14):

3. Раздел.doc285kb.26.11.2008 16:27скачать
4. Раздел.doc1271kb.01.10.2008 13:21скачать
Заключение.doc76kb.24.09.2008 19:41скачать
ЛЕКЦИЯ №1_2006 doc.doc224kb.16.03.2007 01:54скачать
Лекция№12_2006.doc590kb.17.11.2008 18:56скачать
ЛЕКЦИЯ№13_2006.doc261kb.17.11.2008 18:56скачать
ЛЕКЦИЯ№2_2008.doc194kb.05.03.2008 13:56скачать
ЛЕКЦИЯ№3_2006.doc656kb.30.05.2007 13:15скачать
ЛЕКЦИЯ №4_2006.doc360kb.06.10.2007 01:28скачать
ЛЕКЦИЯ№5_2006.doc668kb.11.01.2007 15:01скачать
ЛЕКЦИЯ№6_2006.doc310kb.30.01.2007 18:50скачать
ЛЕКЦИЯ_ ANFIS.doc451kb.06.02.2008 23:32скачать
ЛЕКЦИЯ_ГА.doc249kb.02.12.2007 14:08скачать
Нечеткие запросы к реляционным базам данных.doc81kb.27.10.2008 22:34скачать

содержание

3. Раздел.doc

Реклама MarketGid:
3 Стохастический подход к описанию неопределенности


3.1 Неопределенности в ЭС и проблемы порождаемые ими


В жизни часто приходится оценивать гипотезы, для которых имеется неполная или недостаточная информация. Иногда трудно сделать точные оценки, но, не смотря на неопределенность, мы принимаем разумные решения. Чтобы ЭС были полезными, они тоже должны уметь это делать. Классическим примером этой задачи - медицинская диагностика. Всегда существуют некоторые сомнения в четкости проявления симптомов того или иного заболевания. Сомнения в наличии у пациента конкретного заболевания сохраняются даже в том случае, когда все его симптомы отчетливо выражены.

Как же проявляется и учитывается неопределенность в экспертных системах? Рассмотрим простейшую ситуацию. Пусть используется правило:

если (А), то (В),

и предположим никакие другие правила и посылки не имеют отношения к рассматриваемой ситуации. Где же возникает неопределенность? В ЭС она может быть двух типов:

- неопределенность в истинности самой посылки (например, если степень уверенности в том, что А истинно составляет 90%, то какие значения примет В);

- неопределенность самого правила (например, мы можем сказать, что в большинстве случаев, если есть А, то есть также и В).

Еще более сложная ситуация возникает в случае, если правило имеет вид:

если (А и В), то С,

где мы можем с некоторой степенью быть уверены как в истинности каждой из посылок (А, В), а тем более их совместного проявления, так и в истинности самого вывода. Существуют четыре важные проблемы, которые возникают при проектировании и создании ЭС с неопределенными знаниями:

1. Как количественно выразить степень определенности при установлении истинности (или ложности) некоторой части данных?

2. Как выразить степень поддержки заключения конкретной посылкой?

3. Как использовать совместно две (или более) посылки, независимо влияющие на заключение?

4. Как быть в ситуации, когда нужно обсудить цепочку вывода для подтверждения заключения в условиях неопределенности?

Прежде всего, рассмотрим возможности использования теории вероятности при вводе в условиях неопределенности.


^ 3.2 Теория субъективных вероятностей


Основное понятие вероятности настолько естественно, что оно играет значительную роль в повседневной жизни. Разговоры, касающиеся вероятности дождя или хорошего урожая часто встречаются в нашей жизни. Понятие вероятности было разработано несколько столетий назад. Но уже тысячи лет человек использует такие слова, как «может быть», «шанс», «удача» или иные их эквиваленты в разговорном языке.

Однако математическая теория вероятностей была сформулирована относительно недавно (около 1660 года). ^ Вероятность события классически определяется как отношение случаев, в которых данное событие происходит к общему числу наблюдений.

Однако возможны и другие определения. В настоящее время существует несколько интерпретаций теории вероятностей. Рассмотрим три наиболее доминирующих взгляда.

^ Объективистский взгляд. Заключается в том, что рассматривает вероятность отношения исходов ко всем наблюдениям в течении длительного времени. Другими словами этот подход основан на законе больших чисел, гарантирующим то, что при наличии достаточно большого количества наблюдений частота исходов, интересующего события будет стремиться к объективной вероятности.

^ Персонифицированный, субъективистский или основанный на суждениях взгляд. Заключается в том, что вероятностная мера рассматривается как степень доверия того, как отдельная личность судит об истинности некоторого высказывания. Этот взгляд постулирует, что данная личность имеет в некотором смысле отношение к этому событию. Но это не отрицает возможности того, что две приемлемые личности могут иметь различные степени доверия для одного и того же суждения. Как синоним субъективной вероятности часто используется термин «байесовский».

^ Необходимый или логический взгляд. Характеризуется тем, что вероятностная мера расширяется на множество утверждений, имеющих логическую связь такую, что истинность одного из них может выводиться из другого. Другими словами вероятность измеряет степень доказуемости логически выверенного заключения. Такой взгляд можно рассматривать как расширение обычной логики.

Эти вероятностные интерпретации используют и различные схемы вывода. Однако существует всего две школы вероятностных расчетов: школа Паскаля (или общепринятая), школа Бэкона (или индуктивная). Расчеты по Паскалю используют байесовские правила для проверки и обработки мер доверия. Вычисления по Бэкону используют правила логики для доказательства или опровержения гипотез. Таким образом, общепринятые вероятности (по Паскалю) не могут быть получены из индуктивных вероятностей (по Бэкону) и, наоборот. Объективистский и субъективный взгляды используют расчеты по Паскалю. Те, кто поддерживают логические выводы, используют расчеты по Бэкону.

Существуют ЭС, построенные на двух этих направлений. Однако в ЭС базы знаний накапливают человеческие знания, поэтому для представления знаний экспертов с учетом вероятностей наиболее подходящими являются интерпретация на основе субъективных доверий. В результате чего и большинство современных ЭС, использующих теорию вероятностей, являются «байесовскими».

    1. ^ Байесовское оценивание


Перед тем, как ввести в рассмотрение теорему Байеса рассмотрим некоторые фундаментальные понятия теории вероятностей [13]. Пусть А некоторое событие реального мира. Совокупность всех элементарных событий называется выборочным пространством или пространство событий (). Вероятность события ^ А, обозначается р(А) и каждая вероятностная функция р должна удовлетворять трем аксиомам:

1. Вероятность любого события А является неотрицательной, т.е.:





2. Вероятность всех событий выборочного пространства равна 1, т.е.:


.


3. Если k событий А1, А2, … , Аk являются взаимно независимыми (т.е. не могут подойти одновременно), то вероятность, по крайней мере, одного из этих событий равна сумме отдельных вероятностей, или :





Аксиомы 1 и 2 можно объединить, что дает:


.


Это утверждение показывает, что вероятность любого события находится между 0 и 1. По определению, когда р(А) = 0, то событие А никогда не произойдет. В том случае и когда р(А) = 1 , то событие А, должно произойти обязательно.

Предположим теперь, что В некоторое другое событие. Тогда вероятность того, что произойдет ^ А при условии, что произошло В, записывается в виде р(А | B) и называется условной вероятностью события А при заданном событии В.

Вероятность того, что оба события А и В произойдут р(АВ) называется совместной вероятностью событий А и В. Условная вероятность р(А|B) равна отношению совместной вероятности р(АВ) к вероятности события В, при условии, что она не равна 0, т. е.


(3.1)

Аналогично условная вероятность события В при условии А, обозначаемая р(В | А) равна:

,

и таким образом:


(3.2)


Так, как совместная вероятность коммутативна (т.е. от перестановки мест сумма не меняется), то:


.


Подставляя это равенство в ранее полученное выражение для условной вероятности р(А| В ) получим правило Байеса:


. (3.3)


В ряде случае наше знание того, что произошло событие ^ В, не влияет на вероятность события А (или наоборот А на В). Другими словами, вероятность события А не зависит от того, что произошло или нет событие В, так что:


р(А | В) = р(А) и р(В | А) = р(В) .


В этом случае говорят, что события А и В являются независимыми.


^ 3.4 Теорема Байеса как основа управления неопределенностью


Приведенные выше соотношения предполагают определенную связь между теорией вероятностей и теорией множеств. Если А и В являются непересекающимися множествами, то объединение множеств соответствует сумме вероятностей, а пересечение - произведению вероятностей, т. е.


р(А + В) = р(А) + р(В) и р(А * В) = р(А) * р(В).


Без предположения независимости эта связь является неточной и формулы должны содержать дополнительные члены включения и исключения (так например, р(А+В)=р(А)+р(В)-р(АВ). Продолжая теоретико - множественное обозначение, В можно записать как:





Так как это объединение явно непересекающееся, то:


р(В)= р(В|А) р(А) + р(В|)р(В).


Возвращаясь к обозначению событий, а не множеств, последнее равенство может быть подставлено в правило Байеса:


. (3.4)


Это равенство является основой для использования теории вероятности в управлении неопределенностью. Оно обеспечивает путь для получения условной вероятности события В при условии А. Это соотношение позволяет ЭС управлять неопределенностью и «делать вывод вперед и назад».


^ 3.4.1 Логический вывод на основе субъективной вероятности


Рассмотрим случай, когда все правила в экспертной системе отражаются в форме: Если < H является истинной > То < E будет наблюдаться с вероятностью р >.

Очевидно, если H произошло, то это правило говорит о том, что событие E происходит с вероятностью p. Но что будет, если состояние H неизвестно, а E произошло? Использование теоремы Байеса позволяет вычислить вероятность того, что H истинно. Замена «A» и «B» на «H» и «E» не существенна для формулы Байеса, но с её помощью мы можем перейти к анализу вероятностных вычислений в ЭС. В этом контексте:

- ^ H - событие, заключающееся в том, что данная гипотеза верна;

- E - событие, заключающееся в том, что наступило определённое доказательство (свидетельство), которое может подтвердить правильность указанной гипотезы.

Записав формулу Байеса в терминах гипотез и свидетельств, получим:


. (3.5)


Это равенство устанавливает связь гипотезы со свидетельством и, в то же время, наблюдаемого свидетельства с пока ещё не подтверждённой гипотезой. Эта интерпретация предполагает также определение априорной вероятности гипотезы p(H), назначаемой H до наблюдения или получения некоторого факта.

В экспертных системах вероятности, требуемые для решения некоторой проблемы, обеспечивается экспертами и запоминается в базе знаний. Эти вероятности включают:

- априорные вероятности всех возможных гипотез p(H);

- условные вероятности возникновения свидетельств при условии существования каждой из гипотез p(E / H).

Так, например, в медицинской диагностике эксперт должен задать априорные вероятности всех возможных болезней в некоторой медицинской области. Кроме того, должны быть определены условные вероятности проявления тех или иных симптомов при каждой из болезней. Условные вероятности должны быть получены для всех симптомов и болезней, предполагая, что все симптомы независимы в рамках одной болезни.

Пользователи дают ЭС информацию о наблюдениях (наличии определённых симптомов) и ЭС вычисляет p(Hi/Ej ... Ek) для всех гипотез (H1, ... ,Hm) в свете предъявленных симптомов (Ej, ... ,Ek) и вероятностях, хранимых в БЗ.

Вероятность p(Hi / Ej ... Ek) называется апостериорной вероятностью гипотез Hi по наблюдениям (Ej, ... ,Ek). Эти вероятности дают сравнительное ранжирование всех возможных гипотез, то есть гипотез с ненулевыми апостериорными вероятностями. Результатом вывода ЭС является выбор гипотезы с наибольшей вероятностью.

Однако, приведённая выше формула Байеса ограничена в том, что каждое свидетельство влияет только на одну гипотезу. Можно обобщить это выражение на случай множественных гипотез (H1, ... ,Hm) и множественных свидетельств (E1, ..., En). Вероятности каждой из гипотез при условии возникновения некоторого конкретного свидетельства E можно определить из выражения:


,


а в случае множественных свидетельств:


. (3.6)


Данное выражение имеет ряд недостатков. Так, знаменатель требует от нас знания условных вероятностей всех возможных комбинаций свидетельств и гипотез, что делает правило Байеса малопригодным для ряда приложений. Однако в тех случаях, когда возможно предположить условную независимость свидетельств, правило Байеса можно привести к более простому виду:


.

Два события E1 и E2 являются условно независимыми, если их совместная вероятность при условии некоторой гипотезы H равна произведению условных вероятностей этих событий при условии H, то есть:


p(E1 E2 / H) = p(E1/ H) * p(E2 / H).


Вместе с тем предположения о независимости событий в ряде случаев подавляют точности суждений и свидетельств в ЭС.


      1. ^ Распространение вероятностей в ЭС


Вероятности событий, распространяются по базе знаний экспертной системы, на основе правила Байеса для вычисления всех апостериорных вероятностей гипотез при условии наблюдаемых свидетельств. Эти апостериорные вероятности дают ранжированную информацию о потенциально истинной гипотезе. Рассмотрим пример, иллюстрирующий этот процесс [12].

^ Пример – 14. Предположим, что в некоторой БЗ имеется три взаимно независимых гипотезы: H1, H2, H3, которые имеют априорные вероятности: p(H1), p(H2), p(H3), соответственно. Правила БЗ содержат два условно независимыхсвидетельства, которые поддерживают исходные гипотезы в различной степени. Априорные и условные вероятности всех гипотез и свидетельств этого примера имеют следующие значения:


p( )i

1

2

3

p(Hi)

0,5

0,3

0,2

p(E1|Hi)

0,4

0,8

0,3

p(E2|Hi)

0,7

0,9

0,0


При этом исходные гипотезы характеризуют событие, связанное с определением надежности некоторой фирмы:

H1 - «средняя надежность фирмы»;

H2 - «высокая надежность фирмы»;

H3 - «низкая надежность фирмы».

Событиями, являющимися условно независимыми свидетельствами, поддерживающими исходные гипотезы являются: Е1 - «наличие прибыли у фирмы»и Е2- «своевременный расчет с бюджетом». В процессе сбора фактов вероятности гипотез будут повышаться, если факты поддерживают их или уменьшаться, если опровергают их. Предположим, что мы имеем только одно свидетельство E1 ( то есть с вероятностью единица наступил факт E1). Наблюдая E1 мы вычисляем апостериорные вероятности для гипотез согласно формуле Байеса для одного свидетельства:


.


Таким образом:


,

,




После того как E1 произошло доверие к гипотезам H1 и H3 понизилось, в то время как доверие к H2 возросло. В тех случаях, когда имеются факты, подтверждающие как событие E1, так и событие E2, то апостериорные вероятности исходных гипотез также могут быть вычислены по правилу Байеса:


.


Так как события E1 и E2 условно независимые при данных гипотезах Hi, то формулу Байеса можно переписать в виде:


.


Откуда:





Хотя исходным ранжированием было H1, H2, и H3, только H1 и H2 остались после получения свидетельств E1 и E2. При этом H1, более вероятно, чем H2.

На этом примере мы рассмотрели процесс распространения вероятностей по элементам ЭС при поступлении в неё тех или иных свидетельств.

^ 3.4.2.1 Последовательное распространение вероятностей


Однако реально, распространение вероятностей происходит поэтапно с суммированием отдельных свидетельств и их влияния на условную вероятность по мере поступления отдельных свидетельств Ei. Это можно реализовать, используя априорные и апостериорные вероятности, следующим образом:

1) Задаём p(Hi) - априорную вероятность событий Hi.

2) Для полученных свидетельств Ej записываем p(Ej / Hi ).

С учётом теоремы Байеса подсчитываем p(Hi / Ej ) в зависимости от исхода Ej, то есть вычисляем апостериорную вероятность события Hi. Теперь можно не обращать внимания на все наступившие Ej и переобозначить текущую апостериорную вероятность события Hi, как новую априорную вероятность Hi. Итак, пусть p(Hi) равна p(H//Ej) в зависимости от значения Ej.

Затем выберем новое свидетельство для рассмотрения и перейдём к п.2.

Проиллюстрируем эту последовательность на приведенном выше примере в предположении, что сначала поступило свидетельство E2. Тогда:





Полученные вероятности можно принять за новые апостериорные вероятности гипотез H1, H2, и H3, то есть:





И если теперь, если дополнительно поступит свидетельство E2,, то новые апостериорные вероятности гипотез могут быть вычислены только на основе вновь поступившего свидетельства:





Из приведенного примера видно, что итерационная процедура последовательного распределения вероятностей по мере поступления свидетельств позволяет получить результаты аналогичные непосредственному применению правила Байеса для случая одновременного двух поступивших свидетельств.

^ 3.5 Формула Байеса на языке шансов


Пусть Р(Н) - априорная вероятность гипотезы Н при отсутствии каких-либо свидетельств;

Р(Н|Е) - апостериорная вероятность гипотезы Н при наличии свидетельства Е.

Согласно теоремы Байеса:


, (3.7)


и Р(Н*) = Р(Е) Р(Н|Е) + Р() Р(Н| ),


где Р(Н* ) - оценивает новую вероятность гипотезы Н с учётом свидетельства Е.

Введем отношение правдоподобия ОП(Н|Е):


, (3.8)


а также формулу для вычисления шансов О(Н):


(3.9)



Из (3.9) нетрудно обратным преобразованием получить:


(3.10)



Теперь формула Байеса на языке шансов принимает следую­щий вид:


О(Н*)= О(Н) ОП(Н|Е), (3.11)


где О(Н*) - новая оценка шансов для гипотезы Н с учётом свидетельст­ва Е.

Формула (3.11) при наличии многих свидетельств Е12,…Еn принимает вид:


(3.12)


Таким образом, на основании формул (3.11) и (3.12) имеется воз­можность просто пересчитывать апостериорные вероятности гипотез на основании получаемых свидетельств.

Теорема Байеса является основой механизма вывода в экспертных системах PROSPECTOR и HULK.

Рассмотрим другой пример с шансами для оценки дождя на другой день, если сегодня сырой, облачный и ветреный сентябрьский день. Предположим, имеется некоторая статистика, собранная по сентябрь­ским дням и сведенная в таблицу 3.1.

Известно, что общее число наблюденных сентябрьских дней – 173, а число дождливых дней – 53.

Оценим априорные шансы дождя на следующий день:





Таблица 3.11- Статистика по сентябрьским дням

Фактор, характеризующий текущий день

Значение

Число дождливых дней

Число не дождливых дней

Влажность

высокая

средняя

умеренная

35

12

6

-

53

18

42

60

-

120

Ясность

ясно

облачно

пасмурно

5

8

40

-

53

83

27

10

-

120

Ветреность

слабая

средняя

сильная

19

27

7

-

53

52

44

24

-

120


Вычислим отношения правдоподобия с учетом свидетельств:










Далее, используя формулу (3.12), находим:





и с помощью формулы (3.10) рассчитываем вероятность дождя завтра, если сегодня облачная, сырая и ветреная погода:





Таким образом, байесовская стратегия позволяет корректировать вероятность гипотезы с учетом известных факторов, но не учитывает неопределенность, заключенную в реакции пользователей ЭС.


^ 3.6 Коэффициент уверенности


Коэффициент уверенности (КУ) – это разность между двумя мерами:





В этом выражении – уверенность в гипотезе H с учётом свидетельств E; – мера доверия H при заданном E, тогда как – мера недоверия гипотезе ^ H при свидетельствах E.

КУ может изменяться от -1 (абсолютная ложь) до +1 (абсолютная истина), принимая также все промежуточные значения, причём 0 означает полное незнание. Значения же МД И МНД, с другой стороны, могут изменяться лишь от 0 до 1. Таким образом, КУ – это простой способ взвешивания свидетельств «за» и «против».

Формула уточнения, по которой новую информацию можно было непосредственно сочетать со старыми результатами. Она применяется к мерам доверия и недоверия, связанным с каждым предположением. Формула для МД выглядит следующим образом:


(3.13)


где запятая между E1 и E2 означает, что E2 следует за E1. Аналогичным образом уточняются значения МНД.

Смысл формулы состоит в том, что эффект второго свидетельства E2 на гипотезу H при заданном свидетельстве E1 сказывается в смещении МД в сторону полной определённости на расстояние, зависящее от второго свидетельства. Эта формула имеет два важных свойства:

1. Она симметрична в том смысле, что порядок E1 и E2 не существен.

2. По мере накопления подкрепляющих свидетельств МД (или МНД) движется к определённости.

Для оценки МД и МНД применяется нечёткая логика (называемая также «логикой возможностей») [14]. В булевой алгебре единица представляет истину, а ноль – ложь. То же имеет место и в нечёткой логике, но, кроме того, используются также все дроби между 0 и 1, чтобы указать на частичную истину. Так, запись Р(высокий (Х)) = 0,75 говорит о том, что предположение «Х – высокий», в некотором смысле на три четверти истинно. Точно так же оно на одну четверть ложно. Для комбинирования нецелочисленных значений истинности в нечёткой логике определяются эквиваленты операций И, ИЛИ и НЕ:


р1 И р2 = min (p1, p2) (т. е. меньшее),

р1 ИЛИ р2 = max (p1, p2) (т. е. большее),

НЕ р1 = 1 – р1 (т. е. «обратное значение»).

Пример:

Правило 1

ЕСЛИ Х водит «Волгу»,

И Х читает «Известия»,

ТО Х будет голосовать за «диванную партию».


Правило 2

ЕСЛИ Х не любит «желтую прессу»,

ИЛИ Х хочет, чтобы все события в прессе, отражались объективно,

ТО Х будет голосовать за «диванную партию».


Примем, что значения МД для этого Х таковы:

1а. Х водит «Волгу»

1б. Х читает «Известия» И < = > min

2а. Х не любит «желтую прессу»

2б. Х хочет, чтобы все события в прессе, отражались объективно ИЛИ < = > max.

Тогда гипотеза, что Х голосует за «диванную партию», поддерживается на уровне 0,75 правилом 1 и на уровне 0,6 правилом 2. Применяя приведённую формулу, получаем:





Таким образом, объединенная мера доверия оказывается выше, чем при учете каждого свидетельства, взятого отдельно. Это согласуется с нашей интуицией, что несколько показывающих одно и то же направление свидетельств подкрепляют друг друга. Кроме того, можно поменять порядок правил 1 и 2, и на результате это не отразится. Данные или правила могут быть ненадежными. Это позволяет описывать более широкий класс ситуаций. Каждое правило снабжено «коэффициентом ослабления», числом от 0 до 1, показывающим надежность этого правила, поэтому немодифицированную силу заключений МД, следует умножить на ослабляющие коэффициенты и использовать формулу 3.13.


^ 3.6.1 Неопределенность, заключенная в реакции пользователей


В идеале, когда система обращается за конкретной информацией, пользователь дает прямой ответ на вопрос. Но может быть так, что пользователь не знает, какой ответ ему дать. Когда задается такой вопрос: «Есть ли у вас сильный кашель?», то необходимо дать пользователю возможность отвечать, пользуясь, скажем, одиннадцатибалльной шкалой, на которой +5 ответ означает «Да», -5 означает «Нет», а 0 – «Я не знаю», тогда, как все остальные варианты ответа располагаются где-то в промежуточных точках шкалы.

В этом случае вычисления протекают в значительной степени так же, как раньше, но с заменой P(H/E) на P(H/R) , вычисляемую по формуле:


P(H / R)= P(H / E) P(E / R)+ P(H / не E) P(не E / R),


где - R представляет собой ответ пользователя.

Другими словами, чтобы допустить неопределенность, система должна допустить некоторую вероятность P(H / E) и некоторую вероятность P(H / не E), величины которых зависят от той степени, в которой ответ пользователя поддерживает или опровергает конкретный элемент данных. Очевидно, что если этот ответ нулевой, то P(H/R)=P(H), т.е. ничего не меняется, а при других ответах неопределенность отражается путем кусочно-линейной интерполяции между P(H / E) и P(H /не E). В приложении В, представлены интерфейсы прототипов ЭС, использующихся в качестве имеющегося аналога и реализованных студентами в ходе выполнения лабораторной работы: «Разработка экспертной системы на основе байесовской стратегии логического вывода».


Контрольные вопросы для самопроверки


1. Представление неопределенности знаний и данных?

2. Какие аксиомы вероятностной функции вам известны?

3. Дайте определение совместной вероятности событий?

4. Записать теорему Байеса в виде формулы?

5. Запишите формулу Байеса в терминах гипотез и свидетельств. Дайте расшифровку?

6. Дайте определение априорной, условной и апостериорной вероятностей?

7. Проиллюстрируйте пример принятия решения об истинной гипотезе при условии одновременного получения нескольких свидетельств?

8. Проиллюстрируйте пример принятия решения об истинной гипотезе при условии последовательного получения нескольких свидетельств?

9. Формула Байеса на языке шансов?

10. Дайте определение коэффициента уверенности?

11. Понятие меры доверия и меры недоверия?




Реклама:





Скачать файл (2039 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru
Разработка сайта — Веб студия Адаманов