Logo GenDocs.ru

Поиск по сайту:  


Загрузка...

Шпаргалки к экзамену по СИИ - файл 1.docx


Шпаргалки к экзамену по СИИ
скачать (738.9 kb.)

Доступные файлы (1):

1.docx739kb.24.11.2011 10:52скачать

содержание
Загрузка...

1.docx

Реклама MarketGid:
Загрузка...
1.История развития ИИ.

Идея созд иск подобия чела для реш сложн зад и моделир-я чел разума была еще в древнейшие врем. В др. Египте была созд оживающ механич статуя бога Амона.Родонач ИИ счит средневек испанский философ,матем и поэт, алхимик Райн Лулий,кот еще в 12в попытался созд механич car для реш разл зад на осн разраб им всеобщ классиф понятий это первая в истории попытка созд car, моделирующей чел разум. Лулий 1235 – 1315 придумал думающее устр с камнями.Лейбниц и Декарт,в 15в независ др от др продолж эту идею,предложив универс яз классиф всех наук. Эти работы м-о считать первыми теор раб в обл ИИ.После созд ЭВМ в 40-х гг.20в-окончат формир как научн направл.В это же время Норберт Винер созд свои основополаг работы по новой науке–кибер-нетике.Начало исслед в обл ИИ относят к 50-м г. 20 века и связ с раб Ньюэлла, Саймона, Шоул, иссл-вших проц реш зад.Раб этих авторов полож 1ые рез-ты в обл ИИ:2 проги:логик–теоретик–для док-ва теорем и универс решатель задач.ИИ был предлож в 1956 на семинаре в Америке.После созд ИИ он разделился на 2 направл: нейрокиберн и кибернетика черного ящика.В основе напр были 2 идеи: Киберн черн ящ осн на модели знаний, а Нейрокиберн–моделир мыслит деят чела.Напр развив независ, в наст время найдены тенденции к объед их в 1 целое. 2ым этапом в обл ИИ м-о счит проведение работ по созд интеллект роботов.Этот этап нач в конце 60-х гг. 20в.С 1969-1979–этап ИИ,связ с разраб сист основ-х на знаниях.С 1980 г по наст время происх превращ ИИ в индустрию.

^ 2.Основные направления ИИ:

1)Разраб интеллект-х сист,осн на знаниях(разраб моделей знаний,баз знан-ядро экспертн сист)-инже-нерия знаний.2)Нейросет и нейрокомп технол (альтернат 1ому)заимствует принципы раб головн мозга: знания преобрет в проц учения нейр сети.3)Распозн обр(широкий круг пробл связ с расп текстов, шумов, звуков,запахов).4)Игры и творч(шахм,шашки)5)Комп лингвистика(обл carного перевода,разраб естеств яз интерф му чел и car).6)Интеллект роботы-роб появ до ИИ,облад способн обучаться,адаптир к окр среде. 7)Комп вирусы-посл покол вирусов своб перемещ по компам,мутир,размож,преображ.

^ 3. Понятие интеллектуальной системы

Опр1.1 Интелл-й наз сист,способн целеустр в завис от знач информ входов изменять не т-о парам функц-нир-я,но и сам способ повед,причем способ повед завис не т-о от текущ знач информ входов,но и от текущ сост сист.
Опр1.2 Интелл-й наз сист,моделир-я на компе мышление чела.Это опр потерпело пораж,т.к. невозм созд сист,мыслящую как чел. Опр1.3 Интелл-й наз сист, позв усилить интелл деят чела за счет ведения с ним осмысленного диалога. Не заменить чела,а усилить его деятельность.Н-р,уничтожение цели ракетной системой – принятие реш остается за челом.

Сегодня ИИ это самообучающийся инструм,усилив деят чела по генерации и прин реш.




^ 4.Общая структ систем ИИ

∀ ИИ есть некот модель проц прин реш естест-ым интелл.Рассм осн киберн модели, т.е. такие мод,в кот осущ перераб инфы с целью прин реш. Сист принцип в кибернетике треб рассм ИИ, как некот киберн сист, в кот сочет:1)стороны,обесп подсист–модельная, алгоритмич,прогр,информ,технич.2)функц-ль-е преобр–преобр из внешн предст во внутр предст. Подсист внутр предст и подсист преобр внутр во внешн предст.Укрупненно структур-я схема СИИ мбпредст:
СИИ предст 3мя блоками:1)преобр-ль из внешн во внутр предст.2)блок предст знаний(БПЗ).3)блок преобр из внутр предст во внешн.Одной из существ особ СИИ явл налич внутри сист модели внешн мира,кот наз внутр предст.ИБД–интелл-й банк дан-х,в кот со-сред вся инфа о внешн мире.Усл ИБД дел на 3 базы: б целей,б знаний и БД,кот не всегда присутств в СИИ БЗ содерж:1)свед, кот отраж законом-ти,∃ в предм обл, и позв, как выводить новые факты,∃ в данном сост ПО, но не зафиксир в БД, так и прогнозир-ть потенц возм сост.2)свед о структ и содерж БД;3)свед, обесп поним входн яз,т.е перевод вх вопросов и утвержд во внутр яз.БЦ содерж инфу о целевом повед ПО,опред повед СИИ и обесп реализ св-ва мотивации–побужд к действ.БД содерж фотографич,колич дан-е,связ с опр структ,инфа о кот, как правило, хранится в БЗ.М-о утвержд, что проц становл,разв естеств интеллекта начин с созд БД,т.е накопл фактов, свед о внешн мире.Затем заклад-ся или заимств-ся из книг,от учителей знания,закономерн о ПО–формир-ся БЗ.Для активного повед естеств и ИИ во внешн мире и активного возд на него созд БЦ,кот опр страт повед.При функц-нир-и уже созд СИИ предст преобраз инфы происх в обратном направл:в нач инициир-ся БЦ,ставятся и уточн цели,подцели(сист генерац подцелей), а затем в соотв с этими целями возбужд нужные части БЗ,кот в свою очередь, управляя БД, обесп формир-е реш.В итоге м-о опр осн киберн модели:1)преобр из внешн во внутр предст;2)модель предст знаний;3)модель предст из внутр во внешн;

Если преобр совп,то 1я модель близка к 3й и предс ее упрощ. Модель предст-я знаний укрупнено сост из 4х частных моделей:интерпретации – БИ,усвоение знаний – БУЗ,интелл-й банк дан-х,базы вывода реш.

ИБД мб предст: БЦ, БЗ, БД.

^ 5.Осн особенности СИИ

I. Интелл-ть.Самая существ особ СИИ.∃неск подходов к опр интелл-ти,все они не явл строго формализ, т.к. в теории СИИ широко исп концепции и методы таких неточных наук,как психол,лингв и информ.

^ Осн св-ва интелл-ти:1)она предполаг наличие в сист собств внутр модели внешн мира;2)способн пополн имеющегося предст знаний или усвоение новых зна-ний(обуч),причем имеет в виде не простое добавл новых фактов в БД и даже не такое добавл семантич (смысловых) и прагматических(целевых) процедур в БЗ и БЦ,а такая перестройка или встраивание новой инфы в сист предст знаний(СПЗ),при кот обесп реш всех зад класса,предст кот явл поступивш новая инфа;3)способн к выводу или к генерации–конструир-ю реш,но такого реш,кот в явном и готовом виде не содерж в СПЗ,в этом св-ве проявл способн сист к дедуктивн выводу–способн сист выдавать новую инфу,кот в сист ранее не было.II.Индив инфа облад семантич(смысл) и прагм(цель) св-ми.III.Пробл в нечеткости/размытости проц прин реш.IV.Чел-маши-нные концепции трактовки прин реш.V.Эволюци-онность и адаптация функц-нир-щей СИИ,сданной в эксплуатац не предст собой застывшую,она пост доучив-ся и соверш-ся.


^ 6. Данные и знания. Виды знаний.

Данные–отд факты,харак объекты,проц и явл предметной обл, а также их св-ва. Знания связ с данными, осн на них,но предст собой рез-т мыслит деят чела, обобщают его опыт, получ-й в ходе практич деят.

Знания–выявленные законом-ти предм обл. При об-раб зн на компе,они трансформ так же, как и данные. 1)как рез-тат мышл2)зн на матер-ных носителях3)зн на яз предст знаний4)базы зн.Для БД характерен > объем и относ не> стоим инфы.Для хран зн исп БЗ–не> объем,но дорогой инф массив. Классиф знаний: 1)поверхн и глубинные.Пов–зн о видимых взаимосвязях му отд событ и фактами ПО. Гл–абстракции, аналогии,схемы,отобр структ и проц ПО.2)по своей прир:- декларативные зн–опис фактов и явл, фикс-ют налич или отсут таких фактов а также вкл опис осн связей и законом,в кот эти факты и явл входят.- процедурные зн–опис действ,кот возм при манип фактами и явл для достиж намеч целей. Для опис зн на абстр ур-е ∃спец яз(проц и деклар). 3)по сп-бу приобрет:-факты,-эвристика–правила,кот позв сделать выбор при отсут точн теор обосн.4)по типу предст:-факты,-правила (ifА,тоБ). Предст зн (ПЗ)– выраж на некот форм яз св-в разл объектов и законом,важн для реш прикл зад организ взаимод польз с комп. Совок зн,хран в ВС и необх для реш комплексно-прикл зад, наз сист зн.В СИИ: дан-е+алг=прога замен на зн+выводы=сист. Для размещ БЗ в комп с целью ее исп для реш прикл зад необх ее опис с пом моделей.

^ 7. Общие сведения о моделях предст знаний.

Предст зн (ПЗ)– выраж на некот форм яз св-в разл объектов и законом,важн для реш прикл зад организ взаимод польз с комп. Совок зн,хран в ВС и необх для реш комплексно-прикл зад, наз сист зн.В СИИ: дан-е+алг=прога замен на зн+выводы=сист. Для раз-мещ БЗ в комп с целью ее исп для реш прикл зад не-обх ее опис с пом моделей. Одной из гл пробл, кот прих реш в СПЗ явл вопр об оптим сочет 2х противор концепц:общности СПЗ и эффект-ти ее исп.В связи с этим вводят пон эпистомологически полного предст, под кот поним форм опис всех фактов о внешн мире, необх для вып опр класса зад.Еще 1 пробл-соотв мо-дели ПО.Возник пон-эпистом-ки адекв опис. Вводится еще пон эвристич адекв предст,кот закл в допустимости лингвистич выраж послед-ти рассужд, приводящих к реш зад.Наряду с пон ПО ∃ пон проблемной обл.При созд моделей пробл обл исп пон простр сост–дискр,изобр в виде мульти-графа. Модели предст зн:Классич:1)форм логич.2)семантич сети. 3)фреймы.4)продукц-е.Новые:1)критер-е.2)нейр сети. 3)стохаст–мод для предст зн в усл неопр. Формальн логич модели–мод на осн форм или мат логики. Исторически 1ой мод стала форм логика Аристотеля, затем Кант, Буль. Интерпретация–утвержд относ правдивости высказ в некот возм мире.Интерп опр семант.Под предикатом поним некот связь,кот задана на наборе констант и перем. Т.о,осн синтакс един логики предик явл конст,перем, ф-ции,предикаты, кванторы и логич опер.Синтаксис яз логики предик-в первого пор опр яз Бекуса Наура

<конст>→<идентиф_1> <перем>→<идентиф_2>

<ф-ция>→<идентиф_3> <предикат>→<идентиф_4>

<терм>→<конст>|<перем>|<фция>(<список термов>)

<список термов>→<терм>|<терм>{,<терм>}

<атом>→<предикат>|<предик>(<список термов>)

<литера>→<атом>|¬<атом> <оператор>→/\ | \/ |→|↔

<список перем>→<перем>|<перем>{,<перем>}

<квантор>→(∃ <список перем>)|(∀<список перем>)

<ф-ла>→<литера>|<ф-ла>|<квантор>(<ф-ла>) |

(<формула>) <оператор> (<формула>) .Для предст зн дан-й ПО необх устан-ть обл интерпр,т.е выбр конст, кот опр объекты дан-й обл,а также ф-ции и предик, кот опр завис-ти и отнош му объектами.После этого м-о постр логич ф-лы, опис законом-ти дан-й ПО.Все это возм,когда зн явл полн, четк и надежн, инач задать зн с пом мат модели невозм.




^ 8.Семантические сети

Семантика–наука,устан отнош му симв и объект, кот эти симв обозн.Сем сеть–ориент граф,вершиной кот явл пон,а дуги–отнош му ними.1968г. Куилиан.Осн идея подхода предст зн,осн на аппарате семант сетей, сост в том,что проблемная среда рассм,как совок пон (сущностей объектов) и отнош(связей му ними).При постр семант сети исп 3 осн типа объектов:1)пон–объекты ПО.2)событие-действ.3)св-ва–характ-ки объектов или событий. Сеть дБ систематиз,для возм формализации.Сети Куилиана систематизируют от-нош по след призн:1.мн-во–подмн-во.2.отнош близости.3.отнош сходства различия.4.логич связи.5.колич связи.6.простр связи.7.врем связи.8.атрибутные связи

9.лингвистич связи.
Для реализ сем сетей ∃ спец яз:NET,SIMER_MIR. Преимущ данной модели:-соотв совр предст об организ долговрем памяти чела.-нагл предст.Недостаток –сложн поиска вывода,сложн корректировки таких моделей(добав,удал зн).Сем сети получ широкое распр в сист распозн речи и экспертн сист.Необх структуризации сем сетей привела к появл концепции фреймов.

^ 9.Фреймы как модели представления знаний

Фреймы–модель предст зн,осн на теор Минского,кот предст собой псих модель памяти чела и его созн.

Фрейм–абстр обр для предст некоего стереотипа воспр путем сопост факта с конкр элем и знач в рамках опр для объекта обр в структ БЗ.Фрейм–мин возм опис сущн какого-л объекта,явл,соб,ситуации,проц. Фр имеет имя,служ для идентиф опис им пон.Фр сост из слотов и присоед процедур,связ с фр или со слота-ми.Осн структ элем опр с пом слотов.Текущ знач слотов помещ в шпации.Число слотов устан проект-щиком.Родитель объекта-сист слот AKO(A kind of). Слот может содерж не т-о конкр знач,но также и имя процед,позв вычисл это знач по зад алг. Такие процедуры наз присоед или связанными проц. В слоте могут содерж данные сложных типов,масс, списк,мн-во.Т.о,структ фр м-о предст в виде след табл:
Совок дан-х предм обл мб предст мн-вом взаимосв-х фр,образ единую фр-ю сист,в кот объед декларативн и процедурные зн.Такая сист обычно имеет иерархич структ,в кот фреймы соед др с др с пом родовидовых связей.На верхн ур-е нах-ся фр,содерж наиб общую инф,истинную для всех фр.Указатели наслед-я показ, какую инф об атрибутах слота из фр верхн ур-я наследуют слоты с одинак именами в данном фр. Наслед-е происх по АКО.Слот АКО указ на фр > высокого ур-я иерарх,откуда наслед-ся знач одинак слотов.В конкр слотах указатели насл мб организ разл спос.Рассм фр модель,опис понятие студент.

Фрейм-е сист обычно реализ на ООЯ.Осн преим явл наглядн и гибкость в употр.


^ 10.Продукционные модели представления знаний

Иначе наз мод,осн на зн.Эта мод позв предст зн в ви-де: ЕСЛИ<усл>,ТО<действ>(2.1).В кач-ве усл вы-ступ предлож,по кот осущ поиск в БЗ,а действ выполн при успешн исх поиска.Сист обраб зн Поста, предлож для формальн замены послед-ти симв,исп такое предст,получ наз от продукц-х сист.Продукц сист м-о предст,как сист,сост из 3 осн компонентов:

Раб обл↔(модиф)Интерпр правил←(поиск)БП.^ БП содерж правила вида(2.1).Раб обл(раб память)– база фактич правил,в кот хран исх данные к зад и выводы, получ входе раб сист.Интерпр правил реализ опр ме-ханизм логич вывода,исп правила в соотв с содерж раб памяти.∀ продукц правило,содерж в БЗ,сост из 2х частей:антецедента и консеквента.Правило продукции:pi:si→di,где pi–правило продукции,si–антецедент, di– консеквент(2.2).Антецед предст усл повед правила pi.Консекв опр рез-т правила pi.Н-р:«если небо по-крыто тучами» и «идет дождь»→«необх взять зонт». Антец и консекв зн форм-ся из атриб и знач. В раб памяти продукц сист хран пары «атрибут-знач»,ис-тинность кот устан к некот конкр времени при реш опр зад.Правило срабат,если при сопост фактов, со-держ в раб памяти с антец анализируемого правила, имеет место совпад.Заключение срабат-го правила заносится в раб память.При реализ правил простр сост для опис сост исп симв строки,как со скобками так и без,а опер-ры зад в форме правил перепис-я или продукций. Так,если прод имеет вид «ρ:φ→ψ»,а опис сост «γ=αφβ»,где α и β–симв строки,кот мб пуст,то рез-том примен опер ρ к описанию γ будет δ=αφβ. Преимущ явл то,что здесь не надо примен усл примен-ти.Преим продукц мод явл нагл,высокая модуль-ность,легк внесения изм и доп,простота логич вывода.Недост:сложн оценка целостного образа зн, низкая эффект-ть обраб зн,неясн взаимн отнош и правил.

^ 11.Мет вывода реш в прод мод предст данных

Механизм вывода вып 2 осн ф-ции:1)просм ∃ в раб памяти фактов и правил из БП,а также добавл в раб память новых фактов;2)опр страт поиска и примен правил. Для вып указ ф-ций механизм вывода вкл компоненту выв и управл комп.Действ комп осн на прим правил выв,наз «modus ponendo ponens»,кот звучит в продукц сист так:«if верноA и верно,что из AследB,то верно B»(A,A->B)/B.Т.е,if в раб пам присутст факт A, и в БП ∃правило вида «if A то B»,то факт B призн истинным и заносится в раб пам. Уп-равл комп опр порядок примен правил.Механизм выв раб циклич.При этом в 1 цикле может сраб т-о 1 прав
В цикле вып след опер:1)сопост(образец правила со-пост с имеющ в раб пам фактами);2)выбор(if в конфликтн сит мб примен неск правил,то из них выбир 1,наиб подх по зад крит,т.е происх реш конфл выбора);3)срабатывание(if образец правила при сопост совп с какими-л фактами из раб пам,то правило сраб, и оно отмеч в БП);4)раб пам подверг измен путем добавл в нее заключения срабатываемого правила. Усл оконч цикла явл либо исчерп всех правил в БП, либо вып некот усл,кот удовл содерж раб пам (н-р, появл в ней какого-л образца),либо комбин этих спос.



^ 12. Мет выв реш во фр мод предст зн и сем сетях.

В интелл-х сист с фр предст зн исп 3 спос управл логич выводом:1)Демоны;2)Присоед процедуры; 3)Механизм наслед-я.Во фр разл 2 типа присоед проц-р:проц-ры-демоны и проц-ры-слуги.Демоны или проц-ры-демоны автом запуск при обращ к соотв слоту.Типы демонов связ с усл запуска проц-ры. Демон IF-NEEDED запуск,if в момент обращ к слоту его знач не было устан;Демон IF-ADDED зап при попытке измен слота;Демон IF-REMOVED запуск при попытке удал знач слота;Возм также др типы демонов.В отл от демонов проц-ры-слуги запуск явно.Механизм наслед-я явл осн механизмом вывода. Управл ф-ции механизма насл закл в автом поиске и опр знач слотов фр нижележ ур-ней по знач слотов фр верх ур-ней, а также в запуске присоед проц-р и демонов.Общий механизм сопост фр и получ результир-го фр,т.е ответа на запрос,сост в след:поиск фр в сист фр осущ с пом ключ слов(ключей),выдел из запроса;при нахожд фр инфа,отсутств в запросе получ из слотов этого фр с умолч DEFAULT,огранич-ем REQUIRE PREFER и с пом демонов;после обраб этого фр с пом слота АКО перех на > высокий ур-нь иерархии фр и вновь примен слоты нового фр для за-полн слотов фр,найд-го по запросу.Присоед проц-ры и демоны могут реализ ∀ механизм выв.Но эта реализ имеет конкр хар-р и треб знач затрат труда проектировщиков и прогеров.В интелл-х сист с фр предст невозм четко отд процедурные зн от декларативных, т.к демоны и присоед проц явл и зн и средствами упр логич выв.В сем сетях,также как и при фр предст зн декларативные и процедурные зн не раздел=>БЗ не отделена от механизма выв.Поэтому проц-ра выв обычно предст собой совок проц-р обраб сетей.

^ 13.Методы вывода реш в логич моделях предст зн.

В лог мод операция,наз выводом–это получ заключ-я из группы зад предст.Вывод явл формулой,получ из некот группы опис формул.Обычно эти ф-лы истины при ∀ интерп.Действ комп выв в лог мод осн на примен след правил выв:1)modus ponens(A,A→B)/B.

^ 2)modus tollens(A→B,¬B)/¬A.3)modus ponendo tollens (if верно или A или И в разделит смысле и верно 1 из них,то др ложно)(A⨁B,A)/¬B, (A⨁B,B)/¬A.4) modus tollendo ponnens a)if вер илиА илиВ в разд смысле и ложно 1из них,то верно др(A⨁B,¬A)/B,(A⨁B,¬B)/A б)if вер АилиВ в разд смысле и лож 1из них,то вер др (A\/B,¬A)/B, (A\/B,¬B)/A.5)закон транзитивности (A→B,B→C)/(A→C).6)закон противоречия (A→B,A→¬B)/¬A7)прав контраппоз(мет резолюций)

(A→B)/(¬B→¬A).




^ 14.Структ эксп систем(ЭС)

Под ЭС поним прогу,кот исп зн спец-тов(экспертов) о некот конкр узко спец-зир-й предм обл и в lim этой обл способна приним реш на ур-е эксперта-профес-сионала.Полезность сист,кот могут копир дорогост или редко встреч чел зн,привела к широкому внедр и расцвету этой техн в 80е,90е г 20в.Св-ва ЭС:1)в ЭС зн отд от дан-х,и мощность ЭС обусл в 1 очередь мощн БЗ и т-о во 2 очер исп-ми мет реш зад;2)реша-емые ЭС зад явл неформализ или слабоформализ и исп эвристич,эксперим-таль-е,субъективные зн экспертов в опр предм обл.Катег реш-х ЭС зад: диагн, управл(в тч технологическими проц),интерпрет, прогнозир-е,проектир-е,отладка и ремонт, планир-е, наблюд(мониторинг),обуч-е.Основу ЭС сост подсист логич вывода,кот исп инфу из БЗ,генер рекомендации по реш иск зад.Для предст зн в ЭС исп сист продукций и сем сети.Пусть,БЗ сост из фактов и правил (if <посылка> то <заключ-е>).Если ЭС опр,что посылка верна,то правило призн подходящим для дан-й консультации и оно запуск в действ.Запуск правила озн прин заключ данного прав в кач составн части проц консультации.Обяз частями ∀ ЭС явл также модуль приобрет зн и мод отображ и объясн реш. В>случ,реальн ЭС в промышл эксплуат раб также на осн БД.Т-о одноврем раб со зн и >объемами инфы из БД позв ЭС получ неординарные рез-ты,н-р, поставить сложный диагноз(мед или техн),откр местор полезн иск,упр ядерным реактором в реальн вр.
Важн роль при созд ЭС игр инструментальные ср-ва: такие яз прогр, как лисп и пролог,а также эксп сист-оболочки(ЭСО):kee,centaur,g2 и gda,clips, at_техно-логия,предост в распоряж разраб- инженера по зн шир набор для комбин-я сист предст зн,яз прогр, объектов и проц-р.

15.Классиф ЭС

По назнач ЭС:1)ЭС общего назн;2)cпец-лизир-е ЭС:

-проблемно-ориентир-е для зад диагн,проектир-я, прогн-я;-предметно-ориент-е для специфич зад,н-р, контр сит на атомных электрост.^ По степ завис от внешн среды:1)Статические ЭС,не завис от внешн ср.

2)Динамич,учит динамику внешн ср и предн для реш зад в реальн вр.Вр реакц в таких сист может задаваться в миллисек,и эти сист реализ,обычно,на С++.

По типу исп:1)Изолир-е ЭС.2)ЭС на вх/вых др сист.

3)Гибридные ЭС или ЭС интегрир-е с БД и др прог прилож.^ По сложн реш зад:1)Прост-<1000 прост правил.2)Средн->1000<10000 структурир-х правил. 3)Сложн- >10000 структ правил.По стадии созд:1)Ис-следовательский образец ЭС,разраб за 1-2 мес с min БЗ.2)Демонстр обр,разр за 2-4 мес,н-р,на lisp, prolog, clips.3)Промышл обр,разр за 4-8 мес,н-р,на clips с полной БЗ.4)Коммерч обр,разр за 1,5-2 года,н-р,на С++, Java с полной БЗ.
16.

17.



^ 18.Биологический нейрон(Н)

Искусств нейр сети строятся по принц организ и функционир-я их биол аналогов.Нервн сист и мозг чел сост из Н,соед му собой нервн волокнами.Нерв вол спос перед электр импульсы му Н.Все проц передачи раздраж от кожи,ушей и глаз к мозгу,а также проц мышл и управл действ реализ в живом организме,как передача электр имп му Н.Н или нервн клетка–особ биол клетка,кот обраб инфу.Н сост из:тела–сома;отростков нервн вол 2х типов:дендритов,по кот приним имп,и единств аксона, по кот Н может перед имп.Тело Н вкл ядро,кот содерж инф о наследств св-вах и плазму,облад молекулярными средствами для произв необх Н материалов.Н получ сигн или имп от аксонов др Н чз дендриты и перед сигн,сгенерир-е телом клетки вдоль своего аксона,кот в конце развет-вл на волокна,на оконч этих вол нах-ся синапсы, кот влияют на велич имп.Простейший Н может иметь до 10000 дендритов,приним сигн от др клеток.В чел мозге содерж прибл 1011 Н,кажд Н связ с 103-104 Н. Биол нейр сеть содерж 1014-1015 взаимосв. Кажд Н может ∃ в 2х сост:возбужд и невозб.В возб сост Н перех под возд электр сигн,поступ к нему от др Н, когда эти воздейств стан достат >.В возб сост Н сам посылает электр сигн др,соед с ним Н.Изв,что общее число Н в теч жизни чела практич не измен,отличие сост лишь в силе синоптич связей,т.е в велич электр проводимостей нервн вол,соед Н.На этом осн была высказ гипотеза о том,что все наши мысли,эмоц,зн, вся инфа,хран в чел мозге,закодир в виде сил синоптич связей.Т.о,получ, матр кодов хранимой инф,кот содерж 1014-1015 элем.Проц обуч чел, продолж всю его жизнь, сост в непр коррект содерж этой матр.
^ 19.Искусственный нейрон(ИН)

ИН в 1ом приближ имитир св-ва биол Н.Исторически 1ая мод ИН была предл в 1943 г. Мак-Каллоком и В. Питтсом гипотеза мат Н-мод абстр устр, моделиру-ющего мозг чел.Мат Н также имеет неск вх и 1 вых.

Чз вх,число кот обозн чз m,мат Н приним вх сигн u1,.,um,кот ∑ют, умножая кажд вх сигн на соотв весов коэф w1,.,wm.Вес коэф харак велич синопт связи. Т.о,текущ сост Н s опр как взвеш ∑ его вх.s=∑iwiui (4.1).Вых сигн Н– y – ф-ция его сост y=f(s)(4.2).f–активац ф-ция или ф-ци активац.Актив ф-ция в общ случ явл нелин преобр,моделирующем нелин передаточную харак-ку Н.Наиб часто исп актив ф-ц-ми явл след:Пороговая(ф-ция ед скачка) f: R→{0,1}, f(s)=0,if s<θ; f(s)=1,if s≥θ(4.3).θ–порог перех из одного сост в др.Лин f:R→R, f(s)=ks(4.4).Логистическая (сигмоидальная) f:R→(0,1), f(s)=1/(1+e-as) (4.5).Гиперболич тангенс f:R→(-1,1), f(s) =(eas-e-as)/(eas+eas) (4.6).

Лин с насыщением или линейный порог f:R→[0,1], f(s) =0,if s<θ, f(s)=s/θ,if 0≤s<θ, f(s)=1,if s>θ(4.7).Чаще всего м-о вычесть парам и предст сост Н в виде s=w0+∑iwiui(4.8).

^ 20.Классификация и свойства нейронных сетей

Нейр сеть предст собой совок нейроподобных элем, опр обр соед др с др и с внешн средой,с пом связей, опр-мых вес коэф.В завис от ф-ций,вып Н в сети,м-о выделить 3 их типа:1)вх Н,на кот подается вектор,ко-дир вх возд или образ внешн среды,в них обычно не осущ выч-х проц-р,а инфа перед-ся с вх на вых путем измен их активации.2)вых Н,вых знач кот предст вы-ходы нейр сети,преобр осущ в соотв с s=∑iwiui (4.1) и y=f(s)(4.2).3)промежут Н,сост основу нейр сетей, преобр в кот вып также по (4.1), (4.2).С т.зр топологии м-о выд 3 осн типа нейр сетей:1)полносвязн. Кажд Н связ с кажд др Н. Кажд Н перед свой вых сиг ост Н,в тч и самому себе.Вых сигн сети мб все или некот вых сигн Н. 2)слоистые.Н объед в слои.Слой содерж совок Н с едиными вх сигн, число Н в слое мб ∀ и не завис от кол-ва Н в др слоях. 3)слабо-связные или с локальн связ.Н распол в уз-лах прямоуг или гексогональной решетки.Кажд Н связ с 4(окрестн Фон Неймана),6(окр Галея) или 8 (окр Му-ра) своими ближайш соседями.Простейшей нейр се-тью явл односл нейр сеть:


Вершины(круги слева)служат лишь для распред вх сигн,они не вып каких-л выч,поэтому они не могут счит слоем. Кажд элем из мн-ва вх соед с кажд Н отд связью,кот приписан вес,а кажд Н выдает взвеш ∑входов в сеть.

В биол и иск сетях многие соед могут отсутст.Могут иметь место также соед му вых и вх элем слоя.Т.о,в односл сети вычисл m-мерн вых вектора y свод к матр умнож-ю y=wu(4.9),где w–матр nxm,u - m-мерн вектор входов. Многосл сети облад > выч возм,могут образовыв-ся каскадами слоев,вых 1 слоя явл вх др слоя.2х слойн сеть(рис).Среди многосл сетей выдел след типы: 1)монотонные–частн случ слоист сетей с доп усл на связи и Н,кажд слой кроме посл вых разбит на 2 блока:возбуждающий и тормозящий.Связи му блоками тоже раздел на возб и торм.Для Н монот сетей необх монот завис вых сигн Н от парам вх сигн.2)сети без обр связей.Н вх слоя получ вх сигн,преобраз их и перед их Н след слоя и так далее вплоть до вых,кот выдает сигн для интерпретатора или польз.3)сети с обр связями.Инфа с посл слоев может перед предыд.Выбор структ нейр сети осущ в соотв с особенностью и сложностью зад.

^ 21.Обучение нейронных сетей

Все зависит от величин синоптич связей.Поэтому, когда задаются опр структуры зад,необх найти оптим коэф.Сеть обуч,чтобы из некот мн-ва вх давать треб, сообразное с ним мн-во вых,кажд такое вх мн-во рассм,как вектор u(вх) и y(вых)соотв.Обуч осущ путем последственного предъявл вх векторов с одноврем подстройкой вес коэф по опр проц-ре.Разл алгоритмы обуч с учителем и без него:обуч с уч предполаг,что для кажд вх вектора ∃ целевой вектор, предст собой треб вых.Вместе они наз обуч парой. Обычно сеть обуч на некот числе обуч пар.Для вых мы имеет 2 вектора,целевой и тот,кот мы вычислили.

Разность,которая характ ош сети,подается в сеть.И в завис от нее веса измен в завис от алг обуч.Эти алг стремятся min эту ошибку.

Обуч без уч не нужд в целевом векторе для вх и=>не треб сравн с предопред идеальн ответами. Обучающее мн-во сост лишь из вх вект и обуч алг подстраивает веса сети так, чтобы получ соглас вых вект,т.е чтобы предъявление достаточно близких вх вект давало одинак вых. Процесс выдел св-ва обучаемого мн-ва и группир сходные вектора в классы.

^ 22.Теорема Колмогорова

Рассм 2х слойн нейр сеть с m вх и 1 вых.Для опр будем счит передаточные ф-ции в 1ом слое сигмаид,а в вых слое исп тождеств ф-ция.(Взвеш ∑ векторов 1ого слоя и будет ответом в сети).Подавая на вход ∀ числа u1,..um мы получ на вых знач некот ф-ции y=F(u1,.,um), кот и явл реакцией сети.Оч,что ответ зависит как от вх сигн,так и от знач ее внутр парам,т.е весов Н.
Точный вид ф-ции:F(u1,..um)=∑iviσ(∑jwjiuj),где σ(s)=1/(1+eas) (4.11). В 1957г Колмогоров доказ след теор: ∀ непрер ф-ция F,опр на m-мерн ед кубе мб предст в виде ∑ 2m+1 суперпоз,непрер и монот отображ ед отрезков.F(u1,..,um)=∑i2m+1gi(∑jmhij(uj)), где 0≤uj≤1(4.12).Где gi,hij-непрер ф-ции,причем hij не завис от ф-ции F.Эта теор озн,что для реализ ф-ции многих переем достат операций ∑ и композиции ф-ций 1ой перем.Рез-ты в дальнейшем были переработаны в применении к нейр сетям.Пусть y=F(u1,..um)- ∀ непрер ф-ция,опред на огранич мн-ве,ф-ция σ опред согл 4.11.Теор4.2.∀e>0 ∃n,wij,vi:F(u)=∑iviσ(∑jwjiui), где w,v-набор чисел приближают ф-ции с погрешн не > ε на всей обл опр.В терминах теории нейр сетей эта теор формулир так:Любую непр ф-цию неск переем м-о с ∀ точн реализовать с пом 2х слойн нейр сети.



^ 23.Персептр Розенблатта и обуч однонейр-го перс

Одной из первых иск нейр сетей,способных к восприятию(перцепция),и формир реакции на восприимчивость ему явился персептрон Розенблатта.Перс наз однослойную нейр сеть,при этом кажд перс-ный нейр в кач-ве активационной ф-ции исп ф-цию порогового ед скачка вида f: R→{0,1}, f(s)=0,if s<θ; f(s)=1, if s≥θ(4.3).Для простоты снач рассм проц-ру обуч перс,сост т-о из 1 Н.Пусть есть доп вход u0=1,θ=0, тогда в ф-ле (4.3) для активац ф-ции пороговое смещение м-о установить=0.Тогда y=f(s)=0,if s<0; y=f(s)=1, if s≥0.Обуч перс сост в подстр знач wi,обученный перс способен разделять мн-ва на 2 класса,для кот получ знач 0 и для др знач 1.Обуч перс-это обуч с учит.Т.е должен ∃ набор пар (uik,yk),где uk=(u0k,Umk), yk∊[0,1].Будем наз перс обуч,если при подаче на вх кажд вект uk,будем получ соотв yk.Предлож алг сост в итерац подстройкe wi,послед-но уменьш ош.Алг4.1

Исх дан-е: (uik,yk), где uk- (m+1)-мерн вектор, yk∊{0,1}

И коэф скорости обуч β=[0..1],вых парам:w∊Rm+1, w=(w0,..,wm).Шаг 0:проиниц вес коэф wi,i=0,m,не> случ знач.Положить k=1.Шаг 1:Подать на вх перс обуч вект uk и вычисл его вых вект y.Шаг 2:Если y=yk,т.е вых правильн,то шаг 4.Иначе вычисл ош d=yk-y.Шаг 3:Вес коэф модиф по ф-ле:wi=wi+βduik.

Шаг 4:k=k+1-N[k/N]и шаг1.Замеч 4.1.Шаги 1-3 алг 4.1 повт неск раз для всех обуч вект.1 цикл последовательного предъявл вект всей выборки наз эпохой. Обуч заверш по истеч неск эпох,когда сеть перестанет ошибаться.Замеч 4.2.Коэф скорости обуч β явл парам метода.Его выбир из [0.5-0.7].Это коэф, вли-яющ на скорость обуч сети.Теор 4.3Если ∃ мн-во знач весов перс,кот обесп конкр различение образов, то ∃ такое β,что алг 4.1 за конечн число шагов приводит либо к этому мн-ву,либо к эквив мн-ву,при кот данное различение образов будет достигнуто.

24. Δ(дельта) - правило для обучения персептрона.

Δ-прав наз обобщением алг4.1 на случ односл сети, вкл n перс-ных нейр с порог ф-цией актив.Такая сеть при достат >числе нейр может осущ разбиение образов на произв число классов.Пусть есть обуч выборка,сост из пар векторов:(uk,yk) k=1,N.Назовем нейр сеть обученной на данной обуч выборке,если при подаче на вх сети кажд вект uk из этой выборки на вых кажд раз получ вект yk.Обуч заключ в итерац-й подстр матр весов W,сост из элем wij-вес синоптич связи между j-входом и i-нейр,послед-но уменьш ош на вх вект.Алг 4.2:(Δ-правило):Исх дан-е:(uik,yk), k=1,N, где uk∊Rm+1,yk∊Rn.Коэф скорости обуч β=[0..1] Вых парам wm+1n.Шаг0:проиниц элем вес матр W,для i=[0..1],не> случ знач.Положить k=1.Шаг1:Подать на вход перс обуч вект uk и вычисл его вых вект y.Шаг2: Если y=yk,т.е выход правильн,то шаг4.Иначе вычисл ош n-мерн вект d=yk-y.(d-это Δ).Шаг 3:Элем вес матр модиф по ф-ле:wij=wij+βdiujk,i=1,n,j=0,m.Шаг4:

k=k+1-N[k/N] и шаг1.Замеч4.3:Шаги 1-3 алг4.2 повт неск раз для всех обуч вект.Обуч заверш,когда сеть перестает ош. Розенблаттом доказана теор о сходимости обуч по алг4.2,кот утвержд,что односл перс способен обуч ∀ обучающему набору,кот он способен представить.

^ 25.Адалайн, мадалайн и обобщенное Δ-правило.

Перс со ступенчатой ф-цией актив выдают бинарные вых сигн и способны к распозн дискр образов.Круг реш перс зад значит расширится,если научить перс выдавать не т-о бинарные вых сигн,но и аналоговые, т.е имеющие непрер знач.Такое обобщ перс сделал Уидроу Хофф вместо ступенчатой ф-ции актив исп логистическую(сигмаид) f:R→(0,1), f(s)=1/(1+e-as). При а=1,она имеет вид: y=f(s)=1/(1+e-s).Перс с сигмаид активац ф-циями с 1 вых наз адалайн,с неск-мада-лайн.От англ(adaptive neuron line,Many adaptive neuron line).Было предлож уменьш ош,опр как разн му получ и реальн сигн перс.e=1/2∑(yi-y-i)2(4.16).Если перс имеет m вх и n вых,то e=e(wij)-явл многомерн ф-цией вес коэф и в простр корд предст в виде многомерн поверхн.Характерно,что ∃ т-о 1 либо максимум, либо min.При обуч перс мы имеем дело с оптимизационной зад,целев ф-ция кот имеет вид(4.16).∃ мн-во методов.При исп мет град спуска,коррекция проводится в стороны противоп градиенту функции.

Δwij=-β(δe)/(δvij)(4.17).Отсюда м-о вывести ф-лу для обуч односл перс. wij=wij+Δwij(4.18) Δwij=βδiuj(4.19)

δi=(yi-y-i)=yi(1-yi)(4.20).



^ 26.Лин разделимость и огранич односл перс.

Мн-во вх вект (yk=1),при кот Н активен,отделено от мн-ва вект (yk=0),на кот Н пассивен гиперплоскостью,ур-е кот ∑iwiui=θ =>Н может отделить т-о такие 2 мн-ва,для кот имеется гиперпл,отсекающая одно мн-во от др.Такие мн-ва наз лин разделимыми.Рассм односл перс,сост из 1 Н с 2 вх.В этом случ ситуацию с раздел вект м-о изобр на плоск в корд u1,u2.

Нельзя провести прямую,кот бы отделила закраш точки от незакраш Т.о,односл персепт не может реализ многие простейш ф-ции(в данном случае XOR).∃ теоремы,что реализация подобных ф-ций возм лишь в том случ,когда м-о лин разделить эти мн-ва.Однако простейшая нейр 2хслойн сеть вполне реализ эту ф-цию.Пример:

^ 27.Сети обратного распространения

Сети обр распр получ свое назв из-за исп алг обуч, в кот ош распростр от вых слоя к вх,т.е в напр противоп напр сигн.Нейр сеть обр напр сост из неск слоев Н, причем кажд Н предыд слоя связ с кажд Н последующ слоя.Рассм 2хслойн нейр сеть.Матр вес коэф, соед слои w1 и w2 -входы и 1слой. Пусть сеть обуч на выборке (ut,yt) задача-минимизация ф-ции ошибки,кот нах-ся по мет наим квадр. E(W1,W2)= 1/2∑ip(yk-yk)2, где yk-реальн знач,yk-треб, целевое.Обуч сети произв изв оптимизац-м мет град спуска,т.е на кажд итерац веса измен по ф-лам: wij1=wij1-β(δe)/(δwij1)(4.22) wij2=wij2-β(δe)/(δwij2)(4.23).

В кач-ве активац ф-ции исп сигмаид ф-цию.

Производная:f’(s)=(e-s)/(1+e-s)2=f(s)(1-f(s)) (4.24) =>

(∂E)/(∂wjx1)=δxxj(4.26)

(∂E)/(∂wji1)=(∑kpδkwjk2)xj(1-xj)ui(4.25)

Δx=(yk-yk)yk(1-yk)

wij2= wij2-β(∂e)/(∂wij2)(4.23)

xj–знач вых j-го нейр 1го слоя.
^ 28.Алг обучения сети обратного распространения

Алг обр распр ош опишем для многосл сети, имеющей вх слой l=0.Неск промеж(cкрытыхслоев)l=1,.,L-1 и вых слой l=L.Будем счит,что кажд l слой содерж Nl нейр.Т.о,нейр сеть имеет:кол-во вх:m=N0,вых:p=NL.

Алг4.3:Исх дан-е:обуч выборка,т.е посл-ть пар вект (ut,yt) (t=1,T), β-коэф скорости обуч,ε-парам точн обуч,Qmax-max кол-во эпох.Выход: W(l)=(wij(l)) размером NlxNl-1,∀l=1,L.Шаг0:Иниц вес коэф.Циклы l=1,L, i=1,Nl-1, j=1,Nl.Синаптич весам датчиком случ чисел присв малые велич из (-1,1).t=1.Шаг1:Подать на вх сети обуч вект ut.Шаг2:Прямой ход. Циклы l=1,L, i=1,Nl-1, j=1,Nl вычислить вых сигн j-го нейр в этом слое,след обр: xjl=fσ(∑iNi-1wijlxil-1),где xi(0)=uit-вх знач.И вых сигн сети:yj=xjL.Шаг3:Обратн ход (коррекц вес коэф). Циклы k=1,L, i=1,Nl-1, j=1,Nl-1.Вычислить δk(L)=(yk-ytk)yk(1-yk), wjk(L)=wjk(L)-βδk(L)xj(L-1) .Здесь же в циклах:l=L-1,..,1, i=1..Nl-1jl=xjl(1-xjl)(∑kNi+1wjkl+1δkl+1). Wij(l)=Wij(l)-βδj(l)xj(l-1)Шаг4: t=t+1-T[t/T] к шагу 1.




^ 29.Сети встречного распространения

Объединение разнотипных структур в 1 приводит к новым св-вам.Нейр сети встр распр-это гибридные сети,сост из вх слоя Н и слоев Н Кохенена и Гросберга.Эти сети по своим характ существенно превосх сети с однотипными Н.Нейроны слоя Кох реализ ф-цию порогового ∑-я взвеш-х входов,но в отл от ост слоев Н слоя Кох с max знач взвеш ∑ на зад вх вект наз победителем,на его вых формир знач 1,а на ост вых-0.Слой Кох обуч без учит на осн самоорганиз,т.е самообучаемый слой.Число вх кажд Н этого слоя = размерности вект парам объекта.А кол-во Н совпад с треб числом классов на кот необх разбить объекты.Н слоя Гросб на вых выдают велич весов vij,кот связ с победителями Н-ов Кох.В отл от самообуч слоя Кох, слой Гросб обуч с учит.Отличие от станд схемы обуч закл в том,что подстройке подверг-ся т-о те веса Н слоя Гросб,кот соед с не0 Н-ом Кохенена.

Отличие сети встр распр закл так же в особенностях функц-нир-я.В соотв с привед на рис структ на вх сети подаются нормализ-е ед вект u, y.А на вых формир их нормализ-е аппроксимации с волнами.При обуч вх вект подаются как на вх,так и на вых.Реализуются св-ва ассоц памяти,заключ в том,что предъявл на вход т-о вект y или u при отсутств др приводит к порожд на вых как,так и.

^ 30.Обучение сети встречного распространения.

Нормализ-й вект-вект ед длины.Перед обуч сети предвар проводят нормировку векторов обуч выборки.x=(x1,..,xr), x=(x1,..,xr), xr=xi/√(∑jrxj2)(4.27) x=(uy), r=2m.Если осущ нормировку,а так же после кажд проц осущ нормир-ку кажд Н,то в кач-ве близости вх вект и вект Н-ов м-о рассм скалярн произвед м-у ними <wk,x>=∑irwkixi. Wk=(wk1,..,wkr)-строка матр W.Наим будет расст до того Н,скал произв с весами кот у вх вект max.Алг4.4.Вх дан-е:обуч выб xt=(ut,yt), t=1,T: α∊[0.7;0.9]-нач коэф скорости обуч слоя К. β∊[0.1;0.3]-коэф скорости обуч слоя Г. Выход: W=(wij)nx2m,V=(vij)2mxn.Шаг0:Вес коэф wij,vji, i=1,n, j=1,2m присв малые случ знач и произвести ед-ю нормировку матр W,V по строкам.t=1.Шаг1:Для вект xt вычисл скал произв dj=<wj,xt>=∑imwijxi, j=1..n.

Шаг2:Выбрать нейр k 1≤k≤n с наиб скал произв dk.

Шаг3:устан вых zk=1,выходы всех ост Н слоя Кох=0 ∀i!=k zi=0.Шаг4:wki=wki+α(xit-wki),i=1..2m. Шаг5: Подать выходной вектор слоя Кох на слой Гросб и скорректир веса по ф-ле: vik=vik+β(xit-vik), i=1..2m. Шаг6:Уменьш знач α и β,изм t=t+1-T[t/T] и шаг1.

^ 31.Предмет и проблемы распознавания образов

В своей повседн жизни чел легко справл с этой зад. Разл 2 аспекта теории распозн обр:- биол, -технич.

В 1 случ исслед проц распозн челом и др представит животн мира и создание более менее адекв моделей матем,технич.При 2 подходе речь идет о созд эффект мет и техн устр для распозн конкр образов–зрит,слух и т.д.Конструктор может прибегать к аналогиям из животн мира или исп абстр технологии.Принципы:

1)заложить в комп как м-о > изв образов и исп их при распозн.На первой стадии сист распозн обяз обраб изобр и выдел характ призн:качеств и колич,т.о,кол-во инфы для распозн уменьш.2)идея обуч




^ 32.Осн понятия теории распознавания образов

Образ(или класс)–отд предм или явл,кот необх распозн,облад общими др для др св-вами и имеющие некот отлич св-ва.Классом или образом м-о наз мн-во предм или объектов,облад некот общими св-вами, обычно имеется набор классов или алфавит классов-A{A1,..,An}(5.1).Ai–отд i-й класс.n–общее число классов.Если n=1,то никакого распозн нет,т.е зад распозн актуальна при n≥2.Объект(реализ,образец)–кажд класс в алфавите образов мб предст некот кол-вом объектов или реализ.Совок разл реализ для всех классов образ мн-во возм реализ B={b1,..bn}(5.2).В > практич зад N конечно и N>>n,но если знач признака измен непрер,то знач N бесконечно.Признак класса – при введении класса указ,что в класс объед образы, имеющие общие св-ва,эти св-ва и сост призн класса.

Призн обычно зад кол-ми знач. Для простоты будем счит,что все классы характ 1 и тем же кол-вом призн =m.Обозн совок призн для дан-го алф A в виде вект u=(u1,..,um)(5.3).Практич числовые знач призн измен в некот lim.Кажд призн uk может приним знач из совок uk∊{uk1,..,ukn}(5.4).Кажд конкр реализ задается совок знач призн bj=(u1j,..,umj)(5.5),кот наз опис-ем реализ. Кол-во возм реализ при m призн и r градациях мб опред по ф-ле N=rm(5.6).В > зад распозн есть 2 этапа: 1)Обуч распозн-ю на зад кол-ве эталонных образов, принадлежность кот к опр классу известна.2)Собств распозн–предъявл объект с неизв принадлежн и треб опр,к какому классу относится объект.

^ 33.Пандемониум Селфриджа

Сист распозн обр,предлож Оливером Селфриджем и наз подемониумом,сост из элем,наз демонами. Демоны–относит-но автономные сущности,вып элементарные ф-ции.

На самом нижнем ур-е нах-ся демоны данных (играют роль светочувствительных элем глаза).На самом верхнем - демоны реш, кот опр исход.Ниже–демоны поним,каждиз кот соотв одной из указ катег.Ниже–выч демоны обраб данные и перед их демонам поним. Эта идея прогр-ся просто – демоны поним вычисл взвеш ∑ сигн,поступ-х от выч демонов.i–й демон поним вычисл свой сигн Di=∑jwijdj(5.7).wij–вес множители,устан значимость призн,поступающих для ∑я.dj-вых сигн j выч демона.

Пандемониум–обуч-ся устр.

^ 34.Распознавание с помощью персептронов

Одной из первых нейр сетей,предн для распозн обр, был персептрон Розенблата,способный обучаться на опыте.

Первонач персептрон содерж узлы 3 типов:сенсорные уз-лы(соотв демонам дан-х), ассоциативные(вычисл демоны),выходы α–узлов были соед с узлами реакции или p–узлами(демоны поним)

В отл от пандемониума p–узел дает только 1 или 0.

Веса синапсов,ведущих к p–узлам,изменялись в проц обуч персептрона.Далее это идея развивалась при исп сложных многосл сетей.



^ 35.Геометрическая интерпретация распознавания

Зад распозн обр по призн м-о дать геом интерпрет.

Кажд объект с m призн согл u=(u1,..,um)(5.3) опред в m–мерн простр признаков т-ку u=(u1,..,um).Геом метод распозн осн на исп некот ф-ции принадлежности ρ объекта данному классу.Эта ф-ция опр меру близости объекта к некот эталонным мн-вам.Эти мн-ва в m–мерн простр призн опр пересек-ся или непересек-ся му собой мн-ва.m=2.

Пересек-ся эталонные мн-ва < пригодны для распозн.Эталонные мн-ва с пом преобраз сист корд мб отделены др от др и т.о му ними мб провед некот гиперплоск, раз-деляющая эти мн-ва. Определяя ф-цию близости ρ му объектом и эталонным мн-ом класса, часто исп расстояние му этим объектом и центром эталонного мн-ва.Совок этих центров даст нам мн-во эталонов ρ{u1,..,un}.Каждая uk–точка uk={uk1,.., ukm}, ∀k=1..n.В евкл метрике m–мерн простр расст му точками опр как d(u,uk)≅√(∑im(ui-uik)2)(5.8).В данную ф-лу удобно ввести вес коэф d(u,uk)≅√(∑im(wi2(ui-uik)2))(5.9).Вес множители нужны для отраж того факта,что отд призн объектов имеют разн степень важн для распоз обр.При геом трактовке распоз обр прибегают к интерп проц в виде некот преобраз сист корд,при кот объекты 1 класса сжимаются,а мн-ва разл классов удал др от др.∃ лин и нелин способы преобр.В общем случ лин преобр зад матр W=(w11…w1m,wm1..wmm)(5.10).Если в исх сист корд зад вект объектов a=(a1,..,am) и b=(b1,..,bm),то преобразованные вект a',b' опр соотн-ми a’=aW, a’j=∑imaiwij, j=1..m, b'j=∑imbiwij, j=1..m (5.11). Евклидово расст му элем в преобраз простр будет d(a’,b’)=√(∑im(a’i-b’i)2)= =√(∑jm(∑im(wij(ai-bi)))2)(5.12)Диаг элем матр преобр W опр-ют масштабные коэф сжатия вдоль корд осей,а ост элем матр-поворот коорд осей.If в матр преобр все недиаг элем=0,т.е wij=0, i≠j,то(5.12)приним вид d(a’,b’)=√(∑im(wii2(ai-bi)2 ))=√(∑jn(∑im(wii(ai-bi)))2)(5.13)

практич совп с (5.9).Рассм частн случ,когда поворот корд осей не произв,а измен т-о масштаб.Треб опр такие коэф сжатия,чтобы в new сист корд расст му объектами мн-ва были min,т.е чтобы было min расст му текущ т-ми P и Q мн-ва D2=1/(n(n-1))∑pnqnim(( wij2(uip-uiq)2)(5.14)

Для реш пост зад треб наложить доп усл на вес коэф.

Н-р,м-о потреб,чтобы вып рав-во ∑imwii=1(5.15).Эта нормировка вес коэф наиб распростр и означ,что вес множ могут меняться от 0 до 1,и простр признаков будет сжиматься по осям.Кроме (5.15) исп и др усл

Пimwii=1(5.16).Т.о зад обуч сост в min-зации функционалов (5.14),сост для мн-в А1 и А2 обозн эти ф-лы D12 и D22 с доп усл (5.15) или (5.16).После того как обуч вып,реш зад распозн.Пусть даны 2 этал-х мн-ва, и треб опр,к какому из них относится некот объект b.

Для реш этой зад в преобраз простр вычисл расст от (.)b до кажд мн-ва.d12=1/n1jn1im(uib-ui1j)2, d22=1/n2jn2im(uib-ui2j)2(5.17).n1(n2)–число точек этал мн-ва A1(A2).Реш правило сост в след:b∊A1,if d12<d22; b∊A2,if d12>d22.Коэф wij ищутся применительно к 1 и 2 мн-ву эталонов.




^ 36.Мотивации и истории зарожд нечетких мн-в.

В эпоху широчайшего проникн компов в нашу жизнь Постоянно ∃ пробл,в реш кот чел интеллект оказ важнее компа.Ответств реш приним чел,а не комп. Способность приним правильн реш в обстан не полной или нечеткой инфы.Традиц вычисл компа оказ «слишком точными» для реальн мира.Чел приним реш на осн суждений,с самого начала ему присуще весьма характ нечеткость(н-р-высокий чел,а какой точно рост счит высоким?).Даже нечеткие алгор исп внутри себя четкие модули.Возник некот потребн в анализе сложн явл.Появлением термина нечеткая логика мы обязаны Л. Заде.Он занимался пробл мат управл в технич сист.Осн идея сост в том,что чел-й способ рассужд,опирающийся на естеств язык,не мб описан с пом традиц мат мет.В осн этого тезиса лежит то,что м-о наз принц несовместимости:чем слож-нее сист,тем < мы способны дать точные и в то же время имеющие практич знач суждения о ее повед. Для сист,сложность кот превосх некот пороговый уровень-точность и практич смысл становятся исключающими пон.Традиц мет оказ-ся не дост пригодными.Подход на осн теории нечетких мн-в.Этот подход опир-ся на предпосылку о том,что элем-ми мышления чела явл не числа,а элем некот нечетких мн-в или классов объектов,для кот переход от принадлежности классу к непринадлежности ему не скачкообразен,а непрер.Теория неч мн-в предст собой переосмысление важнейших напр теории матем.

При разраб интеллект сист,зн редко бывают полными и достоверными.При обраб с четкими методами возникает противореч му обраб неч дан-х и четких мет. Устранить это позв неч мн-ва.Практич все мод СИИ осн на неч мод.

^ 37.Опр множества в Канторовской теории множеств и традиционная двузначная логика.

Понятие мн-ва вводится на осн пон совок конечн или бескон числа предм,кот по какому-л призн собр воедино.При этом предм берут из некот обл рассужд. Мн-во счит заданным,если зад его элем.Мн-во мб зад разл спос:1)перечислением элем:А={0,2,4,6,8} (6.1)

2)опис-ем св-в:А={x|х-четн число>0и<9}(6.2) 3)графич-диаграмма Вейна. 4)мн-во мб задано с пом хар-кой ф-ции:Пусть U-обл рассужд-универс мн-во(универсум).Хар-кая ф-ция χА,опр мн-во A в универсуме U,есть отображение,для кот U явл обл опр,а 2х элем-е мн-во{0,1}–есть обл знач.χА:U→{0,1}. ∀x∊U χА=0,if x!∊A, χА=1,if x∊A(6.3).Двузначн логика: относ-но ∀событий в этом мире всегда м-о сказать, что оно или истинно или ложн.Если знач истины предст 1,а лжи-0.В точной логике при формулировке выв если вып причина, то обяз вып и следствие.

^ 38.Определение нечеткого множества

Рассм снова ф-лу χА:U→{0,1}. ∀x∊U χА=0,if x!∊A, χА=1,if x∊A(6.3),опр хар-кую ф-цию χА.Профессор Лотфи Заде в 1965г опублик статью,кот наз «Fuzzy sets»,кот он расширил двузначн логику до огранич многозначн оценки выше0 и ниже1,т.е в интерв [0,1] и впервые ввел пон нечетк мн-во.Здесь вместо термина хар-кая ф-ция исп ф-ция принадлежн.Неч мн-во в универсуме U опр чз ф-ю принадл след обр: μA:U→[0,1] и x→μA(x)(6.4). Велич μA(x) означ субъективную оценку степени принадлежн x мн-ву A. Заранее не изв,какого вида эта оценка.Четкое мн-во явл частным случ неч мн-ва.Заметим,что неч мн-во строго опр-ся с пом ф-ции принадлежн,т.о,логика опр-ния понятия неч мн-ва не содерж какой-л нечеткости. Опр6.1.Неч мн-вом A на универсуме U будем наз совок упоряд пар A={(x,μA(x))|x∊U,μA(x):U→[0,1]}(6.5), сост из элем x унив U и соотв степ принадл μA(x).

Н-р:A={(x1,0.3),(x2,0.5),(x3,0.8),(x4,1),(x5,0.5),(x6,0),}

Обычно неч мн-во отождествл с его ф-цией μA(x).

Замеч:Опр неч мн-ва с пом опр6.1 явл одним из возм подходов формализации нечеткости.Ф-ция может приним не знач из интерв,а целый интерв из интерв.




^ 39.Основным характеристики нечетких множеств

Опр6.2.Носителем неч мн-ва А наз обычное подмн-во таких (.) из универсума U,для кот велич μA(x)>0. Носитель обозн-ся:supp A,S(A),ГА. sup A={x∊U| μA(x)>0}(6.6)Опр6.3.Высотой неч мн-ва A наз велич H(A)=supxU μA(x)(6.7).Опр6.4. Неч мн-во А наз норм, если его высота=1,иначе оно наз субнормальным.

Замеч6.2.Иногда субнорм неч мн-во нормализуют на велич H(A).Опр6.5. Неч мн-во A наз пустым, если μA(x)=0, ∀x∊U.Опр6.6.Мн-вом α-ур-я(α-срезом,

α-сечением)неч мн-ва A наз обычное,т.е четкое подмн-во универсума U,определяемого ф-лой:

Aα={x∊U|μA(x)≥α},α∊[0,1](6.8)Мн-ва строго α-ур-я опред ф-лой: AαS={x∊U|μA(x)>α},α∊[0,1](6.9). Носитель неч мн-ва явл частн случ мн-ва строго α-ур-я,то есть sup A=A0S(6.10).Опр6.7.Элем мн-ва U,для кот степень принадлежности μA(x)=0.5 наз точками перехода.Опр 6.8.Нечеткое мн-во А в универсуме U (U=Rn) наз выпуклым неч мн-вом тогда и только тогда,когда его ф-ция принадлежн выпукла,т.е для кажд пары точек (x,y)∊U вып усл:μA(λx+(1-λ)y)≥ ≥min(μA(x),μA(y)), λ∊[0,1](6.11)

^ 40.Операции над нечеткими множествами

Пусть А,В неч мн-ва на универсуме U.

Опр6.9.Рав-во: говорят, что А и В равны и пишут А=В, если μA(x)=μB(x), ∀x∊U (6.12).

Опр6.10.Опер включения:говорят А содерж в В,или неч мн-во А явл неч подмн-вом неч мн-ва В и пишут A⊆B:μA(x)≤μB(x), ∀x∊U (6.13).Строгое включ-е или строгое подмн-во имеет место,когда хотя бы 1 из нер-в (6.13) явл строгим.Когда А явл подмн-вом В, т.е A⊆B,говорят что В доминирует А.

Опр6.11.Дополн-ем неч мн-ва А в U наз неч мн-во A с ф-цией принадлежности: μA(x)=1-μA(x), ∀x∊U (6.14)

Опр6.12.Объед-е неч мн-в А и В в U,т.е A∪B наз наим неч мн-во,включающее как А, так и В с ф-цией принадл вида: μA∪B(x)=max(μA(x),μB(x)), ∀x∊U (6.15)

Опр6.13.Пересеч неч мн-в А и В в U,т.е A∩B наз наиб неч мн-во,содерж-ся одноврем в А и в В:

μA∩B(x)=min(μA(x),μB(x)), ∀x∊U (6.16)

41.
^ 42. Нечеткая логика

Так же как и в осн четк мн-в лежит четк логика,так и в осн неч мн-в ∃ неч логика.В случ неч логики м-о созд неогранич число опер,поэтому нет смысла говорить о записи всех операций с пом базового числа операций.Н-р:неч отрицание:(аналог четкой операции не). Аксиоматически можно определить так:

Все ф-ции,удовл аксиомам (*),явл неч отрицаниями.
^ 43.Нечеткие выводы.

Важн опер явл неч импликация.Неч выводы, неч рассужд наиб важный момент.ЭС,постр на четкой логике,м-о считать частн случ неч ЭС.Неч выводы по правилам ??????????????(пример).Пусть ∃ зн эксперта,что необх открыть спускной клапан,если ур-нь воды поднимается.Это зн м-о предст с пом неч продукционного правила, типа «если,то» след образ:если <ур-нь воды высокий>,то<открыть клапан>.В нашем случ важно описать предпосылку и заключ в виде неч отнош.Др словами в исх выраж не попадали данные о том,какой ур-нь воды в метрах,на какой угол поворачивается клапан.Однако сам эксперт знает: высокий уровень воды:примерно 2 метра, интерпретация с пом неч мн-ва мб такая: Высокий={(1.5м,0.1), (1.6м,0.3),(1.7м,0.7),(1.8м,0.8),(1.9м,0.9),(2м,1),

(2.1м,1),(2.2м,1)}.Аналогично м-о опр и угол поворота.Лингвистич перем представимые числами.И посылка и вывод реализ с пом лингвистич перем,кот формируются в виде композиции неч отнош.Понятие неч отнош явл фундамент-ым в теор неч мн-в.Неч отнош на мн-ва U1,..,Un наз неч мн-во R на декартовом произвед универсумов U1xU2x..xUnR: U1xU2x..xUn →[0,1]


Скачать файл (738.9 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru