Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции - Математические модели естествознания - файл LEKCY14.DOC


Лекции - Математические модели естествознания
скачать (423.6 kb.)

Доступные файлы (16):

LEKCY10.DOC195kb.27.05.1997 03:57скачать
LEKCY1~1.DOC431kb.27.05.1997 04:11скачать
LEKCY11.DOC391kb.27.05.1997 04:03скачать
LEKCY12.DOC67kb.27.05.1997 04:07скачать
LEKCY14.DOC147kb.27.05.1997 01:42скачать
LEKCY1.DOC319kb.27.05.1997 03:11скачать
LEKCY2.DOC170kb.27.05.1997 03:19скачать
LEKCY3.DOC191kb.27.05.1997 03:23скачать
LEKCY4.DOC279kb.27.05.1997 03:28скачать
LEKCY5.DOC123kb.27.05.1997 03:30скачать
LEKCY6.DOC209kb.27.05.1997 03:34скачать
LEKCY7.DOC258kb.27.05.1997 03:39скачать
LEKCY8~1.DOC407kb.27.05.1997 03:45скачать
LEKCY9.DOC262kb.27.05.1997 03:49скачать
LEKCY.DOC260kb.27.05.1997 02:55скачать
M_M.DOC13kb.27.05.1997 04:15скачать

LEKCY14.DOC





Однослойный персептрон - простейшая модель ассоциативной памяти

Однослойным персептроном назовем множество нейронов Мак-Каллока - Питтса, которые имеют общие входы. Пусть - входные сигналы, а - выходной сигнал -ого нейрона, , где - число нейронов. Тогда

.

Здесь - общий вектор входных сигналов, - синаптический вектор - ого нейрона, - его пороговое значение. Выходные сигналы принимают либо нулевое, либо единичное значения (бинарны). Предположения о бинарности вектора делать не будем. Персептрон формирует вектор выходных сигналов . Обозначим через - матрицу, в строках которой находятся синаптические векторы . Ее назовем синаптической. Введем также вектор , который назовем пороговым. Тогда выходной вектор персептрона суть

,

где функция вычисляется покоординатно. Множество бинарных векторов (координаты равны либо нулю, либо единице) обозначим через . Пусть - некоторый набор входных векторов, а - множество выходных векторов. Поставим задачу об обучении персептрона. Требуется выбрать синаптическую матрицу и пороговый вектор так, чтобы для входных векторов персептрон формировал выходные векторы , т.е.

.

Если обучение удалось произвести, то персептрон выполняет функции ассоциативной памяти. По входному вектору генерирует связанный с ним выходной вектор . При этом если входной вектор слегка искажен, выходным вектором все равно будет вектор (функция непрерывна). Часто пары векторов называют ассоциативными парами.

Пусть и векторы линейно независимы. Тогда задача об обучении однослойного персептрона разрешимы. В силу того, что нейроны слоя не связаны между собой, достаточно решить задачу обучения для произвольного -ого нейрона (персептрон из одного нейрона). Его ассоциативные пары имеют вид: , где - координата с номером вектора , которая принимает либо нулевое, либо единичное значения. Таким образом, нейрон осуществляет классификацию входных векторов: одним “ приписывает” нулевое, а другим - единичное значения признака. Выше показано, что в рамках сделанных предположений о векторах задача классификации разрешима. Описан алгоритм выбора синаптического вектора и порогового значения , для которых .

Задача об обучении персептрона часто оказывается неразрешимой даже в простых случаях. Рассмотрим персептрон, состоящий из одного нейрона, который имеет два синаптических входа, т.е. входной вектор суть . Поставим задачу найти синаптический вектор и пороговое значение такими, чтобы для входных векторов и выходной сигнал был равен единице, а для векторов и - нулю? Данный нейрон должен реализовать логическую операцию “исключающее или”. Выпуклые оболочки векторов и очевидно пересекаются в точке . Следовательно, поставленная задача в принципе не разрешима.

Нерешенная простейшая задача сильно уменьшает энтузиазм. Однако, оказывается, что она разрешима на двухслойном персептроне. Рассмотрим конструкцию из трех нейронов. Первые два из них имеют общие входы и образуют первый слой. Выходные сигналы этих нейронов являются входными сигналами для третьего нейрона. Пусть и входной и выходной векторы первого слоя, а - выходной сигнал третьего нейрона. Положим для нейронов , , .Простым перебором доказывается, что описанный персептрон реализует операцию “исключающее или”.

Рассмотренный пример - решение задачи классификации на множестве бинарных векторов. Оказывается, что теоретически двухслойный персептрон решает задачу классификации бинарных векторов в общем случае. Однако, это утверждение имеет лишь теоретическое значение, поскольку доказывается оно, когда число нейронов в первом слое равно , где - размерность входного вектора.


Скачать файл (423.6 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации