Фундаментальным  св-вом  биологич.  НС  явл.  способность  к  обучению.  Самой 
интересной особенностью того, чт.е. на практике явл. возможность самообучения.  
Процесс обучения состоит из: 
1.  Настройка (выбор арх-ры сети). Когда возникает биологическая НС, 
то  там  выбора  арх-ры  нет.  Здесь  мы  вынуждены  выбирать  арх-ру,  потому 
что  реализация  связей  каждого 
нейрона  с  каждым  является  технически 
нереализуемой задачей. 
2.  Настройка  весов  по  обучающей  выборке,  где  обучающую  выборку 
представляют в виде множества упорядоченных пар О=
⎨(X,R)⎬, где X – это 
входной  вектор  НС,  а R – это  тот  рез-тат,  к-рый  должен  быть,  когда  этот 
входной вектор подан. Обучение состоит из предъявления образов и тот рез-
тат, к-рый должен быть на выходе. 
3.  Итеративная подстройка весовых коэф-нтов. 
PS 1(плохое):  биологические НС в процессе обучения-ф-ционирования изменяют свою
 
арх-ру, что в искусственных НС отсутствует напрочь. 
PS2(хорошее): св-во НС обучаться на пр-рах делает их привлекательными по сравнению 
с с-мами у к-рых правила ф-рования формируются заранее экспертами. 
Парадигма обучения. 
Парадигма  обучения – это  модель  внешней  среды,  отражаемая  в  арх-ре  сети  и  м-ды 
модификации  весовых  коэф-нтов.  Т.е.,  парадигма  обучения  сост.  из 2 частей:  модели 
внешней среды, к-рая отражается в арх-ре. Это обязательно потому что у нас невозможно 
реализовать  произвольную  связь  нейронов  в  НС,  а  значит  надо  ограничить
  класс 
решаемых задач, поэтому надо составить модель до решения задачи на нейрокомпьютере, 
а уже потом когда модель построена можно говорить о том, что эта арх-ра НС наиболее 
удачно приспособлена для решения этих задач. И только когда эта предварительная часть 
сделана можно приступать к выбору м-да модификации весовых коэф-
нтов по обучающей 
выборке. 
М-ды обучения (м-ды модификации весовых коэф-нтов): 
«с учителем», когда по обучающей выборке настраиваются весовые коэф-нты. 
«без учителя».  Нет необходимости знать правильный ответ. Обучение происходит 
в рез-тате раскрытия внутренней стр-ры и взаимосвязей входных данных( корелляция м/у 
образами). 
Смешанное обучение. Часть
 весов определяется посредством обучения с учителем, 
а часть весов – в процессе самообучения. 
Правила обучения. 
−  Коррекция по ошибке. Заключается в следующем: происходит 
использование  разностей Y-R НС  для  модификации  весов,  которая 
заключается  в  постепенном  уменьшении  ошибки  при  многократной 
подаче образов из обучающего множества. Что это означает? – подали вы 
какой-то образ; вычислили ошибку реальной отклик сети Y и тот, к-рый 
д/б R; зная эту ошибку, мы ее 
разбрасываем по всем весовым коэф-нтам 
т.о., чтобы не устранить эту ошибку, а уменьшить. И после того как мы 
подали следующий обучающий предмет, мы опять чуть-чуть уменьшаем 
ошибку  и  это  повторяем  до  тех  пор,  пока  на  обучающей  выборке  эта 
ошибка не станет приемлемой. 
−  Обучение  Больцмана.  Это  стахостическое  правило 
обучения, 
к-рое  следует  из  инф-ных (кол-во  инф-ции,  содержащееся  в 
повторяющихся  сообщениях  уменьшается)  и  термодинамических 
принципов (с-ма  стремится  к  минимуму  энергии).  Но  в  НС  принцип 
Больцамана  используется  подход,  когда  мы  беспорядочно  изменяем 
коэф-нты  так,  чтобы  уменьшить  ошибку,  возникающую  при 
использовании  обучающей  послед-ти.  Под  ошибкой  понимается