основании
 
информации
, 
доступной
 
обработке
 
в
 
нейроне
. 
Исходя
 
из
 
этой
 
очевидности
 
и
, 
что
 
более
 
важно
, 
на основе современных знаний о  принципах системной самоорганизации 
нервных клеток человеческого организма
, 
и
 
построены
 
алгоритмы
 
работы
 
самообучающихся
 
ИНС
. 
         
Начнем
 
с
 
рассмотрения
 
метода, основанного на изменении весов межслойных 
связей в
 
соответствии с
 
правилом Хебба
.  
        
Правило
 
Хэбба
 
состоит
 
в
 
том
, 
что
 
нейроны
 
соседних
 
слоев
, 
обретшие
 
точку
 
синапса
, 
активируются
 
одновременно
, 
при
 
этом
 
достигается
 
максимальная
 
эффективность
 
межслойной
 (
синаптической
) 
информационной
 
связи
. 
        
Алгоритм
 
данного
 
метода
 
представляет
 
собой
 
итеративный
 (
пошаговый
) 
процесс
 
с
 
назначаемой
 
скоростью
 
обучения
. 
Под
 
этим
 
понимается
 
достижение
 
требуемой
 
надежности
 
обучения
 
ИНС
 
распознаванию
 
конкретного
 
образа
. 
Метод
 
может
 
быть
 
реализован
 
в
 
двух
 
вариантах
.  
        
Вариант
 
первый
 (
сигнальный метод обучения
)  
заключается
 
в
 
изменении
 
весов
 
межслойных
 
связей
 
при
 
каждой
 
итерации
 
путем
 
увеличения
 
веса
 
синаптической
 
связи
 
каждой
 
пары
 
нейронов
 
соседних
 
слоев
 
на
 
величину
 
взвешенного произведения их 
выходных сигналов
. 
Взвешивание
 
произведения
 
выходных
 
сигналов
 
состоящих
 
в
 
связи
 
нейронов
 
происходит
 
с
 
помощью
 
безразмерной
 
величины
 
α
, 
которая
 
назначается
, 
сообразуясь
 
с
 
желанием
 
быстрее
 
обучить
 
систему
 
и
 
с
 
опасностью
 
пропустить
 
состояние
 
ее
 
приемлемой
 
обученности
, 
если
 
поиска
 
этого
 
состояния
 
будут
 
слишком
 
велики
: 
                        
w t w t y y
ij ij i
n
j
n
( ) ( )
( ) ( )
= − + ⋅ ⋅
−
1
1
α
.                                                          (6.2.5) 
где
: -   y
)1( −n
i
 
и
  y
n
j
 – 
выходные
 
сигналы
 i-
го
 
и
 j-
го
 
нейронов
 
соответственно
 (n-1)-
го
  
и
 (n)-
го
 
слоев
; 
        -   w
ij
(t)  
и
   w
ij
(t-1)  -  
весовые
 
коэффициенты
 
межслойной
 
связи
 
в
 
синапсе
, 
соединения
 i-
го
 
нейрона
 
слоя
 (n-1) 
и
 j 
го
 
нейрона
 
слоя
 (n) 
в
 
итерациях
  (t) 
и
 (t-1)  
соответственно
; 
        -   
α
 – 
коэффициент
, 
определяющий
 
назначаемую
 
скорость
 
обучения
 
ИНС
. 
 
Здесь
 
номером
  (n)  
обозначается
 
произвольный
 
внутренний
 (
скрытый
) 
слой
 
сети
 ( 1
≤
 n
≤
 N-
1), 
где
 N –
общее
 
число
 
выходных
 
слоев
 
сети
. 
        
Вариант
 
второй
 (
дифференциальный метод обучения
). 
Изменение
 
весов
 
межслойных
 
синаптических
 
связей
 
при
 
каждой
 
итерации
 
происходит
 
путем
 
увеличения
 
их
 
значений
 
на
 
величину
 
взвешенного произведения разностей выходных сигналов 
каждого нейрона по сравнению с предыдущей итерацией
. 
Весом
 
произведения
 
таких
 
разностей
, 
как
 
и
 
в
 
сигнальном
 
методе
, 
является
 
величина
  
α
             
w t w t y t y t y t y t
ij ij i
n
i
n
j
n
j
n
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
= − + ⋅ − − ⋅ − −
− −
1 1 1
1 1
α
 .                          
(6.2.6) 
         
Значение
 
величин
, 
входящих
 
в
 
выражение
 (6.2.6), 
те
 
же
, 
что
 
и
 
для
  c
игнального
 
метода
 
обучения
. 
Как
 
следует
 
из
 (6.2.5) 
сильнее
 
других
 
при
 
дифференциальном
 
методе
 
корректируются
 
веса
 
синаптических
 
связей
 
той
 
пары
 
нейронов
, 
выходы
 
которых
 
наиболее
 
динамично
 
изменились
 
в
 
сторону
 
увеличения
 
по
 
сравнению
 
с
 
предыдущей
 
итерацией
. 
         
Обобщенный
 
алгоритм
 
обучения
 
по
 
обоим
 
методам
 
одинаков
 
и
 
состоит
 
в
 
выполнении
 
следующей
 
последовательности
 
процедур
. 
     1. 
На
 
стадии
 
инициализации
 
ИНС
 
всем
 
весовым
 
коэффициентам
 
присваиваются
 
небольшие
 
произвольные
 
значения
. 
     2. 
На
 
входы
 
сети
 
подается
 
объект
, 
со
 
свойствами
 
пока неизвестного системе образа
, 
и
 
делается
 
первый
 «
прогон
», 
при
 
котором
 
сигналы
 
возбуждения
 
распространяются
 
по
 
всем
 
слоям
 
сети
. 
При
 
этом
, 
в
 
соответствии
 
с
 
произвольно
 
назначенными
 
весами
 
синапсов
,  
для
 
каждого
 (i-
го
) 
нейрона
 
каждого
 
синапса
 
каждого
 (n-
го
) 
слоя
 (
то
 
есть
, 
для
 
каждой
 
пары
 
соединенных
  
нейронов
) 
рассчитывается
 
взвешенные
 
суммы
 
их
  
входов
, 
к
 
которой
 
затем