обучение остановится. Кроме этого, применение градиентного метода
оптимизации в большинстве случаев позволяет найти лишь субопти-
мальный, а не глобальный минимум целевой функции. Эти проблемы
связаны с выбором величины скорости обучения. Доказательство
сходимости обучения в процессе обратного распространения основа-
но на производных, то есть приращения весов, и, следовательно, ско-
рости обучения должны быть бесконечно малыми, однако в этом слу-
чае обучение будет происходить неприемлемо медленно. С другой
стороны, слишком большие коррекции весов могут привести к посто-
янной неустойчивости процесса обучения. Поэтому в качестве ν
обычно выбирается число меньше 1, но не очень маленькое, напри-
мер 0,1, и оно может постепенно уменьшаться в процессе обучения.
Кроме того, для исключения случайных попаданий в локальные ми-
нимумы иногда, после того как значения весовых коэффициентов
стабилизируются,
кратковременно сильно увеличивают, чтобы на-
чать градиентный спуск из новой точки. Если повторение этой про-
цедуры несколько раз приведет алгоритм в одно и то же состояние
ИНС, можно более или менее уверенно утверждать, что найден
именно глобальный минимум.
Выбор структуры ИНС. Определение оптимальной структуры
(топологии, конфигурации) ИНС, а именно: числа слоев и нейронов в
них, является трудной задачей и представляет собой целое направле-
ние нейрокомпьютерной науки. Тем не менее можно выделить сле-
дующие рекомендации по определению топологии ИНС [5, 13].
1. Для некоторых типовых задач (распознавания, классифика-
ции) уже существуют оптимальные конфигурации ИНС, поэтому це-
лесообразно попытаться использовать именно их.
2. Необходимо соизмерять объем сети с числом обучающих
примеров, число которых должно быть пропорционально сложности
сети.
3 Число нейронов в скрытых слоях однородных многослойных
ИНС с сигмоидальными активационными функциями может быть
рассчитана на основе экспериментальной формулы для оценки необ-
ходимого числа синаптических весов
w
N