Обучение сетей этого типа проводится по так называемому алгоритму
«победитель забирает все» (разновидность алгоритма обучения «без учителя»). В
отличие от других алгоритмов, в которых изменяются веса всех нейронов, в этом,
нейроны «соревнуются» за то, чтобы вес был изменен именно у него. В некоторых
вариантах алгоритма обучения веса
изменяются не только у победившего нейрона, но и у соседних с ним нейронов.
Обычно для нормализации входных векторов применятся два следующих алгоритма:
Первый способ, «обычный»:
,
,
.
Недостаток: входные вектора типа (-2, 1, 3) и (-10, 5 , 15) не будут различаться
между собой.
Второй способ, “нормализация по оси Z”:
,
Существует несколько вариантов алгоритмов обучения
сетей Кохонена. Далее приводятся два наиболее часто
применяемых из них:
Первый
алгоритм обучения (аддитивный), предложенный Кохоненом:
где
-вектор весов победившего нейрона в момент времени t,
-вектор весов в момент
времени t+1,
- входной вектор,
- коэффициент
скорости обучения;
=[0,1].
Второй
алгоритм обучения (субтрактивный),
или алгоритм Видроу-Хофа: