Нейрокомпьютинг и его применения в экономике и бизнесе


Обучение нейронной сети - часть 2


Штрафная функция

E_1=\sum_{j=1}^N\sum_{l=1}^N_A\frac{(w_{lj}^h)^2}{1+(w_{lj}^h)^2}+\sum_{l=1}^{N_h}\sum_{i=1}^2\frac{(w^o_{il})^2}{1+(w_{il}^o)^2}

уже фигурировала в лекции 3.

Здесь

N_h
- число нейронов в скрытом слое,
w_{li}^h
- величина связи, между
j
-м входным и
l
-м скрытым нейронами
w_{il}^o
- вес связи между
l
-м скрытым и
i
-м выходным нейронами.

Использование регуляризирующего члена

E_1
приводит к дифференциации весов по величи-нам, уменьшая большинство, но сохраняя значения некоторых из них. Обучение сети произво-дится методом обратного распространения ошибки.




Начало  Назад  Вперед



Книжный магазин