Нейрокомпьютерные системы




Обучение по всему задачнику


Построим обучающую выборку

 \begin{align*} (V^1, \ldots, V^n,V^{n+1}, \ldots, V^{n+m}) = (X^1, \ldots, X^n,- Y^1, \ldots, - Y^m). \end{align*}

В обучающей выборке выделяются все

V_i, i{\in} (1,\ldots,n,{n{+}1}, \ldots, {n{+}m})
, для которых не выполняется неравенство
(V^i,w) > 0
, где
w
— вектор весовых коэффициентов нейрона. Обозначим это множество через Err. Вектор
w

модифицируется только после проверки всей обучающей выборки:

 \begin{align*} w = w + \alpha \sum_{V^{i}\in Err} V^{i}. \end{align*}

Не требуется хранить все множество Err - достаточно накапливать сумму тех

V^i
, на которых персептрон ошибается:

 \begin{align*} \Delta w = w + \alpha\sum_{V^{i}\in Err}V^{i}. \end{align*}

Как показывают испытания, обучение по всему задачнику, как правило, сходится быстрее, чем обучение по отдельным примерам.




Содержание  Назад  Вперед