Нейрокомпьютерные системы



              

Обучение сети Хопфилда по правилу Хебба


Для одного обучающего вектора

x
значения весов могут быть вычислены по правилу Хебба

 \begin{align*} w_{ij}=(1/N)x_ix_j, \end{align*}

поскольку тогда

 \begin{align*} (1/N)(\sum_{j=1}^N x_ix_jx_j)=x_i \end{align*}

(вследствие биполярных значений элементов вектора

x
всегда
x_j^2 = (\pm 1)^2 = 1
).

При вводе большего количества обучающих векторов

x(k), k=1,2, \ldots, p
веса
w_{ij}
подбираются согласно обобщенному правилу Хебба

 \begin{align*} w_{ij}=(1/N)\sum_{k=0}^p x_i^{(k)}x_j^{(k)}. \end{align*}

Важным параметром ассоциативной памяти является ее емкость. Под емкостью понимается максимальное число запомненных образов, которые классифицируются с допустимой погрешностью

\varepsilon _{max}
. Показано, что при использовании для обучения правила Хебба и при
\varepsilon_ {max} = 0.01
(1% компонентов образа отличается от нормального состояния) максимальная емкость памяти составит всего лишь около 13,8% от количества нейронов, образующих ассоциативную память. Столь малая емкость обусловлена тем, что сеть Хебба хорошо запоминает только взаимно ортогональные векторы или близкие к ним.




Содержание  Назад  Вперед