Нейрокомпьютерные системы



              

Математические основы радиальных сетей - часть 2


 \begin{equation} \varphi \cdot w=d, \end{equation}

(1)

где

\varphi_{ji}=(\|x_j-x_i\|)
определяет радиальную функцию с центром в точке
x_i
с вынужденным вектором
x_j
,
w=[w_1,w_2, \ldots, w_p]^T
и
d=[d_1,d_2, \ldots, d_p]^T
.

Доказано, что для ряда радиальных функций в случае

x_1\neq x_2\neq\ldots x_p

квадратная интерполяционная матрица

\varphi
является невырожденной и при этом неотрицательно определенной. Поэтому существует решение уравнения (1) в виде

 \begin{equation} W= \varphi^{-1}d, \end{equation}

(2)

что позволяет получить вектор весов выходного нейрона сети.

Теоретическое решение проблемы, представленное выражением (2), не может считаться абсолютно истинным по причине серьезного ограничения общих свойств сети, вытекающих из сделанных вначале допущений. При очень большом количестве обучающих выборок и равном ему количестве радиальных функций проблема с математической точки зрения становится бесконечной (плохо структурированной), поскольку количество уравнений начинает превышать число степеней свободы физического процесса, моделируемого уравнением (1). Это означает, что результатом такого чрезмерного количества весовых коэффициентов станет адаптация модели к разного рода шумам или нерегулярностям, сопровождающим обучающие выборки. Как следствие, интерполирующая эти данные гиперповерхность не будет гладкой, а обобщающие возможности останутся очень слабыми.

Чтобы их усилить, следует уменьшить количество радиальных функций и получить из избыточного объема данных дополнительную информацию для регуляризации задачи и улучшения ее обусловленности.




Содержание  Назад  Вперед