Нейрокомпьютерные системы



              

Гибридный алгоритм обучения нечетких сетей


Параметры, подлежащие адаптации, разделяются на две группы:

  • первая состоит из параметров
    p_{ij}
    линейного третьего слоя;
  • вторая состоит из параметров нелинейной функции принадлежности первого слоя.

Уточнение параметров проводится в два этапа.

На первом этапе при фиксации определенных значений параметров функции принадлежности путем решения системы линейных уравнений рассчитываются параметры

p_{ij}
полинома TSK.

При известных значениях функции принадлежности преобразование, реализуемое сетью, можно представить в виде

 \begin{align*} y(x) & = \sum_{i=1}^M w_i(p_{i0} + \sum_{j=1}^N p_{ij} x_j).\\ w_i & =[\prod_{j=1}^N \mu_A^{(i)}(x_j)] / \sum_{k=1}^N [\prod_{j=1}^N \mu_A^{(k)}(x_j)] = const. \end{align*}

При

p
обучающих выборках
(x^{(l)}, d^{(l)}), l = 1,2, \ldots, p
и замене выходного сигнала сети ожидаемым значением
d^{(l)}
получим систему из
p
линейных уравнений вида

 \begin{align*} W \cdot P = d, \end{align*}

где

 \begin{align*} W = \begin{Vmatrix} w_{11}' & w_{11}'x_1^{(1)} & \ldots & w_{11}'x_N^{(1)} & \ldots & w_{1M}' & w_{1M}'x_1^{(1)} & \ldots & w_{1M}'x_N^{(1)}\\ w_{21}' & w_{21}'x_1^{(2)} & \ldots & w_{21}'x_N^{(2)} & \ldots & w_{2M}' & w_{2M}'x_1^{(2)} & \ldots & w_{2M}'x_N^{(2)}\\ &\ldots & \ldots & \ldots & \ldots & \ldots & \ldots \\ w_{p1}' & w_{p1}'x_1^{(p)} & \ldots & w_{p1}'x_N^{(p)}& \ldots & w_{pM}' & w_{pM}'x_1^{(p)} & \ldots & w_{pM}'x_N^{(p)} \end{Vmatrix} \end{align}

 \begin{align*} P = \| p_{10} \ldots p_{1N} \ldots p_{M0} \ldots p_{MN}\|^T, \end{align*}

w_{ki}'
- уровень активации (вес)
i
-го правила при предъявлении
k
-го входного вектора
x^{(k)}
.

Размерность матрицы

W
равна
p \times (N+1)M
, при этом обычно количество строк (количество выборок) значительно больше количества столбцов. Решение этой системы уравнений можно получить за один шаг при помощи псевдоинверсии матрицы
W
:

 \begin{align*} P = W^{+}d. \end{align*}

Псевдоинверсия матрицы заключается в решении задачи минимизации

 \begin{align*} \min \|W^{+}W - E\|, \end{align*}

где

E
- единичная матрица.

На втором этапе (линейные параметры

p_{ij}, i = 1, \ldots M
- фиксированы) рассчитываются фактические выходные сигналы
y_k
,
k = 1,2, \ldots, p
:

 \begin{align*} y = Wp, \end{align*}

вектор ошибки

 \begin{align*} \varepsilon = y - d, \end{align*}

и градиент целевой функции

E(n)
по параметрам первого слоя. Если применяется метод наискорейшего спуска, то формулы адаптации принимают вид

 \begin{align*} &c_j^{(i)}(n+1) = c_j^{(i)}(n) - \alpha_c \partial E(n)/ \partial c_j^{(i)}\\ &\sigma_j^{(i)}(n+1) = \sigma_j^{(i)}(n) - \alpha_\sigma \partial E(n)/ \partial \sigma_j^{(i)}\\ &b_j^{(i)}(n+1) = b_j^{(i)}(n) - \alpha_b \partial E(n)/ \partial b_j^{(i)} \end{align*}

где

n
обозначает номер очередной итерации.

После уточнения нелинейных параметров вновь запускается процесс адаптации линейных параметров TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл повторяется вплоть до стабилизации всех параметров процесса.




Содержание  Назад  Вперед