8.4.1. Обучающийся нечеткий автомат.

В [54] предлагается печеткий автомат в качестве модели обучающейся системы. Рассматривается автомат с четким входом i(t) и зависимым от времени нечетким отношением перехода 8{t). Пусть s{t)—нечеткое состояние автомата в момент времени t на конечном множестве состояний S = {si, ..., s„} и it — оценка значения i{t). Состояние автомата в момент времени (f + 1) определяется шах-тіп композицией:

или аналогично с min-max композицией. Обучение направлено на изменение нечеткой матрицы переходов:

где 0<ccft<l, 0<Xft(t)^l, k = l, ..., п. Константа а?, определяет скорость обучения. Начало работы автомата возможно без априорной информации (s^) = О или 1, а также с априор

ной информацией    Величина Xk{t) зависит от

оценки функционирования автомата. Доказано, что имеет место сходимость матрицы переходов, независимо от того, есть ли априорная информация (т. е. Н'Т(о) может быть любым значением из интервала [О, 1]) .

Описанная модель в [27] используется для выделения оптимальных стратегий в игре двух автоматов с нулевой суммой,

а в [54] — для классификации образцов. На рис. 8.3 изображена модель классификации образов. Роль входа и выхода можно кратко объяснить следующим образом. Во время каждого интервала времени классификатор образов получает новый образец

х' из неизвестной внешней среды. Далее х' обрабатывается в рецепторе, из которого поступает как в блок «обучаемый» (или «студент»), так и в блок «учитель» для оценки. Критерий оценки должен быть выбран так, чтобы его минимизация или максимизация отражала свойства классификации (классов образов). Поэтому, благодаря естественному распределению образов, критерий может быть включен в систему, чтобы служить в качестве учителя для классификатора. Модель обучения формируется следующим образом. Предполагается, что классификатор имеет в распоряжении множество дискриминантных функций нескольких переменных. Система адаптируется к лучшему решению. Лучшее решение выделяет множество дискриминантных функций, которые дают минимум нераснознавания среди множества дискриминантных функций для данного множества образцов.

Близкая модель обучения предложена в [34, 18, 19, 29]. Моделируется поиск глобального экстремума функции:

—    область определения целевой функции делится на некоторое число подобластей (форма подобластей постоянно меняется) и описывается некоторым множеством точек;

—    каждой точке приписывается состояние автомата, причем функция принадлежности в каждом состоянии указывает степень близости к оптимуму;

—    выбирается состояние с максимальным значением функции принадлежности (эта точка называется кандидатом);

—    формируется новая подобласть из точек, окружающих кандидата (размер подобласти растет, когда значения целевой функции в точке кандидата меньше чем в других точках подобласти, и уменьшается в противоположном случае);

—    когда подобласть пересекается с некоторой другой, или две точкп-капдидаты находятся в одной подобласти, то подобласти разделяются, если степень разделения большая, или объединяются, если степень разделения малая;

—    точки-кандидаты выбираются на этапе локального поиска в подобласти, затем во всей области среди точек-кандидатов ищется глобальная оптимальная точка;

—    глобальный и локальный поиск осуществляется поочередно.

Алгоритм поиска глобального экстремума приведен на рис. 8.4.

Пусть S — множество состояний, V — выходной универсум, о — функция выхода (функция принадлежности, указывающая

степень оптимума в состоянии s). 1{і)—текущее значение целевой функции, /о — среднее значение I{t).

Используется следующий алгоритм изменения функций перехода и выхода в случае глобального поиска:

если I{t)>Io, то попытка успешна и

если 7(f) ^/о, то попытка неудачна и

где а = 1 — I (/(f) —/о)//о1; а < 1 — гарантирует сходимость.

В случае локального поиска:

если I{t)> Іо, то

если I{t)^Ia, то

Приложение описанного алгоритма к проблемам ядерпой энергетики описано в [46] к структурной идентификации — в [49].