8.4.2. Обучение на основе условной нечеткой меры.

В [47, 50] описывается модель обучения, использующая понятия нечеткой меры и нечеткого интеграла.

Пусть X = {агі, ..., аг„} — множество причин (входов)' и Y = {уі, ..., ут) — множество результатов. Если h — функция из X в интервал [О, 1], h{xi)<..,<h{x„) и gx —нечеткая мера на X, то

где Я, = {агі, х„).

Задача состоит в оценке (уточнении)’ причин по нечеткой информации.

Пусть gr — нечеткая мера на Y, gy связана с gx условной нечеткой мерой Оу(-,|а:):

Предполагается следующая интерпретация вводимых мер; gx оценивает степень нечеткости утверждения «один из элементов X был причиной», Oy{A\x), A<=Y, оценивает степень нечеткости утверждения «один из элементов А является результатом благодаря причине х»; griiy)) характеризует степень нечеткости утверждения; «у — действительный результат».

Пусть Ha(i/) описывает точность информации А, тогда по определению

откуда следует, что  где

Метод обучения должен быть таким, чтобы при получении информации А нечеткая мера gx менялась таким образом, чтобы gr(4) возрастала. Предположим, что gx{-) и ау{-\х) удовлетворяет Я-правилу. Пусть аг{А\Хі) является убывающей, тогда

где Fi = [хі, ..., Хі). При этих условиях существует I:

Обучение может быть осуществлено увеличением тех значений g' (і = 1, ..., п) нечеткой меры gx, которые увеличивают gy(4), и уменьшением тех значений g' (і=1, ..., п) меры gx, которые не увеличивают griA). Можно показать, что на величину ^у(Л) влияют только такие g\ что 1 < г < L Следовательно, алгоритм обучения следующий:

Параметр а е [О, 1] регулирует скорость обучения, т. е. скорость сходимости g\ Чем меньше а, тем сильнее изменяется g‘. В приведенном алгоритме нет необходимости увеличивать g’ (і = і, ..., п) больше, чем на ат(А\хі), так как большее увеличение g' не влияет на ^у(Л). Приведем некоторые свойства модели обучения.

Свойство 8.4. Если повторно поступает одна и та же информация, то имеет место следующее:

а)   новое g* больше старого g‘ (і = 1, ..., I) и новое g* меньше старого g* (і = /+1, ..., п), следовательно, новая мера gr(4) не меньше старой меры gy(4) и новая мера:і

б)   при предположении Gy{A\xi)> Gy{A\x2), к<1, g* сходится к аг{А\хі) и g* сходится к О для f = 2, ..., п.

Свойство 8.5. Если поступает одна и та же информация

повторно: Ьа(у)=с для всех у, то сту (Л | ж) = ^ с = ау (• | ж) = с,

у

ау(Л) = с Д gx{X). Следовательно, 1 = п ш g* сходится к с для всех і.

Свойство 8.6. Предельное значение g^ не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация.

Пример 8.7 [47]. Пусть Оу({і/Лжі) подчиняется Я-правилу и имеет вид:

Ясно, что уі является результатом в основном причины Xj. На рис. 8.5 показано изменение априорной нечеткой плотности gx при

повторном появлении на входе одной и той же информации. На рис. 8.5, в на вход поступает переменно два различных множества:

В случае рис. 8.5, а на вход поступает кл = (0, О, 1, О, 0), а в случае рис. 8.5, б на входе На = (0,3, 0,5, 0,8, 0,5, 0,3). На рисунке числа указывают номер итерации.

Обучающаяся модель достаточно хорошо работает с нечеткой информацией, но скорость сходимости в этом случае меньше.

Пример 8.8. В [50, 53] описывается обучающаяся модель, разработанная на основе изложенного подхода и используемая для глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций:

Хі — оценивает число точек, проанализированных на предыдущих шагах;

Хг — оценивает среднее значение функции по результатам предыдущих шагов;

Хз — оценивает число точек, значение функции в которых принадлежит десятке лучших-в своей области;

Хі,— оценивает максимум по прошлым попыткам;

Хь — оценивает градиент функции.

В описываемом случае gx показывает степень важности подмножеств критериев -п. ат{ІУі)\хі) оценивает предположение о нахождении экстремума в блоке Уі в соответствии с критерием Хі. Например, От{{уі)\хі) может зависеть от числа ранее проанализированных точек в блоке у,. Пусть входная информация А определяется формулой

где Pk максимум анализируемой функции, папденпый к рассматриваемому моменту в блоке Уі- Очевидно, что А сходится к максимизирующему множеству функции. На каждой итерации осуществляется следующее: проверяется заданное число новых точек, число этих точек выбирается пропорционально в

каждой точке уі вычисляется и нормализуется мера Оу(-№)> нормализуется gx, по и <3х вычисляется gy({j/i}), а затем gy(4), посредством правил подкрепления корректируется gx{ixi}). Затем выполняется новая итерация и так до тех пор, пока не сойдется gy.

В [47] приводится сравнительный анализ предлагаемой модели и вероятностной модели обучения [17]. Пусть рх — априорная плотность вероятности на X, ру(-1а;і) —условная плотность вероятности по отношению к Хі. Условная плотность вероятности нечеткого события А вычисляется по формуле:

После получения нечеткой информации А обучение осуществляется по формуле Байеса, которая дает результирующую плотность вероятности рх на X:

Если на вход модели поступает информация постоянной величины іХа{Уі) = с, 7 = 1, •••, пг, то px{Xi\F) = рх{х,), что фактически означает отсутствие обучения. Нечеткая же модель способна различать постоянную информацию и отсутствие информации. Кроме того, в нечеткой модели имеется возможность изменять скорость сходимости посредством параметра а.