2.13 Класифікаційне самонастроювання ІС, що навчається

 

Проблема класифікаційного самонастроювання (адаптації) ІС розглядається, наприклад, у працях [6,7,30]. Але оскільки вирішення цієї проблеми залежить безпосередньо від наявності ефективних методів розпізнавання поточного функціонального стану системи, що настроюється, то до цього часу вона все ще є актуальною.

Розглянемо постановку задачі класифікаційного параметричного самонастроювання здатної навчатися ІС у рамках ІЕІ-технології. Нехай клас, який характеризується найвищою функціональною ефективністю  Emax  системи. Дано структурований вектор параметрів настроювання  , відповідні обмеження на них  і клас  X0, який характеризує початковий функціональний стан ІС, що настроюється.

Треба у межах заданої оперативності за  мінімальної кількості  кроків настроювання перевести ІС із класу  X0  у клас    за умови досягнення максимального значення КФЕ , де  E(S)  інформаційна міра між класами  Х0  і поточним класом  .

За інформаційно-екстремальним алгоритмом самонастроювання оператор   :Y, як і в задачі компараторного розпізнавання, розбиває простір ознак тільки на два класи: базовий (початковий) клас  Х0  і клас  , який характеризує стан системи після реалізації поточного кроку самонастроювання. При цьому розбиття   згідно з (2.2.1) і (2.2.3) відповідає таким умовам:

 

      1)  ()[];

2))()[];

3)()()[      

];

     4)     

    

      5) ,  m=1, 2.

Діаграма відображень множин при класифікаційному самонастроюванні ІС, що навчається, має вигляд

 

                                                                                         (2.13.1)

Діаграма (2.13.1) містить, окрім контурів оптимізації (2.8.2) і (2.9.4), додатковий контур оптимізації параметрів настроювання. При цьому оператор  h1:E  відображає значення КФЕ на терм-множину    значень параметрів настроювання, а оператор  h2    здійснює на кожному кроці настроювання перехід ІС у новий клас.

У рамках ІЕІ-технології алгоритм класифікаційного самонастроювання полягає в обчисленні на кожному кроці настроювання    інформаційної міри  , яка є мірою різноманітності початкового класу  X0  і поточного класу  , , де   екстремальний крок настроювання; в порівнянні значення    із попереднім і у зміні залежно від результату порівняння параметра    за правилом:

 

      (2.13.2)

 

де   – крок зміни  -го параметра настроювання.

Оцінка функціональної ефективності класифікаційного самонастроювання здійснюється у процесі навчання за алгоритмом оптимізації параметрів навчання. Як параметри навчання у діаграмі (2.13.1) розглянуто радіус контейнера  , який в кодовій відстані Хеммінга визначається  як  , де   еталонний вектор-реалізація класу  ;    деяка вершина вектора-реалізації образу, яка належить контейнеру  .     

Обов’язковими параметрами оптимізації при класифікаційному самонастроюванні, як видно з діаграми (2.13.1), є так само контрольні допуски на ознаки розпізнавання, які безпосередньо формують бінарну навчальну матрицю і таким чином впливають на значення критерію  , і параметри настроювання. Необхідність оптимізації інших параметрів навчання, здатних покращити функціональну ефективність класифікаційного настроювання, визначається з урахуванням специфіки та вимог до об’єкта настроювання.

Як критерій оптимізації класифікаційного настроювання використовується одна із статистичних інформаційних мір, яка обчислюється у рамках алгоритму навчання. Оскільки кожна ІС ґрунтується на допусковій концепції оцінки ознак розпізнавання, значення яких у загальному випадку можуть належати одному із трьох класів:  – “НОРМА”,    “МЕНШЕ НОРМИ”,   “БІЛЬШЕ НОРМИ”, то запуск алгоритму класифікаційного настроювання  здійснюється з моменту встановлення виходу поточного функціонального стану ІС із класу  . Процес настроювання закінчується, коли знайдено оптимальні значення  , які забезпечують максимальну функціональну ефективність системи  Emax  за багатоциклічною ітераційною процедурою

 

          ,         (2.13.3)

 

де   – допустима область значень параметра настроювання;  – допустима область кроків настроювання.

За наявності декількох незалежних параметрів настроювання  , які впливають на поточний клас  , на кожному кроці настроювання здійснюється ітераційна процедура оптимізації, яка відрізняється від процедури (2.13.3) наявністю додаткових зовнішніх циклів оптимізації. Для підвищення оперативності самонастроювання ІС доцільно використовувати замість ітераційних процедур оптимізації гібридні алгоритми паралельної багатопараметричної оптимізації, наприклад, з використанням генетичних алгоритмів [35,36].

Незважаючи на те, що обчислення КФЕ при реалізації задачі класифікаційного самонастроювання здійснюється у рамках алгоритму навчання ІС, вона має такі принципові відмінності від традиційних задач класифікаційного аналізу:

відсутній етап екзамену;

 результатом навчання є не оптимальне розбиття простору ознак розпізнавання, а безпосередньо максимальне значення інформаційного КФЕ, тобто при класифікаційному самонастроюванні має місце так звана обернена задача навчання.

Таким чином, задача класифікаційного самонастроювання комп’ютеризованих систем має специфічні властивості, відмінні як від методів компараторного розпізнавання, так і класифікаційного аналізу. Це дозволяє зробити висновок про те, що класифікаційне самонастроювання може розглядатися як окремий напрямок розвитку теорії проектування здатних самонастроюватися ІС, що навчаються.