2.8.1

Эта простейшая ситуация возникает тогда, когда признаки статистически независимы и имеют одинаковую дисперсию а2. Ковариационная матрица при этом становится диагональной, превращаясь в произведение а2 на единичную матрицу I. Выборки при этом попадают внутрь одинаковых гиперсферических кластеров, причем каждый кластер t'-ro класса имеет своим центром вектор средних значений ц.г. Здесь значительно упрощается расчет определителя и матрицы, обратной 2г; они равны соответственно |2г|= =аы и 2Г1— (1/а2)/. В соотношении (31) можно пренебречь несущественными постоянными слагаемыми |2г| и (d/2)log 2я, так как их значения не зависят от і. В результате разделяющие функции принимают простой вид:

где II -|| — евклидова норма, т. е.

Если для всех с классов априорные вероятности Р(cof) равны, то слагаемое logP(cOj) также становится несущественной аддитивной константой, которой можно пренебречь. Оптимальное решающее правило формулируется в этом случае очень просто: чтобы определить класс вектора признаков х, следует измерить евклидово расстояние ||х—цг|| от х до каждого из с векторов средних значений и отнести х к классу, соответствующему ближайшему среднему значению. Такой классификатор называют классификатором по минимуму расстояния. Если каждый из векторов средних значений считать идеальным прототипом или эталоном для образов своего класса, то это по существу будет процедура сравнения с эталоном. Если априорные'вероятности не равны, то, согласно соотношению (32), квадрат расстояния ||х—jul^112 должен быть нормирован по дисперсии а2 и смещен на величину log і°2 (о>£); поэтому в случае, когда х одинаково близок к двум различным векторам средних значений, при принятии решения следует предпочесть класс, априорно более вероятный.

На самом деле нет необходимости вычислять расстояние в каждом из этих случаев. Раскрытие квадратичной формы (х—ц*)* (х—цг) приводит к выражению

являющемуся квадратичной функцией х. Вместе с тем квадратичный член xfx, неизменный для любого і, представляет собой постоянное слагаемое, и им можно пренебречь. В результате получаем эквивалентную линейную разделяющую функцию вида

где1)

и

Классификатор, основанный на использовании линейных разделяющих функций, называется линейной машиной. Классификатор

этого типа обладает многими свойствами, интересными с теоретической точки зрения; некоторые из них будут подробно обсуждаться в гл. 5. Здесь же заметим просто, что поверхности решений в случае линейной машины явятся частями гиперплоскостей, определяемых линейными уравнениями gt(x)=gj(x). Для данного частного случая это уравнение можно записать в виде

где

и

Это уравнение определяет ортогональную вектору w гиперплоскость, проходящую через точку х0. Поскольку w=juif— гиперплоскость, разделяющая 5? г и 91j, будет ортогональна прямой, соединяющей средние значения. Если Р((оі)=/3(со;), то точка х0 находится посередине между средними значениями, а гиперплоскость проходит через середину отрезка, соединяющего средние значения перпендикулярно ему (рис. 2.8). Этого следовало бы ожидать по той причине, что классификатор в данном случае есть классификатор по минимуму расстояния. Если Р (са^фР (со^), то точка х0 смещается, удаляясь от более вероятного среднего значения. Вместе с тем следует заметить, что если дисперсия а2 мала по сравнению с квадратом расстояния ||щ—^-Ц2, то положение границы областей решений сравнительно мало зависит от точных значений априорных вероятностей.