Задачи

1.   Пусть условные плотности для одномерной задачи и двух классов заданы распределением Коши:

Считая, что Р(а1)=Р(щ), покажите, что P(co1U)=P((o2|a:) при х= (1/2) (aj+a2).

Набросайте график (cojlx) для случая а1=3, а2=5, 6=1. Как ведет себя />(w1U) при х-+—оо?+оо?

2.   Используя условные плотности из задачи 1 и полагая априорные вероятности равными, покажите, что минимальная вероятность ошибки определяется выражением

Рассмотрите это выражение как функцию величины I (а2—Яі)/6|.

3.   Рассмотрите следующее решающее правило для одномерной задачи и двух классов: принимать решение % в случае, если х>Ѳ; в противном случае принимать решение щ. Покажите, что при использовании этого правила вероятность ошибки определяется выражением

Покажите посредством дифференцирования, что для получения наименьшего значения Р (ошибка) необходимо, чтобы величина Ѳ удовлетворяла выражению

Проверьте, однозначно ли определяется этим выражением величина Ѳ. Приведите пример, когда величина Ѳ, удовлетворяющая данному уравнению, на самом деле соответствует максимальной вероятности ошибки.

4.   Пусть сотах (х) есть состояние природы, для которого Р (штах| х)^Р (ш,| х) для любого і, і= 1   с. Покажите, что Р (ютах|х)^1/с.

Покажите также, что в случае принятия решения по правилу минимального уровня ошибки средняя вероятность ошибки определяется выражением

На основании полученных результатов покажите, что Р (ошибка) < (с—1 )/с. Опишите случай, при котором Р (ошибка)= (с—1)/с.

5. Для неотрицательных чисел а и 6 покажите, что min(a,   На ос

новании этого покажите, что для байесовского классификатора на два класса уровень ошибки должен удовлетворять требованию

где р — так называемый коэффициент Бхаттачария, равный

в. Во многих задачах классификации образов допускается выбор: или отнести данный образ к одному из с классов, или отказаться принять решение. Такой отказ вполне допустим, если он не обходится слишком дорого. Пусть

где Хг — потери, возникающие из-за выбора (с+1)-го действия, состоявшего в отказе от принятия решения, а ^— потери из-за ошибки, связанной с подменой класса. Покажите, что минимальный риск достигается, если принять решение в случае Р(ю,|х)>Р(шу|х) для всех /ив случае Р(ю,1х)>1—с отбрасыванием прочих решений. Что произойдет в случае Х,=0? Что произойдет в случае

7.   Пользуясь результатами, полученными при решении задачи 6, покажите, что следующие разделяющие функции оптимальны:

Изобразите эти разделяющие функции и области решений для одномерного случая и двух классов при р(л:|сОі)~Л/(1, 1), p{x\4>^^N (—1, 1), P((0i)=P(c02)=1/2 и 1/4. Опишите качественно, что произойдет при воз

растании kfl'ks от о до 1.

8.   Предположим, что детерминированную решающую функцию а(х) мы заменим рандоминизированным правилом, т. е. вероятностью Р(а,|х) принятия действия а,- при наблюдаемом значении х. Покажите, что риск в этом случае определяется выражением

Покажите, кроме того, что R можно минимизировать, выбирая Р(а(|х)=1 для действия о,-, связанного с наименьшим условным риском й(а;|х), т. е. что рандомизация в данном случае никакой выгоды не дает.

9.   Рассмотрим многомерную нормальную плотность, для которой о,у=0, а 0,і=а2. Покажите, что

Опишите контуры постоянной плотности; запишите выражение для махала- нобисова расстояния от х до ц.

10.  Пусть р(хісй,)-~іѴ(ц;, 0S) для одномерной задачи и двух классов при P((0i)=P((02)=1/2. Покажите, что минимальная вероятность, ошибки определяется выражением

где а=1^І2—Рассмотрите неравенство

Покажите, что стремится к нулю при стремлении ІЦа—ЦіІ/о к бесконечности.

11.  Пусть р(х1(0;)~Л^(ц;, 0®/) ДЛЯ d-мерной задачи и двух классов при Р(ші)= —Р (0)2)= 1/2. Покажите, что минимальная вероятность ошибки определяется выражением

где а= ІІЦг—ЦіІ1/2о. Пусть Ці=0 и Ца= (ц, .... Используя неравенство из задачи 10, покажите, что Pg стремится к нулю при стремлении а к бесконечности. Выразите смысл этого результата словами.

12.  Пусть     2) для d-мерной задачи и двух классов с произвольными априорными вероятностями; рассмотрим махаланобисово расстояние

а)   Покажите, что градиент величины г? определяется выражением

б)   Покажите, что указывает одно и то же направление вдоль любой прямой, проходящей через

в)   Покажите, что и у''! указывают противоположные направления вдоль прямой, соединяющей и

г)   Покажите, что оптимальная разделяющая гиперплоскость касательна к гиперэллипсоидам постоянной плотности распределения в точке пересечения разделяющей гиперплоскости с прямой, проходящей через и Ца-

13.  В предположении, что А,2і>Яц и Я,і2>Я22, покажите, что в общем случае разделяющая функция, дающая минимум риска для независимого бинарного случая, описанного в разд. 2.10, определяется выражением g(x)=w*x+a»o. где w неизмені^а, а есть

14.  Пусть компоненты вектора х= (xj   бинарны (1 или 0). Пусть

также Р(соу) есть априорная вероятность состояния природы (Oy(/=l, ..., с), и пусть

с компонентами х,-, статистически независимыми для всех х в соу.

Пока^^ите, что минимальная вероятность ошибки полуЧаётся при использовании следующего решающего правила: принять решение ш/і, если для всех і, где

15.  Пусть компоненты вектора х= {хі,  тернарны (1, О или —1) с ве- рвятностями

прич^ компоненты д:,- статистически независимы для всех х в ау.

Покоите, что можно получить решающее правиііо с минимальной вероятностью ошибки, испоЛьзуя разделяющие функции gy(x), представляющие собой квадратичные функции компонент Xf. Попробуйте обобщить результаты решения задач 14 и 15.

16.  Пусть X распределен так же, как в задаче 14, е=2, а d нечетно, пусть также

и

а)   Покажите, что решающее правило по минимуму уровня ошибки при этом имеет вид

б)   Покажите, что минимальная вероятность ошибки определяется выражением

в)   Чему равен предел Pg (d, р) при р-> 1/2?

г)   Покажите, что Pg{d, р) стремится к нулю при d~*oo. (Это трудно выполнить без привлечения закона больших чисел. Вместе с тем важно почувствовать, почему это соотношение верно, и для тех, кто Этим интересуется, но не располагает временем для самостоятельного вывода, мы рекомендуем книгу В. Феллера «Введение в теорию вероятностей и ее приложения» (М., <оМир», 1967, т. I).

ОЦЕНКА ПАРАМЕТРОВ И ОБУЧЕНИЕ С УЧИТЕЛЕМ