3.8.1. НЕОЖИДАННАЯ ТРУДНОСТЬ

В применении к случаям многих классов нередко приходится сталкиваться с задачами, содержащими до ста признаков, особенно если эти признаки бинарные. Исследователь обычно полагает, что каждый признак может быть полезен хотя бы для одного разделения. Он может и сомневался, что каждый из признаков обеспечивает независимую информацию, но заведомо излишние признаки им не привлекались.

Для случая статистически независимых признаков имеются результаты некоторых теоретических исследований, которые подсказывают нам, как поступить наилучшим образом. Рассмотрим, например, многомерный нормальный случай для двух классов, когда р{х|со;)~Л^((х^, 2), /=1, 2. Когда априорные вероятности равны, то нетрудно показать, что байесовский уровень ошибки определяется выражением

где г* есть квадратичное махалонобисово расстояние

Таким образом, вероятность ошибки убывает с ростом г, стремясь к нулю при стремлении г к бесконечности. В случае независимых переменных 2=diag (af, . . . , а§) и

Отсюда видно, что каждый из признаке® влияет на уменьшение вероятности ошибки. Наилучшйми в этом смысЛе являются те признаки, у которых разность средних значений велика по сравнению со стандартными отклонениями. Вместе с тем ни один из признаков не бесполезен, если его средние значения для разнйх классов различны. Поэтому для дальнейшего уменьшения уровня ошибки надо, очевидно, ввести новые, независимые признаки. Хотя вклад каждого нового признака и не очень велик, однако если беспредельно увеличивать г, то вероятность ошибки можно сделать сколь угодно-малой.

Естественно, если результаты, получаемые при использовании данного множества признаков, нас не устраибают, можно попытаться добавить новые признаки, особенно такие, которые способствуют разделению пар классов, с которыми чаще всего происходила путаница. Хотя увеличение чйсла признаков удорожает и усложняет выделитель признаков и классификатор, оно приемлемо, если есть уверенность в улучшении качества работы. При всем этом, если вероятностная структура задачи полностью известна, добавление новых признаков не уівеличит байесовский риск и в худшем случае байесовский классификатор не примет их во внимание, а если эти признаки все же несут дополнительную информацию, то качество работы должно улучшиться.

К сожіалейию, на практике часто наблюдается, что, вопреки ожиданиям, добавление новых признаков ухудшает, а не улучшает качество работы. Это явное противоречие составляет весьма серьезную проблему при разработке классификатора. Главный источник этого можно усмотреть в конечности числа исходных выборок. В целом' же данный вопрос требует сложного и тонкого анализа. Простейшие случаи не дают возможности экспериментального наблюдения указанного явления, тогда как случаи, близкие к реальным, оказываются сложными для анализа. С целью внести некоторую ясность, обсудим ряд вопросов, относящихся к проблемам размерности и объема выборки. В связи с тем что большинство результатов анализа будет дано без доказательств, заинтересованный читатель найдет соответствующие ссылки в библиографических и исторических замечаниях.