ПРИЛОЖЕНИЕ 11 А. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ

9

В задаче 11.2 мы рассчитывали величины <Жд,> и <xjj> для N = 8, 16, 32 и 64. Результаты представлены в табл. 11.1. Приведены также среднеквадратичное смешениеи величина <х^>. Из

табл. 11.1 можно заключить, что общий результат <xN> = 0 при р = = 1/2 согласуется с нашим, полученным для небольшого числа испытаний.

Основной рассматриваемой величиной в табл. 11.1 является зависимость от N. Поскольку мы предполагаем, что для достаточно больших N величина RN ведет себя как Nv, мы можем построить график зависимости log RN от log N и попытаться найти прямую, которая проходит как можно ближе к этим точкам. Чему равна оценка величины наклона V, полученная из ваших результатов? Хотя часто визуальная подгонка может давать замечательные результаты, желательно как-то систематизировать процедуру подгонки.

Аналитический метод нахождения наилучшей прямой, проходящей че-рез ряд экспериментальных точек, называется методом линейной рег-рессии или наименьших квадратов. Предположим, у иас имеется я паризмерений   (xryj,   (х2,у2),         (■*„.</„)   и   ошибки   полиостью содер-

жатся в значениях у. Предположим также иа минуту, что все статистические ошибки в у одинаковые по величине. Наша цель состоит в том, чтобы наилучшим образом подобрать функцию

Задача заключается в вычислении значений параметров m и Ь для иаи-

лучшей прямой, проходящей через и точек. Если бы ие было ошибок в значениях уе мы имели бы у.-тх.-Ь = 0. Остаток d. определяется выражением

и является мерой ошибки в у. Следовательно, представляется разумным предположить, что наилучшие значения m и Ь—это те, которые минимизируют величину

Для нахождения минимума S продифференцируем эту величину соответственно по m и Ь:

(В дальнейшем мы не будем писать у знака суммы пределы суммирования i = l и п.) Из (11.44) и (11.45) получаем систему двух уравнений:

Решениями уравнений (11.46) и (11.47) являются   где

и

Из уравнений (11.48) и (11.49) вычисляются наклон и отрезок, отсекаемый на оси, для наилучшей прямой, проведенной через п точек.

В нашем примере случайного блуждания можно преобразовать нелинейную зависимость RN = aN0 в линейную

По значениям RN и N из табл. 11.1, получаем значения х = In N и у = Rfl, приведенные в табл. 11.2 и на рис. 11.14.  

Используя формулы (11.48)—(11.51) и значения In N и In /?др из табл. 11.2, находим, что х = 3.119, у = 1.612, Л = 2.403, т = 0.530 и Ь = -0.043. Следовательно, можно сделать вывод, что наши ограниченные данные для RN дают оценку I» = 0.53, которая находится в соответствии с точным результатом v = 1/2.

Приведем без доказательства оценки доверительных интервалов для т и Ь:

В нашем случае Am = 0.07 и мы делаем вывод, что наилучшая оценка v есть v = 0.53 ±0.07.

Если статистические ошибки гг. в у. различны, то данные необходимо умножить на веса w. = 1/гИ. В этом случае следует минимизировать величину

Можно показать, что наилучшие оценки величии m и Ь равны

Как можно оценить ошибку In R^ В гл. 10 мы установили, что вероятная ошибка <xN> равна a^Z-Sii, где о2^ = <х^> - <xN>2. Используя аналогичные соображения, можно показать, что вероятная ошибка <xj^> равна с/л/п, где

Ошибки In RN вычисляются в задаче 11.19.