БСЭ - Большая Советская энциклопедия (На)
где pi = k/ si 2 и si 2 = D di = E di 2
(коэффициент k > 0 можно выбирать произвольно). Величину pi называют весом, a si — квадратичным отклонением измерения с номером i . В частности, если все измерения равноточны, то s1 = s2 =... = sn , и в этом случае можно положить p 1 = p 2 =... = pn = 1; если же каждое Yi , — арифметическое среднее из ni , равноточных измерений, то полагают pi = ni .
Сумма S (X ) будет наименьшей, если в качестве Х выбрать взвешенное среднее:
Оценка величины m лишена систематической ошибки, имеет вес Р и дисперсию
В частности, если все измерения равноточны, то Y — арифметическое среднее результатов измерений:
При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то распределение оценки мало отличается от нормального с математическим ожиданием m и дисперсией k/P . В этом случае абсолютная погрешность приближённого равенства
меньше
с вероятностью, близкой к значению интеграла
[напр., I (1,96) = 0,950; I (2,58) = 0,990; I (3,00) = 0,997].
Если веса измерений pi заданы, а множитель k до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки могут быть приближённо оценены по формулам:
и
(обе оценки лишены систематических ошибок).
В том практически важном случае, когда ошибки di подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства
окажется меньше ts (t — произвольное положительное число). Эту вероятность, как функцию от t , называют функцией распределения Стьюдента с n - 1 степенями свободы и вычисляют по формуле
где постоянная Cn -1 выбрана таким образом, чтобы выполнялось условие: In -1 (¥) = 1. При больших n формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших n привело бы к грубым ошибкам. Так, например, согласно (1), значению I = 0,99 соответствует t = 2,58; истинные значения t , определяемые при малых n как решения соответствующих уравнений ln -1 (t ) = 0,99, приведены в таблице:
Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г ):
(здесь ni — число случаев, в которых наблюдался вес Yi , причём n = Sni , = 10). Так как все взвешивания равноточные, то следует положить pi = ni и в качестве оценки для неизвестного веса m, выбрать величину
Задавая, например, I 9 = 0,95, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что t = 2,262, и поэтому в качестве предельной абсолютной погрешности приближённого равенства m » 18,431 следует принять величину
Т. о. 18,420 < m < 18,442.
Случай нескольких неизвестных (линейные связи). Пусть n результатов измерений Y 1 , Y 2 ,..., Yn связаны с m неизвестными величинами x 1 , x 2 ,..., хm (m < n ) независимыми линейными отношениями
где aij — известные коэффициенты, а di — независимые случайные ошибки измерений. Требуется оценить неизвестные величины xj (эту задачу можно рассматривать как обобщение предыдущей, в которой m = x1 и m = ai1 = 1; i = 1,2,..., n ).
Так как Е di = 0, то средние значения результатов измерений yi , = E yi . связаны с неизвестными величинами x 1 , x 2 ,..., хm линейными уравнениями (линейные связи):
Следовательно, искомые величины xj представляют собой решение системы (4), уравнения которой предполагаются совместными. Точные значения измеряемых величин yi и случайные ошибки di обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так называемые условные уравнения
Согласно Н. к. м., качестве оценок для неизвестных xj применяют такие величины Xj , для которых сумма квадратов отклонений
будет наименьшей (как и в предыдущем случае, pi — вес измерения Yi , — величина, обратно пропорциональная дисперсии случайной ошибки di ). Условные уравнения, как правило, несовместны, т. е. при любых значениях Xj разности
не могут, вообще говоря, все обратиться в нуль, и в этом случае
также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj , которые минимизируют сумму S . В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj ; этот многочлен достигает минимума при таких значениях X 1 , X 2 ,..., Хm , при которых обращаются в нуль все первые частные производные:
Отсюда следует, что оценки Xj , полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:
где
Оценки Xj , получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (E xj = xj ); дисперсии D xj ; величин Xj равны kdjj /d , где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раj aj ] (иными словами, djj /d — вес оценки Xj ). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии D xj служат формулы:
k » S/ (n - m ) и D xj » s2 j = Sdjj /d (n - m )
(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi » Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений di подчиняются нормальному распределению, то все отношения (Xj - xj )/sj распределены по закону Стьюдента с n - m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X 1 , X 2 ,..., Xm и поэтому приближённые значения дисперсий оценок D xj » s2 j не зависят от самих оценок Xj .