Что такое абсолютная погрешность: определение термина
Абсолютной погрешностью называют величину ошибки в тех же единицах, что и сама измеряемая величина. Например, если длину измерили в сантиметрах, то и абсолютная погрешность будет в сантиметрах.
Обычно ее обозначают буквой Δ (дельта) и считают как модуль разности: Δ = |x − x₀|, где x — полученное значение, а x₀ — истинное. Если истинное значение неизвестно (так бывает почти всегда), его заменяют более точным значением или эталоном.
Как находят абсолютную погрешность
Если известно истинное значение, абсолютную погрешность находят по формуле Δ = |x − x₀|. Например, если истинная масса 2,00 кг, а вы получили 1,96 кг, то Δ = |1,96 − 2,00| = 0,04 кг. Часто в задачах истинное значение не дают, и тогда погрешность берут по точности прибора.
Например, если цена деления линейки 1 мм, то обычно считают, что погрешность измерения равна примерно половине цены деления, то есть 0,5 мм, если измерение сделано аккуратно. В вычислениях погрешность может появляться из-за округления. Если число округлили до сотых, то абсолютная погрешность округления не превышает 0,005.
Чтобы корректно записать результат, величину обычно указывают вместе с погрешностью: например, 12,3 ± 0,1. Это означает, что истинное значение лежит в промежутке от 12,2 до 12,4.
