Абсолютная погрешность

Абсолютная погрешность — разница между измеренным (или приближенным) значением и истинным значением величины. Она показывает, на сколько единиц вы могли ошибиться при измерении или вычислении.
2 КАРТОЧКИ
  1. 1.
    Что такое абсолютная погрешность: определение термина
  2. 2.
    Как находят абсолютную погрешность

Что такое абсолютная погрешность: определение термина

Абсолютной погрешностью называют величину ошибки в тех же единицах, что и сама измеряемая величина. Например, если длину измерили в сантиметрах, то и абсолютная погрешность будет в сантиметрах. 

Обычно ее обозначают буквой Δ (дельта) и считают как модуль разности: Δ = |x − x₀|, где x — полученное значение, а x₀ — истинное. Если истинное значение неизвестно (так бывает почти всегда), его заменяют более точным значением или эталоном.

Как находят абсолютную погрешность

Если известно истинное значение, абсолютную погрешность находят по формуле Δ = |x − x₀|. Например, если истинная масса 2,00 кг, а вы получили 1,96 кг, то Δ = |1,96 − 2,00| = 0,04 кг. Часто в задачах истинное значение не дают, и тогда погрешность берут по точности прибора. 

Например, если цена деления линейки 1 мм, то обычно считают, что погрешность измерения равна примерно половине цены деления, то есть 0,5 мм, если измерение сделано аккуратно. В вычислениях погрешность может появляться из-за округления. Если число округлили до сотых, то абсолютная погрешность округления не превышает 0,005. 

Чтобы корректно записать результат, величину обычно указывают вместе с погрешностью: например, 12,3 ± 0,1. Это означает, что истинное значение лежит в промежутке от 12,2 до 12,4.