Норма

Норма — это правило или стандарт, который показывает, каким должно быть значение, количество или поведение в определенной ситуации. В математике норма помогает измерять размеры объектов и расстояния между ними.
2 КАРТОЧКИ
  1. 1.
    Что такое норма: определение термина
  2. 2.
    Норма в математике

Что такое норма: определение термина

Норма представляет собой установленный образец или эталон, с которым сравнивают что-либо. Это может быть правило поведения в обществе, допустимое значение какой-то величины или способ измерения в науке.

В повседневной жизни мы сталкиваемся с нормами постоянно: нормы расхода топлива, нормы питания, нормы температуры тела. В математике норма — это специальный инструмент, который позволяет измерять «длину» различных математических объектов: векторов, функций, матриц.

Норма в математике

В математике существует несколько видов норм, которые применяются для разных целей:

Норма вектора — число, которое показывает длину вектора. Самая распространенная норма вычисляется по теореме Пифагора: нужно возвести в квадрат каждую координату вектора, сложить результаты и извлечь квадратный корень. Например, для вектора (3, 4) норма равна √(3² + 4²) = √25 = 5.

Норма числа — абсолютное значение числа, то есть его величина без учета знака. Норма числа 7 равна 7, а норма числа -7 тоже равна 7.

Норма матрицы — характеристика, которая показывает, насколько сильно матрица может «растянуть» вектор при умножении. Существуют разные способы вычисления нормы матрицы в зависимости от задачи.

Норма функции — величина, которая измеряет «размер» функции на определенном промежутке. Например, можно найти максимальное значение функции или площадь под ее графиком.