Что такое норма: определение термина
Норма представляет собой установленный образец или эталон, с которым сравнивают что-либо. Это может быть правило поведения в обществе, допустимое значение какой-то величины или способ измерения в науке.
В повседневной жизни мы сталкиваемся с нормами постоянно: нормы расхода топлива, нормы питания, нормы температуры тела. В математике норма — это специальный инструмент, который позволяет измерять «длину» различных математических объектов: векторов, функций, матриц.
Норма в математике
В математике существует несколько видов норм, которые применяются для разных целей:
Норма вектора — число, которое показывает длину вектора. Самая распространенная норма вычисляется по теореме Пифагора: нужно возвести в квадрат каждую координату вектора, сложить результаты и извлечь квадратный корень. Например, для вектора (3, 4) норма равна √(3² + 4²) = √25 = 5.
Норма числа — абсолютное значение числа, то есть его величина без учета знака. Норма числа 7 равна 7, а норма числа -7 тоже равна 7.
Норма матрицы — характеристика, которая показывает, насколько сильно матрица может «растянуть» вектор при умножении. Существуют разные способы вычисления нормы матрицы в зависимости от задачи.
Норма функции — величина, которая измеряет «размер» функции на определенном промежутке. Например, можно найти максимальное значение функции или площадь под ее графиком.
