Линейная алгебра

Векторные пространства, матрицы, определители. Системы линейных уравнений, собственные значения и векторы.

📖6 мин чтения📊Уровень 5🗺️4 подтем📅19 февраля 2026 г.

🗺️ Mind Map

Загрузка карты...
Линейная алгебра — раздел математики, изучающий векторные пространства, линейные отображения между ними и системы линейных уравнений. Возникла в XIX веке из потребностей физики и геометрии, сегодня лежит в основе машинного обучения и компьютерной графики.

От геометрии к абстракции

Линейная алгебра началась с простого вопроса: как описать прямые и плоскости в пространстве? Рене Декарт (1637) ввёл координаты, но прорыв случился позже. В 1843 году Уильям Гамильтон открыл кватернионы — числа с четырьмя компонентами для описания вращений в 3D. Параллельно Герман Грассман (1844) создал теорию n-мерных пространств.

Парадокс: математики придумали векторы раньше, чем физики поняли, что скорость и сила — это векторы. Грассман публиковал работы, которые игнорировали 20 лет. Только к 1870-м физики осознали мощь векторной записи.

Матрицы появились из систем уравнений. Артур Кэли (1858) понял, что таблица коэффициентов — самостоятельный математический объект. Можно складывать, умножать, находить обратные. Китайцы использовали матричные методы ещё в III веке (трактат «Математика в девяти книгах»), но теория появилась на Западе только через 1500 лет.

Векторные пространства: где живут векторы

Вектор — не обязательно стрелка. Это любой объект, который можно складывать и умножать на числа. Примеры векторов:

Функции: sin(x) + 2cos(x) — вектор в бесконечномерном пространстве. Квантовая механика описывает частицы как векторы в комплексном пространстве (волновые функции).

Полиномы: 3x² - 5x + 7 — вектор с координатами (7, -5, 3). Компьютерная графика хранит кривые Безье как векторы коэффициентов.

Изображения: фото 1920×1080 пикселей — вектор с 2 миллионами координат (RGB-каналы). Алгоритмы сжатия JPEG используют линейные преобразования.

Векторное пространство задаётся базисом — набором векторов, через которые выражаются все остальные. В обычном 3D-пространстве базис — три перпендикулярные оси. Но можно выбрать любые три непараллельные вектора. Координаты меняются, физика — нет.

Матрицы: машины для преобразований

Матрица — это линейное преобразование в компактной записи. Умножение матрицы на вектор даёт новый вектор.

Поворот в 2D: матрица 2×2 с cos θ и sin θ разворачивает плоскость на угол θ. Компьютерные игры применяют миллионы таких операций в секунду.

Масштабирование: диагональная матрица растягивает/сжимает вдоль осей. В машинном обучении слой нейросети — это матрица весов, которая преобразует входной вектор.

Проекция: матрица проекции отбрасывает одну координату. 3D-графика проецирует сцену на 2D-экран — это умножение на матрицу проекции.

Определитель матрицы показывает, во сколько раз преобразование меняет объём. Если det = 0, матрица «схлопывает» пространство в меньшую размерность — нет обратного преобразования.

Собственные векторы: особые направления

Для матрицы A собственный вектор v — тот, который матрица только растягивает, но не поворачивает: Av = λv. Число λ — собственное значение.

Google PageRank (1998): ранжирует сайты, решая систему с миллиардами уравнений. Важность страницы — главный собственный вектор матрицы ссылок. Сергей Брин и Ларри Пейдж применили теорему Перрона-Фробениуса (1912).

Анализ главных компонент (PCA): сжимает данные, находя собственные векторы ковариационной матрицы. Алгоритм распознавания лиц Eigenfaces (1991) представляет лица как комбинацию 150 собственных векторов вместо 10 000 пикселей.

Квантовая механика: наблюдаемые величины (энергия, импульс) — собственные значения операторов. Уравнение Шрёдингера — задача на собственные векторы.

Применения: от Netflix до квантовых компьютеров

Рекомендательные системы раскладывают матрицу «пользователи × фильмы» на произведение двух матриц меньшего ранга (SVD — сингулярное разложение). Netflix Prize (2006-2009) выиграла команда, улучшившая SVD на 10%.

Компьютерное зрение обрабатывает изображения как матрицы. Свёрточные сети (CNN) применяют матричные операции: свёртка — это умножение на специальные матрицы-фильтры.

Криптография RSA использует модульную арифметику матриц. Квантовые вычисления оперируют унитарными матрицами — преобразованиями, сохраняющими вероятность.

Почему это сложно

Студенты часто механически вычисляют определители, не понимая смысла. Школьная программа даёт техники (метод Гаусса, правило Крамера), но не объясняет геометрию.

Абстракция пугает: «вектор» — не только стрелка, но и функция, и точка в 1000-мерном пространстве. Переход от конкретных примеров (ℝ³) к общей теории требует перестройки мышления.

На практике 90% задач решаются численно (NumPy, MATLAB), а не аналитически. Важнее понимать, когда матрица плохо обусловлена (малые ошибки дают огромные отклонения), чем вычислять det вручную.

👤

Герман Грассман

1809-1877

Создатель теории n-мерных векторных пространств

👤

Артур Кэли

1821-1895

Основатель теории матриц

👤

Уильям Гамильтон

1805-1865

Открыл кватернионы

3 личности

Часто задаваемые вопросы

Машинное обучение (нейросети как матричные операции), компьютерная графика (трансформации объектов), квантовая механика (операторы), криптография (RSA), рекомендательные системы (SVD).