Линейная алгебра — раздел математики, изучающий векторные пространства, линейные отображения между ними и системы линейных уравнений. Возникла в XIX веке из потребностей физики и геометрии, сегодня лежит в основе машинного обучения и компьютерной графики.
Линейная алгебра
Векторные пространства, матрицы, определители. Системы линейных уравнений, собственные значения и векторы.
🗺️ Mind Map
От геометрии к абстракции
Линейная алгебра началась с простого вопроса: как описать прямые и плоскости в пространстве? Рене Декарт (1637) ввёл координаты, но прорыв случился позже. В 1843 году Уильям Гамильтон открыл кватернионы — числа с четырьмя компонентами для описания вращений в 3D. Параллельно Герман Грассман (1844) создал теорию n-мерных пространств.
Парадокс: математики придумали векторы раньше, чем физики поняли, что скорость и сила — это векторы. Грассман публиковал работы, которые игнорировали 20 лет. Только к 1870-м физики осознали мощь векторной записи.
Матрицы появились из систем уравнений. Артур Кэли (1858) понял, что таблица коэффициентов — самостоятельный математический объект. Можно складывать, умножать, находить обратные. Китайцы использовали матричные методы ещё в III веке (трактат «Математика в девяти книгах»), но теория появилась на Западе только через 1500 лет.
Векторные пространства: где живут векторы
Вектор — не обязательно стрелка. Это любой объект, который можно складывать и умножать на числа. Примеры векторов:
Функции: sin(x) + 2cos(x) — вектор в бесконечномерном пространстве. Квантовая механика описывает частицы как векторы в комплексном пространстве (волновые функции).
Полиномы: 3x² - 5x + 7 — вектор с координатами (7, -5, 3). Компьютерная графика хранит кривые Безье как векторы коэффициентов.
Изображения: фото 1920×1080 пикселей — вектор с 2 миллионами координат (RGB-каналы). Алгоритмы сжатия JPEG используют линейные преобразования.
Векторное пространство задаётся базисом — набором векторов, через которые выражаются все остальные. В обычном 3D-пространстве базис — три перпендикулярные оси. Но можно выбрать любые три непараллельные вектора. Координаты меняются, физика — нет.
Матрицы: машины для преобразований
Матрица — это линейное преобразование в компактной записи. Умножение матрицы на вектор даёт новый вектор.
Поворот в 2D: матрица 2×2 с cos θ и sin θ разворачивает плоскость на угол θ. Компьютерные игры применяют миллионы таких операций в секунду.
Масштабирование: диагональная матрица растягивает/сжимает вдоль осей. В машинном обучении слой нейросети — это матрица весов, которая преобразует входной вектор.
Проекция: матрица проекции отбрасывает одну координату. 3D-графика проецирует сцену на 2D-экран — это умножение на матрицу проекции.
Определитель матрицы показывает, во сколько раз преобразование меняет объём. Если det = 0, матрица «схлопывает» пространство в меньшую размерность — нет обратного преобразования.
Собственные векторы: особые направления
Для матрицы A собственный вектор v — тот, который матрица только растягивает, но не поворачивает: Av = λv. Число λ — собственное значение.
Google PageRank (1998): ранжирует сайты, решая систему с миллиардами уравнений. Важность страницы — главный собственный вектор матрицы ссылок. Сергей Брин и Ларри Пейдж применили теорему Перрона-Фробениуса (1912).
Анализ главных компонент (PCA): сжимает данные, находя собственные векторы ковариационной матрицы. Алгоритм распознавания лиц Eigenfaces (1991) представляет лица как комбинацию 150 собственных векторов вместо 10 000 пикселей.
Квантовая механика: наблюдаемые величины (энергия, импульс) — собственные значения операторов. Уравнение Шрёдингера — задача на собственные векторы.
Применения: от Netflix до квантовых компьютеров
Рекомендательные системы раскладывают матрицу «пользователи × фильмы» на произведение двух матриц меньшего ранга (SVD — сингулярное разложение). Netflix Prize (2006-2009) выиграла команда, улучшившая SVD на 10%.
Компьютерное зрение обрабатывает изображения как матрицы. Свёрточные сети (CNN) применяют матричные операции: свёртка — это умножение на специальные матрицы-фильтры.
Криптография RSA использует модульную арифметику матриц. Квантовые вычисления оперируют унитарными матрицами — преобразованиями, сохраняющими вероятность.
Почему это сложно
Студенты часто механически вычисляют определители, не понимая смысла. Школьная программа даёт техники (метод Гаусса, правило Крамера), но не объясняет геометрию.
Абстракция пугает: «вектор» — не только стрелка, но и функция, и точка в 1000-мерном пространстве. Переход от конкретных примеров (ℝ³) к общей теории требует перестройки мышления.
На практике 90% задач решаются численно (NumPy, MATLAB), а не аналитически. Важнее понимать, когда матрица плохо обусловлена (малые ошибки дают огромные отклонения), чем вычислять det вручную.