A.7.37 Метод главных компонент (PCA) | линейная алгебра + теория вероятностей = анализ данных

A.7.37 Метод главных компонент (PCA) | линейная алгебра + теория вероятностей = анализ данных

dUdVstud

2 года назад

3,576 Просмотров

Ссылки и html тэги не поддерживаются


Комментарии:

Денис _
Денис _ - 11.10.2023 13:02

Спасибо за урок. Очень понятно объяснили. Было бы интересно узнать от вас про матричное дифференцирование.

Ответить
4u4beck
4u4beck - 05.09.2023 12:21

Вы сказали что при спектральном разложении мы можем располагать собственные значения как угодно а разве их произвольное расположение не нарушит структуру единичной матрицы собственных значений и не нарушит умножение на собственные вектора?

Ответить
Иван Евдокимов
Иван Евдокимов - 20.08.2023 22:55

Огромное спасибо за ваши труды! Я с этого видео получил нереальное наслаждение - 2 дня трудов и я наконец-то увидел на практике первые плоды долгого изучения вышмата) А по возникшему вопросу про расстояния и сжатость данных вдоль второстепенных компонент я получил ответ сразу в следующем видео про расстояние Махаланобиса - вы прям читаете мысли)

Ответить
Robasti
Robasti - 02.05.2023 01:59

Отличное видео

Ответить
Сергей Чёрный
Сергей Чёрный - 29.12.2022 18:25

Здравствуйте. Можно вопрос? Я не очень понял суть отношения Рэлея. Это типо умозаключение такое, или конструкция для чего? Я понял что мы искали дисперсию, и пришли к формуле отношения Рэлея, но суть этого, что это, для чего, я не понял. Для чего эта конструкция нужна? Можно в двух словах мне объяснить?)

2) В отношении Рэлея мы произвольный вектор умножаем на транспонированную матрицу собственных векторов, то-есть наш произвольный вектор скалярно умножается на каждый собственный вектор, правильно я понял?

Ответить
Канал СупермастерА
Канал СупермастерА - 21.09.2022 08:21

Агонь!

Ответить
olbyk
olbyk - 06.07.2022 23:01

Прямо по названию видео сразу огромное спасибо за ваш труд. Было бы очень круто посмотреть видео по дискриминантному анализу (LDA)

Ответить
Влад Башев
Влад Башев - 03.04.2022 18:17

Мужик, спасибо тебе огромное. Я довольно давно ищу нормальное объяснение метода главных компонент, но нигде не мог найти: 1) почему ковариационная матрица используется? 2) причём тут собственные вектора? Было бы круто увидеть этот видос в виде статьи на хабре

Ответить
angryworm80
angryworm80 - 09.01.2022 00:28

Пересмотрел, осознал! 👍🏻 Класс!!! Теперь интуитивно понятно, как можно оптимизировать обучение модели и снизить вычислительную «цену» обучения модели Про категориальные данные - имеется ввиду OHE чтоб их преобразовать в цифру?

Ответить
а
а - 25.11.2021 22:14

Жесть какая-то. Вроде понятно, а вроде и каша в голове 😫🤥

Ответить
angryworm80
angryworm80 - 14.11.2021 01:40

с 1-го раза …жесть! понял отрывками, надо будет пересматривать. И наверно так несколько итераций…

Ответить