Комментарии:
Спасибо за урок. Очень понятно объяснили. Было бы интересно узнать от вас про матричное дифференцирование.
ОтветитьВы сказали что при спектральном разложении мы можем располагать собственные значения как угодно а разве их произвольное расположение не нарушит структуру единичной матрицы собственных значений и не нарушит умножение на собственные вектора?
ОтветитьОгромное спасибо за ваши труды! Я с этого видео получил нереальное наслаждение - 2 дня трудов и я наконец-то увидел на практике первые плоды долгого изучения вышмата) А по возникшему вопросу про расстояния и сжатость данных вдоль второстепенных компонент я получил ответ сразу в следующем видео про расстояние Махаланобиса - вы прям читаете мысли)
ОтветитьОтличное видео
ОтветитьЗдравствуйте. Можно вопрос? Я не очень понял суть отношения Рэлея. Это типо умозаключение такое, или конструкция для чего? Я понял что мы искали дисперсию, и пришли к формуле отношения Рэлея, но суть этого, что это, для чего, я не понял. Для чего эта конструкция нужна? Можно в двух словах мне объяснить?)
2) В отношении Рэлея мы произвольный вектор умножаем на транспонированную матрицу собственных векторов, то-есть наш произвольный вектор скалярно умножается на каждый собственный вектор, правильно я понял?
Агонь!
ОтветитьПрямо по названию видео сразу огромное спасибо за ваш труд. Было бы очень круто посмотреть видео по дискриминантному анализу (LDA)
ОтветитьМужик, спасибо тебе огромное. Я довольно давно ищу нормальное объяснение метода главных компонент, но нигде не мог найти: 1) почему ковариационная матрица используется? 2) причём тут собственные вектора? Было бы круто увидеть этот видос в виде статьи на хабре
ОтветитьЖесть какая-то. Вроде понятно, а вроде и каша в голове 😫🤥
Ответить