Комментарии:
Очень круто! Я туповат, но здесь настолько всё по полочкам разложено, что почти всё понял! Спасибо огромное!
ОтветитьКруто! Спасибо за подробные объяснения вещей, которые зачастую просто называют, не объясняя сути
ОтветитьПодскажите почему (Xw-y) транспонированная стоит откуда она?
ОтветитьКруто, очень просто, быстро и доступно. А то смотришь других часами и уже под конец забыл с чего все начиналось!
ОтветитьСкажите, Python может самостоятельно определять тип зависимостей или мы сами должны ему сказать, какой это тип зависимостей? и может ли он сам определять критерии перехода от одной зависимости к другой?
ОтветитьДостойное видео. Очень крутая визуализация и несложные объяснения
ОтветитьЕщё бы понять как все эти признаки складывать а то вообще непонятно
ОтветитьЗдорово! Спасибо, прикольно было бы еще текст к видео сделать, иногда в виде текста полезно глянуть после видео.
ОтветитьПродолжай, очень классно все обьяснил, хочется больше видеть именно эту рубрику!
Она очень полезна новичкам
Спасибо огромное, наконец-то осознал домашку ))) 3 дня мучился, разные ролики смотрел🎉
ОтветитьСпасибо тебе, добрый человек.
ОтветитьКажется, что для того чтобы понять о чем тут - необходимо повторить всю школьную алгебру (и скорее всего не только). Много неизвестных понятий . Требуется серьёзная подготовка ....
ОтветитьСпасибо автору за ролик! Я человек со стороны так сказать и сейчас только думаю начать изучать всё, что необходимо для этой профессии.
В связи с этим возникает вопрос, неужели всё вышеперечисленное действительно спрашивают на собеседовании на джуна? Какая в этом практическая составляющая?
Спасибо за ваш огромный вклад в человечество
ОтветитьКруто, можно теперь также про деревья?
ОтветитьПривет. Спасибо за видео.
Очень поверхностное изложение. Глубоко понять линрег из этого видео будет сложно, хотя ощущение понимания появится. Если цель была сделать покрывающий тему материал, то имхо удалось не до конца.
Замечания:
1. Не ответили почему на самом необходимо предобработка с точки зрения оптимизации.
2. Не показан статический смысл регуляризации.
3. На линейную регрессию можно посмотреть как на ортогональную проекцию, что тоже интересно
4. Не показан подход с точки зрения максимизации правдоподобия.
5. Регуляризация в рамках MAP. То есть могли бы противопоставить MAP/MLE.
ИМХО материал для новичков должен быть максимально разносторонним.
Если проводите собеседования на таком уровне, то крайне высок риск нанять слабых кандидатов.
Успехов в дальнейшем развитии канала и будущих выпусках.
Рад буду подискутировать.
Отличное видео! Всё самое важное в такую небольшую продолжительность. вау!
ОтветитьЛайк однозначно
ОтветитьМолодец автор, очень круто!
ОтветитьНе ну лайк, подписка, контент полезный и редкий
ОтветитьРома а у вас команда Магнит где расположена в Москве или в Краснодаре?
ОтветитьВ поддержку канала!
ОтветитьОтдельное спасибо за раздел про регуляризацию, все ни как не мог понять самостоятельно что значат эти графики. Обязательно продолжайте!
ОтветитьЧтобы воспроизвести бОльшую глубину этого урока, нужно пересмотреть этот ролик ещё раз и прочитать этот комментарий.
Ответить