Добавляем и редактируем файл robots.txt

Добавляем и редактируем файл robots.txt

loftblog

7 лет назад

57,814 Просмотров

Ссылки и html тэги не поддерживаются


Комментарии:

Klaxwork
Klaxwork - 04.01.2021 09:31

Мда... Слушать такую скукоту даже не охота.
Такое впечатление, что диктора заставляют это записывать.
Сидит, такой, и зачитывает с таким видом, что "Как же вы все меня достали"...

Ответить
Natalya Azarenkova
Natalya Azarenkova - 02.09.2020 14:14

Может всё таки UTF-8 лучше подойдет вместо ANCI?

Ответить
Observer
Observer - 24.05.2020 17:55

Спасибо большое за такие знания!

Ответить
Friger2018 Frigeroff
Friger2018 Frigeroff - 13.01.2020 16:40

Куда это прописывать?

Ответить
*** AlektroNik
*** AlektroNik - 31.10.2019 11:25

Неожидал, до этого такие ролики хорошие были. Хотя возможно я в тех моментах не разбираюсь. Не исключаю вероятность, что в 2016 г. было по другому.
1. Clean-param воспринимает только яндекс

2. /s/$ - доллар это окончание строки. Вероятнее всего конкретный пример не заблокирует ничего, а не папку. По одной простой причине, что обычно ссылки заканчиваются без слеша на конце. Конкретно это может пригодится только для исключения дубля на папку \s без слеша., но и тогда лучше сразу исключить инднксацию любых ссылок заканчивающихся на \ слеш.

3. ни слова про некритичные ошибки составления параметра sitemap. Этот параметр во-первых не привязывается к useragent, он для всех как host. Во-вторых параметров sitemap может быть много, само собой с разными значениями, а не с одним и темже как на авито.

Но за труды спасибо! 👍

Ответить
Vlad Filatov
Vlad Filatov - 03.04.2019 13:01

Самый крутой хостинг для сайтов который я встречал за последние время, конечно же well-webnet! Переход на него - решил все мои проблемы со скоростью загрузки. Цены очень низкие, безлимитный трафик, поддомены и еще много другого. Отличный саппорт, который, неоднократно мне помогал в настройке хостинга, а потом и администрировании VPS сервера, причём абсолютно бесплатно, без какого либо подвоха. Из огромных преимуществ перед конкурентами это конечно регулярные акции. Например, сейчас удваивают срок оплаты. Пользуясь хостингом для сайта well-webnet/hosting/, был очень доволен, держал на хостинге примерно 7-8 сайтов, и всё это выдерживало около по 1900-3400 одновременных подключений, и грузилось практически мгновенно позже, в связи с необходимостью большего функционала, сменил шаред хостинг на VPS сервер, опять же у них. VPS серверами тоже очень доволен, огромные мощности. Сейчас держу на сервере 4 сайта: онлайн-кинотеатр, личный файл-сервер, интернет-магазин и небольшую соц. сеть (пока в разработке). Сайты успешно выдерживают по 70 000 - 90 000 одновременных подключений, и всё это учитывая то, что в это время запущено по 4-5 процессов конвертации видео (держу онлайн-кинотеатр, если помните). В общем, это самый лучший хостинг-провайдер который я когда-либо встречал: цены не гнёт, тех поддержка приветливая и отзывчивая, всё работает очень быстро и без сбоев.

Ответить
Ремонт электронной техники
Ремонт электронной техники - 17.02.2019 00:59

С левой стороны на вашем хостинге, у вас сайты в корневой директории, или только в папке паблик ???
Где лучше расположить, или значения не имеет ???
Спасибо за ответ.

Ответить
Создание игр на Android
Создание игр на Android - 29.10.2018 00:29

Отлично все разложил, спасибо

Ответить
World of games
World of games - 20.10.2018 19:16

А этот нормальный вариант? Гугл что совсем слабо индексирует.
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /component/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/

Ответить
Gaukhar Kussainova
Gaukhar Kussainova - 03.09.2018 08:00

Добрый день, большое спасибо за ваши уроки! все очень понятно и доступно. Единственное у меня вопрос, у меня на каждый медиа файл отдельная страница выходит, как можно это исправить? пользуюсь wordpress

Ответить
Лев Левенец
Лев Левенец - 14.08.2018 11:21

Хах, реклама авито и beget

Ответить
Hacking-NASSA-with-HTML
Hacking-NASSA-with-HTML - 11.08.2018 08:30

Здравствуйте ! Народ, скажите пожалуйста, а вот для лэндинг-странички, которая расположена НА ПОДДОМЕНЕ - то для неё - robots.txt и sitemap.xml имеют какие то особенности ? И если да - то какие? Потому что основной домен я использую чисто как носитель поддоменов, и надо чтобы роботы гугла и яндекса - "видели" только эти поддомены, которые мне нужны, а не все поддомены подряд.
И где физически эти файлы должны помещаться, - в корне основного домена? Или в корне каждого нужного мне поддомена?
Заранее благодарю!

Ответить
Бравый Швейк - Коп по войне
Бравый Швейк - Коп по войне - 14.07.2018 16:43

щас глянем - я супер чайник ))))

Ответить
Моя Кухня
Моя Кухня - 06.07.2018 23:40

Доброго времени. Можете подсказать? Сайту уже 2 месяца, гугл индексирует, а яндекс нет. Нет в поиске ни одной страницы. Карту сайта не делал сам, установил плагин. Вся карта выглядит так. Что нужно убрать или дописать? В чем ошибка?
# global
User-agent: *
User-agent: Yandex
Disallow: /xmlrpc.php

Ответить
master zvezdni
master zvezdni - 22.06.2018 17:40

не показанно наглядно для яндекса как прописать у меня гугл видит а яндекс нет ((
где скачать такой файлик робота и поместить у себя Индексирование всего сайта запрещено в файле robots.txt.

Ответить
S.kremen
S.kremen - 19.05.2018 13:01

Доброго времени суток. Подскажите, такое дело, Яндекс счел картинки, например: /images/пример/картинки.jpg недостаточно качественными, нужно ли их закрывать в роботсе? таких картинок много

Ответить
Ludmila Strelets
Ludmila Strelets - 19.04.2018 15:27

Какой ты молодец! Я - чайник, по твоему видео все делаю легко и просто. Очень понятно и приятно слушать, Спасибо за уроки ! От меня лайк и подписка на канал

Ответить
Виктор Антипов
Виктор Антипов - 03.03.2018 09:27

Добрый день. Подскажите, нужно ли запрещать индексацию страницы /NotFound.html (красиво оформленная страница ошибки?) и папку инклуд (со вставками php), заранее спасибо за ответ.

Ответить
Artem Rv
Artem Rv - 21.02.2018 13:08

Очень круто, достойно и понятно описано. Автор - красавчик и лайк. Как только понадобится продвижение по SEO - я не раздумывая обращусь именно к Вам.

Ответить
julia Olenina
julia Olenina - 06.02.2018 08:16

Очень доступно! Спасибо)

Ответить
Елена Мамедова
Елена Мамедова - 15.10.2017 23:54

А если не нужно ничего запрещать роботам есть ли смысл вообще делать этот файл?
(сайт без cms)

Ответить
Yarik mrzv
Yarik mrzv - 26.07.2017 23:07

Такой вопрос..
А если в Robots.txt прописать Disallow: /robots.txt ?

Ответить
Bauyrzhan D.R
Bauyrzhan D.R - 25.07.2017 09:15

малорик,тока громче говари

Ответить
Антон Гиговский
Антон Гиговский - 22.07.2017 17:21

как наоборот запретить /s/СС/ в данном случае (каталог/КРОВАТИ), но разрешить /s/ (каталог) ?

Ответить
Женя Култаев
Женя Култаев - 13.06.2017 11:32

Как подключать файл робот.тхт?

Ответить
Alex
Alex - 05.03.2017 21:23

рассказано все от и до

Ответить
Rustam Saidov
Rustam Saidov - 05.12.2016 02:38

Молодец ! Очень качественный контент !

Ответить
Viacheslav Gava
Viacheslav Gava - 26.08.2016 06:24

Очень классные уроки, но очень долго ждать!

Ответить
Bronyus Velmunskas
Bronyus Velmunskas - 22.08.2016 19:06

Тупой вопрос. Как стать сеошником? А точнее,с чего начать человеку, который хочет этим заняться?

Ответить
Елена Павлова
Елена Павлова - 22.08.2016 03:46

Спасибо. Жду продолжения.

Ответить
TronZakon
TronZakon - 16.08.2016 23:16

Очень хорошо и подробно объяснил, спасибо !

Ответить
Михаил Викторович
Михаил Викторович - 16.08.2016 22:19

Вот

Ответить