Online video hd

Смотреть 2022 видео

Официальный сайт all-remont 24/7/365

Смотреть видео бесплатно

09.07.10 12:54 exelens

Есть вопрос!Apache и индексация

Есть Apache и есть домена
1. ***.ru - основной
2. *.spb.ru - зеркало
3. *.tmweb.ru - непонятно зачем но там тоже зеркало.

Внимание вопрос:
Как закрыть от индексации поисковыми системами 2 и 3?
Если 2 точно направлен из той же директории что и 1.


Теги:

muhas 09.07.10 13:20 # +2
странный вопрос, явно не по апачу и не по линуксу, ну да ладно.
1) не пускать по определенным адресам юзерагенты поисковиков
2) директива host в robots.txt для яши
3) линки на зеркалах на основной
4) поисковики сами выясняют что зеркало что нет, правда не всегда правильно - пунт 3 обычно помогает
5) заглушки с редиректом на основной на определенное время
6-*) блаблабла
*) PROFIT

как-то так =)
psychopomp 09.07.10 17:14 # +1
Да, лучше всего - 301 редирект на основной сайт.
Собственно, именно этого поисковики и хотят добиться от сайтовладельцев.
wiz 09.07.10 14:52 # +0
положить в 2 и 3 robots.txt в корень:
1
2
3
# go away
User-agent: *
Disallow: /
xT 09.07.10 15:10 # +1
у него 2 - это тот же корень что и 1
exelens 09.07.10 15:18 # +0
Именно так!
wiz 09.07.10 15:22 # +0
Положить в левом месте robots.txt, а конфиге для нужных virtualhost сделать на него альяс.
xT 09.07.10 15:49 # +0
нет, нужно делать как написано в посте muhas
только гуглобота еще там указать
wiz 09.07.10 15:54 # +0
зачем так сложно?
xT 09.07.10 16:00 # +0
наоборот всё просто. один robots.txt на всё про всё
wiz 09.07.10 16:18 # +0
и сотни обвязки... или я чего-то не так понял?
чем не подходить вариант с альясом в конфиге хоста?
xT 09.07.10 16:20 # +0
сотни чего?
вариант с альясом может не подойти, если до него нет доступа, например
wiz 09.07.10 16:23 # +0
а если есть?
wiz 09.07.10 16:24 # +0
непонятно почему "нужно" именно так, а не иначе.
psychopomp 09.07.10 17:15 # +1
Это закроет от индексации и сайт 1 заодно.

А автору хочется не этого. А хочется, чтобы сайт 1 не вылетал из индекса за дублирующийся контент на 2 и 3 - поэтому роботам запретить туда ходить.
wiz 09.07.10 19:01 # +0
тред не читай @ сразу отвечай
ArtemZ 09.07.10 17:42 # +0
зеркала - как отдельные виртуалхосты с одинаковым документрутом должны быть
для разных виртуалхостов зеркал прописывам правила для разных robots.txt. с nginx было бы проще
TiGR 10.07.10 23:31 # +0
1. Создаём blockrobots.txt, где запрещаем ботам ходить по сайту. Кладём в корень.
2. Создаём в корне же .htaccess вида

RewriteEngine on
RewriteCond {%HTTP_HOST} \.spb\.ru|\.tmweb\.ru
RewriteRule robots\.txt blockrobots.txt

Короче, отдавать блокирующий robots.txt только на нужных доменах.
TiGR 10.07.10 23:31 # +0
Имелось в виду %{HTTP_HOST}

Посты Комментарии
Последние посты
    Посты Комментарии
    Последние комментарии
      Посты Комментарии
      Изменения
        Посты Комментарии Изменения Черновики Избранное
        Черновики (все)
          Посты Комментарии Изменения Черновики Избранное
          Избранное (всё)
            Посты Комментарии Изменения Черновики Избранное
            Лучшие блоги (все 127)
            Топ пользователей Топ блогов
            Топ пользователей Топ блогов
            Элита (все 2363 из 192 городов)
            Топ пользователей Топ блогов

            Новенькие: Ch00k, erik, olja123, GreyG, ilgarm
            welinux.ru

            В хорошем качестве hd видео

            Онлайн видео бесплатно


            Смотреть русское с разговорами видео

            Online video HD

            Видео скачать на телефон

            Русские фильмы бесплатно

            Full HD video online

            Смотреть видео онлайн

            Смотреть HD видео бесплатно

            School смотреть онлайн