Войти
×
Меню :


Blog (2018)
other (456)
php (390)
js (302)
html (153)
css (147)
php book (146)
пк (124)
html tags (63)
js tag (56)
windows (48)
js method (44)
jquery (43)
php array (39)
Показать еще :
text (37)
ruweb.net (37)
js date (33)
form html (30)
online (29)
link (26)
fonts (24)
js events (22)
dosite (22)
php file (21)
lingvo (20)
foto (20)
atom (20)
input (19)
database (19)
svg (18)
forum (18)
hosting (17)
mysql (17)
php date (17)
php img (16)
фото (16)
img (15)
php time (15)
color (15)
android (15)
info (15)
board (14)
jsphp (14)
js time (14)
xiaomi (14)
notepad (14)
js url (14)
знак (13)
yandex (13)
htaccess (13)
select (13)
table (13)
osclass (13)
php path (12)
download (12)
$ server (12)
html book (11)
vs code (11)
icon (11)
keyboard (11)
css img (10)
dw block (10)
js delete (10)
mouse (10)
form (10)
ось (10)
paint (10)
ftp (9)
iframe (9)
cd (8)
cookie (8)
hover (8)
php url (7)
ok (7)
list (6)
comment (6)
hey tag (6)
click (6)
canvas (6)
js vars (6)
php get (6)
нок (6)
search (6)
xml (5)
heading (5)
year (5)
reg.ru (5)
mb (5)
web (5)
js file (5)
js math (5)
tag a (5)
value (5)
js id (5)
console (5)
bbcode (4)
2022 (4)
base64 (4)
week (4)
ssl (4)
day (4)
pages (4)
js form (4)
symbols (4)
news (4)
qr code (4)
folder (4)
ucoz (4)
task (4)
vk (4)
submit (4)
month (4)
scandir (4)
js img (4)
games (4)
js hash (4)
word (4)
adminka (4)
youtube (4)
numbers (4)
php var (4)
video (3)
file (3)
padding (3)
404 (3)
js book (3)
php day (3)
aimp (3)
line (3)
js post (3)
https (3)
units (3)
рся (3)
куб (3)
domen (3)
ozon (3)
captcha (3)
blob (2)
seo (2)
prompt (2)
kfc (2)
details (2)
arrows (2)
tag hr (2)
rutube (2)
typeof (2)
src (2)
sitemap (2)
height (2)
akaso (2)
google (2)
counter (2)
cursor (1)
php (1)
replace (1)
speed (1)
нод (1)
втб (1)
smile (1)
opera (1)
jino (1)
font (1)
archive (1)
#html (1)
chart (1)
webp (1)
date (1)
name (1)
scroll (1)
header (1)

Как закрыть страницу от индексации в robots.txt

"закрыть страницу от индексации в robots.txt" - ка можно закрывать от индексации страницу в robots.txt

Подробно о закрытии страницы в robots.txt

  1. Запрещаем индексацию страницы в robots.txt
  2. Как проверить - запрещена ли страница к индексации в robots.txt
  3. Как запретить страницы к индексации в robots.txt
  4. Как запретить к индексации в robots.txt страницы с get запросом(с вопросом).
  1. Ищем/разбираем инструменты для закрытия страницы от индексации в robots.txt

    Как вы наверное знаете... в "robots.txt" можно запретить индексацию страниц с помощью директивы :

    Disallow

    Как запретить индексацию одной страницы в robots.txt?

    Для того, чтобы запретить индексацию одной страницы, вам потребуется.

    Давайте разберем конкретный пример - запрета индексации определенной/одной страницы на сайте!:

    Какую страницу будем запрещать к индексации?

    Нам нужна конкретная - одна страница, чтобы можно было запретить индексацию этой страницы в robots.txt. Это будет живая, реальная страница у меня на сайте:

    https://dwweb.ru/search_yandex.html

    Я предполагаю... что Вы знаете где находится robots.txt

    Открываем его(robots.txt) в любом редакторе кода, даже обычный блокнот подойдет.

    И записываем наш адрес страницы без домена вот таким образом:

    Disallow: /search_yandex.html

    Данный пример вы можете проверить(что он живой...) здесь

  2. Как проверить - запрещена ли страница к индексации в robots.txt

    Далее... переходим к самому интересному... Вы запретили индексировать определенную страницу...

    Но как проверить, что данная страница запрещена к индексации или нет?

    Просто так.. вы этого не узнаете... для этого потребуется какой-то сайт онлайн, который умел бы определить - запрещена ли данная страница к индексации?

    Рассмотрим в качестве такого сервиса - Яндекс вебмастер

    Заходим в Яндекс вебмастер, если у вас несколько сайтов, то в выпадающем окне выбираем сайт.

    Идем до ссылки "инструменты" - нажимаем.

    В выпавшем окне видим "Анализ robots.txt"

    Как проверить - запрещена ли страница к индексации в robots.txt

    В окне "Анализ robots.txt" - опускаемся до самого низа до формы "Разрешены ли URL?".

    1). Вставляем в поле тот адрес, который хотим определить запрещена ли индексация данной страницы:
    2). Нажимаем "проверить" индексацию.
    Нажмите, чтобы открыть в новом окне.
    Как проверить - запрещена ли страница к индексации в robots.txt

    И далее мы видим... что наша ссылка имеет красный цвет..., что собственно и означает, что моя приведенная ссылка на страницу не индексируется, как и сама страница!

    Нажмите, чтобы открыть в новом окне.
    Как проверить - запрещена ли страница к индексации в robots.txt
  3. Как запретить страницы для индексации в robots.txt

    Надеюсь... с запретом одной страницы для индексации в robots.txt - вы разобрались...

    Перейдем к запрету индексации множества страниц.

    Для того, чтобы запретить несколько страниц к индексации нам понадобится:

    Какой-то из свойств адреса "страниц" - который будет повторяться во многих страницах.

    Это может быть папка, которая стоит между доменом и именем страницы:

    Нам опять потребуется живая страница - она будет подопытным:

    https://dwweb.ru/__a-data/__all_for_scripts/__examples/otzyv/example.html

    Я хочу запретить все страницы, которые находятся в папке "__a-data"

    Прописываем "Disallow" - вот таким образом:

    Disallow: /__a-data

    Проверяем "Disallow" в robots.txt- аналогично:

    Идеи до поля... Разрешены ли URL?

    Вставляем наш адрес и нажимаем проверить:

    Скриншот красноречивее слов - как видим... нам демонстрируется та строка в "robots.txt" под которое правило подпадает данная страница - все страницы, которые имеет в своем составе папку

    /__a-data
    Нажмите, чтобы открыть в новом окне.
    Проверяем ‘Disallow‘ в robots.txt- аналогично:
  4. Как запретить к индексации в robots.txt страницы с get запросом(с вопросом).

    Предположим, что у вас стоит задача запретить все страницы с get запросом в ссылке.

    И нам опять нужен живой пример, разберем вот на эттом адресе:

    https://dwweb.ru/?tema=js

    Для этого нам опять потребуется директива "Disallow". После слеша ставим вопросительный знак... и этого достаточно!

    Disallow: /?

    Проверяем запрет индексации страниц с get запросом:

    Нажмите, чтобы открыть в новом окне.
    Как запретить к индексации в robots.txt страницы с get запросом(с вопросом).

    Как видим.... наше правило "запрета индексации" в файле robots.txt сработало!

Ничего не подошло:
Евли вы не нашли ваш вариант в данном описании, то рекомендую документацию Яндекса о robots.txt
Не стесняемся говорить спасибо!
Всего комментариев : 0 Comments+ 2.0
+ =
Помочь проекту DwWeb.ru

1). Поделиться ссылкой! C друзьями или врагами!

Этим вы очень поможете проекту! Заранее огромное спасибо!

2). Помочь материально.

Теги:
robots txt закрыть страницу robots txt запретить страницу закрыть страницу от индексации в robots txt как запретить индексирование в robots txt robots txt пример как запретить индексацию страницы в robots txt prohibiting page indexing in robots.txt как в роботс txt заблокировать страницы с вопросительным знаком

Последнние комментарии:

14.12.2025 :
комменты вернулись!
Марат 30.01.2026 22:28
Сергей! ...пожалуйста! Приходите ещё! второй уровень комментов пока... подробнее...
Сергей 28.01.2026 23:40
СПА-СИ-БО!!!... подробнее...
Марат 28.01.2026 13:12
Тут почти половину вручную заполнил... и тут... на странице 1000... подробнее...
Марат 25.01.2026 18:38
Второй раз произошел сбой в счетчике посещений. Поскольку счетчик... подробнее...
Марат 18.01.2026 12:19
Вы не поверите... но РСЯ вновь заработал на сайте... Полгода я гадал... подробнее...
ruweb
См. интсрукция по ruweb. dwweb.ru есть здесь:
Все соцсети в одном месте!
defense_js Разное :Игра "пятнашки"
Угадай страну по флагу

Кальклятор
Математика онлайн

Списки шифрования
Часы

Числа словами
Названия чисел(max=10305)
Графики

Qr код онлайн

Как сделать сайт?
Md5 онлайн
Sitemap.html
Все статьи авторские, при копироавании активная ссылка обязательна DwWeb.ru! © 2015 - 2026 Контакты. Реклама на сайте Лучший хостинг : RUWEB + помощь по RUWEB Сайт работает круглосуточно 24/7.
Страница загружена за : 0.041883 секунд.