Сайт, върху който работя, премести поддомейн в друг поддомейн чрез пренасочване 301. Въпреки това, когато проверява robots.txt на стария поддомейн, той има robots.txt, който забранява на роботите на уеб търсачките да го обхождат.

Това ли е правилният ход? Вярвам, че не, защото роботите няма да могат да обхождат стария сайт, за да видят 301 кода на състоянието.

  • 3 Забраната беше ли вече на място преди преместването? Някои уебсайтове не желаят да бъдат в търсачките. Не е ясно по какъв начин се е развила ситуацията.

Вашите подозрения са правилни, с точните мотиви, които споменахте. Ако забраните на роботите достъп до стария сайт, те няма да могат да видят пренасочването 301.

  • Това би ли означавало също така, че сокът от връзки, който сочеше към стария домейн, няма да бъде прехвърлен към новия домейн, защото robots.txt не позволява на Gbot да обхожда?
  • 1 Да, точно това би се случило, ако robots.txt блокира достъпа до ботовете.

Вярвам, че не, защото роботите няма да могат да обхождат стария сайт, за да видят 301 кода на състоянието.

Да, точно - това не е „правилният ход“.Ако внедрите 301 пренасочване, вероятно за запазване на SEO, блокирането на пренасочените URL адреси ще попречи на търсачките да виждат пренасочването и да индексират новото съдържание.

  • Това би ли означавало също така, че сокът от връзки, който сочеше към стария домейн, няма да бъде прехвърлен към новия домейн, защото robots.txt не позволява на Gbot да обхожда?
  • @mat boy, "link juice" рядко се актуализира, ако някога. Не е вероятно някога да бъде актуализиран до новия домейн със или без файла robots.txt, но поддържането на 301 на място за неопределено време гарантира, че връзките ще се окажат на правилното място.
  • 1 @Octopus Изглежда, че описвате "PageRank", а не "link сок"? „линк сок“ е просто често срещан / жаргонен термин, описващ SEO ползата от свързването от една страница на друга.
  • 1 @matboy Да, така е, няма да се прехвърли "сок от връзки" към новия URL адрес. Тъй като ботът е блокиран да вижда пренасочването, ботът (търсачката) не знае, че страницата се е преместила на друго място. Старите URL адреси ще попаднат в SERP и в крайна сметка ще изчезнат, докато новите URL адреси ще трябва да изграждат SEO от нулата.

Бих запазил robots.txt такъв, какъвто е, но се уверете, че старите и новите страници имат подходящата версия на Canonical тагове. Това ще помогне на търсачката да разбере какво се е случило.

  • 2 Как роботите могат да четат каноничните тагове на уеб страницата, ако им казвате да не обхождат уеб страницата?

е работил за вас: Charles Robertson | Искате ли да се свържете с нас?