4XX: Обработка на грешки от страна на клиента (404 срещу 410 и др.) | Урок 17/34 | Академия SEMrush

Използвам Autoptimize (AO) за оптимизиране на скоростта на страниците. Всичко е добре в този фронт, но забелязвам, че често получавам 404 страници в дневниците си, обикновено от Google и други ботове (предполагам), опитвайки се да вляза в стари AO JS файлове, които са изчистени / презаписани. Има няколко теми за това във форума за поддръжка на AO WordPress и подходът на консенсус изглежда е да се използва .htaccess за промяна на тези 404 отговора на 410, но никой всъщност не е обсъждал какво въздействие може да окаже това върху SEO.

Не съм запознат със SEO, но прочетох малко разликата между 404 и 410. Разбрах идеята и има смисъл, когато мисля за цяла страница. Но в този случай оригиналната страница, която се позовава на липсващите сега JS файлове, все още е жива и работи, с изключение на това, че сега извиква различен AO-генериран външен JS скрипт.

Така че, може би въпросът ми е твърде общ / неясен, но се чудя какви са последиците от гледна точка на търсачката? Идеята за изпращане на 410 отговора добро ли е решението на този проблем? Ако не, някаква идея за по-добър начин за справяне с нещата?

404 или дори 410 са пропуснати от много уебмастъри, грешките не винаги означават, че нещо е счупено.

Състоянията 404 и 410 на несъществуващи ресурси, към които няма страници, няма абсолютно никакво влияние върху SEO. Важно е да се отбележи, че Google или Bing не наказват активно сайтове за десетки, стотици или хиляди планирани 404.

  • И за разлика от страниците, Google не се опитва да класира JS файлове. Няма полза от пренасочването им за целите на сок от връзки.
  • Благодаря. Мисля, че виждам смисъла ви да не свързвате и да нямате наказание, но дали Google / Bing счита родителската страница някак счупена, тъй като скриптът, който извиква, вече не съществува? И ако да, дали не го интересува този въпрос по отношение на класирането?
  • Google / Bing Judge, оценявайте и класирайте страниците при обхождането им. Ако изтриете ресурс от страница, тогава Bing или Google ще узнаят за него само когато обхождат отново тази страница. Така че, отново абсолютно никакво наказание SEO мъдър.
  • Това има смисъл, но във форума беше казано, че причината 404-те да се показват в дневниците е, че Google обхожда асинхронно. С други думи, Google посещава страницата, отбелязва посочените ресурси, но не ги изследва в този момент, а се връща по-късно, за да го направи. Или поне така го разбирах. По този начин, когато ботът се върне, той прави това само за ресурсите, а не за цялата страница и не може да ги намери. Звучи ли ви точно? Ако е така, ботът просто ще преразгледа цялата страница и следователно няма проблем или ще мисли, че страницата е счупена?
  • Това е неправилно ... някои сайтове имат стотици хиляди страници, представете си, че е така ... просто надграждане на сайта с нови css и javascript би означавало, че тяхното класиране ще спадне през нощта и ще отнеме няколко месеца, за да Google прегледа всеки един страница, за да разберете, че вече не използва CSS / JS, които някога е използвал и следователно с ваше предположение ще им отнеме много месеци, за да върнат своите SEO, които някога са имали. Google може да свързва страници с блокирани ресурси, но това е съвсем различно от 404/410, защото Google не може да визуализира страниците без разрешение от robots.txt

е работил за вас: Charles Robertson | Искате ли да се свържете с нас?