Semalt Expert: un ghid pentru prevenirea Google de la târârea sit-urilor vechi

Pe măsură ce site-ul dvs. web crește, veți încerca tot posibilul să găsiți modalități de a-i îmbunătăți vizibilitatea și credibilitatea pe internet. Uneori, efectele modului în care acționau site-urile noastre rămân în urmă și aici trebuie să fim atenți.
Accesați următoarele sfaturi de la Max Bell, Managerul de Succes al Clienților Semalt , pentru a împiedica Google să ghemeze site-uri vechi.

În urmă cu câteva săptămâni, unul dintre clienții mei mi-a spus că are un site web de comerț electronic. A trecut prin diferite modificări: de la structura URL la sitemap, totul a fost modificat pentru a face site-ul mai vizibil.
Clientul a observat unele modificări în Google Search Console și a găsit erorile de crawl acolo. Ceea ce a observat că există un număr mare de adrese URL vechi și noi care generau trafic fals. Unii dintre ei, însă, arătau erori Access Denied 403 și Not Found 404.
Clientul meu mi-a spus că cea mai mare problemă pe care o avea era o sitemap veche care exista în folderul rădăcină. Site-ul său a folosit o varietate de plugin-uri Google XML Sitemaps anterior, dar acum depindea de WordPress SEO de către Yoast pentru harta site-ului. Cu toate acestea, diverse plugin-uri vechi pentru sitemap au creat o mizerie pentru el. Au fost prezenți în folderul rădăcină numit sitemap.xml.gz. De când a început să folosească pluginurile Yoast pentru crearea de sit-uri pentru toate postările, categoriile de pagini și etichete, nu mai avea nevoie de aceste plugin-uri. Din păcate, persoana nu a trimis sitemap.xml.gz Google Search Console. El și-a prezentat doar site-ul lor Yoast și Google își trăgea și site-urile sale vechi.
Ce să mă târăsc?
Persoana nu a șters vechea sitemap din folderul rădăcină, astfel că aceasta a fost de asemenea indexată. M-am întors la el și i-am explicat că o sitemap este doar o sugestie a ceea ce ar trebui să fie accesat în rezultatele motorului de căutare . Probabil credeți că ștergerea sitemap-urilor vechi va împiedica Google să acceseze URL-ul defunct, dar acest lucru nu este adevărat. Experiența mea spune că Google încearcă să indexeze fiecare URL veche de mai multe ori pe zi, asigurându-vă că erorile 404 sunt reale și nu un accident.
Googlebot poate stoca memoria linkurilor vechi și noi pe care le va găsi pe harta site-ului site-ului dvs. Vizitează site-ul dvs. web la intervale regulate, asigurându-vă că fiecare pagină este indexată corect. Googlebot încearcă să evalueze dacă linkurile sunt valide sau invalide, astfel încât vizitatorii să nu întâmpine nicio problemă.
Este evident că webmasterii vor fi confuzați atunci când numărul erorilor de crawl crește. Toți aceștia vor să o reducă într-o mare măsură. Cum să informăm Google să nu ia în considerare toate sitem-urile vechi? Puteți face acest lucru ucigând toate hârtiile nedorite și ciudate site-uri. Anterior, singurul mod de a face posibil fișierele .htaccess. Mulțumim WordPress pentru că ne-ați oferit câteva plugin-uri.

Site-urile WordPress au acest fișier în dosarele lor root. Deci, trebuie doar să accesați FTP și să activați fișierele ascunse din cPanel. Accesați opțiunea Manager fișiere pentru a edita acest fișier conform cerințelor dvs. Nu trebuie să uitați că editarea acestuia în mod greșit poate deteriora site-ul dvs., așa că ar trebui să faceți întotdeauna backup pentru toate datele.
După ce ați adăugat fragmentul în fișier, toate URL-urile expirate vor dispărea din erorile de crawlere în cel mai scurt timp. Nu trebuie să uitați că Google dorește să vă mențineți site-ul în direct, scăzând șansele de 404 de erori.