Strumenti di Webmaster: errori di scansione!

MarcoGrazia

Utente Attivo
15 Dic 2009
852
20
28
63
Udine
www.stilisticamente.com
Mesi fa ho rifatto il sito e ho seguito le regole per notificare la modifica ai siti di ricerca, ovvero ho messo nel file robots.txt le notifiche alle pagine che avrei eliminato e così in effetti sia Google che Bing dopo un po' mi hanno eliminato dalla ricerca per quelle pagine, anzi, ha iniziato a inserire le pagine nuove.
Visto che tutto andava bene pochi giorni fa ho tolto dal file robots.txt proprio quelle pagine non più esistenti dato che non erano più indicizzate.... e boom, eccole apparire di nuovo questa mattina come errori di scansione.
Che fare? Le ho rinotificate nel file robots.txt, poco male ma mi chiedo, è possibile eliminare dalla cache di Google in maniera DEFINITIVA le pagine che non esistono più? A quanto pare no se si considera il fatto che gli url incriminati li avevo anche notificati nella sezione "rimozione url".
 
Questa è una domanda che mi faccio da tempo anche io :crying: Ma a quanto pare non è possibile. Pare che passino circa 7 mesi dall'eliminazione delle pagine. Anche se, da quanto ho potuto testare io non è così. Infatti ho acquistato un dominio, ci costruisco il mio bel sito, e dopo un pò circa 1000 errori 404 .. MI sono accorto però che non erano errori provocati dal mio sito, ma addirittura dal sito che occupava prima questo dominio ( poi scaduto e riacquistato da me ). Fortunatamente in quel caso, ho risolto semplicemente con un redirect 301 di massa aiutandomi con le espressioni regolari.

Tu come hai fatto tramite robots.txt? Semplicemente con un disalow?
Mi posteresti la riga con cui elimini una pagina... Grazie.
 

Discussioni simili