Buonasera a tutti, vi scrivo perchè in questi giorni come tantissimi altri ho ricevuto la mail di google che chiedeva di rendere accessibili le risorse bloccate da robots.txt in particolare nel mio caso .js e .css
Mi chiedevo se avessi fatto bene o se devo in qualche modo liberare l'intera cartella.. ( guardate robots.txt sotto )
Primo robot da modificare..
Ho fatto così..
Può essere migliorato? Forse è meglio così?
Attendo vostri consigli, Grazie!
Preferisco non differenziare gli user agent..
Mi chiedevo se avessi fatto bene o se devo in qualche modo liberare l'intera cartella.. ( guardate robots.txt sotto )
Primo robot da modificare..
Codice:
User-agent: *
Disallow: /css/
Disallow: /js/
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Sitemap: http://www.miosito.it/sitemap.xml
Ho fatto così..
Codice:
User-agent: *
Allow: /css/*.css$
Allow: /js/*.js$
Disallow: /css/
Disallow: /js/
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Sitemap: http://www.miosito.it/sitemap.xml
Attendo vostri consigli, Grazie!
Codice:
Allow: *.css$
Allow: *.js$
Disallow: /css/
Disallow: /js/