Buonasera a tutti, vi scrivo perchè in questi giorni come tantissimi altri ho ricevuto la mail di google che chiedeva di rendere accessibili le risorse bloccate da robots.txt in particolare nel mio caso .js e .css
Mi chiedevo se avessi fatto bene o se devo in qualche modo liberare l'intera cartella.. ( guardate robots.txt sotto )
Primo robot da modificare..
	
	
	
		
Ho fatto così..
	
	
	
		
Può essere migliorato? Forse è meglio così?
Attendo vostri consigli, Grazie!
	
	
	
		
Preferisco non differenziare gli user agent..
				
			Mi chiedevo se avessi fatto bene o se devo in qualche modo liberare l'intera cartella.. ( guardate robots.txt sotto )
Primo robot da modificare..
		Codice:
	
	User-agent: *
Disallow: /css/
Disallow: /js/
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Sitemap: http://www.miosito.it/sitemap.xml
	Ho fatto così..
		Codice:
	
	User-agent: *
Allow: /css/*.css$
Allow: /js/*.js$
Disallow: /css/
Disallow: /js/
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Disallow: ..
Sitemap: http://www.miosito.it/sitemap.xml
	Attendo vostri consigli, Grazie!
		Codice:
	
	Allow: *.css$
Allow: *.js$
Disallow: /css/
Disallow: /js/