Proteggere un file su host

anton

Nuovo Utente
16 Lug 2012
27
0
1
Salve ho un e-book che gli utenti possono scaricare come regalo dopo essersi iscritti alla newsletter.
Ieri consultando le statistiche del sito mi sono accorto che il numero dei download è superiore al numero di iscritti alla newsletter.

Ho provato ad inserire nella ricerca di Google il titolo dell' e-book e anche se lo rappresenta come "untitled.pdf" dà la possibilità di scaricarlo.

L' e-book è costato parecchio lavoro e vorrei proteggerlo garantendo però a chi si iscrive di poterlo scaricare.

L'iscrizione alla newsletter avviene tramite un form php che porta ad una pagina con i ringraziamenti nella quale si trova il link per scaricarlo, anche questa pagina è in php.

Potete suggerirmi qualche soluzione?

Grazie
 
Il file robot è inserito nella head della pagina ringraziamenti "no index - no follow", alla stessa pagina e quindi al download ci si arriva solo compilando il modulo, non è presente neanche nel search del sito.

Nella situazione che ho riportato nella ricerca di Google non appare il titolo, ma un generico "untitled.pdf" ma con il link al file.
 
Perchè non proteggi il file criptandolo e con una password, così se uno non autorizzato lo scarica non se ne fa di nulla, mentre tu ai tuoi iscritti gli fornisci la password
 
ciao
ti conviene fare comunque il file robots.txt e caricarlo nella root del sito

Codice:
User-agent: *
Disallow: /titolo_dell_e_book.pdf
Disallow: /cartella_dell_ebook/
#e altre istruzioni che ti possono servire

e fare un file .htacces da mettere nella cartella dove hai l'e-book
non so esattamente come si debba fare un file .htacces
da quello che ho trovato in giro dovrebbe bastare, nel fil .htacces, solo la seguente istruzione
Codice:
Deny from all
dovrebbe impedire il download tramite link esterni

poi vediamo se qualche esperto più di me ti risponde
 
Ma si potrebbe andare ce ne sono tanti e tanti modi per proteggere un file
 
@ Max1 ci ho pensato ed è facile farlo con PDF creator che utilizzo da anni, l'inconveniente è che si trovano in giro servizi o software gratuiti per decriptarli, comunque è un'ipotesi.

@ borgo italia mentre aspettavo qualche dritta ho inserito il robots.txt mettendo il disallov sul file per tutti i crawler, la cosa più sicura sembrerebbe il file .htaccess ma non saprei da dove cominciare, o considerando che le pagine sono in php che ci sia una riga di codice php che riconosca lo scaricamento del file solo da quella pagina.

Aspetto qualche altro buon Samaritano
intanto vi ringrazio
 
C'è il modo di criptarli con una codifica che se anche trovano la pass non riescono a leggerli.

Poi considera che non tutti sono in grado di estrapolare la password, la maggioranza di quelli che lo scaricano abusivi quando si trovano davanti alla richiesta di una pass si arrenano

Mi sembra il modo più sicuro perchè puoi mettere .haccess o robots che vuoi che se uno vuole non ce pezza che tenza
 

Discussioni simili