Precedente :: Successivo |
Autore |
Messaggio |
wildchloee Eroe in grazia degli dei


Registrato: 22/09/07 12:56 Messaggi: 190 Residenza: Davanti al mio bambino(notebook)
|
Inviato: 21 Set 2009 16:25 Oggetto: * proteggere download di file con password |
|
|
cari olimpi, ciao!
ho questa domanda: vorrei mettere il mio curriculum online sul mio sito, ma dal momento che contiene dati sensibili vorrei proteggerne il download con una password.
tutto questo perchè mi è successo che, inviandolo come allegato in email, la mai fosse scambiata per SPAM e messa nella relativa cartella - a marcire: sono pochi quelli che vanno a guardarci ogni tanto...
c'è modo? magari esiste uno script php o un tag html...
grasssie! |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 21 Set 2009 16:48 Oggetto: |
|
|
la soluzione più semplice del mondo? crea una sottocartella che si chiami come la password che vuoi tu e dentro ci metti il tuo documento.
Quindi invierai il link www.nomedelsitoweb.it/password/CV.doc per dire. Chi apre www.nomedelsitoweb.it non vede di sicuro la cartella  |
|
Top |
|
 |
wildchloee Eroe in grazia degli dei


Registrato: 22/09/07 12:56 Messaggi: 190 Residenza: Davanti al mio bambino(notebook)
|
Inviato: 21 Set 2009 16:52 Oggetto: |
|
|
in effetti la soluzione alletta, non ci avevo pensato
questo impedisce a crawler, robot et similia di trovare il mio file? |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 22 Set 2009 09:30 Oggetto: |
|
|
wildchloee ha scritto: | questo impedisce a crawler, robot et similia di trovare il mio file? |
sì, i crawler seguono i link e basta, non ne inventano (e i robot sono la stessa cosa)
L'unica possibilità è che qualcuno possa pubblicare un link (equivale comunque a pubblicare la password...) allora dovresti rinominare la cartella (equivarrà a cambiare la password...)
 |
|
Top |
|
 |
freemind Supervisor sezione Programmazione


Registrato: 04/04/07 21:28 Messaggi: 4643 Residenza: Internet
|
Inviato: 27 Set 2009 18:34 Oggetto: |
|
|
Si potrebbe anche usare un file htaccess che protegga la pagina richiesta. |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 28 Set 2009 10:44 Oggetto: |
|
|
freemind ha scritto: | Si potrebbe anche usare un file htaccess che protegga la pagina richiesta. |
se non è un IIS  |
|
Top |
|
 |
freemind Supervisor sezione Programmazione


Registrato: 04/04/07 21:28 Messaggi: 4643 Residenza: Internet
|
Inviato: 30 Set 2009 20:54 Oggetto: |
|
|
Hai ragione caro... lo do sempre per scontato! |
|
Top |
|
 |
wildchloee Eroe in grazia degli dei


Registrato: 22/09/07 12:56 Messaggi: 190 Residenza: Davanti al mio bambino(notebook)
|
Inviato: 03 Ott 2009 14:03 Oggetto: |
|
|
problema: ho trovato che Google indicizza il mio sito, ma io non vorrei!
è un sito personale dove ci sono curriculum e dati sensibili... come faccio? |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 05 Ott 2009 17:37 Oggetto: |
|
|
crea un file di nome robots.txt e poi scrivici dentro
Codice: | User-agent: *
Disallow: / |
e mettilo sul sito web. I motori di ricerca rimuoveranno al più presto le tue pagine dall'indice. |
|
Top |
|
 |
freemind Supervisor sezione Programmazione


Registrato: 04/04/07 21:28 Messaggi: 4643 Residenza: Internet
|
Inviato: 05 Ott 2009 21:14 Oggetto: |
|
|
Cavoli,
mi sto lasciando indietro le discussioni!!!
Comunque volendo, se vuoi togliere l'indicizzazione solo di alcune pagine potresti usare il meta robots settato così:
Codice: |
<META NAME="robots" CONTENT="NOINDEX,NOFOLLOW">
|
nelle pagine che NON vuoi indicizzare.
La configurazione precedente indica ai motori di ricerca di NON indicizzare la pagina e di NON seguire i link in essa contenuti. |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 06 Ott 2009 09:00 Oggetto: |
|
|
solo i meta tag dovresti metterli su ogni pagina, funzionano solo con gli HTML e non sono supportati da tutti i crawler.
Invece, almeno in teoria, il robots.txt sì. Ed è solo un file e vale per tutto  |
|
Top |
|
 |
wildchloee Eroe in grazia degli dei


Registrato: 22/09/07 12:56 Messaggi: 190 Residenza: Davanti al mio bambino(notebook)
|
Inviato: 14 Ott 2009 18:28 Oggetto: |
|
|
ho inserito robots.txt, in effetti conoscevo questa soluzione ma non ci avevo per niente pensato.
però mi rimane il dubbio: uno script per far inserire una password prima del download non esiste proprio? magari inserendo qualche stringa in htaccess? |
|
Top |
|
 |
SverX Supervisor Macchinisti


Registrato: 25/03/02 12:16 Messaggi: 11802 Residenza: Tokelau
|
Inviato: 15 Ott 2009 11:13 Oggetto: |
|
|
wildchloee ha scritto: | però mi rimane il dubbio: uno script per far inserire una password prima del download non esiste proprio? magari inserendo qualche stringa in htaccess? |
htaccess non funziona sui server windows, innanzitutto. Poi per una cosa così dove la sicurezza necessaria è tutto sommato molto bassa, al massimo userei qualcosa di questo tipo, in pratica un form dove devi digitare la password per accedere al documento.
Mettiamo che il tuo file si chiami CV.pdf, lo metti dentro una cartella che chiami come vuoi che sia la tua password e poi crei una pagina HTML con dentro questo form
Codice: | <form name="keeper" action="javascript:location.href =
window.document.keeper.page.value + '/CV.pdf'">
<input type="text" name="page">
<input type="submit" value="Accedi"></form> |
semplice ma efficace  |
|
Top |
|
 |
|