Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Aggiornamento buggato, l'Università perde 77 TB di dati
Nuovo argomento   Rispondi    Indice del forum -> Sopravvivere alla new economy
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 04 Gen 2022 20:30    Oggetto: Aggiornamento buggato, l'Università perde 77 TB di dati Rispondi citando

Leggi l'articolo Aggiornamento buggato, l'Università perde 77 TB di dati
Le informazioni di alcuni gruppi di ricerca sono andate perse per sempre.


 

 

Segnala un refuso
Top
Homer S.
Dio Kwisatz Haderach


Registrato: 24/12/21 09:59
Messaggi: 3305
Residenza: Non dove vorrei stare, ma dove altro vorrei adesso lo so.

MessaggioInviato: 05 Gen 2022 09:26    Oggetto: Rispondi citando

Io posso riderci sopra perché ormai è storia antica, ma nel lontano 1999 ho dato un
Codice:
rm -f

sbagliato ed ho perso un mese di tesi Panic Panic Panic Damn! Damn! Damn!
Da allora delle copie di backup che faccio ho perso il conto...
Top
Profilo Invia messaggio privato
Cesco67
Dio maturo
Dio maturo


Registrato: 15/10/09 10:34
Messaggi: 1758
Residenza: EU

MessaggioInviato: 07 Gen 2022 14:59    Oggetto: Rispondi citando

Non sono un sistemista, ma credo che la politica dei backup di quell'università sia a dir poco pessima. Innanzitutto i backup devono essere offline, poi c'è la regola del 3-2-1 che dice "almeno 3 copie, fatte con almeno 2 tipologie di supporti differenti e almeno 1 copia off-site". Avessero seguito queste semplici regole credo che non avrebbero perso nemmeno un bit.
Top
Profilo Invia messaggio privato
Maary79
Moderatrice Sistemi Operativi e Software
Moderatrice Sistemi Operativi e Software


Registrato: 08/02/12 12:23
Messaggi: 12224

MessaggioInviato: 07 Gen 2022 16:37    Oggetto: Rispondi citando

Si parla di super computer, mi verrebbe da pensare che fossero con OS Linux. Con cui bisogna saper bene cosa si fa con certi comandi. Rolling Eyes
Top
Profilo Invia messaggio privato
Maary79
Moderatrice Sistemi Operativi e Software
Moderatrice Sistemi Operativi e Software


Registrato: 08/02/12 12:23
Messaggi: 12224

MessaggioInviato: 07 Gen 2022 16:42    Oggetto: Rispondi citando

Cesco67 ha scritto:
Non sono un sistemista, ma credo che la politica dei backup di quell'università sia a dir poco pessima. Innanzitutto i backup devono essere offline, poi c'è la regola del 3-2-1 che dice "almeno 3 copie, fatte con almeno 2 tipologie di supporti differenti e almeno 1 copia off-site". Avessero seguito queste semplici regole credo che non avrebbero perso nemmeno un bit.


A volte le soluzioni più ovvie e semplici sono le più efficaci. Io credo piuttosto che sistemisti troppo sicuri di sé abbiano cercato di automatizzare dei processi con degli script errati in pieno. Ce ne vuole per perdere tutto. Rolling Eyes

Ora non gli resta che vedere se riescono a recuperare qualcosa con qualche tool di recupero. Ma non saprei, 77tb sono veramente tanti.
Top
Profilo Invia messaggio privato
janez
Semidio
Semidio


Registrato: 07/12/11 15:24
Messaggi: 474

MessaggioInviato: 07 Gen 2022 18:26    Oggetto: Rispondi citando

Personalmente mi pare assurdo. Il problema non è quello che fa lo script, ma è come possa essere stato immesso in un ambiente di produzione un qualsisi software che non sia passato nell'ambiente di test prima, e di collaudo poi.
Le più basilari regole di gestione di sistemi informatici non definiscono come non sbagliare ma come rimediare agli errori che comunque ci sono e ci saranno sempre.
Ambienti separati di sviluppo, test, collaudo e esercizio sono la prima cosa da mettere in piedi in un ced.
Che non abbia fatto queste cose una università di ricerca mi fa pensare che non sia neanche il caso di prendere troppo sul serio i risultati delle loro ricerche, di qualsiasi tipo siano.
Top
Profilo Invia messaggio privato
Homer S.
Dio Kwisatz Haderach


Registrato: 24/12/21 09:59
Messaggi: 3305
Residenza: Non dove vorrei stare, ma dove altro vorrei adesso lo so.

MessaggioInviato: 08 Gen 2022 10:01    Oggetto: Rispondi citando

Io ho letto qui molti commenti dello stesso tenore, e non posso che concordare, ma sembra che nessuno consideri la realtà dei fatti: tutte le stupende backup policies ridondate, testate ed affidabili rimangono sempre e solo sulla carta. Non fosse così, non si spiegherebbero molti incidenti del passato recente, dai ramsonware che fanno disastri perché il bersaglio non ha modo di rimediare ai social networks paralizzati per una configurazione errata.

A me la regola del ben più che 3-2-1 funziona perché sono un singolo, privato e soprattutto paranoico in fatto di sicurezza dei dati. Magari fosse vero anche per un comprensorio che manipola volumi di bytes a 20-30 cifre (rammento che i 77 TB persi erano solo una frazione della massa complessiva).

Per questo io non mi appoggio ad un cloud, non ne ho uno mio e se potessi non affiderei le mie informazioni personali a soggetti che lo fanno (ma sanità, banche, assicurazioni... Non c'è una casella "non voglio i miei dati riservati sul tuo cloud" quando firmi in calce al consenso).
Top
Profilo Invia messaggio privato
Gladiator
Dio maturo
Dio maturo


Registrato: 05/12/10 20:32
Messaggi: 12755
Residenza: Purtroppo o per fortuna Italia

MessaggioInviato: 08 Gen 2022 11:48    Oggetto: Rispondi citando

janez ha scritto:
Personalmente mi pare assurdo. Il problema non è quello che fa lo script, ma è come possa essere stato immesso in un ambiente di produzione un qualsisi software che non sia passato nell'ambiente di test prima, e di collaudo poi.
Le più basilari regole di gestione di sistemi informatici non definiscono come non sbagliare ma come rimediare agli errori che comunque ci sono e ci saranno sempre.
Ambienti separati di sviluppo, test, collaudo e esercizio sono la prima cosa da mettere in piedi in un ced.
Che non abbia fatto queste cose una università di ricerca mi fa pensare che non sia neanche il caso di prendere troppo sul serio i risultati delle loro ricerche, di qualsiasi tipo siano.

Quoto!

E questo mi porta a pensare che non la raccontino nemmeno giusta sul cosa e come è successo perché l'esito del bug mi sembra decisamente sproporzionato rispetto allo scopo descritto che lo script avrebbe dovuto avere, fra cancellare dei file di log obsoleti e cancellare dati e backup in un colpo solo direi che ce ne passa...
Top
Profilo Invia messaggio privato
Maary79
Moderatrice Sistemi Operativi e Software
Moderatrice Sistemi Operativi e Software


Registrato: 08/02/12 12:23
Messaggi: 12224

MessaggioInviato: 09 Gen 2022 17:58    Oggetto: Rispondi

Che poi 77 GB di roba mica si cancellano in un lampo.
Penso però che non sapremo mai con precisione cosa ci sia stato dietro a tanta negligenza.. Rolling Eyes
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Sopravvivere alla new economy Tutti i fusi orari sono GMT + 1 ora
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi