Oggi parliamo di Ceph.
Non tutti lo conoscono, pochi sanno farlo funzionare a dovere, molti si avvicinano ma poi non sanno come metterlo in produzione.
Vi basterà aprire il portale https://ceph.io/ per trasformarvi in un moderno capitano Nemo (l’ultima versione di Ceph si chiama guarda caso Nautilus) ma se doveste decidere di intraprendere un avventuroso viaggio non costruirete uno straordinario sottomarino per solcare i sette mari, ma potrete creare un non meno straordinario cluster a partire da 3 nodi di calcolo o di storage o addirittura iperconvergente.
“Ceph è un archivio oggetti distribuito e un file system progettato per fornire prestazioni, affidabilità e scalabilità eccellenti.”
E ancora
“Nell'informatica, Ceph è una piattaforma di archiviazione software gratuita, implementa l'archiviazione di oggetti su un singolo cluster di computer distribuito e fornisce interfacce per l'archiviazione a livello di oggetto, blocco e file. Ceph mira principalmente al funzionamento completamente distribuito senza un singolo punto di errore, scalabile al livello exabyte e disponibile gratuitamente.
Ceph replica i dati e li rende resistenti ai guasti, utilizzando hardware di base e non richiede alcun supporto hardware specifico. Come risultato della sua progettazione, il sistema è sia autorigenerante che autogestito, con l'obiettivo di ridurre al minimo i tempi di amministrazione e altri costi.”
Fonte: https://en.wikipedia.org/wiki/Ceph_(software)
In questa sommaria descrizione si nota sicuramente la natura completamente open source di questo software, per altro sottolineata sulla home page del prodotto stesso, dove si legge a caratteri cubitali
GET INVOLVED cioè METTITI IN GIOCO, chiaro invito a chi se la sente ad addentrarsi tra i meandri del codice e migliorarlo in caso se ne abbiano le capacità, oppure a partecipare alla community.
Fonte: https://ceph.io/get-involved/
Per la verità è dal 2014 che nomi come Red Hat prima e Suse poi hanno deciso di appoggiare i loro progetti di storage enterprise su questo oggetto, sempre meno misterioso.
Se ne fa chiara menzione in questo stralcio di storia su wikipedia, dove si scopre che l’inventore di Ceph e fondatore della Inktank (l’azienda finanziatrice del progetto) è Sage Weil e che
“..nell'aprile 2014, Red Hat acquistò Inktank per 175 milioni di dollari, portando in casa la maggior parte dello sviluppo di Ceph. Successivamente nell'ottobre 2015, è stato istituito il Ceph-Community-Advisory-Board per guidare la community open dedita allo sviluppo della tecnologia dello storage software defined. Il comitato consultivo include membri della comunità Ceph appartenenti ad organizzazioni IT globali che si impegnano nel progetto, fanno la loro apparizione individui di Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk e SUSE.”
Enterprise OSS da 5 anni ha scoperto questo strumento ed ha voluto fin da subito implementarlo nei propri progetti, in datacenter oppure on premise e grazie ad un tuning sempre più fine è in grado di realizzare cluster Ceph perfettamente stabili e scalabili a partire da 3 nodi fisici.
Questi risultati sono frutto di studio preliminare, svariati test in laboratorio e applicazione sul campo. Ad oggi diversi clienti si avvalgono di queste soluzioni per la loro infrastruttura iperconvergente o di storage software defined.
Insomma questo Ceph sembra un duro anche se l’etimologia del nome sembra raccontare altro.
“Il nome "Ceph" è un'abbreviazione di "cefalopodi", una classe di molluschi che include il polpo. Il nome (enfatizzato dal logo) suggerisce il comportamento altamente parallelo di un polipo ed è stato scelto per associare il file system a "Sammy", la mascotte della lumaca di banana di UCSC.”
Alla prova dei fatti comunque non si parla di Ceph solo in Enterprise OSS, anche alla NASA hanno deciso di presentarlo e di servirsene per archiviare l’immane mole di dati giornaliera che proviene dai satelliti sopra le nostre teste
e al CERN lo si usa in ambiente di ricerca
nel video seguente infatti si può vedere come gli scienziati del CERN utilizzino Ceph in una crescente varietà di modi, dall'archiviazione a blocchi per OpenStack ai filesystem HPC all'archiviazione di oggetti S3.
Il funzionamento di questa infrastruttura da circa 20 petabyte richiede misurazioni continue e ottimizzazione delle prestazioni per garantirne il funzionamento ottimale.
Viene presentata la loro esperienza di ottimizzazione e ridimensionamento di RBD e CephFS,... E dal punto di vista operativo viene presentato il loro approccio alla messa in servizio e alla disattivazione dell'hardware, dimostrando alcune funzionalità avanzate come il bilanciamento Ceph.
In conclusione viene presentato cosa si prevede di implementare per gli storage al CERN, mostrando diversi scenari su come potrebbe svolgere un ruolo in questo progetto.
E a proposito di diffusione è ormai nota l’apertura del mondo dei container, docker e kubernetes su tutti a Ceph, che viene integrato tra gli storage necessari a far girare le micro applicazioni tipiche di questa tecnologia.
Per concludere non posso che invitarvi a visitare i nostri canali e valutare un approfondimento su questa tecnologia grazie ai nostri corsi di formazione, siamo sempre alla ricerca di partner e collaboratori.
Progetti Ceph - https://www.enterpriseoss.com/projects/
Assistenza Ceph - https://www.enterpriseoss.com/assistenza-proxmox/
Partnership EOSS - https://www.enterpriseoss.com/open-source-network/
Alla prossima settimana.
Enterprise OSS Staff