Cos'è un petabyte? E chi se ne frega?

Qualche tempo fa ho scritto un articoletto sul fatto che Linux era diventato il primo sistema operativo in grado di gestire singoli file di dimensioni fino a 144 petabyte (un petabyte è un milione di gigabyte). Mal me ne incolse, perché da allora ho ricevuto una insolita valanga di messaggi della serie ''ecchissenefrega''.



[ZEUS News - www.zeusnews.it - 02-02-2002]

La critica al mio precedente articolo, insomma, era che file così smisurati non avevano alcuna applicazione pratica, per cui vantare un traguardo del genere era un po' come dichiarare di avere una Ferrari capace di andare a 340 l'ora ma vivere in un paese in cui il limite di velocità è 50 l'ora: totalmente irrilevante e inutile.

In effetti anch'io avevo pensato a quest'articolo come una curiosità, più che una dichiarazione di supremazia verso gli altri sistemi operativi, e dubitavo anch'io delle applicazioni pratiche di una potenzialità del genere, tant'è che avevo scritto "Certo oggi parlare di file da oltre cento milioni di miliardi di byte è un po' esagerato, per cui non sarebbe giusto bastonare Microsoft per questo traguardo mancato (magari per altri sì, ma questa è un'altra storia). Tuttavia in applicazioni aziendali (grandi database, video digitale di qualità cinematografica, e via dicendo) cifre di questo genere sono all'orizzonte."

Ma oggi leggo una conferma interessante: i petabyte si usano eccome. Infatti presso The Register scopro che Linux è fra i candidati per gestire il computer più grande del mondo, nell'ambito di un progetto governativo statunitense denominato Project Purple, che riunisce le risorse di calcolo dei tre principali laboratori di ricerca USA (Livermore, Sandia e Los Alamos) per eseguire simulazioni nucleari.

E' un computer piuttosto impressionante in quanto a specifiche: ad esempio, il tetto massimo di consumo energetico è sei megawatt per il computer vero e proprio e quattro megawatt per il raffreddamento, ed è richiesto un file system condiviso che scriva sulla rete di computer al ritmo di migliaia di gigabyte al secondo. Notevole.

Ed eccoci ai petabyte. Il progetto richiede la possibilità di gestire file da 50 petabyte, distribuiti su più dischi, e Linux può farlo. Insomma, saper gestire centinaia di petabyte non è più irrilevante e futuribile: è una necessità pratica, anche se limitata a un laboratorio di ricerca avanzata.

Casi come questo dimostrano che è necessario guardare avanti, molto avanti, nel progettare qualsiasi cosa che riguardi l'informatica, perché il futuro arriva prima che uno se l'aspetti. Se non guardiamo avanti, facciamo la fine di quel signore che disse "640 k di memoria dovrebbero bastare a chiunque" (William Henry Gates III, 1981).

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
 

Paolo Attivissimo

(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.