Quanto occuperebbero i datacenter Google su schede perforate?

Di - 23 September 2013 - in
Post image for Quanto occuperebbero i datacenter Google su schede perforate?

Randall Munroe è un ex-consulente NASA divenuto geniale e apprezzatissimo autore di strisce a fumetti con il suo xkcd, un webcomic sul romanticismo, sul sarcasmo, sulla matematica e sul linguaggio, secondo la definizione dello stesso autore. Amatissime dagli appassionati di scienze, soprattutto logiche e matematiche, le strisce contengono considerazioni geniali un po’ su tutto, specialmente nel testo che compare in sovrimpressione fermandosi col mouse sul disegno.

Tra i progetti da lui creati, c’è una sorta di blog che sta diventando apprezzato quasi quanto le strisce, dal titolo What if? (non traducibilissimo, ma suona circa come Cosa succederebbe se?). In questo sito, Munroe risponde a domande dei propri lettori, in genere piuttosto assurde e di carattere matematico o fisico, in maniera ineccepibilmente scientifica a partire da dati trovati online, seppure con le dovute, ma sempre ben fatte, approssimazioni, e senza rinunciare al suo meraviglioso umorismo e alle vignette. Gli articoli escono puntualmente ogni martedí.

L’ultimo what if  ha riguardato i datacenter di Google, ed è davvero interessante. La domanda, di James Zetlen, era:  Se tutti i dati contenuti nei datacenter di Google fossero memorizzati su schede perforate, quando dovrebbero essere grandi le sale macchine?

Le schede perforate sono un supporto di memorizzazione caduto in disuso tra gli anni 70 e gli anni 80, quando i computer sono cominciati ad essere di dimensioni molto piccole. Si trattava, nel formato divenuto standard, quello IBM, di dei rettangoli di cartoncino, con 80 colonne con 12 posizioni forabili su ogni colonna. Le colonne corrispondevano a singoli caratteri (numerici o alfanumerici, a seconda della codifica), e ad ogni carattere era associato un pattern di posizioni forate. Le schede venivano immesse nel computer impilate una sull’altra, nell’ordine in cui andavano lette. Potevano contenere dati o liste di istruzioni: a casa ho scatole di schede con programmi in FORTRAN scritti da mio padre anni fa per l’UNIVAC 1100/82: si inserivano le schede col compilatore, poi quelle col listato, e si caricava cosí il programma.

Considerando che al giorno d’oggi, pur con differenze a seconda delle codifiche, un carattere occupa uno spazio nell’ordine di grandezza di un byte, una scheda perforata conteneva 80 byte, ovvero qualcosa nell’ordine dei 100 byte.

Ora, il punto è capire quanti dati siano contenuti nei datacenter Google. L’approccio di Munroe, come suo solito, è molto interessante. Prima di tutto vede quanto Google spende per i datacenter. Considerato un articolo in cui Google dichiara di star spendendo allo scopo, ordinariamente, 1,6 miliardi di dollari in un trimestre, si può supporre che la spesa annuale sia intorno, o poco piú, ai 12 miliardi di dollari.

Considerando che i datacenter piú grandi in possesso di Google hanno un costo stimato tra il mezzo miliardo e il miliardo di dollari, si può supporre che il numero dei datacenter sia circa una ventina, cosa confermata dalla lista dei loro datacenter, che sono poco meno, e dal fatto che i datacenter minori siano molti.

Questo però non basta a sapere quanti server, e dunque circa quanta capacità, hanno tali datacenter. Per ottenere maggiore precisione, Munroe si chiede quanto sia il consumo di energia di Google. Secondo una dichiarazione del 2010, Google in quell’anno ha avuto un consumo medio di 258 megawatt. Considerando un concept di server del 2005, che pur essendo un concept dovrebbe dare un’idea approssimativa del consumo, un server consuma mediamente 215 watt.

Questo porta a dire che nel 2010 i server erano circa un milione.

Oggi però, nota Munroe, sono decisamente di piú: in un articolo sull’acquisto di energia pulita, Google dichiara di aver acquistato 300 megawatt per soli tre grandi datacenter, che è piú di quanto consumasse in totale nel 2010.

Mettendo assieme le stime sulla spesa e quelle sul consumo, Munroe suppone che i server nel frattempo siano arrivati ad un numero tra 1,8 e 2,4 milioni, che è una stima davvero poco precisa, ma è evidente che sia difficile fare di meglio.

Immaginando che ogni server abbia due dischi da due terabyte (è una stima per difetto, ma in genere ce ne sono meno di cinque) si arriva ad avere uno spazio di archiviazione totale nell’ordine dei 10 exabyte, ovvero dieci milioni di terabyte.

A questo vanno aggiunti tutti i dati che Google ha ancora archiviati su nastro magnetico (backup, dati di utilità non immediata…). Google, infatti acquista duecentomila nastri magnetici ogni anno, il che potrebbe significare qualche altro exabyte bello pieno.

Tornando alle nostre schede perforate, considerando che una scatola ne contiene 2000 (ovvero 160KB), e si arriva ai famosi 640KB byte (è attribuita a Bill Gates la frase “640KB dovrebbero bastare a chiunque”) con quattro scatole.

Insomma, considerate le dimensioni in millimetri di una scheda perforata IBM, 187 x 82,5 x 0,2, una decina di exabyte occupa l’intera area del New England (186459 chilometri quadrati, grossomodo due terzi dell’Italia) per un’altezza di quattro chilometri e mezzo, tre volte lo strato di ghiaccio che era da quelle parti durante l’era glaciale.

Insomma, un bel po’.

Via | What if?

 

Leave a Reply

Lorenzo Breda Articolo scritto da

Studente di Informatica a Roma, si occupa di programmazione web sopratutto lato server, e di accessibilità del web. Utilizza e ama Debian GNU/Linux, e si interessa di fisica, fumetto, trekking e fotografia (gli ultimi due possibilmente abbinati). Collabora con Googlab da aprile 2012.

Contatta l'autore

Previous post:

Next post: