Un bit di informazione

di Umberto M. Meotto
Editor: Angelo Zinzi
Revisori Esperti: Giorgio Fanari
Revisori Naive: Gennaro Cutillo
Scarica questo Articolo in PDF

Dalle schede perforate alle moderne chiavette USB, la scienza ha sfruttato fenomeni fisici molto diversi tra loro, ma sempre con il medesimo scopo: registrare ed elaborare le informazioni. In questo articolo verranno descritti sia i supporti di memoria esterni degli elaboratori, quali schede, floppy disk, CD/DVD e memorie flash, che le unità interne come le valvole termoioniche, le memorie a transistori e a nuclei magnetici. Infine si darà una panoramica dei meccanismi fisici che verranno sfruttati per le memorie del futuro.

L’età dell’informazione

I reperti paleolitici dimostrano che l’età della pietra è durata almeno 2.5 milioni di anni. A questo lungo lasso di tempo è seguita l’età dei metalli (rame, bronzo e ferro), che ha coperto circa 5000 anni. Poi è venuta l’epoca in cui abbiamo sfruttato l’energia dell’acqua e del vento (altri 1000 anni) spazzata via, nell’arco di appena un secolo e mezzo, dalle macchine a vapore della Rivoluzione Industriale. Nei successivi 100 anni si sono affiancate due età ben distinguibili: quella dell’elettricità e quella dell’elettronica. Esse hanno dato origine a una terza era, l’attuale, chiamata anche età dell’informazione, perché, al giorno d’oggi, il bene più prezioso è costituito proprio dai dati, dalle informazioni: oggetti che possono essere processati in un’infinità di nuove idee e risultati [1].

Figura 1 – Timeline delle principali innovazioni tecnologiche nel campo dell'informazione.

Figura 1 – Timeline delle principali innovazioni tecnologiche nel campo dell’informazione.

 

Nel contesto del progresso tecnologico realizzatosi nel XX e XXI secolo, l’importanza che riveste l’evoluzione delle tecniche di elaborazione dei dati è di portata incalcolabile [2]. I sistemi sviluppati negli ultimi 120 anni hanno fornito innanzitutto una risposta all’esigenza di mezzi di controllo e analisi e, in secondo luogo, hanno dato la possibilità all’uomo di meglio utilizzare ed ampliare le proprie conoscenze.

 

La rappresentazione dei dati: i simboli

I simboli servono a riprodurre informazioni, tuttavia un simbolo in sé stesso non è quasi mai l’informazione. I caratteri che compongono questo articolo, ad esempio, sono dei simboli, ma presi singolarmente non dicono nulla riguardo all’argomento della discussione.

I diversi alfabeti in uso suggeriscono come il significato dei simboli sia puramente convenzionale. Un simbolo può suggerire un certo significato a certe persone, un altro ad altre e nulla a chi non ne conosce il significato. Nel caso del linguaggio umano,  la comprensione  di  un testo è  affidata  ad una serie di simboli che sono le lettere dell’alfabeto, i numeri ed i segni di interpunzione.

Figura 2 – Differenza tra simboli e informazione. Le singole lettere sono semplici simboli, una frase è informazione.

Figura 2 – Differenza tra simboli e informazione. Le singole lettere sono semplici simboli, una frase è informazione.

 

Analogamente si può immaginare che un dato, per essere letto ed interpretato da una macchina, debba essere riprodotto con dei simboli adeguati. Questi differiranno notevolmente da quelli usati dall’uomo, fondamentalmente perché il cervello del calcolatore ha caratteristiche costruttive e funzionali diverse dal cervello umano. Infatti, il linguaggio delle macchine si basa sul sistema binario che è composto da soli due simboli: lo zero e l’uno, che equivalgono allo “spento” e “acceso” di un interruttore o di una lampadina [3].

Box1: Simboli e significati

Talvolta può accadere che la stessa serie di simboli, ad esempio una parola, acquisisca significati differenti a seconda della lingua in cui viene scritta. Così “camera” in italiano è sinonimo di “stanza” mentre in inglese significa “macchina fotografica”. Un altro esempio è il termine “vista”, che in italiano ha a che fare con la capacità di vedere, mentre in inglese è utilizzato per “panorama”. Anche una sequenza di 0 ed 1 può acquisire significati differenti a seconda del contesto interpretativo, che è totalmente arbitrario e sconosciuto al calcolatore. Ad esempio, 01001110 può equivalere a “78” (se interpretato come numero binario) oppure alla lettera “N” (se codificato ASCII).

 

Il primo matrimonio tra elettricità e matematica

Nel 1887 non erano ancora terminati i calcoli del censimento americano del 1880, affidati manualmente a centinaia di impiegati. In previsione del censimento del 1890, Herman H. Hollerith, un esperto di statistica, inventò un sistema che rappresentava, per mezzo di fori su un cartoncino, tutti i dati di ogni singola persona censita. Sfruttando questa idea, il governo degli Stati Uniti ottenne i risultati del nuovo censimento in appena due anni e mezzo, sebbene la popolazione fosse cresciuta nel frattempo da 50 a 63 milioni.

Figura 3 – Funzionamento della macchina di Hollerith (descrizione nel testo).

Figura 3 – Funzionamento della macchina di Hollerith (descrizione nel testo).

 

Per leggere le informazioni registrate, le schede venivano inserite, una alla volta, in un’apposita macchina dotata di aghi percorsi da corrente elettrica. Abbassando una leva, gli aghi scendevano verso un bagno di mercurio e soltanto quelli in corrispondenza dei fori chiudevano il circuito, facendo scattare il relativo contatore di un’unità. La macchina contava e classificava i dati molto più velocemente degli impiegati, e lo faceva utilizzando un alfabeto binario: assenza o presenza del foro. I calcoli compiuti in questo modo, cioè per mezzo di somme e sottrazioni di numeri interi discreti, si dicono “digitali”, dalla parola inglese digit, cifra.

Nel campo della computazione, la maggior parte dei progressi ottenuti tra il 1920 ed il 1930 si ebbe proprio con le schede perforate, e principalmente per merito della società di Hollerith, la IBM, che le rese un componente standard per l’inserimento dei dati negli elaboratori. Successivamente fu introdotto anche il nastro perforato, che (a differenza delle schede) era un mezzo di registrazione continuo e poteva quindi memorizzare dati di qualsiasi lunghezza. Nuovi approcci, tecnologie e teorie cominciarono ad emergere solo nel 1937, quando l’informatica iniziò ad adottare le proprietà che la distinguono ancora oggi. Oltre ad essere digitali e binarie le macchine vennero concepite per essere multiuso, ossia programmabili, ed iniziarono a funzionare in modo elettronico, in principio per mezzo delle valvole termoioniche.

 

I dati nell’elaboratore elettronico

Ai fini dell’elaborazione non basta che i dati siano rappresentabili sui supporti esterni (schede e nastri). Affinché la macchina possa manipolarli, essi vanno trasformati in segnali elettronici. Occorre, dunque, trovare un modo per rappresentarli opportunamente anche all’interno dell’elaboratore. Quando l’ENIAC, il primo calcolatore elettronico della storia, entrò in funzione nel 1946, impiegava 18.000 valvole termoioniche (dette anche tubi elettronici) e occupava una superficie di 180 mq. Venne usato per svolgere, oltre a calcoli balistici, vari lavori scientifici, dallo studio dei raggi cosmici alle ricerche sull’energia atomica. Tutte le parti meccaniche mobili, come i contatori a ruote, vennero eliminate e sostituite dalle valvole [4].

Figura 4 – Come vengono immagazzinati i bit 0 e 1: schede perforate e valvole termoioniche.

Figura 4 – Come vengono immagazzinati i bit 0 e 1: schede perforate e valvole termoioniche.

 

Le cifre venivano indicate mediante lo stato di “accensione” o di “spegnimento” del tubo, e poiché gli impulsi elettronici si muovono molto più velocemente rispetto ad un dispositivo a ingranaggi, l’ENIAC lavorava a velocità migliaia di volte superiore rispetto ai calcolatori elettromeccanici più perfezionati [5]. Si trattava comunque di macchine costosissime e fragili che consumavano molta energia: soltanto grandi aziende, facoltose università e forze armate potevano permettersene una.

 

I circuiti integrati sbarcano sulla Luna

La vera rivoluzione elettronica avviene però alla fine del 1947 nei Laboratori Bell, quando William Shockley, John Bardeen e Walter Brattain fanno funzionare per la prima volta un transistor, scoperta che frutterà loro il premio Nobel per la Fisica nel 1956. Da quel momento si apre la strada ai circuiti integrati: il transistor infatti è per l’era digitale quello che era stato il motore a vapore per la Rivoluzione Industriale. Grazie ai circuiti integrati, la potenza d’elaborazione di migliaia e migliaia di ENIAC può essere finalmente concentrata in un computer da scrivania o in un missile. Basti pensare che nel momento in cui Armstrong mise piede sulla Luna, la NASA aveva comprato, per il programma spaziale, più di un milione di microchip.

Box2: i transistor

Tutti i microchip, siano essi microprocessori, chip di memoria o circuiti integrati dedicati, sono fondamentalmente insiemi di innumerevoli transistor disposti seguendo configurazioni diverse a seconda delle attività che sono progettati per svolgere. Il transistor può essere considerato il mattone alla base  della tecnologia elettronica. Accanto alla capacità di amplificazione, esso possiede anche la facoltà di funzionare come un interruttore, traducendo i segnali elettrici nei valori digitali 0 e 1. Più transistor, collegati opportunamente tra di loro, prendono il nome di “porte logiche”. Queste sono i veri “circuiti” alla base di qualsiasi operazione del calcolo digitale. Grazie alla miniaturizzazione dell’elettronica, oggigiorno, miliardi di transistor possono essere realizzati su chip di silicio grandi quanto un’unghia.

 

Dal punto di vista dei dispositivi di memorizzazione, nel corso degli anni ‘60 ne erano disponibili di tre tipi: a nuclei, a tamburo e a dischi magnetici. Qualsiasi sistema era dotato di almeno uno di questi tre tipi di unità di memorizzazione, che differivano tra loro per costo ed efficienza.

L’organizzazione della memoria può essere paragonata ad un grande numero di caselle postali numerate. Ogni casella può essere individuata e localizzata per mezzo di un numero e contiene una determinata unità di informazione. È necessario, quindi, conoscere l’indirizzo della posizione per potervi inviare o prelevare le informazioni e l’elaboratore impiega qualche tempo per completare queste operazioni. Tale durata è definita “tempo di accesso” ed è misurata in milionesimi di secondo. Poiché le memorie sono coinvolte in tutte le operazioni di elaborazione, il tempo di accesso influisce direttamente sull’efficienza e sul costo dell’intero sistema [6]. La memoria a nuclei magnetici, ad esempio, era molto costosa in termini di posizione ma d’altra parte offriva il minor tempo di accesso possibile, risultando, quindi, più economica in termini di costo per calcolo. I bit 1 e 0 venivano memorizzati cambiando la magnetizzazione di piccoli anelli di ferrite inseriti in una maglia finissima.

Figura 5 – Come vengono immagazzinati i bit 0 e 1: nuclei di ferrite.

Figura 5 – Come vengono immagazzinati i bit 0 e 1: nuclei di ferrite.

 

Nel libro “Edgelands” [7] di Michael Symmons Roberts e Paul Farley ne troviamo questa bellissima descrizione:

“Molti dei primi computer funzionavano grazie a quella che era conosciuta come memoria a nucleo magnetico. Praticamente si trattava di un foglio strettamente intrecciato, tipo le recinzioni da pollaio, con tantissimi fili che passavano in piccoli anelli. Questi vecchi fogli di memoria sono oggetti dotati di una loro propria bellezza, degni di essere appesi in una galleria d’arte, la cui tessitura era il risultato di un lavoro qualificato. Poiché alla fine degli anni Cinquanta e nei primi Sessanta tali supporti erano diventati la forma più diffusa di RAM (memoria ad accesso casuale, nda), molte sarte scandinave e lavoratori tessili del Lancashire disoccupati vennero impiegati per tessere a mano queste memorie”.

 

Le memorie attuali

Negli anni Settanta anche le memorie a nuclei magnetici vennero sostituite. Da quel momento si sono imposti sul mercato supporti che sfruttano essenzialmente tre meccanismi fisici: proprietà magnetiche (floppy, cassette, dischi), proprietà ottiche (CD, DVD) e fisica dei semiconduttori (EEPROM, flash, RAM).

Figura 6 – Come vengono immagazzinati i bit 0 e 1: dischi magnetici, ottici e memorie FLASH.

Figura 6 – Come vengono immagazzinati i bit 0 e 1: dischi magnetici, ottici e memorie FLASH.

 

Nel caso delle memorie “magnetiche”, come i floppy o gli Hard Disk meccanici, l’informazione è sempre registrata sotto forma di bit 0 e 1, ma anziché essere dei buchi i digit corrispondono a piccolissime zone magnetizzate di superficie. Lettura e scrittura sono affidate a una testina percorsa da corrente che è, quindi, in grado di sondare o modificare la magnetizzazione dei bit. Dischi come i CD ed i DVD funzionano diversamente, in quanto sfruttano le proprietà ottiche della materia. In particolare i bit 0 e 1 corrispondono a minuscole aree della superficie in grado di riflettere, o meno, la luce di un laser. Tale proprietà può essere ottenuta in diversi modi: ad esempio mediante la creazione di microscopici buchini, detti “pozzi”, che assorbono la luce, oppure sfruttando materiali capaci di essere opachi o trasparenti. L’ultima categoria di memorie è decisamente eterogenea ma accomunata dal fatto di funzionare grazie alla fisica dei semiconduttori. Vi facciamo rientrare, per comodità di esposizione, sia le chiavette USB che le RAM dei computer perché, sebbene operino in modi diversissimi tra loro, all’atto pratico distinguono i bit 1 e 0 in base alla presenza o all’assenza di una carica elettrica all’interno del circuito integrato. Le memorie a semiconduttore si dicono anche a “stato solido” proprio perché tale carica è confinata all’interno della materia. La RAM è, inoltre, una memoria “volatile”: significa che se al computer viene interrotta l’alimentazione elettrica, tutti i dati, 0 o 1 che siano, vengono persi.

 

Le memorie del futuro

I computer di oggi utilizzano sia memorie volatili che non volatili. Il motivo di ciò, come in passato, deriva dalla necessità di bilanciare costi e prestazioni. La porzione di memoria più vicina al processore deve essere interrogata frequentemente e, da circa 30 anni, i vari tipi di RAM sono stati i cavalli da traino di questo tipo di applicazione, mentre i dischi magnetici hanno dettato legge nel campo dell’immagazzinamento non volatile. Più recentemente si sono affacciate le flash, spinte dalla necessità di aumentare la capacità di conservare dati nei telefoni e nei tablet.

La sfida del XXI secolo è quella di portare quanti più dati possibili vicino agli elementi di elaborazione. Le frontiere oggi più avanzate consistono nell’analisi dati in tempo reale e nell’apprendimento automatico (ossia conferire alle macchine e ai programmi la capacità di imparare dall’esperienza). Queste applicazioni non possono permettersi perdite di prestazioni dovute al fatto che il processore “non sa” dove trovare i dati.

Secondo un articolo [8] di H.-S. Philip Wong e Sayeef Salahuddin, pubblicato su Nature Nanotechnology nel 2015, le nuove tecnologie di memoria potranno migliorare le capacità di calcolo dei computer. Se oggi si distinguono lo 0 e l’1 in base all’assenza o alla presenza della carica elettrica, le memorie del futuro sfrutteranno altri meccanismi fisici per immagazzinare le informazioni. Wong e Salahuddin ne citano in particolare quattro. I nomi non diranno molto ai non addetti ai lavori (STT-MRAM, PCM, RRAM, CBRAM) ma il concetto è il seguente: i bit si potranno scrivere trasformando un materiale da amorfo a cristallino (cambiamento di fase) o spostando degli ioni all’interno di un film sottilissimo in modo da creare dei ponti in grado di condurre la corrente elettrica.

Figura 7 – Un esempio di cambiamento di fase che conosciamo tutti: acqua liquida e ghiaccio.

Figura 7 – Un esempio di cambiamento di fase che conosciamo tutti: acqua liquida e ghiaccio.

 

Fondamentalmente, qualsiasi meccanismo fisico che possa garantire due stati stabili e distinguibili tra loro è un buon candidato, perché quello che serve è poter scrivere 0 o 1, ovvero un bit d’informazione.

Bibliografia

[1] Inventions that changed the world – Reader’s Digest 1997 ISBN 0 276 42259 7

[2] Introduzione ai sistemi IBM per l’elaborazione dei dati – IBM Italia 1967

[3] L’elaborazione elettronica – principi del calcolo automatico – Mondadori – 1979

[4] L’affascinante storia delle invenzioni – Le creazioni del genio umano attraverso i secoli – Reader’s Digest 1985 ISBN 88 7045 043 0

[5] Walter Isaacson – Gli Innovatori – Mondadori 2014

[6] Roberto Laschi – L’architettura dei sistemi per l’elaborazione delle informazioni (Pitagora Editrice Bologna) 1973

 [7] Edgelands – Michael Symmons Roberts, ‎Paul Farley – Vintage 2011 (pag.95)

[8] H.-S. Philip Wong and Sayeef Salahuddin – Memory leads the way to better computing – NATURE NANOTECHNOLOGY | VOL 10 | MARCH 2015

Info sui Revisori di questo articolo

Giorgio Fanari, laureato in fisica, lavora presso l’SSDC dell’ASI collaborando alla stesura dei programmi di elaborazione dati e nella progettazione, realizzazione e manutenzione degli archivi di dati.

Gennaro Cutillo collabora con il quotidiano giapponese The Yomiuri Shimbun (IT).

About the Author

Umberto M. Meotto
Da sempre interessato alla divulgazione scientifica, Umberto Maria Meotto lavora come Senior Process Integration Engineer nel dipartimento di Ricerca e Sviluppo della Micron Technology, multinazionale americana leader globale nel settore dei semiconduttori. Nato nel 1978 a Torino, si laurea nel 2003 in Scienza dei Materiali con una tesi sui diodi in Carburo di Silicio condotta principalmente presso i laboratori del Politecnico di Torino. Dopo pochi mesi viene assunto da STMicroelectronics dove si occupa di Memorie Flash NOR a 90 e 65nm. Dal 2008 al 2010 lavora per Numonyx, spin-off delle divisioni memorie di STM ed Intel, su tecnologie Flash NAND a 52nm. Ha al suo attivo alcune pubblicazioni e 4 brevetti negli Stati Uniti inerenti memorie ad intrappolamento di carica (CTF) e a cambiamento di fase (PCM), suo attuale campo di ricerca.

Be the first to comment on "Un bit di informazione"

Leave a comment

Your email address will not be published.