Storia del computer: riassunto

Di Redazione Studenti.

Storia del computer: riassunto sulla macchina analitica, i primi computer, computer elettronici e i circuiti integrati. Cosa sono, come funzionano

STORIA DEL COMPUTER

Storia del computer: un riassunto
Storia del computer: un riassunto — Fonte: getty-images

La prima macchina per addizioni si deve a Blaise Pascal, filosofo e scienziato. Costituita da una serie di ruote a dieci denti, ciascuno associato a una cifra compresa tra 0 e 9, ha le ruote collegate in modo che i numeri possano essere sommati facendo avanzare le ruote del giusto numero di denti.

Gottfried Wilhelm Leibniz perfeziona la macchina di Pascal verso il 1670: la sua macchina è capace di eseguire anche le moltiplicazioni.

Joseph-Marie Jacquard contribuisce inconsapevolmente alla nascita dell'elaboratore: progettando un telaio automatico usa sottili tavolette di legno perforate per controllare la tessitura di motivi complicati. Negli anni '80 dell'Ottocento, è Herman Hollerith a sviluppare l'idea di elaborare dati usando schede perforate simili alle tavolette di Jacquard. Con un sistema che fa passare schede perforate sopra opportuni contatti elettrici, riesce a compilare elaborazioni statistiche per il censimento degli Stati Uniti del 1890.

La macchina analitica

Sempre nel XIX secolo, il matematico e inventore britannico Charles Babbage progetta una serie di macchine, tra cui la macchina delle differenze e la macchina analitica, capaci di trattare problemi matematici complessi secondo un principio di funzionamento piuttosto vicino a quello dei moderni computer digitali.

Molti storici considerano Babbage e la sua collega, la matematica Augusta Ada Byron (1815-1852), sorella del poeta George Gordon Byron, inventori del moderno computer digitale. La macchina analitica ha infatti un flusso di dati in ingresso costituito da una pila di schede perforate, un "magazzino" per conservare i dati, una "fabbrica"per svolgere le operazioni aritmetiche, ma anche una stampante che produce una registrazione permanente.

La tecnologia del tempo non è in grado, tuttavia, di tradurre i progetti di Babbage in dispositivi d'uso pratico.

I primi computer

Ascolta su Spreaker.

La realizzazione di computer analogici inizia nei primi anni del XX secolo. I primi modelli eseguono calcoli per mezzo di aste e ingranaggi rotanti, e consentono di determinare approssimazioni numeriche di equazioni estremamente complesse. Durante le due guerre mondiali, calcolatori analogici meccanici, e successivamente elettrici, vengono usati per programmare la traiettoria dei siluri sui sommergibili ma anche come dispositivi di puntamento per l'artiglieria aerea.

I computer elettronici

Durante la Seconda guerra mondiale, un gruppo di scienziati e matematici che opera a Bletchley Park, a nord di Londra, crea il Colossus, macchina che contiene 1500 tubi a vuoto, considerata il primo computer digitale interamente elettronico. Nel mese di dicembre del 1943 Colossus è operativo e viene usato dal gruppo guidato dal matematico britannico Alan Turing per interpretare i messaggi radio cifrati dei tedeschi. Contemporaneamente, un prototipo di macchina elettronica viene realizzato negli Stati Uniti fin dal 1939, da John Atanasoff e Clifford Berry presso l'Iowa State College.

Le successive ricerche portano nel 1945 allo sviluppo del computer ENIAC (Electronic Numerical Integrator and Computer), che contiene 18.000 tubi a vuoto e vanta una velocità operativa di molte centinaia di moltiplicazioni al minuto. Tuttavia il suo programma è cablato negli stessi circuiti del processore, cosa che porta la programmazione ad essere effettuata mediante aggiustamenti manuali della circuiteria. Il modello successivo di elaboratore elettronico, realizzato in base agli studi del matematico ungaro-statunitense John Neumann, viene dotato di un "magazzino" a parte per i programmi.

Il fatto che le istruzioni vengano registrate in un'apposita memoria libera il computer dalle limitazioni di velocità dovute alla lettura del nastro perforato durante l'esecuzione dei programmi e permette di ottenere l'esecuzione di compiti diversi senza alcun intervento sui collegamenti.

L'uso dei transistor al silicio nei computer, alla fine degli anni Cinquanta, segna l'avvento di elementi logici più piccoli, veloci e versatili di quelli realizzabili con i tubi a vuoto. I transistor, più durevoli e meno costosi in termini di potenza, permettono la messa a punto di elaboratori più evoluti, compatti, veloci ed economici: i "computer di seconda generazione".

I circuiti integrati

I primi circuiti integrati (IC) compaiono verso la fine degli anni Sessanta. Consentono di realizzare numerosi transistor e relativi collegamenti su un unico substrato di silicio, e il loro impiego nei computer produce ulteriori riduzioni del prezzo e delle dimensioni delle macchine e un significativo incremento della loro funzionalità. Il microprocessore compare alla metà degli anni Settanta, quando vengono prodotti circuiti a grande scala di integrazione (Large Scale Integration, LSI) e poi a grandissima scala di integrazione (Very Large Scale integration, VLSI), contenenti milioni di transistor interconnessi, realizzati su un'unica piastrina di silicio.

Le macchine degli anni Settanta, in genere, possono riconoscere gruppi di otto stati; in altre parole, possono trattare otto cifre binarie (binary digits, o bit) a ogni ciclo. Un gruppo di otto bit costituisce un byte; un byte può assumere 28=256 possibili configurazioni di stati ON e OFF (1 o 0), ciascuna delle quali può rappresentare un'istruzione, una sua parte o un dato, come un numero, un carattere o un simbolo grafico.

Un computer che elabora le informazioni a gruppi contemporanei di 8 bit viene detto computer a 8 bit. Questa dicitura può far riferimento sia alla lunghezza di parola del microprocessore sia al numero di bit trasferiti in una singola operazione lungo il bus dei dati, via di collegamento lungo la quale le informazioni viaggiano da o verso il microprocessore.

Lo sviluppo di computer capaci di trattare in blocco combinazioni di 16, 32 o 64 bit aumenta la velocità di elaborazione. L'insieme di tutte le combinazioni di bit che un computer è in grado di riconoscere come comandi è detto set di istruzioni. Entrambe queste caratteristiche (bit trattati in un passo e dimensioni del set di istruzioni) sono in continuo miglioramento nei moderni elaboratori.