![]() | ![]() |
|
|
Storia del calcolatore
Probabilmente non si potrà mai sapere con esattezza quando l'uomo si rese conto di poter effettuare dei calcoli e, soprattutto, di essere in grado di farlo attraverso l'uso di uno strumento o di un utensile. Questa capacità di esplorare e sistematizzare l'universo dei numeri, primo passo per il dominio dei dati e delle informazioni, si perde indubbiamente nella notte dei tempi e ha sempre rappresentato per l'uomo una sfida affascinante e stimolante. Solo negli anni Cinquanta, si è affermata quella capacità intuitiva e scientifica in grado di portare alla nascita dello strumento più adatto e più aderente al concetto stesso di calcolo in tutti i suoi più vari aspetti: il computer.
"Computer" deriva dal verbo latino "computare", che significa "fare di conto". (A dargli questo nome fu Anatasoff Berry, un rumeno, considerato il "padre" del Computer). Potrà sembrare strano, ma i "personal computer", i famosi "Pc" che utilizziamo quotidianamente nel nostro lavoro o come passatempo, sono il risultato attuale, e allo stesso tempo parziale, di un processo che ha avuto inizio esattamente nel 1642, anno nel quale il filosofo francese Blaise Pascal costruì la prima calcolatrice meccanica con riporto automatico fino ad otto cifre. Anche prima l'ingegno di alcuni uomini di scienza era riuscito a costruire macchine per il calcolo, ma si trattava di esemplari unici, strumenti che dimostravano esclusivamente in linea teorica la capacità di effettuare calcoli senza l'ausilio della mente umana. Ma è appunto con Pascal e, pochi anni dopo, con il filosofo e matematico tedesco Gottfried Wilhelm von Leibniz, ideatore di una calcolatrice a ruote dentate in grado di eseguire operazioni più complesse, che prende avvio quel "sentiero" tecnologico e scientifico che porterà alla nascita e allo sviluppo di quella che noi chiamiamo usualmente "informatica", cioè la scienza che studia l'elaborazione dei dati e, più generalmente, il trattamento automatico delle informazioni.
Una scienza estremamente
giovane, visto che il termine 333b17d è stato formulato per la prima volta nel 1962
dall'ingegnere francese Philippe Dreyfus, contraendo le parole
"information" e "automatique". I primi passi, di quella che
possiamo definire la "storia del computer", possono essere datati al
1925, quando il professor Vannevar Bush ed altri docenti del Massachusetts
Institute of Technology (il celeberrimo MIT) progettarono il "Differential
Analyzer", il primo calcolatore meccanico di uso pratico. Fu indubbiamente
questa la prima macchina che poteva vantare, in modo assai improprio, il
termine di "computer" . Entrata in funzione due anni più tardi, il
"Differential Analyzer" fu in grado di risolvere automaticamente
equazioni differenziali contenenti fino a 18 variabili indipendenti. La
macchina era costituita da un insieme di valvole termoioniche e da parti
elettromeccaniche e venne prodotta in una decina di esemplari. Ovviamente il
fatto di considerare tale apparecchio un prototipo dei nostri "
computer" non deve trarre in inganno: si trattava di una grossa scatola in
legno, dalle dimensioni ancora contenute, che poteva essere programmato in
alcuni giorni. A quei tempi, invece, i programmatori impiegavano giorni, se non
addirittura settimane a programmare il "Differential Analyzer" e gli
altri strumenti elettromeccanici dell'epoca. Un'altra grossa novità, risalente
sempre agli anni Venti, fu quella della scheda perforata. Questo rettangolo di
carta dura, composto da
La potenza di questi calcolatori era data da due capacità: la velocità di lettura delle schede e il numero di schede che potevano essere "lette" in un minuto. Le apparecchiature più veloci potevano arrivare a 2.500 schede al minuto. Ma nessuna di queste macchine, fino ad allora, aveva utilizzato quel tipo di codice divenuto universale per coloro che si occupano di informatica. Questo codice, che ognuno di noi ha studiato a scuola, si chiama "sistema binario" e si basa unicamente su due numeri: lo 0 e l'1. Nel 1936 il tedesco Konrad Zuse, giovane docente all'Istituto di Matematica dell'università di Saarbrucken, realizzò la "Z1", la prima macchina elettromeccanica (a relè) sperimentale per l'elaborazione dei dati, controllata da un programma su nastro perforato. Come nastro utilizzò una vecchia pellicola cinematografica e, aspetto fondamentale, fu il primo ad impiegare il sistema numerico binario.
Ma fu in quegli stessi anni operò il matematico inglese di origine ungherese Alan Mathison Turing, nato nel 1912 e morto suicida nel 1954. Nel 1936, Turing presentò un suo studio riguardante una macchina calcolatrice astratta di uso generale per la soluzione di tutti i problemi matematici. La teoria del brillante matematico inglese era quella di costruire una macchina in grado di leggere un nastro continuo suddiviso in due parti: il calcolatore avrebbe dovuto leggere le istruzioni della prima parte, le avrebbe subito eseguite e poi sarebbe passato alla seconda parte del nastro. Questo metodo di impostazione della macchina, detta di Turing, convinse molti specialisti sulla possibilità di creare una vera e propria "intelligenza artificiale".
"COLOSSUS" contro "ENIGMA"
Durante il conflitto, infatti, diversi specialisti americani e inglesi, diretti da Turing con la piena approvazione di Churchill, riuscirono a decrittare i messaggi tedeschi codificati con "Enigma", la macchina crittografica realizzata nel 1923 dal berlinese Arthur Scherbius. Questo apparecchio, che funzionava con una pila elettrica e un sistema di tamburi rotanti e commutatori elettrici, permise ai nazisti di trasmettere messaggi praticamente indecifrabili nella primissima parte della guerra. Per svelare i segreti di "Enigma" Turing e T. H. Flowers, un esperto di centralini telefonici, realizzarono "Colossus", il primo calcolatore elettromeccanico britannico impiegato per provare ad enorme velocità tutte le possibili combinazioni dei codici della macchina crittografica nazista.
"Colossus" era fornito di 1.500 valvole e pesava più di una tonnellata. Non aveva memoria e non poteva essere programmato. Eppure, era in grado di trattare 5.000 caratteri al secondo e di decifrare ogni giorno, dopo avere scardinato il sistema crittografato di "Enigma", più di 4.000 messaggi segreti tedeschi e altrettanti giapponesi e italiani. Churchill, però, non si rese conto fino in fondo delle enormi possibilità date dai calcolatori e dalle teorie di Turing. Dopo la guerra, ordinò di smontare e distruggere tutti i modelli di "Colossus" utilizzati per sconfiggere i nazisti. Turing continuò a dedicarsi allo studio dell'intelligenza artificiale e all'ideazione di nuovi calcolatori elettronici.
Ipersensibile, incompreso, circondato dal scetticismo e dall'ostilità dell'ambiente scientifico, il matematico inglese si suicidò il 7 giugno 1954, mangiando una mela al cianuro, per motivi mai chiariti. Gli anni del dopoguerra, comunque, fecero registrare un balzo in avanti nella progettazione e nella costruzione dei calcolatori. Furono gli anni in cui dominarono i "dinosauri", per via del loro peso e delle loro dimensioni. Come nel caso di "Bessie", il calcolatore elettromeccanico "Harvard Mark 1", realizzato nei laboratori IBM da Howard Aiken con la collaborazione di alcuni esperti e ricercatori dell'università di Harvard.
"Bessie", così era stato
soprannominato questo colosso, pesava cinque tonnellate, aveva
Ecco alcune sue caratteristiche: aveva quasi 17 mila valvole, 70 mila resistenze e 10 mila condensatori, 5 mila saldature e un peso di trenta tonnellate. Era capace di effettuare 300 moltiplicazioni o 5.000 addizioni al secondo e assorbiva la bellezza di 174 Kilowatt quando era in funzione, con il risultato di fare fondere continuamente, per via del terribile calore, gli isolanti dei diversi condensatori. Questo vero e proprio colosso, ma delicato come una fragile lampadina, venne costruito per conto dell'Esercito americano, più precisamente per il laboratorio ricerche balistiche. Considerato una meraviglia del suo tempo, questo gigante rimase in servizio per nove anni, fino a quando divenne praticamente impossibile usarlo a causa dei continui guasti e per le enormi spese di manutenzione (una squadra di dieci tecnici era sempre disponibile ventiquattro ore al giorno). Dato l'enorme calore sprigionato e la fragilità dei suoi componenti, l'"Eniac" si guastava in media ogni cinque ore e mezza e in un anno era capace di bruciare quasi 20 mila valvole. Ma oltre alle sue incredibili dimensioni e per il fatto di essere considerato il primo vero "prototipo" di "computer", l'"Eniac" merita di essere ricordato anche per un altro fatto.
Durante la sua costruzione, lo scienziato John Tykey creò il termine di "bit", attraverso la contrazione delle parole inglesi "Binary digit" (cifra binaria). Un "bit" è la più piccola unità di informazione che specifica uno dei due stati (0 o 1, acceso o spento) che codificano i dati all'interno dei computer. Una striscia di otto "bit" forma un "byte", oggi universalmente utilizzato per rappresentare un carattere o un numero singolo. Ma per proseguire nel famoso "sentiero" che abbiamo ricordato all'inizio c'era bisogno di una grande invenzione, capace di fare progredire ulteriormente l'avvento delle macchine calcolatrici. Questa invenzione, la prima di una lunga serie, si chiama "Transistor". Furono tre ricercatori americani, John Bardeen, Walter Houser Brattain e William Bradford Shockley a idearlo e a perfezionarlo il 23 dicembre 1947. Questo termine rappresenta la contrazione di "TRANsfer reSISTOR", in quanto è in grado di far variare la resistenza tra due morsetti agendo dall'esterno. In pratica il "Transistor" subentrò alle fragili e costose valvole di vetro utilizzate nelle apparecchiature radio e, nel nostro caso, dai calcolatori.
I punti a suo favore erano
diversi: praticamente indistruttibile grazie a una durata di 90 mila ore, più
piccolo, qualche millimetro contro i diversi centimetri delle valvole
"miniaturizzate", meno "affamato" di elettricità e con la possibilità
di funzionare subito senza attendere il suo riscaldamento, a differenza delle
stesse valvole. Ma si dovette attendere fino al 1950 per vedere il primo
elaboratore elettronico costruito in serie. Si trattava
dell'"Univac-1", in fatto di misure non scherzava: pesante cinque
tonnellate, l'unità centrale occupava uno spazio di
Un impulso, che giungeva da uno dei cristalli, veniva trasformato in vibrazione meccanica, trasmessa come vibrazione acustica attraverso il mercurio all'altro cristallo e da questo trasformato in impulso elettrico. In questo modo, il segnale giungeva ritardato per permettere al segnale acustico di attraversare il fluido: ciò dava la possibilità di trasmettere mille segnali al secondo e memorizzare, quindi, mille segnali binari che, con il procedimento inverso, potevano essere "letti" e "riletti" a piacere. Dalle linee di ritardo si passò ai tamburi in alluminio o bronzo ricoperti di vernice magnetica che ruotavano ad alta velocità. Una serie di puntine magnetiche scriveva i dati sulla superficie cilindrica del tamburo in forma di punti magnetizzati e li leggeva poi con un tempo di accesso veramente notevole: da cinque a venticinque millesimi di secondo. Questo sistema permetteva di memorizzare fino a un milione di caratteri. Un bel passo in avanti, indubbiamente, ma ancora insufficiente per registrare e conservare una grande mole di informazioni, senza contare che tali "memorie" occupavano uno spazio enorme all'interno della macchina. Così si decise di puntare soprattutto sulle "memorie" ausiliarie esterne, nastri e dischi magnetici, in grado di essere introdotti al momento dell'uso per essere poi rimossi e conservati altrove. I nastri erano composti da fettucce di plastica ricoperte di ossido metallico sulle quali le informazioni venivano memorizzate in forma di punti magnetizzati per rappresentare i simboli 1 e 0 del linguaggio binario.
I dati venivano registrati e letti da una
testina magnetica; il nastro scorreva a una velocità di due metri al secondo,
equivalenti a 15 mila caratteri, quasi 50 volte superiore alle schede
perforate. Le prime bobine erano grandi come torte e potevano registrare alcuni
milioni di caratteri. Entrati nella seconda metà degli anni Cinquanta, tutte le
industrie e i maggiori specialisti di elaboratori furono concordi nel ritenere
che il futuro sarebbe stato riservato a macchine più piccole e potenti. La
prima ad inaugurare questa tendenza fu un "minielaboratore" prodotto
dalla Digital Equipment Corporation nel 1957, il PDP-1, il quale diede lo
spunto per il modello successivo, il PDP-8, grande poco più di un frigorifero e
con una memoria di appena 4 Kbyte. Nel
Per la prima volta,
l'ingegnere statunitense riuscì a combinare le funzioni di bobine, transistor,
diodi, condensatori e resistori in una unità, completa dei relativi
collegamenti, realizzata su una piastrina di materiale semiconduttore, il
silicio cristallino, di proporzioni minime. Proprio l'invenzione del
"chip" diede modo di ideare e costruire schede con centinaia di
"circuiti integrali", capaci di svolgere nello spazio di poche decine
di centimetri le stesse operazioni che, fino a poco tempo prima, erano
effettuate da macchinari di diversi metri e tonnellate. E' chiaro che queste
spinte tecnologiche permisero alle grandi aziende (e non più solo ai militari)
di beneficiare degli sviluppi e della velocizzazione del lavoro. Sempre nel
Ma se in Italia si era
ancora alle prese con macchinari di grandi dimensioni, in America, all'inizio degli
anni Sessanta, si lavorava sempre più al concetto di riduzione della macchina e
del suo aumento di potenza. Il 1963 è un anno da ricordare perchè in quella
data un gruppo di ricercatori, guidato da Douglas Englebart, dello Stanford
Research Institute, sviluppò per la prima volta il famoso "mouse", il
dispositivo di puntamento rapido del cursore sullo schermo. Ma bisognerà
attendere ancora vent'anni prima di vederlo in produzione. L'anno successivo,
La novità stava nel fatto che questo tipo di
macchina poteva essere potenziata, aumentando la capacità della stessa memoria,
o addirittura ingrandito con altri elementi. Il progettista fu Gene Amdahl, il
primo a fare funzionare una macchina alla velocità di "nanosecondi"
(miliardesimi di secondo). Il "Sistema/360" fu per anni il computer
più venduto al mondo (nel 1966 le vendite arrivarono a mille esemplari al
mese). Ma nel 1965 fu sempre
La supremazia americana, però, tornò a farsi sentire nel 1968, quando Robert N. Noyce, Gordon E. Moore e Andrew Grove si unirono per dare vita alla Intel Inc. (così denominata da INTegrated ELectronics) per la produzione di "chip" di memoria. Nel suo primo anno, ebbe dodici dipendenti e un fatturato di 2.600 dollari. Oggi è l'indiscusso colosso costruttore di microprocessori (i famosi Pentium II e III) con fatturati di diversi miliardi di dollari. Proprio l'Intel, nel 1970, produsse la prima RAM ("Random Access Memory" ), la memoria a semiconduttori da 1 Kbyte, che fu adottata immediatamente nella costruzione di nuovi computer al posto delle vecchie memorie a nuclei magnetici di ferrite. Il 1971 fu un altro anno importantissimo per la storia dei computer, quando gli ingegneri elettronici della Intel, l'italiano Federico Faggin e gli americani Marcian Edward Hoff jr. e Stanley Mazer, diedero vita al "motore" dei futuri "Pc", il microprocessore. I tre riuscirono a concentrare su una piastrina di quattro millimetri per tre un "supercircuito integrato" contenente ben 2.250 transistor, la futura CPU ("Central Processing Unit" ) che costituivano tutti i componenti di un'unità centrale di elaborazione: in breve, il "cervello" e la "memoria" di entrata e uscita. L'anno successivo, sempre Faggin e Hoff jr. realizzarono il microprocessore "8008", il primo "chip" da 8 bit di uso universale.
Questa CPU, con una memoria
statica da 1.024 byte, era in grado di conservare i dati sino a quando non
veniva interrotta l'alimentazione elettrica nel sistema. Su questo processore,
gli ingegneri Nat Wadsworth e Robert Findley realizzarono il primo
"microcomputer " che venne prodotto in serie con una scatola di
montaggio dalla Scelbi Computer Consulting di Milford (Connecticut), con il
nome di "Scelbi-8H" e messo in vendita per corrispondenza nel
Ormai siamo arrivati alla
fatidica data del 1975, forse la più importante di tutta la storia
dell'informatica. E' l'anno, infatti, in cui due studenti universitari, William
"Bill" Gates e Paul Allen, diedero vita a una piccolissima azienda
che elaborava linguaggi per "computer":
La memoria era appena di 4
Kbyte e come monitor venne utilizzato un televisore domestico e per la
memorizzazione dei dati un registratore a cassette, anche se l'anno successivo
i modelli vennero equipaggiati con un drive per "floppy disc" .
Questo "computer" fu il primo in grado di generare una grafica a
colori. Non bisogna dimenticare anche una macchina costruita nel 1980
dall'inglese Clive Sinclair, la "ZX-80", certamente la piccola ed
economica, che divenne famosissima tra i più giovani dell'epoca. La memoria era
di appena 1.024 caratteri e per farla funzionare si doveva collegarla a un
registratore a cassetta che utilizzava il linguaggio "Basic" e a un
televisore per visualizzare le lettere e le immagini. Ma la svolta definitiva,
quella che separa il passato dal nostro presente nella storia dei computer è
rappresentata da ciò che avvenne il
Il 12 agosto 1981 veniva
presentato ufficialmente alla stampa specializzata il personal computer di IBM.
Dopo anni di esclusione verso quegli oggetti, la multinazionale presenta una
macchina dalle dimensioni ridotte e con prestazioni piuttosto modeste, indicata
più genericamente come microcomputer. Il personal era il 5150, basato sul
processore
La storia cambiò totalmente con la discesa in campo di IBM, perché questo marchio significava serietà, affidabilità e qualità. Il marketing prevedeva una vendita di 200 mila esemplari di PC IBM in 5 anni, solo nei primi dieci mesi vendettero 250 mila. Una massa di clienti si lanciò nella corsa all'acquisto. Il passo principale della diffusione del nuovo computer fu la scelta strategica di IBM, che decise di comprare i componenti del PC sul libero mercato e di rendere pubblici il suo schema logico e quello circuitale, senza vincoli legali e brevetti. La stessa logica intrapresa da IBM di acquistare i componenti dell'elaboratore invece di progettarli e costruirli, l'aveva orientata nella scelta del sistema operativo, il software per la gestione della macchina.
Lo sviluppo di un nuovo sistema operativo avrebbe richiesto un consumo di risorse troppo elevato, così IBM cercò un fornitore di sistemi operativi adatti al PC e nel 1980 la scelta cadde sulla Microsoft, una piccola società di Seattle.
Il sistema operativo era il DOS, Disk
Operating System. La licenza tra IBM e
Da allora sono trascorsi appena 18 anni, ma nel mondo dei "computer" è come se fosse passato più di un secolo. Ciò che è stato fatto in questo lasso di tempo, infatti, ha dell'incredibile. Ormai la potenza, la stabilità, la versatilità dei vari componenti permettono all'uomo di impiegare i "Personal computer" in ogni circostanza, al punto da considerare la loro presenza e supporto a dir poco indispensabile. Nel giro di pochi anni si avvererà sicuramente quanto ha profetizzato Bill Gates a metà degli anni Settanta, cioè che in ogni casa ci sarà un computer con il quale lavorare, imparare e divertirsi.
Ma, a proposito di futuro, come sarà il "computer" che ci accompagnerà nei prossimi decenni? Inutile dire che il presente si sta già preparando al futuro informatico, soprattutto nei laboratori del PARC (Palo Alto Research Center), dove alcuni ricercatori, guidati da Mark Weiser, stanno già lavorando e sperimentando il "computer" del Duemila. La principale caratteristica di queste apparecchiature sarà data dalla loro "invisibilità". Con questo termine s'intende una macchina talmente piccola da essere camuffata e nascosta su un essere umano. Una macchina in grado di essere innestata all'interno del nostro corpo e con la quale interagire e comunicare in stato subliminale. Ciò significa che saremo in grado di usare il "computer" non interrompendo altre funzioni o altri compiti. Più o meno come succede quando si guida un'automobile. Di fronte a simili possibilità non bisogna stupirsi più di tanto. Ogni anno che passa, infatti, tende a diminuire in modo esponenziale il limite di perfezionamento di queste macchine. La fantasia si sta trasformando sempre più in realtà.
Privacy |
Articolo informazione
Commentare questo articolo:Non sei registratoDevi essere registrato per commentare ISCRIVITI |
Copiare il codice nella pagina web del tuo sito. |
Copyright InfTub.com 2025