il calcolatore

Materie:Tema
Categoria:Informatica

Voto:

2 (2)
Download:125
Data:02.05.2006
Numero di pagine:18
Formato di file:.doc (Microsoft Word)
Download   Anteprima
calcolatore_1.zip (Dimensione: 17.21 Kb)
trucheck.it_il-calcolatore.doc     48 Kb
readme.txt     59 Bytes



Testo

Storia del calcolatore

Probabilmente non si potrà mai sapere con esattezza quando l'uomo si rese conto di poter effettuare dei calcoli e, soprattutto, di essere in grado di farlo attraverso l'uso di uno strumento o di un utensile. Questa capacità di esplorare e sistematizzare l'universo dei numeri, primo passo per il dominio dei dati e delle informazioni, si perde indubbiamente nella notte dei tempi e ha sempre rappresentato per l'uomo una sfida affascinante e stimolante. Solo negli anni Cinquanta, si è affermata quella capacità intuitiva e scientifica in grado di portare alla nascita dello strumento più adatto e più aderente al concetto stesso di calcolo in tutti i suoi più vari aspetti: il computer.
"Computer" deriva dal verbo latino "computare", che significa "fare di conto". (A dargli questo nome fu Anatasoff Berry, un rumeno, considerato il "padre" del Computer). Potrà sembrare strano, ma i "personal computer", i famosi "Pc" che utilizziamo quotidianamente nel nostro lavoro o come passatempo, sono il risultato attuale, e allo stesso tempo parziale, di un processo che ha avuto inizio esattamente nel 1642, anno nel quale il filosofo francese Blaise Pascal costruì la prima calcolatrice meccanica con riporto automatico fino ad otto cifre. Anche prima l'ingegno di alcuni uomini di scienza era riuscito a costruire macchine per il calcolo, ma si trattava di esemplari unici, strumenti che dimostravano esclusivamente in linea teorica la capacità di effettuare calcoli senza l'ausilio della mente umana. Ma è appunto con Pascal e, pochi anni dopo, con il filosofo e matematico tedesco Gottfried Wilhelm von Leibniz, ideatore di una calcolatrice a ruote dentate in grado di eseguire operazioni più complesse, che prende avvio quel "sentiero" tecnologico e scientifico che porterà alla nascita e allo sviluppo di quella che noi chiamiamo usualmente "informatica", cioè la scienza che studia l'elaborazione dei dati e, più generalmente, il trattamento automatico delle informazioni.

Una scienza estremamente giovane, visto che il termine è stato formulato per la prima volta nel 1962 dall'ingegnere francese Philippe Dreyfus, contraendo le parole "information" e "automatique". I primi passi, di quella che possiamo definire la "storia del computer", possono essere datati al 1925, quando il professor Vannevar Bush ed altri docenti del Massachusetts Institute of Technology (il celeberrimo MIT) progettarono il "Differential Analyzer", il primo calcolatore meccanico di uso pratico. Fu indubbiamente questa la prima macchina che poteva vantare, in modo assai improprio, il termine di "computer" . Entrata in funzione due anni più tardi, il "Differential Analyzer" fu in grado di risolvere automaticamente equazioni differenziali contenenti fino a 18 variabili indipendenti. La macchina era costituita da un insieme di valvole termoioniche e da parti elettromeccaniche e venne prodotta in una decina di esemplari. Ovviamente il fatto di considerare tale apparecchio un prototipo dei nostri " computer" non deve trarre in inganno: si trattava di una grossa scatola in legno, dalle dimensioni ancora contenute, che poteva essere programmato in alcuni giorni. A quei tempi, invece, i programmatori impiegavano giorni, se non addirittura settimane a programmare il "Differential Analyzer" e gli altri strumenti elettromeccanici dell'epoca. Un'altra grossa novità, risalente sempre agli anni Venti, fu quella della scheda perforata. Questo rettangolo di carta dura, composto da 45 a 80 colonne di numeri e lettere, veniva perforato e introdotto in speciali macchinari, chiamati calcolatori meccanografici, per effettuare diversi tipi di calcoli.

La potenza di questi calcolatori era data da due capacità: la velocità di lettura delle schede e il numero di schede che potevano essere "lette" in un minuto. Le apparecchiature più veloci potevano arrivare a 2.500 schede al minuto. Ma nessuna di queste macchine, fino ad allora, aveva utilizzato quel tipo di codice divenuto universale per coloro che si occupano di informatica. Questo codice, che ognuno di noi ha studiato a scuola, si chiama "sistema binario" e si basa unicamente su due numeri: lo 0 e l'1. Nel 1936 il tedesco Konrad Zuse, giovane docente all'Istituto di Matematica dell'università di Saarbrucken, realizzò la "Z1", la prima macchina elettromeccanica (a relè) sperimentale per l'elaborazione dei dati, controllata da un programma su nastro perforato. Come nastro utilizzò una vecchia pellicola cinematografica e, aspetto fondamentale, fu il primo ad impiegare il sistema numerico binario.
Ma fu in quegli stessi anni operò il matematico inglese di origine ungherese Alan Mathison Turing, nato nel 1912 e morto suicida nel 1954. Nel 1936, Turing presentò un suo studio riguardante una macchina calcolatrice astratta di uso generale per la soluzione di tutti i problemi matematici. La teoria del brillante matematico inglese era quella di costruire una macchina in grado di leggere un nastro continuo suddiviso in due parti: il calcolatore avrebbe dovuto leggere le istruzioni della prima parte, le avrebbe subito eseguite e poi sarebbe passato alla seconda parte del nastro. Questo metodo di impostazione della macchina, detta di Turing, convinse molti specialisti sulla possibilità di creare una vera e propria "intelligenza artificiale".
"COLOSSUS" contro "ENIGMA"
Durante il conflitto, infatti, diversi specialisti americani e inglesi, diretti da Turing con la piena approvazione di Churchill, riuscirono a decrittare i messaggi tedeschi codificati con "Enigma", la macchina crittografica realizzata nel 1923 dal berlinese Arthur Scherbius. Questo apparecchio, che funzionava con una pila elettrica e un sistema di tamburi rotanti e commutatori elettrici, permise ai nazisti di trasmettere messaggi praticamente indecifrabili nella primissima parte della guerra. Per svelare i segreti di "Enigma" Turing e T. H. Flowers, un esperto di centralini telefonici, realizzarono "Colossus", il primo calcolatore elettromeccanico britannico impiegato per provare ad enorme velocità tutte le possibili combinazioni dei codici della macchina crittografica nazista.
"Colossus" era fornito di 1.500 valvole e pesava più di una tonnellata. Non aveva memoria e non poteva essere programmato. Eppure, era in grado di trattare 5.000 caratteri al secondo e di decifrare ogni giorno, dopo avere scardinato il sistema crittografato di "Enigma", più di 4.000 messaggi segreti tedeschi e altrettanti giapponesi e italiani. Churchill, però, non si rese conto fino in fondo delle enormi possibilità date dai calcolatori e dalle teorie di Turing. Dopo la guerra, ordinò di smontare e distruggere tutti i modelli di "Colossus" utilizzati per sconfiggere i nazisti. Turing continuò a dedicarsi allo studio dell'intelligenza artificiale e all'ideazione di nuovi calcolatori elettronici.

Ipersensibile, incompreso, circondato dal scetticismo e dall'ostilità dell'ambiente scientifico, il matematico inglese si suicidò il 7 giugno 1954, mangiando una mela al cianuro, per motivi mai chiariti. Gli anni del dopoguerra, comunque, fecero registrare un balzo in avanti nella progettazione e nella costruzione dei calcolatori. Furono gli anni in cui dominarono i "dinosauri", per via del loro peso e delle loro dimensioni. Come nel caso di "Bessie", il calcolatore elettromeccanico "Harvard Mark 1", realizzato nei laboratori IBM da Howard Aiken con la collaborazione di alcuni esperti e ricercatori dell'università di Harvard.
"Bessie", così era stato soprannominato questo colosso, pesava cinque tonnellate, aveva 800 chilometri di cavi e più di tremila "relè", per un totale di 76 mila componenti. Lungo 16 metri e mezzo e alto due e mezzo, l'"Harvard Mark 1" fu il primo calcolatore a funzionare automaticamente con programmi registrati, gli "antenati" degli odierni "softwares" . Questa macchina era in grado di sommare due numeri di ventitrè cifre in tre decimi di secondo e moltiplicarli in soli sei secondi. Ma questo calcolatore, seppure dotato di misure ragguardevoli, può essere considerato piccolo davanti alle dimensioni del gigantesco elaboratore elettronico "Eniac", acronimo di "Electronic Numerical Integrator and Calculator" . Questo mastodonte entrò in funzione il 16 febbraio1946 in un salone di nove metri per quindici, al poligono di tiro del comando di artiglieria di Aberdeen, nel Maryland.

Ecco alcune sue caratteristiche: aveva quasi 17 mila valvole, 70 mila resistenze e 10 mila condensatori, 5 mila saldature e un peso di trenta tonnellate. Era capace di effettuare 300 moltiplicazioni o 5.000 addizioni al secondo e assorbiva la bellezza di 174 Kilowatt quando era in funzione, con il risultato di fare fondere continuamente, per via del terribile calore, gli isolanti dei diversi condensatori. Questo vero e proprio colosso, ma delicato come una fragile lampadina, venne costruito per conto dell'Esercito americano, più precisamente per il laboratorio ricerche balistiche. Considerato una meraviglia del suo tempo, questo gigante rimase in servizio per nove anni, fino a quando divenne praticamente impossibile usarlo a causa dei continui guasti e per le enormi spese di manutenzione (una squadra di dieci tecnici era sempre disponibile ventiquattro ore al giorno). Dato l'enorme calore sprigionato e la fragilità dei suoi componenti, l'"Eniac" si guastava in media ogni cinque ore e mezza e in un anno era capace di bruciare quasi 20 mila valvole. Ma oltre alle sue incredibili dimensioni e per il fatto di essere considerato il primo vero "prototipo" di "computer", l'"Eniac" merita di essere ricordato anche per un altro fatto.

Durante la sua costruzione, lo scienziato John Tykey creò il termine di "bit", attraverso la contrazione delle parole inglesi "Binary digit" (cifra binaria). Un "bit" è la più piccola unità di informazione che specifica uno dei due stati (0 o 1, acceso o spento) che codificano i dati all'interno dei computer. Una striscia di otto "bit" forma un "byte", oggi universalmente utilizzato per rappresentare un carattere o un numero singolo. Ma per proseguire nel famoso "sentiero" che abbiamo ricordato all'inizio c'era bisogno di una grande invenzione, capace di fare progredire ulteriormente l'avvento delle macchine calcolatrici. Questa invenzione, la prima di una lunga serie, si chiama "Transistor". Furono tre ricercatori americani, John Bardeen, Walter Houser Brattain e William Bradford Shockley a idearlo e a perfezionarlo il 23 dicembre 1947. Questo termine rappresenta la contrazione di "TRANsfer reSISTOR", in quanto è in grado di far variare la resistenza tra due morsetti agendo dall'esterno. In pratica il "Transistor" subentrò alle fragili e costose valvole di vetro utilizzate nelle apparecchiature radio e, nel nostro caso, dai calcolatori.

I punti a suo favore erano diversi: praticamente indistruttibile grazie a una durata di 90 mila ore, più piccolo, qualche millimetro contro i diversi centimetri delle valvole "miniaturizzate", meno "affamato" di elettricità e con la possibilità di funzionare subito senza attendere il suo riscaldamento, a differenza delle stesse valvole. Ma si dovette attendere fino al 1950 per vedere il primo elaboratore elettronico costruito in serie. Si trattava dell'"Univac-1", in fatto di misure non scherzava: pesante cinque tonnellate, l'unità centrale occupava uno spazio di 5 metri e mezzo per quasi quattro ed era alto due metri e mezzo. Funzionava ancora a valvole, ne aveva 5.400 miniaturizzate. Ma ormai l'epoca delle valvole era giunta al tramonto. Si stava per profilare quella che gli storici e gli specialisti di informatica hanno chiamato la "seconda generazione" dei computer, tutti con transistor, più piccoli e molto più potenti. Una generazione che fece finalmente i conti con il problema, fino a quel momento irrisolto, della "memoria". Fu tra il 1950 e il 1955 che gli elaboratori dell'epoca vennero dotati di "memorie" interne, basate su valvole, tubi catodici e tamburi magnetici, fino agli anelli di ferrite. Ma si trattava ancora di processi a dir poco antidiluviani. Basti pensare che ogni valvola poteva memorizzare esclusivamente un "bit" e che, come si è già ricordato, tali valvole potevano avere solo poche ore di funzionamento. Il problema era dunque quello di immagazzinare dati e informazioni senza il rischio di perderle da un momento all'altro. Dapprima vennero impiegate linee di ritardo acustico costituite da cilindri di acqua o di mercurio con alle estremità due cristalli piezoelettrici di quarzo.

Un impulso, che giungeva da uno dei cristalli, veniva trasformato in vibrazione meccanica, trasmessa come vibrazione acustica attraverso il mercurio all'altro cristallo e da questo trasformato in impulso elettrico. In questo modo, il segnale giungeva ritardato per permettere al segnale acustico di attraversare il fluido: ciò dava la possibilità di trasmettere mille segnali al secondo e memorizzare, quindi, mille segnali binari che, con il procedimento inverso, potevano essere "letti" e "riletti" a piacere. Dalle linee di ritardo si passò ai tamburi in alluminio o bronzo ricoperti di vernice magnetica che ruotavano ad alta velocità. Una serie di puntine magnetiche scriveva i dati sulla superficie cilindrica del tamburo in forma di punti magnetizzati e li leggeva poi con un tempo di accesso veramente notevole: da cinque a venticinque millesimi di secondo. Questo sistema permetteva di memorizzare fino a un milione di caratteri. Un bel passo in avanti, indubbiamente, ma ancora insufficiente per registrare e conservare una grande mole di informazioni, senza contare che tali "memorie" occupavano uno spazio enorme all'interno della macchina. Così si decise di puntare soprattutto sulle "memorie" ausiliarie esterne, nastri e dischi magnetici, in grado di essere introdotti al momento dell'uso per essere poi rimossi e conservati altrove. I nastri erano composti da fettucce di plastica ricoperte di ossido metallico sulle quali le informazioni venivano memorizzate in forma di punti magnetizzati per rappresentare i simboli 1 e 0 del linguaggio binario.

I dati venivano registrati e letti da una testina magnetica; il nastro scorreva a una velocità di due metri al secondo, equivalenti a 15 mila caratteri, quasi 50 volte superiore alle schede perforate. Le prime bobine erano grandi come torte e potevano registrare alcuni milioni di caratteri. Entrati nella seconda metà degli anni Cinquanta, tutte le industrie e i maggiori specialisti di elaboratori furono concordi nel ritenere che il futuro sarebbe stato riservato a macchine più piccole e potenti. La prima ad inaugurare questa tendenza fu un "minielaboratore" prodotto dalla Digital Equipment Corporation nel 1957, il PDP-1, il quale diede lo spunto per il modello successivo, il PDP-8, grande poco più di un frigorifero e con una memoria di appena 4 Kbyte. Nel 1958, l'ingegnere americano Jack St. Clair Kilby, della Texas Instruments di Dallas, rimase a lavorare in estate mentre i colleghi erano in ferie. Lui era stato appena assunto e non aveva dunque diritto alle vacanze. Fu una fortuna per lui e, soprattutto, per tutti noi, dato che in quelle settimane Kilby schiuse l'era della miniaturizzazione dei circuiti elettrici con l'invenzione del cosiddetto "circuito integrato", familiarmente conosciuto con il termine di "chip".

Per la prima volta, l'ingegnere statunitense riuscì a combinare le funzioni di bobine, transistor, diodi, condensatori e resistori in una unità, completa dei relativi collegamenti, realizzata su una piastrina di materiale semiconduttore, il silicio cristallino, di proporzioni minime. Proprio l'invenzione del "chip" diede modo di ideare e costruire schede con centinaia di "circuiti integrali", capaci di svolgere nello spazio di poche decine di centimetri le stesse operazioni che, fino a poco tempo prima, erano effettuate da macchinari di diversi metri e tonnellate. E' chiaro che queste spinte tecnologiche permisero alle grandi aziende (e non più solo ai militari) di beneficiare degli sviluppi e della velocizzazione del lavoro. Sempre nel 1958, in America erano in funzione 2.500 elaboratori elettronici, mentre in Italia erano quaranta, però il Banco di Roma (la futura Banca di Roma) fu il primo istituto di credito in Europa ad installare un elaboratore IBM di grande potenza per lo svolgimento di tutte le operazioni contabili, statistiche e di controllo. L'anno dopo a Milano, in occasione della Fiera, la Olivetti presentò il primo calcolatore elettronico a transistor di progettazione interamente italiana: l'"Elea 93". Questa macchina, ancora di grosse dimensioni, aveva 10 mila transistor e disponeva di una stampante capace di scrivere 600 righe al minuto. Fu un grosso successo commerciale, visto che ne furono consegnati oltre 12 mila esemplari in tutto il mondo.

Ma se in Italia si era ancora alle prese con macchinari di grandi dimensioni, in America, all'inizio degli anni Sessanta, si lavorava sempre più al concetto di riduzione della macchina e del suo aumento di potenza. Il 1963 è un anno da ricordare perchè in quella data un gruppo di ricercatori, guidato da Douglas Englebart, dello Stanford Research Institute, sviluppò per la prima volta il famoso "mouse", il dispositivo di puntamento rapido del cursore sullo schermo. Ma bisognerà attendere ancora vent'anni prima di vederlo in produzione. L'anno successivo, la IBM mise in vendita il primo programma di "Word processor" (elaboratore di testi) del mondo e l'anno dopo il colosso americano lanciò sul mercato un nuovo elaboratore della cosiddetta "terza generazione", l'"IBM Sistema/360" a circuiti integrati con una memoria fino a quattro milioni di caratteri.
La novità stava nel fatto che questo tipo di macchina poteva essere potenziata, aumentando la capacità della stessa memoria, o addirittura ingrandito con altri elementi. Il progettista fu Gene Amdahl, il primo a fare funzionare una macchina alla velocità di "nanosecondi" (miliardesimi di secondo). Il "Sistema/360" fu per anni il computer più venduto al mondo (nel 1966 le vendite arrivarono a mille esemplari al mese). Ma nel 1965 fu sempre la Olivetti di Ivrea a fregiarsi di un primato assoluto: a New York presentò il famoso "Programma 101", il primo personal computer del mondo prodotto in serie, destando sensazione per le sue prestazioni elevate, le dimensioni ridotte e l'elegante "design" di Mario Bellini. In pochi anni furono venduti quasi 45 mila esemplari grazie alla sua semplicità di uso. Il "P101" fu la prima macchina dotata di un programma registrato in memoria, di un supporto magnetico per l'introduzione e l'uscita dei dati (dal quale avrà poi origine il "floppy disc") e di un semplice sistema di programmazione con un linguaggio che poteva essere appreso in poche ore anche da non specialisti.

La supremazia americana, però, tornò a farsi sentire nel 1968, quando Robert N. Noyce, Gordon E. Moore e Andrew Grove si unirono per dare vita alla Intel Inc. (così denominata da INTegrated ELectronics) per la produzione di "chip" di memoria. Nel suo primo anno, ebbe dodici dipendenti e un fatturato di 2.600 dollari. Oggi è l'indiscusso colosso costruttore di microprocessori (i famosi Pentium II e III) con fatturati di diversi miliardi di dollari. Proprio l'Intel, nel 1970, produsse la prima RAM ("Random Access Memory" ), la memoria a semiconduttori da 1 Kbyte, che fu adottata immediatamente nella costruzione di nuovi computer al posto delle vecchie memorie a nuclei magnetici di ferrite. Il 1971 fu un altro anno importantissimo per la storia dei computer, quando gli ingegneri elettronici della Intel, l'italiano Federico Faggin e gli americani Marcian Edward Hoff jr. e Stanley Mazer, diedero vita al "motore" dei futuri "Pc", il microprocessore. I tre riuscirono a concentrare su una piastrina di quattro millimetri per tre un "supercircuito integrato" contenente ben 2.250 transistor, la futura CPU ("Central Processing Unit" ) che costituivano tutti i componenti di un'unità centrale di elaborazione: in breve, il "cervello" e la "memoria" di entrata e uscita. L'anno successivo, sempre Faggin e Hoff jr. realizzarono il microprocessore "8008", il primo "chip" da 8 bit di uso universale.

Questa CPU, con una memoria statica da 1.024 byte, era in grado di conservare i dati sino a quando non veniva interrotta l'alimentazione elettrica nel sistema. Su questo processore, gli ingegneri Nat Wadsworth e Robert Findley realizzarono il primo "microcomputer " che venne prodotto in serie con una scatola di montaggio dalla Scelbi Computer Consulting di Milford (Connecticut), con il nome di "Scelbi-8H" e messo in vendita per corrispondenza nel 1974 a 440 dollari. Mancava solo un altro componente per assicurare la completa autonomia ai nuovi modelli di "computer" che continuavano ad essere ideati e progettati: la "memoria" dove conservare i dati e le informazioni anche con l'apparecchio spento. Questo ostacolo venne superato definitivamente con l'uscita dell'"IBM 3340" che adottava la tecnologia di memoria su "hard disk" (disco rigido); quattro dischi in alluminio magnetizzati su entrambe le facce, sistemati uno sull'altro in un contenitore sigillato, venivano letti e registrati da una serie di testine velocissime che si insinuavano tra i dischi, sfiorandone le superfici a una distanza di appena 0,5 millimetri. Il primo "hard disk", denominato "Winchester", aveva una capacità di 12 Mbyte, mentre oggi i modelli più evoluti e dotati di una velocità di lettura di pochissimi millesimi di secondi, possono raggiungere una "memoria" di 30 Gbyte.

Ormai siamo arrivati alla fatidica data del 1975, forse la più importante di tutta la storia dell'informatica. E' l'anno, infatti, in cui due studenti universitari, William "Bill" Gates e Paul Allen, diedero vita a una piccolissima azienda che elaborava linguaggi per "computer": la Microsoft. La sede, inizialmente, fu a Albuquerque, nel New Mexico, ma nel 1980 si trasferì a Richmond, nello stato di Washington. La fortuna di entrambi può essere fatta risalire al linguaggio "Basic" che Gates e Allen programmarono nel 1974 per un "computer" da assemblare in casa, l'"Altair 8800" della Mits e che li mise in luce negli ambienti del "software" . Ma quasi in concomitanza, esattamente nel luglio 1976, a Palo Alto, in California, due giovani dal passato " hippie", Stephen Jobs e Stephen Wozniak, costruirono nel salotto dei genitori adottivi di Jobs l'"Apple I", dando vita all'omonima azienda, battezzata come la casa discografica creata quasi dieci anni prima dai Beatles. Sarà proprio la Apple la grande rivale della Microsoft, soprattutto per il fatto che entrambe hanno usato fin dall'inizio un linguaggio di programmazione completamente diverso. Nel 1977, Jobs e Wozniak costruirono l'"Apple II", un "computer" dotato di un contenitore con tastiera, alimentatore e prese per il collegamento delle "periferiche" presenti sul mercato.

La memoria era appena di 4 Kbyte e come monitor venne utilizzato un televisore domestico e per la memorizzazione dei dati un registratore a cassette, anche se l'anno successivo i modelli vennero equipaggiati con un drive per "floppy disc" . Questo "computer" fu il primo in grado di generare una grafica a colori. Non bisogna dimenticare anche una macchina costruita nel 1980 dall'inglese Clive Sinclair, la "ZX-80", certamente la piccola ed economica, che divenne famosissima tra i più giovani dell'epoca. La memoria era di appena 1.024 caratteri e per farla funzionare si doveva collegarla a un registratore a cassetta che utilizzava il linguaggio "Basic" e a un televisore per visualizzare le lettere e le immagini. Ma la svolta definitiva, quella che separa il passato dal nostro presente nella storia dei computer è rappresentata da ciò che avvenne il 1981. In quell'anno, la IBM, la maggiore industria informatica del mondo, decise di investire in modo massiccio nei "personal computer", creando in pochi anni una struttura "hardware" e "software" universalmente riconosciuta dalla stragrande maggioranza di costruttori e programmatori. La scelta vincente, indubbiamente, fu quella della scelta del linguaggio programmato. I dirigenti dell'IBM decisero di utilizzare il programma appositamente ideato da Gates e Allen, il celeberrimo MS-DOS (" Microsoft - Disc Operating System" ) con il quale sono cresciuti e hanno appreso i rudimenti dell'informatica milioni di persone.

Il 12 agosto 1981 veniva presentato ufficialmente alla stampa specializzata il personal computer di IBM. Dopo anni di esclusione verso quegli oggetti, la multinazionale presenta una macchina dalle dimensioni ridotte e con prestazioni piuttosto modeste, indicata più genericamente come microcomputer. Il personal era il 5150, basato sul processore 8088 a 4,77 MHz. Era dotato di memoria RAM da 64 Kb, un lettore di floppy da 5,25 pollici, tastiera, monitor monocromatico a 12 pollici. Utilizzava il sistema operativo PC-DOS 1.0. Questi microcomputer venivano acquistati da altri appassionati o da piccoli imprenditori attratti dal prezzo, ben dieci volte inferiore a quello del mini. Il resto del mercato era diffidente soprattutto perché ogni modello era diverso da tutti gli altri e veniva spesso costruito da un’impresa che non aveva storia e che rischiava di sparire da un momento all’altro, perciò il mondo aziendale non poteva affidarsi a quelle macchine.
La storia cambiò totalmente con la discesa in campo di IBM, perché questo marchio significava serietà, affidabilità e qualità. Il marketing prevedeva una vendita di 200 mila esemplari di PC IBM in 5 anni, solo nei primi dieci mesi vendettero 250 mila. Una massa di clienti si lanciò nella corsa all’acquisto. Il passo principale della diffusione del nuovo computer fu la scelta strategica di IBM, che decise di comprare i componenti del PC sul libero mercato e di rendere pubblici il suo schema logico e quello circuitale, senza vincoli legali e brevetti. La stessa logica intrapresa da IBM di acquistare i componenti dell’elaboratore invece di progettarli e costruirli, l’aveva orientata nella scelta del sistema operativo, il software per la gestione della macchina.
Lo sviluppo di un nuovo sistema operativo avrebbe richiesto un consumo di risorse troppo elevato, così IBM cercò un fornitore di sistemi operativi adatti al PC e nel 1980 la scelta cadde sulla Microsoft, una piccola società di Seattle.
Il sistema operativo era il DOS, Disk Operating System. La licenza tra IBM e la Microsoft prevedeva che su ogni PC sarebbe stata installata una copia del DOS. La Microsoft aveva concesso la licenza d’uso ad altri costruttori di macchine personal, con un nome diverso, MS-DOS. L’introduzione del PC comportò una vera e propria rivoluzione nel modo di lavorare: l’informatica personale era sconosciuta nel mondo delle piccole e medie aziende. Pochi utenti selezionati avevano il controllo dei mainframe in modo da lanciare programmi di lettura selettiva dei dati. Queste operazioni venivano svolte attraverso i terminali stupidi, ovvero macchine formate da un enorme video monocromatico e da una tastiera, asservite a un mainframe dal quale ricevono i dati e al quale si potevano solo inviare messaggi, raramente istruzioni o comandi. I PC erano meglio dei terminali stupidi, perché dotati ciascuno di una propria CPU che ne fa dei veri e propri centri di elaborazione autonomi. I PC apparivano come una forma di riduzione a banale strumento di lavoro legati alla generazione dei figli dei fiori e degli hippy, il loro computer veramente rappresentativo non fu il PC IBM ma il Macintosh della Apple. Nei Macintosh tutto era diverso: i comandi venivano impartiti tramite il mouse e non tramite la tastiera, scegliendo tra menu di tutti i tipi che spuntavano fuori ovunque si cliccasse sullo schermo. L'applicazione che puntò l'attenzione sui personal fu il Visicalc. Concepito nel 1978 da Daniel Bricklin e commercializzato l'anno seguente, fu il primo foglio elettronico per il PC, dando chiaramente impulso all'età dell'informatica personale. La versione iniziale del programma era stata fatta su misura per l'Apple II e ne determinò in buona parte la grande popolarità. Il Visicalc ha accelerato enormemente la domanda di personal, aprendo la strada al successivo foglio elettronico, il Lotus 1-2-3 di Mitch Kapor e Jonathan Sachs, che verrà poi superato dall'Excel della Microsoft. Quello che con Visicalc era possibile realizzare era l'interattività. Una prestazione che non si poteva ottenere neanche avendo accesso ad un mainframe IBM era la possibilità di modificare delle cifre sullo schermo e di ottenere immediatamente il ricalcolo. Con Visicalc, molti si resero conto della potenza del PC come strumento di produttività, si espanse notevolmente nella seconda metà degli anni Ottanta, quando la posta elettronica, il desktop publishing e le applicazioni di data base si sono andati ad aggiungere al menu dei micro.

Da allora sono trascorsi appena 18 anni, ma nel mondo dei "computer" è come se fosse passato più di un secolo. Ciò che è stato fatto in questo lasso di tempo, infatti, ha dell'incredibile. Ormai la potenza, la stabilità, la versatilità dei vari componenti permettono all'uomo di impiegare i "Personal computer" in ogni circostanza, al punto da considerare la loro presenza e supporto a dir poco indispensabile. Nel giro di pochi anni si avvererà sicuramente quanto ha profetizzato Bill Gates a metà degli anni Settanta, cioè che in ogni casa ci sarà un computer con il quale lavorare, imparare e divertirsi.
Ma, a proposito di futuro, come sarà il "computer" che ci accompagnerà nei prossimi decenni? Inutile dire che il presente si sta già preparando al futuro informatico, soprattutto nei laboratori del PARC (Palo Alto Research Center), dove alcuni ricercatori, guidati da Mark Weiser, stanno già lavorando e sperimentando il "computer" del Duemila. La principale caratteristica di queste apparecchiature sarà data dalla loro "invisibilità". Con questo termine s'intende una macchina talmente piccola da essere camuffata e nascosta su un essere umano. Una macchina in grado di essere innestata all'interno del nostro corpo e con la quale interagire e comunicare in stato subliminale. Ciò significa che saremo in grado di usare il "computer" non interrompendo altre funzioni o altri compiti. Più o meno come succede quando si guida un'automobile. Di fronte a simili possibilità non bisogna stupirsi più di tanto. Ogni anno che passa, infatti, tende a diminuire in modo esponenziale il limite di perfezionamento di queste macchine. La fantasia si sta trasformando sempre più in realtà.

Esempio