La rivoluzione dei Personal Computer (PC) fu innescata non tanto da hardware e software in quanto tali, ma dal messaggio che queste nuove realtà tecnologiche incarnavano. Nell’uomo divenne sempre più forte il desiderio di trasformare i primi enormi «mostri elettronici» in macchine più piccole e più vicine agli uomini, capaci di eseguire più operazioni e in minor tempo, con l’obbiettivo anche di immetterle sul mercato.
I primi calcolatori
I primi calcolatori erano stati realizzati già durante la seconda guerra mondiale. Erano basati sull’uso di componenti elettromeccaniche (i relais, comunemente impiegati nella telefonia), ed erano soggetti ad usura, oltre che estremamente ingombranti. La sostituzione dei relais con le valvole, ha portato alla costruzione dei primi computer (per esempio Eniac (1946), il primo computer digitale per applicazioni generali) che erano basati su una architettura ideata negli anni ‘40 da Von Neumann ed Alan Turing. L'input veniva dato con delle schede perforate, le memorie di massa erano costituite da nastri magnetici e la RAM, basata su nuclei di ferrite. Il «computer» era ancora inteso come «calcolatore». Solo più tardi il computer passa ad essere un più generico «elaboratore di dati». La sostituzione della valvola col transistor (inventato nel 1948), porta alla nascita dei computer di
«Seconda generazione» e consentì nel corso degli anni ’50, di ridurre enormemente le dimensioni dei computer e di aumentarne la potenza di calcolo, l’affidabilità e la complessità. Un’ulteriore salto qualitativo fu compiuto nel decennio successivo con l’introduzione del circuito integrato: una piastrina in silicio (di dimensioni anche ridottissime) all’interno della quale possono essere riprodotte, in forma miniaturizzata, le funzioni di un’intera rete di transistor. Nascevano così, anche sotto la spinta delle imprese spaziali, i computer della «terza generazione»: apparecchi che non solo vantavano rispetto ai loro predecessori, dimensioni ancora più ridotte, velocità di calcolo ancora maggiore – oltre alla possibilità di collegare molti apparecchi «periferici» (terminali) a una sola memoria centrale -, ma avevano anche costi di produzione sensibilmente più bassi. E questo fu certo un fattore decisivo per far uscire il computer dall’ambito dei laboratori specializzati e degli istituti di ricerca e per farlo entrare nel mondo della produzione di massa. I successivi sviluppi della tecnologia consentirono di produrre processori sempre più piccoli e sempre più veloci e di elaborare programmi sempre più complessi. Il 1971 segna la nascita della «quarta generazione» dei computer, che inizia con la progettazione del primo microprocessore (una CPU realizzata in un unico chip, di costo molto basso), il 4004, ad opera del fisico italiano Federico Faggin che lavorava presso la INTEL. Contemporaneamente si resero disponibili le memorie a semiconduttori meno ingombranti, più veloci e meno costose delle precedenti memorie a nuclei. La prima produzione di computer con microprocessore fu iniziata nel 1974 dalla DEC.
È sempre degli inizi degli anni Settanta una rivoluzionaria invenzione, il linguaggio di programmazione Smalltak creato dal genio di Alan Kay, inventore inoltre dei laptop e delle moderne interfacce grafiche. Smalltalk è un linguaggio di programmazione orientato agli oggetti che sarà ispirazione e base tecnica per il primo MacIntosh, e che influenzerà pesantemente i linguaggi di programmazione come Java.
La «quarta generazione» è quella del cosiddetto «personal computer», che dura ancora oggi. Si trattava inizialmente, di macchine con dischi «floppy» da 5 pollici e un quarto, con una capienza di circa 90K, ed una RAM di poche decine di migliaia di bytes. Tra i modelli vanno ricordati l’APPLE I (1976), il primo personal computer, l’APPLE II (1977), che aveva la tastiera integrata e un design accattivante, il PC-IBM (1980), l’OLIVETTI (1984), nonché varie macchine pensate unicamente per far rendere al meglio i giochi (per esempio, Commodore 64).
Nel 1981 Microsoft vende ad IBM il primo sistema operativo (MS-DOS), che verrà installato sul PC-IBM.
Ma a segnare una rivoluzione nei sistemi di interfaccia tra utente e sistema è il computer «MacIntosh» della ditta Apple, che nel 1984, ispirandosi al linguaggio di programmazione Smalltalk, introduce le finestre e le icone grafiche ed il sistema di puntamento con il mouse (sviluppati in origine nei laboratori Xerox), nonché il floppy disc da 3 pollici e mezzo (il «floppy che non è moscio»). Inizia così «l'umanizzazione» del computer e nasce il concetto di «user-friendly» (sistema amichevole per l'utente): per avvicinare il computer all'utente medio i dati e le operazioni vengono rappresentati in una forma iconica intuitiva e gradevole per l'utente, che allo stesso tempo «viene protetto» da qualsiasi informazione tecnica sul funzionamento interno della macchina. All'accensione del «Mac» appare una faccina sorridente, quando il sistema si blocca appare una bomba al posto di un più informativo messaggio di errore. Il successo di Macintosh è indiscutibile; una macchina completamente diversa da tutto ciò che era ed è in circolazione. Questa peculiarità la famiglia dei Macintosh la conserverà per molti anni a venire, diventando in modo incontestabile la macchina prediletta dei grafici e dei compositori editoriali, ma non solo. Va tenuto conto però, che contrariamente a tutti gli altri personal computer, Macintosh è una macchina chiusa, cioè utilizza un suo hardware fatto apposta, un suo sistema operativo concepito ad oggetti e una serie di programmi e linguaggi di sviluppo completamente autonomi dagli altri computer. Persino la scrittura su dischetti floppy non risulta compatibile.
I concetti di «user-friendly» e interfaccia grafica vengono ripresi dalla Microsoft con lo sviluppo di Windows, la cui prima versione risale al 1985, un sistema di interfaccia grafica per computers IBM-PC e compatibili, tuttora in uso nella versione XP.
Nessun commento:
Posta un commento