Powered By Blogger

lunedì 29 ottobre 2012

Schede Madri




Il processo di standardizzazione ha interessato non solo il progetto elettronico, ma anche e soprattutto la forma, le dimensioni e il posizionamento dei componenti: nel tempo si sono affermati alcuni formati standard a cui si sono conformati tutti i produttori. Nel campo dei personal computer IBM compatibili è stata la Intel a giocare un ruolo chiave, imponendo i due formati ATX e BTX, che nelle loro varie versioni sono adottati da tutte o quasi le schede madri per PC prodotte oggi. Ma ne esistono molti altri:

PC/XT - Il formato originale creato da IBM per il suo primo personal computer, l'IBM-PC. È stato adottato dalle schede madri di un gran numero di cloni, poiché non era coperto da copyright, e divenne per questo uno standard de facto.
AT (Advanced Technology) - Anche questo secondo formato divenne molto popolare, soprattutto per le schede madri 386. Ora è obsoleto, ma è stato la base per lo sviluppo dell'ATX.
Baby AT - Il successore IBM del formato AT. Funzionalmente del tutto equivalente, era però molto più piccolo e guadagnò seguito rapidamente; le schede madri che lo adottavano non avevano interfaccia AGP.
ATX - nato a partire dal Baby AT, è a tutt'oggi il formato di scheda madre più comune in commercio.
ETX, usato nei sistemi embedded e nei computer monoscheda.
Mini-ATX - quasi identico all'ATX, ma leggermente più piccolo.
MicroATX - un ATX ridotto, con tre soli slot di espansione PCI o PCI express.
FlexATX - una variante di microATX che permette maggior flessibilità nel progetto della scheda madre e nel posizionamento dei componenti.
LPX - Questo formato è basato su un progetto Western Digital, e permette di usare case più sottili spostando le schede di espansione su un riser (in sé una speciale scheda di espansione) disponendole parallele alla scheda madre anziché perpendicolari. Di solito viene adottato solo dai grandi produttori OEM.
Mini LPX - un sottoinsieme delle specifiche LPX.
NLX - un tipo di formato a basso profilo, che prevede un riser per le schede di espansione. È stato ideato per assecondare le richieste del mercato per PC piccoli, ma non ha mai guadagnato molta popolarità.
BTX (Balanced Technology Extended) - uno standard recente, proposto da Intel come possibile successore dell'ATX.
microBTX e picoBTX - sottoinsiemi più piccoli del BTX.
Mini-ITX - Un formato di scheda madre molto piccolo ad alta integrazione, introdotto da VIA e pensato per thin client, chioschi elettronici e set-top box.
Nano-ITX - Altro formato di scheda madre molto piccolo ad alta integrazione, introdotto da VIA e pensato per thin client, chioschi elettronici e set-top box. Utilizza processori Via C7 o Eden. Le dimensioni sono di 12cm per ogni lato.
Pico-ITX - Formato di scheda madre molto piccolo ad alta integrazione, introdotto da VIA nel 2007 e pensato per thin client, chioschi elettronici e set-top box. Utilizza processori Via C7 o Eden. Le dimensioni sono di 10x7,2cm di lato.
WTX (Workstation Technology Extended) - un formato grande, molto più dell'ATX, ideato per schede madri di server e workstation multiprocessori di fascia alta.

domenica 21 ottobre 2012




La rivoluzione dei Personal Computer (PC) fu innescata non tanto da hardware e software in quanto tali, ma dal messaggio che queste nuove realtà tecnologiche incarnavano. Nell’uomo divenne sempre più forte il desiderio di trasformare i primi enormi «mostri elettronici» in macchine più piccole e più vicine agli uomini, capaci di eseguire più operazioni e in minor tempo, con l’obbiettivo anche di immetterle sul mercato.


I primi calcolatori 


I primi calcolatori erano stati realizzati già durante la seconda guerra mondiale. Erano basati sull’uso di componenti elettromeccaniche (i relais, comunemente impiegati nella telefonia), ed erano soggetti ad usura, oltre che estremamente ingombranti. La sostituzione dei relais con le valvole, ha portato alla costruzione dei primi computer (per esempio Eniac (1946), il primo computer digitale per applicazioni generali) che erano basati su una architettura ideata negli anni ‘40 da Von Neumann ed Alan Turing. L'input veniva dato con delle schede perforate, le memorie di massa erano costituite da nastri magnetici e la RAM, basata su nuclei di ferrite. Il «computer» era  ancora inteso come «calcolatore». Solo più tardi il computer passa ad essere un più generico «elaboratore di dati». La sostituzione della valvola col transistor (inventato nel 1948), porta alla nascita dei computer di 


«Seconda generazione» e consentì nel corso degli anni ’50, di ridurre enormemente le dimensioni dei computer e di aumentarne la potenza di calcolo, l’affidabilità e la complessità. Un’ulteriore salto qualitativo fu compiuto nel decennio successivo con l’introduzione del circuito integrato: una piastrina in silicio (di dimensioni anche ridottissime) all’interno della quale possono essere riprodotte, in forma miniaturizzata, le funzioni di un’intera rete di transistor. Nascevano così, anche sotto la spinta delle imprese spaziali, i computer della «terza generazione»: apparecchi che non solo vantavano rispetto ai loro predecessori, dimensioni ancora più ridotte, velocità di calcolo ancora maggiore – oltre alla possibilità di collegare molti apparecchi «periferici» (terminali) a una sola memoria centrale -, ma avevano anche costi di produzione sensibilmente più bassi. E questo fu certo un fattore decisivo per far uscire il computer dall’ambito dei laboratori specializzati e degli istituti di ricerca e per farlo entrare nel mondo della produzione di massa. I successivi sviluppi della tecnologia consentirono di produrre processori sempre più piccoli e sempre più veloci e di elaborare programmi sempre più complessi. Il 1971 segna la nascita della «quarta generazione» dei computer, che inizia con la progettazione del primo microprocessore (una CPU realizzata in un unico chip, di costo molto basso), il 4004, ad opera del fisico italiano Federico Faggin che lavorava presso la INTEL. Contemporaneamente si resero disponibili le memorie a semiconduttori meno ingombranti, più veloci e meno costose delle precedenti memorie a nuclei. La prima produzione di computer con microprocessore fu iniziata nel 1974 dalla DEC.
È sempre degli inizi degli anni Settanta una rivoluzionaria invenzione, il linguaggio di programmazione Smalltak creato dal genio di Alan Kay, inventore inoltre dei laptop e delle moderne interfacce grafiche. Smalltalk è un linguaggio di programmazione orientato agli oggetti che sarà ispirazione e base tecnica per il primo MacIntosh, e che influenzerà pesantemente i linguaggi di programmazione come Java.
La «quarta generazione» è quella del cosiddetto «personal computer», che dura ancora oggi. Si trattava inizialmente, di macchine con dischi «floppy» da 5 pollici e un quarto, con una capienza di circa 90K, ed una RAM di poche decine di migliaia di bytes. Tra i modelli vanno ricordati l’APPLE I (1976), il primo personal computer, l’APPLE II (1977), che aveva la tastiera integrata e un design accattivante, il PC-IBM (1980), l’OLIVETTI (1984), nonché varie macchine pensate unicamente per far rendere al meglio i giochi (per esempio, Commodore 64).
Nel 1981 Microsoft vende ad IBM il primo sistema operativo (MS-DOS), che verrà installato sul PC-IBM.
 Ma a segnare una rivoluzione nei sistemi di interfaccia tra utente e sistema è il computer «MacIntosh» della ditta Apple, che nel 1984, ispirandosi al linguaggio di programmazione Smalltalk,  introduce le finestre e le icone grafiche ed il sistema di puntamento con il mouse (sviluppati in origine nei laboratori Xerox), nonché il floppy disc da 3 pollici e mezzo (il «floppy che non è moscio»). Inizia così «l'umanizzazione» del computer e nasce il concetto di «user-friendly» (sistema amichevole per l'utente): per avvicinare il computer all'utente medio i dati e le operazioni vengono rappresentati in una forma iconica intuitiva e gradevole per l'utente, che allo stesso tempo «viene protetto» da qualsiasi informazione tecnica sul funzionamento interno della macchina. All'accensione del «Mac» appare una faccina sorridente, quando il sistema si blocca appare una bomba al posto di un più informativo messaggio di errore. Il successo di Macintosh è indiscutibile; una macchina completamente diversa da tutto ciò che era ed è in circolazione. Questa peculiarità la famiglia dei Macintosh la conserverà per molti anni a venire, diventando in modo incontestabile la macchina prediletta dei grafici e dei compositori editoriali, ma non solo. Va tenuto conto però, che contrariamente a tutti gli altri personal computer, Macintosh è una macchina chiusa, cioè utilizza un suo hardware fatto apposta, un suo sistema operativo concepito ad oggetti e una serie di programmi e linguaggi di sviluppo completamente autonomi dagli altri computer. Persino la scrittura su dischetti floppy non risulta compatibile.
I concetti di «user-friendly» e interfaccia grafica vengono ripresi dalla Microsoft con lo sviluppo di Windows, la cui prima versione risale al 1985, un sistema di interfaccia grafica per computers IBM-PC e compatibili, tuttora in uso nella versione XP.



venerdì 19 ottobre 2012

 STORIA DEL COMPUTER




  • L'abaco : E lo strumento di calcolo piu antico.
  • La Pascalina era capace di fare addizzioni e sottrazioni 
  • Babbage fu il primo calcolatore digitale.Faceva addizioni, sottrazioni,divisioni e moltiplicazioni.
  • IBM è una azienda fondata nel 1924.




I primi computer elettronici 


Nascono dopo la seconda guerra mondiale e non hanno sistema operativo.Il primo fu il "MARK I"
  • ENIAC: Nasce nel 1945 e il suo scopo era quello di effettuare calcoli balistici per l'esercito americano.
  • Von Neuman : Defini per la prima volta il concetto di elaboratore elettronico.E considerato il padre dell'informatica.
  • L'EDUAC: Realizzato da Von Neuman. Fu il primo e vero computer con sistema operativo.
  • UNIVAC: Nel 1952 durante una trasmissione si vede un computer UNIVAC che calcola le proiezioni per le presidenziali.
  • RAMAC:Viene introdotto da IBM è ha un hard disk.

giovedì 4 ottobre 2012

Hardware e Software


Hardware 



Per semplicità definiamo hardware qualunque parte del computer compreso ogni aggeggio ad esso collegato (periferica).
Quindi quello che si può  toccare con le mani è  sicuramente hardware.
Il pezzo dove è posto il pulsante di accenzione  può essere chiamato case o cabinet.
Se parliamo di computer fissi assemblati per la loro caratteristica forma a parallelepipedo vengono chiamati a seconda della dimensione minitower, middletower oppure bigtower.
La diversa dimensione del case viene adottata per agevolare il tecnico in caso di riparazione o sostituzione di pezzi malfunzionanti. Inoltre con un tower più grande la quantità di aria all’interno del case è maggiore e dunque il computer dovrebbe duissipare la temperatuta in modo più ottimale.





Software


Il Software senza scendere nei particolari è il programma sul quale di solito facciamo doppio click e con il quale compiamo le nostre attività al computer.
In base alla caratteristica del software (programma) ci sono diverse classificazioni.  L’importante è capire che alcuni software vengono installati per per poter compiere una serie di operazioni per il quale il computer non era predisposto e quindi se decidiamo di disinstallarli, rinunciamo al loro utilizzo e il computer ritorna a svolgere le funzioni base.
Se invece parliamo di driver, la cosa diventa complessa poichè di solito il driver5 è un particolare tipo di software che consente al computer di farlo comunicare con le (periferiche) che colleghiamo.

lunedì 1 ottobre 2012

Fifa 2013



Fifa 13 


La serie FIFA, in questa generazione di console, ha mostrato come uno sviluppatore deve agire per trasformare un prodotto dalla qualità mediocre nel suo marchio più redditizio.
Il team guidato da David Rutter è riuscito infatti a spodestare la serie Pro Evolution Soccer dallo scranno di simulazione calcistica più amata e venduta del pianeta, spingendo principalmente sui due fattori che, col senno di poi, si sono rivelati più importanti durante la generazione a '256bit'.
In altre parole EA ha sfruttato le nuove console per far debuttare un motore grafico in grado di coniugare un'estetica convincente con un motore fisico credibile, grazie al quale simulare gli scontri tra gli atleti in mezzo al campo, e un comparto multigiocatore funzionale e articolato col quale gli appassionati di tutto il mondo hanno potuto trovare sfide alla loro portata con pochi, semplici passaggi.
1
Anche quest'anno Messi è il testimonial del gioco. La sfida con PES prosegue anche sulle confezioni del gioco.
Lo scorso anno, grazie al nuovo Impact Engine e all'introduzione del Tactical Defending, credevamo si fosse raggiunto il vertice del processo di sviluppo della serie che ora, in attesa delle nuove console, punta a perfezionare e migliorare quanto di buono visto nelle scorse stagioni.
In parte è così, dato che tornano immutati i controlli e con essi anche il nuovo sistema difensivo basato sul contenimento e sul fronteggiamento, con in più la possibilità di strattonare e tirare la maglia, mossa fondamentale per prendere il tempo a un avversario lanciato a rete. Attenzione, però, a non abusarne, poiché l'arbitro punirà sistematicamente tutti gli eccessi.
"Il motore fisico è il medesimo dello scorso anno, solo che stavolta la lettura dei contatti tra i giocatori è molto più precisa"
Allo stesso modo anche il motore fisico è il medesimo dello scorso anno, solo che stavolta la lettura dei contatti tra i giocatori è molto più precisa, soprattutto quando questi agiscono lontano dalla palla. Questo vuol dire che saranno sanzionati molto più frequentemente i falli d'ostruzione, oltre che, ovviamente, i contatti proibiti.
Il più grande cambiamento di FIFA 13 sotto il profilo del gameplay è sicuramente rappresentato dal First Touch Control, in altre parole il tentativo, da parte di EA Sports, di simulare l'abilità dei vari campioni nello stoppare la palla.
Questo gesto, sia nello sport reale sia in quello virtuale, determina il successo o il fallimento di un'azione e spesso distingue il campione dallo scarpone. Per tale motivo l'aggiunta di questa feature contribuisce a rendere la simulazione ancora più realistica, soprattutto con cattive condizioni del tempo.
2
Le rose saranno aggiornate ogni settimana con parametri sempre aggiornati, quindi dite pure addio a Ibra (questa è crudeltà! ndSS).
Vedere Antonini stoppare un lancio di 60 metri sotto la pioggia è sicuramente più difficile che osservare Ashley Cole fare la stessa cosa. Questo non vuol dire che uno sistematicamente ci riuscirà mentre l'altro no, ma semplicemente che ci sono più possibilità che l'esterno inglese domi il pallone rispetto al terzino italiano. Ciò introduce una variabile casuale nella partita, proprio come nel calcio vero, che spinge il giocatore a scegliere accuratamente il tipo di azione da compiere in base alla propria formazione, per minimizzare le possibili complicazioni.
Questo però vale anche al contrario, in altre parole un giocatore dalla tecnica sopraffina sarà in grado di stoppare il pallone in un fazzoletto e usare questa capacità per anticipare il difensore e tirare o trovare il corridoio giusto per un passaggio. Questa superiore capacità di controllare la palla da parte di alcuni calciatori, può essere sfruttata per sviluppare l'azione anche centralmente, dato che il First Touch Control rende il gioco meno statico, spingendo quindi gli attaccanti a essere meno inclini a farsi anticipare dai difensori quando sono spalle alla porta. Senza considerare che è stato migliorato ulteriormente il controllo del dribbling, grazie al quale eseguire movenze funamboliche.
Per rendere questi elementi assolutamente realistici è necessario che gli sviluppatori regolino in maniera perfetta le statistiche, per fare in modo che un Xavi o un Pirlo non perdano un pallone nemmeno sotto tortura o che un Messi mantenga il controllo del corpo anche tra due avversari
.Grazie al Football Club EA Sports cercherà di mantenere costantemente aggiornati i valori di ogni campione, andando a modificare la loro forza secondo le loro ultime prestazioni nei rispettivi campionati. In questo modo non dovremo più attendere il mercato di riparazione per veder arrivare una patch che aggiorni i valori o le formazioni, ma sarà un processo in costante mutamento che renderà sempre più realistici e attuali i valori in campo.
L'altro cambiamento che è possibile notare è la rinnovata capacità dei calciatori a inserirsi negli spazi, per proporsi in fase d'attacco. In questo modo vedrete i vari Lichtsteiner, Marchisio e Vidal proporsi spesso in avanti per provare una conclusione, magari a seguito di veloci triangoli, esattamente come succede nella Juventus reale.
Il rovescio della medaglia è un comportamento un po' troppo aggressivo da parte dei difensori: a volte sembrerà, infatti, che i calciatori provino a inserirsi nei corridoi anche quando sono in difesa, lasciando dei varchi difficilmente colmabili.
3
Sotto il profilo della presentazione e del pathos, FIFA 13 ha ancora da imparare.
Tutte queste novità rendono la fase offensiva ancora più efficace e sarà sempre più complesso, da parte degli amanti del catenaccio, portare a casa le reti inviolate. Utilizzando semplicemente i controlli preposti a fronteggiare e contenere, non riuscirete infatti a bloccare gli avversari che approfitteranno di tiratori da fuori o di attaccanti veloci per punire le vostre incertezze.Dovrete dunque controllare direttamente la vostra fase difensiva e cercare di non sbagliare il tempismo dell'intervento. In vostro aiuto arriverà tutta una serie di nuove animazioni che consentiranno ai giocatori di agganciare automaticamente alcuni palloni che passano piuttosto distanti dal loro corpo. Contro squadre molto aggressive come il Real Madrid o il Machester United vi sembrerà di giocare contro delle piovre in grado di allungarsi e fermare ogni passaggio non perfetto o vedrete i vari campioni lanciarsi a terra per recuperare un pallone stoppato male prima che esca in fallo laterale o per anticipare di un soffio l'avversario.
Da questo punto di vista sono state sistemate anche le animazioni che portano un calciatore a battere una punizione o una rimessa laterale velocemente, in modo da sorprendere le difese avversarie, entrambi elementi che lo scorso anno funzionavano a singhiozzo. Un'altra cosa che è stata eliminata è la ripartenza in seguito a una rimessa del portiere.
Noterete infatti che l'estremo difensore avversario attenderà qualche secondo prima di rimettere in gioco la palla, in modo da consentire ai suoi compagni di posizionarsi correttamente. Con questo piccolo stratagemma gli sviluppatori hanno limitato l'incidere di questo tipo di azione, troppo invadente nell'edizione 2012.
4
El Clásico ha sempre il suo fascino, anche in versione virtuale.
In mezzo a tutto questo splendore permangono ancora alcuni problemi, come i portieri che respingono il pallone troppo spesso in mezzo all'area piccola e i difensori che in queste occasioni dormono, ma nell'economia generale del gioco questi episodi sono meno frequenti che in passato.
Gli integralisti dei controlli manuali, vero e proprio fiore all'occhiello della serie, noteranno poi come quest'ultimo modo di controllare la partita sia stato leggermente semplificato, indirizzando leggermente le traiettorie verso un compagno. In molti storceranno il naso ma ciò rende più facilmente approcciabile questo tipo di controllo anche dai giocatori meno hardcore.
Gli amanti del calcio si accorgeranno che molte di queste nuove chicche rendono le varie partite sempre più realistiche sia da giocare, sia da guardare. Ciò richiederà, ai livelli più alti, una padronanza assoluta dei controlli e un'elevata conoscenza del gioco, ma una volta acquisita FIFA 13 saprà elargire diverse soddisfazioni.
"Avendo ridisegnato l'I.A. avversaria, le sfide anche a livello Leggenda saranno più oneste"
Avendo ridisegnato l'I.A. avversaria, oltretutto, le sfide anche a livello Leggenda saranno più oneste, con gli avversari ancora in grado di punire ogni piccolo errore ed eseguire dribbling a volte soprannaturali, ma comunque notevolmente più realistici che in passato. Se il bilanciamento trovato da EA dovesse non soddisfarvi, sarà sempre possibile tarare le varie slider che regolano parametri come la capacità delle difese a piazzarsi, la fallibilità nei tiri o i passaggi, come meglio vi aggrada.

IPhone5




IPHONE 5




Le impressioni - L’iPhone 5 ha nuovo processore A6, più efficace quando si   naviga in rete grazie al supporto alle reti Lte, ha una fotocamera   migliore e uno schermo più grande e luminoso rispetto al modello che lo ha preceduto, il «4S». È anche più sottile, 7,6   millimetri rispetto ai precedenti  9,3 e pesa appena 114   grammi.  Impugnato sembra quasi vuoto. Il retro non è più interamente   in vetro, ma alterna vetro ad alluminio.
E' l'Iphone piu' costoso di sempre - I prezzi al pubblico dell'Iphone5, rilasciati ieri dopo mesi di attesa e infinite illazioni (nello stile della casa di Cupertino che fa del mistero un potente strumento di marketing) sono in linea con le previsioni del mercato:  729 euro per il modello da 16  Gigabyte, 839 euro per quello da 32 Gb e ben  949 per quello da 64 Giga. Costi giustificati, secondo gli iPhone-entusiasti dalle prestazioni del dispositivo,  uno smartphone più veloce, in grado di eseguire con fluidità anche i programmi e le applicazioni  piu pesanti. Con un display dotato di una tecnologia ad altissima risoluzione, più grande e brillante di qualunque supertelefonino mai commercializzato finora. Senza dimenticare il sistema operativo, lo «Ios 6», che dovrebbe assicurare prestazioni  migliori e, al suo esordio in Italia, l’assistente vocale Siri. 
Le mappe di Google - Grandissima delusione, invece, nelle file dei melafanatics, per  l'applicazione delle mappe dopo il divorzio dal sistema Google Maps. A  Cupertino, però, assicurano che il malfunzionamento sarà risolto presto e il loro sistema diverrà il  punto di riferimento del mercato. In attesa di capire se la profezia si avvererà (basta solo un po’ di pazienza) c’è già chi si domanda se non convenga acquistare, magari in abbonamento, il modello precedente, l’iPhone 4S che sarà più pesante, sarà anche meno veloce e non avrà una risoluzione stratosferica, ma rimane comunque un dispositivo di livello molto alto.
Quanto costa l'Iphone 5 - A comperarlo così, senza Sim, lo si paga 629 euro (prezzo ufficiale). Ma è l’acquisto con un abbonamento fra i tanti offerti dai carrier di telefonia mobile, che lo rende più attraente. Gli sconti sono appena partiti o partiranno fra oggi e lunedì. Il canone mensile per l’iPhone 5 va dai 34 euro della Tre ai 54 di Vodafone che offre però un numero illimitato di chiamate ed Sms. Per gli abbonamenti sul «4S» gli sconti sono interessanti: la Tre lo offre ad esempio a 29 euro al mese, con un vincolo di 30 mesi di durata. Il modello precedente, l’iPhone 4, addirittura a 20 euro. Naturalmente il costo dello smartphone è già incluso. Dunque, chi si dovesse accontentare dei modelli precedenti potrebbe risparmiare dai 150 ai 420 euro. Per la durata dell’intero contratto: due anni e mezzo. Quanti dovessero accontentarsi di passare dal 4 al 4S avrebbero poi un ulteriore risparmio: gli accessori rimangono gli stessi. Con l’iPhone 5 no: i connettori hanno un attacco diverso. Ai «melafanatici» l’ardua scelta. Anche se ben difficilmente chi fa del proprio smartphone un oggetto di tendenza, si accontenterà delle versioni datate.


Galleria immagini

  • Click to enlarge image a.jpg
  • Click to enlarge image b.jpg
  • Click to enlarge image c.jpg
  • Click to enlarge image e.jpg
  • Click to enlarge image f.jpg
  • Click to enlarge image g.jpg
  • Click to enlarge image iphone5Comparison.jpeg
  •     

Considerazioni personali:Evoluzione senza rivoluzione. Un iPhone 5 che soddisfa i suoi possessori, anche per la batteria. Non piacciono le nuove mappe ma...sono giovani, si faranno!
iPhone5maps
Passata la buriana dell'uscita di iPhone 5 in Italia, tra sostenitori e detrattori fisiologici, continuiamo nell'analisi del funzionamento di quello che NON è un telefono rivoluzionario ma che ha perfezionato un progetto già ottimo e che comunque ha rivoluzionato tutto qualche anno fa, e questo lo si deve ammettere. Uno dei punti deboli di iPhone 4S, specialmente se associato ad iOS 6, è la durata della batteria, così come lamentato da moltissimi utilizzatori. Partendo da iPhone 5non abbiamo riscontrato particolari anomalie, anzi. Dopo le prime 2/3 ricariche, che non sono comunque sufficienti, abbiamo riscontrato una durata maggiore che ha comunque permesso di terminare agevolmente la giornata nonostante un utilizzo al solito intenso del terminale.
Consiglio banale, ma non sempre seguito, a chi invece non aveva iOS 6 nativo è quello di non aggiornare il telefono in modalità OTA, o via iTunes, ma effettuare un backup dei propri dati e poi ripristinare il software, in modo tale da partire da un'installazione da zero. A questo punto, ripristinando i propri dati, il comportamento del cellulare dovrebbe essere decisamente migliore rispetto a quello ottenuto dopo il semplice aggiornamento. 
Quel che invece proprio non è piaciuto agli utenti sono le nuove mappe che hano sostituito quelle di Google. Lo stesso Tim Cook, CEO di Apple, si è scusato consigliando di utilizzare le numerose mappe messe a disposizione dalla concorrenza, in attesa che miglioramenti arrivino, e arriveranno certo. 
La stessa Google pare che metterà presto a disposizione una versione di Google Maps attraverso una App che sarebbe già in fase di approvazione da Apple. Sono passati pochi giorni, c'è ancora parecchio lavoro da fare. Rivoluzione no, miglioramenti sì in attesa che na nuova rivoluzione arrivi presto: ma perché deve essere sempre, e necessariamente, da Apple?