http://www.e-key.it/shopping_cart.aspx
Prezzo=525,30
http://www.e-key.it/login_page.aspx?ReturnUrl=%2fshopping_cart.aspx
Informatica Abacus
domenica 27 gennaio 2013
martedì 20 novembre 2012
L'information retrieval
L'information retrieval (IR) (lett: recupero d'informazioni) è l'insieme delle tecniche utilizzate per il recupero mirato dell'informazione in formato elettronico. Per "informazione" si intendono tutti i documenti, i metadati, i file presenti all'interno di banche dati o nel world wide web. Il termine è stato coniato da Calvin Mooers alla fine degli anni '40 del Novecento, ma oggi è usato quasi esclusivamente in ambito informatico.
L'IR è un campo interdisciplinare che nasce dall'incrocio di discipline diverse. L'IR coinvolge la psicologia cognitiva, l'architettura informativa, la filosofia (vedi la voce ontologia), il design, il comportamento umano sull'informazione, la linguistica, la semiotica, la scienza dell'informazione e l'informatica. Molte università e biblioteche pubbliche utilizzano sistemi di IR per fornire accesso a pubblicazioni, libri ed altri documenti.
Per recuperare l'informazione, i sistemi IR usano i linguaggi di interrogazione basati su comandi testuali. Due concetti sono di fondamentale importanza: query ed oggetto:
Le query ("interrogazioni") sono stringhe di parole-chiavi rappresentanti l'informazione richiesta. Vengono digitate dall'utente in un sistema IR (per esempio, un motore di ricerca).
Un oggetto è un'entità che mantiene o racchiude informazioni in una banca dati. Un documento di testo, per esempio, è un oggetto di dati.
Una tipica ricerca di IR ha come input un comando dell'utente. Poi la sua query viene messa in relazione con gli oggetti presenti nella banca dati. In risposta, il sistema fornisce un insieme di record che soddisfano le condizioni richieste.
Spesso i documenti stessi non sono mantenuti o immagazzinati direttamente nel sistema IR, ma vengono rappresentati da loro surrogati. I motori di ricerca del Web come Google e Yahoo sono le applicazioni più note ed ovvie delle teorie di Information Retrieval.
L'IR è un campo interdisciplinare che nasce dall'incrocio di discipline diverse. L'IR coinvolge la psicologia cognitiva, l'architettura informativa, la filosofia (vedi la voce ontologia), il design, il comportamento umano sull'informazione, la linguistica, la semiotica, la scienza dell'informazione e l'informatica. Molte università e biblioteche pubbliche utilizzano sistemi di IR per fornire accesso a pubblicazioni, libri ed altri documenti.
Per recuperare l'informazione, i sistemi IR usano i linguaggi di interrogazione basati su comandi testuali. Due concetti sono di fondamentale importanza: query ed oggetto:
Le query ("interrogazioni") sono stringhe di parole-chiavi rappresentanti l'informazione richiesta. Vengono digitate dall'utente in un sistema IR (per esempio, un motore di ricerca).
Un oggetto è un'entità che mantiene o racchiude informazioni in una banca dati. Un documento di testo, per esempio, è un oggetto di dati.
Una tipica ricerca di IR ha come input un comando dell'utente. Poi la sua query viene messa in relazione con gli oggetti presenti nella banca dati. In risposta, il sistema fornisce un insieme di record che soddisfano le condizioni richieste.
Spesso i documenti stessi non sono mantenuti o immagazzinati direttamente nel sistema IR, ma vengono rappresentati da loro surrogati. I motori di ricerca del Web come Google e Yahoo sono le applicazioni più note ed ovvie delle teorie di Information Retrieval.
lunedì 29 ottobre 2012
Schede Madri
Il processo di standardizzazione ha interessato non solo il
progetto elettronico, ma anche e soprattutto la forma, le dimensioni e il
posizionamento dei componenti: nel tempo si sono affermati alcuni formati
standard a cui si sono conformati tutti i produttori. Nel campo dei personal
computer IBM compatibili è stata la Intel a giocare un ruolo chiave, imponendo
i due formati ATX e BTX, che nelle loro varie versioni sono adottati da tutte o
quasi le schede madri per PC prodotte oggi. Ma ne esistono molti altri:
PC/XT - Il formato originale creato da IBM per il suo primo
personal computer, l'IBM-PC. È stato adottato dalle schede madri di un gran
numero di cloni, poiché non era coperto da copyright, e divenne per questo uno
standard de facto.
AT (Advanced Technology) - Anche questo secondo formato
divenne molto popolare, soprattutto per le schede madri 386. Ora è obsoleto, ma
è stato la base per lo sviluppo dell'ATX.
Baby AT - Il successore IBM del formato AT. Funzionalmente
del tutto equivalente, era però molto più piccolo e guadagnò seguito
rapidamente; le schede madri che lo adottavano non avevano interfaccia AGP.
ATX - nato a partire dal Baby AT, è a tutt'oggi il formato
di scheda madre più comune in commercio.
ETX, usato nei sistemi embedded e nei computer monoscheda.
Mini-ATX - quasi identico all'ATX, ma leggermente più
piccolo.
MicroATX - un ATX ridotto, con tre soli slot di espansione
PCI o PCI express.
FlexATX - una variante di microATX che permette maggior
flessibilità nel progetto della scheda madre e nel posizionamento dei
componenti.
LPX - Questo formato è basato su un progetto Western
Digital, e permette di usare case più sottili spostando le schede di espansione
su un riser (in sé una speciale scheda di espansione) disponendole parallele
alla scheda madre anziché perpendicolari. Di solito viene adottato solo dai
grandi produttori OEM.
Mini LPX - un sottoinsieme delle specifiche LPX.
NLX - un tipo di formato a basso profilo, che prevede un
riser per le schede di espansione. È stato ideato per assecondare le richieste
del mercato per PC piccoli, ma non ha mai guadagnato molta popolarità.
BTX (Balanced Technology Extended) - uno standard recente,
proposto da Intel come possibile successore dell'ATX.
microBTX e picoBTX - sottoinsiemi più piccoli del BTX.
Mini-ITX - Un formato di scheda madre molto piccolo ad alta
integrazione, introdotto da VIA e pensato per thin client, chioschi elettronici
e set-top box.
Nano-ITX - Altro formato di scheda madre molto piccolo ad
alta integrazione, introdotto da VIA e pensato per thin client, chioschi
elettronici e set-top box. Utilizza processori Via C7 o Eden. Le dimensioni
sono di 12cm per ogni lato.
Pico-ITX - Formato di scheda madre molto piccolo ad alta
integrazione, introdotto da VIA nel 2007 e pensato per thin client, chioschi
elettronici e set-top box. Utilizza processori Via C7 o Eden. Le dimensioni
sono di 10x7,2cm di lato.
WTX (Workstation Technology Extended) - un formato grande,
molto più dell'ATX, ideato per schede madri di server e workstation
multiprocessori di fascia alta.
domenica 21 ottobre 2012
La rivoluzione dei Personal Computer (PC) fu innescata non tanto da hardware e software in quanto tali, ma dal messaggio che queste nuove realtà tecnologiche incarnavano. Nell’uomo divenne sempre più forte il desiderio di trasformare i primi enormi «mostri elettronici» in macchine più piccole e più vicine agli uomini, capaci di eseguire più operazioni e in minor tempo, con l’obbiettivo anche di immetterle sul mercato.
I primi calcolatori
I primi calcolatori erano stati realizzati già durante la seconda guerra mondiale. Erano basati sull’uso di componenti elettromeccaniche (i relais, comunemente impiegati nella telefonia), ed erano soggetti ad usura, oltre che estremamente ingombranti. La sostituzione dei relais con le valvole, ha portato alla costruzione dei primi computer (per esempio Eniac (1946), il primo computer digitale per applicazioni generali) che erano basati su una architettura ideata negli anni ‘40 da Von Neumann ed Alan Turing. L'input veniva dato con delle schede perforate, le memorie di massa erano costituite da nastri magnetici e la RAM, basata su nuclei di ferrite. Il «computer» era ancora inteso come «calcolatore». Solo più tardi il computer passa ad essere un più generico «elaboratore di dati». La sostituzione della valvola col transistor (inventato nel 1948), porta alla nascita dei computer di
«Seconda generazione» e consentì nel corso degli anni ’50, di ridurre enormemente le dimensioni dei computer e di aumentarne la potenza di calcolo, l’affidabilità e la complessità. Un’ulteriore salto qualitativo fu compiuto nel decennio successivo con l’introduzione del circuito integrato: una piastrina in silicio (di dimensioni anche ridottissime) all’interno della quale possono essere riprodotte, in forma miniaturizzata, le funzioni di un’intera rete di transistor. Nascevano così, anche sotto la spinta delle imprese spaziali, i computer della «terza generazione»: apparecchi che non solo vantavano rispetto ai loro predecessori, dimensioni ancora più ridotte, velocità di calcolo ancora maggiore – oltre alla possibilità di collegare molti apparecchi «periferici» (terminali) a una sola memoria centrale -, ma avevano anche costi di produzione sensibilmente più bassi. E questo fu certo un fattore decisivo per far uscire il computer dall’ambito dei laboratori specializzati e degli istituti di ricerca e per farlo entrare nel mondo della produzione di massa. I successivi sviluppi della tecnologia consentirono di produrre processori sempre più piccoli e sempre più veloci e di elaborare programmi sempre più complessi. Il 1971 segna la nascita della «quarta generazione» dei computer, che inizia con la progettazione del primo microprocessore (una CPU realizzata in un unico chip, di costo molto basso), il 4004, ad opera del fisico italiano Federico Faggin che lavorava presso la INTEL. Contemporaneamente si resero disponibili le memorie a semiconduttori meno ingombranti, più veloci e meno costose delle precedenti memorie a nuclei. La prima produzione di computer con microprocessore fu iniziata nel 1974 dalla DEC.
È sempre degli inizi degli anni Settanta una rivoluzionaria invenzione, il linguaggio di programmazione Smalltak creato dal genio di Alan Kay, inventore inoltre dei laptop e delle moderne interfacce grafiche. Smalltalk è un linguaggio di programmazione orientato agli oggetti che sarà ispirazione e base tecnica per il primo MacIntosh, e che influenzerà pesantemente i linguaggi di programmazione come Java.
La «quarta generazione» è quella del cosiddetto «personal computer», che dura ancora oggi. Si trattava inizialmente, di macchine con dischi «floppy» da 5 pollici e un quarto, con una capienza di circa 90K, ed una RAM di poche decine di migliaia di bytes. Tra i modelli vanno ricordati l’APPLE I (1976), il primo personal computer, l’APPLE II (1977), che aveva la tastiera integrata e un design accattivante, il PC-IBM (1980), l’OLIVETTI (1984), nonché varie macchine pensate unicamente per far rendere al meglio i giochi (per esempio, Commodore 64).
Nel 1981 Microsoft vende ad IBM il primo sistema operativo (MS-DOS), che verrà installato sul PC-IBM.
Ma a segnare una rivoluzione nei sistemi di interfaccia tra utente e sistema è il computer «MacIntosh» della ditta Apple, che nel 1984, ispirandosi al linguaggio di programmazione Smalltalk, introduce le finestre e le icone grafiche ed il sistema di puntamento con il mouse (sviluppati in origine nei laboratori Xerox), nonché il floppy disc da 3 pollici e mezzo (il «floppy che non è moscio»). Inizia così «l'umanizzazione» del computer e nasce il concetto di «user-friendly» (sistema amichevole per l'utente): per avvicinare il computer all'utente medio i dati e le operazioni vengono rappresentati in una forma iconica intuitiva e gradevole per l'utente, che allo stesso tempo «viene protetto» da qualsiasi informazione tecnica sul funzionamento interno della macchina. All'accensione del «Mac» appare una faccina sorridente, quando il sistema si blocca appare una bomba al posto di un più informativo messaggio di errore. Il successo di Macintosh è indiscutibile; una macchina completamente diversa da tutto ciò che era ed è in circolazione. Questa peculiarità la famiglia dei Macintosh la conserverà per molti anni a venire, diventando in modo incontestabile la macchina prediletta dei grafici e dei compositori editoriali, ma non solo. Va tenuto conto però, che contrariamente a tutti gli altri personal computer, Macintosh è una macchina chiusa, cioè utilizza un suo hardware fatto apposta, un suo sistema operativo concepito ad oggetti e una serie di programmi e linguaggi di sviluppo completamente autonomi dagli altri computer. Persino la scrittura su dischetti floppy non risulta compatibile.
I concetti di «user-friendly» e interfaccia grafica vengono ripresi dalla Microsoft con lo sviluppo di Windows, la cui prima versione risale al 1985, un sistema di interfaccia grafica per computers IBM-PC e compatibili, tuttora in uso nella versione XP.
venerdì 19 ottobre 2012
STORIA DEL COMPUTER
- L'abaco : E lo strumento di calcolo piu antico.
- La Pascalina era capace di fare addizzioni e sottrazioni
- Babbage fu il primo calcolatore digitale.Faceva addizioni, sottrazioni,divisioni e moltiplicazioni.
- IBM è una azienda fondata nel 1924.
I primi computer elettronici
Nascono dopo la seconda guerra mondiale e non hanno sistema operativo.Il primo fu il "MARK I"
- ENIAC: Nasce nel 1945 e il suo scopo era quello di effettuare calcoli balistici per l'esercito americano.
- Von Neuman : Defini per la prima volta il concetto di elaboratore elettronico.E considerato il padre dell'informatica.
- L'EDUAC: Realizzato da Von Neuman. Fu il primo e vero computer con sistema operativo.
- UNIVAC: Nel 1952 durante una trasmissione si vede un computer UNIVAC che calcola le proiezioni per le presidenziali.
- RAMAC:Viene introdotto da IBM è ha un hard disk.
giovedì 4 ottobre 2012
Hardware e Software
Hardware
Per semplicità definiamo hardware qualunque parte del computer compreso ogni aggeggio ad esso collegato (periferica).
Quindi quello che si può toccare con le mani è sicuramente hardware.
Quindi quello che si può toccare con le mani è sicuramente hardware.
Il pezzo dove è posto il pulsante di accenzione può essere chiamato case o cabinet.
Se parliamo di computer fissi assemblati per la loro caratteristica forma a parallelepipedo vengono chiamati a seconda della dimensione minitower, middletower oppure bigtower.
Se parliamo di computer fissi assemblati per la loro caratteristica forma a parallelepipedo vengono chiamati a seconda della dimensione minitower, middletower oppure bigtower.
La diversa dimensione del case viene adottata per agevolare il tecnico in caso di riparazione o sostituzione di pezzi malfunzionanti. Inoltre con un tower più grande la quantità di aria all’interno del case è maggiore e dunque il computer dovrebbe duissipare la temperatuta in modo più ottimale.
Software
Il Software senza scendere nei particolari è il programma sul quale di solito facciamo doppio click e con il quale compiamo le nostre attività al computer.
In base alla caratteristica del software (programma) ci sono diverse classificazioni. L’importante è capire che alcuni software vengono installati per per poter compiere una serie di operazioni per il quale il computer non era predisposto e quindi se decidiamo di disinstallarli, rinunciamo al loro utilizzo e il computer ritorna a svolgere le funzioni base.Se invece parliamo di driver, la cosa diventa complessa poichè di solito il driver5 è un particolare tipo di software che consente al computer di farlo comunicare con le (periferiche) che colleghiamo.
In base alla caratteristica del software (programma) ci sono diverse classificazioni. L’importante è capire che alcuni software vengono installati per per poter compiere una serie di operazioni per il quale il computer non era predisposto e quindi se decidiamo di disinstallarli, rinunciamo al loro utilizzo e il computer ritorna a svolgere le funzioni base.Se invece parliamo di driver, la cosa diventa complessa poichè di solito il driver5 è un particolare tipo di software che consente al computer di farlo comunicare con le (periferiche) che colleghiamo.
lunedì 1 ottobre 2012
Fifa 2013
Fifa 13
La serie FIFA, in questa generazione di console, ha mostrato come uno sviluppatore deve agire per trasformare un prodotto dalla qualità mediocre nel suo marchio più redditizio.
Il team guidato da David Rutter è riuscito infatti a spodestare la serie Pro Evolution Soccer dallo scranno di simulazione calcistica più amata e venduta del pianeta, spingendo principalmente sui due fattori che, col senno di poi, si sono rivelati più importanti durante la generazione a '256bit'.
In altre parole EA ha sfruttato le nuove console per far debuttare un motore grafico in grado di coniugare un'estetica convincente con un motore fisico credibile, grazie al quale simulare gli scontri tra gli atleti in mezzo al campo, e un comparto multigiocatore funzionale e articolato col quale gli appassionati di tutto il mondo hanno potuto trovare sfide alla loro portata con pochi, semplici passaggi.
Lo scorso anno, grazie al nuovo Impact Engine e all'introduzione del Tactical Defending, credevamo si fosse raggiunto il vertice del processo di sviluppo della serie che ora, in attesa delle nuove console, punta a perfezionare e migliorare quanto di buono visto nelle scorse stagioni.
In parte è così, dato che tornano immutati i controlli e con essi anche il nuovo sistema difensivo basato sul contenimento e sul fronteggiamento, con in più la possibilità di strattonare e tirare la maglia, mossa fondamentale per prendere il tempo a un avversario lanciato a rete. Attenzione, però, a non abusarne, poiché l'arbitro punirà sistematicamente tutti gli eccessi.
"Il motore fisico è il medesimo dello scorso anno, solo che stavolta la lettura dei contatti tra i giocatori è molto più precisa"
Allo stesso modo anche il motore fisico è il medesimo dello scorso anno, solo che stavolta la lettura dei contatti tra i giocatori è molto più precisa, soprattutto quando questi agiscono lontano dalla palla. Questo vuol dire che saranno sanzionati molto più frequentemente i falli d'ostruzione, oltre che, ovviamente, i contatti proibiti.
Il più grande cambiamento di FIFA 13 sotto il profilo del gameplay è sicuramente rappresentato dal First Touch Control, in altre parole il tentativo, da parte di EA Sports, di simulare l'abilità dei vari campioni nello stoppare la palla.
Questo gesto, sia nello sport reale sia in quello virtuale, determina il successo o il fallimento di un'azione e spesso distingue il campione dallo scarpone. Per tale motivo l'aggiunta di questa feature contribuisce a rendere la simulazione ancora più realistica, soprattutto con cattive condizioni del tempo.
Vedere Antonini stoppare un lancio di 60 metri sotto la pioggia è sicuramente più difficile che osservare Ashley Cole fare la stessa cosa. Questo non vuol dire che uno sistematicamente ci riuscirà mentre l'altro no, ma semplicemente che ci sono più possibilità che l'esterno inglese domi il pallone rispetto al terzino italiano. Ciò introduce una variabile casuale nella partita, proprio come nel calcio vero, che spinge il giocatore a scegliere accuratamente il tipo di azione da compiere in base alla propria formazione, per minimizzare le possibili complicazioni.
Questo però vale anche al contrario, in altre parole un giocatore dalla tecnica sopraffina sarà in grado di stoppare il pallone in un fazzoletto e usare questa capacità per anticipare il difensore e tirare o trovare il corridoio giusto per un passaggio. Questa superiore capacità di controllare la palla da parte di alcuni calciatori, può essere sfruttata per sviluppare l'azione anche centralmente, dato che il First Touch Control rende il gioco meno statico, spingendo quindi gli attaccanti a essere meno inclini a farsi anticipare dai difensori quando sono spalle alla porta. Senza considerare che è stato migliorato ulteriormente il controllo del dribbling, grazie al quale eseguire movenze funamboliche.
Per rendere questi elementi assolutamente realistici è necessario che gli sviluppatori regolino in maniera perfetta le statistiche, per fare in modo che un Xavi o un Pirlo non perdano un pallone nemmeno sotto tortura o che un Messi mantenga il controllo del corpo anche tra due avversari
.Grazie al Football Club EA Sports cercherà di mantenere costantemente aggiornati i valori di ogni campione, andando a modificare la loro forza secondo le loro ultime prestazioni nei rispettivi campionati. In questo modo non dovremo più attendere il mercato di riparazione per veder arrivare una patch che aggiorni i valori o le formazioni, ma sarà un processo in costante mutamento che renderà sempre più realistici e attuali i valori in campo.
L'altro cambiamento che è possibile notare è la rinnovata capacità dei calciatori a inserirsi negli spazi, per proporsi in fase d'attacco. In questo modo vedrete i vari Lichtsteiner, Marchisio e Vidal proporsi spesso in avanti per provare una conclusione, magari a seguito di veloci triangoli, esattamente come succede nella Juventus reale.
Il rovescio della medaglia è un comportamento un po' troppo aggressivo da parte dei difensori: a volte sembrerà, infatti, che i calciatori provino a inserirsi nei corridoi anche quando sono in difesa, lasciando dei varchi difficilmente colmabili.
Tutte queste novità rendono la fase offensiva ancora più efficace e sarà sempre più complesso, da parte degli amanti del catenaccio, portare a casa le reti inviolate. Utilizzando semplicemente i controlli preposti a fronteggiare e contenere, non riuscirete infatti a bloccare gli avversari che approfitteranno di tiratori da fuori o di attaccanti veloci per punire le vostre incertezze.Dovrete dunque controllare direttamente la vostra fase difensiva e cercare di non sbagliare il tempismo dell'intervento. In vostro aiuto arriverà tutta una serie di nuove animazioni che consentiranno ai giocatori di agganciare automaticamente alcuni palloni che passano piuttosto distanti dal loro corpo. Contro squadre molto aggressive come il Real Madrid o il Machester United vi sembrerà di giocare contro delle piovre in grado di allungarsi e fermare ogni passaggio non perfetto o vedrete i vari campioni lanciarsi a terra per recuperare un pallone stoppato male prima che esca in fallo laterale o per anticipare di un soffio l'avversario.
Da questo punto di vista sono state sistemate anche le animazioni che portano un calciatore a battere una punizione o una rimessa laterale velocemente, in modo da sorprendere le difese avversarie, entrambi elementi che lo scorso anno funzionavano a singhiozzo. Un'altra cosa che è stata eliminata è la ripartenza in seguito a una rimessa del portiere.
Noterete infatti che l'estremo difensore avversario attenderà qualche secondo prima di rimettere in gioco la palla, in modo da consentire ai suoi compagni di posizionarsi correttamente. Con questo piccolo stratagemma gli sviluppatori hanno limitato l'incidere di questo tipo di azione, troppo invadente nell'edizione 2012.
In mezzo a tutto questo splendore permangono ancora alcuni problemi, come i portieri che respingono il pallone troppo spesso in mezzo all'area piccola e i difensori che in queste occasioni dormono, ma nell'economia generale del gioco questi episodi sono meno frequenti che in passato.
Gli integralisti dei controlli manuali, vero e proprio fiore all'occhiello della serie, noteranno poi come quest'ultimo modo di controllare la partita sia stato leggermente semplificato, indirizzando leggermente le traiettorie verso un compagno. In molti storceranno il naso ma ciò rende più facilmente approcciabile questo tipo di controllo anche dai giocatori meno hardcore.
Gli amanti del calcio si accorgeranno che molte di queste nuove chicche rendono le varie partite sempre più realistiche sia da giocare, sia da guardare. Ciò richiederà, ai livelli più alti, una padronanza assoluta dei controlli e un'elevata conoscenza del gioco, ma una volta acquisita FIFA 13 saprà elargire diverse soddisfazioni.
"Avendo ridisegnato l'I.A. avversaria, le sfide anche a livello Leggenda saranno più oneste"
Avendo ridisegnato l'I.A. avversaria, oltretutto, le sfide anche a livello Leggenda saranno più oneste, con gli avversari ancora in grado di punire ogni piccolo errore ed eseguire dribbling a volte soprannaturali, ma comunque notevolmente più realistici che in passato. Se il bilanciamento trovato da EA dovesse non soddisfarvi, sarà sempre possibile tarare le varie slider che regolano parametri come la capacità delle difese a piazzarsi, la fallibilità nei tiri o i passaggi, come meglio vi aggrada.
Iscriviti a:
Post (Atom)