Perché il calcolo quantistico potrebbe essere la svolta successiva sulla Big Data Highway

Autore: Judy Howell
Data Della Creazione: 27 Luglio 2021
Data Di Aggiornamento: 11 Maggio 2024
Anonim
Perché il calcolo quantistico potrebbe essere la svolta successiva sulla Big Data Highway - Tecnologia
Perché il calcolo quantistico potrebbe essere la svolta successiva sulla Big Data Highway - Tecnologia

Contenuto


Fonte: Krishnacreations / Dreamstime.com

Porta via:

La tecnologia informatica ha progredito sulla stessa strada per decenni, ma l'informatica quantistica è un enorme allontanamento da ciò che la precedeva.

Il 28 settembre 2012, il New York Times ha pubblicato una storia, "Australians Surge in Quest for New Class of Computer", riguardante quella che sembra essere una svolta nella corsa alla costruzione di un computer quantistico funzionante.

Mentre la definizione di un computer quantistico alluderà molti lettori, basti dire che un computer quantistico funzionante sarà rivoluzionario nel mondo della tecnologia.

La tecnologia informatica è alla base dei cambiamenti nel mondo che abbiamo vissuto negli ultimi 50 anni: l'economia globale, Internet, la fotografia digitale, la robotica, gli smartphone e l'e-commerce si basano tutti sui computer. È quindi importante, credo, per noi avere una conoscenza di base della tecnologia per capire dove ci sta portando il calcolo quantistico.


All'inizio c'era ENIAC

Quindi partiamo dall'inizio. Il primo computer elettronico funzionante fu l'integratore numerico elettronico e il computer, più comunemente noto come ENIAC. È stato sviluppato presso la Moore School of Engineering dell'Università della Pennsylvania, finanziato dall'esercito degli Stati Uniti per calcolare le traiettorie delle armi da fuoco nella seconda guerra mondiale. (Oltre ad essere una meraviglia ingegneristica, l'ENIAC ha aperto la strada a molti importanti progetti IT negli anni successivi, ma era troppo tardi per la seconda guerra mondiale, che si è conclusa prima che il computer fosse completato.)

Il cuore della capacità di elaborazione di ENIAC erano i tubi a vuoto, di cui 17.468. Poiché un tubo a vuoto ha solo due stati: spento e acceso (noto anche come 0/1), i computer hanno adottato l'aritmetica binaria, anziché l'aritmetica decimale, dove i valori vanno da 0 a 9. Ciascuna di queste singole rappresentazioni è chiamata un po ', abbreviazione di "cifra binaria". (Per saperne di più sulla storia dell'ENIAC, vedi Le donne dell'ENIAC: Programmare i pionieri.)


Era ovviamente necessario che ci fosse un modo per rappresentare i numeri, le lettere e i simboli che conosciamo, quindi uno schema di codifica proposto dall'American National Standards Institute (ANSI), noto come American Standard Character Information Interchange (ASCII), alla fine è diventato lo standard. Sotto ASCII, combiniamo 8 bit per formare un carattere, o byte, in uno schema predeterminato. Esistono 256 combinazioni che rappresentano numeri, lettere maiuscole, lettere minuscole e caratteri speciali.

Confuso? Non preoccuparti: l'utente medio del computer non ha bisogno di conoscere i dettagli. È presentato qui solo come blocco.

Successivamente, i computer sono progrediti abbastanza rapidamente dalle valvole a vuoto ai transistor (William Shockley e il suo team Bell Labs hanno vinto il premio Nobel per lo sviluppo dei transistor) e quindi la capacità di mettere più transistor su un chip per creare circuiti integrati. Non passò molto tempo prima che questi circuiti includessero migliaia o addirittura milioni di transistor su un chip, che era chiamato integrazione su larga scala. Queste categorie: 1) tubi a vuoto, 2) transistor, 3) circuiti integrati e 4) VLSI sono considerati le quattro generazioni di sviluppo hardware, indipendentemente dal numero di transistor che possono essere bloccati su un chip.

Nessun bug, nessuno stress: la tua guida passo passo alla creazione di software che ti cambia la vita senza distruggere la tua vita

Non puoi migliorare le tue capacità di programmazione quando a nessuno importa della qualità del software.

Nel tempo in cui l'ENIAC "è diventata attiva" nel 1946 e per tutte queste generazioni, l'uso di base dell'aritmetica binaria basata su tubi a vuoto è rimasto in vigore. Il calcolo quantistico rappresenta una svolta radicale da questa metodologia.

Quantum Computing: The Big Break

I computer quantistici sfruttano la potenza di atomi e molecole per elaborare ed eseguire attività di memoria a una velocità molto più veloce di un computer a base di silicio ... almeno teoricamente. Sebbene esistano alcuni computer quantistici di base in grado di eseguire calcoli specifici, è probabile che tra qualche anno rimanga un modello pratico. Ma se emergessero, potrebbero cambiare drasticamente la potenza di elaborazione dei computer.

Come risultato di questa potenza, l'informatica quantistica ha il potere di migliorare notevolmente l'elaborazione dei big data perché, almeno teoricamente, dovrebbe eccellere nell'elaborazione parallela massiccia di dati non strutturati.

I computer hanno continuato con l'elaborazione binaria per una ragione: non c'era davvero motivo di armeggiare con qualcosa che funzionasse. Dopotutto, la velocità di elaborazione del computer è raddoppiata ogni 18 mesi a due anni. Nel 1965, il vicepresidente di Intel Gordon Moore scrisse un documento che descriveva in dettaglio quella che divenne nota come la legge di Moore, in cui affermava che la densità dei processori sarebbe raddoppiata ogni due anni, con un raddoppio della velocità di elaborazione. Sebbene abbia scritto di aver previsto che questa tendenza durerà per 10 anni, ha - notevolmente - continuato fino ad oggi. (Ci sono stati alcuni pionieri informatici che hanno rotto lo stampo binario. Ulteriori informazioni in Why Not Ternary Computers?)

Ma l'aumento della velocità di elaborazione è stato lungi dall'essere l'unico fattore nel miglioramento delle prestazioni del computer. I miglioramenti nella tecnologia di archiviazione e l'avvento delle telecomunicazioni hanno avuto quasi la stessa importanza. All'inizio dei personal computer, i dischetti floppy contenevano 140.000 caratteri e il primo disco rigido che ho acquistato conteneva 10 milioni di caratteri. (Mi è costato anche $ 5,500 ed era grande quanto un computer desktop). Per fortuna, lo spazio di archiviazione è diventato molto più grande, più piccolo, più veloce nella velocità di trasferimento e molto, molto più economico.

Il grande aumento della capacità ci consente di raccogliere informazioni in aree nelle quali in precedenza potevamo solo grattare la superficie o addirittura non approfondire affatto. Questo include argomenti con molti dati, come il tempo, la genetica, la linguistica, la simulazione scientifica e la ricerca sulla salute, tra molti altri.

Senso dei big data

Sempre più, gli exploit dei big data stanno scoprendo che, nonostante tutti i guadagni nella potenza di elaborazione che abbiamo realizzato, non è sufficiente. Se saremo in grado di dare un senso a questa straordinaria quantità di dati che stiamo accumulando, avremo bisogno di nuovi modi per analizzarli e presentarli così come computer più veloci per elaborarli. I computer quantistici potrebbero non essere pronti all'azione, ma gli esperti hanno osservato ogni loro progresso come il prossimo livello di potenza di elaborazione del computer. Non possiamo dirlo con certezza, ma il prossimo grande cambiamento nella tecnologia informatica potrebbe essere una vera partenza dai chip di silicio che ci hanno portato finora.