Waarom Quantum Computing de volgende is Zet de Big Data Highway aan

Schrijver: Judy Howell
Datum Van Creatie: 27 Juli- 2021
Updatedatum: 11 Kunnen 2024
Anonim
A beginner’s guide to quantum computing | Shohini Ghose
Video: A beginner’s guide to quantum computing | Shohini Ghose

Inhoud


Bron: Krishnacreations / Dreamstime.com

Afhaal:

Computertechnologie is al tientallen jaren op hetzelfde pad, maar kwantumcomputing is een enorme afwijking van wat ervoor kwam.

Op 28 september 2012 lanceerde de New York Times een verhaal, 'Australiërs Surge in Quest for New Class of Computer', over wat een doorbraak lijkt te zijn in de race om een ​​werkende quantumcomputer te bouwen.

Hoewel de definitie van een kwantumcomputer veel lezers zal bevatten, volstaat het om te zeggen dat een werkende kwantumcomputer revolutionair zal zijn in de wereld van technologie.

Computertechnologie ligt ten grondslag aan de veranderingen in de wereld die we de afgelopen 50 jaar hebben ervaren - de wereldeconomie, het internet, digitale fotografie, robotica, smartphones en e-commerce zijn allemaal afhankelijk van computers. Het is dan belangrijk, geloof ik, dat we wat basiskennis van de technologie hebben om te begrijpen waar quantum computing ons mogelijk brengt.


In het begin was er ENIAC

Laten we dus bij het begin beginnen. De eerste werkende elektronische computer was de elektronische numerieke integrator en computer, beter bekend als ENIAC. Het werd ontwikkeld aan de Moore School of Engineering van de Universiteit van Pennsylvania onder financiering van het Amerikaanse leger om schietbanen in de Tweede Wereldoorlog te berekenen. (Naast het feit dat het een technisch wonder was, heeft de ENIAC sindsdien de weg gebaand voor veel grote IT-projecten in de jaren daarna, maar het was te laat voor de Tweede Wereldoorlog, die eindigde voordat de computer was voltooid.)

Het hart van de verwerkingscapaciteit van ENIAC was vacuümbuizen, waarvan 17468. Omdat een vacuümbuis slechts twee toestanden heeft - aan en uit (ook wel 0/1 genoemd) - hebben computers binaire rekenkunde aangenomen in plaats van decimale rekenkunde, waarbij waarden van 0 tot 9 gaan. Elk van deze individuele representaties wordt een beetje genoemd, afkorting voor 'binair cijfer'. (Zie De vrouwen van ENIAC: Programming Pioneers voor meer informatie over de geschiedenis van de ENIAC.)


Het was duidelijk noodzakelijk dat er een manier was om de cijfers, letters en symbolen weer te geven waarmee we vertrouwd zijn, dus een coderingsschema voorgesteld door het American National Standards Institute (ANSI), bekend als American Standard Character Information Interchange (ASCII), werd uiteindelijk de standaard. Onder ASCII combineren we 8 bits om één teken, of byte, te vormen volgens een vooraf bepaald schema. Er zijn 256 combinaties die cijfers, hoofdletters, kleine letters en speciale tekens vertegenwoordigen.

Verward? Maak je geen zorgen - de gemiddelde computergebruiker hoeft de details niet te kennen. Het wordt hier alleen gepresenteerd als een bouwsteen.

Vervolgens gingen computers vrij snel van vacuümbuizen naar transistoren (William Shockley en zijn Bell Labs-team wonnen de Nobelprijs voor de ontwikkeling van transistoren) en vervolgens de mogelijkheid om meerdere transistoren op één chip te plaatsen om geïntegreerde schakelingen te creëren. Het duurde niet lang voordat deze circuits duizenden of zelfs miljoenen transistors op één chip bevatten, die zeer grootschalige integratie werd genoemd. Deze categorieën: 1) vacuümbuizen, 2) transistors, 3) IC's en 4) VLSI worden beschouwd als de vier generaties van hardware-ontwikkeling, ongeacht hoeveel transistors op een chip kunnen worden vastgelopen.

Geen bugs, geen stress - Uw stapsgewijze handleiding voor het creëren van levensveranderende software zonder uw leven te vernietigen

U kunt uw programmeervaardigheden niet verbeteren als niemand om softwarekwaliteit geeft.

In de tijd sinds de ENIAC "live" ging in 1946 en al deze generaties, is het onderliggende gebruik van de binaire rekenkunde op basis van vacuümbuizen van kracht gebleven. Quantum computing vertegenwoordigt een radicale breuk met deze methodologie.

Quantum computing: de grote doorbraak

Quantumcomputers benutten de kracht van atomen en moleculen om geheugentaken te verwerken en uit te voeren met een veel hogere snelheid dan een op silicium gebaseerde computer ... althans theoretisch. Hoewel er enkele standaard kwantumcomputers in staat zijn om specifieke berekeningen uit te voeren, is een praktisch model waarschijnlijk nog enkele jaren verwijderd. Maar als ze zich voordoen, kunnen ze de verwerkingskracht van computers drastisch veranderen.

Als gevolg van deze kracht heeft quantum computing de mogelijkheid om de verwerking van big data aanzienlijk te verbeteren, omdat het in theorie theoretisch gezien zou moeten excelleren in de massale parallelle verwerking van ongestructureerde data.

Computers zijn om één reden doorgegaan met binaire verwerking: er was echt geen reden om te sleutelen aan iets dat werkte. De verwerkingssnelheden van de computer zijn immers elke 18 maanden verdubbeld tot twee jaar. In 1965 schreef Intel Vice President Gordon Moore een paper met een gedetailleerde beschrijving van de wet van Moore, waarin hij verklaarde dat de dichtheid van processors om de twee jaar zou verdubbelen, wat resulteert in een verdubbeling van de verwerkingssnelheid. Hoewel hij had geschreven dat hij voorspelde dat deze trend 10 jaar zou duren, is het - opmerkelijk genoeg - doorgegaan tot op de dag van vandaag. (Er zijn een paar computerpioniers geweest die de binaire vorm hebben gebroken. Meer informatie in Why Not Ternary Computers?)

Maar de toename van de verwerkingssnelheid is verre van de enige factor in verbeterde computerprestaties. Verbeteringen in opslagtechnologie en de komst van telecommunicatie zijn van bijna even groot belang geweest. In de begindagen van personal computers bevatten floppydiskettes 140.000 tekens en de eerste harde schijf die ik kocht, bevatte 10 miljoen tekens. (Het kostte me ook $ 5.500 en was zo groot als een desktopcomputer). Gelukkig is opslag veel groter geworden in capaciteit, kleiner in omvang, sneller in overdrachtssnelheid en veel, veel goedkoper.

De grote capaciteitsverhoging stelt ons in staat om informatie te verzamelen op gebieden waar we voorheen alleen het oppervlak van konden krassen of zelfs helemaal niet in konden duiken. Dit omvat onderwerpen met veel gegevens, zoals het weer, genetica, taalkunde, wetenschappelijke simulatie en gezondheidsonderzoek, naast vele andere.

Zin in big data

In toenemende mate ontdekken big data-exploits dat, ondanks alle winsten in verwerkingskracht die we hebben gemaakt, dit gewoon niet genoeg is. Als we deze enorme hoeveelheid gegevens die we verzamelen, kunnen begrijpen, hebben we nieuwe manieren nodig om deze te analyseren en te presenteren, evenals snellere computers om deze te verwerken. Quantumcomputers zijn misschien niet klaar voor actie, maar experts hebben al hun vorderingen gezien als het volgende niveau van computerverwerkingskracht. We kunnen niet met zekerheid zeggen, maar de volgende grote verandering in computertechnologie zou een echte afwijking kunnen zijn van de siliciumchips die ons tot nu toe hebben meegenomen.