Pourquoi l'informatique quantique pourrait être le prochain tournant sur le Big Data Highway

Auteur: Judy Howell
Date De Création: 27 Juillet 2021
Date De Mise À Jour: 11 Peut 2024
Anonim
Pourquoi l'informatique quantique pourrait être le prochain tournant sur le Big Data Highway - La Technologie
Pourquoi l'informatique quantique pourrait être le prochain tournant sur le Big Data Highway - La Technologie

Contenu


Source: Krishnacreations / Dreamstime.com

À emporter:

La technologie informatique progresse dans le même sens depuis des décennies, mais l’informatique quantique est un énorme changement par rapport à ce qui la précédait.

Le 28 septembre 2012, le New York Times a publié un article intitulé "Les Australiens se lancent à la conquête d'une nouvelle classe d'ordinateurs" concernant ce qui semble être une avancée décisive dans la course à la construction d'un ordinateur quantique en état de fonctionnement.

Bien que la définition d'un ordinateur quantique fasse allusion à de nombreux lecteurs, il suffit de dire qu'un ordinateur quantique en état de fonctionnement sera révolutionnaire dans le monde de la technologie.

La technologie informatique sous-tend les mutations du monde que nous avons connues au cours des 50 dernières années: l'économie mondiale, Internet, la photographie numérique, la robotique, les smartphones et le commerce électronique reposent tous sur des ordinateurs. Je pense qu’il est donc important pour nous d’avoir une compréhension de base de la technologie afin de comprendre où l’informatique quantique pourrait nous mener.


Au début, il y avait ENIAC

Commençons donc au début. Le premier ordinateur électronique en activité était l’intégrateur électronique numérique et l’ordinateur, plus communément appelé ENIAC. Il a été mis au point à la Moore School of Engineering de l’Université de Pennsylvanie, avec le financement de l’armée américaine, pour calculer les trajectoires de tir au cours de la Seconde Guerre mondiale. (En plus d’être une merveille d’ingénierie, l’ENIAC a ouvert la voie à de nombreux projets informatiques majeurs au cours des années écoulées, mais il était trop tard pour la Seconde Guerre mondiale, qui s’est terminée avant l’achèvement de l’ordinateur.)

Les tubes à vide constituaient le cœur de la capacité de traitement d’ENIAC - 17 468 d'entre eux. Parce qu'un tube à vide n'a que deux états - allumé et éteint (également appelé 0/1) - les ordinateurs ont adopté l'arithmétique binaire, plutôt que l'arithmétique décimale, où les valeurs vont de 0 à 9. Chacune de ces représentations individuelles est appelée un bit, abréviation de "chiffre binaire". (Pour en savoir plus sur l'histoire de l'ENIAC, voir Les femmes d'ENIAC: programmer les pionnières.)


Il était évidemment nécessaire de trouver un moyen de représenter les chiffres, les lettres et les symboles que nous connaissons bien, ainsi un schéma de codage proposé par l’ANSI (American National Standards Institute), connu sous le nom de norme ASCII (American Standard Information Information Exchange), est finalement devenu la norme. Sous ASCII, nous combinons 8 bits pour former un caractère, ou un octet, sous un schéma prédéterminé. Il existe 256 combinaisons représentant des nombres, des lettres majuscules, des lettres minuscules et des caractères spéciaux.

Confus? Ne vous inquiétez pas, l’utilisateur moyen n’a pas besoin de connaître les détails. Il est présenté ici uniquement comme un bloc de construction.

Ensuite, les ordinateurs ont progressé assez rapidement des tubes à vide aux transistors (William Shockley et son équipe des Bell Labs ont remporté le prix Nobel pour le développement de transistors), puis à la possibilité de placer plusieurs transistors sur une puce pour créer des circuits intégrés. Il ne fallut pas longtemps avant que ces circuits n'incluent des milliers, voire des millions de transistors sur une puce, appelée intégration à très grande échelle. Ces catégories: 1) tubes à vide, 2) transistors, 3) circuits intégrés et 4) VLSI sont considérées comme les quatre générations de développement matériel, quel que soit le nombre de transistors pouvant être bloqués sur une puce.

Pas de bugs, pas de stress - Votre guide étape par étape pour créer un logiciel qui change la vie sans vous détruire

Vous ne pouvez pas améliorer vos compétences en programmation lorsque personne ne se soucie de la qualité des logiciels.

Depuis que l'ENIAC "a été mis en service" en 1946 et pendant toutes ces générations, l'utilisation sous-jacente de l'arithmétique binaire à tube à vide est restée en place. L'informatique quantique représente une rupture radicale avec cette méthodologie.

Informatique quantique: la grande pause

Les ordinateurs quantiques exploitent la puissance des atomes et des molécules pour traiter et exécuter des tâches de mémoire à une vitesse beaucoup plus rapide qu'un ordinateur à base de silicium ... du moins théoriquement. Bien qu'il existe des ordinateurs quantiques de base capables d'effectuer des calculs spécifiques, il reste probablement encore un modèle pratique dans plusieurs années. Mais si elles émergent, elles pourraient changer radicalement la puissance de traitement des ordinateurs.

Grâce à cette puissance, l’informatique quantique a le pouvoir d’améliorer considérablement le traitement des données volumineuses, car, du moins en théorie, elle devrait exceller dans le traitement massivement parallèle de données non structurées.

Les ordinateurs ont poursuivi le traitement binaire pour une raison: il n’y avait vraiment aucune raison de modifier quelque chose qui fonctionnait. Après tout, les vitesses de traitement informatique ont doublé tous les 18 mois, passant à deux ans. En 1965, Gordon Moore, vice-président d’Intel, écrivait un article détaillant ce qu’on appelle désormais la loi de Moore, dans lequel il déclarait que la densité de processeurs doublerait tous les deux ans, ce qui entraînerait un doublement de la vitesse de traitement. Bien qu'il ait écrit qu'il avait prédit que cette tendance durerait 10 ans, elle s'est remarquablement poursuivie jusqu'à nos jours. (Il y a eu quelques pionniers de l'informatique qui ont brisé le moule binaire. En savoir plus dans Pourquoi pas les ordinateurs Ternary?)

Mais l’augmentation de la vitesse de traitement est loin d’être le seul facteur d’amélioration des performances de l’ordinateur. L'amélioration de la technologie de stockage et l'avènement des télécommunications ont été d'importance presque égale. À l’époque des ordinateurs personnels, les disquettes contenaient 140 000 caractères et le premier disque dur que j’ai acheté contenait 10 millions de caractères. (Cela m'a aussi coûté 5 500 dollars et était aussi gros qu'un ordinateur de bureau). Heureusement, la capacité de stockage est devenue beaucoup plus grande, plus petite, plus rapide en vitesse de transfert et beaucoup, beaucoup moins chère.

La forte augmentation de la capacité nous permet de rassembler des informations dans des domaines dans lesquels nous ne pouvions auparavant que gratter la surface, ou même ne pas les explorer du tout. Cela comprend des sujets contenant beaucoup de données, tels que la météo, la génétique, la linguistique, la simulation scientifique et la recherche en santé, parmi beaucoup d'autres.

Comprendre le Big Data

De plus en plus, les exploitations de Big Data découvrent que malgré tous les gains de puissance de traitement que nous avons réalisés, cela n’est pas suffisant. Si nous voulons pouvoir comprendre la quantité considérable de données que nous accumulons, nous aurons besoin de nouvelles méthodes d’analyse et de présentation, ainsi que d’ordinateurs plus rapides pour la traiter. Les ordinateurs quantiques ne sont peut-être pas prêts à passer à l'action, mais les experts ont surveillé chacune de leurs avancées comme le prochain niveau de puissance de traitement informatique. Nous ne pouvons pas en affirmer avec certitude, mais le prochain grand changement dans la technologie informatique pourrait constituer un véritable départ par rapport aux puces de silicium qui nous ont entraînés jusqu'à présent.