Les Machines pour le Big Data : Vers une Informatique Quantique et Cognitive

Avec la digitalisation grandissante et le déluge informationnel qui en résulte, des pans entiers de l’économie sont bouleversés par des innovations - disruptives - rendues possibles par un internet prolifique et le traitement des Big Data. Les Big Data désignent en effet des ensembles massifs de données multi-variées et accumulées à des vitesses sans précédent sur les individus, et même sur les organisations, via le web, les réseaux sociaux, et maintenant avec de plus en plus de capteurs contribuant à l’avènement prochain de ce que l’on appelle déjà l’internet des objets (IdO) . Ces Big Data sont en quelque sorte « le pétrole de notre ère digitale (1) », et elles nourrissent les espoirs d'un eldorado pour des économies en quête désespérée de croissance.

Une nouvelle science pluridisciplinaire - la Data Science (2) - est en train de naître pour traiter et valoriser ces Big Data, depuis leur collecte, en passant par leur traitement jusqu’à leur structuration en bases de données de formes totalement nouvelles, qui sont bien loin des tables habituelles, dans lesquelles les lignes et les colonnes représentaient respectivement les clients et leurs données. Cette Data Science est en quelque sorte la pétrochimie du digital, dont le but est de raffiner les Big Data « brutes » en Smart Data, c’est-àdire en données pertinentes pour la problématique « business » dont on cherche à prédire les événements clés, comme l’achat d’un produit par un prospect ou son appétence à choisir un produit plutôt qu’un autre. Cette Data Science ne confond plus corrélations et causalité (3), car les événements qu’elle cherche à prédire sont souvent des événements très rares. Tellement rare que cela s’apparente à rechercher une aiguille dans des bottes de foin ! Pour rendre ces prédictions possibles, la Data Science a maintenant recours à des algorithmes d’apprentissage automatique, également appelé Machine Learning, qui ont la faculté de s’auto-organiser pour améliorer par eux-mêmes leur pouvoir prédictif et discriminant, ce qui est souvent supervisé par une fonction globale dite de coût ou d’utilité (cf. Infra).

Mais ces algorithmes sont aussi gourmands en puissance de calcul, si bien que des géants comme Google ont mis au point - il y a quelques années déjà - des architectures de calculs parallèles et distribués. Si l’on revient à notre analogie de « l’aiguille dans des bottes de foin », ces protocoles permettent de rechercher l’aiguille simultanément sur les différentes bottes de foin, éventuellement en les divisant encore en bottes plus petites, au lieu de toutes les agréger et de rechercher ensuite l’aiguille dans le gros amas de foin résultant de cette agrégation. Ces protocoles, au nom de MapReduce, Hadoop, Spark… constituent de véritables sésames à l’emploi pour le Data Scientist que l’on considère d’ores et déjà comme « le job le plus sexy du 21ème siècle » (4). En effet, les formations en Data Science se développent de plus en plus en France, au sein des institutions scientifiques les plus prestigieuses, telle que l’Ecole Polytechnique (5) . Elles ont pour ambition de former une nouvelle génération d’ingénieurs qui seront de plus en plus recherchés avec la prolifération des start-ups, elles-mêmes de plus en plus incubées au sein de pépinières appartenant à de grands groupes, qui sont en quête d’innovations disruptives. Cependant, cet engouement et cet enthousiasme - frôlant parfois même l’euphorie - occultent de manière assez surprenante un aspect bassement matériel, celui du Hardware, des machines qui auront à traiter et raffiner ces Big Data, afin d’en extraire de la valeur et en faire des modèles prédictifs. Une question émerge naturellement : Les machines actuelles serontelles assez puissantes pour relever ces défis de plus en plus ambitieux de la Data Science?

Cet article est une analyse prospective sur les mutations technologiques qui affecteront l’informatique et ses machines, dans un avenir proche, afin de répondre aux grands défis soulevés par notre société du tout digital. Nous pensons que ces mutations seront à la fois « quantique » et « cognitive ». Nous étayerons notre analyse en revenant sur ce qui fonde encore aujourd’hui nos ordinateurs, à savoir une architecture vieille de plus d’un demi-siècle, qui est entre autres responsable des espoirs déchus de l’intelligence artificielle. Nous décrirons deux solutions prometteuses et complémentaires que l’on appelle aujourd’hui le Calcul Quantique Adiabatique (6) et l’Informatique Cognitive (7), qui vont bouleverser les capacités de traitement des Big Data.   

Une architecture mal adaptée à l’intelligence artificielle
La plupart des articles consacrés aux Big Data qu’ils soient grand public ou plus techniques, s’intéressent rarement aux problèmes liés aux machines, le Hardware, qui sera - nous le pensons - l’incarnation matérielle de la Data Science. Cette informatique n’a cessé d’évoluer dans le bon sens depuis des décennies, puisque nos ordinateurs sont de plus en plus puissants, tout en étant de plus en plus compacts. Nous sommes tellement habitués à cette amélioration sans fin des machines que nous parlons même de dématérialisation lorsqu’un service devient digital. Ce terme de dématérialisation est révélateur du peu d’intérêt que l’on accorde aux machines qui devront pourtant réaliser les desseins de cette Data Science.

Pour comprendre les tenants et les aboutissants de notre analyse, une petite rétrospective s’impose. En effet, la manière dont les ordinateurs sont encore très majoritairement conçus aujourd’hui repose sur une architecture vieille de plus d’un demi-siècle. Il s’agit de l’architecture proposée par John Von Neumann en 1945, célèbre mathématicien et physicien, qui a dirigé un projet de calculateurs à tubes électroniques (i.e. l’ancêtre du transistor, cf. Infra), financé par l’armée américaine, afin de réaliser des (8) calculs balistiques. Même si des variations ont été faites autour de cette architecture, elle demeure l’ossature autour de laquelle nos ordinateurs s’articulent encore aujourd’hui. Cette conception est fondamentalement séquentielle : les opérations sont effectuées par l’ordinateur les unes après les autres, selon un programme d’instructions écrit par l’homme. Le micro-processeur exécute alors les opérations de façon quasiséquentielle et non pas en parallèle. Et c’est ici l’une des premières faiblesses de cette architecture et de ses variantes, qui est parfaitement représentée par une métaphore portant le nom de « goulot de Von Neumann » : lorsque la fréquence de cadence du micro-processeur n’est pas assez grande au regard des quantités de données et d’opérations qu’il a à exécuter, le microprocesseur devient alors limitant, ce qui induit une sorte d’étranglement du flux d’information effectivement traitée. De nos jours, les effets de ce manque de parallélisme se font moins sentir, car les microprocesseurs sont cadencées à des fréquences dépassant le Giga-Herz, à savoir plus d’un milliard d’opérations par seconde ! Et si l’on souhaite aller encore plus vite, il faut doubler - voir quadrupler - le nombre de micro-processeurs, cette fois en parallèle, obtenant des ordinateurs multi-coeurs qui sont aujourd’hui accessibles au grand public.

Cette architecture qui a fait le succès de l’informatique classique, a également eu une contrepartie négative. Son faible degré de parallélisme a freiné le développement de l’intelligence artificielle, qui aspirait à reproduire l’architecture et le comportement du cerveau humain, qui lui est par essence hautement parallèle. En effet, dès que les ordinateurs sont devenus assez puissants pour effectuer des calculs scientifiques avancés, les spécialistes de l’intelligence artificielle ont eu l’idée de reproduire sur ordinateurs des réseaux de neurones artificiels et virtuels. Ces tentatives ont été rapidement confrontées aux limites des machines, qui étaient incapables de gérer simultanément et en parallèle quelques milliers de neurones, alors que le cerveau d’un simple vertébré en contient des millions, voir des milliards. Pour le cerveau humain, on estime ce nombre à près de 100 milliards de neurones, avec pour chaque neurone, un nombre de synapses (i.e. connexions) de l’ordre de 10 000 connexions en moyenne. Ces ordres de grandeur suffisent à se rendre compte qu’il est tout simplement impossible de reproduire le fonctionnement réel d’un cerveau humain sur un simple ordinateur. En aéronautique, par exemple, quand on souhaite simuler le comportement de plusieurs pièces d’un avion, on effectue les calculs sur des machines différentes et en parallèle. Le fonctionnement du cerveau humain est à ce titre bien plus complexe que celui d’un avion, et nécessiterait à lui seul des ressources incommensurables. Le Human Brain Project (9) est justement un projet scientifique qui a pour ambition - d’ici 2024 - de simuler le fonctionnement du cerveau humain grâce à des super-ordinateurs. La motivation première n’est pas de traiter des données, mais de mieux comprendre le fonctionnement du cerveau afin de développer des stratégies thérapeutiques contre les maladies neurologiques, qui frappent un nombre de plus en plus grand d’individus. Ce projet est soutenu financièrement par l’Union Européenne à hauteur de milliards d’euros. A l’heure actuelle, l’équipe aurait uniquement reproduit l’activité neuronale du cortex cérébrale d’un simple rat (10), ce qui illustre bien nos propos : l’intelligence artificielle a besoin de nouvelles architectures informatiques.

A l’aube d’une Seconde Révolution Quantique
Depuis l’invention du transistor au sein des Bell Labs en 1947, et qui a valu à ses inventeurs le prix Nobel de physique en 1956, cet interrupteur électronique n’a cessé d’être miniaturisé afin de peupler par millions, et maintenant par milliards, les puces électroniques de nos ordinateurs et autres dispositifs, comme les smartphones. Le transistor est une sorte de « sandwich » de trois semi-conducteurs, comme le silicium, qui a donné par ailleurs son nom à la Silicon Valley. Sans la physique quantique, il serait impossible d’expliquer la conduction électrique dans de tels matériaux, et donc de concevoir ce transistor qui incarne l’unité élémentaire de notre monde digital, à savoir le bit (pour binary digit) qui ne vaut que 0 ou 1. Cette première révolution quantique a fait notre monde digital tel que nous le connaissons. C’est elle qui a donné naissance aux LED et à nos écrans plats, et c’est encore elle qui explique le fonctionnement des lasers à la base entre autres des communications par fibres optiques de l’internet à ultra-haut débit et transcontinental. Les applications sont si nombreuses qu’il serait peine perdue d’être exhaustif ici.

Pour décrire la miniaturisation soutenue des micro-processeurs, une loi empirique a même été établie dès les années 70. Il s’agit de la loi de Moore - et de ses variantes - qui décrivent l’évolution de la puissance des machines sur des intervalles (11) de temps réguliers. Une des manifestations de cette loi est que nos appareils digitaux sont fréquemment dépassés, et remplacés par des appareils plus puissants et plus compacts. Cependant, cette miniaturisation va bientôt se heurter à un mur physique, celui des effets quantiques.

En effet, il ne sera plus possible de faire des transistors avec seulement quelques atomes et une pincée d’électrons. A de telles échelles, ce sont les lois de la physique quantique qui gouvernent. Cette physique est si étrange qu’elle a défiée les esprits les plus brillants, comme Albert Einstein, qui pensait même que la physique quantique était incomplète (12). On sait aujourd’hui, grâce notamment aux expériences d’Alain Aspect (13) (1982), que Einstein avait tort sur ce point et que la physique quantique - bien qu’étrange - constitue l’une des théories scientifiques les mieux vérifiées (14). Ainsi, dans ce monde quantique, un système peut être dans une superposition de deux états classiquement incompatibles : une particule peut être à deux endroits simultanément. Cette étrangeté quantique, les physiciens ont eu l’idée de l’exploiter pour en faire une nouvelle manière de traiter l’information : l’informatique quantique. C’est ce que l’on appelle déjà la Seconde Révolution Quantique, celle qui exploitera véritablement l’étrangeté du monde quantique pour traiter plus efficacement l’information.

En informatique quantique, l’unité élémentaire de l’information est le bit quantique, le Q-bit, qui peut être dans une superposition quantique des deux états classiques et incompatibles du bit classique, à savoir 0 et 1. En quoi cela peut-il être utile ? En encodant l’information en de telles superpositions, on dote la machine d’une faculté plus qu’appréciable : le parallélisme. Cette faculté permet alors à la machine d’effectuer en parallèle un grand nombre d’opérations, contrairement aux architectures habituelles qui les effectuent de manière séquentielle, les unes après les autres. En outre, une machine quantique utilisera rarement un seul Q-bit pour effectuer des calculs. Elle aura recours à ce que l’on appelle des registres quantiques, composés de plusieurs Q-bits. C’est là qu’une autre spécificité du monde quantique intervient : l’intrication. C’est elle qui avait perturbé Einstein à cause des très fortes corrélations que cette intrication semble induire même à distance. En effet, un registre de plusieurs Q-bits peut être dans un état quantique dit intriqué, dans lequel les états des différents Q-bits du registre sont enchevêtrés. Dans de tels états intriqués, on ne peut plus définir l’état d’un Q-bit du registre sans spécifier les états des autres Q-bits du registre, si bien que si l’on effectue une opération localement sur un des Q-bits, les effets se répercutent globalement et instantanément sur les autres Q-bits du registre, sans avoir à spécifiquement agir sur eux avec des opérations locales.

La cohérence quantique - la possibilité que des Q-bits soient dans des superpositions d’états incompatibles classiquement, y compris des états enchevêtrés ou intriqués - constitue la ressource fondamentale de ce qui rendrait un ordinateur quantique extrêmement puissant et intéressant. En effet, en 1976 chez IBM, Peter Shor proposa un algorithme (qui portera son nom) qui rend possible la factorisation de nombres entiers en facteurs de nombres premiers, et cela beaucoup plus vite qu’avec n’importe quelle autre machine classique. Or, les protocole de cryptage sur lesquels reposent entre autres la sécurité des transactions financières - et autres transmissions d’informations secrètes - sont en grande majorité fondés sur le protocole de cryptage dit RSA. Ce dernier a pour « recette » le produit de deux grands nombres entiers premiers - choisis aléatoirement - pour générer la clé de cryptage. La sécurité de ce protocole repose uniquement sur le fait qu’il faudrait plusieurs fois l’âge de la terre ou même de l’univers (15) à des ordinateurs classiques pour casser le code par la « force brute », c’est-à-dire en réalisant une factorisation en facteurs premiers. Cet algorithme de Shor a motivé à lui seul le financement des recherches en informatique quantique, et continue toujours à faire partie des arguments clés.

Néanmoins, dans l’état actuel des recherches, seuls quelques embryons d’ordinateurs quantiques existent dans le monde, confinés encore à des laboratoires académiques, au sein des institutions les plus prestigieuses. La France n’est pas en reste, avec notamment le Laboratoire Kastler Brossel qui a reçu récemment un troisième Prix Nobel en 2012 pour des travaux allant (16) dans ce sens. Toutes ces tentatives expérimentales se heurtent à un ennemi de taille : la décohérence. En effet, un Q-bit est un état fortement non-classique et fragile. La moindre interaction avec l’environnement le transforme irrémédiablement en un vulgaire jeu de « pile ou face » classique, ce que l’on appelle en informatique classique un p-bit : un bit probabiliste, c’est-à-dire un bit dont l’état n’est pas défini avec certitude, ce qui est en fait l’origine des erreurs dans nos ordinateurs classiques.

Ainsi, tout l’enjeu de ces expériences d’informatique quantique est de contrôler l’interaction du Q-bit avec son environnement afin de limiter les effets de cette décohérence durant les phases de calcul. C’est toute la force de la physique quantique : en décrivant le processus de décohérence, la physique quantique rend compte d’effets très étranges, mais elle nous explique également pourquoi nous n’observons pas ces effets dans la vie courante. Notre monde classique, qui a forgé notre intuition depuis notre naissance, est un monde quantique, mais dont les cohérences quantiques sont en très grande majorité nulles, ce qui le rend classique au sens où nous l’avons tous expérimenté. Dans notre monde, un chat est soit mort ou vivant. Un bit est soit 0 ou 1. Dans un ordinateur quantique, on souhaite qu’il soit les deux à la fois !

Du Calculateur Quantique Adiabatique au Machine Learning
L’actualité des calculateurs quantiques a connu récemment une petite révolution (17). En effet, une société canadienne, D-Wave Systems Inc. (18) a annoncé avoir vendu à Google et à la NASA un calculateur quantique sur lequel beaucoup de doutes ont plané au sein de la communauté scientifique. Ces doutes sont compréhensibles, étant donnés les efforts continus et colossaux que les chercheurs déploient depuis des décennies pour mettre au point un tel ordinateur quantique.

Cependant, il existe une nuance de taille. Le calculateur que propose cette société n’est pas un ordinateur quantique universel, mais un calculateur quantique adiabatique. Quelle est la différence ? Un ordinateur quantique universel est une machine programmable à base de portes logiques, elles-mêmes quantiques, agissant sur des registres de Q-bits. Il est aujourd’hui communément admis que la réalisation d’une telle machine prendra encore quelques décennies avant d’aboutir à une solution viable et robuste, notamment à cause de la décohérence induite par l’environnement ambiant.

Ainsi, un calculateur quantique adiabatique n’est pas un ordinateur quantique universel. Il s’agit d’un calculateur dédié à résoudre une classe particulière de problèmes d’optimisation dite combinatoire. Il existe en effet une correspondance directe entre la physique quantique opérant au coeur du microprocesseur de ce calculateur, et les représentations en termes de graphes du problème d’optimisation combinatoire que l’on cherche à résoudre. Ces graphes - des sortes de grappes - interviennent dans beaucoup de problèmes d’optimisation discrète, dont le plus emblématique d’entre eux est sans nul doute le problème du voyageur de commerce.

Imaginons un VRP qui doit effectuer la visite d’un certain nombre de villes que nous noterons N. Il doit visiter chacune de ces villes une seule fois, tout en minimisant la distance globalement parcourue. Ce problème est en apparence simple, mais il est plus complexe qu’on peut le croire. Rechercher la solution exacte exige de générer tous les chemins possibles parcourant ces N villes une seule fois, ce qui implique une explosion combinatoire (19). Autrement dit, le temps de calcul croît de manière exponentielle avec le nombre N de villes à visiter.

Par contre, le problème de décision associé, c’est-à-dire savoir si un trajet donné est inférieur ou supérieur à une distance donnée, est un problème qui ne requiert qu’un temps raisonnable pour être effectué sur une machine classique. Dit autrement, il est plus facile de vérifier qu’une solution est acceptable sur une machine classique que de rechercher la solution optimale.

Le calculateur quantique adiabatique proposé par D-Wave est exactement une machine utile en ce sens. Nul besoin de la détenir. On peut lui soumettre des requêtes à distance, et la machine quantique nous fournira des suggestions de réponse qu’il suffira alors de tester sur des machines classiques, compte tenu du critère que l’on aura retenu, la fonction de coût ou d’utilité selon le jargon des spécialistes. Si la solution nous convient, le problème est résolu, sinon on refait une requête pour obtenir une meilleure suggestion. On montre alors que cette approche est la plus judicieuse : le calculateur quantique joue le rôle d’un « oracle quantique » suggérant des solutions de plus en plus « correctes (20) » par rapport à ce que pourrait faire n’importe quelle autre machine classique.

En effet, nos machines classiques se contenteront simplement de vérifier que ces solutions remplissent bien un certain nombre de conditions que l’on exige d’elles, via les fonctions d’utilité qui supervise le problème considéré.

Ce calculateur quantique adiabatique peut alors s’articuler en symbiose avec un algorithme de Machine Learning classique. C’est ce qui semble avoir motivé l’achat de cette machine par Google , notamment pour son projet de Google Car, (21) où les algorithmes de reconnaissance de formes sont réputés faire intervenir des problèmes d’optimisation combinatoire très complexes. Ces algorithmes de Machine Learning sont généralement supervisés par des fonctions d’utilité. C’est l’évaluation de ces fonctions qui dira aux Data Scientists si la solution proposée par la machine quantique est correcte ou non. L’expérience montrera alors si Google - et d’autres - ont eu raison de faire un tel investissement, mais l’histoire montre que Google a généralement toujours pris de bonnes initiatives…

Le Cognitive Computing aura également son Hardware: des puces inspirées du cerveau
Sur certains aspects, le cerveau des vertébrés réalise ce que l’on appelle en mathématique une quantification vectorielle, en réduisant l’espace des données, qui est généralement de très hautes dimensions à des espaces de dimensions réduites. En ce sens-là, les neurones constituent des classificateurs de signaux qui sont susceptibles d’être activés lorsque les stimuli qui se présentent aux neurones remplissent un certain nombre de conditions. Mais à l’échelle du cerveau, lorsque deux stimuli se présentent, ces derniers stimulent des zones qui sont d’autant plus proches que les stimuli sont proches. C’est ce que l’imagerie médicale nous enseigne. C’est de cette façon que le cerveau est capable de reconnaitre différentes nuances d’une même couleur, alors qu’un ordinateur se bornerait à retenir et à ne reconnaitre que certaines combinaisons des trois couleurs primaires RVB par exemple.

Cette faculté de nuance et d’auto-organisation dont est capable le cerveau est une richesse indispensable lorsque l’on a à traiter et à visualiser des données multi-variées, comme c’est le cas avec les Big Data. D’autant plus que les ensembles de données réels sont loin d’être parfaits : ils comportent souvent des données manquantes. On montre alors que les méthodes neuronales, inspirées notamment du cerveau de certains vertébrés, peuvent être bien plus robustes face aux données manquantes (22) que des méthodes statistiques classiques, qui exigent simplement de supprimer les lignes où ces données sont manquantes, ce qui induit des biais loin d’être négligeables. En pratique, les spécialistes ont recours à des réseaux neuronaux à deux dimensions grâce auxquels ils peuvent ainsi visualiser la structure des données issues de bases de très hautes dimensions. C’est par exemple le cas des cartes auto-organisatrices - ou Self-Organizing-Map (SOM) - qui sont des réseaux de neurones. Ils ont été proposés par le physicien Finlandais Teuvo Kohonen dans les années 70, avec notamment des propositions d’implémentation électronique (23), et pas seulement algorithmique.

Ainsi, depuis 2011, IBM se lance également dans le développement de Brain-Inspired Chips (24), des puces électroniques dédiées à combiner intimement la puissance de calculs des microprocesseurs usuels et la faculté d’adaptation - aussi appelée plasticité - du cerveau au sein d’une seule et même entité électronique. L’ambition est claire : ces puces inspirées du cerveau habiteront nos appareils qu’ils soient portables ou non, afin de les doter de plus d’intelligence et de nuance dans leur interaction avec les data qu’elles traiteront, mais aussi avec leurs utilisateurs. Nous atteindrons alors un stade « neuromorphique » des machines sans précédent, qui commence même à inquiéter certains grands penseurs contemporains (25).

Vers un Cloud Quantum Computing
Dans cet article, nous avons abordé les deux mutations technologiques que nous pensons être majeures et qui changeront radicalement la manière avec laquelle la Data Science s’accomplira dans un avenir proche.

Les puces neuronales proposées par IBM en sont encore au stade du développement, bien que très prometteur, si l’on en croit les projections phénoménales en termes de neurones et de connexions synaptiques. Ces puces permettront à terme de rendre intelligent n’importe quel appareil sans avoir recours à des services par Cloud, comme c’est le cas actuellement avec la reconnaissance vocale sur la plupart des SmartPhones. En effet, les algorithmes de reconnaissance vocale ne sont pas logés sur le dispositif lui-même, mais accessibles sur un Cloud, avec les inconvénients que cela comporte, y compris en terme de propriétés de données.

En revanche, pour des applications bien plus ambitieuses, comme la voiture sans conducteur de Google, le calcul quantique adiabatique deviendra sans nul doute un allié de taille, car il est amené à jouer pleinement son rôle d’oracle quantique en étant accessible via ce que nous appellerons le Cloud Quantum Computing.

Un tel service aura de multiples applications tant la complexité des data et des algorithmes utiles pour les traiter ne cessera de croitre dans tous les domaines. C’est par exemple le cas pour le développement de traitement contre certaines maladies. On montre en effet qu’un simple polymère de 5 acides aminés peut se replier sur près de 100 milliards de configurations. Ces aspects d’optimisation combinatoire complexe sous-tendent énormément de sujets à forts enjeux et potentiels : séquençage de l’ADN, oncologie préventive et prédictive, etc …

Le Cloud Quantum Computing est pour nous le prochain modèle « IaaS » (Infrastructure as a Service) : il constitue une illustration de ce que nous appellerons The Third Age Machine : ce 3ème âge des Machines (3ème âge de l’informatisation) que nous (26) avons défini et qui succède parfaitement à la mécanisation industrielle (1er âge de l’informatisation (27) ) et à l’intelligence artificielle et l’automatisation (2ème âge de l’informatisation).

Cette informatique quantique et cognitive est une nouvelle étape dans le développement des machines et de l’informatisation : cette informatique est au service du traitement des Big Data et elle deviendra bientôt accessible en mode hébergé : en Cloud, selon l’expression dédiée. Elle sera consommée alors à la demande (pas d’achat de logiciel, ni de hardware) à des prix bien plus intéressants que de détenir la machine et en assurer la maintenance, ce qui requiert des compétences parmi les plus pointues. Les entreprises pourront alors bénéficier de la puissance de calcul quantique pour aller de plus en plus loin dans l’exploitation des Big Data et dessiner un monde digital qui intéresse, tout comme il inquiète, mais cela fut le cas de toutes les révolutions technologiques majeures qui ont jalonnée l’Humanité.


1 Voir le site web de la société française SigFox.

2 Le terme de Data Science a été originellement inventé par William Cleveland dans un article paru en 2001 et intitulé Data Science: An Action Plan for Expanding the Technical Areas of the Field of Statistics,International Statistical review vol. 69, (2001).

3 La majorité des modèles utilisés par les praticiens actuels - statisticiens et actuaires - en banque et en assurance sont des modèlesdits linéaires qui sélectionnent les variables explicatives principalement sur la base de leurs corrélations avec la variable à expliquer.Cela peut conduire à de dangereuses confusions qu’une vieille règle de la science résume par : « Ne pas confondre causalité etcorrélation ! ». Voir par exemple ce très bon site web regroupant des exemples de « corrélations fallacieuses ».

4 « Data Scientist: The Sexiest Job of the 21st Century » by Thomas H. Davenport & D.J. Patil, in Harvard Business Review, From theOctober 2012 Issue.

5 Le 15 octobre 2014, les groupes Keyrus, Thales et Orange ont inauguré une nouvelle Chaire « Data Scientist » à l’Ecole Polytechnique, en présence de la Secrétaire d’État à l’Enseignement supérieur et à la Recherche, Mme Geneviève Fioraso.

6 Calculateur quantique dit « adiabatique » développé et commercialisé par D-Wave Systems Inc. en couverture du Time Magazine avec pour titre « The Infinite Machine » et comme pitch : « It promises to solve some of Humanity’s most complex problems. It’s backed by Jeff Bezos, NASA and the CIA. Each one costs $ 10,000,000 and operates at 459° below zero. And nobody knows how it actually works … » by Lev Grossman, Time Magazine (February 17th, 2014).

7 Puce électronique inspirée du cerveau dite « brain-inspired chip » développée actuellement par IBM. Elles se composent comme le cerveau de deux hémisphères : un hémisphère dédié aux taches logiques et intensives en calculs, et un autre hémisphère où des neurones électroniques sont capables de nouer des connexions synaptiques avec d’autres neurones, et introduire ainsi de la nuance et de l’auto-organisation qui manquent cruellement aux architectures habituelles. Voir également : « Neuromorphic computing : The machine of a new soul », The Economist (August 3rd, 2013).
8 L’architecture de Von Neumann a été formulée dans un premier draft d’un document concernant le EDVAC (Electronic Discrete Variable Automatic Computer) qui fut le premier calculateur programmable fonctionnant sur la logique booléenne. Ce projet était financé par l’armée américaine afin de soutenir les calculs balistiques.

9 Voir le site web du « Human Brain Project » : www.humanbrainproject.eu/fr

10 Voir par exemple la page web de ce projet : The Blue Brain Project
11 La loi de Moore originale prédisait un « doublement du nombre de transistors par unité de surface tous les 18 mois ». Ce rythme surestime actuellement l’évolution effective de la densité des transistors sur les micro-processeurs récents, ce qui peut être considéré comme les prémisses de ce dont nous parlons dans cet article, à savoir une saturation puis une stagnation inévitable de la puissance des machines telles qu’elles sont conçues actuellement.

12 Cette conviction d’Einstein est en fait connu sous le nom d’argument EPR, dont les trois auteurs sont : Albert Einstein, Boris Podolski et Nathan Rosen qui ont imaginé une expérience de pensée visant à réfuter l’interprétation communément admise de la physique quantique, appelée « Ecole de Copenhague », en référence à l’un des pères fondateurs de la physique quantique, le physicien danois Niels Bohr. Voir également la référence [13] ci-dessous.

13 Voir pour plus d’explications le très bon livre : « Comprenons-nous vraiment la mécanique quantique ? » de Franck Laloë, Edition EDP Science CNRS (2011).

14 Les expériences de collision de particules élémentaires menées au CERN contribuent à valider la physique quantique à des niveaux d’énergie de plus en plus élevés. C’est ainsi que le Boson de Higgs a finalement été déclaré « détecté » le 14 Mars 2013, après des décennies d’expériences et des millions d’euros d’investissement. Notons que c’est au CERN qu’Internet est né et que les investissements liés à la quête du boson de Higgs auront tôt ou tard des retombés technologiques concrètes.

15 On estime actuellement l’âge de la terre à environ 4.5 milliards d’années alors que celui de l’univers se situerait aux alentours de 14 milliards d’années. Pour l’âge de l’Univers, on se base sur la théorie de la relativité générale de Albert Einstein qui décrit

remarquablement bien l’Univers à grande échelle.
son histoire une lignée exceptionnelle de « Professeur/Elève » ayant reçus successivement des prix Nobel en Physique. Cette lignée aété initiée par Alfred Kastler en 1966, puis par Claude Cohen-Tannoudji en 1997, et enfin par Serge Haroche en 2012.

17 D-Wave Systems Inc. dont le système D-Wave Two (composé de 512 Q-bits) est en couverture du Time Magazine intitulée « The Infinite Machine », Time Magazine (February 17th, 2014). Cf. Note [6] plus haut.

18 Site Web de l’entreprise qui se qualifie elle-même de « The Quantum Computing Company ».

19 On montre qu’avec un nombre de villes N = 100, le nombre de chemins possibles nécessite bien plus de 100 chiffres pour être représenté. A titre de comparaison, un nombre de 80 chiffres suffit à représenter le nombre d’atomes présents dans l’Univers tel que nous le connaissons actuellement.

20 Au sens de la fonction de coût ou d’utilité supervisant le problème considéré. Pour le voyageur de commerce, il s’agit de la distance globalement parcourue, qui est elle-même directement reliée au coût des trajets, via la consommation de carburant par exemple.
21 Lien vers la page Google + de l’équipe de Google travaillant sur le système D-Wave Two : Google Quantum A.I. Lab Team

22 Voir par exemple : « Classification, Analyse de Correspondances et Méthodes Neuronales », Smail IBBOU, Thèse de doctorat de l’Université Paris 1 - Panthéon-Sorbonne (Janvier 1998).

23 Voir notamment « Self-Organizing Maps » by Teuvo Kohonen, Springer 3rd Edition (2000).

24 Voir la page web dédiée : IBM Research : Cognitive Computing

25 Le Physicien Stephen Hawking est considéré comme l’un des esprits les plus brillants de notre époque. A cause d’une maladie neuro-dégénérative, il a quotidiennement besoin d’une machine « intelligente » afin de communiquer avec son entourage. Il considère pourtant que «le développement de l’Intelligence Artificielle est un danger pour l’humanité ». Voir par exemple : article BBC.

26 En référence à Erik Brynjofsson et Andrew McAfee, « The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies », W. W. Norton & Company (18 février 2014).

27 Il est intéressant de noter que la première révolution industrielle, celle des machines dites « thermiques » n’a pu être réellement cernée que grâce à la thermodynamique, dont le second principe introduit la notion d’entropie, elle-même intimement liée à la notion d’information. C’est ce second principe qui limite le rendement des machines.

Bruno TEBOUL Directeur Scientifique, R&D et Innovation du Groupe Keyrus et Taoufik AMRI, PhDbResearch Quant et Lead Data Scientist