L’IA vue par le père du Mercator

Julien Levy est l’auteur d’un best-seller, le Mercator, et aussi Directeur du Centre Digital d’HEC et de la Chaire AXA Stratégie digitale et big data.

Adwise : Dans une récente intervention à l’Adetem Factory, tu disais qu’un des enjeux majeurs de notre époque était de « produire et d’exploiter des données numériques sur tout, partout, tout le temps, par tout type de moyens » : un réel besoin, ou juste une obsession ?

Julien Levy : L’un n’exclut pas l’autre !

En fait, pour l’Adetem, j’ai retracé cet impératif à un mouvement beaucoup plus long qui est né au début du XVIIème siècle en Europe, celui de la quantification du monde par la science. Déchiffrer le monde en le quantifiant à travers les grandeurs de la physique et le langage mathématique, ça a été la grande affaire de la science depuis la Renaissance. Comme l’a écrit Galilée dans Il Sagiattore en 1623, « le monde est écrit en langue mathématique ». Le grand physicien Max Planck en a déduit : « Est réel ce qu’on peut mesurer ».

Comme les mesures ne sont rien d’autre que de la donnée, la révolution numérique s’inscrit naturellement dans ce mouvement, car elle nous donne une capacité extraordinaire de collecter, de traiter et d’exploiter ces données.

On numérise aujourd’hui les actualités (toute la presse et ses archives sont en ligne), le savoir humain et les arts (livres, peinture, musique, photographie, cinéma …), les relations sociales (réseaux sociaux, contenu généré par les utilisateurs …), notre environnement géographique (cartographie, géolocalisation …), physique (reconnaissance visuelle, sondes et senseurs), l’ensemble des comportements en ligne, notre corps et le fonctionnement de notre cerveau par le biais d’objets portables, la logistique, les différentes opérations de production et de distribution grâce à l’Internet des objets industriels …

On sait qu’IBM a publié une étude établissant que 90% des données mondiales ont été produites ces deux dernières années : le mouvement est exponentiel. C’est pourquoi j’ai dit que l’impératif actuel est de produire et d’exploiter des données sur tout, partout, tout le temps, par tous types de moyens.

Une des conséquences est que la coupure ancienne entre « entreprises digitales » et « non digitales » n’a plus de sens. Toutes les entreprises sont digitales parce que la data pénètre toutes les activités humaines, particulièrement économiques.

Adwise : On produit, on traite, et pourtant, face à ces montagnes de données, le gâchis est immense …

 

Julien Levy : Le paradoxe est en effet qu’on produit beaucoup plus de données qu’on en traite. Pour prendre un exemple très simple : la navigation d’un internaute sur un site produit de la donnée, c’est ce qui permet au site d’afficher des pages et de réaliser des actions. Mais l’exploitation de ces données au-delà de cette fonction est souvent inexistante ou très réduite. Au mieux, on utilisera ces données pour faire une analyse statistique sur la performance du site et améliorer son ergonomie ou la gestion de trafic.

La raison d’être du big data, on le sait, est d’exploiter non pas des données agrégées mais des masses de données pour produire plus de connaissance et d’intelligence. Pourtant, il y a loin de la promesse à la réalité. La réalité des entreprises est, comme vous le dites, le gâchis des données plutôt que leur surexploitation …

En fait, les données étant produites pour des objectifs fonctionnels très limités, identifier dans l’entreprise les sources de données, les collecter, les mettre en forme et mieux les exploiter est une tâche considérable. On se perd souvent en route avant de pouvoir en tirer profit.

Comme les data scientists aiment à le dire : « On passe 90% de notre temps à collecter les données et les 10% restant … à nous en plaindre ! ». C’est pourquoi, au-delà de l’utopie d’un « data lake » qui collecterait toutes les données produites, on part plus souvent d’objectifs spécifiques, ce qui conduit à identifier les données dont on aurait besoin pour voir ensuite comment les collecter. Inversement, on peut partir d’un jeu de données limité et se demander ce qu’on peut en tirer.

Le défi du gâchis des données n’est donc pas qu’on ait trop de données – le big data et l’intelligence artificielle sont faits pour ça – mais que l’organisation de l’entreprise n’est pas pensée pour exploiter pleinement cette richesses qu’elle produit. Autrement dit, c’est un enjeu organisationnel.

L’intelligence artificielle que vous mentionnez, tout le monde en parle, sans trop nécessairement savoir ? comment ça fonctionne : n’est-ce pas un peu pour cela aussi qu’elle fascine Pourtant, ce ne sont que des algorithmes …

Ce qui me semble le plus fascinant dans l’intelligence artificielle est que la machine produit des réponses intelligentes sans être intelligente. C’est un paradoxe que nous avons du mal à comprendre. Du reste, le test de Turing est fondé sur l’idée qu’il y a intelligence artificielle quand le sujet humain, dans un échange, n’arrive pas à discerner si son interlocuteur est un être humain ou une machine.

Donc selon ce test, l’intelligence s’infère de notre perception de la machine avec laquelle on échange, non de la machine elle-même, si vous me suivez. Autrement dit, l’intelligence de la machine est définie par la perception que nous avons d’elle, non par une qualité qui lui est inhérente.

Car la machine, elle ne fait que du traitement statistique. Par exemple, la reconnaissance visuelle. Un dermatologue expérimenté sait distinguer un mélanome malin d’un grain de beauté. La machine également : aussi bien et bientôt mieux. On en infère que la machine est intelligente parce qu’elle donne une réponse intelligente. Mais la machine n’a pas la moindre « idée » de ce qu’est un mélanome et elle ne « voit » pas du reste (pour cela il faudrait une pupille et un nerf optique). Ce qu’elle traite, ce sont des valeurs que sont les pixels. Elle apprend à algorithmer ces pixels pour donner des bonnes réponses que sont « mélanome »  et  « grain de beauté », en fonction de milliers d’images, que les êtres humains ont préalablement labellisées.

Par un processus d’essais et d’erreurs, l’algorithme devient suffisamment fin pour prédire la bonne réponse : c’est le principe du machine learning. La machine donne une réponse intelligence, mais rien ne s’apparente ici à de la pensée au sens où nous l’entendons.

Adwise : Si l’on se réfère à la courbe de Gartner, où se situe l’AI ?

Julien Levy : Ah ! Ayant un peu d’expérience, j’ai vu défiler les modes. Vous savez, je suis sceptique, ou du moins critique de métier. Je constate tous les jours la distance entre les promesses des gourous ou des vendeurs de solution et la réalité des pratiques dans les entreprises. Sur la courbe de hype de Gartner, on pourrait situer l’IA sur la courbe montante at approchant du « pic des attentes exagérées ». Et pourtant, je ne crois pas qu’on surestime son importance.

D’abord, parce que l’IA s’insère dans une histoire longue, celle de la quantification du monde, devenue numérisation du monde. Le principe qui résulte de cette tendance de fond est, comme on l’a dit, qu’il s’agit de « produire et d’exploiter des données numériques sur tout, partout, tout le temps, par tout type de moyens ». Or l’intelligence artificielle a besoin de masses de données pour permettre l’apprentissage et ces masses de données ont besoin des traitements automatiques, particulièrement l’IA, pour produire du sens et être exploitées.

Ensuite parce qu’on en est aux balbutiements de la technologie. Si l’histoire des échecs de l’IA est longue – on a même parlé de l’hiver de l’IA –, l’approche par réseaux de neurone artificiels (le cœur du machine learning) n’a émergé que plus tardivement et son effet boule de neige est très récent. En rédigeant la dernière étude Netexplo des tendances de l’innovation numérique mondiale, j’ai pu constater qu’en l’espace de quelques mois, ce qu’on avait identifié comme étant à la pointe les problématiques avait cessé de l’être : le cycle d’invention est proprement stupéfiant. C’est un domaine où les investissements sont massifs et les progrès considérables et rapides.

Bien entendu, l’invention technologique ne se traduit pas nécessairement en innovation. L’innovation demande un usage, c’est-à-dire d’être appropriée socialement. L’usage répond à des considérations qui ne sont pas seulement techniques et son processus est beaucoup plus long. Mais déjà l’IA pénètre déjà des objets qui nous sont familiers : un Siri, un moteur de recherche, une voiture autonome d’essai en sont quelques exemples. Mais ce n’est que le début d’un mouvement : de même que la diffusion de la voiture autonome va bouleverser le secteur du transport, l’IA va sans doute profondément affecter le marketing, comme Internet l’a fait précédemment. Elle est apparue dans la dernière édition du Mercator et les prochaines lui verront prendre une importance croissante, c’est l’affaire de quelques années.

La meilleure façon de ne pas se tromper en prospective … est de ne pas en faire. Sans dire de quoi sera fait demain, je peux dire ce que je vois émerger aujourd’hui. C’est une double évolution du marketing : d’un côté, un marketing très orienté vers l’innovation et la créativité, s’enrichissant du design thinking . Il s’agit d’insuffler de l’innovation dans les grands aspects de la politique marketing et l’attente est celui de marketer qui sont des sortes de créateurs, d’« imaginateurs » si vous me permettez l’expression.

L’autre marketing est très orienté vers le quantitatif, la data et la data science. Il s’agit de mieux utiliser cette ressource sous-exploitée qu’est la data comme on l’a vu. Plus l’IA va se développer, plus l’expertise en data science va se sophistiquer, car l’expertise de base sera traitée par la machine.

Dans les deux cas de figure, et la data et l’IA vont affecter le marketing. Plus il y a de traitement automatique, plus on a besoin de mieux exploiter la donnée. Inversement, plus on a besoin de créativité –un champ qui résistera longtemps à l’IA. Mais il ne faut pas opposer ces deux profils et ces deux expertises, car une grande partie du travail des créatifs en marketing consiste du reste à imaginer des usages de la technologie, c’est pourquoi ces créatifs sont aussi « digital savvy »*.

C’est un double défi pour les écoles qui forment les talents … mais aussi pour les entreprises. Quand j’observe les entreprises de grande consommation qui me faisaient rêver quand j’étais étudiant en marketing à HEC, eh bien, elles me semblent tout à fait larguées aujourd’hui. J’ai regardé récemment le placement des étudiants de la majeure Digital d’HEC des cinq dernières promotions :  je n’ai pas vu un étudiant qui ait rejoint ces entreprises, pas un. Si je m’occupais de recrutement dans ces entreprises, je commencerais à m’en préoccuper !

(*) Ont des compétences numériques.

Ils nous ont fait confiance. Découvrez nos réalisations