Source : FORBES | Pierre Mangin

Si l’on se réfère à la définition de Yann Lecun, patron (français) de la division IA de Facebook, l’Intelligence artificielle a de bonnes raisons de prospérer et d’infiltrer tous les domaines d’activités, les services, l’industrie, l’éducation, la recherche. « C’est la capacité des machines à reproduire des facultés attribuées aux êtres humains (ou animaux), de résoudre des problèmes ».

L’Intelligence artificielle (IA) est un nouvel Eldorado de l’univers des hautes technologies très friand d’annonces spectaculaires. Parmi celles-ci, plusieurs applications prometteuses surgissent dans tous les domaines d’activité.

Depuis les systèmes expertes informatiques des années 70 jusqu’aux algorithmes d’aujourd’hui, les problèmes ont largement changé de nature et d’échelle. De calculs sophistiqués et déductions, ils sont passés au rang de simulations et d’itérations puis plus récemment avec la compétition entre l’homme et l’ordinateur (jeu d’échecs en 1997, jeu de go en 2016, puis poker) s’est développé l’apprentissage par l’ordinateur(machine learning) et même d’apprentissage en profondeur (deep learning). C’est typiquement ce que permet le TensorFlow de Google. Cet apprentissage s’effectue à partir de très nombreux exemples ou masses de données (fiables, non biaisées) et avec un taux d’erreurs parfois déconcertant – d’où l’intérêt et la prudence de recourir à des simulateurs… Il est soit supervisé soit non supervisé, soit « forcé » (la machine est « récompensée », elle ne doit pas perdre) . L’IA peut donc reposer sur un simple moteur de règles ou sur un système d’apprentissage ressemblant aux fonctions cognitives, ou sur la combinaison des deux. Dans tous les cas, l’analogie avec les réseaux neuronaux de l’homme nous place encore très loin de l’intelligence consciente, réflexive, liée à la sensorialité du vivant. Le marketing est doué en abus de langage.

Des applications universelles

L’IA, pour l’heure, est donc à considérer, tout au plus, comme un prolongement des facultés humaines. Mais les récents développements, les ressources de calcul « massivement parallèle », la capacité centuplée des mémoires et des systèmes de stockage pour des données très volumineuses ont ouvert des perspectives à peine imaginables il y a 5 ou 6 ans. C’est notamment l’apport des ‘Big data’ avec leurs métadonnées (c’est-à-dire des « étiquettes » assignées à chaque donnée afin d’aider l’algorithme d’apprentissage à obtenir le bon résultat). Ces progrès spectaculaires ont d’ailleurs conduit à soulever des questions d’éthique et d’encadrement réglementaire (cf. le livre blanc de la Cnil, déc. 2017).

« La poussée actuelle de l’IA, depuis 2 à 3 ans, résulte de l’accélération combinée de deux phénomènes : l’explosion des données et une capacité de calcul jamais égalée. L’IA va bien au-delà de compléter les solutions d’aide à la décision. C’est pourquoi elle intéresse tous les secteurs», souligne Stéphane Huet, dg de Dell EMC France. Ce géant de l’informatique soutient des programmes IA notamment dans la recherche médicale. Il équipe le supercalculateur Stampede 2 du TACC (Texas Advanced Computing Center) de l’Université du Texas à Austin, qui est capable d’identifier des tumeurs du cerveau grâce au machine learning. Autre supercalculateur, le « Cedar » de l’Université Simon Fraser au Canada décrypte très rapidement le code ADN de bactéries en constante évolution et en détermine la dangerosité.

De même, le super-ordinateur Watson d’IBM, également à partir du séquençage ADN, détermine des soins personnalisés pour traiter certaines tumeurs, en tenant compte des mutations. Là où un spécialiste mettait 160 heures, la solution IA produit un résultat en quelques minutes. La même méthode, toujours par apprentissage, est étendue à divers types de cancers.

Des travaux identiques d’analyse de variantes génomiques sont menés à Paris, au service de cancérologie de la Pitié-Salpêtrière, à Paris (Pr David Khayat) ou encore à l’Institut Louis Pasteur à Paris.

La concordance relevée entre les résultats du supercalculateur et les diagnostics des cliniciens se vérifie déjà dans 93% des cas (soit mieux que ne peut le faire un bon médecin).

Les chatbots et la relation commerciale

Dans un contexte d’automatisation, certains spécialistes de l’analytics comme Tibco Software parlent, « d’intelligence augmentée » et « d’intelligence connectée » résultant de la conjonction entre Big Data, analytique et prédictif. « L’IA a su simplifier l’interface utilisateur grâce à la reconnaissance vocale et à l’émulation du langage humain ». Ainsi, loin de la surmédiatisation des robots humanoïdes (en quête de marché…), le succès des chatbots’se confirme. Ces assistants virtuels qui renseignent et aiguillent les consommateurs ou clients à partir de mots clés et de phrases en langage courant, méritent attention.

Selon le Gartner, 85% des relations clients, d’ici à 2020, seront gérées dans l’entreprise sans aucune interaction humaine. Le groupe paritaire de protection sociale AG2R La Mondiale fait ce pari : « Nous sommes partis d’un constat : une grande partie des collaborateurs (sur 11.000 collaborateurs) ne savaient pas où déposer leurs demandes auprès de l’informatique (écran vidéo, souris, visio-conférence, droit d’accès à une application, groupes de messagerie, etc) », explique Brigitte Dubel, chef de projet Innovation au sein de la DSI.

Brigitte Dubel, responsable Innovation au sein de la DSI d’AG2R

Le choix s’est porté sur la solution de la start-up française Konverso, avec le support de la société Umanis. Dès les trois premières semaines, il est constaté une baisse de 10% des appels. Car le chatbot permet d’abord d’orienter les personnes et d’enrichir des bases de connaissance. En cas de réponse insatisfaisante, le transfert vers un technicien de la hot-line reste, pour le moment, la bonne option. La solution devrait être étendue aux centres d’appels, aux espaces clients, à l’intranet. Wipro, outsourceur de services IT, a développé une solution similaire baptisée ‘Holmes’ qui autorise les utilisateurs d’informatique à résoudre eux-mêmes les problèmes qu’ils rencontrent. Ils échangent avec un chatbot (agent virtuel), qui les assiste sans se lasser de répéter les bonnes pratiques et procédures d’exploitation. Une fois le « problème » explicité, le chatbot sait interpréter les requêtes posées en consultant des bases de connaissances.

Holmes fot IT de Wipro, une solution d’assistance reposant sur l’IA

Des services financiers sur mesure

Le secteur de la banque / assurance anticipe également des retombées concrètes de l’IA : produire, par exemple, en quelques minutes, des offres sur mesure personnalisées. Il peut s’agir de prêts, de placements financiers ou de contrats sur mesure à partir du croisement de dizaines de critères. Le but ici est de tenir compte très précisément de l’environnement, du standard de vie, des modes de rétribution, et des préférences, y compris le niveau de prise de risques, du client. C’est parvenir à une évaluation rapide qu’un conseiller mettrait plusieurs heures à finaliser sur un tableur – sans être totalement certain du résultat. En étant capable d’élaborer des scénarios fiables et validés par des itérations bien bornées et des modèles confirmés, le conseiller peut s’épargner du temps pour prodiguer des conseils.

Sécurité et biométrie

Dans le secteur informatique, des algorithmes de plus en plus sophistiqués contribuent au renforcement de la sécurité. Par un tracking très fin des connexions, en suivant l’identité des utilisateurs autorisés à se connecter, il devient possible de détecter tous risques d’usurpation d’identité ou d’intrusion. On analyse des signaux faibles très en amont (horaire de connexion, origine du log-in, diverses circonstances, rupture par rapport aux « usages » habituels, etc.). Ces solutions tendent à se combiner à des technologies biométriques, comme la reconnaissance vocale ou de l’iris de l’œil (cf. Nuance Communication et ses « empreintes vocales » susceptibles de remplacer les mots de passe).

Maintenance prédictive de systèmes

La maintenance automatique et préventive de systèmes intéresse aussi de plus en plus les industriels – à commencer par les systèmes informatiques. Le secteur automobile, les responsables de flottes de véhicules y viennent. Les données de centaines de capteurs sont analysées avec de savants croisements, de façon continue. Il est ainsi possible d’anticiper des dysfonctionnements. Les interventions de maintenance sont ainsi automatiquement déclenchées et insérées dans des calendriers avec des degrés d’importance et d’urgence ainsi qu’une rationalisation/optimisation des déplacements, par regroupements géographiques, etc. Selon la gravité du risque encouru, l’alerte sera remontée  vers les équipes d’intervention, localement ou en central.

Gestion de flux avec prédictibilité

Dans le domaine de la gestion de réseaux physiques de toutes sortes – énergie, chauffage urbain, industrie ou encore logistique – la start-up française DCbrain s’est construit une réputation grâce à sa technologie, le DeepFlow Engine. Sa solution permet de visualiser en temps réel ce qui se passe dans de vastes réseaux complexes. Une fois les incidents repérés, elle en analyse les « causes profondes ». Dans un deuxième temps elle peut les prévenir, les prédire. Tous les événements sont systématiquement tracés et localisés au sein des nœuds du réseau. Pour chaque incident voire crises, des protocoles d’évolution et de résolution sont créés et mémorisés en référence d’apprentissage. Des modèles de bon fonctionnement sont élaborés par apprentissage. Ainsi, les flux, sous contrôle, peuvent être optimisés au quotidien via des prescriptions aux opérationnels (baisse de l’indisponibilité, amélioration du rendement, etc.). Tout se gère à partir de tableaux de bord graphiques dynamiques. Des décisions peuvent être prises à tout moment.

Modélisation de réseaux de fluides, avec traitement IA. Source DCbrain, Paris 2018

A son actif, DCbrain détient un outil de scénarisation « temps réel » des réseaux utilisé par exemple, pour optimiser des routes et des charges transportées par camion.

Prévenir les incidents et fixer les priorités

Dans le secteur de la production informatique, une autre start-up, Moogsoft, soutenue par Dell-EMC, a développé la technologie AI Ops qui accélère les travaux des développeurs, à partir d’un apprentissage automatique. L’algorithme établit des corrélations entre événements et peut ensuite détecter pro-activement des incidents. La solution, qui « réduit le bruit opérationnel », codifie et rend « plus intelligibles » les connaissances acquises (pour mieux les partager…). Elle permet de « rationaliser la collaboration et les flux de travail entre les équipes ». Elle sait également filtrer les priorités dans la pile des tâches.

Aux limites de la science-fiction

Dans le domaine de la biologie, les applications de machine learning sont tout aussi spectaculaires. Ainsi, à l’université Tufts (Massachusetts), une application de machine learning a permis de reconstituer le schéma de reconstruction/réplication de cellules sur un ver d’eau douce (ver dit planaire) à partir d’un algorithme dit « évolutionnaire » – un processus pouvant être assimilé à une forme de clonage. Il a fallu relever les réactions chimiques en cascade au niveau des protéines (produites par l’ADN, précisément) ainsi que les mécanismes physiques engendrés – ce qui signifie un nombre immense de données. Chaque cellule souche a la connaissance du plan global de l’organisme entier. Les algorithmes produisent des « lignées » de modèles ou patterns qui s’affrontent, en étant mis en concurrence. On sélectionne ceux qui semblent rendre le mieux compte des résultats expérimentaux observés. Puis un nouveau cycle de calcul est lancé, l’algorithme affine de nouveaux modèles, en introduisant des variations aléatoires, correspondant à des mutations cellulaires, et ces nouveaux modèles sont eux-mêmes challengés (concurrencés/sélectionnés). Et ainsi de suite. Après des centaines de cycles de calcul, les chercheurs sont parvenus à un modèle référent unique de « cascades biochimiques ». Le modèle finit ainsi par correspondre à tous les résultats des précédentes expérimentations. Le plus fascinant est que les chercheurs eux-mêmes ne sont pas encore capables de comprendre exactement quels processus s’enchaînent et comment.

On comprend ici pourquoi les romanciers, après les auteurs de science-fiction souvent en avance, s’emparent parfois un peu hâtivement, de ces belles histoires, où la machine fait mieux que l’homme… De là, à vouloir lui attribuer de la « conscience », c’est verser dans le fantasme pur.