Ce que vous avez toujours voulu savoir sur le machine learning

Comme tout ce qui touche de près ou de loin à l’Intelligence Artificielle, le machine learning a vu sa cote de popularité exploser ces dernières années.

Que ce soit pour vous mettre à la page ou pour comprendre ce que le machine learning peut faire pour vous, voici un petit précis sur ce qui est en passe de devenir la colonne vertébrale des activités digitales de demain.

Publication le 2 décembre 2020.

Qu'est ce que le machine learning ?

Le terme « machine learning » est utilisé depuis les années 1950. Il englobe toutes les méthodes et techniques permettant de trouver des solutions à des problèmes clairement caractérisés, selon des méthodologies bien définies, généralement à partir de bases de données. Pour faire simple, le but de ces algorithmes est généralement de fournir des prédictions ou de trouver des corrélations en se basant sur un historique de données.

Les algorithmes de machine learning « analysent » plus qu’ils n’ « apprennent » comme le ferait un être humain, dans le sens où il n’y a pas de transfert d’apprentissage d’une application ou d’un contexte à un autre. Un algorithme de machine learning apprenant à reconnaître des chats ne pourra pas spontanément se mettre à reconnaître des chiens, et vice versa.
Le machine learning s’apparente à de l’extraction d’informations de structures de données connues, à l’aide d’approches mathématiques, statistiques et/ou probabilistes, ou encore de réseaux de neurones. De fait, un algorithme de machine learning est capable de traiter des sets de millions de données, comme c’est le cas dans les systèmes de reconnaissance vocale ou d’images.

Un algorithme de machine learning est capable de traiter des sets de millions de données, comme c’est le cas dans les systèmes de reconnaissance vocale ou d’images.

De nombreuses applications sont possibles. Utilisée dans l’agriculture pour optimiser les rendements de production ou en archéologie pour mettre à jour des vestiges enfouis dans la végétation, la photogrammétrie permet également de créer des rendus ultra réalistes pour l’industrie du jeu vidéo et les contenus en réalité virtuelle et en réalité augmentée.
En effet, du fait de la gestion de la lumière et des contrastes, la modélisation complète de chaque détail d’un décor peut prendre énormément de temps si l’on désire un rendu photo-réaliste. Si la photogrammétrie ne permet pas de recréer directement des reliefs, elle permet de reconstituer des décors ou objets au rendu naturel avec peu de moyens et en un temps record.

Le déroulé des opérations est simple : après un repérage complet, les lieux ou les objets à modéliser doivent être pris en photo sous tous les angles, avec le moins de déformations et de variations de luminosité possible. L’utilisation d’un drone peut parfois faciliter la tâche, notamment lors de prises de vue de grands bâtiments ou de statues.
Les photos sont ensuite importées dans un moteur 3D pour traiter les images et les reconstituer en 3D.

Ce procédé implique de pouvoir prendre un certain recul par rapport aux cibles, mais aussi de prendre en compte les matériaux pris en photos, car les surfaces réfléchissantes rendent la recherche de points concordants difficile d’un cliché à l’autre.

Effet d'entrainement et hiérarchie des besoins

Le machine learning arrive à maturité, ses limitations sont de plus en plus claires.
Parmi elles, l’effet d’entraînement. Etant donné que le bon fonctionnement des algorithmes de machine learning repose sur l’analyse de données historiques « cohérentes », le machine learning a tendance à écarter les données exceptionnelles en les assimilant à des issues peu probables et donc inintéressantes.
Dans la grande majorité des cas, cette approche est tout à fait justifiée : les données atypiques sont généralement issues de capteurs dysfonctionnels, d’erreurs de mesure ou de données bruitées, et ne doivent donc pas être prises en compte.
Les problèmes peuvent survenir lorsque ces données sont les symptômes de cas de figure exceptionnels qu’il faut réellement repérer et prendre en considération. Lorsque des événements surviennent qui n’ont pas de précédents ou s’apparentent à des comportements aberrants, les algorithmes de machine learning peuvent provoquer des réactions en chaîne assez violentes. Un très bon exemple du phénomène est le Flash Crash de 2010 : à la suite d’un ordre de vente massif mal exécuté, des automates de trading à haute fréquence ont fait perdre 998,52 points à l’indice Dow Jones Industrial Average avant de le faire remonter d’environ 600 points en l’espace de 10 min, créant des variations jamais vues auparavant au New York Stock Exchange.
Ce qui nous amène à considérer l’importance du choix des données et de leur structuration dans l’apprentissage des algorithmes de machine learning. Loin d’être complètement autonomes, ces algorithmes demandent un travail humain en amont dans la sélection des sets de données, comme dans l’ajustement de la prise en compte de ces données et leur suivi. En effet, la conception des algorithmes implique de réfléchir au type de données utilisées et aux liens entre ces données pour pouvoir déterminer quels sont les outils mathématiques les plus appropriés pour les traiter. Ainsi, des données linéaires auront plus d’impact sur des méthodes linéaires, et des sets de données liées dans le temps ne pourront pas être utilisées par les mêmes outils mathématiques que ceux traitant des données indépendantes dans le temps.
Les algorithmes de machine learning nécessitent également beaucoup de maintenance à plusieurs niveaux : en amont, avec par exemple des entraînements réguliers sur des données “fraîches” pour garder un niveau d’exécution optimal, mais aussi en sortie, pour permettre à tous les autres outils informatiques d’utiliser les données produites par les algorithmes.
De fait, le machine learning impose une vraie réflexion dans son intégration au sein des entreprises. Plusieurs prérequis sont à vérifier, comme la masse suffisante de données, leur qualité, et surtout la compréhension complète de leur importance et interactions au sein du système étudié.

IA et machine learning

Comme dit en introduction, l’IA et le machine learning sont étroitement liés. Beaucoup de questions se posent donc, la plus répandue étant : qu’est ce que le machine learning par rapport à l’IA, et quelles sont les différences entre ces deux concepts?
Le machine learning est une des briques qui composent l’IA, une sous-discipline spécialisée dans l’apprentissage basé sur une base de données, elle même comprise dans le domaine de recherche assez vaste qu’est l’IA. Les techniques de machine learning (régression linéaires et statistiques, traitement du signal et de l’image, analyse bayésienne, …) sous-tendent les IA d’aujourd’hui, et tous les algorithmes de machine learning peuvent être caractérisés comme des IA.
En réalité, la question de la « différence » entre machine learning et IA n’a pas lieu d’être. A chaque fois qu’elle se pose, c’est en réalité l’expression de notre difficulté à définir l’IA concrètement, là où la définition du machine learning est claire et établie.
Lorsqu’on se demande ce qu’une IA a de plus qu’un algorithme de machine learning, il serait plus juste de parler des problématiques d’autonomie et d’incrémentalité dans l’apprentissage, ce qui dépasse déjà la zone de définition d’un algorithme de machine learning.

Machine learning : nouvelle pierre angulaire de demain ?
Quoi qu’il en soit, les applications sont légions. La maturité du machine learning est telle qu’il est possible de l’adapter à tous types de cible, sur tous types de problématique, quelque soit le secteur. Pour les entreprises, il est synonyme d’augmentation de la compétitivité et du rendement, ou encore d’amélioration de la relation client en adaptant les sites aux préférences des utilisateurs, ou via les fameux chatbots, ces applications permettant de répondre aux questions les plus fréquentes des utilisateurs dans un temps record. Pour l’industrie, il peut aider à la prédiction des pannes, ou à l’optimisation des chaînes de production. De la recherche à la production, tous les contextes permettant de rassembler de grands volumes de données et nécessitant le traitement de ces données sont susceptibles d’être fortement impactés voire transformés par le machine learning. Des données jusque là trop massives peuvent désormais être traduites en terme de cause et d’effet, que ce soit pour trouver des corrélations entre différents facteurs pour aider la médecine en effectuant de meilleurs diagnostics, améliorer les algorithmes de conduite des voitures autonomes ou simplement pour trouver des pistes d’amélioration du taux de fréquentation d’un site web ou d’une boutique physique.
Le bénéfice pour les entreprises est non négligeable. En même temps qu’une accélération de leurs activités, l’analyse des données permet une compréhension plus fine des mécanismes de leur secteur.

Et si l’hyperspécialisation des années 2000 dans le domaine du machine learning a permis de créer cet outil si performant, la tendance est maintenant au décloisonnement des disciplines. Le machine learning a pour vocation de se mêler à d’autres techniques pour infuser complètement toutes composantes de notre société et continuer d’innover. Le machine learning deviendra dans 10 ans ce que le web est devenu aujourd’hui : un outil absolument incontournable, qu’il convient de comprendre et de maîtriser le plus tôt possible pour faire face aux prochaines évolutions !

Marie Lottier

Auteur

Docteur en Intelligence artificielle

Co-rédigé par Leia Ruffini

Cet article vous a intéressé ? Partagez-le sur les réseaux