Le Deep learning c’est quoi au juste ?

Tout le monde ne parle plus que d’Intelligence Artificielle, au point d’utiliser des mots que peu comprennent. Je ne jette la pierre à personne, ni ne montre personne du doigt, je suis le premier à parfois être pris dans le maelstrom du jargon des informaticiens. Tout ce qui touche de près ou de loin au « machine learning » n’est, technologiquement, pas simple, voire horriblement compliqué. Voici donc une explication la plus simple possible de trois termes utilisés ad nauseam le plus souvent incorrectement : intelligence artificielle, apprentissage machine et apprentissage profond, ou en anglais, car souvent utilisés, même par des francophones, artificial intelligence, machine learning et deep learning.

Intelligence Artificielle

Le Larousse nous donne la définition suivante de l’intelligence artificielle : « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. » Nous avons ici tous les ingrédients de l’IA : des théories, des techniques et des machines. Son objectif : simuler l’intelligence humaine ? Dans bien des domaines, l’IA dépasse l’intelligence humaine, il ne s’agit donc pas de simuler, mais bien d’égaler et de dépasser.

On trouve dans l’IA, toutes sortes de théories et de techniques, trouvant souvent leurs sources dans les mathématiques et les probabilités. En effet, analyser une image, c’est traiter des pixels, des couleurs et des coordonnées. Cette analyse se fait à partir de fonctions mathématiques qui permettent de détecter si l’image est celle de votre visage, de la tour Eiffel ou de votre maison d’enfance. Ce sont aussi ces fonctions mathématiques qui permettent de décider quelle pièce jouer aux échecs, par exemple.

Apprentissage Machine

Au sein de l’IA se trouve depuis les années 30, une branche appelée apprentissage machine. Conceptualisé par Alan Turing, l’apprentissage machine, aussi appelé apprentissage automatique, consiste pour une machine à apprendre toute seule à partir ou non de données et d’en tirer des conclusions permettant de prendre des décisions, de faire des prévisions ou d’exécuter toute autre tâche que la machine aura apprise, comme traduire un texte ou conduire un véhicule, par exemple.

Il existe plusieurs types d’apprentissage selon qu’on dispose ou non d’un jeu de données permettant d’entraîner la machine. Avec des jeux de données dont on connaît la signification, on parle souvent d’apprentissage supervisé : par exemple, apprendre à déchiffrer des documents manuscrits, à partir d’un jeu d’entraînement de toutes les lettres et mots possibles. Sans données ou avec des données dont on ne connaît pas la signification ou les structures sous-jacentes, on parlera d’apprentissage non supervisé.

L’apprentissage machine a connu un véritable essor depuis une trentaine d’années avec les réseaux de neurones formels (ou artificiels) et en particulier les réseaux de neurones formels multicouches.

Chaque couche est composée de plusieurs neurones formels dont l’objectif est d’analyser un ensemble de données en calculant une somme pondérée et en y appliquant une fonction de seuil, avant de passer l’information à la couche suivante. Si l’on reprend l’idée du déchiffrement d’un texte manuscrit, on peut imaginer chaque pixel et ses voisins proches étant analysés par rapport à chaque modèle de lettre pour en chercher une correspondance. Si correspondance il y a, le seuil est franchi et la seconde couche peut travailler jusqu’à déterminer la lettre ou le mot analysé.

Apprentissage profond

Pour des questions d’optimisation, on a commencé à empiler les couches de neurones, afin de rendre les analyses plus pertinentes. On a donc développé des modèles de réseaux de neurones formels de plus en plus complexes, dont chaque couche a une fonction particulière. Un exemple de ce type concerne les réseaux de neurones convolutifs qui s’inspirent du fonctionnement du cortex visuel et qui peuvent posséder plusieurs dizaines de couches successives.

Ces couches successives de traitement permettent de qualifier l’apprentissage de profond. Chaque donnée à évaluer passe en effet par plusieurs couches de traitement. Et voilà pourquoi on parle d’apprentissage profond, non que la machine apprenne les arcanes des données en profondeur, mais soumet chaque donnée à un ensemble de couches. L’apprentissage profond s’est considérablement développé ces dernières années par l’utilisation de processeurs spécialisés, dont les GPU. Si l’apprentissage profond n’est pas nécessaire pour tous les types d’apprentissages, il fait l’objet d’importantes recherches et continue d’évoluer très vite.

L’ensemble des grands éditeurs, Microsoft, Amazon, Google et IBM, proposent tous des algorithmes et des frameworks d’apprentissage profond. Une excellente manière d’utiliser ces puissantes techniques à moindre coût, comme j’y reviens dans mon livre à paraître en juin de cette année sur l’IA avec les services cognitifs d’AWS, mais je n’en dis pas plus pour le moment. Une excellente raison aussi d’utiliser le cloud !

N’hésitez pas non plus à me contacter si vous voulez aller plus loin sur l’IA et ses applications !

Crédit photo jesse orrico sur Unsplash

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :