Deep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenant?





Tous ceux qui commencent un jour à s'intéresser à ces sujets se dit "mais cela existe depuis longtemps non?", la réponse ici:
Deep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenant



Source: Thierry Lucas, Usine Digitale, mai 2015

http://goo.gl/yXeuWM

L’intelligence artificielle, grand sujet du moment ? Le terme remonte pourtant aux années 1950 ! Il sonne même de façon presque désuète, en nous ramenant à l’époque où des récits de science-fiction contribuaient à diffuser la peur de machines plus "intelligentes" que l’homme. L’IA revient néanmoins en force, dans de multiples laboratoires prestigieux et de nombreuses start-up. Entraînant dans son sillage les mêmes craintes - exprimées notamment par des personnalités de haut niveau (Bill Gates, Stephen Hawking…) - de voir l’homme dépassé par ses propres créations.




S’il y a un réel renouveau des recherches sur l’intelligence artificielle (IA) et des peurs qu’elles suscitent, c’est que bien des choses ont changé, comme l’apparition de nouvelles technologies d’apprentissage automatique (machine learning), la démocratisation de moyens de calculs puissants, l’accès à des données massives (big data)... Sans parler ses progrès enregistrés dans la conception et la fabrication de puces électroniques qui imitent le fonctionnement du cerveau. Des géants — historiques comme IBM ou récents comme Google etFacebook — sont bien décidés à intégrer toutes ces avancées technologiques pour développer des applications qui vont de la médecine à la robotique, en passant par les fonctions d’assistants numériques personnels, les réseaux sociaux…

Avec le grand retour de l’IA, un autre terme revient lui aussi sur le devant de la scène : le réseau de neurones. Ces logiciels, qui imitent le fonctionnement du cerveau, ont eux aussi une longue histoire. Après plusieurs vagues d’engouements et de déception sur leur capacité à effectuer des tâches vraiment utiles, ils accompagnent aujourd’hui les avancées du "deep learning" ou "apprentissage profond". Il s’agit d’une technique de machine learning (apprentissage automatique) née vers 2006, qui utilise des réseaux de neurones à multiples couches pour effectuer une série de traitements hiérarchisés, dans le but de classer des milliers d’objets en catégories, sans critères prédéfinis. Cet apprentissage, dit "non supervisé", a constitué, semble-t-il, une vraie rupture.

L’AVÈNEMENT DU DEEP LEARNING

En tout cas, deux des plus éminents inventeurs et promoteurs du deep learning (DL) ont été recrutés par Facebook (Yann LeCun, université de New York) et Google (Geoffrey Hinton, université de Toronto). Google a par ailleurs racheté la start-up DeepMind, en pointe dans le domaine. Les deux géants d’Internet ont déjà démontré ce qu’ils pouvaient faire avec le deep learning. Facebook a développé DeepFace, une application de reconnaissance de visages qui atteint des forts taux de réussite (plus de 97 %). Inédit… sauf chez les humains. DeepFace met en œuvre des algorithmes de DL avec un réseau de neurones à 9 couches. Quant à Google, il a effectué l’étonnante démonstration d’un descripteur d’images : un logiciel qui décrit par une phrase le contenu de la scène représentée dans l’image. Le DL et les réseaux de neurones sont ici utilisés pour 1) apprendre à identifier ce que contient l’image, 2) apprendre à le formuler en langage naturel. Car le DL permet aussi des progrès sensibles dans le traitement du langage (synthèse et reconnaissance vocale). Microsoft et Google (dans Androïd) mettent d’ailleurs du deep learning dans leurs nouvelles interfaces vocales, avec une efficacité en nette progression.




"Quand il s’agit de combiner des données sous la forme de textes, de résultats d’examens, d’images…, les méthodes statistiques traditionnelles ne suffisent plus"
NICOLAS VAYATIS, QUI DIRIGE LE CMLA, UN LABORATOIRE DE MATHÉMATIQUES APPLIQUÉES DE L’ENS CACHAN/CNRS






Le deep learning est aussi au cœur de Watson — le système IBM de traitement cognitif des données, notamment en langage naturel — qui s’était rendu célèbre en répondant brillamment aux questions d’un jeu télévisé Jeopardi. En fait, Watson utilise le DL couplé avec d’autres techniques de l’intelligence artificielle, et vise bien d’autres applications (médecine, météo, marketing personnalisé…). Si le deep learning s’insinue partout, d’autres techniques d’apprentissage automatique, nées dès les années 1990, ont amené de réels progrès. C'est le cas de l’apprentissage statistique, avec des algorithmes de classification très efficaces sur de grands nombres de données. Ses applications se retrouvent déjà sur le Web (filtres anti-spam, marketing digital, moteur de recommandation…). Et commencent à diffuser dans d’autres domaines, comme le médical. "Quand il s’agit de combiner des données sous la forme de textes, de résultats d’examens, d’images…, les méthodes statistiques traditionnelles ne suffisent plus", indique Nicolas Vayatis, qui dirige le CMLA, un laboratoire de mathématiques appliquées de l’ENS Cachan/CNRS.

LE GRAND RETOUR DU RÉSEAU DE NEURONES

D’autres méthodes en développement intéressent déjà les grands groupes. IBM a créé une équipe de recherche, dans son centre d’Almaden en Californie, axée sur les algorithmes d’apprentissage de Numenta. Cette start-up simule elle aussi des réseaux de neurones, simples, mais avec l’idée d’être aussi fidèle que possible au fonctionnement des neurones biologiques. Les applications visées pourraient concerner le contrôle intelligent de machines, la robotique…

Dans bien des cas, l’usage des techniques d’apprentissage non supervisé est lié à un autre changement majeur des dernières années : l’accès à des masses de données, via internet et les réseaux sociaux. C’est pourquoi machine learning, deep learning et big data sont étroitement liés. Un autre facteur clé est la démocratisation de la puissance de calcul, notamment grâce aux architectures parallèles utilisant des processeurs graphiques (GPU), capables de faire tourner des algorithmes de machine learning en des temps raisonnables.

Mais si les moyens de calcul et simulation ont contribué à la résurgence de l’IA, une autre option poursuit son chemin : construire un "cerveau" dans le silicium, avec des puces électroniques dont l’architecture se calque sur celle des neurones et des synapses. Là encore, l’idée ne date pas d’hier. Mais les progrès commencent à être impressionnants.

LA POUSSÉE DES PUCES NEUROMORPHIQUES

Dernier record en date : 1 million de neurones et 256 millions de synapses sur une puce. C’est IBM qui a réalisé cette puce TrueNorth de 5,4 milliards de transistors en 2014, dans le cadre du projet Synapse financé par l’agence de la défense américaine (Darpa). Conçue pour la détection et l’identification d’objets dans une image (entre autres), cette puce a aussi l’avantage – c’est un point fort des architectures "neuromorphiques" — d’une faible consommation : 70 MW. IBM travaille à interconnecter ses puces TrueNorth, dans le but d’en assembler 4096 pour obtenir un ordinateur de 4 milliards de neurones et 1 000 milliards de synapses… Qui consommera seulement 4 kW !
En Europe, des équipes de l’université de Manchester et de l’université d’Heidelberg travaillent sur des ordinateurs à architectures neuromorphiques. Elles sont associées au projet européen Humain Brain, axé sur l’élucidation du fonctionnement du cerveau humain.

Les progrès de l’intelligence artificielle peuvent donc aussi faire progresser la connaissance du cerveau. Quant à l’usage pratique de futurs ordinateurs neuromorphiques, IBM a déjà son idée. Il envisage d’intégrer des résultats du projet Synapse dans l’offre Watson pour, aux côtés d’autres techniques, créer des systèmes qui sauront apprendre et raisonner, au service des humains.

Comments