L’IA réellement intelligente ou seulement artificielle ?

L’IA réellement intelligente ou seulement artificielle ?

12 Juin 2018

Pas de réponse unanime à la question posée. Mais une certitude : l’intelligence artificielle mobilise de la matière grise. Avec plus de 200 chercheurs et ingénieurs, la Technoférence #25 du 7 juin a battu des records d’affluence. Une matinée centrée sur les enjeux, applications et perspectives de l’IA. Également alimentée par des questionnements d’ordre éthique.

Le succès de cette Technoférence Images & Réseaux est un signe : l’intelligence artificielle devient le quotidien de laboratoires et entreprises de plus en plus nombreux. Un engouement qui traverse tous les domaines applicatifs. Et génère ce qui commence à ressembler à une véritable communauté IA en Bretagne et Pays de la Loire.

Autour de cette question, « L’IA : réellement intelligente ou seulement artificielle ? », l’événement a réuni plus de 200 participants le 7 juin à l’IMT Atlantique de Rennes et sur des sites relais par visioconférence à Brest, Lannion, Laval, Nantes et Vannes… Ainsi que dans une salle voisine, puisque l’amphithéâtre de conférence était complet.

La tendance est à l’apprentissage machine

Henri Sanson, d’Orange Labs, commence par fixer le cadre. L’intelligence artificielle est rattachée aux sciences cognitives. Elle s’inspire ou simule l’intelligence des êtres vivants. Et elle est organisée en champs disciplinaires qui correspondent aux principales fonctions cognitives : perception sensorielle, reconnaissance des formes, traitement du langage naturel, planification, raisonnement, ingénierie des connaissances… Ce qui amène l’intervenant à distinguer deux branches.  « L’IA anthropomorphique » qui traite des données non structurées comme l’image, le son, le texte. Et « l’IA rationnelle » davantage portée sur les données structurées telles que celles issues de capteurs.

Côté outils, la tendance est à l’apprentissage machine : le Machine Learning. Cette technologie est fondée sur une phase d’entrainement à partir d’un jeu de données « pour apprendre de ses erreurs, comme un humain« .  Elle est principalement utilisée pour prédire, diagnostiquer, décrire, prescrire… Notamment dans une logique d’assistance. La phase d’apprentissage détermine la performance de l’algorithme. Ce qui conduit à cet avertissement : « Dans la réalité, il est souvent très compliqué d’accéder à de bonnes données. »

Le Deep Learning, un outil générique

Suivait un zoom sur le Deep Learning grâce à Patrick Perez, directeur scientifique de Valeo. Nous sommes toujours dans le domaine de l’apprentissage machine, donc « basé sur la donnée ». Avec cette particularité que le logiciel est organisé en couches de réseaux de neurone artificiels. D’où la notion de profondeur : « Plus il existe de couches de neurones, plus l’algorithme est profond. »

Le must en matière de Deep Learning sont « les réseaux neuronaux convolutifs », inspirés du cortex visuel des animaux. Ils peuvent servir à faire pousser la barbe d’une personnalité de façon très réaliste aussi bien que « résoudre des problèmes compliqués d’optimisation ». Patrick Perez voit dans ces réseaux de neurones des outils génériques. Avec toutefois une mise en garde sur l’existence de « perturbations adversaires ». Ce sont des données spécifiquement étudiées pour provoquer des résultats aberrants. Par exemple pour faire échouer un logiciel de classification d’images. « Si c’est pour perturber une voiture autonome, c’est moins drôle. »

Facebook : des recherches à 5 ou 10 ans

Très attendu Hervé Jégou présentait ensuite les travaux menés au sein du FAIR, le centre de recherche Facebook de Paris. Un centre qu’il décrit très ouvert : « nous publions tous nos travaux… », « beaucoup de startups utilisent nos outils… » Les recherches menées s’inscrivent dans une stratégie du groupe à 5 ou 10 ans pour développer de nouveaux produits. En attendant, les IA sont déjà très présentes sur le réseau social. Elles pilotent les bots, les agents conversationnels. Elles créent automatiquement des trailers, des bandes annonces vidéo. Surtout, elles filtrent les contenus indésirables : « Au premier trimestre 2018, 2 millions de vidéo ont été filtrées. 99% de ces contenus n’ont été vus par personne. »

Technoférence 25 Facebook

L’intervenant en vient ensuite aux directions de recherche. Dans le domaine de la vision, FAIR développe des réseaux neuronaux convolutifs capables de fonctionner avec une puissance de calcul réduite, comme celle d’un téléphone mobile. Autre piste à l’étude, une méthode d’apprentissage machine non plus à partir de base de données annotées par l’humain mais à partir de « bases de données imparfaites mais beaucoup plus grande, comme par exemple Instagram ». Dans le domaine du langage, la traduction automatique est un sujet de recherche privilégié. Avec pour cibles les « 6000 langues parlées sur la planète ». Ce qui suppose de pouvoir faire le lien entre deux langues dont on ne dispose pas de données parallèles. Malgré ce handicap : « Nous avons obtenus des résultats qui n’étaient pas délirants. » Dernier axe de recherche, le raisonnement. Pour lequel la méthode mise en œuvre est « l’apprentissage par renforcement », inspiré de la psychologie comportementale.

Médias, mobilité, médical… Les multiples usages de l’IA

Quatre startups se succédaient pour parler de leur usage de l’IA. À commencer par Realspeaker (Viktor Osetrov), dont la solution de transcription automatique de dialogues en texte permet aux vidéos en ligne de devenir visibles des moteurs de recherche. Puis c’est au tour de Larmark (Vivien Chapelier) d’expliquer comment ses algorithmes fouillent le web à la recherche d’utilisations illégales de visuels protégés. La jeune pousse rennaise fonde ses travaux sur une technique de description vectorielle des images pour accélérer les traitements par comparaison de vecteurs.

Ensuite Data2B (Christophe Thovex), fait un large et malicieux détour par les conjectures de Turing, le nerf optique de la grenouille et la soupe primordiale du Big Bang. Ceci avant de présenter les recherches maison en matière de ville intelligente. Par exemple pour imaginer de nouvelles mobilités telles qu’un « réseau capillaire de transport en commun » s’appuyant sur le parc de véhicules en circulation dans la ville. Enfin, VitaDX (Allan Rodriguez) explique comment l’association entre apprentissage machine et observation de cellules en fluorescence permet de réaliser un diagnostic précoce du cancer de la vessie (voir « Face au cancer de la vessie, VitaDX investit 5 ans d’efforts »). L’algorithmique a pour avantage d’automatiser le processus et de faire baisser les coûts : « L’intelligence artificielle a permis d’industrialiser. Donc de développer un modèle économique. »

Vers des agents artificiels éthiques ?

Pour conclure la matinée, Thibaut de Swarte, enseignant-chercheur à l’IMT Atlantique, amenait le débat dans le champ de l’éthique. Une réflexion nourrie par le projet ANR ETHICAA, qui se propose de « définir ce que devrait être un système composé d’un ou plusieurs agents et capable de gérer des conflits éthiques ». Sauf que l’éthique, la morale, les valeurs sont par essence difficiles à traduire en principes opérationnels. « Est-ce que la voiture autonome prendra le risque de tuer son passager pour sauver deux personnes qui traversent la route dans les clous ? » Cette approche, « utilitariste », ne manquerait pas de soulever aussi des problèmes juridiques.

Le projet abordait deux cas particuliers. Celui du drone de combat, qui « n’est pas a priori plus ou moins éthique que d’autres armes de guerre ». Et celui du robot compagnon, dont on pense qu’il va se développer avec le vieillissement de la population, en particulier au Japon. Dans tous les cas, « le robot ne doit pas devenir prescripteur de nos comportements ». Car la dépendance au robot aboutirait au paradoxe que « le robot réifie l’humain ». Donc « à la perte de dignité humaine », conclut le chercheur.

Billets similaires :

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.