Le point sur les technologies actuelles (robotique, numérique, Intelligence Artificielle…)


Intervention de Rachid Alami, Directeur de recherche en robotique au LAAS-CNRS (Laboratoire d’analyse et d’architecture des systèmes), Université fédérale de Toulouse Midi-Pyrénées, lors du colloque "L'impact des technologies numériques sur le travail et l'emploi" du mardi 24 septembre 2019.


Directeur de Recherche au Laboratoire d’analyse et d’architecture des systèmes à Toulouse, je suis aussi chercheur en robotique. Je ne travaille pas sur la conception du robot physique mais plutôt sur la partie autonomie décisionnelle, l’intelligence du robot.

Quelle décision le robot doit-il prendre ? Dans quelle situation ? Pour quoi faire ? Ce problème, est un grand défi pour l’IA (Intelligence artificielle). En effet le robot doit prendre une décision dans son environnement pour effectuer une tâche de manière répétée. Non seulement il doit raisonner sur ce qu’il doit faire mais il doit se projeter mentalement sur ce qu’il va faire par la suite puis s’auto-contrôler dans la réalisation de sa tâche. Telle est la conception qu’ont les chercheurs du robot du futur.

Dans le cadre de l’Institut interdisciplinaire d'intelligence artificielle de Toulouse (ANITI), créé en juillet 2019, je suis titulaire d’une chaire qui porte sur la robotique cognitive et interactive. Cognition et interaction du robot avec l’humain sont deux aspects importants.

Le robot assistant est un champ applicatif qui nous intéresse beaucoup. Le robot de service mais aussi, de manière plus importante mais plus difficile, le robot d’assistance à la personne, plutôt dépendante, plutôt fragile. Sans oublier le robot équipier de l’humain dans l’atelier ou sur le chantier, le robot du futur qui va travailler aux côtés de l’humain. Ceci amène les chercheurs en robotique à développer une sensibilité ouverte au modèle de l’humain. Le robot doit faire sa tâche, être utile et efficace mais il doit aussi être pertinent et accepté dans son comportement par l’humain. Il est essentiel dans ce processus que sa décision et son action soient comprises, intelligibles. Le robot doit pouvoir s’expliquer quand il fait sa tâche. Ceci nous conduit à des recherches collaboratives avec des psychologues du développement, des ergonomes et même des philosophes pour définir et concevoir cette machine qui va agir conjointement avec l’humain… au service de l’homme ? pour le remplacer ? Ce sont les questions qui nous intéressent.

L’état des lieux

Parmi les technologies d’aujourd’hui, la robotique est un vrai défi. On assiste à la digitalisation des processus, au développement des réseaux, au fait que les machines sont en réseaux.

Un autre aspect essentiel est la géolocalisation. Nous sommes en permanence localisés, on sait où sont les capteurs, le réseau le sait, la machine le sait. L’internet mobile, interface qui transmet et reçoit l’information, le simple smartphone qui nous permet de fournir et de recevoir cette information génèrent une extrême abondance de données qui est un aspect essentiel de ce qui arrive aujourd’hui. De l’autre côté, le robot autonome, lui aussi géolocalisé, aura ses capteurs, saura où il est et pourra donc se déplacer et raisonner sur son autonomie. La gigantesque masse de données et la connexion permettent un accès illimité à la ressource de calcul, à l’intelligence, constamment disponible, et elle-même pourra en permanence accéder à cette ressource.

On appelle intelligence artificielle les modèles, des algorithmes essentiellement, qui correspondent à des logiciels, des techniques, des machines : des algorithmes d’apprentissage, des algorithmes de raisonnement, des algorithmes de résolution de problèmes, des machines capables de résoudre des problèmes abstraits pour ensuite les mettre en œuvre. Aujourd’hui l’intelligence artificielle s’accompagne de grandes masses de données et de la disponibilité de ressources de calcul, ce qui a déjà largement ouvert le champ à d’innombrables services qui utilisent cette puissance de calcul et le fait qu’elle soit répartie.

Ce qui va venir

Beaucoup de tâches nécessitent une mobilité dans un environnement semi-ouvert, relativement contrôlé. Cette capacité est en train d’être effectivement réalisée et va ouvrir de nouveaux champs d’application dans l’industrie manufacturière. Aujourd’hui, dans les entrepôts, la logistique est déjà largement robotisée, elle le sera encore plus dans le futur. L’exemple classique, ce sont les ateliers d’Amazon où les marchandises se déplacent vers les agents qui ne font que les disposer dans les colis qui repartent. Un grand nombre de robots qui se déplacent très vite effectuent cette tâche. Les employés sont en permanence soumis au rythme des machines et contrôlés à la tâche, à l’action. Mais c’est provisoire. Bientôt la partie manipulation sera elle aussi automatisée. En effet, l’environnement de la logistique, qui suppose la mobilité et de la manipulation, est relativement simple pour les roboticiens parce que c’est un environnement structuré. Des objets que l’on connaît (les colis) et un environnement protégé font que ces tâches sont aujourd’hui automatisables.

Viendra ensuite ce que certains appellent le « cobot » (collaborative robot), le robot collaboratif, que je préfère appeler le « robot équipier » qui, mobile, va circuler dans l’atelier pour épauler les employés. Il ne va pas forcément les remplacer mais ce sera un travail partagé, le robot faisant ce dont il est capable, l’humain faisant le reste.

Un autre grand champ est en train d’arriver aujourd’hui : les mines, notamment les mines à ciel ouvert qui sont déjà automatisables. Volvo fournit des robots clés en main pour automatiser des usines, notamment des mines.

Dans le domaine du transport on parle beaucoup de la Google car, la voiture autonome. Tous les constructeurs automobiles y travaillent. Sera-t-elle totalement autonome ? A quelle échéance ? Ce qui vient très vite, c’est le transport en site propre. Je parlais d’environnement semi-structuré. Dès qu’on protège un peu l’environnement, ces machines deviennent suffisamment autonomes, pour réaliser la tâche de transport. Le transport autonome en site propre fonctionne déjà et pourrait être généralisé. Le camion qu’un chauffeur amène à l’entrée de l’autoroute et qu’un autre chauffeur récupère à la sortie est d’ores et déjà possible. C’est en train de venir aux États-Unis.

La robotisation de l’agriculture progresse dans deux directions. L’une concerne les gros tracteurs. John Deere, par exemple, est en train de déployer des moyens énormes autour des grosses machines. Mais on travaille aussi sur des petits robots qui vont aider l’agriculteur individuel. À Toulouse une petite société (Naïo) développe des machines de désherbage qui, de façon autonome, enjambent les vignes ou désherbent les champs. Cela a l’intérêt d’éviter d’utiliser des produits désherbants.

Je passe sur ce qui est évident pour nous tous et relève de l’informatisation de base, standard : l’automatisation des distributeurs, les caisses connectées, les caisses enregistreuses, toutes choses largement répandues, les passeports avec reconnaissance faciale (on passe désormais la police des frontières sans voir personne) etc.

D’autres usages de ces technologies arrivent : l’automatisation des métiers du savoir, l’aide à la décision, l’expertise. Il y a très longtemps on parlait de systèmes experts, c’était déjà un des champs d’application de l’IA. Aujourd’hui on parle d’apprentissage profond (deep learning). Ces techniques sont connues depuis longtemps. Ce qui a changé récemment, c’est d’une part les puissances de calcul phénoménales disponibles (le cloud) et surtout les énormes quantités de données utilisées pour pouvoir réaliser ces apprentissages. C’est simplement de l’apprentissage statistique. On donne à la machine des centaines de milliers d’images dans lesquelles un humain a identifié un chat et à partir de là la machine est capable de reconnaître des chats dans n’importe quelle image. Ces fonctions de décision sur la base d’une image, sur la base d’un ensemble de données sont en train aujourd’hui de se développer largement (reconnaissance faciale, etc.). Un autre exemple réalisé grâce au deep learning, c’est la reconnaissance de la parole. Il y a trente ans, mes collègues travaillaient sur la reconnaissance de la parole avec des modèles. On imaginait qu’une phrase avait sujet-verbe-complément, on essayait de trouver des phonèmes, de retrouver la syntaxe de la phrase pour pouvoir ensuite l’interpréter. Aujourd’hui on ne travaille plus de cette manière mais avec la méthode de l’apprentissage profond. Les systèmes de reconnaissance de la parole fonctionnent très bien aujourd’hui parce qu’ils utilisent d’énormes corpus (tout ce qui est écrit). Quand je dis une phrase, la probabilité qu’elle ait déjà été dite un jour par quelqu’un est grande. Aujourd’hui, les systèmes de reconnaissance de la parole reconnaissent les mots, même si on fait une erreur de syntaxe, de conjugaison, etc. Les services fondés sur cette fonction reconnaissance de la parole, qui fonctionnent assez bien (toutefois rien n’est parfait, ce qui pose problème), vont se développer de plus en plus. Ces services de premier niveau n’ont pas besoin de beaucoup d’intelligence parce qu’en général ils sont réservés à des contextes bien particuliers qu’on appelle les hotlines qui fonctionnent sur la base de mots-clés. Avec quelques mots la machine peut conduire avec vous un certain nombre d’étapes jusqu’à ce que vous obteniez satisfaction (même si cela peut parfois exaspérer). C’est relativement simple, pauvre d’un point de vue sémantique, et cela va largement se développer. Mais on commence à voir apparaître aujourd’hui la traduction de textes qui fonctionne assez bien et se perfectionne de jour en jour. Il m’arrive de l’utiliser pour traduire un texte français en anglais. Alors qu’autrefois le résultat était plutôt comique, accumulant les erreurs et les contresens, aujourd’hui, avec un site appelé DeepL, je n’ai plus à corriger que quelques mots. C’est un exemple d’utilisation. La traduction est en train d’arriver. Quelques humains resteront nécessaires pour corriger des mots ou des tournures de phrases mais le gros du travail sera fait.

Des utilisations encore plus intelligentes sont en train d’arriver. Il y a en recherche des systèmes qui font de la synthèse, du résumé de texte, ce qui demande une connaissance plus fine. Là aussi c’est réalisé avec des techniques étonnamment simples. Des commentaires d’épreuves sportives sont faisables aujourd’hui avec des systèmes de divisions et de tracking. On peut suivre les joueurs, la balle, et la machine peut commenter pertinemment une épreuve sportive car elle dispose d’énormément de données qui lui permettent de comparer avec des jeux antérieurs.

La médecine est un autre champ d’application très important :

L’aide au geste chirurgical a connu d’énormes progrès. Cette aide va jusqu’à la réalisation physique de la tâche. Cela a été très difficile, on avance doucement mais il y a de très beaux résultats. C’est véritablement une aide au geste chirurgical. La machine ne remplace pas le chirurgien, qui est présent, elle déporte sa tâche ou elle l’aide à faire sa tâche ou encore il lui sous-traite des parties du problème et reprend la main.

L’aide au diagnostic est en train de prendre une importance grandissante. Des travaux sont menés dans ce domaine qui utilisent les données, les fichiers médicaux, notamment sur l’interprétation d’images. La machine peut détecter dans une image une anomalie, une lésion et suivre son évolution dans le temps mieux qu’un humain ne peut le faire, en tout cas plus rapidement. Dans ce domaine la machine va se révéler très utile. Par exemple, un système très connu, la plate-forme Watson d’IBM, qui a emmagasiné des centaines de milliers de cas, les antécédents médicaux et familiaux des personnes, est aujourd’hui capable de faire des diagnostics tout à fait pertinents, de cancers notamment. Pour donner une idée de la difficulté de la médecine moderne, le scan complet d’un corps c’est 30 000 images. Quel médecin peut lire 30 000 images ? C’est la machine qui intervient.

Où en est la recherche dans ce domaine ?

Nous chercheurs travaillons sur les « points durs », les difficultés qui subsistent, concernant notamment cette robotique qui accomplit la tâche, la comprend et la mène sur plusieurs étapes. Tous les exemples que j’ai donnés se font sur une étape : la machine interprète, prend la décision mais ne reboucle pas, n’accomplit pas une tâche longue sur plusieurs étapes, n’élabore pas de stratégie. C’est sur ces problèmes qui restent ouverts que travaillent les chercheurs.

Un autre aspect, déjà mentionné, est absolument essentiel pour beaucoup d’applications : les applications qui aujourd’hui contiennent des aspects d’IA ne sont pas certifiables. La recherche doit avancer pour les rendre certifiables et vérifiables, pour pouvoir valider la décision de la machine. C’est absolument indispensable dans certains domaines, l’aéronautique notamment. D’autres systèmes déployés aujourd’hui ne sont pas certifiés et font l’objet de travaux sérieux. Le véhicule autonome en est un exemple.

Les questions concernant la sécurité et la vie privée doivent aussi être prises en compte. Comment éviter les discriminations (de genre et autres) ? Comment s’assurer que ces systèmes n’apprennent pas avec des biais ? Le Watson d’IBM fait très bien les diagnostics, m’a-t-on dit, mais il prescrirait un traitement… américain ! Des chercheurs travaillent sur les moyens qui permettraient à la machine de faire un apprentissage en évitant les nombreux biais.

Aujourd’hui, beaucoup de système imparfaits, incomplets, sont quand même déployés. Ce sont des questions dont il faudrait aussi discuter.

Ces systèmes permettent aussi l’uberisation, le micro-travail…

Les chercheurs se penchent aussi sur certains dangers graves. J’ai mentionné l’acceptabilité, la lisibilité et la compréhension de ce que fait la machine. Nous assistons déjà à une dégradation de la qualité du travail parce que les personnes sont impuissantes face à la machine dont, souvent, elles ne comprennent pas la décision. Ce type de difficulté risque de prendre de l’ampleur et de toucher des champs beaucoup plus larges que l’achat d’un billet ou l’accès à une prestation.

Enfin, dans un certain nombre de situations, une partie du travail est reportée sur le client. La tâche est partiellement automatisée, la partie qu’on n’automatise pas est faite par le client.

L’état des connaissances et des chiffres crédibles présagent une importante automatisation du travail physique prédictible. Dans un environnement structuré, les tâches répétitives, même complexes, même si elles demandent de la dextérité, vont être automatisées. C’est évident pour le traitement de l’information et la collecte de données. Plus de 60 % des tâches de collecte de données ou de décisions simples seront automatisables. Plus de 60 % des emplois correspondants seront remplacés par la machine.

Le travail physique non prédictible est moins facilement automatisable. Il s’agit des tâches à réaliser dans un environnement ouvert, dynamique, non structuré (réparation, intervention, chantier…). Toutefois, la machine peut y prendre sa part.

De même, pour le service à la personne, l’expertise et la prise de décision complexe, la machine va venir en appoint. Elle ne va pas remplacer complètement l’humain. Les chiffres, qui avoisinent 20 % de destruction d’emplois, me semblent crédibles.

M’exprimant du point de vue du chercheur, j’espère que ces technologies profiteront à tous, sinon à quoi bon ?

Jean-Pierre Chevènement

Merci, M. Alami.

Vous vous êtes placé, comme vous venez de le dire, du point de vue du chercheur.

Sur le sujet de l’impact de ces technologies sur le travail et l’emploi, vous nous avez donné beaucoup d’exemples. Vous avez étudié un certain nombre de champs, dont la médecine. Vous avez abordé la question du process de production en montrant que les tâches répétitives, prédictibles, étaient les plus susceptibles d’être automatisées. Mais comment expliquez-vous qu’il n’y ait en France qu’environ 30 000 robots alors que l’Allemagne en compte 200 000 et le Japon entre 400 000 et 500 000 ? À quoi imputez-vous la faiblesse de la pénétration de ces technologies numériques dans notre industrie ? Car cette faiblesse s’exprime aussi en valeur relative : par millier de salariés il y a moins de robots en France qu’en Allemagne et, à plus forte raison, en Corée du Sud, au Japon etc.

Rachid Alami

Il est essentiel de savoir, face à ces chiffres, que le mot « robot » ne désigne pas la même chose au Japon et en France. Au Japon, on appelle un robot une machine qui effectue des tâches relativement simples. Une partie des chiffres sont biaisés par ces choses-là.

[Il en est de même des chiffres de mortalité routière. Dans certains pays, si la personne décède plus de quinze jours après l’accident, elle n’est pas considérée comme morte sur la route.]

Peut-être aussi l’industrie japonaise est-elle différente. Enfin, la délocalisation a fait qu’une partie de la production utilisant des robots est partie.

-----

Le cahier imprimé du colloque "L'impact des technologies numériques sur le travail et l'emploi" est disponible à la vente dans la boutique en ligne de la Fondation.

Fondation Res Publica I Vendredi 6 Décembre 2019 I | Lu 1865 fois





Derniers tweets

SUIVEZ LA FONDATION SUR TWITTER

SOUTENIR LA FONDATION
Entreprises ou particuliers, soutenez la Fondation Res Publica

LIBRAIRIE EN LIGNE
Achetez en ligne les cahiers imprimés de la Fondation Res Publica
Fondation Res Publica

52 rue de Bourgogne
75007 Paris France
Tél : +33 (0) 1 45 50 39 50
Fax : +33 (0) 1 45 55 68 73
Contacter la Fondation