Le 20 janvier 2017, Axelle Lemaire et Thierry Mandon lançaient la stratégie nationale en intelligence artificielle pour la France. Jusqu’au 21 mars 2017, acteurs institutionnels, chercheurs, entreprises et start-up réfléchissent collectivement aux grandes orientations de la France en matière d’intelligence artificielle (IA). Dans ce cadre, France Stratégie est associée au Conseil national du numérique (CNNum) pour évaluer les impacts économiques et sociaux de l’intelligence artificielle faible, c’est-à-dire des systèmes d’apprentissage machine ayant développé des capacités de traitement d’une tâche spécifique. Les ateliers thématiques du 3 mars avaient pour but de mobiliser et d’impliquer la jeunesse sur un exercice particulier : imaginer comment nous travaillerons demain avec l’IA.
14h00. Dans la « bibliothèque du futur » d’Agoranov, certains étudiants finissent leur café. D’autres sont déjà assis et discutent en attendant le lancement de la séance. Julia Charrié (France Stratégie) et Celia Zolynski (CNNum) expliquent le déroulé de l’après-midi et la démarche de l’atelier. Igor Carron, CEO de la startup LightOn et co-organisateur du meet-up Paris Machine Learning, ouvre le débat : « L’intelligence artificielle, c’est quoi ? C’est des algorithmes utilisés pour comprendre le monde et interagir avec les hommes. » Ses principes remontent aux années 1940, mais la recherche a connu un développement spectaculaire dans ce domaine ces dernières années. Cette « troisième vague » de progrès, Igor Carron l’appelle « le big bang ». Les termes sont posés.
14h32. Les étudiants intéressés par la représentation de l’IA descendent installer leurs quartiers dans une salle du rez-de-chaussée, avec Laurence Devillers professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Ambition : trouver une identité à FairIA, un projet visant à éduquer à l’IA, diffuser des pratiques et expérimenter des usages.
Dans la bibliothèque, les étudiants en éducation et en droit déplacent les chaises et s’emparent chacun d’un coin de la salle.
Dans le groupe « EdTech », ils sont vingt-quatre autour de Sophie Pène, professeure à l’université Paris Descartes et vice-présidente du CNNum. Elle leur parle de co-conception, de partage des savoirs et de la nécessité d’avoir « des communautés de pratiques pour décider des usages », puis les invite à se présenter. Un tour de table qui engage d’entrée de jeu la discussion ! Parmi eux : Louis, développeur web, Lubna, consultante en IA chez IBM, Rémi, designer… Solenne, assise par terre, s’intéresse aux « limites de l’IA et à la pensée critique ». Olivier, enseignant de 40 ans, s’interroge sur la place de l’IA face à l’intelligence naturelle et sur la manière dont elle va nous permettre de comprendre qui nous sommes (ou pas ?). Les idées fusent…
Déplacement des chaises dans la bonne humeur. Les étudiants se répartissent en trois sous-groupes : « exclusion sociale, apprentissage et empathie ». Chacun leur paper board. C’est parti pour une heure de réflexion avant « la restitution ». Des mots se détachent du brouhaha productif : « empouvoirement, capabilité, liberté, coopération, égalité… » et « prospective des métiers » qui semble tout droit sorti du lexique France Stratégie…
Pendant ce temps, du côté des quinze étudiants en droit, les tableaux se structurent. Des post-it roses et jaunes alternent mots d’anticipation : « temps libéré, mutations, révolution… » et mots d’avocat : « déontologie, démarches-palais, recherche de la preuve… ». « Est-ce qu’on se place à horizon vingt ou trente ans ? » demande l’un d’eux…
Dans la salle du rez-de-chaussée qui ouvre sur le jardin d’Agoranov, une odeur de café flotte dans l’air. Sur la table, des feutres, des crayons, un logiciel graphique ouvert sur un PC.
Les six étudiants en design, en robotique, en machine learning et en éducation se sont fixé pour objectif d’incarner l’IA, de « la dessiner comme une personne ». Pas simple. « Est-ce qu’on met l’homme et la machine au même niveau ? » La question déplace l’enjeu. Laurence Devillers les invite à réfléchir aux limites de l’assistance par l’IA et à son influence sur la valeur travail : « Comment faire pour que l’humain mène la machine et non l’inverse ? Comment penser une coévolution humain/machine qui permettrait plus d’épanouissement et de créativité dans le travail ? » Comment, aussi, éviter le risque de « désengagement » par délégation successive des tâches à l’IA, dans une société qui deviendrait « trop facilitante » ?
16h48. C’est l’heure des restitutions. L’atelier droit est le premier à passer au tableau. Grégoire, Hugo et Thomas présentent la synthèse de leur groupe. « Quel métier d’avocat demain avec l’IA ? ». Pour répondre à la question, ils ont distingué les tâches d’une journée type suivant leur degré de « subtilité ». Par subtilité, les étudiants entendent « le travail avec le langage naturel, les contraintes sémantiques (typiquement d’une plaidoirie), la capacité d’interprétation (l’humour) et de contextualisation des affaires, leur subjectivité… ». Bilan : suivant ce critère, ils les ont réparties dans trois colonnes. Une colonne « substitution », où sont rassemblées les activités automatisables – gestion de base de données, veille juridique… Une colonne « augmentation », là où l’homme peut faire mieux avec l’IA – gestion de preuves, traitement des mails, hiérarchisation des tâches… Et une dernière colonne « inchangé » qui regroupe tout ce qui touche à l’élaboration stratégique et au relationnel (échanges avec les clients et les confrères, plaidoiries), des tâches que l’IA n’a pas à prendre en charge. Le bénéfice probable de l’IA pour eux, c’est avant tout de pouvoir « gagner en efficacité, en plaisir de travailler et en temps ». Un temps qu’ils pourraient consacrer à leurs clients, au relationnel. « Et les stagiaires pourraient avoir pour mission de contrôler les IA et de les alimenter en données ! » concluent-ils. Quant aux risques, ils relèvent de questions de sécurité et de fiabilité des algorithmes qui engagent la responsabilité de l’avocat. Applaudissements nourris et passage de relais au groupe EdTech.
Clément et Natacha commencent par faire état de l’absence de consensus dans le groupe au-delà du message clé : « mettre l’homme au cœur des préoccupations ». Une IA dans l’éducation, c’est avant tout un moyen utile « d’adapter les enseignements aux élèves plutôt que de faire s’adapter les élèves à un enseignement unique ». Surtout, l’IA serait l’opportunité de rendre les apprentissages ludiques. Clément parle de « gamification, de culture du fablab et de DIY [do it yourself : littéralement faire par soi-même] » ! En d’autres termes, se familiariser avec l’IA en « fabriquant » des robots, des logiciels… Attention, préviennent-ils, « l’IA ne doit pas devenir une boîte noire ». L’éducateur doit pouvoir garder la maîtrise.
À leur suite, Rémi et Solenne amènent leur paper board titré « spécifique humain ». Leur réflexion s’est portée sur la spécificité et la valeur ajoutée du professeur, expliquent-ils. L’empathie restera-t-elle « leur domaine réservé » ou l’IA en sera-t-elle dotée ? Une chose est sûre, annonce Solenne, « le professeur ne sera plus l’unique sachant ». Son rôle pourrait évoluer vers celui de « médiateur, régulateur, facilitateur » de la relation d’apprentissage IA/élève.
Le sous-groupe anglophone « apprentissage » a, lui, synthétisé ses idées dans des cercles concentriques. Au cœur du cercle « le contenu éducatif ». Là, l’IA serait un moyen d’accompagner et d’individualiser les parcours des élèves. Deuxième cercle : « l’approche pédagogique ». L’IA y faciliterait les projets interdisciplinaires (versus des sujets fragmentés par matières). Derniers niveaux : « les outils d’apprentissage et la littératie numérique » : là, élèves et professeurs travailleraient ensemble à « s’approprier, évaluer et faire évoluer l’IA ». La vision est à la fois précise et concise.
Les étudiants en design et en art ferment la marche. Ils expliquent leur démarche et le résultat auquel ils sont parvenus : un robot qui ouvre une porte à une personne. Le geste symbolise l'assistance. « La machine ne vient pas remplacer mais augmenter les possibles. » Le principe de transparence est mis en scène : « On voit que c'est une machine, on voit ce qu'elle fait. » L’aspect positif est illustré par un « dispositif souriant », la technologie par la couleur bleue. Pourquoi un robot pour incarner l’IA ? Parce que « c’est plus facile à concevoir que si on dessine un cerveau ou une multitude de zéros et de uns à la file » !
18h30. Après une table ronde sur l’éthique venue conclure cet après-midi de réflexion collective, la journée s’achève sur un bilan plus que positif : les visions prospectives des futurs professionnels, leurs attentes et leurs demandes de précaution viendront nourrir, avec les conclusions des autres groupes de travail, le rapport attendu fin mars sur les grandes orientations de la France en matière d’IA…
Céline Mareuge