3 questions à… Yann Ferguson, sociologue à l’INRIA
Yann FERGUSON est sociologue à Inria et directeur scientifique du LaborIA, un programme fondé par Inria et le Ministère du Travail et de l’Emploi en vue d’observer et d’analyser les usages de l’intelligence artificielle dans les environnements professionnels. Il répond aux trois questions de la Fondation Travailler autrement sur les impacts de l’IA au travail.
Quand on parle d’intelligence artificielle aujourd’hui, on pense surtout à des outils comme ChatGPT ou Gemini. Mais de quoi parle-t-on réellement ? Et depuis quand l’IA est-elle présente dans le monde du travail, parfois sans qu’on l’ait nommée comme telle ?
L’intelligence artificielle est d’abord une discipline de recherche née il y a déjà 70 ans ! On émettait alors une hypothèse fascinante : « tout aspect de l’apprentissage, ou toute autre caractéristique de l’intelligence, peut en principe être décrit avec une telle précision qu’une machine peut être conçue pour le simuler ». D’emblée, les chercheurs envisageaient deux approches. La première consistait à décrire puis à simuler le raisonnement humain. Concrètement, cela revenait à essayer d’externaliser les logiques des meilleurs experts d’un métier pour les « embarquer » dans un programme. Ainsi, l’utilisateur de ce programme pourrait réaliser l’activité sans être expert lui-même. Cette approche avait suscité beaucoup d’espoirs dans les années 1980, mais a finalement déçu, car il est en vérité très difficile de formaliser le jugement professionnel, c’est-à-dire des décisions prises dans l’incertitude, fondées sur des signaux faibles, des contextes ambigus ou des interactions humaines complexes. La deuxième approche reposait sur des techniques d’apprentissage à partir de données. On ne cherchait plus à modéliser la connaissance par le haut via la logique mais on privilégiait une approche par le bas, via l’apprentissage statistique avec des données brutes. Pendant longtemps, la plupart des chercheurs s’en sont détournés. Mais cette approche revit depuis 15 ans, notamment avec l’IA générative, comme ChatGPT. Bien sûr, nous utilisions déjà l’IA mais sans en avoir trop conscience : la majorité des contenus et de l’information que nous consommons ne résulte pas d’une recherche mais d’une recommandation faite par l’IA (c’est le cas de l’application de navigation Waze par exemple).
Observez-vous des disparités – voire des inégalités – de profils dans l’accès, les usages et la maîtrise de l’IA au travail ? Si oui, lesquelles ?
Les disparités dans les usages de l’IA se logent dans les lignes de fracture numérique existantes : l’âge, le niveau d’éducation et de vie, et les territoires. Si les 18-24 ans sont 85% à utiliser l’IA, on passe à 31% pour les 35 et plus. Au travail, cela peut engendrer des discontinuités à l’intérieur du collectif. Par exemple, les plus jeunes utilisent beaucoup l’IA mais moins comme assistant que comme superviseur. Ils disent gagner en assurance, en confiance et autonomie, l’IA venant remédier à des compétences peu stabilisées. Cela peut poser deux problèmes : leur manque de discernement pour évaluer le résultat produit par l’IA d’une part, et la solidité des compétences ainsi acquises d’autre part. Car s’ils peuvent avoir de réelles compétences d’usage de l’IA, cela ne remplace pas les compétences professionnelles. A l’inverse, les travailleurs expérimentés utilisent peu l’IA, qu’ils perçoivent comme un assistant inutile voire nuisible pour la qualité du travail. Ils se méfient également du déplacement que l’IA opère : on produit peu, on corrige, contrôle, valide, ce qui met fin à des gestes professionnels constitutifs de leur métier, de leur fierté, de leur identité. Pour les moins jeunes, c’est l’inverse qui se produit : moins d’autonomie, d’assurance et de confiance. Pourtant, ils sont potentiellement les meilleurs utilisateurs de l’IA, et pas seulement pour gagner du temps : ils peuvent définir les bons cas d’usage, les bonnes pratiques, celles qui allient efficience, performance, fiabilité et responsabilité. Il devient dès lors capital que les usages cessent d’être individuels et se discutent au sein du collectif de travail.
Quand demain, l’IA au travail sera davantage structurée et régulée, quelles activités seront appelées à rester aux mains des travailleurs ?
Pour le moment, le type d’IA qui se diffuse relève moins d’une technique d’automatisation d’activité que d’un outil d’assistance. Cela implique a minima une supervision humaine. Il s’agit donc moins d’un remplacement que d’un déplacement de l’activité. Trois gestes prennent dès lors de l’importance : passer commande à l’IA, évaluer sa réponse, et améliorer son résultat initial. Cette évolution peut être intéressante, mais elle change la place des travailleurs qui expriment parfois une perte de sens. Elle peut également devenir stressante quand ces gestes doivent être réalisés dans des temps contraints sous prétexte que l’IA fait gagner du temps. C’est l’impression que cela peut donner à court terme, car le temps de production est quasi instantané et globalement bon. Mais le temps nécessaire pour passer du globalement bon à l’excellent peut être long et frustrant. Et ces gestes ne vont pas de soi. La vitesse peut griser, étourdir, fatiguer. Notre cerveau va devoir traiter rapidement des gros volumes de contenus qu’il a contribué à définir mais pas à produire, comme s’il relisait le travail de quelqu’un d’autre. Cette adaptation n’est pas insurmontable, mais elle va prendre du temps.
> Yann FERGUSON est sociologue à Inria, l’Institut national de recherche en sciences et technologies du numérique. Il est le directeur scientifique du LaborIA, un programme fondé par Inria et le Ministère du Travail et de l’Emploi en vue d’observer et d’analyser les usages de l’intelligence artificielle dans les environnements professionnels. Trois regards y sont portés en priorité : les conditions de travail, les compétences et la formation, le dialogue social. Yann Ferguson est également président du Conseil Scientifique du Numérique de la Direction Générale des Finances Publiques au sein des Ministères Economiques et Financiers et membre du comité éthique de Docaposte Education.
> A lire également sur le site de la Fondation Travailler autrement : L’intelligence artificielle annonce-t-elle (vraiment) la fin du travail ?, L’IA au travail : une innovation subie ou choisie ?