Préserver la qualité de vie au travail à l’ère de l’intelligence artificielle

30 Sep, 2021
intelligence artificielle QVT

[lwptoc]

L’usage d’algorithmes d’intelligence artificielle (IA) comme outils de gestion de la productivité se généralise dans de nombreux secteurs d’activité. Ce management opéré par l’IA a des conséquences sur la santé et la qualité de vie au travail. La question de la régulation des IA au travail s’impose donc aujourd’hui. Cet article revient sur ces enjeux et propose des perspectives pour une IA plus respectueuse de l’intégrité des femmes et des hommes au travail.

Vers un nouveau taylorisme ?

« L’ouvrier réduit à l’état de brute, à qui il est interdit de penser, de réfléchir, à l’état de machine sans âme, produisant intensivement avec excès, jusqu’à ce qu’une usure prématurée, en faisant une non-valeur, le rejette hors des ateliers ». C’est ainsi qu’en février 1913, l’Union Corporative des Ouvriers Mécaniciens décrivait la condition des travailleurs soumis au taylorisme naissant.

Plus d’un siècle plus tard, c’est cette même plainte qu’expriment les salariés des activités de plus en plus nombreuses à être gérées par des intelligences artificielles. Ces algorithmes auto-apprenants s’imposent progressivement dans de nombreux métiers. Ils analysent, coordonnent, fixent des objectifs, et vont même jusqu’à identifier les employés les moins productifs pour les écarter.

Cette optimisation du travail par des managers sans visage, souvent guidée par la seule quête de productivité, a un impact important sur la santé et les conditions de travail. A titre d’exemple, l’administration fédérale américaine de la sécurité et de la santé au travail a fait état d’un taux d’accidents du travail deux fois supérieur à la moyenne dans les entrepôts d’Amazon coordonnés par l’IA.

L’inflation du recours à l’IA pour augmenter la productivité et de ses conséquences néfastes sur la santé des travailleurs ont récemment conduit la Californie à proposer un projet de loi interdisant le recours aux algorithmes de productivité.

L’IA doit-elle pour autant être considérée comme un danger pour la santé au travail ? Ou représente-t-elle une opportunité dont les effets pervers peuvent être maîtrisés ?

L’IA : une innovation polémique

La révolution numérique encore en marche remodèle profondément le paysage du travail en transformant nos façons de communiquer et de coordonner les activités humaines. La généralisation du recours à l’intelligence artificielle à partir du début des années 2000 a ouvert la voie à de nouvelles méthodes de régulation du travail et d’optimisation de la productivité.

L’intelligence artificielle désigne des algorithmes capables d’auto-apprentissage à partir de l’analyse de variables issues d’un environnement donné. Contrairement à un algorithme classique qui proposera toujours la même solution avec les mêmes ingrédients de départ, une intelligence artificielle apprendra au gré de ses propres expériences et fera évoluer ses réponses au cours du temps.

Plusieurs grandes entreprises utilisent aujourd’hui l’IA pour optimiser la productivité de leurs employés. Amazon l’utilise ainsi pour analyser les flux de travail et les déplacements des collaborateurs dans ses entrepôts logistiques puis pour en déduire des objectifs de productivité. Le géant de la restauration rapide Domino’s Pizza expérimente quant à lui une IA qui contrôle les gestes des pizzaiolos pour les optimiser. L’IA est également présente dans les algorithmes qui coordonnent le travail des chauffeurs de VTC et des livreurs à domicile dans l’univers de l’économie ubérisée.

Pour ses partisans, l’intelligence artificielle représente une opportunité de croissance et de développement. En effet, grâce à ses algorithmes apprenants capables de tirer des enseignements en analysant un grand nombre de paramètres, l’IA s’impose comme l’outil par excellence pour analyser en continu l’activité humaine et proposer des arbitrages ainsi qu’une aide à la décision guidée par des critères objectifs, éludant les nombreux biais décisionnels qui polluent les décideurs humains.

Initialement cantonnée à des activités facilement modélisables comme la logistique ou l’industrie, l’IA s’étend aujourd’hui à des activités support ou managériales comme le contrôle de gestion ou les achats. C’est d’ailleurs ce qui lui vaut les critiques de détracteurs qui la considèrent comme une menace pour l’emploi réel. Ainsi, dans son rapport sur l’intelligence artificielle publié en 2018, le député Cédric Villani a estimé qu’avec l’IA, un emploi sur 10 risquait de disparaître totalement et qu’un emploi sur deux risquait d’être automatisé à hauteur de 50 %.

Les écueils du management par l’IA

L’IA n’est pas si intelligente que son nom le laisse entendre. Il s’agit avant tout d’algorithmes pensés par l’humain pour servir une finalité donnée, sans y déroger. Même s’il est capable d’auto-apprentissage, un algorithme pensé pour optimiser la productivité des employés ne se préoccupera pas de leur santé ou de l’usure qu’il génère, à moins que ces paramètres ne fassent partie de son code source.

Le problème n’est donc pas le recours à l’IA en soi, mais le fait que les algorithmes de productivité ne soient pas conçus pour intégrer des garde-fous préservant la santé physique, mentale et l’intégrité des travailleurs qu’ils coordonnent.

De nombreux chercheurs en neurosciences et en informatique alertent depuis de nombreuses années sur la nécessité d’imposer des lignes rouges éthiques aux intelligences artificielles. L’institut Alan Turing avait ainsi à titre d’exemple défini en 2019 un ensemble d’incontournables éthiques dans un guide à la disposition des concepteurs d’IA, fondés sur un certain nombre de principes clés à implanter obligatoirement dans tout algorithme. Parmi ces incontournables figurent la recherche du bien-être individuel et collectif, le soutien aux interactions humaines et le respect de la dignité et de l’intégrité des individus. Ces principes sont manifestement absents des codes sources des IA d’optimisation de la productivité.

Le recours à l’IA dans une perspective productiviste a pour conséquence de dépersonnaliser la prise de décision. Il est en effet moins engageant d’opposer à des employés licenciés ou des sous-traitants sanctionnés des critères objectifs déterminés par un algorithme qu’une décision humaine qu’il faut endosser et assumer. Cette dépersonnalisation de la décision – et à fortiori de la sanction – ouvre la voie à de graves écueils managériaux en supprimant de fait toute possibilité de recours individualisé. Elle nie le droit de chaque individu à un traitement personnifié et respectueux de son intégrité.

Enfin, l’implantation de l’IA en tant qu’outil d’optimisation de la productivité supprime des degrés de liberté pour le dialogue social. Pour préserver la santé et la sécurité des travailleurs et rester soutenable, l’organisation du travail gagne en effet à être mise en débat avec les travailleurs ou leurs représentants. Le fait qu’une intelligence analyse et détermine de façon discrétionnaire les meilleurs modes opératoires supprime ces espaces de dialogue et confronte les travailleurs à un état de fait non-contestable.

Quelles pratiques pour un usage vertueux de l’IA au travail

La puissance de calcul de l’IA et les opportunités qu’elle offre sont indéniables. S’y opposer frontalement revient à contester une innovation majeure qui s’impose malgré ses effets pervers. Il est cependant encore envisageable d’ouvrir un débat citoyen sur la place que nous souhaitons lui accorder et les bénéfices que nous en attendons au travail.

Il est concevable d’avoir recours à l’IA pour optimiser des activités complexes, dans une perspective d’amélioration continue. Le recours à l’IA devrait dans ce cas être strictement conditionné à l’introduction de critères imposant la santé et la qualité de vie au travail comme une variable inhérente aux algorithmes. Une IA ne pourra ainsi pas proposer une organisation ou une cadence dégradant la santé et la qualité de vie au travail. Elle devra intégrer à son auto-apprentissage des variables de santé et de sécurité (accidentologie, arrêts maladie, etc.), voire des données subjectives issues de mesures quantitatives (ex. : baromètres RPS ou QVT).

Il est ainsi techniquement tout à fait possible de penser des IA vertueuses, bridées pour que la recherche de productivité ne puisse en aucun cas se faire au détriment de la santé et de la qualité de vie au travail.

Le développement d’IA vertueuse n’est possible qu’au prix d’une réelle volonté politique. Elle passe par un cadre législatif adapté, à l’instar de celui qu’ébauche actuellement l’état de Californie.

Il est également nécessaire de développer les compétences des parties prenantes en mesure de juger du caractère vertueux ou pathogène d’une IA au travail. A ce jour, en France, aucune instance gouvernementale n’est en mesure d’apporter cette expertise.

Par ailleurs, le cadre légal de la prévention des risques professionnels ne tient pas encore compte de l’IA comme facteur de risque potentiel. La formation des professionnels de la santé au travail (médecins, psychologues, etc.) et des représentants du personnel occulte totalement le sujet de l’IA.

Il reste à ce jour à construire des instances compétentes de dialogue social et d’accompagnement à la conception et à l’implantation d’IA, fondées sur un cadre législatif spécifique.

Enfin, il est utile de rappeler la possibilité de ne pas cantonner l’IA à une fonction de recherche de profit ou de productivité. La puissance de calcul qu’offre l’IA représente également une opportunité pour développer de nouvelles approches de la qualité de vie au travail. Il est tout à fait concevable de créer des algorithmes auto-apprenants capables d’analyser le travail pour nous aider à comprendre ce qui contribue le plus au bien-être et à la santé. Et en tant que décideurs humains, il ne tient qu’à nous de choisir le rôle que nous voulons assigner à ces algorithmes qui seront vraisemblablement nos collègues numériques des décennies à venir.

Auteur :

Fadi Joseph Lahiani


Fadi Joseph Lahiani, Psychologue du travail et des organisations 

0 commentaires

Articles les plus lus

modalite




Recevez chaque semaine nos articles et podcasts

Inscription Blog Body Article (#42)

Suivez-nous

Nous croyons à la libre circulation de l’information. Vous pouvez reproduire nos articles gratuitement sous licence Creative Commons.

Règles de republication

En qualité d’entreprise sociale et solidaire, nous soutenons la libre circulation de l’information. Vous pouvez reproduire cet article librement et gratuitement sur papier ou en ligne sous réserve :

a) de ne pas le modifier et de mentionner qu’il est reproduit sous licence Créative Commons,

b) de citer les auteurs, le média d’origine et de faire pointer un lien vers l’article original,

c) de ne pas en faire un usage à but lucratif et de ne pas le diffuser sur un média dédié à une finalité lucrative

Pour toute question, vous pouvez nous contacter sur : leblogqvt@adconseil.org

SEEPH 2024

🎥Webinaire

21 nov – 11h00

Les cinq typologies de handicap : un étiquetage vide de sens ?

Avec Anne-Lise CHABOT et Fadi Joseph LAHIANI

Contact Popup Solutions

Soutenez-nous en vous abonnant au Blog QVT

Chaque semaine, recevez nos nouveaux articles et podcasts par mail. Vous pourrez vous désinscrire à tout moment.

Merci de votre soutien ! Rendez-vous sur votre messagerie pour découvrir une première sélection d'articles.