Quels outils législatifs pour réguler le management algorithmique ? Entretien avec Aude Cefaliello

8 Fév, 2023

Aude Cefaliello, est chercheuse au sein de l’unité numéro 3 sur la santé et la sécurité au travail à l’institut syndical européen (ETUI). Elle est détentrice d’un doctorat en droit. Sa thèse a porté sur les moyens d’améliorer le cadre juridique régissant la santé et la sécurité au travail dans l’Union Européenne. Elle partage aujourd’hui avec le Blog QVT sa vision du cadre juridique européen de la régulation des nouvelles technologies au regard de l’impact qu’elles engendrent sur l’organisation au travail et sur la santé des travailleurs.

Le Blog QVT : Qu’est-ce que l’Institut Syndical Européen (ETUI) ?

Aude Cefaliello : L’ETUI (European Trade Union Institute) est un institut de recherche indépendant émanent de la confédération européenne syndicale (CES). Cette confédération est l’un des principaux partenaires sociaux au niveau européen. Elle intervient ainsi dans le cadre de la négociation des accords ou directives européennes. L’ETUI met son expertise au service des intérêts des travailleurs au niveau européen et du renforcement de la dimension sociale de l’Union européenne.

Quelles sont vos missions au sein de cet institut ?

A. C. : Nous intervenons pour nourrir le dialogue social en données issues de la recherche, pour aider le développement et le soutien de la cause des travailleurs. L’ETUI a aussi un département dédié à l’éducation, permettant de former des travailleurs ainsi que des représentants du personnel. Nous agissons aussi en faveur des comités d’entreprises à dimension européenne.

Notre section recherche est résolument interdisciplinaire. Mon unité consacrée à la santé et à la sécurité au travail associe ainsi un ergonome du travail, un spécialiste des risques chimiques ainsi et même des ingénieurs en sûreté nucléaires. Notre cheffe d’unité et moi-même sommes les deux juristes de l’unité.

Selon vous, quels sont les grands enjeux de dialogue social et de législation au niveau européen en lien avec les nouvelles technologies ?

A. C. : Avant de parler des enjeux, de ce qu’il faut réguler ou discuter, il est déjà bon de savoir ce qu’on aborde, car les notions de ce champ sont enchevêtrées. Il est ainsi nécessaire de distinguer les nouvelles technologies qui vont impacter le mode de production et celles qui vont impacter le mode de management.

Les technologies qui impactent le mode production englobent des solutions très diverses comme les machines intelligentes, les cobots, les exosquelettes. Ce sont de nouvelles technologies qui vont aider le processus de production et le travailleur, en conservant une relation d’interaction classique entre le travailleur et la machine. Dans ce cas, il s’agit simplement d’une évolution technologique qui ne va pas impacter l’équilibre et la dynamique de pouvoir et les rôles dans l’organisation.

Les nouvelles technologies qui vont impacter le mode de management sont tout à fait différentes dans la mesure où elles affectent les relations humaines. Elles impliquent une évolution des interactions et des rapports de subordination.

Cette distinction appelle à légiférer de façon adaptée pour chaque champ. Même si chacun des deux types d’évolution est susceptible d’impacter physiquement et psychologiquement les travailleurs.

Les technologies impactant le mode de management posent de nouveaux enjeux organisationnels. La législation européenne en prend-elle la mesure ?

A. C. : Oui je pense qu’on commence à en prendre la mesure, notamment à travers l’expérience malheureuse imposée par l’économie de plateformes.

Le management algorithmique regroupe un spectre assez large de technologies, qui va de la légère régulation informatique jusqu’au management totalement délégué à une IA, sans intervention humaine.

L’économie de plateforme se situe au bout du spectre et s’appuie sur un management totalement opéré par des algorithmes souvent opaques. Ce fonctionnement s’est imposé à des travailleurs précaires et soi-disant « indépendants » sur le plan juridique. Les excès de ces solutions nous ont permis de mettre en lumière de nombreux effets pervers du management algorithmiques qu’il est désormais nécessaire de réguler.

Le management algorithmique peut emprunter des chemins plus sournois. Certains systèmes de planification guidés par l’IA prévoient ainsi les effectifs nécessaires dans la restauration au regard de l’affluence des jours passés. Ils engendrent en revanche une forte variabilité et imprévisibilité des plannings des professionnels.

D’autres applications comme la solution de productivité commerciale Cogito analysent de nombreux paramètres comme la voix, le ton ou le vocabulaire employé par les travailleurs des centres d’appel, en fournissant des feed-back en temps réel demandant aux professionnels d’ajuster leur comportement et leurs émotions en temps réel.  Ce type d’application représente une forme d’intrusion dans l’intimité émotionnelle et cognitive des travailleurs au-delà des tâches qu’ils sont contractuellement tenus de réaliser. Il leur retire une part significative d’autonomie et impose de facto une forme de surveillance, voire de conditionnement.

On peut également citer l’exemple de l’application Delivery utilisée par Amazon. C’est une petite caméra qui est disposée en-dessous du rétroviseur des véhicules de livraison. Elle permet d’analyser le visage du conducteur et ses moindre faits et gestes. Dans le cas où vous n’êtes pas attentif, où vous baillez, où vous êtes sur votre téléphone, l’application va vous avertir que vous avez un comportement dangereux au volant et vous incitera à faire une pause. De prime abord, l’application peut paraître pertinente pour favoriser des comportements sécures. Mais dans les faits, elle peut induire des injonctions contradictoires et une charge mentale supplémentaire si le rythme de travail ne permet pas de respecter les consignes de sécurité. Soit le travailleur s’arrête et prend du retard sur son travail donc n’atteint pas les performances du jour, soit il ignore les recommandations pour pouvoir tenir ses objectifs, ce qui implique un glissement de responsabilités en cas d’accident.

Les applications imposant un management par algorithmes ne permettent généralement pas aux travailleurs de reprendre la main. S’ils ignorent les directives automatisées, ils doivent se justifier et sont même parfois sanctionnés comme certains travailleurs de plateformes. L’organisation imposée du travail fait donc fi de l’expertise et de l’expérience du travailleur. Ce qui fait sens pour l’algorithme prévaut toujours sur l’expérience du travail réel.

Une autre faille réside dans la façon dont ces solutions sont conçues et paramétrées pour définir des objectifs de productivité ou d’efficience. Ces derniers devraient être le fruit d’une discussion employeurs et représentants du personnel. Ils ont un droit de regard légitime sur le caractère soutenable du travail et des objectifs. Dans le cas du management par algorithmes, ce dialogue disparaît et – si dialogue il y a – il se trouve remplacé par un échange entre employeurs et concepteurs d’application, avec des considérations liées à la santé au travail souvent absentes lors des phases de conception.

Quelles solutions législatives peut-on proposer pour réguler ces solutions ?

A. C. : La régulation peut s’opérer à deux moments clés : la conception de l’application, puis sa mise en œuvre effective.

Lors de la phase de conception, il est évident que le fait de réduire le dialogue aux intérêts croisés de l’employeur et du concepteur ne permet pas de prendre en considération des dimensions comme l’éthique ou la santé au travail. Réguler cette étape passe par l’ouverture de la conception des solutions à d’autres champs disciplinaires comme les sciences cognitives ou la santé au travail.

Lors de la phase de mise en œuvre, la régulation passe par le fait de penser des possibilités de rétrocontrôle et de retour sur expérience permettant aux travailleurs de contrecarrer des fonctionnalités nuisant à leur santé et à leur intégrité.

La recherche de régulations implique enfin une réflexion sur l’écart entre le travail prescrit au moment de la conception et le travail réel au moment de la mise en œuvre. Par exemple, si une application de productivité conçue pour un environnement standardisé au sein de grands groupes fait l’objet d’un mésusage dans une TPE, qui du concepteur, du vendeur ou de l’employeur devra être tenu pour responsable ?

Quelle approche législative mettre en œuvre pour réguler concrètement ces effets pervers ?

A. C. : Lors de la conception de solutions, on parle rarement du bien-être des travailleurs. Ce qui compte, c’est d’utiliser ce dernier au maximum de ses capacités alors qu’on pourrait justement en faire un acteur pour réguler et atteindre une charge de travail saine et équilibrée.

La question de l’impact des IA sur la santé des travailleurs est discuté pour la première fois à l’occasion de l’adoption  d’une directive en cours de discussion relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme. En effet l’article 7(2) prévoit que les si les plateformes de travail sont considérées comme des employeurs, elles doivent évaluer les risques que l’utilisation de ce type de logiciel représente pour la santé et la sécurité de travailleurs (en particulier les risques psychosociaux et ergonomiques). Bien qu’explicite, si cette directive est adoptée, cet article ne s’appliquera qu’aux travailleurs de plateforme et non pas aux autres types des travail. Or ces pratiques existent comme nous l’avons évoqué précédemment.  

C’est pour cela qu’il est également utile de rappeler qu’il existe déjà un corpus juridique assez riche. L’implantation d’une IA au travail tombe sous le coup de la directive européenne sur les risques professionnels imposant à l’employeur l’évaluation de tous les risques au travail, sous leurs aspects physiques et psychologiques. La section 6(3)(c) de la directive prévoit que l’employeur doit consulter les travailleurs ou leurs représentants dès la planification et l’introduction de nouvelles technologies en ce qui concerne les conséquences sur la sécurité et la santé des travailleurs. Dans de nombreux cas, ces textes pourtant anciens restent ignorés.

A quoi pourraient concrètement ressembler les futurs mécanismes de régulation ouverts aux travailleurs ?

A. C. : D’un point de vue juridique, on pourrait mettre en place des mécanismes de plaintes individuelles et des mécanismes d’alertes (individuelles ou collectif). Ce serait une forme de droit opposable ouvert aux travailleurs ou leurs représentants, avec la possibilité de déclarer un management algorithmique à risque. Ce mécanisme de déclaration pourrait être géré par des tiers externes comme l’inspection du travail, et pourrait engager la responsabilité de l’employeur, mais aussi du concepteur.

Il serait également utile de renforcer la consultation préalable des représentants du personnels et de les impliquer significativement dans les processus de conception.

La future réglementation sur les IA (« AI Act »), prévoit des mécanismes d’évaluation à postériori, permettant une remontée d’évènements indésirables.  Reste à affiner les mécanismes d’imputation pour éviter un renvoi de responsabilité entre employeurs et concepteurs.

Quelles sont les futures grandes étapes qui permettraient au AI Act de s’implanter dans le droit européen ?

A. C. : L’IA Act n’a pas encore été adopté et de nombreux questionnements doivent être clarifiés pour qu’il devienne un outil efficace. Il nous met en effet au défi d’homogénéiser les droits et les devoirs dans un contexte de travail où les employeurs, les utilisateurs et les concepteurs de solutions informatiques ne sont pas forcément régis par le même cadre légal.

Les difficultés posées par l’IA impliquent également un enjeu de concertation, d’information et de formation des travailleurs, ainsi que le développement d’autorités juridiques compétentes dédiées.

En attendant l’IA Act, quels conseils donnez-vous aux employeurs et aux représentants du personnels souhaitant réguler des solutions mues par des IA dans leurs organisations du travail ?

A. C. : J’oriente les partenaires sociaux confrontés à ces choix technologiques vers la Directive 90/270/CEE concernant les prescriptions minimales de sécurité et de santé relatives au travail sur des équipements à écran de visualisation. . Son annexe 3 (Interface ordinateur/homme) intègre des dispositions d’adaptation des technologies à l’humain qui peuvent tout à fait être transposées à l’IA.

De même, d’ici Juin 2023  l’accord cadre européen sur la digitalisation dans le monde du travail (qui a été conclu en 2020) devra avoir été transposé par ses signataires au niveau national. Son le chapitre 3 est intégralement dédié à la problématique des intelligences artificielle, et donc le management algorithmique.

La prévention des risques psychosociaux peut également être améliorée à la lumière des recommandations de la norme ISO 45003 relative à la santé et sécurité psychologiques au travail qui détaille notamment les exigences d’autonomie et de contrôle à préserver lors de la mise en œuvre de nouvelles technologies.

En somme, les personnes soucieuses de bien agir peuvent déjà se référer aux quelques outils disponibles qui ont fait au préalable l’objet d’une consultation internationale. Il est ainsi de mettre en discussion des aspects concrets du management algorithmique et de favoriser créer des cercles vertueux de régulation et de bonne foi.

Propos recueillis et retranscrits par Fadi Joseph LAHIANI et Lucrèce VALENCE


La Dr. Aude Cefaliello a rejoint l’ETUI en octobre 2020. Elle est diplômée en droit de l’Université de Glasgow (Écosse) et de l’Université d’Auvergne (France). Elle a terminé son premier master en droit du travail à l’Université d’Auvergne en 2014 à l’occasion duquel elle a rédigé un mémoire de master sur les risques psychosociaux en comparant les systèmes juridiques français, britannique et européen. Par la suite, elle a obtenu un LL.M à l’Université de Glasgow en 2016 où elle a mené une recherche comparative sur la négociation collective en France, au Royaume-Uni et dans l’UE. Puis, de novembre 2015 à juillet 2016,  elle a été chercheuse invitée à l’Institut Max Planck d’histoire du droit européen à Francfort (Allemagne). Là, elle a travaillé sur la mobilisation des travailleurs sur la sécurité et la santé au travail (SST) dans les années 1970 et les leçons qui pouvaient en être tirées pour analyser les défis actuels. Ensuite, elle s’est spécialisée en SST avec une approche socio-juridique et comparative à l’Université de Glasgow. Elle y a obtenu un doctorat à la faculté de droit en 2020 après avoir rédigé une thèse sur les moyens d’améliorer le cadre juridique régissant la SST dans l’UE. Pendant son doctorat, elle a été stagiaire à l’ETUI pendant deux mois en 2018, recherchant l’étendue des possibilités de développer une stratégie de litige devant la CJUE dans le domaine de la SST. Ces domaines de recherches actuelles sont : les nouvelles technologies et leurs impacts sur la santé et sécurité des travailleurs (ex : IA), les risques psychosociaux et le développement d’une utilisation stratégique et militante des litiges.

Quelques unes de ses publications :

Cefaliello, A. and Kullmann, M., 2022. Offering false security: How the draft artificial intelligence act undermines fundamental workers rights. European Labour Law Journal, 13(4), pp.542-562.

Cefaliello, A. and Inversi, C., 2022. The impact of the gig-economy on occupational health and safety: Just an occupation hazard?. In A Research Agenda for the Gig Economy and Society (pp. 33-52). Edward Elgar Publishing.

Cefaliello, A., 2021. Psychosocial risks in Europe: National examples as inspiration for a future directive. ETUI Research Paper-Policy Briefs.

Photo de Robert Anasch sur Unsplash

0 commentaires

Articles les plus lus

modalite




Recevez chaque semaine nos articles et podcasts

Inscription Blog Body Article (#42)

Suivez-nous

Nous croyons à la libre circulation de l’information. Vous pouvez reproduire nos articles gratuitement sous licence Creative Commons.

Règles de republication

En qualité d’entreprise sociale et solidaire, nous soutenons la libre circulation de l’information. Vous pouvez reproduire cet article librement et gratuitement sur papier ou en ligne sous réserve :

a) de ne pas le modifier et de mentionner qu’il est reproduit sous licence Créative Commons,

b) de citer les auteurs, le média d’origine et de faire pointer un lien vers l’article original,

c) de ne pas en faire un usage à but lucratif et de ne pas le diffuser sur un média dédié à une finalité lucrative

Pour toute question, vous pouvez nous contacter sur : leblogqvt@adconseil.org

SEEPH 2024

🎥Webinaire

21 nov – 11h00

Les cinq typologies de handicap : un étiquetage vide de sens ?

Avec Anne-Lise CHABOT et Fadi Joseph LAHIANI

Contact Popup Solutions