Le déploiement de
l’intelligence artificielle dans les entreprises entraîne de la défiance et des
inquiétudes à son égard. Les usages de cette technologie mouvante préoccupent
en partie les employés et les organisations syndicales, d’autant plus que le dialogue
social, sur ces questions, n’en est qu’à ses prémices.
« Maintenant que
l'Intelligence artificielle et le management algorithmique font partie de notre
quotidien et que de nombreuses études y sont dédiées, vient le temps de
s'approprier ces outils », écrivent les
coorganisateurs de la table ronde intitulée « Conventions collectives
et Intelligence artificielle ». Cette rencontre s’est tenue le 26
novembre dernier et a été organisée par l’université Paris-Est Créteil
Val-de-Marne (UPEC) et l’Institut de recherches économiques et sociales (IRES).
En guise d’introduction, Claire Marzo, maîtresse de conférences en droit public
et coorganisatrice de cet évènement, a proposé une définition de l’intelligence
artificielle.
Il s’agit d’un ensemble
hétérogène d’algorithmes, de systèmes informatiques ou de machines dont
l’objectif est d’imiter les facultés cognitives humaines telles que la
compréhension du langage ou le raisonnement. Ainsi, les systèmes d’intelligence
artificielle peuvent endosser, dans le monde du travail, une multitude de
fonctions : la recherche, l’analyse d’informations, les prédictions, les
diagnostics, les recommandations, l’exécution autonome de tâches ou encore la
génération de contenus nouveaux.
L’Organisation internationale
du travail (OIT) remarque que cet outil se répand à tous les niveaux de la
sphère professionnelle, et quels que soient les revenus des travailleurs. Aussi,
selon le rapport d’enquête LaborIA, intitulé « Usages et impacts de
l’IA sur le travail au prisme des décideurs », publié en mars 2023,
21,2% des répondants ont déclaré avoir un système d’intelligence artificielle
(SIA) opérationnel ou en projet au sein de leur entreprise. « Les
motifs d’utilisation les plus cités par les utilisateurs de SIA sont la
réduction des risques d’erreurs (81%), suivi par l’amélioration des
performances des salariés (75%), puis par la réduction des tâches fastidieuses
(74%) », précise le rapport de LaborIA. Enfin, « l’Enquête
Technologies de l’information et de la communication auprès des
entreprises », publiée en 2022 par l’INSEE, révélait l’existence d’un
important différentiel de niveau d’usage des systèmes interconnectés et de
robotique, en fonction de la taille de l’entreprise : 57% des grandes
entreprises (de 250 salariés et plus) sont équipées de ces outils, contre 15%
des entreprises de petite taille (disposant de 10 à 19 salariés).
« L’intelligence
artificielle est à la fois une opportunité et un danger, il faut par
conséquent la réguler », commente Claire Marzo. Pour
la maîtresse de conférences, le droit régissant l’intelligence artificielle
dans le cadre professionnel est « en pleine création, en pleine
ébullition ». Mais beaucoup de chemin reste à faire, notamment au
niveau du dialogue social et de l’ensemble des négociations entre les
représentants patronaux et des travailleurs, salariés ou indépendants.
Deux accords-cadres européens
sur la transformation numérique des organisations
À mesure que les nouvelles
technologies se sont développées dans les entreprises, des négociations au sein
de l’Union européenne ont émergé. Leur but est d’anticiper les changements que
ces outils inédits impliquent au sein des entreprises de l’Union européenne.
Ainsi, au terme de neuf mois de négociations entre quatre organisations
syndicales européennes, un accord-cadre européen sur la transformation
numérique des entreprises est signé le 22 juin 2020. Il prévoit quatre grandes
thématiques : « les compétences numériques et la protection de
l’emploi », « les modalités de connexion et de
déconnexion », « l’intelligence artificielle et la garantie du
principe de l’humain aux commandes », « le respect de la
dignité humaine et la surveillance ». Pour Vincent Mandinaud, chargé
de mission au sein de l’Agence nationale pour l’amélioration des conditions de
travail (ANACT) et présent lors de la table-ronde, l’intérêt de ce premier
accord réside dans sa méthodologie. En effet, ce texte considère la
transformation numérique à l’œuvre dans les entreprises non pas uniquement
comme une évolution technologique, mais également comme une transformation
organisationnelle. Elle impacte « les relations professionnelles, les
conditions de travail au sens dur (santé et sécurité) et les conditions de
travail au sens moins dur (la qualité de vie au travail, l’équilibre entre la
vie professionnelle et la vie personnelle) », développe le chargé de
mission de l’ANACT.
Mais Vincent Mandinaud
regrette « qu’à part de la méthodologie », il n’y ait pas « grand-chose,
y compris sur l’intelligence artificielle », dans cet accord. En
revanche, le chargé de mission se montre davantage optimiste s’agissant du
second accord-cadre européen sur la transformation numérique dans les
administrations publiques. Signé le 6 octobre 2022, ce texte consacre, cette
fois-ci, un chapitre dédié à l’intelligence artificielle, avec une douzaine
d’articles « remarquablement ciselés », juge Vincent
Mandinaud. L’article 4 prévoit, par exemple, une « meilleure
répartition des tâches entre les agents et les machines », sans
qu’elles puissent « remplacer les capacités des humains, ni leur
intelligence émotionnelle et sociale ». Pour le chargé de mission,
certains de ces articles offrent à l’ANACT des « points
d’appui » lui permettant d’établir des « référentiels »
à construire « de manière pédagogique » avec les directions,
les salariés et leurs représentants. Pour autant, ces initiatives européennes
ne sont pas traduites par une directive et laissent donc les législateurs
nationaux libres de s’en inspirer ou non. Vincent Mandinaud regrette que ces
deux accords aient été peu traduits en France. « Le dialogue social
technologique est à la fois nécessaire et en même temps balbutiant »,
conclut-il.
L’intégration embryonnaire
des risques psychosociaux liés à l’intelligence artificielle
L’introduction de
l’intelligence artificielle en entreprise inquiète également vis-à-vis des
risques psychosociaux (pour la santé physique et mentale) que cette dernière
pourrait comporter. Pour Barbara Palli, maîtresse de conférences en droit privé à
l’université de Nancy, intervenant à la table-ronde, cet outil est à prendre en
compte, « dans la mesure où un rythme de travail changera »
avec l’introduction de ces technologies. D’ailleurs, en décembre 2023, la
Commission nationale de l’informatique et des libertés (CNIL) sanctionnait
Amazon d’une amende de 32 millions d’euros. L’entreprise avait surveillé les
temps d’inactivité de ses salariés, grâce à un outil d’intelligence
artificielle intégré aux scanners. L’utilisation de cette technologie en
entreprise pose donc la question de la surveillance des machines sur les
travailleurs, du stress qu’elle pourrait engendrer, en plus des risques
d’atteinte à la protection des données personnelles des employés.
Le règlement européen sur
l’intelligence artificielle, pour harmoniser les règles encadrant la mise sur
le marché de cet outil, a été voté le 13 juin 2024. Mais Barbara Palli remarque
très peu d’occurrences au droit du travail en son sein. « On nous dit
simplement que les systèmes de l’intelligence artificielle liés à l’emploi
constituent un haut risque, mais c’est tout », déplore la chercheuse.
Cette dernière relève le considérant 9 du règlement qui « encourage
la négociation collective sur tout ce que le règlement ne fait pas de
lui-même » et pointe du doigt un « véritable vide
juridique ». Barbara Palli ajoute : « La négociation
collective et les accords sont les seules choses que nous ayons pour
l’instant ». Pour autant, le dialogue social reste tout autant
embryonnaire à ce sujet. Toujours selon la maîtresse de conférences, la
majorité des accords collectifs analysés « ne disent pas
grand-chose » et sont « très insatisfaisants » quant
à la prévention des risques psychosociaux liés à l’usage de l’intelligence
artificielle. Pour elle, ces accords portent davantage « sur l’emploi
et pas vraiment sur la santé au travail », avant d’ajouter que les
partenaires sociaux doivent intervenir au moment de la conception de
l’algorithme, afin d’anticiper les biais. Dans ce but, elle préconise
une formation des acteurs de la négociation aux enjeux de cet outil complexe et
technique.
L’institutionnalisation
progressive du dialogue social au sein des plateformes d’emploi
Les plateformes d’emploi, à
l’instar d’Uber, ont longtemps catalysé les débats sur les conditions de
travail des travailleurs indépendants, missionnés par des algorithmes. Dans ce
contexte, un besoin d’institutionnaliser le dialogue social dans cette branche
a peu à peu émergé. Et pour y répondre en France, l’Autorité des relations
sociales des plateformes d’emploi (ARPE) a vu le jour en 2021. Son but est
d’accompagner « une nouvelle forme de dialogue social, entre les
plateformes de mise en relation dans le secteur des VTC, de la livraison de
marchandises et les travailleurs indépendants, qui prestent par l’intermédiaire
de ces plateformes », décrit Joël Blondel, l’un des participants à la table
ronde et directeur général de l’ARPE. Cette nouvelle institution a donc mis en
place un nouvel espace de dialogue social, différent des modèles de négociation
entre salariés et employeurs, « parce qu’on a d’un côté des entreprises
qui cherchent à améliorer leur rentabilité et de l’autre, des entrepreneurs qui
eux-mêmes cherchent la rentabilité de leur affaire », développe Joël
Blondel. Des élections de représentativité de travailleurs indépendants et de
plateformes, permettant la signature d’accords collectifs de travail, ont donc
été organisées par l’ARPE.
Lors de ces moments de
dialogue, plusieurs inquiétudes ont émergé, du côté des travailleurs
indépendants. Selon Joël Blondel, ces derniers se demandent constamment si une
course proposée par l’algorithme de la plateforme sera rentable pour eux. Alors
que le fonctionnement même de cette intelligence artificielle demeure opaque,
les changements constants des modes de calcul des rémunérations participent
aussi à ce manque de visibilité. Or, les données algorithmiques sont hautement
sensibles pour les plateformes, puisque leur modèle économique repose dessus.
Joël Blondel observe donc des réticences, de la part des plateformes, à
divulguer ces informations. « Ce qu’il y a de pire pour elles, ça n’est
pas d’ouvrir ces données aux organisations de travailleurs, c’est de les ouvrir
à leurs concurrents », explique-t-il. De plus, le sujet de
l’intelligence artificielle est difficilement appréhendable par les
représentants syndicaux qui ne sont pas des spécialistes. Mais malgré ces
difficultés, quelques accords « ont permis, un peu, de contrebalancer
ce pouvoir ultra-puissant des algorithmes et de l’intelligence
artificielle », défend Joël Blondel. Par exemple, des revenus minima
ont été fixés, selon lesquels une plateforme a l’interdiction de payer une
course en dessous de 9 euros tandis que le revenu minimum horaire des
chauffeurs de VTC ne peut pas être inférieur à 30 euros.
« C’est un minimum qui
bride un petit peu l’algorithme », tandis que « le
reste continue d’être totalement à la main de la plateforme », remarque
le directeur général de l’ARPE. Même si ces accords contraignent les
algorithmes, ils relèvent néanmoins d’une « politique de petits
pas », concède-t-il. Alors, pour tenter d’aller au-delà des « petits
pas », la France sera bientôt au cœur des réflexions sur le sujet lors
du « Sommet pour l’action sur l’intelligence artificielle »,
qui se tiendra les 10 et 11 février 2025.
Chefs d’État, dirigeants
d’organisations internationales, de petites et de grandes entreprises et
universitaires se réuniront pour échanger, notamment, sur les évolutions du
marché du travail à l’aune du déploiement de l’intelligence artificielle en
entreprise.
Inès
Guiza