ENTREPRISE

Le dialogue social à l'épreuve de l'intelligence artificielle

Le dialogue social à l'épreuve de l'intelligence artificielle
Publié le 11/12/2024 à 18:00

Le déploiement de l’intelligence artificielle dans les entreprises entraîne de la défiance et des inquiétudes à son égard. Les usages de cette technologie mouvante préoccupent en partie les employés et les organisations syndicales, d’autant plus que le dialogue social, sur ces questions, n’en est qu’à ses prémices.

« Maintenant que l'Intelligence artificielle et le management algorithmique font partie de notre quotidien et que de nombreuses études y sont dédiées, vient le temps de s'approprier ces outils », écrivent les coorganisateurs de la table ronde intitulée « Conventions collectives et Intelligence artificielle ». Cette rencontre s’est tenue le 26 novembre dernier et a été organisée par l’université Paris-Est Créteil Val-de-Marne (UPEC) et l’Institut de recherches économiques et sociales (IRES). En guise d’introduction, Claire Marzo, maîtresse de conférences en droit public et coorganisatrice de cet évènement, a proposé une définition de l’intelligence artificielle.

Il s’agit d’un ensemble hétérogène d’algorithmes, de systèmes informatiques ou de machines dont l’objectif est d’imiter les facultés cognitives humaines telles que la compréhension du langage ou le raisonnement. Ainsi, les systèmes d’intelligence artificielle peuvent endosser, dans le monde du travail, une multitude de fonctions : la recherche, l’analyse d’informations, les prédictions, les diagnostics, les recommandations, l’exécution autonome de tâches ou encore la génération de contenus nouveaux.

L’Organisation internationale du travail (OIT) remarque que cet outil se répand à tous les niveaux de la sphère professionnelle, et quels que soient les revenus des travailleurs. Aussi, selon le rapport d’enquête LaborIA, intitulé « Usages et impacts de l’IA sur le travail au prisme des décideurs », publié en mars 2023, 21,2% des répondants ont déclaré avoir un système d’intelligence artificielle (SIA) opérationnel ou en projet au sein de leur entreprise. « Les motifs d’utilisation les plus cités par les utilisateurs de SIA sont la réduction des risques d’erreurs (81%), suivi par l’amélioration des performances des salariés (75%), puis par la réduction des tâches fastidieuses (74%) », précise le rapport de LaborIA. Enfin, « l’Enquête Technologies de l’information et de la communication auprès des entreprises », publiée en 2022 par l’INSEE, révélait l’existence d’un important différentiel de niveau d’usage des systèmes interconnectés et de robotique, en fonction de la taille de l’entreprise : 57% des grandes entreprises (de 250 salariés et plus) sont équipées de ces outils, contre 15% des entreprises de petite taille (disposant de 10 à 19 salariés).

« L’intelligence artificielle est à la fois une opportunité et un danger, il faut par conséquent la réguler », commente Claire Marzo. Pour la maîtresse de conférences, le droit régissant l’intelligence artificielle dans le cadre professionnel est « en pleine création, en pleine ébullition ». Mais beaucoup de chemin reste à faire, notamment au niveau du dialogue social et de l’ensemble des négociations entre les représentants patronaux et des travailleurs, salariés ou indépendants.

Deux accords-cadres européens sur la transformation numérique des organisations

À mesure que les nouvelles technologies se sont développées dans les entreprises, des négociations au sein de l’Union européenne ont émergé. Leur but est d’anticiper les changements que ces outils inédits impliquent au sein des entreprises de l’Union européenne. Ainsi, au terme de neuf mois de négociations entre quatre organisations syndicales européennes, un accord-cadre européen sur la transformation numérique des entreprises est signé le 22 juin 2020. Il prévoit quatre grandes thématiques : « les compétences numériques et la protection de l’emploi », « les modalités de connexion et de déconnexion », « l’intelligence artificielle et la garantie du principe de l’humain aux commandes », « le respect de la dignité humaine et la surveillance ». Pour Vincent Mandinaud, chargé de mission au sein de l’Agence nationale pour l’amélioration des conditions de travail (ANACT) et présent lors de la table-ronde, l’intérêt de ce premier accord réside dans sa méthodologie. En effet, ce texte considère la transformation numérique à l’œuvre dans les entreprises non pas uniquement comme une évolution technologique, mais également comme une transformation organisationnelle. Elle impacte « les relations professionnelles, les conditions de travail au sens dur (santé et sécurité) et les conditions de travail au sens moins dur (la qualité de vie au travail, l’équilibre entre la vie professionnelle et la vie personnelle) », développe le chargé de mission de l’ANACT.

Mais Vincent Mandinaud regrette « qu’à part de la méthodologie », il n’y ait pas « grand-chose, y compris sur l’intelligence artificielle », dans cet accord. En revanche, le chargé de mission se montre davantage optimiste s’agissant du second accord-cadre européen sur la transformation numérique dans les administrations publiques. Signé le 6 octobre 2022, ce texte consacre, cette fois-ci, un chapitre dédié à l’intelligence artificielle, avec une douzaine d’articles « remarquablement ciselés », juge Vincent Mandinaud. L’article 4 prévoit, par exemple, une « meilleure répartition des tâches entre les agents et les machines », sans qu’elles puissent « remplacer les capacités des humains, ni leur intelligence émotionnelle et sociale ». Pour le chargé de mission, certains de ces articles offrent à l’ANACT des « points d’appui » lui permettant d’établir des « référentiels » à construire « de manière pédagogique » avec les directions, les salariés et leurs représentants. Pour autant, ces initiatives européennes ne sont pas traduites par une directive et laissent donc les législateurs nationaux libres de s’en inspirer ou non. Vincent Mandinaud regrette que ces deux accords aient été peu traduits en France. « Le dialogue social technologique est à la fois nécessaire et en même temps balbutiant », conclut-il.

L’intégration embryonnaire des risques psychosociaux liés à l’intelligence artificielle

L’introduction de l’intelligence artificielle en entreprise inquiète également vis-à-vis des risques psychosociaux (pour la santé physique et mentale) que cette dernière pourrait comporter. Pour Barbara Palli, maîtresse de conférences en droit privé à l’université de Nancy, intervenant à la table-ronde, cet outil est à prendre en compte, « dans la mesure où un rythme de travail changera » avec l’introduction de ces technologies. D’ailleurs, en décembre 2023, la Commission nationale de l’informatique et des libertés (CNIL) sanctionnait Amazon d’une amende de 32 millions d’euros. L’entreprise avait surveillé les temps d’inactivité de ses salariés, grâce à un outil d’intelligence artificielle intégré aux scanners. L’utilisation de cette technologie en entreprise pose donc la question de la surveillance des machines sur les travailleurs, du stress qu’elle pourrait engendrer, en plus des risques d’atteinte à la protection des données personnelles des employés.

Le règlement européen sur l’intelligence artificielle, pour harmoniser les règles encadrant la mise sur le marché de cet outil, a été voté le 13 juin 2024. Mais Barbara Palli remarque très peu d’occurrences au droit du travail en son sein. « On nous dit simplement que les systèmes de l’intelligence artificielle liés à l’emploi constituent un haut risque, mais c’est tout », déplore la chercheuse. Cette dernière relève le considérant 9 du règlement qui « encourage la négociation collective sur tout ce que le règlement ne fait pas de lui-même » et pointe du doigt un « véritable vide juridique ». Barbara Palli ajoute : « La négociation collective et les accords sont les seules choses que nous ayons pour l’instant ». Pour autant, le dialogue social reste tout autant embryonnaire à ce sujet. Toujours selon la maîtresse de conférences, la majorité des accords collectifs analysés « ne disent pas grand-chose » et sont « très insatisfaisants » quant à la prévention des risques psychosociaux liés à l’usage de l’intelligence artificielle. Pour elle, ces accords portent davantage « sur l’emploi et pas vraiment sur la santé au travail », avant d’ajouter que les partenaires sociaux doivent intervenir au moment de la conception de l’algorithme, afin d’anticiper les biais. Dans ce but, elle préconise une formation des acteurs de la négociation aux enjeux de cet outil complexe et technique.

L’institutionnalisation progressive du dialogue social au sein des plateformes d’emploi

Les plateformes d’emploi, à l’instar d’Uber, ont longtemps catalysé les débats sur les conditions de travail des travailleurs indépendants, missionnés par des algorithmes. Dans ce contexte, un besoin d’institutionnaliser le dialogue social dans cette branche a peu à peu émergé. Et pour y répondre en France, l’Autorité des relations sociales des plateformes d’emploi (ARPE) a vu le jour en 2021. Son but est d’accompagner « une nouvelle forme de dialogue social, entre les plateformes de mise en relation dans le secteur des VTC, de la livraison de marchandises et les travailleurs indépendants, qui prestent par l’intermédiaire de ces plateformes », décrit Joël Blondel, l’un des participants à la table ronde et directeur général de l’ARPE. Cette nouvelle institution a donc mis en place un nouvel espace de dialogue social, différent des modèles de négociation entre salariés et employeurs, « parce qu’on a d’un côté des entreprises qui cherchent à améliorer leur rentabilité et de l’autre, des entrepreneurs qui eux-mêmes cherchent la rentabilité de leur affaire », développe Joël Blondel. Des élections de représentativité de travailleurs indépendants et de plateformes, permettant la signature d’accords collectifs de travail, ont donc été organisées par l’ARPE.

Lors de ces moments de dialogue, plusieurs inquiétudes ont émergé, du côté des travailleurs indépendants. Selon Joël Blondel, ces derniers se demandent constamment si une course proposée par l’algorithme de la plateforme sera rentable pour eux. Alors que le fonctionnement même de cette intelligence artificielle demeure opaque, les changements constants des modes de calcul des rémunérations participent aussi à ce manque de visibilité. Or, les données algorithmiques sont hautement sensibles pour les plateformes, puisque leur modèle économique repose dessus. Joël Blondel observe donc des réticences, de la part des plateformes, à divulguer ces informations. « Ce qu’il y a de pire pour elles, ça n’est pas d’ouvrir ces données aux organisations de travailleurs, c’est de les ouvrir à leurs concurrents », explique-t-il. De plus, le sujet de l’intelligence artificielle est difficilement appréhendable par les représentants syndicaux qui ne sont pas des spécialistes. Mais malgré ces difficultés, quelques accords « ont permis, un peu, de contrebalancer ce pouvoir ultra-puissant des algorithmes et de l’intelligence artificielle », défend Joël Blondel. Par exemple, des revenus minima ont été fixés, selon lesquels une plateforme a l’interdiction de payer une course en dessous de 9 euros tandis que le revenu minimum horaire des chauffeurs de VTC ne peut pas être inférieur à 30 euros.

« C’est un minimum qui bride un petit peu l’algorithme », tandis que « le reste continue d’être totalement à la main de la plateforme », remarque le directeur général de l’ARPE. Même si ces accords contraignent les algorithmes, ils relèvent néanmoins d’une « politique de petits pas », concède-t-il. Alors, pour tenter d’aller au-delà des « petits pas », la France sera bientôt au cœur des réflexions sur le sujet lors du « Sommet pour l’action sur l’intelligence artificielle », qui se tiendra les 10 et 11 février 2025.

Chefs d’État, dirigeants d’organisations internationales, de petites et de grandes entreprises et universitaires se réuniront pour échanger, notamment, sur les évolutions du marché du travail à l’aune du déploiement de l’intelligence artificielle en entreprise.

Inès Guiza

0 commentaire
Poster
UE
OIT
RH
IA

Nos derniers articles