Le projet de règlement sur l’Intelligence Artificielle décrypté

Une esquisse en 2020

Devant l’omniprésence de l’Intelligence Artificielle, les députés européens se sont saisis du sujet en février 2020 pour garantir une utilisation équitable et sûre pour les consommateurs. La résolution adoptée en plénière aborde plusieurs défis découlant du développement rapide des technologies de l’Intelligence Artificielle (IA) et de la prise de décision automatisée (ADM). Les trois axes majeurs de cette réglementation sont la mise à jour des règles de sécurité et de responsabilité de l’UE au vu des produits reposant sur l’IA, l’utilisation d’algorithmes non biaisés, la mise en place de structures de contrôle et la garantie que l’humain reste au final le maître de la situation.

La crise sanitaire en 2020 a fortement accru le recours à l’Intelligence Artificielle sous toutes ses formes : dans le e-commerce, dans le recrutement, dans la surveillance des citoyens et des salariés, dans les chaînes d’approvisionnement, les centres d’appel, etc. Nous sommes aujourd’hui dans un contexte politique mondial dans lequel de plus en plus de pays investissent massivement dans l’IA. L’Union Européenne a décidé d’agir d’une seule manière pour relever les défis de l’IA.

La voix de « Why Not Lab »

Depuis des années, FO Com travaille sur le numérique, du droit à la déconnexion à l’impact du numérique en intégrant l’équilibre vie privée/vie professionnelle et en réfléchissant au nouveau monde du travail. Dans ses activités au sein de l’UNI, FO Com a rencontré Christina J. Colclough, experte de l’avenir du travail et de la politique de la technologie numérique, défendant au niveau mondial l’importance de la voix des travailleurs. Aujourd’hui, fondatrice de Why Not Lab, elle a ainsi interpellé les membres de la Commission européenne : « avec les millions de points de données extraits quotidiennement des travailleurs, transformant leurs actions et non-actions en « vérités » définies mathématiquement ou en probabilités calculées statistiquement, nous devons nous demander si nous trahissons l’histoire ».

Elle a posé également une question essentielle : « alors que les systèmes numériques peuvent être efficaces et productifs, nous devons nous demander efficace pour quoi ? productif pour quoi ? ». Efficacité et productivité ne signifient pas nécessairement « bon », « juste » ou même « légal ».

Elle a confirmé le changement de l’équilibre des pouvoirs sur les lieux de travail : qui décide vraiment et à quelle échelle ? Elle a souligné la responsabilité des développeurs qui doivent connaître l’impact sur les travailleurs mais également celle des employeurs. Lors de son audition, elle a revendiqué un renforcement du Règlement Général sur la Protection des Données (RGPD), une meilleure réglementation en matière d’accès et de contrôle des données, un contrôle de ces systèmes algorithmiques en mettant en valeur le rôle du dialogue social, un engagement des employeurs à investir dans les compétences et les parcours professionnels des travailleurs concernés en amont et en aval des chaînes d’approvisionnement.

Pour terminer, elle a rappelé qu’« il est de la responsabilité de la Commission européenne de renverser de toute urgence la vapeur et d’empêcher la marchandisation irréversible du travail et des travailleurs ».

Le point de vue de FO Com

Nous avons toujours mis en exergue le dialogue social et la négociation collective. C’est également notre position vis-à-vis du règlement européen sur l’IA. Utiliser l’IA dans le cadre de l’emploi est une activité classée à haut risque, la biométrie et la surveillance des travailleurs ne devraient pas être autorisées. Le contrôle par l’humain, la transparence et l’amélioration des compétences des travailleurs sont incontournables si nous souhaitons une IA « digne de confiance ».

Participation des syndicats, dialogue social et négociation collective

FO Com revendique le renforcement des conventions collectives qui restent un moyen souple de garantir les conditions de travail. Un cadre européen doit contribuer à cette protection mais ne peut primer sur les lois nationales. Ces dernières offrent davantage de garanties comme la loi espagnole sur la transparence algorithmique ou le modèle allemand de codécision. Quand la Commission stipule que « la participation des parties prenantes à la conception et au développement de l’IA et des équipes diverses doit être encouragée » (article 69), cela n’est pas clair. L’implication des syndicats doit être effective (CHSCT ou CNSST, CSE, CT, etc.) et information, consultation et participation sont tenues de faire partie des obligations de conformité. De même, la proposition de la Commission européenne ne couvre que la gouvernance de la mise en œuvre du règlement (article 56-59). Ce dernier ne mentionne que « experts et observateurs internes » (article 57.4) et non les syndicats !

Applications de l’IA dans le cadre de l’emploi, surveillance des travailleurs et droits des données

La Commission européenne occulte tous les emplois à faibles compétences générés par l’IA avec pour exemple les emplois aux tâches répétitives comme l’étiquetage ou la modération des données nécessaires aux systèmes d’IA. FO Com revendique un regard sur l’impact négatif de ces nouveaux emplois générés par l’IA.

De même, la liste des applications couvertes (annexe 3.4) se limite aux systèmes utilisés pour la gestion algorithmique notamment dans le domaine RH, de la prise de décisions à la répartition des tâches mais les autres applications pourraient bien avoir des conséquences pour les salariés ! Compte tenu des risques pour la santé et la sécurité, FO Com exige l’application du principe de précaution et tout système d’IA devrait faire l’objet d’une étude d’impact par des autorités compétentes avec un regard des syndicats.

Aujourd’hui, l’identification biométrique et la surveillance des travailleurs se mettent en place pour différentes raisons, de manière trop souvent disproportionnée par rapport aux besoins et affectant le travailleur.

Investir dans le capital humain et introduire une éthique

Un ingénieur ou un développeur de système d’IA ne peut être seul incriminé en raison de décisions erronées. La responsabilité doit être répartie sur l’ensemble du processus et des parties prenantes. Le choix de mise en place de système d’IA doit être transparent et l’aspect formation ne doit pas être négligé. FO Com désapprouve ce projet de cadre réglementaire car il ne prévoit ni le droit à contester une décision algorithmique ou d’obtenir un « regard » humain, ni un droit de recours. La transparence est nécessaire et bien au-delà de celle prescrite par le règlement européen. Ce dernier ne prévoit de clarté que pour soutenir les « utilisateurs » (rec. 47, art. 13). Les employeurs sont responsables du niveau d’information donné aux travailleurs sur les systèmes d’IA sur le lieu de travail, l’impact sur leurs données, l’organisation du travail, etc. C’est là que le dialogue social trouve tout son sens.

Enfin, la formation sur les systèmes d’IA est essentielle pour fournir aux salariés les compétences nécessaires. Elle permet à chacun d’appréhender l’impact sur les conditions de travail, la santé et la sécurité. La négociation collective a bien ici un rôle à jouer. L’éthique est également une valeur à introduire dans le cursus de formation, en ne se limitant pas à une formation technique mais en tenant compte d’une diversité d’aptitudes et de compétences (et ne pas s’en tenir aux STIM – Sciences, Technologies, Ingénierie et Mathématiques).

Des exemples d’impacts de l’IA

Gestion algorithmique

Un outil de gestion des absences au Royaume-Uni a déclenché des procédures de contrôle sans tenir compte de la légitimité des absences allant même jusqu’à remettre en question l’aptitude de salariés.
Dans le recrutement, un outil « hireview » analyse les expressions faciales, le ton de la voix et l’accent… Un autre outil comme « fama » examine le flux de médias sociaux d’un employé et signale selon un comportement « potentiellement problématique ».

Surveillance et contrôle

Dans les centres d’appel, des programmes tels que Cogito ou Voci utilisent l’IA d’analyse vocale pour fournir un retour immédiat aux salariés, leur indiquant s’ils parlent trop vite, semblent fatigués ou pas suffisamment empathiques. Les enregistrements audios mémorisent ainsi les émotions des salariés ce qui permet aux algorithmes de vérifier que les travailleurs respectent les scripts. Les mêmes enregistrements sont retranscrits et conservés trois mois. Les syndicats n’y ont pas accès, ne pouvant ainsi vérifier la nature des données mémorisées.

Chez Teleperformance, sous couvert de la pandémie, l’entreprise a augmenté la surveillance du personnel. Les salariés ont reçu des caméras pour être sous surveillance permanente pendant qu’ils travaillent à domicile. Cela permet de voir des personnes non autorisées qui pourraient voir l’écran de travail et de vérifier dans l’espace de travail la présence de papier ou de téléphone portable.

Chez Amazon, l’entreprise a mis en place des scanners assignant des tâches aux salariés tout en surveillant leurs déplacements dans l’entrepôt, des lunettes de réalité virtuelle qui montrent aux employés où placer les objets.