Résolution de la CES sur les stratégies européennes en matière d’intelligence artificielle et de données

Bruxelles, le 14 juillet 2020

Résolution de la CES sur les stratégies européennes en matière d’intelligence artificielle et de données

Résolution adoptée par le Comité exécutif de la CES du 2 juillet 2020

Messages clés :

De solides stratégies européennes en matière d’intelligence artificielle (IA) et de données devraient :

  • fournir un cadre européen légal et responsabilisant basé sur les droits de  l’homme, et donc incluant les droits du travail et des syndicats ainsi que des règles éthiques.
  • maintenir et renforcer la protection des travailleurs, empêcher une surveillance disproportionnée et injustifiée au travail, interdire les traitements discriminatoires sur la base d’algorithmes biaisés et prévenir les abus en matière de protection des données et de la vie privée, en assurant le respect  et en allant au-delà du RGPD, et en préservant leur vie privée lorsqu’ils ne sont pas au travail.
  • classer les applications d’IA affectant les droits et les conditions de travail des travailleurs comme étant à haut risque en principe et soumises à une réglementation appropriée.
  • prendre en compte la spécificité du lieu de travail, y compris l’inégalité de négociation entre les travailleurs et les employeurs. Le principe selon lequel « l’être humain garde le contrôle » doit s’appliquer aux travailleurs et aux cadres.
  • prévoir des programmes d’IA et de culture numérique. L’éducation et la transparence des systèmes d’IA et des nouvelles technologies sont importantes pour que les travailleurs puissent comprendre et participer à une mise en œuvre juste.
  • prévoir une gouvernance des données au niveau national, sectoriel et de l’entreprise, et renforcer la participation des travailleurs à la conception, au déploiement, à l’utilisation et au suivi de la technologie d’IA et de la stratégie en matière de données.
  • prévoir des règles sur la responsabilité des entreprises et des promoteurs, y compris le renversement de la charge de la preuve en faveur des travailleurs, afin d’équilibrer l’accès limité des travailleurs à l’information.
  • fournir une innovation adaptée aux besoins, si les technologies d’IA sont conformes au principe de précaution fondé sur le traité
  • prévoir une stratégie européenne en matière de données, avec des initiatives ambitieuses en matière de transparence de la cybersécurité, de portabilité, d’interopérabilité, de fiscalité équitable, de réglementation des GAFAM et des autres grandes plateformes, d’opérationnalisation du droit d’accès, de gouvernance pour l’accès et le partage des données, d’avantages sociaux de l’utilisation/du partage des données.

Introduction et contexte

Depuis la première révolution industrielle, les travailleurs et les relations de travail sont confrontés à une transformation perturbatrice. La technologie et l’innovation numérique ont radicalement transformé le travail et l’emploi de manière inédite. La numérisation de la société remonte à l’introduction des ordinateurs, tout comme l’IA qui tente de reproduire ou de simuler le fonctionnement du cerveau humain et des processus physiques. Les technologies d’IA ne sont pas nouvelles. Cependant, elles ont pris un nouvel élan dans la société, car elles ont rapidement évolué et couvrent une grande partie de l’économie. La robotique et l’aide à l’automatisation remplacent souvent l’homme dans les tâches dangereuses, épuisantes, monotones et répétitives, ainsi que dans les tâches nécessitant une grande précision, même à une échelle microscopique. Aujourd’hui, l’IA soutient et remplace parfois également le travail analytique.

L’IA désigne les systèmes d’auto-apprentissage qui peuvent prendre en charge de nombreuses tâches humaines (apprentissage machine). L’IA est axée sur les données : il s’agit de données, de relier des données, de mettre des informations dans un contexte, d’appliquer et de réfléchir aux connaissances. Combinées à la robotique et à l’accès aux données volumineuses, les technologies d’IA constituent l’épine dorsale de l’économie numérique. Elles ont un impact sur la vie quotidienne des citoyens et ont atteint les lieux de travail. En tant que telles, l’introduction et l’utilisation de l’IA sont des questions clés pour le travail et la société. Elles sont porteuses d’opportunités et de défis : d’une part, il y a les avancées technologiques majeures indéniables apportées à la médecine, à l’espace, à la mobilité, à la communication, pour n’en citer que quelques-unes. D’autre part, les risques de surveillance intrusive, d’atteinte à la vie privée et à la protection des données et aux droits fondamentaux en général augmentent de manière exponentielle.

La crise du COVID-19 a modifié le contexte sociétal de manière spectaculaire, en ayant un impact à long terme sur les générations actuelles et futures avec une rapidité sans précédent. Les données et l’intelligence artificielle sont mises au premier plan des solutions pour lutter contre la pandémie, en médecine dans la recherche de vaccins, de médicaments ou de traitements, ainsi que dans le développement d’une application de traçage public pour identifier les personnes potentiellement infectées. Les opportunités et les défis de ces nouvelles technologies doivent cependant être soigneusement évalués. La crise du Covid-19 a également exacerbé la fracture numérique sous tous ses aspects.

La CES est convaincue que la protection du travail et l’innovation technologique peuvent être compatibles. Garantir une transition juste vers une numérisation et un travail équitable est le principe directeur de la CES. Si l’UE doit être à la pointe de l’innovation technique qui bénéficie aux citoyens, elle doit également fonder sa stratégie sur le modèle social européen et ses valeurs et droits fondamentaux. L’UE doit être un moteur pour réglementer l’innovation et garantir sa conformité avec la dignité, les conditions de travail et le bien-être des travailleurs.

La CES est d’avis qu’un cadre européen sur l’IA devrait aborder la dimension du lieu de travail de manière ambitieuse et proactive car les travailleurs sont particulièrement concernés par ces technologies. Le déséquilibre de pouvoir entre les employeurs et les travailleurs devrait amener la Commission européenne (CE) à envisager un cadre solide sur l’IA pour créer des emplois de qualité, investir dans la connaissance de l’IA par les travailleurs, promouvoir et accroître la sauvegarde des droits des travailleurs, la protection des travailleurs et s’assurer que les syndicats et les représentants des travailleurs participent activement à l’élaboration de l’IA au travail. Ce cadre sur l’IA devrait couvrir tous les travailleurs et employeurs des secteurs privé et public, pour tous les modèles d’entreprise, y compris les plateformes en ligne.

La CE a récemment publié deux stratégies qui, orientées dans la bonne direction, peuvent contribuer à innover et à renforcer le leadership technologique de l’UE ainsi qu’à relever de nouveaux défis, comme la pandémie. Ces stratégies sont des facteurs déterminants pour la construction de l’avenir numérique de l’Europe[1] : un livre blanc « Intelligence artificielle — Une approche européenne axée sur l’excellence et la confiance[2] » et la stratégie européenne pour les données[3] ont été publiées. Il convient de souligner que le marché mondial actuel de l’intelligence artificielle est dirigé par des pays qui, souvent, ne respectent pas les droits de l’homme dans le développement de cette technologie. Par conséquent, dans ses efforts pour renforcer le leadership technologique de l’UE, la CE ne doit pas faire de compromis sur des questions telles que les droits de l’homme et des travailleurs, ni sur la nécessaire implication des représentants des travailleurs et des syndicats dans la conception d’outils d’IA durables et éthiques.       

L’intelligence artificielle est incontestée pour la durabilité de l’économie, mais l’Europe est loin derrière les États-Unis ou les pays asiatiques. Seul un faible pourcentage d’entreprises utilise l’intelligence artificielle ou prévoient de le faire dans les années à venir. À cet égard, l’objectif de la Commission de mobiliser 20         milliards d’euros par an pour les investissements dans l’intelligence artificielle au cours des dix prochaines années constitue une étape importante.                                                      

La CE se fait à juste titre l’écho de l’appel lancé par la CES, les syndicats et différentes organisations de la société civile pour renforcer la gouvernance de l’utilisation des données dans la société et dans l’économie, d’autant plus que les données sont la source de l’IA. Cette résolution de la CES aborde les principaux domaines que la gouvernance des données et l’IA devraient couvrir. La CE a publié simultanément une série de communications relatives à la numérisation, dont les principales sont la communication « Façonner l’avenir numérique de l’Europe[4] » et une nouvelle stratégie industrielle pour l’Europe[5] traitant de la transition numérique. Ce faisant, la CE montre clairement l’importance stratégique des technologies numériques et des données. La plupart des mesures prises et prévues dans les domaines numériques visent à approfondir le marché intérieur et en particulier le marché unique numérique et auront un impact sur l’industrie de l’UE, en particulier le paquet de la loi sur les services numériques. La CES se félicite de l’approche holistique de la numérisation et voit la volonté d’assurer la cohérence et l’homogénéité entre les différentes initiatives visant à numériser l’Europe, l’économie et à fournir un meilleur accès aux outils et infrastructures numériques aux entreprises, aux travailleurs et aux citoyens. La CES traitera toutefois de la numérisation dans une position distincte sur la nouvelle stratégie industrielle pour l’Europe, en raison de sa grande portée.

Pourquoi est-il important que la CES prenne position sur l’IA européenne et les stratégies de données de l’UE ?

La CES doit rester active dans le débat sociétal sur l’IA afin de la rendre compatible avec les objectifs de l’Europe sociale, du travail décent et du progrès social. Si la perspective de créer de nouvelles opportunités d’emploi, d’accroître la productivité et d’améliorer les revenus grâce à l’évolution rapide de l’IA est apparue, on craint également qu’elle provoque des pertes d’emplois et augmente les inégalités. Il est donc primordial d’investir dans l’éducation, le perfectionnement et la requalification. Les politiques d’éducation visant à mieux équiper les travailleurs avec les qualifications et les compétences nécessaires pour concevoir et faire fonctionner les systèmes d’IA sont cruciales, mais elles ne seront pas suffisantes. La domination du marché et la concentration d’une poignée d’entreprises numériques développant des technologies d’IA et investissant dans des entreprises d’IA sont préoccupantes. En outre, les politiques fiscales devraient assurer des conditions de concurrence plus équilibrées entre les entreprises, afin de permettre un partage plus équitable des technologies d’IA et de leurs avantages.

La CES est fermement convaincue que les outils législatifs existants, tels que le RGPD, ne protègent pas de manière adéquate et suffisante les travailleurs contre les inconvénients des technologies d’IA, tels que le stress lié au travail et la pression excessive des horaires de travail intensifs définis par l’IA. Comme développé plus loin dans cette résolution, la CES plaide pour le renforcement du RGPD dans le contexte de l’emploi. La CES demande en outre aux gouvernements nationaux de veiller à ce que les institutions chargées de veiller au respect du RGPD disposent des ressources adéquates pour le faire.

De même, la CES est d’avis que les structures de dialogue social, les négociations collectives, l’information, la consultation et la participation des représentants des travailleurs et des syndicats sont essentielles pour fournir le soutien nécessaire aux travailleurs afin de mieux façonner l’introduction et le suivi de l’IA. Il faut donc veiller à ce que l’IA respecte les droits des travailleurs.

La responsabilité et l’obligation de rendre compte des employeurs en tant qu’utilisateurs industriels des technologies d’IA, ainsi que les règles éthiques pour les développeurs et les codeurs d’algorithmes, devraient permettre une sécurité juridique, la prévisibilité et des conditions de concurrence équitables appropriées. Les algorithmes doivent être conformes à la loi et aux droits fondamentaux, être conçus démocratiquement  et être compréhensibles. Ils doivent être intégrés dans des règles éthiques. Le libre accès au code source doit être garanti avant la mise en place du système d’IA sur le lieu de travail. Les évaluations des risques doivent démontrer l’efficacité des applications d’IA et le respect des obligations de transparence vérifiables pour les fournisseurs d’un outil d’IA destiné à être utilisé sur le lieu de travail, comme condition préalable à sa mise sur le marché.

La CES rappelle qu’une confiance étendue et non réglementée dans les technologies peut conduire à des défaillances coûteuses. Parfois elle peut entrainer des décès. Les véhicules à conduite autonome ont créé des accidents, des travailleurs ont été licenciés sur la base de décisions algorithmiques et des travailleurs de plateforme ont été licenciés pour avoir entrepris des actions syndicales. L’algorithme place au cœur du problème l’arbitraire et la décontextualisation des décisions prises. Des entreprises ont été piratées et les données des travailleurs ont été sérieusement compromises. La protection des travailleurs est donc en jeu. Des actions proactives doivent être entreprises pour garantir la sécurité et la santé au travail, la protection des données, la vie privée et les droits de l’homme. Avant tout, il est d’une importance capitale que l’homme reste maître de l’utilisation et des implications de toute technologie d’IA. Seul un cadre réglementaire transparent peut conduire à la prévisibilité et assurer le respect des droits fondamentaux des travailleurs, y compris la vie privée, et dans lequel la sécurité et la surveillance sont garanties.

Il est donc important pour la CES de soulever les préoccupations et les revendications des travailleurs dans le contexte du livre blanc de la CE sur l’IA, afin de garantir que l’IA et les technologies basées sur les données appliquées sur le lieu de travail se fassent dans un cadre juridique sûr, prévisible et fiable. Un tel cadre doit être sans préjudice des modèles nationaux du marché du travail et de l’autonomie des partenaires sociaux nationaux et doit encourager la négociation collective. La CES souligne l’importance d’adopter un cadre normatif permettant à la fois aux travailleurs et aux entreprises de bénéficier des opportunités de la numérisation, ainsi que d’établir des mesures pour prévenir les risques, les abus liés au travail et les violations des droits des travailleurs. L’introduction des technologies d’IA sur le lieu de travail doit impliquer les représentants des travailleurs à l’avance afin d’organiser des programmes de formation et de recyclage. Elle ne devrait pas entraîner de licenciements. La CES souligne l’importance d’adapter le cadre législatif actuel afin de permettre aux travailleurs et aux entreprises de bénéficier des possibilités de la numérisation, ainsi que d’établir des mesures de prévention des risques, des abus liés au travail et des violations des droits des travailleurs.

La CES veut s’assurer que de réelles possibilités de déploiement de l’IA et des données soient à la disposition des travailleurs et de leurs représentants, et que des opportunités soient offertes aux partenaires sociaux dans le cadre du dialogue social au niveau européen, national, sectoriel et de l’entreprise. L’IA peut être utile pour aider dans les tâches difficiles, améliorer la sécurité, les performances et la redistribution des gains parmi les travailleurs.

Quelles sont les protections juridiques internationales et nationales actuelles ?

Les instruments juridiques internationaux et européens réaffirment la nécessité de protéger et d’impliquer les travailleurs lorsqu’il s’agit d’introduire de nouvelles technologies au travail. Ils constituent une base fondamentale sur laquelle toute politique en matière d’IA et de données devrait être élaborée.

Normes internationales

Le premier principe fondamental de la « Déclaration de Philadelphie » de l’Organisation internationale du travail (OIT) est que « le travail n’est pas une marchandise ». Les droits et les conditions de travail des travailleurs découlent de ce principe. En ce qui concerne l’IA et les stratégies en matière de données, les données des travailleurs et la vie privée des travailleurs ne sont pas non plus une marchandise, ces données ne doivent pas être extraites et traitées à des fins commerciales.

La Déclaration du centenaire de l’OIT pour l’avenir du travail, adoptée par la Conférence internationale du travail lors de sa 108e session, à Genève, le 21 juin 2019, mentionne dans sa section III que « La Conférence appelle l’ensemble des Membres, en tenant compte de leur situation nationale, à œuvrer individuellement et collectivement, en s’appuyant sur le tripartisme et le dialogue social, et avec le soutien de l’OIT, pour développer son approche de l’avenir du travail centrée sur l’humain par les moyens suivants (...) promouvoir une croissance économique soutenue, inclusive et durable, le plein emploi productif et librement choisi et le travail décent pour tous par des politiques et des mesures permettant d’assurer une protection appropriée de la vie privée et des données personnelles, de relever les défis et de saisir les opportunités dans le monde du travail qui découlent des transformations associées aux technologies numériques, notamment le travail via des plateformes. »[6]

Au niveau international, l’OCDE a également publié les « Principes sur l’IA », qui appellent spécifiquement à soutenir les travailleurs pour une transition équitable[7].

Conseil de l’Europe

Les pratiques de surveillance, de contrôle et de suivi ne sont pas seulement intrusives mais soulèvent des préoccupations spécifiques en matière de protection des données. Les risques connexes, y compris l’utilisation abusive de ces technologies, sont extrêmement élevés, compte tenu de l’importance économique et financière des données et du poids qu’on leur accorde aujourd’hui : les données sont le nouvel or. La CES rappelle les garanties du droit à la vie privée et du droit à la protection des données, établies par le Conseil de l’Europe dans la « Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel », dite « Convention 108+ »[8]. En avril 2020, le Comité des ministres du Conseil de l’Europe a adopté la recommandation CM/Rec (2020) sur les impacts des systèmes algorithmiques sur les droits de l’homme, qui fournit un ensemble de lignes directrices invitant les gouvernements des États membres à veiller à ne pas violer les droits de l’homme par leur propre utilisation, développement ou acquisition de systèmes algorithmiques et à s’assurer que les gouvernements, en tant que régulateurs, établissent des cadres législatifs, réglementaires et de contrôle efficaces et prévisibles qui préviennent, détectent, interdisent et remédient aux violations des droits de l’homme, qu’elles soient le fait d’acteurs publics ou privés. En outre, on peut également se référer à la « Déclaration du Conseil de l’Europe sur le pistage numérique et autres technologies de surveillance »[9] ainsi qu’à la recommandation sur l’intelligence artificielle et les droits de l’homme « Désencombrer l’intelligence artificielle : 10 étapes pour protéger les droits de l’homme » du Commissaire aux droits de l’homme du Conseil de l’Europe de mai 2019.

Le 11 septembre 2019, le Comité des Ministres du Conseil de l’Europe a créé un Comité ad hoc sur l’intelligence artificielle (CAHAI), dont l’objectif principal est d’examiner la faisabilité et les éléments potentiels, sur la base de larges consultations multipartites, d’un cadre juridique pour le développement, la conception et l’application de l’intelligence artificielle, basé sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit[10]. Enfin, il a été décidé de créer, au sein du Comité directeur pour les droits de l’homme (CDDH), l’organe de contrôle suprême de toutes les conventions et de tous les instruments du Conseil de l’Europe, un sous-groupe spécialisé, un « groupe de rédaction », sur les droits de l’homme et l’intelligence artificielle (CDDH-INTEL). La tâche principale de ce groupe de rédaction est décrite comme suit : sur la base des développements dans les États membres, au sein du Conseil de l’Europe et dans d’autres enceintes, préparer, le cas échéant, un Manuel sur les droits de l’homme et l’intelligence artificielle et contribuer aux éventuels travaux normatifs qui seraient entrepris au sein de l’Organisation ».

Le Conseil de l’Europe a également réfléchi[11] à l’impact de l’IA pendant la pandémie de Covid-19, en fournissant une liste détaillée des États qui mettent en œuvre des applications Covid-19 pour le traçage. Ces réflexions montrent que l’IA est d’une part utilisée comme un outil faisant écho aux grands espoirs selon lesquels la science des données et l’IA peuvent être utilisées pour lutter contre le virus. D’autre part, l’IA semble conduire à une nouvelle ère de contrôle personnel, révélant de nouvelles capacités de surveillance des individus par l’État, en particulier lorsqu’elle devient contraignante et obligatoire en l’intégrant au droit commun. Plus substantiellement, elle peut également créer de nouveaux cas de discrimination et de stigmatisation, via la recherche des contacts ou le traçage de proximité. La fiabilité et l’utilité de ces algorithmes d’IA sont donc essentielles et doivent être prises en compte pour prévenir les inégalités. L’utilisation étendue des technologies d’IA peut également conduire à l’acceptation d’une telle application, même lorsque la crise pandémique est terminée, pour maintenir l’ordre public ou contrôler les travailleurs. Il convient donc d’aborder la question de la limitation et du contrôle des technologies d’IA ayant un impact sur la liberté et les droits.

Dans le même ordre d’idées, la Convention européenne des droits de l’homme prévoit le « droit au respect de la vie privée et familiale », selon lequel « toute personne a droit au respect de sa vie privée et familiale, de son domicile et de sa correspondance »[12]. Il convient également de rappeler que l’article 11 de la Charte sociale européenne (CSE) consacre le droit à la protection de la santé. Dans une « déclaration d’interprétation sur le droit à la protection de la santé en période de pandémie » d’avril 2020, le Comité européen des droits sociaux (CEDS), principal organe de contrôle de la CSE, a reconnu que les États membres doivent prendre toutes les mesures d’urgence nécessaires en cas de pandémie et que ces mesures peuvent inclure, entre autres, des tests et un traçage. Toutefois, toutes ces mesures doivent être conçues et mises en œuvre en tenant compte de l’état actuel des connaissances scientifiques et en conformité avec les normes correspondantes en matière de droits de l’homme.

Union européenne

Le traité de l’Union européenne prévoit que « toute personne a droit à la protection de ses données à caractère personnel. Le Parlement européen et le Conseil (...), fixent les règles relatives à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les institutions, organes et organismes de l’Union, ainsi que par les États membres dans l’exercice d’activités qui relèvent du champ d’application du droit de l’Union, et à la libre circulation de ces données. Le respect de ces règles est soumis au contrôle d’autorités indépendantes.[13]

La Charte des droits fondamentaux de l’UE prévoit que “Toute personne a droit à la protection des données à caractère personnel la concernant. Ces données doivent être traitées loyalement, à des fins déterminées et sur la base du consentement de la personne concernée ou en vertu d’un autre fondement légitime prévu par la loi. Toute personne a le droit d’accéder aux données collectées la concernant et d’en obtenir la rectification. Le respect de ces règles est soumis au contrôle d’une autorité indépendante”[14].

L’Agence des droits fondamentaux (FRA) a consacré un large éventail de ses activités à la protection des données[15]. Cependant, peu ou pas d’attention est accordée à la protection des données des travailleurs et aux applications d’IA au travail.

Les directives et règlements de l’UE qui définissent des normes minimales de travail ne protègent pas suffisamment les travailleurs en ce qui concerne l’impact des technologies d’IA sur le travail. La directive-cadre européenne sur la sécurité et la santé[16] n’a pas été adaptée ni révisée pour tenir compte des risques émergents et nouveaux liés à l’IA. Il convient toutefois de mentionner le principe général prévu par la directive-cadre qui consiste à confier à l’employeur la responsabilité de la prévention des risques. Le règlement général sur la protection des données[17] ne comporte qu’une seule disposition relative au traitement des données des travailleurs sur le lieu de travail. La CES et les syndicats ont demandé à plusieurs reprises que ces instruments soient adaptés à la réalité des lieux de travail d’aujourd’hui.

En 2019, la CE a publié des lignes directrices sur l’éthique d’une IA[18] digne de confiance, élaborées par le groupe d’experts de haut niveau sur l’IA, selon lesquelles l’IA doit être légale (c’est-à-dire respecter toutes les lois et réglementations applicables), éthique (c’est-à-dire conforme aux principes et valeurs éthiques) et robuste (à la fois d’un point de vue technique et en tenant compte de son environnement social). En outre, les technologies d’IA doivent répondre à 7 exigences : 1. dimension humaine et surveillance, 2. robustesse technique et sécurité, 3. respect de la vie privée et gouvernance des données, 4. transparence, 5. diversité, non-discrimination et équité, 6. bien-être environnemental et sociétal et 7. responsabilité. L’accord-cadre 2020 des partenaires sociaux européens sur la numérisation comprend une section sur l’intelligence artificielle rappelant la nécessité du principe de l’homme aux commandes, dans lequel il y a un engagement à respecter et à se conformer aux contrôles de sûreté et de sécurité.

Dans le cadre de la stratégie de la Commission européenne “Façonner l’avenir numérique de l’Europe”, la CES a apporté sa contribution à la consultation publique sur le Livre blanc sur l’intelligence artificielle et celle sur la stratégie européenne pour les données, en soulignant la dimension des droits de l’homme qui s’applique à la révolution numérique et en mettant l’accent sur les droits du travail et des syndicats.

Cette approche des droits de l’homme a été la position de la CES lors de sa contribution aux récentes initiatives du Parlement européen sur l’intelligence artificielle, à savoir la » Législation sur les services numériques : adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne » [JURI/9/02298 2020/2019 (INL)], le « Cadre des y afférentes » [JURI/9/02261 2020/2012 (INL)], et le « Régime de responsabilité civile pour l’intelligence artificielle » [JURI/9/02298 2020/2019 (INL)].

La CES assurera le suivi de toute autre action sur l’IA et les données devant être entreprise par les organes directeurs européens, comme la loi sur les services numériques visant à établir des règles claires pour toutes les entreprises afin d’accéder au marché unique, de renforcer la responsabilité des plateformes en ligne et de protéger les droits fondamentaux, que la Commission présentera plus tard dans l’année. Elle proposera également une révision du règlement eIDAS[19], permettant une identité électronique sécurisée qui donne aux personnes le contrôle des données qu’elles partagent en ligne. Cette résolution servira de base à la contribution de la CES au développement de ces initiatives. Le Livre blanc sur l’intelligence artificielle, qui présente des options pour un cadre législatif pour une IA digne de confiance, a été adopté en février 2020, et un suivi sur la sécurité, la responsabilité, les droits fondamentaux et les données est prévu pour le quatrième trimestre de 2020. La stratégie européenne en matière de données, qui vise à faire de l’Europe un leader mondial dans l’économie des données, a été adoptée en février 2020 et un cadre législatif pour la gouvernance des données est annoncé pour le quatrième trimestre de 2020. Une éventuelle loi sur les données pourrait être présentée en 2021. Des règles nouvelles et révisées visant à approfondir le marché intérieur des services numériques, en augmentant et en harmonisant les responsabilités des plateformes en ligne et des fournisseurs de services d’information et en renforçant la surveillance des politiques de contenu des plateformes dans l’UE, pourraient être programmées pour la fin 2020, dans le cadre du paquet de la loi sur les services numériques.

Début 2019, les bureaux techniques du CEN (Comité européen de normalisation) et du CENELEC (Comité européen de normalisation électrotechnique) ont créé le groupe de réflexion sur l’IA afin de refléter les activités au niveau international. De cette manière, ils pourraient identifier les exigences européennes spécifiques potentielles et servir d’interface avec la Commission européenne. Ce groupe de réflexion n’est pas destiné à élaborer des normes sur l’IA, mais agit davantage comme un forum de discussion sur la politique européenne et sur la manière dont elle peut se traduire en termes de normalisation. Il explore également l’application potentielle des outils de normalisation existants pour l’IA. Dans le cadre des travaux de la CES sur les normes, une task force syndicale a été créée afin de suivre les travaux de ce groupe de réflexion.

Les conclusions du Conseil de l’Union européenne sur « l’amélioration du bien-être au travail » invitent les États membres à « appliquer le cadre communautaire existant, en gardant à l’esprit la possibilité pour les États membres d’aller au-delà des exigences minimales qui y sont prévues, de poursuivre la mise en œuvre de la directive sur l’équilibre entre vie professionnelle et vie privée et de suivre la recommandation du Conseil sur l’accès des travailleurs salariés et non-salariés à la protection sociale ».

Revendications de la CES

Les revendications de la CES concernant un cadre européen pour l’IA et une stratégie européenne en matière de données répondent aux besoins suivants : une gouvernance inclusive et des règles claires ; une réglementation adéquate et une infrastructure politique garantissant une bonne protection des travailleurs et les investissements nécessaires ; l’application du principe de précaution aux technologies d’IA ; la garantie de technologies d’IA permettant à l’homme de garder le contrôle et respectant les droits du travail, ainsi qu’une utilisation judicieuse des données ; le renforcement de la mise en œuvre du RGPD à la réalité du lieu de travail ; la participation des partenaires sociaux et le renforcement de la démocratie industrielle.

Assurer la gouvernance des données, de l’IA et des marchés

La Commission européenne a l’intention de promouvoir des mesures intersectorielles pour l’accès aux données et leur utilisation dans une économie vieillissante, en impliquant les acteurs privés et publics. Elle souligne la priorité des activités de normalisation par rapport à la législation pour favoriser l’interopérabilité des données.

La CES est convaincue de la nécessité de dispositions juridiques claires sur l’utilisation responsable des données, l’interopérabilité des systèmes et les conditions d’accès aux données. De telles règles n’apporteraient pas seulement plus de prévisibilité et de sécurité juridique aux entreprises, mais elles rendraient le marché plus équitable pour les entreprises, les travailleurs, les consommateurs et les citoyens. En gérant mieux les volumes de données, les règles d’interopérabilité permettraient à d’autres fournisseurs de services européens de pénétrer le marché et éviteraient la concentration du marché et le quasi-monopole ou une part excessive de marché. La crise du COVID-19 a montré à quel point les services de vidéoconférence ont été dominés par des acteurs non européens, ce qui a conduit à des scandales sur les politiques de protection des données puisque le RGPD ne s'applique pas aux acteurs non européens. Une diversification accrue garantirait un environnement plus transparent et plus démocratique.

La sécurité du stockage et de l’accès aux données est essentielle, c’est pourquoi l’UE et les États membres doivent garder le contrôle. Il devrait être techniquement possible et sûr de demander à une organisation de transférer les données personnelles de l’individu à une autre organisation, ou de recevoir les données dans un format interopérable. Ce faisant, les individus devraient avoir le contrôle de leurs données et les organisations devraient démontrer leur conformité avec les règles de l’UE en matière de protection des données et de la vie privée. Des sanctions appropriées et efficaces devraient dissuader toute violation des règles de protection des données. Actuellement, les applications de traçage n’offrent guère la sécurité nécessaire, notamment en termes d’anonymisation et de pseudonymisation  des données collectées et stockées et d’accès à celles-ci. Le consentement des travailleurs n’est pas correctement assuré, car les informations sont souvent cachées ou difficiles d’accès, ou l’actualisation des applications définit l’application de traçage comme option par défaut. Les travailleurs doivent recevoir des informations claires et transparentes sur la finalité et l’utilisation de la collecte de leurs données. La collecte des données des travailleurs doit se faire en consultation et avec la participation des représentants syndicaux. Les délégués à la protection des données doivent être informés. Les travailleurs doivent être en mesure de prendre une décision libre et volontaire.

Le défi supplémentaire consiste à s'assurer que les services publics ont la capacité - notamment en termes de ressources, de personnel et de formation - de contrôler l'introduction de l'IA et de réaliser les investissements nécessaires dans une technologie d’IA indépendante. Les politiques des services publics en matière d'IA doivent être guidées par l'intérêt public et les besoins réels des utilisateurs. Il est également crucial que les autorités publiques continuent à explorer le potentiel de développement de services et d'infrastructures publics numériques indépendants et autonomes.

En outre, la CES appelle à un cadre inclusif qui protège et promeut les initiatives de l’économie sociale à source ouverte et sans but lucratif en tant qu’acteurs pertinents. Un cadre qui donne à ces secteurs la possibilité d’exister en tant qu’IA et technologies axées sur les données, qui sont principalement dominées par le secteur des entreprises. Un cadre de gouvernance de l’IA et des données contribuera à une approche commune pour opérer dans le marché unique numérique européen, et à un terrain équitable pour le marché du travail où les droits des travailleurs sont garantis.

L’accès aux données, leur stockage et leur traitement doivent être conformes au RGPD. La stratégie de la CE appelle à la mise en place de mécanismes permettant aux individus d’autoriser plus facilement l’utilisation des données qu’ils génèrent pour le bien public, un concept que la stratégie appelle « l’altruisme des données ». La CES s’interroge sur les objectifs d’altruisme qui peuvent être poursuivis à des fins commerciales et elle exprime sa préoccupation quant à la violation de la vie privée et à la surveillance, principalement dans des situations vulnérables comme la relation de travail.

Le point de vue de la CE, lorsqu’elle affirme que les individus autorisent l’utilisation des données qu’ils génèrent sur la base d’un consentement explicite et sans ambiguïté, est controversé. Des situations telles que la collecte de données (notamment à la lumière de la propagation du coronavirus) où le consentement est basé sur une option hors d’un système, ou pratiquement inexistant ou « forcé », ont prouvé le contraire. En outre, les risques liés à une gestion biaisée et malveillante des données couvrent les problèmes potentiels de discrimination, de pratiques déloyales et d’« effets de verrouillage », ainsi que les menaces à la cybersécurité. Il convient de rappeler que la non-discrimination est un droit fondamental à respecter.

Élaborer une réglementation pour toutes les plateformes du marché de l’UE

La situation des travailleurs de plateforme n’est pas couverte par cette résolution, car elle sera abordée par la CES dans sa prochaine position pour la protection des droits des travailleurs non conventionnels et des travailleurs de plateforme.

La cybersécurité est un élément clé de la protection des données, même au niveau individuel, et nécessite des investissements importants et des plans de formation spécifiques : l'éducation et la formation permettent de créer la culture nécessaire pour reconnaître et limiter les  risques cybernétiques dès le départ.

Pour aider l'Europe à atteindre les objectifs de développement durable fixés par les Nations Unies, un solide cadre de gouvernance des données devrait être en place. Un tel cadre devrait inclure la réglementation des GAFAM et des plateformes similaires sur le marché, qui intègrent de plus en plus différentes activités commerciales, faussant ainsi une concurrence loyale sur le marché. Les règles de concurrence en matière d'anti-trust devraient être adaptées pour mieux répondre aux spécificités des marchés numériques caractérisés par des plates-formes ayant des effets de réseau importants, y compris des risques d'effets de monopsone. Une telle réglementation devrait être claire, dissuasive et éviter les problèmes structurels de concurrence entraînant une concurrence déloyale, des concentrations de marché incontestables et une exacerbation des inégalités (sociales) existantes. Les règles doivent être conçues pour défendre les intérêts publics, au-delà de la simple concurrence ou de considérations économiques, en tenant compte également des effets sur le marché du travail, les conditions de travail et les droits des travailleurs.

Les entreprises numériques devraient contribuer de manière équitable et progressive à la taxe sur les revenus générés au sein de l’UE. Selon les estimations, l’UE a perdu 5 milliards d’euros en taxes de Google et Facebook au cours des trois dernières années[20]. Les pouvoirs publics doivent pouvoir mettre en place une taxation équitable sur la valeur ajoutée et le capital, et sur les entreprises qui bénéficient le plus de la transition, comme dans le secteur numérique, et bénéficier d’une part équitable de cette richesse massive, pour payer les services et infrastructures vitaux dont ces entreprises dépendent. Cela ferait écho aux demandes et aux actions des Etats membres comme la France pour adopter la taxation numérique, dans l’attente de la finalisation des négociations mondiales tant attendues sur la taxation numérique.

De même, les GAFAM et autres plateformes devraient être soumises et doivent se conformer au RGPD et aux règles de protection de la vie privée en Europe. Les droits des travailleurs doivent être pleinement respectés et la représentation des travailleurs doit être pleinement garantie.

L’Europe a besoin d’une réglementation et d’une infrastructure politique adéquates

La stratégie de la CE sur l’IA et les données appelle à la mise en œuvre des différents textes législatifs applicables aux actions de la stratégie par « des mécanismes d’autorégulation et de co-régulation et des moyens technologiques pour accroître la confiance ».

Il existe cependant peu de législation applicable en matière d’IA, en général et encore moins en ce qui concerne le lieu de travail. En outre, la délégation de la responsabilité de réglementer l’IA à des acteurs privés ayant des intérêts particuliers est discutable. Cela conduira inévitablement à une grande différenciation en termes de protection, avec une nette préférence pour la mise sur le marché de technologies d’IA sur la base de la productivité et de la compétitivité. La CES demande à la Commission de combler cette lacune réglementaire et de promulguer une nouvelle législation européenne qui sera mise en œuvre par le biais de la législation nationale ou, le cas échéant, par des conventions collectives. Comme les travailleurs interagissent avec un environnement de travail numérique et en rapide évolution, il faut un cadre qui les protège. La CES est d’avis qu’un cadre réglementaire européen en matière d’IA devrait être adopté et mis en œuvre. Des « lignes directrices éthiques pour une intelligence artificielle digne de confiance » devraient être incluses dans ce cadre réglementaire. Il servirait également les entreprises et la main-d’œuvre, en offrant une prévisibilité et une sécurité juridiques et des conditions de concurrence équitables pour tous, alors que les lignes directrices éthiques n’apportent que peu ou pas de valeur ajoutée pratique et conduisent à une approche fragmentée. Il en va de même pour les questions liées à la responsabilité.

Dans le même ordre d’idées, la Commission semble favoriser l’autorégulation, les codes de conduite et les processus de normalisation concernant la création d’un marché des services de données en cloud qui devrait se conformer aux exigences européennes en matière de protection et de sécurité des données. Là encore, on peut se demander si les normes privées peuvent et doivent fournir les garanties nécessaires en termes de sécurité et de fiabilité des technologies d’IA. Elles ne peuvent que compléter les règles juridiquement contraignantes qui garantissent un terrain de jeu commun, ce qui est très nécessaire lorsqu’il s’agit de réglementer les serveurs de données opérant dans l’UE. Les services cloud, en particulier, doivent être sûrs et fiables.

Étant donné que les services de données dans le cloud traitent un grand nombre de données personnelles, la CES appelle la Commission européenne à évaluer les risques liés aux services de cloud et à fournir des règles claires pour les réglementer. En ces temps de changements technologiques et sociétaux, la CE devrait favoriser un cadre de gouvernance pour améliorer la protection des données tout en gardant le contrôle de celles-ci. Cette gouvernance devrait inclure les syndicats et les représentations des travailleurs, qui sont conscients des situations et des besoins des travailleurs et des entreprises. En outre, elle servira à garantir l’évaluation des risques liés au développement et à l’utilisation des systèmes d’IA sur le lieu de travail.

Un tel cadre ne doit pas porter préjudice aux modèles nationaux du marché du travail et à l’autonomie des partenaires sociaux nationaux et doit encourager la négociation collective.

Le principe de précaution doit s’appliquer aux technologies d’IA

La CES est d’avis que l’innovation et la précaution vont de pair et qu’il n’y a aucune preuve que la précaution entrave l’innovation. Le concept souvent évoqué de « principe d’innovation », sans valeur juridique, est utilisé pour porter atteinte au principe de précaution, qui est inscrit dans le traité sur le fonctionnement de l’Union européenne[21]. Le principe de précaution peut soutenir les développements technologiques et donner une orientation à l’innovation. Plus précisément, la CES estime qu’il est essentiel dans le processus décisionnel, où règne l’incertitude quant aux conséquences involontaires et aux effets négatifs potentiels qu’une technologie pourrait entraîner.

Le Comité des Ministres du Conseil de l’Europe a récemment publié des recommandations[22] relatives à l’impact des systèmes algorithmiques sur les droits de l’homme. Il a appelé ses 47 États membres à adopter une approche de précaution dans le développement et l’utilisation des systèmes algorithmiques et à adopter une législation, des politiques et des pratiques qui respectent pleinement les droits de l’homme. Cette logique est d’autant plus pertinente sur le lieu de travail où les travailleurs sont dans une relation de pouvoir déséquilibrée découlant de leur contrat de travail, ce qui est encore plus désavantageux pour les travailleurs atypiques et précaires. Les recommandations du Conseil de l’Europe s’adressent aux employeurs. Lorsque la prise de décision automatisée sur le lieu de travail peut avoir un impact négatif sur les travailleurs, le principe de précaution devrait s’appliquer. La CES est d'avis que ces technologies ne sont pas appropriées pour résoudre les questions relatives aux relations de travail individuelles et collectives.

Privilégier les applications d’IA intégrant les droits du travail et une bonne utilisation des données.

Le déploiement des technologies d’IA sur le lieu de travail peut se faire de multiples façons, dont les bénéfices peuvent être réels. Par exemple, ces technologies peuvent être déployées pour améliorer la sûreté et la sécurité, pour améliorer les conditions de travail grâce à des systèmes d’assistance ou pour aider à maîtriser des tâches difficiles. Ces applications, et la manière dont elles sont utilisées, doivent être transparentes pour la main-d’œuvre, afin que les travailleurs puissent comprendre les objectifs et les résultats de ces applications, ainsi que l’utilisation des données collectives.

Toutefois, les risques associés aux technologies d’IA sont tout aussi importants et peuvent varier en fonction du secteur, du contexte dans lequel la technologie est appliquée et du cadre réglementaire national. Les risques doivent être correctement identifiés et traités pour être évités et atténués. Une attention particulière doit être accordée à la prévention des risques en matière de santé et de sécurité au travail, y compris les risques psychosociaux. La CES demande qu’une évaluation des risques soit effectuée pour contrecarrer les éventuels effets négatifs. Cela nécessite également l’implication des syndicats. Une condition préalable à l’évaluation des risques sur le lieu de travail serait de définir le devoir des concepteurs et des développeurs d’IA en matière de transparence et d’information sur les fonctionnalités, les opportunités et les effets négatifs possibles que la technologie IA et, en particulier, les algorithmes pourraient apporter. Il s’agit là d’un élément clé pour clarifier les responsabilités des différents acteurs impliqués. La CES remet en question les modèles commerciaux actuels qui collectent et utilisent abusivement les données des travailleurs.

Les algorithmes sont bien connus pour être une source possible de différents types de discrimination, car ils sont souvent fondés sur des stéréotypes et une diversité limitée dans les ensembles de données et l’équipe de conception ; la CES a identifié des risques élevés de discrimination fondée sur le genre[23]. Il convient d’accorder la même importance aux risques liés à l’utilisation d’algorithmes biaisés lorsqu’il s’agit de violation des droits des travailleurs. Un exemple significatif est la pratique de Deliveroo qui consiste à déconnecter les travailleurs de la plateforme en raison de leur action syndicale. Il en va de même lorsque les algorithmes contournent les procédures d’embauche et de licenciement, où les décisions sont laissées aux applications d’IA, par exemple les algorithmes d’Amazon licencient les travailleurs sans l’intervention d’une décision humaine sur la base d’indicateurs programmés[24]. De telles pratiques doivent être discutées, découragées et sanctionnées de manière normative. La CES s’oppose aux modèles d’entreprise qui collectent et utilisent indûment les données des travailleurs. La CES demande à l’institution gouvernementale de soutenir la recherche pour développer des études de mesure et des méthodologies de prévention des préjugés afin d’empêcher la propagation d’algorithmes discriminatoires biaisés. Les algorithmes devraient être vérifiés par rapport à leur objectif. L’utilisation de la traçabilité contribue à garantir les conditions sociales et environnementales de la fabrication des produits et services d’IA.

Le Livre blanc de la CE propose une approche fondée sur le risque pour contribuer à garantir que l’intervention réglementaire est proportionnée. Fondamentalement, la Commission suggère de ne réglementer que les applications d’IA qui, sur la base de critères à définir, sont considérées comme « à haut risque »[25]. Toutes les autres applications d’IA ne seraient donc soumises qu’à une autorégulation volontaire.

La CES se félicite du fait qu’« à la lumière de son importance pour les individus et de l’acquis communautaire », la CE a identifié que « l’utilisation des applications d’IA pour les processus de recrutement ainsi que dans les situations ayant un impact sur les droits des travailleurs, est toujours considérée comme “à haut risque” » en principe, et a proposé des règlements correspondants pour garantir une protection plus élevée pour les travailleurs. La CES demande explicitement que les applications d’IA introduites sur le lieu de travail et ayant un impact sur les droits des travailleurs et les conditions de travail soient classées comme à haut risque en principe et soumises à une réglementation appropriée. La CES demande également que la classification à haut risque pour les demandes affectant les travailleurs soit étendue à tous les employés et inclue les conditions de travail et les perspectives de carrière des employés. Par souci de cohérence, ces règles devraient être contraignantes et applicables, par le biais de la législation et/ou d’une convention collective, car les lignes directrices volontaires ont un impact réduit et fragmenté, et leur efficacité est très limitée. La CES estime que le régime de responsabilité des applications d’IA au travail mérite une attention particulière, la charge de la preuve devant incomber aux employeurs, afin d’équilibrer l’accès limité des travailleurs à l’information. La responsabilité doit être dans le chef des développeurs, les codeurs, les concepteurs d'IA et les entreprises : elle ne peut être attribuée  aux systèmes d'IA.

La CES demande une transparence et une responsabilité algorithmiques. Toutes les décisions basées sur des algorithmes devraient être explicables, interprétables, compréhensibles, accessibles, concises, cohérentes, transparentes, en accord avec les principes et les dispositions du RGPD. Pour se conformer à cette exigence, toutes les décisions basées sur des algorithmes qui ont un impact sur les travailleurs doivent être contrôlées par un organisme indépendant. L'approche du traitement des données doit être dynamique car son utilisation fait partie d'un processus, depuis le processus d'extraction jusqu'aux corrélations et aux causalités entre elles.

La CES appelle à une plus grande diversité dans la conception des algorithmes qui tienne compte de la perspective de genre et de l’hétérogénéité de la société. Par conséquent, des normes de diversité doivent être établies dans les équipes qui programment ces solutions informatiques, en favorisant la présence de femmes et de groupes minoritaires dans celles-ci, afin de transposer l’équilibre existant entre les sexes dans notre société. Pour toutes ces raisons, nous proposons d’articuler des mesures visant à promouvoir l’égalité des sexes et la diversité parmi les responsables de la programmation et de l’audit des algorithmes.

Renforcer les règles du RGPD au travail

Le livre blanc de l’UE sur l’IA et la stratégie européenne pour les données prennent à peine en compte les intérêts des travailleurs. Il est regrettable qu’aucune référence ne soit faite à l’article 88 du RGPD, relatif au traitement des données dans le cadre de l’emploi, qui pourrait servir de levier pour une protection renforcée des données des travailleurs. Ces données pourraient notamment porter sur le recrutement, les performances, la gestion, la planification et l’organisation du travail, l’égalité et la diversité sur le lieu de travail, la santé et la sécurité au travail et les licenciements. En outre, les représentants syndicaux devraient être impliqués dans le contrôle de la conformité avec le RGPD d’un certain système d’IA sur le lieu de travail. L’objectif est d’établir des mesures visant à sauvegarder la dignité humaine, les intérêts légitimes et les droits fondamentaux, en particulier en ce qui concerne la transparence du traitement des données, le transfert de données à caractère personnel au sein d’un groupe d’entreprises ou d’un groupe d’entreprises exerçant une activité économique commune, et les systèmes de contrôle sur le lieu de travail.

La CES demande à la Commission de renforcer le cadre de l’Union européenne sur la vie privée, la protection des données et la sécurité, afin de mieux réglementer les objets et les réseaux connectés à Internet qui connectent et traitent des données. Par conséquent, la CES est d’avis que les employeurs devraient informer les travailleurs et les représentants des travailleurs sur les données collectées, le lieu de stockage de ces données, la personne ou l’institution ou l’organisation qui traite ces données, la finalité de ce traitement et à qui ou à quelles autres institutions ou organisations ces données sont transmises. La CES demande à la Commission de renforcer le cadre européen sur la vie privée, la protection des données et la sécurité, afin de mieux réglementer les objets et les réseaux connectés à Internet qui connectent et traitent des données.

La CES est d’avis que tout cadre européen sur l’IA devrait donc aborder spécifiquement les situations liées au lieu de travail et s’attaquer aux abus éventuels. Il devrait promouvoir le recours au dialogue social et aux conventions collectives afin d’élaborer une conception, une introduction et un suivi durables de la technologie de l’IA au travail. En outre, les syndicats devraient pouvoir contacter les autorités nationales de protection des données et leur fournir des informations sur les situations spécifiques des travailleurs.

Comme condition préalable, les représentants syndicaux devraient être dotés des compétences et des connaissances nécessaires pour faire face à cette demande et être impliqués dans le processus. Ce soutien repose sur les droits à l’information et à la consultation inscrits dans la législation européenne et nationale ainsi que dans les conventions collectives. Ils devraient donc être respectés en tant que règles obligatoires pour la gouvernance des données relatives au travail. Toutefois, le cadre proposé ne répond pas aux besoins spécifiques des travailleurs dans le déséquilibre du pouvoir de négociation existant dans une relation de travail pour garantir leurs droits.

Chaque fois que des données relatives aux travailleurs sont collectées et traitées sur le lieu de travail ou dans le cadre des activités de l’entreprise, le consentement libre, spécifique, informé et non ambigu des travailleurs est essentiel, de même que l’information et la consultation préalables de leurs représentants. Cependant, et comme le stipule le RGPD, pour la majorité des données traitées sur le lieu de travail, la base juridique ne peut et ne doit pas être le consentement des employés en raison de la nature déséquilibrée de la relation entre l’employeur et l’employé. Le traitement peut être nécessaire pour d’autres raisons, par exemple pour l’exécution d’un contrat ou il peut être imposé par la loi. Lorsque le consentement est utilisé comme base juridique pour le traitement des données, il ne devrait donc en principe être valable que s’il est soutenu par une convention collective et qu’il est renouvelé tout au long du processus de traitement des données. La même logique doit s’appliquer lorsque l’employeur traite les données des travailleurs pour des utilisations ultérieures/autres qui n’étaient pas prévues auparavant. De même, les conventions collectives sectorielles et intersectorielles sont des instruments clés lorsqu’il s’agit de conclure des accords sur les données des travailleurs allant au-delà du niveau de l’entreprise.

La CES appelle à une démocratisation de l’IA et de la gouvernance des données. Les syndicats doivent jouer un rôle significatif dans la nouvelle gouvernance des données et de l’IA ; et la CE doit s’assurer que les droits du RGPD sont pleinement garantis dans le contexte de l’emploi. Cela est particulièrement vrai lorsqu’il s’agit d’exercer un consentement non ambigu et informé, mais aussi le droit d’accès aux informations sur l’application de l’IA, le droit de rectification, le droit d’effacement (étendant ainsi « le droit d’être oublié » à l’environnement de travail), le droit de limiter le traitement, le droit à la portabilité des données (car le transfert des données personnelles d’un travailleur peut présenter un intérêt particulier dans certains contextes, comme les notations), le droit d’objection (demander la cessation du traitement des données personnelles d’un travailleur) et le droit de ne pas être soumis à une décision basée uniquement sur un traitement automatisé.

Garantir la protection des travailleurs par le dialogue social et la  négociation collective

Une IA et une gouvernance des données solide devraient permettre aux travailleurs de : (a) ne pas être affectés négativement par la prise de décision algorithmique et d’avoir effectivement connaissance de la logique qui sous-tend tout traitement automatisé de données le concernant ; (b) ne pas renoncer à leurs droits en matière de respect de la vie privée ; (c) exercer de manière adéquate leurs droits en matière de protection des données sur le lieu de travail, y compris avec l’aide des syndicats pour y parvenir et (d) permettre aux représentants des travailleurs de jouer un rôle clé dans la prise de décision concernant l’utilisation, le stockage ou le partage des données des travailleurs dans le cadre de l’emploi.

Des règles publiques conduisant à une surveillance encore plus intrusive basée sur la technologie de l’IA sont adoptées en relation avec des événements extraordinaires comme une attaque terroriste ou une pandémie. Ces règles doivent faire l’objet d’un débat démocratique préalable, limité à une durée déterminée, et être suivies de décisions démocratiques. Cependant, dans de nombreux cas, en raison de l’urgence, des règles sont adoptées, restreignant ou violant les droits fondamentaux, ces derniers tentant de plus en plus fréquemment de résister à ces attaques.[26]. Les technologies de suivi et de surveillance sont de plus en plus présentes dans la société, ce qui met en danger la vie privée et la protection des données sur le lieu de travail. La surveillance du lieu de travail peut faire appel à des technologies et à des analyses directes, indirectes et à distance. Elles ont souvent un impact excessif sur les travailleurs et menacent leurs droits, tels que la liberté d’association, d’expression, la non-discrimination et les libertés numériques. Elles amplifient également les inégalités existantes. La surveillance n’est pas, par défaut, légitime, nécessaire ou proportionnée sur le lieu de travail. L’IA et les stratégies numériques doivent garantir que les inspections du travail et les syndicats sont effectivement habilités à contrôler l’étendue et la légalité des technologies de surveillance liées à l’IA. La surveillance sur le lieu de travail peut faire appel à des technologies et à des analyses directes, indirectes et à distance. Elles ont souvent un impact excessif sur les travailleurs et menacent leurs droits, tels que la liberté d’association, d’expression, de non-discrimination et les libertés numériques. Un exemple de cela serait la tentative de Facebook de mettre sur liste noire le mot « unionize » (syndiquer) de son application « Facebook Workplace ».

Conformément à l’article 9 du RGPD sur le traitement des catégories spéciales de données à caractère personnel, la CES demande à la CE de répondre à cette menace et d’interdire les technologies de surveillance intrusives, y compris la reconnaissance biométrique et faciale, les analyses fondées sur les données intégrant des prévisions algorithmiques et les implants de puces. Les risques et les possibilités d’abus qui y sont liés dépassent largement les avantages. Sur le lieu de travail, ces technologies d’IA peuvent entraîner des violations importantes de la vie privée des travailleurs. Dans des situations particulières, les technologies de traitement biométrique, telles que la reconnaissance faciale, doivent rester extrêmement exceptionnelles et être limitées à des circonstances spécifiques et claires établies par la loi ou, le cas échéant, par une convention collective. Cela pourrait conduire à un système conçu sur la protection des données (la protection de la vie privée par défaut), permettant l'utilisation de technologies "intrusives" uniquement sur la base d’une protection renforcée des  utilisateurs et de leurs données.

L’ADN du modèle social européen réside dans l’organisation tripartite des politiques sociales. Dans le même ordre d’idées, les organisations syndicales et les associations d’employeurs européennes devraient être associées à la cocréation de la stratégie européenne en matière d’IA et de données. L’objectif est de permettre de s’engager dans des technologies d’IA qui promeuvent la qualité de l’emploi, l’amélioration des qualifications et des compétences, l’externalisation des tâches, des conditions de travail et d’un environnement respectueux des travailleurs, de leur santé, de leur sécurité et de leur vie privée, la protection des données et l’accès effectif à la protection sociale.

La CES se félicite de l’appel à l’investissement dans les compétences et la culture générale des données avec un programme dédié financé dans le cadre de « l’Europe numérique », inclus dans la stratégie de l’UE pour les données. La CES se félicite également de l’appel du Conseil de l’Union européenne soulignant que « l’éducation, la formation, l’apprentissage tout au long de la vie et les compétences adéquates sont une condition préalable à une main-d’œuvre innovante et compétitive ». La CES demande un soutien concret pour l’identification précoce des besoins en compétences et la planification de l’emploi et des besoins futurs en compétences. Il s’agit donc de développer la « culture des données » par des programmes de formation sur le lieu de travail afin de rendre l’IA plus accessible aux travailleurs et à leurs représentants. De même, la Commission européenne devrait développer et soutenir la « culture de l’IA », afin que les travailleurs soient en mesure de comprendre le rôle des données et de l’IA sur leur lieu de travail, son impact sur l’organisation de leur travail, d’avoir une conscience critique du rôle et de l’impact du travail avec les systèmes d’IA, d’améliorer leur culture de l’IA pour tout emploi dans leur vie professionnelle et de jouer un rôle plus important dans la transition socio-économique. Cela augmenterait certainement la capacité des syndicats à s’engager dans l’IA et la gestion des données dans l’environnement de travail.

De même, si les systèmes d’IA utilisent des données personnelles, ces données doivent être utilisées d’une manière légale et compréhensible pour toute personne concernée. Les travailleurs et leurs représentants à tous les niveaux doivent être correctement informés des méthodes d’IA, et les systèmes d’IA doivent être conçus et documentés de manière à permettre de retracer et de comprendre les décisions. Les exigences en matière de documentation, de transparence et de traçabilité peuvent varier selon la fonction, le champ d’application et les risques de chaque système.

La CES est d’avis qu’une autorité publique indépendante pourrait se consacrer à la surveillance des technologies d’IA et devrait s’occuper des spécificités du lieu de travail. Cette autorité pourrait être dotée de pouvoirs réglementaires et les syndicats devraient être représentés de manière significative dans ses organes de décision. L’idée d’une agence européenne sur l’IA serait innovante. Toutefois, la CES préférerait opter pour les organes européens existants et compléter leur mandat par une dimension liée à l’IA, en coordination avec les autorités nationales spécialisées. La CES pourrait envisager d’inclure un appel aux organes de direction européens pour qu’ils donnent un mandat à l’Agence des droits fondamentaux (FRA) pour traiter de l’IA, en mettant l’accent sur les aspects liés au travail.

 

 

 


[1] https://ec.europa.eu/commission/presscorner/detail/fr/ip_20_273

[2] https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_fr

[3] https://ec.europa.eu/info/files/communication-european-strategy-data_fr

[4] https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_4.pdf

[5] https://ec.europa.eu/info/sites/info/files/communication-eu-industrial-strategy-march-2020_fr.pdf

[6] https://www.ilo.org/wcmsp5/groups/public/@ed_norm/@relconf/documents/meetingdocument/wcms_711695.pdf

[7] https://www.oecd.org/going-digital/ai/principles/  

[8] Pour l’instant, l’ancienne Convention 108" est toujours en vigueur. La Convention 108+ n’entrera en vigueur que lorsqu’elle aura été ratifiée par toutes les Parties au Traité STE 108, ou le 11 octobre 2023 s’il y a 38 Parties au Protocole à cette date. À l’heure actuelle (juin 2020), ce dernier est ratifié par la Bulgarie, la Croatie, la Lituanie, la Pologne et la Serbie.

[9] https://rm.coe.int/09000016805916c9

[10] Pour une information plus détaillée sur le travail du Conseil de l’Europe et de l’IA, voir aussi : https://www.coe.int/fr/web/artificial-intelligence/home

[11] https://www.coe.int/fr/web/artificial-intelligence/ai-and-control-of-covid-19-coronavirus

[12] Art. 8 CEDH https://www.echr.coe.int/Documents/Convention_FRA.pdf. Il est en outre précisé qu'il ne peut y avoir ingérence d'une autorité publique dans l'exercice de ce droit que pour autant que cette ingérence soit prévue par la loi et qu'elle soit nécessaire dans une société démocratique, dans l'intérêt de la sécurité nationale, de la sûreté publique ou du bien-être économique du pays, pour la défense de l'ordre et la prévention du crime, pour la protection de la santé ou de la morale, ou pour la protection des droits et libertés d'autrui.

[13] Art. 16 TUE https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:12012E/TXT

[14] Art. 8 CDFUE https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:12012P/TXT&from=FR

[15] https://fra.europa.eu/fr

[16] https://osha.europa.eu/en/safety-and-health-legislation/european-directives

[17] https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32016R0679&from=FR

[18] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[19] Règlement européen n° 910/2014/UE sur l’identification électronique et les services de confiance pour les transactions électroniques au sein du marché intérieur, dit règlement « eIDAS ».

[20] GUARASCIO, Francesco. (2017, 13 septembre) EU lost up to 5.4 billion euros in tax revenues from Google, Facebook: report. Reuters. Consulté sur : https://www.reuters.com/article/us-eu-tax-digital/eu-lost-up-to-5-4-billion-euros-in-tax-revenues-from-google-facebook-report-idUSKCN1BO226

[21] Voir l'article 191 du TFUE

[22] Recommandation CM/Rec(2020)1 du Comité des Ministres aux États membres sur les incidences des systèmes algorithmiques sur les droits de l'homme (adoptée par le Comité des Ministres le 8 avril 2020

lors de la 1373e réunion des Délégués des Ministres). Disponible à l'adresse suivante : https://search.coe.int/cm/pages/result_details.aspx?ObjectId=09000016809e1124

[23] CES (2020) Artificial Intelligence will it make bias against women worse? https://www.etuc.org/en/publication/artificial-intelligence-will-it-make-bias-against-women-worse

[24] How Amazon automatically tracks and fires warehouse workers for ‘productivity’. https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firing-terminations

[25] Par exemple, le livre blanc suggère que "compte tenu de son importance pour les individus et de l'acquis communautaire en matière d'égalité des chances dans l'emploi, l'utilisation d’applications d'IA dans les processus de recrutement et dans les situations ayant une incidence sur les droits des travailleurs serait toujours considérée comme "à haut risque". (...) L'utilisation d'applications d'IA à des fins d'identification biométrique à distance et d'autres technologies de surveillance intrusives serait toujours considérée comme "à haut risque" et les exigences ci-dessous s'appliqueraient donc à tout moment".

[26] EDRi (2020) Surveillance : Document Pool. https://edri.org/facial-recognition-document-pool/