Le Parlement européen a approuvé aujourd'hui la loi sur l'intelligence artificielle.
La loi sur l'intelligence artificielle proposée par la Commission européenne exigeait seulement que les fabricants classent leur propre technologie entre risque faible et risque élevé avant de la mettre sur le marché et n'incluait aucune règle sur l'utilisation de l'IA sur le lieu de travail.
La CES salue les améliorations importantes apportées par les forces progressistes du Parlement européen, notamment :
- l'obligation de consulter les travailleurs et leurs syndicats avant d'introduire l'IA sur le lieu de travail
- L'obligation de procéder à une évaluation de l'impact de l'introduction de l'IA sur les droits fondamentaux
- une clause d'ouverture permettant aux législateurs nationaux de limiter l'utilisation des systèmes d'IA afin de protéger les droits des travailleurs.
Selon un récent rapport de l'OCDE, les travailleurs sont plus susceptibles de faire état d'impacts positifs de l'IA s'il y a eu un processus de consultation par l'intermédiaire de leurs syndicats.
Néanmoins, la CES estime que le Parlement n'a pas réussi à combler une lacune qui met en péril la sécurité et les droits fondamentaux des travailleurs. En vertu de l'article 6 du rapport, l'utilisation de l'IA sur le lieu de travail ne sera restreinte que si elle présente un "risque significatif". Cela n'est pas conforme au principe de précaution. Cette charge supplémentaire pour les travailleurs n'est pas acceptable et expose leur sécurité et leurs droits à des abus. *Voir notes.
La CES est également préoccupée par le fait que l'utilisation de l'IA affectant les droits fondamentaux des personnes relèvera du processus de normalisation, qui est mené par des intérêts commerciaux privés et un lobby important, plutôt que du processus démocratique d'élaboration de la législation. En outre, le rapport appelle à une représentation équilibrée des intérêts, mais ne contient pas les mesures nécessaires pour garantir que cela sera une réalité.
Il appartient maintenant au Parlement de défendre les améliorations lors des négociations avec le Conseil sur le texte final. Cependant, les lacunes dans les positions du Parlement et du Conseil soulignent la nécessité de protéger les droits des travailleurs par le biais d'une directive spécifique sur l'IA sur le lieu de travail.
La secrétaire générale adjointe de la Confédération européenne des syndicats, Isabelle Schömann, a déclaré :
"Aujourd'hui, il s'agit d'une nouvelle étape clé pour garantir que l'intelligence artificielle soit réglementée afin de mieux protéger les utilisateurs, conformément aux valeurs européennes et dans le respect des droits de l'homme.
Le Parlement a apporté d'importantes améliorations, qui doivent être maintenues lors des négociations en trilogue, tandis que l'introduction d'un "risque significatif" doit être supprimée.
L'IA au travail doit être bénéfique pour les travailleurs autant que pour les entreprises : c'est la raison pour laquelle une nouvelle directive spécifique est nécessaire pour garantir que le principe de "l'humain aux commandes" soit mis en pratique sur les lieux de travail européens, en consultation avec les travailleurs par l'intermédiaire de leurs syndicats, et pour garantir les droits et la protection des travailleurs".
Notes
*La restriction selon laquelle seules les demandes d'IA de l'annexe III qui présentent un risque "significatif" d'atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques sont classées comme étant à haut risque constitue une lacune majeure dans le texte convenu. Cela inclurait, en particulier, les applications sur le lieu de travail. Dans la pratique, il est pratiquement impossible d'y parvenir ex ante. Les fournisseurs indiqueront généralement que leurs applications peuvent présenter des risques pour les travailleurs, mais les classeront comme non significatifs. La procédure de notification prévue à l'article 6, paragraphe 3, n'est pas en mesure d'empêcher cela et ne conduit qu'à un forum shopping du régime de contrôle le plus faible. En outre, cela n'est pas conforme au principe de précaution