L'intelligence artificielle (IA) va transformer l’approche de santé et la sécurité au travail. Elle permet d'anticiper les dangers, collecter et analyser des volumes considérables de données en temps réel. Mais son intégration soulève des questions essentielles. Comment l'utiliser sans compromettre la protection des données, l'éthique ou l'acceptation des salariés ? Voici les 4 points clés à surveiller.
1. Respecter le cadre réglementaire
En Europe, l'IA doit se conformer aux règles (RGPD) sur l'utilisation des données personnelles.
- Transparence : Expliquer comment les données sont collectées et utilisées.
- Consentement : Les salariés doivent donner leur accord pour toute collecte d'informations les concernant.
- Contrôle : Les algorithmes ne doivent pas prendre de décisions automatisées. Une vérification par des experts est essentielle pour éviter des faits erronés ou des conclusions illogiques. On parle d’hallucinations de l’IA.
2. Éviter la surveillance excessive
L'IA permet d'analyser les comportements sur le lieu de travail et d'identifier les situations dangereuses. Mais attention à ne pas tomber dans le contrôle excessif.
Il s’agit d’améliorer la sécurité et non pas de surveiller les salariés en permanence. Une surveillance intrusive peut générer du stress et nuire à l'engagement des travailleurs
Une étude de l'Institut Montaigne (2022) montre que 62 % des salariés sont réticents à l'utilisation d'outils d'IA s'ils sont perçus comme des outils de contrôle.
3. Former et accompagner les salariés
L'IA modifie les pratiques et habitudes professionnelles (ex : apparition automatique de signaux lumineux en cas de risque de choc…). Il est essentiel de préparer les équipes.
- Dialogue : Impliquer les salariés (CSE…) dans le processus de mise en place.
- Formation : Expliquer le fonctionnement des équipements/logiciels utilisant l'IA et les bénéfices attendus
- Adoption progressive : Tester l'IA sur des cas concrets avant de le déployer
4. Mesurer l'impact et ajuster
L'efficacité de l'IA doit être évaluée régulièrement par rapport à l’objectif fixé.
- Evolution des indicateurs clés : TF, TG, incidents évités, ressenti des salariés (causeries…)
- Feedback continu : Ajuster les paramètres de l'IA en fonction des résultats et des retours terrain (ex : la zone surveillée n’indique pas de dangers potentiels). Quantifier le non-respect du port EPI sur une plateforme logistique peut s’avérer intéressant et après ? Fondamentalement la question à se poser est pourquoi les règles ne sont pas appliquées… AFORMA CONSEIL est présent pour vous accompagner.
Pour une IA éthique et utile
L'intelligence artificielle est un outil puissant pour la santé et la sécurité au travail. Mais son succès repose sur une approche raisonnée, respectueuse des règles et des travailleurs.
Auteur : Eric Marin, AFORMA CONSEIL.