Le blog

Intelligence artificielle au travail : quels nouveaux risques professionnels à anticiper ?

Personne utilisant un ordinateur portable avec interface d’intelligence artificielle au travail et analyse des risques professionnels.

Ce que vous apprendrez dans cet article :

R

Pourquoi l’intelligence artificielle modifie en profondeur vos conditions de travail et impose une mise à jour de votre évaluation des risques professionnels.

R

Quels risques psychosociaux, organisationnels et liés aux compétences peuvent émerger lors du déploiement d’outils d’IA.

R

Comment intégrer concrètement ces nouveaux risques dans votre DUERP, votre politique RPS et votre démarche QVCT.

R

Quelles actions mettre en place pour sécuriser vos équipes tout en accompagnant l’innovation technologique.

Vous déployez un outil d’intelligence artificielle pour optimiser vos processus, automatiser certaines tâches ou analyser vos données. Avez-vous évalué son impact sur la santé et la sécurité de vos équipes ?

Le Code du travail impose une obligation claire : toute modification importante des conditions de travail doit conduire à une mise à jour de l’évaluation des risques professionnels et du document unique (articles L4121-1 et R4121-2). L’introduction d’un outil d’IA ne constitue pas seulement une évolution technologique. Elle transforme l’organisation, les responsabilités et la charge mentale.

L’INRS rappelle qu’une transformation organisationnelle peut générer de nouveaux risques, notamment psychosociaux. La question n’est donc pas de savoir si l’intelligence artificielle améliore la performance. Elle est de savoir si votre démarche de prévention évolue au même rythme.

Quels nouveaux risques professionnels devez-vous anticiper ? Comment intégrer l’IA dans votre DUERP sans créer d’angle mort dans votre politique de prévention ? Vous allez découvrir des repères concrets pour structurer votre analyse.

L’IA transforme le travail plus vite que votre prévention ne s’adapte

L’intelligence artificielle ne constitue pas un simple outil informatique que vous ajoutez à votre organisation. Elle transforme la manière dont le travail se structure, se pilote et s’évalue. Lorsque vous automatisez une tâche ou que vous introduisez un algorithme d’aide à la décision, vous modifiez concrètement les conditions de travail.

L’automatisation partielle des fonctions support et opérationnelles déplace le centre de gravité des missions. Les tâches répétitives diminuent, mais les activités de contrôle, d’analyse et de supervision augmentent. Le travail devient plus cognitif. La vigilance doit rester constante. Cette évolution impacte directement l’évaluation des risques professionnels que vous formalisez dans votre document unique.

 Cela relève pleinement d’une démarche structurée comme celle développée dans notre formation DUERP (Document unique d’évaluation des risques professionnels). 

Le pilotage par indicateurs en temps réel renforce cette transformation. Vous suivez la performance en continu. Vous comparez les résultats, vous identifiez les écarts et vous ajustez vos objectifs. Cette logique de reporting permanent peut améliorer la productivité, mais elle peut aussi accroître la pression ressentie par les équipes. Ce type de situation entre directement dans le champ des risques psychosociaux. Ces enjeux sont approfondis dans nos formations sur les risques psychosociaux (RPS).

Les flux d’information s’intensifient également. Les outils génèrent des alertes, des recommandations et des données à interpréter. La charge mentale progresse, même si le volume de tâches manuelles diminue. Sans accompagnement managérial adapté, cette surcharge cognitive fragilise les collectifs de travail.

Prenons un exemple concret. Un manager RH utilise un outil prédictif pour analyser l’absentéisme. Il passe moins de temps sur le terrain et davantage de temps à interpréter des tableaux de bord. Son rôle évolue vers l’analyse de données. La distance avec les équipes peut s’accroître.

Dans un service client assisté par IA, les conseillers traitent plus de demandes par heure. Les réponses sont suggérées automatiquement. La cadence augmente. L’exigence de rapidité devient permanente.

Sur un poste opérationnel, un salarié valide ses décisions à partir d’un score algorithmique. Il reste juridiquement responsable, sans toujours maîtriser les critères utilisés par l’outil. Son autonomie diminue. Le doute s’installe.

Vous ne changez donc pas uniquement un système informatique. Vous transformez l’organisation du travail.

Or le Code du travail vous impose une obligation générale de sécurité (article L4121-1). Toute modification importante des conditions de travail doit entraîner une actualisation de l’évaluation des risques et du document unique (article R4121-2).

Si les conditions de travail évoluent, votre analyse des risques doit évoluer au même rythme. Et si les conditions changent, les risques changent.

Les nouveaux risques professionnels liés à l’IA : ce que vous devez intégrer dans votre DUERP

Les risques liés à l’intelligence artificielle ne sont pas d’abord technologiques.
Ils sont humains et organisationnels.

L’outil ne crée pas le danger en lui-même. C’est la manière dont vous l’intégrez dans l’organisation du travail qui génère des risques professionnels.

Les risques psychosociaux

L’introduction d’outils d’IA augmente souvent la charge cognitive. Les salariés doivent analyser des données, interpréter des recommandations et corriger des anomalies. La vigilance devient permanente.

La pression à la performance algorithmique s’installe également. Les indicateurs s’affichent en temps réel. Les comparaisons deviennent visibles. Le rythme s’accélère.

Le sentiment de surveillance peut émerger. Lorsque chaque action génère une donnée exploitable, certains salariés perçoivent un contrôle renforcé.

La perte de sens constitue un autre facteur de risque. Si l’algorithme oriente les décisions, le salarié peut avoir le sentiment que son expertise perd de la valeur.

Les enquêtes sur les conditions de travail montrent que la transformation numérique s’accompagne d’une intensification du travail pour une part significative des salariés (Dares, enquête Conditions de travail). Vous ne pouvez pas ignorer cette dynamique.

Prenons un cas concret. Un salarié doit corriger les erreurs générées par un outil d’IA dans un délai contraint. Il assume la responsabilité finale sans maîtriser totalement le fonctionnement de l’algorithme. La pression augmente. Le risque psychosocial devient réel.

Ces situations relèvent directement d’une démarche structurée de prévention des RPS. 

Les risques organisationnels

L’IA peut créer un flou dans la répartition des responsabilités. Lorsque la décision s’appuie sur un algorithme, qui porte réellement la responsabilité en cas d’erreur ?

Le salarié qui valide ?
Le manager qui supervise ?
La direction qui a choisi l’outil ?

Si vous ne clarifiez pas ces rôles, vous créez une zone d’incertitude organisationnelle.

Les décisions prises sur la base d’algorithmes non maîtrisés exposent également votre organisation à des biais ou à des erreurs difficiles à anticiper. Le manque de compréhension technique peut affaiblir la capacité de contrôle interne.

Certaines fonctions peuvent aussi se déqualifier partiellement. Lorsque l’outil réalise une partie de l’analyse, le salarié peut perdre progressivement certaines compétences clés.

Ces enjeux doivent apparaître dans votre évaluation des risques et dans votre document unique. Notre formation DUERP vous aide précisément à intégrer ces dimensions organisationnelles.

Les risques liés aux compétences

L’introduction de l’IA crée parfois un décalage entre les compétences existantes et les exigences des nouveaux outils.

Un salarié expérimenté maîtrise parfaitement son métier. Il ne maîtrise pas l’interface algorithmique ou l’analyse de données. Il peut ressentir un stress face à l’obsolescence perçue de ses compétences.

Cette situation peut accentuer une fracture numérique interne entre les salariés à l’aise avec les outils et ceux qui le sont moins. La cohésion d’équipe peut s’en trouver fragilisée.

Sans plan de développement des compétences adapté, le risque de perte de confiance et de démotivation augmente.

Former vos managers et structurer l’accompagnement du changement deviennent alors des leviers essentiels. 

Si vous déployez l’intelligence artificielle sans intégrer ces dimensions humaines et organisationnelles dans :

  • votre DUERP,
  • votre politique de prévention des RPS,
  • votre stratégie QVCT,

vous créez un angle mort dans votre démarche de prévention.

Anticiper ne signifie pas freiner l’innovation. Anticiper signifie structurer son déploiement pour sécuriser vos équipes et votre performance.

Comment anticiper concrètement ces risques dans votre organisation

Vous pouvez intégrer l’intelligence artificielle dans votre démarche de prévention sans alourdir votre organisation. À condition d’agir en amont et de structurer votre méthode.

L’objectif n’est pas de ralentir l’innovation. L’objectif est de sécuriser son déploiement.

Réévaluez les risques avant le déploiement

Avant d’installer un outil d’IA, réalisez une analyse d’impact organisationnelle. Identifiez les tâches modifiées, les responsabilités transférées et les indicateurs qui évolueront. Interrogez-vous sur la charge cognitive, l’autonomie et le rythme de travail.

Associez les représentants du personnel. Leur retour terrain vous permet d’anticiper des effets que vous ne percevez pas toujours au niveau stratégique. Cette consultation renforce également la qualité du dialogue social.

Identifiez précisément les postes impactés. Un outil d’aide à la décision ne concerne pas uniquement le service qui l’utilise. Il peut modifier l’équilibre d’autres fonctions en amont ou en aval.

Ces éléments doivent apparaître dans votre document unique d’évaluation des risques (DUERP). Notre formation DUERP vous aide à intégrer ces transformations organisationnelles de manière structurée. 

Formez vos managers

Le manager joue un rôle central dans cette phase de transition. Il devient régulateur.

Il doit détecter les signes de surcharge cognitive, repérer l’intensification du rythme et observer les tensions liées à la performance algorithmique. Il doit également clarifier les responsabilités lorsque la décision s’appuie sur un outil automatisé.

Surtout, il doit maintenir le lien humain. L’IA peut optimiser les données, mais elle ne remplace pas l’écoute ni l’arbitrage managérial. Former vos encadrants à ces enjeux renforce la prévention.

Intégrez l’IA dans votre politique QVCT

L’intelligence artificielle doit s’inscrire dans une logique d’équilibre entre performance et santé au travail. Vous devez articuler innovation technologique et qualité de vie et des conditions de travail.

La prévention primaire consiste à agir sur l’organisation avant que les difficultés n’apparaissent. Cela implique d’évaluer les impacts, d’ajuster les processus et de formaliser un dialogue social structuré.

Intégrer l’IA dans votre stratégie QVCT vous permet de traiter ces enjeux dans une vision globale. Notre formation Manager la démarche QVCT et prévenir les RPSvous accompagne dans cette structuration.

L’intelligence artificielle ne crée pas de risques totalement nouveaux. Elle accélère et amplifie ceux qui existent déjà dans votre organisation.

Votre rôle n’est pas de freiner l’innovation.
Votre responsabilité consiste à sécuriser les conditions de travail.

En intégrant l’IA dans votre DUERP, votre politique RPS et votre stratégie QVCT, vous transformez une contrainte potentielle en levier de prévention durable.

 

Faire de l’IA un levier de prévention, pas un risque supplémentaire

L’intelligence artificielle ne constitue pas un simple projet technologique. Elle transforme vos conditions de travail, redéfinit les responsabilités et modifie la charge mentale de vos équipes.

Vous l’avez vu dans la première partie : dès que vous automatisez une tâche ou que vous introduisez un pilotage par indicateurs en temps réel, vous modifiez l’organisation du travail. Or toute modification significative impose une réévaluation des risques professionnels et une mise à jour de votre DUERP.

Dans la deuxième partie, nous avons identifié les risques à intégrer dans votre analyse : risques psychosociaux liés à la surcharge cognitive et à la pression algorithmique, risques organisationnels liés au flou des responsabilités, risques liés aux compétences et à la fracture numérique interne. Ces risques ne sont pas théoriques. Ils apparaissent dès que l’outil change les équilibres.

Enfin, nous avons vu que vous pouvez anticiper ces effets sans complexifier votre organisation. Une analyse d’impact en amont, des managers formés, une articulation claire avec votre politique QVCT permettent de sécuriser le déploiement.

L’IA n’est ni un danger en soi ni une solution miracle. Elle agit comme un accélérateur. Elle amplifie les forces et les fragilités déjà présentes dans votre organisation.

La vraie question n’est donc pas : « Faut-il déployer l’intelligence artificielle ? »
La vraie question est : « Votre démarche de prévention évolue-t-elle au même rythme que votre transformation ? »

Si vous engagez ou envisagez un projet d’IA, prenez le temps d’évaluer son impact sur vos conditions de travail. Formez vos managers. Actualisez votre DUERP. Structurez votre démarche.

Nos équipes peuvent vous accompagner à travers nos formations dédiées au DUERP, aux RPS, au management et à la QVCT. Contactez-nous pour sécuriser votre démarche de prévention et transformer l’innovation technologique en levier durable de performance et de santé au travail.

FAQ – Intelligence artificielle au travail et risques professionnels

L’intelligence artificielle doit-elle être intégrée dans le DUERP ?

Oui, si son déploiement modifie les conditions de travail.
Le Code du travail (article R4121-2) impose une mise à jour du document unique en cas de changement organisationnel important. L’introduction d’un outil d’IA peut impacter la charge mentale, les responsabilités ou le rythme de travail. Vous devez donc réévaluer les risques professionnels et formaliser cette analyse dans votre DUERP.

Quels sont les principaux risques professionnels liés à l’intelligence artificielle ?

Les risques sont principalement humains et organisationnels. Ils incluent la surcharge cognitive, la pression liée aux indicateurs en temps réel, le flou des responsabilités, la perte d’autonomie décisionnelle et les écarts de compétences face aux outils numériques. Ces facteurs peuvent générer des risques psychosociaux s’ils ne sont pas anticipés.

L’IA augmente-t-elle les risques psychosociaux ?

Elle peut les amplifier. L’IA intensifie souvent les flux d’information et le pilotage par la performance. Si vous ne régulez pas ces effets, vous augmentez la pression perçue, le stress décisionnel et le sentiment de surveillance. La prévention des RPS devient alors un enjeu stratégique.

Qui est responsable en cas d’erreur d’un outil d’intelligence artificielle ?

L’employeur reste responsable de la santé et de la sécurité des salariés (article L4121-1 du Code du travail). Même si un algorithme oriente une décision, la responsabilité juridique ne disparaît pas. Vous devez clarifier les rôles et encadrer l’usage des outils pour éviter tout flou organisationnel.

Comment anticiper les risques liés à l’intelligence artificielle ?

Commencez par une analyse d’impact organisationnelle avant le déploiement. Identifiez les postes concernés, consultez les représentants du personnel et formez vos managers à la régulation des nouvelles charges de travail. Intégrez ensuite ces éléments dans votre DUERP, votre politique RPS et votre démarche QVCT. Anticiper signifie structurer, pas freiner l’innovation.

Plus d’articles :