Pourquoi les RH doivent devenir la boussole morale à l’ère de l’IA
« Nous devons faire quelque chose avec l’IA. »
Vous avez probablement entendu cette phrase un peu trop souvent cette année.
Les outils se déploient, les pilotes se lancent, les tableaux de bord se connectent.
Mais une question reste souvent dans l’ombre :
Que fait réellement l’IA aux personnes, au travail et à la dignité humaine ?
Lors d’une conversation avec Gunter Loos, consultant chez Beanmachine, à la croisée de la technologie, de l’anthropologie et de l’éthique – une chose apparaît très vite : le vrai risque n’est pas que l’IA devienne trop intelligente.
Le vrai risque est que nous devenions trop dociles.
De l’expert… au simple validateur
Gunter utilise un terme qui marque : le rubber stamping, valider sans réfléchir.
Pensez aux professionnels disposant d’une véritable expertise et d’un pouvoir de décision : recruteurs, gestionnaires de dossiers, risk officers, médecins, planificateurs, HR business partners…
Aujourd’hui, ils décident sur base de connaissances, d’expérience et d’intuition.
Avec l’IA, une couche supplémentaire s’ajoute :
- Un modèle est entraîné sur des données historiques.
- Le système génère une recommandation ou une décision.
- L’humain est invité à « valider ».
C’est là que les choses dérapent.
La vérification devient une formalité. « Cela doit sûrement être correct, le système fonctionne toujours bien. »
On tamponne, on passe à la suite.
Conséquences :
- Les erreurs du système sont validées et renforcées.
- Le rôle de l’humain se réduit : de professionnel pensant à simple relais.
- La pensée critique s’estompe : pourquoi questionner « la machine » si elle semble toujours avoir raison ?
Pour des organisations affirmant que les personnes sont leur principal atout, c’est une forme de sabotage silencieux.
Un humain dans la boucle… mais réellement utile
On entend souvent : « Pas d’inquiétude, l’humain restera dans la boucle. »
Mais la vraie question n’est pas s’il reste dans le processus.
La vraie question est : a-t-il encore un rôle réel ?
Un humain dans la boucle n’a de sens que s’il peut :
- ajouter du contexte que le système ne connaît pas
- voir des signaux faibles ou des exceptions
- avoir le mandat de dire non
- et porter la responsabilité du jugement final
Cela demande bien plus qu’une case à cocher :
cela exige un design intentionnel et de la formation.
La pensée critique comme mécanisme de sécurité
Dans beaucoup d’organisations, la pensée critique reste un « soft skill ».
Dans un monde où l’IA prend part aux décisions, elle devient un mécanisme de sécurité.
Gunter pose trois questions simples mais puissantes que tout professionnel devrait intégrer :
- D’où vient cette réponse ?
Quelles données, quelles hypothèses, quel contexte sous-tendent cette sortie ? Est-elle basée sur notre réalité ou un modèle générique du monde ? - Que manque-t-il si je suis cela aveuglément ?
Qui ou quoi disparaît du champ de vision ? Quels risques ne vois-je plus ? - Quel jugement humain reste nécessaire ?
Cette décision touche-t-elle uniquement l’efficacité, ou aussi la dignité, la confiance, l’inclusion, la sécurité ?
Quelle part doit absolument rester humaine, et qui en porte la responsabilité ?
Ce ne sont pas des détails philosophiques.
Ce sont les garde-fous qui empêchent l’IA de devenir la norme tandis que l’humain devient la note de bas de page.
Le rôle des RH : bien plus qu’un catalogue de formations
Ce sujet pose une question frontale aux équipes RH :
Quel est votre rôle dans tout cela ?
Selon Gunter, au moins trois responsabilités :
1. Être à la table de conception
Lorsque l’IA est intégrée dans des processus clés (recrutement, promotion, performance, risque, planification), les RH doivent être présentes dès le début.
Pas seulement pour demander « Comment aller plus vite ? », mais pour poser :
- Quel rôle reste pour l’humain ?
- Les personnes deviennent-elles silencieusement des validateurs ?
- Qu’est-ce que cela fait à la motivation, à l’autonomie, au développement ?
2. Ne pas déployer que des outils, mais aussi des compétences
Expliquer comment fonctionne un outil IA est une chose.
Apprendre aux personnes comment s’y positionner, c’en est une autre.
Cela implique :
- Former structurellement la pensée critique.
- Aider les équipes à questionner les outputs plutôt qu’à les avaler.
- Créer un espace où l’on peut exprimer des doutes sans être catalogué « anti-innovation ».
3. Comprendre où vit l’IA dans l’organisation
Les RH ne doivent pas devenir data scientists.
Mais elles doivent savoir :
- où l’IA est utilisée
- qui elle impacte
- où le pouvoir décisionnel glisse du côté du système
- et où la dignité ou le sens risquent de s’éroder
Sans cette vue d’ensemble, difficile de parler de « people-centric organizations ».
La question plus profonde : que fait l’IA à l’âme du travail ?
L’IA ne touche pas seulement l’efficacité.
Elle interroge une question fondamentale : pourquoi travaillons-nous ?
Si les tâches se déplacent vers la technologie, alors surgissent des questions inévitables :
- Que reste-t-il à faire pour les humains ?
- Voulons-nous des métiers où l’on « appuie sur des boutons » pendant que l’IA fait les parties intéressantes ?
- Ou souhaitons-nous conserver des espaces où jugement, imagination, émotions et valeurs ont encore leur place ?
Beaucoup d’organisations inversent la logique : business case d’abord, morale ensuite (si on y arrive).
Gunter propose l’inverse :
Commencez par l’humain et la morale. Ensuite seulement parlez budget et efficacité.
L’IA appartient au deuxième volet.
Elle ne doit jamais effacer le premier.
De la hype aux vrais choix
Concrètement, par où commencer ?
- Clarifiez votre boussole
Décidez ce que vous ferez avec l’IA – et ce que vous ne ferez pas. - Préparez les personnes à une accélération permanente
Ce n’est pas une mode. C’est une transformation durable. - Créez des garde-fous critiques
Dans les processus et dans la culture : peut-on encore dire « Je ne fais pas entièrement confiance à ce résultat » ?
Et pour le leadership ?
Le leadership à l’ère de l’IA va bien au-delà du change management ou de l’adoption d’outils.
Les leaders doivent :
- avoir des conversations honnêtes sur l’identité du travail
- nommer la tension entre vitesse et prudence
- et définir – avec les RH – quelles décisions ne seront jamais automatisées
Cela demande du courage.
Et une autre conversation que : « Avons-nous le budget pour cet outil ? »
Et maintenant ?
Chez Beanmachine, nous accompagnons des organisations sur toutes ces questions – dans des trajets de leadership, des programmes culturels et notre formation AI & Critical Thinking.
Dans cette formation, nous aidons les équipes et les leaders à :
- voir l’IA non comme un oracle, mais comme un outil qui exige jugement humain et limites claires
- affûter leur pensée et challenger la sortie plutôt que de la valider
- dépasser la hype, questionner leurs propres biais et repérer ceux du système
- traduire tout cela en habitudes concrètes du quotidien
Concrètement, vous y trouverez :
- Une exploration pratique du fonctionnement réel de l’IA, et de ses angles morts
- Des compétences de pensée critique au-delà du « prompt engineering »
- Un modèle simple pour évaluer et ajuster input et output
- Cinq habitudes intelligentes pour utiliser l’IA avec confiance, curiosité et discernement, sans éteindre son propre cerveau
Envie d’aller plus loin ?
Nous publions l’entretien complet avec Gunter dans notre Beanzine.
Et si vous souhaitez explorer ce que cela signifie pour votre organisation, nous serons ravis d’en discuter avec vous.





