L'algorithme est-il plus juste que le manager ? Le pari de l'équité

22 Décembre 2025

L'algorithme est-il plus juste que le manager ? Le pari de l'équité

L'équité et la diversité sont des objectifs affichés par la quasi-totalité des grandes organisations. Pourtant, sur le terrain, les progrès sont lents. Les promotions internes et les affectations continuent souvent de favoriser les mêmes profils.

Pourquoi cet écart entre l'intention et la réalité ? La réponse réside moins dans une mauvaise volonté que dans les raccourcis cognitifs du cerveau humain.

Paradoxalement, la technologie pourrait être le meilleur moyen de réintroduire de l'équité. Mais soyons clairs : l'algorithme ne rend pas la décision morale. Il rend la présélection plus cohérente et traçable. En déléguant le tri à un moteur de règles, l'organisation se protège contre ses propres réflexes inconscients.

Le problème : Le biais d'affinité

Le principal ennemi de la diversité est le biais d'affinité. Face à un choix, un manager aura naturellement tendance à privilégier une personne avec qui le courant passe bien ou qui partage les mêmes codes.

Ce réflexe minimise le risque perçu mais a deux conséquences :

  1. L'homogénéité : Recruter des clones appauvrit la créativité du groupe.

  2. L'invisibilisation : Des profils compétents mais atypiques passent sous le radar.

L'atout de la machine : Le filtrage sur critères

Un algorithme de matching est un moteur de règles strictes. Il possède une qualité que l'être humain n'a pas : il ne se laisse pas distraire par le bruit.

Si l'algorithme est paramétré pour matcher sur trois critères (compétence technique, disponibilité, appétence pour le risque), il ne prendra en compte que ces trois critères. Il peut être configuré pour ignorer le genre, l'âge ou le charisme.

Un exemple pédagogique :

Sur 40 profils éligibles pour un projet, un manager en shortlist 5 par réflexe (son réseau proche). Le moteur en propose 10 basés sur la grille, dont 4 profils "invisibles" mais parfaitement alignés.

La nuance critique : Attention aux proxies

Cependant, dire que l'algorithme est "aveugle" ne suffit pas. Il faut se méfier des variables proxy — des données qui trahissent indirectement une caractéristique protégée (ex: un code postal qui indique l'origine sociale, ou un trou dans le CV).

L'équité ne vient pas de la machine elle-même, mais de la vigilance dans la définition des critères. L'outil agit comme un miroir : il oblige les décideurs à expliciter ce qu'ils cherchent vraiment.

4 Garde-fous concrets

Pour que l'algorithme reste un outil d'équité, quatre verrous opérationnels sont nécessaires :

  1. Critères explicites : Définir une liste de critères autorisés et une liste de critères exclus.

  2. Audit régulier : Vérifier si la sortie exclut systématiquement une population donnée (par taux de sélection à compétences égales).

  3. Recours documenté : Quand un humain écarte une recommandation algorithmique, il doit noter la raison. Cela responsabilise et rend le biais détectable.

  4. Test historique : Tester les règles sur des données passées pour voir si elles reproduisent l'histoire ou la corrigent.

Conclusion

L'algorithme n'a pas vocation à remplacer le manager dans la décision finale. Le choix humain reste indispensable pour valider la nuance et le contexte.

Cependant, utiliser un moteur de matching pour la phase de présélection permet de nettoyer le processus des biais cognitifs les plus courants. L'outil agit comme un filtre neutre. Il garantit que tout le monde a été évalué sur la même grille, offrant une chance égale aux profils atypiques de remonter à la surface.

Ne laissez plus le hasard former vos groupes.

Formation, recrutement ou gestion de projet : Harmate transforme les réponses individuelles en collectifs performants pour révéler les vraies synergies.

Découvrir Harmate