Quelles sont les balises d’une utilisation éthique de l’IA au travail ? Reviewed by Philippe Jean Poirier on . Crédit : Sandrine Théard 6 novembre 2025 Lors de Trumontreal 2025, la consultante en éthique et conformité Sophie Gagnon a animé une discussion fort intéressant Crédit : Sandrine Théard 6 novembre 2025 Lors de Trumontreal 2025, la consultante en éthique et conformité Sophie Gagnon a animé une discussion fort intéressant Rating: 0

Quelles sont les balises d’une utilisation éthique de l’IA au travail ?

Par

Crédit : Sandrine Théard

6 novembre 2025

Lors de Trumontreal 2025, la consultante en éthique et conformité Sophie Gagnon a animé une discussion fort intéressante («IA et éthique») qui a permis de mettre en lumière les limites d’un usage responsable de l’IA. Voici les faits saillants.

Pour ouvrir la discussion, la consultante a rappelé l’importance de se questionner maintenant plutôt que lorsque le cadre règlementaire se resserrera autour de l’IA.

Si on ne veut pas être forcé de faire marche arrière quand les règles seront mises en place, il faut commencer dès maintenant à réfléchir à notre utilisation. Je n’ai pas de boule de cristal, mais ce qu’on voit venir, c’est que les entreprises devront répondre aux questions suivantes : montrez-moi ce que vous faites pour assurer la sécurité, montrez-moi ce que vous faites pour assurer la transparence, montrez-moi ce que vous faites pour éviter les biais, être équitable, etc. »

Ultimement, les entreprises devront démontrer qu’elles sont en contrôle de leur utilisation et de leur développement de l’IA. La question qui surgit alors est : peut-on faire confiance à l’IA? Et dans quelles circonstances ?

Les réponses des participants étaient fort intéressantes. Un recruteur a fait valoir que plusieurs salariés ne comprennent pas la nature probabiliste et non déterministe des réponses apportées par l’IA – et donc, ces personnes ne sont pas en mesure d’évaluer les réponses obtenues.

Un autre recruteur s’est demandé s’il fallait absolument comprendre comment chaque partie d’un moteur à combustion fonctionne pour pouvoir conduire une voiture de manière sécuritaire…   

C’est un outil qui peut potentiellement penser à notre place, a rappelé la consultante. On demande à quelque chose de mécanique d’avoir une fonction qui était jusqu’à maintenant propre à l’humain. »

Ultimement, on va devoir regarder comment les modèles se comportent et utiliser notre pensée critique », a résumé une autre personne.

Le problème, a souligné une recruteuse, est que la pensée critique se forge souvent avec l’expérience. Et donc, les employés juniors n’auront peut-être pas le recul ou le savoir-faire pour bien comprendre et contextualiser une réponse que leur apporte l’IA générative.

5 clés pour une IA responsable

Au fil de la discussion, quelques principes de base ont émergé pour encadrer l’utilisation de l’IA :

  • La littératie : est-ce qu’on comprend comment les modèles fonctionnent grossièrement ?
  • L’intentionnalité : est-ce qu’on a réfléchi à ce qu’on essaie d’accomplir avec l’IA, plutôt que de lui confier tous nos problèmes ?
  • L’explicabilité : est-ce qu’on comprend les critères qui sont utilisés pour générer des résultats ou prendre des décisions ?
  • La transparence : est-ce qu’on informe les candidats quand l’IA est utilisé dans le processus de sélection ?
  • L’imputabilité : est-ce qu’on a mis en place des règles de gouvernance claires pour identifier qui porte la responsabilité de ce qui est produit par l’IA ?

Sur l’aspect de la transparence, un recruteur a rappelé que l’Ontario avait déjà adopté un règlement pour obliger les entreprises à divulguer le recours à l’IA dans le processus d’embauche d’un candidat. On peut s’attendre à ce qu’une telle pratique devienne éventuellement la norme au Québec également.




Retour en haut de la page