Édition #72

Décembre 2025

L’ascension fulgurante de l’IA annonce des changements rapides au sein des organisations. Cette nouvelle technologie propose entre autres des façons plus efficaces de s’attaquer aux tâches du quotidien. Dans un environnement de travail qui évolue à un rythme accéléré, une question revient constamment : quelle est la place de l’humain devant la montée de l’IA ?

En tant que gestionnaire, plusieurs défis émergent au sein de l’organisation, notamment l’incorporation de ces nouvelles technologies dans l’environnement de travail. D’abord, il faut faire face aux nombreuses questions éthiques et sociales qui sont souvent soulevées lorsque l’on parle de l’implantation de l’IA. Puis, on doit mettre en place des formations pour adapter le flux de travail des employés aux méthodes de demain. Chose certaine, la place de l’humain est plus que jamais valorisée.

C’est dans cette perspective que nous abordons ce dossier en misant sur l’intelligence humaine à l’aune de l’IA. Si l’outil apporte certains avantages et pose des défis, il n’en demeure pas moins que la force de toute organisation réside dans le talent, la créativité et la valeur ajoutée de l’humain.

Les défis éthiques de l’implantation de l’IA

À l’heure actuelle, il est difficile de discuter d’intelligence artificielle sans que des questions éthiques s’infiltrent dans la conversation. En effet, plusieurs défis sont au cœur des discussions sur le sujet, particulièrement lorsqu’il est transposé dans un contexte professionnel.

Parmi ces enjeux, l’Institute of Business Ethics mettait en lumière, dans un sondage réalisé en 2024, deux préoccupations fondamentales liées à l’utilisation de l’IA dans le monde du travail.

Selon ce sondage mené auprès de 12 000 adultes sur le marché du travail dans 16 pays, 48 % étaient préoccupés par l’usage abusif de l’intelligence artificielle pouvant créer des situations peu éthiques au travail. En outre, 46 % des répondants s’inquiétaient de la possibilité que cette technologie remplace l’humain[1].

Alors, si près de la moitié des répondants soulèvent ces questions, il est évident qu’elles doivent être adressées de manière prompte et efficace par les gestionnaires soucieux de créer un environnement de travail sain.

L’enjeu des biais algorithmiques

Puisque l’intelligence artificielle est un outil de compilation incomparable, il est susceptible d’offrir un maximum de rendement que si on lui fournit une grande quantité de données. Cependant, lorsqu’on monte une base de données, la prudence est de mise. L’idée est de présenter des données probantes et pertinentes aux tâches que l’outil effectuera. On veut éviter ainsi de créer des biais algorithmiques.

En bref, un biais algorithmique est toute situation où un algorithme d’apprentissage automatique produit des résultats injustes ou discriminatoires. Dans ces situations, une organisation qui utilise un algorithme biaisé pour prendre une décision s’expose à des risques multiples[1]. L’utilisation de l’IA n’est pas une excuse valide pour l’application de décisions discriminatoires.

Ces biais peuvent affecter à peu près tous les domaines où l’IA est utilisée comme outil d’automatisation. Dans le secteur bancaire, par exemple, plusieurs cas ont déjà été signalés.

En effet, l’une des principales utilisations de l’IA dans le secteur bancaire se situe au niveau de la notation financière. Puisque l’IA compile et résume rapidement les informations, il est utile pour accélérer et automatiser l’évaluation des nombreux critères pris en compte dans cette notation.

Malheureusement, certains systèmes IA sont implémentés et entraînés sur des données historiques sans être programmés pour prendre en compte le contexte sociohistorique. Concrètement, cela veut dire que ces systèmes sont prompts à discriminer certains groupes plus défavorisés, créant ainsi un accès inégal à certains services financiers[2].

Évidemment, ce genre de discrimination n’est pas louable et ceux qui désirent mettre en place l’IA dans leur environnement de travail doivent l’éviter. Avant de faire le saut vers l’IA, il est donc important de s’assurer que la conception d’un outil soit adaptée à la tâche.

Subséquemment, il faut mettre en place un système de révision et de mises à jour afin de s’assurer qu’il ne génère pas des résultats contenant un préjugé. Ainsi, même dans un

environnement automatisé, il est important d’assurer une supervision humaine et continue des produits de l’IA.

Bref, face à la montée de l’IA, il importe d’en contrôler l’usage et de miser sur les atouts de l’humain pour réduire la portée des biais algorithmiques, par exemple. Après tout, on ne souhaite pas un outil complètement autonome, mais bien un outil qui soit façonné par l’humain pour exécuter certaines tâches du quotidien avec un substrat d’efficacité.

Garantir la confidentialité : l’IA et les données personnelles

L’IA ne peut fonctionner sans données. C’est cette idée qu’explique Anne-Sophie Hulin de la Chaire Abeona-ENS-OBVIA Justice sociale et intelligence artificielle en 2022 et 2023 lorsqu’elle écrit :

« Il est aujourd’hui impensable de parler d’intelligence artificielle sans parler de données, et bien souvent de données personnelles. Parce que, justement, il y a cet effet d’entraînement de l’intelligence artificielle grâce à nos données[1]. »

Un outil d’IA qui a accès aux données personnelles des individus pourra sans doute mieux guider la prise de décision en prenant en compte plus d’informations, mais cet avantage soulève par le fait même plusieurs questions d’une réelle importance.

Bref, l’IA demeure un outil auquel on peut donner une réelle portée au sein d’une organisation. Cette portée peut certainement améliorer l’efficacité tant recherchée, mais il importe de la considérer également comme un risque au niveau de la vie privée des personnes concernées.

L’importance de l’approche humaine

Si l’intelligence artificielle excelle à trouver et à résumer des informations rapidement, elle ne possède tout simplement pas le côté humain nécessaire pour un environnement de travail sain ainsi que pour la valorisation des interactions entre les employés et les clients.

En effet, comme on le découvre dans le cas des biais algorithmiques, l’IA porte des jugements entièrement fondés sur sa programmation et les informations qu’elle possède, qui peuvent toutes deux se révéler fautives, à certains égards.

Selon Joseph Fuller, professeur de gestion à Harvard, l’humain devra toujours être là pour faire preuve d’empathie et exercer un bon jugement face aux données générées par l’IA[1].

Pour illustrer davantage ce besoin de l’humain dans les procédures guidées par l’IA, il suffit de se tourner vers les statistiques. En effet, selon une étude de NETendances, publiée en 2024, on révèle que, parmi les adultes sondés qui utilisaient peu ou pas l’IA, 44 % des répondants privilégiaient les interactions humaines, tandis que 24 % déclaraient être concernés par les enjeux éthiques[2].

Ainsi, on constate que le côté humain dans le monde professionnel est un enjeu crucial face à l’essor des technologies IA. Il faut utiliser à bon escient ces outils, tout en s’assurant de ne pas sacrifier l’empathie nécessaire ou encore le rôle de conseiller.

Devant cette implantation croissante de l’IA en milieu professionnel, l’humain a un rôle clé à jouer. S’il peut gagner en efficacité avec cet outil, il sera désormais possible pour lui de s’adonner à des tâches à valeur ajoutée.

Au sein de l’organisation, l’humain est appelé à jouer un rôle plus stratégique, à s’adonner à des rapports qui ont un impact réel sur la qualité des interactions entretenues avec les collègues, mais aussi avec les clients. Il lui sera possible d’approfondir ses relations, d’aller plus loin, de recueillir de nouvelles informations et de pouvoir les utiliser en vue d’offrir davantage à son organisation. Désormais, l’humain reprend sa place en peaufinant ses stratégies, en proposant de nouvelles avenues, en mettant sur pied de nouvelles activités, etc.

L’humain occupera une place centrale pour améliorer les processus, rendre plus fluide la prise de décision et orienter les choix en lien avec la mission et les valeurs véhiculées.

Des actions porteuses de sens donneront une plus grande latitude à l’humain pour jouer pleinement son rôle et remplir ses nouvelles responsabilités. Plus que jamais, les outils à sa disposition le sortiront de sa routine pour l’amener à s’intéresser au comment et au pourquoi des activités organisationnelles et à proposer des solutions d’amélioration.

Précurseur du changement, l’humain reprend une place plus « noble » au sein de l’organisation qui se veut toujours plus innovante.

Par ailleurs, en tant que gestionnaire, il est essentiel de faire preuve d’ouverture et de transparence tout en cultivant un environnement qui prône la stabilité et l’honnêteté intellectuelle[1].

Face à une technologie aux ramifications qui peuvent sembler incertaines, il est essentiel de faire preuve d’humanité auprès des équipes de travail. Le leadership d’influence qui vise à présenter un côté plus empathique demeure plus que jamais approprié dans ce nouveau contexte.

En restant ouverts et prêts à la communication, les gestionnaires démontrent à leurs employés et à leurs pairs qu’ils comprennent que l’IA n’est en fait qu’un nouvel outil dans le paysage organisationnel.

Formation et développement : la gestion dans un nouvel environnement

Le domaine de la gestion est en constante évolution. Il faut toujours être prêt à s’adapter à de nouvelles informations, à de nouvelles approches et, bien sûr, à de nouvelles technologies.

Bien que l’IA puisse sembler représenter un saut important, il s’agit en fait d’un changement qui doit être entrepris une étape à la fois. Si pour certains il peut être excitant d’utiliser ces nouveaux outils, il est essentiel de bien les comprendre et d’offrir des formations adéquates aux employés qui les utiliseront.

Dans ce contexte, des stratégies et des plans d’accompagnement émergent, qui s’inscrivent dans les processus d’apprentissage continu déjà existants, tout en s’intéressant cette fois aux outils de l’IA. L’automatisation de certains rôles passe nécessairement par la mise sur pied de leviers concrets pour faciliter l’intégration des nouveaux outils numériques.

S’adapter à un marché qui évolue rapidement

L’équipe de recherche de Goldman Sachs estime qu’une fois bien implémentée sur le marché du travail, l’intelligence artificielle augmentera de 15 % la productivité du travail aux États-Unis et dans les autres marchés développés de la planète.

Alors que les organisations innovent pour incorporer l’IA, elles devront aussi s’adapter à un marché où les nouvelles demandes sont nombreuses.

Dans une étude de marché commandée par IBM, il est indiqué qu’environ 41 % des entreprises répondantes ont cité le manque de compétences en IA comme l’obstacle principal à l’adoption de cette nouvelle technologie[2].

Alors, il est plus important que jamais de s’assurer que les équipes soient prêtes à une implémentation de cette technologie. Il peut être nécessaire de créer de nouveaux postes qui se spécialisent dans cette technologie, mais, dans la plupart des cas, une simple structure de formation en développement des compétences[3] permettra aux employés déjà présents de suivre l’organisation dans le grand saut vers l’IA et de participer aussi à la mise en œuvre par les gestionnaires.

L’importance des employés aux compétences en IA en 2026

Selon Karim R. Lakhani, professeur à Harvard Business School, l’IA n’est pas là pour remplacer l’humain, mais l’humain qui utilise l’IA va remplacer l’humain qui n’utilise pas l’IA[4].

Bien que la majorité des travailleurs qui utiliseront l’IA pour le travail n’auront pas besoin de beaucoup de compétences spécialisées dans le domaine, il va sans dire qu’il modifiera tout de même leur quotidien.

D’ailleurs, il paraît déjà évident que les capacités des outils IA s’agencent parfaitement au monde de la gestion de projet et du commerce, puisqu’il permet à l’humain d’accélérer grandement sa rapidité d’analyse et d’arriver à des conclusions plus rapidement.

En effet, un rapport de l’agence de recherche Sapio Research révèle que 63 % des rôles financiers utilisent déjà l’IA, un taux beaucoup plus élevé que celui du marketing (27 %) ou même celui de la technologie de l’information (44 %)[5].

Cependant, il n’est qu’un outil, et il faut former les employés à l’utiliser de manière raisonnable. Il ne devrait pas réfléchir et prendre des décisions sans la supervision d’un humain qui porte un jugement sur les résultats et qui est beaucoup mieux à même d’exercer sa fonction.

Utiliser l’IA à bon escient, c’est :

  • Être capable de faire des requêtes qui obtiendront le résultat escompté.
  • Évaluer la validité des résultats et assurer l’absence de biais.
  • Appliquer ses résultats dans un contexte humain.

Les organisations qui réussiront le mieux cette transition seront celles qui forment leurs employés à traiter l’IA comme un simple outil de plus et non pas comme une réponse à toutes les solutions. En ce sens, l’IA n’est pas une panacée.

L’importance de traverser le fossé générationnel

Dans un sondage réalisé aux États-Unis et en Europe, la London School of Economics dévoile que 70 % des employés utilisent déjà l’IA dans leur quotidien au travail[6].

Il faut cependant noter que, en répartissant les réponses par tranches d’âges, on constate que 80 % des répondants de la génération Z (né entre 1997 et 2012) ont répondu positivement, par rapport à seulement 60 % des membres de la génération X (né entre 1965 et 1980)[7].

Bien sûr, il peut être intéressant d’utiliser la maîtrise technologique des jeunes employés. Celle-ci peut facilement contribuer à la formation des employés plus expérimentés dans leur poste, mais moins enclins à utiliser cette technologie au premier chef. En effet, le mentorat inversé est sans aucun doute une avenue prometteuse pour accélérer la montée des compétences et la création de liens forts au sein d’une équipe.

Cependant, il serait sage d’éviter de tomber dans le piège qui consiste à transformer ces nouvelles recrues en « spécialistes de l’IA » par défaut. Toute forme de mentorat et de partage de compétences devrait être compensée adéquatement. Encourager et renforcer ces pratiques sont d’excellentes façons d’accélérer l’adoption des technologies d’IA[8].

En bref, il est plus important que jamais pour les gestionnaires de mettre en place des initiatives pour pallier le fossé générationnel qui existe toujours lorsque de nouvelles technologies arrivent sur le marché du travail[9]. L’IA est une révolution importante et, pour qu’une organisation s’adapte, il faut que tout le monde soit sur la même longueur d’onde.

Protéger le côté humain à l’ère de l’IA

En tant que gestionnaire, il importe de guider l’organisation à travers cette révolution technologique pour qu’elle en ressorte plus efficiente et humaine.

Cette révolution devra faire face à une série de défis éthiques et techniques qui devront être surmontés pour permettre aux équipes en place d’évoluer dans un environnement à la fois sécuritaire et convivial.

L’IA est la technologie de demain, mais l’humain doit toujours rester la valeur d’aujourd’hui. Le secteur bancaire, au sens le plus large du terme, a été fondé sur le principe de la confiance et du service aux clients.

Dans cette perspective, on ne saurait trop insister sur le fait que l’intelligence humaine ne peut être remplacée par de nouveaux outils numériques, y compris l’IA. Au cœur des organisations, des humains façonnent leur avenir et occupent une position centrale.

Face à un avenir incertain, il est plus important que jamais de s’assurer que les équipes croient à leur futur organisationnel et y trouvent un ancrage solide.

Au-delà de l’arrivée de l’IA, il y a des humains qui sont appelés à jouer pleinement leur rôle et à s’attarder à renforcer les interactions, à conseiller et à servir avec confiance et empathie. Par ailleurs, c’est cette dernière assertion qui est susceptible de faire une grande différence au sein de l’organisation de demain. La responsabilité du gestionnaire est de voir plus loin que le strict usage de l’outil d’IA. Il doit être en mesure de valoriser l’humain et de prendre appui sur lui pour mener à bien les objectifs poursuivis.

 

[1] Kober (2025). AI-First Leadership: Embracing the Future of Work. Harvard Business Impact. https://www.harvardbusiness.org/insight/ai-first-leadership-embracing-the-future-of-work/

[2] IBM (2024). Les entreprises canadiennes ont vu une hausse de l’adoption de l’IA en 2023 par rapport aux pairs mondiaux. Salle de presse IBM. https://canadafr.newsroom.ibm.com/2024-01-10-Les-entreprises-canadiennes-ont-vu-une-hausse-de-ladoption-de-lIA-en-2023-par-rapport-aux-pairs-mondiaux

[3] On peut penser ici à différentes plateformes pour le développement des compétences en milieu organisationnel, notamment celle développée par l’entreprise québécoise HybFormation.

[4] Lakhani (2023). AI Won’t Replace Humans—But Humans With AI Will Replace Humans Without AI. Harvard Business Review. https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai

[5] White (2024). The rise of AI. Sapio Research. https://sapioresearch.com/wp-content/uploads/2024/06/survey-uploads/Sapio-Research-The-rise-of-AI.pdf

[6] Jolles and Lordan (2025). When Generations Meet: The productivity potential of multigenerational meetings. The Inclusion Initiative at the London School of Economics. https://www.lse.ac.uk/tii/assets/documents/Bridging-the-AI-Generational-Gap.pdf

[7] Ibid.

[8] Dinnen (2025). Bridging the Generational Divide in AI Adoption: A Strategic Imperative for Organisations. LinkedIn. https://www.linkedin.com/pulse/bridging-generational-divide-ai-adoption-strategic-mervyn-dinnen-oz9jc/

[9] On consultera ici l’article de fond (Dossier) dans la Revue Leader d’octobre 2025.

[1] Pazzanese, C. (2020). Great promise but potential for peril. Harvard Gazette https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/

[2] NETendances (2024). Intelligence artificielle générative et données personnelles. NETendances Volume 15, numéro 05. https://transformation-numerique.ulaval.ca/wp-content/uploads/2025/02/netendances24-intelligence-artificielle-generative-et-donnees-personnelles.pdf

[1] Gauthier (2023). L’intelligence artificielle, le partage des données et les droits humains. Université de Sherbrooke. https://www.usherbrooke.ca/actualites/nouvelles/details/50160

[1] Jonker, Rogers (2025). Qu’est-ce que le biais algorithmique ? IBM. https://www.ibm.com/fr-fr/think/topics/algorithmic-bias

[2] Dejen, Khawar (2024). Algorithmic Bias, Privacy, and Human Rights: A Framework for Mitigating Discrimination in AI Systems. https://www.researchgate.net/publication/384631342_Algorithmic_Bias_Privacy_and_Human_Rights_A_Framework_for_Mitigating_Discrimination_in_AI_Systems

[1] Institute of Business Ethics (2024). Ethics at Work: 2024 international survey of employees. https://www.ibe.org.uk/ethicsatwork2024.html

 

 

Dans la même catégorie

À lire aussi