Sélection de la langue

Recherche

Semaine de démos d'outils de données de l'EFPC : L'avenir des ressources humaines, avec Blue J Legal (DDN2-V12)

Description

Cet enregistrement d'événement présente une démonstration sur Blue J Legal, un outil d'apprentissage automatique et d'intelligence artificielle, suivie d'une discussion sur les répercussions de l'utilisation d'un tel outil pour les organisations de la fonction publique fédérale.

(Consultez la transcription pour le contenu en français.)

Durée : 01:02:06
Publié : 26 avril 2021
Type : Vidéo

Événement : Semaine de démos d'outils de données de l'EFPC : L'avenir des ressources humaines, avec Blue J Legal


Lecture en cours

Semaine de démos d'outils de données de l'EFPC : L'avenir des ressources humaines, avec Blue J Legal

Transcription

Transcription

Transcription : Semaine de démos d'outils de données de l'EFPC : L'avenir des ressources humaines, avec Blue J Legal

[Le logo blanc animé de l'École de la fonction publique du Canada se dessine sur un fond violet. Une page apparaît, puis elle se transforme en livre ouvert. Une feuille d'érable apparaît au milieu du livre, qui ressemble aussi à un drapeau en dessous duquel se trouvent des lignes courbes. Le texte suivant s'affiche à côté du logo : Webcast | Webdiffusion.]

[Il s'efface et est remplacé par deux écrans titres côte à côte en anglais et en français. En haut se trouvent trois feuilles d'érable vertes, chacune faite de textures différentes. Le texte suivant s'affiche à côté du logo.]

Semaine de démos d'outils de données de l'EFPC

L'avenir des ressources humaines, avec Blue J Legal

Communauté des données du GC

[Il s'efface, remplacé par un appel vidéo sur Zoom. En haut à gauche, Benjamin Alarie, un homme chauve en costume bleu, est assis devant un tableau abstrait. En haut à droite, Wendy Bullion-Winters, une femme aux longs cheveux couleur caramel et aux lunettes, est assise devant plusieurs tableaux, l'un représentant un paysage d'hiver, d'autres des rues géométriques. En bas, Taki Sarantakis, un homme avec des lunettes, une barbichette soignée et un pull bleu à fermeture éclair, est assis devant une bibliothèque personnelle. Il parle.]

Taki Sarantakis: Bonjour ou bonsoir, selon l'endroit où vous vous trouvez au Canada et dans le monde. Je m'appelle Taki Sarantakis.

[Le panneau vidéo de Taki remplit l'écran.]

Taki Sarantakis: Je suis le président de l'École de la fonction publique du Canada et je vous souhaite la bienvenue à notre coup d'envoi de la semaine des données de l'EFPC.

[Une boîte de texte violette dans le coin inférieur gauche l'identifie : « Taki Sarantakis, École de la fonction publique du Canada. »]

Taki Sarantakis: En tant que fonctionnaire, vous savez que vous avez besoin d'outils pour faire votre travail et vous savez que ces outils évoluent avec le temps. Et donc, à l'École de la fonction publique du Canada, cette semaine, nous nous concentrons sur certains outils liés aux données. Nous commençons la semaine avec l'intelligence artificielle et les données et nous la terminerons avec l'intelligence artificielle et les données dans une seconde application. Et entre les deux, eh bien, vous aurez juste à le découvrir et à regarder. La démonstration d'aujourd'hui porte donc sur une application particulière qui est déjà en production. Et ce n'est pas tout, elle figure en fait sur des offres à commandes du gouvernement du Canada. Il s'agit donc d'un outil approuvé par le gouvernement du Canada que vous pouvez utiliser aujourd'hui si vous faites savoir à vos agents des achats que vous en avez besoin. Et nous savons tous que vous aurez besoin à l'avenir des données – non, pas à l'avenir; vous en avez besoin dès aujourd'hui. Nous le constatons en temps de pandémie. Nous constatons comment la gestion des données nous aide à faire notre travail. J'ai donc le grand plaisir de vous présenter aujourd'hui Wendy Bullion-Winters, qui est directrice générale des Ressources humaines à l'École de la fonction publique du Canada. Wendy va vous présenter le sujet du jour, l'application particulière et notre invité spécial.

[La fenêtre vidéo de Taki est désépinglée, et les fenêtres vidéo des trois experts réapparaissent].

Taki Sarantakis: Après l'introduction, notre invité spécial fera une démonstration de la technologie, puis nous nous réunirons tous les trois pour une discussion. J'espère que vous pourrez rester et vous joindre à nous pour la discussion sur l'intelligence artificielle, les données et le gouvernement du Canada.

Wendy Bullion-Winters: Merci, Taki. C'est un réel plaisir d'être ici aujourd'hui. Je suis impatiente que tout le monde puisse voir cette démonstration.

[La fenêtre de Wendy est épinglée.]

Wendy Bullion-Winters: Lorsque nous pensons à l'intelligence artificielle et à l'apprentissage automatique, nous ne faisons peut-être pas immédiatement le lien avec les ressources humaines (RH),

[Une boîte de texte violette dans le coin inférieur gauche l'identifie : « Wendy Bullion‑Winters, École de la fonction publique du Canada ».]

Wendy Bullion-Winters: mais il existe des cas d'utilisation réels, qui peuvent changer la donne dans mon domaine. Nous utilisons le logiciel Blue J au sein de mon équipe de relations de travail depuis plus d'un an, et il présente deux avantages immédiats. Premièrement, il s'agit d'un moteur de recherche de la jurisprudence beaucoup plus convivial que nos outils existants. Deuxièmement, et surtout, parlons de la composante d'analyse prédictive. En 10 minutes seulement, un conseiller des relations de travail (RT) peut répondre à un court questionnaire, rassembler tous les détails propres à une affaire en cours, et le système utilisera les données, compilera la jurisprudence historique pertinente et produira un rapport qui montre la jurisprudence et donne une prédiction sur la probabilité qu'un arbitre accepte diverses mesures disciplinaires. Ce rapport n'est donc que la base de référence de l'analyse humaine, et c'est là que la magie opère. Lorsque nous pouvons mettre les bonnes données rapidement et efficacement entre les mains de nos experts en la matière. Sans plus attendre, j'ai le plaisir de vous présenter Ben Alarie, cofondateur et PDG de Blue J Legal.

[La vidéo de Wendy est désépinglée, et les trois fenêtres se déplacent sur le côté de l'écran tandis qu'un navigateur affiche une diapositive de présentation. Il y est écrit :

blue J

L'utilisation de l'IA dans les RH et les relations de travail

Prof. Benjamin Alarie

Titulaire de la Chaire Osler en droit des affaires, Université de Toronto

PDG, Blue J Legal]

Benjamin Alarie: Merci beaucoup, Taki; merci beaucoup, Wendy. Je suis heureux de m'adresser à vous ce matin.

[La fenêtre de Benjamin est épinglée.]

Benjamin Alarie: Et je vais parler de l'utilisation de l'intelligence artificielle (IA) dans les ressources humaines et les relations de travail. Je suis professeur ici, à l'université de Toronto. Aujourd'hui, je suis dans mon bureau, à la faculté de droit, car c'est là qu'il y a la meilleure connexion Internet et que je me suis dit que c'était l'endroit le plus fiable pour m'adresser à vous tous. Je suis également PDG de Blue J Legal. Je vais rapidement passer à une démonstration de la plateforme Blue J et vous expliquer comment vous pouvez l'utiliser dans le domaine des RH et des RT. Avant d'entrer dans le vif du sujet, j'aimerais vous donner un peu de contexte, un peu d'historique sur la situation actuelle de l'intelligence artificielle et de l'apprentissage automatique dans le domaine juridique en général. Nous nous concentrerons ensuite sur les RH et la plateforme Blue J.

[La diapositive dans le navigateur change, montrant un portrait en noir et blanc d'un homme avec une longue moustache broussailleuse regardant au loin. Elle est intitulée : « Le droit, une question de prédiction : 1897. » On y fournit une citation d'Oliver Wendell Holmes tirée de la Harvard Law Review en 1897 :

"For the rational study of the law black-letter man may be the man of the present, but the man of the future is the man of statistics and the master of economics."]

Benjamin Alarie: Très bien. Donc un point de départ, et c'est le point de départ, je crois, pour une grande partie de la pensée moderne sur le droit et, en fin de compte, sur les relations de travail et la gestion des ressources humaines. Le point de départ, c'est que le droit est fondamentalement une question de prédiction. Prenez cet homme, Oliver Wendell Holmes Jr, qui est un juge très célèbre des États-Unis. Il a siégé à la Cour suprême des États-Unis et a écrit dans un article, dans la Harvard Law Review en 1897, que pour effectuer l'étude rationnelle du droit, l'homme de lettres peut être l'homme du présent, mais que l'homme de l'avenir est l'homme des statistiques et le maître de l'économie. C'est très intéressant – si l'on met de côté le langage genré et l'accent mis sur l'homme, l'homme, l'homme, l'homme. Ce qui est intéressant ici, c'est que M. Holmes affirme que le droit est une question de régularités statistiques et qu'il doit y avoir un moyen d'examiner le droit et d'utiliser le raisonnement statistique pour déterrer ou déterminer les modèles sous-jacents du droit. Et bien sûr, toute l'idée de la primauté du droit exige que la loi présente ces régularités. Il est donc intéressant de noter que M. Holmes a vu cela très clairement en 1897, et que nous avons rattrapé ce retard dans le système juridique de 1897 à nos jours. Il s'agit avant tout d'un problème de prédiction. Chaque fois qu'un avocat conseille un client, c'est une prédiction sur ce que la loi exige. Chaque fois qu'un conseiller en relations de travail conseille le gouvernement sur une situation particulière, c'est une prédiction sur ce que la loi exige. Chaque fois qu'un professionnel des RH conseille son organisation, c'est une prédiction sur ce que la loi exige. Et cela ajoute probablement une couleur supplémentaire autour de la nature humaine et de la situation, du contexte. Mais fondamentalement, l'élément juridique ici est une question de prédiction.

[La diapositive change. La diapositive suivante contient un graphique à barres. Il est intitulé : « La prédiction dans la reconnaissance des images ». L'axe vertical du graphique affiche des marques augmentant par bonds de 5, jusqu'à atteindre 30. Il est étiqueté « ImageNet — Taux d'erreur des 5 premiers ». L'axe horizontal affiche les années, allant de 2010 à 2017. Les deux barres jaunes de 2010 et de 2011 se situent entre 25 et 30. Les barres bleues représentant les années suivantes deviennent de plus en plus courtes, la plus courte étant celle de 2017, située sous le marqueur 5 à 2,25. Une seule barre rouge au milieu du graphique ne comporte pas de marqueur de date, mais atteint le marqueur 5. Dans le graphique, il est écrit : « T-S : Trimps-Shoushen (apprentissage ensembliste profond) ».]

Benjamin Alarie: Et ce qui est intéressant, c'est que, comme il s'agit de prédiction, l'apprentissage automatique de l'IA devient exceptionnellement bon dans ce domaine. Ce graphique illustre les taux d'erreur dans ce qu'on appelle la compétition ImageNet. La compétition ImageNet s'est déroulée de 2010 à 2017. Il s'agissait d'un concours annuel où des algorithmes, des algorithmes informatiques et des programmes informatiques devaient décrire de manière appropriée le contenu d'un grand nombre de photos. De photos numériques, donc. Et vous pouvez constater qu'en 2010, l'équipe de tête, cet algorithme de tête avait un taux d'erreur de près de 30 %. Cela signifie donc que 70 % étaient corrects et que près de 30 % étaient incorrects. La petite barre rouge, là, au milieu du graphique, représente le taux d'erreur humaine. Les humains ne sont donc pas parfaits pour décrire ce que nous voyons sur des images numériques. En fait, les humains ont raison dans environ 95 % des cas, ce qui correspond à 95 % de la vérité terrain dans cet ensemble de données. Ce qui est intéressant, c'est qu'entre 2014 et 2015, ces systèmes, ces algorithmes ont dépassé la capacité humaine à décrire de manière appropriée le contenu des photos numériques, si bien qu'en 2017, le concours n'était plus aussi intéressant qu'en 2010. Et les algorithmes sont désormais très, très précis. Cela signifie que ces algorithmes sont désormais meilleurs que les humains pour prédire la légende appropriée sous des photos numériques. Donc cela appartient à l'histoire. Ça s'est déjà produit. Les humains ont été dépassés dans la reconnaissance des images.

[La diapositive change. La diapositive suivante contient le titre d'un article et un autre graphique à barres. L'article, datant de novembre 2020, est intitulé : « Cela va tout changer : L'IA de DeepMind fait un bond gigantesque dans la résolution des structures protéiques ». Le graphique à barres détaille la haute performance d'AlphaFold 2 dans le cadre du concours de prédiction du repliement des protéines CASP14 par rapport aux gagnants précédents, notamment AlphaFold.]

Benjamin Alarie: Plus récemment, l'équipe d'IA de DeepMind a travaillé sur un projet appelé AlphaFold. Il s'agissait d'une compétition similaire. Vous pouvez voir le diagramme à barres dans le graphique inséré ici, qui illustre l'exactitude des participants à un concours visant à prédire le repliement des protéines. Il s'agit d'un concours très intéressant, avec des applications scientifiques vraiment importantes pour la santé humaine. Il s'agit de comprendre comment les protéines se replient en fonction de l'identité des composants de la protéine. Cela nous en dit long sur la façon de traiter certains types de maladies, certains types d'affections, dont la COVID, bien sûr. Ce qui est vraiment étonnant, c'est qu'AlphaFold 2 a fait une percée majeure en 2020 et a simplement résolu ce problème en utilisant l'apprentissage automatique. Voici un titre publié dans Nature, l'une des plus importantes publications scientifiques au monde, et le titre est « Cela va tout changer ». Google a résolu ce problème. AlphaFold 2 a résolu le repliement des protéines. Cela va avoir d'énormes conséquences sur les soins de santé à l'avenir et sur la médecine. C'est vraiment excitant.

[La diapositive change. La diapositive suivante est intitulée : « Le droit, une question de prédiction : 2021. » Elle montre une partie coupée de l'article de Benjamin, « L'évolution du droit vers la singularité juridique », et une vidéo YouTube intégrée de Benjamin donnant une conférence TED.]

Benjamin Alarie: Mais il ne s'agit pas seulement de trouver les légendes des images ou du repliement des protéines. Il est question de bien d'autres applications scientifiques. Mon opinion à ce sujet est très proche de celle de M. Holmes et très proche de l'augmentation de la puissance de calcul, des évolutions algorithmiques et des données numériques. Nous disposons de plus en plus de renseignements pour nous aider à déterminer ce que dit la loi sur une question particulière. Je prédis donc que le droit évoluera vers ce que j'appellerais une singularité juridique, où l'incertitude juridique sera largement reléguée dans le passé. Je pense que nous regarderons le XXe siècle et nous nous émerveillerons de voir à quel point nous nous sommes bien débrouillés malgré toute l'incertitude juridique à laquelle nous étions confrontés pour traverser, en quelque sorte, notre vie. Je pense que très bientôt – et nous le voyons déjà, je vais vous le montrer dans un instant – nous verrons comment la technologie peut nous donner un aperçu des modèles probables d'issues si une affaire devait aller devant un arbitre ou un tribunal pour être résolue. C'est en fait extrêmement enthousiasmant. Cela a de grandes répercussions sur le travail que les gens comme moi font en tant que professeur de droit, en tant qu'universitaire juridique, comment nous enseignons le droit, comment nous pensons au droit dans les facultés de droit, mais aussi dans la pratique de l'administration gouvernementale. Comment vous intéressez-vous au droit? Comment pensez-vous au droit? Il y a des outils qui sont en train d'être construits pour aider à cela et pour penser au droit comme à un problème de prédiction et vous permettre de voir le droit comme un problème de prédiction.

[La diapositive change. La diapositive suivante est intitulée « Les utilisateurs gouvernementaux de Blue J exploitent notre IA pour élaborer de meilleures analyses juridiques ». Sous le titre se trouvent quatre puces. Les voici :

Speed: analyze legal positions on the merits with unrivaled speed

Confidence : the results are 90%+ accurate; system locates the right cases immediately

Collaboration: share results easily with others to optimize strategy and approach

Result: existing HR infrastructure is up to twice as productive, efficient, and reliable]

Benjamin Alarie: So, Donc, pour l'instant, les utilisateurs gouvernementaux de Blue J exploitent déjà l'IA pour élaborer de meilleures analyses juridiques. Ce que vous allez voir dans un instant, c'est comment adopter une posture juridique sur le fond et obtenir le rapport que Wendy a mentionné dans l'introduction. Ainsi, vous pourrez analyser une situation particulière, un ensemble de faits particuliers, et le système vous posera une série de questions, vous tiendra la main tout au long du processus de collecte de ces faits, et vous donnera, sur la base des renseignements que vous aurez fournis au système, l'issue probable si une affaire devait faire l'objet d'un arbitrage. Et les résultats sont vraiment très précis. Nous en sommes donc au point où le système est aussi précis que les meilleurs humains pour prédire ce qui se passerait probablement si une affaire devait être arbitrée dans toute une série de contextes. Nos résultats sont précis à 90 % et plus, et le système, comme Wendy l'a indiqué, peut localiser les affaires correspondantes précédentes presque immédiatement. Ainsi, lorsque vous travaillez avec le système, vous pouvez voir, « Oh, je devrais regarder cette affaire », « Je devrais regarder cette affaire d'un peu plus près ». Et il devient alors très facile, en réalité, de collaborer sur la bonne façon d'aborder une situation particulière, car vous savez ce qui se passerait si une affaire devait faire l'objet d'un arbitrage. Cela peut influencer la décision que vous prenez dans le présent. Au sein de Blue J, nous collaborons avec le Centre du droit du travail et de l'emploi au Secrétariat du Conseil du Trésor, au ministère de la Justice, ainsi qu'avec l'équipe de Wendy à l'École de la fonction publique du Canada. Et ce que nous avons découvert, c'est que l'infrastructure RH existante peut être jusqu'à deux fois plus productive, efficace et fiable grâce à ce type de technologie.

[La diapositive change. La diapositive suivante est une capture d'écran du Financial Post. L'article datant de février 2021 est intitulé : « Blue J et Osler, Hoskin & Harcourt S.E.N.C.R.L./s.r.l. présentent un outil de recherche innovant sur les prix de cession ».]

Benjamin Alarie: J'ai mentionné que Blue J collaborait avec le Centre du droit du travail et de l'emploi, et nous avons également collaboré avec d'autres personnes. Le cabinet Osler, Hoskin and Harcourt est l'un de nos collaborateurs. Nous avons annoncé cette collaboration sur la fixation des prix de cession dans le contexte fiscal il y a quelques mois.

[La diapositive change. La diapositive suivante est une capture d'écran du site Web de la Société Radio-Canada. Dans la section Politique est affiché un article intitulé « Les litiges deviennent numériques : Ottawa expérimente avec l'intelligence artificielle dans les affaires fiscales ».]

Benjamin Alarie: La Société Radio-Canada est au courant du travail que Blue J réalise aussi avec le gouvernement fédéral en matière d'impôts. Voici le titre : « Les litiges deviennent numériques : Ottawa expérimente l'intelligence artificielle dans les affaires fiscales ». Cela date de 2018. Ce projet pilote s'est maintenant transformé en quelque chose de plus important avec l'Agence du revenu du Canada et le ministère de la Justice. C'est donc très intéressant pour améliorer l'efficacité de notre système fiscal pour les Canadiens.

[La diapositive change. La diapositive suivante est une capture d'écran du site Web de la revue de l'American Bar Association. Le titre de l'article est : « Un cabinet d'avocats s'associe à une entreprise canadienne de technologie juridique pour créer un outil de prédiction de cas basé sur l'IA. »]

Benjamin Alarie: Et nous travaillons avec d'autres personnes au sud de la frontière, aux États-Unis, sur des questions de droit du travail et de l'emploi également. Voici un titre récemment paru dans la revue de l'American Bar Association sur cette technologie. C'est donc en train de se produire dans de nombreux domaines du droit, de la fiscalité, du droit du travail au Canada et aux États-Unis. C'est en train de prendre d'assaut le secteur juridique. Et tout cela, je pense, est en passe de produire des prédictions vraiment solides et utiles sur la façon dont les situations seraient tranchées si elles devaient faire l'objet d'un arbitrage.

[Benjamin change d'onglet dans son navigateur, ce qui fait apparaître l'interface de la plateforme Blue J. Une barre latérale montre les prédictions sauvegardées, et des boîtes à l'écran montrent les différentes questions pour lesquelles on peut obtenir une prédiction, notamment « Cause de congédiement » et « Congédiement déguisé ».]

Benjamin Alarie: Ce que j'aimerais faire maintenant, c'est me lancer dans une démonstration de la plateforme Blue J. Voici l'écran que vous voyez lorsque vous accédez à la plateforme. Et l'interaction avec le système est essentiellement la suivante. Vous sélectionnez une question qui vous intéresse et sur laquelle vous souhaitez obtenir une prédiction. Et donc si je fais défiler vers le bas ici,

[Il fait défiler les boîtes de questions et en choisit une.]

Benjamin Alarie: vous pouvez voir quelque chose ici qui s'appelle « Progressive discipline » (Mesures disciplinaires progressives). Il s'agit d'un outil que vous pouvez utiliser pour comprendre quelle devrait être la conséquence pour un travailleur particulier qui est impliqué dans une certaine forme d'inconduite dans le cadre de son emploi, sur la base de la jurisprudence en vigueur, des autres précédents disponibles concernant ce type particulier d'inconduite, des répercussions pour l'employeur, de la façon dont les autres employés ont été traités, de toute mesure disciplinaire ou orientation fournie par un employeur ou une unité particulière. Je vais donc vous montrer comment procéder à une analyse des mesures disciplinaires progressives, jusqu'à l'étape finale de production d'un rapport. Je vais vous montrer rapidement comment vous pouvez modifier quelques-unes des différentes hypothèses factuelles qui entrent dans cette prédiction afin de vous faire une idée de la situation. Nous étudierons ensuite des implications plus larges, au-delà des mesures disciplinaires progressives, pour toute une série de domaines différents des ressources humaines et des relations de travail. Car, comme vous pouvez le constater sur la plateforme, le système peut vous aider à analyser de très nombreuses questions différentes. Il ne s'agit donc pas seulement de mesures disciplinaires progressives. Mais nous allons les utiliser comme exemple aujourd'hui. Je vais donc recharger une analyse que j'ai préchargée dans le système pour repartir de zéro.

[Il sélectionne une prédiction sauvegardée dans la barre latérale. Une nouvelle page intitulée « Mesures disciplinaires progressives » contenant de l'information sur le sujet s'affiche à l'écran. Sur la barre latérale de gauche, les options sont accompagnées de chiffres].

Benjamin Alarie: C'est de cette manière que vous interagissez avec le système. Vous allez donc voir, à gauche, un certain nombre de questions relatives au contexte de cette situation particulière, 13 questions différentes sur la nature de l'inconduite, une poignée de questions sur la réaction de l'employeur, une poignée de questions sur des mesures disciplinaires antérieures éventuelles auxquelles ce travailleur particulier aurait été confronté, et enfin quelques questions sur les autres circonstances. La situation que vous allez voir est l'exemple d'un travailleur qui a commis une faute liée à la préparation d'une vérification des antécédents pour un collègue, pour un autre travailleur du gouvernement fédéral. Nous avons donc ici un cas d'inconduite pendant une vérification des antécédents. Nous n'allons pas nous attarder sur les faits précis, car le plus important est de vous montrer comment procéder à cette analyse. Donc, lorsque je clique sur « Continue » (Continuer), vous allez voir que nous passons presque immédiatement aux questions.

[Benjamin fait défiler la liste de questions affichées sur la page et répond à chacune d'entre elles. Diverses options à sélectionner sont fournies dans chaque champ de question. Il sélectionne les réponses au fur et à mesure.]

Benjamin Alarie: Alors « Which jurisdiction governs this relationship while it's federal? » (quelle compétence régit cette relation tant qu'elle est fédérale)? Évidemment, les choix pourraient être les autres provinces, mais ici nous avons le niveau fédéral. « Is this employment subject to the cantilever code? » (Cet emploi est-il soumis au code du porte-à-faux?) Nous allons répondre non. Il s'agit d'un employé syndiqué.

[Il fait défiler les champs de questions et lit en même temps les réponses présélectionnées.]

Benjamin Alarie: Cet employé travaille pour l'employeur depuis cinq ans dans l'administration publique. C'est un poste de bureau et d'administration. Pas un rôle de supervision ou de gestion. Oui, c'est un poste où la sécurité est un sujet sensible, dans le sens où ces vérifications d'antécédents sont censées aider à préserver la sécurité publique. Cet employé avait une responsabilité accrue de démontrer la bonne conformité aux politiques. Et cela est soumis à la Loi fédérale sur les relations de travail dans le secteur public fédéral. Ce sont donc des questions qui ne font que poser le décor. Nous savons que ce genre de questions peut influencer la conséquence appropriée. Et pour préfigurer ce que nous allons découvrir, la sanction appropriée pour cet employé est-elle un avertissement? S'agira-t-il d'une suspension ou d'un licenciement? Le système va nous dire comment calibrer la conséquence particulière pour cet employé particulier dans ce contexte. Donc, en cliquant sur « Continue » (Continuer), nous allons voir apparaître un tas de questions relatives à la nature de l'inconduite. « What's the nature of the misconduct? » (Quelle est la nature de l'inconduite?) « What's a breach of fiduciary duty? » (Qu'est-ce qu'une violation de l'obligation fiduciaire?) Il y a un conflit d'intérêts ici. C'est une violation de la politique du lieu de travail, évidemment, et il y a une certaine malhonnêteté ou une fausse déclaration ici. C'est aussi de l'incompétence et des erreurs de travail, un rendement inférieur aux normes. Mais vous pouvez voir qu'il y a la possibilité d'ajouter un tas de renseignements différents dans le système pour vraiment saisir la complexité de l'inconduite en question. Et si vous êtes curieux, vous pouvez cliquer sur « More » (Plus), et cela vous dira exactement ce que chacun de ces éléments reflète réellement.

[Il clique sur « plus » sous la question 2.1, et une boîte de texte s'affiche. Elle contient des descriptions détaillées de chaque inconduite sélectionnable.]

Benjamin Alarie: Et donc, la malhonnêteté et la fausse déclaration ont une description. Chacun de ces exemples d'inconduite est accompagné d'une explication plus détaillée que vous pouvez consulter si vous ne savez pas lequel choisir.

[Il fait défiler d'autres questions.]

Benjamin Alarie: Nous avons déjà fait tout ce travail. Et puis, il y a des questions autour de la nature du préjudice potentiel résultant de cette inconduite. Ici, nous avons la perte de confiance du public dans l'institution publique et l'atteinte à la réputation de l'entreprise de l'employeur. Et encore une fois, il y a une description de chacun de ces éléments. Si vous cliquez sur « More » (Plus), vous pourrez les parcourir. Ensuite, il y a la question 2.2.1. L'un de ces préjudices s'est-il effectivement manifesté? De mauvaises choses se sont-elles produites à la suite de cette inconduite? Gardez l'œil sur celle-ci. Deux points deux points un. Nous allons revenir en arrière et changer cette donnée quand nous arriverons au rapport et dire, voyons quelles sont les différences si les préjudices, plutôt que d'être seulement potentiels, se manifestent réellement? Quelle influence cela a-t-il sur le résultat global? Poursuivons. « Was the misconduct intentional or accidental? » (L'inconduite était-elle intentionnelle ou accidentelle?) Elle était intentionnelle. Elle était prévue. Elle n'a pas vraiment été provoquée, au sens de la provocation que sous-entend cette question. Elle impliquait des actions multiples. Il s'agissait donc d'un modèle de comportement, et il n'y a pas de situation médicale ou de handicap qui ait contribué à l'inconduite. Il a exprimé des remords. Il a présenté des excuses. L'employé n'a pas été honnête et direct sur les détails de l'inconduite en cause à l'origine. Et aucune de ces questions supplémentaires ne s'appliquait. Je vais aller un peu plus vite maintenant. Nous avons l'inconduite. Nous savons de quoi il s'agit. Nous connaissons ces problèmes de fond. Ici, nous avons une série de questions sur les politiques de l'employeur. « So does the employer have a written policy saying not to do this? » (L'employeur a-t-il une politique écrite disant de ne pas faire cela?) Oui. « Was there a published rule prohibiting this conduct? » (Y avait-il une règle publiée interdisant cette conduite?) Oui. « Was the employee offered any training specifically about this prior to the misconduct at issue? » (L'employé a-t-il reçu une formation sur ce sujet avant l'inconduite en question?) Non. « Did the employer conduct a proper investigation into the misconduct? » (L'employeur a-t-il mené une enquête appropriée sur l'inconduite?) Oui.

[Un tintement de clochettes retentit. Benjamin tend la main hors de l'écran et le tintement s'arrête.]

Benjamin Alarie: « Did the employee have the opportunity to explain or provide their version of the events at issue? » (L'employé a-t-il eu l'occasion d'expliquer ou de donner sa version des événements en cause?) Oui. OK. « Does the employer have a published policy of incrementally more severe discipline? » (L'employeur a-t-il une politique publiée de mesures disciplinaires de plus en plus sévères?) « Is there a progressive discipline policy? » (Existe-t-il une politique sur les mesures disciplinaires progressives?) Oui. « What does it provide? » (Que stipule-t-elle?) Elle prévoit une suspension comme prochaine étape disciplinaire en fonction de la politique publiée. Cela va également être important. Nous reviendrons donc aussi à cette question 4.2. « How long ago was the most recent incident, misconduct for this employee? » (À quand remonte l'incident, l'inconduite la plus récente de cet employé?) Eh bien, cet employé a un dossier disciplinaire vierge. Il n'y a donc pas eu d'inconduite antérieure ici. « And has the employee engaged in a similar form of misconduct in the past for which there was no disciplinary warning? » (Et l'employé a-t-il déjà commis une forme d'inconduite similaire par le passé, pour laquelle il n'y a pas eu d'avertissement disciplinaire?) Non, la réponse est non. Très bien. Nous y sommes presque. « Is there any issue of other employees engaging in similar misconduct for no disciplinary consequence? » (D'autres employés ont-ils commis une inconduite similaire sans conséquence disciplinaire?) Non. Aucun autre employé n'était lui aussi responsable de cette inconduite particulière. Et enfin, aucune de ces situations particulières ne s'applique, comme le fait d'être un proche aidant isolé ou de devoir déménager pour trouver un autre emploi, etc. Nous avons donc saisi tous les renseignements dans le système. Ce que nous savons, c'est qu'avec cet ensemble de faits, dans cette situation, nous pouvons faire une très bonne prédiction sur ce que dirait un arbitre à propos de la sanction appropriée pour cet employé particulier, sur la base de toute la jurisprudence. Blue J ne dit donc pas : « C'est nécessairement l'issue appropriée ». Ce que nous disons, ce que la plateforme nous dit sur l'écran suivant est basé sur toute la jurisprudence. Il s'agit de la meilleure prédiction de ce que cet arbitre dirait en fonction de ce que les arbitres ont dit dans toutes les affaires précédentes, d'après ce qui s'est passé dans ces affaires-là. Je vais donc cliquer sur « View Prediction Report » (Visualiser le rapport de prédiction), et nous allons voir quelle est l'issue prédite ici.

[Benjamin clique sur un bouton bleu au bas de l'écran sur lequel il est écrit « Visualiser le rapport de prédiction ». Un rapport de prédiction remplace le formulaire de questions, et les questions restent affichées dans la barre latérale gauche. Le rapport indique « Résultat prévu, Suspension : 2 semaines ou plus ». À côté du résultat prévu, un graphique intitulé « Niveau de confiance » montre une barre grise contenant un petit trait bleu étiquetée « avertissement — 1 % », une barre grise presque entièrement remplie de bleu étiquetée « suspension — 72 % », et une barre grise remplie d'environ un quart de bleu étiquetée « congédiement — 27 % ». Sous le résultat prévu et les statistiques se trouve une liste d'affaires comportant des facteurs similaires.]

Benjamin Alarie: Très bien. Ici, la prédiction dit que l'issue appropriée serait une suspension longue, donc deux semaines ou plus de suspension. Ce que vous voyez ici sous le niveau de confiance, c'est qu'il est très peu probable qu'un arbitre dise qu'un avertissement est la sanction maximale ici. Ce que nous voyons ensuite, c'est qu'il y a 72 % de chances qu'un arbitre dise qu'une suspension est l'issue appropriée, et non le licenciement, mais nous voyons encore 27 % de chances qu'un arbitre le choisisse : « Bien. Sur la base de la gravité de cette inconduite, un licenciement serait approprié ici ». C'est vraiment intéressant. Il semble que la suspension soit la meilleure solution. Le point central de cette répartition consiste à dire, oui, une suspension de deux semaines ou plus est la chose la plus probable. Il est très peu probable qu'un avertissement soit l'issue choisie si l'affaire devait faire l'objet d'un arbitrage. Mais il y a une faible chance, une chance sur quatre, en gros, qu'un arbitre convienne que le licenciement est approprié, compte tenu de l'inconduite.

[Il fait défiler la liste des affaires.]

Benjamin Alarie: En faisant défiler la page vers le bas, vous pouvez voir que les affaires les plus similaires ont été immédiatement repérées pour que nous les examinions. Et donc, si je clique sur « View Match Factors » (Voir les facteurs de correspondance),

[Benjamin clique sur un champ intitulé « Voir les facteurs correspondants » à côté d'une affaire. Les listes de facteurs similaires et dissemblables s'agrandissent.]

Benjamin Alarie: on constate que l'affaire de la ville de Bradford est très similaire sur la base de tous ces facteurs similaires impliqués dans cette inconduite. Quelques facteurs diffèrent, mais c'est l'affaire la plus similaire de l'ensemble de données. Et dans cette affaire, l'issue a été le licenciement. C'est intéressant. Je peux faire défiler vers le bas, et cela nous donne une explication sur la raison pour laquelle c'est l'issue appropriée. Il s'agit d'une explication en langage clair. Ainsi, en tant qu'utilisateur, vous pouvez avoir une idée de ce qu'est l'issue appropriée. Je vais faire deux choses ici. Premièrement, je vais modifier la question ici à gauche : « Did any of the above harms actually manifest? » (L'un de ces préjudices s'est-il effectivement manifesté?) Je vais dire que oui. Au lieu d'être simplement potentiels, ces préjudices étaient réels, et nous allons voir quelle influence cela a sur la prédiction.

[Benjamin affiche la question mentionnée et modifie sa réponse pour « Oui ». Le rapport de prédiction reste vide un moment, puis il est actualisé. Le résultat prévu est maintenant « Congédiement ». Le graphique nommé Niveau de confiance évalue la probabilité d'une suspension à 46 % et la probabilité d'un congédiement à 53 %.]

Benjamin Alarie: OK, donc cela fait une grande différence ici, car ce que nous voyons, c'est que maintenant, l'issue la plus probable est qu'un arbitre conviendrait que le licenciement serait approprié dans cette circonstance, car l'inconduite a nui à la réputation de l'employeur et a également entraîné une perte de confiance du public dans une institution publique. Ainsi, l'issue appropriée passe d'une suspension longue à un licenciement. C'est proche. Il semble que le licenciement soit probable à 53 % comme issue, la suspension à 46 %. Mais, tout bien considéré, la meilleure prédiction est qu'un licenciement serait l'issue appropriée. J'ai également mentionné une autre question ici : « Which of the following disciplines is available based on the published policy? » (Laquelle des mesures disciplinaires suivantes est disponible sur la base de la politique publiée?)

[Benjamin sélectionne la question 4.2 dans la barre latérale et choisit l'option « Congédiement ».]

Benjamin Alarie: Et si nous disons que, sur la base de la politique publiée, si l'issue appropriée est le licenciement et que nous gardons tous les autres faits identiques, qu'en est-il de la prédiction sur ce que l'arbitre ferait?

[Le rapport de prédiction est actualisé encore une fois, et le résultat prévu reste le « Congédiement ». Les niveaux de confiance passent à 8 % pour la suspension et à 92 % pour le congédiement.]

Benjamin Alarie: OK. Maintenant il est très clair que si l'orientation publiée sur les mesures disciplinaires progressives pour cet employé particulier disait que le licenciement est l'issue appropriée en fonction de la nature de l'inconduite et des préjudices qui se sont effectivement manifestés, ce licenciement serait amplement justifié dans l'esprit de nos arbitres qui cherchent à résoudre ces affaires. Donc, si j'étais chargé de cette analyse, cela m'aiderait beaucoup à déterminer comment traiter ce problème dans mon service, comment aborder cette inconduite particulière. Cela éclaire mon analyse sur la base de toutes les affaires les plus similaires. Tout le désordre généré par l'inconduite en question, je l'ai analysé, et cela me donne une grande confiance pour m'assurer que j'ai ancré mon analyse dans la jurisprudence applicable dans cet ensemble de précédents qui est pertinent pour cette situation. Cela m'est donc très utile. L'une des choses que je peux faire est de télécharger ce rapport. Si je clique sur « Download report » (Télécharger le rapport), cela produira un PDF de cette analyse. Il est en train de télécharger ce rapport.

[Benjamin clique sur un bouton bleu au bas de l'écran sur lequel il est écrit « Télécharger le rapport ». Une barre de téléchargement apparaît au bas du navigateur, et une icône indique la progression du téléchargement du rapport. Benjamin clique dessus, et le rapport s'ouvre dans un nouvel onglet en format PDF. Il fait défiler le rapport.]

Benjamin Alarie: Et si je l'ouvre, j'obtiens ceci en PDF que je peux transmettre à mes collègues, qui décrit l'analyse, donne l'explication complète des résultats, décrit les détails de l'inconduite et les mesures disciplinaires antérieures. Cela me donne des liens vers toutes les affaires importantes qui sont similaires aux faits de mon cas particulier, ainsi que leur issue. Vous pouvez donc voir que sur les dix cas les plus similaires, dans sept d'entre eux, l'arbitre s'est prononcé en faveur du licenciement de l'employé. Le rapport contient également toutes les questions particulières et toutes les réponses connexes que nous avons saisies dans le système pour produire ce document. Il s'agit donc d'un modèle d'apprentissage automatique qui a été formé sur des centaines et des centaines d'affaires de mesures disciplinaires progressives. Il a été construit en collaboration avec le Centre du droit du travail et de l'emploi au gouvernement fédéral. Il s'agit d'un outil très puissant pour analyser un domaine du droit qui peut être très difficile à pénétrer, pour s'en faire une idée et pour calibrer ses propres intuitions et prédictions sur ce qui serait mérité dans différentes circonstances. Une dernière chose que je dois mentionner est que vous pouvez passer à l'analyse en français et que la plateforme est entièrement bilingue.

[Benjamin revient à l'onglet Blue J. Dans le coin supérieur droit de l'interface, il clique sur une icône utilisateur, et sélectionne « passer au français » dans un menu déroulant. Un petit message d'avertissement s'affiche et il l'ignore. La page se recharge en français.]

Benjamin Alarie: J'ai donc fait ma présentation en anglais, mais vous pouvez passer au français à tout moment et je pourrai alors simplement recharger cet écran final. Tout est identique, sauf que toute l'analyse est en français. Et donc je pourrai faire la même chose, modifier cela. Et si je téléchargeais le rapport, celui-ci serait également en français. Ainsi, en fonction de la langue d'analyse préférée de l'utilisateur, vous pouvez travailler avec le système entièrement en français ou entièrement en anglais, et vous pouvez également vous exprimer dans les deux langues officielles et collaborer avec des collègues qui travaillent sur le même dossier que vous, qui sont peut-être plus à l'aise dans une langue ou dans l'autre. C'est donc très, très utile au sein du gouvernement lorsque vous êtes fréquemment amené à travailler avec d'autres personnes qui peuvent préférer travailler dans l'une ou l'autre langue officielle. Et beaucoup de gens sont aussi à l'aise dans les deux. Je pense que je vais m'arrêter là. J'ai envie d'avoir une discussion avec Taki et Wendy, donc je vais arrêter le partage d'écran et, Taki, Wendy, parlons de tout cela.

[L'écran partagé de Benjamin disparaît. Les panneaux vidéo de Taki et de Wendy réapparaissent, mais celui de Wendy est noir, et une icône de micro désactivé est affichée à côté de son nom.]

Taki Sarantakis: Merci, monsieur. Vous savez quoi? Revenons au partage d'écran, car nous allons montrer quelques éléments pour que les gens puissent vraiment se rendre compte de la puissance de l'IA,

[Benjamin partage à nouveau son écran et fait passer sa page Blue J à la version anglaise. Les trois panneaux vidéo se trouvent sur le côté droit du navigateur.]

Because parce que c'est ce que les quelque 900 personnes qui sont avec nous aujourd'hui sont venues voir. À mesure que Ben a parcouru ce cheminement, vous avez vraiment vu l'IA en action. Ainsi, l'IA, pour les personnes de mon âge et de l'âge de Wendy, c'était un peu de la science-fiction. L'IA était quelque chose dans le futur. Mais elle est là. Ce n'est plus de la science-fiction. Et vous utilisez l'IA depuis plus longtemps que vous le pensez. Chaque fois que vous écoutez Spotify, chaque fois que vous commandez un produit sur Amazon, chaque fois que vous regardez un film sur Netflix, l'IA fonctionne en arrière-plan. Mais maintenant, on commence à voir l'IA accéder lentement à la population active avec différents outils. J'aimerais donc mettre en évidence certaines choses que Ben a faites, puis nous jouerons un peu plus avec cette plateforme.

[Wendy apparaît dans son panneau vidéo.]

Taki Sarantakis: Premièrement, pour ceux d'entre vous qui ont regardé attentivement, l'une des choses qui se sont produites, c'est que Ben a transformé beaucoup de travail manuel en un simple clic. Wendy, avant que nous ne jouions un peu avec la plateforme, parlez-nous un peu de la quantité de main-d'œuvre nécessaire à une telle tâche.

Wendy Bullion-Winters: Donc, du point de vue de l'utilisateur, c'est extrêmement intuitif. Cela prend vraiment 10 à 15 minutes.

Taki Sarantakis: Oh, désolé, Wendy. Désolé, je ne veux pas dire du point de vue de l'utilisation de la plateforme. Je veux dire, parlez-nous sans cet outil.

Wendy Bullion-Winters: Oh, eh bien, sans cet outil. Oui, cela nécessite beaucoup de main-d'œuvre. Pour ceux d'entre vous qui écoutent et qui sont dans ce domaine, vous vous souviendrez que le moteur de recherche existant, qui était le premier avantage que j'ai mentionné dans mes remarques préliminaires, n'est pas très simple. Vous ne pouvez pas effectuer de recherche, par exemple, sur la base du type d'incident. Vous ne pouvez pas, avec notre outil existant, rechercher un type particulier d'incident disciplinaire qui s'est produit, par exemple, dans ce cas, qui était un abus de confiance, ou quelqu'un qui n'exerçait pas ses fonctions de manière responsable sur le lieu de travail. Ainsi, la manière dont nous devions parcourir la jurisprudence et la jurisprudence historique pour trouver de la jurisprudence et des précédents demandait beaucoup de travail manuel. Désormais, CLEL nous aide beaucoup à nous envoyer les décisions les plus récentes qui proviennent de la Commission des relations de travail dans la fonction publique (CRTFP). Mais même le maintien de notre connaissance de la situation jusqu'à hier était assez lourd pour l'équipe. Ce que j'aime dans tout ça, c'est que l'on peut répondre à ces questions très rapidement. Y avoir accès. C'est l'ordinateur lui-même qui va faire le travail pour vous. Il va éplucher toute cette jurisprudence et ouvrir tous les dossiers pertinents jusqu'à ceux d'hier soir. Il est donc à jour, et vous pourrez ensuite décider de ce que vous en ferez. C'est l'être humain qui décide de ce qu'on en fait. OK, celui-ci est vraiment applicable. Celui-là l'est moins. Je vais citer ces cinq affaires qui sont presque identiques à la situation que je traite ici.

Taki Sarantakis: Donc, le premier élément, ce sont simplement des clics, qui font qu'au lieu de passer par toute cette phase, vous vous contentez de cliquer. Le deuxième élément que vous aurez remarqué, ce sont les données. Maintenant, il y a au moins deux types de données ici. Le premier que vous avez vu, c'est, en gros, le système qui a posé à Ben une série de questions, auxquelles il fallait le plus souvent répondre, d'après ce que j'ai vu, par oui ou par non. Et c'est le même genre de chose que vous feriez en tant qu'analyste dans n'importe quel type de programme. C'est comme si vous faisiez un programme de l'ESTC ou de l'ICED vous avez le même genre de questions, par exemple qui est votre bénéficiaire? S'agit-il d'un bénéficiaire admissible? Quelle est la population que vous desservez? Parlez-moi du projet. Dans quelle catégorie de projet cela s'inscrit-il? Parlez-moi du bien-fondé du projet. A-t-il ce mérite? Oui. Non. Oui, non. Etc. Donc, ce que vous faites essentiellement, c'est que vous convertissez du texte en données par un simple « oui » ou « non ». Mais il y a un deuxième aspect des données dont je vais demander à Ben de parler, qui est de comparer vos questions à quelque chose. N'est-ce pas, Ben? Parce que cela nous donne une prédiction. Parlez-nous du second ensemble de données.

Benjamin Alarie: Oui. Donc, le second ensemble de données auquel vous faites référence, Taki, a été laborieusement collecté. Et donc ce que nous faisons à Blue J, c'est que nous avons une équipe entière de recherche juridique supervisée par des avocats, qui a fait l'effort de collecter toutes les décisions passées, tous les jugements passés. Nous avons ensuite créé un ensemble de données de référence, un très grand ensemble de données contenant le texte intégral de tous ces jugements, et déterminé tous les différents facteurs que les arbitres prennent en compte dans chacune de ces affaires. L'ensemble des données du système est donc fondé sur le texte intégral de toutes ces décisions, mais aussi sur une analyse très minutieuse visant à déterminer les différentes caractéristiques de ces affaires, les éléments dont les arbitres ont tendance à se préoccuper lorsqu'ils décident de la conséquence appropriée pour un employé. Et ensuite, nous déterminons cette conséquence. Ce second ensemble de données implique donc vraiment une représentation très élaborée des faits de ces affaires et de leur issue. Et ensuite, place au filtrage par motif. N'est-ce pas? Donc nous avons des centaines et des centaines de ces affaires. Pour chacune d'elles, nous disposons de dizaines de renseignements sur ce qui s'est réellement passé dans cette circonstance et nous avons l'issue. Ainsi, lorsqu'on vous interroge sur le premier ensemble de données dont vous avez parlé, par exemple ce qui s'est réellement passé dans votre affaire, c'est comme si vous rassembliez cette série de renseignements sur cette situation particulière. Et à partir de là, le système dit : « OK, sur la base de cette chaîne de renseignements, dans votre affaire en particulier, il y a des déductions qui peuvent être faites sur la base de cette grande pile de données que le système connaît déjà, sur laquelle il a été formé. Et c'est de là que vient cette prédiction, basée sur toutes ces affaires préexistantes. Ce n'est pas évident, mais je pense que c'est important : quand il fait cette prédiction sur ce qui devrait se passer dans votre affaire, le système s'appuie sur toutes ces affaires figurant dans ce second morceau de données, dans ce second ensemble de données. Il s'agit donc de repérer les décisions présentant des facteurs similaires. Oui, mais il n'ignore pas tout le reste. Il apprend de tout ce qui constitue l'ensemble des données pour faire cette prédiction. Il est impossible qu'un être humain soit capable de lire un millier de décisions portant sur des mesures disciplinaires progressives et de se faire une idée de ce qui devrait se passer dans l'affaire suivante. Et Dieu merci, les gens n'ont plus à le faire, car le système fait ce travail à leur place. Maintenant, bien sûr, l'histoire ne s'arrête pas là. Ensuite, vous devez faire appel à votre jugement humain, à votre intuition et à votre connaissance des joueurs présents à la table. Et vous devez également prendre une décision intelligente en fonction de tous ces facteurs humains. Mais au moins, l'aspect juridique de la question, c'est-à-dire ce qui pourrait se passer si l'affaire devait faire l'objet d'un arbitrage, est résolu pour vous.

Taki Sarantakis: Merci, Ben. Je veux maintenant que les personnes en ligne commencent à penser à leurs données dans leur travail, qu'elles soient comptables, gestionnaires de programmes, IAX ou cadres de direction. Quelle est la particularité de vos données et quelles sont les données globales que vous traitez? C'est peut-être évident pour vous, mais ça peut ne pas l'être. Donc, plus vous commencerez à y réfléchir, plus vous verrez les possibilités d'application dans votre travail. Et Ben a mentionné quelque chose de vraiment important, qui est la reconnaissance de motifs. Beaucoup d'entre nous sont payés, moi y compris, parce que je maîtrise la reconnaissance de motifs. J'ai vu des choses dans le passé et donc, parce que j'ai vu des choses dans le passé, les coûts de transaction associés à mes actions sont relativement faibles plus j'en ai vu. Mais ce que Ben nous a montré, c'est que la machine travaille aussi dans la reconnaissance de motifs et qu'elle est en fait capable de faire, plus rapidement, beaucoup de choses que moi, au cours de ma carrière, j'ai apportées manuellement pour résoudre un problème. Nous allons parler un peu plus en détail des conséquences. Mais d'abord, pensez à l'outil. La dernière chose qui est vraiment, vraiment importante ici, c'est la notion de prédiction, car beaucoup d'entre nous travaillent en fait dans des domaines de prédiction sans le savoir. Chaque fois qu'un ministre demande quelque chose à un sous-ministre, à un SMA ou à un directeur général, il s'agit souvent d'une prédiction. Chaque fois que votre patron vous demande quelque chose, il vous demande en fait une prédiction. Selon vous, qu'arriverait-il si? Je me demande comment le scénario changerait si nous faisions la deuxième chose? Jouons donc un peu avec la plateforme. Nous sommes en présence d'un scénario dans lequel la jurisprudence a dit, compte tenu de cet ensemble de faits, des particularités par rapport à ces données – jurisprudence, décisions des tribunaux, affaires relatives à la Charte des droits, etc. – voici ce qui se passerait : environ trois fois sur quatre, vous obtiendriez une suspension. Environ une fois sur quatre, vous obtiendriez un licenciement. Mais jouons un peu. Donc, à gauche, vous voyez les questions. Passons à la question 2.3, qui se trouve être sur mon écran.

[Benjamin affiche la question 2.3 dans une boîte de dialogue contextuelle.]

Taki Sarantakis: « Did the nature of the potential harm or misconduct pose a risk to public health or safety? » (La nature du préjudice ou de l'inconduite potentielle présentait-elle un risque pour la santé ou la sécurité publique?) Je pense que si l'on change la réponse de « oui » à « non », on obtiendra un résultat différent. Mais en fait, je n'en sais rien, car je ne suis pas expert dans ce domaine. Alors, cliquez dessus, s'il vous plaît.

[Benjamin modifie la réponse pour « non ». Le rapport de prédiction affiche maintenant un résultat prévu d'une suspension de deux semaines ou plus. Les niveaux de confiance indiquent une probabilité de suspension de 68 %, une probabilité de congédiement de 31 % et une probabilité d'avertissement de 1 %.]

Taki Sarantakis: Vous voyez donc que cela a eu un certain impact, mais pas beaucoup, donc ce n'est pas nécessairement un impact conséquent. Passons maintenant à la question 2.5.

[Benjamin affiche la question 2.5.]

Taki Sarantakis: « Was it planned or premeditated? » (Était-ce planifié ou prémédité?) Donc pour l'instant, nous l'avons réglé sur Planifié, je crois. C'est ce que le « oui » signifie?

Benjamin Alarie: Oui, c'est ça.

Taki Sarantakis: Alors, changeons ça en « non », indiquant que c'était une sorte d'accident par opposition à un acte prémédité.

[Benjamin modifie la réponse pour « non », et le rapport est actualisé. Le résultat prévu ne change pas, mais les niveaux de confiance passent à 86 % pour la suspension, à 13 % pour le congédiement et à 1 % pour l'avertissement.]

Taki Sarantakis: Oh, regardez-moi ça! Cela a eu un impact important. Je pense que vous avez réduit de moitié la probabilité d'un licenciement et que vous avez augmenté la possibilité ou la probabilité d'une suspension à 86 fois sur 100. C'est la proportion à laquelle les arbitres ou les tribunaux ont statué de la sorte dans le passé pour des faits similaires. Donc, vous êtes plutôt confiant. Alors, revenons en arrière.

[Benjamin modifie sa réponse et le rapport est actualisé, montrant les résultats précédents.]

Taki Sarantakis: Nous sommes revenus à une probabilité de trois sur quatre et un sur quatre. Continuons à faire défiler la page vers le bas où nous sommes maintenant à deux... Nos scénarios sont donc à peu près à deux tiers, un tiers. Alors, faisons défiler et voyons.

[Benjamin fait défiler les questions sur la barre latérale.]

Taki Sarantakis: OK, ralentissez, car je suis vieux, l'employé est vieux. Voyons « remorse » (remords), question 2.9. Donc ici, l'employé a dit, « Je suis vraiment désolé. Je ne voulais pas faire ça. » Supposons qu'il n'en a pas formulé.

[Benjamin affiche la question 2.9 et sélectionne « non ». Le rapport est actualisé.]

Benjamin Alarie: Voilà qui a augmenté la probabilité d'un licenciement, Taki. Les chiffres sont faibles, mais on voit 39 %, ce qui fait que le licenciement constitue une issue appropriée beaucoup plus probable.

Taki Sarantakis: Exactement, donc maintenant vous pouvez voir que, comme votre avocat, votre professionnel des RH ou autre pose ces questions, vous pouvez en fait voir pourquoi dans le passé il vous les posait, car il essaie d'associer les données qu'il a en tête avec les particularités de ce que vous faites ou les données qui sont dans sa bibliothèque ou les données qui sont sur un ordinateur. Et puis, il fonctionne un peu à tâtons vers ce qui se passerait ici, ce qui se passerait ici. Revenons en arrière pour que nous soyons à peu près, de nouveau, à un tiers, deux tiers.

[Benjamin modifie la réponse pour « oui », et le rapport est actualisé.]

Taki Sarantakis: Et ensuite, faisons défiler vers le bas et trouvons une autre question. Descendez un peu.

[Benjamin fait défiler la barre latérale lentement.]

Taki Sarantakis: Euh... Voyons, question 2.12.

[Benjamin affiche la question 2.12.]

Taki Sarantakis: C'est ici que, ici qu'un employé n'a pas compris les conséquences de ses actes, il a exprimé sa volonté d'adopter à nouveau le même comportement, etc. Voyons ce qui se passe si vous cliquez là-dessus. Cela plaide donc pour l'employé.

[Benjamin sélectionne « oui », et le rapport est actualisé. Les niveaux de confiance passent à 60 % pour la suspension et à 39 % pour le congédiement.]

Taki Sarantakis: Incroyable! Donc. Regardez ça, cependant, ça a eu un impact, alors revenez en arrière encore une fois.

[Benjamin modifie la réponse, et le rapport est actualisé.]

Taki Sarantakis: Maintenant, regardons un peu du point de vue de l'employeur. L'employeur dans ce cas est une organisation du gouvernement du Canada. Voyons l'impact de la façon dont l'employeur s'est comporté ou non ou a publié des choses à l'avance, si cela a eu un impact. Disons la question 3.2. Votre organisation a-t-elle proposé une formation à ce sujet? Disons que oui.

[Benjamin affiche la question 3.2. Il sélectionne « oui » et le rapport est actualisé, montrant des niveaux de confiance à 54 % pour la suspension et à 45 % pour le congédiement.]

Taki Sarantakis: Regardez ça, grand saut, grand, grand saut. Ainsi, en tant qu'employeur, si vous avez clairement fait savoir que ce type de comportement n'est pas normal, qu'il n'est pas acceptable, et que vous avez également proposé une formation, vous êtes passé de deux tiers de suspension à environ 50/50 de licenciement. Donc maintenant, vous pouvez commencer à voir en tant qu'employé, voici un peu la situation. En tant qu'employeur, vous faites quelque chose de très intéressant. Vous ne vous occupez pas nécessairement que de cette affaire. Vous commencez en fait à éliminer des affaires de manière préventive, car cela vous dit maintenant, en tant qu'employeur, que si vous faites les choses suivantes, vous avez en quelque sorte fait ce qu'il fallait, et les employés ont en quelque sorte agi en conséquence. Mais en tant qu'employeur, vous avez l'obligation ou l'avantage de faire savoir à vos employés ce qu'il convient de faire. Alors, revenons en arrière, Ben.

Benjamin Alarie: Je pense que c'était la 3.2, donc nous allons changer ça en « non ».

[Benjamin sélectionne la question 3.2 et modifie la réponse pour « non ». Les résultats du rapport changent. Benjamin fait défiler les questions.]

Taki Sarantakis: Et faisons défiler un peu plus. Oh, donc ça parle de l'historique de l'employé. Ainsi, au lieu de vous concentrer sur l'acte qui s'est produit, vous prenez maintenant l'acte, plus l'historique de l'employé. Passons à la 4.4. Dans notre scénario actuel, c'est la première fois que l'employé fait quelque chose comme ça. Voyons s'il l'a déjà fait, si c'est sa deuxième ou troisième fois, ou plus que sa première fois.

Benjamin Alarie: Oui. Donc, ce que cette question – pour être très clair – ce que cette question dit, c'est que cet employé particulier a fait cette chose similaire dans le passé, qui avait été en quelque sorte mise sous le tapis à l'époque. Il n'y avait eu aucune conséquence pour l'employé auparavant. Et donc cela avait été en quelque sorte toléré avant. Voyons ce qui se passe quand on change ça.

[Benjamin affiche la question 4.4 et sélectionne « oui ».]

Taki Sarantakis: Merci pour ça.

[Le rapport est actualisé. Les niveaux de confiance passent à 80 % pour la suspension et à 19 % pour le congédiement.]

Benjamin Alarie: OK, donc cela a vraiment sensiblement réduit la probabilité d'un licenciement; il est dit que, tout au plus, vous allez être en mesure de faire une suspension ici.

Taki Sarantakis: Regardez ça, c'est énorme, énorme. Cela revient à dire que, parce que l'employé l'a fait dans le passé et que vous n'aviez pris aucune mesure, cela augmente la probabilité que l'employé obtienne une suspension plutôt qu'un licenciement, parce que vous, en tant que patron, vous aviez été un peu négligent ou paresseux, ou vous n'étiez pas allé au bout des choses. Vous pouvez donc voir qu'il s'agit d'un outil très puissant qui permet non seulement de traiter ces affaires, mais aussi de vous donner un cadre politique pour « si cela se produit dans mon organisation, il est important que je fasse ceci ou il n'est pas important que je fasse cela », etc., etc. Alors maintenant, Wendy, rejoignez-nous. Vous êtes responsable des RH. Ces petits ajustements que nous venons de faire ici, combien de temps cela aurait-il pris sans l'IA?

Wendy Bullion-Winters: Eh bien, c'est la partie sur laquelle je ne saurais trop insister. C'est ce qui change la donne, car avant de passer à l'arbitrage, il faut passer par trois niveaux d'audience de grief au sein du service lui-même. Et autour de la table, il y a la direction d'un côté et souvent la représentation des employés de l'autre, parfois les syndicats, parfois d'autres personnes. Donc, parfois, lors de ces audiences de grief, on se dispute sur un fait particulier. Par exemple, l'employé a-t-il été averti ou a-t-il suivi une formation? Et maintenant nous pouvons utiliser cet outil pour produire deux scénarios, si nous ne pouvons pas nous mettre d'accord sur le fait que l'employé a été averti ou non, nous pouvons produire un scénario qui montre qu'il a été averti, et un autre qui montre qu'il ne l'a pas été. Et parfois, cela ne change rien à la prédiction. On peut donc maintenant cesser de perdre notre temps à parler de cette variable particulière et en venir à la base de la discussion. C'est donc un aspect que je trouve vraiment, vraiment utile, dans la pratique. Et sinon, cela met aussi... cela nous donne la base de référence. Il s'agit d'environ 30 questions statiques qui ne changent pas. Les 30 mêmes questions statiques sont posées pour chaque affaire en cours, ce qui assure l'uniformité et la cohérence de l'analyse entre les différents professionnels des relations de travail. Ainsi, pour moi, en tant que responsable des RH, je suis sûre qu'ils analysent chaque affaire de manière adéquate, cohérente et uniforme, de sorte que je puisse avoir confiance en eux, même à partir de nos PE-01 jusqu'en haut. C'est donc aussi un excellent outil de formation. Comme nous le savons, il y a une pénurie de personnel dans le domaine des RH. Parfois, nous ne parvenons pas à recruter des professionnels expérimentés en matière de relations de travail. À mon sens, cet outil fait vraiment avancer la courbe d'apprentissage pour nos nouvelles recrues qui arrivent dans ce domaine complexe, qui peut être très intimidant et accablant au début. C'est aussi un endroit où la nomenclature peut sembler cryptique. Et ce que ça fait, on ne vous l'a pas montré, mais il y a des définitions. Vous passez votre souris sur des points particuliers et vous obtenez une définition de ce que signifie ce mot ou de ce que la question demande vraiment. Par exemple, sur les circonstances atténuantes ou aggravantes que nous venons de passer en revue, une circonstance atténuante serait que l'employé montre des remords, une circonstance aggravante, qu'il y a eu atteinte à la réputation de l'organisation. Voilà donc la véritable utilité de ces outils.

Taki Sarantakis: Vous pouvez donc voir maintenant que ces outils vous aident à la fois en tant qu'employé, en tant qu'employeur, en tant qu'avocat, en tant qu'audience du tribunal. Ils vous aident en commençant à éliminer les coûts de transaction associés à la recherche dans le passé et à la découverte de peut-être 100 ans de jurisprudence ou à la lecture de montagnes de documents ou à la recherche répétée au sein du gouvernement, dans nos carnets, en disant, « Je croyais que l'employé avait montré du remords. Je m'en souviens, je l'ai consigné. Je l'ai écrit il y a trois mois. » Et quelqu'un dit : « Non, j'ai écrit qu'il n'avait pas de remords. » Mais ici, vous avez en fait converti des mots en données d'une manière très simple et logique. Encore une fois, je vous encourage tous à vous demander dans quelle partie de votre travail vous utilisez des mots qui peuvent être convertis en données. Si vous y réfléchissez un peu, vous serez surpris. Parce que nous commençons à le faire à l'École de la fonction publique du Canada avec des choses comme les descriptions de cours, dans lesquelles nous avons pris des mots simples et nous les avons convertis en données. Nous ferons peut-être une séance sur ce sujet à un moment donné. Mais c'est vraiment, vraiment important. Je me tourne vers Ben. Cela doit coûter – ne me dites pas combien vous facturez – mais cela doit coûter des milliards de dollars, car... en fait, vous avez pris des milliers d'affaires. Vous les avez parcourues manuellement. Vous avez une équipe d'avocats, huit ou neuf cents avocats qui se penchent constamment sur la question et qui préprogramment ce qui se passerait. Évidemment, je blague. Dites-nous comment cela fonctionne réellement.

Benjamin Alarie: Eh bien, [Benjamin glousse] Taki, me demandez-vous combien cela a coûté de construire le système ou combien cela coûte aux gens d'utiliser le système?

Taki Sarantakis: Combien cela coûterait. Par exemple, si je voulais l'utiliser aujourd'hui, est-ce un coût prohibitif ou est-ce relativement bon marché?

Benjamin Alarie: Alors, c'est intéressant. Cela nous ramène à quelque chose dont vous avez parlé au début. Notre offre est disponible sur l'offre à commandes principale et nationale du gouvernement du Canada. Et le coût par place, par utilisateur et par an est d'environ mille dollars. Il s'agit donc d'un prix prénégocié. Vous pouvez le consulter par utilisateur. C'est à peu près mille dollars. Ou, si vous préférez penser par mois, c'est environ quatre-vingts dollars par mois pour avoir accès à ce système, ce qui veut dire que je ne pense pas que ce soit du tout prohibitif. C'est un petit investissement pour améliorer réellement l'efficacité d'une équipe ici.

Taki Sarantakis: Et c'est une autre caractéristique clé de l'IA. Une fois qu'elle est construite, les applications, toutes proportions gardées, ne coûtent que quelques centimes. Une fois que quelque chose est fait, tout ce travail qui était manuel est maintenant automatisé, car l'algorithme – chaque fois qu'il y a une nouvelle affaire, vous n'avez pas besoin de revenir en arrière et de reprogrammer les choses et d'avoir des avocats et un informaticien ou autre – l'algorithme apprend, tout simplement. L'algorithme se contente de l'intégrer. Donc, une fois que vous l'avez mis en place – et c'est la raison pour laquelle beaucoup d'entreprises comme Facebook, Amazon et Google sont en train de conquérir le monde, car elles ne font plus les choses manuellement. Ils n'ont pas d'armées de personnes qui épluchent les données et les passent au peigne fin : « Où vit untel? », « Où vit Bob? » « Quel est le genre de choses que Mary aime acheter? » « Bill a-t-il reçu son vaccin hier? » Ce sont donc toutes des choses que l'algorithme apprend. Et terminons là-dessus : comment un algorithme apprend-il, Ben?

Benjamin Alarie: Eh bien, je pense que c'est tout à fait adapté au titre de cette semaine. Ce sont des données. N'est-ce pas? Nous avons donc des données. Tous ces modèles d'apprentissage automatique sont formés sur des données. Ainsi, si vous ajoutez de nouvelles données et que de nouvelles affaires sont jugées, elles enrichissent l'ensemble des données existantes et cela change l'appréciation des algorithmes sur ce qui est susceptible de se produire dans la prochaine affaire. Et donc vous continuez à accumuler de nouveaux renseignements au fil du temps. Et ce qui est vraiment bien, c'est qu'à mesure que les tribunaux apprennent au fil du temps, que les préférences sociales changent, que les arbitres traitent des affaires nouvelles et inédites, ce système est capable de s'adapter à ces nouveaux changements, car nous avons de nouvelles données. Vous disposez donc de nouvelles données, et le système va pouvoir tirer des enseignements de ces nouvelles affaires, ce qui modifiera légèrement les prédictions concernant les nouvelles affaires à venir que vous pourriez analyser au sein du gouvernement, dans les RH en tant que conseiller en RT, par exemple, vous allez bénéficier de ces nouvelles affaires jugées la semaine dernière. Les prédictions vont en tenir compte en raison des données.

Taki Sarantakis: Ben, Wendy, merci. Le premier épisode de notre semaine de démonstration des données de l'EFPC, toutes les entreprises que nous présentons cette semaine, y compris certaines choses que nous avons faites au sein de l'École de la fonction publique du Canada, nous-mêmes pour nos propres besoins, tout est canadien. La technologie est canadienne. Dans certains cas, elles sont déjà préapprouvées dans le système du gouvernement du Canada, c'est-à-dire qu'elles ont obtenu les approbations de SPAC. Mais l'objectif d'aujourd'hui n'était pas tellement que vous en appreniez davantage sur les relations de travail, à moins que vous ne travailliez dans un domaine de relations de travail. L'objectif d'aujourd'hui et de tous les autres jours est de vous montrer le pouvoir des données pour votre travail. Pensez aux tâches qui impliquent des données dans votre travail. Pensez aux tâches qui impliquent une reconnaissance de motifs dans votre travail et pensez aux tâches répétitives. Voilà quelques-unes des choses qui, à l'avenir – et l'avenir, cela peut être plus tard dans l'après-midi ou demain – mais, à l'avenir, ce sont des choses que l'IA pourra traiter. Elle ne vient pas vous faire du mal, elle vient vous aider. Parce que ces choses sont manuelles, longues et répétitives. Et vous, en tant que professionnel du gouvernement du Canada, vous voulez apporter votre professionnalisme à un emploi. Vous ne voulez pas apporter des choses manuelles, chronophages et inefficaces à un emploi. Vous voulez apporter ce qu'il y a d'humain en vous dans un emploi, c'est-à-dire votre jugement, votre créativité et votre curiosité. Merci de vous être joints à nous pour notre première séance de la semaine de démonstration de l'EFPC. Nous conclurons avec l'IA vendredi. Chaque jour, nous proposons de nouvelles démonstrations. Demain, nous aurons une démonstration sur l'une des grandes questions de notre époque, la désinformation et la confiance. Vous découvrirez une petite entreprise canadienne à but non lucratif, gérée depuis l'Université de Toronto, qui s'efforce de rendre la consommation d'informations plus sûre pour chacun d'entre nous. Merci d'avoir été des nôtres. Portez-vous bien!

[Wendy sourit, Taki se recule dans sa chaise. L'appel Zoom s'estompe. Le logo blanc animé de l'École de la fonction publique du Canada se dessine sur un fond violet. Une page apparaît, puis elle se transforme en livre ouvert. Une feuille d'érable apparaît au milieu du livre, qui ressemble aussi à un drapeau en dessous duquel se trouvent des lignes courbes. Le mot-symbole du gouvernement du Canada apparaît : le mot « Canada » avec un petit drapeau canadien flottant au-dessus du dernier « a ». L'écran devient noir.]

Liens connexes


Date de modification :