00:12Bien dans son job pour parler de l'IA, alors tout le monde parle de l'IA, il y a
00:15mille portes d'entrée pour évoquer l'IA et on a choisi cet angle, l'IA et l'éthique en
00:20entreprise qui est assez peu traité et qui finalement est un sujet à déflorer.
00:24On en parle avec vous Marie Bouni, bonjour, très heureux de vous accueillir, docteur en droit, partenaire stratégie innovation sociale
00:30chez SIA et vous allez nous parler de cette finalement qui est un sujet d'enjeu, la fracture de confiance
00:36entre les français, les collaborateurs aussi et l'IA, est-ce que c'est un risque économique qui est sous
00:43-estimé ?
00:44Oui, il y a un risque en France en matière de déploiement de l'IA, alors il y a une
00:48grande suite qui avait été lancée, il y avait 11 000 répondants et sur 11 pays, la France avait le
00:55pourcentage de crainte de l'IA le plus fort.
00:5873% des français redoutent l'impact de l'IA sur leur mode de vie, ils sont 40% chez
01:07les japonais, 41% chez les chinois, 65% chez les américains, donc là il y a un enjeu très
01:13fort en matière de déploiement de l'IA, ça ne veut pas dire que les salariés français sont averses à
01:19l'IA,
01:19beaucoup ils l'utilisent d'ailleurs, ils l'utilisent, pour 60% c'est une opportunité l'IA, mais ils
01:26veulent une IA digne de confiance.
01:28Justement, revenons sur cette IA digne de confiance, parce qu'on voit bien que l'enjeu c'est la manière
01:32dont va se servir l'entreprise de cet outil et de cette IA, c'est là où il y a
01:36des frottements et des blocages, c'est bien ça le sujet, c'est la transparence finalement en creux.
01:39Tout à fait, c'est la transparence, l'IA éthique c'est pas abstrait, c'est très concret même, c
01:47'est par exemple dans un processus RH, pour un candidat, c'est à quel moment l'IA intervient, pour une
01:55promotion c'est pareil, pour une formation c'est pareil, pour un licenciement peut-être que ça peut être pareil,
02:01est-ce que oui ou non doit avoir recours à l'IA et à quel moment du process ?
02:05Donc déjà ça c'est un point, que le candidat ou le salarié soit informé de ce recours à l
02:10'IA, que les outils soient suffisamment robustes et explicables, c'est-à-dire à un moment si un salarié dit
02:17pourquoi je n'ai pas été promu ou pourquoi je n'ai pas telle formation, il faut être capable de
02:20lui expliquer qu'est-ce qu'il y a derrière les algorithmes.
02:23Donc ça veut dire qu'à travers votre prise de parole aujourd'hui sur le plateau et vous représentez SIA,
02:28il y a quand même l'enjeu d'une forme de citoyenneté, d'un rapport de citoyenneté à l'outil,
02:32être capable de poser des questions à son RH ou à son manager, c'est ça le sujet ?
02:37C'est un des sujets oui et c'est un des sujets parce que ça ne doit pas être une
02:40boîte noire. La boîte noire, le risque c'est le risque de déploiement, c'est la crainte.
02:47Et donc bloquer le déploiement dans une période de contexte international, de concurrence extrêmement forte en matière d'IA, pour
02:55nous c'est prendre du retard.
02:56Donc ça veut dire que SIA travaille aussi à travers l'agrégation de toutes ces données que vous nous révélez
03:00et qui sont passionnantes, à quoi ? Créer une charte éthique, à la démultiplier dans les grandes entreprises, l'afficher
03:07?
03:07Comment ça pourrait prendre forme puisque c'est concret ce sujet ?
03:10Alors c'est concret et il y a différentes modalités. Effectivement, les entreprises écrivent des chartes, on a fait une
03:16analyse autour de 20 grandes chartes éthiques pour identifier quelles sont les grandes exigences qui sont représentées, comment elles sont
03:23formulées.
03:24Mais au-delà de ça, il y a toute une des enjeux de gouvernance en matière d'IA, c'est
03:29-à-dire qu'on est sur un sujet transverse, il faut associer la compliance, les data, les data analystes, les
03:36RH et un certain nombre de fonctions de l'entreprise.
03:39Il faut également associer les collaborateurs.
03:41Ça, ça se dit en une phrase, c'est pas simple dans la vraie vie.
03:43C'est pas simple dans la vraie vie parce qu'il y a beaucoup de silos.
03:45Il y a beaucoup de silos.
03:46Voilà, chacun est dans son silo, dans son couloir et puis chacun ne se comprend pas dans la réalité d
03:53'une entreprise.
03:53Il faut créer un langage commun.
03:55Il faut créer un langage commun pour...
03:57Et nous, on travaille aussi, justement, à favoriser ce type de gouvernance.
04:01Et à côté de la gouvernance, il y a beaucoup d'enjeux autour de l'étude des outils, de leurs
04:08impacts.
04:09Et aussi un enjeu qui, pour moi, est fondamental, c'est l'association des salariés et de leurs représentants.
04:13J'allais y venir, l'enjeu du dialogue social avec des représentants du personnel, des élus au CSE, qui soient,
04:22quoi, formés.
04:23Parce que savoir prompter Tchab-GPT, ça ne veut pas dire challenger le patron de la DSI.
04:29Oui, effectivement.
04:31Après, nous, on a une vision où les formations communes sont importantes sur ces sujets-là.
04:36Les formations communes, c'est qu'on forme ensemble les RH et les représentants du personnel sur ces sujets qui
04:43sont techniques, qui ne sont pas du tout simplistes.
04:45Et à un moment, il faut créer une compréhension sur ces sujets-là.
04:49Vous êtes docteur en droit.
04:50Avant de parler de l'angle mort, de la question du genre, qui est un vrai sujet, le droit est
04:55très clair sur la possibilité d'un partenaire social à ouvrir le capot.
04:59Il a le droit de quoi faire ?
05:00Alors, aujourd'hui, on commence à avoir des décisions de justice qui tombent, qui mettent en exergue qu'il faut
05:06associer les représentants du personnel.
05:08C'est-à-dire que quand on veut déployer une IA, il faut informer et consulter ces représentants du personnel.
05:13Et il y a des entreprises qui ont pris des devants.
05:15Il y a des entreprises qui ont négocié des accords sur le dialogue social et l'IA dans leur entreprise.
05:21Et comment on va travailler ensemble ?
05:22Marie, un dernier mot.
05:24L'IA est le genre, on se souvient, d'Amazon, qui est un peu le plus emblématique, qui, dans les
05:27recrutements, avait plutôt favori les hommes au dépend des femmes.
05:30Qui est un vrai sujet.
05:31Ce n'est pas un outil neutre, l'IA, en fait ?
05:33Ce n'est pas un outil neutre.
05:34L'IA, en fait, reproduit les stéréotypes passés.
05:38Donc, si on ne met pas de régulateur dans l'IA, on va avoir des risques en matière de discrimination.
05:46Et notamment dans les principes éthiques, il y a cette idée que l'IA ne doit pas générer de discrimination,
05:51ne doit pas reproduire de discrimination.
05:54Donc, ça, ça se joue au moment de la gouvernance, de l'association, en fait, de la création de l
06:01'outil, de la formation aussi, pour un bon usage de l'IA.
06:06Aujourd'hui, on voit que les hommes utilisent un peu plus l'IA que les femmes.
06:09Donc, c'est aussi un enjeu dans le déploiement, dans la formation, avoir des indicateurs de suivi sur toutes ces
06:15données.
06:15Ce n'est pas un sujet passionnant, et vous le dites, et je le reprends, ce n'est pas un
06:19sujet théorique.
06:20Quand on parle d'IA et d'éthique, ce n'est pas un sujet philosophique éthéré.
06:23C'est un sujet de réalité du quotidien des entreprises.
06:27Merci de nous avoir éclairé, chère Marie Bounine, sur ce sujet passionnant.
06:30Docteur en droit, partenaire stratégie, innovation sociale, chez SIA.
06:34On tourne une page.
06:35Tiens, on s'intéresse d'ailleurs à un sujet qui peut-être connexe les RPS, vous savez, les risques psychosociaux.
06:40Peut-être d'ailleurs que l'IA peut avoir une incidence sur ces RPS.
06:43On va peut-être en parler avec mes invités, c'est le cercle RH.
06:45C'est le débat, et on en parle, évidemment, les RPS.
06:49C'est un sujet essentiel, si vous voulez garder vos collaborateurs.
06:54On en débat avec mes invités, c'est le cercle RH.
Commentaires