00:01BFM Bourses, vos placements, nos conseils sur BFM Business.
00:05Anne-Catherine Husson Traoré, fondatrice d'Actors for Sustainability.
00:09Bonjour.
00:10Bonjour.
00:10Merci d'être avec nous et avec vous on va essayer de résoudre une question qui est de plus en
00:13plus épineuse.
00:14L'IA, est-ce que ça crée de l'activité ? Est-ce que ça en détruit ?
00:19Est-ce que ça crée de la valeur ? Est-ce que ça en détruit ?
00:21Nous on va surtout parler de l'emploi, là effectivement, et de l'impact de l'emploi.
00:26On a quand même eu des annonces très très importantes du côté de chez Oracle
00:30et on en a parlé à cette antenne avec, sur la forme, une sauvagerie pas trop faible.
00:37Chez Dell, ça a été un petit peu la même chose.
00:40Là, on parle de plusieurs dizaines de milliers de suppressions de postes du jour au lendemain
00:45de gens qui ont appris, qui ont été virés.
00:49Voilà. Est-ce que c'est le seul aspect qu'on doit retenir en ce moment des ajustements,
00:53des effets de bord de l'IA ? C'est que, dans un premier temps, ça va détruire de l
00:58'emploi.
00:58Alors, j'allais dire souvent, plutôt la façon dont les entreprises concernées,
01:04alors déjà au premier chef par l'IA, sont en train de régler ce problème.
01:07C'est-à-dire qu'il y a une espèce d'accélération partout, technique, ça on sait,
01:11mais aussi finalement sociale, parce que c'est l'idée de commencer par licencié
01:15avant même d'avoir fait la proof of concept du fait que l'IA remplacera réellement ces personnes.
01:21Alors, je ne résiste pas au plaisir de vous lire le mail par lequel Oracle a licencié ce jour 30
01:28000 personnes.
01:29« Après mûres réflexions et compte tenu des besoins actuels d'Oracle,
01:33nous avons décidé de supprimer votre poste dans le cadre d'une restructuration plus large. »
01:39Et il y avait quand même merci, juste après.
01:41Merci, bonne journée, vous pouvez signer sur DocuSign.
01:43C'est ça, envoyer à 30 000 personnes au Canada, au Mexique, aux Etats-Unis, etc.
01:48Et la logique d'Oracle, c'était de dire, écoutez, compte tenu de nos besoins en investissement,
01:53on n'a plus besoin de vous.
01:55Mais on voit bien que, et c'est la même chose chez Intel,
01:58où on est de l'ordre de 20% des effectifs,
02:01Meta se préparer à faire exactement la même chose.
02:04Alors, on est quand même déjà sur des dizaines de milliers.
02:06Meta, s'il supprime 20%, on est sur 16 000.
02:09On a vu aussi, c'est à une plus petite échelle, mais chez Block, la boîte de Jack d'Orsay,
02:15là aussi, c'était assez peu de réduction de poste,
02:18mais alors avec une sauvagerie aussi.
02:20Alors, je dirais, en termes sociaux, là, on est à ce qui peut se faire de pire.
02:25On voit bien qu'on n'est plus dans l'humain du tout.
02:27Et puis même sur des petits, par exemple Microsoft, ce n'est que 4%, ok,
02:31mais c'est 15 000 personnes.
02:32Et la question délirante, c'est qu'en fait,
02:36ces licenciements se justifient pour faire face à ce qui devient de plus en plus fou,
02:41c'est-à-dire une accumulation d'investissement dans l'IA,
02:45avant même qu'on ait vraiment compris à quoi ça servait.
02:48C'est ça que j'allais vous dire, parce que l'excuse, ça pourrait être
02:51« Ouais, vous allez être remplacé par l'IA ».
02:53Pas du tout.
02:54On va économiser le paiement de votre salaire
02:57pour pouvoir financer un prochain data center.
02:59Et alors là où ça devient délirant, c'est que c'est un mouvement
03:01dans ces grandes entreprises de la tech,
03:04qui n'est pas nouveau en plus, mais qui s'accélère.
03:06Mais du coup, les ETI font un peu pareil.
03:08On a vu des ETI qui ont supprimé leur fonction support
03:11au motif que l'IA allait prendre le relais,
03:14en ayant bricolé un truc avec ChatGPT,
03:16qui n'ont même pas vérifié que cette mécanique
03:19était capable d'aller chercher la bonne facture dans le CRM, etc.
03:23Et qu'on voit qu'étude après étude, l'IA fait que des,
03:27pardonnez-moi l'expression, mais fait que des conneries.
03:29Et qu'on est obligé de revenir en arrière
03:31et de contrôler le truc, parce que ce n'est pas encore au point.
03:34Et puis, si vous ne gérez pas vos factures,
03:35vous n'allez pas gérer vos clients, vous allez les perdre.
03:37Donc, ils vont peut-être économiser en masse salariale à l'instant T,
03:40mais à l'instant T plus 1, ils n'auront plus de clients.
03:41C'est ça.
03:42Ou en tout cas, des clients tellement mécontents
03:43qu'ils ne vont pas renouveler leurs contrats.
03:45Donc là, on est vraiment sur un affolement, d'une certaine façon.
03:50Évidemment, quand on regarde les trésoreries
03:52et les taux d'endettement des uns et des autres,
03:54à commencer par Oracle,
03:56on se dit que ce réflexe de dire
03:57« je vais faire baisser ma masse salariale, ça va aller mieux »,
03:59il est juste absurde.
04:00Et donc ça, c'est le problème social.
04:03Et ce qui est intéressant, c'est que c'est le plus visible,
04:05j'allais dire, et le plus traumatisant
04:06pour ceux qui ont reçu ce fameux mail.
04:08En revanche, et l'alerte ne vient quand même pas
04:11d'un grand patron social,
04:13en l'occurrence Larry Fink, le patron de Black Hawk,
04:16qui est à Davos et dans sa lettre annuelle,
04:18a commencé à dire « attendez, ça ne va pas du tout,
04:20là, on est en train de construire une mécanique folle
04:23qui va creuser les inégalités ».
04:25Alors, ce qui est intéressant, c'est qu'il le théorise très clairement.
04:27Il dit « en fait, la mondialisation a quasiment supprimé
04:30dans les pays occidentaux les cols bleus,
04:32c'est-à-dire les ouvriers,
04:33et là, on est en train de faire exactement pareil aux cols blancs ».
04:35Avec les cols blancs.
04:36Donc, à l'arrivée, il n'y a plus de salariés.
04:38Et s'il n'y a plus de salariés,
04:39là, les inégalités atteignent des sommets incroyables.
04:43Alors, ce qui est assez amusant, entre guillemets,
04:45c'est que l'arrivée dit « écoutez, le seul moyen,
04:48c'est du coup de partager la richesse en bourse.
04:51Donc, il faut que tous les géants,
04:53type OpenAI, Anthropik, etc.,
04:55soient cotés pour que chacun bénéficie de cette manne. »
04:59Ben oui, et puis ils vont devoir rendre des comptes après.
05:01Ça va être une culture d'entreprise différente.
05:03C'est ça.
05:04Cela dit, ce n'est pas qu'une question de…
05:06Il nous reste une minute, là.
05:07Ce n'est pas qu'une question d'hyperscalers
05:09ou de super grosses entreprises.
05:12Sur le terrain, ça touche aussi des plus petites entreprises.
05:14Alors, ça, il y a ce premier problème.
05:16Et le deuxième problème,
05:17et c'est ça qui est intéressant
05:18quand on essaie de regarder, j'allais dire,
05:21la vision globale,
05:22c'est que finalement, l'IA partout,
05:25ça veut dire effectivement déshumanisation à peu près partout,
05:28y compris dans des processus de recrutement.
05:29Puisque là, on vient de parler de la sortie,
05:31mais après, il faut essayer de retrouver un travail.
05:33Et là, il y a une affaire qui est très intéressante
05:35qui concerne quand même 14 000 personnes en Californie
05:38qui ont fait une class action
05:40contre un logiciel,
05:41enfin, contre une structure de recrutement
05:43qui s'appelle Workday
05:45et qui consiste à effectivement
05:47traiter des milliers de candidatures
05:48et évidemment avec de l'IA.
05:50Et en fait, ce qui est intéressant,
05:51c'est qu'au départ,
05:54le procès est parti d'un ingénieur noir
05:56d'un certain âge
05:57qui, jusque-là, trouvait facilement du travail.
06:00Puis, il s'est aperçu
06:00qu'il recevait ses mails de refus,
06:02j'allais dire, quasiment avant même
06:04d'avoir envoyé ses candidatures.
06:05Donc, en tout cas, à des heures bizarres,
06:07en plein week-end, etc.
06:08Donc, il s'est dit, bon,
06:09il n'y a pas d'humain qui intervient.
06:10Donc, il en a parlé à un avocat
06:12qui lui dit, oui, il y a effectivement un problème.
06:14Et en fait, les 14 000 personnes en question
06:15sont des gens qui ont reçu
06:16une réponse quasi automatique
06:18de rejet sur des phénomènes
06:20qui ne sont visiblement pas liés
06:21à leurs compétences.
06:22Donc, du coup, ça peut être leur âge,
06:24leur couleur de peau,
06:26leur religion,
06:27tout phénomène qui, évidemment,
06:29liant, crôlant beaucoup plus de données,
06:31se voit vite avec un CV, etc.
06:33Et en fait, ce qui est intéressant,
06:35c'est que la juge qui a accepté
06:36d'un soin à la plainte,
06:37donc l'affaire suit son coût,
06:38à 14 000 plaignants.
06:39Donc, vous imaginez ce que ça pourra coûter
06:41à Workday,
06:42a dit, oui, effectivement,
06:44on a la preuve que c'est l'IA
06:46qui est intervenue
06:46parce que les mails interviennent
06:48de façon quasi automatique,
06:49à des heures pas possibles, etc.
06:51Donc, on va probablement être
06:53sur une première jurisprudence
06:54de, en fait, quand on lâche
06:57la responsabilité d'une décision,
06:59en l'occurrence recrutée ou pas quelqu'un,
07:01sur une IA,
07:03eh bien, globalement,
07:04c'est l'entreprise qui fait ça
07:05qui pourrait être responsable
07:07de la discrimination.
07:08Donc, ça va ouvrir un champ
07:10qui est émergent, lui aussi,
07:12mais tout s'accélère,
07:13y compris, en tout cas,
07:15d'un point de vue social,
07:17en termes d'inégalité
07:18et en termes d'emplois créés.
07:20Là, on est sur une catastrophe,
07:22j'ai lié en nucléaire,
07:23le mot n'est pas bien trouvé
07:25à l'heure actuelle,
07:25mais une catastrophe industrielle,
07:27ça, c'est sûr.
07:28Responsabilité sociale des entreprises
07:30et aussi responsabilité tout court.
07:32Moi, je me souviens du discours
07:33des grands assureurs
07:34qui disent, non, mais l'IA,
07:35on n'assurera jamais ça.
07:36Donc, comment ça marche ?
07:37Qui est responsable de quoi ?
07:38Et là, il va falloir
07:39se poser des questions.
07:40C'est ça.
07:41Et en plus, effectivement,
07:42avec les millions de milliards
07:43de dollars investis,
07:44dont le retour sur investissement
07:46reste hypothétique.
07:46C'est ça qu'il faut vous faire.
07:47C'est que tout se fait
07:48sans que la démonstration
07:50du retour sur investissement
07:51et de l'efficacité de l'IA
07:52dans des process industriels
07:53divers et variés soient là.
07:55Anne-Catherine Husson-Traoré,
07:56fondatrice d'Actor for Sustainability,
07:59merci d'avoir été avec nous
08:00pour commenter
08:01ces aspects passionnants
08:02de la transformation
08:04de l'IA
08:04avec ses impacts sociaux,
08:06bien sûr.
08:06Merci.
Commentaires