00:00Anthony Morel, on le sait que dans certains cas, l'intelligence artificielle raconte n'importe quoi.
00:04Dans certains contextes, ça peut devenir très embarrassant.
00:06Exemple en Afrique du Sud, où une loi qui est censée encadrer l'intelligence artificielle a dû être retirée en
00:12urgence.
00:12Racontez-nous.
00:13Alors au niveau ironie, on ne peut pas faire mieux.
00:15C'est-à-dire une loi sur l'IA bidonnée par l'IA.
00:18C'est ce qui s'est passé en Afrique du Sud.
00:20Afrique du Sud qui était très contente d'être le premier pays africain à se doter d'une réglementation spécifique
00:25sur l'intelligence artificielle.
00:27Un peu sur le modèle de notre IA Act européen.
00:30Et donc, ils avaient peaufiné pendant plusieurs mois.
00:33C'est le ministère de la Communication là-bas qui avait géré ça, cette loi.
00:36Donc, ils avaient prévoyu de la création d'une commission nationale de l'IA, d'un comité d'éthique.
00:41Enfin, tout un texte qui réglementait l'intelligence artificielle.
00:44Bon, très bien.
00:46Le texte est publié.
00:47Et là, on va se rendre compte.
00:49Alors quand je dis « on », c'est un grand quotidien national qui va passer le texte à la
00:52loupe.
00:53Et ils vont se rendre compte que ce texte,
00:55eh bien, en fait, il y a un certain nombre de références académiques qui n'existent pas,
00:59qui ont été complètement bidonnées, en d'autres termes,
01:02qui ont été hallucinées par l'intelligence artificielle.
01:04On va se rendre compte, en fait, que ce texte sur l'IA,
01:07il a été en partie au moins rédigé par Tchad GPT ou par Gemini ou par Claude,
01:11enfin, peu importe.
01:12Mais en tout cas, que l'IA a été utilisé pour le rédiger.
01:16Ce qui fait un peu tâche, évidemment.
01:17Alors, excuse publique du ministère.
01:19Il y a un certain nombre de fonctionnaires qui vont se faire renvoyer.
01:22Le ministre s'excuse de ce texte.
01:25Ces manquements ne sont pas juste un problème technique.
01:27Ils compromettent l'intégrité et la crédibilité de ce projet politique.
01:31Il faut quand même se dire...
01:32Enfin, là, on est quand même dans un contexte où on a un texte qui est lu et relu par
01:35des hauts fonctionnaires.
01:36Ah oui, c'est ça, le truc.
01:36Mais c'est fou, quand même.
01:38Cabinet ministériel.
01:38Il suffit de relire.
01:39Publication officielle.
01:40Il suffit de relire et de vérifier.
01:41Mais on se rend compte qu'en réalité, on ne fait pas cet effort-là.
01:44On utilise l'IA.
01:45Et puis derrière, on publie.
01:47Donc, excuse publique.
01:48Et puis, le ministre explique que l'incident devrait servir de leçon d'humilité.
01:52Qu'il illustre comment ces réflexions menées autour de l'IA sont essentielles.
01:56Ce qui est une jolie pirouette.
01:57Mais le mal est déjà fait.
01:58Mais ça veut dire qu'aujourd'hui, même à des niveaux très élevés, on ne relit pas l'intelligence artificielle.
02:02Ce qui veut dire qu'on a partout des textes truffés d'erreurs.
02:04C'est exactement ça.
02:05C'est-à-dire qu'utiliser l'IA pour rédiger un texte, ce n'est pas un mal, évidemment.
02:08Quel que soit le niveau, d'ailleurs, ce n'est pas un problème.
02:11Le problème, c'est que TchadGPT s'est passé d'un outil d'aide à la rédaction à une source
02:15implicite d'autorité.
02:17C'est-à-dire que ça a l'air bien écrit.
02:18Les sources ont l'air sérieuses.
02:20Donc, on utilise ça au copy-call et on ne vérifie pas.
02:22Et c'est vrai dans tous les domaines.
02:24On a eu, vous savez, ces exemples de cabinets de conseil qui avaient été pris les doigts dans le pot
02:27de confiture.
02:28On s'est rendu compte que leur rapport a été rédigé en grande partie.
02:31Ils facturés très cher.
02:32Ils facturés très cher à des gouvernements.
02:33Ils étaient rédigés par l'IA et qu'ils étaient bourrés d'erreurs.
02:39C'est vrai aussi dans des grands cabinets d'avocats où on s'est rendu compte que, pour préparer leurs
02:44plaidoiries,
02:45les avocats utilisaient TchadGPT.
02:46Et quand ils arrivaient au tribunal, on se rendait compte que les textes de loi, les jurisprudences citées étaient complètement
02:51bidonnés.
02:52Ça fait un peu tâche, là encore.
02:54Et puis, balayons aussi devant notre porte, les journalistes.
02:57Il y a aussi des grands quotidiens et des grands journaux.
02:59Aux États-Unis, par exemple, un grand magazine qui avait publié une liste de recommandations de lecture pour l'été.
03:04Donc, voilà une dizaine ou une quinzaine de bouquins.
03:06Voilà ce que vous pouvez lire.
03:07Sauf qu'en fait, la plupart des bouquins n'existaient pas.
03:09Ils avaient été juste inventés.
03:11Le journaliste, il avait fait une liste, écrit-moi une liste de bouquins à lire pour l'été.
03:14Et ils avaient été inventés par TchadGPT.
03:16Par la même fois, personne ne relit.
03:16Voilà, ce qui est dommage.
03:17Pour les journalistes, c'est encore plus dommage que pour les autres professions.
03:19Mais après, ça fait boule de neige.
03:20C'est-à-dire que les hallucinations, les erreurs nourrissent les erreurs.
03:24C'est ça.
03:24En fait, il faut penser ces hallucinations de manière systémique.
03:27C'est-à-dire que ces erreurs, quand elles ne sont pas détectées, et la plupart du temps, c'est
03:31le cas,
03:32elles vont se retrouver où ?
03:33Sur Internet.
03:34Par exemple, le texte de loi dont je vous parlais, il est publié sur Internet avec toutes les hallucinations.
03:38Et les prochaines générations d'IA, avec quoi elles vont s'entraîner ?
03:41Avec ça.
03:41Avec ces textes qui sont bourrés d'hallucinations.
03:44Et donc, elles vont générer encore plus d'hallucinations.
03:46On parle maintenant de consanguinité de l'intelligence artificielle.
03:49Certains parlent de modèle collapse, d'effondrement du modèle,
03:52parce que l'IA ne fait que s'entraîner avec des copies de copies de copies
03:55qui sont de plus en plus appauvries en termes de qualité d'information.
03:58Il faut relire, quoi.
04:00Relire, reliser, vérifier.
04:01Voilà, tout simplement.
Commentaires