Passer au playerPasser au contenu principal
  • il y a 3 ans
Transcription
00:00 Non seulement le chat GPT peut se tromper, mais quand il se trompe, il se trompe avec énormément de panaches.
00:05 Il donne de fausses réponses avec beaucoup d'aplomb.
00:10 Il faut faire extrêmement attention avec cet outil.
00:12 Je m'appelle Rudy, j'ai une chaîne TikTok de vulgarisation où je parle d'intelligence artificielle,
00:23 notamment des intelligences artificielles génératives, chat GPT,
00:26 midi-journée, pour tout ce qui est images, etc.
00:30 Globalement, je fais une veille technologique sur toutes ces solutions-là.
00:33 Et également, je travaille à l'IMERER, qui est une école d'informatique et de robotique,
00:36 où nos étudiants sont formés au bas niveau de l'intelligence artificielle,
00:40 c'est-à-dire vraiment, ils font les algorithmes de machine learning, etc.
00:44 Par exemple, typiquement, le fait que ces IA soient aussi fortes actuellement
00:53 que les médecins pour diagnostiquer des maladies,
00:55 c'est quand même fort de se dire qu'on a peut-être éventuellement,
00:57 dans un futur proche, un médecin dans la poche pour nous aider.
01:02 Pour la création aussi de logiciels, etc., c'est vrai que la possibilité de coder aussi efficacement,
01:09 ça fait peur, par exemple, pour les développeurs qui voient leur métier qui va totalement être chamboulé,
01:12 mais ça fait aussi que pour créer des nouvelles choses que nous,
01:15 on va pouvoir utiliser en tant qu'humains, c'est assez formidable, ça va aller extrêmement vite.
01:18 Pour créer du contenu, pour vulgariser aussi des choses,
01:22 ChargeDpt, il est très fort, vous avez un document extrêmement complexe,
01:25 vous lui envoyez, donc pour l'éducation, etc., vous lui envoyez,
01:28 il est capable de vous l'expliquer, vous pouvez lui poser des questions sur ce document,
01:31 il est capable de vous aider à le comprendre, etc.
01:33 Donc, par exemple, à chaque fois qu'il y a une problématique qui est soulevée,
01:37 il y a des enjeux positifs qui sont soulevés derrière.
01:39 Dans l'enseignement, la problématique, c'est les étudiants peuvent tricher avec,
01:42 c'est super problématique.
01:43 L'autre côté, c'est mais, objectivement, s'ils utilisent ChargeDpt correctement,
01:46 ils peuvent se former encore plus efficacement et apprendre encore plus efficacement.
01:50 [Musique]
01:55 Sur les postes actuels, dans la façon qu'ils ont de fonctionner, oui.
01:58 Après, il faut aussi se remettre en perspective un petit peu et dézoomer un peu sur l'histoire.
02:03 À chaque fois qu'il y a eu des révolutions technologiques, on a tout le temps dit ça.
02:06 Quand il y a eu les machines dans les usines qui ont commencé à arriver,
02:10 ça allait être les gens dans les usines qui allaient perdre leur travail
02:14 et tout le monde allait se retrouver au chômage.
02:16 Ce qui s'est passé, c'est qu'en effet, il y a des machines qui ont concrètement
02:19 remplacé des postes et ça va être pareil avec les intelligences artificielles,
02:23 mais il va y avoir un déplacement, une évolution des métiers.
02:27 C'est le plus probable qu'ils vont faire que, voilà, ça va être un petit peu la chaise musicale.
02:31 Peut-être pendant un petit moment, il va y avoir peut-être des suppressions de postes à court terme,
02:34 mais sur le moyen terme, il va surtout y avoir aussi des nouveaux métiers qui vont être créés.
02:38 Ils devraient tous s'y retrouver.
02:39 [Musique]
02:44 Oui, ChargeDpt peut se tromper, oui.
02:46 J'ai vu le cas, par exemple, d'un médecin américain, je n'ai plus son nom,
02:49 qui avait fait diagnostiquer une maladie assez complexe à ChargeDpt d'une patiente.
02:55 ChargeDpt avait trouvé la bonne maladie.
02:57 Sur le diagnostic complet, il avait trouvé la bonne maladie, il n'y avait pas de soucis.
03:01 Par contre, dans sa réponse, il avait sourcé une étude qui n'existait pas.
03:04 Non seulement ChargeDpt peut se tromper, mais le problème, c'est que quand il se trompe,
03:08 il se trompe avec énormément de panaches.
03:10 Il donne de fausses réponses avec beaucoup d'aplomb.
03:15 Il faut faire extrêmement attention avec cet outil.
03:17 [Musique]
03:24 ChargeDpt, c'est beaucoup plus difficile de lui faire dire des choses qui sortent du cadre,
03:31 parce qu'il a été extrêmement cadré.
03:33 Microsoft avait sorti une intelligence artificielle dont j'ai perdu le nom il y a 2-3 ans,
03:39 qui s'entraînait sur les données, sur les échanges qu'elle avait avec les utilisateurs en direct.
03:44 Il y en avait qui avaient commencé à la spammer en lui disant des trucs homophobes, etc.
03:50 Du coup, l'IA est devenue un néo-nazi.
03:52 Toute la question par rapport à ça, c'est l'entraînement et le cadre qu'on donne à l'intelligence artificielle.
03:57 ChargeDpt et OpenAI ont énormément fait de filtrations sur les données qu'ils ont données à leur IA pour s'entraîner.
04:03 Il faut savoir qu'elles ne s'entraînent pas directement sur les échanges qu'elle a avec les utilisateurs.
04:09 Quand vous, vous discutez avec l'IA, ce n'est pas en train d'entraîner son modèle directement.
04:12 Elon Musk, par exemple, veut créer une intelligence artificielle qu'il appelle TruthGpt,
04:17 où il veut supprimer ses biais.
04:19 Pour empêcher ces dérives, on est obligé de mettre en place des biais et des cadres autour de cette intelligence artificielle.
04:25 Mais quelque part, telle société décide que ça c'est correct, ça c'est pas correct, etc.
04:30 Ça pose aussi la question dans l'autre sens, qui est de savoir comment on encadre ces IA.
04:37 C'est très difficile de faire travailler sur des failles de cybersécurité.
04:41 Mais il y a des méthodes qui permettent un petit peu de le débrider.
04:44 On appelle ça les méthodes DAN.
04:47 On va lui expliquer qu'il ne doit pas suivre les règles et qu'il doit être un rebelle.
04:51 ChargeDpt se met justement de ne plus suivre les règles qu'on lui a données.
04:54 Et il est capable de trouver des failles de cybersécurité qui sont assez complexes à trouver.
05:00 Et ensuite, il y a aussi d'autres outils, d'autres applications, qui sont très compliquées à trouver.
05:05 D'autres outils, d'autres applications, en dehors de ChargeDpt, qui utilisent l'intelligence artificielle,
05:09 qui peuvent permettre d'accentuer le nombre de cyberattaques.
05:12 Mais de toute façon, ça, la cybersécurité, c'est une problématique.
05:15 Et on doit former des gens, engager des personnes dans les entreprises qui sont spécialisées dans la cybersécurité.
05:21 Et sinon, on va au devant de plus en plus de problèmes par rapport à ça.
05:30 Je pense que c'est toujours pareil, ça ne se passe jamais comme dans les films de science-fiction.
05:35 Par contre, est-ce que c'est possible qu'il y ait un petit scénario dystopique qui se profile ?
05:41 Je pense que oui. Je ne pense pas que ce soit le scénario le plus probable.
05:45 Je pense qu'il y a plein de choses qui peuvent se passer avant, etc.
05:48 Et à mon avis, ce ne sera pas comme ça que ça va se passer.
05:51 Si en effet, on ne fait pas suffisamment attention, ça peut quand même se retourner contre nous et venir nous mentir.
05:59 Je sais que moi, en ce moment, je fais des conférences dessus.
06:01 Et c'est vrai qu'à chaque fois que je commence à parler d'exos négatifs, je vois les gens qui sont abattus par rapport au fait que
06:06 "ça peut faire trop de choses, ça va prendre mon travail, en plus ça va terminer en Terminator, c'est terrible".
06:10 Il faut vraiment tempérer par rapport à ça.
06:12 Je pense qu'il faut le garder à l'esprit parce que c'est important que tout le monde prenne conscience des enjeux
06:18 pour que justement on puisse légiférer correctement, qu'on puisse peut-être éventuellement faire des choses pour gagner en souveraineté par rapport à ça.
06:25 Mais par contre, il ne faut pas perdre en vue principale que ces intelligences artificielles vont nous apporter tellement de choses,
06:31 c'est tellement fort, ça va nous permettre d'avoir tellement de choses positives, je pense que le jeu en vaut largement la chandelle.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations