00:00Vous parlez d'éthique, mais vous en parlez comme d'une sorte de supplément d'âme.
00:05Prenons l'exemple de l'IA.
00:06L'IA ne sait pas distinguer le vrai du faux.
00:10Si elle produit un texte faux, s'il n'y a pas un humain qui vient lui dire que c
00:13'est faux,
00:14elle ne sait pas que c'est faux.
00:15Elle est incapable du discernement.
00:18Où est-ce qu'on met l'éthique là-dedans ?
00:20Est-ce qu'on la met en amont au niveau des algorithmes ?
00:25La technologie, quand elle est vraiment innovante,
00:28nous les humains, on n'est pas capables de dire comment les humains vont se servir de cette technologie.
00:32Donc on sait ce qu'on fait, mais on ne sait pas ce qu'on va faire ce qu'on
00:34fait.
00:36Donc on ne peut pas miser sur la responsabilité ou la bien-pensance des innovateurs.
00:42Ce n'est pas d'eux que ça dépend.
00:51Après, j'ai une vision du futur que je voulais partager aussi.
00:55Ce que j'aime bien rêver, ce que ça donnerait plus tard, avec tout ce qui va se passer.
01:02Qu'est-ce que vont faire les êtres humains quand il y aura de l'IA partout
01:06et que des cols bleus aux cols blancs, tous les boulots seront remplacés par des robots
01:13et des machines très performantes.
01:15Moi, je pense que les hommes, ils doivent tous devenir,
01:17ce n'est pas tous, une grande majorité scientifique.
01:20Et là, c'est du Jean Perrin.
01:23Jean Perrin, quand il a créé le Palais de la Gouvernes, il a dit ça.
01:25Il a dit, dans quelques décades,
01:27alors il a confondu décades et décennies,
01:29c'est en 1936,
01:31dans quelques décennies,
01:33les humains ne travailleront plus que 20 heures par jour.
01:36Et qu'est-ce qu'ils feront pendant leur loisir ?
01:38De l'art et de la science.
01:39Ils s'intéresseront à la science.
01:40Voilà ce que dit Jean Perrin en 1936.
01:42C'est évidemment tout le contraire qui s'est passé.
01:45C'est-à-dire que plus personne ne s'intéresse à la science,
01:47personne ne sait en quoi la science consiste,
01:49et nous passons notre temps en loisir
01:51à disperser notre attention,
01:54à être victime d'une sorte d'entropie chronodispersive
01:57avec les écrans.
01:59Autrement dit,
01:59cette idée que les gens vont s'intéresser à la science.
02:01Excusez-moi, mais c'est une grande naïveté.
02:03Je sais.
02:03Vous-même, vous dites que ça ne vous intéresse pas.
02:05Ce qui vous intéresse, c'est la technologie.
02:06Non, c'est pas vrai.
02:07Je suis une grande passionnée.
02:08Je peux passer des heures, un simple d'après-midi,
02:10regarder les oiseaux et les plantes.
02:13Regardez qui écoute.
02:14Qu'est-ce que le public écoute le soir à la télévision
02:17quand il rentre chez soi ?
02:18Ah mais ça, je sais.
02:19Je n'ai pas donné de nom,
02:20mais vous voyez que ce n'est pas les émissions scientifiques
02:23qui sont les plus regardées.
02:26C'est tous les bonimenteurs qui remportent le marché.
02:29Pourquoi est-ce qu'on n'essaierait pas ?
02:33Moi, je rêve d'avoir la radio le matin
02:36qui me raconte tout ce qui se passe sur la planète,
02:37mais d'un point de vue positif,
02:38d'un point de vue climat, des espèces, des trucs.
02:40Moi, je rêve de ce monde-là.
02:42Mais ça existe, il ne faut pas avoir ces informations.
02:44Bien sûr.
02:44Et ce n'est pas des informations qui fédèrent.
02:46Mais je pense qu'est-ce qu'il ne serait pas tant...
02:50Mais qu'on arrive...
02:51Et je pense que c'est en train de se faire, moi.
02:53Je pense quand même qu'on voit la montée
02:57des discussions au sujet du vivant,
02:59de la nature, de la biodiversité.
03:01Ça monte.
03:02Et en fait, ça serait quand même...
03:05Alors, je ne vais pas utiliser les bons mots,
03:07vous n'allez pas aimer mes mots,
03:08mais ça serait super chouette
03:09et vraiment important, moi, je pense,
03:11qu'on redonne à la science,
03:13à la curiosité du vivant
03:16et de se poser ses questions, etc.,
03:18une place prépondérante dans les loisirs
03:21de l'être humain.
03:22Alors, pour ça, le problème,
03:23c'est qu'on a à se batailler avec des choses
03:24qui sont quand même beaucoup moins,
03:25d'un point de vue, on va dire,
03:27l'élévation de la conscience.
03:29On est sur des énergies beaucoup plus basses.
03:31Mais ça serait génial
03:32que les gens viennent passer leur après-midi
03:34à parler des plantes,
03:35à regarder les animaux.
03:35Ça serait génial, mais ce n'est pas le cas.
03:37Et si on lui redonnait un peu de sexitude
03:39à tout ça, quoi ?
03:41C'est...
03:42Moi, je pense que la...
03:43Je pense que c'est ce qu'on fait, là.
03:46La désinformation est plus séduisante.
03:50Je ne vais pas donner de nom encore une fois,
03:51mais les émissions qui invitent des gens
03:54qui disent à peu près n'importe quoi,
03:56sans argumenter,
03:57avec des arguments d'autorité,
03:59et remportent la mise.
04:01Donc, il faut interroger ça.
04:03On ne peut pas avoir une conception naïve
04:05de l'humanité
04:07parce que cette naïveté
04:08a été dénoncée par les faits.
04:10Et donc, on doit combattre,
04:12je reviens sur le verbe,
04:14combattre ça.
04:15Et ça se fait sans doute en partie par le rêve,
04:19mais pas que par le rêve.
04:21Vous parlez d'éthique,
04:23mais vous en parlez comme d'une sorte
04:24de supplément d'âme.
04:26Or, prenons l'exemple de l'IA.
04:28L'IA ne sait pas distinguer le vrai du faux.
04:31D'accord ?
04:32Si elle produit un texte faux,
04:33s'il n'y a pas un humain
04:34qui vient lui dire que c'est faux,
04:35elle ne sait pas que c'est faux.
04:37Elle est incapable du discernement.
04:39Voilà.
04:40Où est-ce qu'on met l'éthique là-dedans ?
04:41Est-ce qu'on la met en amont
04:43au niveau des algorithmes ?
04:47La technologie,
04:47quand elle est vraiment innovante,
04:49nous, les humains,
04:50on n'est pas capable de dire
04:51comment les humains vont se servir
04:53de cette technologie.
04:54Donc, on sait ce qu'on fait,
04:55mais on ne sait pas ce que va faire
04:56ce qu'on fait.
04:58Donc, on ne peut pas miser
04:59sur la responsabilité
05:02ou la bien-pensance
05:03des innovateurs.
05:04Ce n'est pas d'eux
05:05que ça dépend, en fait.
05:07Donc, comment est-ce qu'on met
05:08de l'éthique là-dedans ?
05:09Est-ce qu'on la met
05:09au niveau de la conception
05:11ou est-ce qu'on la met
05:12au niveau des usages,
05:13c'est-à-dire au niveau
05:13de la législation ?
05:15Est-ce qu'elle est en amont
05:15ou en aval ?
05:16Est-ce qu'on demande
05:17aux consommateurs
05:18ou aux utilisateurs
05:19d'être éthiques ?
05:20Comme on voit bien
05:21qu'il y a des problèmes d'énergie,
05:23compte-ençois que vous dites,
05:24on voit bien
05:24que les data centers,
05:26ça y va,
05:27qu'on a atteint
05:28les limites de l'Olon Moore,
05:29c'est-à-dire que les composants
05:30électroniques,
05:30on ne va pas pouvoir
05:31les miniaturiser encore
05:33parce qu'ils vont perdre
05:33leurs fonctionnalités quantiques.
05:35Et donc,
05:35à partir de maintenant,
05:37les coûts énergétiques
05:38vont croître
05:38en proportion des usages.
05:40Et donc,
05:41qu'est-ce qu'on dit ?
05:42Il faut que les utilisateurs
05:43soient sobres.
05:45Sobres.
05:46Ça veut dire quoi,
05:46sobre ?
05:47C'est-à-dire que je pose
05:49une question à Tchad GPT
05:50une fois par jour,
05:51pas plus ?
05:52Il y a ce problème-là.
05:54La sobriété,
05:55je trouve,
05:55moi,
05:55le choix du mot
05:56est une catastrophe
05:56qu'elle est admirable.
05:58Votre optimiste,
05:59il est sans.
06:00Mais,
06:01vous connaissez la définition
06:02de l'optimisme
06:02par Jean Dormesson ?
06:03Non,
06:04j'en ai peur.
06:04Il disait,
06:05un optimiste,
06:06c'est un gars
06:06qui fait ses mots croisés
06:08avec un stylo billet.
06:09Ouais,
06:10c'est un peu ça.
06:11Eh ben non,
06:11il faut le faire
06:12avec une gomme
06:12et un crayon noir.
06:14Non,
06:14on peut faire des ratures
06:15et puis corriger les lèvres.
06:16Non,
06:16parce que ce qu'on peut vous appeler
06:17l'optimisme,
06:17c'est la confiance en soi.
06:19D'accord ?
06:20Ou la confiance
06:21que ça va aller.
06:23Voilà,
06:23mais pas aveugle,
06:24n'est pas naïf.
06:24Je ne suis pas naïf,
06:26je suis bien consciente
06:27des choses.
06:28Moi,
06:28je suis comme vous.
06:28Je trouve que ça fait du bien.
06:29Je suis d'accord avec vous
06:30que tout va finir
06:32par s'arranger,
06:33je suis d'accord.
06:34Et j'ajoute,
06:34même mal.
06:35Je suis d'accord avec vous.
Commentaires