Passer au playerPasser au contenu principal
  • il y a 2 jours
Avec Nicolas Hazard, entrepreneur et essayiste et auteur de "Je ne suis pas un algorithme ! Trouver du sens à l'ère de l'intelligence artificielle" aux Éditions Flammation

Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry

🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/

---

🔴 Nous suivre sur les réseaux sociaux 🔴

▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr

##LA_VERITE_EN_FACE-2026-03-05##

Catégorie

🗞
News
Transcription
00:00Le Grand Matin Sud Radio, la vérité en face, Jean-François Aquili.
00:04L'intelligence artificielle va-t-elle prendre le contrôle de nos choix, pour ne pas dire de nos vies,
00:11dans nos sociétés hyper connectées, nous vivons sous l'influence de l'algorithme,
00:17qu'il s'agisse des réseaux sociaux, des recommandations, vous savez, de contenu,
00:22de la publicité ciblée, entre autres, au point de perdre l'illusion d'être libre de penser ou de choisir.
00:29Pour en parler ce matin, vous nous appelez au 0800 26 300 300 si vous voulez nous faire part de
00:33votre expérience intime à ce sujet.
00:37Nicolas Hazard, bonjour, bienvenue à vous.
00:38Bonjour.
00:39Vous êtes entrepreneur, essayiste et auteur de, je dirais, l'inquiétant, mais passionnant,
00:46Je ne suis pas un algorithme, sous titre, Trouver du sens à l'ère de l'intelligence artificielle,
00:53édité chez Flammarion, un livre extrêmement documenté et ponctué aussi de réflexions philosophiques,
01:01parce que vous voulez nous donner de l'humain.
01:05Vous écrivez, Nicolas Hazard, et je vous lance ainsi,
01:09chaque jour nous scrollons, nous likons, nous sweepons,
01:12nous vivons dans l'illusion d'être libre de penser et de choisir.
01:14Vous dites bien, en réalité, nos désirs et nos opinions sont formatés par les algorithmes.
01:21C'est quoi ? C'est une vague mondiale ? Une pandémie ?
01:24C'est une sorte d'addiction globale, en tous les cas, que chacun de nous peut ressentir plus ou moins,
01:30parce qu'il y a des gens qui arrivent plutôt à s'en défaire,
01:33mais d'autres, et je pense qu'on est une majorité,
01:35on est quand même très addict à nos téléphones portables,
01:40à nos écrans, à nos tablettes, à tous ces instruments technologiques,
01:44parce qu'on est dans un monde qui est de plus en plus complexe,
01:47qu'on est dans un monde où la société de consommation et l'ultra-consommation,
01:51elle a pris une part très importante,
01:52et parce qu'on est dans un monde aussi de solitude, parfois.
01:56Là-dessus, Nicolas Hazard, c'est intéressant ce que vous dites.
01:59Vous savez, moi j'ai connu le téléphone à tirette même,
02:02on appelait un central, je vous jure que c'est vrai.
02:05Et vous, vous avez grandi avec le portable à la main ?
02:09Quasiment ?
02:09Presque, en tout cas, les instruments technologiques font partie de la vie,
02:14ils ont une place très importante,
02:16ce qui est un peu terrible et un peu dramatique,
02:19et je pense qu'il y a beaucoup d'auditeurs qui sont des parents aussi,
02:21et qui ont des adolescents,
02:22et avec lesquels c'est une bataille constante pour décrocher les adolescents,
02:28quand on grandit, les enfants, les adolescents,
02:30ils n'ont pas le cerveau qui est terminé pour pouvoir résister à cette attaque.
02:35Le téléphone portable, c'est un peu comme le sucre,
02:37c'est-à-dire que si on donne à un adolescent un pot de pâte à tartiner,
02:40il le termine, et il peut même en commencer un deuxième.
02:43C'est la même chose sur le téléphone,
02:44donc il faut remettre sa juste place sur le numérique.
02:47Au passage, vous êtes favorable, d'ailleurs,
02:49vous savez, cette proposition de loi,
02:51ensemble pour la République,
02:52de la députée Laure Miller,
02:54ça a été voté en première instance,
02:56qui interdit, il n'y a pas que ça,
02:58mais pour les moins de 15 ans,
03:00l'accès aux réseaux sociaux.
03:01Vous trouvez que c'est une bonne idée ?
03:02Moi, je pense que c'est indispensable de le faire.
03:05Moi, je suis pour,
03:06pour une raison,
03:07c'est que déjà, ça a commencé en Australie,
03:09ça ne marche pas parfaitement aujourd'hui,
03:12mais nulle part dans le monde,
03:13les Chinois, par exemple,
03:15ont bloqué depuis longtemps les jeux vidéo,
03:16ça fait 10-15 ans que les jeux vidéo,
03:18le numérique, les réseaux sociaux sont bloqués,
03:20parce que eux exportent TikTok,
03:23mais pour autant, ils n'acceptent pas
03:24que les jeunes chez eux puissent avoir TikTok,
03:27parce qu'il y a bien un risque,
03:29en tout cas, on le voit,
03:30de dépression, d'addiction
03:32et de différentes pathologies qui existent
03:35par rapport à ça pour les adolescents.
03:36Donc, il faut trouver une solution.
03:37Mais les accusations d'atteinte,
03:38vous savez, d'atteinte à la liberté, etc.
03:40Parce que c'est le grand argument, quand même.
03:41Bien sûr, c'est la même chose
03:42sur les paquets de cigarettes,
03:44c'est la même chose sur l'alcool.
03:45Pourquoi on l'interdit au moins de 18 ans ?
03:46C'est la même chose.
03:47À ce moment-là, si on est pour la liberté absolue,
03:50donnons des cigarettes aux enfants de 12 ans,
03:51il n'y a pas de problème.
03:52Alors, vous dites qu'il y a une forme d'illusion
03:54à travers l'algorithme,
03:56à travers l'intelligence artificielle,
03:58l'illusion de liberté
03:59et un formatage de nos désirs.
04:02Alors, c'est dit et redit,
04:03mais c'est très bien dit dans votre essai,
04:07c'est une mécanique infernale.
04:09Exactement.
04:10Moi, je ne suis pas spécialiste là-dessus,
04:11mais je me suis appuyé sur plein d'études scientifiques
04:13qui ont été faites depuis des années,
04:16et donc qui montrent que tout est fait,
04:18comme c'est un système d'addiction classique,
04:21comme par exemple le bandit manchot,
04:23vous savez, dans les casinos,
04:24c'est la même chose,
04:26on tire sur la poignée,
04:27et en fait, ce qui génère de la dopamine,
04:30c'est-à-dire cette substance
04:30qui nous donne du plaisir,
04:31qui nous donne envie de continuer,
04:33ce n'est pas d'avoir les triple 7 à la fin,
04:35c'est quand ça tourne.
04:37En fait, c'est la même chose quand on scroll.
04:38Donc, quand on scroll, par exemple,
04:39et qu'on descend sur sa page,
04:41sur nos réseaux sociaux,
04:42c'est l'attente qui génère de la dopamine
04:44et qui génère de l'addiction,
04:45et tout ça, ça a été bien évidemment étudié,
04:47et c'est fait pour qu'on soit accro.
04:50D'ailleurs, on pourrait presque dire aujourd'hui,
04:52Nicolas Hazard,
04:55donne-moi ce que je suis à l'algorithme,
04:57et je saurais qui je suis,
04:59ce que nous renvoie l'algorithme
05:01est assez inquiétant à l'envers.
05:05En fait, ce que nous renvoie l'algorithme,
05:07et c'est un peu le propos...
05:07Je ne sais pas si c'est vraiment ce que nous sommes,
05:09mais bon...
05:09Exactement, c'est ça la question,
05:10c'est ça tout le propos,
05:12et c'est tout le propos du livre,
05:13c'est que l'algorithme,
05:15il nous renvoie ce qu'on est
05:16qu'en tant que consommateur.
05:18Et en fait, l'algorithme,
05:19il a un intérêt,
05:20c'est de nous faire consommer,
05:22et donc de nous faire consommer
05:23des produits qu'on achète
05:25de plus en plus.
05:26C'est fait pour ça,
05:27c'est une démarche, encore une fois,
05:29commerciale.
05:29Un algorithme et les nouvelles technologies,
05:32ce n'est pas bon ou mauvais par essence,
05:34c'est juste un but,
05:35et c'est qu'est-ce qu'on en fait.
05:36Et le but ultime,
05:37c'est qu'on consomme,
05:38puisqu'on est dans une société
05:39aussi d'ultra-consommation.
05:40Et donc, on est là pour consommer.
05:44Et donc l'algorithme,
05:45il nous dit qui on est
05:46en tant que consommateur,
05:47mais on est beaucoup plus que ça,
05:48et c'est ça l'objet du livre,
05:49parce que finalement,
05:49le livre est positif aussi,
05:52et c'est de donner des astuces...
05:53Il n'y a qu'un constat,
05:54ce que vous faites.
05:54Voilà, exactement,
05:55et des astuces
05:55pour qu'on se départir de ça,
05:57et puis pour revenir
05:58à ce qui est vraiment important pour nous,
06:00ce qui nous rend véritablement humains,
06:02ce que l'algorithme
06:03ne pourra jamais remplacer,
06:04c'est-à-dire le lien,
06:05le sens, l'action,
06:06et le sens, c'est très important,
06:08quel sens on a envie
06:09dans notre vie.
06:10On va y venir,
06:10parce que pour comprendre
06:10ce qu'il faudrait faire
06:12pour être en réaction
06:14à ce que nous subissons,
06:16encore faut-il savoir
06:16ce qui se passe.
06:17Vous citez Anna Arendt,
06:18d'ailleurs,
06:18le danger,
06:19c'est que l'homme puisse perdre
06:20sa capacité d'agir ensemble,
06:22dites-vous,
06:22enfin, citez-vous,
06:23pourquoi sommes-nous
06:24si facilement manipulables ?
06:25Pourquoi ?
06:26Alors, moi,
06:28mon explication,
06:29bien évidemment,
06:30elle est polymorphe,
06:30mais premier facteur explicatif,
06:32c'est clairement,
06:33on est dans un monde
06:33de plus en plus complexe.
06:35Le monde, il est complexe,
06:36on a plein de crises,
06:37on le voit aujourd'hui,
06:38l'actualité nous le montre,
06:39on a eu le Covid,
06:40on a eu tout ça.
06:41On est à beaucoup de complexité.
06:43Avant, on se renseignait,
06:44on écoutait la radio,
06:45on regardait la télé, le JT,
06:46et on nous décryptait l'info.
06:47Aujourd'hui, sur nos téléphones,
06:49on a des milliers d'informations,
06:50des milliers de vidéos
06:51qui nous arrivent,
06:52et on ne comprend plus le monde.
06:53Et les gens sont paumés,
06:55parce qu'en fait,
06:56on ne sait plus si les vidéos
06:57sont des fake news,
06:58pas des fake news,
06:59montées par de l'IA
07:00ou pas montées par de l'IA.
07:01Et donc, tout ça fait qu'on est
07:02dans un monde qui est
07:03de plus en plus complexe,
07:04et par rapport à ça,
07:05on a besoin de réponses
07:07et de solutions
07:07qui sont simples,
07:08des clés de lecture.
07:09Oui, parce que ce que vous dites
07:10à l'ère de l'intelligence artificielle,
07:12vous dites que nous sommes submergés
07:13de recommandations
07:14dans tous les sens,
07:15tous les amis,
07:15ce qu'il y a,
07:15nous sommes bombardés
07:16sur ce qu'on doit regarder,
07:19acheter, écouter,
07:20aimer même.
07:21Vous dites qu'il y a
07:22une désorientation permanente,
07:24qu'il faut réapprendre.
07:26En fait, il faut se réapproprier
07:27ce qui compte à nos yeux.
07:30C'est plus difficile,
07:31ce franchissement,
07:31parce qu'il y a l'addiction
07:32d'un côté,
07:33et il y a cette économie
07:35de l'apostrophe
07:36de l'attention.
07:38Et il faut essayer
07:39de s'extraire
07:40de cette mécanique infernale.
07:43Qu'est-ce que vous préconisez,
07:44Nicolas Hazard ?
07:45Exactement.
07:45Nous, on est dans
07:46l'économie de l'attention,
07:47c'est-à-dire que
07:48les business models
07:49des grandes entreprises
07:50aujourd'hui,
07:50c'est de capter
07:51notre attention
07:51pour nous faire consommer
07:52le plus possible.
07:53C'est le modèle
07:55dans lequel on est.
07:56Et aujourd'hui,
07:57ce livre-là,
07:58il a été fait aussi
07:58pour qu'on ne soit pas dupe,
07:59c'est-à-dire expliquer
08:00les mécanismes
08:01et comment ça marche.
08:01Mais pour autant,
08:02moi je reste positif
08:03dans le sens où
08:03on a tous une responsabilité
08:05et on peut tous changer
08:06les choses à son échelle
08:08et on peut changer
08:09sa vie soi-même.
08:10En fait, il faut remettre
08:11à sa juste place,
08:12et c'est pour ça
08:13que je donne plein d'astuces,
08:14plein de conseils
08:15à la fin de chaque chapitre
08:16pour pouvoir justement
08:18remettre le téléphone,
08:19le numérique,
08:20les technologies,
08:20les tablettes,
08:21à leur juste place
08:22pour que ce soit un outil
08:23dans notre vie
08:23mais qui ne bouffe pas
08:24tout notre espace,
08:25mais qui nous prenne
08:26juste une partie,
08:27qu'on s'en sert
08:28pour ce qui est utile
08:29et c'est pour ça
08:30qu'il faut revenir
08:31à ce qui a du sens.
08:32Qu'est-ce qui est important
08:33pour moi dans la vie ?
08:33Comment je fais
08:34pour être heureux ?
08:35Quelles sont les clés
08:36pour être heureux ?
08:38C'est quoi le bonheur
08:39pour moi ?
08:39Qu'est-ce que j'ai envie de faire ?
08:40Il y a une étude
08:41qui est très intéressante
08:42qui est dans le livre d'ailleurs,
08:43c'est une infirmière
08:43des soins palliatifs
08:44qui a demandé
08:47à ses patients
08:47pendant 20-25 ans
08:49quels étaient
08:49leurs plus grands regrets
08:50et c'est toujours
08:51les mêmes qui reviennent.
08:52J'aurais dû travailler moins,
08:53j'aurais dû m'occuper
08:54plus de ma famille,
08:55j'aurais dû aimer faire
08:55des choses
08:56qui avaient de l'importance
08:58pour moi
08:58et donc il faut se recentrer
08:59là-dessus
08:59et au lieu de scroller
09:01pendant des heures,
09:02pendant 2-3 heures,
09:03pas avoir l'impression
09:03qu'on s'échappe,
09:06qu'on s'évade,
09:06etc.
09:07Il faut se reposer
09:08des questions existentielles
09:09profondes.
09:10Ça la passe par la maîtrise de soi.
09:11Vous écrivez en acquérant
09:13une meilleure maîtrise de soi,
09:14en soignant notre empathie,
09:15nous nous donnons
09:16toutes les chances
09:17de mieux accueillir l'autre.
09:19La conscience sociale
09:20qui se développe en nous
09:21n'est plus matinée d'angoisse
09:22et oui,
09:23parce qu'il y a de l'angoisse
09:24à scroller,
09:25à être dans cette boucle infernale.
09:28Bien au contraire,
09:29elle fait naître en nous
09:30l'envie de contempler,
09:30de connaître,
09:31de comprendre
09:31et de questionner le monde.
09:32Nicolas Sartre,
09:33nous partageons ce point de vue
09:34tous, j'imagine,
09:36mais le déclic,
09:37la mécanique,
09:38c'est de s'arracher,
09:39de s'extirper de l'écran.
09:41Vous savez,
09:41on dit ça des jeunes gens aujourd'hui,
09:43moi j'ai des grands enfants,
09:44j'ai un grand enfant du moins,
09:45un grand garçon,
09:46le petit d'ailleurs lui
09:47est attiré par l'écran,
09:48il faut fermer l'écran
09:49systématiquement,
09:50mais le déclic,
09:52vous savez,
09:53c'est comme l'alcoolisme,
09:54il faut à un moment donné
09:55il faut dire stop.
09:55C'est une prise de conscience d'abord
09:57et moi ce livre
09:58je l'ai écrit pour ça
09:58parce que je me suis rendu compte,
10:00vous savez,
10:00je recevais une notification
10:02sur le temps
10:03que je passais par semaine,
10:04je ne sais pas si vous avez ça
10:05sur votre écran.
10:06Quand j'ai vu ces chiffres-là,
10:08j'ai vraiment pris peur
10:09et je me suis dit
10:10mais ce temps passé,
10:11est-ce que je ne pourrais pas
10:12le prendre pour faire autre chose,
10:14quelque chose qui a plus de sens
10:16et surtout qui me rende plus heureux
10:17parce qu'il finit de savoir,
10:19de regarder combien j'avais de likes
10:20et de voir ce que je pouvais acheter en plus,
10:23finalement on a l'impression
10:24que ça nous rend heureux,
10:25c'est pour ça qu'on est dans
10:26une espèce d'illusion,
10:27mais finalement ça ne nous rend pas heureux,
10:28on le sent le mal-être profond
10:30et c'est ce déclic-là,
10:31à partir du moment où on l'a,
10:32il y a des solutions,
10:33il y a des clés,
10:33c'est ce que je développe dans le livre,
10:35il ne s'agit pas d'arrêter complètement
10:36de vivre en Hermie,
10:37de poser son téléphone,
10:38de fermer tous ses écrans,
10:39non, il s'agit de se réapproprier le temps
10:42et de se réapproprier,
10:44de remettre nos écrans
10:45dans leur juste place.
10:46Alors votre titre,
10:47c'est je ne suis pas un algorithme,
10:48en quoi l'être humain d'ailleurs
10:50serait-il aujourd'hui fondamentalement différent
10:53de ce qu'il fut il y a encore peu de temps,
10:55nous verrons ça avec vous,
10:57après tout il y avait déjà des écrans,
10:59peut-être pas les mêmes,
11:00avec pas forcément le même moteur dedans,
11:02il y a toujours eu ce côté,
11:05on va dire,
11:06addictif des choses,
11:07mais là c'est en mode exponentiel,
11:09nous allons évoquer dans un instant,
11:11après la pause avec vous,
11:13cette intelligence artificielle,
11:15est-ce qu'à vos yeux,
11:15il y a de quoi s'inquiéter,
11:17ou est-ce qu'il faut la dompter,
11:19nous en évoquerons ça brièvement,
11:21vous avez vu que,
11:22nous verrons ça dans un instant,
11:23elle arrive d'ici moins de deux ans,
11:25elle sera capable de supplanter
11:27et pas mal de postes,
11:28on va dire,
11:29de commandes,
11:30dans pas mal d'activités humaines,
11:32restez avec nous Nicolas Hazard,
11:34pour votre essai,
11:36je ne suis pas un algorithme,
11:37chez Flammarion,
11:38et si vous voulez réagir,
11:39comme vous le faites,
11:39vous appelez le 0826 300 300,
11:41à tout de suite.
11:42Le Grand Matin Sud Radio,
11:44la vérité en face,
11:46Jean-François Aquili,
11:47Nicolas Hazard,
11:49qui clame,
11:50entrepreneur essayiste,
11:51je précise,
11:52qui clame,
11:52je ne suis pas un algorithme,
11:54c'est le titre de votre nouvel essai,
11:56chez Flammarion,
11:58trouver du sens à l'ère de l'intelligence artificielle,
12:01s'arracher,
12:02s'extirper de nos écrans,
12:05de cette IA si séduisante,
12:07on va en parler,
12:08de l'algorithme,
12:09effectivement,
12:10qui nous capte,
12:12qui littéralement nous plonge
12:13dans un monde parallèle,
12:16vous avez vu,
12:17Nicolas Hazard,
12:18les cols blancs,
12:20vous connaissez bien ce sujet,
12:21sont appelés à disparaître à terme,
12:23c'est Moustapha Suleyman,
12:24le patron de l'IA chez Microsoft,
12:26qui le dit dans une interview au Financial Times,
12:28les performances de l'IA,
12:30dit-il,
12:31seront équivalentes à celles des humains,
12:33dans la plupart des tâches professionnelles,
12:35ça vaut pour les journalistes aussi,
12:37d'ici 18 mois,
12:39ce n'est pas dans 10 ans,
12:40c'est dans 18 mois,
12:41moins de 2 ans,
12:43leurs emplois seront remplacés
12:44par l'intelligence artificielle,
12:46vous en pensez quoi Nicolas Hazard ?
12:47Que bien évidemment,
12:49l'intelligence artificielle,
12:50j'ai écrit un livre qui s'appelle
12:51Qu'est-ce qu'on va faire de toi ?
12:53pour justement aider les jeunes
12:55qui rentrent sur le marché du travail
12:58à leur dire,
12:59maintenant quel boulot est fait pour toi,
13:01puisque l'IA va remplacer quand même
13:02pas mal de travaux,
13:04et donc qu'est-ce que tu vas pouvoir faire
13:06et quel boulot tu vas pouvoir exercer ?
13:09Et effectivement,
13:10le chambardement il est gigantesque,
13:12alors les chiffres de 18 mois
13:14me paraissent un petit peu...
13:15un peu court quand même,
13:18on voit qu'il y a quand même
13:20une bulle de l'IA aujourd'hui,
13:21c'est-à-dire qu'il y a beaucoup de promesses,
13:22mais ça ne se concrétise pas encore complètement,
13:24mais en tout cas,
13:25ce qui est sûr que d'ici 2030,
13:262040, 2050,
13:28il y a une transformation absolue
13:29du marché du travail,
13:30mais pour autant,
13:31et c'est ce que j'ai essayé de développer
13:32aussi dans ce livre-là,
13:34tous les métiers qui sont les plus humains,
13:36qui en fait font qu'on est humain,
13:38vont pouvoir se développer et grandir,
13:40les métiers de la communication,
13:42les métiers du care.
13:44Aujourd'hui,
13:45une personne âgée,
13:46elle n'a pas envie d'être soignée
13:47par un robot
13:47ou par une intelligence artificielle.
13:49Les enfants,
13:50on ne va pas les élever
13:51avec des intelligences artificielles.
13:53On va avoir besoin...
13:53Nous serons les petites mains du robot,
13:54peut-être,
13:55dans votre scénario d'anticipation.
13:57En tout cas,
13:57on sera les humains
13:59et on sera à notre juste place
14:00par rapport aux robots
14:02qui feront les tâches
14:03qu'on a le moins envie de faire.
14:04Donc,
14:05c'est sûr que ce qui est le plus automatisé
14:06sera remplacé,
14:08ça c'est déjà le cas,
14:09mais demain,
14:10il y a tous les métiers,
14:11en tout cas de la communication,
14:12du lien,
14:13du vivre ensemble,
14:15etc.,
14:15prendront une place importante.
14:17Donc,
14:17il y a encore des perspectives
14:18et puis,
14:18il faudra les gérer,
14:19ces robots.
14:20Donc,
14:20les études scientifiques,
14:22c'est toujours utile.
14:22Je ne suis pas un algorithme
14:24en quoi l'être humain
14:25est-il fondamentalement différent
14:28de cette espèce de modèle
14:31artificiel,
14:31par définition,
14:32qui nous est bombardé
14:33nuit et jour.
14:35Vous savez,
14:36nous fonctionnons tous
14:37depuis toujours
14:38par récompense,
14:40habitude,
14:41on a envie d'être flatté
14:43dans nos vies permanentes.
14:44Là,
14:45il y a une forme de,
14:46on va dire,
14:47de flatterie exponentielle
14:48avec l'algorithme.
14:49Qu'est-ce qui change
14:50en réalité ?
14:51C'est-à-dire que,
14:53alors je ne sais pas
14:53si vous,
14:54vous êtes sensible
14:54à la flatterie
14:55de Chad GPT
14:56ou de je ne sais pas qui
14:58qui vous dit
14:58bravo,
14:58vous avez passé une question
14:59très intelligente,
15:01je vais y répondre.
15:02Mais en tout cas,
15:03ce qui est sûr,
15:03c'est que cette empathie,
15:04l'empathie qui est propre
15:06à l'être humain,
15:07aujourd'hui,
15:08qui fait notre humanité,
15:09c'est quelque chose
15:10qui va être très difficile
15:11à développer
15:12avec les robots.
15:13Même si,
15:14effectivement,
15:15et ça c'est intéressant,
15:16je reviens du Japon,
15:18où il y a des personnes,
15:19aujourd'hui,
15:20qui demandent
15:21à se marier
15:21avec leurs robots
15:23ou leur intelligence artificielle,
15:24parce qu'ils ont créé
15:25un lien affectif particulier.
15:27C'est le thème
15:28du long métrage
15:28du film
15:29de Spike Jonze,
15:30Her,
15:31où le héros
15:34est amoureux
15:34de son moteur de recherche.
15:36Enfin, voilà.
15:37Enfin,
15:37de Scarlett Johansson,
15:39de la voix
15:39de Scarlett Johansson.
15:40Oui.
15:41Ce qui peut se comprendre.
15:43Mais en tout cas,
15:44oui,
15:44c'est exactement ça.
15:45Ça,
15:45c'est une réalité,
15:46aujourd'hui,
15:46qui existe.
15:47On le voit déjà
15:48au Japon.
15:49Et ça va se développer
15:51de plus en plus.
15:51Mais qu'est-ce que ça dit
15:52de notre société ?
15:53Ça dit surtout
15:54qu'on est dans un monde
15:54de solitude,
15:55où on a peur
15:56de parler à l'autre,
15:58où on a peur
15:58de la comparaison sociale,
16:01qu'on se cache
16:01derrière des écrans,
16:02parce qu'on a peur
16:03d'être qui on est.
16:05Voilà,
16:05c'est ça aussi la société.
16:07Donc,
16:07rien n'est inéluctable,
16:09finalement.
16:09Bien évidemment,
16:10que les robots,
16:11ils ne sont pas bons
16:11ou mauvais par essence,
16:13mais il faut les remettre
16:15à leur juste place.
16:15Et en fait,
16:16c'est les choix de société
16:17qu'on doit faire.
16:17Ils sont ce que nous sommes,
16:18ils sont ce que nous en faisons,
16:20ils ne sont pas forcément
16:23doués de conscience,
16:24pas encore.
16:26Ce serait,
16:27on va dire,
16:28l'étape d'après,
16:29mais je ne sais pas
16:30si elle est atteignable,
16:32c'est le vieux rêve
16:32de l'humanité.
16:33Vous savez,
16:34vous évoquez,
16:34je vais faire un pas de côté
16:35avec vous si vous l'acceptez,
16:36Nicolas Hazard,
16:37j'ai dialogué hier soir
16:38avec Chad Zipiti,
16:39figurez-vous,
16:40parce que j'avais une question
16:41qui me titillait.
16:42Je lui ai demandé pourquoi,
16:43en préparant cette interview
16:46avec cet ouvrage qui est passionnant,
16:47je vous conseille de le lire,
16:49pourquoi est-ce qu'on a souvent
16:50plus de plaisir à échanger
16:51avec Chad Zipiti,
16:53dont j'ai été très aimable,
16:54qui me l'a rendu bien d'ailleurs,
16:55qu'avec d'autres humains.
16:57Je lui ai posé la question
16:59et Chad Zipiti m'a répondu
17:00parce que je suis entièrement disponible
17:02et concentré sur toi
17:03et parce que tu reçois en retour
17:05exactement ce que tu cherches.
17:07et aussi parce que la friction sociale
17:09est absente.
17:11Il y a cette dérive.
17:13Non mais c'est très intéressant
17:15et surtout sur la première partie
17:16de sa réponse.
17:17En fait,
17:17qu'est-ce qu'il explique derrière tout ça ?
17:19Il explique qu'on est dans une société
17:20de plus en plus individualiste
17:22où en fait,
17:23on a une destruction
17:24de toutes les structures sociales
17:26intermédiaires,
17:27les corps intermédiaires,
17:28les associations,
17:29la famille,
17:29la religion,
17:30la nation,
17:30tout ça est en train
17:31de disparaître petit à petit
17:33et donc,
17:34comme disait Durkheim
17:35il y a déjà un siècle,
17:36à la fin,
17:37il ne reste à l'homme à aimer
17:39que lui-même.
17:40Et donc,
17:41en fait,
17:41nous on est absorbé,
17:43on est dans un nombrilisme
17:44d'une société de nombrilistes
17:46plus que jamais,
17:48qui se développe de plus en plus
17:49mais c'est lié aussi
17:50à l'éducation,
17:51à la manière dont on élève
17:52ses enfants,
17:53à leur dire tout le temps
17:54que c'est les meilleurs,
17:57etc.,
17:57qu'ils sont parfaits.
17:59Vous voyez,
17:59on est dans une société
18:00où on ne prépare pas,
18:03notamment les plus jeunes,
18:04à être dans un groupe,
18:05dans une collectivité,
18:06d'affronter le regard
18:09de l'autre,
18:10etc.
18:10Et ça,
18:10ça rend les choses
18:11très compliquées
18:11et c'est vrai du coup,
18:13on est de plus en plus
18:16individualiste
18:16et absorbé par nous-mêmes
18:18et donc du coup,
18:18si un robot nous flabbe,
18:19on est content.
18:20vous donnez la parole
18:21en fin de votre essai
18:22à pas mal de personnes,
18:23de vrais gens,
18:25si vous passez l'expression
18:26à Nicolas Hazard.
18:27Ça existe encore.
18:28Donnez du sens à votre vie,
18:29à vous d'agir,
18:30ce sont des exemples,
18:31vous classez,
18:32il y a une classification,
18:33pourquoi ce choix en fait ?
18:34Vous voulez donner la parole
18:35à des individus,
18:37ça parle de nous,
18:37c'est pour ça,
18:38donc il fallait bien
18:38que nous nous exprimions.
18:39Non, il y a un petit quiz,
18:41il y a un petit test au milieu
18:41pour que chacun puisse définir
18:43sa personnalité,
18:44c'est-à-dire quand on est
18:45en recherche de sens,
18:46parce que l'idée,
18:47c'est de dire
18:48je suis bouffé par les algorithmes
18:50mais du coup,
18:50j'ai besoin de retrouver du sens
18:51et donc c'est vous aider
18:52à retrouver du sens,
18:53il y a différentes manières
18:54de retrouver du sens,
18:55donc il y a un quiz
18:55et à partir de ce moment-là,
18:57il y a différents portraits,
18:58différents moyens
18:59d'avoir du sens dans sa vie
19:01et donc j'ai voulu inspirer,
19:02en montrant,
19:03regardez, ça existe,
19:04il y a des gens ordinaires
19:05qui font des choses extraordinaires
19:06et il faut s'en inspirer,
19:09plus intéressants
19:10que Tchad GPT parfois.
19:11En conclusion,
19:12Nicolas Hazard,
19:13le temps passe vite,
19:14donc pour ne pas devenir
19:15comme Joachim Phoenix
19:17dans le film Her,
19:18c'est-à-dire
19:18complètement prisonnier
19:20de la machine,
19:20même s'il écrit
19:21des lettres d'amour,
19:23c'est son vrai métier
19:24dans la vie,
19:25il est complètement hors sol,
19:26pour ne pas finir comme lui,
19:28c'est une question
19:29de volontarisme en réalité,
19:31c'est philosophique,
19:32c'est volontariste,
19:33c'est ce que vous dites.
19:34C'est absolument volontariste,
19:35on est quand même
19:36chacun responsable
19:37de son destin,
19:38il faut arrêter
19:39de se penser non plus
19:40en victime
19:41d'un système absolument,
19:45si on veut changer,
19:46on peut le faire
19:46à titre individuel,
19:48il y a des moyens
19:48de le faire,
19:49ce que je développe
19:49dans le livre,
19:50et donc il faut
19:51se reprendre en main
19:51en fait,
19:52c'est la même chose,
19:53c'est comme pour la nourriture,
19:55si on veut se remettre
19:56au sport,
19:57c'est la même chose,
19:57et bien là,
19:58c'est remettre
19:59les ordinateurs,
20:00les algorithmes
20:00à leur place.
20:01Je ne suis pas un algorithme,
20:03voilà,
20:04je le présente à l'écran
20:05si vous nous suivez
20:05sur Youtube,
20:07Nicolas Hazard,
20:08chez Flammarion,
20:09merci pour ce regard humain
20:11sur ce qui nous déboule
20:12sur la tête,
20:14on est déjà bien
20:14prisonniers des écrans,
20:15arrêtez de scroller
20:16s'il vous plaît,
20:16restez à l'écoute
20:17avec une vraie journaliste,
20:20une vraie,
20:21en chéri en os,
20:21Valérie Expert,
20:22bonjour,
20:22tout à l'heure,
20:24Gilles Gansman,
20:24vous allez voir,
20:25dans le zapping,
20:25va nous présenter
20:26une candidate
20:27aux élections colombiennes
20:29virtuelles
20:30qui est en tête
20:30des sondages.
20:31Mince alors !
20:31Voilà !
20:32Allez,
20:33mettez-vous d'accord !
20:34Écoutez,
20:35vous savez que c'est
20:36la IR,
20:37la journée mondiale
20:38de l'obésité,
20:39que l'ARCOM
20:40s'est associée
20:41à cette prévention
20:45et que nous allons
20:46aujourd'hui parler
20:47grossophobie
20:48avec Jean-François Amadieu
20:50et sur les discriminations
20:52louées liées
20:55aux obèses
20:56dans le monde du travail
20:57en particulier.
20:58On va en parler avec lui.
20:59On va revenir
21:00sur cette information
21:01qui est tombée ce matin.
21:02Le policier
21:03qui est mis en examen
21:05pour la mort
21:06de Naël Merzouk,
21:08le parquet,
21:09a décidé,
21:09la cour d'appel de Versailles
21:11a ordonné
21:12qu'il soit jugé
21:13devant une cour criminelle
21:14pour violence
21:15ayant entraîné la mort
21:16et non pour meurtre.
21:17C'est important la nuance
21:19donc on va en discuter
21:21et puis on aura
21:21Frédéric Dhabi avec nous
21:22pour parler de ce sondage
21:24IFOP
21:25qui place le RN
21:27largement en tête
21:28et vous
21:28si les élections
21:29avaient lieu dimanche prochain
21:31pour qui voteriez-vous ?
21:320 826 300 300.
21:33Bonne émission !
21:35Sous-titrage Société Radio-Canada
Commentaires

Recommandations