00:00Notre focus de ce samedi et ce soir, on s'intéresse à notre dépendance aux écrans,
00:04devenu un enjeu majeur de santé publique, d'éducation et même de démocratie.
00:09Et dans son livre, Sevrage numérique, l'ancienne ministre de l'Éducation, Najat Vallaud-Belkacem,
00:13dresse un constat préoccupant.
00:15Les écrans occupent désormais une place centrale dans nos vies
00:18avec des effets documentés sur la concentration, la santé mentale et le débat public.
00:23Elle appelle à une prise de conscience individuelle,
00:25mais aussi à une régulation politique des plateformes.
00:28Najat Vallaud-Belkacem, merci, bienvenue dans le JTA.
00:31Merci.
00:32Alors, vous avez été ministre de l'Éducation nationale,
00:35vous avez beaucoup travaillé sur la réussite scolaire.
00:38À quel moment avez-vous compris que la question des écrans
00:41devenait d'abord un enjeu majeur pour l'école, mais aussi pour la société ?
00:46Je pense que...
00:48En fait, les choses se sont faites en deux temps.
00:50C'est-à-dire que, ministre de l'Éducation,
00:52j'étais extrêmement consciente de la nécessité pour l'éducation
00:56d'éduquer les enfants au numérique, à l'utiliser,
00:59à l'utiliser à bon escient, à ne pas se laisser utiliser par lui.
01:04Donc, c'était une époque, entre 2014 et 2017, en gros,
01:08où on a plutôt beaucoup fait sur ce sujet-là.
01:11Mais ce qui s'est passé ces dernières années,
01:14c'est qu'on a changé de monde, en fait.
01:15Il faut vraiment avoir conscience, et je le dis dans le livre,
01:18notamment à partir de 2017-2018,
01:20lorsque Facebook, comme un des acteurs majeurs de ce domaine,
01:25a décidé de changer son algorithme,
01:27et que les autres ont suivi,
01:28pour faire beaucoup plus de place, finalement,
01:31aux informations les plus porteuses d'émotions négatives,
01:35parce que c'est ce qui allait retenir le plus longtemps en ligne les usagers.
01:39C'est ça, la logique derrière tout ça.
01:43Qu'on ait entré vraiment dans tout à fait autre chose.
01:46De la même façon, lorsque le smartphone, ces dernières années,
01:49s'est démocratisé au point qu'aujourd'hui,
01:5290% des adolescents possèdent un smartphone,
01:55qu'il contient systématiquement une caméra frontale,
01:59au point que n'importe qui qui a ce smartphone
02:02passe son temps à se regarder, à se comparer.
02:05Ces choses-là, l'algorithme, la démocratisation du téléphone,
02:09la caméra frontale, en fait, elles sont récentes,
02:12elles datent, disons, d'une petite dizaine d'années.
02:14Et en fait, c'est dans cette petite dizaine d'années
02:17qu'on a assisté à des changements majeurs,
02:19qui sont des changements de société,
02:21où, grosso modo, notre attention, notre disponibilité mentale,
02:25s'est transformée en capital financier
02:30pour des grands groupes que sont les GAFAM,
02:33les grandes entreprises.
02:34Oui, comparé aux mafias, d'ailleurs,
02:36en disant qu'entre GAFAM et mafia,
02:39il ne manque qu'une seule lettre, effectivement.
02:40Enfin, il y a vraiment cette idée
02:42que, de plus en plus, notre attention est captée,
02:47notre argent, la concentration,
02:49la santé mentale aussi.
02:50La santé mentale, on en voit des chiffres,
02:53franchement, enfin, je veux dire,
02:54regardez le nombre de tentatives de suicide
02:56ou d'automutilation chez les jeunes adolescentes, par exemple.
02:59Et notamment les filles.
03:00Oui.
03:01Je rappelle souvent ce chiffre, par exemple,
03:03s'agissant de la France.
03:04Sachez qu'entre 2007 et aujourd'hui,
03:06on a assisté à une hausse de 540%
03:09du nombre d'hospitalisations
03:11pour tentatives de suicide ou automutilation
03:14chez les adolescentes de 14 à 16 ans.
03:16Plus 540%, c'est pas plus 5% ou 54%.
03:21C'est un mouvement, un phénomène de société
03:25absolument majeur que je trouve qu'on sous-estime.
03:28Mais au-delà de la santé mentale,
03:29du bien-être de chacun d'entre nous,
03:32regardez les dégâts considérables
03:34sur le débat public.
03:35Enfin, franchement, comment ne pas constater
03:36la brutalisation du débat public ?
03:38Donc, pour notre démocratie,
03:41et maintenant que l'intelligence artificielle
03:43s'en mêle, créant des contenus
03:45de façon absolument massive,
03:47dont on ne sait jamais dire
03:48s'ils sont vrais ou s'ils sont faux,
03:49qui viennent s'ajouter à ces algorithmes
03:51qui nous retiennent dans des bulles de filtre,
03:54honnêtement, que va devenir notre esprit critique ?
03:57Le fait de passer autant de temps sur les écrans
03:59ne nous laisse plus le temps de lire.
04:01Or, l'esprit critique, il est forgé
04:03notamment par la lecture, par la rencontre
04:05de l'altérité, par la curiosité,
04:07pas par le fait de rester cantonnés
04:08dans des bulles de filtre
04:09avec des gens qui pensent déjà comme nous.
04:13Donc, pour nos démocraties aussi,
04:15c'est un problème.
04:15C'est un problème.
04:17Avant de parler des solutions,
04:19et notamment de la régulation,
04:20ce que peut le politique,
04:21il y a aussi cette question
04:22de l'impact environnemental
04:24qui est colossal, délétère,
04:26notamment pour l'Afrique.
04:28Et vous en parlez,
04:29c'est l'Afrique qui, finalement,
04:30prend ses déchets numériques.
04:31Quand on pense de façon
04:33complètement illusoire
04:34que c'est numérique,
04:36donc ça n'existe pas,
04:37vous vous rappelez
04:38qu'il y a des vrais dégâts,
04:39notamment sur le continent africain.
04:40C'est qu'on a tendance à considérer
04:42que le numérique est immatériel,
04:44mais ça ne veut pas dire,
04:45pour autant,
04:46qu'il ne pèse pas de tout son poids
04:48sur nos sols, en fait.
04:49Bien au contraire,
04:50les serveurs,
04:51les systèmes de refroidissement,
04:53tout ça,
04:53c'est des émissions de carbone.
04:55C'est évidemment extrêmement préoccupant
04:57pour notre environnement
04:59de manière générale.
04:59Et plus encore,
05:00comme vous venez de le rappeler,
05:02quand on regarde l'ensemble
05:03de la photographie,
05:05comme on dit,
05:05et qu'on se rend compte
05:06que les déchets du numérique,
05:08en fait, en plus,
05:10on les renvoie
05:10vers les pays les plus pauvres.
05:1280% des déchets du numérique
05:15du Nord
05:15se retrouvent au Sud,
05:17dans des pays comme le Ghana,
05:19par exemple,
05:19ou d'autres,
05:20à brûler,
05:21à ciel ouvert,
05:23dans des décharges.
05:24C'est-à-dire qu'en plus,
05:25il y a un mensonge dans tout cela.
05:26Il y a une hypocrisie folle
05:27parce qu'on dit,
05:29mais si,
05:29mais on les exporte
05:30parce que ça va resservir
05:31sur le marché d'occasion locale.
05:33Ça va être recyclé.
05:34Alors, 80% sont détruits.
05:35Pas du tout.
05:36Voilà, 80% sont détruits,
05:37ils brûlent
05:38et polluent l'environnement
05:40des populations qui y vivent,
05:41les rivières,
05:42les lacs,
05:42les hommes et les femmes
05:43et les enfants.
05:44Enfin, c'est une horreur.
05:45De la même façon
05:46qu'autre chose
05:47que j'ai constaté
05:48dans mon enquête,
05:49c'est, au fond,
05:50on voit beaucoup d'horreurs
05:52passer quand même
05:52sur les réseaux sociaux,
05:53d'images qu'on ne devrait pas voir
05:55et notamment les jeunes.
05:56Mais sachez
05:57qu'un certain nombre
05:59d'horreurs
05:59encore plus terribles
06:00nous sont épargnées
06:01grâce à l'action
06:03de modérateurs
06:04qui sont généralement
06:06dans les pays du Sud,
06:07là encore,
06:08payés au lance-pierre
06:09par les sous-traitants
06:11des GAFA.
06:11On l'a vu au Kenya,
06:12on a fait d'ailleurs
06:12des reportages.
06:13Absolument,
06:13vous en avez parlé ?
06:14Donc, vous voyez un peu
06:15quelle est la vie
06:16de ces modérateurs,
06:17de ces éboueurs du web
06:19en quelque sorte
06:19qui, pour nous épargnaient
06:20la vue de choses atroces,
06:22eux, pour le coup,
06:23sans être aucunement accompagnés
06:25sur un plan psychologique,
06:26pas du tout.
06:27Eh bien,
06:27digèrent ça tout seul.
06:29Alors, parlons des réponses
06:30et notamment des solutions,
06:32mais aussi des réponses politiques.
06:34Vous comparez cet enjeu
06:35à un changement climatique,
06:37c'est-à-dire,
06:37et à un problème systémique.
06:39Quelles seraient pour vous
06:41les réponses ?
06:42Alors, vous avez plusieurs réponses
06:43que vous proposez,
06:44notamment le NUMIS-Core,
06:46d'ailleurs,
06:46au même titre,
06:48enfin,
06:48sur le parallèle du NUMIS-Core.
06:50Quand on parle de régulation,
06:52on voit bien qu'en face,
06:53et les GAFA,
06:53vous l'avez dit,
06:54ce sont des multinationales
06:56planétaires,
06:58monstrueuses.
06:58Comment est-ce qu'on arrive
07:00à lutter contre ça ?
07:00Et qu'est-ce qu'on devrait faire
07:01en priorité ?
07:03D'abord,
07:03il faut en finir
07:04avec une idée fausse
07:05qui est,
07:05on ne peut rien faire.
07:06Ce n'est pas vrai.
07:07En fait,
07:07on peut faire.
07:08Et mon enquête,
07:09moi,
07:09elle m'a servi à ça.
07:10C'est que,
07:11je ne sais pas,
07:11est-ce que vous aviez
07:12entendu parler,
07:13vous,
07:13auparavant,
07:14du fait que le Brésil,
07:16en l'occurrence,
07:17un juge brésilien,
07:19après avoir fait injonction
07:20à X
07:21de retirer des tweets
07:23qui étaient
07:24pro-pouchistes,
07:25complotistes
07:26et problématiques
07:26pour la démocratie,
07:29X refusant
07:30d'obéir,
07:31le juge en question
07:32a dit,
07:32puisque c'est comme ça,
07:34j'ordonne à tous
07:35les fournisseurs
07:35d'accès du pays,
07:37les Brésiliens donc,
07:38de ne plus laisser
07:39de bande passante
07:40pour X.
07:41Et qu'en fait,
07:42ça a marché
07:42jusqu'à ce que X
07:43se plie.
07:44Et cet exemple,
07:45parmi d'autres,
07:46est assez intéressant
07:47parce qu'on se dit,
07:48ah mais oui,
07:48c'est vrai que X
07:49en tant que tel
07:50est installé aux États-Unis,
07:51donc c'est compliqué
07:52d'agir sur eux,
07:53mais par contre,
07:54on peut agir
07:54sur les fournisseurs
07:55d'accès locaux.
07:56Et en fait,
07:57des solutions comme ça,
07:58on en trouve
07:58quand il y a
07:59de la volonté politique
08:00ou de la volonté juridique,
08:03juridictionnelle,
08:03c'était un juge.
08:05Donc,
08:06qu'est-ce qu'on peut faire ?
08:07En fait,
08:07moi je pense
08:08qu'il faut absolument
08:09s'attaquer au design
08:11des plateformes elles-mêmes,
08:12c'est-à-dire
08:13à la façon
08:13dont sont conçus
08:14les algorithmes.
08:15En fait,
08:16il n'y a rien d'évident
08:17à ce que les algorithmes
08:19soient conçus
08:20pour nous retenir
08:21toujours plus longtemps
08:21en ligne.
08:23Considérons comme
08:23une liberté fondamentale,
08:25notre disponibilité mentale,
08:28c'est-à-dire
08:28qu'on n'y touche pas
08:30de façon si évidente.
08:32Donc,
08:32tout ce qui est,
08:33par exemple,
08:33scrolling à l'infini,
08:35tout ce qui est autoplay,
08:36quand vous lancez une vidéo
08:37et puis qu'aussitôt
08:39une autre se lance,
08:41tout ça,
08:41c'est par la loi
08:43ou les décrets
08:43que les pouvoirs publics
08:45doivent pouvoir dire
08:47aux plateformes
08:47qu'on n'en veut pas
08:49et de faire autrement.
08:50Alors,
08:50en tout cas,
08:51beaucoup de solutions
08:52et c'est très drôle,
08:53très bien documenté,
08:54très enlevé,
08:55vous allez voir,
08:56c'est à la fois
08:57très bien documenté
08:59et très intéressant
09:00et puis très agréable à lire.
09:01Merci.
09:02Merci à vous.
09:02Beaucoup.
09:03Najat Vallaud-Belkacem,
09:04sevrage numérique,
09:05enquête sur notre rapport
09:06aux écrans
09:06et comment s'en libérer,
09:08c'est chez Talendier.
09:09Merci.
09:09Restez avec nous,
09:10Car l'actualité continue
09:11sur France 24.
09:12Merci.
09:13Merci.
09:13Sous-titrage Société Radio-Canada
09:14Sous-titrage Société Radio-Canada
09:15Sous-titrage Société Radio-Canada
Commentaires